Refine
Year of publication
- 2016 (157) (remove)
Document Type
- Doctoral Thesis (92)
- Periodical Part (15)
- Conference Proceeding (14)
- Article (10)
- Preprint (7)
- Part of a Book (5)
- Working Paper (5)
- Master's Thesis (3)
- Book (2)
- Bachelor Thesis (1)
Language
- English (81)
- German (75)
- Multiple languages (1)
Has Fulltext
- yes (157)
Keywords
- Stadtplanung (8)
- MINT (5)
- Mathematische Modellierung (5)
- Schule (4)
- Cache (3)
- SRAM (3)
- DRAM (2)
- Gentoxizität (2)
- Hochschulforschung (2)
- PIM (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (28)
- Kaiserslautern - Fachbereich Informatik (25)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (17)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (12)
- Universität (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Biologie (5)
To continue reducing voltage in scaled technologies, both circuit and architecture-level resiliency techniques are needed to tolerate process-induced defects, variation, and aging in SRAM cells. Many different resiliency schemes have been proposed and evaluated, but most prior results focus on voltage reduction instead of energy reduction. At the circuit level, device cell architectures and assist techniques have been shown to lower Vmin for SRAM, while at the architecture level, redundancy and cache disable techniques have been used to improve resiliency at low voltages. This paper presents a unified study of error tolerance for both circuit and architecture techniques and estimates their area and energy overheads. Optimal techniques are selected by evaluating both the error-correcting abilities at low supplies and the overheads of each technique in a 28nm. The results can be applied to many of the emerging memory technologies.
We propose and study a strongly coupled PDE-ODE-ODE system modeling cancer cell invasion through a tissue network
under the go-or-grow hypothesis asserting that cancer cells can either move or proliferate. Hence our setting features
two interacting cell populations with their mutual transitions and involves tissue-dependent degenerate diffusion and
haptotaxis for the moving subpopulation. The proliferating cells and the tissue evolution are characterized by way of ODEs
for the respective densities. We prove the global existence of weak solutions and illustrate the model behaviour by
numerical simulations in a two-dimensional setting.
Whole-body vibrations (WBV) have adverse effects on ride comfort and human health. Suspension seats have an important influence on the WBV severity. In this study, WBV were measured on a medium-sized compact wheel loader (CWL) in its typical operations. The effect of short-term exposure to the WBV on the ride comfort was evaluated according to ISO 2631-1:1985 and ISO 2631-1:1997. ISO 2631-1:1997 and ISO 2631-5:2004 were adopted to evaluate the effect of long-term exposure to the WBV on the human health. Reasons for the different evaluation results obtained according to ISO 2631-1:1997 and ISO 2631-5:2004 were explained in this study. The WBV measurements were carried out in cases where the driver wore a lap belt or a four-point seat harness and in the case where the driver did not wear any safety belt. The seat effective amplitude transmissibility (SEAT) and the seat transmissibility in the frequency domain in these three cases were analyzed to investigate the effect of a safety belt on the seat transmissibility. Seat tests were performed on a multi-axis shaking table in laboratory to study the dynamic behavior of a suspension seat under the vibration excitations measured on the CWL. The WBV intensity was reduced by optimizing the vertical and the longitudinal seat suspension systems with the help of computational simulations. For the optimization multi-body models of the seat-dummy system in the laboratory seat tests and the seat-driver system in the field vibration measurements were built and validated.
Automata theory has given rise to a variety of automata models that consist
of a finite-state control and an infinite-state storage mechanism. The aim
of this work is to provide insights into how the structure of the storage
mechanism influences the expressiveness and the analyzability of the
resulting model. To this end, it presents generalizations of results about
individual storage mechanisms to larger classes. These generalizations
characterize those storage mechanisms for which the given result remains
true and for which it fails.
In order to speak of classes of storage mechanisms, we need an overarching
framework that accommodates each of the concrete storage mechanisms we wish
to address. Such a framework is provided by the model of valence automata,
in which the storage mechanism is represented by a monoid. Since the monoid
serves as a parameter to specifying the storage mechanism, our aim
translates into the question: For which monoids does the given
(automata-theoretic) result hold?
As a first result, we present an algebraic characterization of those monoids
over which valence automata accept only regular languages. In addition, it
turns out that for each monoid, this is the case if and only if valence
grammars, an analogous grammar model, can generate only context-free
languages.
Furthermore, we are concerned with closure properties: We study which
monoids result in a Boolean closed language class. For every language class
that is closed under rational transductions (in particular, those induced by
valence automata), we show: If the class is Boolean closed and contains any
non-regular language, then it already includes the whole arithmetical
hierarchy.
This work also introduces the class of graph monoids, which are defined by
finite graphs. By choosing appropriate graphs, one can realize a number of
prominent storage mechanisms, but also combinations and variants thereof.
Examples are pushdowns, counters, and Turing tapes. We can therefore relate
the structure of the graphs to computational properties of the resulting
storage mechanisms.
In the case of graph monoids, we study (i) the decidability of the emptiness
problem, (ii) which storage mechanisms guarantee semilinear Parikh images,
(iii) when silent transitions (i.e. those that read no input) can be
avoided, and (iv) which storage mechanisms permit the computation of
downward closures.
This work introduces a promising concept for the preparation of new nano-sized receptors. Mixed monolayer protected gold nanoparticles (AuNPs) for low molecular weight compounds were prepared featuring functional groups on their surfaces. It has been shown that these AuNPs can engage in interactions with peptides in aqueous media. Quantitative binding information was obtained from DOSY-NMR titrations indicating that nanoparticles containing a combination of three orthogonal functional groups are more efficient in binding to dipeptides than mono or difunctionalised analogues. The strategy is highly modular and easily allows adapting the receptor selectivity to a
given substrate by varying the type, number, and ratio of binding sites on the nanoparticle
surface.
Der gewerkschaftliche Bildungsträger ver.di Bildung + Beratung (im Folgenden: ver.di b+b) ist auf die Qualifizierung von gesetzlichen Interessenvertretungen spezialisiert und eng mit der Gewerkschaft ver.di verbunden. Die größte Zielgruppe sind Mitglieder von Betriebsratsgremien. Die Bildungsarbeit von ver.di b+b wird durch die rechtlichen Rahmenbedingungen, einen gewerkschaftspolitischen Anspruch und einen pädagogischen Auftrag beeinflusst: Betriebsratsmitglieder haben nach dem Betriebsverfassungsgesetz (BetrVG) einen Freistellungsanspruch für den Besuch von Schulungen. Damit sie teilnehmen können, müssen die Schulungen verschiedene rechtliche Vorgaben erfüllen. Gewerkschaftliche Bildung versteht sich als politische Bildung, was ebenfalls Einfluss auf die inhaltliche, pädagogische und organisatorische Gestaltung hat. Im Leitbild von ver.di b+b wird der pädagogische Anspruch des Bildungsträgers deutlich: Die Schulungen sollen handlungs- und teilnehmerorientiert sein und die Teilnehmenden persönlich, fachlich, sozial und politisch stärken. Diese drei Aspekte sind zu berücksichtigen, wenn es um die Frage nach den geeigneten Lernformen für Betriebsratsschulungen geht. Bis jetzt bietet ver.di b+b seine Seminare ausschließlich in Form von Präsenzveranstaltungen an. E-Learning-Angebote gibt es nicht. Das steht im Widerspruch zu der allgemeinen gesellschaftlichen Bedeutung des Internets.
Anhand einer empirischen Untersuchung gibt die Arbeit eine Einschätzung zu dem Bedarf von E-Learning-Angeboten im Bereich der gewerkschaftlichen Bildungsarbeit mit Betriebsräten aus Sicht der Teilnehmenden von ver.di b+b.
Most of today’s wireless communication devices operate on unlicensed bands with uncoordinated spectrum access, with the consequence that RF interference and collisions are impairing the overall performance of wireless networks. In the classical design of network protocols, both packets in a collision are considered lost, such that channel access mechanisms attempt to avoid collisions proactively. However, with the current proliferation of wireless applications, e.g., WLANs, car-to-car networks, or the Internet of Things, this conservative approach is increasingly limiting the achievable network performance in practice. Instead of shunning interference, this thesis questions the notion of „harmful“ interference and argues that interference can, when generated in a controlled manner, be used to increase the performance and security of wireless systems. Using results from information theory and communications engineering, we identify the causes for reception or loss of packets and apply these insights to design system architectures that benefit from interference. Because the effect of signal propagation and channel fading, receiver design and implementation, and higher layer interactions on reception performance is complex and hard to reproduce by simulations, we design and implement an experimental platform for controlled interference generation to strengthen our theoretical findings with experimental results. Following this philosophy, we introduce and evaluate a system architecture that leverage interference.
First, we identify the conditions for successful reception of concurrent transmissions in wireless networks. We focus on the inherent ability of angular modulation receivers to reject interference when the power difference of the colliding signals is sufficiently large, the so-called capture effect. Because signal power fades over distance, the capture effect enables two or more sender–receiver pairs to transmit concurrently if they are positioned appropriately, in turn boosting network performance. Second, we show how to increase the security of wireless networks with a centralized network access control system (called WiFire) that selectively interferes with packets that violate a local security policy, thus effectively protecting legitimate devices from receiving such packets. WiFire’s working principle is as follows: a small number of specialized infrastructure devices, the guardians, are distributed alongside a network and continuously monitor all packet transmissions in the proximity, demodulating them iteratively. This enables the guardians to access the packet’s content before the packet fully arrives at the receiver. Using this knowledge the guardians classify the packet according to a programmable security policy. If a packet is deemed malicious, e.g., because its header fields indicate an unknown client, one or more guardians emit a limited burst of interference targeting the end of the packet, with the objective to introduce bit errors into it. Established communication standards use frame check sequences to ensure that packets are received correctly; WiFire leverages this built-in behavior to prevent a receiver from processing a harmful packet at all. This paradigm of „over-the-air“ protection without requiring any prior modification of client devices enables novel security services such as the protection of devices that cannot defend themselves because their performance limitations prohibit the use of complex cryptographic protocols, or of devices that cannot be altered after deployment.
This thesis makes several contributions. We introduce the first software-defined radio based experimental platform that is able to generate selective interference with the timing precision needed to evaluate the novel architectures developed in this thesis. It implements a real-time receiver for IEEE 802.15.4, giving it the ability to react to packets in a channel-aware way. Extending this system design and implementation, we introduce a security architecture that enables a remote protection of wireless clients, the wireless firewall. We augment our system with a rule checker (similar in design to Netfilter) to enable rule-based selective interference. We analyze the security properties of this architecture using physical layer modeling and validate our analysis with experiments in diverse environmental settings. Finally, we perform an analysis of concurrent transmissions. We introduce a new model that captures the physical properties correctly and show its validity with experiments, improving the state of the art in the design and analysis of cross-layer protocols for wireless networks.
Der Anteil an regenerativen Energien am Strommarkt in Deutschland steigt kontinuierlich. Dies führt bereits heute zu Problemen bei der Energiespeicherung, da die Stromproduktion aus regenerativen Energien stark von Wind und Wetter abhängt. Hierbei sind die derzeitigen Energiespeicher wie Schwungräder, Batterien oder Pumpspeicherkraftwerke in ihrer Kapazität stark begrenzt. Eine mögliche Lösung für die Problematik der Energiespeicherung bietet das Power-to-Gas-Verfahren, indem die elektrische Energie in chemische Energie (z. B. synthetisches Erdgas) umgewandelt und im Erdgasnetz gespeichert wird. Darüber hinaus kann durch die Umwandlung von Kohlendioxid als C₁-Baustein in funktionalisierte Grundchemikalien die Abhängigkeit von Rohöl vermindert werden. Hierfür sind Katalysatoren notwendig, die eine wirtschaftliche Hydrierung von Kohlendioxid zu Wertprodukten ermöglichen. Die Schwierigkeit liegt in der Überwindung der hohen Aktivierungsenergie von Kohlendioxid, wodurch es sehr reaktionsträge ist. In der Literatur wurden bereits einige Katalysatorsysteme untersucht; nur wenige beschäftigen sich mit kinetischen Untersuchungen. Ein Problem der zahlreichen Publikationen ist die häufig fehlende Vergleichbarkeit. Dies liegt im Wesentlichen an der Vielzahl der variablen Reaktionsbedingungen, wie Reaktionstemperatur, Reaktionsdruck, Verweilzeit sowie dem Verhältnis von Wasserstoff zu Kohlendioxid. Außerdem wird in kinetischen Studien oft für ein vorliegendes Katalysatorsystem eine individuelle Berechnungsmethode zur Ermittlung der kinetischen Daten verwendet, die sich nicht auf andere Katalysatorsysteme oder Aktivkomponenten anwenden lässt.
Die zuvor genannten Probleme waren eine wesentliche Motivation, verschiedene Aktivkomponenten unter gleichen Reaktionsbedingungen zu untersuchen. Die hierbei gewonnenen Informationen sind in die nachfolgenden Studien zur Modifikation des Trägermaterials und der Aktivkomponenten eingeflossen. Zum Schluss wurde versucht, ein synthetisches Erdgas mittels Brennwertanpassung herzustellen. Hierfür wurde ein Fischer-Tropsch-Katalysator mit Methanisierungskatalysatoren kombiniert. Die hergestellten Katalysatoren wurden jeweils mithilfe von N₂-Physisorption, Pulver-Röntgendiffraktometrie, thermogravimetrischer Analyse, Rasterelektronenmikroskopie, temperaturprogrammierter Reduktion sowie durch H₂-Chemisorption charakterisiert. Die katalytischen Eigenschaften der hergestellten Katalysatoren wurden in einer Hochdruck-Strömungsapparatur erprobt. Im Fokus der Untersuchungen standen die Stabilität der Katalysatoren sowie der Einfluss der Reaktionstemperatur und der modifizierten Verweilzeit auf Umsatz und Produktausbeuten.
Zu Beginn wurden zehn verschiedene Aktivkomponenten jeweils auf γ-Aluminiumoxid als Träger (Puralox SCFa 230) untersucht. Dabei waren der Einfluss der Reaktionstemperatur auf den Umsatz von Kohlendioxid und die Zusammensetzung des Produktgases als auch die kinetischen Parameter von besonderem Interesse. Die Ergebnisse zeigten einen deutlichen Einfluss der Aktivkomponente auf das Produktspektrum der katalytischen Hydrierung von Kohlendioxid. Hierbei traten insbesondere die Metalle Kupfer, Nickel, Rhodium und Eisen hervor. Ersteres zeigte eine hohe Selektivität zu Kohlenmonoxid. Nickel und Rhodium produzierten Methan mit sehr hohen Selektivitäten und hohen Umsätzen, die nahe am thermodynamischen Gleichgewicht liegen. Die Vorteile von Eisen als Aktivkomponente liegen in der Produktion von signifikanten Mengen an C₂₊-Kohlenwasserstoffen. Alle anderen Aktivkomponenten zeigten eine gemischte Produktzusammensetzung (d. h. bestehend aus Kohlenmonoxid, Methan, C₂₊-Kohlenwasserstoffen). Anhand von kinetischen Untersuchungen konnten die Temperaturabhängigkeit der Reaktionsgeschwindigkeit in Form einer scheinbaren Aktivierungsenergie sowie die Abhängigkeit vom Partialdruck an Kohlendioxid ermittelt werden. Für beide Parameter werden möglichst kleine Werte angestrebt. Dies bedeutet, dass bereits bei kleineren Partialdrücken und niedrigeren Reaktionstemperaturen signifikante Umsätze von Kohlendioxid zu beobachten sein sollten. Die Partialdruckabhängigkeit der Reaktionskinetik nimmt in folgender Reihenfolge der Aktivkomponenten zu: Ni, Rh < Ru < Co < Pt < Cu, Pd, <Re << Fe300-375°C. Die kinetischen Untersuchungen zeigten hierbei für die Methanisierungskatalysatoren die niedrigste Partial-druckabhängigkeit der Reaktionskinetik, gefolgt von den Katalysatoren für die umgekehrte Wassergas-Shift-Reaktion. Die größte Kohlendioxid-Partialdruckabhängigkeit der Reaktionskinetik konnte an den Katalysatoren mit gemischter Produktzusammensetzung und am eisenhaltigen Fischer-Tropsch-Katalysator beobachtet werden. Die Reihenfolge der Temperaturabhängigkeit der Reaktionskinetik an den Aktivkomponenten lautet wie folgt: Pd < Cu < Ru < Pt, Co < Ni < Fe300-375°C < Rh, Re. Um auch die wirtschaftlichen Aspekte bei der Auswahl der Aktivkomponenten zu berücksichtigen, wurden die Marktpreise für die untersuchten Metalle verglichen. Die Preise für die Metalle wurden für eine Tonne Katalysator mit entsprechender Beladung berechnet. Anhand der Preise für die Aktivkomponenten und unter Einbeziehung der Ergebnisse der katalytischen Untersuchungen ist Nickel der Favorit für einen Methanisierungskatalysator und Eisen bevorzugt als Fischer-Tropsch-Katalysator.
Aufgrund der hohen Aktivität von Nickel wurde diese Aktivkomponente ausgewählt, um mit unterschiedlichen Trägermaterialien auf der Basis von Titandioxid das katalytische Potenzial zu evaluieren. Als Trägermaterialien wurden Lithiumtitanat, makro-/mesoporöse Titan-Aluminium-Mischoxide und mit Titandioxid beschichtetes Puralox SCFa-230 eingesetzt. Hierbei konnten an den makro-/mesoporösen Titan-Aluminium-Mischoxiden der unterschiedliche Einfluss von Titan und Aluminium auf die Eigenschaften des resultierenden Mischoxids beobachtet werden. Es zeigte sich, dass die strukturelle Stabilität und höhere spezifische Oberfläche von Aluminiumoxid sowie die höhere katalytische Aktivität durch Titandioxid im Mischoxid von Bedeutung sind. Zugleich bieten die Makro- und Mesoporen in den Mischoxiden einen verbesserten Stofftransport. Es konnte gezeigt werden, dass der titanhaltige Träger eine sehr geringe spezifische Oberfläche im Vergleich zum aluminiumhaltigen Träger aufweist. Bei den Mischoxiden beginnt ab einem Titangehalt von 50 mol-% die spezifische Oberfläche mit steigendem Titananteil stetig zu sinken. Anhand der temperaturprogrammierten Reduktion konnte eine zunehmende Reduzierbarkeit des Nickels mit steigendem Titangehalt im Trägermaterial beobachtet werden. Generell wurde an nickelhaltigen Katalysatoren Kohlendioxid mit sehr hohen Selektivitäten zu Methan umgewandelt. Im direkten Vergleich sind die Umsätze am Katalysator mit reinem Titandioxid deutlich höher als an dem Katalysator mit reinem γ-Aluminiumoxid als Träger. Dies zeigt die höhere katalytische Aktivität mit Titanoxid als Trägermaterial. Die niedrigsten Umsätze wurden am nickelbeladenen Mischoxid mit einem Titangehalt von 50 mol-% beobachtet, was wahrscheinlich mit der amorphen Struktur dieses Trägermaterials zusammenhängt. Die größte Aktivität für die Methanisierung von Kohlendioxid konnte an dem Mischoxid mit einem Titangehalt von 80 mol-% im Trägermaterial beobachtet werden. Anscheinend liegt hier ein Optimum zwischen der strukturellen Stabilität von Aluminium und der katalytischen Aktivität durch Titan im Mischoxid vor. Die spezifische Oberfläche des Titan-Aluminium-Mischoxids mit 80 mol-% Titan liegt mit 115 m²·g⁻¹ verglichen mit dem reinen Titanoxid mit 20 m²·g⁻¹ deutlich höher. Diese ist jedoch geringer als die spezifische Oberfläche des γ-Aluminiumoxids mit 225 m²·g⁻¹.
Die Modifizierung der Aktivkomponente wurde mit drei verschiedenen Klassen von Katalysatoren untersucht. Es wurden Mischungen zwischen Nickel und Rhodium, den beiden aktivsten Metallen aus Kapitel 4, sowie Mischungen aus Palladium, Nickel und Magnesium für die Methanisierung von Kohlendioxid untersucht. Für die Fischer-Tropsch-Synthese wurden eisenhaltige Katalysatoren modifiziert. Bei den Untersuchungen von Nickel und Rhodium sowie Palladium, Nickel und Magnesium als Aktivkomponente auf Puralox SCFa-230 wurde gefunden, dass bei Verwendung von Nickel als reiner Aktivkomponente die besten katalytischen Ergebnisse erzielt wurden. An allen untersuchten Katalysatoren wurde bei der katalytischen Umwandlung von Kohlendioxid eine hohe Selektivität zu Methan beobachtet. Hinweise auf eine positive Wirkung der Mischung der Aktivkomponenten konnten nicht gefunden werden. Mittels temperaturprogrammierter Reduktion wurde gefunden, dass – anders als zunächst vermutet – Nickel und Rhodium als voneinander isolierte Spezies vorliegen und nicht etwa als Legierung.
Aufbauend auf der Arbeit von Park und McFarland [38] wurden die Metalle Palladium, Nickel und Magnesium für die Methanisierung von Kohlendioxid kombiniert. Die Katalysatoren wurden schrittweise synthetisiert und ihre katalytische Aktivität untersucht. Bei allen Katalysatoren ist die katalytische Aktivität deutlich geringer als bei dem Katalysator mit reinem Nickel auf Puralox SCFa-230. Die katalytische Aktivität der Hochtemperatur-reduzierten Katalysatoren liegt noch einmal deutlich unter der katalytischen Aktivität der kalzinierten und danach reduzierten Katalysatoren. Dies liegt wahrscheinlich in einer geringeren Dispersion der Aktivkomponente begründet. Ursachen für eine geringe Dispersion können sein: (i) die direkte Reduktion der imprägnierten Metallkomponente ohne Kalzination als Zwischenschritt oder (ii) eine Be-günstigung der Metallsinterung durch die Hochtemperatur-Reduktion. Basierend auf den erzielten Ergebnissen stellt die Verwendung von Nickel auf γ-Aluminiumoxid als Träger ein Optimum hinsichtlich Aktivität, Selektivität, Stabilität und Preis dar.
Bei der Modifizierung der Fischer-Tropsch-Katalysatoren wurden verschiedene Promotoren zusammen mit Eisen auf Puralox SCFa-230 aufgebracht. Als Promotoren für Eisen wurden Zink oder Mangan eingesetzt und mit einem promotorfreien Eisenkatalysator verglichen. Hierzu wurden zum einen die Metalle in Form der entsprechenden Nitratsalze auf das γ-Aluminiumoxid imprägniert. Zum anderen wurden eisen- und eisen-/promotorhaltige Nanopartikel zur Im-prägnierung verwendet. Alle Katalysatoren lieferten bei der Hydrierung von Kohlendioxid ein Produktgemisch bestehend aus Kohlenmonoxid, Methan und C₂₊-Kohlenwasserstoffen. Die Ausbeuten an C₂₊-Kohlenwasserstoffen sind bei 400 °C am größten, wobei mit steigender Temperatur eine Abnahme der Kettenlänge beobachtet werden kann. Die Unterschiede der Metallsalz-imprägnierten Katalysatoren im Vergleich zu den Nanopartikel-imprägnierten Katalysatoren sind relativ gering. Die Nanopartikel-imprägnierten Katalysatoren bilden geringfügig kleinere Mengen an Kohlenmonoxid zugunsten von Methan. Beim Vergleich der Promotoren hat sich eine Dotierung mit Mangan gegenüber den zinkhaltigen- sowie den promotorfreien eisenhaltigen Katalysatoren als vorteilhaft herausgestellt. Die manganhaltigen Katalysatoren produzieren den größten Anteil an Olefinen in den einzelnen Fraktionen. Außer-dem liegt die Kettenwachstumswahrscheinlichkeit α bei niedrigeren Temperaturen höher als bei den anderen Katalysatoren.
In weiteren Untersuchungen wurden ungeträgerte Fischer-Tropsch-Katalysatoren betrachtet. Hierfür wurden zwei Fällungskatalysatoren hergestellt. Es wurde ein Katalysator, der ausschließlich aus Eisenoxid besteht, als Referenz untersucht sowie ein eisenhaltiger Katalysator mit den Promotoren Aluminium, Mangan und Kalium. Am reinen Eisenoxid konnte eine etwas höhere Kettenwachstumswahrscheinlichkeit α sowie ein höheres Verhältnis von Olefinen zu Paraffinen im Vergleich zu den geträgerten Katalysatoren beobachtet werden. Mit dem Fällungskatalysator, der promotiert war, wurden die besten Ergebnisse erzielt: Die Umsätze von Kohlendioxid, die Ausbeuten an C₂₊-Kohlenwasserstoffen sowie die Kettenwachstumswahr-scheinlichkeiten α und die Verhältnisse der Summe von Olefinen / sauerstoffhaltigen Verbin-dungen zu den Paraffinen sind bei allen Reaktionstemperaturen am größten. Die Ergebnisse zeigen, dass Vollkatalysatoren für die Fischer-Tropsch-Synthese besser geeignet sind als Trägerkatalysatoren.
Um den eingangs erläuterten Kapazitätsengpass bei der Speicherung von regenerativen Energien entgegen zu treten, stellt das Power-to-Gas-Verfahren einen interessanten Lösungsansatz dar. In diesem Zusammenhang wurde eine Modifizierung des Power-to-Gas-Verfahrens näher untersucht. Es wurde anhand von Modellrechnungen gezeigt, weshalb eine Brennwertanpassung mit kombinierter Fischer-Tropsch-Synthese notwendig erscheint. Die Katalysatoren wurden anhand der zuvor erlangten Erkenntnisse ausgewählt. Als Methanisierungskatalysatoren wurde jeweils ein cobalt , nickel- oder rhodiumhaltiger Katalysator mit dem promotorhaltigen Fällungskatalysator für die Fischer-Tropsch-Synthese kombiniert. Die Kom-bination eines Methanisierungskatalysators mit dem Fischer-Tropsch-Katalysator führte jedoch nicht wie erwartet zu einem Produktgas mit einem hohen Anteil von Methan sowie zusätzlich C₂₊-Kohlenwasserstoffen. Stattdessen wurde fast ausschließlich Methan gebildet. Die Variation der Verweilzeit am cobalthaltigen Katalysatorsystem und eine längere Laufzeituntersuchung am nickelhaltigen Katalysatorsystem zeigten zudem das Auftreten einer Desaktivierung des Methanisierungskatalysators. Nach dessen vollständiger Desaktivierung wurde die Produktzusammensetzung ausschließlich durch den Fischer-Tropsch-Katalysator bestimmt. Diese Beobachtungen können folgendermaßen erklärt werden: Zu Beginn der Katalysatorlaufzeit werden die entstandenen C₂₊-Kohlenwasserstoffe mittels Hydrogenolyse am Methanisierungskatalysator zu Methan umgewandelt. Das bei der Fischer-Tropsch-Synthese gebildete Kohlenmonoxid und ein Teil des restlichen Kohlendioxids werden ebenfalls zu Methan umgesetzt. Mit fortschreitender Verweilzeit desaktiviert der Methanisierungskatalysator durch Verkoken. Die Hydrogenolyse, welche vermutlich ebenfalls an den für die Methanisierung aktiven Zentren stattfindet, kommt vollständig zum Erliegen. Die Produktzusammensetzung wird nun vollständig durch die Katalyse am Fischer-Tropsch-Katalysator dominiert. Vor diesem Hintergrund erscheint die Suche nach Methanisierungskatalysatoren, die keine Hydrogenolyse von C₂₊-Kohlenwasserstoffen bewirken, als lohnenswert.
Dual-Pivot Quicksort and Beyond: Analysis of Multiway Partitioning and Its Practical Potential
(2016)
Multiway Quicksort, i.e., partitioning the input in one step around several pivots, has received much attention since Java 7’s runtime library uses a new dual-pivot method that outperforms by far the old Quicksort implementation. The success of dual-pivot Quicksort is most likely due to more efficient usage of the memory hierarchy, which gives reason to believe that further improvements are possible with multiway Quicksort.
In this dissertation, I conduct a mathematical average-case analysis of multiway Quicksort including the important optimization to choose pivots from a sample of the input. I propose a parametric template algorithm that covers all practically relevant partitioning methods as special cases, and analyze this method in full generality. This allows me to analytically investigate in depth what effect the parameters of the generic Quicksort have on its performance. To model the memory-hierarchy costs, I also analyze the expected number of scanned elements, a measure for the amount of data transferred from memory that is known to also approximate the number of cache misses very well. The analysis unifies previous analyses of particular Quicksort variants under particular cost measures in one generic framework.
A main result is that multiway partitioning can reduce the number of scanned elements significantly, while it does not save many key comparisons; this explains why the earlier studies of multiway Quicksort did not find it promising. A highlight of this dissertation is the extension of the analysis to inputs with equal keys. I give the first analysis of Quicksort with pivot sampling and multiway partitioning on an input model with equal keys.
Wie entwickelte sich der europäische Stadtblock von der Antike bis in die Gegenwart und was bedeutet er heute für den urbanen Raum? Dies sind die zentralen Fragestellungen dieser Arbeit. Aufbauend auf den methodischen Werkzeugen der diachronischen und synchronischen Linien nach Carl E. Schorske, mit deren Hilfe parallele Entwicklungsströme zwischen Architektur und Gesellschaft aufgezeigt werden können, sowie dem Prinzip der Paradigmenwechsel nach Thomas S. Kuhn, welches den Übergang eines Gedankenmodells zum nächsten mittels revolutionären Vorgängen beschreibt, wird die Chronik des europäischen Stadtblocks auf die Korrelation zwischen Gebautem und Gedachtem analysiert. Der Fokus liegt hierbei auf der Entwicklung und den Eigenschaften des urbanen Stadtblocks innerhalb der europäischen Stadt. Dieser definiert sich über das Dreigespann »Straße – Haus – Hof« als zusammenhängendes, städtebauliches Konstrukt, welches von öffentlichem Raum umgeben ist und einen gemeinschaftlichen Raum einschließt.
Die Evolution des Stadtblocks entlang der gesellschaftlichen Entwicklungen führt unweigerlich in die Gegenwart. Auf diesem Weg lädt sich der Block mit epochenspezifischen Inhalten auf, welche er kontinuierlich weiterführt. So erfährt er aus der Antike den sozialen Grundgedanken der Gemeinschaft. Mit dem gesellschaftlichen Paradigmenwechsel der aufkommenden Bürgerlichkeit erhält der Stadtblock im Mittelalter eine wirtschaftliche Komponente auf Grundlage der Multifunktionalität. Aufklärung und Absolutismus überführen die Typologie schließlich in die Renaissance und den Barock, aus denen wiederum ein repräsentativer Charakter sowie ein grundlegendes städtebauliches Prinzip resultiert. Die politischen, sozialen wie technischen Revolutionen der Neuzeit geben dem Stadtblock einen programmatischen Charakter, da er nicht nur zum Programm erhoben, sondern gleichzeitig auch Grundtyp der gegenwärtigen Blockbebauungen wird. Die Weltkriege sowie die Abkehr vom traditionellen Stadtbild lassen die Planer von der Blocktypologie abkommen hin zu einem vom Kontext gelösten, aufgelockerten Städtebau der Moderne. Hieraus entsteht weniger ein städtebaulicher Mehrwert für den Block, durchaus aber ein funktionaler im Hinblick auf Bautechnik und Organisation. Die Auswirkungen der autogerechten und funktionalen Stadt bewirken den Paradigmenwechsel zur Nachmoderne, in welcher Multifunktionalität und Dichte erneut zum Leitbild des Baugeschehens erhoben werden.
Am Ende der Untersuchung erweist sich die These der Korrelation zwischen Gebautem und Gedachtem als belegt. Wenn sich Gesellschaft und Architektur nun von der Antike an parallel entwickelten, so ist es nur folgerichtig anzunehmen, dass der Stadtblock als kontinuierlich gewachsenes Konstrukt auch eine Analogie zur Gesellschaft der Gegenwart darstellen kann. Als regressiver Stadtbaustein, also als Typologie, die dank ihrer fortdauernden Weiterentwicklung die Bedingung vom Bedingten abzuleiten vermag, ist es dem Stadtblock möglich auf die immanenten Inhalte seines Werdeganges zurückzugreifen und diese gleich der Gesellschaft für die Gegenwart und Zukunft zu nutzen.
Software is becoming increasingly concurrent: parallelization, decentralization, and reactivity necessitate asynchronous programming in which processes communicate by posting messages/tasks to others’ message/task buffers. Asynchronous programming has been widely used to build fast servers and routers, embedded systems and sensor networks, and is the basis of Web programming using Javascript. Languages such as Erlang and Scala have adopted asynchronous programming as a fundamental concept with which highly scalable and highly reliable distributed systems are built.
Asynchronous programs are challenging to implement correctly: the loose coupling between asynchronously executed tasks makes the control and data dependencies difficult to follow. Even subtle design and programming mistakes on the programs have the capability to introduce erroneous or divergent behaviors. As asynchronous programs are typically written to provide a reliable, high-performance infrastructure, there is a critical need for analysis techniques to guarantee their correctness.
In this dissertation, I provide scalable verification and testing tools to make asyn- chronous programs more reliable. I show that the combination of counter abstraction and partial order reduction is an effective approach for the verification of asynchronous systems by presenting PROVKEEPER and KUAI, two scalable verifiers for two types of asynchronous systems. I also provide a theoretical result that proves a counter-abstraction based algorithm called expand-enlarge-check, is an asymptotically optimal algorithm for the coverability problem of branching vector addition systems as which many asynchronous programs can be modeled. In addition, I present BBS and LLSPLAT, two testing tools for asynchronous programs that efficiently uncover many subtle memory violation bugs.
Multiple-channel die-stacked DRAMs have been used for maximizing the performance and minimizing the power of memory access in 2.5D/3D system chips. Stacked DRAM dies can be used as a cache for the processor die in 2.5D/3D system chips. Typically, modern processor system-on-chips (SOCs) have three-level caches, L1, L2, and L3. Could the DRAM cache be used to replace which level of caches? In this paper, we derive an inequality which can aid the designer to check if the designed DRAM cache can provide better performance than the L3 cache. Also, design considerations of DRAM caches for meet the inequality are discussed. We find that a dilemma of the DRAM cache access time and associativity exists for providing better performance than the L3 cache. Organizing multiple channels into a DRAM cache is proposed to cope with the dilemma.
Mit der Entwicklung und Umsetzung des Kaiserslauterer Open Online Course (KLOOC) „Nachhaltige Entwicklung“ hat sich die TU Kaiserslautern in verschiedener Hinsicht aktuellen Herausforderungen der Hochschulentwicklung gestellt. Im Ergebnis ist es gelungen, ein erstes offenes, online- basiertes Lernangebot zu schaffen und zu erproben, welches für eine breite Öffentlichkeit zugänglich war und auf vielfältige Weise Formen des digitalen Lehrens und Lernens nutzte. Thematisch leistete der KLOOC zudem einen wichtigen Beitrag zur Engagement der TU Kaiserslautern, sich im Rahmen ihrer Strategie „Nachhaltige TU“ für eine nachhaltige Entwicklung einzusetzen.
Der vorliegende Bericht ist das Ergebnis der internen Evaluation des Projektes, in dessen Rahmen die Wirksamkeit des KLOOC systematisch erfasst wurde. Ziel war es, einerseits Potentiale für dessen organisatorische, inhaltliche und didaktische Weiterentwicklung aufzudecken, andererseits die anvisierten Projektziele kritisch zu reflektieren.
Mit Blick auf die Evaluationsdaten ergibt sich auf einen Blick folgendes Bild:
50% der Teilnehmenden kamen aus der Region Westpfalz1.
50% der Teilnehmenden waren berufstätig.
57% der Teilnehmenden waren zwischen 18 und 34 Jahren alt.
75% der Teilnehmenden haben in den letzten 12 Monaten an Wei- terbildungen teilgenommen.
68% der Teilnehmenden schätzten ihre Medienkompetenz als hoch ein.
57% der Teilnehmenden verfügten über einen Hochschulabschluss. Dementsprechend lässt sich vorab zusammenfassend konstatieren, dass
der KLOOC vor dem Hintergrund der Projektziele ein akademisches Bildungsangebot darstellt, dass sowohl neue Zielgruppen (z.B. Berufstätige) erreicht, als auch den Wissenstransfer in die Region fördert. Gleichzeitig ist erkennbar, dass insbesondere jüngere, tendenziell gut gebildete sowie medien- und weiterbildungsaffine Personen am Kurs teilgenommen haben.
The biodiversity of the cyanobacterial lichen flora of Vietnam is chronically understudied. Previous studies often neglected the lichens that inhabit lowlands especially outcrops and sand dunes that are common habitats in Vietnam.
A cyanolichen collection was gathered from lowlands of central and southern Vietnam to study their diversity and distribution. At the same time, cultured photobionts from those lichens were used for olyphasic taxonomic approach.
A total of 66 cyanolichens were recorded from lowland regions in central and southern of Vietnam, doubles the number of cyanolichens for Vietnam. 80% of them are new records for Vietnam in which a new species Pyrenopsis melanophthalma and two new unidentified lichinacean taxa were described.
A notably floristic segregation by habitats was indicated in the communities. Saxicolous Lichinales dominated in coastal outcrops that corresponded to 56% of lichen species richness. Lecanoralean cyanolichens and basidiolichens were found in the lowland forests. Precipitation correlated negatively to species richness in this study, indicating a competitive relationship.
Eleven cyanobacterial strains including 8 baeocyte-forming members of the genus Chroococcidiopsis and 3 heterocyte-forming species of the genera Nostoc and Scytonema were successfully isolated from lichens.
Phylogenetic and morphological analyses indicated that Chroococcidiopsis was the unique photobiont in Peltula. New mophological characters were found in two Chroococcidiopsis strains: (1) the purple content of cells in one photobiont strain that was isolated from a new lichinacean taxon, and (2) the pseudofilamentous feature by binary division from a strain that was isolated from Porocyphus dimorphus.
With respect to heterocyte-forming cyanobiont, Scytonema was confirmed as the photobiont in the ascolichen Heppia lutosa applying the polyphasic method. The genus Scytonema in the basidiolichens Cyphellostereum was morphologically examinated in lichen thalli. For the first time the intracellular haustorial system of basidiolichen genus Cyphellostereum was noted and investigated.
Phylogenetic analysis of photobiont strains Nostoc from Pannaria tavaresii and Parmeliella brisbanensis indicated that a high selectivity occurred in Parmeliella brisbanensis that were from different regions of the world, while low photobiont selectivity occurred among Pannaria tavaresii samples from different geographical regions.
The herewith presented dissertation is therefore an important contribution to the lichen flora of Vietnam and a significant improvement of the actual knowledge about cyanolichens in this country.
The energy efficiency of today’s microcontrollers is supported by the extensive usage of low-power mechanisms. A full power-down requires in many cases a complex, and maybe error prone, administration scheme, because data from the volatile memory have to be stored in a flash based back- up memory. New types of non-volatile memory, e.g. in RRAM technology, are faster and consumes a fraction of the energy compared to flash technology. This paper evaluates power gating for WSN with RRAM as back-up memory.
A counter-based read circuit tolerant to process variation for low-voltage operating STT-MRAM
(2016)
The capacity of embedded memory on LSIs has kept increasing. It is important to reduce the leakage power of embedded memory for low-power LSIs. In fact, the ITRS predicts that the leakage power in embedded memory will account for 40% of all power consumption by 2024 [1]. A spin transfer torque magneto-resistance random access memory (STT-MRAM) is promising for use as non-volatile memory to reduce the leakage power. It is useful because it can function at low voltages and has a lifetime of over 1016 write cycles [2]. In addition, the STT-MRAM technology has a smaller bit cell than an SRAM. Making the STT-MRAM is suitable for use in high-density products [3–7]. The STT-MRAM uses magnetic tunnel junction (MTJ). The MTJ has two states: a parallel state and an anti-parallel state. These states mean that the magnetization direction of the MTJ’s layers are the same or different. The directions pair determines the MTJ’s magneto- resistance value. The states of MTJ can be changed by the current flowing. The MTJ resistance becomes low in the parallel state and high in the anti-parallel state. The MTJ potentially operates at less than 0.4 V [8]. In other hands, it is difficult to design peripheral circuitry for an STT-MRAM array at such a low voltage. In this paper, we propose a counter-based read circuit that functions at 0.4 V, which is tolerant of process variation and temperature fluctuation.
The task of printed Optical Character Recognition (OCR), though considered ``solved'' by many, still poses several challenges. The complex grapheme structure of many scripts, such as Devanagari and Urdu Nastaleeq, greatly lowers the performance of state-of-the-art OCR systems.
Moreover, the digitization of historical and multilingual documents still require much probing. Lack of benchmark datasets further complicates the development of reliable OCR systems. This thesis aims to find the answers to some of these challenges using contemporary machine learning technologies. Specifically, the Long Short-Term Memory (LSTM) networks, have been employed to OCR modern as well historical monolingual documents. The excellent OCR results obtained on these have led us to extend their application for multilingual documents.
The first major contribution of this thesis is to demonstrate the usability of LSTM networks for monolingual documents. The LSTM networks yield very good OCR results on various modern and historical scripts, without using sophisticated features and post-processing techniques. The set of modern scripts include modern English, Urdu Nastaleeq and Devanagari. To address the challenge of OCR of historical documents, this thesis focuses on Old German Fraktur script, medieval Latin script of the 15th century, and Polytonic Greek script. LSTM-based systems outperform the contemporary OCR systems on all of these scripts. To cater for the lack of ground-truth data, this thesis proposes a new methodology, combining segmentation-based and segmentation-free OCR approaches, to OCR scripts for which no transcribed training data is available.
Another major contribution of this thesis is the development of a novel multilingual OCR system. A unified framework for dealing with different types of multilingual documents has been proposed. The core motivation behind this generalized framework is the human reading ability to process multilingual documents, where no script identification takes place.
In this design, the LSTM networks recognize multiple scripts simultaneously without the need to identify different scripts. The first step in building this framework is the realization of a language-independent OCR system which recognizes multilingual text in a single step. This language-independent approach is then extended to script-independent OCR that can recognize multiscript documents using a single OCR model. The proposed generalized approach yields low error rate (1.2%) on a test corpus of English-Greek bilingual documents.
In summary, this thesis aims to extend the research in document recognition, from modern Latin scripts to Old Latin, to Greek and to other ``under-privilaged'' scripts such as Devanagari and Urdu Nastaleeq.
It also attempts to add a different perspective in dealing with multilingual documents.
Interconnected, autonomously driving cars shall realize the vision of a zero-accident, low energy mobility in spite of a fast increasing traffic volume. Tightly interconnected medical devices and health care systems shall ensure the health of an aging society. And interconnected virtual power plants based on renewable energy sources shall ensure a clean energy supply in a society that consumes more energy than ever before. Such open systems of systems will play an essential role for economy and society.
Open systems of systems dynamically connect to each other in order to collectively provide a superordinate functionality, which could not be provided by a single system alone. The structure as well as the behavior of an open system of system dynamically emerge at runtime leading to very flexible solutions working under various different environmental conditions. This flexibility and adaptivity of systems of systems are a key for realizing the above mentioned scenarios.
On the other hand, however, this leads to uncertainties since the emerging structure and behavior of a system of system can hardly be anticipated at design time. This impedes the indispensable safety assessment of such systems in safety-critical application domains. Existing safety assurance approaches presume that a system is completely specified and configured prior to a safety assessment. Therefore, they cannot be applied to open systems of systems. In consequence, safety assurance of open systems of systems could easily become a bottleneck impeding or even preventing the success of this promising new generation of embedded systems.
For this reason, this thesis introduces an approach for the safety assurance of open systems of systems. To this end, we shift parts of the safety assurance lifecycle into runtime in order to dynamically assess the safety of the emerging system of system. We use so-called safety models at runtime for enabling systems to assess the safety of an emerging system of system themselves. This leads to a very flexible runtime safety assurance framework.
To this end, this thesis describes the fundamental knowledge on safety assurance and model-driven development, which are the indispensable prerequisites for defining safety models at runtime. Based on these fundamentals, we illustrate how we modularized and formalized conventional safety assurance techniques using model-based representations and analyses. Finally, we explain how we advanced these design time safety models to safety models that can be used by the systems themselves at runtime and how we use these safety models at runtime to create an efficient and flexible runtime safety assurance framework for open systems of systems.
The recently established technologies in the areas of distributed measurement and intelligent
information processing systems, e.g., Cyber Physical Systems (CPS), Ambient
Intelligence/Ambient Assisted Living systems (AmI/AAL), the Internet of Things
(IoT), and Industry 4.0 have increased the demand for the development of intelligent
integrated multi-sensory systems as to serve rapid growing markets [1, 2]. These increase
the significance of complex measurement systems, that incorporate numerous advanced
methodological implementations including electronics circuit, signal processing,
and multi-sensory information fusion. In particular, in multi-sensory cognition applications,
to design such systems, the skill-required tasks, e.g., method selection, parameterization,
model analysis, and processing chain construction are elaborated with immense
effort, which conventionally are done manually by the expert designer. Moreover, the
strong technological competition imposes even more complicated design problems with
multiple constraints, e.g., cost, speed, power consumption,
exibility, and reliability.
Thus, the conventional human expert based design approach may not be able to cope
with the increasing demand in numbers, complexity, and diversity. To alleviate the issue,
the design automation approach has been the topic for numerous research works [3-14]
and has been commercialized to several products [15-18]. Additionally, the dynamic
adaptation of intelligent multi-sensor systems is the potential solution for developing
dependable and robust systems. Intrinsic evolution approach and self-x properties [19],
which include self-monitoring, -calibrating/trimming, and -healing/repairing, are among
the best candidates for the issue. Motivated from the ongoing research trends and based
on the background of our research work [12, 13] among the pioneers in this topic, the
research work of the thesis contributes to the design automation of intelligent integrated
multi-sensor systems.
In this research work, the Design Automation for Intelligent COgnitive system with self-
X properties, the DAICOX, architecture is presented with the aim of tackling the design
effort and to providing high quality and robust solutions for multi-sensor intelligent
systems. Therefore, the DAICOX architecture is conceived with the defined goals as
listed below.
Perform front to back complete processing chain design with automated method
selection and parameterization,
Provide a rich choice of pattern recognition methods to the design method pool,
Associate design information via interactive user interface and visualization along
with intuitive visual programming,
Deliver high quality solutions outperforming conventional approaches by using
multi-objective optimization,
Gain the adaptability, reliability and robustness of designed solutions with self-x
properties,
Derived from the goals, several scientific methodological developments and implementations,
particularly in the areas of pattern recognition and computational intelligence,
will be pursued as part of the DAICOX architecture in the research work of this thesis.
The method pool is aimed to contain a rich choice of methods and algorithms covering
data acquisition and sensor configuration, signal processing and feature computation,
dimensionality reduction, and classification. These methods will be selected and parameterized
automatically by the DAICOX design optimization to construct a multi-sensory
cognition processing chain. A collection of non-parametric feature quality assessment
functions for the purpose of Dimensionality Reduction (DR) process will be presented.
In addition, to standard DR methods, the variations of feature selection method, in
particular, feature weighting will be proposed. Three different classification categories
shall be incorporated in the method pool. Hierarchical classification approach will be
proposed and developed to serve as a multi-sensor fusion architecture at the decision
level. Beside multi-class classification, one-class classification methods, e.g., One-Class
SVM and NOVCLASS will be presented to extend functionality of the solutions, in particular,
anomaly and novelty detection. DAICOX is conceived to effectively handle the
problem of method selection and parameter setting for a particular application yielding
high performance solutions. The processing chain construction tasks will be carried
out by meta-heuristic optimization methods, e.g., Genetic Algorithms (GA) and Particle
Swarm Optimization (PSO), with multi-objective optimization approach and model
analysis for robust solutions. In addition, to the automated system design mechanisms,
DAICOX will facilitate the design tasks with intuitive visual programming and various
options of visualization. Design database concept of DAICOX is aimed to allow the
reusability and extensibility of the designed solutions gained from previous knowledge.
Thus, the cooperative design of machine and knowledge from the design expert can also
be utilized for obtaining fully enhanced solutions. In particular, the integration of self-x
properties as well as intrinsic optimization into the system is proposed to gain enduring
reliability and robustness. Hence, DAICOX will allow the inclusion of dynamically
reconfigurable hardware instances to the designed solutions in order to realize intrinsic
optimization and self-x properties.
As a result from the research work in this thesis, a comprehensive intelligent multisensor
system design architecture with automated method selection, parameterization,
and model analysis is developed with compliance to open-source multi-platform software.It is integrated with an intuitive design environment, which includes visual programming
concept and design information visualizations. Thus, the design effort is minimized as
investigated in three case studies of different application background, e.g., food analysis
(LoX), driving assistance (DeCaDrive), and magnetic localization. Moreover, DAICOX
achieved better quality of the solutions compared to the manual approach in all cases,
where the classification rate was increased by 5.4%, 0.06%, and 11.4% in the LoX,
DeCaDrive, and magnetic localization case, respectively. The design time was reduced
by 81.87% compared to the conventional approach by using DAICOX in the LoX case
study. At the current state of development, a number of novel contributions of the thesis
are outlined below.
Automated processing chain construction and parameterization for the design of
signal processing and feature computation.
Novel dimensionality reduction methods, e.g., GA and PSO based feature selection
and feature weighting with multi-objective feature quality assessment.
A modification of non-parametric compactness measure for feature space quality
assessment.
Decision level sensor fusion architecture based on proposed hierarchical classification
approach using, i.e., H-SVM.
A collection of one-class classification methods and a novel variation, i.e.,
NOVCLASS-R.
Automated design toolboxes supporting front to back design with automated
model selection and information visualization.
In this research work, due to the complexity of the task, neither all of the identified goals
have been comprehensively reached yet nor has the complete architecture definition been
fully implemented. Based on the currently implemented tools and frameworks, ongoing
development of DAICOX is pursuing towards the complete architecture. The potential
future improvements are the extension of method pool with a richer choice of methods
and algorithms, processing chain breeding via graph based evolution approach, incorporation
of intrinsic optimization, and the integration of self-x properties. According to
these features, DAICOX will improve its aptness in designing advanced systems to serve
the increasingly growing technologies of distributed intelligent measurement systems, in
particular, CPS and Industrie 4.0.
Cells and organelles are enclosed by membranes that consist of a lipid bilayer harboring highly
diverse membrane proteins (MPs). These carry out vital functions, and α-helical MPs, in
particular, are of outstanding pharmacological importance, as they comprise more than half of
all drug targets. However, knowledge from MP research is limited, as MPs require membranemimetic
environments to retain their native structures and functions and, thus, are not readily
amenable to in vitro studies. To gain insight into vectorial functions, as in the case of channels
and transporters, and into topology, which describes MP conformation and orientation in the
context of a membrane, purified MPs need to be reconstituted, that is, transferred from detergent
micelles into a lipid-bilayer system.
The ultimate goal of this thesis was to elucidate the membrane topology of Mistic, which is
an essential regulator of biofilm formation in Bacillus subtilis consisting of four α-helices. The
conformational stability of Mistic has been shown to depend on the presence of a hydrophobic
environment. However, Mistic is characterized by an uncommonly hydrophilic surface, and
its helices are significantly shorter than transmembrane helices of canonical integral MPs.
Therefore, the means by which its association with the hydrophobic interior of a lipid bilayer
is accomplished is a subject of much debate. To tackle this issue, Mistic was produced and
purified, reconstituted, and subjected to topological studies.
Reconstitution of Mistic in the presence of lipids was performed by lowering the detergent
concentration to subsolubilizing concentrations via addition of cyclodextrin. To fully exploit
the advantages offered by cyclodextrin-mediated detergent removal, a quantitative model was
established that describes the supramolecular state of the reconstitution mixture and allows
for the prediction of reconstitution trajectories and their cross points with phase boundaries.
Automated titrations enabled spectroscopic monitoring of Mistic reconstitutions in real time.
On the basis of the established reconstitution protocol, the membrane topology of Mistic was
investigated with the aid of fluorescence quenching experiments and oriented circular dichroism
spectroscopy. The results of these experiments reveal that Mistic appears to be an exception
from the commonly observed transmembrane orientation of α-helical MPs, since it exhibits
a highly unusual in-plane topology, which goes in line with recent coarse-grained molecular
dynamics simulations.
The mechanical properties of semi-crystalline polymers depend extremely on their
morphology, which is dependent on the crystallization during processing. The aim of
this research is to determine the effect of various nanoparticles on morphology
formation and tensile mechanical properties of polypropylene under conditions
relevant in polymer processing and to contribute ultimately to the understanding of
this influence.
Based on the thermal analyses of samples during fast cooling, it is found that the
presence of nanoparticle enhances the overall crystallization process of PP. The results
suggest that an increase of the nucleation density/rate is a dominant process that
controls the crystallization process of PP in this work, which can help to reduce the
cycle time in the injection process. Moreover, the analysis of melting behaviors
obtained after each undercooling reveals that crystal perfection increases significantly
with the incorporation of TiO2 nanoparticles, while it is not influenced by the SiO2
nanoparticles.
This work also comprises an analysis of the influence of nanoparticles on the
microstructure of injection-molded parts. The results clearly show multi-layers along
the wall thickness. The spherulite size and the degree of crystallinity continuously
decrease from the center to the edge. Generally both the spherulite size and the degree
of crystallinity decrease with higher the SiO2 loading. In contrast, an increase in the
degree of crystallinity with an increasing TiO2 nanoparticle loading was detected.
The tensile properties exhibit a tendency to increase in the tensile strength as the core
is reached. The tensile strength decreases with the addition of nanoparticles, while the
elongation at break of nanoparticle-filled PP decreases from the skin to the core. With
increasing TiO2 loading, the elongation at break decreases.
We investigate a PDE-ODE system describing cancer cell invasion in a tissue network. The model is an extension of the multiscale setting in [28,40], by considering two subpopulations of tumor cells interacting mutually and with the surrounding tissue. According to the go-or-grow hypothesis, these subpopulations consist of moving and proliferating cells, respectively. The mathematical setting also accommodates the effects of some therapy approaches. We prove the global existence of weak solutions to this model and perform numerical simulations to illustrate its behavior for different therapy strategies.
Integrating Security Concerns into Safety Analysis of Embedded Systems Using Component Fault Trees
(2016)
Nowadays, almost every newly developed system contains embedded systems for controlling system functions. An embedded system perceives its environment via sensors, and interacts with it using actuators such as motors. For systems that might damage their environment by faulty behavior usually a safety analysis is performed. Security properties of embedded systems are usually not analyzed at all. New developments in the area of Industry 4.0 and Internet of Things lead to more and more networking of embedded systems. Thereby, new causes for system failures emerge: Vulnerabilities in software and communication components might be exploited by attackers to obtain control over a system. By targeted actions a system may also be brought into a critical state in which it might harm itself or its environment. Examples for such vulnerabilities, and also successful attacks, became known over the last few years.
For this reason, in embedded systems safety as well as security has to be analyzed at least as far as it may cause safety critical failures of system components.
The goal of this thesis is to describe in one model how vulnerabilities from the security point of view might influence the safety of a system. The focus lies on safety analysis of systems, so the safety analysis is extended to encompass security problems that may have an effect on the safety of a system. Component Fault Trees are very well suited to examine causes of a failure and to find failure scenarios composed of combinations of faults. A Component Fault Tree of an analyzed system is extended by additional Basic Events that may be caused by targeted attacks. Qualitative and quantitative analyses are extended to take the additional security events into account. Thereby, causes of failures that are based on safety as well as security problems may be found. Quantitative or at least semi-quantitative analyses allow to evaluate security measures more detailed, and to justify the need of such.
The approach was applied to several example systems: The safety chain of the off-road robot RAVON, an adaptive cruise control, a smart farming scenario, and a model of a generic infusion pump were analyzed. The result of all example analyses was that additional failure causes were found which would not have been detected in traditional Component Fault Trees. In the analyses also failure scenarios were found that are caused solely by attacks, and that are not depending on failures of system components. These are especially critical scenarios which should not happen in this way, as they are not found in a classical safety analysis. Thus the approach shows its additional benefit to a safety analysis which is achieved by the application of established techniques with only little additional effort.
Die Bewertung bestehender Bauteile unterscheidet sich grundsätzlich von der Bemessung neu zu erstellender Bauteile, da im Gegensatz zur Neubausituation bemessungsrelevante Parameter am Bestandstragwerk ermittelt werden können. Trotzdem müssen baustatische Nachweise in beiden Fällen auf Basis der aktuellen technischen Baubestimmungen geführt werden, deren Sicherheits- und Nachweiskonzept zur Erstellung von Neubauten konzipiert wurde und berücksichtigt, dass die tatsächlichen Bauteilkennwerte zum Zeitpunkt der Bemessung mit Unsicherheiten behaftet sind.
Bestehende Tragwerke können und müssen in vielen Fällen die darin enthaltenen Anforderungen nicht erfüllen, da im Vergleich zur Neubausituation eine Vielzahl von Tragwerksinformationen vorliegen, die eine Absenkung der im Zuverlässigkeitskonzept enthaltenen Unsicherheitsfaktoren begründen.
Aus diesem Grund wird innerhalb der vorliegenden Arbeit ein zur Bewertung bestehender Wasserbauwerke angepasstes, semiprobabilistisches Nachweiskonzept erarbeitet, das auf den wahrscheinlichkeitstheoretischen Festlegungen des Eurocode beruht. Im Vergleich zum aktuellen Nachweiskonzept zeichnet es sich durch die Berücksichtigung von im Rahmen einer qualifizierten Bestandsaufnahme am Tragwerk festgestellten Bauteilkennwerten und Einwirkungen sowie angepassten Zuverlässigkeitselementen aus.
Innerhalb einer probabilistischen Querschnittsanalyse werden weiterhin die zur Zuverlässigkeitsbewertung bestehender Wasserbauwerke aus Beton maßgebenden Basisvariablen identifiziert und es wird nachgewiesen, dass auch die Zuverlässigkeitselemente des modifizierten Nachweiskonzeptes dem Format nach den wahrscheinlichkeitstheoretischen Festlegungen des Eurocodes entsprechen.
Darüber hinaus wird gezeigt, dass die Konstruktionsweise zur Errichtung von unbewehrten Gewichtsstützwänden alter Schleusen zu einem Zuverlässigkeitsniveau führt, wie es aktuell auch innerhalb des Eurocodes gefordert wird.
Urban quality of life is currently conceptualized in principally economic terms. As the decline in manufacturing activities, the rise of the service and knowledge economy, the growing importance of accessibility and globalizing processes continue to reconfigure the economic competition between cities, quality of life enters the discourse primarily as a means to attract high-skilled workers and improve the city’s economic prospects. Local governments increasingly seek partnerships with local and foreign capital, reorganizing institutions and tasks to attract capital, including the “selling of place”, strengthening place promotion and marketing efforts. The rhetoric clearly welcomes wealthy, creative, high-skilled people, disadvantaged and low skilled groups receive less attention in the making of places. Especially with respect to inner city areas, high quality of life is promoted as spaces for ‘clean’ and convenient consumption with positive atmospheres and shiny images.
Yet, a plethora of theoretical engagements with urban everyday live reminds us that, while on the one hand, variety of jobs, quality of public spaces, range of shops and services, cultural facilities and public transport are important place characteristics, more subjective aspects such as safe neighbourhoods, well-being, community prospects, social cohesion, happiness, satisfaction and social and spatial justice are equally crucial determinants of urban quality of life. These elements of urban quality of life – and how they are experienced by diverse formations of urban inhabitants – seem to be absent from, if not at odds with, the dominant discourse in rankings, policy and practice. Urban life, social cohesion and complexity are at risk in the dynamics of modernization and adaptation strategies of cities. Gentrification, the occupation of inner-city districts by hyper-rich people, segregation and displacement of lower and middle classes can be observed as a consequence of these long-lasting strategies.
Well-known sociologists and geographers from the UK and Germany have presented their insights on the matter and debate theoretical and empirical attempts to capture the dynamics of urban processes in shaping the quality of life.
Inflation modeling is a very important tool for conducting an efficient monetary policy. This doctoral thesis reviewed inflation models, in particular the Phillips curve models of inflation dynamics. We focused on a well known and widely used model, the so-called three equation new Keynesian model which is a system of equations consisting of a new Keynesian Phillips curve (NKPC), an investment and saving (IS) curve and an interest rate rule.
We gave a detailed derivation of these equations. The interest rate rule used in this model is normally determined by using a Lagrangian method to solve an optimal control problem constrained by a standard discrete time NKPC which describes the inflation dynamics and an IS curve that represents the output gaps dynamics. In contrast to the real world, this method assumes that the policy makers intervene continuously. This means that the costs resulting from the change in the interest rates are ignored. We showed also that there are approximation errors made, when one log-linearizes non linear equations, by doing the derivation of the standard discrete time NKPC.
We agreed with other researchers as mentioned in this thesis, that errors which result from ignoring such log-linear approximation errors and the costs of altering interest rates by determining interest rate rule, can lead to a suboptimal interest rate rule and hence to non-optimal paths of output gaps and inflation rate.
To overcome such a problem, we proposed a stochastic optimal impulse control method. We formulated the problem as a stochastic optimal impulse control problem by considering the costs of change in interest rates and the approximation error terms. In order to formulate this problem, we first transform the standard discrete time NKPC and the IS curve into their high-frequency versions and hence into their continuous time versions where error terms are described by a zero mean Gaussian white noise with a finite and constant variance. After formulating this problem, we use the quasi-variational inequality approach to solve analytically a special case of the central bank problem, where an inflation rate is supposed to be on target and a central bank has to optimally control output gap dynamics. This method gives an optimal control band in which output gap process has to be maintained and an optimal control strategy, which includes the optimal size of intervention and optimal intervention time, that can be used to keep the process into the optimal control band.
Finally, using a numerical example, we examined the impact of some model parameters on optimal control strategy. The results show that an increase in the output gap volatility as well as in the fixed and proportional costs of the change in interest rate lead to an increase in the width of the optimal control band. In this case, the optimal intervention requires the central bank to wait longer before undertaking another control action.
Requirements-Aware, Template-Based Protocol Graphs for Service-Oriented Network Architectures
(2016)
Rigidness of the Internet causes its architectural design issues such as interdependencies among the layers, no cross-layer information exchange, and applications dependency on the underlying protocols implementation.
G-Lab (i.e., http://www.german-lab.de/) is a research project for Future Internet Architecture (FIA), which focuses on problems of the Internet such as rigidness, mobility, and addressing. Where the focus of ICSY (i.e., www.icsy) was on providing the flexibility in future network architectures. An approach so-called Service Oriented Network Architecture (SONATE) is proposed to compose the protocols dynamically. SONATE is based on principles of the service-oriented architecture (SOA), where protocols are decomposed in software modules and later they are put together on demand to provide the desired service.
This composition of functionalities can be performed at various time-epochs (e.g., run-time, design-time, deployment-time). However, these epochs have trade-off in terms of the time-complexity (i.e., required setup time) and the provided flexibility. The design-time is the least time critical in comparison to other time phases, which makes it possible to utilize human-analytical capability. However, the design-time lacks the real-time knowledge of requirements and network conditions, what results in inflexible protocol graphs, and they cannot be changed at later stages on changing requirements. Contrary to the design-time, the run-time is most time critical where an application is waiting for a connection to be established, but at the same time it has maximum information to generate a protocol graph suitable to the given requirements.
Considering limitations above of different time-phases, in this thesis, a novel intermediate functional composition approach (i.e., Template-Based Composition) has been presented to generate requirements aware protocol graphs. The template-based composition splits the composition process across different time-phases to exploit the less time critical nature and human-analytical availability of the design-time, ability to instantaneously deploy new functionalities of the deployment time and maximum information availability of the run-time. The approach is successfully implemented , demonstrated and evaluated based on its performance to know the implications for the practical use.
In dem vorliegenden Dissertationsdokument werden die Ergebnisse aus der Forschung zu konzeptionellen Verfahrensentwürfen für die industrielle Anwendung von Enzym-Magnetpartikeln vorgestellt. Die Magnetpartikel im Mikrometermaßstab sind aufgrund ihrer geringen Größe, sphärischen Geometrie und der daraus resultierenden hohen spezifischen Oberfläche, ein attraktives Trägermedium für
Biomoleküle. Aufgrund der Magnetisierbarkeit der Partikel können die Partikeltrajektorien in einem Flüssigkeitsstrom zudem durch ein Magnetfeld gesteuert werden. In einem Magnetfilter werden anhand dieser Wechselwirkungen die Magnetpartikel selektiv abgetrennt. Zur Konstruktion von Magnetfiltern wurde in dieser Arbeit die Computer-Aided-Design-Software Siemens NX 8 eingesetzt. Die Konstruktionsentwürfe wurden in die Software Comsol Multiphysics® 4.3a importiert. Die Software beinhaltet
Differentialgleichungssysteme und -löser, mit denen das Magnet- und Fluidströmungsfeld in den untersuchten Magnetfiltern berechnet werden können. Es wurden geometrische Variationen an den Modellen vorgenommen, um Änderungen in der resultierenden Trennleistung zu erzielen. Die optimierten Filter wurden
anschließend gefertigt und in experimentellen Untersuchungen erprobt. Dabei wurden Magnetpartikel mit und ohne Biomasse separiert und die Trennleistung bestimmt. Die Partikelsuspensionen wurden zudem hinsichtlich der
Prozessintegration untersucht. Dabei stand der Medianpartikeldurchmesser im Vordergrund der Untersuchung. Es wurde überprüft, wie sich die Partikelgrößenverteilung bei variierten pH-Werten und Salzkonzentrationen verändert. In diesem Kontext wurde die Homogenisierung der Magnetpartikel in
einem Ultraschall-Homogenisator untersucht. Am Institut für biotechnisches Prozessdesign standen zwei verschiedene
Separatoren zur Verfügung, für welche die Filterkammern optimiert wurden. Für den mit Permanentmagneten betriebenen Magnetseparator von der Firma Steinert Typ HGF10 wurde eine mit Quarzgläsern ausgestattete Filterkammer entworfen und gefertigt (Patentanmeldung AZ 102012023382.5). Dadurch konnten die
Partikelablagerungen während der Filtration und nach der Reinigung untersucht werden. Im untersuchten Arbeitsbereich bis zu einer Kapazität von ca. 83 g/L wurde kein Partikeldurchbruch detektiert. In vorigen Arbeiten mit Magnetfiltern mit
vergleichbarer Geometrie wurde festgestellt, dass die Strömung im Anfangsbereich des Filters maßgeblich die Partikelretention beeinflusst. Darauf aufbauend wurde in dieser Arbeit der Einfluss von statischen Mischern charakterisiert, um Unterschiede
in der Lineargeschwindigkeit der Flüssigkeit zu minimieren und ein möglichst propfenförmiges Strömungsprofil herzustellen.
Die Optimierung der Filterkammer wurde im nächsten Schritt mit Analysen zur Auswirkung von geometrischen Variationen in der Filtermatrix weitergeführt. Es wurden in dieser Arbeit die Geometrien von Filtermatrices aus gestapelten Filterblechen mit Aussparungen näher untersucht. Anhand Simulationsdaten und
Ergebnissen aus experimentellen Versuchen wurde eine Korrelation zwischen der Partikelretention und der Anzahl an Kanten in der Filtermatrix gefunden. Je mehr Kanten in der Matrix vorkommen, desto weniger Partikel gehen im Filtrat verloren. Abschließend wurde die Reinigung der Filterkammer mit der Zweiphasenströmung
näher untersucht und der Einsatz von Druckluft erprobt.
Die Druckluft wurde zum Erzeugen von dispergierten Luftblasen im Flüssigkeitsstrom simultan zur laufenden Peristaltikpumpe in die Zufuhrleitung der Filterkammer injiziert. Während der Reinigungsprozedur werden mittels der Luftblasen die
Partikelablagerungen mechanisch gelöst und mit der Strömung aus der Filterkammer gespült. In biotechnologischen Produktionen gelten besondere Richtlinien und Regeln zum Einhalten von Reinigungsverfahren. Im Rahmen magnetpartikelbasierter Prozesse ist hierbei ein besonderes Augenmerk auf feinste partikuläre Rückstände nach der Reinigung zu legen. Aufgrund der in Magnetfiltern vorhanden Filtermatrix mit einer
komplexen Geometrie kann den Untersuchungen zur Folge nicht von einer vollständigen Entfernung ausgegangen werden. Um bei derartig streng regulierten Produktionen trotzdem ein Filtersystem zur Verfügung zu haben, wurde in dieser
Arbeit der Einsatz von Einweg-Hochgradienten-Magnetfiltern erprobt. Die Einweg-Magnetfilter-Prototypen wurden auf Basis von Kunststofffolien hergestellt, die zusammengeschweißt wurden, um eine Art Beutel mit Ein- und Auslass herzustellen. Mit den gefertigten Prototypen wurden exemplarische Filtrationen durchgeführt, um die Eignung für industrielle Prozesse zu testen. Um einen Einweg-Magnetfilter für die Anwendung attraktiv zu gestalten, musste sichergestellt sein, dass die Rückstände
an Partikeln nach der Reinigung gering sind, weil jegliche Partikelreste mit dem Einweg-Magnetfilter verworfen werden würden. Die untersuchten Prototypen zeichneten sich durch eine hohe Partikelretention mit einer Kapazität von ca. 35 g/L
und minimale Rückstände nach der Reinigung aus.
Der zweite am Forschungsinstitut vorhandene Magnetseparator wurde mit einem Elektromagnet betrieben. Der in dem Separator eingebaute Magnetfilter wurde mit einer Filtermatrix nach dem Rotor-Stator-Prinzip gefertigt. Es sind im Gegensatz zu
den zuvor beschriebenen Magnetfiltern zwei Arten von Filterblechen in dem Filter eingebaut. Zum einen nicht bewegliche Statorbleche und zum anderen rotierbare Rotorbleche. Die Rotorbleche sind über eine drehbare Welle miteinander verbunden.
Dabei entstehen zwischen den Filterblechen hohe Scherraten, wodurch nach der Filtration die Partikelablagerungen effizient gelöst und aus dem Filter gespült werden können. Die Filterbleche besitzen Aussparungen mit welchen die Partikelretardierung und -resuspendierung beeinflusst wird. Die Einflussfaktoren
wurden in Simulationen näher untersucht, um eine Geometrie der Aussparungen zu finden, mit welcher sich die Reproduzierbarkeit der Filtrationen erhöhen ließ. Bei dem Magnetfilter mit einer Rotor-Stator-Filtermatrix wurde eine Kapazität von ca. 170 g/L
ohne Durchbruch erreicht. Die zuvor beschriebenen Magnetfilter waren dafür konzipiert worden, separat von einem Reaktor betrieben zu werden. Die Reaktionssuspension wird aus dem Reaktor
und anschließend durch den Filter gepumpt. Im Gegensatz dazu wurde ein In-situ-Magnetseparator entwickelt, mit dem magnetische Partikel direkt im Reaktor durch eine magnetische Lanze aus der Reaktionssuspension eingefangen werden können. Durch eine Linearbewegung der Lanze werden die angehefteten Partikel aus dem
Reaktor transferiert. Danach können die Magnetpartikel von der Lanze gelöst werden und in einen Aufbewahrungsbehälter gepumpt oder wieder in den Reaktor geführt werden. Der Separator bietet die Möglichkeit, in einem Reaktor eine Fermentation
oder Biokatalyse in Gegenwart der funktionalisierten Magnetpartikel durchzuführen und in drei Schritten die Partikel aus dem Reaktor zu entfernen oder für eine anschließende Produktion wiederzuverwenden.
In this thesis, mathematical research questions related to recursive utility and stochastic differential utility (SDU) are explored.
First, a class of backward equations under nonlinear expectations is investigated: Existence and uniqueness of solutions are established, and the issues of stability and discrete-time approximation are addressed. It is then shown that backward equations of this class naturally appear as a continuous-time limit in the context of recursive utility with nonlinear expectations.
Then, the Epstein-Zin parametrization of SDU is studied. The focus is on specifications with both relative risk aversion and elasitcity of intertemporal substitution greater that one. A concave utility functional is constructed and a utility gradient inequality is established.
Finally, consumption-portfolio problems with recursive preferences and unspanned risk are investigated. The investor's optimal strategies are characterized by a specific semilinear partial differential equation. The solution of this equation is constructed by a fixed point argument, and a corresponding efficient and accurate method to calculate optimal strategies numerically is given.
Im Stahlbetonbau werden die Eigenschaften von Beton und Bewehrungsstahl so vereint, dass ein Werkstoff entsteht, welcher wesentlich tragfähiger ist als die einzelnen Komponenten. In hoch bewehrten Konstruktionen kann es sinnvoll sein, große Bewehrungsstabdurchmesser (≥ 32mm) einzusetzen. Ein Bewehrungsstab Ø40mm (12,56cm²) kann im Vergleich der Querschnittsflächen die Kombinationen 2Ø28mm, 4Ø20mm, 8Ø14mm, 11Ø12mm, 16Ø10mm oder sogar 25Ø8mm ersetzen. Hierdurch können vielfältige Vorteile aber auch, insbesondere bei der Rissbreitenbeschränkung, Nachteile entstehen.
In der vorliegenden Arbeit wurde das grundsätzliche Rissverhalten von großen Stabdurchmessern untersucht. In experimentellen Untersuchungen an insgesamt 60 Versuchen mit über 30.000 Rissbreitenmessungen wurde das Verhalten an Zugstäben sowie an Zugplatten mit und ohne Oberflächenbewehrung betrachtet. Es wurden verschiedene Einflüsse auf die Rissbreiten, unter anderem der Bewehrungsstabdurchmesser, die Betondruckfestigkeit sowie die Belastungsart berücksichtigt. Der Hauptteil dieser Arbeit beschäftigt sich mit der nach DIN EN 1992-1-1 2011 und DIN EN 1992-1-1/NA 2013 geforderten Oberflächenbewehrung sowie deren Reduzierung. Auf Grundlage der hohen Anzahl an Messwerten sind belastbare Ergebnisse möglich. Es wurden Bemessungsvorschläge ausgearbeitet, welche abschließend in zwei Modellen zur Rissbreitenberechnung einfließen.
Bei Baumaßnahmen kommt es oft zu Auseinandersetzungen zwischen Bauherren und Planern, bei denen die zulässige Breite von Rissen in Stahlbetonbauteilen im Vordergrund steht. Die Rissgeometrie, der Rissbreitenverlauf von der Betonoberfläche zum Bewehrungsstab, wurde ebenfalls untersucht. Es wurden Risse unter Beanspruchung „eingefroren“ und die Rissbreite in der Betondeckung mit Hilfe eines optischen Messsystems erfasst. Mit Hilfe dieser Rissbreitenwerte wurde ein Ingenieurmodell aufgestellt, welches eine Umrechnung zwischen dem Rechenwert der Rissbreite und der Rissbreite an der Betonoberfläche erlaubt.
In dieser Arbeit wurde das Experiment von F. Zimmer zur Reduktion von [(Cp´´´Ni(μ-Br)]\( _2 \) 2 nochmals aufgegriffen. Um eine möglichst glatte Reduktion von 2 zu erreichen, wurden verschiedene Reduktionsmittel getestet. Das erste 1,1´,2,2´,4,4´-hexa(tert.-butyl)dinickelocen 3 wurde nach der Reduktion mit Na\( _3 \)Sb\( _7 \) in Pentan isoliert und charakterisiert.
Die CASSCF-Rechnungen in der Gasphase ergaben vier ungepaarten Elektronen im Dinickelocen 3 und einen Triplett-Grundzustand mit einem berechneten Ni-Ni-Abstand von 2,3006 Å. Da die verschiedenen Spinzustände energetisch nahe beieinander liegen, kann zum Grundzustand noch keine sichere Angabe gemacht werden. Der einzige Nettobeitrag zur Ni-Ni-Bindung ergibt sich aus der σ-Bindung aus den beiden 4s-AOs. Nach den Berechnungen sollte die erhaltene XRD-Struktur des freien Dinickelocen-Moleküls 3 nicht linear sein, sondern geknickt vorliegen. Das kann damit erklärt werden, dass das Molekül 3 eine starke agostische Wechselwirkung zwischen einem tert.-Butyl-H des Cp´´´-Liganden eines Nickelatoms und dem anderen Nickelatom ausbildet. Im Kristall kann diese Verzerrung durch Packungseffekte überwunden werden.
Das Dinickelocen 3 reagiert genau wie das Dihydrid 1 mit Kohlenmonoxid unter Bildung des bekannten Carbonylkomplexes [Cp´´´Ni(μ-CO)]\( _2 \) 7. Auch während der Aufnahme der ESI-Massenspektren erwies sich der Komplex [Cp´´´Ni]\( _2 \) 3 als sehr reaktiv.
Der komplexe Ablauf der Reduktionsreaktionen von Na\( _3 \)Sb\( _7 \) und NaH auf [(Cp´´´Ni(μ-Br)]\( _2 \) 2 in Pentan und THF sowie auf [(\( ^4 \)CpNi(μ-Br)]\( _2 \) 11 in Pentan und THF wurden genau untersucht.
Die Beobachtung, dass Pentan während der Reaktion angegriffen wird, wurde als Anlass für weitere Experimente in Tetradecan, Cyclohexan und Hexamethyldisiloxan genommen. Ausführliche Arbeitshypothese von dem Reaktionsablauf der Reduktion von [\( ^4 \)CpNi(μ-Br)]\( _2 \) 11 mit Na\( _3 \)Sb\( _7 \) in Tetradecan, Cyclohexan und Hexamethyldisiloxan wurde erstellt. Die oben genannten Lösungsmittel erwiesen sich als ungeeignet für die selektive Gewinnung des Dinickelocens 18 durch Reduktion von [(\( ^4 \)CpNi(μ-Br)]\( _2 \) 11 mit Na\( _3 \)Sb\( _7 \).
Nach umfangsreichen Untersuchungen gelang es, einen alternativen Weg über [(\( ^4 \)CpNi)\( _2 \)(μ-H)(μ-Br)]-Zwischenstufe 20 zu finden, um Dinickelocen 18 mit größerer Selektivität und in besserer Ausbeute zu gewinnen. Der Anteil des gewünschten Dinickelocens [\( ^4 \)CpNi]\( _2 \) 18 im Reaktionsgemisch konnte dadurch von ca. 6 % auf ca. 58 % erhöht werden. Die maximale Konzentration des [Cp´´´Ni]\( _2 \) 3 erreichte ca. 61 %. Das ist der bislang höchste Anteil der Dinickelocene im Reaktionsgemisch.
Software defined radios can be implemented on general purpose processors (CPUs), e.g. based on a PC. A processor offers high flexibility: It can not only be used to process the data samples, but also to control receiver functions, display a waterfall or run demodulation software. However, processors can only handle signals of limited bandwidth due to their comparatively low processing speed. For signals of high bandwidth the SDR algorithms have to be implemented as custom designed digital circuits on an FPGA chip. An FPGA provides a very high processing speed, but also lacks flexibility and user interfaces. Recently the FPGA manufacturer Xilinx has
introduced a hybrid system on chip called Zynq, that combines both approaches. It features a dual ARM Cortex-A9 processor and an FPGA, that offer the flexibility of a processor with the processing speed of an FPGA on a single chip. The Zynq is therefore very interesting for use in SDRs. In this paper the
application of the Zynq and its evaluation board (Zedboard) will be discussed. As an example, a direct sampling receiver has been implemented on the Zedboard using a high-speed 16 bit ADC with 250 Msps.
Reading as a cultural skill is acquired over a long period of training. This thesis supports the idea that reading is based on specific strategies that result from modification and coordination of earlier developed object recognition strategies. The reading-specific processing strategies are considered to be more analytic compared to object recognition strategies, which are described as holistic. To enable proper reading skills these strategies have to become automatized. Study 1 (Chapter 4) examined the temporal and visual constrains of letter recognition strategies. In the first experiment two successively presented stimuli (letters or non-letters) had to be classified as same or different. The second stimulus could either be presented in isolation or surrounded by a shape, which was either similar (congruent) or different (incongruent) in its geometrical properties to the stimulus itself. The non-letter pairs were presented twice as often as the letter pairs. The results demonstrated a preference for the holistic strategy also in letters, even if the non- letter set was presented twice as often as the letter set, showing that the analytic strategy does not replace the holistic one completely, but that the usage of both strategies is task-sensitive. In Experiment 2, we compared the Global Precedence Effect (GPE) for letters and non-letters in central viewing, with the global stimulus size close to the functional visual field in whole word reading (6.5◦ of visual angle) and local stimuli close to the critical size for fluent reading of individual letters (0.5◦ of visual angle). Under these conditions, the GPE remained robust for non-letters. For letters, however, it disappeared: letters showed no overall response time advantage for the global level and symmetric congruence effects (local-to-global as well as global-to-local interference). These results indicate that reading is based on resident analytic visual processing strategies for letters. In Study 2 (Chapter 5) we replicated the latter result with a large group of participants as part of a study in which pairwise associations of non-letters and phonological or non-phonological sounds were systematically trained. We investigated whether training would eliminate the GPE also for non-letters. We observed, however, that the differentiation between letters and non-letter shapes persists after training. This result implies that pairwise association learning is not sufficient to overrule the process differentiation in adults. In addition, subtle effects arising in the letter condition (due to enhanced power) enable us to further specify the differentiation in processing between letters and non-letter shapes. The influence of reading ability on the GPE was examined in Study 3 (Chapter 6). Children with normal reading skills and children with poor reading skills were instructed to detect a target in Latin or Hebrew Navon letters. Children with normal reading skills showed a GPE for Latin letters, but not for Hebrew letters. In contrast, the dyslexia group did not show GPE for either kind of stimuli. These results suggest that dyslexic children are not able to apply the same automatized letter processing strategy as children with normal reading skills do. The difference between the analytic letter processing and the holistic non-letter processing was transferred to the context of whole word reading in Study 4 (Chapter 7). When participants were instructed to detect either a letter or a non-letter in a mixed character string, for letters the reaction times and error rates increased linearly from the left to the right terminal position in the string, whereas for non-letters a symmetrical U-shaped function was observed. These results suggest, that the letter-specific processing strategies are triggered automatically also for more word-like material. Thus, this thesis supports and expands prior results of letter-specific processing and gives new evidences for letter-specific processing strategies.
The thesis consists of two parts. In the first part we consider the stable Auslander--Reiten quiver of a block \(B\) of a Hecke algebra of the symmetric group at a root of unity in characteristic zero. The main theorem states that if the ground field is algebraically closed and \(B\) is of wild representation type, then the tree class of every connected component of the stable Auslander--Reiten quiver \(\Gamma_{s}(B)\) of \(B\) is \(A_{\infty}\). The main ingredient of the proof is a skew group algebra construction over a quantum complete intersection. Also, for these algebras the stable Auslander--Reiten quiver is computed in the case where the defining parameters are roots of unity. As a result, the tree class of every connected component of the stable Auslander--Reiten quiver is \(A_{\infty}\).\[\]
In the second part of the thesis we are concerned with branching rules for Hecke algebras of the symmetric group at a root of unity. We give a detailed survey of the theory initiated by I. Grojnowski and A. Kleshchev, describing the Lie-theoretic structure that the Grothendieck group of finite-dimensional modules over a cyclotomic Hecke algebra carries. A decisive role in this approach is played by various functors that give branching rules for cyclotomic Hecke algebras that are independent of the underlying field. We give a thorough definition of divided power functors that will enable us to reformulate the Scopes equivalence of a Scopes pair of blocks of Hecke algebras of the symmetric group. As a consequence we prove that two indecomposable modules that correspond under this equivalence have a common vertex. In particular, we verify the Dipper--Du Conjecture in the case where the blocks under consideration have finite representation type.
Periodisch mesoporöse Organokieselgele (PMOs) sind anorganisch-organische Hybridmaterialien, die aus organischen Brückenmolekülen R, z. B. Phenyleneinheiten, und diese verbindende, glasartigen Si-O-Si-Einheiten aufgebaut sind. Formal bestehen sie aus [O\(_1\)\(_,\)\(_5\)Si-R-SiO\(_1\)\(_,\)\(_5\)]-Einheiten. Sie verbinden die Möglichkeiten über organische Synthesechemie Veränderungen an den Brückenmolekülen durchzuführen mit der Beständigkeit von Silikaten gegenüber thermischen und chemischen Einflüssen. Durch strukturgebende Template werden sie mit Mesoporen dargestellt und erhalten so neben einer sehr engen Porenradienverteilung auch eine sehr hohe spezifische Oberfläche im Bereich von 500-1000 m\(^2\)/g.
Die vorliegende Arbeit berichtet über die Modifikation von Phenylen-PMOs auf zwei grundverschiedene Arten. Die erste ist die Pfropfungsmethode, bei der reaktive Si-OH-Gruppen auf der Oberfläche des PMOs dazu genutzt werden, an Alkoxysilylgruppen gebundene funktionelle Gruppen auf die Oberfläche aufzubringen. Die zweite Art ist die Aromatenchemie, mit der die verbrückende Phenylengruppe modifiziert werden kann. Erfolgreich auf die Oberfläche eines PMOs aufgebracht wurden Diaminomethyl-, Mercapto-, Isocyanat- und eine neu synthetisierte \(\it N\),\(\it N\)-Bis(diphenylphosphinomethyl)amingruppe. Die Mercapto- und die \(\it N\),\(\it N\)-Bis(diphenylphosphinomethyl)amingruppe wurden im Folgenden genutzt um die katalytisch aktiven Metalle Quecksilber und Rhodium zu binden. Die so dargestellten, heterogenisierten Katalysatoren wurden in Testreaktionen eingesetzt und mit ihren Homogenvarianten verglichen. Die immobilisierten Varianten verzeichneten insgesamt eine Abnahme der katalytischen Aktivität, boten allerdings auch niedrige Abgabewerte der Metalle an die Reaktionslösung. Außerdem heterogenisiert wurde Acridon, ein extrem stark fluoreszierenden Molekül mit hoher Quantenausbeute über die Anbindung an eine Isocyanatgruppe. Fluoreszenzmessungen ergaben die Veränderung des Absorptionsspektrums. Im Rahmen des MAGNENZ Forschungskollegs wurde nach einer Möglichkeit gesucht, ein Trägermaterial so zu verändern, dass es magnetisch abtrennbar ist. Durch Einbau von superparamagnetischen Maghemitnanopartikeln in den Phenylen-PMO konnte dieses Ziel verwirklicht werden. Das resultierende Material reagiert empfindlicher auf die Anwesenheit von Säuren, behält aber seine Resistenz gegenüber thermischen Einwirkungen und kann weiterhin in allen üblichen Lösungsmitteln eingesetzt werden. Das letzte Kapitel behandelt die gefundenen Kristallstrukturen von Methantrisulfonsäure, einer Säure die ebenfalls für das Forschungskolleg MAGNENZ von Interesse war.
Advantage of Filtering for Portfolio Optimization in Financial Markets with Partial Information
(2016)
In a financial market we consider three types of investors trading with a finite
time horizon with access to a bank account as well as multliple stocks: the
fully informed investor, the partially informed investor whose only source of
information are the stock prices and an investor who does not use this infor-
mation. The drift is modeled either as following linear Gaussian dynamics
or as being a continuous time Markov chain with finite state space. The
optimization problem is to maximize expected utility of terminal wealth.
The case of partial information is based on the use of filtering techniques.
Conditions to ensure boundedness of the expected value of the filters are
developed, in the Markov case also for positivity. For the Markov modulated
drift, boundedness of the expected value of the filter relates strongly to port-
folio optimization: effects are studied and quantified. The derivation of an
equivalent, less dimensional market is presented next. It is a type of Mutual
Fund Theorem that is shown here.
Gains and losses eminating from the use of filtering are then discussed in
detail for different market parameters: For infrequent trading we find that
both filters need to comply with the boundedness conditions to be an advan-
tage for the investor. Losses are minimal in case the filters are advantageous.
At an increasing number of stocks, again boundedness conditions need to be
met. Losses in this case depend strongly on the added stocks. The relation
of boundedness and portfolio optimization in the Markov model leads here to
increasing losses for the investor if the boundedness condition is to hold for
all numbers of stocks. In the Markov case, the losses for different numbers
of states are negligible in case more states are assumed then were originally
present. Assuming less states leads to high losses. Again for the Markov
model, a simplification of the complex optimal trading strategy for power
utility in the partial information setting is shown to cause only minor losses.
If the market parameters are such that shortselling and borrowing constraints
are in effect, these constraints may lead to big losses depending on how much
effect the constraints have. They can though also be an advantage for the
investor in case the expected value of the filters does not meet the conditions
for boundedness.
All results are implemented and illustrated with the corresponding numerical
findings.
Mixed-signal systems combine analog circuits with digital hardware and software systems. A particular challenge is the sensitivity of analog parts to even small deviations in parameters, or inputs. Parameters of circuits and systems such as process, voltage, and temperature are never accurate; we hence model them as uncertain values (‘uncertainties’). Uncertain parameters and inputs can modify the dynamic behavior and lead to properties of the system that are not in specified ranges. For verification of mixed- signal systems, the analysis of the impact of uncertainties on the dynamical behavior plays a central role.
Verification of mixed-signal systems is usually done by numerical simulation. A single numerical simulation run allows designers to verify single parameter values out of often ranges of uncertain values. Multi-run simulation techniques such as Monte Carlo Simulation, Corner Case simulation, and enhanced techniques such as Importance Sampling or Design-of-Experiments allow to verify ranges – at the cost of a high number of simulation runs, and with the risk of not finding potential errors. Formal and symbolic approaches are an interesting alternative. Such methods allow a comprehensive verification. However, formal methods do not scale well with heterogeneity and complexity. Also, formal methods do not support existing and established modeling languages. This fact complicates its integration in industrial design flows.
In previous work on verification of Mixed-Signal systems, Affine Arithmetic is used for symbolic simulation. This allows combining the high coverage of formal methods with the ease-of use and applicability of simulation. Affine Arithmetic computes the propagation of uncertainties through mostly linear analog circuits and DSP methods in an accurate way. However, Affine Arithmetic is currently only able to compute with contiguous regions, but does not permit the representation of and computation with discrete behavior, e.g. introduced by software. This is a serious limitation: in mixed-signal systems, uncertainties in the analog part are often compensated by embedded software; hence, verification of system properties must consider both analog circuits and embedded software.
The objective of this work is to provide an extension to Affine Arithmetic that allows symbolic computation also for digital hardware and software systems, and to demonstrate its applicability and scalability. Compared with related work and state of the art, this thesis provides the following achievements:
1. The thesis introduces extended Affine Arithmetic Forms (XAAF) for the representation of branch and merge operations.
2. The thesis describes arithmetic and relational operations on XAAF, and reduces over-approximation by using an LP solver.
3. The thesis shows and discusses ways to integrate this XAAF into existing modeling languages, in particular SystemC. This way, breaks in the design flow can be avoided.
The applicability and scalability of the approach is demonstrated by symbolic simulation of a Delta-Sigma Modulator and a PLL circuit of an IEEE 802.15.4 transceiver system.
Lautarium ist ein computergestütztes phonologisches Trainingsprogramm zur alltagsintegrierten Schulung der Phonemwahrnehmung, der Phonologischen Bewusstheit im engeren Sinn, der Graphem-Phonem-Korrespondenz und zum alphabetischen Lesen und Schreiben. Während die Wirksamkeit des Programms in einer klinischen Studie mit legasthenen Drittklässlern bereits nachgewiesen wurde (Klatte et al., 2014), steht die Beurteilung des potentiellen Beitrags, den Lautarium im Rahmen des Schriftspracherwerbs in der Schuleingangsphase leisten kann, noch aus. Die vorliegende Arbeit prüft daher, inwieweit Erstklässler die inhaltlichen und formalen Anforderungen des Programms bewältigen und bis zu welchem Grad schriftsprachliche Fertigkeiten gefördert werden können. Die Studie ist im Prätest-Posttest-Follow-up-Design mit einer Experimental- und einer den konventionellen Grundunterricht absolvierenden Kontrollgruppe konzipiert.
Die Ergebnisse zeigen signifikante Verbesserungen in beiden Untertests zur Phonemwahrnehmung, in 2 von 4 Untertests zur phonologischen Bewusstheit in allen Untertests zu Lesegeschwindigkeit und Leseverständnis sowie im lautgetreuen Schreiben. In allen Bereichen, mit Ausnahme der Lesegeschwindigkeit, hielten Trainingseffekte bis 3 Monate nach Trainingsende an. In der Nachbefragung beurteilten 37 von 41 Kinder Lautarium mit der bestmöglichen Bewertung. Die technischen Herausforderungen des Programms wurden nach Aussagen der Lehrer von den Kindern gut bewältigt. Somit kann geschlussfolgert werden, dass Lautarium für den Einsatz in der Schuleingangsphase im Zuge des Förderunterrichts oder zur Binnendifferenzierung uneingeschränkt empfohlen werden kann.
Synapses play a central role in the information propagation in the nervous system. A better understanding of synaptic structures and processes is vital for advancing nervous disease research. This work is part of an interdisciplinary project that aims at the quantitative examination of components of the neuromuscular junction, a synaptic connection between a neuron and a muscle cell.
The research project is based on image stacks picturing neuromuscular junctions captured by modern electron microscopes, which permit the rapid acquisition of huge amounts of image data at a high level of detail. The large amount and sheer size of such microscopic data makes a direct visual examination infeasible, though.
This thesis presents novel problem-oriented interactive visualization techniques that support the segmentation and examination of neuromuscular junctions.
First, I introduce a structured data model for segmented surfaces of neuromuscular junctions to enable the computational analysis of their properties. However, surface segmentation of neuromuscular junctions is a very challenging task due to the extremely intricate character of the objects of interest. Hence, such problematic segmentations are often performed manually by non-experts and thus requires further inspection.
With NeuroMap, I develop a novel framework to support proofreading and correction of three-dimensional surface segmentations. To provide a clear overview and to ease navigation within the data, I propose the surface map, an abstracted two-dimensional representation using key features of the surface as landmarks. These visualizations are augmented with information about automated segmentation error estimates. The framework provides intuitive and interactive data correction mechanisms, which in turn permit the expeditious creation of high-quality segmentations.
While analyzing such segmented synapse data, the formulation of specific research questions is often impossible due to missing insight into the data. I address this problem by designing a generic parameter space for segmented structures from biological image data. Furthermore, I introduce a graphical interface to aid its exploration, combining both parameter selection as well as data representation.
By using Gröbner bases of ideals of polynomial algebras over a field, many implemented algorithms manage to give exciting examples and counter examples in Commutative Algebra and Algebraic Geometry. Part A of this thesis will focus on extending the concept of Gröbner bases and Standard bases for polynomial algebras over the ring of integers and its factors \(\mathbb{Z}_m[x]\). Moreover we implemented two algorithms for this case in Singular which use different approaches in detecting useless computations, the classical Buchberger algorithm and a F5 signature based algorithm. Part B includes two algorithms that compute the graded Hilbert depth of a graded module over a polynomial algebra \(R\) over a field, as well as the depth and the multigraded Stanley depth of a factor of monomial ideals of \(R\). The two algorithms provide faster computations and examples that lead B. Ichim and A. Zarojanu to a counter example of a question of J. Herzog. A. Duval, B. Goeckner, C. Klivans and J. Martin have recently discovered a counter example for the Stanley Conjecture. We prove in this thesis that the Stanley Conjecture holds in some special cases. Part D explores the General Neron Desingularization in the frame of Noetherian local domains of dimension 1. We have constructed and implemented in Singular and algorithm that computes a strong Artin Approximation for Cohen-Macaulay local rings of dimension 1.
Die übergeordnete Zielsetzung dieser Arbeit bestand in der Entwicklung katalytischer Verfahren, um damit neue Nutzungsmöglichkeiten für Carbonsäuren und deren Derivate in der chemischen Wertschöpfungskette zu schaffen.
Reiner Biodiesel ist mit modernen Motoren aufgrund seines ungünstigen Siedeverhaltens nur eingeschränkt kompatibel. Im ersten Projekt wurde daher ein Verfahren entwickelt, einen Biokraftstoff mit einem Siedeverhalten von kommerziellem Diesel herzustellen. Dazu wurde eine lösungsmittelfreie isomerisierende Ethenolyse von Pflanzenölestern entwickelt, mit der Produktgemische aus Olefinen, Mono- und Diestern mit genau definierten physikalischen Eigenschaften erzeugt werden können.
Die Reaktion von Pflanzenölestern mit Alkenen verläuft mit minimalem Energiebedarf, maximaler Atomeffizienz, ohne Lösungsmittel und praktisch abfallfrei und folgt somit den Prinzipien grüner Chemie. Es werden unterschiedliche industrielle Pflanzenölmethylester, sowie verschiedene kurzkettige Olefine toleriert. Mit diesem Verfahren wurde aus Rapsölmethylester (RME) und Ethen ein Biokraftstoff hergestellt, der alle spezifizierten Grenzwerte hinsichtlich des Siedeverhaltens von Dieselkraftstoffen erfüllt.
Mit Hilfe einer numerischen Simulationsmethode wurde ein Zusammenhang zwischen den katalytischen Parametern der isomerisierenden Metathese und der chemischen Zusammensetzung des Produktgemischs hergestellt. Damit wurden die Zielvorgaben für die anschließende systematische Reaktionsoptimierung errechnet.
Im zweiten Teilprojekt wurde ein neuer Zugang zu in ortho-Position nitrierten aromatischen Carbonsäurederivaten entwickelt. Die einzigartig effektive dirigierende Gruppe ermöglicht die ortho-selektive Nitrierung von substituierten aromatischen Carbonsäuren bei nur 50 °C. Der präformierte Kupferkomplex Cu(NO3)(PPh3)2 vermittelt zusammen mit dem Oxidationsmittel NMO selektiv die Mononitrierung in guten Ausbeuten. Das System toleriert eine große Breite funktioneller Gruppen, sowie fünf- und sechsgliedrige Heteroaromaten.
Im Gegensatz zu klassischen Verfahren mit stickstoffhaltigen dirigierenden Gruppen, die im Produkt verbleiben, gelang es uns, eine schnelle Methode zur mikrowellenunterstützten Verseifung zu entwickeln. Dadurch ist es möglich, nach der Nitrierung in situ eine Protodecarboxylierung des aktivierten Amids durchzuführen und den Nitroaromaten zu erhalten. Alternativ kann durch Verseifung das Carboxylat dargestellt werden, welches als Anker für anschließende decarboxylierende Kupplungsreaktionen fungieren kann.
Synthetisch hergestelltes Siliziumdioxid (SiO2) im Submikro- und Nanopartikelmaßstab findet bereits in Farben und Lacken, sowie in Kunst- und Klebstoffen Einsatz, um deren Brillanz, Kratz- und Kohäsionsfestigkeit zu verbessern. Die gute Verfügbarkeit und der geringe Preis des SiO2 machen es für viele Anwendungen zu einem interessanten Füllstoff.
Ziel dieser Arbeit war es, durch werkstoffwissenschaftliche, grundlagenorientierte Betrachtungen ein tieferes Verständnis für die Funktionsmechanismen von modifizierten SiO2-Partikeln in einer EP-Matrix zu erlangen und eine Verbesserung der tribologischen Eigenschaften (Reibungskoeffizient und Verschleißrate) der Komposite zu erreichen. Der erste Teil dieser Arbeit befasst sich mit der Herstellung und Charakterisierung von modifizierten Siliziumdioxid-Partikeln mittels eines modifizierten Stöberprozess. Es wurden die Katalysatoren Ammoniak, Tetramethylammoniumhydroxid (TMAH) und Tetramethylethylendiamin (TMED) getestet. Als Referenz wurden kommerziell erhältliche SiO2-Nanopartikel (Aerosil 200) sowie ein ebenfalls kommerziell erhältliches Partikelgemisch (NanoVit) als Füllstoffe getestet. Zur Ermittlung der tribologischen Eigenschaften wurde an den Kompositen eine Gleitverschleißuntersuchung (Stift-auf-Scheibe (PoD)) mit unterschiedlichen Parametervarianten (Geschwindigkeit-/Druckvariationen) durchgeführt. Es konnte gezeigt werden, dass die modifizierten SiO2-Partikel einen positiven Einfluss auf die tribologischen Eigenschaften der EP-Komposite haben. Weiter konnte bewiesen werden, dass durch die Zugabe der neu synthetisierten SiO2-Partikel auf eine Zugabe von Graphit als Schmiermittel verzichtet werden kann. Auch wurde festgestellt, dass durch das Eleminieren des Graphites sich ein sehr dünner Gleitfilm auf dem Gegenkörper ausbildete, der als ein Indiz für die Ursache der Verbesserung des Reibwertes gelten kann. Ein Prozess für dieses Kompositverhalten wurde in dieser Arbeit postuliert.
Im Rahmen dieser Arbeit wird die Tiefenfiltration wässriger Suspensionen untersucht. Der Fokus der Untersuchungen liegt auf der Betrachtung der Druckdifferenz über dem Filtermedium und dem Abscheidegrad. Als Filtermittel werden dabei Vliese betrachtet. Die Zielsetzung der Arbeit besteht darin, einen Beitrag zum besseren Verständnis der Tiefenfiltration zu liefern. Die Erkenntnisse sollen helfen, Tiefenfilter besser auszulegen und Filtermedien gezielter zu entwickeln.
Zunächst werden die grundlegenden Vorgänge der Tiefenfiltration untersucht. Dabei werden die Durchströmung poröser Schichten sowie die der Partikelabscheidung zugrunde liegenden Transport- und Haftmechanismen analysiert. Anschließend werden bestehende Ansätze zur Berechnung des Druckverlustes und der Partikelabscheidung von Tiefenfiltern aufgezeigt.
Um das Filtrationsverhalten von Vliesen experimentell zu untersuchen, wurde ein Prüfstand aufgebaut. An diesem können der Differenzdruck über den Vliesen und die Partikelabscheidung gemessen werden. Die Filtrationsversuche wurden bei konstantem Volumenstrom und konstanter Zusammensetzung der Suspension durchgeführt. Die eingesetzten Partikeln waren mineralischen Ursprungs. Das untersuchte Partikelspektrum lag im Bereich von 1-100 µm. Neben der Filtration wurde auch untersucht, in welchem Umfang mit Partikeln beladene Vliese diese wieder abgeben. Die Ergebnisse der Filtrations- und Ablöseversuche werden vorgestellt und diskutiert.
Auf Grundlage bestehender Berechnungsansätze und der durch die experimentellen Untersuchungen gewonnenen Erkenntnisse wurde ein Modell erstellt. Dieses ermöglicht die Berechnung der Partikelabscheidung und der Druckdifferenz auf Basis der Strukturdaten des Vlieses. Die Berechnung kann sowohl für den Beginn der Filtration als auch für den Verlauf der Filtration durchgeführt werden. Bei der Simulation des Verlaufs der Filtration erfolgt dabei eine gekoppelte Berechnung von Partikelabscheidung und Druckverlust. Für die Bestimmung der Partikelabscheidung wurde der Berechnungsansatz der Einzelfaserabscheidung zugrunde gelegt und erweitert. Die erzielten Simulationsergebnisse werden vorgestellt und diskutiert.
Im letzten Teil der Arbeit werden Ergebnisse vorgestellt und diskutiert, die mittels numerischer 3-D-Strömungssimulation erzielt wurden. Dabei wurde die Software DNSlab verwendet. Um die Partikelabscheidung simulieren zu können, wurde ein Abscheidemechanismus entwickelt. Dieser ermittelt die Partikelhaftung auf der Basis einer Kräftebilanz. Als relevante Kräfte wurden Strömungskräfte, Reibungskräfte und van-der-Waals-Kräfte identifiziert.
Magnetic spin-based memory technologies are a promising solution to overcome the incoming limits of microelectronics. Nevertheless, the long write latency and high write energy of these memory technologies compared to SRAM make it difficult to use these for fast microprocessor memories, such as L1- Caches. However, the recent advent of the Spin Orbit Torque (SOT) technology changed the story: indeed, it potentially offers a writing speed comparable to SRAM with a much better density as SRAM and an infinite endurance, paving the way to a new paradigm in processor architectures, with introduction of non- volatility in all the levels of the memory hierarchy towards full normally-off and instant-on processors. This paper presents a full design flow, from device to system, allowing to evaluate the potential of SOT for microprocessor cache memories and very encouraging simulation results using this framework.
Functional data analysis is a branch of statistics that deals with observations \(X_1,..., X_n\) which are curves. We are interested in particular in time series of dependent curves and, specifically, consider the functional autoregressive process of order one (FAR(1)), which is defined as \(X_{n+1}=\Psi(X_{n})+\epsilon_{n+1}\) with independent innovations \(\epsilon_t\). Estimates \(\hat{\Psi}\) for the autoregressive operator \(\Psi\) have been investigated a lot during the last two decades, and their asymptotic properties are well understood. Particularly difficult and different from scalar- or vector-valued autoregressions are the weak convergence properties which also form the basis of the bootstrap theory.
Although the asymptotics for \(\hat{\Psi}{(X_{n})}\) are still tractable, they are only useful for large enough samples. In applications, however, frequently only small samples of data are available such that an alternative method for approximating the distribution of \(\hat{\Psi}{(X_{n})}\) is welcome. As a motivation, we discuss a real-data example where we investigate a changepoint detection problem for a stimulus response dataset obtained from the animal physiology group at the Technical University of Kaiserslautern.
To get an alternative for asymptotic approximations, we employ the naive or residual-based bootstrap procedure. In this thesis, we prove theoretically and show via simulations that the bootstrap provides asymptotically valid and practically useful approximations of the distributions of certain functions of the data. Such results may be used to calculate approximate confidence bands or critical bounds for tests.
Combining ultracold atomic gases with the peculiar properties of Rydberg excited atoms gained a lot of theoretical and experimental attention in recent years. Embedded in the ultracold gas, an interaction between the Rydberg atom and the surrounding ground state atoms arises through the scattering of the Rydberg electron from an intruding perturber atom. This peculiar interaction gives rise to a plenitude of previously unobserved effects. Within the framework of the present thesis, this interaction is studied in detail for Rydberg \(P\)-states in rubidium.
Due to their long lifetime, atoms in Rydberg states are subject to scattering with the surrounding ground state atoms in the ultracold cloud. By measuring their lifetime as a function of the ground state atom flux, we are able to obtain the total inelastic scattering cross section as well as the partial cross section for associative ionisation. The fact that the latter is three orders of magnitude larger than the size of the formed molecular
ion indicates the presence of an efficient mass transport mechanism that is mediated by the Rydberg–ground state interaction. The immense acceleration of the collisional process shows a close analogy to a catalytic process. The increase of the scattering cross section renders associative ionisation an important process that has to be considered for experiments in dense ultracold systems.
The interaction of the Rydberg atom with a ground state perturber gives rise to a highly oscillatory potential that supports molecular bound states. These so-called ultralong-range Rydberg molecules are studied with high resolution time-of-flight spectroscopy, where we are able to determine the binding energies and lifetimes of the molecular states between the two fine structure split \(25P\)-states. Inside an electric field, we observe a broadening of the
molecular lines that indicates the presence of a permanent electric dipole moment, induced by the mixing with high angular momentum states. Due to the mixing of the ground state atom’s hyperfine states by the molecular interaction, we are able to observe a spin-flip of the perturber upon creation of a Rydberg molecule. Furthermore, an incidental near-degeneracy in the underlying level scheme of the \(25P\)-state gives rise to highly entangled states between the Rydberg fine structure state and the perturber’s hyperfine structure. These mechanisms can be used to manipulate the quantum state of a remote particle over distances that exceed by far the typical contact interaction range.
Apart from the ultralong-range Rydberg molecules that predominantly consist of only one low angular momentum state, a class of Rydberg molecules is predicted to exist that strongly mixes the high angular momentum states of the degenerate hydrogenic manifolds. These states, the so-called trilobite- and butterfly Rydberg molecules, show very peculiar properties that cannot be observed for conventional molecules. Here we present the first experimental observation of butterfly Rydberg molecules. In addition to an extensive spectroscopy that reveals the binding energy, we are also able to observe the rotational structure of these exotic molecules. The arising pendular states inside an electric field allow us, in comparison to the model of a dipolar rotor, to extract the precise bond
length and dipole moment of the molecule. With the information obtained in the present study, it is possible to photoassociate butterfly molecules with a selectable bond length, vibrational state, rotational state, and orientation inside an electric field.
By shedding light on various previously unrevealed aspects, the experiments presented in this thesis significantly deepen our knowledge on the Rydberg–ground state interaction and the peculiar effects arising from it. The obtained spectroscopic information on Rydberg molecules and the changed reaction dynamics for molecular ion creation will surely provide valuable data for quantum chemical simulations and provide necessary data to plan future experiments. Beyond that, our study reveals that the hyperfine interaction in Rydberg molecules and the peculiar properties of butterfly states provide very promising new ways to alter the short- and long-range interactions in ultracold many-body systems. In this sense the investigated Rydberg–ground state interaction not only lies right at
the interface between quantum chemistry, quantum many-body systems, and Rydberg physics, but also creates many new and fascinating possibilities by combining these fields.
Lowering the supply voltage of Static Random-Access Memories (SRAM) is key to reduce power consumption, however since this badly affects the circuit performances, it might lead to various forms of loss of functionality. In this work, we present silicon results showing significant yield improvement, achieved with write and read assist techniques on a 6T high- density bitcell manufactured in 40 nm technology. Data is successfully modeled with an original spice-based method that allows reproducing at high computing efficiency the effects of static negative bitline write assist, the effects of static wordline underdrive read assist, while the effects of read ability losses due to low-voltage operations on the yield are not taken into account in the model.
This thesis is concerned with interest rate modeling by means of the potential approach. The contribution of this work is twofold. First, by making use of the potential approach and the theory of affine Markov processes, we develop a general class of rational models to the term structure of interest rates which we refer to as "the affine rational potential model". These models feature positive interest rates and analytical pricing formulae for zero-coupon bonds, caps, swaptions, and European currency options. We present some concrete models to illustrate the scope of the affine rational potential model and calibrate a model specification to real-world market data. Second, we develop a general family of "multi-curve potential models" for post-crisis interest rates. Our models feature positive stochastic basis spreads, positive term structures, and analytic pricing formulae for interest rate derivatives. This modeling framework is also flexible enough to accommodate negative interest rates and positive basis spreads.
Jugendliche sind häufige Nutzer öffentlicher Stadträume, die ihnen wichtige Möglichkeiten der Interaktion, aber auch Orte des Rückzugs aus dem privaten Raum des Elternhauses oder dem institutionalisierten Raum der Schule bieten. In der aktuellen wissenschaftlichen Diskussion um öffentlichen Raum tritt vielfach dessen Wandel in den Fokus, vor allem im Hinblick auf Tendenzen der Kommerzialisierung, Privatisierung, aber auch einer zunehmenden Unsicherheit und Kriminalität. Über diese Aspekte des Wandels werden, so die grundlegende These der vorliegenden Arbeit, Jugendlichen engere Grenzen gesetzt und Aneignungs- und Zu-gangsmöglichkeiten eingeschränkt. Ein Beispiel für neue privatisierte und kommerzialisierte Räume stellen Shopping Malls dar. In diesen, de jure nicht öffentlichen, sondern als quasi-öffentlich bezeichneten Räumen, in denen Sicherheit, Sauberkeit und Service Priorität haben, wird ein mit Jugendlichen oftmals assoziiertes, vermeintlich unkontrollierbares, abweichendes, ausprobierendes Verhalten als Störfaktor wahrgenommen.
Auf Basis qualitativer Interviews mit Jugendlichen, nicht-teilnehmender Beobachtung und Experteninterviews mit Verantwortlichen von Polizei, Streetwork und dem Management lokaler Shopping Malls, werden in zwei Fallstudien (Saarbrücken und Ludwigshafen) die Aneignung und Wahrnehmung unterschiedlicher innerstädtischer öffentlicher Räume (Fußgängerzone, Zentraler Stadtplatz, Grün- und Freiflächen), etwaige Nutzungskonflikte und die Bedeutung des neuen, quasi-öffentlichen Raumtyps „Shopping Mall“ diskutiert.
Den theoretischen Hintergrund liefern vor allem Arbeiten von Pierre Bourdieu, Anthony Giddens und Henri Lefebvre: In Anlehnung an Bourdieu muss Raum, und damit auch öffentlicher Raum, aus verschiedenen Dimensionen, insbesondere der physischen und der sozialen, gedacht werden, die jedoch wechselseitig aufeinander wirken. Er ist, so die Theorie Henri Lefebvres, in einem mehrdimensionalen Prozess sozial produziert. Im Rahmen dieses Produktionsprozesses bilden sich, im Rahmen des dem von Giddens dargestellten Dualismus von Handeln und Struktur, Macht- und Ordnungsstrukturen aus, die Handeln und damit Nutzungsmöglichkeiten beeinflussen.
Die Ergebnisse der Fallstudien zeigen, dass öffentliche Räume von Jugendlichen, nach wie vor, als Interaktions-, Rückzugs- Mobilitäts- und Konsumräume genutzt werden. Dennoch sind Transformationsprozesse sichtbar: Kommerzialisierung und Privatisierung beeinflussen den Zugang zu und die Nutzungsmöglichkeiten von öffentlichen und quasi-öffentlichen Räumen. Auch durch gestiegene Unsicherheit, von aber auch durch Jugendliche, sowie Kontrollen verändern sich Möglichkeitsräume. Diese Kontrollen werden jedoch durchaus auch positiv und als Notwendigkeit bewertet, um zunehmender Unsicherheit zu begegnen.
Von Jugendlichen sind insgesamt Anpassungsleistungen notwendig, vor allem hinsichtlich eines angemessenen Verhaltens in öffentlichen und quasi-öffentlichen Räumen. Sie müssen sich mit bestehenden Macht- und Ordnungsstrukturen auseinandersetzen und sich diesen häufig unterordnen. Sind sie dazu nicht bereit oder nehmen Konflikte Überhand, werden Treffpunkte und Nutzungen aufgegeben. Besonders am Beispiel der „Shopping Malls“ wurde deutlich, dass eingeschränkte Zugangsmöglichkeiten und geltende Verhaltensvorschriften Änderungen der räumlichen Praxis notwendig machen, um Nutzung zu legitimieren. Shopping Malls können aber das Angebot an Freizeiträumen für Jugendliche auch erweitern. Gerade wenn ein Mangel an adäquaten Treffpunkten herrscht und klassische öffentliche Räume von „Verödung“ betroffen sind, so wie es im Fallbeispiel Ludwigshafen der Fall war, bilden sie einen alternativen „Erlebnisort“.
Im Rahmen dieser Arbeit wurden verschiedene Ansätze zur Bilanzierung von Badgiren
und Luftkollektorkonstruktionen studiert und ein Beitrag zur Bilanzierung, harmonisiert
mit der DIN V 18599, neu entwickelt. Die rechnerische Bilanzierung der
Einzelelemente wurde mit dem Werkzeug der thermisch dynamischen Simulation
entwickelt und überprüft.
This paper presents a method for classifying traffic participants based on high-resolution automotive radar sensors for autonomous driving applications. The major classes of traffic participants addressed in this work are pedestrians, bicyclists and passenger cars. The preprocessed radar detections are first segmented into distinct clusters using density-based spatial clustering of applications with noise (DBSCAN) algorithm. Each cluster of detections would typically have different properties based on the respective characteristics of the object that they originated from. Therefore, sixteen distinct features based on radar detections, that are suitable for separating pedestrians, bicyclists and passenger car categories are selected and extracted for each of the cluster. A support vector machine (SVM) classifier is constructed, trained and parametrised for distinguishing the road users based on the extracted features. Experiments are conducted to analyse the classification performance of the proposed method on real data.
Zur Auslegung von innovativen Betonkollektorelementen für solarthermische Parabolrinnenkraftwerke
(2016)
Kurzfassung
Parabolrinnen stellen die wirtschaftlichste Form der solarthermischen Kraftwerke mit
Solarstrahlenkonzentration dar. Die Kollektorelemente sind der entscheidende Faktor
für die Wirtschaftlichkeit des gesamten Parabolrinnenkraftwerks. Stand der Technik
ist es, die Kollektoren als räumliche Stahlfachwerke mit punktförmig gestützten Spiegeln
auszuführen. Zu diesem Konstruktionsprinzip sind Alternativen möglich.
Im Rahmen der vorliegenden Arbeit wurde die Machbarkeit einer wirtschaftlichen
Konstruktionsvariante für die Ausführung der Parabolrinnen unter Verwendung des
Werkstoffs Beton untersucht.
Die dabei erörterten Fragestellungen umfassen ein breites Spektrum. Ein Schwerpunkt
liegt auf der Konzeptionierung einer geeigneten Betonrezeptur und den damit
verbundenen betontechnologischen Herausforderungen. Diese waren stets unter
dem Gesichtspunkt einer schnellen Festigkeitsentwicklung zu betrachten. Des Weiteren
konnte ein Großdemonstrator konzeptionell und baulich realisiert werden, durch
welchen die Bauweise eines Parabolrinnenkollektorelements aus hochfestem Beton
vor Augen geführt wird. Diesem sind zwei Innovationen immanent: Zum einen die
Verwendung des Werkstoffs Beton, zum anderen sein neuartiges Auflagerungskonzept.
Der fertiggestellte Großdemonstrator wurde in einer Genauigkeitsanalyse mittels
optischer Messverfahren hinsichtlich seines Interceptfaktors, eine Kenngröße,
von welcher der Systemwirkungsgrad abhängt, beurteilt. Ein weiterer betrachteter
Aspekt ist die Maßhaltigkeit und Formstabilität von Beton, da durch Abweichungen
von ihrer Sollgeometrie der Interceptfaktor einer Parabolrinne reduziert wird. Anhand
von numerischen Untersuchungen wurden die unter realitätsnahen Bedingungen an
einem geeigneten Standort auftretenden Verformungen für den Großdemonstrator
analysiert und in Form einer rechnerischen Wirksamkeitsbeurteilung interpretiert.
Abstract
Parabolic troughs are the most economic type of solarthermal power plants working
by concentrating solar power. The collector elements are the most influencing factor
concerning the cost effectiveness of the whole power plant. State of the art is to construct
the collectors as spatial steel truss systems with point-wise supported mirrors.
Alternatives to this construction principle exist.
In the thesis at hand the feasibility of an economic way of constructing of an economic
execution of the parabolic troughs while using concrete as construction material
was analyzed.
The spectrum of the discussed questions is large. One focus was put on the conception
of a suitable concrete and the connected challenges concerning the concrete
technology. These were always to be considered under the aspect of a fast development
of the strength. Furthermore, a full-size demonstrator was planned and built,
which shows the construction method of a parabolic trough collector element using
high-strength concrete. Two innovations are immanent: On the one hand, the use of
the construction material concrete, on the other hand its novel supporting concept.
The completed full-size demonstrator was evaluated regarding its intercept factor (a
parameter by which the efficiency factor of the system is influenced) by using a precision
analysis using optical measurement methods. Another examined aspect is the
dimensional accuracy and stability of concrete because by deviations from the target
geometry the intercept factor of a parabolic trough is reduced. By means of numerical
methods the deflections, which result under realistic conditions at a suitable location,
were analyzed and in due form of a mathematical effectiveness assessment interpreted.
This thesis is concerned with a phase field model for martensitic transformations in metastable austenitic steels. Within the phase field approach an order parameter is introduced to indicate whether the present phase is austenite or martensite. The evolving microstructure is described by the evolution of the order parameter, which is assumed to follow the time-dependent Ginzburg-Landau equation. The elastic phase field model is enhanced in two different ways to take further phenomena into account. First, dislocation movement is considered by a crystal plasticity setting. Second, the elastic model for martensitic transformations is combined with a phase field model for fracture. Finite element simulations are used to study the single effects separately which contribute to the microstructure formation.
Thermoplastic composite materials are being widely used in the automotive and aerospace industries. Due to the limitations of shape complexity, different components
need to be joined. They can be joined by mechanical fasteners, adhesive bonding or
both. However, these methods have several limitations. Components can be joined
by fusion bonding due to the property of thermoplastics. Thermoplastics can be melted on heating and regain their shape on cooling. This property makes them ideal for
joining through fusion bonding by induction heating. Joining of non-conducting or
non-magnetic thermoplastic composites needs an additional material that can generate heat by induction heating.
Polymers are neither conductive nor electromagnetic so they don’t have inherent potential for inductive heating. A susceptor sheet having conductive materials (e.g. carbon fiber) or magnetic materials (e.g. nickel) can generate heat during induction. The
main issues related with induction heating are non-homogeneous and uncontrolled
heating.
In this work, it was observed that to generate heat with a susceptor sheet depends
on its filler, its concentration, and its dispersion. It also depends on the coil, magnetic
field strength and coupling distance. The combination of different fillers not only increased the heating rate but also changed the heating mechanism. Heating of 40ºC/
sec was achieved with 15wt.-% nickel coated short carbon fibers and 3wt.-% multiwalled carbon nanotubes. However, only nickel coated short carbon fibers (15wt-.%)
attained the heating rate of 24ºC/ sec. In this study, electrical conductivity, thermal
conductivity and magnetic properties testing were also performed. The results also
showed that electrical percolation was achieved around 15wt.-% in fibers and (13-
6)wt.-% with hybrid fillers. Induction heating tests were also performed by making
parallel and perpendicular susceptor sheet as fibers were uni-directionally aligned.
The susceptor sheet was also tested by making perforations.
The susceptor sheet showed homogeneous and fast heating, and can be used for
joining of non-conductive or non-magnetic thermoplastic composites.
Die Möller-Plesset Störungstheorie ist die einfachste ab-initio Methode zur Berechnung der Korrelationsenergie. Durch die Verwendung von zweikomponentigen Spinoren wird sichergestellt, dass relativistische Effekte wie z.B. die Spin-Bahn-Wechselwirkung berücksichtigt werden, die besonders auf die Eigenschaften schwerer Elemente einen großen Einfluss besitzen. Die bisher vorhandenen MP2-Programme berücksichtigten entweder keine relativistischen Effekte oder bauten auf weiteren Näherungsmethoden auf. Ziel der Doktorarbeit war, dass in meiner Diplomarbeit entworfene tcmp2-Programm durch die Entwicklung einer geeigneten Parallelisierung so weiterzuentwickeln, dass auch größere Übergangsmetallkomplexe damit berechnet werden können.
Das fertige Programm wurde anschließend zur Untersuchung der Elektronenaffinität ausgewählter Superhalogeniden sowie der Nullfeldaufspaltung spezieller Rheniumkomplexe verwendet.
A wide range of methods and techniques have been developed over the years to manage the increasing
complexity of automotive Electrical/Electronic systems. Standardization is an example
of such complexity managing techniques that aims to minimize the costs, avoid compatibility
problems and improve the efficiency of development processes.
A well-known and -practiced standard in automotive industry is AUTOSAR (Automotive
Open System Architecture). AUTOSAR is a common standard among OEMs (Original Equipment
Manufacturer), suppliers and other involved companies. It was developed originally with
the goal of simplifying the overall development and integration process of Electrical/Electronic
artifacts from different functional domains, such as hardware, software, and vehicle communication.
However, the AUTOSAR standard, in its current status, is not able to manage the problems
in some areas of the system development. Validation and optimization process of system configuration
handled in this thesis are examples of such areas, in which the AUTOSAR standard
offers so far no mature solutions.
Generally, systems developed on the basis of AUTOSAR must be configured in a way that all
defined requirements are met. In most cases, the number of configuration parameters and their
possible settings in AUTOSAR systems are large, especially if the developed system is complex
with modules from various knowledge domains. The verification process here can consume a
lot of resources to test all possible combinations of configuration settings, and ideally find the
optimal configuration variant, since the number of test cases can be very high. This problem is
referred to in literature as the combinatorial explosion problem.
Combinatorial testing is an active and promising area of functional testing that offers ideas
to solve the combinatorial explosion problem. Thereby, the focus is to cover the interaction
errors by selecting a sample of system input parameters or configuration settings for test case
generation. However, the industrial acceptance of combinatorial testing is still weak because of
the deficiency of real industrial examples.
This thesis is tempted to fill this gap between the industry and the academy in the area
of combinatorial testing to emphasizes the effectiveness of combinatorial testing in verifying
complex configurable systems.
The particular intention of the thesis is to provide a new applicable approach to combinatorial
testing to fight the combinatorial explosion problem emerged during the verification and
performance measurement of transport protocol parallel routing of an AUTOSAR gateway. The
proposed approach has been validated and evaluated by means of two real industrial examples
of AUTOSAR gateways with multiple communication buses and two different degrees of complexity
to illustrate its applicability.
Safety-related Systems (SRS) protect from the unacceptable risk resulting from failures of technical systems. The average probability of dangerous failure on demand (PFD) of these SRS in low demand mode is limited by standards. Probabilistic models are applied to determine the average PFD and verify the specified limits. In this thesis an effective framework for probabilistic modeling of complex SRS is provided. This framework enables to compute the average, instantaneous, and maximum PFD. In SRS, preventive maintenance (PM) is essential to achieve an average PFD in compliance with specified limits. PM intends to reveal dangerous undetected failures and provides repair if necessary. The introduced framework pays special attention to the precise and detailed modeling of PM. Multiple so far neglected degrees of freedom of the PM are considered, such as two types of elementwise PM at arbitrarily variable times. As shown by analyses, these degrees of freedom have a significant impact on the average, instantaneous, and maximum PFD. The PM is optimized to improve the average or maximum PFD or both. A well-known heuristic nonlinear optimization method (Nelder-Mead method) is applied to minimize the average or maximum PFD or a weighted trade-off. A significant improvement of the objectives and an improved protection are achieved. These improvements are achieved via the available degrees of freedom of the PM and without additional effort. Moreover, a set of rules is presented to decide for a given SRS if significant improvements will be achieved by optimization of the PM. These rules are based on the well-known characteristics of the SRS, e.g. redundancy or no redundancy, complete or incomplete coverage of PM. The presented rules aim to support the decision whether the optimization is advantageous for a given SRS and if it should be applied or not.
A vehicles fatigue damage is a highly relevant figure in the complete vehicle design process.
Long term observations and statistical experiments help to determine the influence of differnt parts of the vehicle, the driver and the surrounding environment.
This work is focussing on modeling one of the most important influence factors of the environment: road roughness. The quality of the road is highly dependant on several surrounding factors which can be used to create mathematical models.
Such models can be used for the extrapolation of information and an estimation of the environment for statistical studies.
The target quantity we focus on in this work ist the discrete International Roughness Index or discrete IRI. The class of models we use and evaluate is a discriminative classification model called Conditional Random Field.
We develop a suitable model specification and show new variants of stochastic optimizations to train the model efficiently.
The model is also applied to simulated and real world data to show the strengths of our approach.
Das Ziel dieser Arbeit besteht darin, aufzuzeigen, wie eine mathematische Modellierung, verbunden mit Simulations- und Ansteuerungsaspekten eines Segways im Mathematikunterricht der gymnasialen Oberstufe als interdisziplinäres Projekt umgesetzt werden kann. Dabei werden sowohl Chancen, im Sinne von erreichbaren mathematischen Kompetenzen, als auch Schwierigkeiten eines solchen Projektes mit einer interdisziplinären Umsetzung geschildert.
Die Planung von Bushaltestellen in Innenstädten ist ein authentisches Thema, welches sich für den Einsatz in einem realitätsbezogenen Unterricht in unterschiedlichen Klassenstufen eignet. Verschiedene Interessen und Gegebenheiten müssen in einem Modell und in einer Lösungsstrategie vereint werden. Durch eine sehr offen gewählte Fragestellung sind verschiedene Ansätze und Modelle möglich. Somit wird mathematisches Modellieren trainiert und das Durchlaufen eines Modellierungsprozesses in einem interessanten Projekt ermöglicht. Die mathematischen Hintergründe sowie das vielseitige Lösungsspektrum von Schülerinnen und Schülern unterschiedlicher Jahrgangsstufen zu derselben Fragestellung werden im Folgenden vorgestellt.
This thesis investigates the electromechanic coupling of dielectric elastomers for the static and dynamic case by numerical simulations. To this end, the fundamental equations of the coupled field problem are introduced and the discretisation procedure for the numerical implementation is described. Furthermore, a three field formulation is proposed and implemented to treat the nearly incompressible behaviour of the elastomer. Because of the reduced electric permittivity of the material, very high electric fields are required for actuation purposes. To improve the electromechanic coupling a heterogeneous microstructure consisting of an elastomer matrix with barium titanate inclusions is proposed and studied.
This Ph.D. project as a landscape research practice focuses on the less widely studied aspects of urban agriculture landscape and its application in recreation and leisure, as well as landscape beautification. I research on the edible landscape planning and design, its criteria, possibilities, and traditional roots for the particular situation of Iranian cities and landscapes. The primary objective is preparing a conceptual and practical framework for Iranian professions to integrate the food landscaping into the new greenery and open spaces developments. Furthermore, finding the possibilities of synthesis the traditional utilitarian gardening with the contemporary pioneer viewpoints of agricultural landscapes is the other significant proposed achievement.
Finished tasks and list of achieved results:
• Recognition the software and hardware principles of designing the agricultural landscape based on the Persian gardens
• Multidimensional identity of agricultural landscape in Persian gardens
• Principles of architectural integration and the characteristics of the integrative landscape in Persian gardens
• Distinctive characteristics of agricultural landscape in Persian garden
• Introducing the Persian and historical gardens as the starting point for reentering the agricultural phenomena into the Iranian cities and landscape
• Assessment the structure of Persian gardens based on the new achievements and criteria of designing the urban agriculture
• Investigate the role of Persian gardens in envisioning the urban agriculture in
Iranian cities’ landscape.
Im Rahmen dieser Arbeit wurde eine repräsentative Reihe von Ruthenium- katalysatoren des Typs [(p-Cym)Ru(Cl)(pypm)]Y (pypm = 4-(Pyridin-2-yl)pyrimidin, \( Y^- = BF_4{^-}, BPh_4{^-} \ und \ PF_6{^-} \) dargestellt. Zur Synthese der in 2-Position substituierten Pyrimidinyl- Einheiten wurde eine neue Syntheseroute über SNAr-Reaktionen erschlossen. Die so dargestellten Katalysatoren wurden auf ihr Potential in der rollover-Cyclometallierung untersucht. Durch systematische Variation der Liganden konnten Einflussfaktoren auf die Aktivierungsbarriere der Cyclometallierung über CID ESI-MS-Messungen und DFT- Rechnungen identifiziert und quantifiziert werden und im Folgenden die Aktivierungs- barrieren durch rationales Katalysatordesign erniedrigt werden. Aufbauend auf diesen Erkenntnissen konnte das Prinzip der reversiblen rollover-Cyclometallierung als Schlüsselschritt für basenfreie Transferhydrierungen von Ketonen etabliert werden. Die Komplexe wurden darüber hinaus erfolgreich in der mechanistisch sehr ähnlich verlaufenden reduktiven Aminierung von Benzaldehyden etabliert. Durch DFT-Rechnungen und ESI-MS- Untersuchungen konnten die einzelnen Schritte der Katalysezyklen identifiziert und gezielt beeinflusst werden. Es konnten Protokolle erarbeitet werden, die den Einsatz von Basen und Additiven zur Substrat- und Katalysatoraktivierung überflüssig machen und den Einsatz des gleichen Katalysators in beiden Reaktionen ermöglichen. Die Anwendungsbreite beider Reaktionen wurde intensiv untersucht und führte zur Darstellung einer Vielzahl von Produkten, die sich sowohl von ihren elektronischen als auch sterischen Eigenschaften stark unterscheiden.
Die Übertragung der Syntheseroute der Rutheniumkatalysatoren auf die Metalle der Gruppe 9 führte zur erfolgreichen Darstellung weiterer Komplexe. Das Konzept zur Identifizierung katalytisch aktiver Komplexe konnte erfolgreich von den Ruthenium- katalysatoren auf die Metallkomplexe der Cobalttriade übertragen werden. Der Einfluss des Metalls wurde durch ESI-MS CID untersucht und die Aktivierungsbarrieren darauf aufbauend gezielt erniedrigt.
Durch die Darstellung eines zweikernigen Rutheniumkomplexes konnten in der rollover-Cyclometallierung kooperative Effekte beobachtet werden.
Die vorliegende Arbeit fasst Erkenntnisse zum Einfluss polarer Alken-Substituenten auf Selektivitäten intramolekularer Alkoxylradikal-Additionen zusammen. Ergänzend zu den eigenen mechanistisch-synthetischen Studien flossen in die Bewertung der Reaktionsverläufe thermodynamische Daten und molekularorbital-theoretische Erkenntnisse ein, die in Kooperation mit Jens Hartung aus Dichtefunktional-Rechnungen abgeleitet wurden.
Die existierende Lehrmeinung beschreibt Sauerstoffradikale in Additionen und Substitutionen als Elektrophile, deren Selektivitäten durch sterische Effekte gesteuert werden. Auf Grundlage dieser Einteilung lassen sich atmosphärische und physiologische Sauerstoffradikal-Reaktionen und das komplementäre Reaktionsverhalten zu ionischen Cyclisierungen von Alkenolen deuten.
Vorläufermoleküle, die Sauerstoffradikale in unverzweigten Kettenreaktionen unter pH-neutralen nicht oxidativen Bedingungen freisetzen, erlaubten in der vorliegenden Arbeit strukturell komplexere Sauerstoffradikale mit hoher Spezifität zu erzeugen und aus den isolierten Produkten ein differenzierteres Bild zur Radikalselektivität abzuleiten. In diesem Bild besitzen Sauerstoffradikale Grenzreaktivität. Gegenüber Akzeptor-substituierten Alkenen treten Sauerstoffradikale als Nucleophile und gegenüber Donor-substituierten Alkenen als Elektrophile auf. Elektrophilie bildet darüber hinaus die Grundlage für einen neuen 2,3-cis-dirigierenden Effekt Allyl-ständiger Akzeptor-Gruppen, in denen der polare Einfluss über den sterischen dominiert.
In einem Projekt zur Synthese von Isomuscarinen, die sich durch Positionierung einer endocyclischen Hydroxy-Gruppe von den Glutamat-abgeleiteten Muscarin-Alkaloiden unterscheiden, fiel eine unerwartete 2,3-cis-Selektivität der 5-Hexen-2-oxylradikal-Cyclisierung auf. Aus sterischen Gründen wäre das 2,3-trans-konfigurierte Produkt favorisiert. 2,3-cis-Selektivität, die sich sowohl bei thermisch als auch photochemisch durchgeführten homolytischen Bromcyclisierungen zum Aufbau von Isomuscarin-Gerüsten zeigte, lässt sich in einem der diastereomeren Radikale durch den konformellen Effekt einer Methylgruppe zu 2,3-trans übersteuern. Die Befunde legen nahe, dass die 2,3-cis-Selektivität aus der kinetischen Reaktionskontrolle der Cyclisierungsreaktion resultiert. Kristallographische Untersuchungen der vier racemischen Isomuscarine und umfangreiche NMR-Studien aus denen sogar 1J(14N,13C) offenkund wurden, stützten die stereochemische Analyse zur Radikalselektivität.
Um die Ursache 2,3-cis-selektiver Radikalcyclisierungen einzugrenzen, wurde in einem zweiten Projekt das Untersuchungssystem auf das Allyl-ständig Hydroxy-substituierte 4-Pentenoxylradikal reduziert. Letzteres liefert in Gegenwart von Bromtrichlormethan das 2,3-cis-Cyclisierungsprodukt in einer Selektivität von 74:26. Da das 2,3-cis- und das 2,3-trans-Stereoisomer des (3-Hydroxytetrahydrofuran-2-yl)methyl-Radikals unter den Reaktions-bedingungen nicht ringöffnen, liegt der 2,3-cis-Selektiviät ein kinetischer Einfluss der Allyl-ständigen Hydroxy-Gruppe zugrunde. Auch Acyloxy-Gruppen in allylischer Position ermöglichen 2,3-cis-selektive 4-Pentenoxylradikal-Cyclisierungen, jedoch mit abweichender Selektivität. Den polaren Effekt überlagert demzufolge der sterische des eingesetzten Substituenten.
Das Zusammenspiel zwischen polarem und sterischem Effekt eines Allyl-ständigen Substituenten gelang es in einem dritten Projekt zu separieren. In diesem Projekt variierte der Allyl-ständige Substituent von Hydroxy, Methoxy, Trifluoracetoxy, Chlor, Benzamido, Benzolsulfonamido, N-Phthalimido zu Benzoylsulfanyl. Entlang dieser Reihe fiel der Anteil 2,3-cis-bromcyclisierter Produkte bei thermisch induzierter Umsetzung der synthetisierten Allyl-substituierten 4-Pentenylthiohydroxamate mit Bromtrichlormethan. In einer Korrelationsanalyse folgt der cis-Anteil an 5-exo-trig-Cyclisierungsprodukt der Stabilisierung der HOMO-Energie, wobei 2-substituierte But-3-ene als Modell-Verbindungen zur Korrelation eingesetzt wurden. Mit zunehmendem sterischen Substituenteneinfluss, ausgedrückt anhand des entsprechenden Winstein-Holness-Parameters, steigt der Anteil 2,3-trans-konfigurierter Cyclisierungsprodukte. 2,3-cis-Selektivität resultiert in dem Modell aus einer Verlangsamung der 2,3-trans-Reaktion durch den stabilisierenden Einfluss eines sterisch möglichst kleinen stark elektronenziehenden Substituenten. Mit zunehmender Stabilisierung des Alkenteils sinkt die Geschwindigkeit der Radikaladdition. Mit zunehmender Raumerfüllung des Allyl-Substituenten wird jedoch das Konformer aus dem die 2,3-cis-Reaktion erreicht werden kann zu energiereich, um nennenswert eine Rolle zu spielen.
Direkt an der Doppelbindung gebundene Substituenten haben einen noch deutlicheren Einfluss auf die Radikalselektivitäten, da sie die Energien von π-Typ-Orbitalen direkt beeinflussen. Alkoxylradikale addieren dabei rascher an eine terminal Cyano-substituierte Doppelbindung als an eine unsubstituierte. Kontrollreaktionen mit einer Radikaluhr zeigten, dass alle Intermediate auf Radikale zurückzuführen sind. Anwenden ließ sich die unerwartete nucleophile Reaktivität in der Synthese einer neuen Tetrahydrofuran-abgeleiteten Aminosäure.
Im Rahmen dieser Arbeit wurden Möglichkeiten zur Steigerung der Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Leitungen untersucht. Hierbei wurde der Einfluss auf die Tragfähigkeit von Wendeln um die Leitungen herum, der Einfluss von Gitterträgern in Elementdecken mit Leitungen, Gitterträger neben Leitungen als örtliche Zulagebewehrung und Unterstützungskörbe über Leitungen untersucht. Zudem wurden Versuche mit lokaler Verbundstörung der Biegebewehrung zur Vermeidung eines Biegeschubrisses im Bereich der Leitungen durchgeführt.
Die Wendel wird aus Betonstahl gebogen und mit handelsüblichen Betonabstandhaltern an der Leitung fixiert. Die Betondeckung zur Leitung soll sowohl die Kraftübertragung, als auch den Korrosionsschutz sicherstellen. In insgesamt 70 Bauteilversuchen wurden verschiedene Parameter variiert. Hierzu zählen der Leitungsdurchmesser, die Anzahl der Windungen der Wendel, der Stabdurchmesser der Wendel sowie die Lage der Öffnung im Bauteil. Mit relativ geringen Bewehrungsmengen konnte die Tragfähigkeit des ungeschwächten, unbewehrten Vollquerschnitts erreicht werden. Die Ergebnisse der Versuche führten abschließend zu einem an den Querkraftnachweis des Eurocode 2 angelehnten Bemessungsvorschlag, der die verschiedenen Einflussparameter der Wendel berücksichtigt.
Zur Untersuchung des Tragverhaltens von Elementdecken mit Gitterträgern und integrierten Leitungen in der Ortbetonergänzung wurde in 31 Versuchen der Querkraftbewehrungsgrad variiert. Der Öffnungsdurchmesser betrug dabei maximal 80 mm. Größere Leitungen können ohne Beschädigung der Diagonalen der Gitterträger nicht verbaut werden. Hierbei konnte eine Reduktion der Querkrafttragfähigkeit bezogen auf den ungeschwächten Querschnitt mit Gitterträgern festgestellt werden. Diese Reduktion wird in einem Bemessungskonzept durch Abminderung des Betontraganteils berücksichtigt. Ab einer Querkraft-bewehrungsmenge von ca. 11 cm²/m² konnte die Querkrafttragfähigkeit des unbewehrten Vollquerschnitts erreicht werden. Diese Bewehrungsmenge entspricht in etwa dem Mindestquerkraftbewehrungsgrad nach Eurocode 2.
Des Weiteren wurden Versuche an Elementdecken mit Gitterträgern neben bzw. Unterstützungskörben über Leitungen durchgeführt. Bei diesen Versuchen wurde sowohl der Fall des in das Fertigteil einbetonierten Bewehrungselements als auch der Fall des nachträglich auf die Fertigteilplatte aufgestellten Bewehrungselements untersucht. Die Versuchsergebnisse führten zu einem Bemessungsansatz, welcher an das Bemessungskonzept des Eurocode 2 anschließt. Durch zusätzliche Faktoren in Abhängigkeit des Bewehrungselements, Bewehrungsgrades und des Leitungs-durchmessers kann die Querkrafttragfähigkeit solcher Decken bemessen werden.
Eine lokale Verbundstörung der Biegebewehrung unterhalb der Öffnungen führt zu einer deutlich erhöhten Traglast. Ein Biegeschubversagen konnte in diesem Fall nicht herbeigeführt werden. Diese Versuche führen zwar zu keiner praxistauglichen Verstärkungsmethode, veranschaulichen aber sehr gut das Querkrafttragverhalten von Stahlbetondecken.
Die Entwicklung von Revitalisierungskonzepten für Wohnimmobilien ist ein komplexer und zeitintensiver Prozess, bei dem umfassendes Fachwissen und weitreichende Erfahrungen notwendig sind. Heterogene Gebäudetypen mit unterschiedlichen Eigenschaften und Handlungsbedarfen machen den Konzeptentwicklungsprozess noch komplizierter. Diese Arbeit bietet einen Katalog mit priorisierten Handlungsempfehlungen zur Entwicklung von Revitalisierungsvarianten für Mehrfamilienhäuser aus den 1970er Jahren in den alten Bundesländern. Die Immobilien tragen mit ca. 2,4 Mio. Wohnung wesentlich zur Wohnraumversorgung in den alten Bundesländern bei und wurden bisher unzureichend erforscht. Darüber hinaus stehen durch das Alter, den häufig geringen Modernisierungszustand und vorhandene Potenziale der Mehrfamilienhäuser meist kurz- bis mittelfristig grundlegende Revitalisierungen an.
Die erarbeiteten Handlungsempfehlungen basieren auf Auswertungen von Daten professionell-gewerblicher Wohnungsanbieter, über 13.700 Energieverbrauchsausweisen, Mieterbefragungen und der Datenbasis Gebäudebestand des IWU. Außerdem stützen sich die Empfehlungen auf eine Sekundäranalyse einer repräsentativen Wohnnachfrageuntersuchung für Deutschland sowie auf zwanzig Expertenbefragungen und umfangreiche Literaturanalysen. Durch eine Immobilienanalyse werden verallgemeinerungsfähige Aussagen über bauliche und technische Eigenschaften und Handlungsbedarfe für die Mehrfamilienhäuser gewonnen. Daneben erfolgt anhand einer Nachfrageanalyse die Bestimmung potenzieller Nachfragegruppen und deren Wohnanforderungen sowie daraus abgeleitet nachfrageseitige Handlungsbedarfe für die Mehrfamilienhäuser. Für die ermittelten baulichen und technischen sowie nachfrageseitigen Handlungsbedarfe werden durch eine Maßnahmenanalyse geeignete Revitalisierungsmaßnahmen gefunden. Diese Maßnahmen werden im Katalog der Handlungsempfehlungen angelehnt an ein Kundenanforderungsmodell nach technischen Gesichtspunkten und Nachfrageaspekten priorisiert. Anwender des Empfehlungskatalogs können ihre individuelle kaufmännische Perspektive einbringen, um ganzheitliche Revitalisierungskonzepte zu entwickeln. Durch eine entwickelte Berechnungshilfe können Kosten und Wirtschaftlichkeit der Konzepte bewertet werden.
Die Handlungsempfehlungen zielen auf technische, funktionale, energetische, wirtschaftliche, soziale und architektonische Verbesserungen bei den Mehrfamilienhäusern. In zwei Fallstudien werden der Katalog der Handlungsempfehlungen und die Berechnungshilfe angewendet. Die Fallstudien deuten darauf hin, dass mit Hilfe des Katalogs der Handlungsempfehlungen und der Berechnungshilfe Revitalisierungsvarianten für Mehrfamilienhäuser aus den 1970er Jahren effizient entwickelt und deren Kosten und Wirtschaftlichkeit effizient eingeschätzt werden können. Die Forschungsergebnisse der Arbeit sind insbesondere für Wohnungseigentümer, Projektentwickler, Ingenieure, Berater und Investoren nützlich.
Entwicklung von TDMA-basierten QoS-Routing-Protokollen und Simulationskomponenten für Ad-Hoc-Netze
(2016)
Ad-Hoc-Netze sind selbstorganisierende Netze ohne zentrale Infrastruktur, die heutzutage in vielen Bereichen Verwendung finden. Sie bestehen aus drahtlosen Knoten, die zur Erfüllung ihrer Aufgaben miteinander kommunizieren. Jedoch befinden sich nicht notwendigerweise alle Knoten in Reichweite zueinander. Damit entfernte Knoten einander erreichen können, werden Routingverfahren benötigt. Die Etablierung einer beliebigen Route ist jedoch oft nicht ausreichend, denn viele Anwendungen stellen spezielle Dienstgüteanforderungen (QoS-Anforderungen) an die Verbindung, beispielsweise die Gewährleistung einer Mindestbandbreite. Um diese QoS-Anforderungen erfüllen zu können, werden sie bereits bei der Ermittlung einer Route berücksichtigt, und die benötigten Ressourcen werden entlang der Route reserviert. Dazu dienen QoS-Routing- und Reservierungsprotokolle.
In dieser Arbeit wird zunächst der Aspekt der deterministischen Reservierung von Bandbreite in Form von konkreten Zeitslots einer TDMA-basierten MAC-Schicht betrachtet. Da sich die Übertragungen verschiedener Knoten in drahtlosen Netzen gegenseitig stören können, wurde ein Interferenzmodell entwickelt. Dieses identifiziert Bedingungen, unter denen Zeitslots innerhalb eines Netzes für mehr als eine Übertragung verwendet werden können. Zudem definiert es durch Aggregation der Informationen anderer Knoten Möglichkeiten zur Ermittlung der benötigten Informationen, um zu entscheiden, welche Zeitslots für eine störungsfreie Übertragung verwendet werden können.
Weiterhin werden existierende QoS-Routing- und Reservierungsprotokolle auf inhärente Probleme untersucht, wobei der Schwerpunkt auf Protokollen liegt, die deterministische Reservierungen von Zeitslots vornehmen. In diese Kategorie fällt auch das im Rahmen der Arbeit entwickelte Protokoll RBBQR, dessen Hauptziel darin besteht, die identifizierten Probleme zu eliminieren. Ferner wird das ebenfalls zu dieser Kategorie gehörende Protokoll QMRP beschrieben, welches zentralisiert Multicast-Routen inklusive der zugehörigen Reservierungen in teilstationären Netzen ermittelt.
Ein weiterer Bestandteil der Arbeit behandelt die Entwicklung von Simulationskomponenten, welche beispielsweise zur Evaluation von QoS-Routing- und Reservierungsprotokollen genutzt werden können. Das existierende Simulationsframework FERAL wurde um eine Komponente erweitert, die die Verwendung von Kommunikationstechnologien des Netzwerksimulators ns-3 ermöglicht. Weiterhin wurde ein Modul zur Simulation eines CC2420-Transceivers entwickelt, welches in eigenständigen ns-3-Simulationen und in Simulationen mit FERAL verwendet werden kann.
Der Anteil von Komponenten aus Faserkunststoffverbunden (FKV) ist in den vergangenen
Jahren speziell in den leichtbaugetriebenen Branchen stetig gestiegen, da der
Einsatz von FKV die Möglichkeit bietet, eine Gewichtsreduktion gegenüber Ausführungen
mit klassischen Metallwerkstoffen zu erzielen. Eine optimale Ausnutzung der
Vorteile von FKV kann jedoch nur durch faserkunststoffgerechte konstruktive Lösungen,
für die bisherige Ausführungen in Frage gestellt werden müssen, erreicht werden.
Nicht nur Materialien und Bauweisen für lasttragende Strukturen sind zu überdenken,
auch bisherige Lösungsansätze zur Realisierung aktorischer Funktionen, die
einen wesentlichen Teil vieler Produkte ausmachen, müssen hinterfragt werden.
Klassische diskret angeschlossene Aktoren können in diesem Zuge durch neuartige
Festkörperaktoren wie z.B. Formgedächtnislegierungen oder Piezokeramiken substituiert
werden. Durch den differenziellen Aufbau der FKV ist die direkte Integration
aktiver Formgedächtnislegierungen (engl. Shape Memory Alloys (SMA)) möglich und
es ergibt sich ein neues FKV-gerechtes Aktorikprinzip, welches eine material- und
flächenintegrierte Aktorik bietet. Wesentliche, bisher ungelöste Fragestellungen aktiver
SMA-FKV-Hybridverbunde werden in der vorliegenden Arbeit detailliert beleuchtet
und neue Lösungsansätze ausgearbeitet, um für einen zukünftigen industriellen
Einsatz die grundlegenden Voraussetzungen zu schaffen.
Um ein ganzheitliches Vorgehen zu gewährleisten, müssen offene Fragestellungen
im Bereich der Herstellung und simulativen Auslegung beantwortet werden. Die zentralen Fragen sind:
- Herstellung: Wie können zuverlässige aktive SMA-FKV-Hybridverbunde reproduzierbar
hergestellt werden?
- Simulation: Wie können aktive Komponenten aus SMA-FKV-Hybridverbund
auf Bauteilebene effizient ausgelegt werden?
Die Integrationsmethode des Herstellungsprozesses muss möglichst effizient die
Aufgaben Kraftübertragung zwischen SMA und FKV, elektronische Kontaktierung und Handling erfüllen. Dies wird mit einem innovativen Konzept, welches bei der
Kraftübertragung auf mechanische Verankerungen zwischen SMA-Elementen und
umgebendem FKV setzt, erreicht. Durch den Einsatz eines geschweißten SMAGitters
und lokal faserverstärkter Bereiche können die erforderlichen Aktorspannungen
übertragen werden. Weiterhin gewährleistet ein vorgefertigte SMA-Gitter einen
flexiblen Herstellungsprozess und ein reproduzierbares Herstellungsergebnis.
Zur Konzipierung einer optimalen Prozesstemperaturführung sind komplexe Randbedingungen
und auf den ersten Blick widersprüchliche Anforderungen aus den
etablierten Herstellungsprozessen von FKV-Materialien und dem thermisch sensiblen
SMA-Materialverhalten zu berücksichtigen. Eine Kalthärtung im ersten Schritt der
Hybridverbundherstellung aus duromerem FKV und SMA-Gitter erlaubt einen Verzicht
auf aufwendige Vorrichtungen zur Unterdrückung einer vorzeitigen Verformung
der SMA-Elemente. Eine weitere angepasste Temperung zur Erhöhung der Vernetzungsdichte
des duromeren Polymers verbessert die Leistungsfähigkeit zusätzlich,
wodurch die maximale Spitzenauslenkung (ohne äußere Last) bezogen auf die aktive
Länge einer Hybridstruktur von anfänglich 17 % auf mehr als 60 % gesteigert werden
kann.
Um eine simulative Abbildung dieser SMA-FKV-Hybridverbunde zur Auslegung aktiver
Komponenten einsetzen zu können, muss die Modellierung die notwendige Genauigkeit
liefern und effizient auf Bauteilskala einsetzbar sein. Das entwickelte Zustandslinien-
Modell des SMA-Materials wird diesen Anforderungen durch die Fokussierung
auf den Aktorikeffekt gerecht. Vorhergesagt werden kann damit der „aufgeheizte“
und „abgekühlte“ Zustand von Ein- und Zwei-Weg-Effekt-Materialien. Der Einfluss
der Steifigkeit der zu verformenden FKV-Komponente wird durch eine anwendungsnahe
Charakterisierung erfasst und fließt durch die analytische Beschreibung
der Zusammenhänge in das Modell ein. Konkrete Kennwerte stehen für ein Zwei-
Weg-Effekt-Material und zwei Ein-Weg-Effekt-Materialien mit unterschiedlicher Umwandlungstemperatur
und individueller Vordehnung (1,8 bis 6,3 %) zur Verfügung.
Durch die Beschreibung der gesamten Hybridverbunde mittels homogenisierter
Schalen in der Finiten-Elemente-Methode (FEM) kann auf die Abbildung der realen mikroskopischen Geometrie verzichtet werden und die Auslegung ganzer Komponenten
aus aktivem SMA-FKV-Hybridverbund wird ermöglicht.
Im Zuge der Validierung wird das experimentell bestimmte Aktorikverhalten mit der
simulativen Vorhersage abgeglichen. Da dieser Validierung die entwickelten Lösungen
in den Bereichen Herstellung und Simulation zugrunde liegen, verifiziert die erfolgreiche
Validierung die Anwendbarkeit der entwickelten Gesamtmethodik. Eine
gute Übereinstimmung kann bei Coupontests für Vordehnungen von bis zu 3 % sowie
für teilaktivierte Zustände der SMA-Elemente festgestellt werden.
Um zu verdeutlichen, wieso und unter welchen Randbindungen der Einsatz aktiver
SMA-FKV-Hybridverbunde technisch sinnvoll sein kann, werden verschiedene neuartige
Anwendungskonzepte beschrieben. Die wesentlichen Vorteile eines aktiven Hybridverbundes
gegenüber klassischer Aktorik-Struktur-Kombinationen werden durch
die abschließende Entwicklung eines aerodynamischen Profils als Demonstrator hervorgehoben.
Die wichtigsten Vorteile sind:
- Stark reduzierte Bauraumanforderungen
- Geringes Systemgewicht
- Große Designfreiheit
- Geschlossene kontinuierliche Oberfläche
- Geringer Montageaufwand
Der Demonstrator verdeutlicht außerdem, wie es mit den Ergebnissen dieser Arbeit
möglich ist, aktive Bauteile aus SMA-FKV-Hybridverbund im Hinblick auf eine konkrete
Anwendung systematisch und rechnergestützt auszulegen. Durch die entwickelte
Herstellungsmethodik können diese Hybridverbunde mit hoher Leistungsfähigkeit
bei minimalem Bauraum und geringer zusätzlicher Masse in reproduzierbarer
Qualität gefertigt werden. Neue innovative Funktionen, die sich nicht im Rahmen
klassischer Aktorikprinzipien realisieren lassen, werden umsetzbar und ermöglichen
signifikante Wertsteigerungen diverser Produkte.
In retail, assortment planning refers to selecting a subset of products to offer that maximizes profit. Assortments can be planned for a single store or a retailer with multiple chain stores where demand varies between stores. In this paper, we assume that a retailer with a multitude of stores wants to specify her offered assortment. To suit all local preferences, regionalization and store-level assortment optimization are widely used in practice and lead to competitive advantages. When selecting regionalized assortments, a tradeoff between expensive, customized assortments in every store and inexpensive, identical assortments in all stores that neglect demand variation is preferable.
We formulate a stylized model for the regionalized assortment planning problem (APP) with capacity constraints and given demand. In our approach, a 'common assortment' that is supplemented by regionalized products is selected. While products in the common assortment are offered in all stores, products in the local assortments are customized and vary from store to store.
Concerning the computational complexity, we show that the APP is strongly NP-complete. The core of this hardness result lies in the selection of the common assortment. We formulate the APP as an integer program and provide algorithms and methods for obtaining approximate solutions and solving large-scale instances.
Lastly, we perform computational experiments to analyze the benefits of regionalized assortment planning depending on the variation in customer demands between stores.
Since the early days of representation theory of finite groups in the 19th century, it was known that complex linear representations of finite groups live over number fields, that is, over finite extensions of the field of rational numbers.
While the related question of integrality of representations was answered negatively by the work of Cliff, Ritter and Weiss as well as by Serre and Feit, it was not known how to decide integrality of a given representation.
In this thesis we show that there exists an algorithm that given a representation of a finite group over a number field decides whether this representation can be made integral.
Moreover, we provide theoretical and numerical evidence for a conjecture, which predicts the existence of splitting fields of irreducible characters with integrality properties.
In the first part, we describe two algorithms for the pseudo-Hermite normal form, which is crucial when handling modules over ring of integers.
Using a newly developed computational model for ideal and element arithmetic in number fields, we show that our pseudo-Hermite normal form algorithms have polynomial running time.
Furthermore, we address a range of algorithmic questions related to orders and lattices over Dedekind domains, including computation of genera, testing local isomorphism, computation of various homomorphism rings and computation of Solomon zeta functions.
In the second part we turn to the integrality of representations of finite groups and show that an important ingredient is a thorough understanding of the reduction of lattices at almost all prime ideals.
By employing class field theory and tools from representation theory we solve this problem and eventually describe an algorithm for testing integrality.
After running the algorithm on a large set of examples we are led to a conjecture on the existence of integral and nonintegral splitting fields of characters.
By extending techniques of Serre we prove the conjecture for characters with rational character field and Schur index two.
Ausgangspunkt und Vorgehen:
Smartphones bieten zahlreiche interessante Experimentiermöglichkeiten und weisen dabei Vorteile gegenüber herkömmlichen Experimenten auf: Die Geräte besitzen verschie- dene interne Sensoren, so dass mit nur einem Medium viele verschiedene physikalische Phänomene untersucht werden können. Smartphones eignen sich zur Behandlung der Mechanik, der Akustik, des Elektromagnetismus, der Optik und der Radioaktivität, wobei Experimente sowohl innerhalb, als auch außerhalb der Schule möglich sind. Hinzu kommt, dass heute nahezu alle Jugendlichen ein eigenes Smartphone besitzen, so dass auch die Möglichkeit besteht, Versuche als Hausaufgabe einzusetzen. Diese Vorteile sind in der fachdidaktischen Forschung bekannt, weswegen bereits zahlreiche experimentelle Konzep- te in der Literatur vorhanden sind.
Im Gegensatz zur Erstellung experimenteller Konzepte wurde die empirische Untersu- chung der Lerneffekte von Smartphones allerdings von der Forschung bisher kaum in den Blick genommen, obwohl Auswirkungen auf Motivation, Neugier und Leistung auf der Grundlage verschiedener theoretischer Rahmenwerke (kontextorientiertes Lernen, Neu- gier, Cognitive Load Theory und Cognitive-Affective Theory of Learning with Media) ange- nommen werden können. Eine schrittweise Erkundung der Auswirkungen des Einsatzes der Geräte auf affektive und kognitive Variablen des Lernens ist daher notwendig. In die- sem Sinne wird als ein erster Schritt hin zu einem umfänglichen Verständnis der Möglich- keiten der Förderung des Lernens in Physik durch das Experimentieren mit Smartphones und den darin verbauten Beschleunigungssensoren eine Untersuchung in einer traditionel- len Unterrichtssituation mit bewährten Experimenten im Themenbereich Mechanik durch- geführt. Auch wenn so das Potenzial der Geräte nicht vollständig ausgenutzt wird, wurde diese Vorgehensweise aus zwei Gründen beschritten: Zum einen muss das Lernen außer- halb des Unterrichts im Unterricht vorbereitet werden; zum anderen lässt sich so eine gute Kontrollierbarkeit und geringe Konfundierung der untersuchten Variablen bei gleichzeitig hoher ökologischer Validität realisieren.
Zur Untersuchung der Lerneffekte durch den Einsatz der Beschleunigungssensoren von Smartphones wurde zunächst eine Pilotstudie mit 122 Schülerinnen und Schülern durch- geführt. An der anschließenden Hauptstudie nahmen 245 Schülerinnen und Schüler aus 15 Klassen und Kursen von sechs Gymnasien aus Rheinland-Pfalz teil. Für beide Studien wurden experimentelle Aufbauten und zugehörige Instruktionsmaterialien für inhaltsgleiche Experimente mit dem Beschleunigungssensor von Smartphones einerseits und mit traditio- nellem Equipment andererseits entwickelt. Außerdem wurden verschiedene Testinstrumen- te konstruiert oder adaptiert.
Ausgewählte Ergebnisse:
Außer den bereits bekannten praktischen und experimentellen Vorteilen von Smartphones kann der Einsatz des Beschleunigungssensors der Geräte förderlich für das Lernen sein. Zunächst wurde festgestellt, dass keine der häufig befürchteten Nachteile der Nutzung moderner Kommunikationsmedien im Unterricht auftraten. Die Schülerinnen und Schüler waren durch den zielgerichteten Medieneinsatz nicht überfordert: Der von den Schülerin- nen und Schülern wahrgenommene allgemeine Cognitive Load war in der Smartphone- Gruppe nicht größer als in der Kontrollgruppe, der speziell auf die Nutzung der Geräte be- zogene Cognitive Load wurde als eher klein empfunden. Die Lernleistung der Schülerinnen und Schüler war außerdem unabhängig von ihrer Vorerfahrung mit Experimenten oder mit Technik, eine befürchtete Limitierung der positiven Effekte von Smartphones auf bestimmte Schülergruppen war also nicht festzustellen. Häufig wird als Argument gegen Smartphones in der Schule ins Feld geführt, dass diese zu stark vom Unterricht ablenkten. Eine beson- ders große Ablenkung konnte jedoch in der Intervention nicht beobachtet werden: Die Schülerinnen und Schüler der Smartphone-Gruppe arbeiteten ebenso konzentriert wie die der Kontrollgruppe (die bisweilen ebenfalls durch Gespräche oder Ähnliches abgelenkt waren). Dementsprechend war auch keine Minderung des Lernerfolgs in der Smartphone- Gruppe festzustellen.
Neben dem Ausbleiben befürchteter Nachteile traten außerdem explizite Vorteile durch das Lernen mit Beschleunigungssensoren von Smartphones auf: Das Interesse und Engage- ment der Schülerinnen und Schüler in der Smartphone-Gruppe war signifikant größer als das in der Kontrollgruppe (d = 0,4). Dabei ist der gefundene Gruppenunterschied so groß, dass davon ausgegangen werden kann, dass hier mehr als ein bloßer Neuigkeitseffekt vorliegt. Hinzu kommt, dass durch das Lernen mit Smartphones vor allem das Interesse bezüglich des Physikunterrichts bei den Schülerinnen und Schülern geweckt wurde, die vor der Intervention eher wenig interessiert waren.
Ein weiterer Effekt durch das Lernen mit den Beschleunigungssensoren von Smartphones betrifft die Neugier bezüglich der Inhalte der Experimente: Diese Neugier war in der Smartphone-Gruppe signifikant stärker ausgeprägt als in der Kontrollgruppe (d = 0,25). Dabei konnte kein Einfluss der experimentellen Vorerfahrung oder der fachlichen Vor- kenntnisse auf die Neugier festgestellt werden, es liegt also eine weitgehend vorausset- zungsfreie Förderung vor. Die Einstellung gegenüber Smartphones war bei den meisten Schülerinnen und Schülern eher positiv, unabhängig von ihrem Interesse am Physikunter- richt oder ihrem Selbstkonzept. Bei leistungsschwächeren Schülerinnen und Schülern war die positive Haltung gegenüber dem Einsatz von Smartphones im Unterricht sogar stärker ausgeprägt als bei leistungsstarken.
Kognitive Vorteile durch das Lernen mit dem Beschleunigungssensor von Smartphones konnten nicht festgestellt werden. Es traten allerdings auch keine Nachteile auf: In beiden Gruppen gab es mittlere gewichtete Lernzuwächse (gSG = 0,38, gKG = 0,33) mit großen Effektstärken (dSG = 0,95, dKG = 1,09), wobei die Smartphone-Gruppe genau so gut ab- schnitt wie die Kontrollgruppe.
Abgesehen von den Erkenntnissen bezüglich der Lerneffekte von Smartphones konnten die beiden neu erstellten Testinstrumente der primären Fragestellung übergeordnete Er- kenntnisse liefern: Der für die Hauptstudie entwickelte Konzepttest zur Periodizität mecha- nischer harmonischer Schwingungen liefert Hinweise auf bisher unbekannte Präkonzepte. So glaubten einige Schülerinnen und Schüler, dass ein kleiner Ortsfaktor die Bewegung eines Federpendels verlangsamen würde, was zu einer größeren Schwingungsdauer führ- te. Zum anderen bestand die intuitive Vorstellung, dass die Dämpfung eines Fadenpendels durch die Gravitationskraft verursacht würde, da diese das Pendel an den tiefsten Punkt seiner Bahn ziehe.
Außerdem wurden in der vorliegenden Arbeit erste Schritte hin zu einem Testinstrument für das episodische Gedächtnis in instruktionalen Kontexten unternommen. Drei Itemformate stellten sich als geeignet für die Untersuchung heraus, unter anderem die Wiedererken- nung von Bildern beim Experimentieren verwendeter Gegenstände. Zum Zusammenhang zwischen dem episodischen Gedächtnis und dem Lernen ergaben sich erste Hinweise, die vielversprechende Ansätze für weitere Forschungen bieten.
Annual Report 2015
(2016)
Annual Report, Jahrbuch AG Magnetismus
For some optimization problems on a graph \(G=(V,E)\), one can give a general formulation: Let \(c\colon E \to \mathbb{R}_{\geq 0}\) be a cost function on the edges and \(X \subseteq 2^E\) be a set of (so-called feasible) subsets of \(E\), one aims to minimize \(\sum_{e\in S} c(e)\) among all feasible \(S\in X\). This formulation covers, for instance, the shortest path problem by choosing \(X\) as the set of all paths between two vertices, or the minimum spanning tree problem by choosing \(X\) to be the set of all spanning trees. This bachelor thesis deals with a parametric version of this formulation, where the edge costs \(c_\lambda\colon E \to \mathbb{R}_{\geq 0}\) depend on a parameter \(\lambda\in\mathbb{R}_{\geq 0}\) in a concave and piecewise linear manner. The goal is to investigate the worst case minimum size of a so-called representation system \(R\subseteq X\), which contains for each scenario \(\lambda\in\mathbb{R}_{\geq 0}\) an optimal solution \(S(\lambda)\in R\). It turns out that only a pseudo-polynomial size can be ensured in general, but smaller systems have to exist in special cases. Moreover, methods are presented to find such small systems algorithmically. Finally, the notion of a representation system is relaxed in order to get smaller (i.e. polynomial) systems ensuring a certain approximation ratio.
Die Forschung zum amerikanischen Exzeptionalismus als Teil der kollektiven
Identität der USA lässt eine systematische Einordnung der
exzeptionellen Selbstzuschreibungen der USA im Kontext militärischer
Interventionspolitik bisher weitgehend vermissen. Basierend auf den beiden
grundlegenden Dimensionen einer exemplarischen und einer missionarischen
Selbstzuschreibung werden in dieser Studie vier Idealtypen
des amerikanischen Exzeptionalismus gebildet, die als ideationales Analyseraster
der amerikanischen Interventionspolitik dienen können. Ausgehend
von der Doppelfunktion des amerikanischen Exzeptionalismus
als Movens außenpolitischer Präferenzen und als strategische Legitimationsgrundlage
wird in einem historisch angeleiteten Vergleich gezeigt,
dass Elemente dieser vier Idealtypen die außenpolitischen Traditionen
der USA maßgeblich (mit)geprägt haben. Zur weiteren Einordnung des
amerikanischen Exzeptionalismus in den außenpolitischen Präferenzbildungsprozess
der USA wird in einem zweiten Schritt die ideationale Variante
der liberalen Außenpolitiktheorie nach Andrew Moravcsik um den
Faktor der politischen Kommunikation ergänzt. Der amerikanische
Exzeptionalismus dient dem Präsidenten dabei als narrativer Diskursrahmen
außenpolitischer Interpretations- und Deutungsangebote, mit denen
er die Öffentlichkeit zu mobilisieren und den Kongress von seinen
außenpolitischen Absichten zu überzeugen versucht. In diesem Zusammenhang
gilt: Je kongruenter die außenpolitischen Deutungsangebote
mit dem Narrativ des amerikanischen Exzeptionalismus, desto wirkmächtiger
ihre Bedeutung für den gesellschaftlichen Diskurs der USA
über Außenpolitik. Entgegen den Annahmen der liberalen Außenpolitiktheorie
zeigt sich, dass der Präsident als Strategic Narrator des amerikanischen
Exzeptionalismus die Öffentlichkeit nicht nur repräsentieren,
sondern auch zu seinen Gunsten mobilisieren kann.
Faser-Kunststoff-Verbunde (FKV) sind in der Luftfahrt etabliert, wohingegen andere
Branchen diese aufgrund der hohen Kosten nur zögerlich einsetzen. Die hohen Betriebskosten
von Flugzeugen, die sich vorrangig durch Leichtbau reduzieren lassen,
erlauben kostenintensivere Lösungen als die Kostenstrukturen in anderen Branchen.
Die Mehrkosten sind neben dem Leichtbau der entscheidende Faktor für den Einsatz
von FKV-Strukturen außerhalb der Luftfahrtbranche. Während in der Luftfahrtbranche
üblicherweise Niete zur Krafteinleitung eingesetzt werden und diese nur eine
Demontage eines Bauteils durch Aufbohren zulassen, genügen Niete den Ansprüchen
anderer Branchen nicht, da ein hoher Demontageaufwand durch das Aufbohren
hohe Kosten mit sich zieht. Aus diesem Grund erfordert es preisgünstige und qualitative
Lösungen, die eine lösbare Verbindung ermöglichen. In den meisten Branchen
werden daher, im Gegensatz zur Luftfahrt, traditionell reibschlüssige Schraubenverbindungen
für metallische Bauteile verwendet. Für reibschlüssige Schraubenverbindungen,
die zur Krafteinleitung in FKV-Strukturen genutzt werden, sind dem Stand
der Forschung nach kaum Erkenntnisse vorhanden.
Daher ist es Gegenstand dieser Arbeit aufzuzeigen, wie durch eine Erhöhung des
Reibwerts bei reibschlüssigen Krafteinleitungen in FKV-Bauteilen eine Verbesserung
der statischen und zyklischen Verbindungsfestigkeit erreicht werden kann. Um den
zuverlässigen Einsatz von reibschlüssigen Schraubenverbindungen zu ermöglichen,
werden außerdem die maximal zulässige Flächenpressung und der Vorspannkraftverlust
an FKV-Proben ermittelt. Dabei bilden experimentelle Ergebnisse eine Basis,
anhand derer aufgezeigt wird, inwieweit analytische Modelle genutzt werden können,um die reibschlüssige Krafteinleitung in FKV abzubilden.
Zunächst wird der Haftreibwert zwischen Stahl und FKV experimentell untersucht,
um Konzepte zur Steigerung des Reibwerts zu quantifizieren. Durch die experimentelle
Ermittlung einer maximal zulässigen Flächenpressung für die verwendeten FKVMaterialien
werden Schädigungen infolge zu hoher Vorspannkräfte vermieden. Dazu
werden FKV- Proben mit einem Stempel belastet und mit Hilfe der Schallemissionsmethode
Schädigungen detektiert, zu dem Zweck eine Belastungsgrenze zu definieren. Versuche zur Bestimmung des Vorspannkraftverlusts an FKV-Proben zeigen,
dass die Vorspannkraft durch Setzen und Kriechen zwar reduziert wird, dies aber in
vertretbarem Maße. Darüber hinaus lässt sich in den Versuchen beobachten, dass
das Setzen deutlich von der Oberflächenbeschaffenheit bestimmt wird. Um die Einflüsse
des Matrixwerkstoffs, des Reibwerts, der Passung und der Vorspannkraft auf
die Kraftübertragung in der Schraubverbindung zu prüfen, werden außerdem
doppellaschige Zugscherversuche durchgeführt.
An geklemmten FKV-Bauteilen im Fahrradbau lassen sich Defizite bei der Auslegung
dieser Bauteile und ihrer Anbindungstechnologie feststellen. Da der Verbindung zwischen
Vorbau und Gabelschaft besondere sicherheitsrelevante Bedeutung zukommt,
wird eine marktübliche Gabelschaft-Vorbau-Klemmung im Rahmen dieser Arbeit experimentell
und numerisch auf die Belastungen durch die Montage sowie im Betrieb
untersucht. Es kann dargelegt werden, dass ein komplexer Belastungszustand in der
genannten Klemmverbindung vorliegt, der numerisch abgebildet werden kann. Auf
Basis des validierten Finite-Element-Modells kann gezeigt werden, dass die Steigerung
des Reibwerts ein deutliches Potential aufweist um die Werkstoffanstrengung
zu reduzieren. Zur experimentellen Absicherung dieser Beobachtung, werden quasistatische
und zyklische Untersuchungen an Vorbau-Gabelschaft-Baugruppen durchgeführt,
bei denen der Reibwert durch die Applikation von Schmierfett und
Carbonmontagepaste variiert wird. Durch die Verwendung von Carbonmontagepaste
bzw. bei einem höheren Reibwert steigt sowohl die quasi-statische Festigkeit als
auch die Lebensdauer im Vergleich zum Einsatz von Schmierfett deutlich an.
Fiber reinforced plastics (FRP) are well established materials in the aviation industry,
whereas in other industries these materials are not yet this commonly used due to
the comparatively high costs. The high operating costs of aircrafts can be reduced
primarily through lightweight design, which allows the choice of more expensive solutions
than in other industries. The additional costs are beside the weight savings the
deciding factor for the use of FRP structures beyond the aviation sector. Since normally
rivets are used in the aviation industry to join components, the dismantling of
these riveted structures needs drilling. Hence rivets are insufficient for the demands
of other sectors due to the high disassembly costs caused by the high disassembly
effort. For this reason affordable solutions that permit an easy disassembly procedure
are essential for a wider application of FRP structures. Therefore – in most sectors
– preloaded bolted joints are used for the assembly of metallic components, in
contrast to aviation. For preloaded bolted joints in combination with FRP structures
almost no information is available by the current state of scientific knowledge
Therefore in this work it is investigated how an improvement of the static and cyclic
connection strength can be achieved by increasing the coefficient of friction at preloaded
bolted joints on FRP components. To enable a reliable application of preloaded
bolted joints the maximum allowable surface pressure and the loss of the preload
force of FRP specimens are determined. Therefore experimental results provide the
basis to study if analytical computation can be used to describe bolted joints on FRP
structures.
The coefficient of friction between steel and FRP is experimentally investigated in
order to quantify concepts that aim to increase the coefficient of friction. An experimental
determination of the maximum permissible surface pressure of the used FRP
materials avoids damage by excessive bolt preload. Therefore FRP specimens are
tested and a simultaneous detection of damage is performed by using the acoustic
emission method.
An experimentalinvestigation of the loss of bolt preload shows that the preload is
reduced by embedding and material relaxation but in an acceptable manner. In addition it can be observed that the embedding of the contact surfaces is significantly dependent
on the surface condition of the specimens. To analyze the influence of the
matrix material, the coefficient of friction, the clearance and the bolt preload to a bolted
joint, double lap tensile shear tests are performed.
Clamped FRP components used on bicycles show shortcomings in the design of these
components and their connection technology. Since the connection between stem
and steerer has a significant impact on safety, a standard stem/steerer connection is
investigated both experimentally and numerically considering the stresses during the
assembling as well as during operation. It can be demonstrated that this connection
has a complex load condition and a finite element analysis can describe this connection
sufficiently. Based on the validated finite element model it can be shown that an
increasing coefficient of friction has a significant potential for the reduction of the material
effort of the FRP steerer.
To validate these theoretical observations, quasi-static and cyclic tests on
stem/steerer assemblies are carried out. Thereby the coefficient of friction is varied
by the application of grease and carbon assembly paste. By the use of carbon assembly
paste (high coefficient of friction) both the quasi-static strength as well as the
operating life increases in comparison to the use of grease (low coefficient of friction).
This paper briefly discusses a new architecture, Computation-In-Memory (CIM Architecture), which performs “processing-in-memory”. It is based on the integration of storage and computation in the same physical location (crossbar topology) and the use of non-volatile resistive-switching technology (memristive devices or memristors in short) instead of CMOS technology. The architecture has the potential of improving the energy-delay product, computing efficiency and performance area by at least two orders of magnitude.
Während der Maillard-Reaktion entsteht eine Vielzahl an Verbindungen, die neben
antioxidativen oder antikanzerogenen Effekten auch adverse Eigenschaften aufweisen
können. Das Ziel dieser Arbeit war daher zum einen die Charakterisierung der zellulären
Effekte von Lebensmittelextrakten aus den traditionellen chinesischen Lebensmitteln
Peking Ente (PE) und Jinhua Schinken (JS). In den Extrakten JS und PE konnten u. a. die
Lebensmittelkontaminante Acrylamid (AA) identifiziert werden. Das B-Vitamin Niacin führte
in Lebensmittelsystemen bereits zu einer Reduktion des AA-Gehalts unter Entstehung eines
Acrylamid-Niacin-Addukts (ANA). Da die Reaktionspartner AA und Niacin natürlicherweise
während der Kaffeeröstung entstehen, wurde die Hypothese formuliert, dass auch ANA
während der Kaffeeröstung gebildet werden könnte. Dies konnte mittels LC/MS-Analyse
bestätigt werden. Somit liegt eine Aufnahme von ANA über Kaffee im Rahmen des
Möglichen und eine Niacin-Supplementierung könnte sich als effektive Möglichkeit
erweisen, um den AA-Gehalt bei der Zubereitung von Lebensmitteln zu senken. Bevor
jedoch diese Methode in Betracht gezogen werden kann, ist ein Nachweis der
gesundheitlichen Unbedenklichkeit von ANA insbesondere im Vergleich zu AA notwendig.
Aufgrund der strukturellen Ähnlichkeit zu N-Methylpyridinium (NMP), einem möglichen
Nrf2-Aktivator, wurde angenommen, dass ANA ebenfalls den Nrf2/ARE-Signalweg
aktivieren könnte. Der Schwerpunkt der Untersuchungen in HT29 Zellen wurde dabei auf
Zytotoxizität, pro- und antioxidative Eigenschaften, Gentoxizität und Beeinflussung des
Nrf2-Signalwegs gelegt. JS zeigte in den verwendeten Testsystemen kaum zelluläre
Wirkungen, mit Ausnahme der schwachen DNA-schädigenden Wirkung und des stärkeren
Effekts auf die UGT1A1-Transkription, die jedoch keine Schutzwirkung gegenüber eines
Menadion-induzierten oxidativen Stresses gezeigt hatte. PE induzierte (oxidative) DNASchäden
und ROS, in dessen Folge vermutlich die Erhöhung des redoxsensitiven Gens
UGT1A1 sowie die Hemmung der Zellproliferation zu erklären ist. Eine Beeinflussung des
Nrf2-Signalwegs sowie eine antioxidative Wirkung konnte nach Inkubation mit ANA nicht
beobachtet werden. Jedoch führte die Bindung von AA an das B-Vitamin Niacin zu einem
Addukt mit verminderten DNA-schädigenden und zytotoxischen Eigenschaften im Vergleich
zu AA.
In der 2. Hälfte des 20. Jahrhunderts fand in der Bundesrepublik Deutschland ein weiträumiger Suburbanisierungsprozess statt. Junge Familien wanderten u. a. in den 1970er und 1980er Jahren in der Familiengründungsphase in das Umland der Städte und präferierten die Wohnform des Einfamilienhauses in einem familienfreundlichen Wohnumfeld. Infolgedessen entstanden weitgehend altershomogene Siedlungen. Diese Bevölkerungsgruppe erreicht nun das Alter 60plus mit der Folge, dass Umlandgebiete von Städten aufgrund der genannten altersselektiven Stadt-Umland-Wanderungen von der demographischen Alterung in überdurchschnittlichem Maße betroffen sind.
Heute ergibt sich ein Problemkomplex aus einer fehlenden Kongruenz zwischen gealterter Bevölkerung einerseits und räumlicher Umwelt andererseits, der sowohl die Kommunen als Wohnstandort als auch die betroffenen Haushalte vor neuartige Herausforderungen stellt.
Demnach kommt es im Zuge der Erhöhung des Anteils älterer Menschen in der Bevölkerung in suburbanen Räumen zu einer Verstärkung und Modifikation der Nachfrage nach altenspezifischen, dezentralen Versorgungsstrukturen in bestimmten Bereichen der Daseinsvorsorge (wie der medizinischen Versorgung, der Versorgung mit Gütern des täglichen Bedarfs und des öffentlichen Personennahverkehrs (öPNV)) sowie im Bereich altengerechter Wohnraumangebote. Neben diesen quantitativen Aspekten weist die Bevölkerungsgruppe 60plus aufgrund von gesellschaftlichen Veränderungsprozessen, wie dem Wertewandel, im Vergleich zur Vorkriegsgeneration neuartige Bedürfnisse und Anforderungen an ihren Wohnstandort auf.
Gleichzeitig sind sowohl altenspezifische Versorgungsstrukturnetze in suburbanen Räumen aufgrund einer flächenintensiven und monofunktionalen Siedlungsentwicklung mit räumlich konzentrierten Einrichtungen der Daseinsvorsorge, einer starken Abhängigkeit vom motorisierten Individualverkehr (MIV) bei abnehmender altersbedingter individueller Mobilität und damit einhergehenden ungünstigen Erreichbarkeiten als auch altengerechte Wohnraumangebote oftmals nur eingeschränkt vorhanden.
Die geschilderten raumbezogenen Divergenzen zwischen sich wandelnden quantitativen und qualitativen Nutzungsmustern hinsichtlich Versorgungsstrukturen, Mobilität und Wohnraum einerseits und siedlungsstrukturellen Rahmenbedingungen andererseits führen dazu, dass Wohnstandortentscheidungen früherer Lebensphasen dahingehend überprüft werden, ob eine altersgerechte Lebensführung in den suburbanen Siedlungsgebieten möglich ist.
Vor dem Hintergrund der dargelegten raumstrukturellen Problemlagen in suburbanen Kommunen im Zuge des Prozesses der demographischen Alterung liegt das zentrale Anliegen der vorliegenden Arbeit darin, Wohnstandortentscheidungen suburbaner Haushalte der Bevölkerungsgruppe 60plus anhand einer beispielhaften Betrachtung in ausgewählten suburbanen Kommunen im Landkreis Mainz-Bingen zu untersuchen.
Folgende Forschungsziele werden im Rahmen der Arbeit verfolgt:
In einem ersten Schritt sollen die Standortgegebenheiten in Bezug auf die Ausstattung mit Versorgungsstrukturen, die die Untersuchungskommunen älteren Menschen der Generation 60plus bieten, zukünftig im höheren Alter ein selbstständiges Leben führen zu können, analysiert werden.
Des Weiteren werden das derzeitige aktionsräumliche Versorgungsverhalten der Untersuchungsgruppe sowie daraus entstehende potentielle Versorgungsdefizite im höheren Alter untersucht.
In einem weiteren Analyseschritt liegt der Fokus auf der subjektiven Wohnstandortbewertung aus Bürgerperspektive. Im Speziellen wird dargestellt, inwiefern die Bevölkerungsgruppe 60plus ihren Wohnstandort in einzelnen Bereichen der Versorgungsstrukturen beurteilt und klassifiziert.
Darüber hinaus ist die prospektive Wohnmobilität (Umzugsbereitschaft) der Generation 60plus, insbesondere in Abhängigkeit von den gegebenen Versorgungsstrukturen, Gegenstand der Untersuchung. Es wird erforscht, ob eine erhöhte Wohnmobilität innerhalb dieser Altengeneration, beispielweise mit Wanderungen in innerstädtische Quartiere mit seniorengerechten Versorgungsstrukturen und Wohnungsangeboten, nachzuweisen ist.
Für von dem demographischen Alterungsprozess betroffene suburbane Siedlungsräume sind zumeist noch keine, auf eine ganzheitliche Strategie ausgerichtete kommunale Entwicklungskonzepte entworfen worden, welche öffentlichen und privatwirtschaftlichen Akteuren Optionen aufzeigen, wie eine bedarfs- und seniorengerechte Planung in den Bereichen Nahversorgung, medizinische Versorgung, Mobilität und Wohnen in Zukunft gestaltet werden kann. Die Konzeption geeigneter Entwicklungsstrategien soll die Qualität suburbaner Wohnstandorte für ältere Menschen erhöhen, eine selbstständige und selbstbestimmte Lebensführung im Alter und einem möglichst langen Verbleib im angestammten Wohnquartier und der Kommune ermöglichen und potentiell auftretende Abwanderungstendenzen der Bevölkerungsgruppe 60plus entgegenwirken.
Die aus den Zielsetzungen abgeleiteten Forschungsfragen werden einerseits mittels einer sekundärstatistischen und andererseits durch eine empirische Untersuchung in 16 Kommunen im Landkreis Mainz-Bingen im Umland der rheinland-pfälzischen Landeshauptstadt Mainz beant-wortet. Die Untersuchungseinheit im Rahmen der empirischen Arbeiten bilden Haushalte der Jahrgänge 1945-1953, so dass im Erhebungsjahr 2014 dies die Gruppe der 60- bis 69-Jährigen einschließt. Die empirische Untersuchung in den 16 Kommunen wurde anhand einer teilstandardisierten postalischen Befragung vorgenommen. Insgesamt sind im Rahmen der Erhebung 3.942 Fragebögen an Haushalte versendet worden (Vollerhebung). Die Rücklaufquote beträgt mit insgesamt 2.002 ausgefüllten Fragebögen 51 %.
Aufbauend auf den empirischen Ergebnissen der sekundärstatistischen und empirischen Untersuchung der Auswirkungen von suburbanen Raumstrukturen auf Wohnstandortentscheidungen der Bevölkerungsgruppe 60plus und der Beantwortung der Forschungsfragen werden zunächst zentrale Forschungserkenntnisse zusammengefasst und Schlussfolgerungen für den ausgewählten Untersuchungsraum gezogen. Das Ziel liegt in einer induktiven Herausarbeitung von allgemeinen Handlungsbedarfen für die Planungspraxis, die generell in suburbanen Siedlungs-gebieten vor dem Hintergrund der Auswirkungen der demographischen Alterung virulent sind und in der Konsequenz zu einer Erhöhung der Wohnmobilität älterer Bevölkerungsgruppen führen können.
Anschließend werden, auf der Ableitung von allgemeinen Handlungsbedarfen für die Raumplanung aufbauend, übergeordnete Strategien zur Gestaltung und Anpassung eines seniorengerechten Versorgungs- und Wohnraumangebotes in suburbanen Siedlungsgebieten in Deutschland aufgezeigt. Das Ziel liegt in der Ermöglichung einer selbstständigen und selbstbestimmten Lebensführung im Alter und einem möglichst langen Verbleib im angestammten Wohnquartier und der Kommune, in der Erhöhung der Qualität suburbaner Wohnstandorte für ältere Menschen und in dem Entgegenwirken potentiell auftretenden Abwanderungstendenzen der Bevölkerungsgruppe 60plus.
The main theme of this thesis is the interplay between algebraic and tropical intersection
theory, especially in the context of enumerative geometry. We begin by exploiting
well-known results about tropicalizations of subvarieties of algebraic tori to give a
simple proof of Nishinou and Siebert’s correspondence theorem for rational curves
through given points in toric varieties. Afterwards, we extend this correspondence
by additionally allowing intersections with psi-classes. We do this by constructing
a tropicalization map for cycle classes on toroidal embeddings. It maps algebraic
cycle classes to elements of the Chow group of the cone complex of the toroidal
embedding, that is to weighted polyhedral complexes, which are balanced with respect
to an appropriate map to a vector space, modulo a naturally defined equivalence relation.
We then show that tropicalization respects basic intersection-theoretic operations like
intersections with boundary divisors and apply this to the appropriate moduli spaces
to obtain our correspondence theorem.
Trying to apply similar methods in higher genera inevitably confronts us with moduli
spaces which are not toroidal. This motivates the last part of this thesis, where we
construct tropicalizations of cycles on fine logarithmic schemes. The logarithmic point of
view also motivates our interpretation of tropical intersection theory as the dualization
of the intersection theory of Kato fans. This duality gives a new perspective on the
tropicalization map; namely, as the dualization of a pull-back via the characteristic
morphism of a logarithmic scheme.
Bei der Herstellung von Faser-Kunststoff-Verbunden durch Harzinjektionsverfahren
wird ein textiler Vorformling, die Preform, mit einem Harzsystem imprägniert und
anschließend ausgehärtet. Die Erzeugung der Preform, auch Preforming genannt,
beinhaltet dabei eine Vielzahl an Arbeitsschritten, welche maßgeblich die Kosten des
herzustellenden Bauteils bestimmen. Die Automatisierung des Preformings birgt
daher ein enorm hohes Potential zur Kostenreduzierung. Im Rahmen dieser Arbeit
wurde deshalb ein neues Preforming System entwickelt, welches die kontinuierliche
Herstellung von Profil-Preforms aus textilen Halbzeugen ermöglicht. Erstmalig wurde
dabei zur kontinuierlichen Fixierung die Nähtechnik verwendet, welche ein energieund
zeiteffizientes Preforming zulässt. Allerdings hat sich bei der Herstellung von
Profil-Preforms mit unterschiedlichen textilen Halbzeugen gezeigt, dass die maximal
erreichbare Prozessgeschwindigkeit ohne relative Textilschädigung variiert. Ursache
hierfür ist das Textilverhalten während der Formgebung. Durch die Wahl geeigneter
Material- und Prozessparameter besteht allerdings ein hohes Potential, einen
Preforming Prozess zu optimieren. Daher war es das Ziel dieser Arbeit, Richtlinien
für Material- und Prozessparameter zu entwickeln, die sowohl eine robuste als auch
effiziente Preformherstellung ermöglichen.
Als kritische Textileigenschaften wurden das Kompaktierungs-, das Reibungs- und
das Biegeverhalten identifiziert. Diese wurden in separaten Parameterstudien
hinsichtlich der Auswirkungen von Materialparametern (z. B. Bindungsart) und
Prozessparametern (z. B. Prozessgeschwindigkeit) untersucht. Die Ergebnisse
konnten anschließend in Richtlinien zusammengefasst werden, welche für eine
prozessorientierte Materialauswahl oder für Prozessmodifikationen beim Preforming
genutzt werden können. Bei der Übertragung auf einen Preforming Prozess muss
jedoch berücksichtigt werden, dass sich Effekte verursacht durch Kompaktierung,
Reibung und Biegung in Abhängigkeit des Faservolumengehaltes der Preforms
überlagern können. Daher wurden anhand einer weiteren Studie dominierende
Textileigenschaften in Abhängigkeit des Ziel-FVG der Profil-Preforms beim
entwickelten Preforming Prozess identifiziert. Abschließend wurden die entwickelten
Richtlinien verifiziert, indem sowohl eine prozessorientierte Materialauswahl als auch
prozessseitig eine Vorkompaktierungseinheit validiert wurden.
We present a new approach to handle uncertain combinatorial optimization problems that uses solution ranking procedures to determine the degree of robustness of a solution. Unlike classic concepts for robust optimization, our approach is not purely based on absolute quantitative performance, but also includes qualitative aspects that are of major importance for the decision maker.
We discuss the two variants, solution ranking and objective ranking robustness, in more detail, presenting problem complexities and solution approaches. Using an uncertain shortest path problem as a computational example, the potential of our approach is demonstrated in the context of evacuation planning due to river flooding.
Membrane proteins are generally soluble only in the presence of detergent micelles or other membrane-mimetic systems, which renders the determination of the protein’s molar mass or oligomeric state difficult. Moreover, the amount of bound detergent varies drastically among different proteins and detergents. However, the type of detergent and its concentration have a great influence on the protein’s structure, stability, and functionality and the success of structural and functional investigations and crystallographic trials. Size-exclusion chromatography, which is commonly used to determine the molar mass of water-soluble proteins, is not suitable for detergent-solubilised proteins because
the protein–detergent complex has a different conformation and, thus, commonly exhibits
a different migration behaviour than globular standard proteins. Thus, calibration curves obtained with standard proteins are not useful for membrane-protein analysis. However,
the combination of size-exclusion chromatography with ultraviolet absorbance, static light scattering, and refractive index detection provides a tool to determine the molar mass of protein–detergent complexes in an absolute manner and allows for distinguishing the contributions of detergent and protein to the complex.
The goal of this thesis was to refine the standard triple-detection size-exclusion chromatography measurement and data analysis procedure for challenging membrane-protein samples, non-standard detergents, and difficult solvents such as concentrated denaturant solutions that were thought to elude routine approaches. To this end, the influence of urea on the performance of the method beyond direct influences on detergents and proteins was investigated with the help of the water-soluble bovine serum albumin. On the basis of
the obtained results, measurement and data analysis procedures were refined for different detergents and protein–detergent complexes comprising the membrane proteins OmpLA and Mistic from Escherichia coli and Bacillus subtilis, respectively.
The investigations on mass and shape of different detergent micelles and the compositions of protein–detergent complexes in aqueous buffer and concentrated urea solutions
showed that triple-detection size-exclusion chromatography provides valuable information
about micelle masses and shapes under various conditions. Moreover, it is perfectly suited for the straightforward analysis of detergent-suspended proteins in terms of composition and oligomeric state not only under native but, more importantly, also under denaturing conditions.
Es ist eine Alltagsbeobachtung für welche sich zahlreiche empirische Belege finden, dass ge-sundheitsbewusste Verhaltensweisen wie etwa das regelmäßige Betreiben von Sport oder der Konsum von als gesund geltenden Lebensmitteln in bestimmten Kreisen der Bevölkerung zu-nehmen. Parallel ist ein weiterer Trend zu beobachten: die Zunahme umweltbewusster Verhal-tensweisen. Gerade im Bereich des Konsums gehen solche gesundheits- und umweltbewusste Verhaltensweisen häufig miteinander einher. Wer sich gesundheitsbewusst ernähren möchte, greift in aller Regel auf umweltbewusste Produkte zurück. Die Vermutung liegt nahe, dass ge-sundheits- und umweltbewussten Verhaltensweisen bestimmten gemeinsamen Einstellungen, Überzeugungen und Werten zugrunde liegen. Als ein solches Wertecluster kann auf theoreti-scher Ebene eine postmaterialistische Werteorientierung identifiziert werden. Gesundheits- und Umweltbewusstsein würden demnach in wechselseitiger Beziehung zueinander stehen und durch eine postmaterialistische Werteorientierung determiniert werden. Ziel der vorliegenden Arbeit ist es, eben diesen Zusammenhang mittels Strukturgleichungsmodellierung empirisch zu überprüfen. Dies geschieht anhand von Daten des Sozio-Ökonomischen Panels aus dem Jahr 2006 (n=661). Während sich ein positiver und durchaus starker Zusammenhang zwischen Ge-sundheits- und Umweltbewusstsein findet und auch das Umweltbewusstsein positiv von einer postmaterialistischen Werteorientierung abhängig ist, zeigt sich für das Gesundheitsbewusst-sein kein signifikanter, bzw. in verschiedenen Modellvariationen sogar eine negative Abhän-gigkeit von einer postmaterialistischen Werteorientierung. Aufgrund dieser Ergebnisse wird vorgeschlagen, das Gesundheitsbewusstsein als mehrdimensionales Konstrukt zu betrachten. Differenziert wird in ein lebensstilbedingtes Gesundheitsbewusstsein, über welches z.B. Hobby- und Leistungssportler verfügen, und ein defensives Gesundheitsbewusstsein, wie es z.B. bei chronisch Kranken Personen wie Diabetikern zu finden ist. Jedoch sind weitere Ana-lysen nötig, um diese Theorie zu testen.
Alkylcyclopentadienylchrom(II)-Verbindungen und Stickstoffkomplexe des Molybdäns und Wolframs
(2016)
Der Einsatz von Chrom(II)acetat als Ausgangsverbindung führte in einer Reaktion mit Na\( ^4 \)Cp zum dimeren, Acetato-verbrückten Tetraisopropylcyclopentadienylchrom(II)-Halbsandwich-komplex [\( ^4Cp \)Cr(OAc)]\( _2 \) 13.
Die sehr gut zugängliche Verbindung 13 wurde auf ihre Reaktivität untersucht und als Startmaterial für die Herstellung weiterer Chromverbindungen eingesetzt. Der Tetraisopropylcyclopentadienylchrom(II)-Halbsandwichkomplex 13 ergab bei der Reduktion mit Kalium in einer Stickstoffatmosphäre den zweikernigen Nitrido-Komplex [\( ^4Cp \)Cr(N)]\( _2 \) und bei der Substitution mit Cyanid das quadratische Tetramer [\( ^4Cp \)Cr(CN)]\( _4 \).
Mit anderen Reaktionspartnern wie z. B. den Pseudohalogeniden Azid und Cyanid wurden dagegen unvollständige Umsetzungen beobachtet, die den Wunsch nach einer besser geeigneten Ausgangsverbindung weckten. Dies gelang durch den Einsatz von Trimethylhalogensilanen, welche die Acetato-Liganden von 13 gegen Chlorid, Bromid, Iodid und im Falle des Trimethylsilylesters der Trifluormethansulfonsäure auch gegen Trifluormethansulfonat austauschen.
Die Reduktion der Halbsandwichkomplexe des Typs [\( ^RCp \)MoCl\( _4 \)] mit Kalium in Gegenwart ungesättigter Ringsysteme (Toluol, Cycloheptatrien oder Cyclooctatetraen) knüpfte an die noch unveröffentlichten Ergebnisse mit Cyclopentadienylnickel- und eisenverbindungen an und erbrachte folgendes Resultat: Während die Formeln der Reaktionsprodukte [\( ^RCp \)Mo\( _2 \)(Ring)] zur Interpretation als Tripeldecker-Sandwichkomplexe mit einem Ringsystem als Mitteldeck zwischen den beiden Metallatomen einluden, gaben die Massenspektren Hinweise auf eine Reaktivität, die dazu nicht passt.
Die unter Argon hergestellte Verbindung musste am Spektrometer aus messtechnischen Gründen unter Stickstoff gehandhabt werden und die Spektren gaben Hinweise auf den Einbau von Stickstoff.
Advanced Nursing Practice
(2016)
Der demografische Wandel stellt insbesondere die Gesundheitsversorgung vor große Her-
ausforderungen. Immer mehr ältere, chronisch erkrankte und häufig multimorbide Menschen
stehen immer weniger jüngeren Menschen gegenüber, die sowohl als pflegende Angehörige
als auch als Pflegefachpersonen, Ärzt_innen oder Angehörige anderer Gesundheitsberufe
für die Sicherstellung der pflegerisch-medizinischen Versorgung zur Verfügung stehen. Das an der Hochschule Ludwigshafen am Rhein angesiedelte Teilprojekt „EB – Entwicklung
durch Bildung – Pflege und Gesundheit“ fokussiert sowohl auf die Entwicklung eines hoch-
schulischen Bildungsangebots für Pflegefachpersonen, als auch auf die Konzeption eines
Modells erweiterter gemeindenaher Pflegepraxis für die Region Westpfalz.
This thesis deals with risk measures based on utility functions and time consistency of dynamic risk measures. It is therefore aimed at readers interested in both, the theory of static and dynamic financial risk measures in the sense of Artzner, Delbaen, Eber and Heath [7], [8] and the theory of preferences in the tradition of von Neumann and Morgenstern [134].
A main contribution of this thesis is the introduction of optimal expected utility (OEU) risk measures as a new class of utility-based risk measures. We introduce OEU, investigate its main properties, and its applicability to risk measurement and put it in perspective to alternative risk measures and notions of certainty equivalents. To the best of our knowledge, OEU is the only existing utility-based risk measure that is (non-trivial and) coherent if the utility function u has constant relative risk aversion. We present several different risk measures that can be derived with special choices of u and illustrate that OEU reacts in a more sensitive way to slight changes of the probability of a financial loss than value at risk (V@R) and average value at risk.
Further, we propose implied risk aversion as a coherent rating methodology for retail structured products (RSPs). Implied risk aversion is based on optimal expected utility risk measures and, in contrast to standard V@R-based ratings, takes into account both the upside potential and the downside risks of such products. In addition, implied risk aversion is easily interpreted in terms of an individual investor's risk aversion: A product is attractive (unattractive) for an investor if its implied risk aversion is higher (lower) than his individual risk aversion. We illustrate this approach in a case study with more than 15,000 warrants on DAX ® and find that implied risk aversion is able to identify favorable products; in particular, implied risk aversion is not necessarily increasing with respect to the strikes of call warrants.
Another main focus of this thesis is on consistency of dynamic risk measures. To this end, we study risk measures on the space of distributions, discuss concavity on the level of distributions and slightly generalize Weber's [137] findings on the relation of time consistent dynamic risk measures to static risk measures to the case of dynamic risk measures with time-dependent parameters. Finally, this thesis investigates how recursively composed dynamic risk measures in discrete time, which are time consistent by construction, can be related to corresponding dynamic risk measures in continuous time. We present different approaches to establish this link and outline the theoretical basis and the practical benefits of this relation. The thesis concludes with a numerical implementation of this theory.
Die heutige Epigenetik erfordert eine evolutionstheoretische Neubewertung zum Verhältnis von Entwicklung, Vererbung und Anpassungsfähigkeit der Lebewesen. Heutige Fragen zur Entstehung und Weitergabe epigenetischer Veränderungen reichen zurück bis in die Anfänge mytho-, theo- und kosmologischer Betrachtungen. Platon, Augustinus und Cusanus lösen metaphysische Probleme des Anfangs durch einen Übergang vom Sein zum Werden. Eine Übertragung kosmologischer Konzepte in die Embryologie findet sowohl bei Aristoteles als auch in der Renaissance statt. Harvey und Wolff beschreiben die Epigenese in Anlehnung an die kosmologische Revolution von Planeten und Gestirnen als epigenetische Revolution von Henne und Ei. Die Transformation von der zeitlosen, natürlichen Ordnung zu einer Genealogie der Natur und der Triumph der Epigenesis-Theorie über die Präformationslehre ermöglichen zu Beginn des 19. Jahrhundert eine Biologie, die in ihren epigenetischen Grundannahmen unterschiedliche Autoren wie Goethe, Schelling, Lamarck, Mendel und Darwin verbindet. Mit der Umdeutung der revolutionären Epigenese bei Lamarck werden onto- und phylogenetische Prozesse unterscheidbar, deren Verhältnis bei Darwin und in den postdarwinschen Debatten durch verschiedene Theorien der Entwicklung, Vererbung und Anpassung bestimmt wird. Schon bei Darwin kommt es zu einer pangenetischen Synthese von neolamarckistischen, selektions- und organisationstheoretischen Mechanismen der Anpassung. In der ersten Hälfte des 20. Jahrhunderts entsteht die heute noch prägende genetische Evolutionstheorie, bei der Entwicklung und Anpassung vererbungs- und selektionstheoretisch verengt werden. Mit Waddingtons Epigenetik wird das Verhältnis von Onto- und Phylogenese durch die epigenetische Landschaft verräumlicht und das Konzept der Anpassungsfähigkeit konkretisiert. Die Molekularisierung von genetischer und epigenetischer Evolution lässt epigenetische Fragen der Biologie des 19. Jahrhunderts und das protobiologische Erbe wieder aktuell werden. Epigenetische Evolution beruht auf einer Synergie von natürlicher Selektion und epigenetischer Systemdynamik. Diese Synergie erzeugt anpassungs- und lernfähige Organismen, die auf ihre eigene Entwicklung, Vererbung und Anpassungsfähigkeit Einfluss nehmen können. Mit den jüngsten theoretischen Entwicklungen der Epigenetik hat eine Temporalisierung des biologischen Informationsverständnisses begonnen. Aufgabe der genealogischen Annäherung ist die Erhellung dieser historischen Entwicklung und ihrer Relevanz für die heutige Theoriebildung.
Neuartige supramolekulare Koordinationsverbindungen mit Cyclen- oder Cyclopeptiduntereinheiten
(2016)
Die vorliegende Arbeit greift in den beiden Hauptkapiteln die Rolle von Übergangsmetallionen bei der Entwicklung eines neuartigen Rezeptors, der Anionen unter Bildung von Kaskadenkomplexen binden soll und bei der Synthese von chiralen Koordinationspolymeren, die Cyclopeptidliganden enthalten, auf. In einem Nebenkapitel wird die Synthese und Struktur eines cyclischen Hexapeptids beschrieben, das dazu dient, Informationen über den Einfluss hydrophober Wechselwirkungen auf die Bindung von Sulfat- und Halogenidionen in wässriger Lösung zu erhalten. Ein molekularer Käfig aus zwei über vier Linker verknüpften, zink(II)haltigen Cyclenkomplexen wurde synthetisiert. Nach der Charakterisierung dieser Verbindung mit potentiometrischen und kristallographischen Methoden wurden Untersuchungen zur Evaluierung der Bindung dieses neuartigen Rezeptors an Anionen durchgeführt. Für den Aufbau von chiralen porösen Koordinationsnetzwerken wurde eine Reihe von cyclischen Tetrapeptiden als Liganden dargestellt. Diese Verbindungen wurden anschließend in Kristallisationsversuchen mit unterschiedlichen Übergangsmetallionen umgesetzt und die Struktur der drei erhaltenen cyclopeptidhaltigen Koordinationspolymere mit literaturbekannten Koordinationsverbindungen, welche die gleichen Metallionen enthalten, aber ohne Cyclopeptidliganden aufgebaut sind hinsichtlich ihrer Struktur verglichen. Um den Einfluss hydrophober Wechselwirkungen auf die Anionenbindung in wässriger Lösung zu untersuchen, wurde ein cyclisches Hexapeptid dargestellt, das im Vergleich zu einer bereits bekannten Cyclopeptidstruktur zusätzliche Cyclopropansubstituenten trägt, welche die hydrophoben Flächen im Molekül vergrößern. Rückschlüsse auf den Bindungsmechanismus an Halogenidionen und die Stöchiometrie der entstandenen Wirt-Gast Komplexe lieferten NMR- und ESI-Spektren.