Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Has Fulltext
- yes (65)
Keywords
- CAFM (2)
- Cobalt (2)
- Eisen (2)
- Facility Management (2)
- Gebäudeautomation (2)
- IR-MPD (2)
- Integration (2)
- Katalyse (2)
- Kopplung (2)
- Schnittstelle (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Mathematik (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (11)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (1)
The main purpose of the study was to improve the physical properties of the modelling of compressed materials, especially fibrous materials. Fibrous materials are finding increasing application in the industries. And most of the materials are compressed for different applications. For such situation, we are interested in how the fibre arranged, e.g. with which distribution. For given materials it is possible to obtain a three-dimensional image via micro computed tomography. Since some physical parameters, e.g. the fibre lengths or the directions for points in the fibre, can be checked under some other methods from image, it is beneficial to improve the physical properties by changing the parameters in the image.
In this thesis, we present a new maximum-likelihood approach for the estimation of parameters of a parametric distribution on the unit sphere, which is various as some well known distributions, e.g. the von-Mises Fisher distribution or the Watson distribution, and for some models better fit. The consistency and asymptotic normality of the maximum-likelihood estimator are proven. As the second main part of this thesis, a general model of mixtures of these distributions on a hypersphere is discussed. We derive numerical approximations of the parameters in an Expectation Maximization setting. Furthermore we introduce a non-parametric estimation of the EM algorithm for the mixture model. Finally, we present some applications to the statistical analysis of fibre composites.
Organophosph(on)ate sind die Ester der Phosphor- und Phosphonsäure und sind z.B. als Bausteine der DNA und Zellmembranen aufzufinden. Für einige künstlich hergestellte Organophosph(on)ate sind jedoch sehr hohe Toxizitäten beschrieben. Diese in der Klasse der neurotoxischen Organophosph(on)ate (NOP) zusammengefassten Verbindungen beinhalten Insektizide und chemische Kampfstoffe. Obwohl NOPs inzwischen in den meisten Ländern verboten sind, kommt es jedes Jahr zu zahlreichen Todesfällen. Die Toxizität, die auf die irreversible Inhibierung der Acetylcholinesterase (AChE) zurückzuführen ist, wird in der aktuellen Therapie durch die Gabe von Reaktivatoren aufgehoben. Mit dieser Therapie sind jedoch einige Nachteile verbunden.
Meine Dissertation hatte das Ziel, neue, auf Cyclodextrinen basierte Scavenger zu entwickeln, die in der Lage sind, ein NOP zu entgiften, bevor es mit der AChE reagieren kann. In diesem Rahmen wurde ein breit angelegtes Screening durchgeführt und 69 potentielle Scavenger synthetisiert und bezüglich ihrer Wirkung auf den NOP-Abbau untersucht. Während die untersuchten N- und O-Nucleophile keine Aktivität auf den Abbau von drei repräsentativen NOPs, Cyclosarin (GF), Tabun (GA) und VX, zeigten, wurden für α-Effekt-Nucleophile z.T. hohe Aktivitäten beobachtet.
β-Cyclodextrin, das mit Pyridiniumoximatgruppen modifiziert ist, war besonders effizient gegenüber GF. In weitergehenden quantitativen Untersuchungen konnte zudem festgestellt werden, dass der Abbau von GF in Gegenwart dieser Verbindung enantioselektiv verläuft. Dies ist ein klarer Hinweis darauf, dass das Cyclodextrin, vermutlich durch Einlagerung des Cyclohexylrests von GF für die Wirkungsweise des Scavengers von Bedeutung ist. Solche Pyridiniumoximate beschleunigten auch den Abbau von GA. Eine chirale Induktion des Cyclodextrinrings konnte in diesem Fall aber nicht festgestellt werden, was sehr wahrscheinlich auf die fehlende Wechselwirkung des GA mit dem Cyclodextrinring zurückzuführen ist.
Cyclodextrine, die Hydroxamsäuregruppen entlang der Kavität enthalten, sind ebenfalls in der Lage, GA abzubauen. Bei diesen Untersuchungen zeigte sich, dass die Aktivität des Scavengers mit der Anzahl an reaktiven Einheiten entlang der Cyclodextrinkavität steigt. Mit Hydroxamsäure modifizierte Cyclodextrine zeigten erstmals auch Aktivität im Abbau von VX. Mit Halbwertszeiten von fast drei Stunden ist der Abbau noch zu langsam für einen in vivo Einsatz, jedoch stellen diese Verbindungen sehr vielversprechende Leitstrukturen für weitere Arbeiten in diesem Gebiet dar.
The noise issue in manufacturing system is widely discussed from legal and health aspects. Regarding the existing laws and guidelines, various investigation methods are implemented in industry. The sound pressure level can be measured and reduced by using established approaches in reality. However, a straightforward and low cost approach to study noise issue using existing digital factory models is not found.
This thesis attempts to develop a novel concept for sound pressure level investigation in a virtual environment. With this, the factory planners are able to investigate the noise issue during factory design and layout planning phase.
Two computer aided tools are used in this approach: acoustic simulation and virtual reality (VR). The former enables the planner to simulate the sound pressure level by given factory layout and facility sound features. And the latter provides a visualization environment to view and explore the simulation results. The combination of these two powerful tools provides the planners a new possibility to analyze the noise in a factory.
To validate the simulations, the acoustic measurements are implemented in a real factory. Sound pressure level and sound intensity are determined respectively. Furthermore, a software tool is implemented using the introduced concept and approach. With this software, the simulation results are represented in a Cave Automatic Virtual Environment (CAVE).
This thesis describes the development of the approach, the measurement of sound features, the design of visualization framework, and the implementation of VR software. Based on this know-how, the industry users are able to design their own method and software for noise investigation and analysis.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Backward compatibility of class libraries ensures that an old implementation of a library can safely be replaced by a new implementation without breaking existing clients.
Formal reasoning about backward compatibility requires an adequate semantic model to compare the behavior of two library implementations.
In the object-oriented setting with inheritance and callbacks, finding such models is difficult as the interface between library implementations and clients are complex.
Furthermore, handling these models in a way to support practical reasoning requires appropriate verification tools.
This thesis proposes a formal model for library implementations and a reasoning approach for backward compatibility that is implemented using an automatic verifier. The first part of the thesis develops a fully abstract trace-based semantics for class libraries of a core sequential object-oriented language. Traces abstract from the control flow (stack) and data representation (heap) of the library implementations. The construction of a most general context is given that abstracts exactly from all possible clients of the library implementation.
Soundness and completeness of the trace semantics as well as the most general context are proven using specialized simulation relations on the operational semantics. The simulation relations also provide a proof method for reasoning about backward compatibility.
The second part of the thesis presents the implementation of the simulation-based proof method for an automatic verifier to check backward compatibility of class libraries written in Java. The approach works for complex library implementations, with recursion and loops, in the setting of unknown program contexts. The verification process relies on a coupling invariant that describes a relation between programs that use the old library implementation and programs that use the new library implementation. The thesis presents a specification language to formulate such coupling invariants. Finally, an application of the developed theory and tool to typical examples from the literature validates the reasoning and verification approach.
Due to tremendous improvements of high-performance computing resources as well
as numerical advances computational simulations became a common tool for modern
engineers. Nowadays, simulation of complex physics is more and more substituting a
large amount of physical experiments. While the vast compute power of large-scale
high-performance systems enabled for simulating more complex numerical equations,
handling the ever increasing amount of data with spatial and temporal resolution
burdens new challenges to scientists. Huge hardware and energy costs desire for
ecient utilization of high-performance systems. However, increasing complexity of
simulations raises the risk of failing simulations resulting in a single simulation to be
restarted multiple times. Computational Steering is a promising approach to interact
with running simulations which could prevent simulation crashes. The large amount
of data expands gaps in the amount of data that can be calculated and the amount of
data that can be processed. Extreme-scale simulations produce more data that can
even be stored. In this thesis, I propose several methods that enhance the process
of steering, exploring, visualizing, and analyzing ongoing numerical simulations.
Seit dem Beginn der Produktion und Veredelung von Nahrungsmitteln im großtechnischen
Maßstab steigen nicht nur die Mengen an den Hauptprodukten dieser Prozesse, sondern
auch die Mengen der dabei anfallenden Nebenprodukte. Die Entsorgung dieser Nebenprodukte
über Flüsse oder Kläranlagen stellte auf Grund deren BOD (biochemical oxygen
demand) zunehmend ein Problem dar, dessen Lösung unabdingbar wurde. Eines dieser
Nebenprodukte, welches in stets zunehmender Menge anfällt ist Molke, das Hauptnebenprodukt
der Käseherstellung. Die produzierte Jahresmenge betrug für das Jahr 2011 alleine in Deutschland geschätzte 11,80 Mio. Tonnen. Das einstige Abfallprodukt Molke wird seit den 1950er Jahren in zunehmendem Maß vorwiegend zu Molkekonzentrat, einer 5 bis
6-fach aufkonzentrierten Molkelösung, und Molkeproteinpulvern mit steigendem Proteinanteil
aufgearbeitet. In den 2000er Jahren kamen verstärkt Isolate einzelner Molkeproteine dieser Produktpalette hinzu. Bereits vor 15 Jahren wurde die weltweit produzierte Menge
an Molkeproteinkonzentrat auf über 140.000 Tonnen geschätzt. Molkeproteinpulver und alpha-Lactalbumin (ALA) wurden zu dieser Zeit in einer geschätzten Menge von 2.300 Tonnen bzw. 230 Tonnen jährlich hergestellt. Mit der zunehmenden Reinheit der Proteinfraktionen stieg auch deren Marktwert von etwa 1 $/kg für die ersten Molkeproteinpulver in den
1960er Jahren bis auf 600 $/kg für Fraktionen einzelner Proteine mit hoher Reinheit.
Die überwiegende Mehrheit dieser Produkte findet seinen Einsatz in der Nahrungsmittelindustrie,
wie beispielsweise bei der Produktion von Säuglingsnahrung, Sportlerernährung
oder als Texturbildner in verschiedensten Nahrungsmitteln des täglichen Konsums. Die am weitesten verbreiteten Prozesse zur großindustriellen Aufarbeitung von Molke sind
die Ultrafiltration und die Chromatographie. Andere Verfahren wie Fällungsprozesse oder
peptische Hydrolysen kommen mit steigender Prozessgröße immer seltener als alleiniges
Aufarbeitungsverfahren von Molke zum Einsatz. Viele der beschriebenen und angewendeten
Verfahren arbeiten in einem der ersten Schritte mit einer Modifikation des pH-Wertes
des Eduktes Molke. Dies ist in dem hier vorgestellten Verfahren nicht der Fall, das Edukt wird ohne Veränderungen oder Modifikationen eingesetzt. Es werden keine einzelnen Komponenten der Molke im Voraus entfernt oder durch z. B. peptische Hydrolyse zerstört. Die
eingesetzten Chemikalien sind ungiftig und müssen keinen kostenintensiven Entsorgungsverfahren
zugeführt werden. Im Gegensatz zu Verfahren mit Fällungssalzen können die
eingesetzten Chemikalien im Produkt durch Neutralisation einfach wieder entfernt werden
oder kommen in nur geringen Konzentrationen vor. Es treten im Gegensatz zu chromatographischen
Methoden nur geringe Fluidströme, z. B. Waschwasser, auf und der Prozess bedarf keiner massiven Temperaturerhöhung des Eduktes, um beispielsweise die Viskosität
zu erhöhen. Die eingesetzten Adsorbentien sind kostengünstig (unter 10 €/kg) und können im Fall von Siliziumdioxid als restproteinbeladener Tierfutterzusatz entsorgt werden. In dem vorgestellten Prozess können die Hauptkomponenten der Molke alpha-Lactalbumin
(ALA), beta-Lactoglobulin (BLG) und Lactose voneinander getrennt werden, was mit den
meisten Membranverfahren im industriellen Maßstab nicht oder nur ungenügend möglich
ist. Im Prozess werden lediglich einfache Rührkessel und Filtrationseinheiten eingesetzt. Des Weiteren ist der Prozess leicht in bestehende Aufarbeitungsverfahren integrierbar und/oder durch zusätzliche Verfahren, wie beispielsweise vor- oder nachgeschaltete Membranverfahren,
ergänzbar. Dadurch besitzt er ein hohes Potential zur Optimierung und weiteren Kostenersparnis. In dieser Arbeit werden zwei Ansätze zur Aufarbeitung verfolgt,
miteinander verglichen und ein Prozessentwurf mit Wirtschaftlichkeitsbetrachtung für den Batch-Ansatz vorgestellt. Für einen chromatographischen Ansatz wird ausgehend von Isothermen
und Adsorptions- und Desorptionsversuchen in einer Kleinsäule die Produktivität
für ein Material aus
gamma-Aluminiumoxid ermittelt. Für alle in dieser Arbeit verwendeten Materialien
aus Bentonit/Kieselsäure, Siliziumdioxid und
gamma-Aluminiumoxid werden die Permeabilität der Säulenpackung, deren maximale Bindekapazität und Stabilität angegeben. Der Einfluss einer Reduktion der Partikelgröße auf die Proteinbindekapazität daraus resultierender
Adsorbensschüttungen wird ebenfalls betrachtet. Eine gängige Betriebsweise
für viskose Fluide mit teilweise ungelöstem Feststoffanteil, wie Molkekonzentrat, stellt die
Expanded Bed Chromatographie dar. Eine rechnerische Abschätzung für das Material aus gamma-Aluminiumoxid ergänzt experimentelle Beobachtungen hinsichtlich der Eignung des Materials
für die Expanded Bed Chromatographie. Zur Trennung von ALA und BLG wird ein
Ansatz mittels selektiver Adsorption im Durchbruch mit einem Ansatz mittels selektiver Desorption in einem Stufengradienten aus Kaliumphosphat als Eluent verglichen. Für den
Batch-Ansatz wird aus den Ergebnissen von Adsorptionsisothermen und einstufigen Batchversuchen
eine Stoffstromsimulation auf Grundlage eines verfahrenstechnischen Fließbilds
erstellt. Der vorgestellte Prozess besteht aus 6 Rührkesselreaktoren, Filtrationsmodulen
zur Fest-Flüssig-Phasen Trennung und zwei Sprühtrocknungseinheiten. Eine Prüfung des
vorgestellten Prozesses auf seine Wirtschaftlichkeit wird vor dem Hintergrund möglicher
Produktpreise diskutiert.
This thesis deals with generalized inverses, multivariate polynomial interpolation and approximation of scattered data. Moreover, it covers the lifting scheme, which basically links the aforementioned topics. For instance, determining filters for the lifting scheme is connected to multivariate polynomial interpolation. More precisely, sets of interpolation sites are required that can be interpolated by a unique polynomial of a certain degree. In this thesis a new class of such sets is introduced and elements from this class are used to construct new and computationally more efficient filters for the lifting scheme.
Furthermore, a method to approximate multidimensional scattered data is introduced which is based on the lifting scheme. A major task in this method is to solve an ordinary linear least squares problem which possesses a special structure. Exploiting this structure yields better approximations and therefore this particular least squares problem is analyzed in detail. This leads to a characterization of special generalized inverses with partially prescribed image spaces.
Palladium-Catalyzed C–C Bond Formations via Activation of Carboxylic Acids and Their Derivatives
(2013)
Applications of carboxylic acids and their derivatives in transition metal-catalyzed cross-coupling reactions regio-selectively forming Csp3-Csp2, and Csp2-Csp2 bonds were explored in this thesis. Several important organic building blocks such as aryl acetates, diaryl acetates, imines, ketones, biaryls, styrenes and polysubstituted alkenes were successfully accessed from carboxylic acids and their derivatives by the means of C–H activation and decarboxylative cross-couplings.
An efficient and practical protocol for the synthesis of biologically important ethyl 2-arylacates through the dealkoxycarbonlative cross-coupling reaction between aryl halides and malonates was developed. Activation of the alpha-proton of alkyl esters by a copper catalyst allowed the deprotonation of esters even in the presence of mild bases, leading to a straightforward and efficient approach to alkyl alpha-diarylacetate from simple alkyl acetates and aryl halides.
The addition of a primary amine into the coupling reaction of alpha-oxocarboxylic acids and aryl halides led to an unprecedented low-temperature redox-neutral decarboxylative coupling process, providing a green and efficient method for the preparation of azomethines, in which all the three substituents can be independently varied. A minor modification of this protocol allowed us to easily access the corresponding ketones.
The decarboxylative coupling of robust aryl mesylates as well as polysubstituted alkenyl mesylates using our customized imidazolyl phosphine ligands was realized, further expanding the scope of carbon electrophiles in decarboxylative coupling reactions. Variation of the ligands led to two complementary protocols, providing the corresponding biaryls and polysubstituted olefins in high yields.
The use of a new class of pyrimidinyl phosphine ligands dramatically reduced the reaction temperatures of decarboxylative cross-coupling reactions between aromatic carboxylic acids and aryl or alkenyl triflates. The new catalyst system for the first time allowed the efficient decarboxylative biaryls synthesis at only 100 °C, representing a significant achievement in redox-neutral decarboxylative coupling reactions.