Refine
Year of publication
- 2012 (110) (remove)
Document Type
- Doctoral Thesis (66)
- Report (15)
- Periodical Part (9)
- Preprint (7)
- Article (4)
- Master's Thesis (4)
- Book (1)
- Conference Proceeding (1)
- Diploma Thesis (1)
- Habilitation (1)
Has Fulltext
- yes (110)
Keywords
- Stadtplanung (4)
- Sportentwicklung (2)
- Sportstättenplanung (2)
- Sportwissenschaft (2)
- Transaction Costs (2)
- homogene Katalyse (2)
- Acrolein (1)
- Acrylamid (1)
- Additionsreaktion (1)
- Alkine (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (23)
- Kaiserslautern - Fachbereich Chemie (22)
- Kaiserslautern - Fachbereich Informatik (14)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (12)
- Fraunhofer (ITWM) (10)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (7)
- Kaiserslautern - Fachbereich Sozialwissenschaften (6)
- Kaiserslautern - Fachbereich Bauingenieurwesen (5)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (3)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Universität (2)
- Kaiserslautern - Fachbereich Physik (1)
- Universitätsbibliothek (1)
Nanoparticle-Filled Thermoplastics and Thermoplastic Elastomer: Structure-Property Relationships
(2012)
The present work focuses on the structure-property relationships of
particulate-filled thermoplastics and thermoplastic elastomer (TPE). In this work
two thermoplastics and one TPE were used as polymer matrices, i.e. amorphous
bisphenol-A polycarbonate (PC), semi-crystalline isotactic polypropylene (iPP),
and a block copolymer poly(butylene terephthalate)-block-poly(tetramethylene
glycol) TPE(PBT-PTMG). For PC, a selected type of various Aerosil® nano-SiO2
types was used as filler to improve the thermal and mechanical properties by
maintaining the transparency of PC matrix. Different types of SiO2 and TiO2
nanoparticles with different surface polarity were used for iPP. The goal was to
examine the influence of surface polarity and chemical nature of nanoparticles on
the thermal, mechanical and morphological properties of iPP composites. For
TPE(PBT-PTMG), three TiO2 particles were used, i.e. one grade with hydroxyl
groups on the particle surface and the other two grades are surface-modified with
metal and metal oxides, respectively. The influence of primary size and dispersion
quality of TiO2 particles on the properties of TPE(PBT-PTMG)/TiO2 composites
were determined and discussed.
All polymer composites were produced by direct melt blending in a twin-screw
extruder via masterbatch technique. The dispersion of particles was examined by
using scanning electron microscopy (SEM) and micro-computerized tomography
(μCT). The thermal and crystalline properties of polymer composites were characterized by using thermogravimetric analysis (TGA) and differential
scanning calorimetry (DSC). The mechanical and thermomechanical properties
were determined by using mechanical tensile testing, compact tension and
Charpy impact as well as dynamic-mechanical thermal analysis (DMTA).
The SEM results show that the unpolar-surface modified nanoparticles are better
dispersed in polymer matrices as iPP than polar-surface nanoparticles, especially
in case of using Aeroxide® TiO2 nanoparticles. The Aeroxide® TiO2 nanoparticles
with a polar surface due to Ti-OH groups result in a very high degree of
agglomeration in both iPP and TPE matrices because of strong van der Waals
interactions among particles (hydrogen bonding). Compared to unmodified
Aeroxide® TiO2 nanoparticles, the other grades of surface modified TiO2 particles
are very homogenously dispersed in used iPP and TPE(PBT-PTMG). The
incorporation of SiO2 nanoparticles into bisphenol-A PC significantly increases
the mechanical properties of PC/SiO2 nanocomposites, particularly the resistance
against environmental stress crazing (ESC). However, the transparency of
PC/SiO2 nanocomposites decreases with increasing nanoparticle content and
size due to a mismatch of infractive indices of PC and SiO2 particles. The different
surface polarity of nanoparticles in iPP shows evident influence on properties of
iPP composites. Among iPP/SiO2 nanocomposites, the nanocomposite
containing SiO2 nanoparticles with a higher degree of hydrophobicity shows
improved fracture and impact toughness compared to the other iPP/SiO2
composites. The TPE(PBT-PTMG)/TiO2 composites show much better thermal and mechanical properties than neat TPE(PBT-PTMG) due to strong chemical
interactions between polymer matrix and TiO2 particles. In addition, better
dispersion quality of TiO2 particles in used TPE(PBT-PTMG) leads to dramatically
improved mechanical properties of TPE(PBT-PTMG)/TiO2 composites.
Granular systems in solid-like state exhibit properties like stiffness
dependence on stress, dilatancy, yield or incremental non-linearity
that can be described within the continuum mechanical framework.
Different constitutive models have been proposed in the literature either based on relations between some components of the stress tensor or on a quasi-elastic description. After a brief description of these
models, the hyperelastic law recently proposed by Jiang and Liu [1]
will be investigated. In this framework, the stress-strain relation is
derived from an elastic strain energy density where the stable proper-
ties are linked to a Drucker-Prager yield criteria. Further, a numerical method based on the finite element discretization and Newton-
Raphson iterations is presented to solve the force balance equation.
The 2D numerical examples presented in this work show that the stress
distributions can be computed not only for triangular domains, as previoulsy done in the literature, but also for more complex geometries.
If the slope of the heap is greater than a critical value, numerical instabilities appear and no elastic solution can be found, as predicted by
the theory. As main result, the dependence of the material parameter
Xi on the maximum angle of repose is established.
Anhand der Forschungserkenntnisse wird ein Untersuchungsdesign mit vier unterschiedlichen Bedingungen entwickelt, in dem die Probanden spielgerecht Strafstöße ausführen. Das Ziel der Untersuchung ist unter Einbezug der Strafstoßstrategien von Schützen mittels eines holistischen Verfahrens eine Mustererkennung über verlaufsorientierte komplexe Bewegungsmuster in der Strafstoßsituation auszuführen, um Individuen bezogene, richtungsspezifische und bedingungsabhängige Bewegungsmuster zu identifizieren. Die erste Aufgabenstellung erfasst die Strafstöße ungestört ohne Gegnereinwirkung (Baseline). In der zweiten und dritten Aufgabenstellung werden die Strafstöße jeweils gegen einen Torhüter unter Verwendung der Strategien Keeper-independent und Keeper-dependent ausgeführt. Die vierte Aufgabenstellung simuliert während der Ausführung des Schusses die Torwarthandlung am Point of no return. Die Ergebnisse zeigen, dass bezogen auf die Ziele Separierungen möglich sind. Zudem wird deutlich, dass die Ausführungsbedingungen (Strategiewahl, Torhüter) Einfluss auf die Bewegungsausführung haben und eine Veränderung in den Erkennungsraten von Bewegungsmustern festzustellen ist.
Für die lösbare Verbindung von Bauteilen aus Polymerwerkstoffen sind Direktver-schraubungen das kostengünstigen Fügeverfahren. Nachteilig sind allerdings die durch das viskoelastische Verhalten der Polymerwerkstoffe bedingte zeit- und tem-peraturabhängige Abnahme der Vorspannkraft und deren weitere Beeinflussung durch den Wärmeausdehnungsunterschied von Polymerwerkstoff und Metall. Ziel der Arbeit ist es, durch den gekoppelten Einsatz von Experiment und FE-Simulation den Einfluss von Zeit und Temperatur auf die Vorspannkraft bei Direktverschraubungen in Polymerwerkstoffen zu beschreiben. Der Tubus aus Polymerwerkstoff, der auf-grund der Faserorientierung inhomogen und anisotrop ist, wird ortsaufgelöst unter-sucht, und hierauf aufbauend werden die lokalen Werkstoffparameter für die FE-Analyse ermittelt. Die FE-Analyse der Direktverschraubung selbst wird experimentell anhand des Vorspannkraftverlaufs sowie der Oberflächendeformation überprüft. Beim betrachteten Verbindungssystem ist deutlich zu beobachten, dass der Vor-spannkraftabbau hauptsächlich im Bereich der Entlastungsbohrung bis zu einer be-stimmten Einschraubtiefe stattfindet.
The safety of embedded systems is becoming more and more important nowadays. Fault Tree Analysis (FTA) is a widely used technique for analyzing the safety of embedded systems. A standardized tree-like structure called a Fault Tree (FT) models the failures of the systems. The Component Fault Tree (CFT) provides an advanced modeling concept for adapting the traditional FTs to the hierarchical architecture model in system design. Minimal Cut Set (MCS) analysis is a method that works for qualitative analysis based on the FTs. Each MCS represents a minimal combination of component failures of a system called basic events, which may together cause the top-level system failure. The ordinary representations of MCSs consist of plain text and data tables with little additional supporting visual and interactive information. Importance analysis based on FTs or CFTs estimates the contribution of each potential basic event to a top-level system failure. The resulting importance values of basic events are typically represented in summary views, e.g., data tables and histograms. There is little visual integration between these forms and the FT (or CFT) structure. The safety of a system can be improved using an iterative process, called the safety improvement process, based on FTs taking relevant constraints into account, e.g., cost. Typically, relevant data regarding the safety improvement process are presented across multiple views with few interactive associations. In short, the ordinary representation concepts cannot effectively facilitate these analyses.
We propose a set of visualization approaches for addressing the issues above mentioned in order to facilitate those analyses in terms of the representations.
Contribution:
1. To support the MCS analysis, we propose a matrix-based visualization that allows detailed data of the MCSs of interest to be viewed while maintaining a satisfactory overview of a large number of MCSs for effective navigation and pattern analysis. Engineers can also intuitively analyze the influence of MCSs of a CFT.
2. To facilitate the importance analysis based on the CFT, we propose a hybrid visualization approach that combines the icicle-layout-style architectural views with the CFT structure. This approach facilitates to identify the vulnerable components taking the hierarchies of system architecture into account and investigate the logical failure propagation of the important basic events.
3. We propose a visual safety improvement process that integrates an enhanced decision tree with a scatter plot. This approach allows one to visually investigate the detailed data related to individual steps of the process while maintaining the overview of the process. The approach facilitates to construct and analyze improvement solutions of the safety of a system.
Using our visualization approaches, the MCS analysis, the importance analysis, and the safety improvement process based on the CFT can be facilitated.
Recently, a new Quicksort variant due to Yaroslavskiy was chosen as standard sorting
method for Oracle's Java 7 runtime library. The decision for the change was based on
empirical studies showing that on average, the new algorithm is faster than the formerly
used classic Quicksort. Surprisingly, the improvement was achieved by using a dual pivot
approach — an idea that was considered not promising by several theoretical studies in the
past. In this thesis, I try to find the reason for this unexpected success.
My focus is on the precise and detailed average case analysis, aiming at the flavor of
Knuth's series “The Art of Computer Programming”. In particular, I go beyond abstract
measures like counting key comparisons, and try to understand the efficiency of the
algorithms at different levels of abstraction. Whenever possible, precise expected values are
preferred to asymptotic approximations. This rigor ensures that (a) the sorting methods
discussed here are actually usable in practice and (b) that the analysis results contribute to
a sound comparison of the Quicksort variants.
In der vorliegenden Arbeit wurden die Verbesserungsmöglichkeiten der Mikro- und Ultrafiltration durch Ultraschall untersucht. Für die Analyse möglicher Mechanismen der Ultraschalleinkopplung, die zu einer Verbesserung der Membranfiltration führen könnten, wurden wichtige Erkenntnisse aus den beiden Technologiefeldern (Ultraschalltechnik und Membranfiltration) zusammengetragen. Für die Vielzahl der Ansätze zur Nutzung des Ultraschalls in der Membranfiltration wurde eine Systematik entwickelt. Zahlreiche Ansätze wurden in orientierenden Experimenten untersucht und bewertet. Ein wichtiger Aspekt bei der Bewertung der Methoden bestand in der Skalierbarkeit der Technologiekombinationen. Als Hauptakteure der Reinigungswirkung wurden gut sichtbare Bläschen in der Größenordnung von 10-500 µm identifiziert. Die erfolgreichste Methode stellt die durch Ultraschallreinigung unterstützte Rückspülung dar. Auf Basis dieser Erkenntnisse wurde eine Übertragung der Ultraschallreinigung auf ein handelsübliches Kapillarmembranmodul durchgeführt. Bei ersten Filtrationsversuchen mit natürlichem Oberflächenwasser konnten Schäden an der Membran festgestellt werden, die auf eine lokale Kavitationsstruktur an der Ankopplungsstelle des Ultraschallwandlers zurückzuführen waren. Bei geringeren Ultraschallleistungen und bei der Nutzung höherer Frequenzen traten keine Schäden an der Membran auf. Im Vergleich zu einem Referenzmodul konnten deutliche Verbesserungen durch die Einkopplung des Ultraschalls an verschiedenen Stoffsystemen nachgewiesen werden. Die Arbeit schließt mit Vorschlägen für Membranmodule mit integriertem Leistungsultraschall, die aus technischer Sicht empfehlenswert erscheinen.
In the presented work, we make use of the strong reciprocity between kinematics and geometry to build a geometrically nonlinear, shearable low order discrete shell model of Cosserat type defined on triangular meshes, from which we deduce a rotation–free Kirchhoff type model with the triangle vertex positions as degrees of freedom. Both models behave physically plausible already on very coarse meshes, and show good
convergence properties on regular meshes. Moreover, from the theoretical side, this deduction provides a
common geometric framework for several existing models.
Die Preformmontage ist ein zentrales Element moderner Prozessketten zur effizien-ten Herstellung von CFK-Komponenten integraler Bauweise. Ihre technologische Darstellung mittels der Ultraschall-Schweißtechnologie erschließt neue Potentiale für die binderbasierte Preform-Prozesskette bezüglich der Reduzierung von Prozesszeit und Energieverbrauch, der Steigerung des Automatisierungsgrades und der Verar-beitung komplexer Geometrien unter Einsatz von Hochtemperatur-Bindersystemen. Im Rahmen der vorliegenden Arbeit wurde die Ultraschall-Schweißtechnologie zur Montage bebinderter Preforms auf Basis grundlegender Untersuchungen entwickelt und anlagentechnisch umgesetzt. Studien der Wirkmechanismen des Prozesses zur Wärmeerzeugung und Laminatkompaktierung wurden durchgeführt. Die Gewichtung und Interaktion der Prozessparameter wurde mittels statistisch geplanter Versuche ermittelt und die mechanischen Eigenschaften verschweißter Laminate wurden ge-messen. Das aufgrund von Randeffekten stark ausgebildete Temperaturprofil im Pre-formlaminat wurde messtechnisch erfasst und rechnerisch modelliert. Die Studien bildeten die Grundlage zur Umsetzung eines robotergestützten, parameterüberwach-ten Ultraschall-Endeffektors.
Today, polygonal models occur everywhere in graphical applications, since they are easy
to render and to compute and a very huge set of tools are existing for generation and
manipulation of polygonal data. But modern scanning devices that allow a high quality
and large scale acquisition of complex real world models often deliver a large set of
points as resulting data structure of the scanned surface. A direct triangulation of those
point clouds does not always result in good models. They often contain problems like
holes, self-intersections and non manifold structures. Also one often looses important
surface structures like sharp corners and edges during a usual surface reconstruction.
So it is suitable to stay a little longer in the point based world to analyze the point cloud
data with respect to such features and apply a surface reconstruction method afterwards
that is known to construct continuous and smooth surfaces and extend it to reconstruct
sharp features.
Acrylamid und Acrolein gehören zu den alpha,beta-ungesättigten Carbonylverbindungen. Sie zeichnen sich wie andere alpha,beta-ungesättigte Carbonylverbindungen durch eine hohe Reaktionsfähigkeit aus. Einerseits können sie leicht mit Proteinen und DNA reagieren, was zytotoxische und genotoxische Wirkungen hervorrufen kann, andererseits können sie aber auch schnell durch Glutathionkonjugation detoxifiziert werden.
Acrylamid ist eine in großem Umfang produzierte Industriechemikalie, die hauptsächlich Anwendung bei der Herstellung von Polyacrylamidprodukten findet. Aus Acrylamid hergestellte Polymere und Copolymere werden in der Kosmetikindustrie, als Bindemittel bei der Papierherstellung, als Flockungsmittel in der Abwasseraufbereitung und in biochemischen Laboratorien verwendet. Nachdem Acrylamid-Hämoglobin-Addukte im Jahre 2002 auch in nicht Acrylamid-exponierten Personen gefunden wurden, vermutete man Lebensmittel als mögliche Expositionsquelle. Anschließende Studien konnten dies bestätigen und zeigten, dass Acrylamid beim Erhitzen von Lebensmitteln vor allem bei hohen Temperaturen im Verlauf der Maillard-Reaktion gebildet werden kann. Die World Health Organisation (WHO) beziffert die weltweite durchschnittliche Exposition mit Acrylamid über Lebensmittel auf 1-4 µg Acrylamid/kg Körpergewicht (KG) und Tag. Acrylamid zeigte in verschiedenen Studien neurotoxische, entwicklungs- und reproduktionstoxische, genotoxische und kanzerogene Wirkungen. Acrylamid wurde im Jahre 1994 von der International Agency for Research on Cancer (IARC) in die Gruppe 2A als Stoff eingestuft, der wahrscheinlich krebserzeugend beim Menschen ist.
Acrylamid wird im Organismus zum genotoxischen Metaboliten Glycidamid gegiftet. Glycidamid bildet DNA-Addukte vor allem mit dem N7 des Guanins. Glycidamid-DNA-Addukte konnten im Tierversuch an Nagern nach Verabreichung hoher Mengen Acrylamid in allen untersuchten Organen gefunden werden. Als Hauptweg der Entgiftung von Acrylamid und Glycidamid gilt die Bindung an Glutathion (GSH) und der Abbau und die Ausscheidung als Mercaptursäure (MA) in Urin. Aufgrund des oxidativen Metabolismus von Acrylamid hängt die biologische Wirkung wesentlich vom Gleichgewicht der giftenden und entgiftenden Metabolismuswege in der Leber ab.
Acrolein wird seit 1940 kommerziell zur Herstellung von Acrylsäure, dem Ausgangsprodukt für Acrylatpolymere industriell produziert. Außerdem kann Acrolein aus Aminosäuren, Fetten oder Kohlenhydraten während des Erhitzens von Lebensmitteln gebildet werden. Während der Zubereitung von kohlenhydratreichen Lebensmitteln kann Acrolein wie auch Acrylamid im Verlauf der Maillard-Reaktion entstehen. Acrolein ist als einfachster alpha,beta-ungesättigter Aldehyd hochreaktiv gegenüber Nukleophilen wie z.B. Thiol- oder Aminogruppen unter Ausbildung von Michael-Addukten. Die hohe Reaktivität und Flüchtigkeit von Acrolein führt dazu, dass derzeit nur wenig zuverlässige Daten zu Acrolein-Gehalten speziell in kohlenhydratreichen Lebensmitteln vorliegen; sofern Daten zu Gehalten vorhanden sind, bewegen sich diese im niedrigen µg/kg-Bereich. Zudem ist bisher ungeklärt, in welchem Ausmaß Acrolein zur humanen Gesamtexposition gegenüber hitzeinduzierten Schadstoffen neben Acrylamid in Lebensmitteln beiträgt. Die derzeitige Datenlage lässt eine eindeutige Risikobewertung nicht zu. Eine stetige Exposition mit Acrolein gilt als sicher. In verschiedenen Studien konnte gezeigt werden, dass die toxikologischen Effekte von Acrolein im Gegensatz zu Acrylamid insgesamt nicht auf einer erhöhten Tumorinzidenz beruhen. Daher wurde Acrolein von der IARC in Kategorie 3 eingestuft: Es gilt als möglicherweise krebserzeugend beim Menschen, allerdings ist die Datenlage nicht ausreichend, um eine eindeutige Beurteilung vornehmen zu können.
Ziel der vorliegenden Arbeit war es, die Toxikokinetik und -dynamik der beim Erhitzen von Lebensmitteln entstehenden Kontaminanten Acrylamid und Acrolein in vitro und in vivo zu untersuchen. Im Vordergrund stand die Erfassung dosisabhängiger Genotoxizität von Acrylamid sowie der MA als wichtigste Entgiftungsreaktion im Tierversuch im Bereich der derzeitigen Verbraucherexposition. Die Ergebnisse, insbesondere zur Toxikokinetik, sollten durch in vitro Versuche in primären Rattenhepatozyten untermauert werden. Außerdem sollte vergleichend die bisher kaum mithilfe von Biomarkern untersuchte nahrungsbezogene Exposition des Verbrauchers mit Acrylamid und Acrolein bestimmt werden. Eine Dosis-Wirkungsuntersuchung an Sprague Dawley (SD)-Ratten im Dosisbereich von 0,1 bis 10.000 µg/kg KG lieferte erstmals quantitative Informationen zur DNA-Adduktbildung durch den genotoxischen Acrylamid-Metaboliten Glycidamid bis in niedrigste Expositionsbereiche. In diesem Niedrigdosisbereich (0,1 bis 10 µg/kg KG) liegt die nach Einmaldosierung gemessene N7-GA-Gua-Bildung im unteren Bereich der humanen Hintergrundgewebsspiegel für DNA-Läsionen verschiedenen Ursprungs. Dieser Befund könnte die zukünftige Risikobewertung von Expositionen mit solchen genotoxischen Kanzerogenen auf eine neue und der Messung zugängliche Basis stellen. Mit der in dieser Arbeit eingesetzten extrem empfindlichen instrumentellen Analytik sind erstmals Messungen von genotoxischen Ereignissen bis in den Bereich der Verbraucherexposition möglich geworden. Es bleibt allerdings zu beachten, das Genotoxizität zwar eine notwendige, aber nicht hinreichende Bedingung für Mutagenität und maligne Transformation ist. Die auf ein genotoxisches Ereignis folgende biologische Antwort, muss jedoch in die Risikobewertung mit einbezogen werden.
In primären Rattenhepatozyten ließ sich bei Inkubation mit Acrylamid zeigen, dass GSH-Addukte deutlich früher bei niedrigeren Acrylamidkonzentrationen nachweisbar sind als Glycidamid und N7-GA-Gua-Addukte. Der direkte Vergleich der Bildung von Glycidamid mit jener der AA-GSH-Addukte ließ schließen, dass die Entgiftung von Acrylamid in primären Rattenhepatozyten bis zu dreifach schneller verläuft als die Giftung. Zusätzlich ließ sich erstmals zeigen, dass primäre Rattenhepatozyten neben der Kopplung von Xenobiotika an GSH, zumindest auch in kleinen Anteilen zur Umwandlung in die entsprechenden MA fähig sind.
Um das von Acrolein ausgehende Gefährdungspotential zu untersuchen, wurde dessen DNA-Adduktbildung in vitro untersucht. Als Biomarker für die Bildung eines Haupt-DNA-Adduktes wurde fünffach 15N-markiertes Hydroxypropanodeoxyguanosin (OH-[15N5]-PdG) synthetisiert und charakterisiert. DNA Inkubationsversuche mit Acrolein zeigten eine konzentrations- und zeitabhängige Bildung der OH-PdG-Addukte. Acrolein reagierte nur wenig langsamer als Glycidamid zu diesen Addukten.
Zur Untersuchung der Toxikokinetik von Acrylamid und Acrolein in vivo nach Aufnahme von hoch belasteten bzw. kommerziell erhältlichen Kartoffelchips wurden die Ergebnisse aus zwei Humanstudien durchgeführt und ausgewertet. Die Ausscheidungskinetiken Acrolein-assoziierter MA im Menschen korrelierten eindeutig mit der Aufnahme von Kartoffelchips. Der Vergleich der im Urin ausgeschiedenen Mengen an Acrolein- bzw. Acrylamid-assoziierten MA ließ auf eine wesentlich höhere nahrungsbezogene Exposition mit Acrolein (4- bis 12-fach) verglichen mit Acrylamid schließen. Analytische Messungen der Acroleingehalte in den Lebensmitteln hatten aber nur eine Kontamination ergeben, die nur einen geringen Anteil der expositionsbedingt im Urin erfassten MA-Mengen erklären kann. Ob Acrolein an der Lebensmittelmatrix in einer Weise gebunden vorliegt, dass es sich der analytischen Erfassung durch die zur Verfügung stehenden Verfahren wie Headspace-GC/MS entzieht und erst nach Aufnahme in den Organismus freigesetzt wird, wird Gegenstand künftiger Untersuchungen. Zusätzlich liefern die Ergebnisse beider Humanstudien starke Hinweise auf eine endogene Bildung von Acrolein, da auch in den Wash-out Phasen ein relativ hoher Anteil an Acrolein-assoziierten MA erfasst wurde. Zukünftige Untersuchungen sollten die endogene Exposition und die Bildungsmechanismen von Acrolein und anderen Alkenalen aus verschiedenen physiologischen Quellen genauer untersuchen, und in Beziehung setzen zur exogenen, ernährungsbezogenen Exposition. Ebenso sollten künftig verstärkt die Auswirkungen kombinierter Exposition durch solche erhitzungsbedingt gebildeten Stoffe untersucht werden.
Worldwide the installed capacity of renewable technologies for electricity production is
rising tremendously. The German market is particularly progressive and its regulatory
rules imply that production from renewables is decoupled from market prices and electricity
demand. Conventional generation technologies are to cover the residual demand
(defined as total demand minus production from renewables) but set the price at the
exchange. Existing electricity price models do not account for the new risks introduced
by the volatile production of renewables and their effects on the conventional demand
curve. A model for residual demand is proposed, which is used as an extension of
supply/demand electricity price models to account for renewable infeed in the market.
Infeed from wind and solar (photovoltaics) is modeled explicitly and withdrawn from
total demand. The methodology separates the impact of weather and capacity. Efficiency
is transformed on the real line using the logit-transformation and modeled as a stochastic process. Installed capacity is assumed a deterministic function of time. In a case study the residual demand model is applied to the German day-ahead market
using a supply/demand model with a deterministic supply-side representation. Price trajectories are simulated and the results are compared to market future and option
prices. The trajectories show typical features seen in market prices in recent years and the model is able to closely reproduce the structure and magnitude of market prices.
Using the simulated prices it is found that renewable infeed increases the volatility of forward prices in times of low demand, but can reduce volatility in peak hours. Prices
for different scenarios of installed wind and solar capacity are compared and the meritorder effect of increased wind and solar capacity is calculated. It is found that wind
has a stronger overall effect than solar, but both are even in peak hours.
Die vorliegende Arbeit beschreibt die Trennung von kurzkettigen Alkan/Alken-Gemischen an nanostrukturierten porösen Adsorbentien. Zu diesem Zweck wurden unterschiedliche metallorganische Koordinationspolymere und Zeolithe synthetisiert und charakterisiert. Zur Untersuchung des Adsorptionsverhaltens dieser Adsorbentien wurden Adsorptionsisothermen von C2-, C3- und C4-Kohlenwasserstoffen bei verschiedenen Temperaturen gemessen. Die Messung der Adsorption der reinen Kohlenwasserstoffe ergab, dass die adsorbierte Stoffmenge mit der spezifischen Oberfläche des Adsorbens korreliert, sowie von der kritischen Temperatur des Adsorptivs abhängt und in der Reihenfolge C2 < C3 < C4 zunimmt. Eine Ausnahme hiervon bilden flexible metallorganische Koordinationspolymere, welche Atmungs- bzw. Porenöffnungseffekte zeigen. Die Isothermen dieser Materialien weisen Sprünge auf, wobei diese jedoch abhängig vom Druck, vom Adsorptiv und von der Temperatur sind. Die Trennung von Alkan/Alken-Gemischen an den hergestellten Adsorbentien wurde in einem kontinuierlich durchströmten Festbettadsorber untersucht. Es zeigten sich unterschiedliche Trennfaktoren in Abhängigkeit von der Porenöffnung und der Gerüststruktur der Adsorbentien. Die Untersuchung der Desorption der Kohlenwasserstoffe von Cu\(_3\)(btc)\(_2\) ergab, dass der Desorptionsprozess bei Raumtemperatur nur sehr langsam verläuft. Es zeigte sich, dass die zur Desorption erforderliche Temperatur nimmt steigender Kohlenstoffzahl des Kohlenwasserstoffs zunimmt.
Ländliche Räume stehen vor der vielschichtigen Herausforderung,
vom Wachstum der metropolitanen Räume nicht abgehängt zu werden.
Die durch die EU geförderte Regionalisierung verschiebt Handlungserfordernisse
zunehmend von der lokalen auf eine interkommunale sowie regionale
Ebene.
Zur Bewältigung der zentralen demografischen, sozialen und
ökonomisch-strukturellen Aufgabenstellungen bedarf es der konsequenten
und zielorientierten Bündelung aller regionalen Kräfte.
In der Regionalentwicklung ist derweil jedoch festzustellen, dass
sich zahlreiche regionale Initiativen etablieren, die in räumlicher
und thematischer Überschneidung parallel zueinander Regionalentwicklung
betreiben, ohne miteinander abgestimmt zu sein.
Eine koordinierte Ausrichtung auf gemeinsame Ziele der Regionalentwicklung
und mit Blick auf eine gesamtregionale Profilierung erfolgt nicht. Dies steht
dem Anstreben nach einer koordinierten Regionalentwicklung kontraproduktiv
entgegen.
Ländliche Entwicklungsinitiativen wie insbesondere LEADER sind ihren
ursprünglich landwirtschaftlich-stämmigen Kinderschuhen entwachsen.
Ihre regionalen Entwicklungskonzepte, Projekte und Maßnahmen zeigen in
weiten Teilen regionale Wirkungsweise.
Weisen konkrete LEADER-Projekte Raumbedeutsamkeit auf, dann kann sich die
für den Raum jeweils verantwortliche Regionalplanung auf raumordnungsrechtliche
Kooperationslegitimationen berufen.
Solche Kooperationen zwischen LEADER und Regionalplanung finden in der
aktuellen Praxis der Regionalentwicklung jedoch nicht statt. Die daraus resultierenden
‚Parallelstrukturen der Regionalentwicklung’ stehen der Forderung nach einer Bündelung
der regionalen Kräfte direkt entgegen.
Mit Blick auf die Lösung der benannten demografischen, sozialen oder wirtschaftlichen
Herausforderungen im ländlichen Raum ist eine abgestimmte koordinierte Regionalentwicklung
jedoch unbedingt erforderlich. Nicht zuletzt kann durch optimierte Kooperationsstrukturen
im regionalen Raum beispielsweise die Effizienz von generierten Fördermitteln wesentlich
gesteigert werden. Nur durch die Effizienz der Fördermittel und der Entwicklungsstrategien
wiederum können synergetische Prozesse initiiert werden und die ländlichen Räume als
gemeinsamer Potenzialraum profitieren.
Mit der Optimierung der organisatorischen Rahmenbedingungen zum Miteinander von Regionalplanung
und ländlichen regionalen Entwicklungsprozessen (neben LEADER vor allem ILE) können
strategische Allianzen der Regionalentwicklung gefördert werden.
Bleiben diese wichtigen Weichenstellungen künftig weiterhin aus, könnten die ländlichen Räume
zunehmend an Bedeutung verlieren. Nur durch die gebotene organisatorische und thematische Bündelung
regionaler Initiativen und Ressourcen sind die Herausforderungen bestmöglich zu meistern und eine
koordinierte Regionalentwicklung praktikabel.
Microcystine (MCs) und Nodularine (NODs) sind zyklische Hepatotoxine, die wegen ihrer strukturellen Modifikationen eine hohe Diversität aufweisen. Da Cyanobakterien, die diese Toxine produzieren, an vielen Standorten wachsen können, stellt eine Vergiftung durch MCs und NODs weltweit ein ernstes gesundheitliches Problem für Mensch und Tier dar.
Die Überwachung von Gewässern erfolgt bislang auf die rechtlich relevanten MCs MC-LR, MC-RR und MC-YR mit Hilfe einer HPLC-UV-Vis-Messmethode gemäß der Norm ISO 20179. Dabei werden aber die ebenfalls vorkommenden MCs, NOD und die entsprechenden Desmethyl-Varianten, über deren Struktur-Wirkungsbeziehung wenig bekannt ist, nicht voneinander getrennt und gemeinsam miterfasst.
Durch diese Arbeit sollte die Auswirkung einer Hemmung von Proteinphosphatasen (PP1 und PP2A), über welche MCs und NODs in vivo und in vitro auf Hepatozyten Einfluss nehmen, in primären Ratten- und Humanhepatozyten untersucht werden. Außerdem sollte der Zusammenhang zwischen chemischer Struktur und toxikologischer Relevanz von MCs und NODs und ihrer Desmethyl-Varianten aufgeklärt werden.
Sowohl in primären Ratten- als auch in Humanhepatozyten konnte bestätigt werden, dass nicht nur die rechtlich relevanten MCs MC-LR, MC-RR und MC-YR für eine Überwachung von Lebensmitteln und Gewässern entscheidend sind, sondern alle getesteten MCs und NODs und deren desmethylierten Kongenere ein hohes zytotoxisches Potential aufweisen. Dabei kann aber keine direkte Abhängigkeit einer PP-Inhibierung und Zytotoxizität gesetzt werden. Vielmehr spielt die Toxikokinetik wie die Aufnahme der Toxine über spezifische Transporter (OATP) in die Leber und die Entgiftung über den Glutathion-Detoxifizierungsweg eine wichtige Rolle. Weiterhin konnte festgestellt werden, dass die zytotoxische Wirkung auf primäre humane Hepatozyten um ein Vielfaches geringer war als auf primäre Rattenhepatozyten, weshalb von einer Speziesabhängigkeit gesprochen werden kann.
Weiterhin wird durch diese Arbeit belegt, dass die MC- und NOD-vermittelte PP-Hemmung zeit- und konzentrationsabhängig sowohl Apoptosen auslöst und als auch in der Lage ist Apoptosemarker wie Bax und Bcl-xL zu beeinflussen und die MAPK-Signalkette aktiviert, was mit Zellproliferation in Verbindung steht. Dabei wies NOD eine stärkere Wirkung auf als MC-LR. Der ebenfalls untersuchte Akt-Signalweg zeigte interessanterweise keine Veränderung in der Kaskade, was auf eine mögliche Gegenregulation zurückgeführt werden kann.
Die in vitro Daten weisen darauf hin, dass die Exposition mit hohen Konzentrationen an MCs und NODs in vivo akut starke Leberschäden bis hin zum Tod verursachen. Geringere Konzentrationen dagegen bei einer Langzeitexposition mit kontaminiertem Wasser, Nahrungsergänzungsmitteln und Lebensmitteln MAPK-vermittelt tumorpromovierend und kanzerogen wirken können.
We consider the maximum flow problem with minimum quantities (MFPMQ), which is a variant of the maximum flow problem where
the flow on each arc in the network is restricted to be either zero or above a given lower bound (a minimum quantity), which
may depend on the arc. This problem has recently been shown to be weakly NP-complete even on series-parallel graphs.
In this paper, we provide further complexity and approximability results for MFPMQ and several special cases.
We first show that it is strongly NP-hard to approximate MFPMQ on general graphs (and even bipartite graphs) within any positive factor.
On series-parallel graphs, however, we present a pseudo-polynomial time dynamic programming algorithm for the problem.
We then study the case that the minimum quantity is the same for each arc in the network and show that, under this restriction, the problem is still
weakly NP-complete on general graphs, but can be solved in strongly polynomial time on series-parallel graphs.
On general graphs, we present a \((2 - 1/\lambda) \)-approximation algorithm for this case, where \(\lambda\) denotes the common minimum quantity of all arcs.
This papers deals with the minimization of seminorms \(\|L\cdot\|\) on \(\mathbb R^n\) under the constraint of a bounded I-divergence \(D(b,H\cdot)\). The I-divergence is also known as Kullback-Leibler divergence and appears in many models in imaging science, in particular when dealing with Poisson data. Typically, \(H\) represents here, e.g., a linear blur operator and \(L\) is some discrete derivative operator. Our preference for the constrained approach over
the corresponding penalized version is based on the fact that the I-divergence of data
corrupted, e.g., by Poisson noise or multiplicative Gamma noise can be estimated by statistical methods. Our minimization technique rests upon relations between constrained and penalized convex problems and resembles the idea of Morozov's discrepancy principle.
More precisely, we propose first-order primal-dual algorithms which reduce the problem to the solution of certain proximal minimization problems in each iteration step. The most interesting of these proximal minimization problems is an I-divergence constrained least squares problem. We solve this problem by connecting it to the corresponding I-divergence
penalized least squares problem with an appropriately chosen regularization parameter. Therefore, our algorithm produces not only a sequence of vectors which converges to a minimizer of the constrained problem but also a sequence of parameters which convergences to a regularization parameter so that the penalized problem has the same solution as our constrained one. In other words, the solution of this penalized problem fulfills the I-divergence constraint. We provide the proofs which are necessary to understand
our approach and demonstrate the performance of our algorithms for different
image restoration examples.
Image restoration and enhancement methods that respect important features such as edges play a fundamental role in digital image processing. In the last decades a large
variety of methods have been proposed. Nevertheless, the correct restoration and
preservation of, e.g., sharp corners, crossings or texture in images is still a challenge, in particular in the presence of severe distortions. Moreover, in the context of image denoising many methods are designed for the removal of additive Gaussian noise and their adaptation for other types of noise occurring in practice requires usually additional efforts.
The aim of this thesis is to contribute to these topics and to develop and analyze new
methods for restoring images corrupted by different types of noise:
First, we present variational models and diffusion methods which are particularly well
suited for the restoration of sharp corners and X junctions in images corrupted by
strong additive Gaussian noise. For their deduction we present and analyze different
tensor based methods for locally estimating orientations in images and show how to
successfully incorporate the obtained information in the denoising process. The advantageous
properties of the obtained methods are shown theoretically as well as by
numerical experiments. Moreover, the potential of the proposed methods is demonstrated
for applications beyond image denoising.
Afterwards, we focus on variational methods for the restoration of images corrupted
by Poisson and multiplicative Gamma noise. Here, different methods from the literature
are compared and the surprising equivalence between a standard model for
the removal of Poisson noise and a recently introduced approach for multiplicative
Gamma noise is proven. Since this Poisson model has not been considered for multiplicative
Gamma noise before, we investigate its properties further for more general
regularizers including also nonlocal ones. Moreover, an efficient algorithm for solving
the involved minimization problems is proposed, which can also handle an additional
linear transformation of the data. The good performance of this algorithm is demonstrated
experimentally and different examples with images corrupted by Poisson and
multiplicative Gamma noise are presented.
In the final part of this thesis new nonlocal filters for images corrupted by multiplicative
noise are presented. These filters are deduced in a weighted maximum likelihood
estimation framework and for the definition of the involved weights a new similarity measure for the comparison of data corrupted by multiplicative noise is applied. The
advantageous properties of the new measure are demonstrated theoretically and by
numerical examples. Besides, denoising results for images corrupted by multiplicative
Gamma and Rayleigh noise show the very good performance of the new filters.
Synthese, Charakterisierung und katalytische Eigenschaften von metallsubstituierten Alumophosphaten
(2012)
Ziel der vorliegenden Arbeit war es, Alumophosphate sowohl mit sauren Eigenschaften als auch solche mit oxidierendem Charakter herzustellen. Die katalytischen Zentren wurden durch den Einbau von Metallen in das Alumophosphat-Gitter erzeugt. Dies erfolgte durch die Zugabe von Metallsalzen zum Synthesegel der zu synthesierenden Alumophosphate. Ein besonderes Augenmerk wurde hierbei auf die Metalle Mg, Co, Zn, Mn, Cr, V und Ti gerichtet. Der Einbau der Metalle erfolgte an 10-Ring und 12-Ring Alumophosphaten. Die metallhaltigen 10 Ring Alumophosphate mit AEL und ATO Strukturen und 12-Ring Alumophosphate der AFI, ATS und AFO-Topologie sollten anschließend mittels physikalisch-chemischer Methoden charakterisiert werden. Hierzu gehörten:
- Röntgen-Pulverdiffraktometrie,
- Temperaturprogrammierte Desorption (TPD),
- Stickstoff-Adsorption,
- UV/Vis-Spektroskopie,
- IR-Spektroskopie.
Ein Schwerpunkt der vorliegenden Arbeit stellte die Untersuchung der katalytischen Eigenschaften der hergestellten und charakterisierten Proben dar. Ausgewählte Cr-, V- und Ti-haltige Katalysatoren wurden in der Flüssigphasenoxidation von Cyclohexen mit wässriger Wasserstoffperoxid- oder tert-Butylhydroperoxid-Lösung (TBHP) getestet. Die eingesetzten metallhaltigen Alumophosphate wiesen eine katalytische Aktivität für die Cyclohexen-Oxidation bei 80 °C auf. Während der Reaktion entstanden 1,2-Cyclohexandiol, 2-Cyclohexenol, 2-Cyclohexenon, Cyclohexenoxid und Cyclohexandion als Hauptprodukte. Die aus technischen Gesichtspunkten interessante Adipinsäure konnte zu keinem Zeitpunkt beobachtet werden. Die Aktivität der eingesetzten Katalysatoren wird durch die unterschiedlichen in die Alumophosphate eingebauten Metalle beeinflusst. Auch die Topologie der hergestellten Materialien beeinflusste den Verlauf der Reaktion. Der Einsatz von TBHP und H2O2 als Oxidationsmittel führte teilweise zu einem unterschiedlichen Produktbild. Nach mehreren Stunden wurde eine Desaktivierung der Katalysatoren beobachtet. Durch eine erneute Kalzination der in der Katalyse einsetzen Proben konnte die Aktivität fast vollständig wieder hergestellt werden.
In der Disproportionierung von Ethylbenzol erwiesen sich die Co-, Mn-, Mg- und Zn-haltigen Alumophosphate als aktive Katalysatoren. Bei den Umsetzungen an Alumophosphaten mit unterschiedlichem Metallgehalt entstanden ortho-, meta- und para-Diethylbenzol als Hauptprodukte. Hierbei wiesen Mg-haltige Katalysatoren die höchste Aktivität auf. Bei einem Metallgehalt von nMg/nAl = 0,01 entstanden neben den bisher erwähnten Hauptprodukten auch Triethylbenzole. Die Aktivität der eingesetzten Alumophosphate nimmt in der Reihenfolge MgAPO > CoAPO > ZnAPO > MnAPO ab. Diese Reihenfolge steht im Einklang mit den Ergebnissen aus den Aciditäts-Untersuchungen mittels TPD. Die Porengeometrie der verwendeten Alumophosphate übt einen entscheidenden Einfluss auf das Produktbild aus. Weitporige Alumophosphate mit der AFI und ATS Topologie weisen die höchsten Umsätze an Ethylbenzol auf. Alumophosphate des AFO und AEL besitzen einen geringeren Porendurchmesser und zeigen eine geringere Aktivitat in der Disproportionierung von Ethylbenzol. Zudem treten wegen des geringeren Porendurchmessers formselektive Effekte auf. So wird das schlankere para-Diethylbenzol bevorzugt gebildet. Katalysatoren auf Basis des ATO Alumophosphates zeigten keine signifikante Aktivitat.
The scientific intention of this work was to synthesize and characterize new bidentate, tridentate and multidentate ligands and to apply them in heterogenous catalysis. For each type of the ligands, new methods of synthesis were developed. Starting from 1,1'-(pyridine-2,6-diyl)diethanone and dimethylpyridine-2,6-dicarboxylate different bispyrazolpyridines were
synthesized and novel ruthenium complexes of the type (L)(NNN)RuCl2 could be obtained. The complexes with L = triphenylphosphine turned out to be highly efficient
catalyst precursors for the transfer hydrogenation of aromatic ketones. Introduction of a butyl group in the 5-positions of the pyrazoles leads to a pronounced increase of catalytic activity.
To find a method for the synthesis of bispyrimidinepyridines, different reactants and condition were applied and it was found that these tridentate ligands can be obtained by mixing and grinding the tetraketone with guanidinium carbonate and silica, which plays the role of a catalyst in this ring closing reaction.
The bidentate 2-amino-4-(2-pyridinyl)pyrimidines were synthesized from different substrates according to the desired substituent on the pyrimidine ring.
Reacting these bidentate ligands with the ruthenium(II) precursor [(η6-cymene)Ru(Cl)(μ
2-Cl)]2 gave cationic ruthenium(II) complexes of the type [(η6-cymene)Ru(Cl)(adpm)]Cl (adpm = chelating 2-amino-4-(2-yridinyl)pyrimidine ligand). Stirring the freshly prepared complexes with either NaBPh4, NaBF4 or KPF6, the chloride anion was exchanged against other coordinating anions (BF4-, PF6-, BPh4-).Some of these ruthenium complexes have shown very special activities in the transfer hydrogenation of ketones by reacting them in the absence of the base. This led to detailed investigations on the mechanism of this reaction. According to the activities and with the help
of ESI-MS experiments and DFT calculations, a mechanism was proposed for the transfer hydrogenation of acetophenone in the absence of the base. It shows that in the absence of the base, a C-H bond activation at the pyrimidine ring should occur to activate the catalyst.
The palladium complexes of bidentate N,N ligands were examined in coupling reactions. As expected, they did not show very special activities.
Multidentate ligands, having pyrimidine groups as relatively soft donors for late transition metals and simultaneously possessing a binding position for a hard Lewis-acid, could be obtained using the new synthesized bidentate and tridentate ligands.
The development of autonomous vehicle systems demands the increased usage of software based control mechanisms. Generally, this leads to very complex systems, whose proper functioning has to be ensured. In our work we aim at investigating and assessing the potential effects of software issues on the safety, reliability and availability of complex embedded autonomous systems. One of the key aspects of the research concerns the mapping of functional descriptions in form of integrated behavior-based control networks to State-Event Fault Tree models.
Sport und Bewegung sind seit jeher wesentliche Bestandteile des öffentlichen Lebens. Der in den letzten Jahren erkennbare und sich weiter verstärkende demographische und gesellschaftliche Wandel führt allerdings zu einer Veränderung des Sport- und Bewegungsverhaltens und damit auch der Nachfrage nach Sportstätten und Bewegungsräumen. Die sich zunehmend verändernde Situation von Sport und Bewegung findet bislang weder auf der politischen Ebene noch auf der Ebene der kommunalen Planung ausreichend Berücksichtigung. Vor dem Hintergrund stetig steigender Bedarfe zur Sicherung der kommunalen Daseinsvorsorge müssen jedoch zeitnah Lösungen gefunden werden, die den veränderten Rahmenbedingungen auch zukünftig gerecht werden. Ausgehend hiervon befasst sich das in den Jahren 2011 und 2012 durchgeführte Forschungs- und Entwicklungsprojekt „Gesunde Kommune – Sport und Bewegung als Faktor der Stadt- und Raumentwicklung“ mit der Bedeutung von Sport und Bewegung für die rheinland-pfälzischen Kommunen und verfolgt das Ziel, Verknüpfungen zwischen räumlichen und sportlichen Entwicklungsfeldern zu erschließen sowie Möglichkeiten zur gezielten Nutzung von Sport und Bewegung für die nachhaltige Raumentwicklung aufzuzeigen. Die raumwirksamen Leistungen von Sport und Bewegung werden hierbei unter den Aspekten Gesundheit, Ökonomie, Ökologie und Soziales betrachtet. Ein wesentliches Projektziel bildete darüber hinausgehend die Bewusstseinsbildung und Sensibilisierung aller relevanten Akteure auf Landes- und Kommunalebene. Das Projekt wurde Erarbeitet durch den Lehrstuhl Stadtplanung der TU Kaiserslautern in Kooperation mit dem Fachgebiet Sportwissenschaft der TU Kaiserslautern im Auftrag der Entwicklungsagentur Rheinland-Pfalz e.V.. Die Dokumentation und Veröffentlichung erfolgte sowohl im Rahmen eines Projektberichts 2011 sowie eines Abschlussberichts 2012.
Gesunde Kommune - Sport und Bewegung als Faktor der Stadt- und Raumentwicklung - Projektbericht 2011
(2012)
Sport und Bewegung sind seit jeher wesentliche Bestandteile des öffentlichen Lebens. Der in den letzten Jahren erkennbare und sich weiter verstärkende demographische und gesellschaftliche Wandel führt allerdings zu einer Veränderung des Sport- und Bewegungsverhaltens und damit auch der Nachfrage nach Sportstätten und Bewegungsräumen. Die sich zunehmend verändernde Situation von Sport und Bewegung findet bislang weder auf der politischen Ebene noch auf der Ebene der kommunalen Planung ausreichend Berücksichtigung. Vor dem Hintergrund stetig steigender Bedarfe zur Sicherung der kommunalen Daseinsvorsorge müssen jedoch zeitnah Lösungen gefunden werden, die den veränderten Rahmenbedingungen auch zukünftig gerecht werden. Ausgehend hiervon befasst sich das in den Jahren 2011 und 2012 durchgeführte Forschungs- und Entwicklungsprojekt „Gesunde Kommune – Sport und Bewegung als Faktor der Stadt- und Raumentwicklung“ mit der Bedeutung von Sport und Bewegung für die rheinland-pfälzischen Kommunen und verfolgt das Ziel, Verknüpfungen zwischen räumlichen und sportlichen Entwicklungsfeldern zu erschließen sowie Möglichkeiten zur gezielten Nutzung von Sport und Bewegung für die nachhaltige Raumentwicklung aufzuzeigen. Die raumwirksamen Leistungen von Sport und Bewegung werden hierbei unter den Aspekten Gesundheit, Ökonomie, Ökologie und Soziales betrachtet. Ein wesentliches Projektziel bildete darüber hinausgehend die Bewusstseinsbildung und Sensibilisierung aller relevanten Akteure auf Landes- und Kommunalebene. Das Projekt wurde Erarbeitet durch den Lehrstuhl Stadtplanung der TU Kaiserslautern in Kooperation mit dem Fachgebiet Sportwissenschaft der TU Kaiserslautern im Auftrag der Entwicklungsagentur Rheinland-Pfalz e.V..
This thesis deals with the relationship between no-arbitrage and (strictly) consistent price processes for a financial market with proportional transaction costs
in a discrete time model. The exact mathematical statement behind this relationship is formulated in the so-called Fundamental Theorem of Asset Pricing (FTAP). Among the many proofs of the FTAP without transaction costs there
is also an economic intuitive utility-based approach. It relies on the economic
intuitive fact that the investor can maximize his expected utility from terminal
wealth. This approach is rather constructive since the equivalent martingale measure is then given by the marginal utility evaluated at the optimal terminal payoff.
However, in the presence of proportional transaction costs such a utility-based approach for the existence of consistent price processes is missing in the literature. So far, rather deep methods from functional analysis or from the theory of random sets have been used to show the FTAP under proportional transaction costs.
For the sake of existence of a utility-maximizing payoff we first concentrate on a generic single-period model with only one risky asset. The marignal utility evaluated at the optimal terminal payoff yields the first component of a
consistent price process. The second component is given by the bid-ask prices
depending on the investors optimal action. Even more is true: nearby this consistent price process there are many strictly consistent price processes. Their exact structure allows us to apply this utility-maximizing argument in a multi-period model. In a backwards induction we adapt the given bid-ask prices in such a way so that the strictly consistent price processes found from maximizing utility can be extended to terminal time. In addition possible arbitrage opportunities of the 2nd kind vanish which can present for the original bid-ask process. The notion of arbitrage opportunities of the 2nd kind has been so
far investigated only in models with strict costs in every state. In our model
transaction costs need not be present in every state.
For a model with finitely many risky assets a similar idea is applicable. However, in the single-period case we need to develop new methods compared
to the single-period case with only one risky asset. There are mainly two reasons
for that. Firstly, it is not at all obvious how to get a consistent price process
from the utility-maximizing payoff, since the consistent price process has to be
found for all assets simultaneously. Secondly, we need to show directly that the
so-called vector space property for null payoffs implies the robust no-arbitrage condition. Once this step is accomplished we can à priori use prices with a
smaller spread than the original ones so that the consistent price process found
from the utility-maximizing payoff is strictly consistent for the original prices.
To make the results applicable for the multi-period case we assume that the prices are given by compact and convex random sets. Then the multi-period case is similar to the case with only one risky asset but more demanding with regard to technical questions.
Die Arbeit zielt im Wesentlichen auf die Berücksichtigung der aus technischen Anlagen resultierenden Risiken in der räumlichen Planung durch Vorsorge ab und verbindet diese Elemente mit der inhaltlichen, sachlichen sowie zeitlichen Steuerung räumlicher Nutzungsentwicklung
hinsichtlich ihrer Ordnung und Entwicklung auf strategischer und operativer Planungsebene. Die Thematisierung des Risikos wird anhand der verwendeten Konzepte in der Risikoforschung,
der Analyse und der Bewältigung von Risiken durchgeführt. Im Folgenden wird die Relevanz
technischer Risiken als integrativer Bestandteil der Raumplanung und in diesem Zusammenhang
als eine zu bewältigende Aufgabe im Rahmen der Stadtplanung und Stadtentwicklung
dargestellt.
Dies wird durch die synoptische Zusammenstellung der historischen Stadtentwicklung und der
Ausformung technischer Risiken sowie durch ihre Bewältigung im Sinne räumlicher Risikovorsorge
anhand der Darstellung bestimmter Entwicklungslinien und Leitbilder verdeutlicht. Diese führen in eine Zusammenstellung planerischer Grundkonstellationen über, die im Wesentlichen
auf den entwicklungsbedingt unterschiedlichen Konstellationen risikobezogener Nachbarschaften
unverträglicher Nutzungen beruhen und einer vorsorgebezogen- räumlichen Bewältigung
bedürfen.
Die Fokussierung auf rechtliche Rahmenbedingungen spannt den Bogen zur normativen Umsetzung
räumlicher Risikovorsorge und ihren differenzierten Ausprägungen im Raumplanungsund
Umweltrecht. Als besonders belangvoll werden dabei die europarechtlichen Vorgaben des
Land Use Planning im Art. 12 der Richtlinie 96/82/EG – Seveso II- Richtlinie und ihre Übertragungen
auf nationalstaatlicher Ebene dargestellt und die Umsetzungsgrenzen diskutiert.
Die konzeptionelle Realisierung des Schutzes vor den Auswirkungen technischer Risiken wird anhand der Leitfadenerstellung der Kommission für Anlagensicherheit (KAS) zur Umsetzung räumlicher Risikovorsorge durch langfristige Schaffung und die dauerhafte Sicherung von Abständen zwischen Betriebsbereichen der Störfall- Verordnung sowie schutzbedürftigen Gebieten
im Rahmen der Bauleitplanung dargestellt.
Auf dieser Basis wird eine Modellentwicklung räumlicher Vorsorge auf überörtlicher und örtlicher Ebene durchgeführt. Diese bildet die strategischen und operativen Vorsorgeelemente auf die Ebenen der Standort-, Abstands- sowie Entwicklungsplanung ab. Die Umsetzung auf instrumenteller
Ebene erfolgt durch die Verbindung der entwickelten Modellelemente auf
raumordnerischer sowie bauleitplanerischer Ebene mit den raumrelevanten Erfordernissen
räumlicher Risikovorsorge im planerischen Störfallschutz.
Dies betrifft nicht nur Neuplanungen, sondern insbesondere die Beachtung der Anforderungen
bei Entwicklungen im Siedlungsbestand hinsichtlich der Abbildung privater und öffentlicher
Aspekte des planerischen Störfallschutzes. Die heterogene Entwicklung und Vorsorge von Betriebsstandorten
und Siedlungen werden dabei hinsichtlich ihrer risikovorsorgebezogenen
Adaptionsfähigkeit überprüft. Dies schließt im Weiteren auch eine Betrachtung und Überprüfung instrumenteller Ausgestaltungsmöglichkeiten und ihrer Alternativen unter raum- und stadtplanerischen Gesichtspunkten mit in die Überlegungen ein.
Capital budgeting or investment decisions have an essential influence on companies’ performance. Instead of a rational choice, capital budgeting might be regarded as a process of reality construction. Research suggests that decision makers have only limited control over their own cognitive biases in this construction process. It is in this perspective that this paper intends to answer the following research question: What are behavioral determinants for a successful capital-budgeting decision process? The authors identify and discuss three behavioral success factors (reflective prudence, critical communication and outcome independence) for five stages of the capital budgeting process against the backdrop of the findings of the managerial and organizational cognition theory and cognitive psychology.
Im Projekt MAFoaM - Modular Algorithms for closed Foam Mechanics - des
Fraunhofer ITWM in Zusammenarbeit mit dem Fraunhofer IMWS wurde eine Methode zur Analyse und Simulation geschlossenzelliger PMI-Hartschäume entwickelt. Die Zellstruktur der Hartschäume wurde auf Basis von CT-Aufnahmen modelliert, um ihr Verformungs- und Versagensverhalten zu simulieren, d.h. wie sich die Schäume unter Belastungen bis hin zum totalen Defekt verhalten.
In der Diplomarbeit wird die
bildanalytische Zellrekonstruktion für PMI-Hartschäume automatisiert. Die Zellrekonstruktion dient der Bestimmung von Mikrostrukturgrößen,
also geometrischer Eigenschaften der Schaumzellen, wie z.B.
Mittelwert und Varianz des Zellvolumens oder der Zelloberfläche.
A simple transformation of the Equation of Motion (EoM) allows us to directly integrate nonlinear structural models into the recursive Multibody System (MBS) formalism of SIMPACK. This contribution describes how the integration is performed for a discrete Cosserat rod model which has been developed at the ITWM. As a practical example, the run-up of a simplified three-bladed wind turbine is studied where the dynamic deformations of the three blades are calculated by the Cosserat rod model.
Predicting secondary structures of RNA molecules is one of the fundamental problems of and thus a challenging task in computational structural biology. Existing prediction methods basically use the dynamic programming principle and are either based on a general thermodynamic model or on a specific probabilistic model, traditionally realized by a stochastic context-free grammar. To date, the applied grammars were rather simple and small and despite the fact that statistical approaches have become increasingly appreciated over the past years, a corresponding sampling algorithm based on a stochastic RNA structure model has not yet been devised. In addition, basically all popular state-of-the-art tools for computational structure prediction have the same worst-case time and space requirements of O(n^3) and O(n^2) for sequence length n, limiting their applicability for practical purposes due to the often quite large sizes of native RNA molecules. Accordingly, the prime demand imposed by biologists on computational prediction procedures is to reach a reduced waiting time for results that are not significantly less accurate.
We here deal with all of these issues, by describing algorithms and performing comprehensive studies that are based on sophisticated stochastic context-free grammars of similar complexity as those underlying thermodynamic prediction approaches, where all of our methods indeed make use of the concept of sampling. We also employ the approximation technique known from theoretical computer science in order to reach a heuristic worst-case speedup for RNA folding.
Particularly, we start by describing a way for deriving a sequence-independent random sampler for an arbitrary class of RNAs by means of (weighted) unranking. The resulting algorithm may generate any secondary structure of a given fixed size n in only O(n·log(n)) time, where the results are observed to be accurate, validating its practical applicability.
With respect to RNA folding, we present a novel probabilistic sampling algorithm that generates statistically representative and reproducible samples of the entire ensemble of feasible structures for a particular input sequence. This method actually samples the possible foldings from a distribution implied by a suitable (traditional or length-dependent) grammar. Notably, we also propose several (new) ways for obtaining predictions from generated samples. Both variants have the same worst-case time and space complexities of O(n^3) and O(n^2) for sequence length n. Nevertheless, evaluations of our sampling methods show that they are actually capable of producing accurate (prediction) results.
In an attempt to resolve the long-standing problem of reducing the time complexity of RNA folding algorithms without sacrificing much of the accuracy of the results, we invented an innovative heuristic statistical sampling method that can be implemented to require only O(n^2) time for generating a fixed-size sample of candidate structures for a given sequence of length n. Since a reasonable prediction can still efficiently be obtained from the generated sample set, this approach finally reduces the worst-case time complexity by a liner factor compared to all existing precise methods. Notably, we also propose a novel (heuristic) sampling strategy as opposed to the common one typically applied for statistical sampling, which may produce more accurate results for particular settings. A validation of our heuristic sampling approach by comparison to several leading RNA secondary structure prediction tools indicates that it is capable of producing competitive predictions, but may require the consideration of large sample sizes.
Molybdänoxobisperoxokomplexe von Pryrazolylpryridinliganden sind Katalysatoren für die Epoxidierung von Olefinen (Alkenen). Bereits in früheren Arbeiten der Arbeitsgruppe Thiel zeigte sich, dass das Verhältnis der beiden Isomere der Komplexe (Isomer A: Pyrazolring in trans-Position zur Oxogruppe und Isomer B: Pyridinring in trans-Position zur Oxogruppe) in Lösung vom Substitutionsmuster am Pyrazolring abhängt. Außerdem konnte eine Abhängigkeit der turn-over-Frequenz (TOF, katalytische Aktivität) bei der Epoxidierung vom Isomerenverhältnis A:B der Komplexe beobachtet werden. Spektroskopische und theoretische Betrachtungen der Arbeitsgruppe Thiel führten zu einer näheren Aufklärung des Katalysemechanismuses. Die Ursachen für die Korrelation der TOF und des Isomerenverhältnisses von den elektronischen Eigenschaften der Substituenten am Pyrazolring konnten aber nicht gefunden werden. Das Ziel dieser Arbeit war deshalb eine nähere Betrachtung der elektronischen Verhältnisse in Molybdänoxobisperoxokomplexen von Pyrazolylpyridinen. Dazu wurde eine kombinierte experimentelle und elektronische Ladungsdichtestudie in Zusammenarbeit mit dem AK Scherer der Universität Augsburg durchgeführt, um die Beziehung zwischen Ligandstruktur und den beobachteten katalytischen Aktivitäten näher zu untersuchen. Aus den Untersuchungen konnten eine Reihe wichtiger Erkenntnisse über die Ausprägung elektronenreicher und –armer Positionen in den Komplexen gewonnen werden, die Rückschlüsse auf Reaktionswege und Aktivitäten zulassen. Unteranderem konnte eine gute Erklärung für die Abhängigkeit des Isomerenverhältnisses in Lösung vom Substitutionsmuster am Pyrazolring abgeleitet werden. Eine schlüssige Erklärung für die Abhängigkeit der TOF bei der Epoxidierung ließ sich daraus jedoch nicht entnehmen. In diesem Zusammenhang konnte aber eine bisher angenommene mögliche Erklärung für diese Beobachtung, durch eine 195Pt-NMR-Studie an Pyrazolylpyridindichloroplatin(II)komplexen untermauert werden. Die Lage des Signals für das Platinzentralatom war in den 195Pt-NMR-Spektren verschiedener Platinkomplexe mit unterschiedlich substituierten Pyrazolylpyridinliganden unterschiedlich. Es konnte eine Korrelation zwischen der Lage des Signals und den elektronischen Eigenschaften der Substituenten aufgestellt werden, die erkennen lässt, dass das Metallzentrum von den elektronenziehenden oder –schiebenden Substituenten am Pyrazolring beeinflusst wird. Diese Erkenntnis bestärkt die bisherige Annahme, dass eine mögliche Ursache für die Abhängigkeit der TOF bei der molybdänkatalysierten Epoxidierung, die Beeinflussung der Lewisazidität des Molybdänzentrums durch die Substituenten am Pyrazolring ist. Weiterhin wurden im Rahmen dieser Arbeit, neben der Synthese einer Vielzahl an Pyrazolylpyridinliganden und den entsprechenden Molybdän(VI)oxobisperoxo- und Dichloroplatin(II)komplexen, verschieden substituierte Pyridinylpyrimidine und 4,4‘-Bipyrimidine synthetisiert.
This thesis addresses challenges faced by small package shipping companies and investigates the integration of 1) service consistency and driver knowledge aspects and 2) the utilization of electric vehicles into the route planning of small package shippers. We use Operations Research models and solution methods to gain insights into the newly arising problems and thus support managerial decisions concerning these issues.
Wechselnde Umweltbedingungen wie Temperaturveränderungen oder der Zugang zu Nährstoffen erfordern spezielle genetische Anpassungsprogramme, vor allem von sessilen Organismen wie Pflanzen. Ein solcher hochkonservierter Mechanismus, der unter anderem vor Temperaturspitzen schützt, ist die von Hitzeschockfaktoren (HSF) kontrollierte Hitzeschockantwort (HSR). Dabei werden vermehrt spezifische Hitzestressproteine (HSPs, Chaperone) gebildet, die Proteine vor Denaturierung schützen. In Pflanzen hat sich ein hochkomplexes regulatorisches Netzwerk gebildet, das aus über 20 HSFs besteht, das eine genaue Feinabstimmung der HSR auf die jeweiligen Stressbedingungen erlaubt.
Das hohe Maß an Komplexität der HSR in Pflanzen erschwert die wissenschaftliche Zugänglichkeit jedoch erheblich. Um die grundlegenden Prinzipien der HSR in Pflanzen zu verstehen griffen wir deshalb auf einen einfacheren Modellorganismus zurück, der Pflanzen sehr nahe steht aber nur einen einzigen HSF (HSF1) enthält, der einzelligen Grünalge Chlamydomonas reinhardtii. Im Rahmen dieser Arbeit wurden dazu drei Ansätze verfolgt.
Als erstes wurden verschiedene chemische Substanzen eingesetzt die unterschiedliche Schritte während der Aktivierung und Abschaltung der HSR hemmen um darüber die Regulation der HSR aufzuklären. Dabei wurde festgestellt, dass die Phosphorylierung von HSF1 eine entscheidende Rolle in der Aktivierung der HSR spielt, das auslösende Momentum die Anhäufung von falsch gefalteten Proteinen ist und das HSP90A aus dem Cytosol eine wichtige modulierende Rolle bei der HSR spielt.
Als zweites wurde die Veränderung sämtlicher Transkripte mithilfe von Microarrays gemessen, um vor allem pflanzenspezifische Prozesse zu identifizieren, die auf erhöhte Temperaturen gezielt angepasst werden müssen. Dabei konnte die Chlorophyll Biosynthese und der Transport von Proteinen in den Chloroplasten als neue, pflanzenspezifische Ziele der Stressantwort identifiziert werden. Des Weiteren konnte direkt gezeigt werden, das HSF1 auch plastidäre Chaperone reguliert, im Gegensatz zu mitochondrialen Chaperonen die getrennt gesteuert werden.
Als letztes wurde gezielt die Expression wichtiger Gene für die Stressantwort (HSF1/HSP70B) unterdrückt, um den Einfluss dieser Gene auf die HSR genauer zu studieren. Dazu habe ich ein in der einzelligen Grünalge neuartiges System entwickelt, basierend auf dem RNAi Mechanismus, dass es erlaubt abhängig von der Stickstoffquelle im Nährmedium auch essentielle Gene gezielt auszuschalten. Dieses System erlaubte es zu zeigen, dass HSF1 selbst während des Stresses die Expression seiner RNA erhöht, und dies gezielt tut um die Stressantwort weiter zu verstärken. Es konnte weiter gezeigt werden, dass das Chloroplasten Chaperon HSP70B ein essentielles Protein für das Zellwachstum ist, welches mithilfe des induzierbaren RNAi Systems genauer untersucht werden kann. Dabei wurde festgestellt, dass die HSP70B vermittelte Assemblierung und Disassemblierung des VIPP1 Proteins entscheidend ist für dessen Funktion in der Zelle. Des Weiteren konnte gezeigt werde, dass HSP70B wahrscheinlich verantwortlich ist für die Faltung eines oder mehrerer noch unbekannter Enzyme der Arginin Biosynthese oder der Stickstofffixierung, und das diese Prozesse wahrscheinlich die essentielle Funktion von HSP70B darstellen.
Im Bereich der Automobilelektronik ist eine Zunahme an Fahrerassistenzsystemen zu bemerken, die den Fahrer neben einer warnenden Funktion durch autonomes aktives Eingreifen in seiner Fahraufgabe unterstützen. Dadurch entsteht eine hohe Anforderung an die funktionale Sicherheit dieser Systeme, um ein einwandfreies Verhalten in allen Fahrsituationen zu garantieren und sicherheitskritische Situationen zu vermeiden oder zu entschärfen. Die funktionale Sicherheit derartiger Fahrerassistenzsysteme muss u. a. durch adäquate Testmethoden und einen effizienten Umgang damit innerhalb der etablierten industriellen Entwicklungsprozesse erhöht und sichergestellt werden.
Diese Arbeit bietet einen Überblick über existierende wissenschaftliche wie industrielle Ansätze zum Testen von Automobilelektronik sowie über aktive Fahrerassistenzsysteme. Der Schwerpunkt wird dabei auf diejenigen Systeme gelegt, die Informationen über ihre Umgebung aus Kamerasensoren gewinnen. Aus der Herausforderung, die funktionale Absicherung derart sicherheitskritischer Systeme zu gewährleisten, werden spezifische Anforderungen abgeleitet. Aus dem „Delta“ zwischen Anforderungen und Stand der Technik ergibt sich ein Handlungsbedarf, um neue Methoden und für deren Anwendung nötige Vorgehensweisen und Werkzeuge zu erforschen bzw. bestehende zu erweitern.
Die Methode des „Visual Loop Tests“ wird dafür vorgestellt. Sie kann durch die Anwendung sog. Grafik-Engines als neuer Bestandteil der Test-Technologien zur Absicherung eingesetzt werden. Dabei werden fotorealistische Grafiken zur Stimulation der Assistenzsysteme erzeugt. Die für die effiziente Anwendung dieser Technologien benötigten neuen Vorgehensweisen zur Beschreibung und Erzeugung von Testfällen in einem visuell repräsentierbaren Format werden erarbeitet.
Dadurch können moderne Assistenzfunktionen gleichzeitig effizienter, zuverlässiger, sicherer und kostengünstiger entwickelt werden und die Sicherheit auf den Straßen wird erhöht. Die erste empirische Bewertung im Rahmen der prototypischen Umsetzung bestärkt diese Einschätzung.
Durch die Verwendung der in den letzten Jahren neu entwickelten metallorganischen Koordinationspolymere als Adsorbentien, kann im Allgemeinen eine schwächere Affinität zu Kohlendioxid im Vergleich zu Zeolithen beobachtet werden. Diese neue Klasse an porösen Materialien verspricht herausragende Eigenschaften aufgrund ihrer hohen spezifischen Oberfläche und großer Porenvolumina. Im Rahmen dieser Arbeit wurden einige Vertreter der metallorganischen Koordinationspolymere auf ihre Adsorptionsfähigkeit auf Kohlendioxid hin untersucht. Zwei Materialien dieser Gruppe wurden aufgrund ihrer chemischen, mechanischen und thermischen Eigenschaften ausgewählt. Es handelte sich um die beiden Adsorbentien HKUST-1 und MIL-53 (Al), die in der Arbeitsgruppe selbst synthetisiert, charakterisiert und vermessen wurden. Damit ein wirtschaftliches und resourcenschonendes Verfahren basierend auf Adsorption entwickelt werden kann, werden Daten bezüglich der Adsorptionskapazität, der Kinetik und Trennfaktoren benötigt. Zur Untersuchung des Adsorptionsgleichgewichts und der Diffusion wurden Adsorptionsisothermen (der reinen Gase Kohlendioxid, Methan und Stickstoff) und Durchbruchskurven mit Modellmischungen aus Methan / Kohlendioxid (Biogas) und Stickstoff / Kohlendioxid (Rauchgas) aufgenommen. Es ergeben sich im Fall von HKUST-1 Kapazitäten für Kohlendioxid bis zu 22,7 Gew.-% bei einem Druck von 100 kPa und einer Temperatur von 293 K. Aus den Daten der gemessenen Adsorptionsisothermen wurden die Mehrkomponentenbeladungen nach IAST, Multi-Langmuir sowie dem Modell von Multi-Freundlich berechnet. Die hierbei größten beobachteten Abweichungen zwischen Berechnung und Messung ergaben sich für HKUST-1. Die freie Koordinationsstelle bestimmt die Wechselwirkung zwischen den beiden Adsorptiven Kohlendioxid und Methan weitgehend, sodass die eingesetzten Modelle das Gleichgewicht nicht hingehend genau wiedergeben können. Bei MIL-53 (Al) zeigen sich relativ gute Übereinstimmungen mit den verwendeten Modellen und den ermittelten Mehrkomponentenbeladungen mit Methan und Kohlendioxid.
Hadoop ist ein beliebtes Framework für verteilte Berechnungen über große
Datenmengen (Big Data) mittels MapReduce. Hadoop zu verwenden ist einfach: Der
Entwickler definiert die Eingabedatenquelle und implementiert die beiden
Methoden Map und Reduce. Über die verteilte Berechnung und Fehlerbehandlung muss
er sich dabei keine Gedanken machen, das erledigt das Hadoop-Framework.
Allerdings kann die Analyse von Big Data sehr lange dauern und da sich die
Eingabedaten jede Sekunde ändern, ist es vielleicht nicht immer die beste
Idee, die vollständige Berechnung jedes Mal aufs Neue auf die kompletten
Eingabedaten anzuwenden. Es wäre geschickter, sich das Ergebnis der
vorherigen Berechnung zu betrachten und nur die Deltas zu analysieren, also
Daten, die seit der letzten Berechnung hinzugefügt oder gelöscht wurden. In dem Gebiet der
selbstwartbaren materialisierten Sichten in relationalen Datenbanksystemen gibt
es bereits mehrere Ansätze, die sich mit der Lösung dieses Problems
beschäftigen. Eine Strategie liest nur die Deltas und inkrementiert oder
dekrementiert die Ergebnisse der vorherigen Berechnung. Allerdings ist diese
Inkrement-Operation sehr teuer, deshalb ist es manchmal besser, das komplette
alte Ergebnis zu lesen und es mit den Deltas der Eingabedaten zu kombinieren.
In dieser Masterarbeit wird ein neues Framework namens Marimba vorgestellt,
welches sich genau um diese Probleme der inkrementellen Berechnung kümmert. Einen
Map\-Re\-duce-Job in Marimba zu schreiben ist genau so einfach wie einen Hadoop-Job.
Allerdings werden hier keine Mapper- und Reducer-Klasse implementiert, sondern
eine Translator- und Serializer-Klasse. Der Translator ähnelt dem Mapper: Er
bestimmt, wie die Eingabedaten gelesen und daraus Zwischenwerte berechnet
werden. Der Serializer erzeugt die Ausgabe des Jobs. Wie diese Ausgabe berechnet
wird, gibt der Benutzer durch Implementierung einiger Methoden an, um Werte zu
aggregieren und invertieren.
Vier MapReduce-Jobs, darunter auch das Paradebeispiel für MapReduce WordCount,
wurden im Marimba-Framework implementiert. Das Entwickeln von inkrementellen
Map-Reduce-Jobs ist mit dem Framework extrem einfach geworden. Außerdem konnte
mit Performanztests gezeigt werden, dass die inkrementelle Berechnung deutlich
schneller ist als eine vollständige Neuberechnung.
Ein weiterer unter den vier implementierten Jobs berechnet
Wortauftrittswahrscheinlichkeiten in geschriebenen Sätzen. Dies kann
beispielsweise für Spracherkennung verwendet werden. Wenn ein Wort in einer
gesprochenen SMS nicht richtig verstanden wurde, hilft der Algorithmus zu raten,
welches Wort am wahrscheinlichsten an einer bestimmten Stelle stehen könnte,
abhängig von den vorherigen Wörtern im Satz. Damit dieser Algorithmus auch
brauchbare Ergebnisse liefert, ist die Menge und die Qualität der Eingabedaten
wichtig. Durchaus brauchbare Ergebnisse wurden durch die Verarbeitung von
Millionen von Twitter-Feeds, die deutsche Twitter-Nutzer in den letzten Monaten
geschrieben haben, erreicht.
Die weltweite Verbreitung Penicillin-resistenter Bakterienstämme, darunter auch S. pneumoniae, stellt ein erhebliches medizinisches Problem dar. Resistenzen gegen Antibiotika können mittels horizontalem Gentransfer zwischen verschiedenen Streptokokken-Spezies ausgetauscht und somit verbreitet werden. In diesem Zusammenhang ist es wichtig die Vorgänge bei der Entstehung und Ausbreitung der β-Lactamresistenz zu verstehen. Im Fokus dieser Arbeit stand die Analyse des horizontalen Gentransfers zwischen den beiden Spezies Streptococcus mitis und Streptococcus pneumoniae und die daraus resultierende Entwicklung der β-Lactamresistenz.
Ausgangspunkt dieser Arbeit war die CCCB-Transformantenfamilie, welche durch die sukzessive Transformation von S. pneumoniae R6 mit chromosomaler DNA von S. mitis B6 und Selektion mit β-Lactamantibiotika generiert wurde. Dabei konnten bisher ungeklärte Faktoren der Resistenzentwicklung dieser Stämme identifiziert werden. Im Rahmen dieser Arbeit wurde eindeutig bewiesen, dass PBP2a in Kombination mit PBP2x aus S. mitis B6 einen entscheidenden Beitrag zur β-Lactamresistenz leistet.
Ein weiterer Schwerpunkt dieser Arbeit bestand in der Charakterisierung der Ursache des Resistenzunterschieds zwischen CCCB und CCCO. Diese zwei hochresistenten Stämme der vierten Transformationsstufe weisen scheinbar das gleiche Profil nieder-affiner Varianten aller fünf hochmolekularen PBP auf. Es konnte im Zuge dieser Arbeit gezeigt werden, dass das murM Gen aus S. mitis B6 lediglich in CCCB ausgetauscht wurde. Weiterführende Experimente bestätigten, dass sowohl MurMB6 als auch MurMHu17 aus einem resistenten S. pneumoniae Isolat, das über einen nahezu identischen Mosaikblock wie MurMB6 verfügt, erhöhte β-Lactamresistenz vermitteln. Das Mosaik-MurMB6 trägt somit entscheidend zur höheren Resistenz von CCCB bei. Zudem wurde nachgewiesen, dass der Resistenzunterschied zwischen CCCB und CCCO zusätzlich durch die Anwesenheit des kompletten PBP2bB6 in CCCB verursacht wird. Dabei konnte herausgestellt werden, dass die Aminosäuresubstitutionen des C-Terminus von PBP2bB6, die in CCCO nicht vorhanden sind, eine zentrale Rolle bei der Entwicklung von β-Lactamresistenz spielen.
Ein weiterer Fokus dieser Arbeit lag auf der Identifizierung möglicher neuer Resistenzdeterminanten, welche von S. mitis B6 auf den bereits hochresistenten Stamm CCCB übertragen werden könnten. Durch die Transformation chromosomaler S. mitis B6 DNA in CCCB und Selektion mit diversen β-Lactamantibiotika konnten Stämme mit erhöhter β-Lactamresistenz isoliert werden. DNA-Microarray-Analysen dieser CCCB-Derivate dienten der Detektion möglicher übertragener Gene. Anstelle ausgetauschter, intakter Genloci zeigten diese Mutanten jedoch die Inaktivierung der Gene spr0683 bzw. spr1851. Im Rahmen dieser Arbeit wurde gezeigt, dass der beobachtete Resistenzanstieg aus der Deletion dieser beiden Gene resultiert. Beide Gene kodieren für hypothetische Proteine mit potentiellen Nukleinsäure-bindenden R3H- bzw. KH-Domänen. Die genaue Funktion beider Domänen ist nicht bekannt. Transkriptionsanalysen der Deletionsderivate von spr0683 und spr1851 dienten als Screening-Methode für einen möglichen durch das Fehlen der Gene beeinflussten Effekt auf transkriptioneller Ebene. Die veränderte Genexpression einer möglichen Resistenzdeterminante (ClpL) deutete zunächst auf einen möglichen Zusammenhang mit den Resistenzphänotypen der Deletions-derivate hin. Weiterführende Versuche widerlegten dies jedoch. Zukünftige Untersuchungen müssten noch offene Fragen hinsichtlich der potentiellen Funktion der beiden hypothetischen Proteine klären.
Die immer höheren Kosten für Energie und die Verknappung der natürlichen Ressourcen steigern die Bedeutung der Forschung an Katalysatoren für die chemische Synthese. Da die Herstellung geeigneter Katalysatoren zeitintensiv und teuer ist, sowohl durch den Einsatz von Edelmetallen als katalytisch aktivem Zentrum, als auch durch Verwendung von aufwändig synthetisierten Ligandsystemen, liegt der Fokus der Industrie auf heterogen katalysierten Verfahren. Im Arbeitskreis Thiel werden bereits seit längerer Zeit Pyrazolylpyridine als Chelatliganden für Übergangsmetallkomplexe synthetisiert, da sie leicht funktionalisierbar und damit in ihren elektronischen Eigenschaften modifizierbar sind. Ziel der vorliegenden Dissertation war die Synthese neuer Pyrazolyl- und Triazolylpyridine, die durch ihre funktionellen Gruppen eine einfache Heterogenisierung auf einem Trägermaterial ermöglichen, und so die Synthese von heterogenisierten Katalysatoren erlauben. Die Wahl fiel hierbei auf Ester- bzw. Chloridfunktionen, da die erfolgreiche Anbindung dieser Gruppen auf Trägermaterialien bereits bekannt ist. Die erfolgreiche Herstellung der an Position 5 des Azolylrings funktionalisierten Liganden gelang durch Synthese der Pyrazolylpyridine über eine Pyridylpyranonzwischenstufe bzw. durch Verwendung von Anhydriden als Edukte.
In einem zweiten Schritt wurde das nächste Ziel, die Anbindung der hergestellten Liganden auf ein Trägermaterial, durch die Verwendung von Amin- und Imidazolfunktionalisierten Kieselgelen realisiert. Die erfolgreiche Synthese konnte durch Festkörper-NMR-Analytik bestätigt werden. Sowohl die freien, als auch die heterogenisierten Liganden wurden nun verwendet, um Übergangsmetallkomplexe zu synthetisieren. Es wurden Palladium(II)komplexe, ausgehend von Bis(benzonitril)palladium(II)dichlorid und Ruthenium(II)komplexe, ausgehend von Carbonylhydridotris(triphenylphosphan)ruthenium(II)chlorid, Tetrakis(dimethylsulfoxid)ruthenium(II)dichlorid und Dichlorido(\eta^{6} -para-cymol)ruthenium(II)dimer hergestellt und charakterisiert.
Ebenfalls wurde die Eignung dieser Übergangsmetallkomplexe als Katalysatoren für chemische Reaktionen getestet. Die Palladiumkomplexe wurden in der Suzuki-Kupplung von Phenylhalogeniden mit Phenylboronsäure getestet. Die Eignung der Rutheniumverbindungen als Hydrierkatalysatoren wurde zum einen in der Hydrierung von CO2 zu Ameisensäure, zum anderen in der Transferhydrierung von Acetophenon untersucht. Dabei zeigte sich besonders eine gute Aktivität der Rutheniumkomplexe als Katalysatoren in der Transferhydrierung.
Filtering, Approximation and Portfolio Optimization for Shot-Noise Models and the Heston Model
(2012)
We consider a continuous time market model in which stock returns satisfy a stochastic differential equation with stochastic drift, e.g. following an Ornstein-Uhlenbeck process. The driving noise of the stock returns consists not only of Brownian motion but also of a jump part (shot noise or compound Poisson process). The investor's objective is to maximize expected utility of terminal wealth under partial information which means that the investor only observes stock prices but does not observe the drift process. Since the drift of the stock prices is unobservable, it has to be estimated using filtering techniques. E.g., if the drift follows an Ornstein-Uhlenbeck process and without
jump part, Kalman filtering can be applied and optimal strategies can be computed explicitly. Also in other cases, like for an underlying
Markov chain, finite-dimensional filters exist. But for certain jump processes (e.g. shot noise) or certain nonlinear drift dynamics explicit computations, based on discrete observations, are no longer possible or existence of finite dimensional filters is no longer valid. The same
computational difficulties apply to the optimal strategy since it depends on the filter. In this case the model may be approximated by
a model where the filter is known and can be computed. E.g., we use statistical linearization for non-linear drift processes, finite-state-Markov chain approximations for the drift process and/or diffusion approximations for small jumps in the noise term.
In the approximating models, filters and optimal strategies can often be computed explicitly. We analyze and compare different approximation methods, in particular in view of performance of the corresponding utility maximizing strategies.
Paper production is a problem with significant importance for the society and it is a challenging topic for scientific investigations. This study is concerned with the simulations of the pressing section of a paper machine. We aim at the development of an advanced mathematical model of the pressing section, which is able to recover the behavior of the fluid flow within the paper felt sandwich obtained in laboratory experiments.
From the modeling point of view the pressing of the paper-felt sandwich is a complex process since one has to deal with the two-phase flow in moving and deformable porous media. To account for the solid deformations, we use developments from the PhD thesis by S. Rief where the elasticity model is stated and discussed in detail. The flow model which accounts for the movement of water within the paper-felt sandwich is described with the help of two flow regimes: single-phase water flow and two-phase air-water flow. The model for the saturated flow is presented by the Darcy's law and the mass conservation. The second regime is described by the Richards' approach together with dynamic capillary effects. The model for the dynamic capillary pressure - saturation relation proposed by Hassanizadeh and Gray is adapted for the needs of the paper manufacturing process.
We have started the development of the flow model with the mathematical modeling in one-dimensional case. The one-dimensional flow model is derived from a two-dimensional one by an averaging procedure in vertical direction. The model is numerically studied and verified in comparison with measurements. Some theoretical investigations are performed to prove the convergence of the discrete solution to the continuous one. For completeness of the studies, the models with the static and dynamic capillary pressure–saturation relations are considered. Existence, compactness and convergence results are obtained for both models.
Then, a two-dimensional model is developed, which accounts for a multilayer computational domain and formation of the fully saturated zones. For discretization we use a non-orthogonal grid resolving the layer interfaces and the multipoint flux approximation O-method. The numerical experiments are carried out for parameters which are typical for the production process. The static and dynamic capillary pressure-saturation relations are tested to evaluate the influence of the dynamic capillary effect.
The last part of the thesis is an investigation of the validity range of the Richards’ assumption for the two-dimensional flow model with the static capillary pressure-saturation relation. Numerical experiments show that the Richards’ assumption is not the best choice in simulating processes in the pressing section.
In urban planning, both measuring and communicating sustainability are among the most recent concerns. Therefore, the primary emphasis of this thesis concerns establishing metrics and visualization techniques in order to deal with indicators of sustainability.
First, this thesis provides a novel approach for measuring and monitoring two indicators of sustainability - urban sprawl and carbon footprints – at the urban neighborhood scale. By designating different sectors of relevant carbon emissions as well as different household categories, this thesis provides detailed information about carbon emissions in order to estimate impacts of daily consumption decisions and travel behavior by household type. Regarding urban sprawl, a novel gridcell-based indicator model is established, based on different dimensions of urban sprawl.
Second, this thesis presents a three-step-based visualization method, addressing predefined requirements for geovisualizations and visualizing those indicator results, introduced above. This surface-visualization combines advantages from both common GIS representation and three-dimensional representation techniques within the field of urban planning, and is assisted by a web-based graphical user interface which allows for accessing the results by the public.
In addition, by focusing on local neighborhoods, this thesis provides an alternative approach in measuring and visualizing both indicators by utilizing a Neighborhood Relation Diagram (NRD), based on weighted Voronoi diagrams. Thus, the user is able to a) utilize original census data, b) compare direct impacts of indicator results on the neighboring cells, and c) compare both indicators of sustainability visually.
The increasing complexity of modern SoC designs makes tasks of SoC formal verification
a lot more complex and challenging. This motivates the research community to develop
more robust approaches that enable efficient formal verification for such designs.
It is a common scenario to apply a correctness by integration strategy while a SoC
design is being verified. This strategy assumes formal verification to be implemented in
two major steps. First of all, each module of a SoC is considered and verified separately
from the other blocks of the system. At the second step – when the functional correctness
is successfully proved for every individual module – the communicational behavior has
to be verified between all the modules of the SoC. In industrial applications, SAT/SMT-based interval property checking(IPC) has become widely adopted for SoC verification. Using IPC approaches, a verification engineer is able to afford solving a wide range of important verification problems and proving functional correctness of diverse complex components in a modern SoC design. However, there exist critical parts of a design where formal methods often lack their robustness. State-of-the-art property checkers fail in proving correctness for a data path of an industrial central processing unit (CPU). In particular, arithmetic circuits of a realistic size (32 bits or 64 bits) – especially implementing multiplication algorithms – are well-known examples when SAT/SMT-based
formal verification may reach its capacity very fast. In cases like this, formal verification
is replaced with simulation-based approaches in practice. Simulation is a good methodology that may assure a high rate of discovered bugs hidden in a SoC design. However, in contrast to formal methods, a simulation-based technique cannot guarantee the absence of errors in a design. Thus, simulation may still miss some so-called corner-case bugs in the design. This may potentially lead to additional and very expensive costs in terms of time, effort, and investments spent for redesigns, refabrications, and reshipments of new chips.
The work of this thesis concentrates on studying and developing robust algorithms
for solving hard arithmetic decision problems. Such decision problems often originate from a task of RTL property checking for data-path designs. Proving properties of those
designs can efficiently be performed by solving SMT decision problems formulated with
the quantifier-free logic over fixed-sized bit vectors (QF-BV).
This thesis, firstly, proposes an effective algebraic approach based on a Gröbner basis theory that allows to efficiently decide arithmetic problems. Secondly, for the case of custom-designed components, this thesis describes a sophisticated modeling technique which is required to restore all the necessary arithmetic description from these components. Further, this thesis, also, explains how methods from computer algebra and the modeling techniques can be integrated into a common SMT solver. Finally, a new QF-BV SMT solver is introduced.
Neue katalytische Reaktionen zur Funktionalisierung ungesättigter Fettsäuren und ihrer Derivate
(2012)
Die Nutzbarmachung pflanzlicher Öle als erneuerbare Rohstoffquelle für die chemische Industrie gewinnt angesichts verknappender Erdölvorräte an Bedeutung. Den Schwerpunkt dieser Arbeit bildet die Entwicklung neuer katalytischer Reaktionen zur effektiven Verwertung ungesättigter Fettsäuren und ihrer Derivate durch isomerisierende Funktionalisierungen. Da sich die Doppelbindung in diesen Substraten an einer festgelegten Position befindet, ist nur eine begrenzte Anzahl von Reaktionen einsetzbar. Neue Möglichkeiten eröffnen sich durch die Verschiebung der Doppelbindung entlang der Kette in eine Position, die selektiv durch neue Methoden funktionalisiert werden kann. In dieser Arbeit wurden mehrere Übergangsmetallkatalysatoren zur schnellen Isomerisierung ungesättigter Fettsäurederivate entwickelt, die als Schlüsselkomponenten für drei neue katalytische Transformationen dienten: (1) Ein Silber-basiertes System erlaubt die direkte Lactonisierung freier Fettsäuren; (2) ein bifunktioneller Rhodiumkatalysator ermöglicht die isomerisierende Michael-Addition von Aryl- und Stickstoffnucleophilen an ungesättigte Fettsäureester; (3) ein vielseitiges Palladium/Ruthenium-System bewirkt die Umsetzung ungesättigter Fettsäurederivate in funktionalisierte Olefingemische. Diese Reaktionen zeichnen sich durch hohe Selektivitäten, gute bis exzellente Ausbeuten sowie Toleranz gegenüber funktionellen Gruppen aus. Sie erweitern das Methodenspektrum des Chemikers zur Nutzbarmachung von Oleochemikalien mittels Übergangsmetallkatalyse und eröffnen neue Wege zu bio-basierten Wertstoffen, die bisher nur auf petrochemischer Basis synthetisiert werden konnten.
Im Bereich kommunaler Entwässerungsnetze besteht nach den regelmäßig erfolgenden DWA-Umfragen über den Zustand der Kanalisationen ein hoher Sanierungsbedarf, obwohl die Problematik seit längerem bekannt ist und erhebliche Anstrengungen zur Netzzustandsverbesserung unternommen werden. Stand der Technik ist eine ganzheitliche Herangehensweise mit dem Ziel, funktionssichere, dauerhafte und dichte Netze zu erhalten, die auch zukünftig einen wirtschaftlichen Betrieb ermöglichen, und dabei den Vermögenswert, den die Netze verkörpern, langfristig zu erhalten. Nach wie vor ist dieses Ziel nicht erreicht, so dass die Sanierungsplanungen der Kommunen geprüft und analysiert werden müssen, um vorhandenes Optimierungspotential zu identifizieren.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise der Prozess der Sanierungsplanung im Hinblick auf den Strategieansatz („Strategiemix“) einer Kommune und ihres Entwässerungsbetriebes optimiert werden kann. Sie entwickelt darüber hinaus eine geeignete Entscheidungshilfe für die Wahl des optimalen Sanierungsverfahrens.
Der vorgestellte Lösungsansatz beinhaltet unter Berücksichtigung zahlreicher Entscheidungskriterien erstens eine systematische Vorgehensweise zur Wahl, Festsetzung und Durchführung von Strategieansätzen. Das Verfahren und sein Ergebnis werden als „multikriterielle Sanierungsstrategie“ bezeichnet. Zweitens wird die Entwicklung eines geeigneten Bewertungsverfahrens zur Festlegung geeigneter Sanierungsverfahren betrachtet („multikriterielle Verfahrenswahl“). Drittens verknüpft der Lösungsansatz systematisch den Strategiemix auf Netzebene mit den in erster Linie technischen Elementen auf Haltungsebene. Hierfür wird der Begriff der „strategischen Sanierungsplanung“ neu eingeführt.
Da jedes Entwässerungsnetz unterschiedliche Randbedingungen aufweist, können die Kommunen mit diesem Verfahren ihre eigenen Akzente bei der Priorisierung der einzelnen Entscheidungskriterien setzen und auf diese Weise ihre individuellen Sanierungsziele durch die systematische Verknüpfung der Strategien auf Netzebene mit den Anforderungen auf Haltungsebene wirksam und wirtschaftlich verfolgen.
Für viele Anwendungen von Polymerkompositen steigt der Bedarf an multifunktionalen
Werkstoffeigenschaften, die elektrische Leitfähigkeit als integrierte
Funktionalität ist eine davon. Elektrisch leitfähige Polymerkomposite werden unter
anderem in explosionsgeschützten Anlagen oder in Bereichen eingesetzt, in denen
eine elektrostatische Ableitung gefordert wird.
Kohlenstoff-Nanoröhren (Carbon Nanotubes (CNTs)) sind aufgrund ihrer herausragenden
intrinsischen, vorwiegend mechanischen und elektrischen Eigenschaften
als Funktionsfüllstoff in polymeren Matrizes in das wissenschaftliche und industrielle
Interesse gerückt. Aufgrund ihrer vielfältigen Erscheinungsformen, abhängig von ihren
Herstellungsverfahren von einwandigen bis mehrwandigen CNTs und ihrer vorhandenen
Defektdichte sowie strukturellen Aufbauten, ist jede CNT-Type als Individuum
zu betrachten. Unabhängig von existierenden Einflussfaktoren wie z.B. dem
Matrixpolymer und den Verarbeitungsbedingungen differieren je nach CNT-Type die
Nanokompositeigenschaften signifikant. Dies führt dazu, dass die Ergebnisse und
Erkenntnisse außerordentlich stark streuen. Dadurch sind allgemeingültige Aussagen
nur bedingt möglich. Häufig sind nicht alle notwendigen Details der Wertschöpfungskette
in Veröffentlichungen dargelegt, was die Nachvollziehbarkeit erschwert.
Industriell hergestellte, mehrwandige CNTs (MWNTs) sind verstärkt in das industrielle
Interesse gerückt. Die Erforschung von Prozess-Struktur-Eigenschaftsbeziehungen
von CNT-Nanokompositen, außerhalb des Labormaßstabs, mit kommerziell
verfügbaren MWNTs und industriell relevanten Verarbeitungsverfahren, ist
weiter von ingenieurwissenschaftlicher Relevanz. Es besteht ein großer Bedarf an
Forschungsarbeiten, die klar herausstellen, welche Eigenschaftsprofile unter Beachtung
der notwendigen Wertschöpfungskette zu erzielen sind.
Bei der Kompoundentwicklung ist die gleichzeitige Verbesserung von Kompositeigenschaften
wie beispielsweise elektrischer, mechanischer und tribologischer Eigenschaften
anzustreben, um eine effektive Multifunktionalität zu erzielen. Die Funktionalisierung
mit mikroskaligen kurzen Kohlenstofffasern (SCFs) und mikroskaligem
Graphit ist Stand der Technik. Eine Kombination von nano- und mikroskaligen Füllstoffen
stellt große Potenziale zur Optimierung von Kompositeigenschaften bereit. Derartige Hybridwerkstoffe versprechen Synergien. Werden diese gezielt ausgenutzt,
lassen sich die Gesamteigenschaften über das Potenzial der Einzelfüllstoffe hinaus
optimieren. Es liegen wenige systematische Studien von Füllstoffkombinationen aus
MWNTs und SCFs oder Graphit vor. Zudem finden Hochtemperatur-Thermoplaste
wie das in dieser Arbeit eingesetzte Polyphenylensulfid (PPS) in der Literatur wenig
Beachtung, obwohl diese inzwischen industriell stark an Bedeutung gewinnen.
Ziel dieser Arbeit war die grundlagenorientierte, wissenschaftliche Betrachtung der
erreichbaren multifunktionalen Eigenschaften von PPS Kompositen durch den Einsatz
kommerziell verfügbarer MWNTs im direkten Vergleich und in Kombination mit
mikroskaligen SCFs und Graphit als Füllstoffe. Dazu wurden systematisch Kombinationen
der drei Füllstoffe untersucht, um eine effektive Multifunktionalität zu realisieren
und um die Effektivität der Einzelfüllstoffe in kombinierten Füllstoffsystemen zu
erforschen.
Neben der spezifischen elektrischen Leitfähigkeit und den mechanischen Eigenschaften
unter Zugbelastung bei Raumtemperatur wurden die tribologischen Eigenschaften
der Komposite untersucht. Über mikroskopische Verfahren, DSC-, DMTAund
Viskositätsuntersuchungen konnten wesentliche Prozess-Struktur-Eigenschaftsbeziehungen
abgeleitet werden, indem die dafür notwendige Wertschöpfungskette
von der Kompositherstellung über Doppelschneckenextrusion und anschließender
Probenherstellung über Spritzguss als industriell relevante Herstellungsverfahren
Beachtung fand.
Über optimierte Prozessparameter (Schneckendesign, Drehzahl, Temperatur etc.)
der Doppelschneckenextrusion und des Spritzgusses konnte gezeigt werden, dass
elektrisch leitfähige PPS-Komposite mit geringsten MWNT-Füllstoffgehalten
(< 2 Gew.-%) unter Beibehaltung der Zugfestigkeit realisiert werden können. Dabei
wurde die Steifigkeit erhöht, die Zähigkeit erniedrigt.
Systematisch wurden monomodale Graphit/, SCF/, bimodale MWNT/Graphit/, Graphit/
SCF/, MWNT/SCF/ und multimodale MWNT/Graphit/SCF/PPS-Komposite hergestellt,
womit der jeweilige Füllstoffeinfluss auf das Eigenschaftsprofil untersucht
wurde. Sowohl die Steifigkeitssteigerung durch MWNTs und SCFs als auch die spezifischen
elektrischen Leitfähigkeiten der Komposite wurden mit bereits existierenden Modellen beschrieben. Für bimodale MWNT/SCF/PPS-Komposite konnte ein neuer
Modellansatz zur Beschreibung der elektrischen Leitfähigkeit erarbeitet werden.
Mit dieser Arbeit wurden erstmals Studien zu systematischen Füllstoffkombinationen
von MWNTs, Graphit und SCFs in PPS durchgeführt, Prozess-Struktur-Eigenschaftsbeziehungen
abgebildet und die notwendige Wertschöpfungskette dargelegt.
Mit den neuen Ergebnissen und Erkenntnissen dieser Arbeit ist es zukünftig möglich,
durch eine optimierte Füllstoffkombination von MWNTs, SCFs und Graphit das Gesamteigenschaftsprofil
von PPS Kompositen zielorientiert einzustellen.
Durch diese Arbeit wurde klar herausgearbeitet, wie die Einzelfüllstoffe und insbesondere
deren Kombinationen das Eigenschaftsprofil beeinflussen. Daraus geht hervor,
dass MWNTs der effektivste Füllstoff zur Integration einer elektrischen Leitfähigkeit
ist. Dagegen bestimmen SCFs das mechanische und tribologische Eigenschaftsprofil
und Graphit dient zur Optimierung tribologischer Eigenschaften und insbesondere
zur Reduktion des Reibungskoeffizienten. Synergien zur Verbesserung
der elektrischen Leitfähigkeit zwischen SCFs und MWNTs wurden nachgewiesen,
speziell in Perkolationsnähe, dem Bereich, in dem die Leitfähigkeit um Dekaden ansteigt.
One of the fundamental problems in computational structural biology is the prediction of RNA secondary structures from a single sequence. To solve this problem, mainly two different approaches have been used over the past decades: the free energy minimization (MFE) approach which is still considered the most popular and successful method and the competing stochastic context-free grammar (SCFG) approach. While the accuracy of the MFE based algorithms is limited by the quality of underlying thermodynamic models, the SCFG method abstracts from free energies and instead tries to learn about the structural behavior of the molecules by training the grammars on known real RNA structures, making it highly dependent on the availability of a rich high quality training set. However, due to the respective problems associated with both methods, new statistics based approaches towards RNA structure prediction have become increasingly appreciated. For instance, over the last years, several statistical sampling methods and clustering techniques have been invented that are based on the computation of partition functions (PFs) and base pair probabilities according to thermodynamic models. A corresponding SCFG based statistical sampling algorithm for RNA secondary structures has been studied just recently. Notably, this probabilistic method is capable of producing accurate (prediction) results, where its worst-case time and space requirements are equal to those of common RNA folding algorithms for single sequences.
The aim of this work is to present a comprehensive study on how enriching the underlying SCFG by additional information on the lengths of generated substructures (i.e. by incorporating length-dependencies into the SCFG based sampling algorithm, which is actually possible without significant losses in performance) affects the reliability of the induced RNA model and the accuracy of sampled secondary structures. As we will see, significant differences with respect to the overall quality of generated sample sets and the resulting predictive accuracy are typically implied. In principle, when considering the more specialized length-dependent SCFG model as basis for statistical sampling, a higher accuracy of predicted foldings can be reached at the price of a lower diversity of generated candidate structures (compared to the more general traditional SCFG variant or sampling based on PFs that rely on free energies).
The goal of this work is to develop a simulation-based algorithm, allowing the prediction
of the effective mechanical properties of textiles on the basis of their microstructure
and corresponding properties of fibers. This method can be used for optimization of the
microstructure, in order to obtain a better stiffness or strength of the corresponding fiber
material later on. An additional aspect of the thesis is that we want to take into account the microcontacts
between fibers of the textile. One more aspect of the thesis is the accounting for the thickness of thin fibers in the
textile. An introduction of an additional asymptotics with respect to a small parameter,
the relation between the thickness and the representative length of the fibers, allows a
reduction of local contact problems between fibers to 1-dimensional problems, which
reduces numerical computations significantly.
A fiber composite material with periodic microstructure and multiple frictional microcontacts
between fibers is studied. The textile is modeled by introducing small geometrical
parameters: the periodicity of the microstructure and the characteristic
diameter of fibers. The contact linear elasticity problem is considered. A two-scale
approach is used for obtaining the effective mechanical properties.
The algorithm using asymptotic two-scale homogenization for computation of the
effective mechanical properties of textiles with periodic rod or fiber microstructure
is proposed. The algorithm is based on the consequent passing to the asymptotics
with respect to the in-plane period and the characteristic diameter of fibers. This
allows to come to the equivalent homogenized problem and to reduce the dimension
of the auxiliary problems. Further numerical simulations of the cell problems give
the effective material properties of the textile.
The homogenization of the boundary conditions on the vanishing out-of-plane interface
of a textile or fiber structured layer has been studied. Introducing additional
auxiliary functions into the formal asymptotic expansion for a heterogeneous
plate, the corresponding auxiliary and homogenized problems for a nonhomogeneous
Neumann boundary condition were deduced. It is incorporated into the right hand
side of the homogenized problem via effective out-of-plane moduli.
FiberFEM, a C++ finite element code for solving contact elasticity problems, is
developed. The code is based on the implementation of the algorithm for the contact
between fibers, proposed in the thesis.
Numerical examples of homogenization of geotexiles and wovens are obtained in the
work by implementation of the developed algorithm. The effective material moduli
are computed numerically using the finite element solutions of the auxiliary contact
problems obtained by FiberFEM.
Im Rahmen der zunehmenden Konzentration von Kohlenstoffdioxid in der Atmosphäre und der damit verbundenen Klimaproblematik wird mit steigendem Interesse an Verwendungsmöglichkeiten dieses Rohstoffs als günstige C1-Kohlenstoffquelle in der chemischen Industrie geforscht. Vor diesem Hintergrund wurden in den letzten Jahren auf dem Themengebiet der rutheniumkatalysierten Hydrierung von CO2 zu Ameisensäure viele Ergebnisse unterschiedlicher Katalysatorsysteme publiziert. Auf dieser Basis werden in der vorliegenden Arbeit mittels Ruthenium(II)-Komplexen mit Azolylliganden, welche durch Variation der Substituenten unterschiedliche Donoreigenschaften aufweisen, in der Hydrierung von CO2 untersucht und die damit verbundenen Struktur-Reaktivitäts-Eigenschaften herausgearbeitet.
Bei den hier verwendeten 2-(Pyrazol-5-yl)- oder 2-(Triazol-5-yl)pyridinliganden handelt es sich um N,N'-Chelat-Liganden, welche durch Koordination an Ruthenium(II) stabile Komplexe ausbilden können. Die Einführung unterschiedlicher Alkyl- und Arylgruppen bzw. Brom- und Nitrogruppen erfolgt abgewandt von den chelatisierenden Stickstoffatomen, wodurch eine sterische Auswirkung auf das zu koordinierende Metall gering ist. In dieser Arbeit werden 23 verschiedene, sich durch unterschiedliche Substitutionen unterscheidende Modifikationen der Azolylliganden dargestellt und charakterisiert. Von ausgewählten Systemen werden erstmalig 15N-HMBC-NMR-Spektren aufgenommen und diskutiert.
Ausgehend von den deprotonierten Ligandensystemen werden verschiedene Ruthenium(II)-Komplexe mit Triphenyl- und Trimethylphosphanliganden bzw. mit Triphenyl- und Trialkylphosphitliganden dargestellt. Die Kristallstrukturen mehrerer RuCl(PMe3)3PP/TP-Komplexe mit einer meridionalen Anordnung der PMe3-Liganden werden vorgestellt. Auch hier erfolgt die Charakterisierung der Systeme zusätzlich über 15N-HMBC-NMR-Spektren und die Unterschiede zu den freien Liganden werden diskutiert. Darüber hinaus wird das Fragmentierungsverhalten der Komplexe durch ESI- und CID-Messungen im Ionenzyklotron analysiert und eine Abspaltung der PMe3- bzw. Chlorido-Liganden abhängig von der Substitution besprochen.
Zur Untersuchung der katalytischen Aktivität der synthetisierten Komplexe werden Hydrierreaktionen mit elementarem Wasserstoff in überkritischem CO2 als Lösungsmittel und Edukt in einem Hochdruckautoklaven durchgeführt. Die Stabilisierung der hierbei gebildeten Ameisensäure erfolgt durch Zugabe von DBU als Base. Zur Bestimmung der jeweiligen Aktivität werden die Ausbeute, TON- und TOF-Werte unter konstanten Reaktionsbedingungen berechnet und miteinander verglichen. Als entscheidende aktivitätsbestimmende Faktoren können die Fähigkeit zur Erzeugung einer freien Koordinationsstelle und die Löslichkeit der Komplexe identifiziert werden. Für die hier untersuchten Rutheniumphosphit-Komplexe wird eine bisher unbekannte hohe katalytische Aktivität beobachtet. Zudem werden die Struktur-Reaktivitäts-Eigenschaften der RuCl(PMe3)3PP/TP-Komplexe analysiert und besprochen.
Zur Verifizierung der gefundenen Zusammenhänge zwischen Struktur und Reaktivität der Katalysatoren wird die vollständige quantenchemischen Berechnung aller mechanistischen Stufen mit unterschiedlich substituierten Liganden auf Basis der Dichtefunktionaltheorie und des in der Literatur postulierten Reaktionsmechanismus durchgeführt. Zudem werden alternative Reaktionspfade analysiert und miteinander verglichen. Unter den berechneten Reaktionsschritten kann jeweils die σ-Metathesereaktion als der geschwindigkeitsbestimmende Schritt identifiziert werden. Die Berechnungen zeigen, dass die Energiebarriere dieses Teilschritts mit zunehmend elektronenziehendem Charakter der Substituenten steigt. Dieser theoretisch ermittelte Trend des Zusammenhangs zwischen Struktur und Reaktivität des Katalysators stimmt damit klar mit den experimentell erhaltenen Daten überein und bestätigt diese.
Induction welding is a technique for joining of thermoplastic composites. An alternating
electromagnetic field is used for contact-free and fast heating of the parts to be
welded. In case of a suitable reinforcement structure heat generation occurs directly
in the laminate with complete heating in thickness direction in the vicinity of the coil.
The resulting temperature field is influenced by the distance to the induction coil with
decreasing temperature for increasing distance. Consequently, the surface facing the
inductor yields the highest, the opposite surface the lowest temperature.
The temperature field described significantly complicates the welding process. Due to
complete heating the laminate has to be loaded with pressure in order to prevent delamination,
which requires the usage of complex and expensive welding tools. Additionally,
the temperature difference between the inductor and the opposite side may
be greater than the processing window, which is determined by the properties of the
matrix polymer.
The induction welding process is influenced by numerous parameters. Due to complexity
process development is mainly based on experimental studies. The investigation
of parameter influences and interactions is cumbersome and the measurement
of quality relevant parameters, especially in the bondline, is difficult. Process simulation
can reduce the effort of parameter studies and contribute to further analysis of
the induction welding process.
The objective of this work is the development of a process variant of induction welding
preventing complete heating of the laminate in thickness direction. For optimal
welding the bondline has to reach the welding temperature whereas the other domains
should remain below the melting temperature of the matrix polymer.
For control of the temperature distribution localized cooling by an impinging jet of
compressed air was implemented. The effect was assessed by static heating experiments
with carbon fiber reinforced polyetheretherketone (CF/PEEK) and polyphenylenesulfide
(CF/PPS).
The application of localized cooling could influence the temperature distribution in
thickness direction of the laminate, according to the specifications of the welding
process. The temperature maximum was shifted from the inductor to the opposite side. This enables heating of the laminate to welding temperature in the bondline and
concurrently preventing melting and effects connected to this on the outer surface.
Inductive heating and the process variant with localized cooling were implemented in
three-dimensional finite-element process models. For that purpose, the finiteelement-
software Comsol Multiphysics 4.1 was used for the development of fully
coupled electromagnetic-thermal models which have been validated experimentally.
A sensitivity analysis for determination of different processing parameters of inductive
heating was conducted. The coil current, field frequency, and heat capacity were
identified as significant parameters. The cooling effect of the impinging jets was estimated
by appropriate convection coefficients.
For transfer of the developed process variant to the continuous induction welding
process, a process model was created. It represents a single overlap joint with continuous
feed. With the help of process modeling a parameter set for welding of
CF/PEEK was determined and used for joining of specimens. In doing so, the desired
temperature field was achieved and melting of the outer layers could be prevented.
Mechanisms underlying the biological effects of coffee and its constituents are incompletely understood. Many effects have been attributed solely to caffeine, neglecting that coffee is a mixture of many chemical substances. Some authors suggest that the main mechanism of action of caffeine is to antagonize adenosine receptors (AR); a second effect is the inhibition of phosphodiesterases with the subsequent accumulation of cAMP and an intensification of the effects of catecholamines. Although the inhibition of phosphodiesterases may contribute to the actions of caffeine, there is growing evidence that most pharmacological effects of this xanthine result from antagonism of AR.
One of the main objectives of this work was to investigate whether substances other than caffeine in coffee may influence the homeostasis of intracellular cyclic nucleotides in vitro and in vivo. The influence of selected coffee compounds, extracts and brews on key elements involved in the adenosine receptor-mediated signaling pathway have been investigated.
A further aim of this work was also to determine if coffee or some coffee constituents may have a stimulatory effect on the cellular heme oxygenase activity (HO-activity). Two coffee extracts, a slightly (AB1) and an intensively roasted coffee (AB2), were studied along with selected individual compounds. Caffeine and low substituted pyrazines showed no effect on the HO-activity, while NMP, pyrazines with a greater substitution pattern such as Tetramethylpyrazine (TMP) and 2-Ethyl-3,5(6)-dimethylpyrazine (2-E-3,5-DMP) and both coffee extracts significantly induced the HO-activity in liver hepatocellular carcinoma (HepG2), intestinal colo-rectal adenocarcinoma (Caco-2) and in some instances in monocytic leukemia (MM6) cells.
It was found that caffeine, theophylline, coffee extracts from conventional or functional coffees, pyrazines (2,3-DE-6-MP, 2-Isobutyl-3-methoxyP), 5-CQA and caffeic acid all significantly inhibited the basal cytoplasmatic PDE activity in lysates of lung tumour xenograft cells (LXFL529L) and human platelets. To a somewhat lesser extent, PDE inhibition was also found in experiments performed with paraxanthine and other pyrazines (2-E-3,5-DMP, TMP and 2-E-5-MP). Thus the degree of roasting has a considerable impact on constituents of influence for PDE activity. Caffeine, coffee polyphenols and some pyrazines and further, as yet unknown roasting products appear to represent the main modulating constituents.
In two coffee intervention studies, a short-term (8 weeks) and a long-term study (24 weeks), comprising 8 and 84 healthy volunteers respectively, we examined extracellular key elements of the adenosine pathway including plasma adenosine levels and adenosine deaminase activity. Additionally, we studied the intracellular cAMP concentration and the PDE activity in platelets as surrogate biomarkers of adipocytes.
Results of in vitro experiments had suggested that the concentrations of caffeine and coffee extracts required to obtain a half maximal inhibition were in the upper range of physiological conditions. Yet, it was demonstrated for the first time in vivo that moderate consumption of coffee can modulate the activity of platelet phosphodiesterases in humans in long and short term. In both studies, the first exposure to coffee showed a strong inhibition (p<0.001) of the PDE activity in the platelet lysates of the participants while the second coffee phase showed no or a slight effect when compared with the first coffee intervention.
In both studies a significant increase (p<0.001) in intraplatelet cAMP concentrations during the wash-out phase (after the first coffee phase) was observed. This response could be due to inhibition of the PDE activity in the previously phase extending in to the wash out phase. However, the behavior of cAMP in the following study phases cannot be easily explained. It may be hypothesized that this effect is attributable to adaptive effects to allow PDE inhibition. One possibility is the modulation of the expression of membrane-bound adenosine receptors in platelet precursors, which still have a nucleus. This may potentially influence adenylate cyclase activity in mature platelets. For the observed effects, in addition to caffeine other ingredients of coffee appear to play a role. The findings suggest that monitoring of cAMP homeostasis in platelets is not a useful surrogate biomarker for effects in other tissues.
Neither the activity of adenosine deaminase nor the adenosine concentrations in plasma were markedly modulated by the coffee consumption in both trials. This may reflect the fact that adenosine is subject to quick and effective enzymatic turnover by phosphorylation (adenosine kinase) or deamination (adenosine deaminase) allowing keep its concentration within a well balanced homeostasis. However, it is also well known, that considerable variability exists in the responses to coffee drinking. In part, such variability is due to caffeine tolerance, but there is also evidence for a genetic background.
Altogether the data reported here provide further evidence for the perception that coffee consumption is associated with beneficial health effects demonstrated for the cAMP enhancement in platelets, known to counteract platelet aggregation. The effects observed for the influence of cellular heme oxygenase (HO) are in line with the well documented antioxidative activity of coffee and its constituents.
Unidirectional (UD) composites are the most competitive materials for the production
of high-end structures. Their field of application spreads from the aerospace up to
automotive and general industry sector. Typical examples of components made of
unidirectional reinforced composite materials are rocket motor cases, drive shafts or
pressure vessels for hydrogen storage. The filament winding technology, the pultrusion
process and the tape placement are processes suitable for the manufacturing
using UD semi-finished products. The demand for parts made of UD composites is
constantly increasing over the last years. A key feature for the success of this technology
is the improvement of the manufacturing procedure.
Impregnation is one of the most important steps in the manufacturing process. During
this step the dry continuous fibers are combined with the liquid matrix in order to create
a fully impregnated semi-finished product. The properties of the impregnated roving
have a major effect on the laminate quality, and the efficient processing of the
liquid matrix has a big influence on the manufacturing costs.
The present work is related to the development of a new method for the impregnation
of carbon fiber rovings with thermoset resin. The developed impregnation unit consists
of a sinusoidal cavity without any moving parts. The unit in combination with an
automated resin mixing-dosing system allows complete wet-out of the fibers, precise
calibration of the resin fraction, and stable processing conditions.
The thesis focuses on the modeling of the impregnation process. Mathematical expressions
for the fiber compaction, the gradual increase of the roving tension, the
static pressure, the capillarity inside the filaments of the roving, and the fiber permeation
are presented, discussed, and experimentally verified. These expressions were
implemented in a modeling algorithm. The model takes into account all the relevant
material and process parameters. An experimental set-up based on the filament
winding process was used for the validation of the model. Trials under different conditions
have been performed. The results proved that the model can accurately simulate
the impregnation process. The good impregnation degree of the wound samples
confirmed the efficiency of the developed impregnation unit. A techno economical
analysis has proved that the developed system will result to the reduction of the
manufacturing costs and to the increase of the productivity.
Im Rahmen der Doktorarbeit wurden neue decarboxylierende und carboxylierende Transformationen entwickelt. Die Entwicklung decarboxylierender Umsetzungen diente der näheren Untersuchung des Decarboxylierungsprozesses, um anschließend mit den entwickelten Katalysatorsystemen, gestützt durch das Prinzip der mikroskopischen Reversibilität, neue carboxylierende Reaktionen zu entwickeln. In diesen carboxylierenden Transformationen sollte direkt gasförmiges CO2 genutzt werden, um sich so seiner großen Verfügbarkeit zu profitieren. Dies ist in allen Projekten erfolgreich gelungen.
Die moderne Reaktions- und Trenntechnik in der chemischen Industrie ist eine Hochtechnologie. Die dort eingesetzten Verfahren zur Reaktionsführung und Auftrennung der Produkte sind weitestgehend optimiert. Zu diesem Stand hat die instrumentelle Analytik – speziell die Prozeßanalytik – wesentlich beigetragen. Das Reaktions- und Prozeßmonitoring ist eine wichtige Hilfe zum Verständnis der komplexen Zusammenhänge. In der vorliegenden Arbeit wird der Einsatz der NMR-Spektroskopie in verfahrenstechnischen Anwendungen wie dem Reaktions- und Prozeß-Monitoring diskutiert und alle dazu notwendigen Grundlagen erläutert. Solche Anwendungen erfordern häufig Techniken, mit denen hochaufgelöste Spektren zerstörungsfrei aufgenommen werden können, oft bei erhöhtem Druck und erhöhter Temperatur. Neben der quantitativen Bestimmung der Zusammensetzung komplexer reagierender Mischungen besteht gleichzeitig die Möglichkeit zur Identifikation von Nebenprodukten. Dieses gelingt insbesondere durch die Nutzung der NMR-Spektroskopie als Online-Methode, die in der Literatur bislang nur in wenigen Einzelfällen beschrieben und trotz ihrer enormen Möglichkeiten noch nicht konsequent angewendet wird. Durch die fortschreitende Entwicklung auf dem Gebiet der NMR-Spektroskopie kann eine Online-Anbindung heute durchgehend mit Hilfe kommerziell erhältlicher Komponenten erfolgen – wie die vorliegende Arbeit zeigt. Fallende Kosten in der Beschaffung und dem Betrieb leistungsfähiger NMR-Spektrometer machen die Methode auch im verfahrenstechnischen Umfeld mittlerweile sehr attraktiv. Die Attraktivität der Methode gewinnt neuerdings insbesondere durch die erweiterten Einsatzmöglichkeiten kompakterer NMR-Magneten mit geringen Streufeldern. Obwohl sich in den Ingenieurwissenschaften damit vielfältige Einsatzmöglichkeiten ergeben, wird die NMR-Spektroskopie dort bislang noch leider kaum genutzt. Besondere Herausforderungen stellen sich u. a. dadurch, daß sich weder deuterierten Komponenten einsetzen lassen noch die Probe in einer geeigneten Weise in einer Probenvorbereitung verändert werden kann. Damit kommen hochkonzentrierte Mischungen zur direkten Untersuchung. Dieses hat signifikante Rückwirkungen auf die einzusetzende NMR-Methodik, die im Rahmen der Arbeit umfassend untersucht wurde. In der Regel lassen sich die Probleme bei entsprechender experimenteller Vorgehensweise umgehen. Zur Garantie quantitativer Meßwerte wurden alle eingesetzten Meß- und Auswertungsstrategien ausführlich untersucht und teilweise erweitert. Um quantitativ aussagekräftige Online-NMR-Spektren mit Hilfe der 1H- und 13C-NMRSpektroskopie von technischen Mischungen zu erhalten, wurden folgende Aufgaben gelöst: Entwicklung und Validierung von Vorgehensweisen zur Messung hochkonzentrierter, technischer Mischungen ohne Probenvorbereitung und ohne Zusatz deuterierter Komponenten; Konstruktion geeigneter Apparaturen zur Untersuchung von Reaktionsgleichgewichten und -kinetiken für verschiedene Druck- und Temperaturbereiche, die sich optimal für die Online-NMR-Spektroskopie einsetzen lassen; Ankopplung der NMR-Spektrometers an die unterschiedlichen Apparate mit Hilfe von NMR-Durchflußzellen; Schaffung einer möglichst noninvasiven Untersuchungsmethode hinsichtlich aller Probenparameter (z. B. Druck, Temperatur); Schaffung und Erprobung von Meß- und Auswertungsstrategien im Hinblick auf quantitative Parameter, Erweiterung des zugänglichen Druck- und Temperaturbereiches der Messungen sowie Verkürzung des Zeitfensters für Messungen durch geeignete Peripherie und konstruktiven Veränderungen am NMR-Probenkopf. Als Beispiel werden Messungen an binären und ternären flüssigen Mischungen aus Formaldehyd, Wasser und Methanol diskutiert. In diesen Systemen ist Formaldehyd fast ausschließlich in Poly(oxymethylen)Glykolen und -hemiformalen chemisch gebunden. Die chemischen Reaktionen in formaldehydhaltigen Mischungen bestimmen deren thermodynamisches Verhalten sowie ihre Trennung mit thermischen Verfahren. Die NMR-Spektroskopie ist das zentrale analytische Verfahren, mit dem sich diese Vorgänge aufklären und quantifizieren lassen. Für die hier vorgestellten Untersuchungen zum Prozeßmonitoring kamen u. a. eine Online-NMRKopplung mit einem Dünnschichtverdampfer sowie mit einem Rührreaktor zum Einsatz. In weiteren Anwendungsbeispielen zum Thema Formaldehyd wird aufgezeigt, daß sich die Online-NMR-Spektroskopie auch zum Studium komplexer Reaktionsnetzwerke, zur Messung von Gaslöslichkeiten oder zur Quantifizierung kleinster Produktmengen unter schwierigen, technischen Reaktionsbedingungen eignet. Ferner werden Arbeiten zur Aufklärung und Quantifizierung der chemischen Prozesse bei der Absorption von Kohlendioxid in wässrigen Aminlösungen bei Drücken bis zu 30 bar und reaktionskinetische Untersuchungen von Veresterungen vorgestellt, bei denen auch ein Vergleich mit einer GC-Analytik durchgeführt wurde. Ebenso wird gezeigt, daß sich die Online-NMR-Spektroskopie zur Beobachtung von Reaktionen in Ionischen Flüssigkeiten eignet. Ein Teil der Arbeit beschäftigt sich mit der Untersuchung fluider Mischungen bei hohen Drücken. Beispielhaft werden Arbeiten zu H-Brückengleichgewichten von Methanol in überkritischem Kohlendioxid vorgestellt, die eine wertvolle, experimentelle Datenbasis zur Überprüfung molekulardynamischer Modelle in der molekularen Simulation liefern. Für die meisten Anwendungsbeispiele werden neue Reaktoren und Meßapparaturen vorgestellt, die sich besonders für den Einsatz in der Durchfluß-NMR-Spektroskopie eignen. Schließlich wird kurz auf die Anwendung der NMR-Spektroskopie zur Bestimmung physikalisch chemischer Größen eingegangen, wie z. B. zur Bestimmung von Diffusuionskoeffizienten in technischen Mischungen. Erstmals wird der Einsatz der Methode in der Taylor-Dispersionstechnik beschrieben und experimentell belegt.
Faser-Kunststoff-Verbunde haben in vielen technischen Bereichen eine stetig
wachsende Verbreitung erfahren. Diese rührt aus ihren vorteilhaften Eigenschaften
hoher gewichtsspezifischer Festigkeit und Steifigkeit. Dadurch
sind Gewichtsreduktion, erhöhte Nutzlast, sowie hohe Funktionsintegration in
Kombination mit einer freien Formgebung und einer beanspruchungsgerechten
Konstruktion möglich. Daneben weisen faserverstärkte Kunststoffe hohe
Energieabsorption und herausragende Ermüdungseigenschaften auf. Zur
quasi-statischen Bauteilauslegung existieren physikalisch basierte Bruchkriterien;
Analysemodelle zur quantitativen Beschreibung des gesamten komplexen
Ermüdungsversagens sind zurzeit noch Gegenstand der Forschung.
Werkstoffermüdung erfordert eine gesonderte Betrachtung bei der Auslegung
und Konstruktion. Die am Institut für Verbundwerkstoffe vorhandenen Verfahren
zur Berechnung der Ermüdung von Faserverbunden sind auf die Berechnung
ebener Belastungen an geometrisch ebenen und dünnwandigen Bauteilen
unter Verwendung linearer Werkstoffgesetze begrenzt. Der bei komplexen,
dünnwandigen und gekrümmten dreidimensionalen Bauteilen unter schwingender
Belastung vorliegende Spannungszustand erfordert zur realitätsnahen
Abbildung den Einsatz nichtlinearer Werkstoffgesetze und geeigneter Versagensmodelle
zur kontinuumsmechanischen Beschreibung der Schadensentwicklung,
welche in die Finite-Elemente-Analyse zu integrieren sind.
Gegenstand dieser Arbeit ist die Weiterentwicklung eines auf der Critical-
Element-Methode basierenden Berechnungskonzepts für die Simulation der
Ermüdung von Faser-Kunststoff-Verbunden von der für geometrisch einfache
Strukturen einsetzbaren Klassischen Laminattheorie bis zum Einsatz in der
Finite-Element-Methode bei komplexen Bauteilgeometrien. Dazu wurden geeignete
nichtlineare Werkstoffgesetze und Versagensmodelle für das komplexe
Versagensverhalten unter schwingender Belastung an einem mit Endloskohlenstofffaser
verstärkten Werkstoff auf Einzelschichtebene experimentell
bestimmt und ihr Einsatz in der entwickelten Finite-Elemente-Lebensdaueranalyse
exemplarisch an einem Anwendungsbeispiel eines praktisch relevanten
Bauelements validiert.
In quasi-statischen Zug- und Druckversuchen wurden die nichtlinearen Spannungs-Verzerrungs-Beziehungen des Werkstoffs an Flachprobekörpern
ermittelt und mit der Ramberg-Osgood-Funktion beschrieben. Zur Ermittlung
ermüdungsrelevanter Kennwerte wurden Restfestigkeitsuntersuchungen nach
zyklischer Ermüdung, die Bestimmung des Steifigkeitsabfalls unter zyklischer
Belastung und Einstufenversuche zur Beschreibung der Wöhlerlinie durchgeführt.
Um die Messung des nichtlinearen Materialverhaltens im Versuch
möglichst frei von Einflüssen der Prüfvorrichtung zu ermöglichen, wurde ein
verbessertes Prüfverfahren für Zugschwell-, Druckschwell- und Zug-Druck-
Wechselprüfungen an Flachproben erarbeitet.
Unter Nutzung der experimentell ermittelten Werkstoffgesetze zusammen mit
geeigneten Versagenskriterien wurde ein Finite-Elemente-Lebensdaueranalyseprogramm
entwickelt, das durch die Verwendung eigenständiger Programmroutinen
eine für die praktikable Durchführbarkeit einer prognosefähigen Lebensdaueranalyse
notwendige Rechenzeitverkürzung erreicht. Die entwickelte
kontinuumsmechanische Versagensanalyse ermöglicht die präzise Analyse
der Einzelschichtspannungen des Laminats infolge der äußeren Belastung
in Kombination mit einer spannungsbasierten Anstrengungsanalyse zur Abbildung
der ermüdungsbedingten Degradation der Werkstoffkennwerte bis hin
zum Gesamtversagen. Die Berechnung des Degradationsfortschritts durch zyklische
Belastung ist in guter Übereinstimmung mit dem in experimentellen Untersuchungen
an quasi-isotropen Probekörpern beobachteten Versagensvorgängen.
Dieser wurde versuchsbegleitend in zweidimensionalen Röntgenaufnahmen
detektiert und durch dreidimensionale Computertomographie den Einzelschichten
zugeordnet. Durch Nachrechnung experimenteller Untersuchungen
an einem quasi-isotropen, mit Endloskohlenstofffaser verstärkten Bauelement
mit Kreisausschnitt konnte die entwickelte Lebensdaueranalyse validiert
und eine konservative Vorhersage der Versagensschwingspielzahl abgeschätzt
werden. In Variationsanalysen wurde der Einfluss der nichtlinearen
Werkstoffgesetze und eines Degradationsmodells auf die Lebensdaueranalyse
untersucht.
Die Entwicklung der integrierten Finite-Elemente-Lebensdaueranalyse stellt
einen deutlichen Fortschritt des Berechnungskonzeptes dar und ermöglicht
einen Einblick in die komplexen Interaktionen aus Geometrie, Belastung, Degradationsmodellen
und Schadensausbreitung bei Ermüdungsbelastung.
We present the derivation of a simple viscous damping model of Kelvin–Voigt type for geometrically exact
Cosserat rods from three–dimensional continuum theory. Assuming a homogeneous and isotropic material,
we obtain explicit formulas for the damping parameters of the model in terms of the well known stiffness
parameters of the rod and the retardation time constants defined as the ratios of bulk and shear viscosities to
the respective elastic moduli. We briefly discuss the range of validity of our damping model and illustrate
its behaviour with a numerical example.
Diese Dissertation besteht aus zwei aktuellen Themen im Bereich Finanzmathematik, die voneinander unabhängig sind.
Beim ersten Thema, "Flexible Algorithmen zur Bewertung komplexer Optionen mit mehreren Eigenschaften mittels der funktionalen Programmiersprache Haskell", handelt es sich um ein interdisziplinäres Projekt, in dem eine wissenschaftliche Brücke zwischen der Optionsbewertung und der funktionalen Programmierung geschlagen wurde.
Im diesem Projekt wurde eine funktionale Bibliothek zur Konstruktion von Optionen
entworfen, in dem es eine Reihe von grundlegenden Konstruktoren gibt, mit denen
man verschiedene Optionen kombinieren kann. Im Rahmen der funktionalen Bibliothek
wurde ein allgemeiner Algorithmus entwickelt, durch den die aus den Konstruktoren
kombinierten Optionen bewertet werden können.
Der mathematische Aspekt des Projekts besteht in der Entwicklung eines neuen Konzeptes zur Bewertung der Optionen. Dieses Konzept basiert auf dem Binomialmodell, welches in den letzten Jahren eine weite Verbreitung im Forschungsgebiet der Optionsbewertung fand. Der kerne Algorithmus des Konzeptes ist eine Kombination von mehreren
sorgfältig ausgewählten numerischen Methoden in Bezug auf den Binomialbaum. Diese
Kombination ist nicht trivial, sondern entwikelt sich nach bestimmten Regeln und ist eng mit den grundlegenden Konstruktoren verknüpft.
Ein wichtiger Charakterzug des Projekts ist die funktionale Denkweise. D. h. der Algorithmus ließ sich mithilfe einer funktionalen Programmiersprache formulieren. In unserem Projekt wurde Haskell verwendet.
Das zweite Thema, Monte-Carlo-Simulation des Deltas und (Cross-)Gammas von
Bermuda-Swaptions im LIBOR-Marktmodell, bezieht sich auf ein zentrales Problem der
Finanzmathematik, nämlich die Bestimmung der Risikoparameter komplexer Zinsderivate.
In dieser Arbeit wurde die numerische Berechnung des Delta-Vektors einer Bermuda-
Swaption ausführlich untersucht und die neue Herausforderung, die Gamma-Matrix einer Bermuda-Swaption exakt simulieren, erfolgreich gemeistert. Die beiden Risikoparameter spielen bei Handelsstrategien in Form des Delta-Hedgings und Gamma-Hedgings eine entscheidende Rolle. Das zugrunde liegende Zinsstrukturmodell ist das LIBORMarktmodell, welches in den letzten Jahren eine auffällige Entwicklung in der Finanzmathematik gemacht hat. Bei der Simulation und Anwendung des LIBOR-Marktmodells fällt die Monte-Carlo-Simulation ins Gewicht.
Für die Berechung des Delta-Vektors einer Bermuda-Swaption wurden drei klassische und drei von uns entwickelte numerische Methoden vorgestellt und gegenübergestellt, welche fast alle vorhandenen Arten der Monte-Carlo-Simulation zur Berechnung des Delta-Vektors einer Bermuda-Swaption enthalten.
Darüber hinaus gibt es in der Arbeit noch zwei neu entwickelte Methoden, um die Gamma-Matrix einer Bermuda-Swaption exakt zu berechnen, was völlig neu im Forschungsgebiet der Computational-Finance ist. Eine ist die modifizierte Finite-Differenzen-Methode. Die andere ist die reine Pathwise-Methode, die auf pfadweiser Differentialrechnung basiert und einem robusten und erwartungstreuen Simulationsverfahren entspricht.
We consider a variant of the generalized assignment problem (GAP) where the amount of space used in each bin is restricted to be either zero (if the bin is not opened) or above a given lower bound (a minimum quantity). We provide several complexity results for different versions of the problem and give polynomial time exact algorithms and approximation algorithms for restricted cases.
For the most general version of the problem, we show that it does not admit a polynomial time approximation algorithm (unless P=NP), even for the case of a single bin. This motivates to study dual approximation algorithms that compute solutions violating the bin capacities and minimum quantities by a constant factor. When the number of bins is fixed and the minimum quantity of each bin is at least a factor \(\delta>1\) larger than the largest size of an item in the bin, we show how to obtain a polynomial time dual approximation algorithm that computes a solution violating the minimum quantities and bin capacities by at most a factor \(1-\frac{1}{\delta}\) and \(1+\frac{1}{\delta}\), respectively, and whose profit is at least as large as the profit of the best solution that satisfies the minimum quantities and bin capacities strictly.
In particular, for \(\delta=2\), we obtain a polynomial time (1,2)-approximation algorithm.
In this thesis we consider the problem of maximizing the growth rate with proportional and fixed costs in a framework with one bond and one stock, which is modeled as a jump diffusion with compound Poisson jumps. Following the approach from [1], we prove that in this framework it is optimal for an investor to follow a CB-strategy. The boundaries depend only on the parameters of the underlying stock and bond. Now it is natural to ask for the investor who follows a CB-strategy which is given by the stopping times \((\tau_i)_{i\in\mathbb N}\) and impulses \((\eta_i)_{i\in\mathbb N}\) how often he has to rebalance. In other words we want to obtain the limit of the inter trading times
\[
\lim_{n\rightarrow\infty}\frac{1}{n}\sum_{i=1}^n(\tau_{i+1}-\tau_{i}).
\]
We are able to obtain this limit which is given by the expected first exit time of the risky fraction process from some interval under the invariant measure of the Markov chain \((\eta_i)_{i\in\mathbb N}\) using the Ergodic Theorem from von Neumann and Birkhoff. In general, it is difficult to obtain the expectation of the first exit time for the process with jumps. Because of the jump part, when the process crosses the boundaries of the interval an overshoot may occur which makes it difficult to obtain the distribution. Nevertheless we can obtain the first exit time if the process has only negative jumps using scale functions. The main difficulty of this approach is that the scale functions are known only up to their Laplace transforms. In [2] and [3] the closed-form expression for the scale function of the Levy process with phase-type distributed jumps is obtained. Phase-type distributions build a rich class of positive-valued distributions: the exponential, hyperexponential, Erlang, hyper-Erlang and Coxian distributions. Since the scale function is given as a function in a closed form we can differentiate to obtain the expected first exit time using the fluctuation identities explicitly.
[1] Irle, A. and Sass,J.: Optimal portfolio policies under fixed and proportional transaction costs, Advances in Applied Probability 38, 916-942.
[2] Egami, M., Yamazaki, K.: On scale functions of spectrally negative Levy processes with phase-type jumps, working paper, July 3.
[3]Egami, M., Yamazaki, K.: Precautionary measures for credit risk management in jump models, working paper, June 17.
Rd. 30 % bis 40 % des durchschnittlichen Trinkwasserverbrauchs in deutschen Haushalten entfällt auf die Toilettenspülung. Das dabei anfallende Abwasser, das sogenannte Schwarzwasser, enthält neben dem Spülwasser die Fäkalien Urin und Fäzes sowie Toilettenpapier. Es ist durch eine vergleichsweise hohe organische Verschmutzung sowie sehr hohe Gehalte an Nährstoffen gekennzeichnet. Aufbauend auf dem Grundgedanken, den häuslichen Schmutzwasserkreislauf zu schließen, um den Bedarf an hochwertigem Trinkwasser nachhaltig zu senken, wurde in der vorliegenden Arbeit die Anwendung des Belebungsverfahrens zur biologischen Behandlung von Toilettenabwasser erforscht.
Um den mangelnden Kenntnisstand hinsichtlich der Schwarzwasserzusammensetzung zu verbessern, wurde zunächst die Quantität und chemisch-physikalische Qualität von Schwarzwasser an drei unterschiedlichen Versuchsstandorten mit unterschiedlicher Nutzung (Wohnen, Arbeitsplatz) eingehend untersucht. Hierdurch konnten eine Vielzahl neuer Erkenntnisse zur Charakteristik von Schwarzwasser gewonnen werden und spezifische Frachten für Parameter CSB, BSB5, TKN, Pges und AFS abgeleitet werden. Mit den erarbeiteten Kennwerten wird eine deutlich verbesserte und durch die umfangreichen Messungen abgesicherte Datengrundlage zur Abschätzung des Nutzungspotenzials von Schwarzwasser und zur Bemessung von Schwarzwasserbehandlungsanlagen möglich.
Im Hinblick auf die Erforschung der Eliminationsmechanismen der im Schwarzwasser enthal-tenen Kohlenstoff-, Stickstoff- und Phosphorverbindungen unter Betriebsbedingungen wurden zwei Versuchsanlagen (SBR, MBR) an den drei Versuchsstandorten betrieben. Neben der biologischen Behandlung von Roh-Schwarzwasser und von mechanisch gereinigtem Schwarzwasser wurde die biologische Behandlung von Schwarzwasser bei Kreislaufführung untersucht.
Es wurde festgestellt, dass Schwarzwasser nach biologischer Behandlung sehr hohe Gehalte an gelöst inertem CSB aufweist. Zudem wurde ein Zusammenhang zwischen der Schwarzwasserquelle und den erreichbaren Rest-CSB-Gehalten abgeleitet. Demnach ist der bei maximalem biologischem Reinigungseffekt erreichbare CSB-Gehalt für Schwarzwasser häuslicher Herkunft etwa doppelt so hoch wie bei Schwarzwasser gewerblicher Herkunft.
Mit Hilfe von Sauerstoffzehrungsmessungen, die durch Substratzehrungsmessungen ergänzt wurden, wurden abschließend kinetische und stöchiometrische Parameter des heterotrophen und autotrophen Stoffwechsels sowie die CSB-Fraktionen von Schwarzwasser experimentell ermittelt. Die Versuche wurden unter Verwendung von mechanisch gereinigtem Schwarzwasser und SBR-Belebtschlamm durchgeführt, welcher zwei verschiedene Schlammalter aufwies. Hierdurch konnte der Einfluss der Betriebsparameter Schlammalter und Schlammbelastung auf den Stoffwechsel der jeweils gewachsenen Schwarzwasser-Belebtschlammbiozönose ermittelt werden. Bei der Fraktionierung der organischen Verbindungen konnte u.a. ein Zusammenhang zwischen den abbaubaren CSB-Fraktionen und dem Schlammalter abgeleitet werden. Die in den Praxisversuchen gewonnen Erkenntnisse hinsichtlich der Rest-CSB-Gehalte konnten damit bestätigt werden. Darüber hinaus konnte gezeigt werden, dass bei der aeroben biologischen Behandlung von Schwarzwasser eine Entkopplung von Ammonium- und Nitritoxidation auftritt. Zur Bestimmung der kinetischen und stöchiometrischen Kenngrößen der Nitrifikation wurde zudem eine modifizierte Methode vorgestellt, die es erlaubt die momentane Nitritations- und Nitratationsrate in einem Versuch zu ermitteln. In stickstoffhaltigen Abwässern oder bei hohen Abwassertemperaturen liefert die Methode einen vertiefenden Einblick in die Prozesse der Nitrifikation und wird daher zur weiteren Umsetzung empfohlen.
In this thesis we outline the Kerner's 3-phase traffic flow theory, which states that the flow of vehicular traffic occur in three phases i.e. free flow, synchronized flow and wide moving jam phases.
A macroscopic 3-phase traffic model of the Aw-Rascle type is derived from the microscopic Speed Adaptation 3-phase traffic model
developed by Kerner and Klenov [J. Phys. A: Math. Gen., 39(2006), pp. 1775-1809 ].
We derive the same macroscopic model from the kinetic traffic flow model of Klar and Wegener [SIAM J. Appl. Math., 60(2000), pp. 1749-1766 ] as well as that of Illner, Klar and Materne [Comm. Math. Sci., 1(2003), pp. 1-12 ].
In the above stated derivations, the 3-phase traffic theory is constituted in the macroscopic model through a relaxation term.
This serves as an incentive to modify the relaxation term of the `switching curve' model of Greenberg,
Klar and Rascle [SIAM J. Appl. Math.,63(2003), pp.818-833 ] to obtain another macroscopic 3-phase traffic model, which is still of the Aw-Rascle type.
By specifying the relaxation term differently we obtain three kinds of models, namely the macroscopic Speed Adaptation,
the Switching Curve and the modified Switching Curve models.
To demonstrate the capability of the derived macroscopic traffic models to reproduce the features of 3-phase traffic theory, we simulate a
multi-lane road that has a bottleneck. We consider a stationary and a moving bottleneck.
The results of the simulations for the three models are compared.
Modern society relies on convenience services and mobile communication. Cloud computing is the current trend to make data and applications available at any time on every device. Data centers concentrate computation and storage at central locations, while they claim themselves green due to their optimized maintenance and increased energy efficiency. The key enabler for this evolution is the microelectronics industry. The trend to power efficient mobile devices has forced this industry to change its design dogma to: ”keep data locally and reduce data communication whenever possible”. Therefore we ask: is cloud computing repeating the aberrations of its enabling industry?
Development of New Methods for the Synthesis of Aldehydes, Arenes and Trifluoromethylated Compounds
(2012)
In the 1st project, successful development of 2nd generation of a palladium catalyst for the selective hydrogenation of carboxylic acids to aldehydes was accomplished. This project was done in cooperation with Dipl. Chem. Thomas Fett from Boeringer Ingelheim, Austria. The new catalyst is highly effective for the conversion of diversely functionalized aromatic, heteroaromatic and aliphatic carboxylic acids to the corresponding aldehydes in the presence of pivalic anhydride at 5 bar hydrogen pressure, which was otherwise achieved either at 30 bar of hydrogen pressure or by using waste intensive hypophosphite bases as reducing agent. Our method has increased the synthetic importance of this valuable transformation. Selective hydrogenation of carboxylic acids to the corresponding aldehydes is now possible with industrial hydrogenation equipment as well as laboratory scale glass autoclaves. It might also convince the synthetic organic chemists to use this transformation for routine aldehyde synthesis in the laboratories.
In the 2nd project, a microwave assisted Cu-catalyzed protodecarboxylation of arenecarboxylic acids to arenes is achieved. This work was done in collaboration with Dipl. Chem. Filipe Manjolinho under the supervision of Dr. Nuria Rodríguez. In the presence of 1-5 mol% of inexpensive CuI/1,10-phenanthroline catalyst generated in situ under microwave radiations, diversely functionalized arenes and heteroarene carboxylic acids have been decarboxylated to the corresponding arenes in good yields at 190 °C in 5-15 min. The loss of volatile arenes with the release of CO2 is controled by the use of sealed high pressure resistant microwave vessels. These reactions are highly beneficial for parallel synthesis in drug discovery due to their short reaction time. Microwave technology will also help in the future to develop more effective catalysts for protodecarboxylation rections.
Based on the microwave assisted protodecarboxylation strategy, decarboxylative coupling of arenecarboxylic acids with aryl triflates and tosylates was also conducted under microwave radiation which provided higher yields of the corresponding biphenyls from deactivated substrates in short reaction time compared to the conventional heating.
In the 3rd project, crystalline, potassium (trifluoromethyl)trimethoxyborate was successfully applied for the synthesis of benzotrifluorides under the oxidative conditions. This project was done in cooperation with Dipl. Chem. Annette Buba. In the presence of Cu(OAc)2 and molecular oxygen, arylboronates were coupled with K+[CF3B(OMe)3] in DMSO at 60 °C. A variety of benzotriflurides was synthesized in good yields under the optimized reaction conditions. This protocol for the oxidative trifluoromethylation of arylboronates is the base for the development of decarboxylative trifluoromethylation reaction of arenecarboxylic acids.
The 4th project discloses the simple and straightforward synthesis of trifluoromethylated alcohols by nucleophilic addition of potassium (trifluoromethyl)trimethoxyborate to carbonyl compounds. This project was done in cooperation with Dr. Thomas Knauber and Dipl. Chem. Annette Buba. In the presence of K+[CF3B(OMe)3] in THF at 60 °C, diversely functionalized aldehydes and ketones were successfully converted into the corresponding trifluoromethylated alcohols.
The 3rd and 4th projects demonstrate the successful establishment of crystalline and shelf stable potassium (trifluoromethyl)trimethoxyborate as highly versatile CF3-source in nucleophilic trifluoromethylation reactions. These new protocols are characterized by their user-friendliness and broad applicability under mild reaction conditions, thus they are beneficial for late stage introduction of CF3-group into organic molecules.
I report on two experiments, which were designed to test theoretical predictions about individual behavior in a duopolistic setting. With quantity being the choice variable a simultaneous Cournot game and a sequential Stackelberg game were tested over two periods. The key feature of both models was that players were able to lower marginal cost for period two if they successfully outperformed their competition in period one in terms of profit. Experimental results suggest that in the Cournot game players are very competitive in period one but become Cournot players in period two. In the Stackelberg game Cournot play is modal, suggesting that players have preferences for equality in payoffs, which maybe brought about by punishment of Stackelberg followers and fear of punishment of Stackelberg leaders . Overall, players earned more money in the Stackelberg game than in the Cournot game.
In this study, two outstanding subgroups of organic-inorganic hybrid materials have been investigated. The first part covers the design, synthesis, characterization and application of seven novel Metal Organic Frameworks (MOFs) containing functionalized biphenyl dicarboxylates as linkers. In the second part, the surface modification of the metal oxides ZrO2, TiO2 and Al2O3 using phosphonate derivates is reported.
Firstly three functionalized MOF structures; ZnBrBPDC, ZnNO2BPDC and ZnNH2BPDC were synthesised using 4,4´-biphenyldicarboxylic acid derivatives with different functional groups (-Br, -NO2, -NH2) Powder X-ray diffraction (PXRD) measurements indicated that the synthesised MOFs posses the interpenetrated IRMOF-9 structure with a cubic topology, which was also confirmed with single crystal X-ray measurements. The chemical structure of the MOF materials was further proved by solid state NMR and IR measurements. N2 adsorption measurements showed Type I isotherms for all three structures with large surface areas. TGA measurements of the evacuated samples were in good agreement with the elemental analysis data. The results proved that their thermal stability is between 325 °C - 450 °C.
Adsorption properties of these MOF structures were tested using light alkanes (CH4, C2H6, C3H8, and n-C4H10) at three different temperatures. For all adsorbents, the maximum uptakes were observed at 273 K. When the temperature was increased, the amount of the adsorbed gas decreased. All three MOFs showed strong affinities for n-butane. The lowest uptakes were observed for CH4.
The effect of functional groups on the IRMOF series was also examined by synthesizing amide functionalized biphenyl linkers. For this purpose, four different linkers containing amides with different alkyl chains (C1-C4) were synthesized and used for the synthesis of four new MOF structures ZnAcBPDC, ZnPrBPDC, ZnBuBPDC and ZnPeBPDC.
PXRD measurements of ZnAcBPDC indicated that the structure contains two different phases. PXRD patterns of ZnPrBPDC, ZnBuBPDC and ZnPeBPDC revealed non-interpenetrated structures which were further proved by single crystal X-ray measurements. The chemical structure of the MOF materials was further confirmed by X-ray spectoscopy, solid state NMR and IR measurements.
N2 adsorption measurements of the MOF structures were carried out using different activation methods. For all four MOFs, Type I isotherms were obtained. ZnAcBPDC showed the highest BET surface area. ZnAcBPDC and ZnBuBPDC were tested for their alkane, alkene and CO2 adsorption capacities.
In the second part of the work, the surface modification of three different metal oxides, ZrO2, TiO2 and Al2O3 was performed. For this purpose firstly three different fluorescent phosphonate derivatives containing thiophene units were synthesized from their halo derivatives in a four step synthesis and then used as coupling molecules for the surface modification. Nine different surfaces were obtained (38@TiO2, 39@TiO2, 40@TiO2, 38@Al2O3, 39@Al2O3, 40@Al2O3, 38@ZrO2, 39@ZrO2, 40@ZrO2).
All three modified metal oxide surfaces were characterized using elemental analysis, solid state NMR and IR spectroscopy. The BET surface areas of the materials were determined by N2 adsorption measurements. TGA was used to determine the stability of the surfaces. Maximum loadings were obtained for ZrO2 surfaces.
Due to the strong luminescence of the coupling molecules, the modified surfaces were checked for their light emission. All ZrO2 and Al2O3 surfaces showed fluorescence with exception of 40@Al2O3. On the other hand, for the modified TiO2 surfaces, no fluorescence could be observed.
Die über mehr als 100 Jahre gewachsenen komplexen Strukturen der Wasserver- und Abwasserentsorgungssysteme müssen sich zunehmend neuen Herausforderungen stellen. Die Forderung nach einer Anpassung hin zu flexiblen und nachhaltigen Systemen bedingt einen hohen Neu- und Umbaubedarf im Bestand. Als Alternativen und Ergänzung bestehender Systeme werden neben einer naturnahen Regenwasserbewirtschaftung auch Neuartige Sanitärsysteme diskutiert. Eine Umstellung bestehender Systeme auf Siedlungsebene findet hierbei allerdings äußert selten statt. Hierfür ist die Erarbeitung von Umgestaltungsstrategien erforderlich, um finanzielle Mittel und ökologischen Nutzen zu optimieren.
In dieser Arbeit wird ein multi-kriterielles lineares Optimierungsmodell genutzt, in dem Methoden der Projektplanungs- und Netzwerkflussprobleme verknüpft werden. Als wesentliche Nebenbedingung wird die Einhaltung der Funktionsfähigkeit der sich wandelnden Systeme und als Zielfunktionen werden ökonomische und ökologische Kosten eingeführt. Lösungen des formulierten mathematischen Problems sind Pareto-optimale funktionsfähige und zulässige Strategien der weitreichenden Integration einer ressourcenorientierten Abwasserbewirtschaftung. Als Ergebnis liegt ein Instrument vor, dass die Entscheidungsfindung zur Umgestaltung von bestehenden siedlungswasserwirtschaftlichen Infrastrukturen unterstützt und mögliche Kosten und Folgewirkungen zeitlich und räumlich differenziert aufzeigen kann.
Das Optimierungsmodell wurde an zwei Untersuchungsgebieten angewandt und optimale Umgestaltungsstrategien zu unterschiedlichen nachhaltigen Zielzuständen analysiert sowie eine Sensitivitätsanalyse bezüglich wichtiger Optimierungsparameter durchgeführt. Die Ergebnisse zeigen, dass die generelle Umsetzbarkeit einer weitreichenden Teilstromseparation gewährleistet ist, wenn neue Elemente zur Bewirtschaftung, Behandlung und Ableitung zeitlich optimiert integriert werden. Mögliche Umgestaltungen werden keine linearen Anpassungen an Zielwerte, Veränderungen von Umweltauswirkungen oder Kostenflüsse verursachen. Es ergeben sich vielmehr über den Umsetzungszeitraum veränderliche Verläufe, die je nach Zielgewichtung von ökonomischen und ökologischen Kosten große Wirkungen zu Beginn oder zum Ende der Betrachtungsdauer zeigen. Vor allem die Gewichtung der beiden Kosten und die Auswahl der zu minimierenden ökologischen Kriterien haben einen großen Einfluss auf die gefundenen Umgestaltungsstrategien. Die jeweiligen Empfehlungen zum Umgestaltungszeitraum, der Zielgewichtung und zur allgemeinen Vorgabe der Optimierungskriterien leiten sich vor allem aus der Veranlassung für eine Systemumgestaltung ab. Die für den spezifischen Anwendungsfall optimale Umgestaltungsstrategie kann sich nur durch Diskussion mit den Entscheidungsträgern vor Ort ergeben. Das Modell hat sich hierbei als sehr gut geeignetes Werkzeug zur Analyse der Systeme herausgestellt.
Es konnte gezeigt werden, dass eine Erweiterung derzeitiger Bewertungsmethoden hin zu Methoden, die zeitlich und räumlich differenzierte Aussagen für den ökologischen und ökonomischen Zustand ermöglichen, erforderlich ist. Die alleinige Planung und Betrachtung des zukünftigen Systemzustandes ist nicht ausreichend zur Beurteilung der Wirkungen einer weitreichenden Implementierung ressourcenorientierter Abwasserbewirtschaftung.
This paper considers supervised multi-class image segmentation: from a labeled set of
pixels in one image, we learn the segmentation and apply it to the rest of the image or to other similar images. We study approaches with p-Laplacians, (vector-valued) Reproducing Kernel Hilbert
Spaces (RKHSs) and combinations of both. In all approaches we construct segment membership
vectors. In the p-Laplacian model the segment membership vectors have to fulfill a certain probability simplex constraint. Interestingly, we could prove that this is not really a constraint in the case p=2 but is automatically fulfilled. While the 2-Laplacian model gives a good general segmentation, the case of the 1-Laplacian tends to neglect smaller segments. The RKHS approach has
the benefit of fast computation. This direction is motivated by image colorization, where a given
dab of color is extended to a nearby region of similar features or to another image. The connection
between colorization and multi-class segmentation is explored in this paper with an application to
medical image segmentation. We further consider an improvement using a combined method. Each
model is carefully considered with numerical experiments for validation, followed by medical image
segmentation at the end.
It is often helpful to compute the intrinsic volumes of a set of which only a pixel image is observed. A computational efficient approach, which is suggested by several authors and used in practice, is to approximate the intrinsic volumes by a linear functional of the pixel configuration histogram. Here we want to examine, whether there is an optimal way of choosing this linear functional, where we will use a quite natural optimality criterion that has already been applied successfully for the estimation of the surface area. We will see that for intrinsic volumes other than volume or surface area this optimality criterion cannot be used, since estimators which ignore the data and return constant values are optimal w.r.t. this criterion. This shows that one has to be very careful, when intrinsic volumes are approximated by a linear functional of the pixel configuration histogram.
In this paper we investigate the asymptotic behaviour of the parallel volume
of fixed non-convex bodies in Minkowski spaces as the distance \(r\) tends to infinity.
We will show that the difference of the parallel volume of the convex hull of a
body and the parallel volume of the body itself can at most have order \(r^{d-2}\) in a \(d\)-dimensional space. Then we will show that in Euclidean spaces this difference can at most have order \(r^{d-3}\). These results have several applications, e.g. we will use
them to compute the derivative of \(f_\mu(rK)\) in \(r = 0\), where \(f_\mu\) is the Wills functional
or a similar functional, \(K\) is a body and \(rK\) is the Minkowski-product of \(r\) and \(K\). Finally we present applications concerning Brownian paths and Boolean models and derive new proofs for formulae for intrinsic volumes.
The discrete nature of the dispersed phase (swarm of droplet) in stirred and pulsed liquid-liquid extraction columns makes its mathematical modelling of such complex system a tedious task. The dispersed phase is considered as a population of droplets distributed randomly with respect to their internal properties (such as: droplet size and solute concentration) at a specific location in space. Hence, the population balance equation has been emerged as a mathematical tool to model and describe such complex behaviour. However, the resulting model is too complicated. Accordingly, the analytical solution of such a mathematical model does not exist except for particular cases. Therefore, numerical solutions are resorted to in general. This is due to the inherent nonlinearities in the convective and diffusive terms as well as the appearance of many integrals in the source term. However, modelling and simulation of liquid extraction columns is not an easy task because of the discrete nature of the dispersed phase, which consist of population of droplets. The natural frame work for taking this into account is the population balance approach.
In part of this doctoral thesis work, a rigours mathematical model based on the bivariate population balance frame work (the base of LLECMOD ‘‘Liquid-Liquid Extraction Column Module’’) for the steady state and dynamic simulation of pulsed (sieve plate and packed) liquid-liquid extraction columns is developed. The model simulates the coupled hydrodynamic and mass transfer for pulsed (packed and sieve plate) extraction columns. The model is programmed using visual digital FORTRAN and then integrated into the LLECMOD program. Within LLECMOD the user can simulate different types of extraction columns including stirred and pulsed ones. The basis of LLECMOD depends on stable robust numerical algorithms based on an extended version of a fixed pivot technique after Attarakih et al., 2003 (to take into account interphase solute transfer) and advanced computational fluid dynamics numerical methods. Experimental validated correlations are used for the estimation of the droplet terminal velocity in extraction columns based on single and swarm droplet experiments in laboratory scale devices. Additionally, recent published correlations for turbulent energy dissipation, droplet breakage and coalescence frequencies are discussed as been used in this version of LLECMOD. Moreover, coalescence model from literature derived from a stochastical description have been modified to fit the deterministic population model. As a case study, LLECMOD is used here to simulate the steady state performance of pulsed extraction columns under different operating conditions, which include pulsation intensity and volumetric flow rates are simulated. The effect of pulsation intensity (on the holdup, mean droplet diameter and solute concentration) is found to have more profound effect on systems of high interfacial tension. On the hand, the variation of volumetric flow rates have substantial effect on the holdup, mean droplet diameter and solute concentration profiles for chemical systems with low interfacial tension. Two chemical test systems recommended by the European Federation of Chemical Engineering (water-acetone (solute)-n-butyl acetate and water-acetone (solute)-toluene) and an industrial test system are used in the simulation. Model predictions are successfully validated against steady state and transient experimental data, where good agreements are achieved. The simulated results (holdup, mean droplet diameter and mass transfer profiles) compared to the experimental data show that LLECMOD is a powerful simulation tool, which can efficiently predict the dynamic and steady state performance of pulsed extraction columns.
In other part of this doctoral thesis work, the steady state performance of extraction columns is studied taking into account the effect of dispersed phase inlet condition (light or heavy phase is dispersed) and the direction of mass transfer (from continuous to dispersed phase and vice versa) using the population balance framework. LLECMOD, a program that uses multivariate population balance models, is extended to take into account the direction of mass transfer and the dispersed phase inlet. As a case study, LLECMOD is used to simulate pilot plant RDC columns where the steady state mean flow properties (dispersed phase hold up and droplet mean diameter) and the solute concentration profiles are compared to the available experimental data. Three chemical systems were used: sulpholane–benzene–n-heptane, water–acetone–toluene and water–acetone–n-butyl acetate. The dispersed phase inlet and the direction of mass transfer as well as the chemical system physical properties are found to have profound effect on the steady state performance of the RDC column. For example, the mean droplet diameter is found to persist invariant when the heavy phase is dispersed and the extractor efficiency is higher when the direction of mass transfer is from the continuous to the dispersed phase. For the purpose of experimental validation, it is found that LLECMOD predictions are in good agreement with the available experimental data concerning the dispersed phase hold up, mean droplet diameter and solute concentration profiles in both phases.
In a further part of this doctoral thesis, a mathematical model is developed for liquid extraction columns based on the multivariate population balance equation (PBE) and the primary secondary particle method (PSPM) introduced by Attarakih, 2010 (US Patent Application: 0100106467). It is extended to include the momentum balance for the dispersed phase. The advantage of momentum balance is to eliminate the need for often conflicting correlations used in estimating the terminal velocity of single and swarm of droplets. The resulting mathematical model is complex due to the integral nature of the population balance equation. To reduce the complexity of this model, while maintaining most of the information drawn from the continuous population balance equation, the concept of the PSPM is used. Based on the multivariate population balance equation and the PSPM a mathematical model is developed for any liquid extraction column. The secondary particle could be envisaged as a fluid particle carrying information about the distribution as it is evolved in space and time, in the meanwhile the primary particles carry the mean properties of the population such as total droplet concentration; mean droplet diameter dispersed phase hold up and so on. This information reflects the particle-particle interactions (breakage and coalescence) and transport (convection and diffusion). The developed model is discretized in space using a first-order upwind method, while semi-implicit first-order scheme in time is used to simulate a pilot plant RDC extraction column. Here the effect of the number of primary particles (classes) on the final predicted solution is investigated. Numerical results show that the solution converge fast even as the number of primary particle is increased. The terminal droplet velocity of the individual primary particle is found the most sensitive to the number of primary particles. Other mean population properties like the droplet mean diameter, mean hold up and the concentration profiles are also found to converge along the column height by increasing the number of primary particles. The predicted steady state profiles (droplet diameter, holdup and the concentration profiles) along a pilot RDC extraction column are compared to the experimental data where good agreement is achieved.
In addition to this a robust rigorous mathematical model based on the bivariate population balance equation is developed to predict the steady state and dynamic behaviour of the interacting hydrodynamics and mass transfer in Kühni extraction columns. The developed model is extended to include the momentum balance for the calculation of the droplet velocity. The effects of step changes in the important input variables (such as volumetric flow rates, rotational speed, inlet solute concentrations etc.) on the output variables (dispersed phase holdup, mean droplet diameter and the concentration profiles) are investigated.
The last topic of this doctoral thesis is developed to transient problems. The unsteady state analysis reveals the fact that the largest time constant (slowest response) is due to the mass transfer. On the contrary, the hydrodynamic response of the dispersed phase holdup is very fast when compared to the mass transfer due to the relative fast motion of the dispersed droplets with respect to the continuous phase. The dynamic behaviour of the dispersed and continuous phases shows a lag time that increases away from the feed points of both phases. Moreover, the solute concentration response shows a highly nonlinear behaviour due to both positive and negative step changes in the input variables. The simulation results are in good agreement with the experimental ones and show the usefulness of the model.
The paper production is a problem with significant importance for the society
and it is a challenging topic for scientific investigations. This study is concerned
with the simulations of the pressing section of a paper machine. A two-dimensional
model is developed to account for the water flow within the pressing zone. Richards’
type equation is used to describe the flow in the unsaturated zone. The dynamic capillary
pressure–saturation relation proposed by Hassanizadeh and co-workers (Hassanizadeh
et al., 2002; Hassanizadeh, Gray, 1990, 1993a) is adopted for the paper
production process.
The mathematical model accounts for the co-existence of saturated and unsaturated
zones in a multilayer computational domain. The discretization is performed
by the MPFA-O method. The numerical experiments are carried out for parameters
which are typical for the production process. The static and dynamic capillary
pressure–saturation relations are tested to evaluate the influence of the dynamic
capillary effect.
In this work, some model reduction approaches for performing simulations
with a pseudo-2D model of Li-ion battery are presented. A full pseudo-2D model of processes in Li-ion batteries is presented following
[3], and three methods to reduce the order of the full model are considered. These are: i) directly reduce the model order using proper
orthogonal decomposition, ii) using fractional time step discretization in order to solve the equations in decoupled way, and iii) reformulation
approaches for the diffusion in the solid phase. Combinations of above
methods are also considered. Results from numerical simulations are presented, and the efficiency and the accuracy of the model reduction approaches are discussed.
On Gyroscopic Stabilization
(2012)
This thesis deals with systems of the form
\(
M\ddot x+D\dot x+Kx=0\;, \; x \in \mathbb R^n\;,
\)
with a positive definite mass matrix \(M\), a symmetric damping matrix \(D\) and a positive definite stiffness
matrix \(K\).
If the equilibrium in the system is unstable, a small disturbance is enough to set the system in motion again. The motion of the system sustains itself, an effect which is called self-excitation or self-induced vibration. The reason behind this effect is the presence of negative damping, which results for example from dry friction.
Negative damping implies that the damping matrix \(D\) is indefinite or negative definite. Throughout our work, we assume \(D\) to be indefinite, and that the system possesses both stable and unstable modes and thus is unstable.
It is now the idea of gyroscopic stabilization to mix the modes of a system with indefinite damping such
that the system is stabilized without introducing further
dissipation. This is done by adding gyroscopic forces \(G\dot x\) with a suitable
skew-symmetric matrix \(G\) to the left-hand side. We call \(G=-G^T\in\mathbb R^{n\times n}\) a gyroscopic stabilizer for
the unstable system, if
\(
M\ddot x+(D+ G)\dot x+Kx=0
\)
is asymptotically stable. We show the existence of \(G\) in space dimensions three and four.
In anderen Bereichen bereits seit längerer Zeit bekannt und erprobt, hat die Zertifizierung
mit den neusten Ansätzen der Auszeichnung von Stadtquartieren nun auch die Aufgabenfelder
der Stadtplanung erreicht. Mit zunehmender Abkehr von der imperativen Planung
hin zu kooperativen Handlungsweisen in der Planung und Umsetzung städtebaulicher
Projekte und Maßnahmen verändern sich die Austauschbeziehungen der beteiligten
privaten und öffentlichen Akteure. Dies geschieht in einer Form, in der das private gewinnorientierte Handeln und die Implementierung von Instrumenten, die der Effizienzsteigerung
der Transaktionen dienen, zunehmend an Bedeutung gewinnen. Der Wandel der
Organisationsformen in einzelnen Bereichen der Stadtentwicklung, speziell im Rahmen der
vorhabenbezogenen Planung und der städtebaulichen Projektentwicklung, führt zu einer
Vielzahl an Anlässen für den Einsatz von Zertifizierungssystemen und -verfahren.
Zielsetzung der Arbeit ist es, modellhaft instrumentelle und organisatorische Ausgestaltungsformen
der Zertifizierung im Rahmen der Planung und Umsetzung städtebaulicher
Projekte und Maßnahmen aufzuzeigen sowie Implementationsformen und -grenzen in
Bezug auf informelle und formelle Prozesse der Planung und Umsetzung zu bestimmen.
Um die Analyse sowie die Übertragung der Zertifizierung auf die spezifischen Bereiche der
Stadtplanung und Stadtentwicklung durchzuführen, erfolgt eine theoriegeleitete Untersuchung
über mehrere wissenschaftliche Disziplinen hinweg. In der Arbeit wird insbesondere
auf die Theorien der Neuen Institutionenökonomie zurückgegriffen. Die Theorie der
Verfügungsrechte, die Prinzipal-Agent-Theorie und die Transaktionskostentheorie dienen
als Grundlage zur Erklärung der Zielsetzungen, Interventionslogiken und Mechanismen von
Zertifizierung in ökonomischen Austauschbeziehungen. Die Steuerungstheorie dient der
Einordnung der Zertifizierung als Steuerungsinstrument und der Erklärung der steuerungsinstrumentellen Absichten einer Zertifizierung.
Die im Rahmen der Planung und Umsetzung städtebaulicher Projekte und Maßnahmen
relevanten Faktoren der Qualitätsunsicherheit, des opportunistischen Verhalten und der
Spezifität der Transaktionen wurden hinsichtlich ihrer zentralen Rolle dargelegt und
berücksichtigt. Zielkonflikte und Informationsasymmetrien in den Austauschbeziehungen
der vielfältigen an der Planung und Umsetzung der städtebaulichen Projekte und Maßnahmen
Beteiligten wurden analysiert und als Anlass der Zertifizierung identifiziert.
Im Ergebnis werden Empfehlungen und differenzierte Modellvariationen für die institutionelle
Ausgestaltung von Systemen und Verfahren der Zertifizierung im Rahmen der Planung
und Umsetzung städtebaulicher Projekte und Maßnahmen auf Stadtquartiersebene
abgeleitet und die Grenzen und Prämissen der Zertifizierung dargelegt.
Annual Report 2011
(2012)
Annual Report, Jahrbuch AG Magnetismus
The main topic of this thesis is to define and analyze a multilevel Monte Carlo algorithm for path-dependent functionals of the solution of a stochastic differential equation (SDE) which is driven by a square integrable, \(d_X\)-dimensional Lévy process \(X\). We work with standard Lipschitz assumptions and denote by \(Y=(Y_t)_{t\in[0,1]}\) the \(d_Y\)-dimensional strong solution of the SDE.
We investigate the computation of expectations \(S(f) = \mathrm{E}[f(Y)]\) using randomized algorithms \(\widehat S\). Thereby, we are interested in the relation of the error and the computational cost of \(\widehat S\), where \(f:D[0,1] \to \mathbb{R}\) ranges in the class \(F\) of measurable functionals on the space of càdlàg functions on \([0,1]\), that are Lipschitz continuous with respect to the supremum norm.
We consider as error \(e(\widehat S)\) the worst case of the root mean square error over the class of functionals \(F\). The computational cost of an algorithm \(\widehat S\), denoted \(\mathrm{cost}(\widehat S)\), should represent the runtime of the algorithm on a computer. We work in the real number model of computation and further suppose that evaluations of \(f\) are possible for piecewise constant functions in time units according to its number of breakpoints.
We state strong error estimates for an approximate Euler scheme on a random time discretization. With this strong error estimates, the multilevel algorithm leads to upper bounds for the convergence order of the error with respect to the computational cost. The main results can be summarized in terms of the Blumenthal-Getoor index of the driving Lévy process, denoted by \(\beta\in[0,2]\). For \(\beta <1\) and no Brownian component present, we almost reach convergence order \(1/2\), which means, that there exists a sequence of multilevel algorithms \((\widehat S_n)_{n\in \mathbb{N}}\) with \(\mathrm{cost}(\widehat S_n) \leq n\) such that \( e(\widehat S_n) \precsim n^{-1/2}\). Here, by \( \precsim\), we denote a weak asymptotic upper bound, i.e. the inequality holds up to an unspecified positive constant. If \(X\) has a Brownian component, the order has an additional logarithmic term, in which case, we reach \( e(\widehat S_n) \precsim n^{-1/2} \, (\log(n))^{3/2}\).
For the special subclass of $Y$ being the Lévy process itself, we also provide a lower bound, which, up to a logarithmic term, recovers the order \(1/2\), i.e., neglecting logarithmic terms, the multilevel algorithm is order optimal for \( \beta <1\).
An empirical error analysis via numerical experiments matches the theoretical results and completes the analysis.
SecB is a homotetrameric cytosolic chaperone that forms part of the protein translocation machinery in E. coli. Due to SecB, nascent polypeptides are maintained in an unfolded translocation-competent state devoid of tertiary structure and thus are guided to the translocon. In vitro SecB rapidly binds to a variety of ligands in a non-native state. We have previously investigated the bound state conformation of the model substrate bovine pancreatic trypsin inhibitor (BPTI) as well as the conformation of SecB itself by using proximity relationships based on site-directed spin labeling and pyrene fluorescence methods. It was shown that SecB undergoes a conformational change during the process of substrate binding. Here, we generated SecB mutants containing but a single cysteine per subunit or an exposed highly reactive new cysteine after removal of the nearby intrinsic cysteines. Quantitative spin labeling was achieved with the methanethiosulfonate spin label (MTS) at positions C97 or E90C, respectively. Highfield (W-band) electron paramagnetic resonance (EPR) measurements revealed that with BPTI present the spin labels are exposed to a more polar/hydrophilic environment. Nanoscale distance measurements with double electron-electron resonance (DEER) were in excellent agreement with distances obtained by molecular modeling. Binding of BPTI also led to a slight change in distances between labels at C97 but not at E90C. While the shorter distance in the tetramer increased, the larger diagonal distance decreased. These findings can be explained by a widening of the tetrameric structure upon substrate binding much like the opening of two pairs of scissors.
The direction splitting approach proposed earlier in [6], aiming at the efficient solution of Navier-Stokes equations, is extended and adopted here to solve the Navier-Stokes-Brinkman equations describing incompressible flows in plain and in porous media. The resulting pressure equation is a perturbation of the
incompressibility constrained using a direction-wise factorized operator as proposed in [6]. We prove that this approach is unconditionally stable for the unsteady Navier-Stokes-Brinkman problem. We also provide numerical illustrations of the method's accuracy and efficiency.
By natural or man-made disasters, the evacuation of a whole region or city may become necessary. Apart from private traffic, the evacuation from collection points to secure shelters outside the endangered region will be realized by a bus fleet made available by emergency relief. The arising Bus Evacuation Problem (BEP) is a vehicle scheduling problem, in which a given number of evacuees needs to be transported from a set of collection points to a set of capacitated shelters, minimizing the total evacuation time, i.e., the time needed until the last person is brought to safety.
In this paper we consider an extended version of the BEP, the Robust Bus Evacuation Problem (RBEP), in which the exact numbers of evacuees are not known, but may stem from a set of probable scenarios. However, after a given reckoning time, this uncertainty is eliminated and planners are given exact figures. The problem is to decide for each bus, if it is better to send it right away -- using uncertain numbers of evacuees -- or to wait until the numbers become known.
We present a mixed-integer linear programming formulation for the RBEP and discuss solution approaches; in particular, we present a tabu search framework for finding heuristic solutions of acceptable quality within short computation time. In computational experiments using both randomly generated instances and the real-world scenario of evacuating the city of Kaiserslautern, we compare our solution approaches.
Das Ziel dieser Arbeit war die Synthese von Nanorezeptoren basierend auf Goldnanopartikeln unter Verwendung von reversiblen Ligandenaustauschreaktionen. Dabei sollte überprüft werden, ob Templateffekte geeigneter Substrate für die Synthese bzw. Optimierung der Bindungseigenschaften dieser Rezeptoren ausgenutzt werden können. Als Modellsystem wurde ein literaturbekannter Flavinrezeptor gewählt, der als Grundlage für die ersten Untersuchungen diente. Die Bindung von Flavin an diesen Rezeptor erfolgt zum einen an eine Diaminopyridineinheit durch Bildung von Wasserstoffbrückenbindungen. Zum anderen ermöglicht eine Pyreneinheit die Ausbildung von π-π-Wechselwirkungen zu Flavin. Hierbei wurden zunächst über einen zweistufigen Syntheseweg drei verschieden Flavinrezeptoren hergestellt, die sich in der Länge der passivierenden Alkythiole unterschieden. Die Oberflächenzusammensetzung dieser drei Rezeptoren unterschied sich dabei vor allem in der Anzahl der gebunden Pyreneinheiten, die mit zunehmender Kettenlänge der Alkylthiole sank. Im Gegenzug stieg die Anzahl der gebundenen Alkylthiole. Die Charakterisierung der Flavinaffinität dieser Rezeptoren zeigte eine Zunahme der Bindungskonstanten mit zunehmender Anzahl an gebundenen Pyren-Liganden. Die funktionellen Einheiten dieser Flavinrezeptoren stellten die Grundlage für die systematische Entwicklung eines Verfahrens zur Synthese von funktionalisierten Goldnanopartikeln durch eine einstufige Ligandenaustauschreaktion dar. Als Ausgangsverbindungen wurden Alkylthiol-geschützte Goldnanopartikel verwendet. Neben den Diaminopyridin- und Pyren-Liganden wurden weitere funktionalisierte Liganden hergestellt und in den Ligandenaustauschreaktionen eingesetzt. Außerdem wurden weitere Template dargestellt und deren Einfluss auf die Ligandenaustauschreaktion untersucht. Die systematische Variation der Reaktionsbedingungen bzw. der Struktur der Liganden und Template ergab, dass u. A. die Zugabe von Flavin während der Austauschreaktion eine Veränderung in der Oberflächenzusammensetzung bewirkt. Diese äußert sich in einer Abnahme der gebundenen Diaminopyridinliganden und einer Zunahme der gebundenen Pyrenliganden. Außerdem besitzen die Nanopartikel, die in Gegenwart von Flavin synthetisiert wurden, eine deutlich höhere Substrataffinität als solche, bei denen Flavin während der Synthese abwesend war. Weitere Arbeiten zur Synthese zur Variation der Ligandenstruktur und/oder Templatstruktur wurden durchgeführt. Zusammengenommen geben diese Ergebnisse starke Hinweise darauf, dass die Synthese von auf Goldnanopartikeln-basierten Rezeptoren und die Optimierung ihrer Bindungseigenschaften durch Templat-kontrollierte Ligandenaustauschreaktionen möglich ist.
Protonentransferkoordinaten sind von entscheidender Bedeutung in der Photochemie, wobei eine Interpretation über IR-Spektroskopie in Kombination mit theoretischen Analysen erfolgt.
Die starke Anharmonizität von Protonentransferkoordinaten macht eine Beschreibung von z.B. OH-Streckschwingungen in der harmonischen Näherung oft selbst unter Zuhilfenahme von Skalierungsfaktoren unmöglich. Im Rahmen dieser Dissertation wurde die zweidimensionale Potenzialhyperfläche von 2,5-Dihydroxybenzoesäure entlang der Protonentransferkoordinate im S1 \((^1\pi\pi^*)\)-Zustand mit der CASPT2-Methode berechnet und die zweidimensional gekoppelte Schwingungsschrödingergleichung gelöst. Hierbei konnte gezeigt werden, dass DHB im S1-Zustand keinen Protonentransfer, sondern eine Wasserstoffdislokation aufweist, d.h. die Hyperfläche über nur ein Minimum verfügt. Auch der Effekt der Kopplung in Form einer deutlichen Rotverschiebung der Frequenzen konnte gezeigt werden. Für 3-Hydroxyflavon wurden die Potenzialhyperflächen der Protonentransferkoordinaten in einer, zwei und drei Dimensionen für den elektronischen Grundzustand (S0) mit DFT und den S1 \((^1\pi\pi^*)\)-Zustand mit TDDFT bestimmt. Die zugehörigen gekoppelten Schwingungsschrödingergleichungen wurden in einer Basis von Hermite-Funktionen mit dem Ritzschen Variationsverfahren gelöst. Hierbei konnte in allen drei Modellen (ein-, zwei- und dreidimensional) gezeigt werden, dass es sich bei den im OH-Streckschwingungsbereich (2750-3800 cm\(^{-1}\)) gemessenen Frequenzen um Obertöne handelt. Die Protonentransferpfade konnten ebenfalls eindeutig bestimmt werden.
Die Bildung anionischer Kobaltkomplexe mit alkoholischen Liganden wird durch Wasserstoffbrücken gesteuert. Durch DFT-Rechnungen konnten den im AK Gerhards gemessenen IR-Spektren Strukturen zugeordnet werden. Durch die starke Abhängigkeit der Strukturen der Kobaltcluster von ihrer Spinmultiplizität gelang auch eine Zuordnung der Strukturen zu Multiplizitäten. Somit konnte theoretisch gezeigt werden, dass es durch IR-Spektroskopie möglich ist, Spins von Übergangsmetallkomplexen zu bestimmen. Darüber hinaus wurde der Einfluss der Entropie auf die Stabilitäten der möglichen Konformere der Kobaltkomplexe in Abhängigkeit der Temperatur untersucht werden. Hierbei konnte gezeigt werden, dass mit zunehmender Temperatur eine einzelne Anlagerung der Liganden an den Metallkern bevorzugt wird.
This thesis is devoted to furthering the tropical intersection theory as well as to applying the
developed theory to gain new insights about tropical moduli spaces.
We use piecewise polynomials to define tropical cocycles that generalise the notion of tropical Cartier divisors to higher codimensions, introduce an intersection product of cocycles with tropical cycles and use the connection to toric geometry to prove a Poincaré duality for certain cases. Our
main application of this Poincaré duality is the construction of intersection-theoretic fibres under a
large class of tropical morphisms.
We construct an intersection product of cycles on matroid varieties which are a natural
generalisation of tropicalisations of classical linear spaces and the local blocks of smooth tropical
varieties. The key ingredient is the ability to express a matroid variety contained in another matroid variety by a piecewise polynomial that is given in terms of the rank functions of the corresponding
matroids. In particular, this enables us to intersect cycles on the moduli spaces of n-marked abstract
rational curves. We also construct a pull-back of cycles along morphisms of smooth varieties, relate
pull-backs to tropical modifications and show that every cycle on a matroid variety is rationally
equivalent to its recession cycle and can be cut out by a cocycle.
Finally, we define families of smooth rational tropical curves over smooth varieties and construct a tropical fibre product in order to show that every morphism of a smooth variety to the moduli space of abstract rational tropical curves induces a family of curves over the domain of the morphism.
This leads to an alternative, inductive way of constructing moduli spaces of rational curves.
The scientific aim of this work was to synthesize and characterize new bidentate and tridentate phosphine ligands , their corresponding palladium complexes and to examine their application as homogenous catalysts. Later on, a part of the obtained palladium catalysts was immobilized and used as heterogonous catalyst.
Pyrimidinyl functionalized diphenyl phosphine ligands were synthesized by ring closure of [2-(3-dimethylamino-1-oxoprop-2-en-yl)phenyl]diphenylphosphine with an excess of substituted guanidinium salts. Furthermore to increase the electron density at phosphorous centre the two aryl substituents on the phosphanyl group were exchanged against two alkyl substituents. Electron rich pyrimidinyl functionalized dialkyl phosphine ligands were synthesized from pyrimidinyl functionalized bromobenzene in a process involving lithiation followed by reaction with a chlorodialkylphosphine.
Starting from the new synthesized diaryl phosphine ligands, their corresponding palladium complexes were synthesized. I was able to show that slight changes at the amino group of [(2-aminopyrimidin-4-yl)aryl]phosphines lead to pronounced differences in the stability and catalytic activity of the corresponding palladium(II) complexes. Having a P,C coordination mode, the palladium complex can catalyze rapidly the Suzuki coupling reaction of phenylbronic acid with arylbromides even at room temperature with a low loading.
Using the NH2 group of the aminopyrimidine as a potential site for the introduction of an other substituent, bidentate and tridentate ligands containing phosphorous atoms connected to the aminopyrimidine group and their corresponding palladium complexes were synthesized and characterized.
Two ligands [2- and 4-(4-(2-amino)pyrimidinyl)phenyl]diphenylphosphine (containing NH2 group) functionalized with a ethoxysilane group were synthesized. The palladium complexes based on these ligands were prepared and immobilized on commercial silica and MCM-41. Using elemental analysis, FT-IR, solid state 31P, 13C and 29Si CP–MAS NMR spectroscopy, XRD and N2 adsorption the success of the immobilization was confirmed and the structure of the heterogenized catalyst was investigated.
The resulting heterogeneous catalysts were applied for the Suzuki reaction and exhibited excellent activity, selectivity and reusability.
In this paper, we propose multi-level Monte Carlo(MLMC) methods that use ensemble level mixed multiscale methods in the simulations of multi-phase flow and transport. The main idea of ensemble level multiscale methods is to construct local multiscale basis functions that can be used for any member of the ensemble. We consider two types of ensemble level mixed multiscale finite element methods, (1) the no-local-solve-online ensemble level method (NLSO) and (2) the local-solve-online ensemble level method (LSO). Both mixed multiscale methods use a number of snapshots of the permeability media to generate a multiscale basis.
As a result, in the offline stage, we construct multiple basis functions for
each coarse region where basis functions correspond to different realizations.
In the no-local-solve-online ensemble level method one uses the whole set of pre-computed basis functions to approximate the solution for an arbitrary realization. In the local-solve-online ensemble level method one uses the pre-computed functions to construct a multiscale basis for a particular realization. With this basis the solution corresponding to this
particular realization is approximated in LSO mixed MsFEM. In both approaches
the accuracy of the method is related to the number of snapshots computed based on different realizations that one uses to pre-compute a
multiscale basis. We note that LSO approaches share similarities with reduced basis methods [11, 21, 22].
In multi-level Monte Carlo methods ([14, 13]), more accurate (and expensive) forward simulations are run with fewer samples while less accurate(and inexpensive) forward simulations are run with a larger number of samples. Selecting the number of expensive and inexpensive simulations carefully, one can show that MLMC methods can provide better accuracy
at the same cost as MC methods. In our simulations, our goal is twofold. First, we would like to compare NLSO and LSO mixed MsFEMs. In particular, we show that NLSO
mixed MsFEM is more accurate compared to LSO mixed MsFEM. Further, we use both approaches in the context of MLMC to speed-up MC
calculations. We present basic aspects of the algorithm and numerical
results for coupled flow and transport in heterogeneous porous media.
Standard bases are one of the main tools in computational commutative algebra. In 1965
Buchberger presented a criterion for such bases and thus was able to introduce a first approach for their computation. Since the basic version of this algorithm is rather inefficient
due to the fact that it processes lots of useless data during its execution, active research for
improvements of those kind of algorithms is quite important.
In this thesis we introduce the reader to the area of computational commutative algebra with a focus on so-called signature-based standard basis algorithms. We do not only
present the basic version of Buchberger’s algorithm, but give an extensive discussion of different attempts optimizing standard basis computations, from several sorting algorithms
for internal data up to different reduction processes. Afterwards the reader gets a complete
introduction to the origin of signature-based algorithms in general, explaining the under-
lying ideas in detail. Furthermore, we give an extensive discussion in terms of correctness,
termination, and efficiency, presenting various different variants of signature-based standard basis algorithms.
Whereas Buchberger and others found criteria to discard useless computations which
are completely based on the polynomial structure of the elements considered, Faugère presented a first signature-based algorithm in 2002, the F5 Algorithm. This algorithm is famous for generating much less computational overhead during its execution. Within this
thesis we not only present Faugère’s ideas, we also generalize them and end up with several
different, optimized variants of his criteria for detecting redundant data.
Being not completely focussed on theory, we also present information about practical
aspects, comparing the performance of various implementations of those algorithms in the
computer algebra system Singular over a wide range of example sets.
In the end we give a rather extensive overview of recent research in this area of computational commutative algebra.
An isogeometric Reissner-Mindlin shell derived from the continuum theory is presented. The geometry is described by NURBS surfaces. The kinematic description of the employed shell theory requires the interpolation of the director vector and of a local basis system. Hence, the definition of nodal basis systems at the control points is necessary for the proposed formulation. The control points are in general not located on the shell reference surface and thus, several choices for the nodal values are possible. The proposed new method uses the higher continuity of the geometrical description to calculate nodal basis system and director vectors which lead to geometrical exact interpolated values thereof. Thus, the initial director vector coincides with the normal vector even for the coarsest mesh. In addition to that a more accurate interpolation of the current director and its variation is proposed. Instead of the interpolation of nodal director vectors the new approach interpolates nodal rotations. Account is taken for the discrepancy between interpolated basis systems and the individual nodal basis systems with an additional transformation. The exact evaluation of the initial director vector along with the interpolation of the nodal rotations lead to a shell formulation which yields precise results even for coarse meshes. The convergence behavior is shown to be correct for k-refinement allowing the use of coarse meshes with high orders of NURBS basis functions. This is potentially advantageous for applications with high numerical effort per integration point. The geometrically nonlinear formulation accounts for large rotations. The consistent tangent matrix is derived. Various standard benchmark examples show the superior accuracy of the presented shell formulation. A new benchmark designed to test the convergence behavior for free form surfaces is presented. Despite the higher numerical effort per integration point the improved accuracy yields considerable savings in computation cost for a predefined error bound.
This research for this thesis was conducted to develop a framework which supports the automatic configuration of project-specific software development processes by selecting and combining different technologies: the Process Configuration Framework. The research draws attention to the problem that while the research community develops new technologies, the industrial companies continue only using their well-known ones. Because of this, technology transfer takes decades. In addition, there is the fact that there is no solution which solves all problems in a software development project. This leads to a number of technologies which need to be combined for one project.
The framework developed and explained in this research mainly addresses those problems by building a bridge between research and industry as well as by supporting software companies during the selection of the most appropriate technologies combined in a software process. The technology transformation gap is filled by a repository of (new) technologies which are used as a foundation of the Process Configuration Framework. The process is configured by providing SPEM process pattern for each technology, so that the companies can build their process by plugging into each other.
The technologies of the repository were specified in a schema including a technology model, context model, and an impact model. With context and impact it is possible to provide information about a technology, for example, its benefits to quality, cost or schedule. The offering of the process pattern as output of the Process Configuration Framework is performed in several stages:
I Technology Ranking:
1 Ranking based on Application Domain, Project & Impact
2 Ranking based on Environment
3 Ranking based on Static Context
II Technology Combination:
4 Creation of all possible Technology Chains
5 Restriction of the Technology Chains
6 Ranking based on Static and Dynamic Context
7 Extension of the Chains by Quality Assurance
III Process Configuration:
8 Process Component Diagram
9 Extension of the Process Component Diagram
10 Instantiation of the Components by Technologies of the Technology Chain
11 Providing process patterns
12 Creation of the process based on Patterns
The effectiveness and quality of the Process Configuration Framework have additionally been evaluated in a case study. Here, the Technology Chains manually created by experts were compared to the chains automatically created by the framework after it was configured by those experts. This comparison depicted that the framework results are similar and therefore can be used as a recommendation.
We conclude from our research that support during the configuration of a process for software projects is important especially for non-experts. This support is provided by the Process Configuration Framework developed in this research. In addition our research has shown that this framework offers a possibility to speed up the technology transformation gap between the research community and industrial companies.
Phosphane nehmen eine herausragende Stellung als Liganden in der homogen Katalyse ein. In der Arbeitsgruppe Thiel wurde kürzlich ein neuartiges Verfahren zur Synthese von Triarylphosphanen entwickelt. Im ersten Teil der Arbeit stand daher die Weiterentwicklung dieser fluoridkatalysierten Phosphor-Aryl-Kupplung im Mittelpunkt. Ein wichtiges Ziel hierbei war die Übertragung der Reaktionen in einen größeren Maßstab. In einem Ansatz konnte 1 kg an (4-[3-(N,N-Dimethylamino)prop-2-en-1-onyl]phen-yl)diphenylphosphan in einer Pilotanlage synthetisiert werden. Diese Verbindung diente als „Plattformchemikalie“ und ermöglichte die Synthese weiterer Pyrazol- und Pyrimidinderviate. Insbesondere gelang davon ausgehend die Synthese von Verbindungen, die mit einem Sulfonsäure- oder Hydroxamsäurelinker modifiziert sind.
Im zweiten Teil der Arbeit wurde das Prinzip der fluoridkatalysierten Phosphor-Aryl-Kupplung auf Amine übertragen. Die Motivation dafür ergab sich aus dem Vorkommen des N-Arylheterocyclen-Strukturmotivs in vielen Pharmazeutika. Eine entsprechende Erweiterung der Anwendungsbreite dieses Verfahrens sollte sich daher positiv auf die Vermarktungschancen auswirken. Ausgehend von Versuchen mit Trimethylsilylimidazol und Trimethylsilylpyrrolidin wurde eine milde und allgemein anwendbare Methode für die Synthese von N-Arylaminen entwickelt. Hierbei liegt der Vorteil insbesondere darin, dass auf den stöchiometrischen Einsatz von Basen verzichtet werden kann.
Der Hauptteil der Arbeit beschäftigte sich mit der Immobilisierung von phosphonsäurefunktionalisierten Triphenylphosphankomplexen auf Metalloxiden. Die Immobilisierung von homogenen Katalysatoren auf festen Trägermaterialien bietet großes Potential, um das Problem der Katalysatorabtrennung zu lösen. Der für die Immobilisierung benötigte Ligand 3-[4-(Diphenylphosphanyl)benzoylamino]propyl-1-phosphonsäurediethylester konnte über eine konvergente Synthese mit sieben Schritten synthetisiert werden. Ausgehend von diesem Liganden und dem entsprechenden Phosphonsäurederivat wurden Palladium- und Rhodiumkomplexe synthetisiert. Diese Komplexe wurden auf Titandioxid, Zirconiumdioxid und superparamagnetischen Eisenoxidnanopartikeln immobilisiert. Durch IR-Spektroskopie, thermogravimetrische Analyse und Festkörper-Kernspinresonanzspektroskopie konnte die Anbindung des jeweiligen Komplexes auf dem Trägermaterial belegt werden. Die erhaltenen Hybridmaterialien wurden erfolgreich für die Suzuki-Miyaura-Kupplung und die Hydrierung von Alkenen eingesetzt. Dabei konnten die Katalysatoren mehrfach wiederverwendet werden und zeigten eine gute Aktivität und Anwendungsbreite.
Recently convex optimization models were successfully applied for solving various problems in image analysis and restoration. In this paper, we are interested in relations between convex constrained optimization problems of the form \(min\{\Phi(x)\) subject to \(\Psi(x)\le\tau\}\) and their non-constrained, penalized counterparts \(min\{\Phi(x)+\lambda\Psi(x)\}\). We start with general considerations of the topic and provide a novel proof which ensures that a solution of the constrained problem with given \(\tau\) is also a solution of the on-constrained problem for a certain \(\lambda\). Then we deal with the special setting that \(\Psi\) is a semi-norm and \(\Phi=\phi(Hx)\), where \(H\) is a linear, not necessarily invertible operator and \(\phi\) is essentially smooth and strictly convex. In this case we can prove via the dual problems that there exists a bijective function which maps \(\tau\) from a certain interval to \(\lambda\) such that the solutions of the constrained problem coincide with those of the non-constrained problem if and only if \(\tau\) and \(\lambda\) are in the graph of this function. We illustrate the relation between \(\tau\) and \(\lambda\) by various problems arising in image processing. In particular, we demonstrate the performance of the constrained model in restoration tasks of images corrupted by Poisson noise and in inpainting models with constrained nuclear norm. Such models can be useful if we have a priori knowledge on the image rather than on the noise level.
Recently convex optimization models were successfully applied
for solving various problems in image analysis and restoration.
In this paper, we are interested in relations between
convex constrained optimization problems
of the form
\({\rm argmin} \{ \Phi(x)\) subject to \(\Psi(x) \le \tau \}\)
and their penalized counterparts
\({\rm argmin} \{\Phi(x) + \lambda \Psi(x)\}\).
We recall general results on the topic by the help of an epigraphical projection.
Then we deal with the special setting \(\Psi := \| L \cdot\|\) with \(L \in \mathbb{R}^{m,n}\)
and \(\Phi := \varphi(H \cdot)\),
where \(H \in \mathbb{R}^{n,n}\) and \(\varphi: \mathbb R^n \rightarrow \mathbb{R} \cup \{+\infty\} \)
meet certain requirements which are often fulfilled in image processing models.
In this case we prove by incorporating the dual problems
that there exists a bijective function
such that
the solutions of the constrained problem coincide with those of the
penalized problem if and only if \(\tau\) and \(\lambda\) are in the graph
of this function.
We illustrate the relation between \(\tau\) and \(\lambda\) for various problems
arising in image processing.
In particular, we point out the relation to the Pareto frontier for joint sparsity problems.
We demonstrate the performance of the
constrained model in restoration tasks of images corrupted by Poisson noise
with the \(I\)-divergence as data fitting term \(\varphi\)
and in inpainting models with the constrained nuclear norm.
Such models can be useful if we have a priori knowledge on the image rather than on the noise level.
Generic layout analysis--process of decomposing document image into homogeneous regions for a collection of diverse document images--has many important applications in document image analysis and understanding such as preprocessing of degraded warped, camera-captured document images, high performance layout analysis of document images containing complex cursive scripts, and word spotting in historical document images at page level. Many areas in this field like generic text line extraction method are considered as elusive goals so far, still beyond the reach of the state-of-the-art methods [NJ07, LSZT07, KB06]. This thesis addresses this problem in such a way that it presents generic, domain-independent, text line extraction and text and non-text segmentation methods, and then describes some important applications, that were developed based on these methods. An overview of the key contributions of this thesis is as follows.
The first part of this thesis presents a generic text line extraction method using a combination of matched filtering and ridge detection techniques, which are commonly used in computer vision. Unlike the state-of-the-art text line extraction methods in the literature, the generic text line extraction method can be equally and robustly applied to a large variety of document image classes including scanned and camera-captured documents, binary and grayscale documents, typed-text and handwritten documents, historical and contemporary documents, and documents containing different scripts. Different standard datasets are selected for performance evaluation that belong to different categories of document images such as the UW-III [GHHP97] dataset of scanned documents, the ICDAR 2007 [GAS07] and the UMD [LZDJ08] datasets of handwritten documents, the DFKI-I [SB07] dataset of camera-captured documents, Arabic/Urdu script documents dataset, and German calligraphic (Fraktur) script historical documents dataset. The generic text line extraction method achieves 86% (n = 23,763 text lines in 650 documents) text line detection accuracy which is better than the aggregate accuracy of 73% of the best performing domain-specific state-of-the-art methods. To the best of the author's knowledge, it is the first general-purpose text line extraction method that can be equally used for a diverse collection of documents.
This thesis also presents an active contour (snake) based curled text line extraction method for warped, camera-captured document images. The presented approach is applied to DFKI-I [SB07] dataset of camera-captured, Latin script document images for curled text line extraction. It achieves above 95% (n = 3,091 text lines in 102 documents) text line detection accuracy, which is significantly better than the competing state-of-the-art curled text line extraction methods. The presented text line extraction method can also be applied to document images containing different scripts like Chinese, Devanagari, and Arabic after small modifications.
The second part of this thesis presents an improved version of the state-of-the-art multiresolution morphology (Leptonica) based text and non-text segmentation method [Blo91], which is a domain-independent page segmentation approach and can be equally applied to a diverse collection of binarized document images. It is demonstrated that the presented improvements result in an increase in segmentation accuracy from 93% to 99% (n = 113 documents).
This thesis also introduces a discriminative learning based approach for page segmentation, where a self-tunable multi-layer perceptron (MLP) classifier [BS10] is trained for distinguishing between text and non-text connected components. Unlike other classification based page segmentation approaches in the literature, the connected components based discriminative learning based approach is faster than pixel based classification methods and does not require a block segmentation method beforehand. A segmentation accuracy of $96\%$ ($n = 113$ documents) is achieved in comparison to the state-of-the-art multiresolution morphology (Leptonica) based page segmentation method [Blo91] that achieves a segmentation accuracy of 93%. In addition to text and non-text segmentation of Latin script documents, the presented approach can also be adapted for document images containing other scripts as well as for other specialized layout analysis tasks such as digit and non-digit segmentation [HBSB12], orientation detection [RBSB09], and body-text and side-note segmentation [BAESB12].
Finally, this thesis presents important applications of the two generic layout analysis techniques, ridge-based text line extraction method and the multi-resolution morphology based text and non-text segmentation method, discussed above. First, a complete preprocessing pipeline is described for removing different types of degradations from grayscale warped, camera-captured document images that includes removal of grayscale degradations such as non-uniform shadows and blurring through binarization, noise cleanup applying page frame detection, and document rectification using monocular dewarping. Each of these preprocessing steps shows significant improvement in comparison to the analyzed state-of-the-art methods in the literature. Second, a high performance layout analysis method is described for complex Arabic script document images written in different languages such as Arabic, Urdu, and Persian and different styles for example Naskh and Nastaliq. The presented layout analysis system is robust against different types of document image degradations and shows better performance for text and non-text segmentation, text line extraction, and reading order determination on a variety of Arabic and Urdu document images as compared to the state-of-the-art methods. It can be used for large scale Arabic and Urdu documents' digitization processes. These applications demonstrate that the layout analysis methods, ridge-based text line extraction and the multi-resolution morphology based text and non-text segmentation, are generic and can be applied easily to a large collection of diverse document images.
In this work we extend the multiscale finite element method (MsFEM)
as formulated by Hou and Wu in [14] to the PDE system of linear elasticity.
The application, motivated from the multiscale analysis of highly heterogeneous
composite materials, is twofold. Resolving the heterogeneities on
the finest scale, we utilize the linear MsFEM basis for the construction of
robust coarse spaces in the context of two-level overlapping Domain Decomposition
preconditioners. We motivate and explain the construction
and present numerical results validating the approach. Under the assumption
that the material jumps are isolated, that is they occur only in the
interior of the coarse grid elements, our experiments show uniform convergence
rates independent of the contrast in the Young's modulus within the
heterogeneous material. Elsewise, if no restrictions on the position of the
high coefficient inclusions are imposed, robustness can not be guaranteed
any more. These results justify expectations to obtain coefficient-explicit
condition number bounds for the PDE system of linear elasticity similar to
existing ones for scalar elliptic PDEs as given in the work of Graham, Lechner
and Scheichl [12]. Furthermore, we numerically observe the properties
of the MsFEM coarse space for linear elasticity in an upscaling framework.
Therefore, we present experimental results showing the approximation errors
of the multiscale coarse space w.r.t. the fine-scale solution.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung funktionaler Modellsysteme von Bromo- und Chloroperoxidasen zur Oxidation von Bromid und Chlorid unter wasserfreien und nachhaltigen Bedingungen. Die neuen Methoden fanden Anwendung in der Synthese halogenierter O-Heterocyclen, welche häufig als Grundstrukturen von Naturstoffen mit ausgeprägten physiologischen Wirkungen auftreten. Die gewonnenen Erkenntnisse lösten vorhandene Probleme mit Reaktivität und Chemoselektivität in oxidativen Bromierungsreaktionen und trugen zu einem besseren Verständnis der beobachteten Regioselektivitäten in Bromcyclisierungen hochsubstituierter 4-Pentenole bei. Aufbauend auf diesen Ergebnissen konnte erstmalig eine analoge Methode zur oxidativen Chlorcyclisierung für die Darstellung beta-chlorierter Tetrahydrofurane und Tetrahydropyrane entwickelt werden.
SHIM is a concurrent deterministic programming language for embedded systems built on rendezvous communication. It abstracts away many details to give the developer a high-level view that includes virtual shared variables, threads as orthogonal statements, and deterministic concurrent exceptions.
In this paper, we present a new way to compile a SHIM-like language into a set of asynchronous guarded actions, a well-established intermediate representation for concurrent systems. By doing so, we build a bridge to many other tools, including hardware synthesis and formal verification. We present our translation in detail, illustrate it through examples, and show how the result can be used by various other tools.
This thesis generalizes the Cohen-Lenstra heuristic for the class groups of real quadratic
number fields to higher class groups. A "good part" of the second class group is defined.
In general this is a non abelian proper factor group of the second class group. Properties
of those groups are described, a probability distribution on the set of those groups is in-
troduced and proposed as generalization of the Cohen-Lenstra heuristic for real quadratic
number fields. The calculation of number field tables which contain information about
higher class groups is explained and the tables are compared to the heuristic. The agree-
ment is close. A program which can create an internet database for number field tables is
presented.
Für einen teilgesättigten Modellboden sind experimentelle Untersuchungen ausgeführt, die sowohl die Teilsättigung des Bodens während der Belastung als auch die zyklischen Einwirkungen unter drainierten Randbedingungen berücksichtigen. Die Teilsättigung ist durch eine Saugspannungsmessung mittels Miniaturtensiometer in einer zyklischen Triaxialzelle und einem statischen Ödometer erfasst. In zahlreichen Laboruntersuchungen konnte eine reproduzierbare Probenaufbereitung nachgewiesen werden. Insbesondere konnte gezeigt werden, dass im Probeninnern des Modellbodens gegenüber den Probenendflächen keine signifikant abweichenden Wassergehalte und somit konstante Anfangssaugspannungen vorliegen. Vor allem bei der Applikation von zyklischen Beanspruchungen zur Ermittlung und numerischen Beschreibung des Materialverhaltens ist dieser Umstand von Bedeutung. Die Messergebnisse sind anschließend zur Modifikation eines elastoplastischen Stoffmodellansatzes herangezogen.
Mit den erzielten Untersuchungsergebnissen konnten die Parameterfunktionen eines elastoplastischen Stoffgesetzansatzes in Abhängigkeit von der Anfangsporenzahl, des Anfangssättigungsgrades sowie des Isotopen Spannungszustandes unter Berücksichtigung der Einflussgrößen aus der zyklischen Beanspruchung, dieses sind die axiale deviatorische Spannungsamplitude und die Lastzyklenzahl, für einen Frequenzbereich von 0,005 - 0,01 Hz über einen Separationsansatz aufgestellt werden. Die Kopplung der Teilsättigung erfolgt dabei über den Sättigungsgrad bzw. den Wassergehalt des Bodens anhand der porenzahlabhängigen Saugspannungscharakteristik (SWCC).
Es konnte gezeigt werden, dass alle untersuchten teilgesättigten Böden in der zyklischen Lastphase durchgehend eine zyklisch-deviatorische Dehnungsverfestigung aufweisen. Ab einer Lastzyklenzahl größer 560 stagnieren die zyklisch bedingten Verformungen und es entsteht ein quasi-stationärer Verformungs- und Porendruckzustand. Dabei zeigen die sogenannten Wechselversuche eine signifikante höhere Verformungs- und Saugspannungsamplitude als die sogenannten Schwellversuche.
Die aufgestellten Beziehungen gelten für einen Wertebereich der Anfangssättigungsgrade größer 82% und der Anfangsporenzahl zwischen 0,52 und 0,64.
Thermoplastic polymer-polymer composites consist of a polymeric matrix and a
polymeric reinforcement. The combination of these materials offers outstanding
mechanical properties at lower weight than standard fiber reinforced materials.
Furthermore, when both polymeric components originate from the same family or,
ideally, from the same polymer, their sustainability degree is higher than standard
fiber reinforced composites.
A challenge of polymer-polymer composites is the subsequent processing of their
semi-finished materials by heating techniques. Since the fibers are made of meltable
thermoplastic, the reinforcing fiber structure might be lost during the heating process.
Hence, the mechanical properties of an overheated polymer-polymer composite
would decline, and finally, they would be even lower than the neat matrix. A decrease
of process temperature to manage the heating challenge is not reasonable since the
cycle time would be increased at the same time. Therefore, this work pursues the
adaption of a fast and selective heating method on the use with polymer-polymer
composites. Inductively activatable particles, so-called susceptors, were distributed in
the matrix to evoke a local heating in the matrix when being exposed to an
alternating magnetic field. In this way, the energy input to the fibers is limited.
The experimental series revealed the induction particle heating effect to be mainly
related to susceptor material, susceptor fraction, susceptor distribution as well as
magnetic field strength, coupling distance, and heating time. A proper heating was
achieved with ferromagnetic particles at a filler content of only 5 wt-% in HDPE as
well as with its respective polymer fiber reinforced composites. The study included
the analysis of susceptor impact on mechanical and thermal matrix properties as well
as a degradation evaluation. The susceptors were identified to have only a marginal
impact on matrix properties. Furthermore, a semi-empiric simulation of the particle
induction heating was applied, which served for the investigation of intrinsic melting
processes.
The achieved results, the experimental as well as the analytic study, were
successfully adapted to a thermoforming process with a polymer-polymer material,
which had been preheated by means of particle induction.
Große Stegöffnungen werden in Stahlverbundträgern immer dann erforderlich, wenn in Trägerebene Leitungen quer zur Trägerachse geführt werden sollen. Die Attraktivität der Stahlverbundbauweise steigt mit der Möglichkeit, die Tragfähigkeit im Bereich großer Stegöffnungen rechnerisch nachweisen zu können. Bisher war es aber nicht möglich, eine Verstärkung des Betongurtes durch Einbau von Dübelleisten in einem Nachweiskonzept nutzbar zu machen. Bei Dübelleisten handelt es sich um Doppelkopfanker, die in einer Reihe meist auf ein Lochblech aufgeschweißt werden. Sie werden von mehreren Herstellern als Querkraft- und Durchstanzbewehrungselemente vertrieben.
In der vorliegenden Arbeit wird der Einfluss von Dübelleisten auf das Querkrafttragverhalten
des Stahlbetongurts von Verbundträgern im Bereich von großen Stegöffnungen untersucht. Dazu wurden 28 Versuche sowie rechnerische Untersuchungen durchgeführt.
Dabei konnte in einzelnen Versuchen durch den Einsatz von Dübelleisten eine Traglaststeigerung von mehr als 50 % erzielt werden. Unter anderem wurde der Effekt der Querbiegung untersucht, bei dem durch die vertikale Belastung des Betongurts außerhalb der Verbundträgerachse ein negatives Biegemoment in Querrichtung entsteht.
Es wurde ein Nachweiskonzept erarbeitet, mit dem die Querkrafttragfähigkeit eines Betongurts unter Berücksichtigung von im Betongurt angeordneten Dübelleisten wirklichkeitsnah
bestimmt werden kann. Das erstellte Konzept ermöglicht es, bei der Bemessung von Verbundträgern, die durch Stegöffnungen geschwächt sind, durch einen geringen Mehreinsatz von Bewehrung in Form von Dübelleisten eine deutliche Traglaststeigerung zu erzielen. Der Einfluss von Querbiegemomenten wird durch eine konservative Abschätzung der Lasteinzugsfläche berücksichtigt.
Due to their N-glycosidase activity, ribosome-inactivating proteins (RIPs) are attractive candidates as antitumor and antiviral agents in medical and biological research. In the present study, we have successfully cloned two different truncated gelonins into pET-28a(+) vectors and expressed intact recombinant gelonin (rGel), recombinant C-terminally truncated gelonin (rC3-gelonin) and recombinant N- and C-terminally truncated gelonin (rN34C3-gelonin). Biological experiments showed that all these recombinant gelonins have no inhibiting effect on MCF-7 cell lines. These data suggest that the truncated-gelonins are still having a specific structure that does not allow for internalization into cells. Further, truncation of gelonin leads to partial or complete loss of N-glycosidase as well as DNase activity compared to intact rGel. Our data suggest that C-and N-terminal amino acid residues are involved in the catalytic and cytotoxic activities of rGel. In addition, the intact gelonin should be selected as a toxin in the immunoconjugate rather than truncated gelonin.
In the second part, an immunotoxin composed of gelonin, a basic protein of 30 kDa isolated from the Indian plant Gelonium multiflorum and the cytotoxic drug MTX has been studied as a potential tool of gelonin delivery into the cytoplasm of cells. Results of many experiments showed that, on the average, about 5 molecules of MTX were coupled to one molecule of gelonin. The MTX-gelonin conjugate is able to reduce the viability of MCF-7 cell in a dose-dependent manner (ID50, 10 nM) as shown by MTT assay and significantly induce direct and oxidative DNA damage as shown by the alkaline comet assay. However, in-vitro translation toxicity MTX-gelonin conjugates have IC50, 50.5 ng/ml which is less toxic than that of gelonin alone IC50, 4.6 ng/ml. It can be concluded that the positive charge plays an important role in the N-glycosidase activity of gelonin. Furthermore, conjugation of MTX with gelonin through α- and γ- carboxyl groups leads to the partial loss of its anti-folate activity compared to free MTX. These results, taken together, indicate that conjugation of MTX to gelonin permits delivery of the gelonin into the cytoplasm of cancer cells and exerts a measurable toxic effect.
In the third part, we have isolated and characterized two ribosome-inactivating proteins (RIPs) type I, gelonin and GAP31, from seeds of Gelonium multiflorum. Both proteins exhibit RNA-N-glycosidase activity. The amino acid sequences of gelonin and GAP31 were identified by MALDI and ESI mass spectrometry. Gelonin and GAP31 peptides - obtained by proteolytic digestion (trypsin and Arg-C) - are consistent with the amino acid sequence published by Rosenblum and Huang, respectively. Further structural characterization of gelonin and GAP31 (tryptic and Arg-C peptide mapping) showed that the two RIPs have 96% similarity in their sequence. Thus, these two proteins are most probably isoforms arisen from the same gene by alternative splicing. The ESI-MS analysis of gelonin and GAP31 exhibited at least three different post-translational modified forms. A standard plant paucidomannosidic N-glycosylation pattern (GlcNAc2Man2-5Xyl0-1 and GlcNAc2Man6-12Fuc1-2Xyl0-2) was identified using electrospray ionization MS for gelonin on N196 and GAP31 on N189, respectively. Based on these results, both proteins are located in the vacuoles of Gelonium multiflorum seeds.