Refine
Year of publication
- 2015 (146) (remove)
Document Type
- Doctoral Thesis (100)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Bachelor Thesis (2)
- Conference Proceeding (2)
- Article (1)
- Lecture (1)
- Moving Images (1)
Has Fulltext
- yes (146)
Keywords
- Beam-on time (2)
- Decomposition cardinality (2)
- Field splitting (2)
- Hochschulforschung (2)
- Intensity modulated radiation therapy (2)
- Multileaf collimator sequencing (2)
- NURBS (2)
- Regionalentwicklung (2)
- Stadtplanung (2)
- finite element method (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Kaiserslautern - Fachbereich Informatik (22)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (22)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (9)
- Universität (7)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
Infobrief FBK 46/15
(2015)
Infobrief FBK 47/15
(2015)
Infobrief FBK 48/15
(2015)
Im Rahmen dieser Diplomarbeit konnte das etablierte direkte Laserschreiben um einen zusätzlichen
abregenden Strahlengang ergänzt werden, dessen Einfluss im Hinblick auf das
Polymerisationsverhalten untersucht wurde.
Bei dem verwendeten (Negativ-) Photolack IP-L 780 konnte durch stimulierte Emission die
Generierung von Radikalen unterbunden werden, indem die an- und abregenden Laserfokusse
räumlich überlagert wurden. Dabei stellte sich heraus, dass ein relativ großer Intensitätsbereich
den erwünschten Effekt hervorruft.
Die in der Fluoreszenzmikroskopie seit langem verwendeten Abregungsmoden (doughnut und
bottleshape) konnten mithilfe von räumlichen Lichtmodulatoren und dem speziell für diesen
Zweck entwickelten Programm zur PSF-Darstellung sehr gut erzeugt werden. Dabei fanden
neben den Zernike-Polynomen auch inverse Gauß-Funktionen zur Aberrationskorrektur Anwendung.
Auch sogenannte Multifokusse (lateral und axial) konnten durch eine geeignete
Gewichtung der Zernike-Polynome zuverlässig generiert werden, wobei die dafür notwendigen
Phasen- und Amplitudenpattern mithilfe eines entsprechenden iterativen Algorithmus
(GSA3D) berechnet wurden.
Der laterale Polymerisationsdurchmesser konnte sowohl durch die doughnut-Mode, als auch
durch den lateralen Multifokus von 240 nm um ca. 50 % auf ungefähr 120 nm reduziert
werden. Der stimulierende Teil der doughnut-Mode, der entlang der Schreibrichtung dem
Polymerisationsfokus vorauseilt (oder hinterherläuft), führt zu keinerlei relevanten Unterschieden
im Vergleich zum Multifokus.
Dies konnte zudem durch ein Experiment verifiziert werden, bei dem die An- und Abregungsfokusse
entlang der Schreibrichtung um verschiedene Distanzen versetzt positioniert
wurden. Ob der stimulierende Laser den Photolack räumlich (und damit zeitlich) einige hundert
Nanometer (bzw. einige Millisekunden) vor oder nach dem anregenden beeinflusst, zeigt
dabei keinerlei Unterschiede. Je größer der Versatz, desto geringer die stimulierende Wirkung.
Demnach scheint der abregende Laser den Photoinitiator (DETC) zu stimulierter Emission
zu bringen, bevor dieser seine absorbierte Energie zur Spaltung und damit zum Polymerisationsbeginn
nutzen kann.
Der axiale Polymerisationsdurchmesser konnte sowohl mit der etablierten bottleshape-Mode,
als auch mit dem hier entwickelten axialen Multifokus von ca. 400 nm um 50% auf unge-
57
5 Zusammenfassung und Ausblick Julian Hering
fähr 200 nm reduziert werden. Bei Letzterem war der Intensitätsring in der xy-Ebene bei
z = 0 deutlich stärker ausgeprägt als bei der bottleshape-Mode, was zu einer erhöhten
lateralen Polymerisationsunterdrückung und damit zu einem schlechteren Aspektverhältnis
führte. Nichtsdestotrotz konnte dadurch im Rahmen dieser Arbeit erstmals STED-DLW mittels
räumlicher Lichtmodulatoren betrieben werden.
Die mit starren Phasenmasken bereits erreichten Linienabmessungen von bis zu 65 nm lateral
und 180 nm axial konnten somit zwar nicht erreicht werden, jedoch ist in dieser Hinsicht eine
deutliche Verbesserung gegenüber dem zuvor verwendeten normalen DLW unverkennbar. Leider
zeigt die Kombination mit STED jedoch neue Herausforderungen auf. So wurde z.B. die
Strukturqualität beim Anfahren und Abbremsen des Piezos enorm verschlechtert. Auch die
Generierung mancher Abregungsmoden erwies sich als äußerst mühsam und zeitaufwendig.
Aus diesem Grund wird in Zukunft ein automatisiertes Vorgehen bei der Aberrationskorrektur
angestrebt, sowie eine aufeinander abgestimmte Ansteuerung der jeweiligen Laserleistungen.
Der Strukturierungszeitaufwand aufgrund der verwendeten Geschwindigkeit von 100 μm/s
kann in Zukunft ebenfalls verringert werden, da das Auslenkverhalten der beiden Fokusse in
einem Radius von 50 μm mittels Galvanospiegel-System weitestgehend gleich ist. Zu diesem
Zweck müssen allerdings je nach verwendeter Geschwindigkeit die nötigen Laserleistungen
ermittelt werden. Außerdem muss die räumliche Formkonstanz der An- und Abregungsmoden
bei einer Auslenkung um bis zu 50 μm untersucht werden. Durch den Verzicht auf das
Piezo-System würde sich das Problem der schlechten Qualität an den Strukturkanten eventuell
erübrigen.
Zudem lässt sich durch die Verwendung räumlicher Lichtmodulatoren der Einsatz verwendeter
Abregungsmoden weiter ausbauen. Axiale Multifokusse mit einer Halbwertslücke von
unter 300 nm und einem Intensitätsminimum von unter 30% sind theoretisch kein Problem.
Es gilt demnach, diese Moden zu generieren und auf deren Verbesserung hinsichtlich Linienbreite
und -länge zu untersuchen. Ein Test zur Ermittlung des Signal zu Rausch Verhältnisses
der jeweiligen Moden über den gesamten möglichen Bereich der stimulierten Emission würde
beispielsweise stark zur Charakterisierung der Multifokusse beitragen.
Am 25.11.2015 fand in Kaiserslautern die Fachtagung „Mikroschadstoffe aus Abwasseranlagen in Rheinland-Pfalz“ statt. Veranstalter waren das Fachgebiet Siedlungswasserwirtschaft und das Zentrum für innovative AbWassertechnologien (tectraa) an der Technischen Universität Kaiserslautern, die Wupperverbandsgesellschaft für integrale Wasserwirtschaft (WiW) sowie das Ministerium für Umwelt, Landwirtschaft, Ernährung, Weinbau und Forsten des Landes Rheinland-Pfalz (MULEWF).
Hintergrund der Veranstaltung war das Forschungsprojekt „Relevanz, Möglichkeiten und Kosten einer Elimination von Mikroschadstoffen auf kommunalen Kläranlagen in Rheinland-Pfalz, aufgezeigt am Beispiel der Nahe - Mikro_N“, das tectraa in Zusammenarbeit mit WiW im Auftrag des MULEWF durchgeführt hat. Im Rahmen der Fachtagung wurden sowohl Projektergebnisse vorgestellt als auch allgemein relevante Fragestellungen zum Thema Mikroschadstoffe beleuchtet. Rahmenbedingungen sowie Perspektiven für eine Elimination der Mikroschadstoffe bildeten weitere inhaltliche Schwerpunkte der Veranstaltung.
Die Gewichtsreduktion im Strukturbereich stellt einen zentralen Optimierungsansatz in der Luftfahrtindustrie dar, der vor allem durch adäquate Fügetechnologien genutzt werden kann. Ausgehend vom aktuellen Stand der Technik im Helikopterbau, dem Nieten, gilt es durch die Verwendung einer innovativen Fügetechnologie das volle technologische Leistungsvermögen hinsichtlich Performance, Qualität und Kosten zu nutzen. Dazu wurde das Induktionsschweißen als die potentialreichste Fügetechno-logie für den Helikopterbau bewertet. Um dieses identifizierte Potential für eine Luftfahrtfertigungstechnologie nutzbar zu machen, ist es unerlässlich, das Indukti-onsschweißen an die Luftfahrtanforderungen anzupassen. Vor allem in den Berei-chen Nachweisbarkeit, Leistungsfähigkeit und Kosten wurden daher Fragestellungen identifiziert deren Beantwortung den Kern dieser Arbeit darstellt.
Beim Induktionsschweißen werden faserverstärkte Thermoplaste durch ein Auf-schmelzen der Matrix und ein anschließendes Abkühlen unter Druck gefügt. Die Erwärmung des sich in einem alternierenden elektromagnetischen Feld (EMF) befindlichen Laminats erfolgt dabei durch die Einkopplung eines elektrischen Stroms in die Fasern.
Das zentrale Element zur Erreichung der geforderten Leistungsfähigkeit stellt die interlaminare Temperaturverteilung dar, welche es nachzuweisen gilt. Dieser Nach-weis wurde durch ein umfassendes analytisches Modell realisiert, das eine höchst-präzise interlaminare Temperaturberechnung ermöglicht. Die Kernaussagen, welche aus dem Modell abgeleitet werden, sind die dickenabhängige Erwärmung des Laminats, die EMF-Semipermeabilität der Laminatoberflächen und der nicht expo-nentielle Abfall sowie der nicht lineare Verlauf der Temperatur in Dickenrichtung. Die Validierung der analytischen Modellierung gelang nur durch die Identifikation einer EMF-toleranten, hochdynamischen Temperaturmesstechnologie, welche mit hoher Auflösung interlaminar eingesetzt werden kann.
Auf Grundlage der Modellergebnisse wurden die optimalen Schweißparameter definiert, auf deren Basis die Leistungsfähigkeit der Induktionsschweißtechnologie mit circa 36 MPa Scherfestigkeit bestätigt wurde. Durch eine Sensibilitätsanalyse konnte weiterhin der Einfluss der Parameter Generatorleistung, Kühlvolumen, Anpressdruck, Induktorabstand, Fehlereinschlüsse und Geschwindigkeit bestimmt werden. Aufgrund der im aktuellen Anlagenaufbau nicht vorhanden Parameterüber-wachung und aufgrund des hohen Prozesseinflusses erwies sich dabei der Induktor-abstand als der kritischste Faktor.
Etwaige dadurch auftretende qualitative Mängel können durch den schlanken, maßgeschneiderten Einsatz einer Kombination aus der Ultraschalluntersuchung, einer in der Luftfahrt standardmäßig eingesetzten Qualitätssicherungsmethode und eines progressiven Inline-Prozesskontrollansatzes detektiert werden.
Parallel zur mechanischen Leistungsfähigkeit der Technologie stand der Einfluss der Temperaturverteilung auf die Oberflächenqualität im Fokus. Durch die umfangreiche theoretische und experimentelle Analyse bereits bekannter und neu entwickelter Temperaturoptimierungsmethoden konnte mit der Kühlung der Oberfläche mit temperatur- und volumenvariablen Druckluftströmen eine effiziente Methode zur zielführenden Lösung der bestehenden Problemstellung ermittelt werden.
Die Anwendbarkeit der Induktionsschweißtechnologie konnte auch durch eine Kostenrechnung am Beispiel eines helikopterspezifischen Musterbauteils bestätigt werden.
Das Ziel der vorliegenden Dissertation ist es, für den innerhalb der Faserkunststoffverbunde
etablierten Liquid Composite Molding (LCM) Herstellungsprozess, eine optimierte
Preformherstellung aus unidirektionalen (UD) Verstärkungsfasern zu entwickeln.
Dies beinhaltet auch das lokale Verstärken einer textilen Preform. Der ausschlaggebende
Prozess ist hierbei der Preform-Prozess, da dieser Kostentreiber innerhalb
der LCM-Prozesskette ist, in welchem die Verstärkungsfasern zu einem trockenen,
transportfähigen und meist flächigen Faserrohling verbunden werden.
Innerhalb des hier entwickelten Preformingprozesses werden Kohlenstofffasern, sogenannte
Heavy Tows mit einem pulverförmigen Bindersystem eingebracht, erhitzt
und mittels Endeffektor beim Ablegen konsolidiert. Die für den Prozess benötigten
Module und Systeme wurden vor der Online-Bebinderung zuerst an einem separaten
Offlinebebinderungsprüfstand montiert. Mittels dieses Offlinebebinderungsprüfstandes
war die Optimierung und Analyse der einzelnen Module und Systeme durch die
Herstellung eines kontinuierlich bebinderten Rovings (Halbzeug) außerhalb der diskontinuierlichen
Online-Bebinderung möglich. Zugleich wurden mit dem Offlineprüfstand
Halbzeuge mit unterschiedlichem Bindergehalt und unterschiedlichem Bindertyp
hergestellt um einen Einfluss des Bindergehaltes als auch des Bindertyps auf die
Eigenschaften der Preform und des infiltrierten Bauteiles zu analysieren. Die Analyse
der Versuche zeigte deutlich, dass die Wahl des Bindertyps bei gleichbleibender Infiltrationsmatrix
einen signifikanten Einfluss auf die Performance des Bauteils hat,
wohingegen die Bindermenge tendenziell einen untergeordneten Einfluss zeigt. Nach
der Sicherstellung der Funktionsfähigkeit der Module wurden diese an ein robotergestütztes
Ablegesystem zur Online-Bebinderung installiert. Die Applizierung der Binderpartikel
innerhalb der Online-Bebinderung erfolgt temporär während des Ablegeprozesses.
Zur Demonstration der Funktionsfähigkeit wurde eine quasiisotrope Glasfaserpreform
lokal mit den Kohlenstofffasern verstärkt. Die hergestellte ebene Preform
wurde im Anschluss erwärmt, kompaktiert und in eine 3 dimensionale Preform
umgeformt.
Den Abschluss der Arbeit bildet eine Wirtschaftlichkeitsbetrachtung des entwickelten
Prozesses im Vergleich zu zwei „State of the Art“ Preformherstellungsprozessen.
Hierbei konnte gezeigt werden dass die Kosten des gesamten Bauteiles um 3,7 %
sinken unter Anwendung des neu entwickelten Verfahrens der Online-Bebinderung.
Kontinuierlich faserverstärkte Thermoplaste (Organobleche) bieten ein großes Potential für den Einsatz in großvolumigen Sichtanwendungen. Es existieren jedoch einige material- und prozesstechnische Hindernisse hinsichtlich der Umsetzung dieses Potentials. Mit dieser Arbeit soll dazu beigetragen werden, das nötige, tiefgehende Verständnis bei der material- und prozesstechnischen Auslegung von optisch hochwertigen Organoblechbauteilen bereitzustellen. Die Arbeit umfasst:
- Untersuchungen zu material- und prozesstechnischen Parametern
- Eine analytische sowie eine FE-Modellbildung der Oberflächenausbildung samt Verifizierung
- Die Entwicklung eines Werkzeugkonzepts zur Verbesserung des isothermen Verarbeitungsprozesses
Die Untersuchung des Einflusses der textilen Gewebeparameter Faserdurchmesser und Maschenweite auf die Oberflächenwelligkeit von Organoblechen zeigen eine zunehmende Welligkeit mit steigendem Faserdurchmesser bzw. Maschenweite. Es wurde eine Grenzwelligkeit Wz25 = 0,5 μm ermittelt, ab der subjektiv keine Welligkeit mehr wahrgenommen wird. Im Prozessvergleich zwischen isothermer und variothermer Verarbeitung besitzen variotherm verarbeitete Organobleche eine um 40 – 50 % geringere Welligkeit. Dieser Effekt wird auf die geänderte thermische Prozessführung während der Abkühlphase zurückgeführt. Die Erkenntnisse wurden in einem analytischen Prozessmodell beschrieben, welches neben den thermischen Eigenschaften auch das rheologische Matrixverhalten berücksichtigt. Auf dem entwickelten Modell aufbauend wurde eine FE-Prozesssimulation entwickelt und an experimentellen Daten verifiziert. Das Modell ermöglicht die Vorhersage der Oberflächenwelligkeiten von Organoblechen variabler Laminatkonfiguration bei variothermer Verarbeitung und beschreibt zusätzlich das Verhalten der Organobleche unter ebener Scherung.
Um die oberflächenverbessernden Eigenschaften der variothermen Verarbeitung auch im isothermen Prozess nutzbar zu machen, wurde ein neuartiges Werkzeugkonzept entwickelt, welches die Prozessfenster über angepasste thermische Werkzeugeigenschaften gezielt einstellen kann. Neben einer verbesserten Bauteiloberfläche kann durch eine optimierte Prozessauslegung die Gesamtprozesszeit verkürzt und der Energiebedarf verringert werden.
In this contribution a mortar-type method for the coupling of non-conforming NURBS surface patches is proposed. The connection of non-conforming patches with shared degrees of freedom requires mutual refinement, which propagates throughout the whole patch due to the tensor-product structure of NURBS surfaces. Thus, methods to handle non-conforming meshes are essential in NURBS-based isogeometric analysis. The main objective of this work is to provide a simple and efficient way to couple the individual patches of complex geometrical models without altering the variational formulation. The deformations of the interface control points of adjacent patches are interrelated with a master-slave relation. This relation is established numerically using the weak form of the equality of mutual deformations along the interface. With the help of this relation the interface degrees of freedom of the slave patch can be condensated out of the system. A natural connection of the patches is attained without additional terms in the weak form. The proposed method is also applicable for nonlinear computations without further measures. Linear and geometrical nonlinear examples show the high accuracy and robustness of the new method. A comparison to reference results and to computations with the Lagrange multiplier method is given.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
Annual Report 2014
(2015)
Annual Report, Jahrbuch AG Magnetismus
Component fault trees that contain safety basic events as well as security basic events cannot be analyzed like normal CFTs. Safety basic events are rated with probabilities in an interval [0,1], for security basic events simpler scales such as \{low, medium, high\} make more sense. In this paper an approach is described how to handle a quantitative safety analysis with different rating schemes for safety and security basic events. By doing so, it is possible to take security causes for safety failures into account and to rate their effect on system safety.
In DS-CDMA, spreading sequences are allocated to users to separate different
links namely, the base-station to user in the downlink or the user to base station in the uplink. These sequences are designed for optimum periodic correlation properties. Sequences with good periodic auto-correlation properties help in frame synchronisation at the receiver while sequences with good periodic cross-
correlation property reduce cross-talk among users and hence reduce the interference among them. In addition, they are designed to have reduced implementation complexity so that they are easy to generate. In current systems, spreading sequences are allocated to users irrespective of their channel condition. In this thesis,
the method of allocating spreading sequences based on users’ channel condition
is investigated in order to improve the performance of the downlink. Different
methods of dynamically allocating the sequences are investigated including; optimum allocation through a simulation model, fast sub-optimum allocation through
a mathematical model, and a proof-of-concept model using real-world channel
measurements. Each model is evaluated to validate, improvements in the gain
achieved per link, computational complexity of the allocation scheme, and its impact on the capacity of the network.
In cryptography, secret keys are used to ensure confidentiality of communication between the legitimate nodes of a network. In a wireless ad-hoc network, the
broadcast nature of the channel necessitates robust key management systems for
secure functioning of the network. Physical layer security is a novel method of
profitably utilising the random and reciprocal variations of the wireless channel to
extract secret key. By measuring the characteristics of the wireless channel within
its coherence time, reciprocal variations of the channel can be observed between
a pair of nodes. Using these reciprocal characteristics of
common shared secret key is extracted between a pair of the nodes. The process
of key extraction consists of four steps namely; channel measurement, quantisation, information reconciliation, and privacy amplification. The reciprocal channel
variations are measured and quantised to obtain a preliminary key of vector bits (0; 1). Due to errors in measurement, quantisation, and additive Gaussian noise,
disagreement in the bits of preliminary keys exists. These errors are corrected
by using, error detection and correction methods to obtain a synchronised key at
both the nodes. Further, by the method of secure hashing, the entropy of the key
is enhanced in the privacy amplification stage. The efficiency of the key generation process depends on the method of channel measurement and quantisation.
Instead of quantising the channel measurements directly, if their reciprocity is enhanced and then quantised appropriately, the key generation process can be made efficient and fast. In this thesis, four methods of enhancing reciprocity are presented namely; l1-norm minimisation, Hierarchical clustering, Kalman filtering,
and Polynomial regression. They are appropriately quantised by binary and adaptive quantisation. Then, the entire process of key generation, from measuring the channel profile to obtaining a secure key is validated by using real-world channel measurements. The performance evaluation is done by comparing their performance in terms of bit disagreement rate, key generation rate, test of randomness,
robustness test, and eavesdropper test. An architecture, KeyBunch, for effectively
deploying the physical layer security in mobile and vehicular ad-hoc networks is
also proposed. Finally, as an use-case, KeyBunch is deployed in a secure vehicular communication architecture, to highlight the advantages offered by physical layer security.
For the prediction of digging forces from a granular material simulation, the
Nonsmooth Contact Dynamics Method is examined. First, the equations of motion
for nonsmooth mechanical systems are laid out. They are a differential
variational inequality that has the same structure as classical discrete algebraic equations. Using a Galerkin projection in time, it becomes possible to derive
nonsmooth versions of the classical SHAK and RATTLE integrators.
A matrix-free Interior Point Method is used for the complementarity
problems that need to be solved in every time step. It is shown that this method
outperforms the Projected Gauss-Jacobi method by several orders of magnitude
and produces the same digging force result as the Discrete Element Method in comparable computing time.
Die klassischen Verfahren zur Herstellung leichter Olefine, wie Steamcracken und Fluid Catalytic Cracking sind nicht mehr in der Lage, die steigende Nachfrage an Propen zu decken. Um dem Ungleichgewicht zwischen Versorgung und Nachfrage zu begegnen wurden neue Strategien und Technologien entwickelt, die eine unabhängige Produktion von Propen ermöglichen. Eine dieser Varianten ist die katalytische Umwandlung von Ethen zu Propen, die derzeit im Labormaßstab untersucht wird. In der Literatur wurden bereits verschiedene Katalysatorsysteme vorgestellt, die unter anderem Metallträgerkatalysatoren, mesoporöse Materialien und mikroporöse Materialien beinhalten. Insbesondere mikroporöse Zeolithe, die bereits in vielen technischen Prozessen erfolgreich eingesetzt werden, zeigen aufgrund ihrer katalytischen Eigenschaften ein hohes Potential in der Ethen-zu-Propen Reaktion.
In der vorliegenden Arbeit wurden Schlüsselfaktoren untersucht, die eine selektive katalytische Umwandlung von Ethen zu Propen und Butenen an 10-Ring-Zeolithen ermöglichen. Im Fokus der Untersuchungen stand der Einfluss unterschiedlicher Porenarchitekturen, die Säurestärkeverteilung und die Kristallitgröße auf die Aktivität und Stabilität der Katalysatoren sowie die Selektivität zu Propen und den Butenen. Die hergestellten 10-Ring-Zeolithe wurden mittels Pulver-Röntgendiffraktometrie, Festkörper-NMR-Spektroskopie, Stickstoff-Physisorption, Thermogravimetrie, Partikelgrößenanalyse und Raster-elektronenmikroskopie charakterisiert. Zur Erprobung der katalytischen Eigenschaften der hergestellten Materialien wurde eine Normaldruck-Strömungsapparatur aufgebaut. Variiert wurden die Katalysatorlaufzeit, die Reaktionstemperatur, die modifizierte Verweilzeit und der Ethen-Partialdruck.
Zu Beginn wurden einige 10-Ring-Zeolithe mit unterschiedlichen Porenarchitekturen hergestellt und mit physikalisch-chemischen Methoden charakterisiert. Voraussetzung zum Vergleich der unterschiedlichen Porenarchitekturen waren dabei hohe Kristallinitäten, ähnliche Kristallitgrößen und Aluminiumgehalte. Aus den katalytischen Experimenten ging hervor, dass die sterischen Restriktionen der unterschiedlichen Porenarchitekturen einen signifikanten Einfluss auf die Selektivitäten zu den leichten Olefinen haben. Daher wurde bei den 1-dimensionalen 10-Ring-Zeolithen eine hohe Selektivität für die Bildung von Propen und den Butenen mit zusammen ca. 70 % gefunden. Die 3-dimensionalen 10-Ring-Porenstrukturen zeigen hingegen deutlich niedrigere Selektivitäten zu Propen und den Butenen mit insgesamt ca. 30 %. Als Ursache der niedrigeren Selektivitäten zu den genannten Olefinen konnten Neben- und Folgereaktionen identifiziert werden, die vermutlich an den Kreuzungspunkten im 3-dimensionalen Porensystem katalysiert werden. Die Neben- und Folgereaktionen beinhalten überwiegend Wasserstofftransferreaktionen und Zyklisierungen, die zur Bildung von Alkanen und Aromaten führen. Durch die gezielte Wahl von 1-dimensionalen Porenstrukturen konnten so die relativ großen Übergangszustände der Wasserstofftransferreaktionen und der Zyklisierungen unterdrückt werden. Daraus ergeben sich im Vergleich zu den 3-dimensionalen Porenstrukturen niedrigere Aktivitäten der 1-dimensionalen Porenstrukturen bei vergleichbarer Ausbeute an Propen und Butenen. Des Weiteren konnten neben strukturellen Einflüssen der unterschiedlichen Porenarchitekturen auch erhebliche Einflüsse der Reaktionsbedingungen auf die Bildung von Neben- und Folgereaktionen aufgezeigt werden. Dies gilt insbesondere für 3-dimensionale Porenstrukturen. Den Experimenten zufolge konkurrieren die beiden bekannten Crackmechanismen (monomolekular / bimolekular) in Abhängigkeit der Reaktionsbedingungen miteinander. Hohe Reaktionstemperaturen, kurze modifizierte Verweilzeiten und Ethen-Partialdrücke begünstigen monomolekulares Cracken und somit die Bildung von Propen und Butenen. Bimolekulares Cracken, welches gerade bei niedrigeren Reaktionstemperaturen, langen modifizierten Verweilzeiten und hohen Ethen-Partialdrücken verstärkt auftritt, fördert Wasserstofftransferreaktion. Der Einfluss der Reaktionsbedingungen ist bei 1-dimensionalen Porenstrukturen weniger stark ausgeprägt, da die formselektiven Eigenschaften bei der ETP-Reaktion dominieren.
Zusätzlich zu den bereits genannten Schlüsselfaktoren wurden auch die Auswirkungen unterschiedlicher Aluminiumgehalte der Zeolithe in der sauer katalysierten Ethen-zu-Propen-Reaktion untersucht. Als Katalysatoren wurden die Zeolithe ZSM-22 und ZSM-5 als jeweilige Vertreter einer 1-dimensionalen und 3-dimensionalen Porenstruktur verwendet. Der Vergleich der katalytischen Eigenschaften erfolgte bei gleichbleibenden Reaktionsbedingungen. In Abhängigkeit von der Dimensionalität des Porensystems (1-D vs. 3-D) wurde beobachtet, dass die Selektivitäten für die kurzkettigen Olefine in einem Fall mit dem Aluminiumgehalt abnehmen (3-D, HZSM-5) und im anderen Fall zunehmen (1-D, HZSM-22). Auch hier dominieren die formselektiven Eigenschaften der 1-dimensionalen Porenstrukturen in der Ethen-zu-Propen-Reaktion, wodurch mit steigender Anzahl saurer Zentren die Aktivität und die Selektivität zu den leichten Olefinen ebenfalls steigen. Es zeigte sich jedoch, dass hohe Aluminiumgehalte zu einer verstärkten Katalysatordesaktivierung beitragen und zusätzlich den Stofftransport der Reaktanden stark beeinflussen. Zeolith ZSM-5 zeigte zwar ebenfalls eine starke Katalysatordesaktivierung mit steigendem Aluminiumgehalt, wohingegen der Stofftransport der Reaktanden nicht beeinflusst wurde. Dies ging aus dem linearen Zusammenhang zwischen der Aktivität und dem Aluminiumgehalt in der Zeolith-Struktur hervor. Die Produktselektivitäten wurden insbesondere an Zeolith ZSM-5 deutlich durch den Aluminiumgehalt beeinflusst. Hohe Aluminiumgehalte begünstigen Wasserstofftransferreaktionen und Zyklisierungen, wohingegen niedrige Aluminiumgehalte die Selektivität zu den leichten Olefinen erhöhen. Ein Erklärungsansatz hierfür basiert auf den ablaufenden Gasphasenmechanismen an heterogenen Katalysatoren: Den Experimenten zufolge verläuft die Ethen-zu-Propen-Reaktion an Zeolith ZSM-5 vermutlich nach dem Eley-Rideal-Mechanismus, wohingegen die konkurrierenden Wasserstofftransferreaktionen nach dem Langmuir-Hinshelwood-Mechanismus ablaufen. Diese Ergebnisse stehen im Einklang mit anderen literaturbekannten Studien.
Die gezielte Variation der Kristallitgröße wurde mit Zeolith ZSM-5 durchgeführt, mit dem Ziel, detailliertere Kenntnisse über das Desaktivierungsverhalten des Katalysators und den Stofftransport der Reaktanden in den Poren zu erhalten. Die Kristallitgröße von Zeolith ZSM-5 wurde einerseits durch die Kristallistaionstemperatur gesteuert und andererseits durch die Zugabe von Triethanolamin als Inhibitor für die Keimbildung. Auf diese Weise konnten mittlere Kristallitgrößen im Bereich von 6 - 69 µm hergestellt werden. Mit zunehmender Kristallitgröße von Zeolith ZSM-5 wurde bei ähnlichen Koks-Gehalten eine schnellere Katalysatordesaktivierung beobachtet. Weiterhin waren abnehmende Aktivitäten mit zunehmender Kristallitgröße zu beobachten. Es konnte gezeigt werden, dass Stofftransportlimitierungen ab einer Kristallitgröße von ca. 27 µm auftreten. Es war ebenfalls ersichtlich, dass mit steigender Kristallitgröße auch unselektive Reaktionen auf der äußeren Oberfläche der Kristallite reduziert werden. Mit diesen waren steigende Selektivitäten zu den leichten Olefinen zu beobachten, bei gleichzeitiger Abnahme der Selektivitäten zu den C1 - C4-Alkanen und den Aromaten. Dies konnte auf eine Reduktion unselektiv ablaufender Neben- und Folgereaktionen auf der äußeren Kristallitoberfläche zurückgeführt werden.
In this thesis we develop a shape optimization framework for isogeometric analysis in the optimize first–discretize then setting. For the discretization we use
isogeometric analysis (iga) to solve the state equation, and search optimal designs in a space of admissible b-spline or nurbs combinations. Thus a quite
general class of functions for representing optimal shapes is available. For the
gradient-descent method, the shape derivatives indicate both stopping criteria and search directions and are determined isogeometrically. The numerical treatment requires solvers for partial differential equations and optimization methods, which introduces numerical errors. The tight connection between iga and geometry representation offers new ways of refining the geometry and analysis discretization by the same means. Therefore, our main concern is to develop the optimize first framework for isogeometric shape optimization as ground work for both implementation and an error analysis. Numerical examples show that this ansatz is practical and case studies indicate that it allows local refinement.
This thesis deals with the development of a tractor front loader scale which measures payload continuously, independent of the center of gravity of the payload, and unaffected of the position and movements of the loader. To achieve this, a mathematic model of a common front loader is simplified which makes it possible to identify its parameters by a repeatable and automatic procedure. By measuring accelerations as well as cylinder forces, the payload is determined continuously during the working process. Finally, a prototype was build and the scale was tested on a tractor.
In this thesis, collision-induced dissociation (CID) studies serve to elucidate relative stabilities and to determine bond strengths within a given structure type of transition metal complexes. The infrared multi photon dissociation (IRMPD) spectroscopy combined with density functional theory (DFT) allow for structural analysis and provide insights into the coordination sphere of transition metal centers. The used combination of CID and IRMPD experiments is a powerful tool to obtain a detailed and comprehensive characterization and understanding of interactions between transition metals and organic ligands. The compounds’ spectrum comprises mono- or oligonuclear transition metal complexes containing iron, palladium, and ruthenium as well as lanthanide containing single molecule magnets (SMM). The presented investigations on the different transition metal complexes reveal manifold effects for each species leading to valuable results. A fundamental understanding of metal to ligand interactions is mandatory for the development of new and better organometallic complexes with catalytic, optical or magnetic properties.
Die Entwicklung nachhaltiger Methoden zur C-C und C-Heteroatom Bindungsknüpfung gehört zu den Hauptzielen der modernen organischen Synthesechemie. Übergangsmetall-katalysierte Kupplungsreaktionen sind dabei besonders effiziente und vielseitige Werkzeuge zum Aufbau komplexer Molekülstrukturen. Im Rahmen dieser Dissertation wurden neue Konzepte zur regioselektiven Bindungsknüpfung entwickelt, mit denen präformierte, organometallische Reagenzien, sowie ökologisch bedenkliche Organohalogenide umgangen werden können. Als Substrate dienen Carbonsäurederivate, die in einer vorgelagerten, reversiblen (Trans-)Esterifizierung aus ubiquitären, lagerstabilen Carbonsäuren oder deren Estern zugänglich sind. Die Insertion eines Metall-Katalysators in die C-O Bindung der Esterfunktionalität führt zum Metallcarboxylat, welches irreversibel decarboxyliert und zum Produkt gekuppelt wird. Als einzige Nebenprodukte dieser Kupplungsreaktionen werden CO2 und Wasser bzw. CO2 und leichtflüchtige Alkohole freigesetzt. Der Nutzen dieses Konzepts konnte mit der Synthese zahlreicher Arylketone, Allylbenzole und Phenylessigsäureester demonstriert werden. Der Einsatz des Palladium(I)-Dimers [Pd(µ-Br)(PtBu3)]2 führte überraschend nicht zur decarboxylierenden Funktionalisierung der Substrate, sondern zur raschen Doppelbindungsisomerisierung und der damit verbundenen Synthese von Enolestern. Die Optimierung der Reaktionsbedingungen führte zu einem hochaktiven Katalysatorsystem, das selbst den besten literaturbekannten Isomerisierungskatalysatoren weit überlegen ist. In weiteren Teilprojekten erfolgte die Entwicklung Sandmeyer-analoger Trifluormethylierungen und Trifluormethylthiolierungen, mit denen leicht zugängliche Aryldiazoniumsalze mit in situ generierten Cu-CF3 Verbindungen bereits bei Raumtemperatur trifluormethyliert werden können. Im Rahmen einer Kooperation mit Umicore erfolgte außerdem die anwendungsbezogene Optimierung eines Kreuzkupplungsverfahrens zur hochselektiven Monoarylierung primärer Amine mit äquimolaren Arylbromidmengen in konzentrierter Lösung. Dabei wurden der präformierte Katalysator Pd(dippf)maleimid und die Katalysatorlösung Pd(dippf)(vs)tol entwickelt.
Der rasante Anstieg an ß-lactamresistenten Bakterienstämmen stellt ein weltweites medizinisches Problem dar. Für die Bekämpfung von resistenten Stämmen ist es wichtig, den Mechanismus der Resistenzentstehung zu verstehen. Die im Mittelpunkt der vorliegenden Arbeit stehenden S. pneumoniae-Isolate entstammen zwei unterschiedlichen Strategien zur Untersuchung der Entstehung und Verbreitung ß-lactamresistenter Pneumokokken. Die im Fokus des ersten Teils der vorliegenden Arbeit stehende Glycosyltransferase CpoA wurde von Grebe et al. (1997) als Resistenzdeterminante in zwei spontan-resistenten Labormutanten, P104 und P106, entdeckt. Beide wurden ausgehend von dem sensitiven S. pneumoniae R6 auf einer erhöhten Piperacillinkonzentration selektioniert. Berg et al. und Edman et al., beschrieben CpoA biochemisch als a-Galactosyl-Glycosyl-Diacylglycerin-Synthase, die einen Galactosylrest von UDP-Galaktose auf Glycosyldiacylglycerin (GlcDAG) überträgt (Berg et al., 2001; Edman et al., 2003) und so Galactosyl-Glycosyldiacylglycerin (GalGlcDAG), das Hauptglycolipid der Cytoplasmamembran von S. pneumoniae bildet. Durch Detektion der Glycolipide in R6, P104, P106 und R6ΔcpoA konnten diese in vitro Daten in vivo bestätigt werden. Keine der cpoA-Mutanten wies eine detektiertbare Menge an GalGlcDAG auf. Neben der Veränderung des Glycolipidverhältnisses offenbarte die Darstellung der Membranlipide auch eine Änderung des Phospholipidverhältnisses. Die phänotypische Charakterisierung der cpoA-Mutanten zeigte eine pleiotropen Phänotyp, der mit einer verlangsamten Generationszeit, einer verminderten Säuretoleranz, einem erhöhten Bedarf an zweiwertigen Magnesiumionen, dem Verlust der natürlichen Transformierbarkeit, einer verzögerten Triton-induzierte Zelllyse, sowie eine reduzierte Bacitracinresistenz einher ging. Durch eine Microarray-basierte, globale Transkriptomanalyse konnte gezeigt werden, dass vor allem Membranproteine, wie PTS-Systeme und ABC-Transporter, eine unterschiedliche Expressionsstärke im Vergleich zum Parentalstamm R6 aufwiesen. Als Grundlage für den zweiten Teil der vorliegenden Arbeit diente ein von Todorava (2010) durchgeführtes Transformationsexperiment, indem der sensitive S. pneumoniae R6 mit chromosomaler DNA des hochresistenten S. oralis Uo5 transformiert wurde. In sechs Transformationsschritten mit sukzessiv ansteigender Antibiotikakonzentration, konnten sechs Transformanten mit einer stufenweise erhöhten ß-Lactamresistenz generiert werden. Durch die Arbeiten von Todorova et al. (2015), konnte bereits gezeigt werden, dass drei niederaffine PBPs, sowie die Aminosäureligase MurE den Resistenzanstieg der ersten drei Selektionsschritte vermitteln. In dieser Arbeit wurde sich mit den Transformanten der Selektionsschritte vier, fünf und sechs beschäftigt. Durch Genomsequenzierung und anschließende Überprüfung bestimmter Sequenzbereiche konnten die Grenzen des horizontalen Gentransfers aufgewiesen werden. Der Resistenzanstieg in den letzten drei Selektionsschritten wurde nicht durch die Übertragung resistenter Uo5-Gene, sondern einzig durch Punktmutationen vermittelt. Die Charakterisierung, sowie die phänotypischen Auswirkungen der Veränderungen standen nach ihrer Identifizierung im Mittelpunkt der vorliegenden Arbeit. In der Transformante des vierten Selektionsschrittes, PCPC, konnten zwei Punktmutationen identifiziert werden. Eine Punktmutation innerhalb des Histidinkinasegens ciaH des Zweikomponentensystems CiaRH und eine weitere in spr1992, welches für ein hypothetisches Protein codiert. Bei CiaH handelt es sich um die erste nicht-PBP-Resistenzdeterminante, die in S. pneumoniae entdeckt wurde (Guenzi et al., 1994). Es zeigte sich, dass das neu entdeckte ciaH-Allel (ciaH773) eine Hyperaktivität des CiaRH-Systems bewirkt und zur Instabilität neigt. Um das Risiko von sekundären Mutationen zu mindern, wurde die Expression von ciaH773 unter die Kontrolle eines Tetracyclin-induzierbaren Promotors gestellt. Es konnte gezeigt werden, dass ciaH773 einen 11-fachen Anstieg der CiaR-vermittelten Genregulation, sowie eine Erhöhung der ß-Lactamresistenz bewirkt und zum Verlust der natürlichen Transformierbarkeit führt. Neben der Punktmutation in ciaH, konnte im vierten Selektionsschritt noch eine weitere Veränderung in spr1992 identifiziert werden. Beim Genprodukt von spr1992 handelt es sich um hypothetisches Protein. Blastanalysen lassen auf eine regulatorische Funktion von Spr1992 schließen. Die innerhalb dieser Arbeit erzielten Ergebnisse deuten stark auf einen Beitrag der Punktmutation in spr1992 zur CiaR-vermittelten Genregulation, sowie zur Cefotaximresistenz in PCPC hin. Zukünftige Untersuchungen könnten den Zusammenhang von spr1992 mit dem CiaRH-System weiter spezifizieren.Innerhalb des fünften Selektionsschrittes konnte eine 10 bp Deletion in der Serinprotease HtrA detektiert werden, die aufgrund der Lokalisation im ersten Drittel der Serinprotease mit einem Knockout von HtrA vergleichbar ist. Es konnte gezeigt werden, dass die HtrA-Deletion zu einer weiteren Steigerung der CiaRH-vermittelten Genregulation, sowie zu einer Erhöhung der ß-Lactamresistenz führt. Durch Einbringen des ciaH773-Allels in S. pneumoniae R6 und anschließender htrA-Deletion konnte dieser regulatorische Effekt auch im Wildtyp-Hintergrund nachgewiesen werden. Durch anschließend durchgeführte globalen Transkriptomanalysen konnten weitere Einblicke in die regulatorische Funktion von HtrA im Hintergrund eines hyperaktiven CiaRH-Systems gewonnen werden. In PCPCCO, der Transformante des sechsten Selektionsschrittes, konnte eine Punktmutation im Penicillin-bindenden Protein 2b innerhalb des bereits im dritten Selektionsschritt ausgetauschten Uo5-Sequenzbereiches als Resistenzdeterminante identifiziert werden. Durch Einbringen von Q406P in S. pneumoniae R6 konnte das Resistenz vermittelnde Potential dieser Veränderung auch im Wildtyphintergrund nachgewiesen werden. Somit konnte gezeigt werden, dass eine Resistenzdeterminante, die über horizontalen Gentransfer auf S. pneumoniae übertragen wurde, durch eine sekundäre Mutation, das Resistenzniveau ihres Rezipienten weiter steigern kann.
Die hier vorgelegte Arbeit konzentrierte sich auf den vakuolären Ribonukleinsäure- (RNA) Abbau in Arabidopsis thaliana (A. thaliana) und die Integration in den Nukleotid- Metabolismus unter Berücksichtigung von Nukleosidtransportprozessen. Insbesondere die physiologische Bedeutung des Verlustes der RNS2-Aktivität auf die vakuolären RNA-Abbauprozesse sollte untersucht werden. Es konnte gezeigt werden, dass RNS2 den größten Anteil an der vakuolären Ribonuklease- (RNase-) Aktivität ausmacht, wobei die Restaktivität von circa 30 Prozent ein Hinweis auf mindestens eine weitere vakuoläre RNase ist. Die vakuolären Adenylatgehalte, Abbauprodukte der RNA, in RNS2-T-DNA-Insertionslinien zeigten, dass RNS2, ähnlich wie die intrazellulären RNasen in L. esculentum, 2‘,3‘-zyklische Nukleotidmonophosphate (2‘,3‘-cNMPs) produzieren. Ferner konnte gezeigt werden, dass in diesen Linien die vakuolären Enzyme sowohl RNA, als auch 2‘,3‘-cNMPs langsamer abbauen als vakuoläre Enzyme aus Wildtyp-Pflanzen. Die Akkumulation dieses zyklischen Intermediates des RNA-Abbaus lässt darauf schließen, dass die Transphosphorylierung schneller verläuft als die Hydrolyse (Abel & Glund, 1987; Löffler et al., 1992; Nürnberger et al., 1990). Es kann angenommen werden, dass ein weiteres Enzym, wie etwa eine zyklische Phosphodiesterase oder eine weitere Ribonuklease, an der Hydrolyse beteiligt ist. Ein weiterer Abschnitt dieser Arbeit beschäftigt sich mit der wichtigen Frage der Qualität von Vakuolenisolationen. Protoplastenkontaminationen konnten mikroskopisch ausgeschlossen werden. Die chloroplastidäre Verunreinigung war mit circa 5 Prozent gering, die cytosolische Kontamination lag jedoch je nach Isolationsmethode bei bis zu 30 Prozent im Vergleich zu Protoplasten. Es konnte darüber hinaus erstmals durch fluoreszenzmikroskopische Untersuchungen gezeigt werden, dass Vakuolen RNA besitzen. Diese Oligonukleotide sind vornehmlich kleine Fragmente im Größenbereich bis 50 nt.
Next Generation Sequencing ermöglichte eine detaillierte Analyse von cDNA- Bibliotheken, gewonnen aus vakuolärer RNA. Diese Technik wurde unter anderem angewandt, um die Reliabilität des Experimentes zu untersuchen. Es zeigte sich eine große Varianz in der Verteilung der Counts auf die verschiedenen RNA-Loci innerhalb biologischer Replikate und unterschiedlicher Vakuolenisolationsmethoden. Erstmals konnte jedoch gezeigt werden, dass circa 70 Prozent der RNA-Fragmente in der
Vakuole von mRNA stammen. Darüber hinaus gibt es Hinweise, dass der Abbau der wenigen rRNA-Transkripte in diesem Organell verstärkt abläuft.
In A. thaliana existiert mit ENT7 lediglich ein Vertreter, der einen Export von RNA- Abbauprodukten aus der Zelle ermöglicht. Da er den namensgebenden Vertretern aus dem Reich der Säugetiere strukturell und funktionell ähnelt, ist ENT7 ein geeignetes ENT-Protein für zukünftige Kristallisations- und Strukturanalysen. In dieser Arbeit konnte ENT7-eGFP in Pichia pastoris mit großer Ausbeute (2 mg Protein pro Liter Hefekultur) synthetisiert und in stabiler Form gereinigt werden. Es konnte gezeigt werden, dass ENT7 ohne eGFP ebenfalls stabil und als Dimer vorliegt. Durch Bindungsstudien erfolgte der Nachweis der erfolgreichen Bindung an bekannte Substrate. Darüber hinaus stellte sich heraus, dass neben Nukleosiden auch Nukleobasen, aber nicht ATP gebunden werden.
The main goal of this thesis is twofold. First, the thesis aims at bridging the gap between existing Pattern Recognition (PR) methods of automatic signature verification and the requirements for their application in forensic science. This gap, attributed by various factors ranging from system definition to evaluation, prevents automatic methods from being used by Forensic Handwriting Examiners (FHEs). Second, the thesis presents novel signature verification methods developed particularly considering the implications of forensic casework, and outperforming the state-of-the-art PR methods.
The first goal of the thesis is attributed by four important factors, i.e., data, terminology, output reporting, and how evaluation of automatic systems is carried out today. It is argued that traditionally the signature data used in PR are not actual/close representative of the real world data (especially that available in forensic cases). The systems trained on such data are, therefore, not suitable for forensic environments. This situation can be tackled by providing more realistic data to PR researchers. To this end, various signature and handwriting datasets are gathered in collaboration with FHEs and are made publicly available through the course of this thesis. A special attention is given to disguised signatures--where authentic authors purposefully make their signatures look like a forgery. This genre was at large neglected in PR research previously.
The terminology used, in the two communities - PR and FHEs, differ greatly. In fact, even in PR, there is no standard terminology and people often differ in the usage of various terms particularly related to various types of forged signatures/handwriting. The thesis presents a new terminology that is equally useful for both forensic scientists and PR researchers. The proposed terminology is hoped to increase the general acceptability of automatic signature analysis systems in forensic science.
The outputs reported by general signature verification systems are not acceptable for FHEs and courts as they are either binary (yes/no) or score (raw evidence) based on similarity/difference. The thesis describes that automatic systems should rather report the probability of observing the evidence (e.g., a certain similarity/difference score) given the signature belongs to the acclaimed identity, and the probability of observing the same evidence given the signature does not belong to the acclaimed identity. This will take automatic systems from hard decisions to soft decisions, thereby enabling them to report likelihood ratios that actually represent the evidential value of the score rather than the raw score (evidence).
When automatic systems report soft decisions (as in the form of likelihood ratios), the thesis argues that there must be some methods to evaluate such systems. This thesis presents one such adaptation. The thesis argues that the state-of-the-art evaluation methods, like equal error rate and area under curve, do not address the needs of forensic science. These needs require an assessment of the evidential value of signature verification, rather than a hard/pure classification (accept/reject binary decision). The thesis demonstrates and validates a relatively simple adaptation of the current verification methods based on the Bayesian inference dependent calibration of continuous scores rather than hard classifications (binary and/or score based classification).
The second goal of this thesis is to introduce various local features based techniques which are capable of performing signature verification in forensic cases and reporting results as anticipated by FHEs and courts. This is an important contribution of the thesis because of the following two reasons. First, to the best of author's knowledge, local feature descriptors are for the first time used for development of signature verification systems for forensic environments (particularly considering disguised signatures). Previously, such methods have been heavily used for recognition tasks, rather than verification of writing behaviors, such as character and digit recognition. Second, the proposed methods not only report the more traditional decisions (like scores-usually reported in PR) but also the Bayesian inference based likelihood ratios (suitable for courts and forensic cases).
Furthermore, the thesis also provides a detailed man vs. machine comparison for signature verification tasks. The men, in this comparison, are forensic scientists serving as forensic handwriting examiners and having experience of varying number of years. The machines are the local features based methods proposed in this thesis, along with various other state-of-the-art signature verification systems. The proposed methods clearly outperform the state-of-the-art systems, and sometimes the human experts.
Finally, the thesis details various tasks that have been performed in the areas closely related to signature verification and its application in forensic casework. These include, developing novel local feature based methods for extraction of signatures/handwritten text from document images, hyper-spectral image analysis for extraction of signatures from forensic documents, and analysis of on-line signatures acquired through specialized pens equipped with Accelerometer and Gyroscope. These tasks are important as they enable the thesis to take PR systems one step further close to direct application in forensic cases.
Congress Report 2015.09-10
(2015)
Die vorliegende Arbeit behandelt das Thema der pneumatischen Abstandsmessung. Diese Technologie ist neben der taktilen und optischen Messtechnik eine der drei Ansätze, um Messaufgaben in der Fertigungsmesstechnik zu lösen. Der große Vorteil pneumatischer Sensoren ist ihr Selbstreinigungseffekt, wodurch in rauen Umgebungen sicher gemessen werden kann. Momentan fehlende Grundlagenkenntnisse führen jedoch zu einer ineffizienten Nutzung der Technik. Im Rahmen dieser Arbeit wurde neues Wissen erarbeitet, so dass eine optimierte Anwendung dieser Sensorklasse möglich ist. Für das laterale und dynamische Verhalten der Sensoren sind Modelle zur Vorhersage von Messergebnissen vorgestellt. Weiterhin finden sich ausführliche Auslegestrategien für systemkritische Bauteile in dieser Arbeit. Auf Basis der Grundlagenuntersuchungen sind die wichtigsten Einflussgrößen der Messunsicherheit erläutert. Zur effizienten Wissensübertragung ist abschließend eine moderne Software präsentiert, welche eine Auslegung pneumatischer Sensoren für eine gegebene Messaufgabe ermöglicht und so das gesamte Wissen der Arbeit für den Anwender in der Industrie zusammenfasst.
Die Qualität hoch beanspruchter Oberflächen wird durch ihre Funktion festgelegt. Sogenannte Funktionsflächen sind dabei in vielen Bereichen der modernen Industrie zu finden. Zur Überwachung des Herstellungsprozesses dieser Flächen besteht daher stets ein Bedarf an sensitiver, genauer an die Bedürfnisse der Messaufgabe angepasster, Messtechnik. Ein Verfahren, welches aufgrund seines winkelmessenden Prinzips unempfindlich gegenüber Vibrationen ist und gleichzeitig eine flächige Beurteilung von Oberflächen ermöglicht, ist die winkelaufgelöste Streulichtmesstechnik. Sie nutzt das von einer rauen Oberfläche zurückgestreute Licht zur Charakterisierung. Während der Erwartungswert der gemessenen Streulichtverteilung Aufschluss über die Makrogestalt der Oberfläche liefert, enthält die Breite der Verteilung Informationen über die Mikrostruktur.
Die vorliegende Arbeit betrachtet zwei Themenkomplexe dieser Messtechnik: Zunächst wird die Qualifizierung einer bereits bestehenden Messeinrichtung zur zweidimensionalen Erfassung von Streulicht mittels linearem Diodenarray durchgeführt. Im Anschluss erfolgt die Erweiterung der Messeinrichtung zur Erfassung der dritten Dimension. Dieses Ziel wird durch Verfolgung zweier Ansätze, einem rotierenden Prisma sowie einem flächigen Detektor, erreicht.
Die Arbeiten im Rahmen des vorliegenden Projektes beschäftigen sich im Wesentlichen mit der Synthese neuartiger Liganden auf Pyrimidinbasis. Der Abstand zwischen dem aromatischen Grundgerüst und weiterer Donorzentren – hier Phosphane – wird dabei so angepasst, dass für die zu insertierenden Zentralmetalle kooperative Effekte erwartet werden können. Mögliche Anwendungen werden erprobt.
This thesis treats the application of configurational forces for the evaluation of fracture processes in Antarctic ice shelves. FE simulations are used to analyze the influence of geometric scales, material parameters and boundary conditions on single surface cracks. A break-up event at the Wilkins Ice Shelf that coincided with a major temperature drop motivates the consideration of frost wedging as a mechanism for ice shelf disintegration. An algorithm for the evaluation of the crack propagation direction is used to analyze the horizontal growth of rifts. Using equilibrium considerations for a viscoelastic fluid, a method is introduced to compute viscous volume forces from measured velocity fields as loads for a linear elastic fracture mechanical analysis.
Schon jetzt durchlaufen mehr als vier von fünf chemischen Produkten bei der Herstellung einen Katalysezyklus. In zunehmendem Maße findet man katalytische Anwendungen neben dem Einsatz in der Synthesechemie auch in den Biowissenschaften, beim Klima- und Umweltschutz sowie zur Energieversorgung. Durch gezieltes Ligandendesign werden dabei kontinuierlich bekannte Katalysatorsysteme optimiert und die Anwendungsbreite erweitert. Für zweizähnige, pyrimidinhaltige Ligandensysteme ist aus anderen Forschungsarbeiten der AG Thiel eine intramolekularen C-H-Aktivierung im Pyrimidinring bekannt, die zu einer carbanionkoordination am Übergangsmetallzentrum führt. Diese Reaktivität wurde im Rahmen dieser Arbeit mit der stabilisierenden Wirkung eines N-heterocyclischen Carbenliganden (NHC) zu einem neuen Ligandensystem kombiniert. Verschiedene Imidazoliumvorstufen neuer NHC-Liganden mit einem in der 2-Position aminosubstituierten Pyrimidinring als N-Substituent wurden über zwei neu erarbeitete Syntheserouten dargestellt und mit verschiedenen Übergangsmetallvorstufen umgesetzt. In Palladium(II)-Komplexen von pyrimidinyl- und mesitylsubstituierten NHC-Liganden wurden verschiedene Koordinationsmodi in Abhängigkeit von der verwendeten Synthesemethode beobachtet. Über Silber-Carben-Komplexe als Carben-Transferreagenzien konnten für verschieden tertiär amino- und mesitylsubstituierten Liganden die nicht C-H-aktivierten, d.h. C,N-koordinierten Palladiumkomplexe dargestellt werden. Eine direkte Umsetzung der ionischen Imidazoliumverbindungen mit Palladiumvorstufen wie PdCl2 führte in Pyridin und Pyridinderivaten als Lösungsmittel bei Reaktionstemperaturen direkt zu einer C-H-Aktivierung im Pyrimidinring des Liganden. Der leicht basische Pyridinligand stabilisiert während der Komplexbildung die hochreaktive, C-H-aktivierte Spezies und verhindert so Neben- und Zersetzungsreaktionen. Über die Abspaltung des labilen Pyridinliganden durch Erhitzen in schwach koordinierenden Lösungsmitteln wurden die zweikernigen, unlöslichen, pyridinfreien Palladiumkomplexe erhalten und mittels Festkörper-NMR-Spektroskopie charakterisiert. Diese Reaktion ist vollständig reversibel und wurde zum Einführen verschiedener Pyridinderivate als labile Liganden genutzt. In schwach koordinierenden Lösungsmitteln mit einem Siedepunkt < 80 °C, wie THF, wurde durch eine direkte Umsetzung der ionischen Vorstufen der Liganden mit PdCl2 eine weitere Art von Pd(II)-Komplexen erhalten, für welche die Strukturformel eines N-koordinierten Palladates postuliert wurde. In NMR-spektroskopischen Experimenten wurde die Reversibilität der C-H-Aktivierung im Pyrimidinring der Pd(II)-Komplexe in Abhängigkeit von pH-Wert und Temperatur nachgewiesen. Auch hier erwies sich der stabilisierende Pyridinligand für die C-H-Aktivierung und HCl-Eliminierung als notwendig. Die Rückreaktion wurde unter schwach sauren Reaktionsbedingungen bei Raumtemperatur über eine NHC-gebundene, pyridinhaltige Spezies, strukturanalog der literaturbekannten PEPPSI-Komplexe, beobachtet.
Für die stark Lewis-aciden Übergangsmetallzentren Iridium (III) und Ruthenium (II) wurden mit den entsprechenden ionischen Ligandenvorstufen über in situ dargestellte Silber-Carben-Komplexe ausschließlich die C-H-aktivierten, C,N-koordinierten Halbsandwichkomplexe der neuen 2-Amino-4-(imidazolylidenyl)pyrimidinliganden erhalten, trotz variierter Reaktionsbedingungen. Die C-H-Aktivierung mit anschließender HCl-Eliminierung erfolgte bei diesen Übergangsmetallzentren bereits bei Raumtemperatur irreversibel.
In Rahmen dieser Arbeit wurde außerdem die Notwendigkeit eines sterisch anspruchsvollen, stabilisierenden Mesitylrestes am NHC-Liganden für stabile und isolierbare C-H-aktivierte Komplexe beobachtet. Mit anderen, sterisch weniger anspruchsvollen Resten an dieser Position des Liganden wurden unter den Reaktionsbedingungen für potentielle C-H-Aktivierungen nur Zersetzungsprodukte erhalten. Von jedem Komplextyp der neuen C-H-aktivierten Übergangsmetallkomplexe wurden messbare Kristalle für eine Kristallstrukturanalyse erhalten, welche tiefere Einblicke in die Bindungssituation der neuen Liganden ermöglichte.
Die C-H-aktivierten Übergangsmetallkomplexe der neuen Liganden zeigen sehr gute Aktivitäten in verschiedenen katalytischen Anwendungen. Neben der stabilisierenden Wirkung des NHC mit starkem σ-Donorcharakter wird die hohe Elektronendichte am Übergangsmetallzentrum durch die Koordination des Carbanions weiter erhöht. Unter optimierten Bedingungen wurden in der Suzuki-Miyaura-Kupplung mit geringeren Katalysatorkonzentrationen der C-H-aktivierten Pd(II)-Komplexe eine große Bandbreite von sterisch und elektronisch gehinderten Chlorarylen mit verschiedenen Boronsäurederivaten erfolgreich zu Biarylen umgesetzt. Mit den C-H-aktivierten Ru(II)- und Ir(III)-Halbsandwichkomplexen der neuen Liganden wurden in der katalytischen Transferhydrierung von Acetophenon bereits bei geringen Katalysatorkonzentrationen von 0.15 mol% sehr hohe Ausbeuten erhalten. Die katalytisch hochaktiven Komplexe zeichneten sich außerdem durch eine hohe Stabilität unter den optimierten Reaktionsbedingungen aus. Die C-H-Aktivierung weist zwar keine Abhängigkeit vom sterischen Anspruch der variierten tertiären Aminosubstituenten auf, wurde aber für die anderen Reste in der 2-Position des Pyrimidinrings nicht beobachtet.
We propose and study a strongly coupled PDE-ODE system with tissue-dependent degenerate diffusion and haptotaxis that can serve as a model prototype for cancer cell invasion through the
extracellular matrix. We prove the global existence of weak solutions and illustrate the model behaviour by numerical simulations for a two-dimensional setting.
Die Klebetechnologie spielt heutzutage eine sehr bedeutende Rolle bei der Realisierung von Werkstoffverbunden unterschiedlichster Art. Hierbei sind die mechanischen und strukturellen Eigenschaften der Klebverbunde unter Einsatzbedingungen bemerkenswert. Diese Merkmale werden erheblich durch die Art der Klebstoffbestandteile und ihre Wechselwirkung beeinflusst.
In dieser Arbeit kommen unterschiedliche Test-Verfahren zum Einsatz, um die mechanischen und strukturellen Eigenschaften von gefüllten Klebstoffen zu untersuchen. Als Basiswerkstoff werden Klebstoffe auf Epoxid- und Polyurethan-System verwendet. Zur Untersuchung des Einflusses der inneren Oberflächen von Füllstoffen auf die oben genannten Eigenschaften finden zwei Gruppen von Füllstoffen auf Calciumcarbonat- und Kieselerde-Basis Verwendung. Die Bewertung der Bruchflächen erfolgt durch die Digital-Mikroskopische-Analyse und Raster-Elektronen-Mikroskopie (REM).
Die aus den Untersuchungen gewonnenen Erkenntnisse zeigen, dass die mechanischen und strukturellen Kennwerte des Polymer-Metall-Verbundes, insbesondere des Elastizitätsmoduls, der Zugfestigkeit, des mittleren und maximalen Schälwiderstands sowie der Bruchzähigkeit durch die Wechselwirkung zwischen den inneren Oberflächen der verwendeten Füllstoffe und der Polymermatrix erheblich beeinflusst werden können.
Im Rahmen dieser Arbeit konnten 4-Pyrrolidin-1,8-naphthalimidomethylphenyl-N-tert-butylnitron (PNIMPN, 11), 4-Pyrrolidin-1,8-naphthalimidophenyl-N-tert-butylnitron (PNIPN, 34), 4-Pyrrolidin-1,8-naphthalimidomethyl-N-tert-butylnitron (PNIMN, 29) und das cyclische 4-Pyrrolidin-1,8-naphthalimidoethylpiperazin-N-oxid (PNIEPO, 24) synthetisiert werden. Die Synthese des 4-Pyrrolidin-1,8-naphthalimidophenyl-α-methyl-N-tert-butylnitron (21), ein Nitron mit einer α-Methyl-Gruppe zur Stabilitätserhöhung der gebildeten Radikale, wurde nicht erreicht. Diese Verbindungen ermöglichen die Identifizierung gebildeter Radikale, mittels ESR-Untersuchungen und gleichzeitig deren Entstehungsort innerhalb der Zelle, mittels in vitro-Messungen mit einem konfokalen Laser-Scanning-Mikroskop (c-LSM). Dies beruht auf der Tatsache, dass die Nitrone fluoreszierend, aber ESR-inaktiv sind und nach der Reaktion mit Radikalen, ein persistentes Radikal bilden, welches nun keine Fluoreszenz aufweist, allerdings ESR-aktiv ist.
Die ESR spektroskopischen Untersuchungen ergaben, dass die Verbindungen 24, 29 und 34, analog zum bereits von S. Hauck untersuchten p-Nitrostilbennitron, spin trapping-Eigenschaften besitzen. Der Nachweis und die Detektion von Hydroxyl-Addukten nach Arbeiten von Mitchell konnte nicht nachgewiesen werden. Als Grund kann eine zu geringe Enzymaktivität der eingesetzten Xanthinoxidase und/oder eine geringer Stabilität der radikalischen Addukte aufgeführt werden. Spätere Untersuchungen von A. Karbach unterstützen diese Annahmen.
Messungen der Absorptionsmaxima der Verbindungen zeigten keine erwartete bathochrome Verschiebung nach Vergrößerung des π-Elektronensystems. Dies könnte durch eine mögliche sterische Hinderung der Rotation um die Imidbindung zurückzuführen sein. Kraftfeld- und ab initio-Berechnungen müssen dies noch bestätigen. Das PNIMPN (11) zeigt einen ungewöhnlichen „Pump-Effekt“ bei diesen Messungen. Dabei steigert sich die Intensität der Fluoreszenz bei einer Anregungswellenlänge von 488 nm, wenn zuvor mit 405 nm angeregt wurde. Dieser Effekt ist ebenfalls in Umgekehrter Reihenfolge zu beobachten. Genauere Untersuchungen zu dieser Beobachtung wurden nicht durchgeführt.
Bei der Zytotoxizitätsmessung mittels des SRB-Tests, wurde festgestellt, dass alle synthetisierten Verbindungen innerhalb des eingesetzten Konzentrationsbereiches atoxisch für die verwendeten Zelllinien sind. Eine Ausnahme bildet hierbei, PNIMN (29) ist in einem Konzentrationsbereich ab 25 µM sehr toxisch.
Alle getesteten Verbindungen akkumulieren vorwiegend in den Mitochondrien der Zellen, wodurch sie sich für die Untersuchung und Detektion von ROS innerhalb der Atmungskette eignen. PNIMN (29) und PNIEPO (24) akkumulieren zudem in den nucleoli im Zellkern.
Die Versuche zur in vitro Fluoreszenzlöschung mittels c-LSM, dass alle Verbindungen eine Löschung der Fluoreszenz, nach Zugabe von Atmungsketteninhibitoren (Rotenon und Antimycin A), zeigen, die deutlich rascher erfolgt im Vergleich mit den bleaching Experimenten.
We discuss the problem of evaluating a robust solution.
To this end, we first give a short primer on how to apply robustification approaches to uncertain optimization problems using the assignment problem and the knapsack problem as illustrative examples.
As it is not immediately clear in practice which such robustness approach is suitable for the problem at hand,
we present current approaches for evaluating and comparing robustness from the literature, and introduce the new concept of a scenario curve. Using the methods presented in this paper, an easy guide is given to the decision maker to find, solve and compare the best robust optimization method for his purposes.
Attention-awareness is a key topic for the upcoming generation of computer-human interaction. A human moves his or her eyes to visually attends to a particular region in a scene. Consequently, he or she can process visual information rapidly and efficiently without being overwhelmed by vast amount of information from the environment. Such a physiological function called visual attention provides a computer system with valuable information of the user to infer his or her activity and the surrounding environment. For example, a computer can infer whether the user is reading text or not by analyzing his or her eye movements. Furthermore, it can infer with which object he or she is interacting by recognizing the object the user is looking at. Recent developments of mobile eye tracking technologies enable us
to capture human visual attention in ubiquitous everyday environments. There are various types of applications where attention-aware systems may be effectively incorporated. Typical examples are augmented reality (AR) applications such as Wikitude which overlay virtual information onto physical objects. This type of AR application presents augmentative information of recognized objects to the user. However, if it presents information of all recognized objects at once, the over
ow of information could be obtrusive to the user. As a solution for such a problem, attention-awareness can be integrated into a system. If a
system knows to which object the user is attending, it can present only the information of
relevant objects to the user.
Towards attention-aware systems in everyday environments, this thesis presents approaches
for analysis of user attention to visual content. Using a state-of-the-art wearable eye tracking device, one can measure the user's eye movements in a mobile scenario. By capturing the user's eye gaze position in a scene and analyzing the image where the eyes focus, a computer can recognize the visual content the user is currently attending to. I propose several image analysis methods to recognize the user-attended visual content in a scene image. For example, I present an application called Museum Guide 2.0. In Museum Guide 2.0, image-based object recognition and eye gaze analysis are combined together to recognize user-attended objects in a museum scenario. Similarly, optical character recognition
(OCR), face recognition, and document image retrieval are also combined with eye gaze analysis to identify the user-attended visual content in respective scenarios. In addition to Museum Guide 2.0, I present other applications in which these combined frameworks are effectively used. The proposed applications show that the user can benefit from active information presentation which augments the attended content in a virtual environment with
a see-through head-mounted display (HMD).
In addition to the individual attention-aware applications mentioned above, this thesis
presents a comprehensive framework that combines all recognition modules to recognize the user-attended visual content when various types of visual information resources such as text, objects, and human faces are present in one scene. In particular, two processing strategies are proposed. The first one selects an appropriate image analysis module according to the user's current cognitive state. The second one runs all image analysis modules simultaneously and merges the analytic results later. I compare these two processing strategies in terms of user-attended visual content recognition when multiple visual information resources are present in the same scene.
Furthermore, I present novel interaction methodologies for a see-through HMD using eye gaze input. A see-through HMD is a suitable device for a wearable attention-aware system for everyday environments because the user can also view his or her physical environment
through the display. I propose methods for the user's attention engagement estimation with the display, eye gaze-driven proactive user assistance functions, and a method for interacting
with a multi-focal see-through display.
Contributions of this thesis include:
• An overview of the state-of-the-art in attention-aware computer-human interaction
and attention-integrated image analysis.
• Methods for the analysis of user-attended visual content in various scenarios.
• Demonstration of the feasibilities and the benefits of the proposed user-attended visual content analysis methods with practical user-supportive applications.
• Methods for interaction with a see-through HMD using eye gaze.
• A comprehensive framework for recognition of user-attended visual content in a complex
scene where multiple visual information resources are present.
This thesis opens a novel field of wearable computer systems where computers can understand the user attention in everyday environments and provide with what the user wants. I will show the potential of such wearable attention-aware systems for everyday
environments for the next generation of pervasive computer-human interaction.
The central topic of this thesis is Alperin's weight conjecture, a problem concerning the representation theory of finite groups.
This conjecture, which was first proposed by J. L. Alperin in 1986, asserts that for any finite group the number of its irreducible Brauer characters coincides with the number of conjugacy classes of its weights. The blockwise version of Alperin's conjecture partitions this problem into a question concerning the number of irreducible Brauer characters and weights belonging to the blocks of finite groups.
A proof for this conjecture has not (yet) been found. However, the problem has been reduced to a question on non-abelian finite (quasi-) simple groups in the sense that there is a set of conditions, the so-called inductive blockwise Alperin weight condition, whose verification for all non-abelian finite simple groups implies the blockwise Alperin weight conjecture. Now the objective is to prove this condition for all non-abelian finite simple groups, all of which are known via the classification of finite simple groups.
In this thesis we establish the inductive blockwise Alperin weight condition for three infinite series of finite groups of Lie type: the special linear groups \(SL_3(q)\) in the case \(q>2\) and \(q \not\equiv 1 \bmod 3\), the Chevalley groups \(G_2(q)\) for \(q \geqslant 5\), and Steinberg's triality groups \(^3D_4(q)\).
In this thesis, we investigate several upcoming issues occurring in the context of conceiving and building a decision support system. We elaborate new algorithms for computing representative systems with special quality guarantees, provide concepts for supporting the decision makers after a representative system was computed, and consider a methodology of combining two optimization problems.
We review the original Box-Algorithm for two objectives by Hamacher et al. (2007) and discuss several extensions regarding coverage, uniformity, the enumeration of the whole nondominated set, and necessary modifications if the underlying scalarization problem cannot be solved to optimality. In a next step, the original Box-Algorithm is extended to the case of three objective functions to compute a representative system with desired coverage error. Besides the investigation of several theoretical properties, we prove the correctness of the algorithm, derive a bound on the number of iterations needed by the algorithm to meet the desired coverage error, and propose some ideas for possible extensions.
Furthermore, we investigate the problem of selecting a subset with desired cardinality from the computed representative system, the Hypervolume Subset Selection Problem (HSSP). We provide two new formulations for the bicriteria HSSP, a linear programming formulation and a \(k\)-link shortest path formulation. For the latter formulation, we propose an algorithm for which we obtain the currently best known complexity bound for solving the bicriteria HSSP. For the tricriteria HSSP, we propose an integer programming formulation with a corresponding branch-and-bound scheme.
Moreover, we address the issue of how to present the whole set of computed representative points to the decision makers. Based on common illustration methods, we elaborate an algorithm guiding the decision makers in choosing their preferred solution.
Finally, we step back and look from a meta-level on the issue of how to combine two given optimization problems and how the resulting combinations can be related to each other. We come up with several different combined formulations and give some ideas for the practical approach.
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
(2015)
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
Daptomycin ist ein cyclisches Lipopeptidantibiotikum, das zur Behandlung schwerer gram-positiver Infektionen entwickelt wurde. Daptomycin weißt in vitro eine schnelle Aktivität gegen klinisch signifikante Stämme gram-positiver Pathogene auf. Außerdem ist die Aktivität von Daptomycin abhängig von der physiologischen Calciumkonzentration. Es wird postuliert, dass in einem ersten Schritt die Calciumionen mit dem Antibiotikum interagieren und dieser Komplex dadurch positiv geladen ist. Somit kann es an negativ geladene Membranen, die Phosphatidylglycerol enthalten, binden. In einem nächsten Schritt interagiert der hydrophobe Schwanz des Daptomycins als Anker, da dieser in wässriger Lösung einen hohen \(\Delta\)G-Wert besitzt und dieser dadurch erniedrigt wird. Schließlich nimmt die Fluidität der Membran ab und durch den Kollaps des Membranpotentials findet ein Zusammenbruch verschiedener Zellfunktionen statt.
Die Versuche wurden zum größten Teil an Liposomen als Modelmembranen durchgeführt. Dabei wurden zwei Liposomensysteme genutzt. Einerseits Liposomen die aus Avanti Polar Lipid Mix bestanden und durch Behandlung mit Ultraschall hergestellt wurden. Andererseits wurden Liposomen aus Bakterien hergestellt. Zudem wurden kompette Bakterienzellen untersucht.
Der bakterielle Wachstum wurde durch UV/VIS-Spekroskopie gemessen. Veränderungen in der Fluidität der Membran wurden mittels ESR-Spektroskopie festgestellt. Die Morphologie wurde mittels Elektronenmikroskopie und Rasterkraftmikroskopie aufgenommen. Zusätzlich wurde ein Leakage Assay durchgeführt.
Zusammenfassend lässt sich sagen, dass bei den ESR-Untersuchungen eine Änderung der Fluidität gemessen wurde. Aufgrund der Ergebnisse verschiedener Spinlabel lag allerdings die Vermutung nahe, dass sich bei Daptomycin keine diskrete Pore ausbildet, sondern es zur Krümmung der Membran kommt was schließlich zum Aufplatzen der Zelle führt. Deshalb wurden im weiteren Messungen am Elektronenmikroskop sowie am Rasterkraftmikroskop durchgeführt, um Rückschlüsse auf die Morphologie machen zu können. Diese Messungen bestätigten die obige These, dass sich keine Pore ausbildet sondern es zur Krümmung der Membranoberfläche kommt.
Bei Autoimmunerkrankungen richtet der Körper Autoantikörper gegen körpereigene Strukturen. Bei Myasthenia gravis sind es Antikörper, die gegen Strukturen der postsynaptischen Membran im Bereich der neuromuskulären Endplatte gerichtet sind. Hierbei richten sich diese gegen Acetylcholinrezeptoren, die als Transmembrankanäle bei der Signalweiterleitung fungieren.
In früheren Arbeiten konnte unter anderem Hossann gentechnisch die \(\alpha\)-Untereinheit des Acetylcholinrezeptors mit dem Ribosomeninaktivierenden Protein Gelonin koppeln, es lag hier allerdings eine niedrige Löslichkeit vor und das Fusionsprotein lies sich nur schwer zurückfalten.
In diesem Teil der Arbeit wurde die Cytotoxizität von Gelonin mittels Zellkuturexperimenten untersucht, ein von Li zur Verfügung gestelltes Plasmid mit der \(\alpha\)-Untereinheit des Acetylcholinrezeptors, fusioniert an den der Löslichkeitstag MBP, überprüft. Außerdem sollte ein Plasmid kloniert werden, das für ein Fusionsprotein aus MBP-Gelonin-Achetylcholinrezeptor codiert. Hierbei versprach man sich durch den zusätzlichen MBP-Tag eine höhere Löslichkeit.
Der Cytotoxizitätstest wurde durchgeführt, da in der Literatur teils widersprüchliche Ergebnisse veröffentlicht wurden, bestätigte aber, dass Gelonin als ein Typ I RIP ohne Membrandomäne keine Cytotoxizität aufweißt.
Das Plasmid MBP-Achetylcholinrezeptor wurde in E. coli Zelllen transformiert, das Protein exprimiert und mittels Amylosesäule und HiTrap-Säule isoliert. Es besahs eine hohe Löslichkeit und lag in gefalteter Form in Lösung vor.
Die zur Synthese des MBP-Gelonin-Acetylcholinrezeptors-Konjugats notwendigen Plasmide waren im Arbeitskreis vorhanden. Das Plasmid pET-gel codierte für Gelonin und die DNA-Sequenz für die \(\alpha\)-Untereinheit des Acetylcholinrezeptors war bereits in den pAChRex-Vektor einkloniert. Der Löslichkeitstag MBP war im Plasmid pmal-c5x enthalten.
Auf Basis dieser Plasmide wurde eine Klonierungsstrategie entwickelt und in Teilen durchgeführt.
Zur Untersuchung der Zell-Topographie-Interaktionen werden im Rahmen dieser Arbeit zwei Arten von Mikrostrukturen mittels Direktem Laser Schreiben erzeugt, einerseits Pfosten unterschiedlicher Abstände und andererseits Pfosten-Steg-Strukturen mit unterschiedlicher Steghöhe. Auf diesen Topographien werden die untersuchten Zellen ausgesät und ihr Verhalten mit Zeitrafferaufnahmen über einen Zeitraum von 24 h beobachtet. Aus den Zellkoordinaten und den daraus erhaltenen Zellpfaden wird das Migrationsverhalten der Zellen im Hinblick auf den lenkenden Einfluss der betrachteten Topographie analysiert.
The Event Segmentation Theory (Kurby & Zacks, 2008; Zacks, Speer, Swallow, Braver, & Reynolds, 2007) explains the perceptual organization of an ongoing activity into meaningful events. The classical event segmentation task (Newtson, 1973) involves watching an online video and indicating with key presses the event boundaries, i.e., when one event ends and the next one begins. The resulting hierarchical organization of object-based coarse events and action-based fine events gives insight into various cognitive processes. I used the Event Segmentation Theory to develop assistance and training systems for assembly workers in industrial settings at various levels - experts, new hires, and intellectually disabled people. Therefore, the first scientific question I asked was whether online and offline event segmentation result in the same event boundaries. This is important because assembly work requires not only watching activities online but processing the information offline, e.g., while performing the assembly task. By developing a special software tool that enables assessment of offline event boundaries, I established that online perception and offline elaboration lead to similar event boundaries. This study supports prior work suggesting that instructions should be structured around event boundaries.
Secondly, I investigated the importance of fine versus coarse event boundaries when learning the sequence of steps in virtual training, both for novices and experts in car door assembly. I found memory, tested by ability to predict the next frame, to be enhanced for object-based coarse events from the nearest fine event boundary. However, virtual training did not improve memory for action-based fine events from the nearest coarse event boundary. I conjecture that trainees primarily acquire the sequence of object-based coarse events in an initial training. Based on differences found in memory performance between experts and novices, I conclude that memory for action-based fine events is dependent on expertise.
Thirdly, I used the Event Segmentation Theory to investigate whether the simple and repetitive assembly tasks offered at workshops for intellectually disabled persons utilize their full cognitive potential. I analyzed event segmentation performance of 32 intellectually disabled persons compared to 30 controls using a variety of event segmentation measures. I found specific deficits in event boundary detection and hierarchical organization of events for the intellectually disabled group. However, results suggest that hierarchical organization is task-dependent. Because the event segmentation task accounted for differences in general cognitive ability, I propose the event segmentation task as diagnostic method for the need for support in executing assembly tasks.
Based on these three studies, I argue that the Event Segmentation Theory offers a framework for assessment and assistance of important attentional, perceptual, and memory processes related to assembly tasks. I demonstrate how practical applications can make use of this framework for the development of new computer-based assistance and training systems that are tailored to the users’ need for support and improve their quality of life.
In this paper we consider the problem of decomposing a given integer matrix A into
a positive integer linear combination of consecutive-ones matrices with a bound on the
number of columns per matrix. This problem is of relevance in the realization stage
of intensity modulated radiation therapy (IMRT) using linear accelerators and multileaf
collimators with limited width. Constrained and unconstrained versions of the problem
with the objectives of minimizing beam-on time and decomposition cardinality are considered.
We introduce a new approach which can be used to find the minimum beam-on
time for both constrained and unconstrained versions of the problem. The decomposition
cardinality problem is shown to be NP-hard and an approach is proposed to solve the
lexicographic decomposition problem of minimizing the decomposition cardinality subject
to optimal beam-on time.
Industrial design has a long history. With the introduction of Computer-Aided Engineering, industrial design was revolutionised. Due to the newly found support, the design workflow changed, and with the introduction of virtual prototyping, new challenges arose. These new engineering problems have triggered
new basic research questions in computer science.
In this dissertation, I present a range of methods which support different components of the virtual design cycle, from modifications of a virtual prototype and optimisation of said prototype, to analysis of simulation results.
Starting with a virtual prototype, I support engineers by supplying intuitive discrete normal vectors which can be used to interactively deform the control mesh of a surface. I provide and compare a variety of different normal definitions which have different strengths and weaknesses. The best choice depends on
the specific model and on an engineer’s priorities. Some methods have higher accuracy, whereas other methods are faster.
I further provide an automatic means of surface optimisation in the form of minimising total curvature. This minimisation reduces surface bending, and therefore, it reduces material expenses. The best results can be obtained for analytic surfaces, however, the technique can also be applied to real-world examples.
Moreover, I provide engineers with a curvature-aware technique to optimise mesh quality. This helps to avoid degenerated triangles which can cause numerical issues. It can be applied to any component of the virtual design cycle: as a direct modification of the virtual prototype (depending on the surface defini-
tion), during optimisation, or dynamically during simulation.
Finally, I have developed two different particle relaxation techniques that both support two components of the virtual design cycle. The first component for which they can be used is discretisation. To run computer simulations on a model, it has to be discretised. Particle relaxation uses an initial sampling,
and it improves it with the goal of uniform distances or curvature-awareness. The second component for which they can be used is the analysis of simulation results. Flow visualisation is a powerful tool in supporting the analysis of flow fields through the insertion of particles into the flow, and through tracing their movements. The particle seeding is usually uniform, e.g. for an integral surface, one could seed on a square. Integral surfaces undergo strong deformations, and they can have highly varying curvature. Particle relaxation redistributes the seeds on the surface depending on surface properties like local deformation or curvature.
Das Forschungs- und Entwicklungsprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) greift die gesellschaftlichen und wirtschaftlichen Wandlungstendenzen der Region in und um Kaiserslautern auf. Ein zentraler Aspekt im Projekt ist die Analyse von (neuen) Zielgruppen wissenschaftlicher Weiterbildungsangebote, um daraus Konsequenzen für die Angebotsentwicklung ziehen zu können. Die bisher praktizierte Verfahrensweise der Angebotsplanung und -entwicklung ist angebotsorientiert und bezieht sich vor allem auf die Antizipation potenzieller Teilnehmerinnen und Teilnehmer. Demgegenüber impliziert die evidenzbasierte Herangehensweise des Projektes E-hoch-B einen Ansatz, der eine Angebotsentwicklung nicht allein auf antizipierte und verallgemeinerte, sondern auf empirisch fundierte Erkenntnisse zu Bedarfen der Zielgruppen stützt. Das Arbeitspapier erarbeitet basierend auf den Planungsschritten bei Schlutz (2006) Kriterien, die Rückschlüsse für die Entwicklung von Studienangeboten zulassen sowie die Identifikation und Beschreibung (neuer) Zielgruppen ermöglichen.
Das Arbeits- und Forschungspapier erörtert den Zugang zur Hochschulbildung für Geflüchtete in Deutschland und wird im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) publiziert. Das Forschungs- und Entwicklungsprojekt hat zum Ziel, bedarfsorientierte (Weiter-)Bildungsangebote für neue Zielgruppen in der Region Westpfalz zu entwickeln. Geflüchtete mit Aufenthaltserlaubnis sowie Geflüchtete im Asylbewerbungsverfahren stellen eine solche neue Zielgruppe dar, da für sie eine Öffnung der Hochschulbildung bis Dato noch nicht rechtlich festgelegt ist (Stand: August 2015). Im Rahmen des Arbeits- und Forschungspapiers werden zunächst unterschiedliche Hürden im Zugang zu Hochschulbildung aufgezeigt, die in der Problematik des Aufenthaltsstatus, in den Zugangsvoraussetzungen, aber auch in der Studienfinanzierung sowie der Anerkennung von Kompetenzen begründet liegen. Zudem werden hochschulinterne Barrieren in Bezug auf die Programmlogiken der Studiengänge sowie den Beratungs- und Unterstützungsangeboten angesprochen. Daran anschließend werden mögliche Lösungsansätze für diese Hürden skizziert.
In this paper we consider the problem of decomposing a given integer matrix A into
a positive integer linear combination of consecutive-ones matrices with a bound on the
number of columns per matrix. This problem is of relevance in the realization stage
of intensity modulated radiation therapy (IMRT) using linear accelerators and multileaf
collimators with limited width. Constrained and unconstrained versions of the problem
with the objectives of minimizing beam-on time and decomposition cardinality are considered.
We introduce a new approach which can be used to find the minimum beam-on
time for both constrained and unconstrained versions of the problem. The decomposition
cardinality problem is shown to be NP-hard and an approach is proposed to solve the
lexicographic decomposition problem of minimizing the decomposition cardinality subject
to optimal beam-on time.
Mit der Entdeckung von Acrylamid in Lebensmitteln und seiner krebserzeugenden Wirkung wurde der Fokus auf prozessgebildete Kontaminierungen gelenkt. Weitere hitzebedingte, kanzerogene Substanzen wurden in einer Vielzahl von Nahrungsmitteln entdeckt, eine davon ist Furan. Studien an Ratten und Mäusen zeigten eindeutig seine Karzinogenität und auch weitere toxikologische Untersuchungen stützen diesen Befund. Dennoch konnte der Weg der durch Furan hervorgerufenen Krebsentstehung noch nicht aufgeklärt werden. So steht nach wie vor zur Debatte, ob es sich um eine direkt genotoxische, oder eine indirekt resultierende Bildungsform handelt.
Als Teil des europäischen Furan-RA-Projektes sollte in dieser Arbeit ein Beitrag zur Beantwortung dieser Frage geleistet werden. Speziell im Niedrigdosisbereich unter 2 mg/kg KG wurde nach Gewebsveränderungen und zytotoxischen Effekten gesucht.
Für histologische Untersuchungen der Leber wurden Ratten in drei Dosisgruppen mit 0,1 sowie 0,5 und 2,0 mg/kg KG jeweils 28 Tage lang behandelt. Neben der Kontrollgruppe zum Vergleich wurde eine weitere Gruppe mit anschließenden zwei Wochen Erholungszeit betrachtet. Die Parafinschnitte der fünf Leberlappen wurden mit Hämatoxylin-Eosin und einem PCNA-Antikörper angefärbt.
Die randomisierte Begutachtung unter dem Mikroskop ließ keine dosisbezogenen Gewebsveränderungen erkennen, und es konnten auch keine Hinweise auf krebspromovierende Proliferationen gefunden werden.
Um einen Einblick auf zellulärer Ebene zu erlangen, wurden Hepatomzellen und Primäre Hepatozyten der Ratte mit verschiedenen Furankonzentrationen inkubiert. Wegen des hohen Dampfdruckes von Furan geschah dies im dafür entwickelten, geschlossenen Gefäß, in dem sich ein Gleichgewicht zwischen dem Medium und dem ausreichend dimensionierten Gasraum einstellen konnte. Die Kontrolle der wirkenden Konzentrationen erfolgte mit Hilfe einer geeigneten Headspace-Gaschromatographie. An Primären Hepatozyten zeigte sich eine konzentrationsabhängige Zytotoxizität von Furan mit einem ermittelten EC50 von 0,0188 mM.
Auch die weiteren Metabolite wurden auf ihre Wirkung an Zellen getestet. Der wichtigste Phase-I-Metabolit wies dabei einen EC50-Wert von 1,64 mM an Primären Hepatozyten und 0,55 mM an H4IIE auf. Die sehr hohe Reaktivität dieses cis-1,2-Butendials deutet darauf hin, dass bereits ein Großteil im Medium abreagiert, bevor es an den Zellen wirken kann. Daher resultiert die im Vergleich zum Furan enorm hohe Wirkkonzentration.
Bei einer weiteren Metabolisierung mit Glutathion stieg die gemessene Zytotoxizität wiederum an. Das Produktgemisch dieser beiden Reaktanden zeigte bereits ab einer Gesamtkonzentration von 0,025 mM signifikante Effekte. Die physiologisch gewollte Entgiftung findet also nicht statt. Wie dieser Effekt zustande kommt konnte leider nicht genau geklärt werden. Mit steigendem Butendial-Anteil stieg die schädigende Wirkung jedoch deutlich an.
Dies zeigt unter anderem, dass eine Verarmung an Glutathion die Wirkung von Furan steigert und die Detoxifizierung mit diesem Schritt noch nicht beendet ist. Aus den Ergebnissen geht hervor, dass Furan an sich und zumindest einige seiner Metabolite in der Leber toxisch wirken. Das gilt auch für Konzentrationen in einem Bereich, der keinen ausreichenden Sicherheitsabstand zur möglichen täglichen Aufnahme des Menschen lässt.
Auch wenn in den histologischen Untersuchungen noch keine Hinweise auf Tumore zu erkennen waren, so deuten die Daten in vitro doch deutlich auf ein hohes Potential vor allem des Furanmetaboliten Butendial hin. In wie weit dieser zur in Ratten beobachteten Krebsentstehung beisteuert, sollte Thema weiterer Untersuchungen sein.
Today’s pervasive availability of computing devices enabled with wireless communication and location- or inertial sensing capabilities is unprecedented. The number of smartphones sold worldwide are still growing and increasing numbers of sensor enabled accessories are available which a user can wear in the shoe or at the wrist for fitness tracking, or just temporarily puts on to measure vital signs. Despite this availability of computing and sensing hardware the merit of application seems rather limited regarding the full potential of information inherent to such senor deployments. Most applications build upon a vertical design which encloses a narrowly defined sensor setup and algorithms specifically tailored to suit the application’s purpose. Successful technologies, however, such as the OSI model, which serves as base for internet communication, have used a horizontal design that allows high level communication protocols to be run independently from the actual lower-level protocols and physical medium access. This thesis contributes to a more horizontal design of human activity recognition systems at two stages. First, it introduces an integrated toolchain to facilitate the entire process of building activity recognition systems and to foster sharing and reusing of individual components. At a second stage, a novel method for automatic integration of new sensors to increase a system’s performance is presented and discussed in detail.
The integrated toolchain is built around an efficient toolbox of parametrizable components for interfacing sensor hardware, synchronization and arrangement of data streams, filtering and extraction of features, classification of feature vectors, and interfacing output devices and applications. The toolbox emerged as open-source project through several research projects and is actively used by research groups. Furthermore, the toolchain supports recording, monitoring, annotation, and sharing of large multi-modal data sets for activity recognition through a set of integrated software tools and a web-enabled database.
The method for automatically integrating a new sensor into an existing system is, at its core, a variation of well-established principles of semi-supervised learning: (1) unsupervised clustering to discover structure in data, (2) assumption that cluster membership is correlated with class membership, and (3) obtaining at a small number of labeled data points for each cluster, from which the cluster labels are inferred. In most semi-supervised approaches, however, the labels are the ground truth provided by the user. By contrast, the approach presented in this thesis uses a classifier trained on an N-dimensional feature space (old classifier) to provide labels for a few points in an (N+1)-dimensional feature space which are used to generate a new, (N+1)-dimensional classifier. The different factors that make a distribution difficult to handle are discussed, a detailed description of heuristics designed to mitigate the influences of such factors is provided, and a detailed evaluation on a set of over 3000 sensor combinations from 3 multi-user experiments that have been used by a variety of previous studies of different activity recognition methods is presented.
Stadtumbau und Kultur
(2015)
Gerade in schrumpfenden Kommunen erscheint es als besonders
wichtig, die Realität des Schrumpfens, die damit verbundenen Verlusterfahrungen und notwendigen städtischen Umbauprozesse mit anderen Mitteln und über neue Zugänge besser verständlich zu machen und Betroffene zu aktivieren. In letzter Zeit werden hierfür
vermehrt auch künstlerische Ausdrucksformen genutzt. Basierend auf eigenen Erfahrungen des Autors ist es zentrales Anliegen der Arbeit, den Gegenstand solcher kulturellen Prozesse im Stadtumbau als Forschungsgegenstand aufzurufen und genauer zu untersuchen.
Eine deutschlandweite Befragung der Stadtumbaukommunen liefert erstmals statistisches Material zum Thema, das dann in vier vertiefenden Fallstudien anschaulich wird. Für die Planungspraxis werden mögliche Aktionsfelder katalogisiert und Anwendungsprinzipien
abgeleitet. Am Ende wird deutlich, dass Kunst und Kultur nicht schmückendes Beiwerk der Planung sondern ein eigenständiger Bestandteil im Stadtumbauprozess sein können.
Bei Asthma handelt es sich um eine chronische Entzündung der Atemwege, die durch bronchiale
Hyperreagibilität, reversible Atemwegsobstruktion und airway remodeling gekennzeichnet
ist. Letzteres bezieht sich dabei auf die permanenten strukturellen Veränderungen in den
Atemwegen, die zur Verdickung der Bronchialwand beitragen und für die bei Asthmatikern
auftretende progressive und irreversible Abnahme der Lungenfunktion verantwortlich sind. Die
epithelial zu mesenchymale Transition (EMT), ein physiologischer Prozess bei dem epitheliale
Zellen den motilen und invasiven Phänotyp von Fibroblasten übernehmen, ist dabei eng mit
der Zerstörung der epithelialen Barriere, subepithelialer Fibrose und der Akkumulation von
Myofibroblasten assoziiert, die bei airway remodeling auftreten. Obwohl Wachstumsfaktoren wie der transforming growth factor β (TGF-β) als wichtige Induktoren von EMT gelten, weisen jüngste Ergebnisse auf eine EMT-modifizierende Wirkung von inflammatorischen Mediatoren
hin. Ein Ziel dieser Arbeit war es deshalb, den Effekt der inflammatorischen Zytokine IL-4, IL-
17 und IL-22, die in der Pathogenese von allergischem (IL-4) bzw. nicht-allergischem (IL-17/
-22) Asthma involviert sind, auf die TGF-β induzierte EMT in vitro zu untersuchen. Keines der Zytokine war dabei in der Lage, selbstständig EMT induzieren, allerdings verstärkten und beschleunigten sie den EMT-Prozess in Kombination mit TGF-β, wobei die kombinierte
Stimulation mit allen 3 Zytokinen einen additiven Effekt zeigte. Obwohl die Zytokine allein kurzzeitig die Transkription von EMT-essentiellen Transkriptionsfaktoren förderten, nahm deren Transkriptmenge sowie Proteinabundanz rasch wieder ab. Dieser Effekt wurde durch die zusätzliche Stimulation mit TGF-β jedoch stark verringert, was auf eine essentielle Rolle
des mRNA-stabilisierenden Effektes von TGF-β bei der Induktion von EMT hindeutet.
Obwohl inhalierte Kortikosteroide als goldene Standardtherapie in der Asthmabehandlung gelten, verbleiben 5-10% der Asthmatiker therapieresistent. Desweiteren wird airway
remodeling durch die Langzeit-Behandlung mit Kortikosteroiden nicht unterdrückt, weswegen
neue therapeutische Ansätze entwickelt werden müssen. Naturstoffe mit ihrer strukturellen
Komplexität sowie ihrem breiten Spektrum an biologischen Aktivitäten können dabei als
potentielle Leitstrukturen dienen. In dieser Arbeit wurde das therapeutische Potenzial der Naturstoffe Cyclonerodiol und Oxacyclododecindion bezüglich Asthma-relevanter
Pathomechanismen in vitro untersucht. Cyclonerodiol, das zuvor bereits als Inhibitor des IL-4 Signalweges charakterisiert wurde, hemmte auch den IL-13 Signalweg, der ebenfalls mit
allergischem Asthma assoziiert ist. Auf mRNA- und Proteinebene reduzierte der Naturstoff die Expression inflammatorischer Zytokine und Chemokine, die an der Pathogenese von
allergischem Asthma beteiligt sind. Untersuchungen zum Wirkmechanismus zeigten, dass Cyclonerodiol die Interaktion des Transkriptionsfaktors STAT6 mit den MAP-Kinasen p38
und ERK1/2 und somit die Serin-Phosphorylierung von STAT6 reduziert, wodurch auch die Interaktion mit dem transkriptionellen Coaktivator p300 verringert wird. Oxacyclododecindion,
das bereits als potenter Inhibitor der Expression von inflammatorischen sowie fibrotischen Genen identifiziert wurde, hemmte charakteristische Merkmale von schwerem, Glukokortikoidresistentem
Asthma wie die durch IL-17 induzierte Expression inflammatorischer Gene.
Die Substanz inhibierte zudem die durch TGF-β induzierte EMT wesentlich stärker als das potente Glukokortikoid Dexamethason. Studien zum Wirkmechanismus weisen darauf hin,dass es sich bei Oxacyclododecindion um einen Kinaseinhibitor mit TAK1 als potentieller Zielstruktur handeln könnte.
The overall goal of the work is to simulate rarefied flows inside geometries with moving boundaries. The behavior of a rarefied flow is characterized through the Knudsen number \(Kn\), which can be very small (\(Kn < 0.01\) continuum flow) or larger (\(Kn > 1\) molecular flow). The transition region (\(0.01 < Kn < 1\)) is referred to as the transition flow regime.
Continuum flows are mainly simulated by using commercial CFD methods, which are used to solve the Euler equations. In the case of molecular flows one uses statistical methods, such as the Direct Simulation Monte Carlo (DSMC) method. In the transition region Euler equations are not adequate to model gas flows. Because of the rapid increase of particle collisions the DSMC method tends to fail, as well
Therefore, we develop a deterministic method, which is suitable to simulate problems of rarefied gases for any Knudsen number and is appropriate to simulate flows inside geometries with moving boundaries. Thus, the method we use is the Finite Pointset Method (FPM), which is a mesh-free numerical method developed at the ITWM Kaiserslautern and is mainly used to solve fluid dynamical problems.
More precisely, we develop a method in the FPM framework to solve the BGK model equation, which is a simplification of the Boltzmann equation. This equation is mainly used to describe rarefied flows.
The FPM based method is implemented for one and two dimensional physical and velocity space and different ranges of the Knudsen number. Numerical examples are shown for problems with moving boundaries. It is seen, that our method is superior to regular grid methods with respect to the implementation of boundary conditions. Furthermore, our results are comparable to reference solutions gained through CFD- and DSMC methods, respectevly.
Since their invention in the 1980s, behaviour-based systems have become very popular among roboticists. Their component-based nature facilitates the distributed implementation of systems, fosters reuse, and allows for early testing and integration. However, the distributed approach necessitates the interconnection of many components into a network in order to realise complex functionalities. This network is crucial to the correct operation of the robotic system. There are few sound design techniques for behaviour networks, especially if the systems shall realise task sequences. Therefore, the quality of the resulting behaviour-based systems is often highly dependant on the experience of their developers.
This dissertation presents a novel integrated concept for the design and verification of behaviour-based systems that realise task sequences. Part of this concept is a technique for encoding task sequences in behaviour networks. Furthermore, the concept provides guidance to developers of such networks. Based on a thorough analysis of methods for defining sequences, Moore machines have been selected for representing complex tasks. With the help of the structured workflow proposed in this work and the developed accompanying tool support, Moore machines defining task sequences can be transferred automatically into corresponding behaviour networks, resulting in less work for the developer and a lower risk of failure.
Due to the common integration of automatically and manually created behaviour-based components, a formal analysis of the final behaviour network is reasonable. For this purpose, the dissertation at hand presents two verification techniques and justifies the selection of model checking. A novel concept for applying model checking to behaviour-based systems is proposed according to which behaviour networks are modelled as synchronised automata. Based on such automata, properties of behaviour networks that realise task sequences can be verified or falsified. Extensive graphical tool support has been developed in order to assist the developer during the verification process.
Several examples are provided in order to illustrate the soundness of the presented design and verification techniques. The applicability of the integrated overall concept to real-world tasks is demonstrated using the control system of an autonomous bucket excavator. It can be shown that the proposed design concept is suitable for developing complex sophisticated behaviour networks and that the presented verification technique allows for verifying real-world behaviour-based systems.
The current procedures for achieving industrial process surveillance, waste reduction, and prognosis of critical process states are still insufficient in some parts of the manufacturing industry. Increasing competitive pressure, falling margins, increasing cost, just-in-time production, environmental protection requirements, and guidelines concerning energy savings pose new challenges to manufacturing companies, from the semiconductor to the pharmaceutical industry.
New, more intelligent technologies adapted to the current technical standards provide companies with improved options to tackle these situations. Here, knowledge-based approaches open up pathways that have not yet been exploited to their full extent. The Knowledge-Discovery-Process for knowledge generation describes such a concept. Based on an understanding of the problems arising during production, it derives conclusions from real data, processes these data, transfers them into evaluated models and, by this open-loop approach, reiteratively reflects the results in order to resolve the production problems. Here, the generation of data through control units, their transfer via field bus for storage in database systems, their formatting, and the immediate querying of these data, their analysis and their subsequent presentation with its ensuing benefits play a decisive role.
The aims of this work result from the lack of systematic approaches to the above-mentioned issues, such as process visualization, the generation of recommendations, the prediction of unknown sensor und production states, and statements on energy cost.
Both science and commerce offer mature statistical tools for data preprocessing, analysis and modeling, and for the final reporting step. Since their creation, the insurance business, the world of banking, market analysis, and marketing have been the application fields of these software types; they are now expanding to the production environment.
Appropriate modeling can be achieved via specific machine learning procedures, which have been established in various industrial areas, e.g., in process surveillance by optical control systems. Here, State-of-the-art classification methods are used, with multiple applications comprising sensor technology, process areas, and production site data. Manufacturing companies now intend to establish a more holistic surveillance of process data, such as, e.g., sensor failures or process deviations, to identify dependencies. The causes of quality problems must be recognized and selected in real time from about 500 attributes of a highly complex production machine. Based on these identified causes, recommendations for improvement must then be generated for the operator at the machine, in order to enable timely measures to avoid these quality deviations.
Unfortunately, the ability to meet the required increases in efficiency – with simultaneous consumption and waste minimization – still depends on data that are, for the most part, not available. There is an overrepresentation of positive examples whereas the number of definite negative examples is too low.
The acquired information can be influenced by sensor drift effects and the occurrence of quality degradation may not be adequately recognized. Sensorless diagnostic procedures with dual use of actuators can be of help here.
Moreover, in the course of a process, critical states with sometimes unexplained behavior can occur. Also in these cases, deviations could be reduced by early countermeasures.
The generation of data models using appropriate statistical methods is of advantage here.
Conventional classification methods sometimes reach their limits. Supervised learning methods are mostly used in areas of high information density with sufficient data available for the classes under examination. However, there is a growing trend (e.g., spam filtering) to apply supervised learning methods to underrepresented classes, the datasets of which are, at best, outliers or not at all existent.
The application field of One-Class Classification (OCC) deals with this issue. Standard classification procedures (e.g., k-nearest-neighbor classifier, support vector machines) can be modified in adjustment to such problems. Thereby, a control system is able to classify statements on changing process states or sensor deviations. The above-described knowledge discovery process was employed in a case study from the polymer film industry, at the Mondi Gronau GmbH, taken as an example, and accomplished by a real-data survey at the production site and subsequent data preprocessing, modeling, evaluation, and deployment as a system for the generation of recommendations. To this end, questions regarding the following topics had to be clarified: data sources, datasets and their formatting, transfer pathways, storage media, query sequences, the employed methods of classification, their adjustment to the problems at hand, evaluation of the results, construction of a dynamic cycle, and the final implementation in the production process, along with its surplus value for the company.
Pivotal options for optimization with respect to ecological and economical aspects can be found here. Capacity for improvement is given in the reduction of energy consumption, CO\(_2\) emissions, and waste at all machines. At this one site, savings of several million euros per month can be achieved.
One major difficulty so far has been hardly accessible process data which, distributed on various data sources and unconnected, in some areas led to an increased analysis effort and a lack of holistic real-time quality surveillance. Monitoring of specifications and the thus obtained support for the operator at the installation resulted in a clear disadvantage with regard to cost minimization.
The data of the case study, captured according to their purposes and in coordination with process experts, amounted to 21,900 process datasets from cast film extrusion during 2 years’ time, including sensor data from dosing facilities and 300 site-specific energy datasets from the years 2002–2014.
In the following, the investigation sequence is displayed:
1. In the first step, industrial approaches according to Industrie 4.0 and related to Big Data were investigated. The applied statistical software suites and their functions were compared with a focus on real-time data acquisition from database systems, different data formats, their sensor locations at the machines, and the data processing part. The linkage of datasets from various data sources for, e.g., labeling and downstream exploration according to the knowledge discovery process is of high importance for polymer manufacturing applications.
2. In the second step, the aims were defined according to the industrial requirements, i.e. the critical production problem called “cut-off” as the main selection, and with regard to their investigation with machine learning methods. Therefore, a system architecture corresponding to the polymer industry was developed, containing the following processing steps: data acquisition, monitoring \& recommendation, and self-configuration.
3. The novel sensor datasets, with 160–2,500 real and synthetic attributes, were acquired within 1-min intervals via PLC and field bus from an Oracle database. The 160 features were reduced to 6 dimensions with feature reduction methods. Due to underrepresentation of the critical class, the learning approaches had to be modified and optimized for one-class classification, which achieved 99% accuracy after training, testing and evaluation with real datasets.
4. In the next step, the 6-dimensional dataset was scaled into lower 1-, 2-, or 3-dimensional space with classical and non-classical mapping approaches for downstream visualization. The mapped view was separated into zones of normal and abnormal process conditions by threshold setting.
5. Afterwards, the boundary zone was investigated and an approach for trajectory extraction consisting of condition points in sequence was developed, to optimize the prediction behavior of the model. The extracted trajectories were trained, tested and evaluated by State-of-the-art classification methods, achieving a 99% recognition ratio.
6. In the last step, the best methods and processing parts were converted into a specifically developed domain-specific graphical user interface for real-time visualization of process condition changes. The requirements of such an interface were discussed with the operators with regard to intuitive handling, interactive visualization and recommendations (as e.g., messaging and traffic lights), and implemented.
The software prototype was tested at a laboratory machine. Correct recognition of abnormal process problems was achieved at a 90\% ratio. The software was afterwards transferred to a group of on-line production machines.
As demonstrated, the monthly amount of waste arising at machine M150 could be decreased from 20.96% to 12.44% during the application time. The frequency of occurrence of the specific problem was reduced by 30% related to monthly savings of 50,000 EUR.
In the approach pertaining to the energy prognosis of load profiles, monthly energy data from 2002 to 2014 (about 36 trajectories with three to eight real parameters each) were used as the basis, analyzed and modeled systematically. The prognosis quality increased with approaching target date. Thereby, the site-specific load profile for 2014 could be predicted with an accuracy of 99%.
The achievement of sustained cost reductions of several 100,000 euros, combined with additional savings of EUR 2.8 million, could be demonstrated.
The process improvements achieved while pursuing scientific targets could be successfully and permanently integrated at the case study plant. The increase in methodical and experimental knowledge was reflected by first economical results and could be verified numerically. The expectations of the company were more than fulfilled and further developments based on the new findings were initiated. Among the new finding are the transfer of the scientific findings onto more machines and even the initiation of further studies expanding into the diagnostics area.
Considering the size of the enterprise, future enhanced success should also be possible for other locations. In the course of the grid charge exemption according to EEG, the energy savings at further German locations can amount to 4–11% on a monetary basis and at least 5% based on energy. Up to 10% of materials and cost can be saved with regard to waste reduction related to specific problems. According to projections, material savings of 5–10 t per month and time savings of up to 50 person-hours are achievable. Important synergy effects can be created by the knowledge transfer.
Computational Homogenization of Piezoelectric Materials using FE² Methods and Configurational Forces
(2015)
Piezoelectric materials are electro-mechanically coupled materials. In these materials it is possible to produce an electric field by applying a mechanical load. This phenomenon is known as the piezoelectric effect. These materials also exhibit a mechanical deformation in response to an external electric loading, which is known as the inverse piezoelectric effect. By using these smart properties of piezoelectric materials, applications are possible in sensors and actuators. Ferroelectric or piezoelectric materials show switching behavior of the polarization in the material under an external loading. Due to this property, these materials are used to produce random access memory (RAM) for the non-volatile storage of data in computing devices. It is essential to understand the material responses of piezoelectric materials properly in order to use them in the engineering applications in innovative manners. Due to the growing interest in determining the material responses of smart material (e.g., piezoelectric material), computational methods are becoming increasingly important.
Many engineering materials possess inhomogeneities on the micro level. These inhomogeneities in the materials cause some difficulties in the determination of the material responses computationally as well as experimentally. But on the other hand, sometimes these inhomogeneities help the materials to render some good physical properties, e.g., glass or carbon fiber reinforced composites are light weight, but show higher strength. Piezoelectric materials also exhibit intense inhomogeneities on the micro level. These inhomogeneities are originating from the presence of domains, domain walls, grains, grain boundaries, micro cracks, etc. in the material. In order to capture the effects of the underlying microstructures on the macro quantities, it is essential to homogenize material parameters and the physical responses. There are several approaches to perform the homogenization. A two-scale classical (first-order) homogenization of electro-mechanically coupled materials using a FE²-approach is discussed in this work. The main objective of this work is to investigate the influences of the underlying micro structures on the macro Eshelby stress tensor and on the macro configurational forces. The configurational forces are determined in certain defect situations. These defect situations include the crack tip of a sharp crack in the macro specimen.
A literature review shows that the macro strain tensor is used to determine the micro boundary condition for the FE²-based homogenization in a small strain setting. This approach is capable to determine the consistent homogenized physical quantities (e.g., stress, strain) and the homogenized material quantities (e.g., stiffness tensor). But the application of these type of micro boundaries for the homogenization does not generate physically consistent macro Eshelby stress tensor or the macro configurational forces. Even in the absence of the micro volume configurational forces, this approach of the homogenization of piezoelectric materials produces unphysical volume configurational forces on the macro level. After a thorough investigation of the boundary conditions on the representative volume elements (RVEs), it is found that a displacement gradient driven micro boundary conditions remedy this issue. The use of the displacement gradient driven micro boundary conditions also satisfies the Hill-Mandel condition. The macro Eshelby stress tensor of a pure mechanical problem in a small deformation setting can be determined in two possible ways: by using the homogenized mechanical quantities (displacement gradient and stress tensor), or by homogenizing the Eshelby stress tensor on the micro level by volume averaging. The first approach does not satisfy the Hill-Mandel condition incorporating the Eshelby stress tensor in the energy term, on the other hand, the Hill-Mandel condition is satisfied in the second approach. In the case of homogenized Eshelby stress tensor determined from the homogenized physical quantities, the Hill-Mandel condition gives an additional energy term. A body in a small deformation setting is deformed according to the displacement gradient. If the homogenization is done using strain driven micro boundary conditions, the micro domain is deformed according to the macro strain, but the tiny vicinity around the corresponding Gauß point is deformed according to the macro displacement gradient. This implies that some restrictions are imposed at every Gauß point on the macro level. This situation helps the macro system to produce nonphysical volume configurational forces.
A FE²-based computational homogenization technique is also considered for the homogenization of piezoelectric materials. In this technique a representative volume element, which comprises of the micro structural features in the material, is assigned to every Gauß point of the macro domain. The macro displacement gradient and the macro electric field, or the macro stress tensor and the macro electric displacement are passed to the RVEs at every macro Gauß point. After determining boundary conditions on the RVEs, the homogenization process is performed. The homogenized physical quantities and the homogenized material parameters are passed back to macro Gauß points. In this work numerical investigations are carried out for two distinct situations of the microstructures of the piezoelectric materials regarding the evolution on the micro level: a) homogenization by using stationary microstructures, and b) homogenization by using evolving microstructures.
For the first case, the domain walls remain at fixed positions through out the simulations for the homogenization of piezoelectric materials. For a considerably large external loading, the real situation is different. But to understand the effects of the underlying microstructures on the macro configurational forces, to some extent it is sufficient to do the homogenization with fixed or stationary microstructures. The homogenization process is carried out for different microstructures and for different loading conditions. If the mechanical load is applied in the direction of the polarization, a smaller crack tip configurational force is observed in comparison to the configurational force determined for a mechanical loading perpendicular to the polarization. If the polarizations in the microstructures are parallel or perpendicular to the applied electric field and the applied displacement, configurational forces parallel to the crack ligament of the macro crack are observed only. In the case of inclined polarizations in the microstructures, configurational forces inclined to the crack ligament are obtained. The simulation results also reveal that an application of an external electric field to the material reduces the value of the nodal configurational forces at the crack tip.
In the second case, the interfaces of the micro structures are allowed to move from their initial positions at every step of the applied incremental external loading. Thus, at every step of the application of the external loading, the microstructures are changed when the external loading is larger than the coercive field. The movement of the interfaces is realized through the nodal configurational forces on the micro level. At every step of the application of the external loading, the nodal configurational forces per unit length on the domain walls are determined in the post-processing of the FE-simulation on the micro domain. With the help of the domain wall kinetics, the new positions of the domain walls are determined. Numerical results show that the crack tip region is the most affected area in the macro domain. For that reason a very different distribution of the macro electric displacement is observed comparing the same produced by using fixed microstructures. Due to the movement of the domain walls, the energy is dissipated in the system. As a result, a smaller configurational force appears at the crack tip on the macro level in the case of the homogenization by using evolving microstructures. By using the homogenization technique involving the evolution of the microstructures, it is possible to produce the electric displacement vs. electric field hysteresis loop on the macro level. The shape of the hysteresis loop depends on the value of the rate of application of the external electric loading. A faster deployment of the external electric field widens the hysteresis loop.
This dissertation focuses on the visualization of urban microclimate data sets,
which describe the atmospheric impact of individual urban features. The application
and adaptation of visualization and analysis concepts to enhance the
insight into observational data sets used this specialized area are explored, motivated
through application problems encountered during active involvement
in urban microclimate research at the Arizona State University in Tempe, Arizona.
Besides two smaller projects dealing with the analysis of thermographs
recorded with a hand-held device and visualization techniques used for building
performance simulation results, the main focus of the work described in
this document is the development of a prototypic tool for the visualization
and analysis of mobile transect measurements. This observation technique involves
a sensor platform mounted to a vehicle, which is then used to traverse
a heterogeneous neighborhood to investigate the relationships between urban
form and microclimate. The resulting data sets are among the most complex
modes of in-situ observations due to their spatio-temporal dependence, their
multivariate nature, but also due to the various error sources associated with
moving platform observations.
The prototype enables urban climate researchers to preprocess their data,
to explore a single transect in detail, and to aggregate observations from multiple
traverses conducted over diverse routes for a visual delineation of climatic
microenvironments. Extending traditional analysis methods, the suggested visualization
tool provides techniques to relate the measured attributes to each
other and to the surrounding land cover structure. In addition to that, an
improved method for sensor lag correction is described, which shows the potential
to increase the spatial resolution of measurements conducted with slow
air temperature sensors.
In summary, the interdisciplinary approach followed in this thesis triggers
contributions to geospatial visualization and visual analytics, as well as to urban
climatology. The solutions developed in the course of this dissertation are
meant to support domain experts in their research tasks, providing means to
gain a qualitative overview over their specific data sets and to detect patterns,
which can then be further analyzed using domain-specific tools and methods.
In this dissertation, we discuss how to price American-style options. Our aim is to study and improve the regression-based Monte Carlo methods. In order to have good benchmarks to compare with them, we also study the tree methods.
In the second chapter, we investigate the tree methods specifically. We do research firstly within the Black-Scholes model and then within the Heston model. In the Black-Scholes model, based on Müller's work, we illustrate how to price one dimensional and multidimensional American options, American Asian options, American lookback options, American barrier options and so on. In the Heston model, based on Sayer's research, we implement his algorithm to price one dimensional American options. In this way, we have good benchmarks of various American-style options and put them all in the appendix.
In the third chapter, we focus on the regression-based Monte Carlo methods theoretically and numerically. Firstly, we introduce two variations, the so called "Tsitsiklis-Roy method" and the "Longstaff-Schwartz method". Secondly, we illustrate the approximation of American option by its Bermudan counterpart. Thirdly we explain the source of low bias and high bias. Fourthly we compare these two methods using in-the-money paths and all paths. Fifthly, we examine the effect using different number and form of basis functions. Finally, we study the Andersen-Broadie method and present the lower and upper bounds.
In the fourth chapter, we study two machine learning techniques to improve the regression part of the Monte Carlo methods: Gaussian kernel method and kernel-based support vector machine. In order to choose a proper smooth parameter, we compare fixed bandwidth, global optimum and suboptimum from a finite set. We also point out that scaling the training data to [0,1] can avoid numerical difficulty. When out-of-sample paths of stock prices are simulated, the kernel method is robust and even performs better in several cases than the Tsitsiklis-Roy method and the Longstaff-Schwartz method. The support vector machine can keep on improving the kernel method and needs less representations of old stock prices during prediction of option continuation value for a new stock price.
In the fifth chapter, we switch to the hardware (FGPA) implementation of the Longstaff-Schwartz method and propose novel reversion formulas for the stock price and volatility within the Black-Scholes and Heston models. The test for this formula within the Black-Scholes model shows that the storage of data is reduced and also the corresponding energy consumption.
Das Ziel dieser Dissertation ist die Entwicklung und Implementation eines Algorithmus zur Berechnung von tropischen Varietäten über allgemeine bewertete Körper. Die Berechnung von tropischen Varietäten über Körper mit trivialer Bewertung ist ein hinreichend gelöstes Problem. Hierfür kombinieren die Autoren Bogart, Jensen, Speyer, Sturmfels und Thomas eindrucksvoll klassische Techniken der Computeralgebra mit konstruktiven Methoden der konvexer Geometrie.
Haben wir allerdings einen Grundkörper mit nicht-trivialer Bewertung, wie zum Beispiel den Körper der \(p\)-adischen Zahlen \(\mathbb{Q}_p\), dann stößt die konventionelle Gröbnerbasentheorie scheinbar an ihre Grenzen. Die zugrundeliegenden Monomordnungen sind nicht geeignet um Problemstellungen zu untersuchen, die von einer nicht-trivialen Bewertung auf den Koeffizienten abhängig sind. Dies führte zu einer Reihe von Arbeiten, welche die gängige Gröbnerbasentheorie modifizieren um die Bewertung des Grundkörpers einzubeziehen.\[\phantom{newline}\]
In dieser Arbeit präsentieren wir einen alternativen Ansatz und zeigen, wie sich die Bewertung mittels einer speziell eingeführten Variable emulieren lässt, so dass eine Modifikation der klassischen Werkzeuge nicht notwendig ist.
Im Rahmen dessen wird Theorie der Standardbasen auf Potenzreihen über einen Koeffizientenring verallgemeinert. Hierbei wird besonders Wert darauf gelegt, dass alle Algorithmen bei polynomialen Eingabedaten mit ihren klassischen Pendants übereinstimmen, sodass für praktische Zwecke auf bereits etablierte Softwaresysteme zurückgegriffen werden kann. Darüber hinaus wird die Konstruktion des Gröbnerfächers sowie die Technik des Gröbnerwalks für leicht inhomogene Ideale eingeführt. Dies ist notwendig, da bei der Einführung der neuen Variable die Homogenität des Ausgangsideal gebrochen wird.\[\phantom{newline}\]
Alle Algorithmen wurden in Singular implementiert und sind als Teil der offiziellen Distribution erhältlich. Es ist die erste Implementation, welches in der Lage ist tropische Varietäten mit \(p\)-adischer Bewertung auszurechnen. Im Rahmen der Arbeit entstand ebenfalls ein Singular Paket für konvexe Geometrie, sowie eine Schnittstelle zu Polymake.
In some processes for spinning synthetic fibers the filaments are exposed to highly turbulent air flows to achieve a high degree of stretching (elongation). The quality of the resulting filaments, namely thickness and uniformity, is thus determined essentially by the aerodynamic force coming from the turbulent flow. Up to now, there is a gap between the elongation measured in experiments and the elongation obtained by numerical simulations available in the literature.
The main focus of this thesis is the development of an efficient and sufficiently accurate simulation algorithm for the velocity of a turbulent air flow and the application in turbulent spinning processes.
In stochastic turbulence models the velocity is described by an \(\mathbb{R}^3\)-valued random field. Based on an appropriate description of the random field by Marheineke, we have developed an algorithm that fulfills our requirements of efficiency and accuracy. Applying a resulting stochastic aerodynamic drag force on the fibers then allows the simulation of the fiber dynamics modeled by a random partial differential algebraic equation system as well as a quantization of the elongation in a simplified random ordinary differential equation model for turbulent spinning. The numerical results are very promising: whereas the numerical results available in the literature can only predict elongations up to order \(10^4\) we get an order of \(10^5\), which is closer to the elongations of order \(10^6\) measured in experiments.
Untersuchungen zum langzeitbeständigen Kleben von organisch bandbeschichteten
Stahlfeinblechen mittels Labormethoden stoßen immer wieder auf
die Problematik der korrosiven Unterwanderung der Beschichtung. Diese ist
für die Bestimmung der Langzeitbeständigkeit der Klebung hinderlich, da sie in
der Realität in dieser Form selten vorzufinden ist. Ein Ziel dieser Arbeit war es,
eine angepasste Klebprobengeometrie zu entwickeln, welche eine korrosive
Unterwanderung der organischen Bandbeschichtung in zeitraffenden Laboralterungstests
verhindert. Es konnte gezeigt werden, dass mittels der entwickelten
Probengeometrie eine zuverlässige Bestimmung des Alterungsverhaltens
an geklebten Verbunden mit organisch bandbeschichteten Stahlfeinblechen
möglich ist.
Hierauf aufbauend zielten die weiteren Untersuchungen mit zweikomponentigen
Polyurethan-Klebstoffen auf einen Vergleich der zeitraffenden Laboralterungsmethoden
mit nicht zeitraffenden Alterungsverfahren wie der Freibewitterung
und der Auslagerung am Feldfahrzeug. Die Auslagerung am
Feldfahrzeug erfolgte an Kühlfahrzeugen, welche im Speditionsverkehr auf
europäischen Routen verkehrten. Hauptaugenmerk bei allen Alterungsversuchen
war es neben der Bestimmung der Restfestigkeit auch die klimatischen
Expositionsbedingungen zu dokumentieren. Dies ermöglichte zum einen die
Interpretation der Zugscherergebnisse. Zum anderen konnte hieraus eine
Korrelation und letztendlich ein mathematisches Modell zur Festigkeitsvorhersage
von reversiblen Alterungseffekten abgeleitet werden. Mit diesem Modell
ist eine Vorhersage der Zugscherfestigkeit auf Basis eines bekannten Expositionsprofils
möglich.
Ausgehend von Andrew Moravcsiks liberaler Außenpolitiktheorie, nach
der gesellschaftliche Akteure rationale und risikoaverse bzw. kostensensitive
Präferenzen verfolgen, die konstitutiv für die Außen- und Sicherheitspolitik
von Staaten sind, untersucht die vorliegende Studie entlang
der Fallbeispiele Afghanistankrieg, Politik der gezielten Tötungen und
Schließung Guantánamos, inwiefern diese Präferenzen des amerikanischen
Demos die Politik der Terrorismusbekämpfung der Obama-
Administration maßgeblich beeinflussen, ob sich das politische System
gegenüber dem Präferenzmuster des Demos responsiv verhält und
unter welchen Kontextbedingungen gesellschaftliche Präferenzen von
Kongress und Präsident repräsentiert werden. Gestützt auf der Analyse
von Einstellungsmustern der amerikanischen Öffentlichkeit und dem
Kongruenzabgleich zwischen gesellschaftlichen Präferenzen und dem
Handeln von Kongress und Präsident ergibt sich ein widersprüchliches
Bild mit Blick auf die Grundannahmen der liberalen Außenpolitiktheorie.
Der amerikanische Demos favorisierte die gezielte Tötung von
Terroristen, lehnte aber die Schließung Guantánamos und die Intensivierung
des militärischen Einsatzes in Afghanistan ab. Der Kongress als
zentraler Transmissionsriemen gesellschaftlicher Präferenzen unterstützte
einerseits den Präsidenten seit 9/11 bei seiner Terrorismusbekämpfungsstrategie,
scheiterte aber trotz seiner verfassungsrechtlichen
Kompetenzen daran den exekutiven Dominanzanspruch beim Einsatz
militärischer Mittel in Frage zu stellen. Andererseits verweigerte der
Kongress fortlaufend die Schließung Guantánamos. Ziel dieser qualitativen
Studie ist es deshalb durch Verwendung von wirkmächtigen
intervenierenden Variablen wie Schwellenwertbedingung, Parteipolitische
Polarisierung und Politikfeldspezifizität - die argumentative und modelltheoretische
Erweiterung der liberalen Außenpolitiktheorie voranzutreiben
Congress Report 2015.05-08
(2015)
In 2003, a dictionary data structure called jumplist has been introduced by Brönnimann, Cazals and Durand. It is based on a circularly closed (singly) linked list, but additional jump-pointers are added to provide shortcuts to parts further ahead in the list.
The original jump-and-walk data structure by Brönnimann, Cazals and Durand only introduces one jump-pointer per node. In this thesis, I add one more-jump pointer to each node and present algorithms for generation, insertion and search for the resulting data structure.
Furthermore, I try to evaluate the effects on the expected search costs and the complexity of the generation and insertion.
It turns out that the two-jump-pointer variant of the jumplist has a slightly better prefactor (1.2 vs. 2) in the leading term of the expected internal path length than the original version and despite the more complex structure of the two-jump-pointer variant compared to the regular jumplist, the complexity of generation and insertion remains linearithmic.
Maltose binding protein (MBP) is a monomeric, two domain protein containing 370 amino acids. Seven double cysteine mutants of maltose binding protein (MBP) were generated with one each in the active cleft at position 298 and the second cysteine distributed over both domains of the protein. These cysteines were spin labeled and distances between the labels in biradical pairs determined by pulsed double electron–electron resonance (DEER) measurements. The values were compared with
theoretical predictions of distances between the labels in biradicals constructed by molecular modeling from the crystal structure of MBP without maltose and were found to be in excellent agreement.
MBP is in a molten globule state at pH 3.3 and is known to still bind its substrate maltose.
The ligand-binding affinity of the molten globule and the native states of MBP was studied by isothermal titration calorimetry. Ligand binding affinity measured by isothermal titration calorimetry for the native state of MBP was found to be comparable to that from the literature.
Simultaneous measurements to investigate the molten globule state of MBP were implemented, including the use of far-and near-UV CD and the 8-anilino-1-naphthalene sulfonate (ANS) binding employing fluorescence techniques. Guanidine hydrochloride, urea and thermal denaturation studies have been carried out to compare the stability of the two states of maltose binding protein.
In cw- experiments, the X-band EPR measurements at low temperature confirm indirect that all distances of the biradicals are above 20 Å, otherwise no evidence of dipolar interactions in the immobilized spectra were observed.
DEER measurements of MBP in a molten globule state were yielding a broad distance distribution as was to be expected if there is no explicit tertiary structure and the individual helices pointing into all possible directions.
Motivated by the results of infinite dimensional Gaussian analysis and especially white noise analysis, we construct a Mittag-Leffler analysis. This is an infinite dimensional analysis with respect to non-Gaussian measures of Mittag-Leffler type which we call Mittag-Leffler measures. Our results indicate that the Wick ordered polynomials, which play a key role in Gaussian analysis, cannot be generalized to this non-Gaussian case. We provide evidence that a system of biorthogonal polynomials, called generalized Appell system, is applicable to the Mittag-Leffler measures, instead of using Wick ordered polynomials. With the help of an Appell system, we introduce a test function and a distribution space. Furthermore we give characterizations of the distribution space and we characterize the weak integrable functions and the convergent sequences within the distribution space. We construct Donsker's delta in a non-Gaussian setting as an application.
In the second part, we develop a grey noise analysis. This is a special application of the Mittag-Leffler analysis. In this framework, we introduce generalized grey Brownian motion and prove differentiability in a distributional sense and the existence of generalized grey Brownian motion local times. Grey noise analysis is then applied to the time-fractional heat equation and the time-fractional Schrödinger equation. We prove a generalization of the fractional Feynman-Kac formula for distributional initial values. In this way, we find a Green's function for the time-fractional heat equation which coincides with the solutions given in the literature.
We consider storage loading problems where items with uncertain weights have
to be loaded into a storage area, taking into account stacking and
payload constraints. Following the robust optimization paradigm, we propose
strict and adjustable optimization models for finite and interval-based
uncertainties. To solve these problems, exact decomposition and heuristic
solution algorithms are developed.
For strict robustness, we also present a compact formulation based
on a characterization of worst-case scenarios.
Computational results show that computation times and algorithm
gaps are reasonable for practical applications.
Furthermore, we find that the robustness concepts show different
potential depending on the type of data being used.
Regionalparks werden als informelles projekt-, kommunikations- und kooperationsorientiertes
Planungsinstrument der Regionalentwicklung seit Ende der 1980er Jahre in
Deutschland umgesetzt. Seit einigen Jahren werden Regionalparks auch in anderen
europäischen Ländern, vor allem in Metropolregionen, entwickelt.
In Deutschland wurde der erste Regionalpark, der Emscher Landschaftspark, bereits
1989 gegründet. Mit dem Regionalpark Rhein-Main folgte 1994 ein weiterer Regionalpark.
Seitdem sind in vielen Bundesländern Deutschlands Regionalparks entwickelt
worden, so z. B. im Saarland, in Hamburg, in Berlin und Brandenburg oder in Baden-
Württemberg. Die Tendenz ist, auch aufgrund von EU-Fördermitteln, steigend.
Ein Schwerpunkt von Regionalparks liegt auf dem Landschafts- und Freiraumschutz.
Als informelles Instrument der Landschafts- und Freiraumentwicklung bieten Regionalparks
somit Strategien für eine nachhaltige und qualifizierte Sicherung von Freiräumen.
Regionalparks dienen im weiteren Bereich aber auch der lokalen und regionalen
Wirtschaft, verfolgen touristische, kulturelle und soziale Ziele. Sie gelten weiterhin als
Instrument zur Stärkung der weichen Standortfaktoren in z. B. strukturschwachen Regionen.
Im Kontext der raumordnungspolitischen Debatte um die territoriale Kohäsion
in Europa bieten Regionalparks somit Argumente für die Akquirierung von EU-Fördermitteln.
Im Rahmen wachsender internationaler Standortkonkurrenzen spielen Faktoren wie
das Image einer Region, eine hohe Umwelt- und Freiraumqualität, ein attraktives Wohnumfeld
und ein vielseitiges Kultur- und Naherholungsangebot in den Stadtregionen
Europas eine immer wichtigere Rolle für die Ansiedlung von Unternehmen und für den
Zuzug hochqualifizierter Arbeitnehmer. Durch die Folgeeffekte der Projekte in Regionalparks
können die Chancen im internationalen Wettbewerb verbessert werden.
Was in der Fachwelt bisher fehlt, ist ein empirischer Vergleich der deutschen Regionalparks
mit vergleichbaren Ansätzen im europäischen Ausland. Es wird in dieser Arbeit
daher der Frage nachgegangen, wie das Instrument Regionalpark in anderen Ländern
Europas interpretiert und umgesetzt wird, welchen Einfluss die Belange des Freiraum-
und Naturschutzes auf die Projekte in Regionalparks haben und wie detailliert
die Projekte der Regionalparks zu Themen wie Freiraum- und Naturschutz umgesetzt
werden. Dies wird anhand von vier Fallbeispielen – zwei Regionalparks in Deutschland
und zwei Regionalparks in Europa – beschrieben und bewertet und stellt den Schwerpunkt
der Arbeit dar.
Ein weiterer sich anschließender Untersuchungsaspekt ist die Bewertung und Analyse
der in den letzten Jahren neu in Europa entstandenen Regionalparks, die noch nicht
näher wissenschaftlich erforscht worden sind. Dazu zählen z. B. als Regionalparks
benannte Gebiete in Großbritannien, der Schweiz oder in Slowenien. Nicht immer gleichen
die Regionalparks im europäischen Ausland dabei den deutschen Konzepten,
sondern erweisen sich bei näherer Betrachtung als Natur-, Freizeit oder Ferienparks.
Durch eine kritische Bewertung nach verschiedenen vorher definierten Kriterien werden
die ausgewählten Regionalparks hinsichtlich des Schwerpunktes auf Natur- und
Freiraumschutz beleuchtet und bewertet. Aus den gewonnenen Erkenntnissen werden
Handlungsempfehlungen für Politik und Praxis abgeleitet.
Mit dieser Arbeit sollen Impulse für eine moderne, informelle, nachhaltige und ökologisch
orientierte Stadt -und Regionalentwicklung in Europa gegeben werden. Die Arbeit
soll darüber hinaus Handlungsempfehlungen für die Vernetzung von und den Informationsaustausch
zwischen Regionalparks geben und damit einen Beitrag zur Regionalparkentwicklung
in Europa leisten, um so ein geeintes Europa auch hinsichtlich
der Natur-, Regional- und Freiraumentwicklung zu stärken.
In der vorliegenden Arbeit wurde die Reaktivität und Selektivität anellierter, verbrückter und tertiärer O-Radikale, in drei Teilprojekten, untersucht. Die zur Erzeugung primärer und sekundärer O-Radikale benötigten Thiohydroxamsäure-O-ester stammen aus Reaktionen von Cyclopentenyltosylaten mit 3-Hydroxy-4-methylthiazol-2(3H)-thion-Tetraethylammoniumsalz (Salz-Methode). Für tertiäre Thiohydroxamsäure-O-ester hat sich die Umsetzung tertiärer O-Alkylisoharnstoffe mit 3-Hydroxy-4-methylthiazol-2(3H)-thionen bewährt (Isoharnstoff-Methode). Die anschließende Freisetzung der O-Radikale, aus den O-Alkylthiohydroxamaten, erfolgte photochemisch oder thermisch unter pH-neutralen und nicht oxidativen Bedingungen in Gegenwart von Bromtrichlormethan. Relative Reaktivitäten der O-Radikale in Sauerstoff-Elementarreaktionen beruhen auf Abschätzungen mit Hilfe unimolekularer Vergleichsreaktionen (Radikaluhr Konzept). Beobachtete Selektivitäten und Stabilitäten wurden anhand theoretischer Analyseverfahren (Twist-Modell, Dichtefunktional-Rechnungen und Møller-Plesset-Störungsrechnung 2. Ordnung), in Kooperation mit Jens Hartung, interpretiert und quantifiziert. Die synthetisierten \({\beta}\)-bromierten, bicyclischen, tricyclischen sowie tertiären Tetrahydrofurane erweitern die bis dato auf primäre und sekundäre Monocyclen beschränkte Vielfalt der 5-Ring-Strukturen über Sauerstoff-Radikalreaktionen. Beispiele für Synthesen mittels intermolekularer O-Radikaladditionen liefern funktionalisierte Bromalkoxybicyclo[2.2.1]heptane und tert-Butoxybromalkane.
Durch Variation (1,2-Cyclopentyl und 1,2-Cyclohexyl) und Permutation (Kohlenstoff-Atome C1 und C2 / C2 und C3 / C3 und C4) der Anellierung, sowie durch verbrückte Reste (C2 und C5 / C3 und C5) am 4-Penten-1-oxyl-Gerüst gelang es, im ersten Teilprojekt, diastereomerenreine primäre und sekundäre O-Radikalvorläufer für eine systematische Untersuchung der Stereoselektivität in 5-exo-trig-Reaktionen zu synthetisieren. Umsetzungen der O-Radikalvorläufer zeigten Regelmäßigkeiten im Produktbild, die in Form von Richtlinien für zukünftige Syntheseplanungen zusammengefasst wurden: (I) Für sterisch und elektronisch vergleichbare Substituenten in direkter Nachbarschaft (zum Beispiel C1 und C2) ist der stereochemische Einfluss des Substituenten größer, der der Doppelbindung näher ist (hier Substituent an C2). Die relative Konfiguration der beiden anellierten Substituenten zueinander wirkt sich auf den Stereoselektivitätsgrad aus, wobei trans-anellierte 4-Penten-1-oxyl-Radikale stereoselektiver cyclisieren als cis-konfigurierte Isomere. Hauptprodukte der 1,2- und 2,3-cyclohexyl-anellierten 4-Penten-1-oxyl-Radikale sind 2,4-cis- und 2,3-trans-substituierte Tetrahydrofurane. (II) Ist die Flexibilität der Sauerstoffatom-tragenden Seitenkette konformell eingeschränkt, cyclisieren anellierte (C3 und C4) sowie verbrückte (C2 und C5 / C3 und C5) 4-Penten-1-oxyl-Radikale 2,3- und 2,4-cis-spezifisch an endo- und exo-cyclische \({\pi}\)-Bindungen. Theoretische Berechnungen diesbezüglich haben gezeigt, dass der 2,3-trans-Ringschluss des Modell-Radikals 1-(Cyclohexen-3-yl)-2-ethoxylradikal aufgrund sterischer Effekte eine deutlich höhere Barriere besitzt (89.5 kJ/mol) als der 2,3-cis-Ringschluss (35.4 kJ/mol).
Die Herstellung tertiärer 3-Alkyloxy- und 3-Cumyloxy-5-(4-methoxyphenyl)thiazol-2(3H)-thione und die Untersuchung der Reaktivitäten daraus erzeugter tertiärer O-Radikale in Elementarreaktionen waren Schwerpunkte des zweiten Themengebiets. Experimentell bestimmte relative Geschwindigkeitskonstanten für die \({\delta}\)-H-Abstraktion (\({k^{Subst} = 10^7-10^8 s^{-1}}\)), die 5-exo-trig-Cyclisierung (\({k^{5-exo} = 10^8-10^9 s^{-1}}\)) und die intermolekulare Addition (\({k^{Add} = 10^7 M^{-1}s^{-1}}\)) demonstrieren, dass tertiäre O-Radikale trotz größerer sterischer Hinderung eine ähnliche (Substitution) oder höhere Reaktivität (5-exo-Reaktion) als vergleichbare primäre und sekundäre Analoga aufweisen. Der 5-exo-Rinschluss des 2-Phenyl-5-hexen-2-oxyl-Radikals erfolgt 2,5-cis-selektiv. Intermolekulare Additionen der tert-Butoxyl-, Cumyloxyl- oder p-Chlorcumyloxyl-Radikale an Norbornen verlaufen exo-spezifisch. Dichtefunktional Berechnungen zufolge sind Torsionsspannungen im 2,5-trans-Übergangszustand der 5-exo-trig-Cyclisierung und im endo-Übergangszustand der intermolekularen Addition für die beobachtete Selektivität verantwortlich.
Im dritten Projekt wurden O-(tert-Butyl)thiohydroxamate aus O-(tert-Butyl)-N,N-diisopropylisoharnstoff und dem 3-Hydroxy-4-methylthiazol-2(3H)-thion sowie dem 3-Hydroxy-4-methyl-5-(4-nitrophenyl)thiazol-2(3H)-thion hergestellt. Die gleiche Reaktion zeigt bei Verwendung des 1-Hydroxypyridin-2(1H)-thions eine spontane Umlagerung des O-(tert-Butyl)thiohydroxamats zum O-(tert-Butyl)pyridin-2-sulfenat. Stabilitätsunterschiede der tertiären Thiohydroxamat-Klassen lassen sich der Molekülorbital-Theorie folgend auf drei unterschiedliche, \({\pi}\)-artige Wechselwirkungen der N,O-Bindung mit dem Thiohydroxamat-Kern und dem O-Alkyl-Rest im Grundzustand zurückführen, die die N,O-Bindung insgesamt stärken. Tertiäre 3-Alkoxythiazolthione erfahren dabei eine größere Stabilisierung als vergleichbare Pyridinthione. Photochemische Umsetzungen der tert-Butoxythiazolthione liefern tert-Butoxyl-Radikale, die durch Addition an 5,5-Dimethylpyrrolidin N-Oxid (DMPO) und Styrol nachgewiesen wurden.
Als Ergänzung zum elektronischen Bibliothekssystem ALEPH wird an der UB Kaiserslautern für die Verwaltung der E-Medien das Electronic Resource Management System SemperTool eingesetzt.
Die Video-Präsentation geht auf die Vorteile dieses ERM-Systems sowie auf dessen
Anwendung an der UB Kaiserslautern ein und beschreibt kurz die genutzten
Funktionalitäten.
Spin and orbital magnetic moments of isolated single molecule magnets and transition metal clusters
(2015)
In the present work, magnetic moments of isolated Single Molecule Magnets (SMMs) and transition
metal clusters were investigated. Gas phase X‐ray Magnetic Circular Dichroism (XMCD) in
combination with sum rule analysis served to separate the total magnetic moments of the
investigated species into their spin and orbital contributions. Two different mass spectrometry based
setups were used for the presented investigations on transition metal clusters (GAMBIT‐setup) and
on single molecule magnets (NanoClusterTrap). Both experiments were coupled to the UE52‐PGM
beamline at the BESSY II synchrotron facility (Helmholtz Zentrum Berlin) which provided the
necessary polarized X‐ray photons. The investigation of the given compounds as isolated molecules
in the gas phase enabled a determination of their intrinsic magnetic properties void of any influences
of e.g. a surrounding bulk or supporting surface
The Wilkie model is a stochastic asset model, developed by A.D. Wilkie in 1984 with a purpose to explore the behaviour of investment factors of insurers within the United Kingdom. Even so, there is still no analysis that studies the Wilkie model in a portfolio optimization framework thus far. Originally, the Wilkie model is considering a discrete-time horizon and we apply the concept of Wilkie model to develop a suitable ARIMA model for Malaysian data by using Box-Jenkins methodology. We obtained the estimated parameters for each sub model within the Wilkie model that suits the case of Malaysia, and permits us to analyse the result based on statistics and economics view. We then tend to review the continuous time case which was initially introduced by Terence Chan in 1998. The continuous-time Wilkie model inspired is then being employed to develop the wealth equation of a portfolio that consists of a bond and a stock. We are interested in building portfolios based on three well-known trading strategies, a self-financing strategy, a constant growth optimal strategy as well as a buy-and-hold strategy. In dealing with the portfolio optimization problems, we use the stochastic control technique consisting of the maximization problem itself, the Hamilton-Jacobi-equation, the solution to the Hamilton-Jacobi-equation and finally the verification theorem. In finding the optimal portfolio, we obtained the specific solution of the Hamilton-Jacobi-equation and proved the solution via the verification theorem. For a simple buy-and-hold strategy, we use the mean-variance analysis to solve the portfolio optimization problem.
Information Visualization (InfoVis) and Human-Computer Interaction (HCI) have strong ties with each other. Visualization supports the human cognitive system by providing interactive and meaningful images of the underlying data. On the other side, the HCI domain cares about the usability of the designed visualization from the human perspectives. Thus, designing a visualization system requires considering many factors in order to achieve the desired functionality and the system usability. Achieving these goals will help these people in understanding the inside behavior of complex data sets in less time.
Graphs are widely used data structures to represent the relations between the data elements in complex applications. Due to the diversity of this data type, graphs have been applied in numerous information visualization applications (e.g., state transition diagrams, social networks, etc.). Therefore, many graph layout algorithms have been proposed in the literature to help in visualizing this rich data type. Some of these algorithms are used to visualize large graphs, while others handle the medium sized graphs. Regardless of the graph size, the resulting layout should be understandable from the users’ perspective and at the same time it should fulfill a list of aesthetic criteria to increase the representation readability. Respecting these two principles leads to produce a resulting graph visualization that helps the users in understanding and exploring the complex behavior of critical systems.
In this thesis, we utilize the graph visualization techniques in modeling the structural and behavioral aspects of embedded systems. Furthermore, we focus on evaluating the resulting representations from the users’ perspectives.
The core contribution of this thesis is a framework, called ESSAVis (Embedded Systems Safety Aspect Visualizer). This framework visualizes not only some of the safety aspects (e.g. CFT models) of embedded systems, but also helps the engineers and experts in analyzing the system safety critical situations. For this, the framework provides a 2Dplus3D environment in which the 2D represents the graph representation of the abstract data about the safety aspects of the underlying embedded system while the 3D represents the underlying system 3D model. Both views are integrated smoothly together in the 3D world fashion. In order to check the effectiveness and feasibility of the framework and its sub-components, we conducted many studies with real end users as well as with general users. Results of the main study that targeted the overall ESSAVis framework show high acceptance ratio and higher accuracy with better performance using the provided visual support of the framework.
The ESSAVis framework has been designed to be compatible with different 3D technologies. This enabled us to use the 3D stereoscopic depth of such technologies to encode nodes attributes in node-link diagrams. In this regard, we conducted an evaluation study to measure the usability of the stereoscopic depth cue approach, called the stereoscopic highlighting technique, against other selected visual cues (i.e., color, shape, and sizes). Based on the results, the thesis proposes the Reflection Layer extension to the stereoscopic highlighting technique, which was also evaluated from the users’ perspectives. Additionally, we present a new technique, called ExpanD (Expand in Depth), that utilizes the depth cue to show the structural relations between different levels of details in node-link diagrams. Results of this part opens a promising direction of the research in which visualization designers can get benefits from the richness of the 3D technologies in visualizing abstract data in the information visualization domain.
Finally, this thesis proposes the application of the ESSAVis frame- work as a visual tool in the educational training process of engineers for understanding the complex concepts. In this regard, we conducted an evaluation study with computer engineering students in which we used the visual representations produced by ESSAVis to teach the principle of the fault detection and the failure scenarios in embedded systems. Our work opens the directions to investigate many challenges about the design of visualization for educational purposes.
Large displays become more and more popular, due to dropping prices. Their size and high resolution leverages collaboration and they are capable of dis- playing even large datasets in one view. This becomes even more interesting as the number of big data applications increases. The increased screen size and other properties of large displays pose new challenges to the Human- Computer-Interaction with these screens. This includes issues such as limited scalability to the number of users, diversity of input devices in general, leading to increased learning efforts for users, and more.
Using smart phones and tablets as interaction devices for large displays can solve many of these issues. Since they are almost ubiquitous today, users can bring their own device. This approach scales well with the number of users. These mobile devices are easy and intuitive to use and allow for new interaction metaphors, as they feature a wide array of input and output capabilities, such as touch screens, cameras, accelerometers, microphones, speakers, Near-Field Communication, WiFi, etc.
This thesis will present a concept to solve the issues posed by large displays. We will show proofs-of-concept, with specialized approaches showing the via- bility of the concept. A generalized, eyes-free technique using smart phones or tablets to interact with any kind of large display, regardless of hardware or software then overcomes the limitations of the specialized approaches. This is implemented in a large display application that is designed to run under a multitude of environments, including both 2D and 3D display setups. A special visualization method is used to combine 2D and 3D data in a single visualization.
Additionally the thesis will present several approaches to solve common is- sues with large display interaction, such as target sizes on large display getting too small, expensive tracking hardware, and eyes-free interaction through vir- tual buttons. These methods provide alternatives and context for the main contribution.
Sandwichelemente mit Deckschichten aus Hochleistungsbeton und einem Kern aus extrudiertem Polystyrol
(2015)
Sandwichelemente vereinen aufgrund des gezielten Einsatzes verschiedener Materialien und deren schichtartigen Aufbaus sehr gute Dämmeigenschaften und ein geringes Eigengewicht mit hoher Tragfähigkeit und Biegesteifigkeit. Sie werden daher seit Beginn der 1960er-Jahre sowohl im Metallleichtbau als auch im Stahlbetonmassivbau vielfältig eingesetzt. Im Rahmen der vorliegenden Arbeit wurden Sandwichelemente mit Deckschichten aus einem mikro- oder auch textilbewehrtem Hochleistungsbeton und einem Kern aus extrudiertem Polystyrol-Hartschaum umfangreich experimentell und rechnerisch untersucht. Ziel war es, den Verbund zwischen dem Kern und den Deckschichten ohne mechanische Verbundmittel, sondern rein über die Adhäsion des profilierten Dämmkerns und den Deckschichten zu erzielen.
Das Sandwichtragverhalten wurde durch eine Vielzahl von Biege- und Scherversuchen experimentell untersucht. Die Dauerhaftigkeit des Verbunds zwischen dem Kern und den Deckschichten wurde durch eine Frost-Tau-Wechselbeanspruchung der Scherprobekörper sowie durch eine zyklische Ermüdungsbeanspruchung der Biegeprobekörper bestimmt. Anhand der Versuchsergebnisse konnte gezeigt werden, dass die Sandwichelemente bei der Verwendung als Wand- oder Dachelement den praxisüblichen Beanspruchungen standhalten und nicht vorzeitig versagen. Das Tragverhalten wurde weiterhin in Bauteilversuchen an großformatigen Sandwichelementen überprüft. Hierzu wurden in einem eigens konstruierten Unterdruckprüfstand zweifeldrig gelagerte Sandwichelemente einer realitätsnahen Beanspruchung durch eine Flächenlast ausgesetzt. Die Materialeigenschaften, die anhand der Scherversuche sowie an Dehnkörperversuchen am bewehrtem Beton ermittelt wurden, dienten zudem als Eingangsparameter zur rechnerischen Untersuchung der Sandwichelemente mit der FE-Software ANSYS. Auf Grundlage der Modellierungen konnten die Versuchsergebnisse interpretiert und das Tragverhalten in Parameterstudien vertiefend analysiert werden. Darüber hinaus wurden auch die Einwirkungen aus einer Temperatur- und Schwindbeanspruchung der Elemente ermittelt.
Über Ingenieurmodelle auf Grundlage der Sandwichtheorie konnte bisher der Einfluss der Rissbildung in den Betondeckschichten nur überschlägig und gemittelt über die Länge der Elemente berücksichtigt werden. Aus diesem Grund wurde ein bestehendes Programm zur Ermittlung der Sandwichschnittgrößen um einen Ansatz zur Berücksichtigung der Steifigkeitsreduzierung infolge der Rissbildung umfangreich erweitert. Mit dem neuen Programm swe2+ können nun erstmalig die Schnittgrößen und Verformungen von Sandwichelementen mit gerissenen Betondeckschichten zielsicher und diskret über die Länge eines Sandwichelements ermittelt werden. Durch Beispielrechnungen wurde gezeigt, dass die Umlagerung der Schnittgrößen infolge der Rissbildung in den Deckschichten zu ungünstigeren Beanspruchungen führen kann und diese Umlagerungen bei der Bemessung der Elemente entsprechend zu berücksichtigen sind. Die Bemessung der hier untersuchten Sandwichelemente kann in Anlehnung an die Norm DIN EN 14509 zur Bemessung von Sandwichelementen mit metallischen Deckschichten durchgeführt werden. Durch die Nachrechnungen der Biegeversuche wurde gezeigt, dass auf diese Weise die Elemente mit ausreichender Sicherheit und sehr guter Übereinstimmung bemessen werden können. Dies wird abschließend in zwei Bemessungsbeispielen an einem Wand- sowie einem Dachelement demonstriert.
Scheduling-Location (ScheLoc) Problems integrate the separate fields of
scheduling and location problems. In ScheLoc Problems the objective is to
find locations for the machines and a schedule for each machine subject to
some production and location constraints such that some scheduling object-
ive is minimized. In this paper we consider the Discrete Parallel Machine
Makespan (DPMM) ScheLoc Problem where the set of possible machine loc-
ations is discrete and a set of n jobs has to be taken to the machines and
processed such that the makespan is minimized. Since the separate location
and scheduling problem are both NP-hard, so is the corresponding ScheLoc
Problem. Therefore, we propose an integer programming formulation and
different versions of clustering heuristics, where jobs are split into clusters
and each cluster is assigned to one of the possible machine locations. Since
the IP formulation can only be solved for small scale instances we propose
several lower bounds to measure the quality of the clustering heuristics. Ex-
tensive computational tests show the efficiency of the heuristics.
A new solution approach for solving the 2-facility location problem in the plane with block norms
(2015)
Motivated by the time-dependent location problem over T time-periods introduced in
Maier and Hamacher (2015) we consider the special case of two time-steps, which was shown
to be equivalent to the static 2-facility location problem in the plane. Geometric optimality
conditions are stated for the median objective. When using block norms, these conditions
are used to derive a polygon grid inducing a subdivision of the plane based on normal cones,
yielding a new approach to solve the 2-facility location problem in polynomial time. Combinatorial algorithms for the 2-facility location problem based on geometric properties are
deduced and their complexities are analyzed. These methods differ from others as they are
completely working on geometric objects to derive the optimal solution set.
Konzeptionelle Studien der letzten Jahre deuten darauf hin, dass für eine Verwurzelung von Nachhaltigkeit in modernen Unternehmen eine Veränderung der Denkweise der Unternehmensentscheidungsträger notwendig ist. Dabei werden Verantwortung und nachhaltiges Handeln nicht ausschließlich als Instrumente zur Erreichung ökonomischer Ziele eingesetzt, sondern bilden, verankert in der persönlichen Spiritualität, fundamentale Prinzipien und eigenständige Werte. Ziel der vorliegenden Arbeit ist es deshalb, die Zusammenhänge zwischen Spiritualität und unternehmerischer Nachhaltigkeit zu beleuchten. Mit Hilfe von sechs halbstrukturierten Interviews mit GründerInnen und Un-ternehmensführerInnen kleiner und mittlerer Unternehmen des Dienstleistungssektors untersuchte die Autorin, inwiefern die Spiritualität der UnternehmerInnen einen Einfluss auf nachhaltige Entscheidungen in ihren Unternehmen hat. Sie konnte herausfinden, dass Werte und Ansichten, die die individuelle Spiritualität der UnternehmerInnen ausdrücken, als Motivation für nachhaltiges unternehmerisches Handeln dienen können. Überdies identifizierte sie einzelne Werte und Ansichten, die als Treiber für einzelne Dimensionen der Nachhaltigkeit fungieren. Weiterhin entwickelte sie ein Modell, das sowohl persönliche Werte und Ansichten als Teil der Spiritualität, als auch die in der Literatur diskutierten Konzepte Spiritualität am Arbeitsplatz und spirituelle Führung integriert. Dieses Modell kann als Grundlage für weitere Forschung im Kontext von Spiritualität und unternehmerische Nachhaltigkeit dienen. Die Ergebnisse implizieren, dass in Bildung und Gesellschaft verankerte Aktivitäten zur Unterstützung von Spiritualität eine nachhaltige Entwicklung innerhalb und außerhalb von Unternehmen vorantreiben können.
Maintaining complex software systems tends to be a costly activity where software engineers spend a significant amount of time trying to understand the system's structure and behavior. As early as the 1980s, operation and maintenance costs were already twice as expensive as the initial development costs incurred. Since then these costs have steadily increased. The focus of this thesis is to reduce these costs through novel interactive exploratory visualization concepts and to apply these modern techniques in the context of services offered by software quality analysis.
Costs associated with the understanding of software are governed by specific features of the system in terms of different domains, including re-engineering, maintenance, and evolution. These features are reflected in software measurements or inner qualities such as extensibility, reusability, modifiability, testability, compatability, or adatability. The presence or absence of these qualities determines how easily a software system can conform or be customized to meet new requirements. Consequently, the need arises to monitor and evaluate the qualitative state of a software system in terms of these qualities. Using metrics-based analysis, production costs and quality defects of the software can be recorded objectively and analyzed.
In practice, there exist a number of free and commercial tools that analyze the inner quality of a software system through the use of software metrics. However, most of these tools focus on software data mining and metrics (computational analysis) and only a few support visual analytical reasoning. Typically, computational analysis tools generate data and software visualization tools facilitate the exploration and explanation of this data through static or interactive visual representations. Tools that combine these two approaches focus only on well-known metrics and lack the ability to examine user defined metrics. Further, they are often confined to simple visualization methods and metaphors, including charts, histograms, scatter plots, and node-link diagrams.
The goal of this thesis is to develop methodologies that combine computational analysis methods together with sophisticated visualization methods and metaphors through an interactive visual analysis approach. This approach promotes an iterative knowledge discovery process through multiple views of the data where analysts select features of interest in one of the views and inspect data items of the select subset in all of the views. On the one hand, we introduce a novel approach for the visual analysis of software measurement data that captures complete facts of the system, employs a flow-based visual paradigm for the specification of software measurement queries, and presents measurement results through integrated software visualizations. This approach facilitates the on-demand computation of desired features and supports interactive knowledge discovery - the analyst can gain more insight into the data through activities that involve: building a mental model of the system; exploring expected and unexpected features and relations; and generating, verifying, or rejecting hypothesis with visual tools. On the other hand, we have also extended existing tools with additional views of the data for the presentation and interactive exploration of system artifacts and their inter-relations.
Contributions of this thesis have been integrated into two different prototype tools. First evaluations of these tools show that they can indeed improve the understanding of large and complex software systems.
In the digital era we live in, users can access an abundance of digital resources in their daily life. These digital resources can be located on the user's devices, in traditional repositories such as intranets or digital libraries, but also in open environments such as the World Wide Web.
To be able to efficiently work with this abundance of information, users need support to get access to the resources that are relevant to them. Access to digital resources can be supported in various ways. Whether we talk about technologies for browsing, searching, filtering, ranking, or recommending resources: what they all have in common is that they depend on the available information (i.e., resources and metadata). The accessibility of digital resources that meet a user's information need, and the existence and quality of metadata is crucial for the success of any information system.
This work focuses on how social media technologies can support the access to digital resources. In contrast to closed and controlled environments where only selected users have the rights to contribute digital resources and metadata, and where this contribution involves a social process of formal agreement of the relevant stakeholders, potentially any user can easily create and provide information in social media environments. This usually leads to a larger variety of resources and metadata, and allows for dynamics that would otherwise hardly be possible.
Most information systems still mainly rely on traditional top-down approaches where only selected stakeholders can contribute information. The main idea of this thesis is an approach that allows for introducing the characteristics of social media environments in such traditional contexts. The requirements for such an approach are being examined, as well as the benefits and potentials it can provide.
The ALOE infrastructure was developed according to the identified requirements and realises a Social Resource and Metadata Hub. Case studies and evaluation results are provided to show the impact of the approach on the user's behaviours and the creation of digital resources and metadata, and to justify the presented approach.
We study an online flow shop scheduling problem where each job consists of several tasks that have to be completed in t different stages and the goal is to maximize the total weight of accepted jobs.
The set of tasks of a job contains one task for each stage and each stage has a dedicated set of identical parallel machines corresponding to it that can only process tasks of this stage. In order to gain the weight (profit) associated with a job j, each of its tasks has to be executed between a task-specific release date and deadline subject to the constraint that all tasks of job j from stages 1, …, i-1 have to be completed before the task of the ith stage can be started. In the online version, jobs arrive over time and all information about the tasks of a job becomes available at the release date of its first task. This model can be used to describe production processes in supply chains when customer orders arrive online.
We show that even the basic version of the offline problem with a single machine in each stage, unit weights, unit processing times, and fixed execution times for all tasks (i.e., deadline minus release date equals processing time) is APX-hard. Moreover, we show that the approximation ratio of any polynomial-time approximation algorithm for this basic version of the problem must depend on the number t of stages.
For the online version of the basic problem, we provide a (2t-1)-competitive deterministic online algorithm and a matching lower bound. Moreover, we provide several (sometimes tight) upper and lower bounds on the competitive ratio of online algorithms for several generalizations of the basic problem involving different weights, arbitrary release dates and deadlines, different processing times of tasks, and several identical machines per stage.
Das Arbeitspapier erörtert die Regionsdefinition im Rahmen des Verbundprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B). Da das Forschungs- und Entwicklungsprojekt darauf abzielt, auf regionale Bedarfe abgestimmte wissenschaftliche (Weiter-)Bildungsangebote zu entwickeln, ist eine Auseinandersetzung mit der Frage konstitutiv, wie eine Region für das Projekt definiert und räumlich abgrenzt werden kann. Aus den Förderrichtlinien des Wettbewerbs „Aufstieg durch Bildung: offene Hochschulen“ sowie aus den Prämissen des Projektantrags ergibt sich Bildung als das zentrale inhaltliche Kriterium, um zu bestimmen, um welche Region es sich handelt. Als Prinzip zur Herstellung eines regionalen Zusammenhangs dient die Erreichbarkeit der Hochschulen für die Bildungsinteressierten, die auf der Grundlage empirischer Daten zum bisherigen Einzugsgebiet der Technischen Universität Kaiserslautern sowie über Studien zur Mobilität auf einen maximalen Radius von 60 Minuten Anfahrtszeit festgelegt wird. Die sich aus diesen Prämissen ergebende Region des Projekts wird letztlich kartografisch dargestellt.
In a networked system, the communication system is indispensable but often the weakest link w.r.t. performance and reliability. This, particularly, holds for wireless communication systems, where the error- and interference-prone medium and the character of network topologies implicate special challenges. However, there are many scenarios of wireless networks, in which a certain quality-of-service has to be provided despite these conditions. In this regard, distributed real-time systems, whose realization by wireless multi-hop networks becomes increasingly popular, are a particular challenge. For such systems, it is of crucial importance that communication protocols are deterministic and come with the required amount of efficiency and predictability, while additionally considering scarce hardware resources that are a major limiting factor of wireless sensor nodes. This, in turn, does not only place demands on the behavior of a protocol but also on its implementation, which has to comply with timing and resource constraints.
The first part of this thesis presents a deterministic protocol for wireless multi-hop networks with time-critical behavior. The protocol is referred to as Arbitrating and Cooperative Transfer Protocol (ACTP), and is an instance of a binary countdown protocol. It enables the reliable transfer of bit sequences of adjustable length and deterministically resolves contest among nodes based on a flexible priority assignment, with constant delays, and within configurable arbitration radii. The protocol's key requirement is the collision-resistant encoding of bits, which is achieved by the incorporation of black bursts. Besides revisiting black bursts and proposing measures to optimize their detection, robustness, and implementation on wireless sensor nodes, the first part of this thesis presents the mode of operation and time behavior of ACTP. In addition, possible applications of ACTP are illustrated, presenting solutions to well-known problems of distributed systems like leader election and data dissemination. Furthermore, results of experimental evaluations with customary wireless transceivers are outlined to provide evidence of the protocol's implementability and benefits.
In the second part of this thesis, the focus is shifted from concrete deterministic protocols to their model-driven development with the Specification and Description Language (SDL). Though SDL is well-established in the domain of telecommunication and distributed systems, the predictability of its implementations is often insufficient as previous projects have shown. To increase this predictability and to improve SDL's applicability to time-critical systems, real-time tasks, an approved concept in the design of real-time systems, are transferred to SDL and extended to cover node-spanning system tasks. In this regard, a priority-based execution and suspension model is introduced in SDL, which enables task-specific priority assignments in the SDL specification that are orthogonal to the static structure of SDL systems and control transition execution orders on design as well as on implementation level. Both the formal incorporation of real-time tasks into SDL and their implementation in a novel scheduling strategy are discussed in this context. By means of evaluations on wireless sensor nodes, evidence is provided that these extensions reduce worst-case execution times substantially, and improve the predictability of SDL implementations and the language's applicability to real-time systems.
To write about the history of a subject is a challenge that grows with the number of pages as the original goal of completeness is turning more and more into an impossibility. With this in mind, the present article takes a very narrow approach and uses personal side trips and memories on conferences,
workshops, and summer schools as the stage for some of the most important protagonists and their contributions to the field of Differential-Algebraic Equations (DAEs).
A nonlocal stochastic model for intra- and extracellular proton dynamics in a tumor is proposed.
The intracellular dynamics is governed by an SDE coupled to a reaction-diffusion
equation for the extracellular proton concentration on the macroscale. In a more general context
the existence and uniqueness of solutions for local and nonlocal
SDE-PDE systems are established allowing, in particular, to analyze the proton dynamics model both,
in its local version and the case with nonlocal path dependence.
Numerical simulations are performed
to illustrate the behavior of solutions, providing some insights into the effects of randomness on tumor acidity.
Die kürzlich entdeckte Klasse der diversitätsgenerierenden Retroelemente (DGRs) kann ihrem
Wirt einen selektiven Vorteil über eine beschleunigte Proteinevolution verschaffen. Dazu
bedient sich das DGR eines nicht proliferativen „copy and replace“ Mechanismus, der
kodierende Sequenzinformation zielgerichtet von einem Templat Repeat über ein RNAIntermediat
zu einem spezifischen Gen transferiert. Die Sequenz wird während dem Prozess
hypermutiert, was vermutlich durch eine Fehleranfälligkeit der DGR-kodierten reversen
Transkriptase (RT) geschieht. Dabei kann die mutierte Sequenz eine höhere Diversität
erreichen, als es für die Antikörper und T-Zell-Rezeptoren des Immunsystems von Vertebraten
beobachtet wurde.
In dieser Arbeit wurde die Verteilung von DGRs in einer Stammsammlung von Cyanobakterien
untersucht. Dafür wurde ein Screening mit degenerierten Primern auf die DGR-kodierte RT
durchgeführt. Es konnten ca. 30 % (34) der analysierbaren Cyanobakterienstämme positiv auf
Präsenz eines DGRs getestet werden. Dazu gehört ein DGR aus Anabaena flos-aquae, von
dem auch die Sequenz ermittelt werden konnte. Dieses neu entdeckte DGR wurde zusammen
mit zwei weiteren DGRs aus Nostoc sp. PCC7120 und Treponema denticola auf Aktivität
untersucht, wobei die letzten beiden Elemente eine DGR-vermittelte Variation gezeigt haben.
Das demonstriert die Funktionsfähigkeit der Elemente, gibt aber zugleich einen Hinweis auf
eine starke Regulation, da die beobachtete Frequenz der Diversifizierung sehr gering war.
Eine Regulation wäre vorteilhaft für den Wirt, da vermutlich ein Großteil der Mutationen die
Funktion der variablen Proteine beeinträchtigt.
Von dem funktionsfähigen DGR aus Nostoc sp. PCC7120 wurde anschließend die Struktur
des RNA-Intermediats bioinformatisch und experimentell aufgeklärt. Dabei handelt es sich um
die erste aufgeklärte Struktur von RNA-Intermediaten aus DGRs. Basierend auf den Daten
konnte eine Konsensus-Struktur für 13 Sequenzen aus Cyanobakterien, grünen
Schwefelbakterien, Purpurbakterien, Treponema denticola und dem Bordetella-Phagen
berechnet werden, in der vier Haarnadelstrukturen konserviert zu sein scheinen. Diese
Strukturelemente könnten auf eine konservierte Funktion des RNA-Intermediats hinweisen
und eine hochaffine Bindestelle für die DGR-kodierte RT bereitstellen bzw. für eine
katalytische Aktivität als Endonuklease benötigt werden.
Damit liefert diese Arbeit einen wichtigen Beitrag für die experimentelle Identifizierung von
DGRs, sowie deren Verteilung und Regulation in Bakterien. Desweiteren bietet die Arbeit
einen Hinweis darauf, dass es sich bei dem RNA-Intermediat nicht nur um eine mobile
Komponente handelt, sondern weitere Funktionen hinzukommen könnten.
Im Rahmen der vorliegenden Arbeit konnten sowohl konzeptionelle Beiträge zur Berechnung
der magnetischen Anisotropie von mehrkernigen Übergangsmetallkomplexen mittels
DFT-Methoden geleistet, sowie zwei Molekülsysteme eingehend untersucht werden.
Auf der Ebene der Methodenweiterentwicklung konnten die Matrixelemente des Spin-Bahn
mean-field-Operators als effektivem Einteilchenoperator implementiert werden. Diese wurden
sowohl mit SMP als auch mit MPI parallelisiert, so dass eine sehr effektive Berechnung
auch bei großen Systemen möglich ist. Bei Verwendung von Hybridfunktionalen erhöht sich
die Rechenzeit einer sopt-Rechnung durch die Berechnung dieser Integrale um etwa
einen Faktor drei. Die restliche Rechenzeit wird durch das Lösen des CHF-Systems
dominiert.
Bei Verwendung reiner Dichtefunktionale dauern die Rechnungen sehr viel kürzer, da hier
kein CHF-System zu lösen ist. Dadurch verteuert die Berechnung der SOMF-Matrixelemente
diese Rechnungen prozentual deutlich mehr, aber dennoch sind Rechnungen mit reinen
Dichtefunktionalen sehr viel schneller fertig als mit Hybridfunktionalen.
Weiterhin konnte eine neue Methode zur Berechnung von Einzelionentensoren entworfen und
implementiert werden, die mit lokalisierten Orbitalen arbeitet. Diese Methode konnte mit
der bereits bestehenden Methode, bei der die SOC an einzelnen Zentren "ausgeschaltet" wird,
verglichen werden. Die Ergebnisse besitzen in etwa dieselbe
Qualität.
Für die Zuordnung einzelner, lokalisierter Orbitale gibt es keine physikalisch eindeutige
Lösung. Es konnte jedoch ein Zuordnungsschema auf der Basis von Abständen und Winkeln
entwickelt werden, das in den meisten Fällen der chemischen Intuition entspricht, so dass
einem oktaedrisch koordinierten Metallzentrum sechs Bindungselektronenpaare zugeordnet
werden.
Die so entwickelte Methode liefert eine bequeme und einfache Möglichkeit zur Berechnung
aller benötigter Einzelionentensoren im Zuge einer einzigen Rechnung ohne nennenswerten
Mehraufwand. So wurde sie bei den weiteren Untersuchungen der beiden Molekülsysteme ausgiebig
genutzt.
Schließlich wurden zwei Komplexsysteme eingehend analysiert und mit verschiedenen
Übergangsmetallkombinationen untersucht. Es wurde hierbei ein breites Spektrum an
Analysewerkzeugen eingesetzt, sodass die erhaltenen Ergebnisse nicht nur nähere Einsichten
zu den konkret untersuchten Komplexen liefern, sondern auch allgemein wertvolle
Erfahrungen zur Untersuchung der magnetischen Anisotropie an mehrkernigen
Übergangsmetallkomplexen mit DFT-Methoden liefern.
Zuerst wurden Komplexe mit Tripelsalenliganden untersucht, wie sie in der Arbeitsgruppe
von Thorsten Glaser synthetisiert und charakterisiert werden. Der Einfachheit halber
wurden zunächst Komplexe mit nur einer Tripelsaleneinheit untersucht, wobei als
Metallionen in der Tripelsaleneinheit Mn(III)-Ionen verwendet wurden. Hierbei zeigte sich,
dass durch die Substitution von Chrom(III) als Zentralion durch Wolfram(III) bzw.
Rhenium(IV) eine deutliche Steigerung der magnetischen Anisotropie erreicht werden kann.
In einem nächsten Schritt wurden diese Komplexe durch eine weitere Tripelsaleneinheit
erweitert. Diese Komplexe sind also von der Struktur, wie sie auch in der Arbeitsgruppe
Glaser synthetisiert werden. Es zeigt sich, dass die Mn6M-Komplexe eine sehr viel
geringere Anisotropie aufweisen. Dies liegt daran, dass bei den Mn3M-Komplexen die
oktaedrische Koordinationsumgebung um das Zentralion verzerrt ist, da nur 3 der 6
Cyanoliganden an der Koordination der Tripelsaleneinheit beteiligt sind. Durch diese
starke Verzerrung erreicht man bei Verwendung von 5d-Elementen hohe Anisotropien. Bei den
Mn6M-Komplexen ergibt sich die Anisotropie hauptsächlich aus den Beiträgen der
Manganionen.
Schließlich wurden Komplexe mit nur einer Tripelsaleneinheit untersucht, bei denen jedoch
in der Tripelsaleneinheit Mo(III)-Ionen koordiniert sind. Hier konnte gezeigt werden, dass
durch die Molybdänionen eine höhere Anisotropie erhalten werden kann als bei den
entsprechenden Mn3M-Komplexen. Bei den leichten Zentralionen (Chrom und Molybdän)
jedoch war die Anisotropie geringer als bei den Mn6M-Komplexen. Dies liegt daran,
dass bei diesen Komplexen der Beitrag der Ionen der Tripelsaleneinheit überwiegt und somit
macht sich bemerkbar, dass bei den Mn6M-Komplexen 6 Ionen in der Tripelsaleneinheit
koordiniert sind und bei den Mo3M-Komplexen lediglich 3.
Bei der Untersuchung der Tripelsalenkomplexe konnte ein Verfahren vorgestellt werden, wie
man sich die Symmetrie von Komplexen bei der Berechnung des anisotropen Austauschs zu
Nutze machen kann, um die Anzahl zu berechnender Konfigurationen zu minimieren.
Als zweites Komplexsystem wurde ein von Habib et al. vorgestellter Oximligand gewählt, der
als Chelatligand fungiert. Der ursprünglich synthetisierte Komplex enthielt zwei
Mn(IV)-Ionen außen und in der Mitte ein Mn(III)-Ion. Auch hier wurde die Kombination
verschiedener Metallzentren analysiert.
Für den Ursprungskomplex konnte ein axialer MAE-Parameter nachgewiesen, der im normalen
Rahmen für Mn(III)-Komplexe liegt. Die Substitution des zentralen Manganzentrums durch
schwerere Metallzentren führt hier jedoch nicht zum gewünschten Ergebnis. Der
Molybdänkomplex liefert eine sehr geringe Anisotropie und der Rheniumkomplex weist einen
positiven axialen MAE-Parameter auf. Für den Wolframkomplex hingegen erhält man
unplausible Ergebnisse.
Im nächsten Schritt wurden die äußeren Manganzentren durch Mo(III) ersetzt. Bei Molybdän,
Wolfram und Rhenium ergeben sich genau dieselben Probleme wie bei den Mn2M-Komplexen.
Der Mo2Mn-Komplex hingegen weist eine deutlich höhere Anisotropie auf als der
Mn2Mn-Komplex.
Many tasks in image processing can be tackled by modeling an appropriate data fidelity term \(\Phi: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\) and then solve one of the regularized minimization problems \begin{align*}
&{}(P_{1,\tau}) \qquad \mathop{\rm argmin}_{x \in \mathbb R^n} \big\{ \Phi(x) \;{\rm s.t.}\; \Psi(x) \leq \tau \big\} \\ &{}(P_{2,\lambda}) \qquad \mathop{\rm argmin}_{x \in \mathbb R^n} \{ \Phi(x) + \lambda \Psi(x) \}, \; \lambda > 0 \end{align*} with some function \(\Psi: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\) and a good choice of the parameter(s). Two tasks arise naturally here: \begin{align*} {}& \text{1. Study the solver sets \({\rm SOL}(P_{1,\tau})\) and
\({\rm SOL}(P_{2,\lambda})\) of the minimization problems.} \\ {}& \text{2. Ensure that the minimization problems have solutions.} \end{align*} This thesis provides contributions to both tasks: Regarding the first task for a more special setting we prove that there are intervals \((0,c)\) and \((0,d)\) such that the setvalued curves \begin{align*}
\tau \mapsto {}& {\rm SOL}(P_{1,\tau}), \; \tau \in (0,c) \\ {} \lambda \mapsto {}& {\rm SOL}(P_{2,\lambda}), \; \lambda \in (0,d) \end{align*} are the same, besides an order reversing parameter change \(g: (0,c) \rightarrow (0,d)\). Moreover we show that the solver sets are changing all the time while \(\tau\) runs from \(0\) to \(c\) and \(\lambda\) runs from \(d\) to \(0\).
In the presence of lower semicontinuity the second task is done if we have additionally coercivity. We regard lower semicontinuity and coercivity from a topological point of view and develop a new technique for proving lower semicontinuity plus coercivity.
Dropping any lower semicontinuity assumption we also prove a theorem on the coercivity of a sum of functions.
Mobile Partizipation
(2015)
Smartphones bringen computertechnische Anwendungen in den öffentlichen Raum. Mobiles Web, Geolokalisierung und integrierte Sensoren ermöglichen kollaborative Datenerfassung (Urban Sensing), spontane Kommunikation (Smart Mobs) sowie neue Formen der Planungskommunikation (Mobile Augmented Reality). Es lässt sich eine Partizipation unter geändertem Vorzeichen diagnostizieren: Transparentere Verfahren, früherer Einbezug der Öffentlichkeit und mehr Mitsprachemöglichkeiten werden zunehmend eingefordert. Zugleich entwickeln sich eine Vielzahl an neuen Bottom-up-Bewegungen, die das Internet als einen Ort der Teilhabe und konstruktiver Mitwirkung an Stadt(-planung) begreifen und sich auf vielfältige Weise einbringen. Crowdsourcing, Civic-Hacking und urbane Interventionen stehen beispielhaft für diesen Wandel und fördern diese neuen Formen selbstinitiierter Partizipation. Nach der Definition des Phänomens mobiler Partizipation und einer Vielzahl an Beispielen, werden neue Entwicklungen, Möglichkeiten und Chancen, aber auch Herausforderungen und Hemmnisse für die Stadtplanung beschrieben und ein Blick auf sich zukünftig entwickelnde Arbeitsfelder im Zeitalter der der Smart Cities geworfen.
The advances in sensor technology have introduced smart electronic products with
high integration of multi-sensor elements, sensor electronics and sophisticated signal
processing algorithms, resulting in intelligent sensor systems with a significant level
of complexity. This complexity leads to higher vulnerability in performing their
respective functions in a dynamic environment. The system dependability can be
improved via the implementation of self-x features in reconfigurable systems. The
reconfiguration capability requires capable switching elements, typically in the form
of a CMOS switch or miniaturized electromagnetic relay. The emerging DC-MEMS
switch has the potential to complement the CMOS switch in System-in-Package as
well as integrated circuits solutions. The aim of this thesis is to study the feasibility
of using DC-MEMS switches to enable the self-x functionality at system level.
The self-x implementation is also extended to the component level, in which the
ISE-DC-MEMS switch is equipped with self-monitoring and self-repairing features.
The MEMS electrical behavioural model generated by the design tool is inadequate,
so additional electrical models have been proposed, simulated and validated. The
simplification of the mechanical MEMS model has produced inaccurate simulation
results that lead to the occurrence of stiction in the actual device. A stiction conformity
test has been proposed, implemented, and successfully validated to compensate
the inaccurate mechanical model. Four different system simulations of representative
applications were carried out using the improved behavioural MEMS model, to
show the aptness and the performances of the ISE-DC-MEMS switch in sensitive
reconfiguration tasks in the application and to compare it with transmission gates.
The current design of the ISE-DC-MEMS switch needs further optimization in terms
of size, driving voltage, and the robustness of the design to guarantee high output
yield in order to match the performance of commercial DC MEMS switches.
Lithium-ion batteries are broadly used nowadays in all kinds of portable electronics, such as laptops, cell phones, tablets, e-book readers, digital cameras, etc. They are preferred to other types of rechargeable batteries due to their superior characteristics, such as light weight and high energy density, no memory effect, and a big number of charge/discharge cycles. The high demand and applicability of Li-ion batteries naturally give rise to the unceasing necessity of developing better batteries in terms of performance and lifetime. The aim of the mathematical modelling of Li-ion batteries is to help engineers test different battery configurations and electrode materials faster and cheaper. Lithium-ion batteries are multiscale systems. A typical Li-ion battery consists of multiple connected electrochemical battery cells. Each cell has two electrodes - anode and cathode, as well as a separator between them that prevents a short circuit.
Both electrodes have porous structure composed of two phases - solid and electrolyte. We call macroscale the lengthscale of the whole electrode and microscale - the lengthscale at which we can distinguish the complex porous structure of the electrodes. We start from a Li-ion battery model derived on the microscale. The model is based on nonlinear diffusion type of equations for the transport of Lithium ions and charges in the electrolyte and in the active material. Electrochemical reactions on the solid-electrolyte interface couple the two phases. The interface kinetics is modelled by the highly nonlinear Butler-Volmer interface conditions. Direct numerical simulations with standard methods, such as the Finite Element Method or Finite Volume Method, lead to ill-conditioned problems with a huge number of degrees of freedom which are difficult to solve. Therefore, the aim of this work is to derive upscaled models on the lengthscale of the whole electrode so that we do not have to resolve all the small-scale features of the porous microstructure thus reducing the computational time and cost. We do this by applying two different upscaling techniques - the Asymptotic Homogenization Method and the Multiscale Finite Element Method (MsFEM). We consider the electrolyte and the solid as two self-complementary perforated domains and we exploit this idea with both upscaling methods. The first method is restricted only to periodic media and periodically oscillating solutions while the second method can be applied to randomly oscillating solutions and is based on the Finite Element Method framework. We apply the Asymptotic Homogenization Method to derive a coupled macro-micro upscaled model under the assumption of periodic electrode microstructure. A crucial step in the homogenization procedure is the upscaling of the Butler-Volmer interface conditions. We rigorously determine the asymptotic order of the interface exchange current densities and we perform a comprehensive numerical study in order to validate the derived homogenized Li-ion battery model. In order to upscale the microscale battery problem in the case of random electrode microstructure we apply the MsFEM, extended to problems in perforated domains with Neumann boundary conditions on the holes. We conduct a detailed numerical investigation of the proposed algorithm and we show numerical convergence of the method that we design. We also apply the developed technique to a simplified two-dimensional Li-ion battery problem and we show numerical convergence of the solution obtained with the MsFEM to the reference microscale one.
Lithium-ion batteries are increasingly becoming an ubiquitous part of our everyday life - they are present in mobile phones, laptops, tools, cars, etc. However, there are still many concerns about their longevity and their safety. In this work we focus on the simulation of several degradation mechanisms on the microscopic scale, where one can resolve the active materials inside the electrodes of the lithium-ion batteries as porous structures. We mainly study two aspects - heat generation and mechanical stress. For the former we consider an electrochemical non-isothermal model on the spatially resolved porous scale to observe the temperature increase inside a battery cell, as well as to observe the individual heat sources to assess their contributions to the total heat generation. As a result from our experiments, we determined that the temperature has very small spatial variance for our test cases and thus allows for an ODE formulation of the heat equation.
The second aspect that we consider is the generation of mechanical stress as a result of the insertion of lithium ions in the electrode materials. We study two approaches - using small strain models and finite strain models. For the small strain models, the initial geometry and the current geometry coincide. The model considers a diffusion equation for the lithium ions and equilibrium equation for the mechanical stress. First, we test a single perforated cylindrical particle using different boundary conditions for the displacement and with Neumann boundary conditions for the diffusion equation. We also test for cylindrical particles, but with boundary conditions for the diffusion equation in the electrodes coming from an isothermal electrochemical model for the whole battery cell. For the finite strain models we take in consideration the deformation of the initial geometry as a result of the intercalation and the mechanical stress. We compare two elastic models to study the sensitivity of the predicted elastic behavior on the specific model used. We also consider a softening of the active material dependent on the concentration of the lithium ions and using data for silicon electrodes. We recover the general behavior of the stress from known physical experiments.
Some models, like the mechanical models we use, depend on the local values of the concentration to predict the mechanical stress. In that sense we perform a short comparative study between the Finite Element Method with tetrahedral elements and the Finite Volume Method with voxel volumes for an isothermal electrochemical model.
The spatial discretizations of the PDEs are done using the Finite Element Method. For some models we have discontinuous quantities where we adapt the FEM accordingly. The time derivatives are discretized using the implicit Backward Euler method. The nonlinear systems are linearized using the Newton method. All of the discretized models are implemented in a C++ framework developed during the thesis.
Im Verlauf dieser Dissertation konnte gezeigt werden, dass eine erhöhte Expression des tonoplastidären Dicarboxylat Transporters zu einem erhöhten Gehalt an Malat bei gleichzeitig vermindertem Citratgehalt in den Überexpressions-Pflanzen führt. Somit konnte, ähnlich wie in den k.o.-Pflanzen, ein reziprokes Verhalten von Citrat und Malat aufgezeigt werden.
Elektrophysiologische Analysen an Oozyten von X. laevis in Zusammenhang mit Aufnahmeversuchen an Proteoliposomen zeigten weiterhin, dass der Transport von Citrat ebenfalls durch den TDT katalysiert wird. Anhand eines negativen Einwärts-Strom an Oozyten konnte gezeigt werden, dass dieser Citrat-Transport elektrogen ist. Weiterhin konnte gezeigt werden, dass Citrat2-H die transportierte Form von Citrat darstellt. Dieses wird vermutlich zusammen mit drei Protonen transportiert.
Die Dianionen Malat und Succinat, sowie höchstwahrscheinlich auch Fumarat, werden ebenfalls über den TDT transportiert. Unter Standardbedingungen werden diese in die Vakuole importiert. Im Gegenzug wird Citrat aus der Vakuole exportiert. Die trans-stimulierende Wechselwirkung von Malat, Succinat und Fumarat auf den Citrat Transport und vice versa bestärkt den in dieser Arbeit postulierten Antiport der jeweiligen Carboxylate über den Tonoplasten. Dieser ist jedoch nicht obligat, was an dem verringerten Transport von Citrat ohne Gegensubstrat über die Membran gezeigt werden konnte.
Unter Trockenstress und osmotischen Stress konnte ebenfalls gezeigt werden, dass die erhöhte Expression des TDT maßgeblich an der Akkumulation von Malat und der Mobilisierung von Citrat unter den genannten Stressbedingungen beteiligt ist.
Letztlich konnte mittels Säurestressexperimenten nachgewiesen werden, dass die Malatakkumulation, bei gleichzeitigem Citrat Abbau nicht zwingend miteinander gekoppelt sind, unter Säurestress müssen daher weitere regulatorische Effekte auf den Malat-Import bzw. den Citrat-Export vorherrschen.
In this thesis we present a new method for nonlinear frequency response analysis of mechanical vibrations.
For an efficient spatial discretization of nonlinear partial differential equations of continuum mechanics we employ the concept of isogeometric analysis. Isogeometric finite element methods have already been shown to possess advantages over classical finite element discretizations in terms of exact geometry representation and higher accuracy of numerical approximations using spline functions.
For computing nonlinear frequency response to periodic external excitations, we rely on the well-established harmonic balance method. It expands the solution of the nonlinear ordinary differential equation system resulting from spatial discretization as a truncated Fourier series in the frequency domain.
A fundamental aspect for enabling large-scale and industrial application of the method is model order reduction of the spatial discretization of the equation of motion. Therefore we propose the utilization of a modal projection method enhanced with modal derivatives, providing second-order information. We investigate the concept of modal derivatives theoretically and using computational examples we demonstrate the applicability and accuracy of the reduction method for nonlinear static computations and vibration analysis.
Furthermore, we extend nonlinear vibration analysis to incompressible elasticity using isogeometric mixed finite element methods.
Für alle Organismen ist es wichtig, sich gegen das Eindringen exogener DNA bzw. RNA wie z.B. Viren oder transposablen Elementen zur Wehr zu setzen um die Integrität ihres eigenen Genoms zu bewahren. Zudem müssen innerhalb eines Organismus oft ganze Genfamilien reguliert werden. Die RNA-Interferenz stellt ein optimales Mittel sowohl für die Abwehr exogener Nukleinsäuren, als auch für die Regulierung endogener Gene dazu bereit. Das Herzstück der RNAi stellen kleine regulatorische siRNAs dar, die Homologie-abhängig Reaktionen in einer Zelle hervorrufen können, wie z.B. das transkriptionelle oder das posttranskriptionelle Silencing. Bei dem Mechanismus der RNAi sind zudem mehrere Komponenten beteiligt um diese siRNAs zu synthetisieren, zu stabilisieren und zu ihrem Zielort zu bringen um dort das Silencing zu vermitteln. Dabei spielen die Enzyme Dicer und RNA abhängige RNA-Polymerasen eine wichtige Rolle in der Synthese. Argonauten, bzw. eine Unterklasse von ihnen, die Piwi-Proteine sind für das eigentliche Silencing des Zielgens wichtig und spielen, wie auch die 2´-O-Methyltransferase Hen1, eine Rolle in der Stabilisierung der siRNAs.
In Paramecium tetraurelia weiß man, dass endogene Genfamilien, wie z.B. die Oberflächen-Antigene RNAi-vermittelt reguliert werden. Zudem ist bekannt, dass man RNAi-Mechanismen, die diesem endogenen Mechanismus ähneln, artifiziell durch das Einbringen einer doppelsträngigen RNA induzieren kann. Dies kann entweder durch das Verfüttern von Bakterien geschehen, die zur Synthese einer dsRNA in ihrem Inneren veranlasst werden und diese anreichern, oder durch die Injektion eines Transgens in den Makronukleus, dessen Transkript ebenfalls zu einer dsRNA umgesetzt wird.
Der Fokus dieser Arbeit lag auf dem exogenen, durch ein injiziertes Transgen induzierten RNAi-Mechanismus in Paramecium tetraurelia und dessen genauere Charakterisierung. Dabei konnte gezeigt werden, dass dieser RNAi-Mechanismus eine Temperaturabhängigkeit aufweist, wie es auch für RNAi-Mechanismen in anderen Organismen beschrieben wurde. Im Rahmen dieser Arbeit konnte jedoch die Ursache diese Temperaturabhängigkeit nicht aufgeklärt werden.
Dafür konnte gezeigt werden, dass zwei Klassen an siRNAs an diesem Mechanismus beteiligt sind. Es konnten neben den schon in der Literatur beschriebenen primären siRNAs auch sekundäre siRNAs nachgewiesen werden, deren Synthese von einer RdRP abhängig ist. Im Rahmen dieser Arbeit konnte der Schluss gezogen werden, das diese RdRP, die für die Synthese der sekundären siRNAs verantwortlich ist, das Homolog Rdr2 ist. Weiter konnte gezeigt werden, dass diese sekundären siRNAs Transitivität induzieren. Dies beschreibt die Amplifikation der siRNAs über das Ausgangsmolekül hinaus. Es konnte dargestellt werden, dass die sekundären siRNAs nicht von dem ursprünglichen Transgen synthetisiert, sondern vielmehr von einem homologen endogenen Transkript, einer mRNA, entstammen und somit als transitiv angesehen werden können.
Ferner konnte gezeigt werden, dass die Nukleotidyltransferase Cid2 ebenfalls in die Akkumulation dieser sekundären siRNAs involviert ist. Es konnte der Schluss gezogen werden, dass dieses Cid2 in einem Komplex mit Rdr2 vorliegt und das Template zur Generierung der sekundären siRNAs stabilisiert und so für Rdr2 zugänglich macht.
Ein weiterer Schwerpunkt dieser Arbeit war die detailliertere Untersuchung der spezifischen Stabilisierung beider siRNA-Klassen. Dabei konnte gezeigt werden, dass mehrere Piwi-Proteine in den Transgen-induzierten Mechanismus involviert sind. Die Paramecium spezifischen Piwis Ptiwi 8, Ptiwi 13 und Ptiwi 14 spielen dabei eine Rolle. Im Rahmen der durchgeführten Analysen konnte gezeigt werden, dass die Ptiwis 8 und 14 in die Akkumulation und damit in die Stabilisierung beider siRNA-Klassen involviert sind. Allerdings scheint dieser Effekt eher auf dem Ptiwi14 zu beruhen. Für das Ptiwi 13 konnte vermutet werden, dass dieses eher in die Akkumulation und spezifischen Stabilisierung der sekundären siRNAs involviert ist. Auch konnte aufgezeigt werden, dass beide Klassen an Transgen-induzierten siRNAs eine Methylgruppe an ihrem 3´ Ende tragen, welche von der 2´-O-Methyltransferase Hen1 abhängig ist und ebenfalls der Stabilisierung der siRNAs dient. Zudem konnte vermutet werden, dass diese Methylierung bereits vor dem Binden der siRNAs an eines der Ptiwis stattfindet und davon unabhängig ist. Somit konnten Rückschlüsse auf den zeitlichen Verlauf des Transgen-induzierten RNAi-Mechanismus gezogen werden.
Über eine Lokalisation dieses Hen1-Proteins konnte ferner gezeigt werden, dass dieses Protein in bzw. an den mit der Keimbahn assoziierten Mikronuklei und dem vegetativen Makronukleus aufzufinden ist. Die Methylierung der siRNAs findet somit in den Kernen statt. Dies lässt den Schluss zu, dass der Transgen-induzierte RNAi-Mechanismus neben der posttranskriptionellen Regulation auch eine transkriptionelle Genregulation direkt am Chromatin vermitteln kann.
This work aims at including nonlinear elastic shell models in a multibody framework. We focus our attention to Kirchhoff-Love shells and explore the benefits of an isogeometric approach, the latest development in finite element methods, within a multibody system. Isogeometric analysis extends isoparametric finite elements to more general functions such as B-Splines and Non-Uniform Rational B-Splines (NURBS) and works on exact geometry representations even at the coarsest level of discretizations. Using NURBS as basis functions, high regularity requirements of the shell model, which are difficult to achieve with standard finite elements, are easily fulfilled. A particular advantage is the promise of simplifying the mesh generation step, and mesh refinement is easily performed by eliminating the need for communication with the geometry representation in a Computer-Aided Design (CAD) tool.
Quite often the domain consists of several patches where each patch is parametrized by means of NURBS, and these patches are then glued together by means of continuity conditions. Although the techniques known from domain decomposition can be carried over to this situation, the analysis of shell structures is substantially more involved as additional angle preservation constraints between the patches might arise. In this work, we address this issue in the stationary and transient case and make use of the analogy to constrained mechanical systems with joints and springs as interconnection elements. Starting point of our work is the bending strip method which is a penalty approach that adds extra stiffness to the interface between adjacent patches and which is found to lead to a so-called stiff mechanical system that might suffer from ill-conditioning and severe stepsize restrictions during time integration. As a remedy, an alternative formulation is developed that improves the condition number of the system and removes the penalty parameter dependence. Moreover, we study another alternative formulation with continuity constraints applied to triples of control points at the interface. The approach presented here to tackle stiff systems is quite general and can be applied to all penalty problems fulfilling some regularity requirements.
The numerical examples demonstrate an impressive convergence behavior of the isogeometric approach even for a coarse mesh, while offering substantial savings with respect to the number of degrees of freedom. We show a comparison between the different multipatch approaches and observe that the alternative formulations are well conditioned, independent of any penalty parameter and give the correct results. We also present a technique to couple the isogeometric shells with multibody systems using a pointwise interaction.
Sequential Consistency (SC) is the memory model traditionally applied by programmers and verification tools for the analysis of multithreaded programs.
SC guarantees that instructions of each thread are executed atomically and in program order.
Modern CPUs implement memory models that relax the SC guarantees: threads can execute instructions out of order, stores to the memory can be observed by different threads in different order.
As a result of these relaxations, multithreaded programs can show unexpected, potentially undesired behaviors, when run on real hardware.
The robustness problem asks if a program has the same behaviors under SC and under a relaxed memory model.
Behaviors are formalized in terms of happens-before relations — dataflow and control-flow relations between executed instructions.
Programs that are robust against a memory model produce the same results under this memory model and under SC.
This means, they only need to be verified under SC, and the verification results will carry over to the relaxed setting.
Interestingly, robustness is a suitable correctness criterion not only for multithreaded programs, but also for parallel programs running on computer clusters.
Parallel programs written in Partitioned Global Address Space (PGAS) programming model, when executed on cluster, consist of multiple processes, each running on its cluster node.
These processes can directly access memories of each other over the network, without the need of explicit synchronization.
Reorderings and delays introduced on the network level, just as the reorderings done by the CPUs, may result into unexpected behaviors that are hard to reproduce and fix.
Our first contribution is a generic approach for solving robustness against relaxed memory models.
The approach involves two steps: combinatorial analysis, followed by an algorithmic development.
The aim of combinatorial analysis is to show that among program computations violating robustness there is always a computation in a certain normal form, where reorderings are applied in a restricted way.
In the algorithmic development we work out a decision procedure for checking whether a program has violating normal-form computations.
Our second contribution is an application of the generic approach to widely implemented memory models, including Total Store Order used in Intel x86 and Sun SPARC architectures, the memory model of Power architecture, and the PGAS memory model.
We reduce robustness against TSO to SC state reachability for a modified input program.
Robustness against Power and PGAS is reduced to language emptiness for a novel class of automata — multiheaded automata.
The reductions lead to new decidability results.
In particular, robustness is PSPACE-complete for all the considered memory models.
This thesis is concerned with stochastic control problems under transaction costs. In particular, we consider a generalized menu cost problem with partially controlled regime switching, general multidimensional running cost problems and the maximization of long-term growth rates in incomplete markets. The first two problems are considered under a general cost structure that includes a fixed cost component, whereas the latter is analyzed under proportional and Morton-Pliska
transaction costs.
For the menu cost problem and the running cost problem we provide an equivalent characterization of the value function by means of a generalized version of the Ito-Dynkin formula instead of the more restrictive, traditional approach via the use of quasi-variational inequalities (QVIs). Based on the finite element method and weak solutions of QVIs in suitable Sobolev spaces, the value function is constructed iteratively. In addition to the analytical results, we study a novel application of the menu cost problem in management science. We consider a company that aims to implement an optimal investment and marketing strategy and must decide when to issue a new version of a product and when and how much
to invest into marketing.
For the long-term growth rate problem we provide a rigorous asymptotic analysis under both proportional and Morton-Pliska transaction costs in a general incomplete market that includes, for instance, the Heston stochastic volatility model and the Kim-Omberg stochastic excess return model as special cases. By means of a dynamic programming approach leading-order optimal strategies are constructed
and the leading-order coefficients in the expansions of the long-term growth rates are determined. Moreover, we analyze the asymptotic performance of Morton-Pliska strategies in settings with proportional transaction costs. Finally, pathwise optimality of the constructed strategies is established.