Refine
Year of publication
- 2015 (146) (remove)
Document Type
- Doctoral Thesis (100)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Bachelor Thesis (2)
- Conference Proceeding (2)
- Article (1)
- Lecture (1)
- Moving Images (1)
Has Fulltext
- yes (146)
Keywords
- Beam-on time (2)
- Decomposition cardinality (2)
- Field splitting (2)
- Hochschulforschung (2)
- Intensity modulated radiation therapy (2)
- Multileaf collimator sequencing (2)
- NURBS (2)
- Regionalentwicklung (2)
- Stadtplanung (2)
- finite element method (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Kaiserslautern - Fachbereich Informatik (22)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (22)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (9)
- Universität (7)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
Infobrief FBK 46/15
(2015)
Infobrief FBK 47/15
(2015)
Infobrief FBK 48/15
(2015)
Im Rahmen dieser Diplomarbeit konnte das etablierte direkte Laserschreiben um einen zusätzlichen
abregenden Strahlengang ergänzt werden, dessen Einfluss im Hinblick auf das
Polymerisationsverhalten untersucht wurde.
Bei dem verwendeten (Negativ-) Photolack IP-L 780 konnte durch stimulierte Emission die
Generierung von Radikalen unterbunden werden, indem die an- und abregenden Laserfokusse
räumlich überlagert wurden. Dabei stellte sich heraus, dass ein relativ großer Intensitätsbereich
den erwünschten Effekt hervorruft.
Die in der Fluoreszenzmikroskopie seit langem verwendeten Abregungsmoden (doughnut und
bottleshape) konnten mithilfe von räumlichen Lichtmodulatoren und dem speziell für diesen
Zweck entwickelten Programm zur PSF-Darstellung sehr gut erzeugt werden. Dabei fanden
neben den Zernike-Polynomen auch inverse Gauß-Funktionen zur Aberrationskorrektur Anwendung.
Auch sogenannte Multifokusse (lateral und axial) konnten durch eine geeignete
Gewichtung der Zernike-Polynome zuverlässig generiert werden, wobei die dafür notwendigen
Phasen- und Amplitudenpattern mithilfe eines entsprechenden iterativen Algorithmus
(GSA3D) berechnet wurden.
Der laterale Polymerisationsdurchmesser konnte sowohl durch die doughnut-Mode, als auch
durch den lateralen Multifokus von 240 nm um ca. 50 % auf ungefähr 120 nm reduziert
werden. Der stimulierende Teil der doughnut-Mode, der entlang der Schreibrichtung dem
Polymerisationsfokus vorauseilt (oder hinterherläuft), führt zu keinerlei relevanten Unterschieden
im Vergleich zum Multifokus.
Dies konnte zudem durch ein Experiment verifiziert werden, bei dem die An- und Abregungsfokusse
entlang der Schreibrichtung um verschiedene Distanzen versetzt positioniert
wurden. Ob der stimulierende Laser den Photolack räumlich (und damit zeitlich) einige hundert
Nanometer (bzw. einige Millisekunden) vor oder nach dem anregenden beeinflusst, zeigt
dabei keinerlei Unterschiede. Je größer der Versatz, desto geringer die stimulierende Wirkung.
Demnach scheint der abregende Laser den Photoinitiator (DETC) zu stimulierter Emission
zu bringen, bevor dieser seine absorbierte Energie zur Spaltung und damit zum Polymerisationsbeginn
nutzen kann.
Der axiale Polymerisationsdurchmesser konnte sowohl mit der etablierten bottleshape-Mode,
als auch mit dem hier entwickelten axialen Multifokus von ca. 400 nm um 50% auf unge-
57
5 Zusammenfassung und Ausblick Julian Hering
fähr 200 nm reduziert werden. Bei Letzterem war der Intensitätsring in der xy-Ebene bei
z = 0 deutlich stärker ausgeprägt als bei der bottleshape-Mode, was zu einer erhöhten
lateralen Polymerisationsunterdrückung und damit zu einem schlechteren Aspektverhältnis
führte. Nichtsdestotrotz konnte dadurch im Rahmen dieser Arbeit erstmals STED-DLW mittels
räumlicher Lichtmodulatoren betrieben werden.
Die mit starren Phasenmasken bereits erreichten Linienabmessungen von bis zu 65 nm lateral
und 180 nm axial konnten somit zwar nicht erreicht werden, jedoch ist in dieser Hinsicht eine
deutliche Verbesserung gegenüber dem zuvor verwendeten normalen DLW unverkennbar. Leider
zeigt die Kombination mit STED jedoch neue Herausforderungen auf. So wurde z.B. die
Strukturqualität beim Anfahren und Abbremsen des Piezos enorm verschlechtert. Auch die
Generierung mancher Abregungsmoden erwies sich als äußerst mühsam und zeitaufwendig.
Aus diesem Grund wird in Zukunft ein automatisiertes Vorgehen bei der Aberrationskorrektur
angestrebt, sowie eine aufeinander abgestimmte Ansteuerung der jeweiligen Laserleistungen.
Der Strukturierungszeitaufwand aufgrund der verwendeten Geschwindigkeit von 100 μm/s
kann in Zukunft ebenfalls verringert werden, da das Auslenkverhalten der beiden Fokusse in
einem Radius von 50 μm mittels Galvanospiegel-System weitestgehend gleich ist. Zu diesem
Zweck müssen allerdings je nach verwendeter Geschwindigkeit die nötigen Laserleistungen
ermittelt werden. Außerdem muss die räumliche Formkonstanz der An- und Abregungsmoden
bei einer Auslenkung um bis zu 50 μm untersucht werden. Durch den Verzicht auf das
Piezo-System würde sich das Problem der schlechten Qualität an den Strukturkanten eventuell
erübrigen.
Zudem lässt sich durch die Verwendung räumlicher Lichtmodulatoren der Einsatz verwendeter
Abregungsmoden weiter ausbauen. Axiale Multifokusse mit einer Halbwertslücke von
unter 300 nm und einem Intensitätsminimum von unter 30% sind theoretisch kein Problem.
Es gilt demnach, diese Moden zu generieren und auf deren Verbesserung hinsichtlich Linienbreite
und -länge zu untersuchen. Ein Test zur Ermittlung des Signal zu Rausch Verhältnisses
der jeweiligen Moden über den gesamten möglichen Bereich der stimulierten Emission würde
beispielsweise stark zur Charakterisierung der Multifokusse beitragen.
Am 25.11.2015 fand in Kaiserslautern die Fachtagung „Mikroschadstoffe aus Abwasseranlagen in Rheinland-Pfalz“ statt. Veranstalter waren das Fachgebiet Siedlungswasserwirtschaft und das Zentrum für innovative AbWassertechnologien (tectraa) an der Technischen Universität Kaiserslautern, die Wupperverbandsgesellschaft für integrale Wasserwirtschaft (WiW) sowie das Ministerium für Umwelt, Landwirtschaft, Ernährung, Weinbau und Forsten des Landes Rheinland-Pfalz (MULEWF).
Hintergrund der Veranstaltung war das Forschungsprojekt „Relevanz, Möglichkeiten und Kosten einer Elimination von Mikroschadstoffen auf kommunalen Kläranlagen in Rheinland-Pfalz, aufgezeigt am Beispiel der Nahe - Mikro_N“, das tectraa in Zusammenarbeit mit WiW im Auftrag des MULEWF durchgeführt hat. Im Rahmen der Fachtagung wurden sowohl Projektergebnisse vorgestellt als auch allgemein relevante Fragestellungen zum Thema Mikroschadstoffe beleuchtet. Rahmenbedingungen sowie Perspektiven für eine Elimination der Mikroschadstoffe bildeten weitere inhaltliche Schwerpunkte der Veranstaltung.
Die Gewichtsreduktion im Strukturbereich stellt einen zentralen Optimierungsansatz in der Luftfahrtindustrie dar, der vor allem durch adäquate Fügetechnologien genutzt werden kann. Ausgehend vom aktuellen Stand der Technik im Helikopterbau, dem Nieten, gilt es durch die Verwendung einer innovativen Fügetechnologie das volle technologische Leistungsvermögen hinsichtlich Performance, Qualität und Kosten zu nutzen. Dazu wurde das Induktionsschweißen als die potentialreichste Fügetechno-logie für den Helikopterbau bewertet. Um dieses identifizierte Potential für eine Luftfahrtfertigungstechnologie nutzbar zu machen, ist es unerlässlich, das Indukti-onsschweißen an die Luftfahrtanforderungen anzupassen. Vor allem in den Berei-chen Nachweisbarkeit, Leistungsfähigkeit und Kosten wurden daher Fragestellungen identifiziert deren Beantwortung den Kern dieser Arbeit darstellt.
Beim Induktionsschweißen werden faserverstärkte Thermoplaste durch ein Auf-schmelzen der Matrix und ein anschließendes Abkühlen unter Druck gefügt. Die Erwärmung des sich in einem alternierenden elektromagnetischen Feld (EMF) befindlichen Laminats erfolgt dabei durch die Einkopplung eines elektrischen Stroms in die Fasern.
Das zentrale Element zur Erreichung der geforderten Leistungsfähigkeit stellt die interlaminare Temperaturverteilung dar, welche es nachzuweisen gilt. Dieser Nach-weis wurde durch ein umfassendes analytisches Modell realisiert, das eine höchst-präzise interlaminare Temperaturberechnung ermöglicht. Die Kernaussagen, welche aus dem Modell abgeleitet werden, sind die dickenabhängige Erwärmung des Laminats, die EMF-Semipermeabilität der Laminatoberflächen und der nicht expo-nentielle Abfall sowie der nicht lineare Verlauf der Temperatur in Dickenrichtung. Die Validierung der analytischen Modellierung gelang nur durch die Identifikation einer EMF-toleranten, hochdynamischen Temperaturmesstechnologie, welche mit hoher Auflösung interlaminar eingesetzt werden kann.
Auf Grundlage der Modellergebnisse wurden die optimalen Schweißparameter definiert, auf deren Basis die Leistungsfähigkeit der Induktionsschweißtechnologie mit circa 36 MPa Scherfestigkeit bestätigt wurde. Durch eine Sensibilitätsanalyse konnte weiterhin der Einfluss der Parameter Generatorleistung, Kühlvolumen, Anpressdruck, Induktorabstand, Fehlereinschlüsse und Geschwindigkeit bestimmt werden. Aufgrund der im aktuellen Anlagenaufbau nicht vorhanden Parameterüber-wachung und aufgrund des hohen Prozesseinflusses erwies sich dabei der Induktor-abstand als der kritischste Faktor.
Etwaige dadurch auftretende qualitative Mängel können durch den schlanken, maßgeschneiderten Einsatz einer Kombination aus der Ultraschalluntersuchung, einer in der Luftfahrt standardmäßig eingesetzten Qualitätssicherungsmethode und eines progressiven Inline-Prozesskontrollansatzes detektiert werden.
Parallel zur mechanischen Leistungsfähigkeit der Technologie stand der Einfluss der Temperaturverteilung auf die Oberflächenqualität im Fokus. Durch die umfangreiche theoretische und experimentelle Analyse bereits bekannter und neu entwickelter Temperaturoptimierungsmethoden konnte mit der Kühlung der Oberfläche mit temperatur- und volumenvariablen Druckluftströmen eine effiziente Methode zur zielführenden Lösung der bestehenden Problemstellung ermittelt werden.
Die Anwendbarkeit der Induktionsschweißtechnologie konnte auch durch eine Kostenrechnung am Beispiel eines helikopterspezifischen Musterbauteils bestätigt werden.
Das Ziel der vorliegenden Dissertation ist es, für den innerhalb der Faserkunststoffverbunde
etablierten Liquid Composite Molding (LCM) Herstellungsprozess, eine optimierte
Preformherstellung aus unidirektionalen (UD) Verstärkungsfasern zu entwickeln.
Dies beinhaltet auch das lokale Verstärken einer textilen Preform. Der ausschlaggebende
Prozess ist hierbei der Preform-Prozess, da dieser Kostentreiber innerhalb
der LCM-Prozesskette ist, in welchem die Verstärkungsfasern zu einem trockenen,
transportfähigen und meist flächigen Faserrohling verbunden werden.
Innerhalb des hier entwickelten Preformingprozesses werden Kohlenstofffasern, sogenannte
Heavy Tows mit einem pulverförmigen Bindersystem eingebracht, erhitzt
und mittels Endeffektor beim Ablegen konsolidiert. Die für den Prozess benötigten
Module und Systeme wurden vor der Online-Bebinderung zuerst an einem separaten
Offlinebebinderungsprüfstand montiert. Mittels dieses Offlinebebinderungsprüfstandes
war die Optimierung und Analyse der einzelnen Module und Systeme durch die
Herstellung eines kontinuierlich bebinderten Rovings (Halbzeug) außerhalb der diskontinuierlichen
Online-Bebinderung möglich. Zugleich wurden mit dem Offlineprüfstand
Halbzeuge mit unterschiedlichem Bindergehalt und unterschiedlichem Bindertyp
hergestellt um einen Einfluss des Bindergehaltes als auch des Bindertyps auf die
Eigenschaften der Preform und des infiltrierten Bauteiles zu analysieren. Die Analyse
der Versuche zeigte deutlich, dass die Wahl des Bindertyps bei gleichbleibender Infiltrationsmatrix
einen signifikanten Einfluss auf die Performance des Bauteils hat,
wohingegen die Bindermenge tendenziell einen untergeordneten Einfluss zeigt. Nach
der Sicherstellung der Funktionsfähigkeit der Module wurden diese an ein robotergestütztes
Ablegesystem zur Online-Bebinderung installiert. Die Applizierung der Binderpartikel
innerhalb der Online-Bebinderung erfolgt temporär während des Ablegeprozesses.
Zur Demonstration der Funktionsfähigkeit wurde eine quasiisotrope Glasfaserpreform
lokal mit den Kohlenstofffasern verstärkt. Die hergestellte ebene Preform
wurde im Anschluss erwärmt, kompaktiert und in eine 3 dimensionale Preform
umgeformt.
Den Abschluss der Arbeit bildet eine Wirtschaftlichkeitsbetrachtung des entwickelten
Prozesses im Vergleich zu zwei „State of the Art“ Preformherstellungsprozessen.
Hierbei konnte gezeigt werden dass die Kosten des gesamten Bauteiles um 3,7 %
sinken unter Anwendung des neu entwickelten Verfahrens der Online-Bebinderung.
Kontinuierlich faserverstärkte Thermoplaste (Organobleche) bieten ein großes Potential für den Einsatz in großvolumigen Sichtanwendungen. Es existieren jedoch einige material- und prozesstechnische Hindernisse hinsichtlich der Umsetzung dieses Potentials. Mit dieser Arbeit soll dazu beigetragen werden, das nötige, tiefgehende Verständnis bei der material- und prozesstechnischen Auslegung von optisch hochwertigen Organoblechbauteilen bereitzustellen. Die Arbeit umfasst:
- Untersuchungen zu material- und prozesstechnischen Parametern
- Eine analytische sowie eine FE-Modellbildung der Oberflächenausbildung samt Verifizierung
- Die Entwicklung eines Werkzeugkonzepts zur Verbesserung des isothermen Verarbeitungsprozesses
Die Untersuchung des Einflusses der textilen Gewebeparameter Faserdurchmesser und Maschenweite auf die Oberflächenwelligkeit von Organoblechen zeigen eine zunehmende Welligkeit mit steigendem Faserdurchmesser bzw. Maschenweite. Es wurde eine Grenzwelligkeit Wz25 = 0,5 μm ermittelt, ab der subjektiv keine Welligkeit mehr wahrgenommen wird. Im Prozessvergleich zwischen isothermer und variothermer Verarbeitung besitzen variotherm verarbeitete Organobleche eine um 40 – 50 % geringere Welligkeit. Dieser Effekt wird auf die geänderte thermische Prozessführung während der Abkühlphase zurückgeführt. Die Erkenntnisse wurden in einem analytischen Prozessmodell beschrieben, welches neben den thermischen Eigenschaften auch das rheologische Matrixverhalten berücksichtigt. Auf dem entwickelten Modell aufbauend wurde eine FE-Prozesssimulation entwickelt und an experimentellen Daten verifiziert. Das Modell ermöglicht die Vorhersage der Oberflächenwelligkeiten von Organoblechen variabler Laminatkonfiguration bei variothermer Verarbeitung und beschreibt zusätzlich das Verhalten der Organobleche unter ebener Scherung.
Um die oberflächenverbessernden Eigenschaften der variothermen Verarbeitung auch im isothermen Prozess nutzbar zu machen, wurde ein neuartiges Werkzeugkonzept entwickelt, welches die Prozessfenster über angepasste thermische Werkzeugeigenschaften gezielt einstellen kann. Neben einer verbesserten Bauteiloberfläche kann durch eine optimierte Prozessauslegung die Gesamtprozesszeit verkürzt und der Energiebedarf verringert werden.
In this contribution a mortar-type method for the coupling of non-conforming NURBS surface patches is proposed. The connection of non-conforming patches with shared degrees of freedom requires mutual refinement, which propagates throughout the whole patch due to the tensor-product structure of NURBS surfaces. Thus, methods to handle non-conforming meshes are essential in NURBS-based isogeometric analysis. The main objective of this work is to provide a simple and efficient way to couple the individual patches of complex geometrical models without altering the variational formulation. The deformations of the interface control points of adjacent patches are interrelated with a master-slave relation. This relation is established numerically using the weak form of the equality of mutual deformations along the interface. With the help of this relation the interface degrees of freedom of the slave patch can be condensated out of the system. A natural connection of the patches is attained without additional terms in the weak form. The proposed method is also applicable for nonlinear computations without further measures. Linear and geometrical nonlinear examples show the high accuracy and robustness of the new method. A comparison to reference results and to computations with the Lagrange multiplier method is given.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
Annual Report 2014
(2015)
Annual Report, Jahrbuch AG Magnetismus
Component fault trees that contain safety basic events as well as security basic events cannot be analyzed like normal CFTs. Safety basic events are rated with probabilities in an interval [0,1], for security basic events simpler scales such as \{low, medium, high\} make more sense. In this paper an approach is described how to handle a quantitative safety analysis with different rating schemes for safety and security basic events. By doing so, it is possible to take security causes for safety failures into account and to rate their effect on system safety.
In DS-CDMA, spreading sequences are allocated to users to separate different
links namely, the base-station to user in the downlink or the user to base station in the uplink. These sequences are designed for optimum periodic correlation properties. Sequences with good periodic auto-correlation properties help in frame synchronisation at the receiver while sequences with good periodic cross-
correlation property reduce cross-talk among users and hence reduce the interference among them. In addition, they are designed to have reduced implementation complexity so that they are easy to generate. In current systems, spreading sequences are allocated to users irrespective of their channel condition. In this thesis,
the method of allocating spreading sequences based on users’ channel condition
is investigated in order to improve the performance of the downlink. Different
methods of dynamically allocating the sequences are investigated including; optimum allocation through a simulation model, fast sub-optimum allocation through
a mathematical model, and a proof-of-concept model using real-world channel
measurements. Each model is evaluated to validate, improvements in the gain
achieved per link, computational complexity of the allocation scheme, and its impact on the capacity of the network.
In cryptography, secret keys are used to ensure confidentiality of communication between the legitimate nodes of a network. In a wireless ad-hoc network, the
broadcast nature of the channel necessitates robust key management systems for
secure functioning of the network. Physical layer security is a novel method of
profitably utilising the random and reciprocal variations of the wireless channel to
extract secret key. By measuring the characteristics of the wireless channel within
its coherence time, reciprocal variations of the channel can be observed between
a pair of nodes. Using these reciprocal characteristics of
common shared secret key is extracted between a pair of the nodes. The process
of key extraction consists of four steps namely; channel measurement, quantisation, information reconciliation, and privacy amplification. The reciprocal channel
variations are measured and quantised to obtain a preliminary key of vector bits (0; 1). Due to errors in measurement, quantisation, and additive Gaussian noise,
disagreement in the bits of preliminary keys exists. These errors are corrected
by using, error detection and correction methods to obtain a synchronised key at
both the nodes. Further, by the method of secure hashing, the entropy of the key
is enhanced in the privacy amplification stage. The efficiency of the key generation process depends on the method of channel measurement and quantisation.
Instead of quantising the channel measurements directly, if their reciprocity is enhanced and then quantised appropriately, the key generation process can be made efficient and fast. In this thesis, four methods of enhancing reciprocity are presented namely; l1-norm minimisation, Hierarchical clustering, Kalman filtering,
and Polynomial regression. They are appropriately quantised by binary and adaptive quantisation. Then, the entire process of key generation, from measuring the channel profile to obtaining a secure key is validated by using real-world channel measurements. The performance evaluation is done by comparing their performance in terms of bit disagreement rate, key generation rate, test of randomness,
robustness test, and eavesdropper test. An architecture, KeyBunch, for effectively
deploying the physical layer security in mobile and vehicular ad-hoc networks is
also proposed. Finally, as an use-case, KeyBunch is deployed in a secure vehicular communication architecture, to highlight the advantages offered by physical layer security.
For the prediction of digging forces from a granular material simulation, the
Nonsmooth Contact Dynamics Method is examined. First, the equations of motion
for nonsmooth mechanical systems are laid out. They are a differential
variational inequality that has the same structure as classical discrete algebraic equations. Using a Galerkin projection in time, it becomes possible to derive
nonsmooth versions of the classical SHAK and RATTLE integrators.
A matrix-free Interior Point Method is used for the complementarity
problems that need to be solved in every time step. It is shown that this method
outperforms the Projected Gauss-Jacobi method by several orders of magnitude
and produces the same digging force result as the Discrete Element Method in comparable computing time.
Die klassischen Verfahren zur Herstellung leichter Olefine, wie Steamcracken und Fluid Catalytic Cracking sind nicht mehr in der Lage, die steigende Nachfrage an Propen zu decken. Um dem Ungleichgewicht zwischen Versorgung und Nachfrage zu begegnen wurden neue Strategien und Technologien entwickelt, die eine unabhängige Produktion von Propen ermöglichen. Eine dieser Varianten ist die katalytische Umwandlung von Ethen zu Propen, die derzeit im Labormaßstab untersucht wird. In der Literatur wurden bereits verschiedene Katalysatorsysteme vorgestellt, die unter anderem Metallträgerkatalysatoren, mesoporöse Materialien und mikroporöse Materialien beinhalten. Insbesondere mikroporöse Zeolithe, die bereits in vielen technischen Prozessen erfolgreich eingesetzt werden, zeigen aufgrund ihrer katalytischen Eigenschaften ein hohes Potential in der Ethen-zu-Propen Reaktion.
In der vorliegenden Arbeit wurden Schlüsselfaktoren untersucht, die eine selektive katalytische Umwandlung von Ethen zu Propen und Butenen an 10-Ring-Zeolithen ermöglichen. Im Fokus der Untersuchungen stand der Einfluss unterschiedlicher Porenarchitekturen, die Säurestärkeverteilung und die Kristallitgröße auf die Aktivität und Stabilität der Katalysatoren sowie die Selektivität zu Propen und den Butenen. Die hergestellten 10-Ring-Zeolithe wurden mittels Pulver-Röntgendiffraktometrie, Festkörper-NMR-Spektroskopie, Stickstoff-Physisorption, Thermogravimetrie, Partikelgrößenanalyse und Raster-elektronenmikroskopie charakterisiert. Zur Erprobung der katalytischen Eigenschaften der hergestellten Materialien wurde eine Normaldruck-Strömungsapparatur aufgebaut. Variiert wurden die Katalysatorlaufzeit, die Reaktionstemperatur, die modifizierte Verweilzeit und der Ethen-Partialdruck.
Zu Beginn wurden einige 10-Ring-Zeolithe mit unterschiedlichen Porenarchitekturen hergestellt und mit physikalisch-chemischen Methoden charakterisiert. Voraussetzung zum Vergleich der unterschiedlichen Porenarchitekturen waren dabei hohe Kristallinitäten, ähnliche Kristallitgrößen und Aluminiumgehalte. Aus den katalytischen Experimenten ging hervor, dass die sterischen Restriktionen der unterschiedlichen Porenarchitekturen einen signifikanten Einfluss auf die Selektivitäten zu den leichten Olefinen haben. Daher wurde bei den 1-dimensionalen 10-Ring-Zeolithen eine hohe Selektivität für die Bildung von Propen und den Butenen mit zusammen ca. 70 % gefunden. Die 3-dimensionalen 10-Ring-Porenstrukturen zeigen hingegen deutlich niedrigere Selektivitäten zu Propen und den Butenen mit insgesamt ca. 30 %. Als Ursache der niedrigeren Selektivitäten zu den genannten Olefinen konnten Neben- und Folgereaktionen identifiziert werden, die vermutlich an den Kreuzungspunkten im 3-dimensionalen Porensystem katalysiert werden. Die Neben- und Folgereaktionen beinhalten überwiegend Wasserstofftransferreaktionen und Zyklisierungen, die zur Bildung von Alkanen und Aromaten führen. Durch die gezielte Wahl von 1-dimensionalen Porenstrukturen konnten so die relativ großen Übergangszustände der Wasserstofftransferreaktionen und der Zyklisierungen unterdrückt werden. Daraus ergeben sich im Vergleich zu den 3-dimensionalen Porenstrukturen niedrigere Aktivitäten der 1-dimensionalen Porenstrukturen bei vergleichbarer Ausbeute an Propen und Butenen. Des Weiteren konnten neben strukturellen Einflüssen der unterschiedlichen Porenarchitekturen auch erhebliche Einflüsse der Reaktionsbedingungen auf die Bildung von Neben- und Folgereaktionen aufgezeigt werden. Dies gilt insbesondere für 3-dimensionale Porenstrukturen. Den Experimenten zufolge konkurrieren die beiden bekannten Crackmechanismen (monomolekular / bimolekular) in Abhängigkeit der Reaktionsbedingungen miteinander. Hohe Reaktionstemperaturen, kurze modifizierte Verweilzeiten und Ethen-Partialdrücke begünstigen monomolekulares Cracken und somit die Bildung von Propen und Butenen. Bimolekulares Cracken, welches gerade bei niedrigeren Reaktionstemperaturen, langen modifizierten Verweilzeiten und hohen Ethen-Partialdrücken verstärkt auftritt, fördert Wasserstofftransferreaktion. Der Einfluss der Reaktionsbedingungen ist bei 1-dimensionalen Porenstrukturen weniger stark ausgeprägt, da die formselektiven Eigenschaften bei der ETP-Reaktion dominieren.
Zusätzlich zu den bereits genannten Schlüsselfaktoren wurden auch die Auswirkungen unterschiedlicher Aluminiumgehalte der Zeolithe in der sauer katalysierten Ethen-zu-Propen-Reaktion untersucht. Als Katalysatoren wurden die Zeolithe ZSM-22 und ZSM-5 als jeweilige Vertreter einer 1-dimensionalen und 3-dimensionalen Porenstruktur verwendet. Der Vergleich der katalytischen Eigenschaften erfolgte bei gleichbleibenden Reaktionsbedingungen. In Abhängigkeit von der Dimensionalität des Porensystems (1-D vs. 3-D) wurde beobachtet, dass die Selektivitäten für die kurzkettigen Olefine in einem Fall mit dem Aluminiumgehalt abnehmen (3-D, HZSM-5) und im anderen Fall zunehmen (1-D, HZSM-22). Auch hier dominieren die formselektiven Eigenschaften der 1-dimensionalen Porenstrukturen in der Ethen-zu-Propen-Reaktion, wodurch mit steigender Anzahl saurer Zentren die Aktivität und die Selektivität zu den leichten Olefinen ebenfalls steigen. Es zeigte sich jedoch, dass hohe Aluminiumgehalte zu einer verstärkten Katalysatordesaktivierung beitragen und zusätzlich den Stofftransport der Reaktanden stark beeinflussen. Zeolith ZSM-5 zeigte zwar ebenfalls eine starke Katalysatordesaktivierung mit steigendem Aluminiumgehalt, wohingegen der Stofftransport der Reaktanden nicht beeinflusst wurde. Dies ging aus dem linearen Zusammenhang zwischen der Aktivität und dem Aluminiumgehalt in der Zeolith-Struktur hervor. Die Produktselektivitäten wurden insbesondere an Zeolith ZSM-5 deutlich durch den Aluminiumgehalt beeinflusst. Hohe Aluminiumgehalte begünstigen Wasserstofftransferreaktionen und Zyklisierungen, wohingegen niedrige Aluminiumgehalte die Selektivität zu den leichten Olefinen erhöhen. Ein Erklärungsansatz hierfür basiert auf den ablaufenden Gasphasenmechanismen an heterogenen Katalysatoren: Den Experimenten zufolge verläuft die Ethen-zu-Propen-Reaktion an Zeolith ZSM-5 vermutlich nach dem Eley-Rideal-Mechanismus, wohingegen die konkurrierenden Wasserstofftransferreaktionen nach dem Langmuir-Hinshelwood-Mechanismus ablaufen. Diese Ergebnisse stehen im Einklang mit anderen literaturbekannten Studien.
Die gezielte Variation der Kristallitgröße wurde mit Zeolith ZSM-5 durchgeführt, mit dem Ziel, detailliertere Kenntnisse über das Desaktivierungsverhalten des Katalysators und den Stofftransport der Reaktanden in den Poren zu erhalten. Die Kristallitgröße von Zeolith ZSM-5 wurde einerseits durch die Kristallistaionstemperatur gesteuert und andererseits durch die Zugabe von Triethanolamin als Inhibitor für die Keimbildung. Auf diese Weise konnten mittlere Kristallitgrößen im Bereich von 6 - 69 µm hergestellt werden. Mit zunehmender Kristallitgröße von Zeolith ZSM-5 wurde bei ähnlichen Koks-Gehalten eine schnellere Katalysatordesaktivierung beobachtet. Weiterhin waren abnehmende Aktivitäten mit zunehmender Kristallitgröße zu beobachten. Es konnte gezeigt werden, dass Stofftransportlimitierungen ab einer Kristallitgröße von ca. 27 µm auftreten. Es war ebenfalls ersichtlich, dass mit steigender Kristallitgröße auch unselektive Reaktionen auf der äußeren Oberfläche der Kristallite reduziert werden. Mit diesen waren steigende Selektivitäten zu den leichten Olefinen zu beobachten, bei gleichzeitiger Abnahme der Selektivitäten zu den C1 - C4-Alkanen und den Aromaten. Dies konnte auf eine Reduktion unselektiv ablaufender Neben- und Folgereaktionen auf der äußeren Kristallitoberfläche zurückgeführt werden.
In this thesis we develop a shape optimization framework for isogeometric analysis in the optimize first–discretize then setting. For the discretization we use
isogeometric analysis (iga) to solve the state equation, and search optimal designs in a space of admissible b-spline or nurbs combinations. Thus a quite
general class of functions for representing optimal shapes is available. For the
gradient-descent method, the shape derivatives indicate both stopping criteria and search directions and are determined isogeometrically. The numerical treatment requires solvers for partial differential equations and optimization methods, which introduces numerical errors. The tight connection between iga and geometry representation offers new ways of refining the geometry and analysis discretization by the same means. Therefore, our main concern is to develop the optimize first framework for isogeometric shape optimization as ground work for both implementation and an error analysis. Numerical examples show that this ansatz is practical and case studies indicate that it allows local refinement.
This thesis deals with the development of a tractor front loader scale which measures payload continuously, independent of the center of gravity of the payload, and unaffected of the position and movements of the loader. To achieve this, a mathematic model of a common front loader is simplified which makes it possible to identify its parameters by a repeatable and automatic procedure. By measuring accelerations as well as cylinder forces, the payload is determined continuously during the working process. Finally, a prototype was build and the scale was tested on a tractor.
In this thesis, collision-induced dissociation (CID) studies serve to elucidate relative stabilities and to determine bond strengths within a given structure type of transition metal complexes. The infrared multi photon dissociation (IRMPD) spectroscopy combined with density functional theory (DFT) allow for structural analysis and provide insights into the coordination sphere of transition metal centers. The used combination of CID and IRMPD experiments is a powerful tool to obtain a detailed and comprehensive characterization and understanding of interactions between transition metals and organic ligands. The compounds’ spectrum comprises mono- or oligonuclear transition metal complexes containing iron, palladium, and ruthenium as well as lanthanide containing single molecule magnets (SMM). The presented investigations on the different transition metal complexes reveal manifold effects for each species leading to valuable results. A fundamental understanding of metal to ligand interactions is mandatory for the development of new and better organometallic complexes with catalytic, optical or magnetic properties.
Die Entwicklung nachhaltiger Methoden zur C-C und C-Heteroatom Bindungsknüpfung gehört zu den Hauptzielen der modernen organischen Synthesechemie. Übergangsmetall-katalysierte Kupplungsreaktionen sind dabei besonders effiziente und vielseitige Werkzeuge zum Aufbau komplexer Molekülstrukturen. Im Rahmen dieser Dissertation wurden neue Konzepte zur regioselektiven Bindungsknüpfung entwickelt, mit denen präformierte, organometallische Reagenzien, sowie ökologisch bedenkliche Organohalogenide umgangen werden können. Als Substrate dienen Carbonsäurederivate, die in einer vorgelagerten, reversiblen (Trans-)Esterifizierung aus ubiquitären, lagerstabilen Carbonsäuren oder deren Estern zugänglich sind. Die Insertion eines Metall-Katalysators in die C-O Bindung der Esterfunktionalität führt zum Metallcarboxylat, welches irreversibel decarboxyliert und zum Produkt gekuppelt wird. Als einzige Nebenprodukte dieser Kupplungsreaktionen werden CO2 und Wasser bzw. CO2 und leichtflüchtige Alkohole freigesetzt. Der Nutzen dieses Konzepts konnte mit der Synthese zahlreicher Arylketone, Allylbenzole und Phenylessigsäureester demonstriert werden. Der Einsatz des Palladium(I)-Dimers [Pd(µ-Br)(PtBu3)]2 führte überraschend nicht zur decarboxylierenden Funktionalisierung der Substrate, sondern zur raschen Doppelbindungsisomerisierung und der damit verbundenen Synthese von Enolestern. Die Optimierung der Reaktionsbedingungen führte zu einem hochaktiven Katalysatorsystem, das selbst den besten literaturbekannten Isomerisierungskatalysatoren weit überlegen ist. In weiteren Teilprojekten erfolgte die Entwicklung Sandmeyer-analoger Trifluormethylierungen und Trifluormethylthiolierungen, mit denen leicht zugängliche Aryldiazoniumsalze mit in situ generierten Cu-CF3 Verbindungen bereits bei Raumtemperatur trifluormethyliert werden können. Im Rahmen einer Kooperation mit Umicore erfolgte außerdem die anwendungsbezogene Optimierung eines Kreuzkupplungsverfahrens zur hochselektiven Monoarylierung primärer Amine mit äquimolaren Arylbromidmengen in konzentrierter Lösung. Dabei wurden der präformierte Katalysator Pd(dippf)maleimid und die Katalysatorlösung Pd(dippf)(vs)tol entwickelt.
Der rasante Anstieg an ß-lactamresistenten Bakterienstämmen stellt ein weltweites medizinisches Problem dar. Für die Bekämpfung von resistenten Stämmen ist es wichtig, den Mechanismus der Resistenzentstehung zu verstehen. Die im Mittelpunkt der vorliegenden Arbeit stehenden S. pneumoniae-Isolate entstammen zwei unterschiedlichen Strategien zur Untersuchung der Entstehung und Verbreitung ß-lactamresistenter Pneumokokken. Die im Fokus des ersten Teils der vorliegenden Arbeit stehende Glycosyltransferase CpoA wurde von Grebe et al. (1997) als Resistenzdeterminante in zwei spontan-resistenten Labormutanten, P104 und P106, entdeckt. Beide wurden ausgehend von dem sensitiven S. pneumoniae R6 auf einer erhöhten Piperacillinkonzentration selektioniert. Berg et al. und Edman et al., beschrieben CpoA biochemisch als a-Galactosyl-Glycosyl-Diacylglycerin-Synthase, die einen Galactosylrest von UDP-Galaktose auf Glycosyldiacylglycerin (GlcDAG) überträgt (Berg et al., 2001; Edman et al., 2003) und so Galactosyl-Glycosyldiacylglycerin (GalGlcDAG), das Hauptglycolipid der Cytoplasmamembran von S. pneumoniae bildet. Durch Detektion der Glycolipide in R6, P104, P106 und R6ΔcpoA konnten diese in vitro Daten in vivo bestätigt werden. Keine der cpoA-Mutanten wies eine detektiertbare Menge an GalGlcDAG auf. Neben der Veränderung des Glycolipidverhältnisses offenbarte die Darstellung der Membranlipide auch eine Änderung des Phospholipidverhältnisses. Die phänotypische Charakterisierung der cpoA-Mutanten zeigte eine pleiotropen Phänotyp, der mit einer verlangsamten Generationszeit, einer verminderten Säuretoleranz, einem erhöhten Bedarf an zweiwertigen Magnesiumionen, dem Verlust der natürlichen Transformierbarkeit, einer verzögerten Triton-induzierte Zelllyse, sowie eine reduzierte Bacitracinresistenz einher ging. Durch eine Microarray-basierte, globale Transkriptomanalyse konnte gezeigt werden, dass vor allem Membranproteine, wie PTS-Systeme und ABC-Transporter, eine unterschiedliche Expressionsstärke im Vergleich zum Parentalstamm R6 aufwiesen. Als Grundlage für den zweiten Teil der vorliegenden Arbeit diente ein von Todorava (2010) durchgeführtes Transformationsexperiment, indem der sensitive S. pneumoniae R6 mit chromosomaler DNA des hochresistenten S. oralis Uo5 transformiert wurde. In sechs Transformationsschritten mit sukzessiv ansteigender Antibiotikakonzentration, konnten sechs Transformanten mit einer stufenweise erhöhten ß-Lactamresistenz generiert werden. Durch die Arbeiten von Todorova et al. (2015), konnte bereits gezeigt werden, dass drei niederaffine PBPs, sowie die Aminosäureligase MurE den Resistenzanstieg der ersten drei Selektionsschritte vermitteln. In dieser Arbeit wurde sich mit den Transformanten der Selektionsschritte vier, fünf und sechs beschäftigt. Durch Genomsequenzierung und anschließende Überprüfung bestimmter Sequenzbereiche konnten die Grenzen des horizontalen Gentransfers aufgewiesen werden. Der Resistenzanstieg in den letzten drei Selektionsschritten wurde nicht durch die Übertragung resistenter Uo5-Gene, sondern einzig durch Punktmutationen vermittelt. Die Charakterisierung, sowie die phänotypischen Auswirkungen der Veränderungen standen nach ihrer Identifizierung im Mittelpunkt der vorliegenden Arbeit. In der Transformante des vierten Selektionsschrittes, PCPC, konnten zwei Punktmutationen identifiziert werden. Eine Punktmutation innerhalb des Histidinkinasegens ciaH des Zweikomponentensystems CiaRH und eine weitere in spr1992, welches für ein hypothetisches Protein codiert. Bei CiaH handelt es sich um die erste nicht-PBP-Resistenzdeterminante, die in S. pneumoniae entdeckt wurde (Guenzi et al., 1994). Es zeigte sich, dass das neu entdeckte ciaH-Allel (ciaH773) eine Hyperaktivität des CiaRH-Systems bewirkt und zur Instabilität neigt. Um das Risiko von sekundären Mutationen zu mindern, wurde die Expression von ciaH773 unter die Kontrolle eines Tetracyclin-induzierbaren Promotors gestellt. Es konnte gezeigt werden, dass ciaH773 einen 11-fachen Anstieg der CiaR-vermittelten Genregulation, sowie eine Erhöhung der ß-Lactamresistenz bewirkt und zum Verlust der natürlichen Transformierbarkeit führt. Neben der Punktmutation in ciaH, konnte im vierten Selektionsschritt noch eine weitere Veränderung in spr1992 identifiziert werden. Beim Genprodukt von spr1992 handelt es sich um hypothetisches Protein. Blastanalysen lassen auf eine regulatorische Funktion von Spr1992 schließen. Die innerhalb dieser Arbeit erzielten Ergebnisse deuten stark auf einen Beitrag der Punktmutation in spr1992 zur CiaR-vermittelten Genregulation, sowie zur Cefotaximresistenz in PCPC hin. Zukünftige Untersuchungen könnten den Zusammenhang von spr1992 mit dem CiaRH-System weiter spezifizieren.Innerhalb des fünften Selektionsschrittes konnte eine 10 bp Deletion in der Serinprotease HtrA detektiert werden, die aufgrund der Lokalisation im ersten Drittel der Serinprotease mit einem Knockout von HtrA vergleichbar ist. Es konnte gezeigt werden, dass die HtrA-Deletion zu einer weiteren Steigerung der CiaRH-vermittelten Genregulation, sowie zu einer Erhöhung der ß-Lactamresistenz führt. Durch Einbringen des ciaH773-Allels in S. pneumoniae R6 und anschließender htrA-Deletion konnte dieser regulatorische Effekt auch im Wildtyp-Hintergrund nachgewiesen werden. Durch anschließend durchgeführte globalen Transkriptomanalysen konnten weitere Einblicke in die regulatorische Funktion von HtrA im Hintergrund eines hyperaktiven CiaRH-Systems gewonnen werden. In PCPCCO, der Transformante des sechsten Selektionsschrittes, konnte eine Punktmutation im Penicillin-bindenden Protein 2b innerhalb des bereits im dritten Selektionsschritt ausgetauschten Uo5-Sequenzbereiches als Resistenzdeterminante identifiziert werden. Durch Einbringen von Q406P in S. pneumoniae R6 konnte das Resistenz vermittelnde Potential dieser Veränderung auch im Wildtyphintergrund nachgewiesen werden. Somit konnte gezeigt werden, dass eine Resistenzdeterminante, die über horizontalen Gentransfer auf S. pneumoniae übertragen wurde, durch eine sekundäre Mutation, das Resistenzniveau ihres Rezipienten weiter steigern kann.
Die hier vorgelegte Arbeit konzentrierte sich auf den vakuolären Ribonukleinsäure- (RNA) Abbau in Arabidopsis thaliana (A. thaliana) und die Integration in den Nukleotid- Metabolismus unter Berücksichtigung von Nukleosidtransportprozessen. Insbesondere die physiologische Bedeutung des Verlustes der RNS2-Aktivität auf die vakuolären RNA-Abbauprozesse sollte untersucht werden. Es konnte gezeigt werden, dass RNS2 den größten Anteil an der vakuolären Ribonuklease- (RNase-) Aktivität ausmacht, wobei die Restaktivität von circa 30 Prozent ein Hinweis auf mindestens eine weitere vakuoläre RNase ist. Die vakuolären Adenylatgehalte, Abbauprodukte der RNA, in RNS2-T-DNA-Insertionslinien zeigten, dass RNS2, ähnlich wie die intrazellulären RNasen in L. esculentum, 2‘,3‘-zyklische Nukleotidmonophosphate (2‘,3‘-cNMPs) produzieren. Ferner konnte gezeigt werden, dass in diesen Linien die vakuolären Enzyme sowohl RNA, als auch 2‘,3‘-cNMPs langsamer abbauen als vakuoläre Enzyme aus Wildtyp-Pflanzen. Die Akkumulation dieses zyklischen Intermediates des RNA-Abbaus lässt darauf schließen, dass die Transphosphorylierung schneller verläuft als die Hydrolyse (Abel & Glund, 1987; Löffler et al., 1992; Nürnberger et al., 1990). Es kann angenommen werden, dass ein weiteres Enzym, wie etwa eine zyklische Phosphodiesterase oder eine weitere Ribonuklease, an der Hydrolyse beteiligt ist. Ein weiterer Abschnitt dieser Arbeit beschäftigt sich mit der wichtigen Frage der Qualität von Vakuolenisolationen. Protoplastenkontaminationen konnten mikroskopisch ausgeschlossen werden. Die chloroplastidäre Verunreinigung war mit circa 5 Prozent gering, die cytosolische Kontamination lag jedoch je nach Isolationsmethode bei bis zu 30 Prozent im Vergleich zu Protoplasten. Es konnte darüber hinaus erstmals durch fluoreszenzmikroskopische Untersuchungen gezeigt werden, dass Vakuolen RNA besitzen. Diese Oligonukleotide sind vornehmlich kleine Fragmente im Größenbereich bis 50 nt.
Next Generation Sequencing ermöglichte eine detaillierte Analyse von cDNA- Bibliotheken, gewonnen aus vakuolärer RNA. Diese Technik wurde unter anderem angewandt, um die Reliabilität des Experimentes zu untersuchen. Es zeigte sich eine große Varianz in der Verteilung der Counts auf die verschiedenen RNA-Loci innerhalb biologischer Replikate und unterschiedlicher Vakuolenisolationsmethoden. Erstmals konnte jedoch gezeigt werden, dass circa 70 Prozent der RNA-Fragmente in der
Vakuole von mRNA stammen. Darüber hinaus gibt es Hinweise, dass der Abbau der wenigen rRNA-Transkripte in diesem Organell verstärkt abläuft.
In A. thaliana existiert mit ENT7 lediglich ein Vertreter, der einen Export von RNA- Abbauprodukten aus der Zelle ermöglicht. Da er den namensgebenden Vertretern aus dem Reich der Säugetiere strukturell und funktionell ähnelt, ist ENT7 ein geeignetes ENT-Protein für zukünftige Kristallisations- und Strukturanalysen. In dieser Arbeit konnte ENT7-eGFP in Pichia pastoris mit großer Ausbeute (2 mg Protein pro Liter Hefekultur) synthetisiert und in stabiler Form gereinigt werden. Es konnte gezeigt werden, dass ENT7 ohne eGFP ebenfalls stabil und als Dimer vorliegt. Durch Bindungsstudien erfolgte der Nachweis der erfolgreichen Bindung an bekannte Substrate. Darüber hinaus stellte sich heraus, dass neben Nukleosiden auch Nukleobasen, aber nicht ATP gebunden werden.
The main goal of this thesis is twofold. First, the thesis aims at bridging the gap between existing Pattern Recognition (PR) methods of automatic signature verification and the requirements for their application in forensic science. This gap, attributed by various factors ranging from system definition to evaluation, prevents automatic methods from being used by Forensic Handwriting Examiners (FHEs). Second, the thesis presents novel signature verification methods developed particularly considering the implications of forensic casework, and outperforming the state-of-the-art PR methods.
The first goal of the thesis is attributed by four important factors, i.e., data, terminology, output reporting, and how evaluation of automatic systems is carried out today. It is argued that traditionally the signature data used in PR are not actual/close representative of the real world data (especially that available in forensic cases). The systems trained on such data are, therefore, not suitable for forensic environments. This situation can be tackled by providing more realistic data to PR researchers. To this end, various signature and handwriting datasets are gathered in collaboration with FHEs and are made publicly available through the course of this thesis. A special attention is given to disguised signatures--where authentic authors purposefully make their signatures look like a forgery. This genre was at large neglected in PR research previously.
The terminology used, in the two communities - PR and FHEs, differ greatly. In fact, even in PR, there is no standard terminology and people often differ in the usage of various terms particularly related to various types of forged signatures/handwriting. The thesis presents a new terminology that is equally useful for both forensic scientists and PR researchers. The proposed terminology is hoped to increase the general acceptability of automatic signature analysis systems in forensic science.
The outputs reported by general signature verification systems are not acceptable for FHEs and courts as they are either binary (yes/no) or score (raw evidence) based on similarity/difference. The thesis describes that automatic systems should rather report the probability of observing the evidence (e.g., a certain similarity/difference score) given the signature belongs to the acclaimed identity, and the probability of observing the same evidence given the signature does not belong to the acclaimed identity. This will take automatic systems from hard decisions to soft decisions, thereby enabling them to report likelihood ratios that actually represent the evidential value of the score rather than the raw score (evidence).
When automatic systems report soft decisions (as in the form of likelihood ratios), the thesis argues that there must be some methods to evaluate such systems. This thesis presents one such adaptation. The thesis argues that the state-of-the-art evaluation methods, like equal error rate and area under curve, do not address the needs of forensic science. These needs require an assessment of the evidential value of signature verification, rather than a hard/pure classification (accept/reject binary decision). The thesis demonstrates and validates a relatively simple adaptation of the current verification methods based on the Bayesian inference dependent calibration of continuous scores rather than hard classifications (binary and/or score based classification).
The second goal of this thesis is to introduce various local features based techniques which are capable of performing signature verification in forensic cases and reporting results as anticipated by FHEs and courts. This is an important contribution of the thesis because of the following two reasons. First, to the best of author's knowledge, local feature descriptors are for the first time used for development of signature verification systems for forensic environments (particularly considering disguised signatures). Previously, such methods have been heavily used for recognition tasks, rather than verification of writing behaviors, such as character and digit recognition. Second, the proposed methods not only report the more traditional decisions (like scores-usually reported in PR) but also the Bayesian inference based likelihood ratios (suitable for courts and forensic cases).
Furthermore, the thesis also provides a detailed man vs. machine comparison for signature verification tasks. The men, in this comparison, are forensic scientists serving as forensic handwriting examiners and having experience of varying number of years. The machines are the local features based methods proposed in this thesis, along with various other state-of-the-art signature verification systems. The proposed methods clearly outperform the state-of-the-art systems, and sometimes the human experts.
Finally, the thesis details various tasks that have been performed in the areas closely related to signature verification and its application in forensic casework. These include, developing novel local feature based methods for extraction of signatures/handwritten text from document images, hyper-spectral image analysis for extraction of signatures from forensic documents, and analysis of on-line signatures acquired through specialized pens equipped with Accelerometer and Gyroscope. These tasks are important as they enable the thesis to take PR systems one step further close to direct application in forensic cases.
Congress Report 2015.09-10
(2015)
Die vorliegende Arbeit behandelt das Thema der pneumatischen Abstandsmessung. Diese Technologie ist neben der taktilen und optischen Messtechnik eine der drei Ansätze, um Messaufgaben in der Fertigungsmesstechnik zu lösen. Der große Vorteil pneumatischer Sensoren ist ihr Selbstreinigungseffekt, wodurch in rauen Umgebungen sicher gemessen werden kann. Momentan fehlende Grundlagenkenntnisse führen jedoch zu einer ineffizienten Nutzung der Technik. Im Rahmen dieser Arbeit wurde neues Wissen erarbeitet, so dass eine optimierte Anwendung dieser Sensorklasse möglich ist. Für das laterale und dynamische Verhalten der Sensoren sind Modelle zur Vorhersage von Messergebnissen vorgestellt. Weiterhin finden sich ausführliche Auslegestrategien für systemkritische Bauteile in dieser Arbeit. Auf Basis der Grundlagenuntersuchungen sind die wichtigsten Einflussgrößen der Messunsicherheit erläutert. Zur effizienten Wissensübertragung ist abschließend eine moderne Software präsentiert, welche eine Auslegung pneumatischer Sensoren für eine gegebene Messaufgabe ermöglicht und so das gesamte Wissen der Arbeit für den Anwender in der Industrie zusammenfasst.
Die Qualität hoch beanspruchter Oberflächen wird durch ihre Funktion festgelegt. Sogenannte Funktionsflächen sind dabei in vielen Bereichen der modernen Industrie zu finden. Zur Überwachung des Herstellungsprozesses dieser Flächen besteht daher stets ein Bedarf an sensitiver, genauer an die Bedürfnisse der Messaufgabe angepasster, Messtechnik. Ein Verfahren, welches aufgrund seines winkelmessenden Prinzips unempfindlich gegenüber Vibrationen ist und gleichzeitig eine flächige Beurteilung von Oberflächen ermöglicht, ist die winkelaufgelöste Streulichtmesstechnik. Sie nutzt das von einer rauen Oberfläche zurückgestreute Licht zur Charakterisierung. Während der Erwartungswert der gemessenen Streulichtverteilung Aufschluss über die Makrogestalt der Oberfläche liefert, enthält die Breite der Verteilung Informationen über die Mikrostruktur.
Die vorliegende Arbeit betrachtet zwei Themenkomplexe dieser Messtechnik: Zunächst wird die Qualifizierung einer bereits bestehenden Messeinrichtung zur zweidimensionalen Erfassung von Streulicht mittels linearem Diodenarray durchgeführt. Im Anschluss erfolgt die Erweiterung der Messeinrichtung zur Erfassung der dritten Dimension. Dieses Ziel wird durch Verfolgung zweier Ansätze, einem rotierenden Prisma sowie einem flächigen Detektor, erreicht.
Die Arbeiten im Rahmen des vorliegenden Projektes beschäftigen sich im Wesentlichen mit der Synthese neuartiger Liganden auf Pyrimidinbasis. Der Abstand zwischen dem aromatischen Grundgerüst und weiterer Donorzentren – hier Phosphane – wird dabei so angepasst, dass für die zu insertierenden Zentralmetalle kooperative Effekte erwartet werden können. Mögliche Anwendungen werden erprobt.
This thesis treats the application of configurational forces for the evaluation of fracture processes in Antarctic ice shelves. FE simulations are used to analyze the influence of geometric scales, material parameters and boundary conditions on single surface cracks. A break-up event at the Wilkins Ice Shelf that coincided with a major temperature drop motivates the consideration of frost wedging as a mechanism for ice shelf disintegration. An algorithm for the evaluation of the crack propagation direction is used to analyze the horizontal growth of rifts. Using equilibrium considerations for a viscoelastic fluid, a method is introduced to compute viscous volume forces from measured velocity fields as loads for a linear elastic fracture mechanical analysis.
Schon jetzt durchlaufen mehr als vier von fünf chemischen Produkten bei der Herstellung einen Katalysezyklus. In zunehmendem Maße findet man katalytische Anwendungen neben dem Einsatz in der Synthesechemie auch in den Biowissenschaften, beim Klima- und Umweltschutz sowie zur Energieversorgung. Durch gezieltes Ligandendesign werden dabei kontinuierlich bekannte Katalysatorsysteme optimiert und die Anwendungsbreite erweitert. Für zweizähnige, pyrimidinhaltige Ligandensysteme ist aus anderen Forschungsarbeiten der AG Thiel eine intramolekularen C-H-Aktivierung im Pyrimidinring bekannt, die zu einer carbanionkoordination am Übergangsmetallzentrum führt. Diese Reaktivität wurde im Rahmen dieser Arbeit mit der stabilisierenden Wirkung eines N-heterocyclischen Carbenliganden (NHC) zu einem neuen Ligandensystem kombiniert. Verschiedene Imidazoliumvorstufen neuer NHC-Liganden mit einem in der 2-Position aminosubstituierten Pyrimidinring als N-Substituent wurden über zwei neu erarbeitete Syntheserouten dargestellt und mit verschiedenen Übergangsmetallvorstufen umgesetzt. In Palladium(II)-Komplexen von pyrimidinyl- und mesitylsubstituierten NHC-Liganden wurden verschiedene Koordinationsmodi in Abhängigkeit von der verwendeten Synthesemethode beobachtet. Über Silber-Carben-Komplexe als Carben-Transferreagenzien konnten für verschieden tertiär amino- und mesitylsubstituierten Liganden die nicht C-H-aktivierten, d.h. C,N-koordinierten Palladiumkomplexe dargestellt werden. Eine direkte Umsetzung der ionischen Imidazoliumverbindungen mit Palladiumvorstufen wie PdCl2 führte in Pyridin und Pyridinderivaten als Lösungsmittel bei Reaktionstemperaturen direkt zu einer C-H-Aktivierung im Pyrimidinring des Liganden. Der leicht basische Pyridinligand stabilisiert während der Komplexbildung die hochreaktive, C-H-aktivierte Spezies und verhindert so Neben- und Zersetzungsreaktionen. Über die Abspaltung des labilen Pyridinliganden durch Erhitzen in schwach koordinierenden Lösungsmitteln wurden die zweikernigen, unlöslichen, pyridinfreien Palladiumkomplexe erhalten und mittels Festkörper-NMR-Spektroskopie charakterisiert. Diese Reaktion ist vollständig reversibel und wurde zum Einführen verschiedener Pyridinderivate als labile Liganden genutzt. In schwach koordinierenden Lösungsmitteln mit einem Siedepunkt < 80 °C, wie THF, wurde durch eine direkte Umsetzung der ionischen Vorstufen der Liganden mit PdCl2 eine weitere Art von Pd(II)-Komplexen erhalten, für welche die Strukturformel eines N-koordinierten Palladates postuliert wurde. In NMR-spektroskopischen Experimenten wurde die Reversibilität der C-H-Aktivierung im Pyrimidinring der Pd(II)-Komplexe in Abhängigkeit von pH-Wert und Temperatur nachgewiesen. Auch hier erwies sich der stabilisierende Pyridinligand für die C-H-Aktivierung und HCl-Eliminierung als notwendig. Die Rückreaktion wurde unter schwach sauren Reaktionsbedingungen bei Raumtemperatur über eine NHC-gebundene, pyridinhaltige Spezies, strukturanalog der literaturbekannten PEPPSI-Komplexe, beobachtet.
Für die stark Lewis-aciden Übergangsmetallzentren Iridium (III) und Ruthenium (II) wurden mit den entsprechenden ionischen Ligandenvorstufen über in situ dargestellte Silber-Carben-Komplexe ausschließlich die C-H-aktivierten, C,N-koordinierten Halbsandwichkomplexe der neuen 2-Amino-4-(imidazolylidenyl)pyrimidinliganden erhalten, trotz variierter Reaktionsbedingungen. Die C-H-Aktivierung mit anschließender HCl-Eliminierung erfolgte bei diesen Übergangsmetallzentren bereits bei Raumtemperatur irreversibel.
In Rahmen dieser Arbeit wurde außerdem die Notwendigkeit eines sterisch anspruchsvollen, stabilisierenden Mesitylrestes am NHC-Liganden für stabile und isolierbare C-H-aktivierte Komplexe beobachtet. Mit anderen, sterisch weniger anspruchsvollen Resten an dieser Position des Liganden wurden unter den Reaktionsbedingungen für potentielle C-H-Aktivierungen nur Zersetzungsprodukte erhalten. Von jedem Komplextyp der neuen C-H-aktivierten Übergangsmetallkomplexe wurden messbare Kristalle für eine Kristallstrukturanalyse erhalten, welche tiefere Einblicke in die Bindungssituation der neuen Liganden ermöglichte.
Die C-H-aktivierten Übergangsmetallkomplexe der neuen Liganden zeigen sehr gute Aktivitäten in verschiedenen katalytischen Anwendungen. Neben der stabilisierenden Wirkung des NHC mit starkem σ-Donorcharakter wird die hohe Elektronendichte am Übergangsmetallzentrum durch die Koordination des Carbanions weiter erhöht. Unter optimierten Bedingungen wurden in der Suzuki-Miyaura-Kupplung mit geringeren Katalysatorkonzentrationen der C-H-aktivierten Pd(II)-Komplexe eine große Bandbreite von sterisch und elektronisch gehinderten Chlorarylen mit verschiedenen Boronsäurederivaten erfolgreich zu Biarylen umgesetzt. Mit den C-H-aktivierten Ru(II)- und Ir(III)-Halbsandwichkomplexen der neuen Liganden wurden in der katalytischen Transferhydrierung von Acetophenon bereits bei geringen Katalysatorkonzentrationen von 0.15 mol% sehr hohe Ausbeuten erhalten. Die katalytisch hochaktiven Komplexe zeichneten sich außerdem durch eine hohe Stabilität unter den optimierten Reaktionsbedingungen aus. Die C-H-Aktivierung weist zwar keine Abhängigkeit vom sterischen Anspruch der variierten tertiären Aminosubstituenten auf, wurde aber für die anderen Reste in der 2-Position des Pyrimidinrings nicht beobachtet.
We propose and study a strongly coupled PDE-ODE system with tissue-dependent degenerate diffusion and haptotaxis that can serve as a model prototype for cancer cell invasion through the
extracellular matrix. We prove the global existence of weak solutions and illustrate the model behaviour by numerical simulations for a two-dimensional setting.
Die Klebetechnologie spielt heutzutage eine sehr bedeutende Rolle bei der Realisierung von Werkstoffverbunden unterschiedlichster Art. Hierbei sind die mechanischen und strukturellen Eigenschaften der Klebverbunde unter Einsatzbedingungen bemerkenswert. Diese Merkmale werden erheblich durch die Art der Klebstoffbestandteile und ihre Wechselwirkung beeinflusst.
In dieser Arbeit kommen unterschiedliche Test-Verfahren zum Einsatz, um die mechanischen und strukturellen Eigenschaften von gefüllten Klebstoffen zu untersuchen. Als Basiswerkstoff werden Klebstoffe auf Epoxid- und Polyurethan-System verwendet. Zur Untersuchung des Einflusses der inneren Oberflächen von Füllstoffen auf die oben genannten Eigenschaften finden zwei Gruppen von Füllstoffen auf Calciumcarbonat- und Kieselerde-Basis Verwendung. Die Bewertung der Bruchflächen erfolgt durch die Digital-Mikroskopische-Analyse und Raster-Elektronen-Mikroskopie (REM).
Die aus den Untersuchungen gewonnenen Erkenntnisse zeigen, dass die mechanischen und strukturellen Kennwerte des Polymer-Metall-Verbundes, insbesondere des Elastizitätsmoduls, der Zugfestigkeit, des mittleren und maximalen Schälwiderstands sowie der Bruchzähigkeit durch die Wechselwirkung zwischen den inneren Oberflächen der verwendeten Füllstoffe und der Polymermatrix erheblich beeinflusst werden können.
Im Rahmen dieser Arbeit konnten 4-Pyrrolidin-1,8-naphthalimidomethylphenyl-N-tert-butylnitron (PNIMPN, 11), 4-Pyrrolidin-1,8-naphthalimidophenyl-N-tert-butylnitron (PNIPN, 34), 4-Pyrrolidin-1,8-naphthalimidomethyl-N-tert-butylnitron (PNIMN, 29) und das cyclische 4-Pyrrolidin-1,8-naphthalimidoethylpiperazin-N-oxid (PNIEPO, 24) synthetisiert werden. Die Synthese des 4-Pyrrolidin-1,8-naphthalimidophenyl-α-methyl-N-tert-butylnitron (21), ein Nitron mit einer α-Methyl-Gruppe zur Stabilitätserhöhung der gebildeten Radikale, wurde nicht erreicht. Diese Verbindungen ermöglichen die Identifizierung gebildeter Radikale, mittels ESR-Untersuchungen und gleichzeitig deren Entstehungsort innerhalb der Zelle, mittels in vitro-Messungen mit einem konfokalen Laser-Scanning-Mikroskop (c-LSM). Dies beruht auf der Tatsache, dass die Nitrone fluoreszierend, aber ESR-inaktiv sind und nach der Reaktion mit Radikalen, ein persistentes Radikal bilden, welches nun keine Fluoreszenz aufweist, allerdings ESR-aktiv ist.
Die ESR spektroskopischen Untersuchungen ergaben, dass die Verbindungen 24, 29 und 34, analog zum bereits von S. Hauck untersuchten p-Nitrostilbennitron, spin trapping-Eigenschaften besitzen. Der Nachweis und die Detektion von Hydroxyl-Addukten nach Arbeiten von Mitchell konnte nicht nachgewiesen werden. Als Grund kann eine zu geringe Enzymaktivität der eingesetzten Xanthinoxidase und/oder eine geringer Stabilität der radikalischen Addukte aufgeführt werden. Spätere Untersuchungen von A. Karbach unterstützen diese Annahmen.
Messungen der Absorptionsmaxima der Verbindungen zeigten keine erwartete bathochrome Verschiebung nach Vergrößerung des π-Elektronensystems. Dies könnte durch eine mögliche sterische Hinderung der Rotation um die Imidbindung zurückzuführen sein. Kraftfeld- und ab initio-Berechnungen müssen dies noch bestätigen. Das PNIMPN (11) zeigt einen ungewöhnlichen „Pump-Effekt“ bei diesen Messungen. Dabei steigert sich die Intensität der Fluoreszenz bei einer Anregungswellenlänge von 488 nm, wenn zuvor mit 405 nm angeregt wurde. Dieser Effekt ist ebenfalls in Umgekehrter Reihenfolge zu beobachten. Genauere Untersuchungen zu dieser Beobachtung wurden nicht durchgeführt.
Bei der Zytotoxizitätsmessung mittels des SRB-Tests, wurde festgestellt, dass alle synthetisierten Verbindungen innerhalb des eingesetzten Konzentrationsbereiches atoxisch für die verwendeten Zelllinien sind. Eine Ausnahme bildet hierbei, PNIMN (29) ist in einem Konzentrationsbereich ab 25 µM sehr toxisch.
Alle getesteten Verbindungen akkumulieren vorwiegend in den Mitochondrien der Zellen, wodurch sie sich für die Untersuchung und Detektion von ROS innerhalb der Atmungskette eignen. PNIMN (29) und PNIEPO (24) akkumulieren zudem in den nucleoli im Zellkern.
Die Versuche zur in vitro Fluoreszenzlöschung mittels c-LSM, dass alle Verbindungen eine Löschung der Fluoreszenz, nach Zugabe von Atmungsketteninhibitoren (Rotenon und Antimycin A), zeigen, die deutlich rascher erfolgt im Vergleich mit den bleaching Experimenten.
We discuss the problem of evaluating a robust solution.
To this end, we first give a short primer on how to apply robustification approaches to uncertain optimization problems using the assignment problem and the knapsack problem as illustrative examples.
As it is not immediately clear in practice which such robustness approach is suitable for the problem at hand,
we present current approaches for evaluating and comparing robustness from the literature, and introduce the new concept of a scenario curve. Using the methods presented in this paper, an easy guide is given to the decision maker to find, solve and compare the best robust optimization method for his purposes.
Attention-awareness is a key topic for the upcoming generation of computer-human interaction. A human moves his or her eyes to visually attends to a particular region in a scene. Consequently, he or she can process visual information rapidly and efficiently without being overwhelmed by vast amount of information from the environment. Such a physiological function called visual attention provides a computer system with valuable information of the user to infer his or her activity and the surrounding environment. For example, a computer can infer whether the user is reading text or not by analyzing his or her eye movements. Furthermore, it can infer with which object he or she is interacting by recognizing the object the user is looking at. Recent developments of mobile eye tracking technologies enable us
to capture human visual attention in ubiquitous everyday environments. There are various types of applications where attention-aware systems may be effectively incorporated. Typical examples are augmented reality (AR) applications such as Wikitude which overlay virtual information onto physical objects. This type of AR application presents augmentative information of recognized objects to the user. However, if it presents information of all recognized objects at once, the over
ow of information could be obtrusive to the user. As a solution for such a problem, attention-awareness can be integrated into a system. If a
system knows to which object the user is attending, it can present only the information of
relevant objects to the user.
Towards attention-aware systems in everyday environments, this thesis presents approaches
for analysis of user attention to visual content. Using a state-of-the-art wearable eye tracking device, one can measure the user's eye movements in a mobile scenario. By capturing the user's eye gaze position in a scene and analyzing the image where the eyes focus, a computer can recognize the visual content the user is currently attending to. I propose several image analysis methods to recognize the user-attended visual content in a scene image. For example, I present an application called Museum Guide 2.0. In Museum Guide 2.0, image-based object recognition and eye gaze analysis are combined together to recognize user-attended objects in a museum scenario. Similarly, optical character recognition
(OCR), face recognition, and document image retrieval are also combined with eye gaze analysis to identify the user-attended visual content in respective scenarios. In addition to Museum Guide 2.0, I present other applications in which these combined frameworks are effectively used. The proposed applications show that the user can benefit from active information presentation which augments the attended content in a virtual environment with
a see-through head-mounted display (HMD).
In addition to the individual attention-aware applications mentioned above, this thesis
presents a comprehensive framework that combines all recognition modules to recognize the user-attended visual content when various types of visual information resources such as text, objects, and human faces are present in one scene. In particular, two processing strategies are proposed. The first one selects an appropriate image analysis module according to the user's current cognitive state. The second one runs all image analysis modules simultaneously and merges the analytic results later. I compare these two processing strategies in terms of user-attended visual content recognition when multiple visual information resources are present in the same scene.
Furthermore, I present novel interaction methodologies for a see-through HMD using eye gaze input. A see-through HMD is a suitable device for a wearable attention-aware system for everyday environments because the user can also view his or her physical environment
through the display. I propose methods for the user's attention engagement estimation with the display, eye gaze-driven proactive user assistance functions, and a method for interacting
with a multi-focal see-through display.
Contributions of this thesis include:
• An overview of the state-of-the-art in attention-aware computer-human interaction
and attention-integrated image analysis.
• Methods for the analysis of user-attended visual content in various scenarios.
• Demonstration of the feasibilities and the benefits of the proposed user-attended visual content analysis methods with practical user-supportive applications.
• Methods for interaction with a see-through HMD using eye gaze.
• A comprehensive framework for recognition of user-attended visual content in a complex
scene where multiple visual information resources are present.
This thesis opens a novel field of wearable computer systems where computers can understand the user attention in everyday environments and provide with what the user wants. I will show the potential of such wearable attention-aware systems for everyday
environments for the next generation of pervasive computer-human interaction.
The central topic of this thesis is Alperin's weight conjecture, a problem concerning the representation theory of finite groups.
This conjecture, which was first proposed by J. L. Alperin in 1986, asserts that for any finite group the number of its irreducible Brauer characters coincides with the number of conjugacy classes of its weights. The blockwise version of Alperin's conjecture partitions this problem into a question concerning the number of irreducible Brauer characters and weights belonging to the blocks of finite groups.
A proof for this conjecture has not (yet) been found. However, the problem has been reduced to a question on non-abelian finite (quasi-) simple groups in the sense that there is a set of conditions, the so-called inductive blockwise Alperin weight condition, whose verification for all non-abelian finite simple groups implies the blockwise Alperin weight conjecture. Now the objective is to prove this condition for all non-abelian finite simple groups, all of which are known via the classification of finite simple groups.
In this thesis we establish the inductive blockwise Alperin weight condition for three infinite series of finite groups of Lie type: the special linear groups \(SL_3(q)\) in the case \(q>2\) and \(q \not\equiv 1 \bmod 3\), the Chevalley groups \(G_2(q)\) for \(q \geqslant 5\), and Steinberg's triality groups \(^3D_4(q)\).
In this thesis, we investigate several upcoming issues occurring in the context of conceiving and building a decision support system. We elaborate new algorithms for computing representative systems with special quality guarantees, provide concepts for supporting the decision makers after a representative system was computed, and consider a methodology of combining two optimization problems.
We review the original Box-Algorithm for two objectives by Hamacher et al. (2007) and discuss several extensions regarding coverage, uniformity, the enumeration of the whole nondominated set, and necessary modifications if the underlying scalarization problem cannot be solved to optimality. In a next step, the original Box-Algorithm is extended to the case of three objective functions to compute a representative system with desired coverage error. Besides the investigation of several theoretical properties, we prove the correctness of the algorithm, derive a bound on the number of iterations needed by the algorithm to meet the desired coverage error, and propose some ideas for possible extensions.
Furthermore, we investigate the problem of selecting a subset with desired cardinality from the computed representative system, the Hypervolume Subset Selection Problem (HSSP). We provide two new formulations for the bicriteria HSSP, a linear programming formulation and a \(k\)-link shortest path formulation. For the latter formulation, we propose an algorithm for which we obtain the currently best known complexity bound for solving the bicriteria HSSP. For the tricriteria HSSP, we propose an integer programming formulation with a corresponding branch-and-bound scheme.
Moreover, we address the issue of how to present the whole set of computed representative points to the decision makers. Based on common illustration methods, we elaborate an algorithm guiding the decision makers in choosing their preferred solution.
Finally, we step back and look from a meta-level on the issue of how to combine two given optimization problems and how the resulting combinations can be related to each other. We come up with several different combined formulations and give some ideas for the practical approach.
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
(2015)
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
Daptomycin ist ein cyclisches Lipopeptidantibiotikum, das zur Behandlung schwerer gram-positiver Infektionen entwickelt wurde. Daptomycin weißt in vitro eine schnelle Aktivität gegen klinisch signifikante Stämme gram-positiver Pathogene auf. Außerdem ist die Aktivität von Daptomycin abhängig von der physiologischen Calciumkonzentration. Es wird postuliert, dass in einem ersten Schritt die Calciumionen mit dem Antibiotikum interagieren und dieser Komplex dadurch positiv geladen ist. Somit kann es an negativ geladene Membranen, die Phosphatidylglycerol enthalten, binden. In einem nächsten Schritt interagiert der hydrophobe Schwanz des Daptomycins als Anker, da dieser in wässriger Lösung einen hohen \(\Delta\)G-Wert besitzt und dieser dadurch erniedrigt wird. Schließlich nimmt die Fluidität der Membran ab und durch den Kollaps des Membranpotentials findet ein Zusammenbruch verschiedener Zellfunktionen statt.
Die Versuche wurden zum größten Teil an Liposomen als Modelmembranen durchgeführt. Dabei wurden zwei Liposomensysteme genutzt. Einerseits Liposomen die aus Avanti Polar Lipid Mix bestanden und durch Behandlung mit Ultraschall hergestellt wurden. Andererseits wurden Liposomen aus Bakterien hergestellt. Zudem wurden kompette Bakterienzellen untersucht.
Der bakterielle Wachstum wurde durch UV/VIS-Spekroskopie gemessen. Veränderungen in der Fluidität der Membran wurden mittels ESR-Spektroskopie festgestellt. Die Morphologie wurde mittels Elektronenmikroskopie und Rasterkraftmikroskopie aufgenommen. Zusätzlich wurde ein Leakage Assay durchgeführt.
Zusammenfassend lässt sich sagen, dass bei den ESR-Untersuchungen eine Änderung der Fluidität gemessen wurde. Aufgrund der Ergebnisse verschiedener Spinlabel lag allerdings die Vermutung nahe, dass sich bei Daptomycin keine diskrete Pore ausbildet, sondern es zur Krümmung der Membran kommt was schließlich zum Aufplatzen der Zelle führt. Deshalb wurden im weiteren Messungen am Elektronenmikroskop sowie am Rasterkraftmikroskop durchgeführt, um Rückschlüsse auf die Morphologie machen zu können. Diese Messungen bestätigten die obige These, dass sich keine Pore ausbildet sondern es zur Krümmung der Membranoberfläche kommt.
Bei Autoimmunerkrankungen richtet der Körper Autoantikörper gegen körpereigene Strukturen. Bei Myasthenia gravis sind es Antikörper, die gegen Strukturen der postsynaptischen Membran im Bereich der neuromuskulären Endplatte gerichtet sind. Hierbei richten sich diese gegen Acetylcholinrezeptoren, die als Transmembrankanäle bei der Signalweiterleitung fungieren.
In früheren Arbeiten konnte unter anderem Hossann gentechnisch die \(\alpha\)-Untereinheit des Acetylcholinrezeptors mit dem Ribosomeninaktivierenden Protein Gelonin koppeln, es lag hier allerdings eine niedrige Löslichkeit vor und das Fusionsprotein lies sich nur schwer zurückfalten.
In diesem Teil der Arbeit wurde die Cytotoxizität von Gelonin mittels Zellkuturexperimenten untersucht, ein von Li zur Verfügung gestelltes Plasmid mit der \(\alpha\)-Untereinheit des Acetylcholinrezeptors, fusioniert an den der Löslichkeitstag MBP, überprüft. Außerdem sollte ein Plasmid kloniert werden, das für ein Fusionsprotein aus MBP-Gelonin-Achetylcholinrezeptor codiert. Hierbei versprach man sich durch den zusätzlichen MBP-Tag eine höhere Löslichkeit.
Der Cytotoxizitätstest wurde durchgeführt, da in der Literatur teils widersprüchliche Ergebnisse veröffentlicht wurden, bestätigte aber, dass Gelonin als ein Typ I RIP ohne Membrandomäne keine Cytotoxizität aufweißt.
Das Plasmid MBP-Achetylcholinrezeptor wurde in E. coli Zelllen transformiert, das Protein exprimiert und mittels Amylosesäule und HiTrap-Säule isoliert. Es besahs eine hohe Löslichkeit und lag in gefalteter Form in Lösung vor.
Die zur Synthese des MBP-Gelonin-Acetylcholinrezeptors-Konjugats notwendigen Plasmide waren im Arbeitskreis vorhanden. Das Plasmid pET-gel codierte für Gelonin und die DNA-Sequenz für die \(\alpha\)-Untereinheit des Acetylcholinrezeptors war bereits in den pAChRex-Vektor einkloniert. Der Löslichkeitstag MBP war im Plasmid pmal-c5x enthalten.
Auf Basis dieser Plasmide wurde eine Klonierungsstrategie entwickelt und in Teilen durchgeführt.
Zur Untersuchung der Zell-Topographie-Interaktionen werden im Rahmen dieser Arbeit zwei Arten von Mikrostrukturen mittels Direktem Laser Schreiben erzeugt, einerseits Pfosten unterschiedlicher Abstände und andererseits Pfosten-Steg-Strukturen mit unterschiedlicher Steghöhe. Auf diesen Topographien werden die untersuchten Zellen ausgesät und ihr Verhalten mit Zeitrafferaufnahmen über einen Zeitraum von 24 h beobachtet. Aus den Zellkoordinaten und den daraus erhaltenen Zellpfaden wird das Migrationsverhalten der Zellen im Hinblick auf den lenkenden Einfluss der betrachteten Topographie analysiert.
The Event Segmentation Theory (Kurby & Zacks, 2008; Zacks, Speer, Swallow, Braver, & Reynolds, 2007) explains the perceptual organization of an ongoing activity into meaningful events. The classical event segmentation task (Newtson, 1973) involves watching an online video and indicating with key presses the event boundaries, i.e., when one event ends and the next one begins. The resulting hierarchical organization of object-based coarse events and action-based fine events gives insight into various cognitive processes. I used the Event Segmentation Theory to develop assistance and training systems for assembly workers in industrial settings at various levels - experts, new hires, and intellectually disabled people. Therefore, the first scientific question I asked was whether online and offline event segmentation result in the same event boundaries. This is important because assembly work requires not only watching activities online but processing the information offline, e.g., while performing the assembly task. By developing a special software tool that enables assessment of offline event boundaries, I established that online perception and offline elaboration lead to similar event boundaries. This study supports prior work suggesting that instructions should be structured around event boundaries.
Secondly, I investigated the importance of fine versus coarse event boundaries when learning the sequence of steps in virtual training, both for novices and experts in car door assembly. I found memory, tested by ability to predict the next frame, to be enhanced for object-based coarse events from the nearest fine event boundary. However, virtual training did not improve memory for action-based fine events from the nearest coarse event boundary. I conjecture that trainees primarily acquire the sequence of object-based coarse events in an initial training. Based on differences found in memory performance between experts and novices, I conclude that memory for action-based fine events is dependent on expertise.
Thirdly, I used the Event Segmentation Theory to investigate whether the simple and repetitive assembly tasks offered at workshops for intellectually disabled persons utilize their full cognitive potential. I analyzed event segmentation performance of 32 intellectually disabled persons compared to 30 controls using a variety of event segmentation measures. I found specific deficits in event boundary detection and hierarchical organization of events for the intellectually disabled group. However, results suggest that hierarchical organization is task-dependent. Because the event segmentation task accounted for differences in general cognitive ability, I propose the event segmentation task as diagnostic method for the need for support in executing assembly tasks.
Based on these three studies, I argue that the Event Segmentation Theory offers a framework for assessment and assistance of important attentional, perceptual, and memory processes related to assembly tasks. I demonstrate how practical applications can make use of this framework for the development of new computer-based assistance and training systems that are tailored to the users’ need for support and improve their quality of life.
In this paper we consider the problem of decomposing a given integer matrix A into
a positive integer linear combination of consecutive-ones matrices with a bound on the
number of columns per matrix. This problem is of relevance in the realization stage
of intensity modulated radiation therapy (IMRT) using linear accelerators and multileaf
collimators with limited width. Constrained and unconstrained versions of the problem
with the objectives of minimizing beam-on time and decomposition cardinality are considered.
We introduce a new approach which can be used to find the minimum beam-on
time for both constrained and unconstrained versions of the problem. The decomposition
cardinality problem is shown to be NP-hard and an approach is proposed to solve the
lexicographic decomposition problem of minimizing the decomposition cardinality subject
to optimal beam-on time.
Industrial design has a long history. With the introduction of Computer-Aided Engineering, industrial design was revolutionised. Due to the newly found support, the design workflow changed, and with the introduction of virtual prototyping, new challenges arose. These new engineering problems have triggered
new basic research questions in computer science.
In this dissertation, I present a range of methods which support different components of the virtual design cycle, from modifications of a virtual prototype and optimisation of said prototype, to analysis of simulation results.
Starting with a virtual prototype, I support engineers by supplying intuitive discrete normal vectors which can be used to interactively deform the control mesh of a surface. I provide and compare a variety of different normal definitions which have different strengths and weaknesses. The best choice depends on
the specific model and on an engineer’s priorities. Some methods have higher accuracy, whereas other methods are faster.
I further provide an automatic means of surface optimisation in the form of minimising total curvature. This minimisation reduces surface bending, and therefore, it reduces material expenses. The best results can be obtained for analytic surfaces, however, the technique can also be applied to real-world examples.
Moreover, I provide engineers with a curvature-aware technique to optimise mesh quality. This helps to avoid degenerated triangles which can cause numerical issues. It can be applied to any component of the virtual design cycle: as a direct modification of the virtual prototype (depending on the surface defini-
tion), during optimisation, or dynamically during simulation.
Finally, I have developed two different particle relaxation techniques that both support two components of the virtual design cycle. The first component for which they can be used is discretisation. To run computer simulations on a model, it has to be discretised. Particle relaxation uses an initial sampling,
and it improves it with the goal of uniform distances or curvature-awareness. The second component for which they can be used is the analysis of simulation results. Flow visualisation is a powerful tool in supporting the analysis of flow fields through the insertion of particles into the flow, and through tracing their movements. The particle seeding is usually uniform, e.g. for an integral surface, one could seed on a square. Integral surfaces undergo strong deformations, and they can have highly varying curvature. Particle relaxation redistributes the seeds on the surface depending on surface properties like local deformation or curvature.
Das Forschungs- und Entwicklungsprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) greift die gesellschaftlichen und wirtschaftlichen Wandlungstendenzen der Region in und um Kaiserslautern auf. Ein zentraler Aspekt im Projekt ist die Analyse von (neuen) Zielgruppen wissenschaftlicher Weiterbildungsangebote, um daraus Konsequenzen für die Angebotsentwicklung ziehen zu können. Die bisher praktizierte Verfahrensweise der Angebotsplanung und -entwicklung ist angebotsorientiert und bezieht sich vor allem auf die Antizipation potenzieller Teilnehmerinnen und Teilnehmer. Demgegenüber impliziert die evidenzbasierte Herangehensweise des Projektes E-hoch-B einen Ansatz, der eine Angebotsentwicklung nicht allein auf antizipierte und verallgemeinerte, sondern auf empirisch fundierte Erkenntnisse zu Bedarfen der Zielgruppen stützt. Das Arbeitspapier erarbeitet basierend auf den Planungsschritten bei Schlutz (2006) Kriterien, die Rückschlüsse für die Entwicklung von Studienangeboten zulassen sowie die Identifikation und Beschreibung (neuer) Zielgruppen ermöglichen.
Das Arbeits- und Forschungspapier erörtert den Zugang zur Hochschulbildung für Geflüchtete in Deutschland und wird im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) publiziert. Das Forschungs- und Entwicklungsprojekt hat zum Ziel, bedarfsorientierte (Weiter-)Bildungsangebote für neue Zielgruppen in der Region Westpfalz zu entwickeln. Geflüchtete mit Aufenthaltserlaubnis sowie Geflüchtete im Asylbewerbungsverfahren stellen eine solche neue Zielgruppe dar, da für sie eine Öffnung der Hochschulbildung bis Dato noch nicht rechtlich festgelegt ist (Stand: August 2015). Im Rahmen des Arbeits- und Forschungspapiers werden zunächst unterschiedliche Hürden im Zugang zu Hochschulbildung aufgezeigt, die in der Problematik des Aufenthaltsstatus, in den Zugangsvoraussetzungen, aber auch in der Studienfinanzierung sowie der Anerkennung von Kompetenzen begründet liegen. Zudem werden hochschulinterne Barrieren in Bezug auf die Programmlogiken der Studiengänge sowie den Beratungs- und Unterstützungsangeboten angesprochen. Daran anschließend werden mögliche Lösungsansätze für diese Hürden skizziert.
In this paper we consider the problem of decomposing a given integer matrix A into
a positive integer linear combination of consecutive-ones matrices with a bound on the
number of columns per matrix. This problem is of relevance in the realization stage
of intensity modulated radiation therapy (IMRT) using linear accelerators and multileaf
collimators with limited width. Constrained and unconstrained versions of the problem
with the objectives of minimizing beam-on time and decomposition cardinality are considered.
We introduce a new approach which can be used to find the minimum beam-on
time for both constrained and unconstrained versions of the problem. The decomposition
cardinality problem is shown to be NP-hard and an approach is proposed to solve the
lexicographic decomposition problem of minimizing the decomposition cardinality subject
to optimal beam-on time.
Mit der Entdeckung von Acrylamid in Lebensmitteln und seiner krebserzeugenden Wirkung wurde der Fokus auf prozessgebildete Kontaminierungen gelenkt. Weitere hitzebedingte, kanzerogene Substanzen wurden in einer Vielzahl von Nahrungsmitteln entdeckt, eine davon ist Furan. Studien an Ratten und Mäusen zeigten eindeutig seine Karzinogenität und auch weitere toxikologische Untersuchungen stützen diesen Befund. Dennoch konnte der Weg der durch Furan hervorgerufenen Krebsentstehung noch nicht aufgeklärt werden. So steht nach wie vor zur Debatte, ob es sich um eine direkt genotoxische, oder eine indirekt resultierende Bildungsform handelt.
Als Teil des europäischen Furan-RA-Projektes sollte in dieser Arbeit ein Beitrag zur Beantwortung dieser Frage geleistet werden. Speziell im Niedrigdosisbereich unter 2 mg/kg KG wurde nach Gewebsveränderungen und zytotoxischen Effekten gesucht.
Für histologische Untersuchungen der Leber wurden Ratten in drei Dosisgruppen mit 0,1 sowie 0,5 und 2,0 mg/kg KG jeweils 28 Tage lang behandelt. Neben der Kontrollgruppe zum Vergleich wurde eine weitere Gruppe mit anschließenden zwei Wochen Erholungszeit betrachtet. Die Parafinschnitte der fünf Leberlappen wurden mit Hämatoxylin-Eosin und einem PCNA-Antikörper angefärbt.
Die randomisierte Begutachtung unter dem Mikroskop ließ keine dosisbezogenen Gewebsveränderungen erkennen, und es konnten auch keine Hinweise auf krebspromovierende Proliferationen gefunden werden.
Um einen Einblick auf zellulärer Ebene zu erlangen, wurden Hepatomzellen und Primäre Hepatozyten der Ratte mit verschiedenen Furankonzentrationen inkubiert. Wegen des hohen Dampfdruckes von Furan geschah dies im dafür entwickelten, geschlossenen Gefäß, in dem sich ein Gleichgewicht zwischen dem Medium und dem ausreichend dimensionierten Gasraum einstellen konnte. Die Kontrolle der wirkenden Konzentrationen erfolgte mit Hilfe einer geeigneten Headspace-Gaschromatographie. An Primären Hepatozyten zeigte sich eine konzentrationsabhängige Zytotoxizität von Furan mit einem ermittelten EC50 von 0,0188 mM.
Auch die weiteren Metabolite wurden auf ihre Wirkung an Zellen getestet. Der wichtigste Phase-I-Metabolit wies dabei einen EC50-Wert von 1,64 mM an Primären Hepatozyten und 0,55 mM an H4IIE auf. Die sehr hohe Reaktivität dieses cis-1,2-Butendials deutet darauf hin, dass bereits ein Großteil im Medium abreagiert, bevor es an den Zellen wirken kann. Daher resultiert die im Vergleich zum Furan enorm hohe Wirkkonzentration.
Bei einer weiteren Metabolisierung mit Glutathion stieg die gemessene Zytotoxizität wiederum an. Das Produktgemisch dieser beiden Reaktanden zeigte bereits ab einer Gesamtkonzentration von 0,025 mM signifikante Effekte. Die physiologisch gewollte Entgiftung findet also nicht statt. Wie dieser Effekt zustande kommt konnte leider nicht genau geklärt werden. Mit steigendem Butendial-Anteil stieg die schädigende Wirkung jedoch deutlich an.
Dies zeigt unter anderem, dass eine Verarmung an Glutathion die Wirkung von Furan steigert und die Detoxifizierung mit diesem Schritt noch nicht beendet ist. Aus den Ergebnissen geht hervor, dass Furan an sich und zumindest einige seiner Metabolite in der Leber toxisch wirken. Das gilt auch für Konzentrationen in einem Bereich, der keinen ausreichenden Sicherheitsabstand zur möglichen täglichen Aufnahme des Menschen lässt.
Auch wenn in den histologischen Untersuchungen noch keine Hinweise auf Tumore zu erkennen waren, so deuten die Daten in vitro doch deutlich auf ein hohes Potential vor allem des Furanmetaboliten Butendial hin. In wie weit dieser zur in Ratten beobachteten Krebsentstehung beisteuert, sollte Thema weiterer Untersuchungen sein.
Today’s pervasive availability of computing devices enabled with wireless communication and location- or inertial sensing capabilities is unprecedented. The number of smartphones sold worldwide are still growing and increasing numbers of sensor enabled accessories are available which a user can wear in the shoe or at the wrist for fitness tracking, or just temporarily puts on to measure vital signs. Despite this availability of computing and sensing hardware the merit of application seems rather limited regarding the full potential of information inherent to such senor deployments. Most applications build upon a vertical design which encloses a narrowly defined sensor setup and algorithms specifically tailored to suit the application’s purpose. Successful technologies, however, such as the OSI model, which serves as base for internet communication, have used a horizontal design that allows high level communication protocols to be run independently from the actual lower-level protocols and physical medium access. This thesis contributes to a more horizontal design of human activity recognition systems at two stages. First, it introduces an integrated toolchain to facilitate the entire process of building activity recognition systems and to foster sharing and reusing of individual components. At a second stage, a novel method for automatic integration of new sensors to increase a system’s performance is presented and discussed in detail.
The integrated toolchain is built around an efficient toolbox of parametrizable components for interfacing sensor hardware, synchronization and arrangement of data streams, filtering and extraction of features, classification of feature vectors, and interfacing output devices and applications. The toolbox emerged as open-source project through several research projects and is actively used by research groups. Furthermore, the toolchain supports recording, monitoring, annotation, and sharing of large multi-modal data sets for activity recognition through a set of integrated software tools and a web-enabled database.
The method for automatically integrating a new sensor into an existing system is, at its core, a variation of well-established principles of semi-supervised learning: (1) unsupervised clustering to discover structure in data, (2) assumption that cluster membership is correlated with class membership, and (3) obtaining at a small number of labeled data points for each cluster, from which the cluster labels are inferred. In most semi-supervised approaches, however, the labels are the ground truth provided by the user. By contrast, the approach presented in this thesis uses a classifier trained on an N-dimensional feature space (old classifier) to provide labels for a few points in an (N+1)-dimensional feature space which are used to generate a new, (N+1)-dimensional classifier. The different factors that make a distribution difficult to handle are discussed, a detailed description of heuristics designed to mitigate the influences of such factors is provided, and a detailed evaluation on a set of over 3000 sensor combinations from 3 multi-user experiments that have been used by a variety of previous studies of different activity recognition methods is presented.
Stadtumbau und Kultur
(2015)
Gerade in schrumpfenden Kommunen erscheint es als besonders
wichtig, die Realität des Schrumpfens, die damit verbundenen Verlusterfahrungen und notwendigen städtischen Umbauprozesse mit anderen Mitteln und über neue Zugänge besser verständlich zu machen und Betroffene zu aktivieren. In letzter Zeit werden hierfür
vermehrt auch künstlerische Ausdrucksformen genutzt. Basierend auf eigenen Erfahrungen des Autors ist es zentrales Anliegen der Arbeit, den Gegenstand solcher kulturellen Prozesse im Stadtumbau als Forschungsgegenstand aufzurufen und genauer zu untersuchen.
Eine deutschlandweite Befragung der Stadtumbaukommunen liefert erstmals statistisches Material zum Thema, das dann in vier vertiefenden Fallstudien anschaulich wird. Für die Planungspraxis werden mögliche Aktionsfelder katalogisiert und Anwendungsprinzipien
abgeleitet. Am Ende wird deutlich, dass Kunst und Kultur nicht schmückendes Beiwerk der Planung sondern ein eigenständiger Bestandteil im Stadtumbauprozess sein können.
Bei Asthma handelt es sich um eine chronische Entzündung der Atemwege, die durch bronchiale
Hyperreagibilität, reversible Atemwegsobstruktion und airway remodeling gekennzeichnet
ist. Letzteres bezieht sich dabei auf die permanenten strukturellen Veränderungen in den
Atemwegen, die zur Verdickung der Bronchialwand beitragen und für die bei Asthmatikern
auftretende progressive und irreversible Abnahme der Lungenfunktion verantwortlich sind. Die
epithelial zu mesenchymale Transition (EMT), ein physiologischer Prozess bei dem epitheliale
Zellen den motilen und invasiven Phänotyp von Fibroblasten übernehmen, ist dabei eng mit
der Zerstörung der epithelialen Barriere, subepithelialer Fibrose und der Akkumulation von
Myofibroblasten assoziiert, die bei airway remodeling auftreten. Obwohl Wachstumsfaktoren wie der transforming growth factor β (TGF-β) als wichtige Induktoren von EMT gelten, weisen jüngste Ergebnisse auf eine EMT-modifizierende Wirkung von inflammatorischen Mediatoren
hin. Ein Ziel dieser Arbeit war es deshalb, den Effekt der inflammatorischen Zytokine IL-4, IL-
17 und IL-22, die in der Pathogenese von allergischem (IL-4) bzw. nicht-allergischem (IL-17/
-22) Asthma involviert sind, auf die TGF-β induzierte EMT in vitro zu untersuchen. Keines der Zytokine war dabei in der Lage, selbstständig EMT induzieren, allerdings verstärkten und beschleunigten sie den EMT-Prozess in Kombination mit TGF-β, wobei die kombinierte
Stimulation mit allen 3 Zytokinen einen additiven Effekt zeigte. Obwohl die Zytokine allein kurzzeitig die Transkription von EMT-essentiellen Transkriptionsfaktoren förderten, nahm deren Transkriptmenge sowie Proteinabundanz rasch wieder ab. Dieser Effekt wurde durch die zusätzliche Stimulation mit TGF-β jedoch stark verringert, was auf eine essentielle Rolle
des mRNA-stabilisierenden Effektes von TGF-β bei der Induktion von EMT hindeutet.
Obwohl inhalierte Kortikosteroide als goldene Standardtherapie in der Asthmabehandlung gelten, verbleiben 5-10% der Asthmatiker therapieresistent. Desweiteren wird airway
remodeling durch die Langzeit-Behandlung mit Kortikosteroiden nicht unterdrückt, weswegen
neue therapeutische Ansätze entwickelt werden müssen. Naturstoffe mit ihrer strukturellen
Komplexität sowie ihrem breiten Spektrum an biologischen Aktivitäten können dabei als
potentielle Leitstrukturen dienen. In dieser Arbeit wurde das therapeutische Potenzial der Naturstoffe Cyclonerodiol und Oxacyclododecindion bezüglich Asthma-relevanter
Pathomechanismen in vitro untersucht. Cyclonerodiol, das zuvor bereits als Inhibitor des IL-4 Signalweges charakterisiert wurde, hemmte auch den IL-13 Signalweg, der ebenfalls mit
allergischem Asthma assoziiert ist. Auf mRNA- und Proteinebene reduzierte der Naturstoff die Expression inflammatorischer Zytokine und Chemokine, die an der Pathogenese von
allergischem Asthma beteiligt sind. Untersuchungen zum Wirkmechanismus zeigten, dass Cyclonerodiol die Interaktion des Transkriptionsfaktors STAT6 mit den MAP-Kinasen p38
und ERK1/2 und somit die Serin-Phosphorylierung von STAT6 reduziert, wodurch auch die Interaktion mit dem transkriptionellen Coaktivator p300 verringert wird. Oxacyclododecindion,
das bereits als potenter Inhibitor der Expression von inflammatorischen sowie fibrotischen Genen identifiziert wurde, hemmte charakteristische Merkmale von schwerem, Glukokortikoidresistentem
Asthma wie die durch IL-17 induzierte Expression inflammatorischer Gene.
Die Substanz inhibierte zudem die durch TGF-β induzierte EMT wesentlich stärker als das potente Glukokortikoid Dexamethason. Studien zum Wirkmechanismus weisen darauf hin,dass es sich bei Oxacyclododecindion um einen Kinaseinhibitor mit TAK1 als potentieller Zielstruktur handeln könnte.