Refine
Year of publication
Document Type
- Doctoral Thesis (1878)
- Preprint (1186)
- Article (735)
- Report (486)
- Periodical Part (296)
- Master's Thesis (255)
- Working Paper (115)
- Conference Proceeding (47)
- Diploma Thesis (35)
- Lecture (25)
Language
- English (3174)
- German (1993)
- Multiple languages (6)
- Spanish (4)
Keywords
- AG-RESY (64)
- PARO (31)
- Stadtplanung (30)
- Erwachsenenbildung (29)
- Organisationsentwicklung (28)
- Schule (26)
- Simulation (25)
- Modellierung (24)
- Mathematische Modellierung (21)
- Visualisierung (21)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (1184)
- Kaiserslautern - Fachbereich Informatik (928)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (588)
- Kaiserslautern - Fachbereich Chemie (433)
- Kaiserslautern - Fachbereich Sozialwissenschaften (351)
- Kaiserslautern - Fachbereich Physik (334)
- Fraunhofer (ITWM) (224)
- Kaiserslautern - Fachbereich Biologie (187)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (171)
- Distance and Independent Studies Center (DISC) (168)
Peroxiredoxine sind Peroxidasen, die in allen Reichen der Lebewesen vorkommen. Sie gehören zu den häufigsten Proteinen in einer Zelle und spielen eine wichtige Rolle im Redox-Metabolimus, dienen als Signalüberträger und können als Chaperone fungieren. Das hier untersuchte Peroxiredoxin 6 aus Plasmodium falciparum (PfPrx6) hat in in vitro Tests bereits eine große Aktivität bei der Reduktion von Hydroperoxiden gezeigt, jedoch keine Reaktion mit gängigen Reduktionspartnern, sodass der Mechanismus der Regeneration aus seiner oxidierten Form bis heute ungeklärt ist. Im Rahmen dieser Arbeit wurde ein PFPRX6-HIS8-GFP-Konstrukt in das Genom des Malariaerregers Plasmodium falciparum integriert. Die Integration konnte hierbei nur auf DNA-Ebene bestätigt werden. In zukünftigen Experimenten muss daher im nächsten Schritt die Anwesenheit des Protein-Konstrukts nachgewiesen werden. Hiernach kann das Konstrukt durch einen Pulldown aus dem Zelllysat isoliert und mithilfe von Massenspektrometrie untersucht werden, mit welchen Proteinen das PfPrx6 interagiert. Findet sich ein geeigneter Kandidat, kann eine folgende in vitro Studie bestätigen oder widerlegen, ob dieser das PfPrx6 effizient reduzieren kann.
Neben Peroxiredoxinen spielen Glutaredoxine (Grx) eine zentrale Rolle in der Homöostase des Redox-Milieus einer Zelle. Trotz großer struktureller Ähnlichkeit zueinander werden sie nach ihrer Funktion in zwei Klassen unterteilt: aktive Klasse 1 Glutaredoxine, welche enzymatisch die Reduktion von oxidierten Zellbestandteilen katalysieren, und redox-inaktive Klasse 2 Glutaredoxine, die wichtig für die Synthese und den Transfer von Eisen-Schwefel-Clustern sind. In vergangenen Studien wurde gezeigt, dass die Reaktion eines Grx mit einem glutathionylierten Substrat nach einem Ping-Pong-Mechanismus verläuft, also in zwei getrennte Schritte unterteilt ist. In der oxidativen Halbreaktion bindet der Gluthathion-Rest des Substrats an die Glutathion-Scaffold-Site („Glutathion-Gerüst-Zentrum“) und transferiert das Glutathion auf das Grx. In der hierauf folgenden reduktiven Halbreaktion bindet ein zweites Molekül reduziertes Glutathion (GSH) in die Glutathion-Activator-Site („Glutathion-Aktivierungs-Zentrum“) und regeneriert unter Freisetzung von oxidiertem Glutathion (GSSG) das reduzierte Glutaredoxin.
In dieser Arbeit wurden Aminosäuren des Klasse 1 ScGrx7 und des Klasse 2 HsGrx5 ausgetauscht, um die Motive zu identifizieren, die ein Grx aktiv oder inaktiv machen. Das Einfügen der Mutationen R152W und R153P in ScGrx7 verlangsamte die oxidative Halbreaktion auf etwa 20 % der Aktivität des Wildtypenzyms, hatte aber keinen Einfluss auf die reduktive Halbreaktion. Somit ist davon auszugehen, dass diese Reste Teil der Glutahion-Scaffold-Site sind. Ein weiterer Unterschied der Grx-Varianten ist eine fünf Aminosäuren lange Schleife im HsGrx5, welche in aktiven Glutaredoxinen fehlt. Es wurde eine ScGrx7loop-Mutante erstellt, die einen Verlust von mehr als 99 % ihrer Aktivität aufweist. Das Ausschneiden dieser fünf Aminosäuren in HsGrx5 konnte hingegen dessen katalytische Funktion aktivieren. Somit konnte gezeigt werden, dass diese Schleife einer der Hauptunterschiede der beiden Glutaredoxinklassen ist und diese als eine Art An- und Ausschalter der katalytischen Aktivität dient.
Durch das Verwenden des redox-sensitiven grün-fluoreszierenden Proteins 2 (roGFP2) als Elektronendonor und Reporterprotein konnte ebenfalls die direkte Reduktion von GSNO, einem Derivat von Glutathion, das hauptsächlich als Stickoxidspeicher gesehen wird, durch PfGrx nachgewiesen werden. Dieses Ergebnis kann auf die Beteiligung von Glutaredoxinen an der NO-Signalkette hinweisen.
RoGFP2 wird bereits in weiten Bereichen der Redox-Forschung eingesetzt. Es besitzt Cysteine an den Stellen 151 und 208, die eine Disulfidbrücke ausbilden können. Je nach Oxidationszustand dieser Cysteine ändert das roGFP2 seine spektralen Eigenschaften. Zuletzt wurde es meist als Reportereinheit in Fusionskonstrukten mit Glutaredoxinen oder Peroxiredoxinen, die als Sensorproteine dienen, eingesetzt. Diese Konstrukte können in zellulären Tests genutzt werden, beispielsweise zur Bestimmung lokaler Peroxidkonzentrationen, zur Untersuchung des Glutathion-Redoxstatus oder als Screening-Methode für Aktivitätsbestimmungen und Struktur-Funktions-Analysen der fusionierten Sensorproteine.
In dieser Arbeit wurde die Reaktion von roGFP2 und Grx aus Plasmodium falciparum (PfGrx) untersucht, sowohl als Fusionskonstrukt, als auch als getrennte Einzelproteine. Um sowohl den Monothiol- als auch den Dithiolmechanismus der Glutaredoxine zu verstehen, wurden die Mutanten PfGrxC32/88S (Monothiol) und PfGrxC88S (Dithiol) erstellt, sowie die roGFP2-Mutanten roGFP2C151S und roGFP2C208S. Es konnte gezeigt werden, dass die Oxidation des roGFP2 nur durch den Übertrag von Glutathion effizient verläuft, wobei der Transfer selbst im Fusionskonstrukt bei großen Substratkonzentrationen geschwindigkeitsbestimmend sein kann. Der Übertrag eines nicht-Glutathion Disulfids von PfGrxC88S auf roGFP2 verläuft nur sehr langsam. In dynamischen in cellulo Tests, die einen solchen Übertrag untersuchen wollen, muss also mit großen Beeinflussungen der Daten durch effizientere, glutathionabhängige Nebenreaktionen gerechnet werden.
Es konnte ebenfalls gezeigt werden, dass die Reduktion von roGFP2 als Disulfidsubstrat sehr langsam verläuft und nur in Anwesenheit von GSH stattfinden kann. Ein Kompetitionstest mit GSMe (S-Methyl-Glutathion) zeigt, dass das Grx hierfür ein Molekül GSH rekrutiert und nicht etwa zufällig durch GSH glutathionylierte Proteine angreift. Obwohl das Dithiol-Grx hierbei effizienter ist, kann auch das Monothiol-Grx auf diese Weise Disulfidsubstrate wie roGFP2 reduzieren.
Die Reduktion der glutathionylierten roGFP2 Monothiol-Mutanten konnte effizient von beiden Grx-Varianten katalysiert werden, auch in Abwesenheit von GSH. PfGrxC88S weist hierbei allerdings eine größere Geschwindigkeit auf. Somit scheint das Cys32 des PfGrx die Konformation des Cys29 und damit dessen Reaktivität zu beeinflussen.
Berufliche Umbrüche sind Teil der Entwicklung eines Menschen. Sie berühren auch seine Persönlichkeit und seine Identität. Wann kann man von gelingender Identitätsentwicklung sprechen? Woran lässt sich diese festmachen? Kann berufsbiografische Diskontinuität einen gelingenden Beitrag zur Identitätsentwicklung darstellen? Und wenn ja, wie? Was bedeutet es, berufliche Umbrüche nicht nur anzunehmen, sondern auch zu gestalten, damit sie einen positiven Beitrag zur Identitätsentwicklung leisten? Welche Faktoren sind dafür förderlich? Und wie sollten diese Erkenntnisse in der erwachsenenbildnerischen Praxis berücksichtigt werden? Die Arbeit nimmt zunächst den Begriff der Identität in den Blick und wendet sich besonders dem Begriff der Anerkennung zu. Nach Betrachtungen zum Zusammenhang von Identität und Erwerbsarbeit sowie einem Überblick über die Phasen von Erwerbsbiografien werden erwachsenenpädagogische Überlegungen angestellt, die für Transitionsprozesse benötigte Kompetenzen ins Zentrum stellen und Konsequenzen für die Arbeit in Einrichtungen der Erwachsenenbildung darstellen.
Der Wärmewende und der Abkehr von fossilen Energieträgern kommt gegenwärtig ein zentraler Stellenwert in der politischen Agenda zu. Die Herausforderung liegt insbesondere darin, Unabhängigkeit von Erdöl und Erdgas liefernden Staaten zu erreichen und klimaschädliche Technologien zu substituieren.
Chancen und Risiken aus Pflanzenverkohlung mittels Pyrolyseheizkesseln wurden im Hinblick auf deren Beitrag im Rahmen verschiedener Themen betrachtet werden. Hier könnte eine Kombination aus fossilfreier Nahwärmeversorgung, Nutzung nachwachsender regionaler Rohstoffe, Sequestrierung von atmosphärischem Kohlenstoff, Einflüsse auf die Qualität landwirtschaftlicher Böden durch Einbringen von Biokohle sinnvoll sein. Konkret wurde dies modellhaft anhand eines Biomasse-Nahwärmeprojekts einer kleinen Kommune in Oberbayern untersucht.
Im Rahmen dieser Arbeit werden Einflüsse dieser Technologie auf Treibhausgasemissionen in der Wärmewende, die Erfüllung von SDG-Indikatoren sowie Möglichkeiten, Pyrolysatoren ökonomisch kompetitiv zu gängigen Biomasseheizkesseln betreiben zu können, untersucht.
In tribology laboratories, the management of material samples and test specimens, the planning and execution of experiments, the evaluation of test data and the longterm storage of results are critical processes. However, despite their criticality, they are carried out manually and typically at a low level of computerization and standardization. Therefore, formats for primary data and aggregated results are wildly different between laboratories, and the interoperability of research data is low. Even within laboratories, low levels of standardization, in combination with ambiguous or non-unique identifiers for data files, test specimens and analysis results greatly reduce data integrity and quality. As a consequence, productivity is low, error rates are high, and the lack or low quality of metadata causes the value of produced data to deteriorate very quickly, which makes the re-use of data, e.g. for data mining and meta studies, practically impossible.
In other fields of science, these are mitigated by the use of Laboratory Information Management Systems (LIMS). However, at the moment, such systems do not exist
in tribological research. The main challenge for the implementation of such a system is that it requires extensive interdisciplinary knowledge from otherwise very
disparate fields: tribology, data and process modelling, quality management, databases and programming. So far, existing solutions are either proprietary, very limited
in their scope or focused on merely storing aggregated results without any support for laboratory operations.
Therefore, this thesis describes fundamentals of information technology, data modelling and programming that are required to build a LIMS for tribology laboratories.
Based on an analysis of a typical workflow of a tribology laboratory, a data model for all relevant entities and processes is designed using object-relational data modelling and object-oriented programming and a relational database is used to provide a reference implementation of such a LIMS. It provides critical functionalities
like a materials database, test specimen management, the planning, execution and evaluation of friction and wear tests, automated procedures for tribometer
parameterization and data transmission, storage and evaluation and for aggregating individual tests into test sets and projects. It improves the quality and long-term usability of data by replacing error-prone human processes by automated variants, e.g. automated collection of metadata and data file transmission, homogenization and storage. The usefulness of the developed LIMS is demonstrated by applying it to Transfer Film Luminance Analysis (TLA), which is a newly developed advanced method for the analysis of the formation and stability of transfer films and their impact on friction and wear, but which produces so much data and requires such a large amount of metadata during evaluation that it can only be performed safely, quickly and reliably by integration into the presented LIMS.
Im Rahmen dieser Arbeit wurden verschiedene Calixarenderivate dargestellt und hinsichtlich ihrer Entgiftungseigenschaften für V-Stoffe getestet. Ziel war es, durch strukturelle Veränderungen eines bekannten Calix[4]arenderivats, dessen Scavengeraktivität zu verbessern. Dafür wurden nacheinander verschiedene Bereiche dieses Derivats verändert und untersucht wie sich diese einzelnen Modifiktationen auf die Entgiftungseigenschaften auswirken.
The production of nylon-6.6 is one of the largest scale syntheses in industrial chemistry. The standard procedure is based on an energy consuming low-level conversion of cyclohexane to yield adipic acid in two steps that is converted to nylon-6.6 in a separate step. Therefore, there is a strong intent to optimize the synthetic route in an economic and ecologic matter. In this work, we present a one-pot oxygenation of cyclohexane with hydrogen peroxide and a µ4-oxido-copper cluster catalyst to yield dicarboxylic acids with adipic acid as the main product.
A translation contract is a binary predicate corrTransl(S,T) for source programs S and target programs T. It precisely specifies when T is considered to be a correct translation of S. A certifying compiler generates --in addittion to the target T-- a proof for corrTransl(S,T). Certifying compilers are important for the development of safety critical systems to establish the behavioral equivalence of high-level programs with their compiled assembler code. In this paper, we report on a certifying compiler, its proof techniques, and the underlying formal framework developed within the proof assistent Isabelle/HOL. The compiler uses a tiny C-like language as input, has an optimization phase, and generates MIPS code. The underlying translation contract is based on a trace semantics. We investigate design alternatives and discuss our experiences.
Most software systems are described in high-level model or programming languages. Their runtime behavior, however, is determined by the compiled code. For uncritical software, it may be sufficient to test the runtime behavior of the code. For safety-critical software, there is an additional aggravating factor resulting from the fact that the code must satisfy the formal specification which reflects the safety policy of the software consumer and that the software producer is obliged to demonstrate that the code is correct with respect to the specification using formal verification techniques. In this scenario, it is of great importance that static analyses and formal methods can be applied on the source code level, because this level is more abstract and better suited for such techniques. However, the results of the analyses and the verification can only be carried over to the machine code level, if we can establish the correctness of the translation. Thus, compilation is a crucial step in the development of software systems and formally verified translation correctness is essential to close the formalization chain from high-level formal methods to the machine-code level. In this thesis, I propose an approach to certifying compilers which achieves the aim of closing the formalization chain from high-level formal methods to the machine-code level by applying techniques from mathematical logic and programming language semantics. I propose an approach called foundational translation validation (FTV) in which the software producer implements an FTV system comprising a compiler and a specification and verification framework (SVF) which is implemented in higher-order logic (HOL). The most important part of the SVF is an explicit translation contract which comprises the formalizations of the source and the target languages of the compiler and the formalization of a binary translation correctness predicate corrTrans(S,T) for source programs S and target programs T. The formalizations of the languages are realized as deep embeddings in HOL. This enables one to declare the whole program in a formalized language as a HOL constant. The predicate formally specifies when T is considered to be a correct translation of S. Its definition is explicitly based on the program semantics definitions provided by the translation contract. Subsequent to the translation, the compiler translates the source and the target programs into their syntactic representations as HOL constants, S and T, and generates a proof of corrTrans(S,T). We call a compiler which follows the FTV approach a proof generating compiler. Our approach borrows the idea of representing programs in correctness proofs as logic constants from the foundational proof-carrying code (FPCC) approach. Novel features that distinquish our approach from further approaches to certifying compilers, such as proof-carrying code (PCC) and translation validation (TV) are the following: Firstly, the presence of an explicit translation contract formalized in HOL: The approaches PCC and TV do not formalize a translation contract explicitly. Instead of this, they incorporate operational semantics and translation correctness criterion in translation validation tools on the programming language level. Secondly, representation of programs in correctness proofs as logic constants: The approaches PCC and the TV translate programs into their representations as semantic abstractions that serve as inputs for translation validation tools. Thirdly, certification of program transformation chains: Unlike the TV approach, which certifies single program transformations, the FTV approach achieves the aim of certifying whole chains of program transformations. This is possible due to the fact that the translation contract provides, for all programming languages involved in the program transformation chain, definitions of program semantics functions which map programs to mathematical objects that are elements of a set with an (at least) partial order "<=". Then, the proof makes use of the fact that the relation "<=" is transitive. In this thesis, the feasibility of the FTV approach is exemplified by the implementation of an FTV system. The system comprises a compiler front-end that certifies its optimization phase and an accompanying SVF that is implemented in the theorem prover Isabelle/HOL. The compiler front-end translates programs in a small C-like programming language, performs three optimizations: constant folding, dead assignment elimination, and loop invariant hoisting, and generates translation certificates in the form of Isabelle/HOL theories. The main focus of the thesis is on the description of the SVF and its translation verification techniques.
Robotic systems are entering the stage. Enabled by advances in both hardware components and software techniques, robots are increasingly able to operate outside of factories, assist humans, and work alongside them. The limiting factor of robots’ expansion remains the programming of robotic systems. Due to the many diverse skills necessary to build a multi-robot system, only the biggest organizations are able to innovate in the space of services provided by robots.
To make developing new robotic services easier, in this dissertation I propose a program- ming model in which users (programmers) give a declarative specification of what needs to be accomplished, and then a backend system makes sure that the specification is safely and reliably executed. I present Antlab, one such backend system. Antlab accepts Linear Temporal Logic (LTL) specifications from multiple users and executes them using a set of robots of different capabilities.
Building on the experience acquired implementing Antlab, I identify problems arising from the proposed programming model. These problems fall into two broad categories, specification and planning.
In the category of specification problems, I solve the problem of inferring an LTL formula from sets of positive and negative example traces, as well as from a set of positive examples only. Building on top of these solutions, I develop a method to help users transfer their intent into a formal specification. The approach taken in this dissertation is combining the intent signals from a single demonstration and a natural language description given by a user. A set of candidate specifications is inferred by encoding the problem as a satisfiability problem for propositional logic. This set is narrowed down to a single specification through interaction with the user; the user approves or declines generated simulations of the robot’s behavior in different situations.
In the category of planning problems, I first solve the problem of planning for robots that are currently executing their tasks. In such a situation, it is unclear what to take as the initial state for planning. I solve the problem by considering multiple, speculative initial states. The paths from those states are explored based on a quality function that repeatedly estimates the planning time. The second problem is a problem of reinforcement learning when the reward function is non-Markovian. The proposed solution consists of iteratively learning an automaton representing the reward function and using it to guide the exploration.
Diese Arbeit beschäftigt sich mit der Ergebnisverarbeitung (Result-Set-Processing) im Projekt META-AKAD. Das materialisierte Anfrageergebnis, dient als Grundlage für die Ausführung von Meta-Queries. Für die Schnittstelle zum Web-Tier wurden zwei unterschiedliche Implementierungen (zustandslos und zustandsbehaftet) zur Verfügung gestellt und miteinander vergliechen.