Doctoral Thesis
Refine
Year of publication
- 2012 (66) (remove)
Document Type
- Doctoral Thesis (66) (remove)
Has Fulltext
- yes (66)
Keywords
- Transaction Costs (2)
- homogene Katalyse (2)
- Acrolein (1)
- Acrylamid (1)
- Additionsreaktion (1)
- Alkine (1)
- Alkylcarbonate (1)
- Amide (1)
- Apoptosis (1)
- Arithmetic data-path (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (22)
- Kaiserslautern - Fachbereich Mathematik (13)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Informatik (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (5)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (3)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Sozialwissenschaften (1)
Dealing with information in modern times involves users to cope with hundreds of thousands of documents, such as articles, emails, Web pages, or News feeds.
Above all information sources, the World Wide Web presents information seekers with great challenges.
It offers more text in natural language than one is capable to read.
The key idea for this research intends to provide users with adaptable filtering techniques, supporting them in filtering out the specific information items they need.
Its realization focuses on developing an Information Extraction system,
which adapts to a domain of concern, by interpreting the contained formalized knowledge.
Utilizing the Resource Description Framework (RDF), which is the Semantic Web's formal language for exchanging information,
allows extending information extractors to incorporate the given domain knowledge.
Because of this, formal information items from the RDF source can be recognized in the text.
The application of RDF allows a further investigation of operations on recognized information items, such as disambiguating and rating the relevance of these.
Switching between different RDF sources allows changing the application scope of the Information Extraction system from one domain of concern to another.
An RDF-based Information Extraction system can be triggered to extract specific kinds of information entities by providing it with formal RDF queries in terms of the SPARQL query language.
Representing extracted information in RDF extends the coverage of the Semantic Web's information degree and provides a formal view on a text from the perspective of the RDF source.
In detail, this work presents the extension of existing Information Extraction approaches by incorporating the graph-based nature of RDF.
Hereby, the pre-processing of RDF sources allows extracting statistical information models dedicated to support specific information extractors.
These information extractors refine standard extraction tasks, such as the Named Entity Recognition, by using the information provided by the pre-processed models.
The post-processing of extracted information items enables representing these results in RDF format or lists, which can now be ranked or filtered by relevance.
Post-processing also comprises the enrichment of originating natural language text sources with extracted information items by using annotations in RDFa format.
The results of this research extend the state-of-the-art of the Semantic Web.
This work contributes approaches for computing customizable and adaptable RDF views on the natural language content of Web pages.
Finally, due to the formal nature of RDF, machines can interpret these views allowing developers to process the contained information in a variety of applications.
Die Zielsetzung dieser Arbeit bestand in der Entwicklung effizienter und nachhaltiger Verfahren zur Addition von N-H Nukleophilen an terminale Alkine und für die Insertion von CO2 in die C-H Bindung terminaler Alkine.
Im ersten Teil dieser Dissertation wurde der Mechanismus der Ruthenium-katalysierten Addition von Amiden an terminale Alkine eingehend durch eine Kombination von Kontrollexperimenten, kinetischen Studien, spektroskopischen Untersuchungen und theoretischen Berechnungen untersucht. Zunächst wurden vier literaturbekannte Katalysezyklen identifiziert, die plausible Mechanismen für die Hydroamidierung terminaler Alkine darstellen. Aufbauend auf nachgewiesenen Elementarschritten chemisch verwandter Reaktionen wurde zusätzlich ein weiterer Mechanismus für die Hydroamidierung abgeleitet. Anschließend wurde eine Reihe von Kontrollexperimenten durchgeführt, mit deren Hilfe einzelne Elementarschritte der Katalysezyklen falsifiziert und somit Mechanismen ausgeschlossen werden konnten. Um herauszufinden, ob die Hydroamidierung mit dem einzig verbliebenen Mechanismus zutreffend beschrieben werden kann, wurden spektroskopische Studien durchgeführt. Diese Untersuchungen wurden vor, während und nach Hydroamidierungstestreaktionen durchgeführt, und auf diese Weise konnten zahlreiche postulierte Intermediate nachgewiesen und der verbleibende Katalysezyklus bekräftigt werden. Die in diesen mechanistischen Studien gewonnenen Erkenntnisse wurden zur Entwicklung einer neuen Katalysatorgeneration mit ausgesprochen hoher Selektivität für die Bildung wertvoller Z-Enamide und Z-Enimide genutzt. Das synthetische Potential wurde zudem durch die Darstellung der biologisch aktiven Naturstoffe Lansiumamid A und B, Lansamid I sowie Botryllamid C und E demonstriert.
Im zweiten Teil dieser Arbeit gelang es, hocheffiziente Silber(I)/DMSO-katalysierte Methoden zur Carboxylierung terminaler Alkine mit CO2 bei Normaldruck zu entwickeln.
Due to their N-glycosidase activity, ribosome-inactivating proteins (RIPs) are attractive candidates as antitumor and antiviral agents in medical and biological research. In the present study, we have successfully cloned two different truncated gelonins into pET-28a(+) vectors and expressed intact recombinant gelonin (rGel), recombinant C-terminally truncated gelonin (rC3-gelonin) and recombinant N- and C-terminally truncated gelonin (rN34C3-gelonin). Biological experiments showed that all these recombinant gelonins have no inhibiting effect on MCF-7 cell lines. These data suggest that the truncated-gelonins are still having a specific structure that does not allow for internalization into cells. Further, truncation of gelonin leads to partial or complete loss of N-glycosidase as well as DNase activity compared to intact rGel. Our data suggest that C-and N-terminal amino acid residues are involved in the catalytic and cytotoxic activities of rGel. In addition, the intact gelonin should be selected as a toxin in the immunoconjugate rather than truncated gelonin.
In the second part, an immunotoxin composed of gelonin, a basic protein of 30 kDa isolated from the Indian plant Gelonium multiflorum and the cytotoxic drug MTX has been studied as a potential tool of gelonin delivery into the cytoplasm of cells. Results of many experiments showed that, on the average, about 5 molecules of MTX were coupled to one molecule of gelonin. The MTX-gelonin conjugate is able to reduce the viability of MCF-7 cell in a dose-dependent manner (ID50, 10 nM) as shown by MTT assay and significantly induce direct and oxidative DNA damage as shown by the alkaline comet assay. However, in-vitro translation toxicity MTX-gelonin conjugates have IC50, 50.5 ng/ml which is less toxic than that of gelonin alone IC50, 4.6 ng/ml. It can be concluded that the positive charge plays an important role in the N-glycosidase activity of gelonin. Furthermore, conjugation of MTX with gelonin through α- and γ- carboxyl groups leads to the partial loss of its anti-folate activity compared to free MTX. These results, taken together, indicate that conjugation of MTX to gelonin permits delivery of the gelonin into the cytoplasm of cancer cells and exerts a measurable toxic effect.
In the third part, we have isolated and characterized two ribosome-inactivating proteins (RIPs) type I, gelonin and GAP31, from seeds of Gelonium multiflorum. Both proteins exhibit RNA-N-glycosidase activity. The amino acid sequences of gelonin and GAP31 were identified by MALDI and ESI mass spectrometry. Gelonin and GAP31 peptides - obtained by proteolytic digestion (trypsin and Arg-C) - are consistent with the amino acid sequence published by Rosenblum and Huang, respectively. Further structural characterization of gelonin and GAP31 (tryptic and Arg-C peptide mapping) showed that the two RIPs have 96% similarity in their sequence. Thus, these two proteins are most probably isoforms arisen from the same gene by alternative splicing. The ESI-MS analysis of gelonin and GAP31 exhibited at least three different post-translational modified forms. A standard plant paucidomannosidic N-glycosylation pattern (GlcNAc2Man2-5Xyl0-1 and GlcNAc2Man6-12Fuc1-2Xyl0-2) was identified using electrospray ionization MS for gelonin on N196 and GAP31 on N189, respectively. Based on these results, both proteins are located in the vacuoles of Gelonium multiflorum seeds.
Große Stegöffnungen werden in Stahlverbundträgern immer dann erforderlich, wenn in Trägerebene Leitungen quer zur Trägerachse geführt werden sollen. Die Attraktivität der Stahlverbundbauweise steigt mit der Möglichkeit, die Tragfähigkeit im Bereich großer Stegöffnungen rechnerisch nachweisen zu können. Bisher war es aber nicht möglich, eine Verstärkung des Betongurtes durch Einbau von Dübelleisten in einem Nachweiskonzept nutzbar zu machen. Bei Dübelleisten handelt es sich um Doppelkopfanker, die in einer Reihe meist auf ein Lochblech aufgeschweißt werden. Sie werden von mehreren Herstellern als Querkraft- und Durchstanzbewehrungselemente vertrieben.
In der vorliegenden Arbeit wird der Einfluss von Dübelleisten auf das Querkrafttragverhalten
des Stahlbetongurts von Verbundträgern im Bereich von großen Stegöffnungen untersucht. Dazu wurden 28 Versuche sowie rechnerische Untersuchungen durchgeführt.
Dabei konnte in einzelnen Versuchen durch den Einsatz von Dübelleisten eine Traglaststeigerung von mehr als 50 % erzielt werden. Unter anderem wurde der Effekt der Querbiegung untersucht, bei dem durch die vertikale Belastung des Betongurts außerhalb der Verbundträgerachse ein negatives Biegemoment in Querrichtung entsteht.
Es wurde ein Nachweiskonzept erarbeitet, mit dem die Querkrafttragfähigkeit eines Betongurts unter Berücksichtigung von im Betongurt angeordneten Dübelleisten wirklichkeitsnah
bestimmt werden kann. Das erstellte Konzept ermöglicht es, bei der Bemessung von Verbundträgern, die durch Stegöffnungen geschwächt sind, durch einen geringen Mehreinsatz von Bewehrung in Form von Dübelleisten eine deutliche Traglaststeigerung zu erzielen. Der Einfluss von Querbiegemomenten wird durch eine konservative Abschätzung der Lasteinzugsfläche berücksichtigt.
Thermoplastic polymer-polymer composites consist of a polymeric matrix and a
polymeric reinforcement. The combination of these materials offers outstanding
mechanical properties at lower weight than standard fiber reinforced materials.
Furthermore, when both polymeric components originate from the same family or,
ideally, from the same polymer, their sustainability degree is higher than standard
fiber reinforced composites.
A challenge of polymer-polymer composites is the subsequent processing of their
semi-finished materials by heating techniques. Since the fibers are made of meltable
thermoplastic, the reinforcing fiber structure might be lost during the heating process.
Hence, the mechanical properties of an overheated polymer-polymer composite
would decline, and finally, they would be even lower than the neat matrix. A decrease
of process temperature to manage the heating challenge is not reasonable since the
cycle time would be increased at the same time. Therefore, this work pursues the
adaption of a fast and selective heating method on the use with polymer-polymer
composites. Inductively activatable particles, so-called susceptors, were distributed in
the matrix to evoke a local heating in the matrix when being exposed to an
alternating magnetic field. In this way, the energy input to the fibers is limited.
The experimental series revealed the induction particle heating effect to be mainly
related to susceptor material, susceptor fraction, susceptor distribution as well as
magnetic field strength, coupling distance, and heating time. A proper heating was
achieved with ferromagnetic particles at a filler content of only 5 wt-% in HDPE as
well as with its respective polymer fiber reinforced composites. The study included
the analysis of susceptor impact on mechanical and thermal matrix properties as well
as a degradation evaluation. The susceptors were identified to have only a marginal
impact on matrix properties. Furthermore, a semi-empiric simulation of the particle
induction heating was applied, which served for the investigation of intrinsic melting
processes.
The achieved results, the experimental as well as the analytic study, were
successfully adapted to a thermoforming process with a polymer-polymer material,
which had been preheated by means of particle induction.
Für einen teilgesättigten Modellboden sind experimentelle Untersuchungen ausgeführt, die sowohl die Teilsättigung des Bodens während der Belastung als auch die zyklischen Einwirkungen unter drainierten Randbedingungen berücksichtigen. Die Teilsättigung ist durch eine Saugspannungsmessung mittels Miniaturtensiometer in einer zyklischen Triaxialzelle und einem statischen Ödometer erfasst. In zahlreichen Laboruntersuchungen konnte eine reproduzierbare Probenaufbereitung nachgewiesen werden. Insbesondere konnte gezeigt werden, dass im Probeninnern des Modellbodens gegenüber den Probenendflächen keine signifikant abweichenden Wassergehalte und somit konstante Anfangssaugspannungen vorliegen. Vor allem bei der Applikation von zyklischen Beanspruchungen zur Ermittlung und numerischen Beschreibung des Materialverhaltens ist dieser Umstand von Bedeutung. Die Messergebnisse sind anschließend zur Modifikation eines elastoplastischen Stoffmodellansatzes herangezogen.
Mit den erzielten Untersuchungsergebnissen konnten die Parameterfunktionen eines elastoplastischen Stoffgesetzansatzes in Abhängigkeit von der Anfangsporenzahl, des Anfangssättigungsgrades sowie des Isotopen Spannungszustandes unter Berücksichtigung der Einflussgrößen aus der zyklischen Beanspruchung, dieses sind die axiale deviatorische Spannungsamplitude und die Lastzyklenzahl, für einen Frequenzbereich von 0,005 - 0,01 Hz über einen Separationsansatz aufgestellt werden. Die Kopplung der Teilsättigung erfolgt dabei über den Sättigungsgrad bzw. den Wassergehalt des Bodens anhand der porenzahlabhängigen Saugspannungscharakteristik (SWCC).
Es konnte gezeigt werden, dass alle untersuchten teilgesättigten Böden in der zyklischen Lastphase durchgehend eine zyklisch-deviatorische Dehnungsverfestigung aufweisen. Ab einer Lastzyklenzahl größer 560 stagnieren die zyklisch bedingten Verformungen und es entsteht ein quasi-stationärer Verformungs- und Porendruckzustand. Dabei zeigen die sogenannten Wechselversuche eine signifikante höhere Verformungs- und Saugspannungsamplitude als die sogenannten Schwellversuche.
Die aufgestellten Beziehungen gelten für einen Wertebereich der Anfangssättigungsgrade größer 82% und der Anfangsporenzahl zwischen 0,52 und 0,64.
This thesis generalizes the Cohen-Lenstra heuristic for the class groups of real quadratic
number fields to higher class groups. A "good part" of the second class group is defined.
In general this is a non abelian proper factor group of the second class group. Properties
of those groups are described, a probability distribution on the set of those groups is in-
troduced and proposed as generalization of the Cohen-Lenstra heuristic for real quadratic
number fields. The calculation of number field tables which contain information about
higher class groups is explained and the tables are compared to the heuristic. The agree-
ment is close. A program which can create an internet database for number field tables is
presented.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung funktionaler Modellsysteme von Bromo- und Chloroperoxidasen zur Oxidation von Bromid und Chlorid unter wasserfreien und nachhaltigen Bedingungen. Die neuen Methoden fanden Anwendung in der Synthese halogenierter O-Heterocyclen, welche häufig als Grundstrukturen von Naturstoffen mit ausgeprägten physiologischen Wirkungen auftreten. Die gewonnenen Erkenntnisse lösten vorhandene Probleme mit Reaktivität und Chemoselektivität in oxidativen Bromierungsreaktionen und trugen zu einem besseren Verständnis der beobachteten Regioselektivitäten in Bromcyclisierungen hochsubstituierter 4-Pentenole bei. Aufbauend auf diesen Ergebnissen konnte erstmalig eine analoge Methode zur oxidativen Chlorcyclisierung für die Darstellung beta-chlorierter Tetrahydrofurane und Tetrahydropyrane entwickelt werden.
Generic layout analysis--process of decomposing document image into homogeneous regions for a collection of diverse document images--has many important applications in document image analysis and understanding such as preprocessing of degraded warped, camera-captured document images, high performance layout analysis of document images containing complex cursive scripts, and word spotting in historical document images at page level. Many areas in this field like generic text line extraction method are considered as elusive goals so far, still beyond the reach of the state-of-the-art methods [NJ07, LSZT07, KB06]. This thesis addresses this problem in such a way that it presents generic, domain-independent, text line extraction and text and non-text segmentation methods, and then describes some important applications, that were developed based on these methods. An overview of the key contributions of this thesis is as follows.
The first part of this thesis presents a generic text line extraction method using a combination of matched filtering and ridge detection techniques, which are commonly used in computer vision. Unlike the state-of-the-art text line extraction methods in the literature, the generic text line extraction method can be equally and robustly applied to a large variety of document image classes including scanned and camera-captured documents, binary and grayscale documents, typed-text and handwritten documents, historical and contemporary documents, and documents containing different scripts. Different standard datasets are selected for performance evaluation that belong to different categories of document images such as the UW-III [GHHP97] dataset of scanned documents, the ICDAR 2007 [GAS07] and the UMD [LZDJ08] datasets of handwritten documents, the DFKI-I [SB07] dataset of camera-captured documents, Arabic/Urdu script documents dataset, and German calligraphic (Fraktur) script historical documents dataset. The generic text line extraction method achieves 86% (n = 23,763 text lines in 650 documents) text line detection accuracy which is better than the aggregate accuracy of 73% of the best performing domain-specific state-of-the-art methods. To the best of the author's knowledge, it is the first general-purpose text line extraction method that can be equally used for a diverse collection of documents.
This thesis also presents an active contour (snake) based curled text line extraction method for warped, camera-captured document images. The presented approach is applied to DFKI-I [SB07] dataset of camera-captured, Latin script document images for curled text line extraction. It achieves above 95% (n = 3,091 text lines in 102 documents) text line detection accuracy, which is significantly better than the competing state-of-the-art curled text line extraction methods. The presented text line extraction method can also be applied to document images containing different scripts like Chinese, Devanagari, and Arabic after small modifications.
The second part of this thesis presents an improved version of the state-of-the-art multiresolution morphology (Leptonica) based text and non-text segmentation method [Blo91], which is a domain-independent page segmentation approach and can be equally applied to a diverse collection of binarized document images. It is demonstrated that the presented improvements result in an increase in segmentation accuracy from 93% to 99% (n = 113 documents).
This thesis also introduces a discriminative learning based approach for page segmentation, where a self-tunable multi-layer perceptron (MLP) classifier [BS10] is trained for distinguishing between text and non-text connected components. Unlike other classification based page segmentation approaches in the literature, the connected components based discriminative learning based approach is faster than pixel based classification methods and does not require a block segmentation method beforehand. A segmentation accuracy of $96\%$ ($n = 113$ documents) is achieved in comparison to the state-of-the-art multiresolution morphology (Leptonica) based page segmentation method [Blo91] that achieves a segmentation accuracy of 93%. In addition to text and non-text segmentation of Latin script documents, the presented approach can also be adapted for document images containing other scripts as well as for other specialized layout analysis tasks such as digit and non-digit segmentation [HBSB12], orientation detection [RBSB09], and body-text and side-note segmentation [BAESB12].
Finally, this thesis presents important applications of the two generic layout analysis techniques, ridge-based text line extraction method and the multi-resolution morphology based text and non-text segmentation method, discussed above. First, a complete preprocessing pipeline is described for removing different types of degradations from grayscale warped, camera-captured document images that includes removal of grayscale degradations such as non-uniform shadows and blurring through binarization, noise cleanup applying page frame detection, and document rectification using monocular dewarping. Each of these preprocessing steps shows significant improvement in comparison to the analyzed state-of-the-art methods in the literature. Second, a high performance layout analysis method is described for complex Arabic script document images written in different languages such as Arabic, Urdu, and Persian and different styles for example Naskh and Nastaliq. The presented layout analysis system is robust against different types of document image degradations and shows better performance for text and non-text segmentation, text line extraction, and reading order determination on a variety of Arabic and Urdu document images as compared to the state-of-the-art methods. It can be used for large scale Arabic and Urdu documents' digitization processes. These applications demonstrate that the layout analysis methods, ridge-based text line extraction and the multi-resolution morphology based text and non-text segmentation, are generic and can be applied easily to a large collection of diverse document images.
Phosphane nehmen eine herausragende Stellung als Liganden in der homogen Katalyse ein. In der Arbeitsgruppe Thiel wurde kürzlich ein neuartiges Verfahren zur Synthese von Triarylphosphanen entwickelt. Im ersten Teil der Arbeit stand daher die Weiterentwicklung dieser fluoridkatalysierten Phosphor-Aryl-Kupplung im Mittelpunkt. Ein wichtiges Ziel hierbei war die Übertragung der Reaktionen in einen größeren Maßstab. In einem Ansatz konnte 1 kg an (4-[3-(N,N-Dimethylamino)prop-2-en-1-onyl]phen-yl)diphenylphosphan in einer Pilotanlage synthetisiert werden. Diese Verbindung diente als „Plattformchemikalie“ und ermöglichte die Synthese weiterer Pyrazol- und Pyrimidinderviate. Insbesondere gelang davon ausgehend die Synthese von Verbindungen, die mit einem Sulfonsäure- oder Hydroxamsäurelinker modifiziert sind.
Im zweiten Teil der Arbeit wurde das Prinzip der fluoridkatalysierten Phosphor-Aryl-Kupplung auf Amine übertragen. Die Motivation dafür ergab sich aus dem Vorkommen des N-Arylheterocyclen-Strukturmotivs in vielen Pharmazeutika. Eine entsprechende Erweiterung der Anwendungsbreite dieses Verfahrens sollte sich daher positiv auf die Vermarktungschancen auswirken. Ausgehend von Versuchen mit Trimethylsilylimidazol und Trimethylsilylpyrrolidin wurde eine milde und allgemein anwendbare Methode für die Synthese von N-Arylaminen entwickelt. Hierbei liegt der Vorteil insbesondere darin, dass auf den stöchiometrischen Einsatz von Basen verzichtet werden kann.
Der Hauptteil der Arbeit beschäftigte sich mit der Immobilisierung von phosphonsäurefunktionalisierten Triphenylphosphankomplexen auf Metalloxiden. Die Immobilisierung von homogenen Katalysatoren auf festen Trägermaterialien bietet großes Potential, um das Problem der Katalysatorabtrennung zu lösen. Der für die Immobilisierung benötigte Ligand 3-[4-(Diphenylphosphanyl)benzoylamino]propyl-1-phosphonsäurediethylester konnte über eine konvergente Synthese mit sieben Schritten synthetisiert werden. Ausgehend von diesem Liganden und dem entsprechenden Phosphonsäurederivat wurden Palladium- und Rhodiumkomplexe synthetisiert. Diese Komplexe wurden auf Titandioxid, Zirconiumdioxid und superparamagnetischen Eisenoxidnanopartikeln immobilisiert. Durch IR-Spektroskopie, thermogravimetrische Analyse und Festkörper-Kernspinresonanzspektroskopie konnte die Anbindung des jeweiligen Komplexes auf dem Trägermaterial belegt werden. Die erhaltenen Hybridmaterialien wurden erfolgreich für die Suzuki-Miyaura-Kupplung und die Hydrierung von Alkenen eingesetzt. Dabei konnten die Katalysatoren mehrfach wiederverwendet werden und zeigten eine gute Aktivität und Anwendungsbreite.