Refine
Year of publication
- 2015 (146) (remove)
Document Type
- Doctoral Thesis (100)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Bachelor Thesis (2)
- Conference Proceeding (2)
- Article (1)
- Lecture (1)
- Moving Images (1)
Has Fulltext
- yes (146)
Keywords
- Beam-on time (2)
- Decomposition cardinality (2)
- Field splitting (2)
- Hochschulforschung (2)
- Intensity modulated radiation therapy (2)
- Multileaf collimator sequencing (2)
- NURBS (2)
- Regionalentwicklung (2)
- Stadtplanung (2)
- finite element method (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Kaiserslautern - Fachbereich Informatik (22)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (22)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (9)
- Universität (7)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
- Fraunhofer (ITWM) (3)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Kaiserslautern - Fachbereich ARUBI (1)
In this thesis we extend the worst-case modeling approach as first introduced by Hua and Wilmott (1997) (option pricing in discrete time) and Korn and Wilmott (2002) (portfolio optimization in continuous time) in various directions.
In the continuous-time worst-case portfolio optimization model (as first introduced by Korn and Wilmott (2002)), the financial market is assumed to be under the threat of a crash in the sense that the stock price may crash by an unknown fraction at an unknown time. It is assumed that only an upper bound on the size of the crash is known and that the investor prepares for the worst-possible crash scenario. That is, the investor aims to find the strategy maximizing her objective function in the worst-case crash scenario.
In the first part of this thesis, we consider the model of Korn and Wilmott (2002) in the presence of proportional transaction costs. First, we treat the problem without crashes and show that the value function is the unique viscosity solution of a dynamic programming equation (DPE) and then construct the optimal strategies. We then consider the problem in the presence of crash threats, derive the corresponding DPE and characterize the value function as the unique viscosity solution of this DPE.
In the last part, we consider the worst-case problem with a random number of crashes by proposing a regime switching model in which each state corresponds to a different crash regime. We interpret each of the crash-threatened regimes of the market as states in which a financial bubble has formed which may lead to a crash. In this model, we prove that the value function is a classical solution of a system of DPEs and derive the optimal strategies.
Im Verlauf dieser Dissertation konnte gezeigt werden, dass eine erhöhte Expression des tonoplastidären Dicarboxylat Transporters zu einem erhöhten Gehalt an Malat bei gleichzeitig vermindertem Citratgehalt in den Überexpressions-Pflanzen führt. Somit konnte, ähnlich wie in den k.o.-Pflanzen, ein reziprokes Verhalten von Citrat und Malat aufgezeigt werden.
Elektrophysiologische Analysen an Oozyten von X. laevis in Zusammenhang mit Aufnahmeversuchen an Proteoliposomen zeigten weiterhin, dass der Transport von Citrat ebenfalls durch den TDT katalysiert wird. Anhand eines negativen Einwärts-Strom an Oozyten konnte gezeigt werden, dass dieser Citrat-Transport elektrogen ist. Weiterhin konnte gezeigt werden, dass Citrat2-H die transportierte Form von Citrat darstellt. Dieses wird vermutlich zusammen mit drei Protonen transportiert.
Die Dianionen Malat und Succinat, sowie höchstwahrscheinlich auch Fumarat, werden ebenfalls über den TDT transportiert. Unter Standardbedingungen werden diese in die Vakuole importiert. Im Gegenzug wird Citrat aus der Vakuole exportiert. Die trans-stimulierende Wechselwirkung von Malat, Succinat und Fumarat auf den Citrat Transport und vice versa bestärkt den in dieser Arbeit postulierten Antiport der jeweiligen Carboxylate über den Tonoplasten. Dieser ist jedoch nicht obligat, was an dem verringerten Transport von Citrat ohne Gegensubstrat über die Membran gezeigt werden konnte.
Unter Trockenstress und osmotischen Stress konnte ebenfalls gezeigt werden, dass die erhöhte Expression des TDT maßgeblich an der Akkumulation von Malat und der Mobilisierung von Citrat unter den genannten Stressbedingungen beteiligt ist.
Letztlich konnte mittels Säurestressexperimenten nachgewiesen werden, dass die Malatakkumulation, bei gleichzeitigem Citrat Abbau nicht zwingend miteinander gekoppelt sind, unter Säurestress müssen daher weitere regulatorische Effekte auf den Malat-Import bzw. den Citrat-Export vorherrschen.
This dissertation focuses on the visualization of urban microclimate data sets,
which describe the atmospheric impact of individual urban features. The application
and adaptation of visualization and analysis concepts to enhance the
insight into observational data sets used this specialized area are explored, motivated
through application problems encountered during active involvement
in urban microclimate research at the Arizona State University in Tempe, Arizona.
Besides two smaller projects dealing with the analysis of thermographs
recorded with a hand-held device and visualization techniques used for building
performance simulation results, the main focus of the work described in
this document is the development of a prototypic tool for the visualization
and analysis of mobile transect measurements. This observation technique involves
a sensor platform mounted to a vehicle, which is then used to traverse
a heterogeneous neighborhood to investigate the relationships between urban
form and microclimate. The resulting data sets are among the most complex
modes of in-situ observations due to their spatio-temporal dependence, their
multivariate nature, but also due to the various error sources associated with
moving platform observations.
The prototype enables urban climate researchers to preprocess their data,
to explore a single transect in detail, and to aggregate observations from multiple
traverses conducted over diverse routes for a visual delineation of climatic
microenvironments. Extending traditional analysis methods, the suggested visualization
tool provides techniques to relate the measured attributes to each
other and to the surrounding land cover structure. In addition to that, an
improved method for sensor lag correction is described, which shows the potential
to increase the spatial resolution of measurements conducted with slow
air temperature sensors.
In summary, the interdisciplinary approach followed in this thesis triggers
contributions to geospatial visualization and visual analytics, as well as to urban
climatology. The solutions developed in the course of this dissertation are
meant to support domain experts in their research tasks, providing means to
gain a qualitative overview over their specific data sets and to detect patterns,
which can then be further analyzed using domain-specific tools and methods.
The present research combines different paradigm in the area of visual perception of letter and words. These experiments aimed to understand the deficit underlying the problem associated with the faulty visual processing of letters and words. The present work summarizes the findings from two different types of population: (1) Dyslexics (reading-disabled children) and (2) Illiterates (adults who cannot read). In order to compare the results, comparisons were made between literate and illiterate group; dyslexics and control group (normal reading children). Differences for Even related potentials (ERP’s) between dyslexics and control children were made using mental rotation task for letters. According to the ERP’s, the effect of the mental rotation task of letter perception resulted as a delayed positive component and the component becomes less positive when the task becomes more difficult (Rotation related Negativity – RRN). The component was absent for dyslexics and present for controls. Dyslexics also showed some late effects in comparison to control children and this could be interpreted as problems at the decision stage where they are confused as to the letter is normal or mirrored. Dyslexics also have problems in responding to the letters having visual or phonological similarities (e.g. b vs d, p vs q). Visually similar letters were used to compare dyslexics and controls on a symmetry generalization task in two different contrast conditions (low and high). Dyslexics showed a similar pattern of response, and were overall slower in responding to the task compared to controls. The results were interpreted within the framework of the Functional Coordination Deficit (Lachmann, 2002). Dyslexics also showed delayed response in responding to the word recognition task during motion. Using red background decreases the Magnocellular pathway (M-pathway) activity, making more difficult to identify letters and this effect was worse for dyslexics because their M-pathway is weaker. In dyslexics, the M-pathway is worse; using a red background decreases the M activity and increases the difficulty in identifying lexical task in motion. This effect generated worse response to red compared to the green background. The reaction times with red were longer than those with green background. Further, Illiterates showed an analytic approach to responding to letters as well as on shapes. The analytic approach does not result from an individual capability to read, but is a primary base of visual organization or perception.
Today's ubiquity of visual content as driven by the availability of broadband Internet, low-priced storage, and the omnipresence of camera equipped mobile devices conveys much of our thinking and feeling as individuals and as a society. As a result the growth of video repositories is increasing at enourmous rates with content now being embedded and shared through social media. To make use of this new form of social multimedia, concept detection, the automatic mapping of semantic concepts and video content has to be extended such that concept vocabularies are synchronized with current real-world events, systems can perform scalable concept learning with thousands of concepts, and high-level information such as sentiment can be extracted from visual content. To catch up with these demands the following three contributions are made in this thesis: (i) concept detection is linked to trending topics, (ii) visual learning from web videos is presented including the proper treatment of tags as concept labels, and (iii) the extension of concept detection with adjective noun pairs for sentiment analysis is proposed.
In order for concept detection to satisfy users' current information needs, the notion of fixed concept vocabularies has to be reconsidered. This thesis presents a novel concept learning approach built upon dynamic vocabularies, which are automatically augmented with trending topics mined from social media. Once discovered, trending topics are evaluated by forecasting their future progression to predict high impact topics, which are then either mapped to an available static concept vocabulary or trained as individual concept detectors on demand. It is demonstrated in experiments on YouTube video clips that by a visual learning of trending topics, improvements of over 100% in concept detection accuracy can be achieved over static vocabularies (n=78,000).
To remove manual efforts related to training data retrieval from YouTube and noise caused by tags being coarse, subjective and context-depedent, this thesis suggests an automatic concept-to-query mapping for the retrieval of relevant training video material, and active relevance filtering to generate reliable annotations from web video tags. Here, the relevance of web tags is modeled as a latent variable, which is combined with an active learning label refinement. In experiments on YouTube, active relevance filtering is found to outperform both automatic filtering and active learning approaches, leading to a reduction of required label inspections by 75% as compared to an expert annotated training dataset (n=100,000).
Finally, it is demonstrated, that concept detection can serve as a key component to infer the sentiment reflected in visual content. To extend concept detection for sentiment analysis, adjective noun pairs (ANP) as novel entities for concept learning are proposed in this thesis. First a large-scale visual sentiment ontology consisting of 3,000 ANPs is automatically constructed by mining the web. From this ontology a mid-level representation of visual content – SentiBank – is trained to encode the visual presence of 1,200 ANPs. This novel approach of visual learning is validated in three independent experiments on sentiment prediction (n=2,000), emotion detection (n=807) and pornographic filtering (n=40,000). SentiBank is shown to outperform known low-level feature representations (sentiment prediction, pornography detection) or perform comparable to state-of-the art methods (emotion detection).
Altogether, these contributions extend state-of-the-art concept detection approaches such that concept learning can be done autonomously from web videos on a large-scale, and can cope with novel semantic structures such as trending topics or adjective noun pairs, adding a new dimension to the understanding of video content.
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
(2015)
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
Daptomycin ist ein cyclisches Lipopeptidantibiotikum, das zur Behandlung schwerer gram-positiver Infektionen entwickelt wurde. Daptomycin weißt in vitro eine schnelle Aktivität gegen klinisch signifikante Stämme gram-positiver Pathogene auf. Außerdem ist die Aktivität von Daptomycin abhängig von der physiologischen Calciumkonzentration. Es wird postuliert, dass in einem ersten Schritt die Calciumionen mit dem Antibiotikum interagieren und dieser Komplex dadurch positiv geladen ist. Somit kann es an negativ geladene Membranen, die Phosphatidylglycerol enthalten, binden. In einem nächsten Schritt interagiert der hydrophobe Schwanz des Daptomycins als Anker, da dieser in wässriger Lösung einen hohen \(\Delta\)G-Wert besitzt und dieser dadurch erniedrigt wird. Schließlich nimmt die Fluidität der Membran ab und durch den Kollaps des Membranpotentials findet ein Zusammenbruch verschiedener Zellfunktionen statt.
Die Versuche wurden zum größten Teil an Liposomen als Modelmembranen durchgeführt. Dabei wurden zwei Liposomensysteme genutzt. Einerseits Liposomen die aus Avanti Polar Lipid Mix bestanden und durch Behandlung mit Ultraschall hergestellt wurden. Andererseits wurden Liposomen aus Bakterien hergestellt. Zudem wurden kompette Bakterienzellen untersucht.
Der bakterielle Wachstum wurde durch UV/VIS-Spekroskopie gemessen. Veränderungen in der Fluidität der Membran wurden mittels ESR-Spektroskopie festgestellt. Die Morphologie wurde mittels Elektronenmikroskopie und Rasterkraftmikroskopie aufgenommen. Zusätzlich wurde ein Leakage Assay durchgeführt.
Zusammenfassend lässt sich sagen, dass bei den ESR-Untersuchungen eine Änderung der Fluidität gemessen wurde. Aufgrund der Ergebnisse verschiedener Spinlabel lag allerdings die Vermutung nahe, dass sich bei Daptomycin keine diskrete Pore ausbildet, sondern es zur Krümmung der Membran kommt was schließlich zum Aufplatzen der Zelle führt. Deshalb wurden im weiteren Messungen am Elektronenmikroskop sowie am Rasterkraftmikroskop durchgeführt, um Rückschlüsse auf die Morphologie machen zu können. Diese Messungen bestätigten die obige These, dass sich keine Pore ausbildet sondern es zur Krümmung der Membranoberfläche kommt.
Bei Autoimmunerkrankungen richtet der Körper Autoantikörper gegen körpereigene Strukturen. Bei Myasthenia gravis sind es Antikörper, die gegen Strukturen der postsynaptischen Membran im Bereich der neuromuskulären Endplatte gerichtet sind. Hierbei richten sich diese gegen Acetylcholinrezeptoren, die als Transmembrankanäle bei der Signalweiterleitung fungieren.
In früheren Arbeiten konnte unter anderem Hossann gentechnisch die \(\alpha\)-Untereinheit des Acetylcholinrezeptors mit dem Ribosomeninaktivierenden Protein Gelonin koppeln, es lag hier allerdings eine niedrige Löslichkeit vor und das Fusionsprotein lies sich nur schwer zurückfalten.
In diesem Teil der Arbeit wurde die Cytotoxizität von Gelonin mittels Zellkuturexperimenten untersucht, ein von Li zur Verfügung gestelltes Plasmid mit der \(\alpha\)-Untereinheit des Acetylcholinrezeptors, fusioniert an den der Löslichkeitstag MBP, überprüft. Außerdem sollte ein Plasmid kloniert werden, das für ein Fusionsprotein aus MBP-Gelonin-Achetylcholinrezeptor codiert. Hierbei versprach man sich durch den zusätzlichen MBP-Tag eine höhere Löslichkeit.
Der Cytotoxizitätstest wurde durchgeführt, da in der Literatur teils widersprüchliche Ergebnisse veröffentlicht wurden, bestätigte aber, dass Gelonin als ein Typ I RIP ohne Membrandomäne keine Cytotoxizität aufweißt.
Das Plasmid MBP-Achetylcholinrezeptor wurde in E. coli Zelllen transformiert, das Protein exprimiert und mittels Amylosesäule und HiTrap-Säule isoliert. Es besahs eine hohe Löslichkeit und lag in gefalteter Form in Lösung vor.
Die zur Synthese des MBP-Gelonin-Acetylcholinrezeptors-Konjugats notwendigen Plasmide waren im Arbeitskreis vorhanden. Das Plasmid pET-gel codierte für Gelonin und die DNA-Sequenz für die \(\alpha\)-Untereinheit des Acetylcholinrezeptors war bereits in den pAChRex-Vektor einkloniert. Der Löslichkeitstag MBP war im Plasmid pmal-c5x enthalten.
Auf Basis dieser Plasmide wurde eine Klonierungsstrategie entwickelt und in Teilen durchgeführt.
Die hier vorgelegte Arbeit konzentrierte sich auf den vakuolären Ribonukleinsäure- (RNA) Abbau in Arabidopsis thaliana (A. thaliana) und die Integration in den Nukleotid- Metabolismus unter Berücksichtigung von Nukleosidtransportprozessen. Insbesondere die physiologische Bedeutung des Verlustes der RNS2-Aktivität auf die vakuolären RNA-Abbauprozesse sollte untersucht werden. Es konnte gezeigt werden, dass RNS2 den größten Anteil an der vakuolären Ribonuklease- (RNase-) Aktivität ausmacht, wobei die Restaktivität von circa 30 Prozent ein Hinweis auf mindestens eine weitere vakuoläre RNase ist. Die vakuolären Adenylatgehalte, Abbauprodukte der RNA, in RNS2-T-DNA-Insertionslinien zeigten, dass RNS2, ähnlich wie die intrazellulären RNasen in L. esculentum, 2‘,3‘-zyklische Nukleotidmonophosphate (2‘,3‘-cNMPs) produzieren. Ferner konnte gezeigt werden, dass in diesen Linien die vakuolären Enzyme sowohl RNA, als auch 2‘,3‘-cNMPs langsamer abbauen als vakuoläre Enzyme aus Wildtyp-Pflanzen. Die Akkumulation dieses zyklischen Intermediates des RNA-Abbaus lässt darauf schließen, dass die Transphosphorylierung schneller verläuft als die Hydrolyse (Abel & Glund, 1987; Löffler et al., 1992; Nürnberger et al., 1990). Es kann angenommen werden, dass ein weiteres Enzym, wie etwa eine zyklische Phosphodiesterase oder eine weitere Ribonuklease, an der Hydrolyse beteiligt ist. Ein weiterer Abschnitt dieser Arbeit beschäftigt sich mit der wichtigen Frage der Qualität von Vakuolenisolationen. Protoplastenkontaminationen konnten mikroskopisch ausgeschlossen werden. Die chloroplastidäre Verunreinigung war mit circa 5 Prozent gering, die cytosolische Kontamination lag jedoch je nach Isolationsmethode bei bis zu 30 Prozent im Vergleich zu Protoplasten. Es konnte darüber hinaus erstmals durch fluoreszenzmikroskopische Untersuchungen gezeigt werden, dass Vakuolen RNA besitzen. Diese Oligonukleotide sind vornehmlich kleine Fragmente im Größenbereich bis 50 nt.
Next Generation Sequencing ermöglichte eine detaillierte Analyse von cDNA- Bibliotheken, gewonnen aus vakuolärer RNA. Diese Technik wurde unter anderem angewandt, um die Reliabilität des Experimentes zu untersuchen. Es zeigte sich eine große Varianz in der Verteilung der Counts auf die verschiedenen RNA-Loci innerhalb biologischer Replikate und unterschiedlicher Vakuolenisolationsmethoden. Erstmals konnte jedoch gezeigt werden, dass circa 70 Prozent der RNA-Fragmente in der
Vakuole von mRNA stammen. Darüber hinaus gibt es Hinweise, dass der Abbau der wenigen rRNA-Transkripte in diesem Organell verstärkt abläuft.
In A. thaliana existiert mit ENT7 lediglich ein Vertreter, der einen Export von RNA- Abbauprodukten aus der Zelle ermöglicht. Da er den namensgebenden Vertretern aus dem Reich der Säugetiere strukturell und funktionell ähnelt, ist ENT7 ein geeignetes ENT-Protein für zukünftige Kristallisations- und Strukturanalysen. In dieser Arbeit konnte ENT7-eGFP in Pichia pastoris mit großer Ausbeute (2 mg Protein pro Liter Hefekultur) synthetisiert und in stabiler Form gereinigt werden. Es konnte gezeigt werden, dass ENT7 ohne eGFP ebenfalls stabil und als Dimer vorliegt. Durch Bindungsstudien erfolgte der Nachweis der erfolgreichen Bindung an bekannte Substrate. Darüber hinaus stellte sich heraus, dass neben Nukleosiden auch Nukleobasen, aber nicht ATP gebunden werden.
The last couple of years have marked the entire field of information technology with the introduction of a new global resource, called data. Certainly, one can argue that large amounts of information and highly interconnected and complex datasets were available since the dawn of the computer and even centuries before. However, it has been only a few years since digital data has exponentially expended, diversified and interconnected into an overwhelming range of domains, generating an entire universe of zeros and ones. This universe represents a source of information with the potential of advancing a multitude of fields and sparking valuable insights. In order to obtain this information, this data needs to be explored, analyzed and interpreted.
While a large set of problems can be addressed through automatic techniques from fields like artificial intelligence, machine learning or computer vision, there are various datasets and domains that still rely on the human intuition and experience in order to parse and discover hidden information. In such instances, the data is usually structured and represented in the form of an interactive visual representation that allows users to efficiently explore the data space and reach valuable insights. However, the experience, knowledge and intuition of a single person also has its limits. To address this, collaborative visualizations allow multiple users to communicate, interact and explore a visual representation by building on the different views and knowledge blocks contributed by each person.
In this dissertation, we explore the potential of subjective measurements and user emotional awareness in collaborative scenarios as well as support flexible and user- centered collaboration in information visualization systems running on tabletop displays. We commence by introducing the concept of user-centered collaborative visualization (UCCV) and highlighting the context in which it applies. We continue with a thorough overview of the state-of-the-art in the areas of collaborative information visualization, subjectivity measurement and emotion visualization, combinable tabletop tangibles, as well as browsing history visualizations. Based on a new web browser history visualization for exploring user parallel browsing behavior, we introduce two novel user-centered techniques for supporting collaboration in co-located visualization systems. To begin with, we inspect the particularities of detecting user subjectivity through brain-computer interfaces, and present two emotion visualization techniques for touch and desktop interfaces. These visualizations offer real-time or post-task feedback about the users’ affective states, both in single-user and collaborative settings, thus increasing the emotional self-awareness and the awareness of other users’ emotions. For supporting collaborative interaction, a novel design for tabletop tangibles is described together with a set of specifically developed interactions for supporting tabletop collaboration. These ring-shaped tangibles minimize occlusion, support touch interaction, can act as interaction lenses, and describe logical operations through nesting operations. The visualization and the two UCCV techniques are each evaluated individually capturing a set of advantages and limitations of each approach. Additionally, the collaborative visualization supported by the two UCCV techniques is also collectively evaluated in three user studies that offer insight into the specifics of interpersonal interaction and task transition in collaborative visualization. The results show that the proposed collaboration support techniques do not only improve the efficiency of the visualization, but also help maintain the collaboration process and aid a balanced social interaction.
Lithium-ion batteries are broadly used nowadays in all kinds of portable electronics, such as laptops, cell phones, tablets, e-book readers, digital cameras, etc. They are preferred to other types of rechargeable batteries due to their superior characteristics, such as light weight and high energy density, no memory effect, and a big number of charge/discharge cycles. The high demand and applicability of Li-ion batteries naturally give rise to the unceasing necessity of developing better batteries in terms of performance and lifetime. The aim of the mathematical modelling of Li-ion batteries is to help engineers test different battery configurations and electrode materials faster and cheaper. Lithium-ion batteries are multiscale systems. A typical Li-ion battery consists of multiple connected electrochemical battery cells. Each cell has two electrodes - anode and cathode, as well as a separator between them that prevents a short circuit.
Both electrodes have porous structure composed of two phases - solid and electrolyte. We call macroscale the lengthscale of the whole electrode and microscale - the lengthscale at which we can distinguish the complex porous structure of the electrodes. We start from a Li-ion battery model derived on the microscale. The model is based on nonlinear diffusion type of equations for the transport of Lithium ions and charges in the electrolyte and in the active material. Electrochemical reactions on the solid-electrolyte interface couple the two phases. The interface kinetics is modelled by the highly nonlinear Butler-Volmer interface conditions. Direct numerical simulations with standard methods, such as the Finite Element Method or Finite Volume Method, lead to ill-conditioned problems with a huge number of degrees of freedom which are difficult to solve. Therefore, the aim of this work is to derive upscaled models on the lengthscale of the whole electrode so that we do not have to resolve all the small-scale features of the porous microstructure thus reducing the computational time and cost. We do this by applying two different upscaling techniques - the Asymptotic Homogenization Method and the Multiscale Finite Element Method (MsFEM). We consider the electrolyte and the solid as two self-complementary perforated domains and we exploit this idea with both upscaling methods. The first method is restricted only to periodic media and periodically oscillating solutions while the second method can be applied to randomly oscillating solutions and is based on the Finite Element Method framework. We apply the Asymptotic Homogenization Method to derive a coupled macro-micro upscaled model under the assumption of periodic electrode microstructure. A crucial step in the homogenization procedure is the upscaling of the Butler-Volmer interface conditions. We rigorously determine the asymptotic order of the interface exchange current densities and we perform a comprehensive numerical study in order to validate the derived homogenized Li-ion battery model. In order to upscale the microscale battery problem in the case of random electrode microstructure we apply the MsFEM, extended to problems in perforated domains with Neumann boundary conditions on the holes. We conduct a detailed numerical investigation of the proposed algorithm and we show numerical convergence of the method that we design. We also apply the developed technique to a simplified two-dimensional Li-ion battery problem and we show numerical convergence of the solution obtained with the MsFEM to the reference microscale one.
Zur Untersuchung der Zell-Topographie-Interaktionen werden im Rahmen dieser Arbeit zwei Arten von Mikrostrukturen mittels Direktem Laser Schreiben erzeugt, einerseits Pfosten unterschiedlicher Abstände und andererseits Pfosten-Steg-Strukturen mit unterschiedlicher Steghöhe. Auf diesen Topographien werden die untersuchten Zellen ausgesät und ihr Verhalten mit Zeitrafferaufnahmen über einen Zeitraum von 24 h beobachtet. Aus den Zellkoordinaten und den daraus erhaltenen Zellpfaden wird das Migrationsverhalten der Zellen im Hinblick auf den lenkenden Einfluss der betrachteten Topographie analysiert.
Das Ziel dieser Dissertation ist die Entwicklung und Implementation eines Algorithmus zur Berechnung von tropischen Varietäten über allgemeine bewertete Körper. Die Berechnung von tropischen Varietäten über Körper mit trivialer Bewertung ist ein hinreichend gelöstes Problem. Hierfür kombinieren die Autoren Bogart, Jensen, Speyer, Sturmfels und Thomas eindrucksvoll klassische Techniken der Computeralgebra mit konstruktiven Methoden der konvexer Geometrie.
Haben wir allerdings einen Grundkörper mit nicht-trivialer Bewertung, wie zum Beispiel den Körper der \(p\)-adischen Zahlen \(\mathbb{Q}_p\), dann stößt die konventionelle Gröbnerbasentheorie scheinbar an ihre Grenzen. Die zugrundeliegenden Monomordnungen sind nicht geeignet um Problemstellungen zu untersuchen, die von einer nicht-trivialen Bewertung auf den Koeffizienten abhängig sind. Dies führte zu einer Reihe von Arbeiten, welche die gängige Gröbnerbasentheorie modifizieren um die Bewertung des Grundkörpers einzubeziehen.\[\phantom{newline}\]
In dieser Arbeit präsentieren wir einen alternativen Ansatz und zeigen, wie sich die Bewertung mittels einer speziell eingeführten Variable emulieren lässt, so dass eine Modifikation der klassischen Werkzeuge nicht notwendig ist.
Im Rahmen dessen wird Theorie der Standardbasen auf Potenzreihen über einen Koeffizientenring verallgemeinert. Hierbei wird besonders Wert darauf gelegt, dass alle Algorithmen bei polynomialen Eingabedaten mit ihren klassischen Pendants übereinstimmen, sodass für praktische Zwecke auf bereits etablierte Softwaresysteme zurückgegriffen werden kann. Darüber hinaus wird die Konstruktion des Gröbnerfächers sowie die Technik des Gröbnerwalks für leicht inhomogene Ideale eingeführt. Dies ist notwendig, da bei der Einführung der neuen Variable die Homogenität des Ausgangsideal gebrochen wird.\[\phantom{newline}\]
Alle Algorithmen wurden in Singular implementiert und sind als Teil der offiziellen Distribution erhältlich. Es ist die erste Implementation, welches in der Lage ist tropische Varietäten mit \(p\)-adischer Bewertung auszurechnen. Im Rahmen der Arbeit entstand ebenfalls ein Singular Paket für konvexe Geometrie, sowie eine Schnittstelle zu Polymake.
Konzeptionelle Studien der letzten Jahre deuten darauf hin, dass für eine Verwurzelung von Nachhaltigkeit in modernen Unternehmen eine Veränderung der Denkweise der Unternehmensentscheidungsträger notwendig ist. Dabei werden Verantwortung und nachhaltiges Handeln nicht ausschließlich als Instrumente zur Erreichung ökonomischer Ziele eingesetzt, sondern bilden, verankert in der persönlichen Spiritualität, fundamentale Prinzipien und eigenständige Werte. Ziel der vorliegenden Arbeit ist es deshalb, die Zusammenhänge zwischen Spiritualität und unternehmerischer Nachhaltigkeit zu beleuchten. Mit Hilfe von sechs halbstrukturierten Interviews mit GründerInnen und Un-ternehmensführerInnen kleiner und mittlerer Unternehmen des Dienstleistungssektors untersuchte die Autorin, inwiefern die Spiritualität der UnternehmerInnen einen Einfluss auf nachhaltige Entscheidungen in ihren Unternehmen hat. Sie konnte herausfinden, dass Werte und Ansichten, die die individuelle Spiritualität der UnternehmerInnen ausdrücken, als Motivation für nachhaltiges unternehmerisches Handeln dienen können. Überdies identifizierte sie einzelne Werte und Ansichten, die als Treiber für einzelne Dimensionen der Nachhaltigkeit fungieren. Weiterhin entwickelte sie ein Modell, das sowohl persönliche Werte und Ansichten als Teil der Spiritualität, als auch die in der Literatur diskutierten Konzepte Spiritualität am Arbeitsplatz und spirituelle Führung integriert. Dieses Modell kann als Grundlage für weitere Forschung im Kontext von Spiritualität und unternehmerische Nachhaltigkeit dienen. Die Ergebnisse implizieren, dass in Bildung und Gesellschaft verankerte Aktivitäten zur Unterstützung von Spiritualität eine nachhaltige Entwicklung innerhalb und außerhalb von Unternehmen vorantreiben können.
Attention-awareness is a key topic for the upcoming generation of computer-human interaction. A human moves his or her eyes to visually attends to a particular region in a scene. Consequently, he or she can process visual information rapidly and efficiently without being overwhelmed by vast amount of information from the environment. Such a physiological function called visual attention provides a computer system with valuable information of the user to infer his or her activity and the surrounding environment. For example, a computer can infer whether the user is reading text or not by analyzing his or her eye movements. Furthermore, it can infer with which object he or she is interacting by recognizing the object the user is looking at. Recent developments of mobile eye tracking technologies enable us
to capture human visual attention in ubiquitous everyday environments. There are various types of applications where attention-aware systems may be effectively incorporated. Typical examples are augmented reality (AR) applications such as Wikitude which overlay virtual information onto physical objects. This type of AR application presents augmentative information of recognized objects to the user. However, if it presents information of all recognized objects at once, the over
ow of information could be obtrusive to the user. As a solution for such a problem, attention-awareness can be integrated into a system. If a
system knows to which object the user is attending, it can present only the information of
relevant objects to the user.
Towards attention-aware systems in everyday environments, this thesis presents approaches
for analysis of user attention to visual content. Using a state-of-the-art wearable eye tracking device, one can measure the user's eye movements in a mobile scenario. By capturing the user's eye gaze position in a scene and analyzing the image where the eyes focus, a computer can recognize the visual content the user is currently attending to. I propose several image analysis methods to recognize the user-attended visual content in a scene image. For example, I present an application called Museum Guide 2.0. In Museum Guide 2.0, image-based object recognition and eye gaze analysis are combined together to recognize user-attended objects in a museum scenario. Similarly, optical character recognition
(OCR), face recognition, and document image retrieval are also combined with eye gaze analysis to identify the user-attended visual content in respective scenarios. In addition to Museum Guide 2.0, I present other applications in which these combined frameworks are effectively used. The proposed applications show that the user can benefit from active information presentation which augments the attended content in a virtual environment with
a see-through head-mounted display (HMD).
In addition to the individual attention-aware applications mentioned above, this thesis
presents a comprehensive framework that combines all recognition modules to recognize the user-attended visual content when various types of visual information resources such as text, objects, and human faces are present in one scene. In particular, two processing strategies are proposed. The first one selects an appropriate image analysis module according to the user's current cognitive state. The second one runs all image analysis modules simultaneously and merges the analytic results later. I compare these two processing strategies in terms of user-attended visual content recognition when multiple visual information resources are present in the same scene.
Furthermore, I present novel interaction methodologies for a see-through HMD using eye gaze input. A see-through HMD is a suitable device for a wearable attention-aware system for everyday environments because the user can also view his or her physical environment
through the display. I propose methods for the user's attention engagement estimation with the display, eye gaze-driven proactive user assistance functions, and a method for interacting
with a multi-focal see-through display.
Contributions of this thesis include:
• An overview of the state-of-the-art in attention-aware computer-human interaction
and attention-integrated image analysis.
• Methods for the analysis of user-attended visual content in various scenarios.
• Demonstration of the feasibilities and the benefits of the proposed user-attended visual content analysis methods with practical user-supportive applications.
• Methods for interaction with a see-through HMD using eye gaze.
• A comprehensive framework for recognition of user-attended visual content in a complex
scene where multiple visual information resources are present.
This thesis opens a novel field of wearable computer systems where computers can understand the user attention in everyday environments and provide with what the user wants. I will show the potential of such wearable attention-aware systems for everyday
environments for the next generation of pervasive computer-human interaction.
Today’s pervasive availability of computing devices enabled with wireless communication and location- or inertial sensing capabilities is unprecedented. The number of smartphones sold worldwide are still growing and increasing numbers of sensor enabled accessories are available which a user can wear in the shoe or at the wrist for fitness tracking, or just temporarily puts on to measure vital signs. Despite this availability of computing and sensing hardware the merit of application seems rather limited regarding the full potential of information inherent to such senor deployments. Most applications build upon a vertical design which encloses a narrowly defined sensor setup and algorithms specifically tailored to suit the application’s purpose. Successful technologies, however, such as the OSI model, which serves as base for internet communication, have used a horizontal design that allows high level communication protocols to be run independently from the actual lower-level protocols and physical medium access. This thesis contributes to a more horizontal design of human activity recognition systems at two stages. First, it introduces an integrated toolchain to facilitate the entire process of building activity recognition systems and to foster sharing and reusing of individual components. At a second stage, a novel method for automatic integration of new sensors to increase a system’s performance is presented and discussed in detail.
The integrated toolchain is built around an efficient toolbox of parametrizable components for interfacing sensor hardware, synchronization and arrangement of data streams, filtering and extraction of features, classification of feature vectors, and interfacing output devices and applications. The toolbox emerged as open-source project through several research projects and is actively used by research groups. Furthermore, the toolchain supports recording, monitoring, annotation, and sharing of large multi-modal data sets for activity recognition through a set of integrated software tools and a web-enabled database.
The method for automatically integrating a new sensor into an existing system is, at its core, a variation of well-established principles of semi-supervised learning: (1) unsupervised clustering to discover structure in data, (2) assumption that cluster membership is correlated with class membership, and (3) obtaining at a small number of labeled data points for each cluster, from which the cluster labels are inferred. In most semi-supervised approaches, however, the labels are the ground truth provided by the user. By contrast, the approach presented in this thesis uses a classifier trained on an N-dimensional feature space (old classifier) to provide labels for a few points in an (N+1)-dimensional feature space which are used to generate a new, (N+1)-dimensional classifier. The different factors that make a distribution difficult to handle are discussed, a detailed description of heuristics designed to mitigate the influences of such factors is provided, and a detailed evaluation on a set of over 3000 sensor combinations from 3 multi-user experiments that have been used by a variety of previous studies of different activity recognition methods is presented.
In this contribution a mortar-type method for the coupling of non-conforming NURBS surface patches is proposed. The connection of non-conforming patches with shared degrees of freedom requires mutual refinement, which propagates throughout the whole patch due to the tensor-product structure of NURBS surfaces. Thus, methods to handle non-conforming meshes are essential in NURBS-based isogeometric analysis. The main objective of this work is to provide a simple and efficient way to couple the individual patches of complex geometrical models without altering the variational formulation. The deformations of the interface control points of adjacent patches are interrelated with a master-slave relation. This relation is established numerically using the weak form of the equality of mutual deformations along the interface. With the help of this relation the interface degrees of freedom of the slave patch can be condensated out of the system. A natural connection of the patches is attained without additional terms in the weak form. The proposed method is also applicable for nonlinear computations without further measures. Linear and geometrical nonlinear examples show the high accuracy and robustness of the new method. A comparison to reference results and to computations with the Lagrange multiplier method is given.
The central topic of this thesis is Alperin's weight conjecture, a problem concerning the representation theory of finite groups.
This conjecture, which was first proposed by J. L. Alperin in 1986, asserts that for any finite group the number of its irreducible Brauer characters coincides with the number of conjugacy classes of its weights. The blockwise version of Alperin's conjecture partitions this problem into a question concerning the number of irreducible Brauer characters and weights belonging to the blocks of finite groups.
A proof for this conjecture has not (yet) been found. However, the problem has been reduced to a question on non-abelian finite (quasi-) simple groups in the sense that there is a set of conditions, the so-called inductive blockwise Alperin weight condition, whose verification for all non-abelian finite simple groups implies the blockwise Alperin weight conjecture. Now the objective is to prove this condition for all non-abelian finite simple groups, all of which are known via the classification of finite simple groups.
In this thesis we establish the inductive blockwise Alperin weight condition for three infinite series of finite groups of Lie type: the special linear groups \(SL_3(q)\) in the case \(q>2\) and \(q \not\equiv 1 \bmod 3\), the Chevalley groups \(G_2(q)\) for \(q \geqslant 5\), and Steinberg's triality groups \(^3D_4(q)\).
Im Rahmen dieser Arbeit konnten 4-Pyrrolidin-1,8-naphthalimidomethylphenyl-N-tert-butylnitron (PNIMPN, 11), 4-Pyrrolidin-1,8-naphthalimidophenyl-N-tert-butylnitron (PNIPN, 34), 4-Pyrrolidin-1,8-naphthalimidomethyl-N-tert-butylnitron (PNIMN, 29) und das cyclische 4-Pyrrolidin-1,8-naphthalimidoethylpiperazin-N-oxid (PNIEPO, 24) synthetisiert werden. Die Synthese des 4-Pyrrolidin-1,8-naphthalimidophenyl-α-methyl-N-tert-butylnitron (21), ein Nitron mit einer α-Methyl-Gruppe zur Stabilitätserhöhung der gebildeten Radikale, wurde nicht erreicht. Diese Verbindungen ermöglichen die Identifizierung gebildeter Radikale, mittels ESR-Untersuchungen und gleichzeitig deren Entstehungsort innerhalb der Zelle, mittels in vitro-Messungen mit einem konfokalen Laser-Scanning-Mikroskop (c-LSM). Dies beruht auf der Tatsache, dass die Nitrone fluoreszierend, aber ESR-inaktiv sind und nach der Reaktion mit Radikalen, ein persistentes Radikal bilden, welches nun keine Fluoreszenz aufweist, allerdings ESR-aktiv ist.
Die ESR spektroskopischen Untersuchungen ergaben, dass die Verbindungen 24, 29 und 34, analog zum bereits von S. Hauck untersuchten p-Nitrostilbennitron, spin trapping-Eigenschaften besitzen. Der Nachweis und die Detektion von Hydroxyl-Addukten nach Arbeiten von Mitchell konnte nicht nachgewiesen werden. Als Grund kann eine zu geringe Enzymaktivität der eingesetzten Xanthinoxidase und/oder eine geringer Stabilität der radikalischen Addukte aufgeführt werden. Spätere Untersuchungen von A. Karbach unterstützen diese Annahmen.
Messungen der Absorptionsmaxima der Verbindungen zeigten keine erwartete bathochrome Verschiebung nach Vergrößerung des π-Elektronensystems. Dies könnte durch eine mögliche sterische Hinderung der Rotation um die Imidbindung zurückzuführen sein. Kraftfeld- und ab initio-Berechnungen müssen dies noch bestätigen. Das PNIMPN (11) zeigt einen ungewöhnlichen „Pump-Effekt“ bei diesen Messungen. Dabei steigert sich die Intensität der Fluoreszenz bei einer Anregungswellenlänge von 488 nm, wenn zuvor mit 405 nm angeregt wurde. Dieser Effekt ist ebenfalls in Umgekehrter Reihenfolge zu beobachten. Genauere Untersuchungen zu dieser Beobachtung wurden nicht durchgeführt.
Bei der Zytotoxizitätsmessung mittels des SRB-Tests, wurde festgestellt, dass alle synthetisierten Verbindungen innerhalb des eingesetzten Konzentrationsbereiches atoxisch für die verwendeten Zelllinien sind. Eine Ausnahme bildet hierbei, PNIMN (29) ist in einem Konzentrationsbereich ab 25 µM sehr toxisch.
Alle getesteten Verbindungen akkumulieren vorwiegend in den Mitochondrien der Zellen, wodurch sie sich für die Untersuchung und Detektion von ROS innerhalb der Atmungskette eignen. PNIMN (29) und PNIEPO (24) akkumulieren zudem in den nucleoli im Zellkern.
Die Versuche zur in vitro Fluoreszenzlöschung mittels c-LSM, dass alle Verbindungen eine Löschung der Fluoreszenz, nach Zugabe von Atmungsketteninhibitoren (Rotenon und Antimycin A), zeigen, die deutlich rascher erfolgt im Vergleich mit den bleaching Experimenten.
Die Arbeiten im Rahmen des vorliegenden Projektes beschäftigen sich im Wesentlichen mit der Synthese neuartiger Liganden auf Pyrimidinbasis. Der Abstand zwischen dem aromatischen Grundgerüst und weiterer Donorzentren – hier Phosphane – wird dabei so angepasst, dass für die zu insertierenden Zentralmetalle kooperative Effekte erwartet werden können. Mögliche Anwendungen werden erprobt.
Maltose binding protein (MBP) is a monomeric, two domain protein containing 370 amino acids. Seven double cysteine mutants of maltose binding protein (MBP) were generated with one each in the active cleft at position 298 and the second cysteine distributed over both domains of the protein. These cysteines were spin labeled and distances between the labels in biradical pairs determined by pulsed double electron–electron resonance (DEER) measurements. The values were compared with
theoretical predictions of distances between the labels in biradicals constructed by molecular modeling from the crystal structure of MBP without maltose and were found to be in excellent agreement.
MBP is in a molten globule state at pH 3.3 and is known to still bind its substrate maltose.
The ligand-binding affinity of the molten globule and the native states of MBP was studied by isothermal titration calorimetry. Ligand binding affinity measured by isothermal titration calorimetry for the native state of MBP was found to be comparable to that from the literature.
Simultaneous measurements to investigate the molten globule state of MBP were implemented, including the use of far-and near-UV CD and the 8-anilino-1-naphthalene sulfonate (ANS) binding employing fluorescence techniques. Guanidine hydrochloride, urea and thermal denaturation studies have been carried out to compare the stability of the two states of maltose binding protein.
In cw- experiments, the X-band EPR measurements at low temperature confirm indirect that all distances of the biradicals are above 20 Å, otherwise no evidence of dipolar interactions in the immobilized spectra were observed.
DEER measurements of MBP in a molten globule state were yielding a broad distance distribution as was to be expected if there is no explicit tertiary structure and the individual helices pointing into all possible directions.
Specification of asynchronous circuit behaviour becomes more complex as the
complexity of today’s System-On-a-Chip (SOC) design increases. This also causes
the Signal Transition Graphs (STGs) – interpreted Petri nets for the specification
of asynchronous circuit behaviour – to become bigger and more complex, which
makes it more difficult, sometimes even impossible, to synthesize an asynchronous
circuit from an STG with a tool like petrify [CKK+96] or CASCADE [BEW00].
It has, therefore, been suggested to decompose the STG as a first step; this
leads to a modular implementation [KWVB03] [KVWB05], which can reduce syn-
thesis effort by possibly avoiding state explosion or by allowing the use of library
elements. A decomposition approach for STGs was presented in [VW02] [KKT93]
[Chu87a]. The decomposition algorithm by Vogler and Wollowski [VW02] is based
on that of Chu [Chu87a] but is much more generally applicable than the one in
[KKT93] [Chu87a], and its correctness has been proved formally in [VW02].
This dissertation begins with Petri net background described in chapter 2.
It starts with a class of Petri nets called a place/transition (P/T) nets. Then
STGs, the subclass of P/T nets, is viewed. Background in net decomposition
is presented in chapter 3. It begins with the structural decomposition of P/T
nets for analysis purposes – liveness and boundedness of the net. Then STG
decomposition for synthesis from [VW02] is described.
The decomposition method from [VW02] still could be improved to deal with
STGs from real applications and to give better decomposition results. Some
improvements for [VW02] to improve decomposition result and increase algorithm
efficiency are discussed in chapter 4. These improvement ideas are suggested in
[KVWB04] and some of them are have been proved formally in [VK04].
The decomposition method from [VW02] is based on net reduction to find
an output block component. A large amount of work has to be done to reduce
an initial specification until the final component is found. This reduction is not
always possible, which causes input initially classified as irrelevant to become
relevant input for the component. But under certain conditions (e.g. if structural
auto-conflicts turn out to be non-dynamic) some of them could be reclassified as
irrelevant. If this is not done, the specifications become unnecessarily large, which
intern leads to unnecessarily large implemented circuits. Instead of reduction, a
new approach, presented in chapter 5, decomposes the original net into structural
components first. An initial output block component is found by composing the
structural components. Then, a final output block component is obtained by net
reduction.
As we cope with the structure of a net most of the time, it would be useful
to have a structural abstraction of the net. A structural abstraction algorithm
[Kan03] is presented in chapter 6. It can improve the performance in finding an
output block component in most of the cases [War05] [Taw04]. Also, the structure
net is in most cases smaller than the net itself. This increases the efficiency of the
decomposition algorithm because it allows the transitions contained in a node of
the structure graph to be contracted at the same time if the structure graph is
used as internal representation of the net.
Chapter 7 discusses the application of STG decomposition in asynchronous
circuit design. Application to speed independent circuits is discussed first. Af-
ter that 3D circuits synthesized from extended burst mode (XBM) specifications
are discussed. An algorithm for translating STG specifications to XBM specifi-
cations was first suggested by [BEW99]. This algorithm first derives the state
machine from the STG specification, then translates the state machine to XBM
specification. An XBM specification, though it is a state machine, allows some
concurrency. These concurrencies can be translated directly, without deriving
all of the possible states. An algorithm which directly translates STG to XBM
specifications, is presented in chapter 7.3.1. Finally DESI, a tool to decompose
STGs and its decomposition results are presented.
In some processes for spinning synthetic fibers the filaments are exposed to highly turbulent air flows to achieve a high degree of stretching (elongation). The quality of the resulting filaments, namely thickness and uniformity, is thus determined essentially by the aerodynamic force coming from the turbulent flow. Up to now, there is a gap between the elongation measured in experiments and the elongation obtained by numerical simulations available in the literature.
The main focus of this thesis is the development of an efficient and sufficiently accurate simulation algorithm for the velocity of a turbulent air flow and the application in turbulent spinning processes.
In stochastic turbulence models the velocity is described by an \(\mathbb{R}^3\)-valued random field. Based on an appropriate description of the random field by Marheineke, we have developed an algorithm that fulfills our requirements of efficiency and accuracy. Applying a resulting stochastic aerodynamic drag force on the fibers then allows the simulation of the fiber dynamics modeled by a random partial differential algebraic equation system as well as a quantization of the elongation in a simplified random ordinary differential equation model for turbulent spinning. The numerical results are very promising: whereas the numerical results available in the literature can only predict elongations up to order \(10^4\) we get an order of \(10^5\), which is closer to the elongations of order \(10^6\) measured in experiments.
The goal of this work is to develop statistical natural language models and processing techniques
based on Recurrent Neural Networks (RNN), especially the recently introduced Long Short-
Term Memory (LSTM). Due to their adapting and predicting abilities, these methods are more
robust, and easier to train than traditional methods, i.e., words list and rule-based models. They
improve the output of recognition systems and make them more accessible to users for browsing
and reading. These techniques are required, especially for historical books which might take
years of effort and huge costs to manually transcribe them.
The contributions of this thesis are several new methods which have high-performance computing and accuracy. First, an error model for improving recognition results is designed. As
a second contribution, a hyphenation model for difficult transcription for alignment purposes
is suggested. Third, a dehyphenation model is used to classify the hyphens in noisy transcription. The fourth contribution is using LSTM networks for normalizing historical orthography.
A size normalization alignment is implemented to equal the size of strings, before the training
phase. Using the LSTM networks as a language model to improve the recognition results is
the fifth contribution. Finally, the sixth contribution is a combination of Weighted Finite-State
Transducers (WFSTs), and LSTM applied on multiple recognition systems. These contributions
will be elaborated in more detail.
Context-dependent confusion rules is a new technique to build an error model for Optical
Character Recognition (OCR) corrections. The rules are extracted from the OCR confusions
which appear in the recognition outputs and are translated into edit operations, e.g., insertions,
deletions, and substitutions using the Levenshtein edit distance algorithm. The edit operations
are extracted in a form of rules with respect to the context of the incorrect string to build an
error model using WFSTs. The context-dependent rules assist the language model to find the
best candidate corrections. They avoid the calculations that occur in searching the language
model and they also make the language model able to correct incorrect words by using context-
dependent confusion rules. The context-dependent error model is applied on the university of
Washington (UWIII) dataset and the Nastaleeq script in Urdu dataset. It improves the OCR
results from an error rate of 1.14% to an error rate of 0.68%. It performs better than the
state-of-the-art single rule-based which returns an error rate of 1.0%.
This thesis describes a new, simple, fast, and accurate system for generating correspondences
between real scanned historical books and their transcriptions. The alignment has many challenges, first, the transcriptions might have different modifications, and layout variations than the
original book. Second, the recognition of the historical books have misrecognition, and segmentation errors, which make the alignment more difficult especially the line breaks, and pages will
not have the same correspondences. Adapted WFSTs are designed to represent the transcription. The WFSTs process Fraktur ligatures and adapt the transcription with a hyphenations
model that allows the alignment with respect to the varieties of the hyphenated words in the line
breaks of the OCR documents. In this work, several approaches are implemented to be used for
the alignment such as: text-segments, page-wise, and book-wise approaches. The approaches
are evaluated on German calligraphic (Fraktur) script historical documents dataset from “Wan-
derungen durch die Mark Brandenburg” volumes (1862-1889). The text-segmentation approach
returns an error rate of 2.33% without using a hyphenation model and an error rate of 2.0%
using a hyphenation model. Dehyphenation methods are presented to remove the hyphen from
the transcription. They provide the transcription in a readable and reflowable format to be used
for alignment purposes. We consider the task as classification problem and classify the hyphens
from the given patterns as hyphens for line breaks, combined words, or noise. The methods are
applied on clean and noisy transcription for different languages. The Decision Trees classifier
returns better performance on UWIII dataset and returns an accuracy of 98%. It returns 97%
on Fraktur script.
A new method for normalizing historical OCRed text using LSTM is implemented for different texts, ranging from Early New High German 14th - 16th centuries to modern forms in New
High German applied on the Luther bible. It performed better than the rule-based word-list
approaches. It provides a transcription for various purposes such as part-of-speech tagging and
n-grams. Also two new techniques are presented for aligning the OCR results and normalize the
size by using adding Character-Epsilons or Appending-Epsilons. They allow deletion and insertion in the appropriate position in the string. In normalizing historical wordforms to modern
wordforms, the accuracy of LSTM on seen data is around 94%, while the state-of-the-art combined rule-based method returns 93%. On unseen data, LSTM returns 88% and the combined
rule-based method returns 76%. In normalizing modern wordforms to historical wordforms, the
LSTM delivers the best performance and returns 93.4% on seen data and 89.17% on unknown
data.
In this thesis, a deep investigation has been done on constructing high-performance language
modeling for improving the recognition systems. A new method to construct a language model
using LSTM is designed to correct OCR results. The method is applied on UWIII and Urdu
script. The LSTM approach outperforms the state-of-the-art, especially for unseen tokens
during training. On the UWIII dataset, the LSTM returns reduction in OCR error rates from
1.14% to 0.48%. On the Nastaleeq script in Urdu dataset, the LSTM reduces the error rate
from 6.9% to 1.58%.
Finally, the integration of multiple recognition outputs can give higher performance than a
single recognition system. Therefore, a new method for combining the results of OCR systems is
explored using WFSTs and LSTM. It uses multiple OCR outputs and votes for the best output
to improve the OCR results. It performs better than the ISRI tool, Pairwise of Multiple Sequence and it helps to improve the OCR results. The purpose is to provide correct transcription
so that it can be used for digitizing books, linguistics purposes, N-grams, and part-of-speech
tagging. The method consists of two alignment steps. First, two recognition systems are aligned
using WFSTs. The transducers are designed to be more flexible and compatible with the different symbols in line and page breaks to avoid the segmentation and misrecognition errors.
The LSTM model then is used to vote the best candidate correction of the two systems and
improve the incorrect tokens which are produced during the first alignment. The approaches
are evaluated on OCRs output from the English UWIII and historical German Fraktur dataset
which are obtained from state-of-the-art OCR systems. The Experiments show that the error
rate of ISRI-Voting is 1.45%, the error rate of the Pairwise of Multiple Sequence is 1.32%, the
error rate of the Line-to-Page alignment is 1.26% and the error rate of the LSTM approach has
the best performance with 0.40%.
The purpose of this thesis is to contribute methods providing correct transcriptions corresponding to the original book. This is considered to be the first step towards an accurate and
more effective use of the documents in digital libraries.
Stadtumbau und Kultur
(2015)
Gerade in schrumpfenden Kommunen erscheint es als besonders
wichtig, die Realität des Schrumpfens, die damit verbundenen Verlusterfahrungen und notwendigen städtischen Umbauprozesse mit anderen Mitteln und über neue Zugänge besser verständlich zu machen und Betroffene zu aktivieren. In letzter Zeit werden hierfür
vermehrt auch künstlerische Ausdrucksformen genutzt. Basierend auf eigenen Erfahrungen des Autors ist es zentrales Anliegen der Arbeit, den Gegenstand solcher kulturellen Prozesse im Stadtumbau als Forschungsgegenstand aufzurufen und genauer zu untersuchen.
Eine deutschlandweite Befragung der Stadtumbaukommunen liefert erstmals statistisches Material zum Thema, das dann in vier vertiefenden Fallstudien anschaulich wird. Für die Planungspraxis werden mögliche Aktionsfelder katalogisiert und Anwendungsprinzipien
abgeleitet. Am Ende wird deutlich, dass Kunst und Kultur nicht schmückendes Beiwerk der Planung sondern ein eigenständiger Bestandteil im Stadtumbauprozess sein können.
Spin and orbital magnetic moments of isolated single molecule magnets and transition metal clusters
(2015)
In the present work, magnetic moments of isolated Single Molecule Magnets (SMMs) and transition
metal clusters were investigated. Gas phase X‐ray Magnetic Circular Dichroism (XMCD) in
combination with sum rule analysis served to separate the total magnetic moments of the
investigated species into their spin and orbital contributions. Two different mass spectrometry based
setups were used for the presented investigations on transition metal clusters (GAMBIT‐setup) and
on single molecule magnets (NanoClusterTrap). Both experiments were coupled to the UE52‐PGM
beamline at the BESSY II synchrotron facility (Helmholtz Zentrum Berlin) which provided the
necessary polarized X‐ray photons. The investigation of the given compounds as isolated molecules
in the gas phase enabled a determination of their intrinsic magnetic properties void of any influences
of e.g. a surrounding bulk or supporting surface
In the digital era we live in, users can access an abundance of digital resources in their daily life. These digital resources can be located on the user's devices, in traditional repositories such as intranets or digital libraries, but also in open environments such as the World Wide Web.
To be able to efficiently work with this abundance of information, users need support to get access to the resources that are relevant to them. Access to digital resources can be supported in various ways. Whether we talk about technologies for browsing, searching, filtering, ranking, or recommending resources: what they all have in common is that they depend on the available information (i.e., resources and metadata). The accessibility of digital resources that meet a user's information need, and the existence and quality of metadata is crucial for the success of any information system.
This work focuses on how social media technologies can support the access to digital resources. In contrast to closed and controlled environments where only selected users have the rights to contribute digital resources and metadata, and where this contribution involves a social process of formal agreement of the relevant stakeholders, potentially any user can easily create and provide information in social media environments. This usually leads to a larger variety of resources and metadata, and allows for dynamics that would otherwise hardly be possible.
Most information systems still mainly rely on traditional top-down approaches where only selected stakeholders can contribute information. The main idea of this thesis is an approach that allows for introducing the characteristics of social media environments in such traditional contexts. The requirements for such an approach are being examined, as well as the benefits and potentials it can provide.
The ALOE infrastructure was developed according to the identified requirements and realises a Social Resource and Metadata Hub. Case studies and evaluation results are provided to show the impact of the approach on the user's behaviours and the creation of digital resources and metadata, and to justify the presented approach.
Lithium-ion batteries are increasingly becoming an ubiquitous part of our everyday life - they are present in mobile phones, laptops, tools, cars, etc. However, there are still many concerns about their longevity and their safety. In this work we focus on the simulation of several degradation mechanisms on the microscopic scale, where one can resolve the active materials inside the electrodes of the lithium-ion batteries as porous structures. We mainly study two aspects - heat generation and mechanical stress. For the former we consider an electrochemical non-isothermal model on the spatially resolved porous scale to observe the temperature increase inside a battery cell, as well as to observe the individual heat sources to assess their contributions to the total heat generation. As a result from our experiments, we determined that the temperature has very small spatial variance for our test cases and thus allows for an ODE formulation of the heat equation.
The second aspect that we consider is the generation of mechanical stress as a result of the insertion of lithium ions in the electrode materials. We study two approaches - using small strain models and finite strain models. For the small strain models, the initial geometry and the current geometry coincide. The model considers a diffusion equation for the lithium ions and equilibrium equation for the mechanical stress. First, we test a single perforated cylindrical particle using different boundary conditions for the displacement and with Neumann boundary conditions for the diffusion equation. We also test for cylindrical particles, but with boundary conditions for the diffusion equation in the electrodes coming from an isothermal electrochemical model for the whole battery cell. For the finite strain models we take in consideration the deformation of the initial geometry as a result of the intercalation and the mechanical stress. We compare two elastic models to study the sensitivity of the predicted elastic behavior on the specific model used. We also consider a softening of the active material dependent on the concentration of the lithium ions and using data for silicon electrodes. We recover the general behavior of the stress from known physical experiments.
Some models, like the mechanical models we use, depend on the local values of the concentration to predict the mechanical stress. In that sense we perform a short comparative study between the Finite Element Method with tetrahedral elements and the Finite Volume Method with voxel volumes for an isothermal electrochemical model.
The spatial discretizations of the PDEs are done using the Finite Element Method. For some models we have discontinuous quantities where we adapt the FEM accordingly. The time derivatives are discretized using the implicit Backward Euler method. The nonlinear systems are linearized using the Newton method. All of the discretized models are implemented in a C++ framework developed during the thesis.
Es gibt vielfache Ansätze, die mechanischen Eigenschaften von Werkstoffen zu verbessern, wobei in den meisten Fällen mit einer Erhöhung der quasistatischen Festigkeit eine Verringerung der Duktilität einhergeht. Bei ultrafeinkörnigen Werkstoffen ist diese Verringerung des Verformungsvermögens, aufgrund des dominierenden Verfestigungsmechanismus der Korngrenzenverfestigung, nicht zwangsläufig die Folge. Bei der Forschung mit Werkstoffen, die eine sehr kleine Korngröße aufweisen, stellt dieser Aspekt die Hauptmotivation dar.
Im Rahmen der aktuellen Arbeit wurden mehrere ultrafeinkörnige Modifikationen des Vergütungsstahles C45 mikrostrukturell, mit Hilfe von Raster- sowie Transmissionselektronenmikroskopie, aber auch Nanoindentation charakterisiert. Es konnten verbreitet Korngrößen unter 1 µm festgestellt werden, was der Definition ultrafeinkörnig entspricht. Anschließend folgte eine Korrelation der zyklischen Eigenschaften, welche mittels 4-Punkt-Mikrobiegeversuchen untersucht wurden und der Mikrostruktur. Da die hochfesten Ausprägungen der ultrafeinkörnigen Modifikationen in großen Teilen Rissinitiierung an nichtmetallischen Einschlüssen zeigten, erfolgte eine bruchmechanische Betrachtung mittels Spannungsintensitätsfaktoren. Als Quintessenz der vorliegenden Arbeit steht ein Modell, welches die Ermüdungseigenschaften von ultrafeinkörnigen Werkstoffen zusammenfasst. Mehrere Eigenschaften, wie das Auftreten von innerer Rissinitiierung, sowie insgesamt die extrem hohen Härten und Ermüdungsfestigkeiten (vergleichbar mit bainitisiertem 100Cr6), wurden im Rahmen der Arbeit erstmals bei diesen Modifikationen nachgewiesen und gehörten zuvor nicht zum Stand der Technik.
Sandwichelemente mit Deckschichten aus Hochleistungsbeton und einem Kern aus extrudiertem Polystyrol
(2015)
Sandwichelemente vereinen aufgrund des gezielten Einsatzes verschiedener Materialien und deren schichtartigen Aufbaus sehr gute Dämmeigenschaften und ein geringes Eigengewicht mit hoher Tragfähigkeit und Biegesteifigkeit. Sie werden daher seit Beginn der 1960er-Jahre sowohl im Metallleichtbau als auch im Stahlbetonmassivbau vielfältig eingesetzt. Im Rahmen der vorliegenden Arbeit wurden Sandwichelemente mit Deckschichten aus einem mikro- oder auch textilbewehrtem Hochleistungsbeton und einem Kern aus extrudiertem Polystyrol-Hartschaum umfangreich experimentell und rechnerisch untersucht. Ziel war es, den Verbund zwischen dem Kern und den Deckschichten ohne mechanische Verbundmittel, sondern rein über die Adhäsion des profilierten Dämmkerns und den Deckschichten zu erzielen.
Das Sandwichtragverhalten wurde durch eine Vielzahl von Biege- und Scherversuchen experimentell untersucht. Die Dauerhaftigkeit des Verbunds zwischen dem Kern und den Deckschichten wurde durch eine Frost-Tau-Wechselbeanspruchung der Scherprobekörper sowie durch eine zyklische Ermüdungsbeanspruchung der Biegeprobekörper bestimmt. Anhand der Versuchsergebnisse konnte gezeigt werden, dass die Sandwichelemente bei der Verwendung als Wand- oder Dachelement den praxisüblichen Beanspruchungen standhalten und nicht vorzeitig versagen. Das Tragverhalten wurde weiterhin in Bauteilversuchen an großformatigen Sandwichelementen überprüft. Hierzu wurden in einem eigens konstruierten Unterdruckprüfstand zweifeldrig gelagerte Sandwichelemente einer realitätsnahen Beanspruchung durch eine Flächenlast ausgesetzt. Die Materialeigenschaften, die anhand der Scherversuche sowie an Dehnkörperversuchen am bewehrtem Beton ermittelt wurden, dienten zudem als Eingangsparameter zur rechnerischen Untersuchung der Sandwichelemente mit der FE-Software ANSYS. Auf Grundlage der Modellierungen konnten die Versuchsergebnisse interpretiert und das Tragverhalten in Parameterstudien vertiefend analysiert werden. Darüber hinaus wurden auch die Einwirkungen aus einer Temperatur- und Schwindbeanspruchung der Elemente ermittelt.
Über Ingenieurmodelle auf Grundlage der Sandwichtheorie konnte bisher der Einfluss der Rissbildung in den Betondeckschichten nur überschlägig und gemittelt über die Länge der Elemente berücksichtigt werden. Aus diesem Grund wurde ein bestehendes Programm zur Ermittlung der Sandwichschnittgrößen um einen Ansatz zur Berücksichtigung der Steifigkeitsreduzierung infolge der Rissbildung umfangreich erweitert. Mit dem neuen Programm swe2+ können nun erstmalig die Schnittgrößen und Verformungen von Sandwichelementen mit gerissenen Betondeckschichten zielsicher und diskret über die Länge eines Sandwichelements ermittelt werden. Durch Beispielrechnungen wurde gezeigt, dass die Umlagerung der Schnittgrößen infolge der Rissbildung in den Deckschichten zu ungünstigeren Beanspruchungen führen kann und diese Umlagerungen bei der Bemessung der Elemente entsprechend zu berücksichtigen sind. Die Bemessung der hier untersuchten Sandwichelemente kann in Anlehnung an die Norm DIN EN 14509 zur Bemessung von Sandwichelementen mit metallischen Deckschichten durchgeführt werden. Durch die Nachrechnungen der Biegeversuche wurde gezeigt, dass auf diese Weise die Elemente mit ausreichender Sicherheit und sehr guter Übereinstimmung bemessen werden können. Dies wird abschließend in zwei Bemessungsbeispielen an einem Wand- sowie einem Dachelement demonstriert.
In this thesis, an approach is presented that turns the currently unstructured process of automotive hazard analysis and risk assessments (HRA), which relies on creativity techniques, into a structured, model-based approach that makes the HRA results less dependent on experts' experience, more consistent, and gives them higher quality. The challenge can be subdivided into two steps. The first step is to improve the HRA as it is performed in current practice. The second step is to go beyond the current practice and consider not only single service failures as relevant hazards, but also multiple service failures. For the first step, the most important aspect is to formalize the operational situation of the system and to determine its likelihood. Current approaches use natural-language textual descriptions, which makes it hard to ensure consistency and increase efficiency through reuse. Furthermore, due to ambiguity in natural language, it is difficult to ensure consistent likelihood estimates for situations.
The main aspect of the second step is that considering multiple service failures as hazards implies that one needs to analyze an exponential number of hazards. Due to the fact that hazard assessments are currently done purely manually, considering multiple service failures is not possible. The only way to approach this challenge is to formalize the HRA and make extensive use of automation support.
In SAHARA we handle these challenges by first introducing a model-based representation of an HRA with GOBI. Based on this, we formalized the representation of operational situations and their likelihood assessment in OASIS and HEAT, respectively. We show that more consistent situation assessments are possible and that situations (including their likelihood) can be efficiently reused. The second aspect, coping with multiple service failures, is addressed in ARID. We show that using our tool-supported HRA approach, 100% coverage of all possible hazards (including multiple service failures) can be achieved by relying on very limited manual effort. We furthermore show that not considering multiple service failures results in insufficient safety goals.
In this work we focus on the regression models with asymmetrical error distribution,
more precisely, with extreme value error distributions. This thesis arises in the framework
of the project "Robust Risk Estimation". Starting from July 2011, this project won
three years funding by the Volkswagen foundation in the call "Extreme Events: Modelling,
Analysis, and Prediction" within the initiative "New Conceptual Approaches to
Modelling and Simulation of Complex Systems". The project involves applications in
Financial Mathematics (Operational and Liquidity Risk), Medicine (length of stay and
cost), and Hydrology (river discharge data). These applications are bridged by the
common use of robustness and extreme value statistics.
Within the project, in each of these applications arise issues, which can be dealt with by
means of Extreme Value Theory adding extra information in the form of the regression
models. The particular challenge in this context concerns asymmetric error distributions,
which significantly complicate the computations and make desired robustification
extremely difficult. To this end, this thesis makes a contribution.
This work consists of three main parts. The first part is focused on the basic notions
and it gives an overview of the existing results in the Robust Statistics and Extreme
Value Theory. We also provide some diagnostics, which is an important achievement of
our project work. The second part of the thesis presents deeper analysis of the basic
models and tools, used to achieve the main results of the research.
The second part is the most important part of the thesis, which contains our personal
contributions. First, in Chapter 5, we develop robust procedures for the risk management
of complex systems in the presence of extreme events. Mentioned applications use time
structure (e.g. hydrology), therefore we provide extreme value theory methods with time
dynamics. To this end, in the framework of the project we considered two strategies. In
the first one, we capture dynamic with the state-space model and apply extreme value
theory to the residuals, and in the second one, we integrate the dynamics by means of
autoregressive models, where the regressors are described by generalized linear models.
More precisely, since the classical procedures are not appropriate to the case of outlier
presence, for the first strategy we rework classical Kalman smoother and extended
Kalman procedures in a robust way for different types of outliers and illustrate the performance
of the new procedures in a GPS application and a stylized outlier situation.
To apply approach to shrinking neighborhoods we need some smoothness, therefore for
the second strategy, we derive smoothness of the generalized linear model in terms of
L2 differentiability and create sufficient conditions for it in the cases of stochastic and
deterministic regressors. Moreover, we set the time dependence in these models by
linking the distribution parameters to the own past observations. The advantage of
our approach is its applicability to the error distributions with the higher dimensional
parameter and case of regressors of possibly different length for each parameter. Further,
we apply our results to the models with generalized Pareto and generalized extreme value
error distributions.
Finally, we create the exemplary implementation of the fixed point iteration algorithm
for the computation of the optimally robust in
uence curve in R. Here we do not aim to
provide the most
exible implementation, but rather sketch how it should be done and
retain points of particular importance. In the third part of the thesis we discuss three applications,
operational risk, hospitalization times and hydrological river discharge data,
and apply our code to the real data set taken from Jena university hospital ICU and
provide reader with the various illustrations and detailed conclusions.
Sequential Consistency (SC) is the memory model traditionally applied by programmers and verification tools for the analysis of multithreaded programs.
SC guarantees that instructions of each thread are executed atomically and in program order.
Modern CPUs implement memory models that relax the SC guarantees: threads can execute instructions out of order, stores to the memory can be observed by different threads in different order.
As a result of these relaxations, multithreaded programs can show unexpected, potentially undesired behaviors, when run on real hardware.
The robustness problem asks if a program has the same behaviors under SC and under a relaxed memory model.
Behaviors are formalized in terms of happens-before relations — dataflow and control-flow relations between executed instructions.
Programs that are robust against a memory model produce the same results under this memory model and under SC.
This means, they only need to be verified under SC, and the verification results will carry over to the relaxed setting.
Interestingly, robustness is a suitable correctness criterion not only for multithreaded programs, but also for parallel programs running on computer clusters.
Parallel programs written in Partitioned Global Address Space (PGAS) programming model, when executed on cluster, consist of multiple processes, each running on its cluster node.
These processes can directly access memories of each other over the network, without the need of explicit synchronization.
Reorderings and delays introduced on the network level, just as the reorderings done by the CPUs, may result into unexpected behaviors that are hard to reproduce and fix.
Our first contribution is a generic approach for solving robustness against relaxed memory models.
The approach involves two steps: combinatorial analysis, followed by an algorithmic development.
The aim of combinatorial analysis is to show that among program computations violating robustness there is always a computation in a certain normal form, where reorderings are applied in a restricted way.
In the algorithmic development we work out a decision procedure for checking whether a program has violating normal-form computations.
Our second contribution is an application of the generic approach to widely implemented memory models, including Total Store Order used in Intel x86 and Sun SPARC architectures, the memory model of Power architecture, and the PGAS memory model.
We reduce robustness against TSO to SC state reachability for a modified input program.
Robustness against Power and PGAS is reduced to language emptiness for a novel class of automata — multiheaded automata.
The reductions lead to new decidability results.
In particular, robustness is PSPACE-complete for all the considered memory models.
We consider storage loading problems where items with uncertain weights have
to be loaded into a storage area, taking into account stacking and
payload constraints. Following the robust optimization paradigm, we propose
strict and adjustable optimization models for finite and interval-based
uncertainties. To solve these problems, exact decomposition and heuristic
solution algorithms are developed.
For strict robustness, we also present a compact formulation based
on a characterization of worst-case scenarios.
Computational results show that computation times and algorithm
gaps are reasonable for practical applications.
Furthermore, we find that the robustness concepts show different
potential depending on the type of data being used.
In this thesis, we investigate several upcoming issues occurring in the context of conceiving and building a decision support system. We elaborate new algorithms for computing representative systems with special quality guarantees, provide concepts for supporting the decision makers after a representative system was computed, and consider a methodology of combining two optimization problems.
We review the original Box-Algorithm for two objectives by Hamacher et al. (2007) and discuss several extensions regarding coverage, uniformity, the enumeration of the whole nondominated set, and necessary modifications if the underlying scalarization problem cannot be solved to optimality. In a next step, the original Box-Algorithm is extended to the case of three objective functions to compute a representative system with desired coverage error. Besides the investigation of several theoretical properties, we prove the correctness of the algorithm, derive a bound on the number of iterations needed by the algorithm to meet the desired coverage error, and propose some ideas for possible extensions.
Furthermore, we investigate the problem of selecting a subset with desired cardinality from the computed representative system, the Hypervolume Subset Selection Problem (HSSP). We provide two new formulations for the bicriteria HSSP, a linear programming formulation and a \(k\)-link shortest path formulation. For the latter formulation, we propose an algorithm for which we obtain the currently best known complexity bound for solving the bicriteria HSSP. For the tricriteria HSSP, we propose an integer programming formulation with a corresponding branch-and-bound scheme.
Moreover, we address the issue of how to present the whole set of computed representative points to the decision makers. Based on common illustration methods, we elaborate an algorithm guiding the decision makers in choosing their preferred solution.
Finally, we step back and look from a meta-level on the issue of how to combine two given optimization problems and how the resulting combinations can be related to each other. We come up with several different combined formulations and give some ideas for the practical approach.
Regionalparks werden als informelles projekt-, kommunikations- und kooperationsorientiertes
Planungsinstrument der Regionalentwicklung seit Ende der 1980er Jahre in
Deutschland umgesetzt. Seit einigen Jahren werden Regionalparks auch in anderen
europäischen Ländern, vor allem in Metropolregionen, entwickelt.
In Deutschland wurde der erste Regionalpark, der Emscher Landschaftspark, bereits
1989 gegründet. Mit dem Regionalpark Rhein-Main folgte 1994 ein weiterer Regionalpark.
Seitdem sind in vielen Bundesländern Deutschlands Regionalparks entwickelt
worden, so z. B. im Saarland, in Hamburg, in Berlin und Brandenburg oder in Baden-
Württemberg. Die Tendenz ist, auch aufgrund von EU-Fördermitteln, steigend.
Ein Schwerpunkt von Regionalparks liegt auf dem Landschafts- und Freiraumschutz.
Als informelles Instrument der Landschafts- und Freiraumentwicklung bieten Regionalparks
somit Strategien für eine nachhaltige und qualifizierte Sicherung von Freiräumen.
Regionalparks dienen im weiteren Bereich aber auch der lokalen und regionalen
Wirtschaft, verfolgen touristische, kulturelle und soziale Ziele. Sie gelten weiterhin als
Instrument zur Stärkung der weichen Standortfaktoren in z. B. strukturschwachen Regionen.
Im Kontext der raumordnungspolitischen Debatte um die territoriale Kohäsion
in Europa bieten Regionalparks somit Argumente für die Akquirierung von EU-Fördermitteln.
Im Rahmen wachsender internationaler Standortkonkurrenzen spielen Faktoren wie
das Image einer Region, eine hohe Umwelt- und Freiraumqualität, ein attraktives Wohnumfeld
und ein vielseitiges Kultur- und Naherholungsangebot in den Stadtregionen
Europas eine immer wichtigere Rolle für die Ansiedlung von Unternehmen und für den
Zuzug hochqualifizierter Arbeitnehmer. Durch die Folgeeffekte der Projekte in Regionalparks
können die Chancen im internationalen Wettbewerb verbessert werden.
Was in der Fachwelt bisher fehlt, ist ein empirischer Vergleich der deutschen Regionalparks
mit vergleichbaren Ansätzen im europäischen Ausland. Es wird in dieser Arbeit
daher der Frage nachgegangen, wie das Instrument Regionalpark in anderen Ländern
Europas interpretiert und umgesetzt wird, welchen Einfluss die Belange des Freiraum-
und Naturschutzes auf die Projekte in Regionalparks haben und wie detailliert
die Projekte der Regionalparks zu Themen wie Freiraum- und Naturschutz umgesetzt
werden. Dies wird anhand von vier Fallbeispielen – zwei Regionalparks in Deutschland
und zwei Regionalparks in Europa – beschrieben und bewertet und stellt den Schwerpunkt
der Arbeit dar.
Ein weiterer sich anschließender Untersuchungsaspekt ist die Bewertung und Analyse
der in den letzten Jahren neu in Europa entstandenen Regionalparks, die noch nicht
näher wissenschaftlich erforscht worden sind. Dazu zählen z. B. als Regionalparks
benannte Gebiete in Großbritannien, der Schweiz oder in Slowenien. Nicht immer gleichen
die Regionalparks im europäischen Ausland dabei den deutschen Konzepten,
sondern erweisen sich bei näherer Betrachtung als Natur-, Freizeit oder Ferienparks.
Durch eine kritische Bewertung nach verschiedenen vorher definierten Kriterien werden
die ausgewählten Regionalparks hinsichtlich des Schwerpunktes auf Natur- und
Freiraumschutz beleuchtet und bewertet. Aus den gewonnenen Erkenntnissen werden
Handlungsempfehlungen für Politik und Praxis abgeleitet.
Mit dieser Arbeit sollen Impulse für eine moderne, informelle, nachhaltige und ökologisch
orientierte Stadt -und Regionalentwicklung in Europa gegeben werden. Die Arbeit
soll darüber hinaus Handlungsempfehlungen für die Vernetzung von und den Informationsaustausch
zwischen Regionalparks geben und damit einen Beitrag zur Regionalparkentwicklung
in Europa leisten, um so ein geeintes Europa auch hinsichtlich
der Natur-, Regional- und Freiraumentwicklung zu stärken.
Das Arbeitspapier erörtert die Regionsdefinition im Rahmen des Verbundprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B). Da das Forschungs- und Entwicklungsprojekt darauf abzielt, auf regionale Bedarfe abgestimmte wissenschaftliche (Weiter-)Bildungsangebote zu entwickeln, ist eine Auseinandersetzung mit der Frage konstitutiv, wie eine Region für das Projekt definiert und räumlich abgrenzt werden kann. Aus den Förderrichtlinien des Wettbewerbs „Aufstieg durch Bildung: offene Hochschulen“ sowie aus den Prämissen des Projektantrags ergibt sich Bildung als das zentrale inhaltliche Kriterium, um zu bestimmen, um welche Region es sich handelt. Als Prinzip zur Herstellung eines regionalen Zusammenhangs dient die Erreichbarkeit der Hochschulen für die Bildungsinteressierten, die auf der Grundlage empirischer Daten zum bisherigen Einzugsgebiet der Technischen Universität Kaiserslautern sowie über Studien zur Mobilität auf einen maximalen Radius von 60 Minuten Anfahrtszeit festgelegt wird. Die sich aus diesen Prämissen ergebende Region des Projekts wird letztlich kartografisch dargestellt.
In der vorliegenden Arbeit wurde die Reaktivität und Selektivität anellierter, verbrückter und tertiärer O-Radikale, in drei Teilprojekten, untersucht. Die zur Erzeugung primärer und sekundärer O-Radikale benötigten Thiohydroxamsäure-O-ester stammen aus Reaktionen von Cyclopentenyltosylaten mit 3-Hydroxy-4-methylthiazol-2(3H)-thion-Tetraethylammoniumsalz (Salz-Methode). Für tertiäre Thiohydroxamsäure-O-ester hat sich die Umsetzung tertiärer O-Alkylisoharnstoffe mit 3-Hydroxy-4-methylthiazol-2(3H)-thionen bewährt (Isoharnstoff-Methode). Die anschließende Freisetzung der O-Radikale, aus den O-Alkylthiohydroxamaten, erfolgte photochemisch oder thermisch unter pH-neutralen und nicht oxidativen Bedingungen in Gegenwart von Bromtrichlormethan. Relative Reaktivitäten der O-Radikale in Sauerstoff-Elementarreaktionen beruhen auf Abschätzungen mit Hilfe unimolekularer Vergleichsreaktionen (Radikaluhr Konzept). Beobachtete Selektivitäten und Stabilitäten wurden anhand theoretischer Analyseverfahren (Twist-Modell, Dichtefunktional-Rechnungen und Møller-Plesset-Störungsrechnung 2. Ordnung), in Kooperation mit Jens Hartung, interpretiert und quantifiziert. Die synthetisierten \({\beta}\)-bromierten, bicyclischen, tricyclischen sowie tertiären Tetrahydrofurane erweitern die bis dato auf primäre und sekundäre Monocyclen beschränkte Vielfalt der 5-Ring-Strukturen über Sauerstoff-Radikalreaktionen. Beispiele für Synthesen mittels intermolekularer O-Radikaladditionen liefern funktionalisierte Bromalkoxybicyclo[2.2.1]heptane und tert-Butoxybromalkane.
Durch Variation (1,2-Cyclopentyl und 1,2-Cyclohexyl) und Permutation (Kohlenstoff-Atome C1 und C2 / C2 und C3 / C3 und C4) der Anellierung, sowie durch verbrückte Reste (C2 und C5 / C3 und C5) am 4-Penten-1-oxyl-Gerüst gelang es, im ersten Teilprojekt, diastereomerenreine primäre und sekundäre O-Radikalvorläufer für eine systematische Untersuchung der Stereoselektivität in 5-exo-trig-Reaktionen zu synthetisieren. Umsetzungen der O-Radikalvorläufer zeigten Regelmäßigkeiten im Produktbild, die in Form von Richtlinien für zukünftige Syntheseplanungen zusammengefasst wurden: (I) Für sterisch und elektronisch vergleichbare Substituenten in direkter Nachbarschaft (zum Beispiel C1 und C2) ist der stereochemische Einfluss des Substituenten größer, der der Doppelbindung näher ist (hier Substituent an C2). Die relative Konfiguration der beiden anellierten Substituenten zueinander wirkt sich auf den Stereoselektivitätsgrad aus, wobei trans-anellierte 4-Penten-1-oxyl-Radikale stereoselektiver cyclisieren als cis-konfigurierte Isomere. Hauptprodukte der 1,2- und 2,3-cyclohexyl-anellierten 4-Penten-1-oxyl-Radikale sind 2,4-cis- und 2,3-trans-substituierte Tetrahydrofurane. (II) Ist die Flexibilität der Sauerstoffatom-tragenden Seitenkette konformell eingeschränkt, cyclisieren anellierte (C3 und C4) sowie verbrückte (C2 und C5 / C3 und C5) 4-Penten-1-oxyl-Radikale 2,3- und 2,4-cis-spezifisch an endo- und exo-cyclische \({\pi}\)-Bindungen. Theoretische Berechnungen diesbezüglich haben gezeigt, dass der 2,3-trans-Ringschluss des Modell-Radikals 1-(Cyclohexen-3-yl)-2-ethoxylradikal aufgrund sterischer Effekte eine deutlich höhere Barriere besitzt (89.5 kJ/mol) als der 2,3-cis-Ringschluss (35.4 kJ/mol).
Die Herstellung tertiärer 3-Alkyloxy- und 3-Cumyloxy-5-(4-methoxyphenyl)thiazol-2(3H)-thione und die Untersuchung der Reaktivitäten daraus erzeugter tertiärer O-Radikale in Elementarreaktionen waren Schwerpunkte des zweiten Themengebiets. Experimentell bestimmte relative Geschwindigkeitskonstanten für die \({\delta}\)-H-Abstraktion (\({k^{Subst} = 10^7-10^8 s^{-1}}\)), die 5-exo-trig-Cyclisierung (\({k^{5-exo} = 10^8-10^9 s^{-1}}\)) und die intermolekulare Addition (\({k^{Add} = 10^7 M^{-1}s^{-1}}\)) demonstrieren, dass tertiäre O-Radikale trotz größerer sterischer Hinderung eine ähnliche (Substitution) oder höhere Reaktivität (5-exo-Reaktion) als vergleichbare primäre und sekundäre Analoga aufweisen. Der 5-exo-Rinschluss des 2-Phenyl-5-hexen-2-oxyl-Radikals erfolgt 2,5-cis-selektiv. Intermolekulare Additionen der tert-Butoxyl-, Cumyloxyl- oder p-Chlorcumyloxyl-Radikale an Norbornen verlaufen exo-spezifisch. Dichtefunktional Berechnungen zufolge sind Torsionsspannungen im 2,5-trans-Übergangszustand der 5-exo-trig-Cyclisierung und im endo-Übergangszustand der intermolekularen Addition für die beobachtete Selektivität verantwortlich.
Im dritten Projekt wurden O-(tert-Butyl)thiohydroxamate aus O-(tert-Butyl)-N,N-diisopropylisoharnstoff und dem 3-Hydroxy-4-methylthiazol-2(3H)-thion sowie dem 3-Hydroxy-4-methyl-5-(4-nitrophenyl)thiazol-2(3H)-thion hergestellt. Die gleiche Reaktion zeigt bei Verwendung des 1-Hydroxypyridin-2(1H)-thions eine spontane Umlagerung des O-(tert-Butyl)thiohydroxamats zum O-(tert-Butyl)pyridin-2-sulfenat. Stabilitätsunterschiede der tertiären Thiohydroxamat-Klassen lassen sich der Molekülorbital-Theorie folgend auf drei unterschiedliche, \({\pi}\)-artige Wechselwirkungen der N,O-Bindung mit dem Thiohydroxamat-Kern und dem O-Alkyl-Rest im Grundzustand zurückführen, die die N,O-Bindung insgesamt stärken. Tertiäre 3-Alkoxythiazolthione erfahren dabei eine größere Stabilisierung als vergleichbare Pyridinthione. Photochemische Umsetzungen der tert-Butoxythiazolthione liefern tert-Butoxyl-Radikale, die durch Addition an 5,5-Dimethylpyrrolidin N-Oxid (DMPO) und Styrol nachgewiesen wurden.
In 2003, a dictionary data structure called jumplist has been introduced by Brönnimann, Cazals and Durand. It is based on a circularly closed (singly) linked list, but additional jump-pointers are added to provide shortcuts to parts further ahead in the list.
The original jump-and-walk data structure by Brönnimann, Cazals and Durand only introduces one jump-pointer per node. In this thesis, I add one more-jump pointer to each node and present algorithms for generation, insertion and search for the resulting data structure.
Furthermore, I try to evaluate the effects on the expected search costs and the complexity of the generation and insertion.
It turns out that the two-jump-pointer variant of the jumplist has a slightly better prefactor (1.2 vs. 2) in the leading term of the expected internal path length than the original version and despite the more complex structure of the two-jump-pointer variant compared to the regular jumplist, the complexity of generation and insertion remains linearithmic.
Component fault trees that contain safety basic events as well as security basic events cannot be analyzed like normal CFTs. Safety basic events are rated with probabilities in an interval [0,1], for security basic events simpler scales such as \{low, medium, high\} make more sense. In this paper an approach is described how to handle a quantitative safety analysis with different rating schemes for safety and security basic events. By doing so, it is possible to take security causes for safety failures into account and to rate their effect on system safety.
Die Qualität hoch beanspruchter Oberflächen wird durch ihre Funktion festgelegt. Sogenannte Funktionsflächen sind dabei in vielen Bereichen der modernen Industrie zu finden. Zur Überwachung des Herstellungsprozesses dieser Flächen besteht daher stets ein Bedarf an sensitiver, genauer an die Bedürfnisse der Messaufgabe angepasster, Messtechnik. Ein Verfahren, welches aufgrund seines winkelmessenden Prinzips unempfindlich gegenüber Vibrationen ist und gleichzeitig eine flächige Beurteilung von Oberflächen ermöglicht, ist die winkelaufgelöste Streulichtmesstechnik. Sie nutzt das von einer rauen Oberfläche zurückgestreute Licht zur Charakterisierung. Während der Erwartungswert der gemessenen Streulichtverteilung Aufschluss über die Makrogestalt der Oberfläche liefert, enthält die Breite der Verteilung Informationen über die Mikrostruktur.
Die vorliegende Arbeit betrachtet zwei Themenkomplexe dieser Messtechnik: Zunächst wird die Qualifizierung einer bereits bestehenden Messeinrichtung zur zweidimensionalen Erfassung von Streulicht mittels linearem Diodenarray durchgeführt. Im Anschluss erfolgt die Erweiterung der Messeinrichtung zur Erfassung der dritten Dimension. Dieses Ziel wird durch Verfolgung zweier Ansätze, einem rotierenden Prisma sowie einem flächigen Detektor, erreicht.
Durch das Entstehen von neuen Infektionskrankheiten und das Auftreten von Resistenzen können bisher verwendete Medikamente ihren pharmazeutischen Nutzen verlieren. Daher ist eine konstante Weiterentwicklung von bioaktiven Pharmazeutika lebensrettend. Viele pflanzli-che und mikrobielle Sekundärmetabolite besitzen gesundheitsfördernde Wirkungen und kön-nen als Ressourcen für die Entwicklung neuer Arzneimittel herangezogen werden. Da Pflan-zen und Mikroorganismen ein sehr umfangreiches Repertoire an pharmazeutisch-interessanten Intermediaten besitzen, soll im Rahmen dieser Arbeit die Produktbildung von pflanzlichen und mikrobiellen Sekundärmetaboliten vorgestellt werden, die für weiterführende medizinische Studien von Interesse sind.
Die in dieser Arbeit präsentierten mikrobiellen Sekundärmetabolite sind β-Lactam Antibiotika der Gruppe der OA-6129 und besitzen antibakterielle Eigenschaften gegen grampositive als auch gramnegative Mikroorganismen. Durch die Kultivierung des filamentösen Actinobakteri-ums Streptomyces fulvoviridis A933 17M9 1501 können diese sehr wirksamen Antibiotika gebildet werden. Für eine erfolgreiche Produktbildung wurde im Rahmen dieser Arbeit ein zweistufiger Prozess im Bioreaktor etabliert, der sich über einen Zeitraum von neun Tagen erstreckt. Durch Optimierung und Variation des Mediums, sowie durch die Veränderung der Rührergeometrie, kann die maximale Antibiotikakonzentration um 385 % gesteigert werden.
Neben der zu optimierenden Produktbildung ist auch die Stabilität der Antibiotika im wässrigen Milieu von Interesse. Die Untersuchungen erfolgten am Produktanalogon Imipenem. Es zeig-te sich, dass durch Interaktionen der Imipenemmoleküle der Zerfall mit steigender Antibiotik-akonzentration beschleunigt wird. Ein dazugehöriger Zerfallsweg des Imipenems in deionisie-rem Wasser bei pH 7 konnte durch die Auswertung der HPLC und Massenspektrometrie-Analytik beschrieben werden. Bioaktive Zerfallsprodukte, wie das sehr aktive β-Lactam Thienamycin, können aus dieser Zerfallsreaktion resultieren. Auch im Fermenta¬tionsmedium kann ein konzentrationsabhängiger Zerfall nachgewiesen werden, was für eine wirtschaftli-che, fermentative Herstellung problematisch wäre. Durch die Verwendung von Morpholino-sulfonsäurepuffern ist eine Stabilisierung des Antibiotikums im Wasser und im Fermentati-onsmedium realisierbar. Eine Steigerung der Halbwertszeit von über dem 10fachen gegen-über einer reinen Imipenemlösung im Wasser kann durch die Verwendung dieser Puffersub-stanzen erzielt werden.
Bei den zweiten, in dieser Arbeit behandelten Sekundärmetaboliten, handelt es sich um die pflanzlichen Triterpene Oleanol- und Ursolsäure, von denen antibakterielle, antivirale, entzün-dungshemmende und Krebs vorbeugende Aktivitäten bekannt sind. Neben anderen Pflanzen bilden Spezies von Salbei und Basilikum diese interessanten Sekundärmetabolite. Da bei ei-ner Freilandkultivierung die Produktkonzentrationen jährlichen Schwankungen durch abioti-schen und biotischen Faktoren unterliegen, kann durch eine in situ Kultivierung eine reprodu-zierbare Produktbildung erzielt werden. Im Zuge der Arbeit wurden Kalluskulturen von Salvia officinalis und Ocimum basilicum in verschiedenen Reaktortypen und mit verschiedenen Pro-zessstrategien eingesetzt und betreffend ihrer Produktbildung untersucht. Eine Oleanol- und Ursolsäurebildung durch eine Kalluskultur von Ocimum basilicum konnte durch diese Arbeit zum ersten Mal präsentiert werden.
Im Vergleich zu Kultivierungen in Erlenmeyerkolben fördert eine Kultivierung im Wavebag-Reaktor das Wachstum und die Produktbildung, sodass die maximale Triterpenkonzentration um 210 % gesteigert werden kann. Durch Variation der batch-Prozessstrategie in ein repea-ted-batch-Verfahren kann eine signifikante Steigerung der Oleanolsäurebildung um das 16fache und der Ursolsäurebildung um das 35fache erzielt werden. Es wird angenommen, dass auftretende Substratlimitierung zu einer Steigerung der Produktbildung führt.
Durch eine nachfolgende Biotransformation ist es möglich, die beiden Triterpene zu modifizie-ren. Eine Derivatisierung kann neben einer Verbesserung der Wasserlöslichkeit der Triterpene auch in einer Erhöhung der pharmazeutisch-interessanten Aktivitäten resultieren. Aus diesem Grunde wurden neun Organismen betreffend ihrer biokatalytischen Aktivität untersucht. Mit-tels des Actinobakteriums Nocardia iowensis werden die Oleanol- und Ursolsäure zunächst in ihre korrespondierenden Methylester transformiert. Des Weiteren entstehen bei der Biotrans-formation von Oleanolsäure zwei weitere, bisher unbekannter Derivate, welche durch HPLC, HPLC-ESI-MS und HPLC-1H-NMR charakterisiert werden konnten. Anhand dieser Resultate kann ein neuer Biosyntheseweg für eine Oleanolsäuretransformation mittels Nocardia iowen-sis beschrieben werden.
Um die Abtrennung der Biotransformationskultur von Medium zu vereinfachen und die Wirt-schaftlichkeit zu fördern, kann N. iowensis in Natriumalginat immobilisiert werden. Während kein signifikanter Unterschied zwischen immobilisierten und freien Bakterienzellen betreffend der Substrataufnahme detektiert wird, wird durch die Immobilisierung die Produktbildung re-primiert. Dabei besitzt die Matrixdichte, die aus der Behandlung der Natriumalginatpartikel mit der Calciumchloridlösung resultiert, einen entscheidenden Einfluss auf die Biotransformati-onseffizienz.
Auch eine Zusammenführung von Pflanzenzellkultivierung und Biotransformation in einem Gesamtprozess wurde im Rahmen dieser Arbeit etabliert. Durch den direkten Einsatz der immobilisierten Biotransformationskultur im verdünnten Zelllysat umgeht man eine Aufarbei-tung der Produkttriterpene aus dem Pflanzenzelllysat, was die Wirtschaftlichkeit des Prozes-ses erheblich verbessert. Bis zu einem Mischverhältnis von 50 % Referenzmedium und Zell-lysat kann keine Inhibierung oder Reprimierung der Biotransformation durch vorhandene Pflanzenzellbestandteile, wie z. B. Phenolen, detektiert werden.
There are a number of designs for an online advertising system that allow for behavioral targeting without revealing user online behavior or user interest profiles to the ad network. Although these designs purport to be practical solutions, none of them adequately consider the role of ad auctions, which today are central to the operation of online advertising systems. Moreover, none of the proposed designs have been deployed in real-life settings. In this thesis, we present an effort to fill this gap. First, we address the challenge of running ad auctions that leverage user profiles while keeping the profile information private. We define the problem, broadly explore the solution space, and discuss the pros and cons of these solutions. We analyze the performance of our solutions using data from Microsoft Bing advertising auctions. We conclude that, while none of our auctions are ideal in all respects, they are adequate and practical solutions. Second, we build and evaluate a fully functional prototype of a practical privacy-preserving ad system at a reasonably large scale. With more than 13K opted-in users, our system was in operation for over two months serving an average of 4800 active users daily. During the last month alone, we registered 790K ad views, 417 clicks, and even a small number of product purchases. Our system obtained click-through rates comparable with those for Google display ads. In addition, our prototype is equipped with a differentially private analytics mechanism, which we used as the primary means for gathering experimental data. In this thesis, we describe our first-hand experience and lessons learned in running the world's first fully operational “private-by-design” behavioral advertising and analytics system.
This thesis is concerned with stochastic control problems under transaction costs. In particular, we consider a generalized menu cost problem with partially controlled regime switching, general multidimensional running cost problems and the maximization of long-term growth rates in incomplete markets. The first two problems are considered under a general cost structure that includes a fixed cost component, whereas the latter is analyzed under proportional and Morton-Pliska
transaction costs.
For the menu cost problem and the running cost problem we provide an equivalent characterization of the value function by means of a generalized version of the Ito-Dynkin formula instead of the more restrictive, traditional approach via the use of quasi-variational inequalities (QVIs). Based on the finite element method and weak solutions of QVIs in suitable Sobolev spaces, the value function is constructed iteratively. In addition to the analytical results, we study a novel application of the menu cost problem in management science. We consider a company that aims to implement an optimal investment and marketing strategy and must decide when to issue a new version of a product and when and how much
to invest into marketing.
For the long-term growth rate problem we provide a rigorous asymptotic analysis under both proportional and Morton-Pliska transaction costs in a general incomplete market that includes, for instance, the Heston stochastic volatility model and the Kim-Omberg stochastic excess return model as special cases. By means of a dynamic programming approach leading-order optimal strategies are constructed
and the leading-order coefficients in the expansions of the long-term growth rates are determined. Moreover, we analyze the asymptotic performance of Morton-Pliska strategies in settings with proportional transaction costs. Finally, pathwise optimality of the constructed strategies is established.