Refine
Year of publication
- 2014 (146) (remove)
Document Type
- Doctoral Thesis (78)
- Preprint (28)
- Periodical Part (17)
- Article (15)
- Working Paper (4)
- Other (2)
- Report (1)
- Study Thesis (1)
Has Fulltext
- yes (146)
Keywords
- Denkmäler (8)
- Monitoring (8)
- Raumplanung (8)
- Brücken (5)
- Bestandserhaltung (4)
- Zerstörungsfreie Prüfung (4)
- Multiobjective optimization (3)
- Querkraft (3)
- Zustandserfassung (3)
- Activity recognition (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (43)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (16)
- Kaiserslautern - Fachbereich Informatik (15)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (13)
- Kaiserslautern - Fachbereich Sozialwissenschaften (13)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Bauingenieurwesen (10)
- Universität (8)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich ARUBI (2)
- Fraunhofer (ITWM) (1)
- Kaiserslautern - Fachbereich Physik (1)
- Universitätsbibliothek (1)
Bei der Herstellung hochbelasteter Strukturbauteile aus Faser-Kunststoff-Verbund (FKV) wird verbreitet auf textile Halbzeuge wie Gewebe oder vernähte Biaxial-Gelege zurückgegrif-fen. Diese Halbzeuge zeigen im Verbund mit Kunststoffen periodische out-of-plane Roving-welligkeiten. Die Größe der Welligkeiten hängt unter anderem von den Fertigungsparametern der trockenen Halbzeuge ab. Durch das Verständnis der effektiven Kausalitäten zwischen Rovingwelligkeiten und mechanischem Verhalten soll eine bessere rechnerische Abschätzung der Materialkennwerte erzielt werden.
In dieser Arbeit wurde unter anderem der Einfluss der Welligkeitsparameter Amplitude und Wellenlänge auf die faserparallelen Kennwerte an unidirektional verstärkten Proben unter-sucht. Dafür wurden gezielt unterschiedliche Amplituden und Wellenlängen mit Hilfe von unidirektionalen Geweben in die Probekörper eingebracht. Der Einfluss der Rovingwelligkei-ten auf die Steifigkeiten war kleiner als auf die Festigkeiten. Bei Letzten war zu beobachten, dass die Druckfestigkeiten mehr von den Ondulationen beeinflusst wurden als die Zugfestig-keiten. Außerdem wurden die Welligkeiten und die mechanischen Kennwerte von textilen FKV-Geweben und -Gelegen bestimmt. Bei der Auswahl der untersuchten Halbzeuge war ein wichtiges Kriterium, dass diese auch in der Praxis Anwendung finden.
Im nächsten Schritt wurde ein vereinfachtes Finite-Elemente-Welligkeitsmodell entwickelt, welches es ermöglicht, die faserparallelen Kennwerte ohne zeit- und kostenintensive Materi-alversuche zu bestimmen. Speziell für Gewebe-Materialien mit großen Rovingwelligkeiten ist dieses Modell in der Lage, deutlich bessere Abschätzungen als vorhandene Methoden zu ge-ben. Weiterhin wurde auf dieser Basis ein Regressionsmodell für unidirektional verstärkte Materialien abgeleitet, welches auch dem Konstrukteur ohne Erfahrungen im Umgang mit Finiten-Elemente-Programmen die Anwendung des Welligkeitsmodells ermöglicht.
Der Vorteil des entwickelten Welligkeitsmodells wurde in einem dreistufigen Validierungs-programm nachgewiesen. Dieses beinhaltet den Übergang auf multidirektionale Laminate sowie komplexere Bauteilgeometrien. Die verbesserte Prognose mit Hilfe des Welligkeitsmo-dells zeigte sich vor allem bei Materialien mit großen Rovingwelligkeiten und bei Bauteilen die aufgrund eines Faserbruchs durch eine Druckbelastung versagten.
Continuum Mechanical Modeling of Dry Granular Systems: From Dilute Flow to Solid-Like Behavior
(2014)
In this thesis, we develop a granular hydrodynamic model which covers the three principal regimes observed in granular systems, i.e. the dilute flow, the dense flow and the solid-like regime. We start from a kinetic model valid at low density and extend its validity to the granular solid-like behavior. Analytical and numerical results show that this model reproduces a lot of complex phenomena like for instance slow viscoplastic motion, critical states and the pressure dip in sand piles. Finally we formulate a 1D version of the full model and develop a numerical method to solve it. We present two numerical examples, a filling simulation and the flow on an inclined plane where the three regimes are included.
The objective of this thesis consists in developing systematic event-triggered control designs for specified event generators, which is an important alternative to the traditional periodic sampling control. Sporadic sampling inherently arising in event-triggered control is determined by the event-triggering conditions. This feature invokes the desire of
finding new control theory as the traditional sampled-data theory in computer control.
Developing controller coupling with the applied event-triggering condition to maximize the control performance is the essence for event-triggered control design. In the design the stability of the control system needs to be ensured with the first priority. Concerning variant control aims they should be clearly incorporated in the design procedures. Considering applications in embedded control systems efficient implementation requires a low complexity of embedded software architectures. The thesis targets at offering such a design to further complete the theory of event-triggered control designs.
In the presented work, I evaluate if and how Virtual Reality (VR) technologies can be used to support researchers working in the geosciences by providing immersive, collaborative visualization systems as well as virtual tools for data analysis. Technical challenges encountered in the development of theses systems are identified and solutions for these are provided.
To enable geologists to explore large digital terrain models (DTMs) in an immersive, explorative fashion within a VR environment, a suitable terrain rendering algorithm is required. For realistic perception of planetary curvature at large viewer altitudes, spherical rendering of the surface is necessary. Furthermore, rendering must sustain interactive frame rates of about 30 frames per second to avoid sensory confusion of the user. At the same time, the data structures used for visualization should also be suitable for efficiently computing spatial properties such as height profiles or volumes in order to implement virtual analysis tools. To address these requirements, I have developed a novel terrain rendering algorithm based on tiled quadtree hierarchies using the HEALPix parametrization of a sphere. For evaluation purposes, the system is applied to a 500 GiB dataset representing the surface of Mars.
Considering the current development of inexpensive remote surveillance equipment such as quadcopters, it seems inevitable that these devices will play a major role in future disaster management applications. Virtual reality installations in disaster management headquarters which provide an immersive visualization of near-live, three-dimensional situational data could then be a valuable asset for rapid, collaborative decision making. Most terrain visualization algorithms, however, require a computationally expensive pre-processing step to construct a terrain database.
To address this problem, I present an on-the-fly pre-processing system for cartographic data. The system consists of a frontend for rendering and interaction as well as a distributed processing backend executing on a small cluster which produces tiled data in the format required by the frontend on demand. The backend employs a CUDA based algorithm on graphics cards to perform efficient conversion from cartographic standard projections to the HEALPix-based grid used by the frontend.
Measurement of spatial properties is an important step in quantifying geological phenomena. When performing these tasks in a VR environment, a suitable input device and abstraction for the interaction (a “virtual tool”) must be provided. This tool should enable the user to precisely select the location of the measurement even under a perspective projection. Furthermore, the measurement process should be accurate to the resolution of the data available and should not have a large impact on the frame rate in order to not violate interactivity requirements.
I have implemented virtual tools based on the HEALPix data structure for measurement of height profiles as well as volumes. For interaction, a ray-based picking metaphor was employed, using a virtual selection ray extending from the user’s hand holding a VR interaction device. To provide maximum accuracy, the algorithms access the quad-tree terrain database at the highest available resolution level while at the same time maintaining interactivity in rendering.
Geological faults are cracks in the earth’s crust along which a differential movement of rock volumes can be observed. Quantifying the direction and magnitude of such translations is an essential requirement in understanding earth’s geological history. For this purpose, geologists traditionally use maps in top-down projection which are cut (e.g. using image editing software) along the suspected fault trace. The two resulting pieces of the map are then translated in parallel against each other until surface features which have been cut by the fault motion come back into alignment. The amount of translation applied is then used as a hypothesis for the magnitude of the fault action. In the scope of this work it is shown, however, that performing this study in a top-down perspective can lead to the acceptance of faulty reconstructions, since the three-dimensional structure of topography is not considered.
To address this problem, I present a novel terrain deformation algorithm which allows the user to trace a fault line directly within a 3D terrain visualization system and interactively deform the terrain model while inspecting the resulting reconstruction from arbitrary perspectives. I demonstrate that the application of 3D visualization allows for a more informed interpretation of fault reconstruction hypotheses. The algorithm is implemented on graphics cards and performs real-time geometric deformation of the terrain model, guaranteeing interactivity with respect to all parameters.
Paleoceanography is the study of the prehistoric evolution of the ocean. One of the key data sources used in this research are coring experiments which provide point samples of layered sediment depositions at the ocean floor. The samples obtained in these experiments document the time-varying sediment concentrations within the ocean water at the point of measurement. The task of recovering the ocean flow patterns based on these deposition records is a challenging inverse numerical problem, however.
To support domain scientists working on this problem, I have developed a VR visualization tool to aid in the verification of model parameters by providing simultaneous visualization of experimental data from coring as well as the resulting predicted flow field obtained from numerical simulation. Earth is visualized as a globe in the VR environment with coring data being presented using a billboard rendering technique while the
time-variant flow field is indicated using Line-Integral-Convolution (LIC). To study individual sediment transport pathways and their correlation with the depositional record, interactive particle injection and real-time advection is supported.
The present work investigated three important constructs in the field of psychology: creativity, intelligence and giftedness. The major objective was to clarify some aspects about each one of these three constructs, as well as some possible correlations between them. Of special interest were: (1) the relationship between creativity and intelligence - particularly the validity of the threshold theory; (2) the development of these constructs within average and above-average intelligent children and throughout grade levels; and (3) the comparison between the development of intelligence and creativity in above-average intelligent primary school children that participated in a special program for children classified as “gifted”, called Entdeckertag (ET), against an age-class- and-IQ matched control group. The ET is a pilot program which was implemented in 2004 by the Ministry for Education, Science, Youth and Culture of the state of Rhineland-Palatinate, Germany. The central goals of this program are the early recognition of gifted children and intervention, based on the areas of German language, general science and mathematics, and also to foster the development of a child’s creativity, social ability, and more. Five hypotheses were proposed and analyzed, and reported separately within five chapters. To analyze these hypotheses, a sample of 217 children recruited from first to fourth grade, and between the ages of six and ten years, was tested for intelligence and creativity. Children performed three tests: Standard Progressive Matrices (SPM) for the assessment of classical intelligence, Test of Creative Thinking – Drawing Production (TCT-DP) for the measurement of classical creativity, and Creative Reasoning Task (CRT) for the evaluation of convergent and divergent thinking, both in open problem spaces. Participants were divided according to two general cohorts: Intervention group (N = 43), composed of children participating in the Entdeckertag program, and a non-intervention group (N = 174), composed of children from the regular primary school. For the testing of the hypotheses, children were placed into more specific groups according to the particular hypothesis that was being tested. It could be concluded that creativity and intelligence were not significantly related and the threshold theory was not confirmed. Additionally, intelligence accounted for less than 1% of the variance within creativity; moreover, scores on intelligence were unable to predict later creativity scores. The development of classical intelligence and classical creativity throughout grade levels also presented a different pattern; intelligence grew increasingly and continually, whereas creativity stagnated after the third grade. Finally, the ET program proved to be beneficial for classical intelligence after two years of attendance, but no effect was found for creativity. Overall, results indicate that organizations and institutions such as schools should not look solely to intelligence performance, especially when aiming to identify and foster gifted or creative individuals.
For many decades, the search for language classes that extend the
context-free laguages enough to include various languages that arise in
practice, while still keeping as many of the useful properties that
context-free grammars have - most notably cubic parsing time - has been
one of the major areas of research in formal language theory. In this thesis
we add a new family of classes to this field, namely
position-and-length-dependent context-free grammars. Our classes use the
approach of regulated rewriting, where derivations in a context-free base
grammar are allowed or forbidden based on, e.g., the sequence of rules used
in a derivation or the sentential forms, each rule is applied to. For our
new classes we look at the yield of each rule application, i.e. the
subword of the final word that eventually is derived from the symbols
introduced by the rule application. The position and length of the yield
in the final word define the position and length of the rule application and
each rule is associated a set of positions and lengths where it is allowed
to be applied.
We show that - unless the sets of allowed positions and lengths are really
complex - the languages in our classes can be parsed in the same time as
context-free grammars, using slight adaptations of well-known parsing
algorithms. We also show that they form a proper hierarchy above the
context-free languages and examine their relation to language classes
defined by other types of regulated rewriting.
We complete the treatment of the language classes by introducing pushdown
automata with position counter, an extension of traditional pushdown
automata that recognizes the languages generated by
position-and-length-dependent context-free grammars, and we examine various
closure and decidability properties of our classes. Additionally, we gather
the corresponding results for the subclasses that use right-linear resp.
left-linear base grammars and the corresponding class of automata, finite
automata with position counter.
Finally, as an application of our idea, we introduce length-dependent
stochastic context-free grammars and show how they can be employed to
improve the quality of predictions for RNA secondary structures.
In this paper we present a method for nonlinear frequency response analysis of mechanical vibrations of 3-dimensional solid structures.
For computing nonlinear frequency response to periodic excitations, we employ the well-established harmonic balance method.
A fundamental aspect for allowing a large-scale application of the method is model order reduction of the discretized equation of motion. Therefore we propose the utilization of a modal projection method enhanced with modal derivatives, providing second-order information.
For an efficient spatial discretization of continuum mechanics nonlinear partial differential equations, including large deformations and hyperelastic material laws, we use the isogeometric finite element method, which has already been shown to possess advantages over classical finite element discretizations in terms of higher accuracy of numerical approximations in the fields of linear vibration and static large deformation analysis.
With several computational examples, we demonstrate the applicability and accuracy of the modal derivative reduction method for nonlinear static computations and vibration analysis.
Thus, the presented method opens a promising perspective on application of nonlinear frequency analysis to large-scale industrial problems.
The work presented in this thesis discusses the thermal and power management of multi-core processors (MCPs) with both two dimensional (2D) package and there dimensional (3D) package chips. The power and thermal management/balancing is of increasing concern and is a technological challenge to the MCP development and will be a main performance bottleneck for the development of MCPs. This thesis develops optimal thermal and power management policies for MCPs. The system thermal behavior for both 2D package and 3D package chips is analyzed and mathematical models are developed. Thereafter, the optimal thermal and power management methods are introduced.
Nowadays, the chips are generally packed in 2D technique, which means that there is only one layer of dies in the chip. The chip thermal behavior can be described by a 3D heat conduction partial differential equation (PDE). As the target is to balance the thermal behavior and power consumption among the cores, a group of one dimensional (1D) PDEs, which is derived from the developed 3D PDE heat conduction equation, is proposed to describe the thermal behavior of each core. Therefore, the thermal behavior of the MCP is described by a group of 1D PDEs. An optimal controller is designed to manage the power consumption and balance the temperature among the cores based on the proposed 1D model.
3D package is an advanced package technology, which contains at least 2 layers of dies stacked in one chip. Different from 2D package, the cooling system should be installed among the layers to reduce the internal temperature of the chip. In this thesis, the micro-channel liquid cooling system is considered, and the heat transfer character of the micro-channel is analyzed and modeled as an ordinary differential equation (ODE). The dies are discretized to blocks based on the chip layout with each block modeled as a thermal resistance and capacitance (R-C) circuit. Thereafter, the micro-channels are discretized. The thermal behavior of the whole system is modeled as an ODE system. The micro-channel liquid velocity is set according to the workload and the temperature of the dies. Under each velocity, the system can be described as a linear ODE model system and the whole system is a switched linear system. An H-infinity observer is designed to estimate the states. The model predictive control (MPC) method is employed to design the thermal and power management/balancing controller for each submodel.
The models and controllers developed in this thesis are verified by simulation experiments via MATLAB. The IBM cell 8 cores processor and water micro-channel cooling system developed by IBM Research in collaboration with EPFL and ETHZ are employed as the experiment objects.
In the present work, the phase transitions in different Fe/FeC systems were studied by using the molecular dynamics simulation and the Meyer-Entel interaction potential (also the Johnson potential for Fe-C interaction). Fe-bicrystal, thin film, Fe-C bulk and Fe-C nanowire systems were investigated to study the behaviour of the phase transition, where the energetics, dynamics and transformations pathways were analysed.
Technik ist in der heutigen Zeit allgegenwärtig. Bei all ihrer Omnipräsenz wird jedoch leicht übersehen, dass die Frage nach der Technik selber, d.h. die Frage danach, was genau unter „Technik“ überhaupt zu verstehen ist, bisher weitestgehend undeutlich geblieben ist.
Für die Philosophie erwächst daraus die Aufgabe, an dieser Stelle begriffsklärend einzugreifen.
Die vorliegende Arbeit hat zum Ziel, einen Beitrag zu einem besseren Verständnis von Technik und technischen Artefakten zu leisten. Die Argumentation gliedert sich dabei in zwei Schritte: Zuerst wird gezeigt, dass sich Technik nur in ihren Abgrenzungsverhältnissen zur Natur und zum Leben verstehen lässt und eine dem entsprechende Definition des Technikbegriffs vorgeschlagen. Anschließend wird daraus ein Verständnis technischer Artefakte im Sinne einer artefaktischen Technik abgeleitet.
Die Gliederung der Arbeit besteht dann im wesentlichen aus drei Teilen:
1. Das erste Kapitel dient der Einführung in die Problematik des Technikbegriffs:
Dabei wird in einem ersten Abschnitt auf die historische Dimension des Technikbegriffs verwiesen (1.1), anschließend die gegenwärtige Diskussion um den Technikbegriff zusammengefasst und kritisch bewertet (1.2) sowie Klassifikationen bzw. Kriterien hinsichtlich einer möglichen Definition des Technikbegriffs vorgeschlagen (1.3).
2. Das zweite Kapitel dient der Etablierung eines Technikbegriffs, der sich als semantisch abhängig von den Begriffen „Leben“ und „Natur“ erweist:
Dabei wird in einem ersten Abschnitt ein solches semantisches Verhältnis der Begriffe zueinander von anderen Möglichkeiten wechselseitiger Abgrenzung unterschieden (2.1). Sodann wird diese Abgrenzung mittels sogenannter Konstitutionsformen inhaltlich aufgefüllt (2.2). Nach der ausführlichen Erläuterung dieser Konstitutionsformen in ihrem paarweisen Zusammenhang, wird eine auf ihnen beruhende Definition von „Technik“ vorgeschlagen. In einem dritten Abschnitt wird das Modell der Konstitutionsformen um sogenannte Erschließungsformen erweitert, als diejenigen Fragehorizonte, mittels denen eine Binnendifferenzierung in verschieden Arten von Technik gelingt (2.3). In der Folge davon, wird eine Definition für eine jeweils „spezifische Technik“ vorgeschlagen.
3. Das dritte Kapitel dient der Untersuchung des ontologischen Status' technischer Artefakte:
Dabei werden technische Artefakte im Sinne einer „spezifischen Technik“ konkretisiert und damit als eine artefaktische Technik interpretiert (3.1). Anschließend wird überprüft, inwiefern sich eine solche Interpretation bezüglich a) der Frage, ob technische Artefakte natürliche Arten darstellen, bzw. b) des Problems der Koinzidenz von Objekten bewährt. Die aus diesen Überlegungen heraus gewonnenen Erkenntnisse werden abschließend in ihrer Anwendung auf Grenzfälle technischer Artefakte fruchtbar gemacht (3.2).
This thesis focuses on dealing with some new aspects of continuous time portfolio optimization by using the stochastic control method.
First, we extend the Busch-Korn-Seifried model for a large investor by using the Vasicek model for the short rate, and that problem is solved explicitly for two types of intensity functions.
Next, we justify the existence of the constant proportion portfolio insurance (CPPI) strategy in a framework containing a stochastic short rate and a Markov switching parameter. The effect of Vasicek short rate on the CPPI strategy has been studied by Horsky (2012). This part of the thesis extends his research by including a Markov switching parameter, and the generalization is based on the B\"{a}uerle-Rieder investment problem. The explicit solutions are obtained for the portfolio problem without the Money Market Account as well as the portfolio problem with the Money Market Account.
Finally, we apply the method used in Busch-Korn-Seifried investment problem to explicitly solve the portfolio optimization with a stochastic benchmark.
We propose a model for acid-mediated tumor invasion involving two different scales: the microscopic one, for the dynamics of intracellular protons and their exchange with their extracellular counterparts, and the macroscopic scale of interactions between tumor cell and normal cell populations, along with the evolution of extracellular protons. We also account for the tactic behavior of cancer cells, the latter being assumed to biase their motion according to a gradient of extracellular protons (following [2,31] we call this pH taxis). A time dependent (and also time delayed) carrying capacity for the tumor cells in response to the effects of acidity is considered as well. The global well posedness of the resulting multiscale model is proved with a regularization and fixed point argument. Numerical simulations are performed in order to illustrate the behavior of the model.
Das Konzept des Fairen Handels fußt auf der Umsetzung der Ziele ökonomischer, ökologischer und sozialer Nachhaltigkeit. In dieser Arbeit sollte, komplementär zur bisherigen Forschung und Literatur, mit Methoden der Verhaltensökonomik analysiert werden, inwieweit Verteilungspräferenzen hinsichtlich des Einkommens den Kauf von fair gehandelten Produkten beeinflussen.
This thesis, whose subject is located in the field of algorithmic commutative algebra and algebraic geometry, consists of three parts.
The first part is devoted to parallelization, a technique which allows us to take advantage of the computational power of modern multicore processors. First, we present parallel algorithms for the normalization of a reduced affine algebra A over a perfect field. Starting from the algorithm of Greuel, Laplagne, and Seelisch, we propose two approaches. For the local-to-global approach, we stratify the singular locus Sing(A) of A, compute the normalization locally at each stratum and finally reconstruct the normalization of A from the local results. For the second approach, we apply modular methods to both the global and the local-to-global normalization algorithm.
Second, we propose a parallel version of the algorithm of Gianni, Trager, and Zacharias for primary decomposition. For the parallelization of this algorithm, we use modular methods for the computationally hardest steps, such as for the computation of the associated prime ideals in the zero-dimensional case and for the standard bases computations. We then apply an innovative fast method to verify that the result is indeed a primary decomposition of the input ideal. This allows us to skip the verification step at each of the intermediate modular computations.
The proposed parallel algorithms are implemented in the open-source computer algebra system SINGULAR. The implementation is based on SINGULAR's new parallel framework which has been developed as part of this thesis and which is specifically designed for applications in mathematical research.
In the second part, we propose new algorithms for the computation of syzygies, based on an in-depth analysis of Schreyer's algorithm. Here, the main ideas are that we may leave out so-called "lower order terms" which do not contribute to the result of the algorithm, that we do not need to order the terms of certain module elements which occur at intermediate steps, and that some partial results can be cached and reused.
Finally, the third part deals with the algorithmic classification of singularities over the real numbers. First, we present a real version of the Splitting Lemma and, based on the classification theorems of Arnold, algorithms for the classification of the simple real singularities. In addition to the algorithms, we also provide insights into how real and complex singularities are related geometrically. Second, we explicitly describe the structure of the equivalence classes of the unimodal real singularities of corank 2. We prove that the equivalences are given by automorphisms of a certain shape. Based on this theorem, we explain in detail how the structure of the equivalence classes can be computed using SINGULAR and present the results in concise form. The probably most surprising outcome is that the real singularity type \(J_{10}^-\) is actually redundant.
Polychlorierte Dibenzo-p-dioxine wie 2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD), die zur Stoffgruppe der polyhalogenierten Kohlenwasserstoffe gehören, sind lipophile und persistente Umweltkontaminanten. Sie entstehen als unerwünschte Verunreinigungen bzw. Begleitstoffe vor allem während Verbrennungsprozessen organischer Materialien wie Holz oder Müll, im Tabakrauch sowie als Nebenprodukt chlororganischer Synthesen. Aufgrund ihrer hohen Lipophile reichern sie sich in der Nahrungskette an. Dioxine wie TCDD verursachen eine Vielzahl von biochemischen und toxischen Effekten wie z.B. Enzym-Induktion, Lebertoxizität, dermale Toxizität, Immuntoxizität und Kanzerogenität. Im Tiermodell konnte eine Beeinträchtigung des Fortpflanzungssystems und des Hormonhaushaltes beobachtet werden. In der Literatur herrscht Einigkeit, dass die meisten wenn nicht sogar alle toxischen Wirkungen der Dioxine über den Aryl-Hydrocarbon-Rezeptor (AhR) vermittelt werden. Im letzten Jahrzehnt konnten jedoch in mehreren Studien AhR-unabhängige TCDD-Wirkungen beobachtet werden. Nur wenige Studien befassen sich mit der Niere als Zielorgan, wobei belegt werden konnte, dass der AhR auch für die Entwicklung der Niere eine wichtige Rolle zu spielen scheint. Im Rahmen dieser Doktorarbeit wurde eine Tierstudie mit Wildtyp- und AhR-defizienten-Mäusen durchgeführt und dabei auch die Niere als Zielorgan betrachtet. Zunächst wurden weibliche und männliche Wildtyp- und AhR-defiziente-Mäuse einmalig mit TCDD (25 µg/kg KG) oral behandelt. Anschließend wurden Genexpressionsmuster in den Nieren mittels Microarray analysiert. In den Nieren behandelter Wildtyp-Mäuse wiesen 172 Gene, und in den Nieren behandelter AhR-defizienter-Mäuse wiesen 325 Gene eine veränderte Expression auf. In den Nieren behandelter AhR-defizienter-Mäuse wurden Gene hochreguliert, die in Prozesse des blutbildenden Systems, der Blutgerinnung sowie der Biosynthese von Sterolen und des Katabolismus von organischen Säuren involviert sind. Herrunterreguliert wurden Gene, die in Prozesse des Lipidmetabolismus, der Biosynthese sowie des Metabolismus kleinerer Moleküle und des Metabolismus von Hormonen involviert sind. Mittels RT-PCR wurde die im Microarray beobachtete erhöhte Expression einiger ausgewählter Gene des blutbildenden Systems (z. B. Hba-a1, Hbb-b1 und Rps14) und der Blutgerinnung (z. B. Fgg und F10) sowie einiger hepatischer Gene wie Lpl, Anxa1, c-Myc, Igfbp1, Esm1 und Cdh1 (Microarray-Analyse der Lebern wurde in einer früheren Studie gemessen) bestätigt. Des Weiteren wurde eine leichte, teilweise signifikant erhöhte Expression einiger pro-bzw. antiinflammatorischer Zytokine (IL-1α, IL-1ß, Il-6, IL-10 und TNF-α) in den Lebern und Milzen behandelter AhR-defizienter-Mäuse beobachtet. Die Induktion fremdstoffemtabolisiernder Enzyme wie Cyp1a1, Cyp1a2 und Cyp1b1 in den Organen Leber, Niere, Lunge und Milz behandelter Wildtyp-Mäuse konnte mittels Western-Blot und RT-PCR bestätigt werden, jedoch mit einer Ausnahme. In den Milzen behandelter Wildtyp-Mäuse konnte keine Induktion dieser Enzyme auf mRNA-Ebene beobachtet werden. In den Lebern behandelter AhR-defizienter-Mäuse war die Cyp1b1-Expression signifikant erhöht sowie die AhR-Expression vermindert. Die Induktion der Vitmain D-Rezeptor (VDR)-regulierten Gene Cyp24a1, Cyp27b1 und VDR in den Nieren behandelter AhR-defizienter-Mäuse weist auf die Aktivierung des VDR hin. Des Weiteren stellt die verminderte Expression von c-Myc in den Nieren TCDD-behandelter Knockout-Mäuse ein Hinweis für die Aktivierung des VDR dar. Durch HPLC/MS-MS-gestützte Untersuchung des Vollblutes von AhR-Wildtyp- und AhR-Knockout-Mäusen konnten Unterschiede und Gemeinsamkeiten zwischen den Genotypen bestimmt werden. So war es möglich Unterschiede im Aminosäuremetabolismus sowie im Tryptophan-Metabolismus zu identifizieren. Außerdem konnte gezeigt werden, dass sowohl im unbehandelten wie auch im TCDD-behandelten Zustand, Unterschiede zwischen den Genotypen bestanden.
In recent years the field of polymer tribology experienced a tremendous development
leading to an increased demand for highly sophisticated in-situ measurement methods.
Therefore, advanced measurement techniques were developed and established
in this study. Innovative approaches based on dynamic thermocouple, resistive electrical
conductivity, and confocal distance measurement methods were developed in
order to in-situ characterize both the temperature at sliding interfaces and real contact
area, and furthermore the thickness of transfer films. Although dynamic thermocouple
and real contact area measurement techniques were already used in similar
applications for metallic sliding pairs, comprehensive modifications were necessary to
meet the specific demands and characteristics of polymers and composites since
they have significantly different thermal conductivities and contact kinematics. By using
tribologically optimized PEEK compounds as reference a new measurement and
calculation model for the dynamic thermocouple method was set up. This method
allows the determination of hot spot temperatures for PEEK compounds, and it was
found that they can reach up to 1000 °C in case of short carbon fibers present in the
polymer. With regard to the non-isotropic characteristics of the polymer compound,
the contact situation between short carbon fibers and steel counterbody could be
successfully monitored by applying a resistive measurement method for the real contact
area determination. Temperature compensation approaches were investigated
for the transfer film layer thickness determination, resulting in in-situ measurements
with a resolution of ~0.1 μm. In addition to a successful implementation of the measurement
systems, failure mechanism processes were clarified for the PEEK compound
used. For the first time in polymer tribology the behavior of the most interesting
system parameters could be monitored simultaneously under increasing load
conditions. It showed an increasing friction coefficient, wear rate, transfer film layer
thickness, and specimen overall temperature when frictional energy exceeded the
thermal transport capabilities of the specimen. In contrast, the real contact area between
short carbon fibers and steel decreased due to the separation effect caused by
the transfer film layer. Since the sliding contact was more and more matrix dominated,
the hot spot temperatures on the fibers dropped, too. The results of this failure
mechanism investigation already demonstrate the opportunities which the new
measurement techniques provide for a deeper understanding of tribological processes,
enabling improvements in material composition and application design.
Perceptual grouping is an integral part of visual object recognition. It organizes elements within our visual field according to a set of heuristics (grouping principles), most of which are not well understood. To identify their temporal processing dynamics (i.e., to identify whether they rely on neuronal feedforward or recurrent activation), we introduce the primed flanker task that is based on a firm empirical and theoretical background. In three sets of experiments, participants responded to visual stimuli that were either grouped by (1) similarity of brightness, shape, or size, (2) symmetry and closure, or (3) Good Gestalt. We investigated whether these grouping cues were effective in rapid visuomotor processing (i.e., in terms of response times, error rates, and priming effects) and whether the results met theory-driven indicators of feedforward processing. (1) In the first set of experiments with similarity cues, we varied subjective grouping strength and found that stronger grouping in the targets enhanced overall response times while stronger grouping in the primes enhanced priming effects in motor responses. We also obtained differences between rapid visuomotor processing and the subjective impression with cues of brightness and shape but not with cues of brightness and size. These results show that the primed flanker task is an objective measure for comparing different feedforward-transmitted groupings. (2) In the second set of experiments, we used the task to study grouping by symmetry and grouping by closure that are more complex than similarity cues. We obtained results that were mostly in accordance with a feedforward model. Some other factors (line of view, orientation of the symmetry axis) were irrelevant for processing of symmetry cues. Thus, these experiments suggest that closure and (possibly) viewpoint-independent symmetry cues are extracted rapidly during the first feedforward wave of neuronal processing. (3) In the third set of experiments, we used the task to study grouping by Good Gestalt (i.e., visual completion in occluded shapes). By varying the amount of occlusion, we found that the processing was in accordance with a feedforward model only when occlusion was very limited. Thus, these experiments suggest that Good Gestalt is not extracted rapidly during the first feedforward wave of neuronal processing but relies on recurrent activation. I conclude (1) that the primed flanker task is an excellent tool to identify and compare the processing characteristics of different grouping cues by behavioral means, (2) that grouping strength and other factors are strongly modulating these processing characteristics, which (3) challenges a dichotomous classification of grouping cues based on feedforward vs. recurrent processing (incremental grouping theory, Roelfsema, 2006), and (4) that a focus on temporal processing dynamics is necessary to understand perceptual grouping.
Zur Verankerung von Bügelschenkeln im Brandfall mit 90°-Winkelhaken gibt es bisher nur widersprüchliche Aussagen. Während in der kommentierten Fassung des EC2 90°-Winkelhaken als nicht geeignet für Anforderungen größer R90 bezeichnet werden, widerspricht Heft 600 des DAfStB dieser Aussage und erklärt 90°-Winkelhaken für geeignet.
Ziel der vorliegenden Arbeit ist es das Tragverhalten von 90°- und 135°-Winkelhaken, sowohl im gerissenen, als auch im ungerissenen Querschnitt unter Brandbeanspruchung zu untersuchen.
Es konnten signifikante Unterschiede im Tragverhalten gezeigt und Hinweise für die Praxis erarbeitet werden.
Elastische Klebverbindungen werden heute in der Praxis immer häufiger lastabtragend eingesetzt. Daher steigt auch die Nachfrage nach zuverlässigen Berechnungsmethoden und Beurteilungskriterien für diese Klebstoffe. Ziel dieser Arbeit ist es, anhand von geeigneten Prüfmethoden, Werkstoffkennwerte für Werkstoffgesetze, die für FE-Berechnungen geeignet sind, zu bestimmen und diese zu überprüfen. Außerdem soll der Grenzzustand der Beanspruchbarkeit untersucht werden um einerseits bewerten zu können, bis zu welchem Beanspruchungszustand die verwendeten Werkstoffgesetze einsetzbar sind und andererseits um die Grenzbelastungen für diese Klebstoffe beurteilen zu können. In dieser Arbeit wurden zwei elastische Klebstoffe untersucht, einer auf Silikon und einer auf Polyurethanbasis. Die Ermittlung der Werkstoffkennwerte erfolgt an Normproben, die den Vorteil einer weiten Verbreitung und Reproduzierbarkeit bieten. Das Werkstoffverhalten wurde unter Zug-, Schub- und Druckbelastung untersucht. Dabei wurde die Belastungsgeschwindigkeit in allen Belastungsarten so gewählt, dass der Energieeintrag pro Volumen und Zeiteinheit für alle Belastungsarten gleich ist. Dies bietet den Vorteil, dass für alle Belastungsarten der gleiche energetische Zustand des Klebstoffes untersucht wird. Diese Untersuchungen bilden die Grundlage für die Bestimmung der Werkstoffkonstanten für Green’sche Werkstoffgesetzte. Diese haben sich für die Berechnung von elastomeren Werkstoffen bewährt. Die Kennwerte für diese Werkstoffgesetze wurden durch Methoden der Ausgleichsrechnung (Methode der kleinsten Quadrate) iterativ so bestimmt. Die Überprüfung der Kennwerte erfolgt anhand von Kopfzugproben. Diese geklebten Proben mit mehrachsigen Spannungszuständen zeigen eine Vielzahl von in der Praxis relevanten Spannungszuständen und damit besonders für die Überprüfung der Werkstoffgesetze geeignet. Der Vergleich zwischen Simulation und Experiment zeigt eine sehr gute Übereinstimmung. Anhand dieser Probengeometrie werden auch der Grenzzustand der Beanspruchung und die hierfür maßgeblichen mechanischen Größen untersucht. Die Untersuchungen zeigen, dass die Formänderungsenergiedichte als Bewertungsgröße für den Grenzzustand und das Eintreten von Schädigungen im Werkstoff geeignet ist.
Mechanical ventilation of patients with severe lung injury is an important clinical treatment to ensure proper lung oxygenation and to mitigate the extent of collapsed lung regions. While current imaging technologies such as Computed Tomography (CT) and chest X-ray allow for a thorough inspection of the thorax, they are limited to static pictures and exhibit several disadvantages, including exposure to ionizing radiation and high cost. Electrical Impedance Tomography (EIT) is a novel method to determine functional processes inside the thorax such as lung ventilation and cardiac activity. EIT reconstructs the internal electrical conductivity distribution within the thorax from voltage measurements on the body surface. Conductivity changes correlate with important clinical parameters such as lung volume and perfusion. Current EIT systems and algorithms use simplified or generalized thorax models to solve the reconstruction problem, which reduce image quality and anatomical significance. In this thesis, the development of a clinically relevant workflow to compute sophisticated three-dimensional thorax models from patient-specific CT data is described. The method allows medical experts to generate a multi-material segmentation in an interactive and fast way, while a volumetric mesh is computed automatically from the segmentation. The significantly improved image quality and anatomical precision of EIT images reconstructed with these 3D models is reported, and the impact on clinical applicability is discussed. In addition, three projects concerning quantitative CT (qCT) measurements and multi-modal 3D visualization are presented, which demonstrate the importance and productivity of interdisciplinary research groups including computer scientists and medical experts. The results presented in this thesis contribute significantly to clinical research efforts to pave the way towards improved patient-specific treatments of lung injury using EIT and qCT.
Bund, Länder und Gemeinden in der Bundesrepublik Deutschland verfügen über ein Straßennetz mit insgesamt etwa 106.000 Straßenbrücken. Aufgrund des zunehmend schlechteren Bauwerkszustandes und infolge steigender Anforderungen durch höhere Verkehrsbelastung entsteht Handlungsbedarf an den Brückenbauwerken. Dazu wurde vom Bundesministerium für Verkehr, Bau und Stadtentwicklung eine einheitliche Strategie entwickelt, nach der die Bausubstanz zu bewerten und Entscheidungen über Ertüchtigung oder Ersatzneubau getroffen werden können. Das Ergebnis der Bestandsaufnahme für Bundesfernstraßen und kommunale Brücken sowie die Problemstellungen aus konstruktiver Sicht werden dargestellt. Das Vorgehen zur Festlegung der Prioritäten bezüglich der Bearbeitung wird erläutert und erste Ergebnisse der Nachrechnungen dargestellt. An zwei Beispielen werden Alternativen von Koppelfugensanierungen bzw. dem erforderlichen Neubau einer Brücke infolge Korrosionsschäden an Vertikalvorspannung erläutert.
Regular physical activity is essential to maintain or even improve an individual’s health. There exist various guidelines on how much individuals should do. Therefore, it is important to monitor performed physical activities during people’s daily routine in order to tell how far they meet professional recommendations. This thesis follows the goal to develop a mobile, personalized physical activity monitoring system applicable for everyday life scenarios. From the mentioned recommendations, this thesis concentrates on monitoring aerobic physical activity. Two main objectives are defined in this context. On the one hand, the goal is to estimate the intensity of performed activities: To distinguish activities of light, moderate or vigorous effort. On the other hand, to give a more detailed description of an individual’s daily routine, the goal is to recognize basic aerobic activities (such as walk, run or cycle) and basic postures (lie, sit and stand).
With recent progress in wearable sensing and computing the technological tools largely exist nowadays to create the envisioned physical activity monitoring system. Therefore, the focus of this thesis is on the development of new approaches for physical activity recognition and intensity estimation, which extend the applicability of such systems. In order to make physical activity monitoring feasible in everyday life scenarios, the thesis deals with questions such as 1) how to handle a wide range of e.g.
everyday, household or sport activities and 2) how to handle various potential users. Moreover, this thesis deals with the realistic scenario where either the currently performed activity or the current user is unknown during the development and training
phase of activity monitoring applications. To answer these questions, this thesis proposes and developes novel algorithms, models and evaluation techniques, and performs thorough experiments to prove their validity.
The contributions of this thesis are both of theoretical and of practical value. Addressing the challenge of creating robust activity monitoring systems for everyday life the concept of other activities is introduced, various models are proposed and validated. Another key challenge is that complex activity recognition tasks exceed the potential of existing classification algorithms. Therefore, this thesis introduces a confidence-based extension of the well known AdaBoost.M1 algorithm, called ConfAdaBoost.M1. Thorough experiments show its significant performance improvement compared to commonly used boosting methods. A further major theoretical contribution is the introduction and validation of a new general concept for the personalization of physical activity recognition applications, and the development of a novel algorithm (called Dependent Experts) based on this concept. A major contribution of practical value is the introduction of a new evaluation technique (called leave-one-activity-out) to simulate when performing previously unknown activities in a physical activity monitoring system. Furthermore, the creation and benchmarking of publicly available physical activity monitoring datasets within this thesis are directly benefiting the research community. Finally, the thesis deals with issues related to the implementation of the proposed methods, in order to realize the envisioned mobile system and integrate it into a full healthcare application for aerobic activity monitoring and support in daily life.
Optical character recognition (OCR) of machine printed text is ubiquitously considered as a solved problem. However, error free OCR of degraded (broken and merged) and noisy text is still challenging for modern OCR systems. OCR of degraded text with high accuracy is very important due to many applications in business, industry and large scale document digitization projects. This thesis presents a new OCR method for degraded
text recognition by introducing a combined ANN/HMM OCR approach. The approach
provides significantly better performance in comparison with state-of-the-art HMM based OCR methods and existing open source OCR systems. In addition, the thesis introduces novel applications of ANNs and HMMs for document image preprocessing and recognition of low resolution text. Furthermore, the thesis provides psychophysical experiments to determine the effect of letter permutation in visual word recognition of Latin and Cursive
script languages.
HMMs and ANNs are widely employed pattern recognition paradigms and have been
used in numerous pattern classification problems. This work presents a simple and novel method for combining the HMMs and ANNs in application to segmentation free OCR of degraded text. HMMs and ANNs are powerful pattern recognition strategies and their combination is interesting to improve current state-of-the-art research in OCR. Mostly, previous attempts in combining the HMMs and ANNs were focused on applying ANNs
as approximation of the probability density function or as a neural vector quantizer for HMMs. These methods either require combined NN/HMM training criteria [ECBG-MZM11] or they use complex neural network architecture like time delay or space displacement neural networks [BLNB95]. However, in this work neural networks are used as discriminative feature extractor, in combination with novel text line scanning mechanism, to extract discriminative features from unsegmented text lines. The features are
processed by HMMs to provide segmentation free text line recognition. The ANN/HMM modules are trained separately on a common dataset by using standard machine learning procedures. The proposed ANN/HMM OCR system also realizes to some extent several cognitive reading based strategies during the OCR. On a dataset of 1,060 degraded text lines extracted from the widely used UNLV-ISRI benchmark database [TNBC99], the presented system achieves a 30% reduction in error rate as compared to Google’s Tesseract OCR system [Smi13] and 43% reduction in error as compared to OCRopus OCR system [Bre08], which are the best open source OCR systems available today.
In addition, this thesis introduces new applications of HMMs and ANNs in OCR and document images preprocessing. First, an HMMs-based segmentation free OCR approach is presented for recognition of low resolution text. OCR of low resolution text is quite important due to presence of low resolution text in screen-shots, web images and video captions. OCR of low resolution text is challenging because of antialiased rendering and use of very small font size. The characters in low resolution text are usually joined to each other and they may appear differently at different locations on computer screen. This
work presents the use of HMMs in optical recognition of low resolution isolated characters and text lines. The evaluation of the proposed method shows that HMMs-based OCR techniques works quite well and reaches the performance of specialized approaches for OCR of low resolution text.
Then, this thesis presents novel applications of ANNs for automatic script recognition and orientation detection. Script recognition determines the written script on the page for the application of an appropriate character recognition algorithm. Orientation detection detects and corrects the deviation of the document’s orientation angle from the horizontal direction. Both, script recognition and orientation detection, are important preprocessing steps in developing robust OCR systems. In this work, instead of extracting handcrafted features, convolutional neural networks are used to extract relevant discriminative features for each classification task. The proposed method resulted in more than 95% script recognition accuracy on various multi-script documents at connected component level
and 100% page orientation detection accuracy for Urdu documents.
Human reading is a nearly analogous cognitive process to OCR that involves decoding of printed symbols into meanings. Studying the cognitive reading behavior may help in building a robust machine reading strategy. This thesis presents a behavioral study that deals on how cognitive system works in visual recognition of words and permuted non-words. The objective of this study is to determine the impact of overall word shape
in visual word recognition process. The permutation is considered as a source of shape degradation and visual appearance of actual words can be distorted by changing the constituent letter positions inside the words. The study proposes a hypothesis that reading of words and permuted non-words are two distinct mental level processes, and people use
different strategies in handling permuted non-words as compared to normal words. The hypothesis is tested by conducting psychophysical experiments in visual recognition of words from orthographically different languages i.e. Urdu, German and English. Experimental data is analyzed using analysis of variance (ANOVA) and distribution free rank tests to determine significance differences in response time latencies for two classes of data. The results support the presented hypothesis and the findings are consistent with
the dual route theories of reading.
Zur Herstellung von Kolbenbeschichtungen wird oft Polyamidimid (PAI)-Harz eingesetzt.
Dieses Harz benötigt die Verwendung eines Lösungsmittels, welches das Auftragen der
PAI-basierten Beschichtungen ermöglicht und nach der Applikation wieder entzogen
wird. Als Standard zur Herstellung von Polyamidimid-Harzen wird das Lösungsmittel
N-Methyl-2-Pyrrolidone (NMP) verwendet. NMP hat sich im Laufe der Jahre als das am
besten geeigneten Lösungsmittel für diese Anwendung bewährt.
Im Jahr 2010 wurde NMP als toxisch eingestuft. Auch die mittlerweile verwendeten
alternativen Lösungsmittel, N-Ethyl-2-Pyrrolidon (NEP) und gamma-Butyrolacton (GBL),
bringen Schwierigkeiten mit sich: NEP wird aufgrund der Ähnlichkeit seiner chemischen
Struktur zu NMP aller Voraussicht nach in naher Zukunft auch als toxisch eingestuft, und
GBL, als Vorstufe eines Narkotikums, stellt eine Herausforderung mit Hinblick auf
Arbeitsschutz und –sicherheit dar.
Ziel der vorliegenden Arbeit war die Entwicklung eines PAI-basierten
Beschichtungssystems, welches ein umweltfreundliches Lösungsmittel verwendet und
die Anforderungen zur Herstellung von Kolbenschaftbeschichtungen hinreichend gut
erfüllt. Desweiteren muss die neu entwickelte PAI-Beschichtung gute mechanische
Eigenschaften, gute Haftfestigkeit zum Kolbengrundmaterial und optimales
tribologisches Verhalten mit Augenmerk auf eine niedrige spezifische Verschleißrate
aufweisen. Diese Eigenschaften müssen nach Aushärtung bei einer Temperatur nicht
höher als 215 °C erfüllbar sein, welche in einem realen Beschichtungsprozess einen
problemlosen Ablauf sicherstellen würde.
Damit die erworbenen mechanischen und tribologischen Endeigenschaften der
hergestellten PAI-basierten Gleitlackbeschichtungen richtig verstanden und interpretiert
werden, wurden die Grundlagen der chemischen Struktur der PAI-Harze möglichst
detailliert untersucht. Diese geben einen tiefen Einblick in die vorliegenden Struktur-
Eigenschafts-Beziehungen und erklären das mechanische und tribologische Verhalten
der PAI-Harze. Eine grundlegende Untersuchung der chemischen Struktur ausgewählter PAI-Harze
ergab neue Erkenntnisse bezüglich deren Aushärtekinetik und gewährleistete die
Aufklärung der chemischen Prozesse, die während der PAI-Aushärtung ablaufen. In
diesem Zusammenhang wurde der Umsatz, die Reaktionsgeschwindigkeit und die
Vernetzungsdichte als Funktion verschiedener Aushärtetemperaturen ermittelt.
Es wurden PAI-Beschichtungssysteme basiert auf verschiedenen Lösungsmittel, wie
z.B. 1,3-Dimethyl-3,4,5,6-tetrahydro-2(1H)-pyrimidinon (DMPU), 1,3-Dimethyl-2-
imidazolidinon (DMEU) und 1-Methylimidazol (MI), tribologisch und mechanisch
analysiert und den NMP-, NEP- und GBL-basierten Systemen gegenüber gestellt.
Aufgrund der zahlreichen Versuche konnte festgestellt werden, dass das Lösungsmittel
1-Methylimidazol die gestellten tribologischen Anforderungen, sogar schon bei der für
eine Kolbenschaftbeschichtung maximal zulässigen Aushärtetemperatur (215 °C), am
besten erfüllt.
Die Untersuchungen der chemischen Struktur und der Aushärtekinetik ergaben die
Ursache für diese guten finalen Eigenschaften des PAI-MI-Harzsystems. Dabei wurde
festgestellt, dass 1-Methylimidazol die Imidisierungsreaktion von PAI katalysiert, so dass
die Aushärtereaktion bei niedriger Aushärtetemperatur vollständiger und mit höherer
Reaktionsrate im Vergleich zu konventionellen PAI-Harzen verläuft. Aufgrund der
Bildung von Wasserstoffbrücken-Bindungen zeigte das PAI-MI-Harz bei einer
Aushärtung mit Endtemperatur 215 °C eine doppelt so hohe Steifigkeit im Vergleich zu
konventionellen Harzsystemen.
Weiterhin ergab die tribologische Versuchsreihe, dass die Zugabe von
aminofunktionalisierten TiO2-Submikropartikeln, kombiniert mit gemahlenen kurzen
Kohlenstofffasern, die tribologischen Eigenschaften von PAI-basierten Beschichtungssystemen
in Motortests signifikant verbesserte. Die Aminofunktionalisierung der TiO2-
Submikropartikel verbesserte deren Anbindung an die aminhaltige PAI-Matrix. Die
gemahlenen kurzen Kohlenstofffasern gewährleisteten eine Minimierung der
Schwierigkeiten beim Siebdruckprozess.
In this paper we give an overview on the system of rehabilitation clinics in Germany in general and the literature on patient scheduling applied to rehabilitation facilities in particular.
We apply a class-teacher model developed to this environment and then generalize it to meet some of the specific constraints of inpatient rehabilitation clinics. To this end we introduce a restricted edge coloring on undirected bipartite graphs which is called group-wise balanced. The problem considered is called patient-therapist-timetable problem with group-wise balanced constraints (PTTPgb). In order to specify weekly schedules further such that they produce a reasonable allocation to morning/afternoon (second level decision) and to the single periods (third level decision) we introduce (hierarchical PTTPgb). For the corresponding model, the hierarchical edge coloring problem, we present some first feasibility results.
Due to the increasing number of natural or man-made disasters, the application of operations research methods in evacuation planning has seen a rising interest in the research community. From the beginning, evacuation planning has been highly focused on car-based evacuation. Recently, also the evacuation of transit depended evacuees with the help of buses has been considered.
In this case study, we apply two such models and solution algorithms to evacuate a core part of the metropolitan capital city Kathmandu of Nepal as a hypothetical endangered region, where a large part of population is transit dependent. We discuss the computational results for evacuation time under a broad range of possible scenarios, and derive planning suggestions for practitioners.
Monte Carlo simulation is one of the commonly used methods for risk estimation on financial markets, especially for option portfolios, where any analytical approximation is usually too inaccurate. However, the usually high computational effort for complex portfolios with a large number of underlying assets motivates the application of variance reduction procedures. Variance reduction for estimating the probability of high portfolio losses has been extensively studied by Glasserman et al. A great variance reduction is achieved by applying an exponential twisting importance sampling algorithm together with stratification. The popular and much faster Delta-Gamma approximation replaces the portfolio loss function in order to guide the choice of the importance sampling density and it plays the role of the stratification variable. The main disadvantage of the proposed algorithm is that it is derived only in the case of Gaussian and some heavy-tailed changes in risk factors.
Hence, our main goal is to keep the main advantage of the Monte Carlo simulation, namely its ability to perform a simulation under alternative assumptions on the distribution of the changes in risk factors, also in the variance reduction algorithms. Step by step, we construct new variance reduction techniques for estimating the probability of high portfolio losses. They are based on the idea of the Cross-Entropy importance sampling procedure. More precisely, the importance sampling density is chosen as the closest one to the optimal importance sampling density (zero variance estimator) out of some parametric family of densities with respect to Kullback - Leibler cross-entropy. Our algorithms are based on the special choices of the parametric family and can now use any approximation of the portfolio loss function. A special stratification is developed, so that any approximation of the portfolio loss function under any assumption of the distribution of the risk factors can be used. The constructed algorithms can easily be applied for any distribution of risk factors, no matter if light- or heavy-tailed. The numerical study exhibits a greater variance reduction than of the algorithm from Glasserman et al. The use of a better approximation may improve the performance of our algorithms significantly, as it is shown in the numerical study.
The literature on the estimation of the popular market risk measures, namely VaR and CVaR, often refers to the algorithms for estimating the probability of high portfolio losses, describing the corresponding transition process only briefly. Hence, we give a consecutive discussion of this problem. Results necessary to construct confidence intervals for both measures under the mentioned variance reduction procedures are also given.
Der „Irrelevant Sound Effect“ besteht in einer Beeinträchtigung der seriellen Wiedergabeleistung für visuell präsentierte Folgen sprachlicher Items durch aufgabenirrelevante Hintergrundgeräusche. Unklar ist jedoch, ob der Irrelevant Sound Effect bei Kindern entwicklungsbedingten Veränderungen unterliegt und welches Arbeitsgedächtnismodell das kindliche Befundmuster am besten abzubilden vermag. Um einen Beitrag zur Klärung dieser Fragestellungen zu leisten, wurden zwei altersvergleichende Experimente zur quantitativen und qualitativen Beschaffenheit des Irrelevant Sound Effect durchgeführt. Experiment 1 prüfte, ob beim Irrelevant Sound Effect Alterseffekte zu verzeichnen sind und ob diese gegebenenfalls durch die Art des Hintergrundschalls (Changing-State- vs. Steady-State-Schall), die Modalität der Aufgabenstellung (auditiv vs. visuell) und/oder die Anforderungen der zu bearbeitenden Aufgabe (serielle Behaltensaufgabe vs. lautanalytische Odd-One-Out-Aufgabe) moderiert werden. Experiment 2 untersuchte etwaige Alterseffekte hinsichtlich des Einflusses der Lautstärke und/oder der Verständlichkeit des Hintergrundschalls. Hervorzuheben ist, dass erstmals Vorschüler berücksichtigt wurden, womit in beiden Studien ein breiter Altersbereich vom Vorschul- bis zum Erwachsenenalter abgedeckt wird.
Wesentliche Erkenntnis ist, dass der Irrelevant Sound Effect entwicklungsbedingten Veränderungen unterliegt, welche zeitlich im Vorschulalter anzusiedeln sind. Vorschüler werden deutlich stärker und umfassender durch Hintergrundschall beeinträchtigt als die übrigen Altersgruppen, die diesbezüglich nicht differieren. Die Effekte irrelevanten Hintergrundschalls scheinen bei Kindern demnach auf zwei qualitativ unterschiedlichen Wirkmechanismen zu fußen: Zunächst erhält irrelevanter Hintergrundschall – entwicklungsunabhängig – obligatorischen, automatischen Zugang zum Arbeitsgedächtnis, wodurch eine Interferenz mit den zu memorierenden Items auftritt. Darüber hinaus ist bei Vorschülern ein zusätzlicher, globalerer, dem Arbeitsgedächtnis vorgelagerter Mechanismus anzunehmen (z.B. gestörte Encodierung der Zielitems) – der Ansatz einer vermehrten Aufmerksamkeitsdistraktion kann stattdessen nicht gestützt werden.
Diese Experimente haben zudem ein Resultat erbracht, dessen nähere Analyse unabhängig vom Entwicklungsaspekt einen wertvollen Beitrag zum modelltheoretischen Diskurs verspricht: Ein irrelevantes Hintergrundsprechen bewirkte nicht nur bei der seriellen Behaltensaufgabe, sondern auch bei einer lautanalytischen Aufgabe eine signifikante Leistungsverschlechterung. Da die gängigen Arbeitsgedächtnismodelle zur Erklärung des Irrelevant Sound Effect hinsichtlich ihrer Annahmen potentiell lärmsensitiver Aufgaben differieren, wurde eine zweite, auf Erwachsene beschränkte Experimentalserie angeschlossen, deren Ergebnisse wie folgt zusammengefasst werden können: Die Leistungsminderung in der lautanalytischen Aufgabe ist vermutlich auf die phonologische Anforderung per se zurückzuführen, da der Effekt aufgehoben wird, wenn anstelle der phonologischen Analyse eine semantische gefordert wird (Experiment 3). Der phonologische Charakter ist jedoch nicht nur bei der Aufgabenstellung eine kritische Größe, sondern auch beim Hintergrundschall: Während Hintergrundsprechen einen Irrelevant Sound Effect provoziert, vermag Nichtsprache vergleichbarer Komplexität (spektral rotierte Sprache) dies nicht zu leisten (Experiment 5). Dies ist als Indiz dafür zu werten, dass über den temporal-spektralen Verlauf hinausgehende Parameter existieren müssen, die den Irrelevant Sound Effect modellieren. Die phonologische Ähnlichkeit zwischen den Stimuli der Primäraufgabe und der Distraktoren (Between-Stream Phonological Similarity Effect) scheint hingegen keinen Einfluss zu nehmen (Experiment 4). Zusammenfassend bevorzugt das Befundmuster Modelle, die zur Erklärung des Phänomens auf modalitätsspezifische Interferenzen mit phonologischen Repräsentationen im Arbeitsgedächtnis rekurrieren.
Der Eurodistrict SaarMoselle hat sich zum Ziel gesetzt, eine funktionierende grenzüberschreitende Agglomeration zu entwickeln. Der Raum SaarMoselle wird sich jedoch nur weiterentwickeln können, wenn die Hindernisse, die auf Grund der Grenze in verschiedenen Bereichen noch existieren, überwunden werden. Zu den Problembereichen oder Herausforderungen gehört das Thema grenzüberschreitender ÖPNV. Es ist nämlich festzustellen, dass der ÖPNV auf grenzüberschreitender Ebene nur sehr geringfügig genutzt wird. Der Vortrag beleuchtet einen Teil der Gründe für die aktuelle Situation, stellt aber auch die Errungenschaften des grenzüberschreitenden ÖPNV sowie zwei Projekte mit großer Tragweite vor.
Die Brücke von Rosbrück ist ein Bauwerk aus Spannbeton, das vom Departement Moselle verwaltet wird. Da sie schon 1952 gebaut wurde, weist sie mehrere Spannkabel auf, die offensichtlich rissig oder brüchig sind. Diese Schädigungen stellen die Tragfähigkeit des Bauwerks in Frage.
Es erschien daher notwendig, den Zustand der Kabel im Inneren der Träger zu überprüfen. Im Vorfeld der Kontrolle mittels der MFL-Methode (Magnetic Flux Leakage) wurde deren Position im Verhältnis zu den Ausführungsebenen überprüft. Da diese Überprüfung schlüssig war, wurden dann die MFL-Messungen an einem der Träger des Bauwerks durchgeführt. Die Ergebnisse sind beweiskräftig und es wurden keine Mängel nachgewiesen. In der Folge erscheint es nötig, die Überprüfung (Auskultation) auf geschädigte Bereiche auszudehnen.
Abstract
Im Rahmen dieser Arbeit sollten verschiedene Möglichkeiten untersucht werden, Salene in metallorganischen Gerüstverbindungen zu immobilisieren. Dazu wurde auf bekannte Methoden der Immobilisierung in Zeolithen und mesoporösen Materialien zurückgegriffen und gegebenenfalls modifiziert. Zu den ausgewählten metallorganischen Gerüstverbindungen gehörten MOF-5, Cu\(_3\)(BTC)\(_2\) bzw. HKUST-1 und (Cr)MIL-101. Durch verschiedene Charakterisierungsmethoden, wie z. B. Röntgen-Pulverdiffraktometrie, IR-Spektroskopie, UV/VIS-Spektroskopie, Rasterelektronen-Mikroskopie, Bestimmung der spezifischen Oberfläche nach der BET-Methode und chemischer Analyse sollte die Immobilisierung der Salene innerhalb der MOFs überprüft werden.
Nach der “build-the-bottle-around-the-ship“-Methode konnte Mn-RR-Salen in MOF-5 eingebracht werden. Da MOF-5 allerdings keine Möglichkeit bietet das Salen zu fixieren, war es nicht möglich, das Salen in der Struktur zu halten. Bereits nach 24-stündiger Extraktion mit Aceton in einer Soxhlet-Apparatur waren keinerlei Signale des Salens im IR-Spektrum mehr erkennbar. Das Mn-en-Salen verhinderte die Kristallisation von MOF-5 und konnte auch mithilfe anderer Methoden nicht in MOF-5 eingebracht werden.
In Cu\(_3\)(BTC)\(_2\) sollten ebenfalls nach der “ build-the-bottle-around-the-ship“-Methode die beiden Schiffschen Basen Mn-RR-Salen und Mn-en-Salen immobilisiert werden. Dieser Versuch schlug fehl. In keiner der untersuchten Synthesemethoden konnte ein Hinweis auf eine erfolgreiche Immobilisierung der Salene innerhalb des Gerüst erbracht werden.
Die Versuche, Mn-en-Salen und Mn-RR-Salen innerhalb des Gerüsts von (Cr)MIL-101 zu immobilisieren, schlugen fehl. Dabei wurden in flüssiger Phase sowohl die “ build-the-bottle-around-the-ship“-Methode, die “ship-in-a-bottle“-Methode als auch das Einbringen des Salens als Ganzes erprobt. Der Versuch, das Salen durch Erhitzen im Vakuum in die Poren und Hohlräume (Cr)MIL-101 hinein diffundieren zu lassen, scheiterte an der Instabilität des Wirts.
Letztendlich gelang es, verschiedene Salene über eine schrittweise “ship-in-a-bottle“-Methode in (Cr)MIL-101-ED (ED = Ethylendiamin) zu immobilisieren und Palladium darin zu komplexieren.
Die katalytischen Eigenschaften der immobilisierten Pd-Salene wurden anhand der hydrierenden Umsetzung von sechs Modellsubstanzen untersucht, jeweils bei Raumtemperatur. Als Modellsubstanzen dienten 1-Hexen, Cyclohexen, Cycloocten, Cyclohexenon, Zimtaldehyd und Citral. Zum Vergleich wurden die gleichen Hydrierungen mit Pd/γ-Al2O3 (5 Gew.-% Pd) und Pd/C (10 Gew.-% Pd) und den reinen Salenen Pd-en-Salen und Pd-RR-Salen durchgeführt.
Des Weiteren wurden in Kooperation mit dem Arbeitskreis Thiel (FB Chemie, TU Kaiserslautern) neuartige Linker auf Basis der Biphenyldicarbonsäure synthetisiert, aus denen wiederum zink- und zirkoniumhaltige metallorganische Gerüstverbindungen synthetisiert werden sollten. Die Linker sollten so modifiziert werden, dass eine eventuelle Interpenetration der entstehenden MOFs nahezu vollständig verhindert wird.
Im Fall der zinkhaltigen MOFs konnte die Interpenetration nicht verhindert werden. Die Materialien besaßen jedoch allesamt große spezifische Oberflächen, sodass Adsorptionsisothermen von C1- bis C4-Kohlenwasserstoffen sowie von Kohlendioxid aufgenommen wurden.
Im Fall der zirkoniumhaltigen MOFs gestaltete sich die Synthese der phasenreinen Substanzen schwierig; auch über einen Modulationsansatz wurde immer ein mit amorphem Material verunreinigtes Pulver erhalten. Trotzdem wurden die gleichen Adsorptions-experimente wie mit den zinkhaltigen MOFs durchgeführt.
Die Auswertung der Isothermen erfolgte mithilfe verschiedener Modelle (Langmuir, Freundlich, Sips). Dabei zeigte sich, dass die Sips-Gleichung die gemessenen Werte am besten beschreiben kann. Außerdem konnte über den Wert t Aussagen über den Grad der “Heterogenität“ der Oberfläche getroffen werden.
Im Bereich der Immobilisierung der Salene in metallorganischen Gerüstverbindungen böte sich noch die Möglichkeit, die Salene über einen Seitenarm postsynthetisch an eine bereits im Gitter vorhandene funktionelle Gruppe zu kondensieren / verbinden. Dadurch wäre das Salen fixiert und das Zentralmetall trotzdem zugänglich. Dazu ist es jedoch erforderlich, eine metallorganische Gerüstverbindung zu wählen, das dem Salen ausreichend Platz bietet und zudem eine ausreichend hohe Stabilität aufweist.
Im Bereich der neuartigen metallorganischen Gerüstverbindungen wäre es von Interesse, ob die zinkhaltigen MOFs in einer nicht-interpenetrierten Struktur synthetisierbar wären und ob die Adsorptionskapazität dadurch steigen würde. Im Fall der zirkoniumhaltigen MOFs müssten die Synthesebedingungen verbessert werden, um ein phasenreines Material zu erhalten. Dadurch würde man ein Material mit großer spezifischer Oberfläche, hoher thermischer Stabilität und ohne Interpenetration gewinnen und es bestünde die Möglichkeit, die funktionellen Gruppen am Linker postsynthetisch zu modifizieren.
Erste weiterführende Arbeiten mit den neuartigen Linkern und anderen Metallen als anorganische Knoten wurden bereits erprobt, daher wäre eine fortführende Untersuchung der Eignung als Träger Katalysatoren oder als Gasspeicher ebenfalls von Interesse.
Das zinsoptimierte Schuldenmanagement hat zum Ziel, eine möglichst effiziente Abwägung zwischen den erwarteten Finanzierungskosten einerseits und den Risiken für den Staatshaushalt andererseits zu finden. Um sich diesem Spannungsfeld zu nähern, schlagen wir erstmals die Brücke zwischen den Problemstellungen des Schuldenmanagements und den Methoden der zeitkontinuierlichen, dynamischen Portfoliooptimierung.
Das Schlüsselelement ist dabei eine neue Metrik zur Messung der Finanzierungskosten, die Perpetualkosten. Diese spiegeln die durchschnittlichen zukünftigen Finanzierungskosten wider und beinhalten sowohl die bereits bekannten Zinszahlungen als auch die noch unbekannten Kosten für notwendige Anschlussfinanzierungen. Daher repräsentiert die Volatilität der Perpetualkosten auch das Risiko einer bestimmten Strategie; je langfristiger eine Finanzierung ist, desto kleiner ist die Schwankungsbreite der Perpetualkosten.
Die Perpetualkosten ergeben sich als Produkt aus dem Barwert eines Schuldenportfolios und aus der vom Portfolio unabhängigen Perpetualrate. Für die Modellierung des Barwertes greifen wir auf das aus der dynamischen Portfoliooptimierung bekannte Konzept eines selbstfinanzierenden Bondportfolios zurück, das hier auf einem mehrdimensionalen affin-linearen Zinsmodell basiert. Das Wachstum des Schuldenportfolios wird dabei durch die Einbeziehung des Primärüberschusses des Staates gebremst bzw. verhindert, indem wir diesen als externen Zufluss in das selbstfinanzierende Modell aufnehmen.
Wegen der Vielfältigkeit möglicher Finanzierungsinstrumente wählen wir nicht deren Wertanteile als Kontrollvariable, sondern kontrollieren die Sensitivitäten des Portfolios gegenüber verschiedenen Zinsbewegungen. Aus optimalen Sensitivitäten können in einem nachgelagerten Schritt dann optimale Wertanteile für verschiedenste Finanzierungsinstrumente abgeleitet werden. Beispielhaft demonstrieren wir dies mittels Rolling-Horizon-Bonds unterschiedlicher Laufzeit.
Schließlich lösen wir zwei Optimierungsprobleme mit Methoden der stochastischen Kontrolltheorie. Dabei wird stets der erwartete Nutzen der Perpetualkosten maximiert. Die Nutzenfunktionen sind jeweils an das Schuldenmanagement angepasst und zeichnen sich insbesondere dadurch aus, dass höhere Kosten mit einem niedrigeren Nutzen einhergehen. Im ersten Problem betrachten wir eine Potenznutzenfunktion mit konstanter relativer Risikoaversion, im zweiten wählen wir eine Nutzenfunktion, welche die Einhaltung einer vorgegebenen Schulden- bzw. Kostenobergrenze garantiert.
The heart is reported to show a net consumption of lactate. This may contribute up to 15% to the total body lactate disposal. In this work, the consumption of lactate was shown for the first
time on the single cell level with the new FRET-based lactate sensor Laconic.
Research published until today, almost exclusively reports the monocarboxylate transporter 1
(MCT1) as the transporter responsible for myocardial lactate uptake. As this membrane
transporter transports lactate together with H+ in a stoichiometry of 1:1, lactate transport is
coupled to pH regulation. Consequently, interactions of MCT1 and acid/base regulating proteins
(carbonic anhydrases (CAs and sodium bicarbonate co-transporters (NBCs)) are described in
the oocyte expression system, skeletal muscle and cancer cells.
In this work it is shown that activity of extracellular CA increases lactate uptake into mouse
cardiomyocytes by 27% and lactate induced JA/B by 42.8% to 46.2%. This effect is most likely
mediated via NBC/CA interaction because inhibition of extracellular CA reduces HCO3--
dependent acid extruding JA/B by 53.3% to 78.4%. This may link lactate uptake to cellular
respiration. When lactate was applied in medium gassed with 100% N2, lactate induced
acidification was 12.6% faster than in medium gassed with 100% O2. Thus, CO2 produced on
the pathway transferring redox energy from substrates like glucose and lactate to ADP and
phosphate via oxidative phosphorylation, may support further lactate uptake. The findings of
this work suggest an auto regulation of lactate uptake via CO2 release in ventricular mouse
cardiomyocytes.
In this thesis we studied and investigated a very common but a long existing noise problem and we provided a solution to this problem. The task is to deal with different types of noise that occur simultaneously and which we call hybrid. Although there are individual solutions for specific types one cannot simply combine them because each solution affects the whole speech. We developed an automatic speech recognition system DANSR ( Dynamic Automatic Noisy Speech Recognition System) for hybrid noisy environmental noise. For this we had to study all of speech starting from the production of sounds until their recognition. Central elements are the feature vectors on which pay much attention. As an additional effect we worked on the production of quantities for psychoacoustic speech elements.
The thesis has four parts:
1) The first part we give an introduction. The chapter 2 and 3 give an overview over speech generation and recognition when machines are used. Also noise is considered.
2) In the second part we describe our general system for speech recognition in a noisy environment. This is contained in the chapters 4-10. In chapter 4 we deal with data preparation. Chapter 5 is concerned with very strong noise and its modeling using Poisson distribution. In the chapters 5-8 we deal with parameter based modeling. Chapter 7 is concerned with autoregressive methods in relation to the vocal tract. In the chapters 8 and 9 we discuss linear prediction and its parameters. Chapter 9 is also concerned with quadratic errors, the decomposition into sub-bands and the use of Kalman filters for non-stationary colored noise in chapter 10. There one finds classical approaches as long we have used and modified them. This includes covariance mehods, the method of Burg and others.
3) The third part deals firstly with psychoacoustic questions. We look at quantitative magnitudes that describe them. This has serious consequences for the perception models. For hearing we use different scales and filters. In the center of the chapters 12 and 13 one finds the features and their extraction. The fearures are the only elements that contain information for further use. We consider here Cepstrum features and Mel frequency cepstral coefficients(MFCC), shift invariant local trigonometric transformed (SILTT), linear predictive coefficients (LPC), linear predictive cepstral coefficients (LPCC), perceptual linear predictive (PLP) cepstral coefficients. In chapter 13 we present our extraction methods in DANSR and how they use window techniques And discrete cosine transform (DCT-IV) as well as their inverses.
4) The fourth part considers classification and the ultimate speech recognition. Here we use the hidden Markov model (HMM) for describing the speech process and the Gaussian mixture model (GMM) for the acoustic modelling. For the recognition we use forward algorithm, the Viterbi search and the Baum-Welch algorithm. We also draw the connection to dynamic time warping (DTW). In the rest we show experimental results and conclusions.
In this thesis, we combine Groebner basis with SAT Solver in different manners.
Both SAT solvers and Groebner basis techniques have their own strength and weakness.
Combining them could fix their weakness.
The first combination is using Groebner techniques to learn additional binary clauses for SAT solver from a selection of clauses. This combination is first proposed by Zengler and Kuechlin.
However, in our experiments, about 80 percent Groebner basis computations give no new binary clauses.
By selecting smaller and more compact input for Groebner basis computations, we can significantly
reduce the number of inefficient Groebner basis computations, learn much more binary clauses. In addition,
the new strategy can reduce the solving time of a SAT Solver in general, especially for large and hard problems.
The second combination is using all-solution SAT solver and interpolation to compute Boolean Groebner bases of Boolean elimination ideals of a given ideal. Computing Boolean Groebner basis of the given ideal is an inefficient method in case we want to eliminate most of the variables from a big system of Boolean polynomials.
Therefore, we propose a more efficient approach to handle such cases.
In this approach, the given ideal is translated to the CNF formula. Then an all-solution SAT Solver is used to find the projection of all solutions of the given ideal. Finally, an algorithm, e.g. Buchberger-Moeller Algorithm, is used to associate the reduced Groebner basis to the projection.
We also optimize the Buchberger-Moeller Algorithm for lexicographical ordering and compare it with Brickenstein's interpolation algorithm.
Finally, we combine Groebner basis and abstraction techniques to the verification of some digital designs that contain complicated data paths.
For a given design, we construct an abstract model.
Then, we reformulate it as a system of polynomials in the ring \({\mathbb Z}_{2^k}[x_1,\dots,x_n]\).
The variables are ordered in a way such that the system has already been a Groebner basis w.r.t lexicographical monomial ordering.
Finally, the normal form is employed to prove the desired properties.
To evaluate our approach, we verify the global property of a multiplier and a FIR filter using the computer algebra system Singular. The result shows that our approach is much faster than the commercial verification tool from Onespin on these benchmarks.
‘Dioxin-like’ (DL) compounds occur ubiquitously in the environment. Toxic responses associated with specific dibenzo-p-dioxins (PCDDs), dibenzofurans (PCDFs), and polychlorinated biphenyls (PCBs) include dermal toxicity, immunotoxicity, liver toxicity, carcinogenicity, as well as adverse effects on reproduction, development, and endocrine functions. Most, if not all of these effects are believed to be due to interaction of these compounds with the aryl hydrocarbon receptor (AhR).
With tetrachlorodibenzo-p-dioxin (TCDD) as representatively most potent congener, a toxic equivalency factor (TEF) concept was employed, in which respective congeners were assigned to a certain TEF-value reflecting the compound’s toxicity relative to TCDD’s.
The EU-project ‘SYSTEQ’ aimed to develop, validate, and implement human systemic TEFs as indicators of toxicity for DL-congeners. Hence, the identification of novel quantifiable biomarkers of exposure was a major objective of the SYSTEQ project.
In order to approach to this objective, a mouse whole genome microarray analysis was applied using a set of seven individual congeners, termed the ‘core congeners’. These core congeners (TCDD, 1-PeCDD, 4-PeCDF, PCB 126, PCB 118, PCB 156, and the non dioxin-like PCB 153), which contribute to approximately 90% of toxic equivalents (TEQs) in the human food chain, were further tested in vivo as well as in vitro. The mouse whole genome microarray revealed a conserved list of differentially regulated genes and pathways associated with ‘dioxin-like’ effects.
A definite data-set of in vitro studies was supposed to function as a fundament for a probable establishment of novel TEFs. Thus, CYP1A induction measured by EROD activity, which represents a sensitive and yet best known marker for dioxin-like effects, was used to estimate potency and efficacy of selected congeners. For this study, primary rat hepatocytes and the rat hepatoma cell line H4IIE were used as well as the core congeners and an additional group of compounds of comparable relevance for the environment: 1,6-HxCDD, 1,4,6-HpCDD, TCDF, 1,4-HxCDF, 1,4,6-HpCDF, PCB 77, and PCB 105.
Besides, a human whole genome microarray experiment was applied in order to gain knowledge with respect to TCDD’s impact towards cells of the immune system. Hence, human primary blood mononuclear cells (PBMCs) were isolated from individuals and exposed to TCDD or to TCDD in combination with a stimulus (lipopolysaccharide (LPS), or phytohemagglutinin (PHA)). A few members of the AhR-gene batterie were found to be regulated, and minor data with respect to potential TCDD-mediated immunomodulatory effects were given. Still, obtained data in this regard was limited due to great inter-individual differences.
This thesis is devoted to the modeling and simulation of Asymmetric Flow Field Flow Fractionation, which is a technique for separating particles of submicron scale. This process is a part of large family of Field Flow Fractionation techniques and has a very broad range of industrial applications, e. g. in microbiology, chemistry, pharmaceutics, environmental analysis.
Mathematical modeling is crucial for this process, as due to the own nature of the process, lab ex- periments are difficult and expensive to perform. On the other hand, there are several challenges for the mathematical modeling: huge dominance (up to 106 times) of the flow over the diffusion, highly stretched geometry of the device. This work is devoted to developing fast and efficient algorithms, which take into the account the challenges, posed by the application, and provide reliable approximations for the quantities of interest.
We present a new Multilevel Monte Carlo method for estimating the distribution functions on a compact interval, which are of the main interest for Asymmetric Flow Field Flow Fractionation. Error estimates for this method in terms of computational cost are also derived.
We optimize the flow control at the Focusing stage under the given constraints on the flow and present an important ingredients for the further optimization, such as two-grid Reduced Basis method, specially adapted for the Finite Volume discretization approach.
The study addresses the effect of multiple jet passes and other parameters namely feedrate, water pressure and standoff distance in waterjet peening of metallic
surfaces. An analysis of surface integrity was used to evaluate the performance of
different parameters in the process. An increase in the number of jet passes and
pressure leads to a higher roughness and more erosion and also a higher hardness.
In contrast, the feedrate shows a reverse effect on those surface characteristics.
There exists a specific value of standoff distance that results in the maximum surface
roughness, erosion as well as hardness. Analysis of the surface microstructure gave
a good insight into the mechanism material removal process involving initial and
evolved damage. Also, the waterjet peening process was optimized based on the
design of experiment approach. The developed empirical models had shown
reasonable correlations between the measured and predicted responses. A proper selection of waterjet peening parameters can be formulated to be used in practical
works.
ABSTRACT
"Spin and orbital contribution to the magnetic moment of transition metal clusters and complexes"
The spin and orbital contributions to the magnetic moments of isolated iron \(Fe_n^+\) \((7 ≤ n ≤ 18)\), cobalt \(Co_n^+\) \((8 ≤ n ≤ 22)\) and nickel \(Ni_n^+\) \((7 ≤ n ≤ 17)\) clusters were investigated. An experimental access to both contributions is possible by the application of x-ray magnetic circular dichroism (XMCD) spectroscopy. XMCD spectroscopy is based on x-ray absorption spectroscopy (XAS). It exploits the fact that for a magnetic sample the resonant absorption cross sections for negative and positive circular polarized x-rays differ for the transition from a spin orbit split ground state to the valence level. The resulting dichroic effects contain the information about the magnetism of the investigated sample. It can be extracted from the experimental spectrum via application of the so called sum rules. However, only the projections of the magnetic moments onto the quantization axis are experimentally accessible which corresponds to the magnetization of the sample.
We developed a method to apply XMCD spectroscopy to isolated clusters in the gas phase. A modified Fourier Transform Ion Cyclotron Resonance (FT-ICR) mass spectrometer was used to record the XA spectra in Total Ion Yield (TIY) mode, i.e. by recording the fragmentation intensity of the clusters in dependence of x-ray energy. The clusters can be considered to be a superparamagnetic ensemble. Thus, the magnetization follows a Langevin curve. The intrinsic magnetic moments can be calculated by Langevin correction of the experimental magnetic moments because the cluster temperature and the magnetic field are known.
The spin and the orbital magnetic moments are enhanced compared to the respective bulk values for all three investigated elements. The enhancement of the orbital contribution is more pronounced, by about a factor 3 - 4 compared to the bulk, than for the spin magnetic moment. However, if compared to the atomic value, both contributions are quenched. The orbital magnetic moment only amounts to about 10 - 15 % of the atomic value while the spin retains about 80 % of its atomic value. If the magnetic moments found for the clusters are put into perspective with respect to the atomic and bulk values by means of scaling laws, it becomes evident that both contributions follow different interpolations between the atomic and bulk value. The spin follows the well-known trend
\(n^{-1/3} = 1/(cluster radius)\) (n = number of atoms per cluster, assumption of a spherical particle). This trend relates to the ratio of surface to inner atoms in spherical particle. Hence, our interpretation is that the spin magnetic moment seems to follow the surface area of the cluster. On the other hand, the orbital magnetic moment follows \(1/n = 1/(cluster volume)\).
First XA spectra recorded with circularly polarized x-rays of a Single Molecule Magnet (SMM) \([Fe_4Ln_2(N_3)_4(Htea)_4(piv_6)]\) (Ln = Gd, Tb; \(H_3tea\) = triethanolamine, Hpiv = pivalic acid) are presented.
Der Arylhydrocarbon Rezeptor (AhR) ist ein Liganden-abhängiger Transkriptionsfaktor, der zur Familie der basic helix-loop-helix-Per-Arnt-Sim (bHLH-PAS) Proteine gehört. Am besten bekannt durch seine Rolle bei der Toxizität und Kanzerogenität von polychlorier-ten/polyzyklischen aromatischen Kohlenwasserstoffen, wurde er in diesem Zusammenhang weitestgehend untersucht. Auch wenn seine physiologische Rolle noch nicht eindeutig geklärt wurde, zeigen aktuelle Studien, dass der AhR in vielen anderen Bereichen wie Zellwachstum, –differenzierung und Apoptose, aber auch bei der Regulation des Immunsystems eine wichti-ge Rolle spielt.
Im Rahmen der vorliegenden Dissertation wurden Knochenmarkzellen adulter C57BL/6 Mäu-se isoliert und in Gegenwart von GM-CSF in vitro ausdifferenziert. Die adhärente Population konnte antigenpräsentierenden MHCII+ Zellen, mit dem Charakter CD11c+ dendritischer Zel-len und F4/80+ Makrophagen, zugeordnet werden. Nach Behandlung myeloider Zellen mit LPS, zeigten die gewonnenen Mediumüberstände in HepG2-Zellen eine signifikante und teil-weise AhR-abhängige CYP1A1-Induktion im EROD-Assay, aber auch eine signifikant erhöh-te CYP1A1-Genexpression. Gleichzeitig konnte durch die konditionierten Mediumüberstände myeloider Zellen eine Inhibition der TCDD-induzierten CYP1A1-Aktivität festgestellt wer-den. Ein Teil der inhibitorischen Wirkung konnte auf hohe Gehalte inflammatorischer Zyto-kine IL-1α, IL-1β, IL-6 und TNF-α in Mediumüberständen zurückgeführt werden. Diese Er-gebnisse deuten darauf hin, dass bei einer Infektion/Inflammation Immunzellen Substanzen sezernieren, welche die Aktivität des Arylhydrocarbon Rezeptors beeinflussen. Welche Ver-bindung(en) in Mediumüberständen LPS-stimulierter Zellen für die induktive Wirkung des CYP1A1 auf Enzym- und mRNA-Ebene verantwortlich ist/sind, bedarf weiterer Untersu-chungen.
Weiterhin wurde die Wirkung des bekannten AhR-Agonisten 2,3,7,8-Tetrachlorodibenzo-p-dioxin (TCDD), sowie des biologisch aktiven Vitamin D3-Metaboliten und physiologischen VDR-Liganden Calcitriol untersucht. Beide Substanzen zeigten modulierende Effekte auf Viabilität/Proliferation sowie Ausschüttung und Genexpression inflammatorischer Zytokine in myeloiden Zellen. Es konnte zum ersten Mal gezeigt werden, dass beide Verbindungen die Expression der AhR und VDR Targetgene Cyp1a1 und Cyp24a1 induzierten. Die Expression des Cyp1a1 stieg durch Behandlung myeloider Zellen mit Calcitriol in gleichem Maße an, wie durch Inkubation mit TCDD. Für Cyp24a1 ergab sich eine stark erhöhte Expression durch Calcitriol und eine wesentlich geringere, aber dennoch statistisch signifikant gesteigerte Ex-pression durch Inkubation mit TCDD. Nach Co-Inkubation mit beiden Substanzen konnte ein zeitabhängiger Synergismus bezüglich der Cyp1a1-Expression ermittelt werden. Für Cyp24a1 wurde durch Co-Inkubation mit TCDD und Calcitriol eine signifikante Verringerung der Ex-pression beobachtet. Ferner zeigte sich nach „Blockierung“ des Ah-Rezeptors durch seinen Antagonisten CH223191, zusätzlich zur Inhibition der Cyp1a1-Expression, auch eine statis-tisch hoch signifikante Hemmung der Cyp24a1-Expression. Die Ergebnisse deuten stark dar-auf hin, dass die Transkriptionsfaktoren AhR und VDR in einer Beziehung zueinander stehen und für die adäquate Funktion des jeweils anderen Rezeptors notwendig sind. Dieser Zusam-menhang liefert einen interessanten Ansatz für weiterführende Forschung und würde einen besseren Einblick in die physiologische Rolle des „Dioxin-Rezeptors“ AhR liefern.
This thesis combines mass spectrometric studies on ionic dicarboxylic acids and transition metal cluster adsorbate complexes. IR-MPD spectra of protonated and deprotonated aliphatic and aromatic dicarboxylic acids provide insights in the nature of intramolecular hydrogen bonding. Investigations of their fragmentation behavior are supported by MP2 calculations. Prior work on cobalt transition metal clusters is extended to iron and nickel and three cobalt alloys have been studied.
Starting from the two-scale model for pH-taxis of cancer cells introduced in [1], we consider here an extension accounting for tumor heterogeneity w.r.t. treatment sensitivity and a treatment approach including chemo- and radiotherapy. The effect of peritumoral region alkalinization on such therapeutic combination is investigated with the aid of numerical simulations.
Carbonsäuren sind in einer breiten strukturellen Vielfalt aus natürlichen Quellen oder über präparative Wege zugänglich und stellen daher attraktive Ausgangsverbindungen für die Erforschung neuer Reaktionen dar. Der Schwerpunkt dieser Arbeit liegt in der Entwicklung nachhaltiger katalytischer Verfahren zur Erschließung neuer Einsatzmöglichkeiten von Carbonsäuren und deren Derivaten. Im Rahmen dieser Arbeit konnte ein rhodiumkatalysiertes Verfahren zur ortho-Acylierung von Carbonsäuren mit Carbonsäureanhydriden entwickelt werden, wodurch ein neuer Zugang zu 2-Acylbenzoesäuren geschaffen wurde. Durch die Kombination mit einem nachfolgenden Protodecarboxylierungsschritt ließen sich dadurch auch Arylketone mit einem definierten Substitutionsmuster synthetisieren. Mit der Weiterentwicklung dieses Verfahrens zu einer Eintopfmethode basierend auf einer C-H-Acylierung / Acylalisierung / Eliminierungskaskade wurde zusätzlich ein neuer Zugang zu 3-Alkylidenphthaliden eröffnet.
Eine alternative Darstellungsmöglichkeit von Arylketonen wurde durch die Entwicklung einer eisenkatalysierten decarboxylierenden Kreuzketonisierung von aromatischen mit aliphatischen Carbonsäuren erreicht. TEM- und STEM-Untersuchungen des Eisenkatalysators nach der Reaktion zeigten, dass dieses Verfahren auch zur Synthese von magnetischen Nanopartikeln genutzt werden kann. Die Weiterentwicklung dieses Verfahrens führte schließlich zu einer effizienten Synthesemethode für monodisperse Maghemit- und Ferrit-Nanokristalle ausgehend von elementaren Metallen.
Zuletzt wurde ein Verfahren zur Aktivierung von Carbonsäuren mittels Isomerisierung von Allylestern zu Enolestern entwickelt. Der dimere Palladium(I)komplex [Pd(μ-Br)P(tBu)3]2 wurde dabei erstmals als geeigneter Katalysator für Doppelbindungsmigrationen identifiziert. Katalysatorbeladungen von bis zu 0.25 mol% reichten bereits aus, um eine vollständige Umsetzung der Allylester zu Enolestern bei sehr milden Temperaturen von bis zu 25 °C zu ermöglichen. Als ein Beispiel für die breite Einsetzbarkeit von Enolestern wurden verzweigte Enolester über eine rhodiumkatalysierte asymmetrische Hydrierung in gesättigte chirale Ester mit hohem Enantiomerenüberschuss überführt. Zusätzlich wurden erste NMR-spektroskopische Untersuchungen und DFT-Berechnungen zur mechanistischen Aufklärung der katalytisch aktiven Spezies aus dem Pd(I)-Dimer angefertigt.
A single facility problem in the plane is considered, where an optimal location has to be
identified for each of finitely many time-steps with respect to time-dependent weights and
demand points. It is shown that the median objective can be reduced to a special case of the
static multifacility median problem such that results from the latter can be used to tackle the
dynamic location problem. When using block norms as distance measure between facilities,
a Finite Dominating Set (FDS) is derived. For the special case with only two time-steps, the
resulting algorithm is analyzed with respect to its worst-case complexity. Due to the relation
between dynamic location problems for T time periods and T-facility problems, this algorithm
can also be applied to the static 2-facility location problem.
Zum Nachweis der Tragfähigkeit bestehender Tragwerke benötigt der Tragwerksplaner charakteristische Werkstoffeigenschaften der verwendeten Baustoffe. Diese Werte können meist nicht direkt und ohne weitere Überlegungen aus älteren Normen, Richtlinien, Zulassungen oder von geprüften Bestandsunterlagen übernommen werden. Da die Neuberechnung grundsätzlich immer nach aktuellem Normenwerk zu erfolgen hat, sind die Werkstoffkennwerte gemäß der seinerzeits gültigen Normfestlegungen an die aktuellen Bezugswerte anzupassen.
Auf der Grundlage einer umfangreichen Literaturrecherche sind für die Baustoffe Beton und Betonstahl charakteristische Kenngrößen der maßgeblichen mechanischen Werkstoffeigenschaften in der vorliegenden Arbeit bestimmt worden. Die Darstellung der Ergebnisse erfolgt anhand von Tabellen, welchen die charakteristischen Kennwerte für die Werkstoffgüten einzelner Zeitperioden entnommen werden können.
In Fällen, in denen keine oder nur unzureichende Informationen über ein zu bewertendes Bauwerk vorliegen, sind die charakteristischen Werkstoffkennwerte anhand von Bauwerksuntersuchungen zu bestimmen.
In der vorliegenden Arbeit werden Konzepte beschrieben, welche die zu beachtenden Besonderheiten bei der Bestimmung der charakteristischen Werkstoffeigenschaften von Beton und Betonstahl anhand von Prüfergebnissen aus Bauwerksuntersuchungen berücksichtigen. Diese Konzepte enthalten unter anderem Empfehlungen für die Festlegung von Prüfbereichen und Stichprobenumfängen sowie Hinweise für die Probenentnahme von Betonbohrkernen und Stahlbetonstäben.
Der vorliegende Beitrag geht aus der Beobachtung hervor, dass die Begriffe „Unternehmensinteresse“, „Unternehmensziele“, „Unternehmenszweck“, „Gesellschaftsinteresse“, „Gesellschaftsziele“ und „Gesellschaftszweck“ in der Literatur häufig undifferenziert oder synonym verwendet werden. Die Frage, worauf bzw. wozu der Vorstand einer Aktiengesellschaft verpflichtet ist oder, anders ausgedrückt, welche Leitmaximen der Vorstand zu berücksichtigen hat, kann daher konzeptionell nicht klar beantwortet werden.
Ziel des Beitrages ist es, die genannten Begriffe eindeutig zu definieren und sie voneinander abzugrenzen. Dazu werden die folgenden beiden Forschungsfragen beantwortet:
1) Wie können das Unternehmensinteresse, die Unternehmensziele und der Unternehmenszweck voneinander abgrenzt werden?
2) Wie können das Unternehmensinteresse, die Unternehmensziele und der Unternehmenszweck vom Gesellschaftsinteresse, den Gesellschaftszielen und dem Gesellschaftszweck abgegrenzt werden?
In der Betriebswirtschaftslehre bestehen unterschiedliche Sichtweisen in Bezug auf Unternehmensziele und deren Verhältnis zu Stakeholderzielen. Der vorliegende Beitrag untersucht das Verhältnis von Unternehmenszielen und Stakeholderzielen, wobei die zentrale Zielsetzung des Beitrags darin besteht, die Stakeholderziele zu spezifizieren, da bislang existierende Kataloge mit Stakeholderzielen wenig detailliert sind. Dabei werden die unterschiedlichen Stakeholderziele anhand ihrer drei Zieldimensionen untersucht sowie in Formal- und Sachziele unterteilt. Des Weiteren wird deutlich, dass zwischen Unternehmenszielen und Stakeholderzielen durch die differierenden Ziele der unterschiedlichen Stakeholdergruppen ständige Konflikte herrschen, wodurch es grundsätzlich innerhalb unter-nehmerischer Zielsysteme nur zu einer Quasilösung der Konflikte kommen kann.
We consider two major topics in this thesis: spatial domain partitioning which serves as a framework to simulate creep flows in representative volume elements.
First, we introduce a novel multi-dimensional space partitioning method. A new type of tree combines the advantages of the Octree and the KD-tree without having their disadvantages. We present a new data structure allowing local refinement, parallelization and proper restriction of transition ratios between nodes. Our technique has no dimensional restrictions at all. The tree's data structure is defined by a topological algebra based on the symbols \( A = \{ L, I, R \} \) that encode the partitioning steps. The set of successors is restricted such that each node has the partition of unity property to partition domains without overlap. With our method it is possible to construct a wide choice of spline spaces to compress or reconstruct scientific data such as pressure and velocity fields and multidimensional images. We present a generator function to build a tree that represents a voxel geometry. The space partitioning system is used as a framework to allow numerical computations. This work is triggered by the problem of representing, in a numerically appropriate way, huge three-dimensional voxel geometries that could have up to billions of voxels. These large datasets occure in situations where it is needed to deal with large representative volume elements (REV).
Second, we introduce a novel approach of variable arrangement for pressure and velocity to solve the Stokes equations. The basic idea of our method is to arrange variables in a way such that each cell is able to satisfy a given physical law independently from its neighbor cells. This is done by splitting velocity values to a left and right converging component. For each cell we can set up a small linear system that describes the momentum and mass conservation equations. This formulation allows to use the Gauß-Seidel algorithm to solve the global linear system. Our tree structure is used for spatial partitioning of the geometry and provides a proper initial guess. In addition, we introduce a method that uses the actual velocity field to refine the tree and improve the numerical accuracy where it is needed. We developed a novel approach rather than using existing approaches such as the SIMPLE algorithm, Lattice-Boltzmann methods or Exlicit jump methods since they are suited for regular grid structures. Other standard CFD approaches extract surfaces and creates tetrahedral meshes to solve on unstructured grids thus can not be applied to our datastructure. The discretization converges to the analytical solution with respect to grid refinement. We conclude a high strength in computational time and memory for high porosity geometries and a high strength in memory requirement for low porosity geometries.
Schon bei seiner Entdeckung konnte eine Verbindung des Zwei-Komponenten Systems CiaRH mit der natürlichen Kompetenzentwicklung und der β-Laktamresistenz in S. pneumoniae beobachtet werden. Mutationen in der Histidinkinase CiaH bewirken eine sogenannte Hyperaktivierung dieses Systems, welche zu einem vollständigen Verlust der Kompetenz und einem Anstieg der β-Laktamresistenz führen. Der über das CiaRH System vermittelte Kompetenzphänotyp ist dabei abhängig von der Serinprotease HtrA und den csRNAs. Die Serinprotease HtrA reduziert hierbei, durch Proteolyse, die Menge des Kompetenz spezifische Peptid CSP.
In dieser Arbeit konnte nun erstmals gezeigt werden, dass die csRNAs ihre negative Wirkung auf die Kompetenz ausüben, indem sie comC post-transkriptionell reprimieren. Wahrscheinlich wird hierbei die Initiation der Transaltion inhibiert, wobei die Stabilität der mRNA zusätzlich verringert werden könnte. ComC kodiert für das CSP Vorläuferpeptid. Daher üben die csRNAs noch vor der proteolytischen Wirkung von HtrA einen negativen Effekt auf die CSP Produktion aus. Anhand von comC-Translationsfusionen in S. pneumoniae Stämmen mit und ohne csRNAs, sowie in dem Stamm mit hyperaktivem ciaH202-Allel konnte eindeutig gezeigt werden, dass die csRNAs negativ auf die comC-Translation wirken.
Mittels weiterer comC-Translationsfusionen, in Stämmen mit einzelnen csRNAs, ließ sich eine additive Wirkung der einzelnen csRNAs auf die comC-Translation nachweisen. Das bedeutet, dass eine csRNA alleine nicht in der Lage ist die Kompetenz zu reprimieren. Eine Kombination aus csRNA1, csRNA2 und csRNA3 allerdings ist sogar ohne die Anwesenheit von HtrA in der Lage, die Kompetenzentwicklung vollständig zu unterdrücken.
Der Effekt der csRNAs auf die comC-Translation hat Auswirkungen auf die sich entwickelnde Kompetenz, was anhand von β-Galaktosidasemessungen des frühen Kompetenzpromotors PcomX gezeigt wurde. Hier konnte allerdings ein stark positiver Effekt der csRNA4 und csRNA5 auf diesen Promotor beobachtet werden. Weitere Versuche zeigten, dass dieser Effekt auch auf den frühen Kompetenzpromotor PcomC, aber nicht auf den späten Kompetenzpromotor Pcib zu beobachten ist.
Hierbei scheint es sich um einen Regulationsmechanismus der csRNAs zu handeln, welcher die CSP-Produktion erhöht, ohne die Expression der Gene, die für die DNA Aufnahme und den Einbau verantwortlich sind, zu verändern. Der einerseits negative Effekt aller csRNAs auf die comC-Translation und andererseits positive Effekt der csRNA4 und csRNA5 sprechen dafür, dass die csRNAs an der Feinabstimmung der Kompetenzentwicklung beteiligt sind. Tatsächlich lassen sich Unterschiede im Zeitverlauf der Stämme mit einzelnen csRNAs erkennen. Vor allem kann ein Kompetenzpeak, wie im Wildtyp beobachtet, nicht mehr im csRNA-Deletionsstamm nachgewiesen werden.
Die csRNAs scheinen die Kompetenzentwicklung bis zu einem gewissen Grad zu reprimieren. Ist aber der Schwellenwert überschritten, wirkt ein Teil positiv und trägt somit dazu bei, dass die Kompetenzentwicklung ohne Einschränkungen abläuft.
Des Weiteren konnten, durch gezielte Mutationen in der comC mRNA, Bereiche in dieser identifiziert werden, welche für die Bindung der csRNAs an die mRNA essentiell sind. Hierzu gehört zum einen der Bereich zwischen der Shine-Dalgarno Sequenz und dem Startkodon sowie der Bereich direkt nach dem Startkodon AUG. Zum anderen gibt es Hinweise darauf, dass Mutationen, welche die Stabilität der mRNA beeinflussen könnten, die Regulation durch die csRNAs aufheben.
Anhand einer komplementären Veränderung der csRNA4 konnte der negative Effekt dieser csRNA auf die Translation der veränderten comC mRNA wieder hergestellt werden.
Die hier erbrachten Ergebnisse konnten einen weiteren kompetenzregulierenden Faktor identifizieren. Außerdem ergaben sich einige Hinweise, die dazu beitragen können, in weiteren Studien die komplexe Regulation der Kompetenzentwicklung besser zu verstehen.
Ein weiterer Teil dieser Arbeit beschäftigt sich mit dem, ebenfalls schon bei der Entdeckung des CiaRH Systems beschriebenen, Anstieg der β-Laktamresistenz. Für diesen, durch ein hyperaktives CiaRH System vermittelten Anstieg konnte, wie schon bei der Kompetenz, ein wesentlicher Effekt der csRNAs nachgewiesen werden. Eine Deletion aller csRNAs in einem Stamm mit hyperaktivem CiaRH System bewirkt einen Zusammenbruch der Resistenz auf Wildtyp Niveau. Im Gegensatz zur Kompetenz konnte hier aber kein deutlicher Effekt der Serinprotease HtrA beobachtet werden.
Wie schon bei der Kompetenz lag das Augenmerk dieser Arbeit auf dem Effekt der einzelnen csRNAs auf den Anstieg der β-Laktamresistenz. Hier konnte eine größtenteils additive Wirkung der csRNAs nachgewiesen werden. Allerdings wurden Stämme isoliert, in welchen die β-Laktamresistenz um das 10-fache im Vergleich zu dem Stamm mit hyperaktivem CiaRH System anstieg. Hierbei handelt es sich um Stämme, die csRNA4 oder csRNA5 enthalten. Da eine starke Instabilität in diesen Stämmen zu beobachten war, ist davon auszugehen, dass es hier zu Zusatzmutationen kam, welche den Resistenzanstieg bewirken. Allerdings konnte nachgewiesen werden, dass der beobachtete Resistenzanstieg nur im Zusammenhang mit csRNA4 vermittelt wird. Falls es hier zu Zusatzmutationen im Genom kam, wäre deren vermittelter Resistenzanstieg von csRNA4 abhängig.
Da im Falle der β-Laktamresistenz die computerbasierte Zielgensuche keinen geeigneten Kandidaten erbrachte und keines der bekannten csRNA regulierten Gene die Resistenz beeinflusst, wurde hier eine globale Transkriptomanalyse zur Zielgensuche durchgeführt.
Anhand dieser globalen Transkriptomanalyse konnten zwei neue potenzielle CiaR regulierte Gene, pavB und spr0091, identifiziert werden.
Des Weiteren konnten zwei Gene, spr0264 und oxlT, identifiziert werden, deren Translation negativ durch die csRNAs reguliert wird. Hier konnte gezeigt werden, dass der UTP Metabolismus der Zelle betroffen ist. Hierrüber könnte die Menge an UDP verändert werden, welches zur Aktivierung von Vorläuferstufen der Zellwandbiosynthese benötigt wird. Ob diese beiden Transporter an dem Anstieg der Resistenz beteiligt sind, wurde bisher nicht untersucht.
Die innerhalb dieser Arbeit durchgeführten globalen Transkriptomanalysen stellen allerdings eine gute Basis zur weiteren Identifikation von möglichen potenziellen csRNA Zielgenen dar. Hierüber könnte eventuell auch das β-Laktam spezifische Zielgen identifiziert werden. Das der deutliche Effekt der csRNAs, sekundär auf ein schon bekanntes β-Laktamresistenzgen zurückzuführen ist, ist dabei durchaus denkbar.
Die in dieser Arbeit nachgewiesenen Regulationen der csRNAs bezüglich der Kompetenz- und β-Laktamresistenz konnten einen großen Beitrag zum besseren Verständnis dieser Regulations-mechanismen in S. pneumoniae leisten. Des Weiteren bilden die hier ermittelten Ergebnisse eine gute Basis für weitere Experimente.
This PhD-Thesis deals with the calculation and application of a new class of invariants, that can be used to recognize patterns in tensor fields (i.e. scalar fields, vector fields und matrix fields), and by the composition of scalar fields with delta-functions also to point-clouds.
In the first chapter an overview over already existing invariants is given.
In the second chapter the general definition of the new invariants is given:
starting with a tensor field a set of moment tensor is created via folding in tensor-product manner with different orders of the tensor product of the positional vector. From these, rotational invariant values are calculated via contraction of tensor products. An algorithm to get a complete and independent set of invariants from a given moment tensor set is described. Furthermore methods to make these sets of invariants invariant against translation, rotation, scaling, and affine transformation.
In the third chapter, a method to optimize the calculation of these sets of invariants is described: every invariant can be modeled as undirected graph comprising multiple sub-graphs representing partially contracted tensor products of the moment tensors.
The composition of the sets of invariants is optimized by a clever choice of the decomposition into sub-graphs, all paths creating a hyper-graph of sub-graphs where each node describes a composition step. Finally, C++-source-code is created, which optimized using the symmetry of the different tensors and tensor-products, and a comparison of the effort to other calculation methods of invariants is given.
The fourth chapter describes the application of the invariants to object recognition in point-clouds from 3D-scans. To do this, the invariants of sub-sets of point-clouds are stored for every known object. Afterwards, invariants are calculated from an unknown point-cloud and tried to find them in the database to assign it to one of the known objects. Benchmarks using three 3D-object databases are made testing time and recognition rate.
Die Region Saarland-Lothringen-Westpfalz zeichnet sich durch eine Jahrhunderte alte, gemeinsame Geschichte aus, in der dieser Landstrich nicht immer durch territoriale Grenzen getrennt war. Bereits die römischen Baumeister hinterließen Bauwerke von großer kulturhistorischer Relevanz, die die regionale Infrastruktur bis zum heutigen Tag prägen. Um dieses kulturell bedeutungsvolle Erbe auch weiterhin bewahren zu können sowie modernen Ingenieurbauwerken zu einer möglichst langen Lebensdauer zu verhelfen, muss der Zustand der Bausubstanz kontinuierlich geprüft bzw. überwacht werden.
Im Rahmen des durch das Programm INTERREG IV A-Großregion geförderten Projektes „CURe MODERN – Initiative moderne Bauwerksprüfung, Stadt- und Regionalplanung SMLPO“ wurde ein Netzwerk von spezialisierten Partnern aus den Regionen Saarland, Lothringen und Westpfalz aufgebaut, das zum grenzüberschreitenden Erfahrungsaustausch im Bereich zerstörungsfreier Prüfverfahren im Bauwesen und der Stadt- und Regionalplanung beiträgt.
A new algorithm for optimization problems with three objective functions is presented which computes a representation for the set of nondominated points. This representation is guaranteed to have a desired coverage error and a bound on the number of iterations needed by the algorithm to meet this coverage error is derived. Since the representation does not necessarily contain nondominated points only, ideas to calculate bounds for the representation error are given. Moreover, the incorporation of domination during the algorithm and other quality measures are discussed.
The hypervolume subset selection problem consists of finding a subset, with a given cardinality \(k\), of a set of nondominated points that maximizes the hypervolume indicator. This problem arises in selection procedures of evolutionary algorithms for multiobjective optimization, for which practically efficient algorithms are required. In this article, two new formulations are provided for the two-dimensional variant of this problem.
The first is a (linear) integer programming formulation that can be solved by solving its linear programming relaxation. The second formulation is a \(k\)-link shortest path formulation on a special digraph with the Monge property that can be solved by dynamic programming in \(\mathcal{O}(n(k + \log n))\) time. This improves upon the \(\mathcal{O}(n^2k)\) result of Bader (2009), and matches the recent result of Bringmann et al. (2014), which was developed independently from this work using different techniques. Moreover, it is shown that these bounds may be further improved under mild conditions on \(k\).
The hypervolume subset selection problem consists of finding a subset, with a given cardinality, of a nondominated set of points that maximizes the hypervolume indicator. This problem arises in selection procedures of population-based heuristics for multiobjective optimization, and for which practically efficient algorithms are strongly required. In this article, we provide two new formulations for the two-dimensional variant of this problem.
The first is an integer programming formulation that can be solved by solving its linear relaxation. The second formulation is a \(k\)-link shortest path formulation on a special digraph with Monge property that can be solved by dynamic programming in \(\mathcal{O}(n^2)\) time complexity. This improves upon the existing result of \(O(n^3)\) in Bader.
Die Dissertation "Portfoliooptimierung im Binomialmodell" befasst sich mit der Frage, inwieweit
das Problem der optimalen Portfolioauswahl im Binomialmodell lösbar ist bzw. inwieweit
die Ergebnisse auf das stetige Modell übertragbar sind. Dabei werden neben dem
klassischen Modell ohne Kosten und ohne Veränderung der Marktsituation auch Modellerweiterungen
untersucht.
This thesis discusses several applications of computational topology to the visualization
of scalar fields. Scalar field data come from different measurements and simulations. The
intrinsic properties of this kind of data, which make the visualization of it to a complicated
task, are the large size and presence of noise. Computational topology is a powerful tool
for automatic feature extraction, which allows the user to interpret the information contained
in the dataset in a more efficient way. Utilizing it one can make the main purpose of
scientific visualization, namely extracting knowledge from data, a more convenient task.
Volume rendering is a class of methods designed for realistic visual representation of 3D
scalar fields. It is used in a wide range of applications with different data size, noise
rate and requirements on interactivity and flexibility. At the moment there is no known
technique which can meet the needs of every application domain, therefore development
of methods solving specific problems is required. One of such algorithms, designed for
rendering of noisy data with high frequencies is presented in the first part of this thesis.
The method works with multidimensional transfer functions and is especially suited for
functions exhibiting sharp features. Compared with known methods the presented algorithm
achieves better visual quality with a faster performance in presence of mentioned
features. An improvement on the method utilizing a topological theory, Morse theory, and
a topological construct, Morse-Smale complex, is also presented in this part of the thesis.
The improvement allows for performance speedup at a little precomputation and memory
cost.
The usage of topological methods for feature extraction on a real world dataset often
results in a very large feature space which easily leads to information overflow. Topology
simplification is designed to reduce the number of features and allow a domain expert
to concentrate on the most important ones. In the terms of Morse theory features are
represented by critical points. An importance measure which is usually used for removing
critical points is called homological persistence. Critical points are cancelled pairwise
according to their homological persistence value. In the presence of outlier-like noise
homological persistence has a clear drawback: the outliers get a high importance value
assigned and therefore are not being removed. In the second part of this thesis a new
importance measure is presented which is especially suited for data with outliers. This
importance measure is called scale space persistence. The algorithm for the computation
of this measure is based on the scale space theory known from the area of computer
vision. The development of a critical point in scale space gives information about its
spacial extent, therefore outliers can be distinguished from other critical points. The usage
of the presented importance measure is demonstrated on a real world application, crater
identification on a surface of Mars.
The third part of this work presents a system for general interactive topology analysis
and exploration. The development of such a system is motivated by the fact that topological
methods are often considered to be complicated and hard to understand, because
application of topology for visualization requires deep understanding of the mathematical
background behind it. A domain expert exploring the data using topology for feature
extraction needs an intuitive way to manipulate the exploration process. The presented
system is based on an intuitive notion of a scene graph, where the user can choose and
place the component blocks to achieve an individual result. This way the domain expert
can extract more knowledge from given data independent on the application domain. The
tool gives the possibility for calculation and simplification of the underlying topological
structure, Morse-Smale complex, and also the visualization of parts of it. The system also
includes a simple generic query language to acquire different structures of the topological
structure at different levels of hierarchy.
The fourth part of this dissertation is concentrated on an application of computational
geometry for quality assessment of a triangulated surface. Quality assessment of a triangulation
is called surface interrogation and is aimed for revealing intrinsic irregularities
of a surface. Curvature and continuity are the properties required to design a visually
pleasing geometric object. For example, a surface of a manufactured body usually should
be convex without bumps of wiggles. Conventional rendering methods hide the regions
of interest because of smoothing or interpolation. Two new methods which are presented
here: curvature estimation using local fitting with B´ezier patches and computation of reflection
lines for visual representation of continuity, are specially designed for assessment
problems. The examples and comparisons presented in this part of the thesis prove the
benefits of the introduced algorithms. The methods are also well suited for concurrent visualization
of the results from simulation and surface interrogation to reveal the possible
intrinsic relationship between them.
Multilevel Constructions
(2014)
The thesis consists of the two chapters.
The first chapter is addressed to make a deep investigation of the MLMC method. In particular we take an optimisation view at the estimate. Rather than fixing the number of discretisation points \(n_i\) to be a geometric sequence, we are trying to find an optimal set up for \(n_i\) such that for a fixed error the estimate can be computed within a minimal time.
In the second chapter we propose to enhance the MLMC estimate with the weak extrapolation technique. This technique helps to improve order of a weak convergence of a scheme and as a result reduce CC of an estimate. In particular we study high order weak extrapolation approach, which is know not be inefficient in the standard settings. However, a combination of the MLMC and the weak extrapolation yields an improvement of the MLMC.
A large class of estimators including maximum likelihood, least squares and M-estimators are based on estimating functions. In sequential change point detection related monitoring functions can be used to monitor new incoming observations based on an initial estimator, which is computationally efficient because possible numeric optimization is restricted to the initial estimation. In this work, we give general regularity conditions under which we derive the asymptotic null behavior of the corresponding tests in addition to their behavior under alternatives, where conditions become particularly simple for sufficiently smooth estimating and monitoring functions. These regularity conditions unify and even extend a large amount of existing procedures in the literature, while they also allow us to derive monitoring schemes in time series that have not yet been considered in the literature including non-linear autoregressive time series and certain count time series such as binary or Poisson autoregressive models. We do not assume that the estimating and monitoring function are equal or even of the same dimension, allowing for example to combine a non-robust but more precise initial estimator with a robust monitoring scheme. Some simulations and data examples illustrate the usefulness of the described procedures.
If an automated system is tasked to provide services such as search or clustering of information on an information repository, the quality of the output depends a lot on the information that is available to the system in machine-readable form. Simple text, for example, is machine-readable only in a very limited sense. Advanced services typically need to derive other representations of the text (e.g., sets of keywords) as input for their core algorithms. Some services might need information that cannot be derived from the resource in question alone, but is available as separate metadata only, such as usage information. Annotations can be used to carry this information.
This thesis focuses on so-called ontology-based annotations. In contrast to other forms of annotations such as Tags (arbitrary strings that users can assign to resources), ontology-based annotations conform to a predefined data structure and class hierarchy. An advantage of this approach is that rich information can be stored in a well-structured way in the annotations; a drawback is that users need to be familiar with the hierarchy and other design decisions of the underlying ontology used for annotations.
Two scenarios are considered in this thesis:
First, a document-based scenario in which text annotations are used to represent both information about the text content and usage and user context information in a multi-user setting with mostly objective annotation criteria; second, a resource-based scenario whose annotation model focuses on multi-user settings with subjective annotation criteria, using (dis-)similarities in user annotations to derive user similarity metrics, and building personalized views from this information.
Finally, the prototypical systems that have been developed throughout this thesis get evaluated, proving the concepts presented in this thesis.
Der Betrieb von Autobahn-Straßenbauwerken soll den ständigen Verkehrsfluss unter guten Sicherheitsbedingungen und unter Berücksichtigung der Benutzerfreundlichkeit gewährleisten.
Hierzu werden die entsprechenden Bauwerke gewartet und in gutem Zustand erhalten, sodass sie ihren Zweck zu jedem Zeitpunkt optimal erfüllen.
Damit dieses Ziel erreicht werden kann, braucht es eine langfristige Sicht der Dinge und eine organisierte Verwaltung der Bauüberwachung sowie der durchzuführenden Arbeiten. Dabei müssen die notwendigen Maßnahmen so ausgeführt werden, dass möglichst geringe Beeinträchtigungen für die Nutzer entstehen.
Somit muss unbedingt eine entsprechende Vorgehensweise im Hinblick auf die Ingenieurbauwerke festgelegt werden, sodass den unterschiedlichen Akteuren ein langfristiger strategischer und finanzieller Plan zur Verfügung steht, der es ihnen erlaubt, die entsprechenden Maßnahmen unter möglichst geringem technischen und somit finanziellen Risiko umzusetzen und vor allem die Instandhaltung als präventive statt als kurative Aufgabe zu begreifen. Wenn es keine entsprechende Politik gibt, so sehen sich die Verantwortlichen der Aufgabe gegenüber gestellt, in Dringlichkeitsfällen Ad-Hoc Entscheidungen zu fällen, was zu technischen und finanziellen Unwägbarkeiten führt. Gleichzeitig bestehen natürlich die Risiken, die mit der Substanz des Bauwerks selbst und mit seiner Alterung einhergehen, weiterhin. Es gilt, dass „vorbeugen besser als heilen“ ist, auch im technischen Bereich. Auch wenn das Risiko nicht vollständig beherrscht wird, so ist es doch wichtig, dass es bekannt ist und dass entsprechend gehandelt wird.
Für Verantwortliche im Finanzbereich und aus der Politik hat der Faktor Zeit nicht die gleiche Bedeutung wie für die Betreiber. Dennoch müssen die unterschiedlichen Akteure unbedingt zu einer klaren Übereinkunft bezüglich der gemeinsamen Instandhaltungs-Strategie kommen und diese dann auch einhalten! Bei eventuellen Unstimmigkeiten müssen Entscheidungen sorgfältig abgewogen werden, unter Berücksichtigung der technischen und finanziellen Konsequenzen die sich für die Zukunft ergeben können, ohne das Risiko für Schadensereignisse außer Acht zu lassen. Leider erweisen sich Schadensfälle als wichtige Hebel im Budget, stehen sie doch zunächst für das
2
Scheitern eines Betriebs, der auf Prävention ausgerichtet ist. Oder anders gesagt, eine solche extreme Situation sollte nicht zur politischen Strategie werden.
Die Vorstellung der allgemeinen Politik der Gruppe Sanef mit praktischen Beispielen (die Praxis sollte man nie aus den Augen verlieren!) soll einem Erfahrungsbericht entsprechen, der zuweilen idealistisch geprägt, sehr wahrscheinlich unvollständig und weiter verbesserbar ist, aber dennoch als Grundlage zur Debatte taugt.
As the complexity of embedded systems continuously rises, their development becomes more and more challenging. One technique to cope with this complexity is the employment of virtual prototypes. The virtual prototypes are intended to represent the embedded system’s properties on different levels of detail like register transfer level or transaction level. Virtual prototypes can be used for different tasks throughout the development process. They can act as executable specification, can be used for architecture exploration, can ease system integration, and allow for pre- and post-silicon software development and verification. The optimization objectives for virtual prototypes and their creation process are manifold. Finding an appropriate trade-off between the simulation accuracy, the simulation performance, and the implementation effort is a major challenge, as these requirements are contradictory.
In this work, two new and complementary techniques for the efficient creation of accurate and high-performance SystemC based virtual prototypes are proposed: Advanced Temporal Decoupling (ATD) and Transparent Transaction Level Modeling (TTLM). The suitability for industrial environments is assured by the employment of common standards like SystemC TLM-2.0 and IP-XACT.
Advanced Temporal Decoupling enhances the simulation accuracy while retaining high simulation performance by allowing for cycle accurate simulation in the context of SystemC TLM-2.0 temporal decoupling. This is achieved by exploiting the local time warp arising in SystemC TLM-2.0 temporal decoupled models to support the computation of resource contention effects. In ATD, accesses to shared resource are managed by Temporal Decoupled Semaphores (TDSems) which are integrated into the modeled shared resources. The set of TDSems assures the correct execution order of shared resource accesses and incorporates timing effects resulting from shared resource access execution and resource conflicts. This is done by dynamically varying the data granularity of resource accesses based on information gathered from the local time warp. ATD facilitates modeling of a wide range of resource and resource access properties like preemptable and non-preemptable accesses, synchronous and asynchronous accesses, multiport resources, dynamic access priorities, interacting and cascaded resources, and user specified schedulers prioritizing simultaneous resource accesses.
Transparent Transaction Level Modeling focuses on the efficient creation of virtual prototypes by reducing the implementation effort and consists of a library and a code generator. The TTLM library adds a layer of convenience functions to ATD comprising various application programming interfaces for inter module communication, virtual prototype configuration and run time information extraction. The TTLM generator is used to automatically generate the structural code of the virtual prototype from the formal hardware specification language IP-XACT.
The applicability and benefits of the presented techniques are demonstrated using an image processing centric automotive application. Compared to an existing cycle accurate SystemC model, the implementation effort can be reduced by approximately 50% using TTLM. Applying ATD, the simulation performance can be increased by a factor of up to five while retaining cycle accuracy.
Brücken und andere Ingenieurbauwerke im Zuge von Straßen sind in Deutschland regelmäßig alle 6 Jahre einer handnahen Prüfung zu unterziehen. Diese Verpflichtung gilt für alle Baulastträger. Dabei werden alle relevanten Schäden erfasst, bewertet und dokumentiert. Je nach Art des Schadens können weitergehende Untersuchungen im Rahmen einer Objektbezogenen Schadensanalyse notwendig werden. Damit das Bauwerk dadurch nicht weiter geschädigt wird, sollten für Vor-Ort-Untersuchungen zerstörungsfreie Prüfverfahren eingesetzt werden.
Damit die Bauwerksprüfungen qualitativ hochwertig durchgeführt werden können, ist wichtig hierfür entsprechende Aus- und Fortbildung anzubieten. Hierfür werden seit geraumer Zeit entsprechende Lehrgänge angeboten vom „Verein zur Förderung der Qualitätssicherung und Zertifizierung der Aus-/Fortbildung von Ingenieurinnen/Ingenieuren der Bauwerksprüfung“ (VFIB) angeboten.
Lokal lastgerecht verstärkte Multimaterialsysteme auf Basis von Polypropylen-Polypropylen-Hybriden
(2014)
In der vorliegenden Arbeit wurde ein Prozess entwickelt, zur Realisierung lokal, lastgerecht
verstärkter Thermoplast-Hybridbauteile im Einsatzgebiet struktureller Anwendungen
im Automobilbereich. Hierzu wurde effektiv ein formgebender Schritt für
gewebeverstärkte Halbzeuge mit dem in-situ Tapelegeverfahren zur Aufbringung unidirektional
endlos faserverstärkter Bändchenmaterialien kombiniert.
Die durch die symbiotische Ausnutzung der Vorzüge der beiden Verfahren in Kombination
mit Sandwichbauweise realisierten Bauteile, zeichnen sich einerseits durch
eine Reduktion des Gesamtgewichts aus und weisen andererseits ein weit höheres
mechanisches Eigenschaftsprofil auf, als mit rein singulären Prozessschritten möglich
ist.
Im Rahmen des ganzheitlichen Prozessansatz wurden, ausgehend von einer experimentellen
und theoretischen Ermittlung, optimale Prozessparameter für das in-situ
Tapelegeverfahren in Bezug auf die interlaminare Risszähigkeit zwischen den Materialpartnern,
die Grenzschichtgüte beeinflussende Vorgänge ermittelt und diskutiert.
Es konnte gezeigt werden, dass durch die gewählte Prozesskombination deutlich erhöhte
Energiefreisetzungsraten realisiert werden können, verglichen mit Proben,
welche im Autoklav hergestellt wurden. Im Rahmen umfangreicher mechanischen
Charakterisierungsreihen konnte direkter Einfluss der unidirektionalen Verstärkungslagen
auf das mechanische Eigenschaftsprofil der Multimaterialsysteme nachgewiesen
werden. Darüberhinaus wurde das Hybridsystem erfolgreich in einer FESimulation
abgebildet und validiert. Durch eine prozessbasierte, ökonomische Betrachtung
konnte der Prozessansatz gegenüber Konkurrenzverfahren abgegrenzt
und als kosteneffektiv bewertet werden.
Die Ergebnisse dieser Arbeit zeigen einen, sowohl unter mechanischen als auch
ökonomischen Gesichtspunkten, sinnvollen und geeigneten Prozess zur Realisierung
lokal verstärkter struktureller Faser-Kunststoff-Verbund-Bauteile mit inhomogener
Lastverteilung auf.
Cancer research is not only a fast growing field involving many branches of science, but also an intricate and diversified field rife with anomalies. One such anomaly is the
consistent reliance of cancer cells on glucose metabolism for energy production even in a normoxic environment. Glycolysis is an inefficient pathway for energy production and normally is used during hypoxic conditions. Since cancer cells have a high demand for energy
(e.g. for proliferation) it is somehow paradoxical for them to rely on such a mechanism. An emerging conjecture aiming to explain this behavior is that cancer cells
preserve this aerobic glycolytic phenotype for its use in invasion and metastasis. We follow this hypothesis and propose a new model
for cancer invasion, depending on the dynamics of extra- and intracellular protons, by building upon the existing ones. We incorporate random perturbations in the intracellular proton dynamics to account
for uncertainties affecting the cellular machinery. Finally, we address the well-posedness of our setting and use numerical simulations to illustrate the model predictions.
Annual Report 2013
(2014)
Annual Report, Jahrbuch AG Magnetismus
The sink location problem is a combination of network flow and location problems: From a given set of nodes in a flow network a minimum cost subset \(W\) has to be selected such that given supplies can be transported to the nodes in \(W\). In contrast to its counterpart, the source location problem which has already been studied in the literature, sinks have, in general, a limited capacity. Sink location has a decisive application in evacuation planning, where the supplies correspond to the number of evacuees and the sinks to emergency shelters.
We classify sink location problems according to capacities on shelter nodes, simultaneous or non-simultaneous flows, and single or multiple assignments of evacuee groups to shelters. Resulting combinations are interpreted in the evacuation context and analyzed with respect to their worst-case complexity status.
There are several approaches to tackle these problems: Generic solution methods for uncapacitated problems are based on source location and modifications of the network. In the capacitated case, for which source location cannot be applied, we suggest alternative approaches which work in the original network. It turns out that latter class algorithms are superior to the former ones. This is established in numerical tests including random data as well as real world data from the city of Kaiserslautern, Germany.
Anorganisch-organische Hybridmaterialien basierend auf photolumineszierenden Sol-Gel-Vorstufen
(2014)
In den vergangenen Jahrzehnten haben sich periodisch strukturierte Organosilika (PMO) und metallorganische Netzwerke (MOFs) mit poröser Struktur als äußerst vielseitige Materialien mit interessanten physikalischen und chemischen Eigenschaften erwiesen. Neben ihrer Anwendung in der Katalyse und der Gasadsorption wurden verschiedene Hybridmaterialien in jüngerer Vergangenheit auch hinsichtlich Photoumineszenz, Energiekonversion und Halbleitereigenschaften untersucht. Die Bandbreite möglicher Applikationen reicht dabei von Sensoren über Beschichtungen und dekorative Keramiken bis hin zu elektronischen Bauteilen, wie etwa Transistoren (OFETs) und optischen Fasern (POFs). In der vorliegenden Arbeit werden auf Grundlage der bisher bekannten Forschung neue Ansätze zur Darstellung anorganisch-organischer Hybridmaterialien, insbesondere mikro- und mesoporöser Organosilika, vorgestellt. Ausgangspunkt für neuartige PMO und andere organisch modifizierte mesoporöse Silika vom MCM41- oder SBA-15-Typ ist die Synthese der hier erstmals präsenterten Organosilane, welche je nach Verwendungszweck über eine oder mehrere hydrolysierbare Trialkokysilylfunktionen verfügen. Während Alkylsiloxane mit Pyren, Acridon oder Dithien-2-ylphenothiazin als fluoreszierender Endgruppe über „klassische“ organische Synthesewege, wie z. B. die Knüpfung von Amid- und Sulfonamidfunktionen dargestellt werden, lassen sich komplex funktionalisierte Arylsiloxane nicht über die sonst übliche Grignard-Reaktion erhalten. Im Rahmen dieser Arbeit wird eine dreistufige Reaktionssequenz vorgestellt, mit deren Hilfe stark fluoreszierende, arylenverbrückte Trimethoysilylthiophene in sehr guten bis quantitativen Ausbeuten zugänglich sind. Den ersten Schritt bei der Darstellung der Zielmoleküle bildet die sehr schnelle und effiziente Suzuki- Myaura-Kupplung der Aryliodide oder -bromide mit Thiophen-2-boronsäure in basischen Alkohol/Wasser-Gemischen. Dieser C-C-Verknüpfung folgt die Wohl-Ziegler-Halogenierung der Thienylreste in der C-H-aziden 5-Position mittels N-Brom- oder N-Iodsuccinimid. Die abschließende, Pd(0)-vermittelte Bildung von C-Si-Bindungen, welche bei Einsatz eines Buchwald-Hartwig-Liganden sehr selektiv das gewünschte Arylsiloxan liefert, ermöglicht letztlich die problemlose Aufarbeitung der hydrolyseempfindlichen Produkte. Sowohl bei Verwendung der pyrenhaltigen Organosilane als auch mit den thiophenhaltigen Vorstufen lassen sich in templat-gesteuerten Sol-Gel-Ansätzen keine mesoporösen Materialien erhalten. Ursache dafür ist in den meisten Fällen vermutlich die Aggregationsneigung der recht großen aromatischen Chromophore und ihre damit verbundene schlechte Wasserlöslichkeit. Im Falle der thiophensubstituierten Arene wurde zudem im alkalischen Medium die von Inagaki et al. vorhergesagte Protodesilylierung des Chromophors zum reduzierten Aromaten gefunden. Durch Umesterung der Thienylsiloxane in Triethylenglykol-Monomethylether (TGM) lassen sich jedoch mit Wasser sehr gut mischbare Stammlösungen der Chromophore erzeugen. Mit Hilfe dieser Lösungen sind in niedriger Verdünnung zwar ebenfalls keine geordneten Organosilika zugänglich, allerdings wurden in einer Eintopfreaktion unter Säurekatalyse transparente Xerogele dargestellt, die selbst bei minimalen Farbstoffkonzentrationen von ca. 6 • 10E-6 mol/g intensiv lumineszieren und spezifische BET-Oberflächen von bis zu 360 m2/g besitzen. Die Analyse der CIE-Farbkoordinaten der resultierenden Fluorogele wurde mit Hilfe ihrer Festkörper Fluoreszenzspektren durchgeführt und offenbart, dass die Darstellung nahezu „ideal“ weiß emittierender Organosilika durch Mischung verschieden emittierender Chromophore realisiert werden kann. Ein umgeestertes, silyliertes Derivat des 5,8-Dithien-2-yl-quinoxalins erweist sich zudem als eigenständig weiß photolumineszierendes Molekül, das Licht mit einer Farbtemperatur von ca. 5.500 K nahe der Schwarzkörper-Kurve emittiert. Die hierin vorgestellten amorphen Fluorogele sind insbesondere im Hinblick auf eine „Verglasung“ von Farbstoffen für Beleuchtungsanwendungen von Interesse. Im Gegensatz zu den geschilderten Versuchen zur Darstellung neuartiger PMOs verliefen sowohl die basenkatalysierte Darstellung eines Acridon-haltigen MCM-41-Derivates als auch die NH4F-abhängige Synthese eines phenothiazinhaltigen SBA-15-Analogons bei stark saurem pH erfolgreich. Beide Materialien weisen sowohl hohe spezifische BET-Oberflächen als auch eine geordnete, hexagonale Porenstruktur auf und wurden unter anderem mit Hilfe von Röntgen-Pulverdiffraktometrie (XRD), N2-Physisorptionsmessungen (BET) und Festkörper Kernresonanzspektroskopie (MAS-NMR) charakterisiert. Mit Hilfe unterschiedlicher Additive können die Absorptions- sowie die Fluoreszenzeigenschaften dieser Festkörper reversibel oder irreversibel modifiziert werden. So lässt sich die intensive bläuliche Fluoreszenz des immobilisierten Acridonchromophors durch Komplexbildung der Carbonylfunktion mit stark lewis-aziden Metallsalzen wie Sc(III)- oder Bi(III)triflat bathochrom um Δλ = 20 nm ins Grünliche verschieben. Das phenothiazinhaltige Organokieselgel, in dessen Poren sowohl die Chromophore als auch organische Ammoniumspezies kovalent verankert sind, wird durch Behandlung NOBF4 quasi-reversibel oxidiert, wobei sich paramagnetische, stark farbige Radikalkationen innerhalb des Festkörpers ausbilden. Sowohl die Oxidation als auch die Rereduktion des Materials mit Hilfe von Ascorbinsäure wurden mittels Elektronenspinresonanz- (ESR), Infrarot- (ATR-IR) und Fluoreszenzspektroskopie verfolgt. Aus der Charakterisierung der organischen Chromophore sowie der darauf basierenden Hybridmaterialien ergeben sich Anknüpfungspunkte zu weiteren Verbindungsklassen und deren möglichen Anwendungen. Die zuvor beschriebenen Thienylhalogenide können mit Hilfe einer Heck-Carboalkoxylierung in die entsprechenden n-Alkylester überführt werden. Die Synthese der sich daraus ableitenden MOF-Linker sowie stark fluoreszierender Phosphonate für die Beschichtung von keramischen Oberflächen wurde in einem Kooperationsprojekt mit Frau Dr. E. Keceli bearbeitet und wird im Rahmen dieser Arbeit ebenfalls beschrieben. Gleiches gilt für die Erforschung der Bandlücken verschiedener thienylierter Phenothiazine, welche als Modellverbindungen für die Entwicklung farbstoffhaltiger organischer UV-Solarzellen (UV-DSCs) dienen könnten. Die hierfür notwendigen Experimente sind Gegenstand einer laufenden Kooperation mit der AG Ziegler (Fachbereich Physik, TU Kaiserslautern). Künftiges Ziel dieser Forschung soll es sein, unter Berücksichtigung der in dieser Arbeit vorgestellten Ergebnisse, sowohl Polymere auf Basis p-dotierter Phenothiazine als auch weitere Hybridsilika mit erhöhtem Farbstoffgehalt und verbesserter thermischer und mechanischer Stabilität zu entwicken. Bei der Materialsynthese sollte insbesondere der Einfluss von Parametern wie Präformationszeit, pH-Wert und der Natur der eingesetzten Sol-Gel-Vorstufen näher beleuchtet werden, um ggf. zu einem systematischen Verständnis der Strukturbildung der hierin vorgestellten Organosilika zu gelangen.
Basierend auf eigenen Fließ- und Füllversuchsreihen und vergleichenden 2D- und 3D-Simulationen wurde ein Verfahren zur numerischen Simulation des Fließ- und Füllverhaltens von zementgebundenen Feinkornsystemen mit und ohne Stahlfasern entwickelt bzw. weiterentwickelt. Das stark zeit- und scherratenabhängige rheologische Verhalten dieser Feinkornsysteme wurde mit einem Rotationsrheometer anhand speziell entwickelter Messprofile untersucht und mittels eines geeigneten Modells abgebildet. Im Rahmen von Parameterstudien und Vergleichen der experimentellen Ergebnisse der durchgeführten Haegermann- und L-Box-Versuche mit denen der Simulation wurden Simulationsparameter und -modelle angepasst und validiert. Das Fließ- und Füllverhalten der untersuchten Feinkornsysteme konnte dadurch mit der verwendeten Software-Plattform „Complex Rheology Solver“ (CoRheoS) zufriedenstellend beschrieben werden. Darüber hinaus wurde die Orientierung von Stahlfasern mithilfe einer bi-direktionalen Kopplung der Gleichungen für das Fließverhalten der Feinkornsysteme mit denen für die Faserorientierung qualitativ gut wiedergegeben.
Die Klimaveränderung und die damit einhergehende verstärkte Fäulnisdynamik auf Trauben stellt eine Herausforderung für die nördlichen Weinbauregionen Europas dar. Daher wurde die vollautomatisch-optische Traubensortierung, eine innovative Verfahrenstechnik bei der Traubenverarbeitung, im zugrundeliegenden Projekt erstmals zur maschinellen Selektion fauler Beeren aus Hand- und Maschinenlesegut unter Praxisbedingungen in den Jahrgängen 2010 und 2011 eingesetzt. Hierzu wurden 15 Sortierversuche mit durchschnittlich zwei Tonnen Lesegut unterschiedlicher Rebsorten des Weinanbaugebietes Mosel mit unterschiedlichen Fäulnisarten und intensitäten durchgeführt, wobei Selektionsquoten bis zu 99 % erreicht wurden. Durch die Sortierung erfolgte eine Fraktionierung des Lesegutes in Saftvorlauf (aus geöffneten Beeren austretender Saft), Positivfraktion (gesunde Beeren) und Negativfraktion (faule Beeren), die im Vergleich zur unsortierten Kontrolle repräsentative Aussagen über den Fäulniseinfluss von Beeren auf die standardisiert verarbeiteten Moste und Weine lieferten.
Ziel dieser Arbeit war es, mittels vielseitiger analytischer und sensorischer Untersuchungen der einzelnen Fraktionen die vollautomatisch-optische Traubensortierung als Maßnahme zur Qualitätssicherung, -steigerung und -sicherheit der Moste und korrelierenden Weine zu bewerten. Im Rahmen der analytischen Untersuchungen wurden die Gehalte an Mykotoxinen, biogenen Aminen, Phenolen, Gluconsäure, Glycerin, organischen Säuren, Kationen, Schwefelbindungspartnern und Off-flavour-Verbindungen sowie das Mostgewicht bestimmt. Die notwendigen Methoden zur Bestimmung der Mykotoxine mittels HPLC-MS/MS sowie der phenolischen Verbindungen mittels HPLC-UV wurden entwickelt und validiert. Sensorisch wurden deskriptive sowie diskriminative Untersuchungen durchgeführt.
Die Ergebnisse der analytischen und sensorischen Untersuchungen aller Versuche zeigten, dass die Art und Entwicklung der auf Trauben auftretenden Fäulnis überwiegend zu qualitativ negativen Beeinflussungen der rebsortentypischen Weinstilistik führte. Die effiziente Selektion fäulnisbelasteter Beeren mittels vollautomatisch-optischer Traubensortierung und die hierdurch ermöglichte, individuelle Handhabung der einzelnen Sortierfraktionen tragen zur Sicherung, Steigerung und Sicherheit der Qualität von Weinen bei.
Es muss jedoch berücksichtigt werden, dass diese Ergebnisse nur den Zustand zweier Jahrgänge widerspiegeln. Zukünftige Untersuchungen über mehrere Jahre sollten daher angestrebt werden, um die beobachteten Trends zu bestätigen.
Die Verbunddecke ist ein Deckensystem, das Akzeptanz und Wirtschaftlichkeit bei gleichzeitig ausgereifter bautechnischer Qualität vereint. Nachweiskonzepte zur Biegetragfähigkeit und Längsschubtragfähigkeit wurden bereits für normative Regelungen erarbeitet. Für die Bemessung unter Querkraft orientiert sich das Regelwerk für Verbundbau am Nachweiskonzept für Massivbauteile. Eine eigenständige, an die besondere konstruktive Gestaltung von Verbunddecken angepasste Bemessung ist nicht vorhanden. Bisher wird somit ein empirisch gestütztes Querkraftmodell verwendet, dessen statistische Kalibrierung ohne Berücksichtigung von Verbunddeckenversuchen vorgenommen wurde. Neuere Untersuchungen an Verbunddecken mit gefügedichtem Leichtbeton zeigten, dass bei einem ungünstigen Verhältnis der Zug- zur Druckfestigkeit des Betons und in Abhängigkeit der Verankerung der Längsbewehrung relevante Sicherheitsdefizite infolge Querkraftversagen auftreten können.
Im Rahmen dieser Arbeit wurden die das Querkraftversagen bei Verbunddecken auslösenden Mechanismen separiert und in ihrer Wirkung beschrieben. Hierzu wurden eine Vielzahl von Querkraftversuchen an Verbunddecken mit variierender Blechgeometrie und in wechselnder Kombination mit Normal- und Leichtbeton durchgeführt. Aus dem Zugewinn an Erkenntnissen wurde ein mechanisch begründetes, variables Bemessungsmodell für Verbunddecken unter Querkraftbeanspruchung formuliert. Das Modell zeichnet sich durch die Berücksichtigung der bisher vernachlässigten Eigentragfähigkeit des Verbundblechs aus und kann zudem flexibel an die verwendete Betonart sowie an variierende Blechgeometrien angepasst werden. Das Querkraftmodell setzt sich aus den additiv wirkenden Traganteilen des Blechs, der ungerissenen Druckzone sowie der aktivierten Bruchprozesszone zusammen. Damit wurde ein geschlossener Lösungsvorschlag zur Querkraftbemessung erarbeitet, welcher eine optimale und sichere Ausnutzung des Deckensystems ermöglicht. Da die Einzeltragwirkungen individuell und mechanisch beschrieben wurden sind Ergän-zungen leicht möglich, so dass zukünftig auch die Einbindung der Wirkung von Faserbeton denkbar wäre.
In der Arbeit wurde erstmals der Frage nach einem ingenieurmäßigen Nachweisformat für Verbunddecken unter Schubbeanspruchung nachgegangen. Die gewonnenen Erkenntnisse ermöglichen Schlussfolgerungen zu dem von Stahlbetonbalken abweichenden Tragverhalten und liefern damit eine Basis für weitere Forschungsansätze. Um dies zu unterstützen wurde eine umfangreiche Datensammlung durchgeführt und in einer Versuchsdatenbank von Stahlverbunddecken mit Querkraftversagen festgehalten.
In the first part of this thesis we study algorithmic aspects of tropical intersection theory. We analyse how divisors and intersection products on tropical cycles can actually be computed using polyhedral geometry. The main focus is the study of moduli spaces, where the underlying combinatorics of the varieties involved allow a much more efficient way of computing certain tropical cycles. The algorithms discussed here have been implemented in an extension for polymake, a software for polyhedral computations.
In the second part we apply the algorithmic toolkit developed in the first part to the study of tropical double Hurwitz cycles. Hurwitz cycles are a higher-dimensional generalization of Hurwitz numbers, which count covers of \(\mathbb{P}^1\) by smooth curves of a given genus with a certain fixed ramification behaviour. Double Hurwitz numbers provide a strong connection between various mathematical disciplines, including algebraic geometry, representation theory and combinatorics. The tropical cycles have a rather complex combinatorial nature, so it is very difficult to study them purely "by hand". Being able to compute examples has been very helpful
in coming up with theoretical results. Our main result states that all marked and unmarked Hurwitz cycles are connected in codimension one and that for a generic choice of simple ramification points the marked cycle is a multiple of an irreducible cycle. In addition we provide computational examples to show that this is the strongest possible statement.
We consider the problem of finding efficient locations of surveillance cameras, where we distinguish
between two different problems. In the first, the whole area must be monitored and the number of cameras
should be as small as possible. In the second, the goal is to maximize the monitored area for a fixed number of
cameras. In both of these problems, restrictions on the ability of the cameras, like limited depth of view or range
of vision are taken into account. We present solution approaches for these problems and report on results of
their implementations applied to an authentic problem. We also consider a bicriteria problem with two objectives:
maximizing the monitored area and minimizing the number of cameras, and solve it for our study case.
Enhanced information processing of phobic natural images in participants with specific phobias
(2014)
From an evolutionary point of view, it can be assumed that visual processing and rapid detection of potentially dangerous stimuli in the environment (e.g., perilous animals) is highly adaptive for all humans. In the present dissertation, I address three research questions; (1) Is information processing of threatening stimuli enhanced in individuals with specific phobias? (2) Are there any differences between the different types of phobia (e.g., spider phobia vs. snake phobia)? (3) Is the frequently reported attentional bias of individuals with specific phobias - which may contribute to an enhancement in information processing – also detectable in a prior entry paradigm? In Experiments 1 to 3 of the present thesis non-anxious control, spider-fearful, snake-fearful, and blood-injection-injury-fearful participants took part in the study. We applied in each experiment a response priming paradigm which has a strong theoretical (cf. rapid-chase theory; Schmidt, Niehaus, & Nagel, 2006; Schmidt, Haberkamp, Veltkamp et al., 2011) as well as empirical background (cf. Schmidt, 2002). We show that information processing in fearful individuals is indeed enhanced for phobic images (i.e., spiders for spider-fearful participants; injuries for blood-injury-injection(BII)-fearful individuals). However, we found marked differences between the different types of phobia. In Experiment 1 and 2 (Chapter 2 and 3), spiders had a strong and specific influence in the group of spider-fearful individuals: Phobic primes entailed the largest priming effects, and phobic targets accelerated responses, both effects indicating speeded response activation by phobic images. In snake-fearful participants (Experiment 1, Chapter 2), this processing enhancement for phobic material was less pronounced and extended to both snake and spider images. In Experiment 3 (Chapter 4), we demonstrated that early information processing for pictures of small injuries is also enhanced in BII-fearful participants, even though BII fear is unique in that BII-fearful individuals show opposite physiological reactions when confronted with the phobic stimulus compared to individuals with animal phobias. These results show that already fast visuomotor responses are further enhanced in spider- and BII-fearful participants. Results give evidence that responses are based on the first feedforward sweep of neuronal activation proceeding through the visuomotor system. I propose that the additional enhancement in spider- and BII-fearful individuals depend on a specific hardwired binding of elementary features belonging to the phobic object in fearful individuals (i.e., effortless recognition of the respective phobic object via hardwired neuronal conjunctions). I suggest that these hardwired conjunctions developed due to long-term perceptual learning processes. We also investigate the frequently reported attentional bias of phobic individuals and showed that this bias is detectable in temporal order judgments using a prior entry paradigm. I assume that perceptual learning processes might also strengthen the attentional bias, for example, by providing a more salient bottom-up signal that draws attention involuntarily. In sum, I conclude that (1) early information processing of threatening stimuli is indeed enhanced in individuals with specific phobias but that (2) differences between divers types of phobia exist (i.e., spider- and BII-fearful participants show enhanced information of the respective phobic object; though, snake-fearful participants show no specific information processing enhancement of snakes); (3) the frequently reported attentional bias of spider-fearful individuals is also detectable in a prior entry paradigm.
Robuste Optimierung wird zur Entscheidungsunterstützung eines komplexen Beschaffungs- und Transportmodells genutzt, um die Risikoeinstellung der Entscheidenden abzubilden und gleichzeitig ein robustes Ergebnis zu erzielen. Die Modellierung des Problems ist umfassend dargestellt und Ergebnisse der nicht-deterministischen Planung bei verschiedenen Parametern und Risikoeinstellungen gegenübergestellt. Die Datenunsicherheit wird an einem Praxisfall erläutert und Methoden und -empfehlungen zum Umgang mit dieser dargestellt.
We consider the problem of finding efficient locations of surveillance cameras, where we distinguish
between two different problems. In the first, the whole area must be monitored and the number of cameras
should be as small as possible. In the second, the goal is to maximize the monitored area for a fixed number of
cameras. In both of these problems, restrictions on the ability of the cameras, like limited depth of view or range
of vision are taken into account. We present solution approaches for these problems and report on results of
their implementations applied to an authentic problem. We also consider a bicriteria problem with two objectives:
maximizing the monitored area and minimizing the number of cameras, and solve it for our study case.
Methyleugenol ist ein sekundärer Pflanzeninhaltsstoff, der in verschiedenen Kräutern und
Gewürzen vorkommt. In Form von natürlichen ätherischen Ölen findet Methyleugenol als
Aromastoff in Lebensmitteln und als Duftstoff in Kosmetika Verwendung. Methyleugenol
wurde als natürliches gentoxisches Kanzerogen eingestuft. Ein Fokus der vorliegenden
Dissertation lag auf wirkmechanistischen Untersuchungen zur Gentoxizität von
Methyleugenol und ausgewählten oxidativen Phase-I-Metaboliten. So wurden direkt
gentoxische Wirkmechanismen, wie die Induktion von DNA-Strangbrüchen oder Mikrokernen
in der humanen Kolonkarzinomzelllinie HT29 detektiert. Auf Grund der fehlenden in vitro
Mutagenität der Verbindungen sollten weitere Wirkmechanismen zum DNA-strangbrechenden
Potential sowie potentielle Effekte auf DNA-Reparaturprozesse charakterisiert werden.
Die Metaboliten Methyleugenol-2',3'-epoxid und 3'-Oxomethylisoeugenol hemmen die HDAC- und Topoisomerase-I-Aktivität und tragen somit möglicherweise zum DNA-strangbrechenden
Potential der Metaboliten bei. 3'-Oxomethylisoeugenol wurde dabei als
katalytischer Hemmstoff humaner Topoisomerase I identifiziert, welcher signifikant die DNA-strangbrechende
Wirkung und die Enzym/DNA-stabilisierenden Effekte des Topoisomerase-I-Giftes Camptothecin hemmt. In Folge der Induktion von DNA-Doppelstrangbrüchen durch
die Testsubstanzen wird die DNA-Reparatur-assoziierte ATM/ATR-Signalkaskade und das
nachgeschaltete Tumorsuppressorprotein p53 aktiviert. Diese Ergebnisse weisen darauf hin,
dass die zelluläre DNA-Schadensantwort in Verbindung mit DNA-Reparaturmechanismen
oder einer Apoptoseinduktion dazu beitragen, dass die initialen gentoxischen Wirkungen der
Substanzen zu keiner direkten Mutagenität in vitro führen. Insgesamt konnte die Arbeit
zeigen, dass reaktive oxidative Metaboliten von Methyleugenol eine Vielzahl zellulärer
Zielstrukturen beeinflussen und eine potentielle in vitro Gentoxizität aufweisen, weshalb sie
in ihrer Gesamtheit in der Risikobewertung der Ausganssubstanz berücksichtigt werden
sollten.
Ein weiterer Schwerpunkt dieser Arbeit lag auf der Untersuchung der posttranslationalen
Histondeacetylase (HDAC)-Modifikation durch Polyphenole. Es wurde gezeigt, dass
Polyphenole die Expression des Regulatorproteins SUMO E1 beeinflussen. Des Weiteren
hemmen die Polyphenole (-)-Epigallocatechin-3-gallat und Genistein die HDAC-Aktivität und
vermindern den HDAC 1 Proteinstatus in HT29-Kolonkarzinomzellen. HDAC gehört zu den
SUMO-Substratproteinen. Im Rahmen der Arbeit wurde erstmals eine Modulation der posttranslationalen
HDAC 1-Sumoylierung nach Inkubation mit den Polyphenolen nachgewiesen,
welche im direkten Zusammenhang mit der HDAC-Aktivitätshemmung stehen könnte. EGCG
und Genistein beeinflussen somit epigenetische Signalwege in Tumorzellen. Inwieweit eine
Beeinflussung der DNA-Integrität durch HDAC-Hemmstoffe ein Risiko für primäre Zellen
darstellt, muss in weiterführenden Studien noch geklärt werden.
Safety analysis is of ultimate importance for operating Nuclear Power Plants (NPP). The overall
modeling and simulation of physical and chemical processes occuring in the course of an accident
is an interdisciplinary problem and has origins in fluid dynamics, numerical analysis, reactor tech-
nology and computer programming. The aim of the study is therefore to create the foundations
of a multi-dimensional non-isothermal fluid model for a NPP containment and software tool based
on it. The numerical simulations allow to analyze and predict the behavior of NPP systems under
different working and accident conditions, and to develop proper action plans for minimizing the
risks of accidents, and/or minimizing the consequences of possible accidents. A very large number
of scenarios have to be simulated, and at the same time acceptable accuracy for the critical param-
eters, such as radioactive pollution, temperature, etc., have to be achieved. The existing software
tools are either too slow, or not accurate enough. This thesis deals with developing customized al-
gorithm and software tools for simulation of isothermal and non-isothermal flows in a containment
pool of NPP. Requirements to such a software are formulated, and proper algorithms are presented.
The goal of the work is to achieve a balance between accuracy and speed of calculation, and to
develop customized algorithm for this special case. Different discretization and solution approaches
are studied and those which correspond best to the formulated goal are selected, adjusted, and when
possible, analysed. Fast directional splitting algorithm for Navier-Stokes equations in complicated
geometries, in presence of solid and porous obstales, is in the core of the algorithm. Developing
suitable pre-processor and customized domain decomposition algorithms are essential part of the
overall algorithm amd software. Results from numerical simulations in test geometries and in real
geometries are presented and discussed.
We argue that the concepts of resilience in engineering science and robustness in mathematical optimization are strongly related. Using evacuation planning as an example application, we demonstrate optimization techniques to improve solution resilience. These include a direct modelling of the uncertainty for stochastic or robust optimization, as well as taking multiple objective functions into account.
We consider the problem of evacuating an urban area caused by a natural or man-made disaster. There are several planning aspects that need to be considered in such a scenario, which are usually considered separately, due to their computational complexity. These aspects include: Which shelters are used to accommodate evacuees? How to schedule public transport for transit-dependent evacuees? And how do public and individual traffic interact? Furthermore, besides evacuation time, also the risk of the evacuation needs to be considered.
We propose a macroscopic multi-criteria optimization model that includes all of these questions simultaneously. As a mixed-integer programming formulation cannot handle instances of real-world size, we develop a genetic algorithm of NSGA-II type that is able to generate feasible solutions of good quality in reasonable computation times.
We extend the applicability of these methods by also considering how to aggregate instance data, and how to generate solutions for the original instance starting from a reduced solution.
In computational experiments using real-world data modelling the cities of Nice in France and Kaiserslautern in Germany, we demonstrate the effectiveness of our approach and compare the trade-off between different levels of data aggregation.
We consider a network flow problem, where the outgoing flow is reduced by a certain percentage in each node. Given a maximum amount of flow that can leave the source node, the aim is to find a solution that maximizes the amount of flow which arrives at the sink.
Starting from this basic model, we include two new, additional aspects: On the one hand, we are able to reduce the loss at some of the nodes; on the other hand, the exact loss values are not known, but may come from a discrete uncertainty set of exponential size.
Applications for problems of this type can be found in evacuation planning, where one would like to improve the safety of nodes such that the number of evacuees reaching safety is maximized.
We formulate the resulting robust flow problem with losses and improvability as a mixed-integer program for finitely many scenarios, and present an iterative scenario-generation procedure that avoids the inclusion of all scenarios from the beginning. In a computational study using both randomly generated instance and realistic data based on the city of Nice, France, we compare our solution algorithms.
Embedded systems, ranging from very simple systems up to complex controllers, may
nowadays have quite challenging real-time requirements. Many embedded systems are reactive
systems that have to respond to environmental events and have to guarantee certain real-time
constrain. Their execution is usually divided into reaction steps, where in each step, the
system reads inputs from the environment and reacts to these by computing corresponding
outputs.
The synchronous Model of Computation (MoC) has proven to be well-suited for the
development of reactive real-time embedded systems whose paradigm directly reflects the
reactive nature of the systems it describes. Another advantage is the availability of formal
verification by model checking as a result of the deterministic execution based on a formal
semantics. Nevertheless, the increasing complexity of embedded systems requires to compensate
the natural disadvantages of model checking that suffers from the well-known state-space
explosion problem. It is therefore natural to try to integrate other verification methods with
the already established techniques. Hence, improvements to encounter these problems are
required, e.g., appropriate decomposition techniques, which encounter the disadvantages
of the model checking approach naturally. But defining decomposition techniques for synchronous
language is a difficult task, as a result of the inherent parallelism emerging from
the synchronous broadcast communication.
Inspired by the progress in the field of desynchronization of synchronous systems by
representing them in other MoCs, this work will investigate the possibility of adapting and use
methods and tools designed for other MoC for the verification of systems represented in the
synchronous MoC. Therefore, this work introduces the interactive verification of synchronous
systems based on the basic foundation of formal verification for sequential programs – the
Hoare calculus. Due to the different models of computation several problems have to be
solved. In particular due to the large amount of concurrency, several parts of the program
are active at the same point of time. In contrast to sequential programs, a decomposition
in the Hoare-logic style that is in some sense a symbolic execution from one control flow
location to another one requires the consideration of several flows here. Therefore, different
approaches for the interactive verification of synchronous systems are presented.
Additionally, the representation of synchronous systems by other MoCs and the influence
of the representation on the verification task by differently embedding synchronous system
in a single verification tool are elaborated.
The feasibility is shown by integration of the presented approach with the established
model checking methods by implementing the AIFProver on top of the Averest system.
We develop a framework for shape optimization problems under state equation con-
straints where both state and control are discretized by B-splines or NURBS. In other
words, we use isogeometric analysis (IGA) for solving the partial differential equation and a nodal approach to change domains where control points take the place of nodes and where thus a quite general class of functions for representing optimal shapes and their boundaries becomes available. The minimization problem is solved by a gradient descent method where the shape gradient will be defined in isogeometric terms. This
gradient is obtained following two schemes, optimize first–discretize then and, reversely,
discretize first–optimize then. We show that for isogeometric analysis, the two schemes yield the same discrete system. Moreover, we also formulate shape optimization with respect to NURBS in the optimize first ansatz which amounts to finding optimal control points and weights simultaneously. Numerical tests illustrate the theory.
Tandembeschaufelungen werden in Axialverdichtern dort eingesetzt, wo große Strömungsumlenkungen
realisiert werden müssen. Beschaufelungen, bei denen die gesamte Umlenkung
mit nur einem Schaufelprofil realisiert wird, stoßen dabei schnell an ihre aerodynamischen
Grenzen, da es bei hohen Umlenkungen zu Grenzschichtablösung kommen kann.
In Tandembeschaufelungen wird die Umlenkaufgabe auf zwei Schaufelprole aufgeteilt.
An der Vorderkante des in Strömungsrichtung liegenden hinteren Schaufelprofils existiert
eine frische, dünne und ungestörte Grenzschicht für die restliche Umlenkung.
Die Auslegung einer Verdichterbeschaufelung erfolgt gewöhnlich in mehreren koaxialen
Schnitten. Wickelt man einen solchen koaxialen Schnitt in eine Ebene ab, so erhält man ein
sogenanntes Schaufelgitter. Die Überlegenheit von Tandemgittern bezüglich Einzelgittern
bei großen Umlenkungen wurde für zweidimensionale Strömungen bereits häufig in der
Literatur gezeigt. Ebenso sind für zweidimensionale Strömungen durch Tandemgitter die
idealen Parameter für die relative Position der einzelnen Schaufelreihen zueinander und
die Aufteilung der aerodynamischen Last auf die einzelnen Schaufelreihen bekannt. Da
hohe Umlenkungen meist in den letzten Stufen von mehrstufigen Axialverdichtern gefordert
sind, wo die Schaufelhöhenverhältnisse klein sind, wird der Einfluss der Seitenwände
(Nabe und Gehäuse) groß und kann deshalb nicht mehr vernachlässigt werden. Bisher
gibt es allerdings wenig Informationen über die Strömungsstruktur in Tandemgittern an
der Seitenwand und das dreidimensionale Strömungsverhalten. Es ist daher nicht klar, ob
Tandemgitterkonfigurationen, die für zweidimensionale Strömungen die geringsten Verluste
erzeugen, auch in dreidimensionalen Strömungen minimale Verluste verursachen.
In dieser Arbeit werden die experimentellen und numerischen Ergebnisse von vier Tandemgitterkonfigurationen und einem Referenz-Einzelgitter vorgestellt. Die Gitter bestehen
aus NACA 65 Profilen mit kleinem Schaufelhöhenverhältnis. Die Auslegung der Gitter
erfolgte unter Berücksichtigung empirischer Korrelationen von Lieblein und Lei. Die Tandemgitter
unterscheiden sich im Teilungsverhältnis der einzelnen Schaufelreihen und im
Percent Pitch (PP). Alle Gitter bewirken eine Strömungsumlenkung von annähernd 50 Grad
bei einer Reynoldszahl von 8x10^5.
In dieser Arbeit wird gezeigt, wie die Strömung in Tandemgittern strukturiert ist und
insbesondere wie die Sekundärströmung in Tandemgittern entsteht. Anhand der Strömungsstruktur, die mit Hilfe von numerischen und experimentellen Ölanstrichbildern der
Seitenwand und der Profiloberflächen sichtbar gemacht wurde, wird die Verlustentstehung
identifiziert und diskutiert. Corner Stall wird als zentrales Strömungsphänomen in
Tandemgittern ausführlich auf dessen Entstehung und Ausprägung hin untersucht. Strömungsmechanische Kenngrößen, die numerisch und anhand von Messungen ermittelt wurden,
werden miteinander verglichen und der Einfluss der Tandemkonfigurationen auf das
Strömungsfeld im Nachlauf der Gitter wird aufgezeigt. Schließlich werden Empfehlungen gegeben, wie das Teilungsverhältnis der einzelnen Schaufelreihen und der Percent Pitch
(PP) in einem Tandemgitter zu wählen ist, um minimale Strömungsverluste zu realisieren.
Im Forschungsprojekt „Innovationen in der Bauwirtschaft – Von der Idee bis zum Markt“ wurde in Zusammenarbeit mit acht Industriepartnern an einer Zusammenstellung von geeigneten Konzepten zur umfassenden Begleitung des betrieblichen Innovationsmanagements in der Baubranche gearbeitet.
Das Wissensmodul 2 „Innovationsideen erfolgreich umsetzen“ bildet den zweiten Teil der im Forschungsprojekt entstandenen Broschürenreihe und ergänzt die in Wissensmodul 1 vorgestellten Themenfelder. Während in Wissensmodul 1 auf die Schaffung allgemeiner Rahmenbedingungen für Innovationsfähigkeit und Innovationsbereitschaft in Unternehmen der Bauwirtschaft eingegangen wird, stehen in diesem Wissensmodul 2 Konzepte im Vordergrund, welche die Umsetzung konkreter Innovationsvorhaben und deren anschließende „Vermarktung“ an die jeweilige Zielgruppe unterstützen. Ausgedrückt in den gängigen Fachbegriffen der Innovationsforschung bezieht sich diese Broschüre demnach auf die drei Phasen der Ideenakzeptierung, der Ideenrealisierung und der Diffusion der entstandenen Innovation im Innovationsprozess. Die in der Broschüre behandelten Themenfelder sind die Chancen-Risiken-Analyse zum Zeitpunkt der Ideenauswahl, das Innovationsprojektmanagement für die Umsetzung der Innovationsidee und schließlich die gezielte Ansprache und Einbindung von Personengruppen oder Organisationen, die als „Adoptoren“ für die Übernahme und Akzeptanz der Innovation besonders wichtig sind.
Das Ziel beider Broschüren ist es, Unternehmen der Bauwirtschaft bei ihrem Weg von der Entwicklung bis hin zur Vermarktung von Innovationsideen durch praxisnah beschriebene Konzepte und Methoden zu unterstützen. Aufbauend auf einer Analyse der vorhandenen Strukturen und Vorgehensweisen bei der Entwicklung und Umsetzung von Innovationsideen der im Projekt beteiligten Partnerunternehmen, wurden hierfür zunächst bewährte Konzepte und Gestaltungsansätze des Innovationsmanagements ausgewählt. Diese wurden anschließend zusammen mit den Unternehmenspartnern auf ihre Anwendbarkeit und Eignung sowie ihren Nutzen für ein betriebliches Management von Innovationsprozessen in der bauwirtschaftlichen Praxis untersucht.
Das in dieser Broschüre vorgestellte Wissensmodul 1 „Innovationsfähigkeit und -bereitschaft in Unternehmen der Bauwirtschaft fördern“ bildet den ersten Teil der zweiteiligen Broschürenreihe des Forschungsprojekts „Innovationen in der Bauwirtschaft – Von der Idee bis zum Markt“.
Das Ziel beider Broschüren ist es, Unternehmen der Bauwirtschaft bei ihrem Weg von der Entwicklung bis hin zur Vermarktung von Innovationsideen durch praxisnah beschriebene Konzepte und Methoden zu unterstützen. Aufbauend auf einer Analyse der vorhandenen Strukturen und Vorgehensweisen bei der Entwicklung und Umsetzung von Innovationsideen der im Projekt beteiligten Partnerunternehmen, wurden hierfür zunächst bewährte Konzepte und Gestaltungsansätze des Innovationsmanagements ausgewählt. Diese wurden anschließend zusammen mit den Unternehmenspartnern auf ihre Anwendbarkeit und Eignung sowie ihren Nutzen für ein betriebliches Management von Innovationsprozessen in der bauwirtschaftlichen Praxis untersucht.
In Wissensmodul 1 wird zunächst auf die grundlegenden Rahmenbedingungen eines erfolgreichen Innovationsmanagements eingegangen. So steht noch vor der eigentlichen Umsetzung eines konkreten Innovationsprojekts (Gegenstand von Wissensmodul 2) eine gute Idee („Invention“), deren Entstehung und Weiterentwicklung nicht dem Zufall überlassen werden sollte. Mitarbeiter, die in ihrem betrieblichen Erfahrungskontext – aber auch darüber hinaus – bewusst ihre Augen für Verbesserungen und neuartige Problemlösungen offen halten, leisten hierzu einen entscheidenden Beitrag. Dafür müssen sie wissen, wohin die Reise ihres Unternehmens gehen soll, das heißt, welche Vision und strategischen Ziele die Unternehmensentwicklung leiten und welchen Beitrag der einzelne Mitarbeiter dazu leisten kann. Wenn die entstandenen Ideen im Unternehmen dann „auf fruchtbaren Boden fallen“, also in einer offenen Kultur der Wertschätzung weiterentwickelt werden und nicht im betrieblichen Alltag „verloren gehen“, sind schon wichtige Rahmenbedingungen für eine erfolgreiche Umsetzung von Innovationsvorhaben geschaffen. Um dies sicherzustellen, ist auch ein professioneller Umgang mit entstandenen Ideen und dem im Unternehmen vorhandenen Problemlösungswissen entscheidend. Nur dann kann bestehendes Know-how im Innovationsprozess genutzt und die Auswahl erfolgversprechender Innovationsideen gefördert werden.
Ergebnisse aktueller Bauforschung am Beispiel des Zisterzienserklosters Wörschweiler/Saarland
(2014)
Die Ruinen des 1171 gegründeten Zisterzienserklosters Wörschweiler zählen zu den wenigen mittelalterlichen Baudenkmalen des Saarlands. Trotz der großen Zerstörungen nach Aufhebung der Abtei 1558 geben die Ruinen Einblick in die bauliche Struktur und Organisation eines
„klassischen“ Zisterzienserklosters und sind damit von überregionaler Bedeutung. Freie Bewitterung und unsachgemäße Restaurierungen des 19./20. Jahrhunderts haben 2009 eine Gesamtinstandsetzung der Anlage erforderlich gemacht, die im laufenden Jahr ihren Abschluss finden wird. Ziel ist die Sicherung und Konservierung der Ruine als solche einschließlich ihrer Putz- und Farbbefunde. Vorbereitend erfolgte eine steingerechte Bestandserfassung des Aufgehenden im Maßstab
1:50 durch die TU Kaiserslautern in Zusammenarbeit mit der saarländischen Landesdenkmalpflege. Weiterhin vorbereitend wurde die bisher unzureichend dokumentierte Restaurierungsgeschichte der Klosterruine aufgearbeitet, die wichtige Hinweise für den restauratorischen Umgang mit dem Mauerwerk und für die zu erwartenden Funde liefern konnte. Eine baubegleitende Forschung einschließlich einer lokalen Grabung gab neue Einblicke in die komplexe Baugeschichte des Klosterbergs, dessen Siedlungsanfänge bis in römische Zeit zurückreichen. Insbesondere im Bereich der Klausur spiegelt sich in der ursprünglichen baulichen Qualität und Ausstattung der Gebäude die überregionale Bedeutung des Klosters bereits in seiner Zeit wider.
Geoweb‐Werkzeuge als Monitoringmaßnahmen im grenzüberschreitenden Raum Saarland - Lothringen
(2014)
Im Rahmen dieser Arbeit wird dargestellt, welches Potential von neuen und innovativen technischen Lösungen für grenzüberschreitende raumplanerische Fragestellungen erreicht werden kann. Der Betrachtungsfokus dieser Arbeit liegt auf genau dieser Schnittstelle und versucht, die sich daraus ergebenden Vorteile aufzuzeigen. Neben dem Ziel einer Einführung und Anwendung von zerstörungsfreien Prüfsystemen, hat das von INTERREG IVa geförderte Projekt CURe MODERN unter anderem das Ziel der Erstellung einer sog. Kulturdatenbank. Dabei werden exemplarisch die Möglichkeiten von 3D-Visualisierungen als Kommunikationsmittel sowie einer Open Source basierten Datenbank aufgezeigt, welche die grenzüberschreitenden Planungen unterstützen und abstimmen soll. Durch die Konzeption und Erstellung einer WebGIS Plattform wird eine grenzüberschreitende Kulturdatenbank für das Projekt CURe MODERN erstellt. Die WebGIS Plattform ermöglicht es dem Anwender neue Untersuchungsobjekte sowie die dazugehörigen Untersuchungen zu erstellen und zu verwalten. Die so zusammengeführten Informationen und Untersuchungsergebnisse können sowohl der internen Kommunikation als auch der Präsentation und Vermittlung von notwendigen Handlungsmaßnahmen kommunalen Entscheidungsträgern gegenüber dienen und stellen somit die Grundlage für ein Infrastruktur- und Baukulturmonitoringsystem dar.
Pedestrian Flow Models
(2014)
There have been many crowd disasters because of poor planning of the events. Pedestrian models are useful in analysing the behavior of pedestrians in advance to the events so that no pedestrians will be harmed during the event. This thesis deals with pedestrian flow models on microscopic, hydrodynamic and scalar scales. By following the Hughes' approach, who describes the crowd as a thinking fluid, we use the solution of the Eikonal equation to compute the optimal path for pedestrians. We start with the microscopic model for pedestrian flow and then derive the hydrodynamic and scalar models from it. We use particle methods to solve the governing equations. Moreover, we have coupled a mesh free particle method to the fixed grid for solving the Eikonal equation. We consider an example with a large number of pedestrians to investigate our models for different settings of obstacles and for different parameters. We also consider the pedestrian flow in a straight corridor and through T-junction and compare our numerical results with the experiments. A part of this work is devoted for finding a mesh free method to solve the Eikonal equation. Most of the available methods to solve the Eikonal equation are restricted to either cartesian grid or triangulated grid. In this context, we propose a mesh free method to solve the Eikonal equation, which can be applicable to any arbitrary grid and useful for the complex geometries.
When stimulus and response overlap in a choice-reaction task, enhanced performance can be observed. This effect, the so-called Stimulus-Response Compatibility (SRC) has been shown to appear for a variety of different stimulus features such as numerical or physical size, luminance, or pitch height. While many of these SRC effects have been investigated in an isolated manner, only fewer studies focus on possible interferences when more than one stimulus dimension is varied. The present thesis investigated how the SRC effect of pitch heights, the so-called SPARC effect (Spatial Pitch Associations of Response Codes), is influenced by additionally varied stimulus information. In Study 1, the pitch heights of presented tones were varied along with timbre categories under two different task and pitch range conditions and with two different response alignments. Similarly, in Study 2, pitch heights as well as numerical values were varied within sung numbers under two different task conditions. The results showed simultaneous SRC effects appearing independently of each other in both studies: In Study 1, an expected SRC effect of pitch heights with horizontal responses (i.e., a horizontal SPARC effect) was observed. More interestingly, an additional and unexpected SRC effect of timbre with response sides presented itself independently of this SPARC effect. Similar results were obtained in Study 2: Here, an SRC effect for pitch heights (SPARC) and an SRC effect for numbers (i.e., SNARC or Spatial Numerical Associations of Response Codes, respectively) were observed and again the effects did not interfere with each other. Thus, results indicate that SPARC with horizontal responses does not interfere with SRC effects of other, simultaneously varied stimulus dimensions. These findings are discussed within the principle of polarity correspondence and the dimensional overlap model as theoretical accounts for SRC effects. In sum, it appears that the different types of information according to varied stimulus dimensions enter the decision stage of stimulus processing from separate channels.
A positive affection of human health by nutrition is of high interest, especially for bioactive compounds which are consumed daily in high amounts. This is the case for chlorogenic acids (CGA) ingested by coffee. This molecule class is associated with several possible beneficial health effects observed in vitro that strongly depend on their bioavailability. So far factors influencing bioavailability of CGA such as dose, molecule structure and site of absorption haven´t been investigated sufficiently.
Therefore we performed an in vivo dose-response study with ileostomists, who consumed three different nutritional doses of CGA ingested as instant coffee (4,525 (HIGH); 2,219 (MEDIUM); 1,053 (LOW) μmol CGA). CGA concentrations were determined in ileal fluid, urine and plasma. Furthermore, we conducted an ex vivo study with pig jejunal mucosa using the Ussing chamber model to confirm the in vivo observations. Individual transfer rates of CGA from coffee were investigated, namely: caffeoylquinic acid (CQA), feruloylquinic acid (FQA), caffeic acid (CA), dicaffeoylquinic acid (diCQA) and QA at physiological concentrations (0.2–3.5 mM). Samples were analyzed by HPLC-DAD, -ESI-MS and -ESI-MS/MS.
About ⅔ of the ingested CGA by coffee consumption were available in the colon dose independent. Nevertheless, the results showed that the consumption of higher CGA doses leads to a faster ileal excretion. This corresponds to a plasma AUC0-8h for CGA and metabolites of 4,412 ± 751 nM*h0-8-1 (HIGH), 2,394 ± 637 nM*h0-8-1 (MEDIUM) and 1,782 ± 731 nM*h0-8-1 (LOW) respectively, and a renal excretion of 8.0 ± 4.9% (HIGH), 12.1 ± 6.7% (MEDIUM) and 14.6 ± 6.8% (LOW). Moreover interindividual differences in gastrointestinal transit times were related to differences in total CGA absorption. Thus the variety of patient´s physiology is a decisive bioavailability factor for CGA uptake. This is corroborated ex vivo by a direct proportional relationship of incubation time with absorbed CGA amount.
The consumption of high CGA doses influences the metabolism pattern as an increasing glucuronidation was observed with consumption of increasing CGA doses. However, the different CGA doses have only minor effects on the overall bioavailability which was confirmed ex vivo by a non-saturable passive diffusion of 5-CQA. Furthermore, we identified in the Ussing chamber an active efflux secretion for 5-CQA that decreases its bioavailability and the physicochemical properties of the CGA subgroups as an important bioavailability factor. Transferred amount in increasing order: diCQA, trace amounts; CQA ≈ 1%; CA ≈ 1.5%; FQA ≈ 2%; and QA ≈ 4%.
Altogether, the consumption of increasing CGA doses by coffee had a minor effect on oral bioavailability in ileostomists, such as a slightly increased glucuronidation. Thus, the consumption of high amounts of CGA from coffee in the daily diet is not limiting the CGA concentrations at the site of possible health effects in the human body. However, according to the patient´s physiology the interindividual gastrointestinal transit time which is possibly influenced by dose is influencing CGA bioavailability. Moreover, ex vivo CGA absorption is governed by diffusion as an absorption mechanism corroborating an unsaturable uptake in vivo and by the individual physicochemical properties of CGA.
Glioma is a common type of primary brain tumor, with a strongly invasive potential, often exhibiting nonuniform, highly irregular growth. This makes it difficult to assess
the degree of extent of the tumor, hence bringing about a supplementary challenge for the treatment. It is therefore necessary to understand the
migratory behavior of glioma in greater detail.
In this paper we propose a multiscale model for glioma growth and migration. Our model couples the microscale dynamics (reduced to the binding of surface receptors to the
surrounding tissue) with a kinetic transport equation for the cell density on the mesoscopic level of individual cells. On the latter scale we also include the
proliferation of tumor cells via effects of interaction with the tissue. An adequate parabolic scaling yields a convection-diffusion-reaction equation, for which the coefficients
can be explicitly determined from the information about the tissue obtained by diffusion tensor imaging. Numerical simulations relying on DTI measurements confirm the biological
findings that glioma spreads
along white matter tracts.
Researchers and analysts in modern industrial and academic environments are faced with a daunting amount of multivariate data. While there has been significant development in the areas of data mining and knowledge
discovery, there is still the need for improved visualizations and generic solutions. The state-of-the-art in visual analytics and exploratory data visualization is to incorporate more profound analysis methods while focusing on improving interactive abilities, in order to support data analysts in gaining new insights through visual exploration and hypothesis building.
In the research field of exploratory data visualization, this thesis contributes new approaches in dimension reduction that tackle a number of shortcomings in state-of-the-art methods, such as interpretability and ambiguity. By combining methods from several disciplines, we describe how ambiguity can be countered effectively by visualizing coordinate values within a lower-dimensional embedding, thereby focusing on the display of the structural composition of high-dimensional data and on an intuitive depiction of inherent global relationships. We also describe how properties and alignment of high-dimensional manifolds can be analyzed in different levels of detail by means of a self-embedding hierarchy of local projections, each using full degree of freedom, while keeping the global context.
To the application field of air quality research, the thesis provides novel means for the research of aerosol source contributions. Triggered by this particularly challenging application problem, we instigate a new research direction in the area of visual analytics by describing a methodology to model-based visual analysis that (i) allows the scientist to be “in the loop” of computations and (ii) enables him to verify and control the analysis process, in order to steer computations towards physical meaning. Careful reflection of our work in this application has led us to derive key design choices that underlie and transcend beyond application-specific solutions. As a result, we describe a general design methodology to computing parameters of a pre-defined analytical model that map to multivariate data. Core applications areas that can benefit from our approach are within engineering disciplines, such as civil, chemical, electrical, and mechanical engineering, as well as in geology, physics, and biology.
Zerstörungsfreie (ND) Erkundungstechniken, seien es nun zerstörungsfreie oder geophysikalische Bewertungsmethoden, werden üblicherweise im Bau- und Transportwesen, im Bereich der Energietechnik oder der Stadtentwicklung angewandt. Während sich jedoch im Laufe der letzten Jahrzehnte das Interesse auf interne geometrische Informationen zu der untersuchten Umgebung richtete, konzentrieren sich jüngere Forschungen auf Informationen, die mit der Art und dem Zustand dieser Umgebung verbunden sind, um so dem Begiff der zerstörungsfreien Bewertung näher zu kommen. Die gegenwärtig laufenden Studien versuchen, die aus zerstörungsfreien Messungen abgeleiteten Werte in statistische, mit Lebensdauermodellen verknüpfte Ansätze zu integrieren.
This work presents a framework for the computation of complex geometries containing intersections of multiple patches with Reissner-Mindlin shell elements. The main objective is to provide an isogeometric finite element implementation which neither requires drilling rotation stabilization, nor user interaction to quantify the number of rotational degrees of freedom for every node. For this purpose, the following set of methods is presented. Control points with corresponding physical location are assigned to one common node for the finite element solution. A nodal basis system in every control point is defined, which ensures an exact interpolation of the director vector throughout the whole domain. A distinction criterion for the automatic quantification of rotational degrees of freedom for every node is presented. An isogeometric Reissner-Mindlin shell formulation is enhanced to handle geometries with kinks and allowing for arbitrary intersections of patches. The parametrization of adjacent patches along the interface has to be conforming. The shell formulation is derived from the continuum theory and uses a rotational update scheme for the current director vector. The nonlinear kinematic allows the computation of large deformations and large rotations. Two concepts for the description of rotations are presented. The first one uses an interpolation which is commonly used in standard Lagrange-based shell element formulations. The second scheme uses a more elaborate concept proposed by the authors in prior work, which increases the accuracy for arbitrary curved geometries. Numerical examples show the high accuracy and robustness of both concepts. The applicability of the proposed framework is demonstrated.
Obwohl das Zufußgehen die natürliche Fortbewegungsform des Menschen darstellt, spielte diese Mobilitätsform ab der zweiten Hälfte des 20. Jahrhunderts eine zunehmend schwindende Rolle in der politischen Wahrnehmung und der Stadt- und Verkehrsplanung. Zu Beginn des 21. Jahrhunderts wird im Zuge eines Paradigmenwechsel der Fußverkehr wieder von der Politik, der Planungspraxis aber auch von der Immobilienwirtschaft als ein wichtiger Baustein für eine nachhaltige Stadt- und Quartiersentwicklung angesehen. Hierbei wird der Nahmobilität, d.h. der fußläufigen Erreichbarkeit alltagsrelevanter Aktivitätsziele, eine wichtige Rolle beigemessen. Aus verkehrswissenschaftlicher Sicht bleibt bislang die Frage unbeantwortet, inwiefern das theoretische Konstrukt „Nahmobilität“ objektiv ermittelt werden kann. Aus immobilienwirtschaftlicher Sicht ist der Einfluss der Nahmobilität auf die Immobilienpreise von Wohnungen und Häusern in verschiedenen siedlungsstrukturellen Raumtypen von Interesse. Für die theoretische Konzeption eines Nahmobilitätsindikators werden nationale und international empirische Studien zum Fußgängerverhalten sowie Bewohner-, Makler- und Expertenbefragungen ausgewertet. Die praktische Umsetzung des Nahmobilitätsindikators erfolgt mithilfe eines Geographischen Informationssystems für die Städte Frankfurt, Köln und Wiesbaden. Damit können Bereiche mit einem hohen oder niedrigen Nahmobilitätspotential differenziert werden. Ergänzend wird eine Sozialraumanalyse zur Ableitung von vier siedlungsstrukturellen Raumtypen durchgeführt. Aus der Kombination von drei Nahmobilitätsniveau und vier Raumtypen können zwölf Gebietstypen abgeleitet werden, um den Einfluss der Nahmobilität auf Immobilienpreise differenziert analysieren zu können. Nach Herleitung des Angebotspreisfestsetzungsprozesses wird die ökonometrische Analyse mit dem Spatial Durbin Modell (SDM) und dem Ordinary Least Squares Modell (OLS-Modell) auf Stadtteil- und Stadtviertelebene durchgeführt. Die als ebenfalls relevant erachtete geografisch gewichtete Regression (GWR) wird aufgrund räumlicher Autokorrelation der Variablen nicht durchgeführt. Das SDM-Modell hat bei Wohnungen zum Ergebnis, dass Haushalte allgemein Standorte mit einem mittleren Nahmobilitätsniveau vorziehen, da an Standorten mit hohen Nahmobilitätswerten negative externe Effekte (z.B. Lärm) auftreten können. In urbanen Räumen werden niedrige Nahmobilitätswerte als Malus in suburbanen Räumen dagegen als Bonus angesehen. Beide Ergebnisse werden auf Basis von Bewohnerbefragungen plausibilisiert. Bei Häusern führen die ökonometrischen Analysen auf Stadtteil- und Stadtviertelebene zu gegensätzlichen Ergebnissen. Dies wird auf das Problem der veränderbaren Gebietseinheit zurückgeführt. Da auf Stadtviertelebene Gebietsabgrenzungen präziser möglich sind, werden diese als glaubwürdiger angesehen. Damit verbunden ist kein Einfluss der Nahmobilität auf Hauspreise festzustellen. Die Residuen des OLS-Modells weisen erwartungsgemäß eine räumliche Autokorrelation auf, weshalb die Schätzer nur bedingt interpretierbar sind.