Refine
Year of publication
- 2014 (146) (remove)
Document Type
- Doctoral Thesis (78)
- Preprint (28)
- Periodical Part (17)
- Article (15)
- Working Paper (4)
- Other (2)
- Report (1)
- Study Thesis (1)
Has Fulltext
- yes (146)
Keywords
- Denkmäler (8)
- Monitoring (8)
- Raumplanung (8)
- Brücken (5)
- Bestandserhaltung (4)
- Zerstörungsfreie Prüfung (4)
- Multiobjective optimization (3)
- Querkraft (3)
- Zustandserfassung (3)
- Activity recognition (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (43)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (16)
- Kaiserslautern - Fachbereich Informatik (15)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (13)
- Kaiserslautern - Fachbereich Sozialwissenschaften (13)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Bauingenieurwesen (10)
- Universität (8)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (3)
The classic approach in robust optimization is to optimize the solution with respect to the worst case scenario. This pessimistic approach yields solutions that perform best if the worst scenario happens, but also usually perform bad on average. A solution that optimizes the average performance on the other hand lacks in worst-case performance guarantee.
In practice it is important to find a good compromise between these two solutions. We propose to deal with this problem by considering it from a bicriteria perspective. The Pareto curve of the bicriteria problem visualizes exactly how costly it is to ensure robustness and helps to choose the solution with the best balance between expected and guaranteed performance.
Building upon a theoretical observation on the structure of Pareto solutions for problems with polyhedral feasible sets, we present a column generation approach that requires no direct solution of the computationally expensive worst-case problem. In computational experiments we demonstrate the effectivity of both the proposed algorithm, and the bicriteria perspective in general.
We consider the problem of evacuating an urban area caused by a natural or man-made disaster. There are several planning aspects that need to be considered in such a scenario, which are usually considered separately, due to their computational complexity. These aspects include: Which shelters are used to accommodate evacuees? How to schedule public transport for transit-dependent evacuees? And how do public and individual traffic interact? Furthermore, besides evacuation time, also the risk of the evacuation needs to be considered.
We propose a macroscopic multi-criteria optimization model that includes all of these questions simultaneously. As a mixed-integer programming formulation cannot handle instances of real-world size, we develop a genetic algorithm of NSGA-II type that is able to generate feasible solutions of good quality in reasonable computation times.
We extend the applicability of these methods by also considering how to aggregate instance data, and how to generate solutions for the original instance starting from a reduced solution.
In computational experiments using real-world data modelling the cities of Nice in France and Kaiserslautern in Germany, we demonstrate the effectiveness of our approach and compare the trade-off between different levels of data aggregation.
A new algorithm for optimization problems with three objective functions is presented which computes a representation for the set of nondominated points. This representation is guaranteed to have a desired coverage error and a bound on the number of iterations needed by the algorithm to meet this coverage error is derived. Since the representation does not necessarily contain nondominated points only, ideas to calculate bounds for the representation error are given. Moreover, the incorporation of domination during the algorithm and other quality measures are discussed.
A single facility problem in the plane is considered, where an optimal location has to be
identified for each of finitely many time-steps with respect to time-dependent weights and
demand points. It is shown that the median objective can be reduced to a special case of the
static multifacility median problem such that results from the latter can be used to tackle the
dynamic location problem. When using block norms as distance measure between facilities,
a Finite Dominating Set (FDS) is derived. For the special case with only two time-steps, the
resulting algorithm is analyzed with respect to its worst-case complexity. Due to the relation
between dynamic location problems for T time periods and T-facility problems, this algorithm
can also be applied to the static 2-facility location problem.
We develop a framework for shape optimization problems under state equation con-
straints where both state and control are discretized by B-splines or NURBS. In other
words, we use isogeometric analysis (IGA) for solving the partial differential equation and a nodal approach to change domains where control points take the place of nodes and where thus a quite general class of functions for representing optimal shapes and their boundaries becomes available. The minimization problem is solved by a gradient descent method where the shape gradient will be defined in isogeometric terms. This
gradient is obtained following two schemes, optimize first–discretize then and, reversely,
discretize first–optimize then. We show that for isogeometric analysis, the two schemes yield the same discrete system. Moreover, we also formulate shape optimization with respect to NURBS in the optimize first ansatz which amounts to finding optimal control points and weights simultaneously. Numerical tests illustrate the theory.
Starting from the two-scale model for pH-taxis of cancer cells introduced in [1], we consider here an extension accounting for tumor heterogeneity w.r.t. treatment sensitivity and a treatment approach including chemo- and radiotherapy. The effect of peritumoral region alkalinization on such therapeutic combination is investigated with the aid of numerical simulations.
We propose a model for acid-mediated tumor invasion involving two different scales: the microscopic one, for the dynamics of intracellular protons and their exchange with their extracellular counterparts, and the macroscopic scale of interactions between tumor cell and normal cell populations, along with the evolution of extracellular protons. We also account for the tactic behavior of cancer cells, the latter being assumed to biase their motion according to a gradient of extracellular protons (following [2,31] we call this pH taxis). A time dependent (and also time delayed) carrying capacity for the tumor cells in response to the effects of acidity is considered as well. The global well posedness of the resulting multiscale model is proved with a regularization and fixed point argument. Numerical simulations are performed in order to illustrate the behavior of the model.
Minmax regret optimization aims at finding robust solutions that perform best in the worst-case, compared to the respective optimum objective value in each scenario. Even for simple uncertainty sets like boxes, most polynomially solvable optimization problems have strongly NP-hard minmax regret counterparts. Thus, heuristics with performance guarantees can potentially be of great value, but only few such guarantees exist.
A very easy but effective approximation technique is to compute the midpoint solution of the original optimization problem, which aims at optimizing the average regret, and also the average nominal objective. It is a well-known result that the regret of the midpoint solution is at most 2 times the optimal regret. Besides some academic instances showing that this bound is tight, most instances reveal a way better approximation ratio.
We introduce a new lower bound for the optimal value of the minmax regret problem. Using this lower bound we state an algorithm that gives an instance dependent performance guarantee of the midpoint solution for combinatorial problems that is at most 2. The computational complexity of the algorithm depends on the minmax regret problem under consideration; we show that the sharpened guarantee can be computed in strongly polynomial time for several classes of combinatorial optimization problems.
To illustrate the quality of the proposed bound, we use it within a branch and bound framework for the robust shortest path problem. In an experimental study comparing this approach with a bound from the literature, we find a considerable improvement in computation times.
Cancer research is not only a fast growing field involving many branches of science, but also an intricate and diversified field rife with anomalies. One such anomaly is the
consistent reliance of cancer cells on glucose metabolism for energy production even in a normoxic environment. Glycolysis is an inefficient pathway for energy production and normally is used during hypoxic conditions. Since cancer cells have a high demand for energy
(e.g. for proliferation) it is somehow paradoxical for them to rely on such a mechanism. An emerging conjecture aiming to explain this behavior is that cancer cells
preserve this aerobic glycolytic phenotype for its use in invasion and metastasis. We follow this hypothesis and propose a new model
for cancer invasion, depending on the dynamics of extra- and intracellular protons, by building upon the existing ones. We incorporate random perturbations in the intracellular proton dynamics to account
for uncertainties affecting the cellular machinery. Finally, we address the well-posedness of our setting and use numerical simulations to illustrate the model predictions.
In this paper we construct a numerical solver for the Saint Venant equations. Special attention
is given to the balancing of the source terms, including the bottom slope and variable cross-
sectional profiles. Therefore a special discretization of the pressure law is used, in order to
transfer analytical properties to the numerical method. Based on this approximation a well-
balanced solver is developed, assuring the C-property and depth positivity. The performance
of this method is studied in several test cases focusing on accurate capturing of steady states.
Three dimensional (3d) point data is used in industry for measurement and reverse engineering. Precise point data is usually acquired with triangulating laser scanners or high precision structured light scanners. Lower precision point data is acquired by real-time structured light devices or by stereo matching with multiple cameras. The basic principle of all these methods is the so-called triangulation of 3d coordinates from two dimensional (2d) camera images.
This dissertation contributes a method for multi-camera stereo matching that uses a system of four synchronized cameras. A GPU based stereo matching method is presented to achieve a high quality reconstruction at interactive frame rates. Good depth resolution is achieved by allowing large disparities between the images. A multi level approach on the GPU allows a fast processing of these large disparities. In reverse engineering, hand-held laser scanners are used for the scanning of complex shaped objects. The operator of the scanner can scan complex regions slower, multiple times, or from multiple angles to achieve a higher point density. Traditionally, computer aided design (CAD) geometry is reconstructed in a separate step after the scanning. Errors or missing parts in the scan prevent a successful reconstruction. The contribution of this dissertation is an on-line algorithm that allows the reconstruction during the scanning of an object. Scanned points are added to the reconstruction and improve it on-line. The operator can detect the areas in the scan where the reconstruction needs additional data.
First, the point data is thinned out using an octree based data structure. Local normals and principal curvatures are estimated for the reduced set of points. These local geometric values are used for segmentation using a region growing approach. Implicit quadrics are fitted to these segments. The canonical form of the quadrics provides the parameters of basic geometric primitives.
An improved approach uses so called accumulated means of local geometric properties to perform segmentation and primitive reconstruction in a single step. Local geometric values can be added and removed on-line to these means to get a stable estimate over a complete segment. By estimating the shape of the segment it is decided which local areas are added to a segment. An accumulated score estimates the probability for a segment to belong to a certain type of geometric primitive. A boundary around the segment is reconstructed using a growing algorithm that ensures that the boundary is closed and avoids self intersections.
In recent years the field of polymer tribology experienced a tremendous development
leading to an increased demand for highly sophisticated in-situ measurement methods.
Therefore, advanced measurement techniques were developed and established
in this study. Innovative approaches based on dynamic thermocouple, resistive electrical
conductivity, and confocal distance measurement methods were developed in
order to in-situ characterize both the temperature at sliding interfaces and real contact
area, and furthermore the thickness of transfer films. Although dynamic thermocouple
and real contact area measurement techniques were already used in similar
applications for metallic sliding pairs, comprehensive modifications were necessary to
meet the specific demands and characteristics of polymers and composites since
they have significantly different thermal conductivities and contact kinematics. By using
tribologically optimized PEEK compounds as reference a new measurement and
calculation model for the dynamic thermocouple method was set up. This method
allows the determination of hot spot temperatures for PEEK compounds, and it was
found that they can reach up to 1000 °C in case of short carbon fibers present in the
polymer. With regard to the non-isotropic characteristics of the polymer compound,
the contact situation between short carbon fibers and steel counterbody could be
successfully monitored by applying a resistive measurement method for the real contact
area determination. Temperature compensation approaches were investigated
for the transfer film layer thickness determination, resulting in in-situ measurements
with a resolution of ~0.1 μm. In addition to a successful implementation of the measurement
systems, failure mechanism processes were clarified for the PEEK compound
used. For the first time in polymer tribology the behavior of the most interesting
system parameters could be monitored simultaneously under increasing load
conditions. It showed an increasing friction coefficient, wear rate, transfer film layer
thickness, and specimen overall temperature when frictional energy exceeded the
thermal transport capabilities of the specimen. In contrast, the real contact area between
short carbon fibers and steel decreased due to the separation effect caused by
the transfer film layer. Since the sliding contact was more and more matrix dominated,
the hot spot temperatures on the fibers dropped, too. The results of this failure
mechanism investigation already demonstrate the opportunities which the new
measurement techniques provide for a deeper understanding of tribological processes,
enabling improvements in material composition and application design.
In the first part of this thesis we study algorithmic aspects of tropical intersection theory. We analyse how divisors and intersection products on tropical cycles can actually be computed using polyhedral geometry. The main focus is the study of moduli spaces, where the underlying combinatorics of the varieties involved allow a much more efficient way of computing certain tropical cycles. The algorithms discussed here have been implemented in an extension for polymake, a software for polyhedral computations.
In the second part we apply the algorithmic toolkit developed in the first part to the study of tropical double Hurwitz cycles. Hurwitz cycles are a higher-dimensional generalization of Hurwitz numbers, which count covers of \(\mathbb{P}^1\) by smooth curves of a given genus with a certain fixed ramification behaviour. Double Hurwitz numbers provide a strong connection between various mathematical disciplines, including algebraic geometry, representation theory and combinatorics. The tropical cycles have a rather complex combinatorial nature, so it is very difficult to study them purely "by hand". Being able to compute examples has been very helpful
in coming up with theoretical results. Our main result states that all marked and unmarked Hurwitz cycles are connected in codimension one and that for a generic choice of simple ramification points the marked cycle is a multiple of an irreducible cycle. In addition we provide computational examples to show that this is the strongest possible statement.
This thesis, whose subject is located in the field of algorithmic commutative algebra and algebraic geometry, consists of three parts.
The first part is devoted to parallelization, a technique which allows us to take advantage of the computational power of modern multicore processors. First, we present parallel algorithms for the normalization of a reduced affine algebra A over a perfect field. Starting from the algorithm of Greuel, Laplagne, and Seelisch, we propose two approaches. For the local-to-global approach, we stratify the singular locus Sing(A) of A, compute the normalization locally at each stratum and finally reconstruct the normalization of A from the local results. For the second approach, we apply modular methods to both the global and the local-to-global normalization algorithm.
Second, we propose a parallel version of the algorithm of Gianni, Trager, and Zacharias for primary decomposition. For the parallelization of this algorithm, we use modular methods for the computationally hardest steps, such as for the computation of the associated prime ideals in the zero-dimensional case and for the standard bases computations. We then apply an innovative fast method to verify that the result is indeed a primary decomposition of the input ideal. This allows us to skip the verification step at each of the intermediate modular computations.
The proposed parallel algorithms are implemented in the open-source computer algebra system SINGULAR. The implementation is based on SINGULAR's new parallel framework which has been developed as part of this thesis and which is specifically designed for applications in mathematical research.
In the second part, we propose new algorithms for the computation of syzygies, based on an in-depth analysis of Schreyer's algorithm. Here, the main ideas are that we may leave out so-called "lower order terms" which do not contribute to the result of the algorithm, that we do not need to order the terms of certain module elements which occur at intermediate steps, and that some partial results can be cached and reused.
Finally, the third part deals with the algorithmic classification of singularities over the real numbers. First, we present a real version of the Splitting Lemma and, based on the classification theorems of Arnold, algorithms for the classification of the simple real singularities. In addition to the algorithms, we also provide insights into how real and complex singularities are related geometrically. Second, we explicitly describe the structure of the equivalence classes of the unimodal real singularities of corank 2. We prove that the equivalences are given by automorphisms of a certain shape. Based on this theorem, we explain in detail how the structure of the equivalence classes can be computed using SINGULAR and present the results in concise form. The probably most surprising outcome is that the real singularity type \(J_{10}^-\) is actually redundant.
The ordered weighted averaging objective (OWA) is an aggregate function over multiple optimization criteria which received increasing attention by the research community over the last decade. Different to the ordered weighted sum, weights are attached to ordered objective functions (i.e., a weight for the largest value, a weight for the second-largest value and so on). As this contains max-min or worst-case optimization as a special case, OWA can also be considered as an alternative approach to robust optimization.
For linear programs with OWA objective, compact reformulations exist, which result in extended linear programs. We present new such reformulation models with reduced size. A computational comparison indicates that these formulations improve solution times.
Annual Report 2013
(2014)
Annual Report, Jahrbuch AG Magnetismus
Anorganisch-organische Hybridmaterialien basierend auf photolumineszierenden Sol-Gel-Vorstufen
(2014)
In den vergangenen Jahrzehnten haben sich periodisch strukturierte Organosilika (PMO) und metallorganische Netzwerke (MOFs) mit poröser Struktur als äußerst vielseitige Materialien mit interessanten physikalischen und chemischen Eigenschaften erwiesen. Neben ihrer Anwendung in der Katalyse und der Gasadsorption wurden verschiedene Hybridmaterialien in jüngerer Vergangenheit auch hinsichtlich Photoumineszenz, Energiekonversion und Halbleitereigenschaften untersucht. Die Bandbreite möglicher Applikationen reicht dabei von Sensoren über Beschichtungen und dekorative Keramiken bis hin zu elektronischen Bauteilen, wie etwa Transistoren (OFETs) und optischen Fasern (POFs). In der vorliegenden Arbeit werden auf Grundlage der bisher bekannten Forschung neue Ansätze zur Darstellung anorganisch-organischer Hybridmaterialien, insbesondere mikro- und mesoporöser Organosilika, vorgestellt. Ausgangspunkt für neuartige PMO und andere organisch modifizierte mesoporöse Silika vom MCM41- oder SBA-15-Typ ist die Synthese der hier erstmals präsenterten Organosilane, welche je nach Verwendungszweck über eine oder mehrere hydrolysierbare Trialkokysilylfunktionen verfügen. Während Alkylsiloxane mit Pyren, Acridon oder Dithien-2-ylphenothiazin als fluoreszierender Endgruppe über „klassische“ organische Synthesewege, wie z. B. die Knüpfung von Amid- und Sulfonamidfunktionen dargestellt werden, lassen sich komplex funktionalisierte Arylsiloxane nicht über die sonst übliche Grignard-Reaktion erhalten. Im Rahmen dieser Arbeit wird eine dreistufige Reaktionssequenz vorgestellt, mit deren Hilfe stark fluoreszierende, arylenverbrückte Trimethoysilylthiophene in sehr guten bis quantitativen Ausbeuten zugänglich sind. Den ersten Schritt bei der Darstellung der Zielmoleküle bildet die sehr schnelle und effiziente Suzuki- Myaura-Kupplung der Aryliodide oder -bromide mit Thiophen-2-boronsäure in basischen Alkohol/Wasser-Gemischen. Dieser C-C-Verknüpfung folgt die Wohl-Ziegler-Halogenierung der Thienylreste in der C-H-aziden 5-Position mittels N-Brom- oder N-Iodsuccinimid. Die abschließende, Pd(0)-vermittelte Bildung von C-Si-Bindungen, welche bei Einsatz eines Buchwald-Hartwig-Liganden sehr selektiv das gewünschte Arylsiloxan liefert, ermöglicht letztlich die problemlose Aufarbeitung der hydrolyseempfindlichen Produkte. Sowohl bei Verwendung der pyrenhaltigen Organosilane als auch mit den thiophenhaltigen Vorstufen lassen sich in templat-gesteuerten Sol-Gel-Ansätzen keine mesoporösen Materialien erhalten. Ursache dafür ist in den meisten Fällen vermutlich die Aggregationsneigung der recht großen aromatischen Chromophore und ihre damit verbundene schlechte Wasserlöslichkeit. Im Falle der thiophensubstituierten Arene wurde zudem im alkalischen Medium die von Inagaki et al. vorhergesagte Protodesilylierung des Chromophors zum reduzierten Aromaten gefunden. Durch Umesterung der Thienylsiloxane in Triethylenglykol-Monomethylether (TGM) lassen sich jedoch mit Wasser sehr gut mischbare Stammlösungen der Chromophore erzeugen. Mit Hilfe dieser Lösungen sind in niedriger Verdünnung zwar ebenfalls keine geordneten Organosilika zugänglich, allerdings wurden in einer Eintopfreaktion unter Säurekatalyse transparente Xerogele dargestellt, die selbst bei minimalen Farbstoffkonzentrationen von ca. 6 • 10E-6 mol/g intensiv lumineszieren und spezifische BET-Oberflächen von bis zu 360 m2/g besitzen. Die Analyse der CIE-Farbkoordinaten der resultierenden Fluorogele wurde mit Hilfe ihrer Festkörper Fluoreszenzspektren durchgeführt und offenbart, dass die Darstellung nahezu „ideal“ weiß emittierender Organosilika durch Mischung verschieden emittierender Chromophore realisiert werden kann. Ein umgeestertes, silyliertes Derivat des 5,8-Dithien-2-yl-quinoxalins erweist sich zudem als eigenständig weiß photolumineszierendes Molekül, das Licht mit einer Farbtemperatur von ca. 5.500 K nahe der Schwarzkörper-Kurve emittiert. Die hierin vorgestellten amorphen Fluorogele sind insbesondere im Hinblick auf eine „Verglasung“ von Farbstoffen für Beleuchtungsanwendungen von Interesse. Im Gegensatz zu den geschilderten Versuchen zur Darstellung neuartiger PMOs verliefen sowohl die basenkatalysierte Darstellung eines Acridon-haltigen MCM-41-Derivates als auch die NH4F-abhängige Synthese eines phenothiazinhaltigen SBA-15-Analogons bei stark saurem pH erfolgreich. Beide Materialien weisen sowohl hohe spezifische BET-Oberflächen als auch eine geordnete, hexagonale Porenstruktur auf und wurden unter anderem mit Hilfe von Röntgen-Pulverdiffraktometrie (XRD), N2-Physisorptionsmessungen (BET) und Festkörper Kernresonanzspektroskopie (MAS-NMR) charakterisiert. Mit Hilfe unterschiedlicher Additive können die Absorptions- sowie die Fluoreszenzeigenschaften dieser Festkörper reversibel oder irreversibel modifiziert werden. So lässt sich die intensive bläuliche Fluoreszenz des immobilisierten Acridonchromophors durch Komplexbildung der Carbonylfunktion mit stark lewis-aziden Metallsalzen wie Sc(III)- oder Bi(III)triflat bathochrom um Δλ = 20 nm ins Grünliche verschieben. Das phenothiazinhaltige Organokieselgel, in dessen Poren sowohl die Chromophore als auch organische Ammoniumspezies kovalent verankert sind, wird durch Behandlung NOBF4 quasi-reversibel oxidiert, wobei sich paramagnetische, stark farbige Radikalkationen innerhalb des Festkörpers ausbilden. Sowohl die Oxidation als auch die Rereduktion des Materials mit Hilfe von Ascorbinsäure wurden mittels Elektronenspinresonanz- (ESR), Infrarot- (ATR-IR) und Fluoreszenzspektroskopie verfolgt. Aus der Charakterisierung der organischen Chromophore sowie der darauf basierenden Hybridmaterialien ergeben sich Anknüpfungspunkte zu weiteren Verbindungsklassen und deren möglichen Anwendungen. Die zuvor beschriebenen Thienylhalogenide können mit Hilfe einer Heck-Carboalkoxylierung in die entsprechenden n-Alkylester überführt werden. Die Synthese der sich daraus ableitenden MOF-Linker sowie stark fluoreszierender Phosphonate für die Beschichtung von keramischen Oberflächen wurde in einem Kooperationsprojekt mit Frau Dr. E. Keceli bearbeitet und wird im Rahmen dieser Arbeit ebenfalls beschrieben. Gleiches gilt für die Erforschung der Bandlücken verschiedener thienylierter Phenothiazine, welche als Modellverbindungen für die Entwicklung farbstoffhaltiger organischer UV-Solarzellen (UV-DSCs) dienen könnten. Die hierfür notwendigen Experimente sind Gegenstand einer laufenden Kooperation mit der AG Ziegler (Fachbereich Physik, TU Kaiserslautern). Künftiges Ziel dieser Forschung soll es sein, unter Berücksichtigung der in dieser Arbeit vorgestellten Ergebnisse, sowohl Polymere auf Basis p-dotierter Phenothiazine als auch weitere Hybridsilika mit erhöhtem Farbstoffgehalt und verbesserter thermischer und mechanischer Stabilität zu entwicken. Bei der Materialsynthese sollte insbesondere der Einfluss von Parametern wie Präformationszeit, pH-Wert und der Natur der eingesetzten Sol-Gel-Vorstufen näher beleuchtet werden, um ggf. zu einem systematischen Verständnis der Strukturbildung der hierin vorgestellten Organosilika zu gelangen.
This thesis discusses several applications of computational topology to the visualization
of scalar fields. Scalar field data come from different measurements and simulations. The
intrinsic properties of this kind of data, which make the visualization of it to a complicated
task, are the large size and presence of noise. Computational topology is a powerful tool
for automatic feature extraction, which allows the user to interpret the information contained
in the dataset in a more efficient way. Utilizing it one can make the main purpose of
scientific visualization, namely extracting knowledge from data, a more convenient task.
Volume rendering is a class of methods designed for realistic visual representation of 3D
scalar fields. It is used in a wide range of applications with different data size, noise
rate and requirements on interactivity and flexibility. At the moment there is no known
technique which can meet the needs of every application domain, therefore development
of methods solving specific problems is required. One of such algorithms, designed for
rendering of noisy data with high frequencies is presented in the first part of this thesis.
The method works with multidimensional transfer functions and is especially suited for
functions exhibiting sharp features. Compared with known methods the presented algorithm
achieves better visual quality with a faster performance in presence of mentioned
features. An improvement on the method utilizing a topological theory, Morse theory, and
a topological construct, Morse-Smale complex, is also presented in this part of the thesis.
The improvement allows for performance speedup at a little precomputation and memory
cost.
The usage of topological methods for feature extraction on a real world dataset often
results in a very large feature space which easily leads to information overflow. Topology
simplification is designed to reduce the number of features and allow a domain expert
to concentrate on the most important ones. In the terms of Morse theory features are
represented by critical points. An importance measure which is usually used for removing
critical points is called homological persistence. Critical points are cancelled pairwise
according to their homological persistence value. In the presence of outlier-like noise
homological persistence has a clear drawback: the outliers get a high importance value
assigned and therefore are not being removed. In the second part of this thesis a new
importance measure is presented which is especially suited for data with outliers. This
importance measure is called scale space persistence. The algorithm for the computation
of this measure is based on the scale space theory known from the area of computer
vision. The development of a critical point in scale space gives information about its
spacial extent, therefore outliers can be distinguished from other critical points. The usage
of the presented importance measure is demonstrated on a real world application, crater
identification on a surface of Mars.
The third part of this work presents a system for general interactive topology analysis
and exploration. The development of such a system is motivated by the fact that topological
methods are often considered to be complicated and hard to understand, because
application of topology for visualization requires deep understanding of the mathematical
background behind it. A domain expert exploring the data using topology for feature
extraction needs an intuitive way to manipulate the exploration process. The presented
system is based on an intuitive notion of a scene graph, where the user can choose and
place the component blocks to achieve an individual result. This way the domain expert
can extract more knowledge from given data independent on the application domain. The
tool gives the possibility for calculation and simplification of the underlying topological
structure, Morse-Smale complex, and also the visualization of parts of it. The system also
includes a simple generic query language to acquire different structures of the topological
structure at different levels of hierarchy.
The fourth part of this dissertation is concentrated on an application of computational
geometry for quality assessment of a triangulated surface. Quality assessment of a triangulation
is called surface interrogation and is aimed for revealing intrinsic irregularities
of a surface. Curvature and continuity are the properties required to design a visually
pleasing geometric object. For example, a surface of a manufactured body usually should
be convex without bumps of wiggles. Conventional rendering methods hide the regions
of interest because of smoothing or interpolation. Two new methods which are presented
here: curvature estimation using local fitting with B´ezier patches and computation of reflection
lines for visual representation of continuity, are specially designed for assessment
problems. The examples and comparisons presented in this part of the thesis prove the
benefits of the introduced algorithms. The methods are also well suited for concurrent visualization
of the results from simulation and surface interrogation to reveal the possible
intrinsic relationship between them.
Zur Verankerung von Bügelschenkeln im Brandfall mit 90°-Winkelhaken gibt es bisher nur widersprüchliche Aussagen. Während in der kommentierten Fassung des EC2 90°-Winkelhaken als nicht geeignet für Anforderungen größer R90 bezeichnet werden, widerspricht Heft 600 des DAfStB dieser Aussage und erklärt 90°-Winkelhaken für geeignet.
Ziel der vorliegenden Arbeit ist es das Tragverhalten von 90°- und 135°-Winkelhaken, sowohl im gerissenen, als auch im ungerissenen Querschnitt unter Brandbeanspruchung zu untersuchen.
Es konnten signifikante Unterschiede im Tragverhalten gezeigt und Hinweise für die Praxis erarbeitet werden.
Brücken und andere Ingenieurbauwerke im Zuge von Straßen sind in Deutschland regelmäßig alle 6 Jahre einer handnahen Prüfung zu unterziehen. Diese Verpflichtung gilt für alle Baulastträger. Dabei werden alle relevanten Schäden erfasst, bewertet und dokumentiert. Je nach Art des Schadens können weitergehende Untersuchungen im Rahmen einer Objektbezogenen Schadensanalyse notwendig werden. Damit das Bauwerk dadurch nicht weiter geschädigt wird, sollten für Vor-Ort-Untersuchungen zerstörungsfreie Prüfverfahren eingesetzt werden.
Damit die Bauwerksprüfungen qualitativ hochwertig durchgeführt werden können, ist wichtig hierfür entsprechende Aus- und Fortbildung anzubieten. Hierfür werden seit geraumer Zeit entsprechende Lehrgänge angeboten vom „Verein zur Förderung der Qualitätssicherung und Zertifizierung der Aus-/Fortbildung von Ingenieurinnen/Ingenieuren der Bauwerksprüfung“ (VFIB) angeboten.
Zum Nachweis der Tragfähigkeit bestehender Tragwerke benötigt der Tragwerksplaner charakteristische Werkstoffeigenschaften der verwendeten Baustoffe. Diese Werte können meist nicht direkt und ohne weitere Überlegungen aus älteren Normen, Richtlinien, Zulassungen oder von geprüften Bestandsunterlagen übernommen werden. Da die Neuberechnung grundsätzlich immer nach aktuellem Normenwerk zu erfolgen hat, sind die Werkstoffkennwerte gemäß der seinerzeits gültigen Normfestlegungen an die aktuellen Bezugswerte anzupassen.
Auf der Grundlage einer umfangreichen Literaturrecherche sind für die Baustoffe Beton und Betonstahl charakteristische Kenngrößen der maßgeblichen mechanischen Werkstoffeigenschaften in der vorliegenden Arbeit bestimmt worden. Die Darstellung der Ergebnisse erfolgt anhand von Tabellen, welchen die charakteristischen Kennwerte für die Werkstoffgüten einzelner Zeitperioden entnommen werden können.
In Fällen, in denen keine oder nur unzureichende Informationen über ein zu bewertendes Bauwerk vorliegen, sind die charakteristischen Werkstoffkennwerte anhand von Bauwerksuntersuchungen zu bestimmen.
In der vorliegenden Arbeit werden Konzepte beschrieben, welche die zu beachtenden Besonderheiten bei der Bestimmung der charakteristischen Werkstoffeigenschaften von Beton und Betonstahl anhand von Prüfergebnissen aus Bauwerksuntersuchungen berücksichtigen. Diese Konzepte enthalten unter anderem Empfehlungen für die Festlegung von Prüfbereichen und Stichprobenumfängen sowie Hinweise für die Probenentnahme von Betonbohrkernen und Stahlbetonstäben.
Durch den Einsatz von Hohlkörpern in Stahlbetondecken können Beton, Stahl und folglich Gewicht eingespart werden. Die Materialeinsparung reduziert den Primärenergiebedarf sowie die Treibhausgasemissionen bei der Herstellung. Hierdurch stellen Hohlkörperdecken im Vergleich zu konventionellen Massivdecken eine ressourcenschonendere Bauweise dar. Infolge der deutlich reduzierten Eigenlast und einem im Verhältnis geringeren Steifigkeitsabfall können zudem Decken mit großen Spannweiten realisiert werden.
Die einzelnen Traganteile der Decken werden durch die Hohlkörper grundsätzlich nachteilig beeinflusst. Die Tragfähigkeit von Hohlkörperdecken mit abgeflachten rotationssymmetrischen Hohlkörpern wurde in der vorliegenden Dissertationsschrift im Detail analysiert. Auf Grundlage experimenteller und theoretischer Untersuchungen wurden Bemessungskonzepte für die Biegetragfähigkeit, die Querkrafttragfähigkeit, die Schubkraftübertragung in der Verbundfuge und das lokale Durchstanzen des Deckenspiegels oberhalb der Hohlkörper entwickelt. Unter Berücksichtigung der Bemessungskonzepte können die Hohlkörperdecken auf dem bauaufsichtlich geforderten Sicherheitsniveau hergestellt werden.
Für die Querkrafttragfähigkeit von Stahlbetondecken ohne Querkraftbewehrung steht derzeit kein allgemein anerkanntes mechanisch begründetes Bemessungskonzept zur Verfügung. Der Einfluss der einzelnen Traganteile auf das Versagen wurde experimentell analysiert. Hierzu wurden Versuche mit verlagerter Druckzone sowie mit ausgeschalteter Rissuferverzahnung und mit ausgeschalteter Dübelwirkung durchgeführt. Der rechnerische Einfluss der einzelnen Traganteile an der Gesamttragfähigkeit konnte durch die Nachrechnung von Versuchen zu Hohlkörper- und Installationsdecken unter Verwendung eines bestehenden mechanisch begründeten Rechenmodells visualisiert und verifiziert werden. Hierdurch wird ein Beitrag zum besseren Verständnis der Querkrafttragfähigkeit geleistet.
Der Bericht beinhaltet die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Online-Fachdatenbanken und CD-ROM-Netz", "Elektronische Hochschulschriften, Lernmaterialien und Fotos", "E-Journals und E-Books", "Literatur- und Sachmittel", "Literaturerwerbung/Bestand", "Bestandserschließung", "Benutzung/Information", "Schulungen", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2013.
Bund, Länder und Gemeinden in der Bundesrepublik Deutschland verfügen über ein Straßennetz mit insgesamt etwa 106.000 Straßenbrücken. Aufgrund des zunehmend schlechteren Bauwerkszustandes und infolge steigender Anforderungen durch höhere Verkehrsbelastung entsteht Handlungsbedarf an den Brückenbauwerken. Dazu wurde vom Bundesministerium für Verkehr, Bau und Stadtentwicklung eine einheitliche Strategie entwickelt, nach der die Bausubstanz zu bewerten und Entscheidungen über Ertüchtigung oder Ersatzneubau getroffen werden können. Das Ergebnis der Bestandsaufnahme für Bundesfernstraßen und kommunale Brücken sowie die Problemstellungen aus konstruktiver Sicht werden dargestellt. Das Vorgehen zur Festlegung der Prioritäten bezüglich der Bearbeitung wird erläutert und erste Ergebnisse der Nachrechnungen dargestellt. An zwei Beispielen werden Alternativen von Koppelfugensanierungen bzw. dem erforderlichen Neubau einer Brücke infolge Korrosionsschäden an Vertikalvorspannung erläutert.
Die Bestanderhaltung historischer Bauwerke bedarf gründlicher Voruntersuchung, Qualitätskontrolle und Bauwerksüberwachung, um die Eingriffe in die Denkmalsubstanz zu minimieren und Folgeschäden zu vermeiden. Zerstörungsfreie Prüfmethoden und numerische Modellierungsverfahren bieten heute bewährte und neue Möglichkeiten, gesicherte Kenntnisse über die Bauwerke und die altersbedingten Veränderungen ihrer Baumaterialien zu erzielen und gleichzeitig die Eingriffe für Materialentnahmen und Bauwerksöffnungen zu minimieren. Anhand von Fallbeispielen werden aktuelle Forschungsergebnisse präsentiert. Georadarmessungen werden mit theoretischen Modellierungen kombiniert, um gemessene Anomalien in Materialparametern zu begründen. Moderne Anforderungen wie die energetische Sanierung historischer Gebäude werfen neue Problemfelder auf, für die anhand von Modellierungen des Wärme- und Feuchtetransports Antworten gefunden werden. Die Weiterentwicklung von Ultraschallmesstechnik und Signalauswertung ermöglicht neue Anwendungen bei der Untersuchung verwitterter Sandsteinoberflächen mittels Rayleighwellen.
Der Betrieb von Autobahn-Straßenbauwerken soll den ständigen Verkehrsfluss unter guten Sicherheitsbedingungen und unter Berücksichtigung der Benutzerfreundlichkeit gewährleisten.
Hierzu werden die entsprechenden Bauwerke gewartet und in gutem Zustand erhalten, sodass sie ihren Zweck zu jedem Zeitpunkt optimal erfüllen.
Damit dieses Ziel erreicht werden kann, braucht es eine langfristige Sicht der Dinge und eine organisierte Verwaltung der Bauüberwachung sowie der durchzuführenden Arbeiten. Dabei müssen die notwendigen Maßnahmen so ausgeführt werden, dass möglichst geringe Beeinträchtigungen für die Nutzer entstehen.
Somit muss unbedingt eine entsprechende Vorgehensweise im Hinblick auf die Ingenieurbauwerke festgelegt werden, sodass den unterschiedlichen Akteuren ein langfristiger strategischer und finanzieller Plan zur Verfügung steht, der es ihnen erlaubt, die entsprechenden Maßnahmen unter möglichst geringem technischen und somit finanziellen Risiko umzusetzen und vor allem die Instandhaltung als präventive statt als kurative Aufgabe zu begreifen. Wenn es keine entsprechende Politik gibt, so sehen sich die Verantwortlichen der Aufgabe gegenüber gestellt, in Dringlichkeitsfällen Ad-Hoc Entscheidungen zu fällen, was zu technischen und finanziellen Unwägbarkeiten führt. Gleichzeitig bestehen natürlich die Risiken, die mit der Substanz des Bauwerks selbst und mit seiner Alterung einhergehen, weiterhin. Es gilt, dass „vorbeugen besser als heilen“ ist, auch im technischen Bereich. Auch wenn das Risiko nicht vollständig beherrscht wird, so ist es doch wichtig, dass es bekannt ist und dass entsprechend gehandelt wird.
Für Verantwortliche im Finanzbereich und aus der Politik hat der Faktor Zeit nicht die gleiche Bedeutung wie für die Betreiber. Dennoch müssen die unterschiedlichen Akteure unbedingt zu einer klaren Übereinkunft bezüglich der gemeinsamen Instandhaltungs-Strategie kommen und diese dann auch einhalten! Bei eventuellen Unstimmigkeiten müssen Entscheidungen sorgfältig abgewogen werden, unter Berücksichtigung der technischen und finanziellen Konsequenzen die sich für die Zukunft ergeben können, ohne das Risiko für Schadensereignisse außer Acht zu lassen. Leider erweisen sich Schadensfälle als wichtige Hebel im Budget, stehen sie doch zunächst für das
2
Scheitern eines Betriebs, der auf Prävention ausgerichtet ist. Oder anders gesagt, eine solche extreme Situation sollte nicht zur politischen Strategie werden.
Die Vorstellung der allgemeinen Politik der Gruppe Sanef mit praktischen Beispielen (die Praxis sollte man nie aus den Augen verlieren!) soll einem Erfahrungsbericht entsprechen, der zuweilen idealistisch geprägt, sehr wahrscheinlich unvollständig und weiter verbesserbar ist, aber dennoch als Grundlage zur Debatte taugt.
We consider the problem of finding efficient locations of surveillance cameras, where we distinguish
between two different problems. In the first, the whole area must be monitored and the number of cameras
should be as small as possible. In the second, the goal is to maximize the monitored area for a fixed number of
cameras. In both of these problems, restrictions on the ability of the cameras, like limited depth of view or range
of vision are taken into account. We present solution approaches for these problems and report on results of
their implementations applied to an authentic problem. We also consider a bicriteria problem with two objectives:
maximizing the monitored area and minimizing the number of cameras, and solve it for our study case.
We consider the problem of finding efficient locations of surveillance cameras, where we distinguish
between two different problems. In the first, the whole area must be monitored and the number of cameras
should be as small as possible. In the second, the goal is to maximize the monitored area for a fixed number of
cameras. In both of these problems, restrictions on the ability of the cameras, like limited depth of view or range
of vision are taken into account. We present solution approaches for these problems and report on results of
their implementations applied to an authentic problem. We also consider a bicriteria problem with two objectives:
maximizing the monitored area and minimizing the number of cameras, and solve it for our study case.
A positive affection of human health by nutrition is of high interest, especially for bioactive compounds which are consumed daily in high amounts. This is the case for chlorogenic acids (CGA) ingested by coffee. This molecule class is associated with several possible beneficial health effects observed in vitro that strongly depend on their bioavailability. So far factors influencing bioavailability of CGA such as dose, molecule structure and site of absorption haven´t been investigated sufficiently.
Therefore we performed an in vivo dose-response study with ileostomists, who consumed three different nutritional doses of CGA ingested as instant coffee (4,525 (HIGH); 2,219 (MEDIUM); 1,053 (LOW) μmol CGA). CGA concentrations were determined in ileal fluid, urine and plasma. Furthermore, we conducted an ex vivo study with pig jejunal mucosa using the Ussing chamber model to confirm the in vivo observations. Individual transfer rates of CGA from coffee were investigated, namely: caffeoylquinic acid (CQA), feruloylquinic acid (FQA), caffeic acid (CA), dicaffeoylquinic acid (diCQA) and QA at physiological concentrations (0.2–3.5 mM). Samples were analyzed by HPLC-DAD, -ESI-MS and -ESI-MS/MS.
About ⅔ of the ingested CGA by coffee consumption were available in the colon dose independent. Nevertheless, the results showed that the consumption of higher CGA doses leads to a faster ileal excretion. This corresponds to a plasma AUC0-8h for CGA and metabolites of 4,412 ± 751 nM*h0-8-1 (HIGH), 2,394 ± 637 nM*h0-8-1 (MEDIUM) and 1,782 ± 731 nM*h0-8-1 (LOW) respectively, and a renal excretion of 8.0 ± 4.9% (HIGH), 12.1 ± 6.7% (MEDIUM) and 14.6 ± 6.8% (LOW). Moreover interindividual differences in gastrointestinal transit times were related to differences in total CGA absorption. Thus the variety of patient´s physiology is a decisive bioavailability factor for CGA uptake. This is corroborated ex vivo by a direct proportional relationship of incubation time with absorbed CGA amount.
The consumption of high CGA doses influences the metabolism pattern as an increasing glucuronidation was observed with consumption of increasing CGA doses. However, the different CGA doses have only minor effects on the overall bioavailability which was confirmed ex vivo by a non-saturable passive diffusion of 5-CQA. Furthermore, we identified in the Ussing chamber an active efflux secretion for 5-CQA that decreases its bioavailability and the physicochemical properties of the CGA subgroups as an important bioavailability factor. Transferred amount in increasing order: diCQA, trace amounts; CQA ≈ 1%; CA ≈ 1.5%; FQA ≈ 2%; and QA ≈ 4%.
Altogether, the consumption of increasing CGA doses by coffee had a minor effect on oral bioavailability in ileostomists, such as a slightly increased glucuronidation. Thus, the consumption of high amounts of CGA from coffee in the daily diet is not limiting the CGA concentrations at the site of possible health effects in the human body. However, according to the patient´s physiology the interindividual gastrointestinal transit time which is possibly influenced by dose is influencing CGA bioavailability. Moreover, ex vivo CGA absorption is governed by diffusion as an absorption mechanism corroborating an unsaturable uptake in vivo and by the individual physicochemical properties of CGA.
Weit ab von Wachstumskernen, raumordnerischen Entwicklungsachsen und ökonomi-scher Wettbewerbsfähigkeit befinden sich peripherisierte Räume in Nord-Thüringen bzw. im südlichen Sachsen-Anhalt. Der dort persistente Transformationsprozess ist durch Abwanderung, mangelnde Investitionen oder überdurchschnittlich hohe Arbeits-losenzahlen gekennzeichnet. Das Dilemma besteht darin, dass die durch nicht selbst verschuldete Abkopplung, Stigmatisierung und Abhängigkeiten gekennzeichneten Kommunen nicht in der Lage sind, durch endogene Kräfte sich neu zu erfinden, was eine Regenerierung möglich machte, um letztendlich in der Wertschöpfungskette den für Investoren derzeit unattraktiven Immobilienmarkt wieder zu beleben. Diese seit mehr als 20 Jahren durchlaufenen Entwicklungspfade wirken sich auf die Siedlungskör-per aus, die in vielen Orten zu perforieren drohen. Es ist festzustellen, dass der Prozess des Niedergangs längst noch nicht abgeschlossen ist.
Soziale Infrastrukturbauten, wie ehemaligen Schulen, Kitas und Krankenhäusern, sind im besonderen Maß von diesen Entwicklungen betroffen. Insbesondere durch den selbst verstärkenden Effekt des demografischen Wandels dienen sie als stadtplanerischer For-schungsgegenstand. Dies vor dem Hintergrund einer möglichen Inwertsetzung als städ-tebauliche Innenentwicklungsstrategie (Anpassung) nach dem diese Immobilien ihre ursprüngliche Nutzung verloren haben. Die Notwendigkeit zum stadtplanerischen Handeln ergibt sich u.a. aus der nicht selten städtebaulich exponierten Lage, als seltene bauliche Zeitzeugnisse auch als Teil eines Ensemble mit kulturhistorischem Wert sowie als Merkpunkte einer gesamtstädtischen bzw. dörflichen Ordnung.
Die Arbeit identifiziert die neuen Herausforderungen, die im Umgang mit leer stehen-den sozialen Infrastrukturbauten in peripherisierten Klein- und Mittelstädten durch die Eigentümer zu bewältigen sind und reflektiert kritisch die Wirksamkeit der informellen sowie formellen planerischen Instrumente. Es werden konkrete Vorschläge gemacht, wie das Immobilienmanagement sowie die Eigentümereinbindung bei sehr stark beru-higten Wohnimmobilienmärkten zu erfolgen hat. Weiterhin werden Strategieansätze des Verwaltungshandelns empfohlen, die auf die speziellen Marktbedingungen abge-stimmt sind.
Neben diesen aus der Theorie gewonnenen Analogieschlüssen zeigen die aus dem Feldexperiment in der o.g. Untersuchungsregion durch umfangreiche Erhebungen ope-rationalisierbare Daten. Aus dieser Dichte der Informationen entstanden valide Aussa-gen, deren Reliabilität in die Entwicklung einer Standortanalysedatenbank einflossen sind. Somit konnte nicht nur die Problemlage objektiv nachgewiesen werden, sondern es gelang auch in der Exploration ein für die Kommunen handhabbares Planungs-instrument zu entwickeln, das auch anderswohin übertragbar ist.
In this thesis, we combine Groebner basis with SAT Solver in different manners.
Both SAT solvers and Groebner basis techniques have their own strength and weakness.
Combining them could fix their weakness.
The first combination is using Groebner techniques to learn additional binary clauses for SAT solver from a selection of clauses. This combination is first proposed by Zengler and Kuechlin.
However, in our experiments, about 80 percent Groebner basis computations give no new binary clauses.
By selecting smaller and more compact input for Groebner basis computations, we can significantly
reduce the number of inefficient Groebner basis computations, learn much more binary clauses. In addition,
the new strategy can reduce the solving time of a SAT Solver in general, especially for large and hard problems.
The second combination is using all-solution SAT solver and interpolation to compute Boolean Groebner bases of Boolean elimination ideals of a given ideal. Computing Boolean Groebner basis of the given ideal is an inefficient method in case we want to eliminate most of the variables from a big system of Boolean polynomials.
Therefore, we propose a more efficient approach to handle such cases.
In this approach, the given ideal is translated to the CNF formula. Then an all-solution SAT Solver is used to find the projection of all solutions of the given ideal. Finally, an algorithm, e.g. Buchberger-Moeller Algorithm, is used to associate the reduced Groebner basis to the projection.
We also optimize the Buchberger-Moeller Algorithm for lexicographical ordering and compare it with Brickenstein's interpolation algorithm.
Finally, we combine Groebner basis and abstraction techniques to the verification of some digital designs that contain complicated data paths.
For a given design, we construct an abstract model.
Then, we reformulate it as a system of polynomials in the ring \({\mathbb Z}_{2^k}[x_1,\dots,x_n]\).
The variables are ordered in a way such that the system has already been a Groebner basis w.r.t lexicographical monomial ordering.
Finally, the normal form is employed to prove the desired properties.
To evaluate our approach, we verify the global property of a multiplier and a FIR filter using the computer algebra system Singular. The result shows that our approach is much faster than the commercial verification tool from Onespin on these benchmarks.
Congress Report 2014.01-03
(2014)
Congress Report 2014.04-07
(2014)
Congress Report 2014.08-10
(2014)
Congress Report 2014.11-12
(2014)
Continuum Mechanical Modeling of Dry Granular Systems: From Dilute Flow to Solid-Like Behavior
(2014)
In this thesis, we develop a granular hydrodynamic model which covers the three principal regimes observed in granular systems, i.e. the dilute flow, the dense flow and the solid-like regime. We start from a kinetic model valid at low density and extend its validity to the granular solid-like behavior. Analytical and numerical results show that this model reproduces a lot of complex phenomena like for instance slow viscoplastic motion, critical states and the pressure dip in sand piles. Finally we formulate a 1D version of the full model and develop a numerical method to solve it. We present two numerical examples, a filling simulation and the flow on an inclined plane where the three regimes are included.
The present work investigated three important constructs in the field of psychology: creativity, intelligence and giftedness. The major objective was to clarify some aspects about each one of these three constructs, as well as some possible correlations between them. Of special interest were: (1) the relationship between creativity and intelligence - particularly the validity of the threshold theory; (2) the development of these constructs within average and above-average intelligent children and throughout grade levels; and (3) the comparison between the development of intelligence and creativity in above-average intelligent primary school children that participated in a special program for children classified as “gifted”, called Entdeckertag (ET), against an age-class- and-IQ matched control group. The ET is a pilot program which was implemented in 2004 by the Ministry for Education, Science, Youth and Culture of the state of Rhineland-Palatinate, Germany. The central goals of this program are the early recognition of gifted children and intervention, based on the areas of German language, general science and mathematics, and also to foster the development of a child’s creativity, social ability, and more. Five hypotheses were proposed and analyzed, and reported separately within five chapters. To analyze these hypotheses, a sample of 217 children recruited from first to fourth grade, and between the ages of six and ten years, was tested for intelligence and creativity. Children performed three tests: Standard Progressive Matrices (SPM) for the assessment of classical intelligence, Test of Creative Thinking – Drawing Production (TCT-DP) for the measurement of classical creativity, and Creative Reasoning Task (CRT) for the evaluation of convergent and divergent thinking, both in open problem spaces. Participants were divided according to two general cohorts: Intervention group (N = 43), composed of children participating in the Entdeckertag program, and a non-intervention group (N = 174), composed of children from the regular primary school. For the testing of the hypotheses, children were placed into more specific groups according to the particular hypothesis that was being tested. It could be concluded that creativity and intelligence were not significantly related and the threshold theory was not confirmed. Additionally, intelligence accounted for less than 1% of the variance within creativity; moreover, scores on intelligence were unable to predict later creativity scores. The development of classical intelligence and classical creativity throughout grade levels also presented a different pattern; intelligence grew increasingly and continually, whereas creativity stagnated after the third grade. Finally, the ET program proved to be beneficial for classical intelligence after two years of attendance, but no effect was found for creativity. Overall, results indicate that organizations and institutions such as schools should not look solely to intelligence performance, especially when aiming to identify and foster gifted or creative individuals.
Der Arylhydrocarbon Rezeptor (AhR) ist ein Liganden-abhängiger Transkriptionsfaktor, der zur Familie der basic helix-loop-helix-Per-Arnt-Sim (bHLH-PAS) Proteine gehört. Am besten bekannt durch seine Rolle bei der Toxizität und Kanzerogenität von polychlorier-ten/polyzyklischen aromatischen Kohlenwasserstoffen, wurde er in diesem Zusammenhang weitestgehend untersucht. Auch wenn seine physiologische Rolle noch nicht eindeutig geklärt wurde, zeigen aktuelle Studien, dass der AhR in vielen anderen Bereichen wie Zellwachstum, –differenzierung und Apoptose, aber auch bei der Regulation des Immunsystems eine wichti-ge Rolle spielt.
Im Rahmen der vorliegenden Dissertation wurden Knochenmarkzellen adulter C57BL/6 Mäu-se isoliert und in Gegenwart von GM-CSF in vitro ausdifferenziert. Die adhärente Population konnte antigenpräsentierenden MHCII+ Zellen, mit dem Charakter CD11c+ dendritischer Zel-len und F4/80+ Makrophagen, zugeordnet werden. Nach Behandlung myeloider Zellen mit LPS, zeigten die gewonnenen Mediumüberstände in HepG2-Zellen eine signifikante und teil-weise AhR-abhängige CYP1A1-Induktion im EROD-Assay, aber auch eine signifikant erhöh-te CYP1A1-Genexpression. Gleichzeitig konnte durch die konditionierten Mediumüberstände myeloider Zellen eine Inhibition der TCDD-induzierten CYP1A1-Aktivität festgestellt wer-den. Ein Teil der inhibitorischen Wirkung konnte auf hohe Gehalte inflammatorischer Zyto-kine IL-1α, IL-1β, IL-6 und TNF-α in Mediumüberständen zurückgeführt werden. Diese Er-gebnisse deuten darauf hin, dass bei einer Infektion/Inflammation Immunzellen Substanzen sezernieren, welche die Aktivität des Arylhydrocarbon Rezeptors beeinflussen. Welche Ver-bindung(en) in Mediumüberständen LPS-stimulierter Zellen für die induktive Wirkung des CYP1A1 auf Enzym- und mRNA-Ebene verantwortlich ist/sind, bedarf weiterer Untersu-chungen.
Weiterhin wurde die Wirkung des bekannten AhR-Agonisten 2,3,7,8-Tetrachlorodibenzo-p-dioxin (TCDD), sowie des biologisch aktiven Vitamin D3-Metaboliten und physiologischen VDR-Liganden Calcitriol untersucht. Beide Substanzen zeigten modulierende Effekte auf Viabilität/Proliferation sowie Ausschüttung und Genexpression inflammatorischer Zytokine in myeloiden Zellen. Es konnte zum ersten Mal gezeigt werden, dass beide Verbindungen die Expression der AhR und VDR Targetgene Cyp1a1 und Cyp24a1 induzierten. Die Expression des Cyp1a1 stieg durch Behandlung myeloider Zellen mit Calcitriol in gleichem Maße an, wie durch Inkubation mit TCDD. Für Cyp24a1 ergab sich eine stark erhöhte Expression durch Calcitriol und eine wesentlich geringere, aber dennoch statistisch signifikant gesteigerte Ex-pression durch Inkubation mit TCDD. Nach Co-Inkubation mit beiden Substanzen konnte ein zeitabhängiger Synergismus bezüglich der Cyp1a1-Expression ermittelt werden. Für Cyp24a1 wurde durch Co-Inkubation mit TCDD und Calcitriol eine signifikante Verringerung der Ex-pression beobachtet. Ferner zeigte sich nach „Blockierung“ des Ah-Rezeptors durch seinen Antagonisten CH223191, zusätzlich zur Inhibition der Cyp1a1-Expression, auch eine statis-tisch hoch signifikante Hemmung der Cyp24a1-Expression. Die Ergebnisse deuten stark dar-auf hin, dass die Transkriptionsfaktoren AhR und VDR in einer Beziehung zueinander stehen und für die adäquate Funktion des jeweils anderen Rezeptors notwendig sind. Dieser Zusam-menhang liefert einen interessanten Ansatz für weiterführende Forschung und würde einen besseren Einblick in die physiologische Rolle des „Dioxin-Rezeptors“ AhR liefern.
Die Region Saarland-Lothringen-Westpfalz zeichnet sich durch eine Jahrhunderte alte, gemeinsame Geschichte aus, in der dieser Landstrich nicht immer durch territoriale Grenzen getrennt war. Bereits die römischen Baumeister hinterließen Bauwerke von großer kulturhistorischer Relevanz, die die regionale Infrastruktur bis zum heutigen Tag prägen. Um dieses kulturell bedeutungsvolle Erbe auch weiterhin bewahren zu können sowie modernen Ingenieurbauwerken zu einer möglichst langen Lebensdauer zu verhelfen, muss der Zustand der Bausubstanz kontinuierlich geprüft bzw. überwacht werden.
Im Rahmen des durch das Programm INTERREG IV A-Großregion geförderten Projektes „CURe MODERN – Initiative moderne Bauwerksprüfung, Stadt- und Regionalplanung SMLPO“ wurde ein Netzwerk von spezialisierten Partnern aus den Regionen Saarland, Lothringen und Westpfalz aufgebaut, das zum grenzüberschreitenden Erfahrungsaustausch im Bereich zerstörungsfreier Prüfverfahren im Bauwesen und der Stadt- und Regionalplanung beiträgt.
Obwohl das Zufußgehen die natürliche Fortbewegungsform des Menschen darstellt, spielte diese Mobilitätsform ab der zweiten Hälfte des 20. Jahrhunderts eine zunehmend schwindende Rolle in der politischen Wahrnehmung und der Stadt- und Verkehrsplanung. Zu Beginn des 21. Jahrhunderts wird im Zuge eines Paradigmenwechsel der Fußverkehr wieder von der Politik, der Planungspraxis aber auch von der Immobilienwirtschaft als ein wichtiger Baustein für eine nachhaltige Stadt- und Quartiersentwicklung angesehen. Hierbei wird der Nahmobilität, d.h. der fußläufigen Erreichbarkeit alltagsrelevanter Aktivitätsziele, eine wichtige Rolle beigemessen. Aus verkehrswissenschaftlicher Sicht bleibt bislang die Frage unbeantwortet, inwiefern das theoretische Konstrukt „Nahmobilität“ objektiv ermittelt werden kann. Aus immobilienwirtschaftlicher Sicht ist der Einfluss der Nahmobilität auf die Immobilienpreise von Wohnungen und Häusern in verschiedenen siedlungsstrukturellen Raumtypen von Interesse. Für die theoretische Konzeption eines Nahmobilitätsindikators werden nationale und international empirische Studien zum Fußgängerverhalten sowie Bewohner-, Makler- und Expertenbefragungen ausgewertet. Die praktische Umsetzung des Nahmobilitätsindikators erfolgt mithilfe eines Geographischen Informationssystems für die Städte Frankfurt, Köln und Wiesbaden. Damit können Bereiche mit einem hohen oder niedrigen Nahmobilitätspotential differenziert werden. Ergänzend wird eine Sozialraumanalyse zur Ableitung von vier siedlungsstrukturellen Raumtypen durchgeführt. Aus der Kombination von drei Nahmobilitätsniveau und vier Raumtypen können zwölf Gebietstypen abgeleitet werden, um den Einfluss der Nahmobilität auf Immobilienpreise differenziert analysieren zu können. Nach Herleitung des Angebotspreisfestsetzungsprozesses wird die ökonometrische Analyse mit dem Spatial Durbin Modell (SDM) und dem Ordinary Least Squares Modell (OLS-Modell) auf Stadtteil- und Stadtviertelebene durchgeführt. Die als ebenfalls relevant erachtete geografisch gewichtete Regression (GWR) wird aufgrund räumlicher Autokorrelation der Variablen nicht durchgeführt. Das SDM-Modell hat bei Wohnungen zum Ergebnis, dass Haushalte allgemein Standorte mit einem mittleren Nahmobilitätsniveau vorziehen, da an Standorten mit hohen Nahmobilitätswerten negative externe Effekte (z.B. Lärm) auftreten können. In urbanen Räumen werden niedrige Nahmobilitätswerte als Malus in suburbanen Räumen dagegen als Bonus angesehen. Beide Ergebnisse werden auf Basis von Bewohnerbefragungen plausibilisiert. Bei Häusern führen die ökonometrischen Analysen auf Stadtteil- und Stadtviertelebene zu gegensätzlichen Ergebnissen. Dies wird auf das Problem der veränderbaren Gebietseinheit zurückgeführt. Da auf Stadtviertelebene Gebietsabgrenzungen präziser möglich sind, werden diese als glaubwürdiger angesehen. Damit verbunden ist kein Einfluss der Nahmobilität auf Hauspreise festzustellen. Die Residuen des OLS-Modells weisen erwartungsgemäß eine räumliche Autokorrelation auf, weshalb die Schätzer nur bedingt interpretierbar sind.
Schon bei seiner Entdeckung konnte eine Verbindung des Zwei-Komponenten Systems CiaRH mit der natürlichen Kompetenzentwicklung und der β-Laktamresistenz in S. pneumoniae beobachtet werden. Mutationen in der Histidinkinase CiaH bewirken eine sogenannte Hyperaktivierung dieses Systems, welche zu einem vollständigen Verlust der Kompetenz und einem Anstieg der β-Laktamresistenz führen. Der über das CiaRH System vermittelte Kompetenzphänotyp ist dabei abhängig von der Serinprotease HtrA und den csRNAs. Die Serinprotease HtrA reduziert hierbei, durch Proteolyse, die Menge des Kompetenz spezifische Peptid CSP.
In dieser Arbeit konnte nun erstmals gezeigt werden, dass die csRNAs ihre negative Wirkung auf die Kompetenz ausüben, indem sie comC post-transkriptionell reprimieren. Wahrscheinlich wird hierbei die Initiation der Transaltion inhibiert, wobei die Stabilität der mRNA zusätzlich verringert werden könnte. ComC kodiert für das CSP Vorläuferpeptid. Daher üben die csRNAs noch vor der proteolytischen Wirkung von HtrA einen negativen Effekt auf die CSP Produktion aus. Anhand von comC-Translationsfusionen in S. pneumoniae Stämmen mit und ohne csRNAs, sowie in dem Stamm mit hyperaktivem ciaH202-Allel konnte eindeutig gezeigt werden, dass die csRNAs negativ auf die comC-Translation wirken.
Mittels weiterer comC-Translationsfusionen, in Stämmen mit einzelnen csRNAs, ließ sich eine additive Wirkung der einzelnen csRNAs auf die comC-Translation nachweisen. Das bedeutet, dass eine csRNA alleine nicht in der Lage ist die Kompetenz zu reprimieren. Eine Kombination aus csRNA1, csRNA2 und csRNA3 allerdings ist sogar ohne die Anwesenheit von HtrA in der Lage, die Kompetenzentwicklung vollständig zu unterdrücken.
Der Effekt der csRNAs auf die comC-Translation hat Auswirkungen auf die sich entwickelnde Kompetenz, was anhand von β-Galaktosidasemessungen des frühen Kompetenzpromotors PcomX gezeigt wurde. Hier konnte allerdings ein stark positiver Effekt der csRNA4 und csRNA5 auf diesen Promotor beobachtet werden. Weitere Versuche zeigten, dass dieser Effekt auch auf den frühen Kompetenzpromotor PcomC, aber nicht auf den späten Kompetenzpromotor Pcib zu beobachten ist.
Hierbei scheint es sich um einen Regulationsmechanismus der csRNAs zu handeln, welcher die CSP-Produktion erhöht, ohne die Expression der Gene, die für die DNA Aufnahme und den Einbau verantwortlich sind, zu verändern. Der einerseits negative Effekt aller csRNAs auf die comC-Translation und andererseits positive Effekt der csRNA4 und csRNA5 sprechen dafür, dass die csRNAs an der Feinabstimmung der Kompetenzentwicklung beteiligt sind. Tatsächlich lassen sich Unterschiede im Zeitverlauf der Stämme mit einzelnen csRNAs erkennen. Vor allem kann ein Kompetenzpeak, wie im Wildtyp beobachtet, nicht mehr im csRNA-Deletionsstamm nachgewiesen werden.
Die csRNAs scheinen die Kompetenzentwicklung bis zu einem gewissen Grad zu reprimieren. Ist aber der Schwellenwert überschritten, wirkt ein Teil positiv und trägt somit dazu bei, dass die Kompetenzentwicklung ohne Einschränkungen abläuft.
Des Weiteren konnten, durch gezielte Mutationen in der comC mRNA, Bereiche in dieser identifiziert werden, welche für die Bindung der csRNAs an die mRNA essentiell sind. Hierzu gehört zum einen der Bereich zwischen der Shine-Dalgarno Sequenz und dem Startkodon sowie der Bereich direkt nach dem Startkodon AUG. Zum anderen gibt es Hinweise darauf, dass Mutationen, welche die Stabilität der mRNA beeinflussen könnten, die Regulation durch die csRNAs aufheben.
Anhand einer komplementären Veränderung der csRNA4 konnte der negative Effekt dieser csRNA auf die Translation der veränderten comC mRNA wieder hergestellt werden.
Die hier erbrachten Ergebnisse konnten einen weiteren kompetenzregulierenden Faktor identifizieren. Außerdem ergaben sich einige Hinweise, die dazu beitragen können, in weiteren Studien die komplexe Regulation der Kompetenzentwicklung besser zu verstehen.
Ein weiterer Teil dieser Arbeit beschäftigt sich mit dem, ebenfalls schon bei der Entdeckung des CiaRH Systems beschriebenen, Anstieg der β-Laktamresistenz. Für diesen, durch ein hyperaktives CiaRH System vermittelten Anstieg konnte, wie schon bei der Kompetenz, ein wesentlicher Effekt der csRNAs nachgewiesen werden. Eine Deletion aller csRNAs in einem Stamm mit hyperaktivem CiaRH System bewirkt einen Zusammenbruch der Resistenz auf Wildtyp Niveau. Im Gegensatz zur Kompetenz konnte hier aber kein deutlicher Effekt der Serinprotease HtrA beobachtet werden.
Wie schon bei der Kompetenz lag das Augenmerk dieser Arbeit auf dem Effekt der einzelnen csRNAs auf den Anstieg der β-Laktamresistenz. Hier konnte eine größtenteils additive Wirkung der csRNAs nachgewiesen werden. Allerdings wurden Stämme isoliert, in welchen die β-Laktamresistenz um das 10-fache im Vergleich zu dem Stamm mit hyperaktivem CiaRH System anstieg. Hierbei handelt es sich um Stämme, die csRNA4 oder csRNA5 enthalten. Da eine starke Instabilität in diesen Stämmen zu beobachten war, ist davon auszugehen, dass es hier zu Zusatzmutationen kam, welche den Resistenzanstieg bewirken. Allerdings konnte nachgewiesen werden, dass der beobachtete Resistenzanstieg nur im Zusammenhang mit csRNA4 vermittelt wird. Falls es hier zu Zusatzmutationen im Genom kam, wäre deren vermittelter Resistenzanstieg von csRNA4 abhängig.
Da im Falle der β-Laktamresistenz die computerbasierte Zielgensuche keinen geeigneten Kandidaten erbrachte und keines der bekannten csRNA regulierten Gene die Resistenz beeinflusst, wurde hier eine globale Transkriptomanalyse zur Zielgensuche durchgeführt.
Anhand dieser globalen Transkriptomanalyse konnten zwei neue potenzielle CiaR regulierte Gene, pavB und spr0091, identifiziert werden.
Des Weiteren konnten zwei Gene, spr0264 und oxlT, identifiziert werden, deren Translation negativ durch die csRNAs reguliert wird. Hier konnte gezeigt werden, dass der UTP Metabolismus der Zelle betroffen ist. Hierrüber könnte die Menge an UDP verändert werden, welches zur Aktivierung von Vorläuferstufen der Zellwandbiosynthese benötigt wird. Ob diese beiden Transporter an dem Anstieg der Resistenz beteiligt sind, wurde bisher nicht untersucht.
Die innerhalb dieser Arbeit durchgeführten globalen Transkriptomanalysen stellen allerdings eine gute Basis zur weiteren Identifikation von möglichen potenziellen csRNA Zielgenen dar. Hierüber könnte eventuell auch das β-Laktam spezifische Zielgen identifiziert werden. Das der deutliche Effekt der csRNAs, sekundär auf ein schon bekanntes β-Laktamresistenzgen zurückzuführen ist, ist dabei durchaus denkbar.
Die in dieser Arbeit nachgewiesenen Regulationen der csRNAs bezüglich der Kompetenz- und β-Laktamresistenz konnten einen großen Beitrag zum besseren Verständnis dieser Regulations-mechanismen in S. pneumoniae leisten. Des Weiteren bilden die hier ermittelten Ergebnisse eine gute Basis für weitere Experimente.
Robuste Optimierung wird zur Entscheidungsunterstützung eines komplexen Beschaffungs- und Transportmodells genutzt, um die Risikoeinstellung der Entscheidenden abzubilden und gleichzeitig ein robustes Ergebnis zu erzielen. Die Modellierung des Problems ist umfassend dargestellt und Ergebnisse der nicht-deterministischen Planung bei verschiedenen Parametern und Risikoeinstellungen gegenübergestellt. Die Datenunsicherheit wird an einem Praxisfall erläutert und Methoden und -empfehlungen zum Umgang mit dieser dargestellt.
In this thesis we studied and investigated a very common but a long existing noise problem and we provided a solution to this problem. The task is to deal with different types of noise that occur simultaneously and which we call hybrid. Although there are individual solutions for specific types one cannot simply combine them because each solution affects the whole speech. We developed an automatic speech recognition system DANSR ( Dynamic Automatic Noisy Speech Recognition System) for hybrid noisy environmental noise. For this we had to study all of speech starting from the production of sounds until their recognition. Central elements are the feature vectors on which pay much attention. As an additional effect we worked on the production of quantities for psychoacoustic speech elements.
The thesis has four parts:
1) The first part we give an introduction. The chapter 2 and 3 give an overview over speech generation and recognition when machines are used. Also noise is considered.
2) In the second part we describe our general system for speech recognition in a noisy environment. This is contained in the chapters 4-10. In chapter 4 we deal with data preparation. Chapter 5 is concerned with very strong noise and its modeling using Poisson distribution. In the chapters 5-8 we deal with parameter based modeling. Chapter 7 is concerned with autoregressive methods in relation to the vocal tract. In the chapters 8 and 9 we discuss linear prediction and its parameters. Chapter 9 is also concerned with quadratic errors, the decomposition into sub-bands and the use of Kalman filters for non-stationary colored noise in chapter 10. There one finds classical approaches as long we have used and modified them. This includes covariance mehods, the method of Burg and others.
3) The third part deals firstly with psychoacoustic questions. We look at quantitative magnitudes that describe them. This has serious consequences for the perception models. For hearing we use different scales and filters. In the center of the chapters 12 and 13 one finds the features and their extraction. The fearures are the only elements that contain information for further use. We consider here Cepstrum features and Mel frequency cepstral coefficients(MFCC), shift invariant local trigonometric transformed (SILTT), linear predictive coefficients (LPC), linear predictive cepstral coefficients (LPCC), perceptual linear predictive (PLP) cepstral coefficients. In chapter 13 we present our extraction methods in DANSR and how they use window techniques And discrete cosine transform (DCT-IV) as well as their inverses.
4) The fourth part considers classification and the ultimate speech recognition. Here we use the hidden Markov model (HMM) for describing the speech process and the Gaussian mixture model (GMM) for the acoustic modelling. For the recognition we use forward algorithm, the Viterbi search and the Baum-Welch algorithm. We also draw the connection to dynamic time warping (DTW). In the rest we show experimental results and conclusions.
In the theory of option pricing one is usually concerned with evaluating expectations under the risk-neutral measure in a continuous-time model.
However, very often these values cannot be calculated explicitly and numerical methods need to be applied to approximate the desired quantity. Monte Carlo simulations, numerical methods for PDEs and the lattice approach are the methods typically employed. In this thesis we consider the latter approach, with the main focus on binomial trees.
The binomial method is based on the concept of weak convergence. The discrete-time model is constructed so as to ensure convergence in distribution to the continuous process. This means that the expectations calculated in the binomial tree can be used as approximations of the option prices in the continuous model. The binomial method is easy to implement and can be adapted to options with different types of payout structures, including American options. This makes the approach very appealing. However, the problem is that in many cases, the convergence of the method is slow and highly irregular, and even a fine discretization does not guarantee accurate price approximations. Therefore, ways of improving the convergence properties are required.
We apply Edgeworth expansions to study the convergence behavior of the lattice approach. We propose a general framework, that allows to obtain asymptotic expansion for both multinomial and multidimensional trees. This information is then used to construct advanced models with superior convergence properties.
In binomial models we usually deal with triangular arrays of lattice random vectors. In this case the available results on Edgeworth expansions for lattices are not directly applicable. Therefore, we first present Edgeworth expansions, which are also valid for the binomial tree setting. We then apply these result to the one-dimensional and multidimensional Black-Scholes models. We obtain third order expansions
for general binomial and trinomial trees in the 1D setting, and construct advanced models for digital, vanilla and barrier options. Second order expansion are provided for the standard 2D binomial trees and advanced models are constructed for the two-asset digital and the two-asset correlation options. We also present advanced binomial models for a multidimensional setting.
Edgeworth expansions have been introduced as a generalization of the central limit theorem and allow to investigate the convergence properties of sums of i.i.d. random variables. We consider triangular arrays of lattice random vectors and obtain a valid Edgeworth expansion for this case. The presented results can be used, for example, to study the convergence behavior of lattice models.
Glioma is a common type of primary brain tumor, with a strongly invasive potential, often exhibiting nonuniform, highly irregular growth. This makes it difficult to assess
the degree of extent of the tumor, hence bringing about a supplementary challenge for the treatment. It is therefore necessary to understand the
migratory behavior of glioma in greater detail.
In this paper we propose a multiscale model for glioma growth and migration. Our model couples the microscale dynamics (reduced to the binding of surface receptors to the
surrounding tissue) with a kinetic transport equation for the cell density on the mesoscopic level of individual cells. On the latter scale we also include the
proliferation of tumor cells via effects of interaction with the tissue. An adequate parabolic scaling yields a convection-diffusion-reaction equation, for which the coefficients
can be explicitly determined from the information about the tissue obtained by diffusion tensor imaging. Numerical simulations relying on DTI measurements confirm the biological
findings that glioma spreads
along white matter tracts.
The study addresses the effect of multiple jet passes and other parameters namely feedrate, water pressure and standoff distance in waterjet peening of metallic
surfaces. An analysis of surface integrity was used to evaluate the performance of
different parameters in the process. An increase in the number of jet passes and
pressure leads to a higher roughness and more erosion and also a higher hardness.
In contrast, the feedrate shows a reverse effect on those surface characteristics.
There exists a specific value of standoff distance that results in the maximum surface
roughness, erosion as well as hardness. Analysis of the surface microstructure gave
a good insight into the mechanism material removal process involving initial and
evolved damage. Also, the waterjet peening process was optimized based on the
design of experiment approach. The developed empirical models had shown
reasonable correlations between the measured and predicted responses. A proper selection of waterjet peening parameters can be formulated to be used in practical
works.
This thesis is devoted to the modeling and simulation of Asymmetric Flow Field Flow Fractionation, which is a technique for separating particles of submicron scale. This process is a part of large family of Field Flow Fractionation techniques and has a very broad range of industrial applications, e. g. in microbiology, chemistry, pharmaceutics, environmental analysis.
Mathematical modeling is crucial for this process, as due to the own nature of the process, lab ex- periments are difficult and expensive to perform. On the other hand, there are several challenges for the mathematical modeling: huge dominance (up to 106 times) of the flow over the diffusion, highly stretched geometry of the device. This work is devoted to developing fast and efficient algorithms, which take into the account the challenges, posed by the application, and provide reliable approximations for the quantities of interest.
We present a new Multilevel Monte Carlo method for estimating the distribution functions on a compact interval, which are of the main interest for Asymmetric Flow Field Flow Fractionation. Error estimates for this method in terms of computational cost are also derived.
We optimize the flow control at the Focusing stage under the given constraints on the flow and present an important ingredients for the further optimization, such as two-grid Reduced Basis method, specially adapted for the Finite Volume discretization approach.
Safety analysis is of ultimate importance for operating Nuclear Power Plants (NPP). The overall
modeling and simulation of physical and chemical processes occuring in the course of an accident
is an interdisciplinary problem and has origins in fluid dynamics, numerical analysis, reactor tech-
nology and computer programming. The aim of the study is therefore to create the foundations
of a multi-dimensional non-isothermal fluid model for a NPP containment and software tool based
on it. The numerical simulations allow to analyze and predict the behavior of NPP systems under
different working and accident conditions, and to develop proper action plans for minimizing the
risks of accidents, and/or minimizing the consequences of possible accidents. A very large number
of scenarios have to be simulated, and at the same time acceptable accuracy for the critical param-
eters, such as radioactive pollution, temperature, etc., have to be achieved. The existing software
tools are either too slow, or not accurate enough. This thesis deals with developing customized al-
gorithm and software tools for simulation of isothermal and non-isothermal flows in a containment
pool of NPP. Requirements to such a software are formulated, and proper algorithms are presented.
The goal of the work is to achieve a balance between accuracy and speed of calculation, and to
develop customized algorithm for this special case. Different discretization and solution approaches
are studied and those which correspond best to the formulated goal are selected, adjusted, and when
possible, analysed. Fast directional splitting algorithm for Navier-Stokes equations in complicated
geometries, in presence of solid and porous obstales, is in the core of the algorithm. Developing
suitable pre-processor and customized domain decomposition algorithms are essential part of the
overall algorithm amd software. Results from numerical simulations in test geometries and in real
geometries are presented and discussed.