Refine
Year of publication
- 2015 (146) (remove)
Document Type
- Doctoral Thesis (100)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Bachelor Thesis (2)
- Conference Proceeding (2)
- Article (1)
- Lecture (1)
- Moving Images (1)
Has Fulltext
- yes (146)
Keywords
- Beam-on time (2)
- Decomposition cardinality (2)
- Field splitting (2)
- Hochschulforschung (2)
- Intensity modulated radiation therapy (2)
- Multileaf collimator sequencing (2)
- NURBS (2)
- Regionalentwicklung (2)
- Stadtplanung (2)
- finite element method (2)
- isogeometric analysis (2)
- tractor (2)
- verification (2)
- wissenschaftliche Weiterbildung (2)
- 4. Reinigungsstufe (1)
- ADAU 1761 (1)
- AMC225xe (1)
- Adaptive time step (1)
- Adjoint method (1)
- Allylierung (1)
- Aminierung (1)
- Asymptotic Expansion (1)
- Audio (1)
- Ausflussfaktor (1)
- Automat <Automatentheorie> (1)
- Autonomer Roboter (1)
- B-Spline (1)
- Bauphysik (1)
- Beam models (1)
- Beteiligung (1)
- Biaryle (1)
- Biotransformation (1)
- Boltzmann Equation (1)
- Brownian Diffusion (1)
- CFD (1)
- Chancengleichheit (1)
- Computational Homogenization (1)
- Computational Mechanics (1)
- Configurational Forces (1)
- Crowdsourcing (1)
- DSMC (1)
- Decarboxylierende Kupplung (1)
- Decarboxylierung (1)
- Diazoniumverbindungen (1)
- Domain decomposition (1)
- Druckdifferenz (1)
- Einzelhandel (1)
- Elasticity (1)
- Electronic Commerce (1)
- Endlicher Automat (1)
- Energieversorgungsnetz (1)
- Entwurf (1)
- Epoxidharz (1)
- Erdschluss (1)
- Erdschlussentfernung (1)
- Erwachsenenbildung (1)
- European Groupings of Territorial Cooperation (1)
- European Spatial Planning (1)
- European Territorial Cooperation (1)
- Europäische Territoriale Zusammenarbeit (1)
- Europäischer Verbund für Territoriale Zusammenarbeit (1)
- Experiment (1)
- Experimentation (1)
- Extended Kalman Filter (1)
- Extrudiertes Polystyrol (1)
- FEM (1)
- Fehlerwiderstand (1)
- Fermentation (1)
- Fertigungsmesstechnik (1)
- Feuchtetransport (1)
- Filler (1)
- Finite-Elemente-Methode (1)
- Flüchtling (1)
- Freiraumentwicklung (1)
- Freiraumplanung (1)
- Freiraumschutz (1)
- Functional Safety (1)
- Funktionale Sicherheit (1)
- Furan (1)
- Füllstoff (1)
- Gefahren- und Risikoanalyse (1)
- Geoweb (1)
- Gewässerschutz (1)
- Gradient based optimization (1)
- Hardware (1)
- Hazard Analysis (1)
- Histologie (1)
- Hochleistungsbeton (1)
- Hochschulbildung (1)
- Hochschulentwicklung (1)
- Hochschulzugang (1)
- Holzleichtbaukonstruktion (1)
- Homogene Katalyse (1)
- Homogenization (1)
- ISO 26262 (1)
- Innenstadt (1)
- Interregional cooperation (1)
- Isogeometrische Analyse (1)
- Isomerisierungsreaktion (1)
- Katalyse (1)
- Katalytische Isomerisierung (1)
- Kirchhoff-Love shell (1)
- Klebstoff (1)
- Kollaboration (1)
- Konvektion (1)
- Kreuzkupplungsreaktion (1)
- Kupfer (1)
- Landschaftsplanung (1)
- Large Eddy Simulation (1)
- Lattice Boltzmann Method (1)
- Leading-Order Optimality (1)
- Lebensmittel (1)
- Leber (1)
- Leckage (1)
- Linear-Quadratic-Regulator (1)
- Ländliche Regionen (1)
- MAC protocols (1)
- MCMT (1)
- Messtechnik (1)
- Metabolismus (1)
- Mikrobewehrter Beton (1)
- Mikroschadstoffe (1)
- Mobiler Roboter (1)
- Model Checking (1)
- Mortar methods (1)
- Multi-patch connection (1)
- Multicore Resource Management (1)
- Multicore Scheduling (1)
- Nachhaltigkeit (1)
- Nickel (1)
- Nickel-katalysierte Decarboxylierung (1)
- Nocardia (1)
- Non-Newtonian (1)
- Nonlinear isogeometric analysis (1)
- Nonsmooth contact dynamics (1)
- Oberschwingung (1)
- On-line algorithm (1)
- Online-Handel (1)
- Optimale Kontrolle (1)
- Optimization (1)
- Organische Synthese (1)
- Palladium (1)
- Palladium-katalysierte Isomerisierung (1)
- Partial Differential Equations (1)
- Pathwise Optimality (1)
- Permeabilität (1)
- Pflanzenzellkultivierung (1)
- Phenylessigsäurederivate (1)
- Piezoelectric Materials (1)
- Polymer OR Verbund OR Füllstoff OR Klebstoff OR Epoxid OR Polyurethan OR innere Oberfläche (1)
- Polymer-Metall-Verbund (1)
- Polystyrolschaumstoff (1)
- Polyurethan (1)
- Prototyp (1)
- Prototype (1)
- Pump Intake Flows (1)
- Qualitätssicherung (1)
- Quasi-Variational Inequalities (1)
- Rarefied gas (1)
- Real-Time Systems (1)
- Regime Shifts (1)
- Regionale Mobilität (1)
- Regionalpark (1)
- Rheinland-Pfalz (1)
- Rigid Body Motion (1)
- Risikobewertung (1)
- Risk Assessment (1)
- Roboter (1)
- Robotik (1)
- SAHARA (1)
- SDL extensions (1)
- Sandmeyer Trifluormethylierung (1)
- Sandwichbauweise (1)
- Sandwichtheorie (1)
- Schwingfestigkeit (1)
- Selektive Monoarylierung (1)
- SemperTool (1)
- Sensor (1)
- Shape optimization (1)
- Signalverarbeitung (1)
- Simulation acceleration (1)
- Smartphones (1)
- Software Comprehension (1)
- Software Dependencies (1)
- Software Evolution (1)
- Software Maintenance (1)
- Software Measurement (1)
- Software Visualization (1)
- Softwareentwicklung (1)
- Softwaremetrie (1)
- Softwarewartung (1)
- Spiritualität (1)
- Spurenstoffe (1)
- Stadtumbau (1)
- Sternpunkterdung (1)
- Stochastic Impulse Control (1)
- Streptomyces (1)
- Streulicht (1)
- Strukturoptimierung (1)
- Textilbeton (1)
- Thermophoresis (1)
- Toxifizierung (1)
- Transaction Costs (1)
- Transnational cooperation (1)
- Triterpene (1)
- Ubiquitous Computing (1)
- Ultrafeinkörnig (1)
- VALBM (1)
- Verbundorganisation (1)
- Verifikation (1)
- Verkehrsverbund (1)
- Verkehrsverbünde (1)
- Versicherung (1)
- Viscosity Adaptive Lattice Boltzmann Method (1)
- Visual Analytics (1)
- Visual Queries (1)
- Visualisierung (1)
- Weak substitution method (1)
- Wissenschaftliche Weiterbildung (1)
- XFEM (1)
- Zedboard (1)
- Zielgruppe (1)
- Zielgruppenanalyse (1)
- Zynq (1)
- Zytotoxizität (1)
- actively steered implement (1)
- adhesive (1)
- adhesive joints in concrete (1)
- affective user interface (1)
- artificial neural network (1)
- assembly tasks (1)
- autonomous networking (1)
- behaviour-based system (1)
- bending strip method (1)
- beta-Lactame (1)
- binary countdown protocol (1)
- black bursts (1)
- building physics (1)
- cancer cell invasion (1)
- carrier-grade point-to-point radio networks (1)
- collaborative information visualization (1)
- collective intelligence (1)
- competitive analysis (1)
- composite materials (1)
- computational homogenization (1)
- computer-based systems (1)
- computer-supported cooperative work (1)
- condition number (1)
- configurational forces (1)
- context awareness (1)
- context management (1)
- context-aware topology control (1)
- continuum damage mechanics (1)
- controller (1)
- convection (1)
- coordinated backhaul networks in rural areas (1)
- crowdsourcing (1)
- decidability (1)
- degenerate diffusion (1)
- design (1)
- deterministic arbitration (1)
- discharge coefficient (1)
- distributed real-time systems (1)
- distributed tasks (1)
- document analysis (1)
- dynamic (1)
- dynamic model (1)
- emotion visualization (1)
- erdschlusskompensiertes Netz (1)
- event segmentation (1)
- filter (1)
- fracture mechanics (1)
- front loader (1)
- fuzzy Q-learning (1)
- fuzzy logic (1)
- global existence (1)
- handover optimzaiion (1)
- haptotaxis (1)
- heterogeneous access management (1)
- historical documents (1)
- iB2C (1)
- ice shelves (1)
- image processing (1)
- implement (1)
- incompressible elasticity (1)
- inertial measurement unit (1)
- information systems (1)
- innerstädtische Einzelhandelslagen (1)
- intellectual disability (1)
- intra- and extracellular proton dynamics (1)
- kalman (1)
- kinematic (1)
- kinematic model (1)
- language modeling (1)
- leakage (1)
- lightweight timber frame construction (1)
- loader (1)
- long short-term memory (1)
- long tail (1)
- metadata (1)
- mixed methods (1)
- mobile scale (1)
- mobility robustness optimization (1)
- modal derivatives (1)
- model (1)
- model order reduction (1)
- moisture transfer (1)
- moisture transport (1)
- multi-domain modeling and evaluation methodology (1)
- multipatch (1)
- multiscale analysis (1)
- multiscale model (1)
- nestable tangibles (1)
- nonlinear vibration analysis (1)
- nonlocal sample dependence (1)
- numerics (1)
- online optimization (1)
- optical character recognition (1)
- optimal (1)
- output feedback approximation (1)
- parabolic system (1)
- partial differential equations (1)
- path (1)
- path tracking (1)
- penalty-free formulation (1)
- permeability (1)
- pneumatische Abstandsmessung (1)
- position detection (1)
- pressure difference (1)
- real-time tasks (1)
- redundant constraint (1)
- reinforcement learning (1)
- relaxed memory models (1)
- robustness (1)
- scattered light (1)
- scheduling (1)
- self-optimizing networks (1)
- social media (1)
- société des transports en commun (1)
- stabilization (1)
- stationärer Einzelhandel (1)
- sternpunktisoliertes Netz (1)
- stochastic differential equations (1)
- subjective evaluation (1)
- tabletop (1)
- task sequence (1)
- touch surfaces (1)
- tracking (1)
- transport association (1)
- tumor acidity (1)
- user-centered design (1)
- virtual training (1)
- weak solution (1)
- weighing (1)
- weighted finite-state transducers (1)
- wheel side-slip estimation (1)
- wireless networks (1)
- worker assistance (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Kaiserslautern - Fachbereich Informatik (22)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (22)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (9)
- Universität (7)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
- Fraunhofer (ITWM) (3)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Kaiserslautern - Fachbereich ARUBI (1)
A Consistent Large Eddy Approach for Lattice Boltzmann Methods and its Application to Complex Flows
(2015)
Lattice Boltzmann Methods have shown to be promising tools for solving fluid flow problems. This is related to the advantages of these methods, which are among others, the simplicity in handling complex geometries and the high efficiency in calculating transient flows. Lattice Boltzmann Methods are mesoscopic methods, based on discrete particle dynamics. This is in contrast to conventional Computational Fluid Dynamics methods, which are based on the solution of the continuum equations. Calculations of turbulent flows in engineering depend in general on modeling, since resolving of all turbulent scales is and will be in near future far beyond the computational possibilities. One of the most auspicious modeling approaches is the large eddy simulation, in which the large, inhomogeneous turbulence structures are directly computed and the smaller, more homogeneous structures are modeled.
In this thesis, a consistent large eddy approach for the Lattice Boltzmann Method is introduced. This large eddy model includes, besides a subgrid scale model, appropriate boundary conditions for wall resolved and wall modeled calculations. It also provides conditions for turbulent domain inlets. For the case of wall modeled simulations, a two layer wall model is derived in the Lattice Boltzmann context. Turbulent inlet conditions are achieved by means of a synthetic turbulence technique within the Lattice Boltzmann Method.
The proposed approach is implemented in the Lattice Boltzmann based CFD package SAM-Lattice, which has been created in the course of this work. SAM-Lattice is feasible of the calculation of incompressible or weakly compressible, isothermal flows of engineering interest in complex three dimensional domains. Special design targets of SAM-Lattice are high automatization and high performance.
Validation of the suggested large eddy Lattice Boltzmann scheme is performed for pump intake flows, which have not yet been treated by LBM. Even though, this numerical method is very suitable for this kind of vortical flows in complicated domains. In general, applications of LBM to hydrodynamic engineering problems are rare. The results of the pump intake validation cases reveal that the proposed numerical approach is able to represent qualitatively and quantitatively the very complex flows in the intakes. The findings provided in this thesis can serve as the basis for a broader application of LBM in hydrodynamic engineering problems.
We consider the multiscale model for glioma growth introduced in a previous work and extend it to account
for therapy effects. Thereby, three treatment strategies involving surgical resection, radio-, and
chemotherapy are compared for their efficiency. The chemotherapy relies on inhibiting the binding
of cell surface receptors to the surrounding tissue, which impairs both migration and proliferation.
A new solution approach for solving the 2-facility location problem in the plane with block norms
(2015)
Motivated by the time-dependent location problem over T time-periods introduced in
Maier and Hamacher (2015) we consider the special case of two time-steps, which was shown
to be equivalent to the static 2-facility location problem in the plane. Geometric optimality
conditions are stated for the median objective. When using block norms, these conditions
are used to derive a polygon grid inducing a subdivision of the plane based on normal cones,
yielding a new approach to solve the 2-facility location problem in polynomial time. Combinatorial algorithms for the 2-facility location problem based on geometric properties are
deduced and their complexities are analyzed. These methods differ from others as they are
completely working on geometric objects to derive the optimal solution set.
A nonlocal stochastic model for intra- and extracellular proton dynamics in a tumor is proposed.
The intracellular dynamics is governed by an SDE coupled to a reaction-diffusion
equation for the extracellular proton concentration on the macroscale. In a more general context
the existence and uniqueness of solutions for local and nonlocal
SDE-PDE systems are established allowing, in particular, to analyze the proton dynamics model both,
in its local version and the case with nonlocal path dependence.
Numerical simulations are performed
to illustrate the behavior of solutions, providing some insights into the effects of randomness on tumor acidity.
In this paper we propose a phenomenological model for the formation of an interstitial gap between the tumor and the stroma. The gap
is mainly filled with acid produced by the progressing edge of the tumor front. Our setting extends existing models for acid-induced tumor invasion models to incorporate
several features of local invasion like formation of gaps, spikes, buds, islands, and cavities. These behaviors are obtained mainly due to the random dynamics at the intracellular
level, the go-or-grow-or-recede dynamics on the population scale, together with the nonlinear coupling between the microscopic (intracellular) and macroscopic (population)
levels. The wellposedness of the model is proved using the semigroup technique and 1D and 2D numerical simulations are performed to illustrate model predictions and draw
conclusions based on the observed behavior.
Ausgehend von Andrew Moravcsiks liberaler Außenpolitiktheorie, nach
der gesellschaftliche Akteure rationale und risikoaverse bzw. kostensensitive
Präferenzen verfolgen, die konstitutiv für die Außen- und Sicherheitspolitik
von Staaten sind, untersucht die vorliegende Studie entlang
der Fallbeispiele Afghanistankrieg, Politik der gezielten Tötungen und
Schließung Guantánamos, inwiefern diese Präferenzen des amerikanischen
Demos die Politik der Terrorismusbekämpfung der Obama-
Administration maßgeblich beeinflussen, ob sich das politische System
gegenüber dem Präferenzmuster des Demos responsiv verhält und
unter welchen Kontextbedingungen gesellschaftliche Präferenzen von
Kongress und Präsident repräsentiert werden. Gestützt auf der Analyse
von Einstellungsmustern der amerikanischen Öffentlichkeit und dem
Kongruenzabgleich zwischen gesellschaftlichen Präferenzen und dem
Handeln von Kongress und Präsident ergibt sich ein widersprüchliches
Bild mit Blick auf die Grundannahmen der liberalen Außenpolitiktheorie.
Der amerikanische Demos favorisierte die gezielte Tötung von
Terroristen, lehnte aber die Schließung Guantánamos und die Intensivierung
des militärischen Einsatzes in Afghanistan ab. Der Kongress als
zentraler Transmissionsriemen gesellschaftlicher Präferenzen unterstützte
einerseits den Präsidenten seit 9/11 bei seiner Terrorismusbekämpfungsstrategie,
scheiterte aber trotz seiner verfassungsrechtlichen
Kompetenzen daran den exekutiven Dominanzanspruch beim Einsatz
militärischer Mittel in Frage zu stellen. Andererseits verweigerte der
Kongress fortlaufend die Schließung Guantánamos. Ziel dieser qualitativen
Studie ist es deshalb durch Verwendung von wirkmächtigen
intervenierenden Variablen wie Schwellenwertbedingung, Parteipolitische
Polarisierung und Politikfeldspezifizität - die argumentative und modelltheoretische
Erweiterung der liberalen Außenpolitiktheorie voranzutreiben
The present thesis describes the development and validation of a viscosity adaption method for the numerical simulation of non-Newtonian fluids on the basis of the Lattice Boltzmann Method (LBM), as well as the development and verification of the related software bundle SAM-Lattice.
By now, Lattice Boltzmann Methods are established as an alternative approach to classical computational fluid dynamics
methods. The LBM has been shown to be an accurate and efficient tool for the numerical simulation of weakly compressible or incompressible fluids. Fields of application reach from turbulent simulations through thermal problems to acoustic calculations among others. The transient nature of the method and the need for a regular grid based, non body conformal discretization makes the LBM ideally suitable for simulations involving complex solids. Such geometries are common, for instance, in the food processing industry, where fluids are mixed by static mixers or agitators. Those fluid flows are often laminar and non-Newtonian.
This work is motivated by the immense practical use of the Lattice Boltzmann Method, which is limited due to stability issues. The stability of the method is mainly influenced by the discretization and the viscosity of the fluid. Thus, simulations of non-Newtonian fluids, whose kinematic viscosity depend on the shear rate, are problematic. Several authors have shown that the LBM is capable of simulating those fluids. However, the vast majority of the simulations in the literature are carried out for simple geometries and/or moderate shear rates, where the LBM is still stable. Special care has to be taken for practical non-Newtonian Lattice Boltzmann simulations in order to keep them stable. A straightforward way is to truncate the modeled viscosity range by numerical stability criteria. This is an effective approach, but from the physical point of view the viscosity bounds are chosen arbitrarily. Moreover, these bounds depend on and vary with the grid and time step size and, therefore, with the simulation Mach number, which is freely chosen at the start of the simulation. Consequently, the modeled viscosity range may not fit to the actual range of the physical problem, because the correct simulation Mach number is unknown a priori. A way around is, to perform precursor simulations on a fixed grid to determine a possible time step size and simulation Mach number, respectively. These precursor simulations can be time consuming and expensive, especially for complex cases and a number of operating points. This makes the LBM unattractive for use in practical simulations of non-Newtonian fluids.
The essential novelty of the method, developed in the course of this thesis, is that the numerically modeled viscosity range is consistently adapted to the actual physically exhibited viscosity range through change of the simulation time step and the simulation Mach number, respectively, while the simulation is running. The algorithm is robust, independent of the Mach number the simulation was started with, and applicable for stationary flows as well as transient flows. The method for the viscosity adaption will be referred to as the "viscosity adaption method (VAM)" and the combination with LBM leads to the "viscosity adaptive LBM (VALBM)".
Besides the introduction of the VALBM, a goal of this thesis is to offer assistance in the spirit of a theory guide to students and assistant researchers concerning the theory of the Lattice Boltzmann Method and its implementation in SAM-Lattice. In Chapter 2, the mathematical foundation of the LBM is given and the route from the BGK approximation of the Boltzmann equation to the Lattice Boltzmann (BGK) equation is delineated in detail.
The derivation is restricted to isothermal flows only. Restrictions of the method, such as low Mach number flows are highlighted and the accuracy of the method is discussed.
SAM-Lattice is a C++ software bundle developed by the author and his colleague Dipl.-Ing. Andreas Schneider. It is a highly automated package for the simulation of isothermal flows of incompressible or weakly compressible fluids in 3D on the basis of the Lattice Boltzmann Method. By the time of writing of this thesis, SAM-Lattice comprises 5 components. The main components are the highly automated lattice generator SamGenerator and the Lattice Boltzmann solver SamSolver. Postprocessing is done with ParaSam, which is our extension of the
open source visualization software ParaView. Additionally, domain decomposition for MPI
parallelism is done by SamDecomposer, which makes use of the graph partitioning library MeTiS. Finally, all mentioned components can be controlled through a user friendly GUI (SamLattice) implemented by the author using QT, including features to visually track output data.
In Chapter 3, some fundamental aspects on the implementation of the main components, including the corresponding flow charts will be discussed. Actual details on the implementation are given in the comprehensive programmers guides to SamGenerator and SamSolver.
In order to ensure the functionality of the implementation of SamSolver, the solver is verified in Chapter 4 for Stokes's First Problem, the suddenly accelerated plate, and for Stokes's Second Problem, the oscillating plate, both for Newtonian fluids. Non-Newtonian fluids are modeled in SamSolver with the power-law model according to Ostwald de Waele. The implementation for non-Newtonian fluids is verified for the Hagen-Poiseuille channel flow in conjunction with a convergence analysis of the method. At the same time, the local grid refinement as it is implemented in SamSolver, is verified. Finally, the verification of higher order boundary conditions is done for the 3D Hagen-Poiseuille pipe flow for both Newtonian and non-Newtonian fluids.
In Chapter 5, the theory of the viscosity adaption method is introduced. For the adaption process, a target collision frequency or target simulation Mach number must be chosen and the distributions must be rescaled according to the modified time step size. A convenient choice is one of the stability bounds. The time step size for the adaption step is deduced from the target collision frequency \(\Omega_t\) and the currently minimal or maximal shear rate in the system, while obeying auxiliary conditions for the simulation Mach number. The adaption is done in the collision step of the Lattice Boltzmann algorithm. We use the transformation matrices of the MRT model to map from distribution space to moment space and vice versa. The actual scaling of the distributions is conducted on the back mapping, because we use the transformation matrix on the basis of the new adaption time step size. It follows an additional rescaling of the non-equilibrium part of the distributions, because of the form of the definition for the discrete stress tensor in the LBM context. For that reason it is clear, that the VAM is applicable for the SRT model as well as the MRT model, where there is virtually no extra cost in the latter case. Also, in Chapter 5, the multi level treatment will be discussed.
Depending on the target collision frequency and the target Mach number, the VAM can be used to optimally use the viscosity range that can be modeled within the stability bounds or it can be used to drastically accelerate the simulation. This is shown in Chapter 6. The viscosity adaptive LBM is verified in the stationary case for the Hagen-Poiseuille channel flow and in the transient case for the Wormersley flow, i.e., the pulsatile 3D Hagen-Poiseuille pipe flow. Although, the VAM is used here for fluids that can be modeled with the power-law approach, the implementation of the VALBM is straightforward for other non-Newtonian models, e.g., the Carreau-Yasuda or Cross model. In the same chapter, the VALBM is validated for the case of a propeller viscosimeter developed at the chair SAM. To this end, the experimental data of the torque on the impeller of three shear thinning non-Newtonian liquids serve for the validation. The VALBM shows excellent agreement with experimental data for all of the investigated fluids and in every operating point. For reasons of comparison, a series of standard LBM simulations is carried out with different simulation Mach numbers, which partly show errors of several hundred percent. Moreover, in Chapter 7, a sensitivity analysis on the parameters used within the VAM is conducted for the simulation of the propeller viscosimeter.
Finally, the accuracy of non-Newtonian Lattice Boltzmann simulations with the SRT and the MRT model is analyzed in detail. Previous work for Newtonian fluids indicate that depending on the numerical value of the collision frequency \(\Omega\), additional artificial viscosity is introduced due to the finite difference scheme, which negatively influences the accuracy. For the non-Newtonian case, an error estimate in the form of a functional is derived on the basis of a series expansion of the Lattice Boltzmann equation. This functional can be solved analytically for the case of the Hagen-Poiseuille channel flow of non-Newtonian fluids. The estimation of the error minimum is excellent in regions where the \(\Omega\) error is the dominant source of error as opposed to the compressibility error.
Result of this dissertation is a verified and validated software bundle on the basis of the viscosity adaptive Lattice Boltzmann Method. The work restricts itself on the simulation of isothermal, laminar flows with small Mach numbers. As further research goals, the testing of the VALBM with minimal error estimate and the investigation of the VALBM in the case of turbulent flows is suggested.
Real-time systems are systems that have to react correctly to stimuli from the environment within given timing constraints.
Today, real-time systems are employed everywhere in industry, not only in safety-critical systems but also in, e.g., communication, entertainment, and multimedia systems.
With the advent of multicore platforms, new challenges on the efficient exploitation of real-time systems have arisen:
First, there is the need for effective scheduling algorithms that feature low overheads to improve the use of the computational resources of real-time systems.
The goal of these algorithms is to ensure timely execution of tasks, i.e., to provide runtime guarantees.
Additionally, many systems require their scheduling algorithm to flexibly react to unforeseen events.
Second, the inherent parallelism of multicore systems leads to contention for shared hardware resources and complicates system analysis.
At any time, multiple applications run with varying resource requirements and compete for the scarce resources of the system.
As a result, there is a need for an adaptive resource management.
Achieving and implementing an effective and efficient resource management is a challenging task.
The main goal of resource management is to guarantee a minimum resource availability to real-time applications.
A further goal is to fulfill global optimization objectives, e.g., maximization of the global system performance, or the user perceived quality of service.
In this thesis, we derive methods based on the slot shifting algorithm.
Slot shifting provides flexible scheduling of time-constrained applications and can react to unforeseen events in time-triggered systems.
For this reason, we aim at designing slot shifting based algorithms targeted for multicore systems to tackle the aforementioned challenges.
The main contribution of this thesis is to present two global slot shifting algorithms targeted for multicore systems.
Additionally, we extend slot shifting algorithms to improve their runtime behavior, or to handle non-preemptive firm aperiodic tasks.
In a variety of experiments, the effectiveness and efficiency of the algorithms are evaluated and confirmed.
Finally, the thesis presents an implementation of a slot-shifting-based logic into a resource management framework for multicore systems.
Thus, the thesis closes the circle and successfully bridges the gap between real-time scheduling theory and real-world implementations.
We prove applicability of the slot shifting algorithm to effectively and efficiently perform adaptive resource management on multicore systems.
In this dissertation, we discuss how to price American-style options. Our aim is to study and improve the regression-based Monte Carlo methods. In order to have good benchmarks to compare with them, we also study the tree methods.
In the second chapter, we investigate the tree methods specifically. We do research firstly within the Black-Scholes model and then within the Heston model. In the Black-Scholes model, based on Müller's work, we illustrate how to price one dimensional and multidimensional American options, American Asian options, American lookback options, American barrier options and so on. In the Heston model, based on Sayer's research, we implement his algorithm to price one dimensional American options. In this way, we have good benchmarks of various American-style options and put them all in the appendix.
In the third chapter, we focus on the regression-based Monte Carlo methods theoretically and numerically. Firstly, we introduce two variations, the so called "Tsitsiklis-Roy method" and the "Longstaff-Schwartz method". Secondly, we illustrate the approximation of American option by its Bermudan counterpart. Thirdly we explain the source of low bias and high bias. Fourthly we compare these two methods using in-the-money paths and all paths. Fifthly, we examine the effect using different number and form of basis functions. Finally, we study the Andersen-Broadie method and present the lower and upper bounds.
In the fourth chapter, we study two machine learning techniques to improve the regression part of the Monte Carlo methods: Gaussian kernel method and kernel-based support vector machine. In order to choose a proper smooth parameter, we compare fixed bandwidth, global optimum and suboptimum from a finite set. We also point out that scaling the training data to [0,1] can avoid numerical difficulty. When out-of-sample paths of stock prices are simulated, the kernel method is robust and even performs better in several cases than the Tsitsiklis-Roy method and the Longstaff-Schwartz method. The support vector machine can keep on improving the kernel method and needs less representations of old stock prices during prediction of option continuation value for a new stock price.
In the fifth chapter, we switch to the hardware (FGPA) implementation of the Longstaff-Schwartz method and propose novel reversion formulas for the stock price and volatility within the Black-Scholes and Heston models. The test for this formula within the Black-Scholes model shows that the storage of data is reduced and also the corresponding energy consumption.
Schon jetzt durchlaufen mehr als vier von fünf chemischen Produkten bei der Herstellung einen Katalysezyklus. In zunehmendem Maße findet man katalytische Anwendungen neben dem Einsatz in der Synthesechemie auch in den Biowissenschaften, beim Klima- und Umweltschutz sowie zur Energieversorgung. Durch gezieltes Ligandendesign werden dabei kontinuierlich bekannte Katalysatorsysteme optimiert und die Anwendungsbreite erweitert. Für zweizähnige, pyrimidinhaltige Ligandensysteme ist aus anderen Forschungsarbeiten der AG Thiel eine intramolekularen C-H-Aktivierung im Pyrimidinring bekannt, die zu einer carbanionkoordination am Übergangsmetallzentrum führt. Diese Reaktivität wurde im Rahmen dieser Arbeit mit der stabilisierenden Wirkung eines N-heterocyclischen Carbenliganden (NHC) zu einem neuen Ligandensystem kombiniert. Verschiedene Imidazoliumvorstufen neuer NHC-Liganden mit einem in der 2-Position aminosubstituierten Pyrimidinring als N-Substituent wurden über zwei neu erarbeitete Syntheserouten dargestellt und mit verschiedenen Übergangsmetallvorstufen umgesetzt. In Palladium(II)-Komplexen von pyrimidinyl- und mesitylsubstituierten NHC-Liganden wurden verschiedene Koordinationsmodi in Abhängigkeit von der verwendeten Synthesemethode beobachtet. Über Silber-Carben-Komplexe als Carben-Transferreagenzien konnten für verschieden tertiär amino- und mesitylsubstituierten Liganden die nicht C-H-aktivierten, d.h. C,N-koordinierten Palladiumkomplexe dargestellt werden. Eine direkte Umsetzung der ionischen Imidazoliumverbindungen mit Palladiumvorstufen wie PdCl2 führte in Pyridin und Pyridinderivaten als Lösungsmittel bei Reaktionstemperaturen direkt zu einer C-H-Aktivierung im Pyrimidinring des Liganden. Der leicht basische Pyridinligand stabilisiert während der Komplexbildung die hochreaktive, C-H-aktivierte Spezies und verhindert so Neben- und Zersetzungsreaktionen. Über die Abspaltung des labilen Pyridinliganden durch Erhitzen in schwach koordinierenden Lösungsmitteln wurden die zweikernigen, unlöslichen, pyridinfreien Palladiumkomplexe erhalten und mittels Festkörper-NMR-Spektroskopie charakterisiert. Diese Reaktion ist vollständig reversibel und wurde zum Einführen verschiedener Pyridinderivate als labile Liganden genutzt. In schwach koordinierenden Lösungsmitteln mit einem Siedepunkt < 80 °C, wie THF, wurde durch eine direkte Umsetzung der ionischen Vorstufen der Liganden mit PdCl2 eine weitere Art von Pd(II)-Komplexen erhalten, für welche die Strukturformel eines N-koordinierten Palladates postuliert wurde. In NMR-spektroskopischen Experimenten wurde die Reversibilität der C-H-Aktivierung im Pyrimidinring der Pd(II)-Komplexe in Abhängigkeit von pH-Wert und Temperatur nachgewiesen. Auch hier erwies sich der stabilisierende Pyridinligand für die C-H-Aktivierung und HCl-Eliminierung als notwendig. Die Rückreaktion wurde unter schwach sauren Reaktionsbedingungen bei Raumtemperatur über eine NHC-gebundene, pyridinhaltige Spezies, strukturanalog der literaturbekannten PEPPSI-Komplexe, beobachtet.
Für die stark Lewis-aciden Übergangsmetallzentren Iridium (III) und Ruthenium (II) wurden mit den entsprechenden ionischen Ligandenvorstufen über in situ dargestellte Silber-Carben-Komplexe ausschließlich die C-H-aktivierten, C,N-koordinierten Halbsandwichkomplexe der neuen 2-Amino-4-(imidazolylidenyl)pyrimidinliganden erhalten, trotz variierter Reaktionsbedingungen. Die C-H-Aktivierung mit anschließender HCl-Eliminierung erfolgte bei diesen Übergangsmetallzentren bereits bei Raumtemperatur irreversibel.
In Rahmen dieser Arbeit wurde außerdem die Notwendigkeit eines sterisch anspruchsvollen, stabilisierenden Mesitylrestes am NHC-Liganden für stabile und isolierbare C-H-aktivierte Komplexe beobachtet. Mit anderen, sterisch weniger anspruchsvollen Resten an dieser Position des Liganden wurden unter den Reaktionsbedingungen für potentielle C-H-Aktivierungen nur Zersetzungsprodukte erhalten. Von jedem Komplextyp der neuen C-H-aktivierten Übergangsmetallkomplexe wurden messbare Kristalle für eine Kristallstrukturanalyse erhalten, welche tiefere Einblicke in die Bindungssituation der neuen Liganden ermöglichte.
Die C-H-aktivierten Übergangsmetallkomplexe der neuen Liganden zeigen sehr gute Aktivitäten in verschiedenen katalytischen Anwendungen. Neben der stabilisierenden Wirkung des NHC mit starkem σ-Donorcharakter wird die hohe Elektronendichte am Übergangsmetallzentrum durch die Koordination des Carbanions weiter erhöht. Unter optimierten Bedingungen wurden in der Suzuki-Miyaura-Kupplung mit geringeren Katalysatorkonzentrationen der C-H-aktivierten Pd(II)-Komplexe eine große Bandbreite von sterisch und elektronisch gehinderten Chlorarylen mit verschiedenen Boronsäurederivaten erfolgreich zu Biarylen umgesetzt. Mit den C-H-aktivierten Ru(II)- und Ir(III)-Halbsandwichkomplexen der neuen Liganden wurden in der katalytischen Transferhydrierung von Acetophenon bereits bei geringen Katalysatorkonzentrationen von 0.15 mol% sehr hohe Ausbeuten erhalten. Die katalytisch hochaktiven Komplexe zeichneten sich außerdem durch eine hohe Stabilität unter den optimierten Reaktionsbedingungen aus. Die C-H-Aktivierung weist zwar keine Abhängigkeit vom sterischen Anspruch der variierten tertiären Aminosubstituenten auf, wurde aber für die anderen Reste in der 2-Position des Pyrimidinrings nicht beobachtet.
Open distributed systems are a class of distributed systems where (i) only partial information about the environment, in which they are running, is present, (ii) new resources may become available at runtime, and (iii) a subsystem may become aware of other subsystems after some interaction. Modeling and implementing such systems correctly is a complex task due to the openness and the dynamicity aspects. One way to ensure that the resulting systems behave correctly is to utilize formal verification.
Formal verification requires an adequate semantic model of the implementation, a specification of the desired behavior, and a reasoning technique. The actor model is a semantic model that captures the challenging aspects of open distributed systems by utilizing actors as universal primitives to represent system entities and allowing them to create new actors and to communicate by sending directed messages as reply to received messages. To enable compositional reasoning, where the reasoning task is reduced to independent verification of the system parts, semantic entities at a higher level of abstraction than actors are needed.
This thesis proposes an automaton model and combines sound reasoning techniques to compositionally verify implementations of open actor systems. Based on I/O automata, the model allows automata to be created dynamically and captures dynamic changes in communication patterns. Each automaton represents either an actor or a group of actors. The specification of the desired behavior is given constructively as an automaton. As the basis for compositionality, we formalize a component notion based on the static structure of the implementation instead of the dynamic entities (the actors) occurring in the system execution. The reasoning proceeds in two stages. The first stage establishes the connection between the automata representing single actors and their implementation description by means of weakest liberal preconditions. The second stage employs this result as the basis for verifying whether a component specification is satisfied. The verification is done by building a simulation relation from the automaton representing the implementation to the component's automaton. Finally, we validate the compositional verification approach through a number of examples by proving correctness of their actor implementations with respect to system specifications.
An efficient multiscale approach is established in order to compute the macroscopic response of nonlinear composites. The micro problem is rewritten in an integral form of the Lippmann-Schwinger type and solved efficiently by Fast Fourier Transforms. Using realistic microstructure models complex nonlinear effects are reproduced and validated with measured data of fiber reinforced plastics. The micro problem is integrated in a Finite Element framework which is used to solve the macroscale. The scale coupling technique and a consistent numerical algorithm is established. The method provides an efficient way to determine the macroscopic response considering arbitrary microstructures, constitutive behaviors and loading conditions.
Annual Report 2014
(2015)
Annual Report, Jahrbuch AG Magnetismus
The overall goal of the work is to simulate rarefied flows inside geometries with moving boundaries. The behavior of a rarefied flow is characterized through the Knudsen number \(Kn\), which can be very small (\(Kn < 0.01\) continuum flow) or larger (\(Kn > 1\) molecular flow). The transition region (\(0.01 < Kn < 1\)) is referred to as the transition flow regime.
Continuum flows are mainly simulated by using commercial CFD methods, which are used to solve the Euler equations. In the case of molecular flows one uses statistical methods, such as the Direct Simulation Monte Carlo (DSMC) method. In the transition region Euler equations are not adequate to model gas flows. Because of the rapid increase of particle collisions the DSMC method tends to fail, as well
Therefore, we develop a deterministic method, which is suitable to simulate problems of rarefied gases for any Knudsen number and is appropriate to simulate flows inside geometries with moving boundaries. Thus, the method we use is the Finite Pointset Method (FPM), which is a mesh-free numerical method developed at the ITWM Kaiserslautern and is mainly used to solve fluid dynamical problems.
More precisely, we develop a method in the FPM framework to solve the BGK model equation, which is a simplification of the Boltzmann equation. This equation is mainly used to describe rarefied flows.
The FPM based method is implemented for one and two dimensional physical and velocity space and different ranges of the Knudsen number. Numerical examples are shown for problems with moving boundaries. It is seen, that our method is superior to regular grid methods with respect to the implementation of boundary conditions. Furthermore, our results are comparable to reference solutions gained through CFD- and DSMC methods, respectevly.
The Wilkie model is a stochastic asset model, developed by A.D. Wilkie in 1984 with a purpose to explore the behaviour of investment factors of insurers within the United Kingdom. Even so, there is still no analysis that studies the Wilkie model in a portfolio optimization framework thus far. Originally, the Wilkie model is considering a discrete-time horizon and we apply the concept of Wilkie model to develop a suitable ARIMA model for Malaysian data by using Box-Jenkins methodology. We obtained the estimated parameters for each sub model within the Wilkie model that suits the case of Malaysia, and permits us to analyse the result based on statistics and economics view. We then tend to review the continuous time case which was initially introduced by Terence Chan in 1998. The continuous-time Wilkie model inspired is then being employed to develop the wealth equation of a portfolio that consists of a bond and a stock. We are interested in building portfolios based on three well-known trading strategies, a self-financing strategy, a constant growth optimal strategy as well as a buy-and-hold strategy. In dealing with the portfolio optimization problems, we use the stochastic control technique consisting of the maximization problem itself, the Hamilton-Jacobi-equation, the solution to the Hamilton-Jacobi-equation and finally the verification theorem. In finding the optimal portfolio, we obtained the specific solution of the Hamilton-Jacobi-equation and proved the solution via the verification theorem. For a simple buy-and-hold strategy, we use the mean-variance analysis to solve the portfolio optimization problem.
Im Rahmen dieser Diplomarbeit konnte das etablierte direkte Laserschreiben um einen zusätzlichen
abregenden Strahlengang ergänzt werden, dessen Einfluss im Hinblick auf das
Polymerisationsverhalten untersucht wurde.
Bei dem verwendeten (Negativ-) Photolack IP-L 780 konnte durch stimulierte Emission die
Generierung von Radikalen unterbunden werden, indem die an- und abregenden Laserfokusse
räumlich überlagert wurden. Dabei stellte sich heraus, dass ein relativ großer Intensitätsbereich
den erwünschten Effekt hervorruft.
Die in der Fluoreszenzmikroskopie seit langem verwendeten Abregungsmoden (doughnut und
bottleshape) konnten mithilfe von räumlichen Lichtmodulatoren und dem speziell für diesen
Zweck entwickelten Programm zur PSF-Darstellung sehr gut erzeugt werden. Dabei fanden
neben den Zernike-Polynomen auch inverse Gauß-Funktionen zur Aberrationskorrektur Anwendung.
Auch sogenannte Multifokusse (lateral und axial) konnten durch eine geeignete
Gewichtung der Zernike-Polynome zuverlässig generiert werden, wobei die dafür notwendigen
Phasen- und Amplitudenpattern mithilfe eines entsprechenden iterativen Algorithmus
(GSA3D) berechnet wurden.
Der laterale Polymerisationsdurchmesser konnte sowohl durch die doughnut-Mode, als auch
durch den lateralen Multifokus von 240 nm um ca. 50 % auf ungefähr 120 nm reduziert
werden. Der stimulierende Teil der doughnut-Mode, der entlang der Schreibrichtung dem
Polymerisationsfokus vorauseilt (oder hinterherläuft), führt zu keinerlei relevanten Unterschieden
im Vergleich zum Multifokus.
Dies konnte zudem durch ein Experiment verifiziert werden, bei dem die An- und Abregungsfokusse
entlang der Schreibrichtung um verschiedene Distanzen versetzt positioniert
wurden. Ob der stimulierende Laser den Photolack räumlich (und damit zeitlich) einige hundert
Nanometer (bzw. einige Millisekunden) vor oder nach dem anregenden beeinflusst, zeigt
dabei keinerlei Unterschiede. Je größer der Versatz, desto geringer die stimulierende Wirkung.
Demnach scheint der abregende Laser den Photoinitiator (DETC) zu stimulierter Emission
zu bringen, bevor dieser seine absorbierte Energie zur Spaltung und damit zum Polymerisationsbeginn
nutzen kann.
Der axiale Polymerisationsdurchmesser konnte sowohl mit der etablierten bottleshape-Mode,
als auch mit dem hier entwickelten axialen Multifokus von ca. 400 nm um 50% auf unge-
57
5 Zusammenfassung und Ausblick Julian Hering
fähr 200 nm reduziert werden. Bei Letzterem war der Intensitätsring in der xy-Ebene bei
z = 0 deutlich stärker ausgeprägt als bei der bottleshape-Mode, was zu einer erhöhten
lateralen Polymerisationsunterdrückung und damit zu einem schlechteren Aspektverhältnis
führte. Nichtsdestotrotz konnte dadurch im Rahmen dieser Arbeit erstmals STED-DLW mittels
räumlicher Lichtmodulatoren betrieben werden.
Die mit starren Phasenmasken bereits erreichten Linienabmessungen von bis zu 65 nm lateral
und 180 nm axial konnten somit zwar nicht erreicht werden, jedoch ist in dieser Hinsicht eine
deutliche Verbesserung gegenüber dem zuvor verwendeten normalen DLW unverkennbar. Leider
zeigt die Kombination mit STED jedoch neue Herausforderungen auf. So wurde z.B. die
Strukturqualität beim Anfahren und Abbremsen des Piezos enorm verschlechtert. Auch die
Generierung mancher Abregungsmoden erwies sich als äußerst mühsam und zeitaufwendig.
Aus diesem Grund wird in Zukunft ein automatisiertes Vorgehen bei der Aberrationskorrektur
angestrebt, sowie eine aufeinander abgestimmte Ansteuerung der jeweiligen Laserleistungen.
Der Strukturierungszeitaufwand aufgrund der verwendeten Geschwindigkeit von 100 μm/s
kann in Zukunft ebenfalls verringert werden, da das Auslenkverhalten der beiden Fokusse in
einem Radius von 50 μm mittels Galvanospiegel-System weitestgehend gleich ist. Zu diesem
Zweck müssen allerdings je nach verwendeter Geschwindigkeit die nötigen Laserleistungen
ermittelt werden. Außerdem muss die räumliche Formkonstanz der An- und Abregungsmoden
bei einer Auslenkung um bis zu 50 μm untersucht werden. Durch den Verzicht auf das
Piezo-System würde sich das Problem der schlechten Qualität an den Strukturkanten eventuell
erübrigen.
Zudem lässt sich durch die Verwendung räumlicher Lichtmodulatoren der Einsatz verwendeter
Abregungsmoden weiter ausbauen. Axiale Multifokusse mit einer Halbwertslücke von
unter 300 nm und einem Intensitätsminimum von unter 30% sind theoretisch kein Problem.
Es gilt demnach, diese Moden zu generieren und auf deren Verbesserung hinsichtlich Linienbreite
und -länge zu untersuchen. Ein Test zur Ermittlung des Signal zu Rausch Verhältnisses
der jeweiligen Moden über den gesamten möglichen Bereich der stimulierten Emission würde
beispielsweise stark zur Charakterisierung der Multifokusse beitragen.
Die Gewichtsreduktion im Strukturbereich stellt einen zentralen Optimierungsansatz in der Luftfahrtindustrie dar, der vor allem durch adäquate Fügetechnologien genutzt werden kann. Ausgehend vom aktuellen Stand der Technik im Helikopterbau, dem Nieten, gilt es durch die Verwendung einer innovativen Fügetechnologie das volle technologische Leistungsvermögen hinsichtlich Performance, Qualität und Kosten zu nutzen. Dazu wurde das Induktionsschweißen als die potentialreichste Fügetechno-logie für den Helikopterbau bewertet. Um dieses identifizierte Potential für eine Luftfahrtfertigungstechnologie nutzbar zu machen, ist es unerlässlich, das Indukti-onsschweißen an die Luftfahrtanforderungen anzupassen. Vor allem in den Berei-chen Nachweisbarkeit, Leistungsfähigkeit und Kosten wurden daher Fragestellungen identifiziert deren Beantwortung den Kern dieser Arbeit darstellt.
Beim Induktionsschweißen werden faserverstärkte Thermoplaste durch ein Auf-schmelzen der Matrix und ein anschließendes Abkühlen unter Druck gefügt. Die Erwärmung des sich in einem alternierenden elektromagnetischen Feld (EMF) befindlichen Laminats erfolgt dabei durch die Einkopplung eines elektrischen Stroms in die Fasern.
Das zentrale Element zur Erreichung der geforderten Leistungsfähigkeit stellt die interlaminare Temperaturverteilung dar, welche es nachzuweisen gilt. Dieser Nach-weis wurde durch ein umfassendes analytisches Modell realisiert, das eine höchst-präzise interlaminare Temperaturberechnung ermöglicht. Die Kernaussagen, welche aus dem Modell abgeleitet werden, sind die dickenabhängige Erwärmung des Laminats, die EMF-Semipermeabilität der Laminatoberflächen und der nicht expo-nentielle Abfall sowie der nicht lineare Verlauf der Temperatur in Dickenrichtung. Die Validierung der analytischen Modellierung gelang nur durch die Identifikation einer EMF-toleranten, hochdynamischen Temperaturmesstechnologie, welche mit hoher Auflösung interlaminar eingesetzt werden kann.
Auf Grundlage der Modellergebnisse wurden die optimalen Schweißparameter definiert, auf deren Basis die Leistungsfähigkeit der Induktionsschweißtechnologie mit circa 36 MPa Scherfestigkeit bestätigt wurde. Durch eine Sensibilitätsanalyse konnte weiterhin der Einfluss der Parameter Generatorleistung, Kühlvolumen, Anpressdruck, Induktorabstand, Fehlereinschlüsse und Geschwindigkeit bestimmt werden. Aufgrund der im aktuellen Anlagenaufbau nicht vorhanden Parameterüber-wachung und aufgrund des hohen Prozesseinflusses erwies sich dabei der Induktor-abstand als der kritischste Faktor.
Etwaige dadurch auftretende qualitative Mängel können durch den schlanken, maßgeschneiderten Einsatz einer Kombination aus der Ultraschalluntersuchung, einer in der Luftfahrt standardmäßig eingesetzten Qualitätssicherungsmethode und eines progressiven Inline-Prozesskontrollansatzes detektiert werden.
Parallel zur mechanischen Leistungsfähigkeit der Technologie stand der Einfluss der Temperaturverteilung auf die Oberflächenqualität im Fokus. Durch die umfangreiche theoretische und experimentelle Analyse bereits bekannter und neu entwickelter Temperaturoptimierungsmethoden konnte mit der Kühlung der Oberfläche mit temperatur- und volumenvariablen Druckluftströmen eine effiziente Methode zur zielführenden Lösung der bestehenden Problemstellung ermittelt werden.
Die Anwendbarkeit der Induktionsschweißtechnologie konnte auch durch eine Kostenrechnung am Beispiel eines helikopterspezifischen Musterbauteils bestätigt werden.
The main goal of this thesis is twofold. First, the thesis aims at bridging the gap between existing Pattern Recognition (PR) methods of automatic signature verification and the requirements for their application in forensic science. This gap, attributed by various factors ranging from system definition to evaluation, prevents automatic methods from being used by Forensic Handwriting Examiners (FHEs). Second, the thesis presents novel signature verification methods developed particularly considering the implications of forensic casework, and outperforming the state-of-the-art PR methods.
The first goal of the thesis is attributed by four important factors, i.e., data, terminology, output reporting, and how evaluation of automatic systems is carried out today. It is argued that traditionally the signature data used in PR are not actual/close representative of the real world data (especially that available in forensic cases). The systems trained on such data are, therefore, not suitable for forensic environments. This situation can be tackled by providing more realistic data to PR researchers. To this end, various signature and handwriting datasets are gathered in collaboration with FHEs and are made publicly available through the course of this thesis. A special attention is given to disguised signatures--where authentic authors purposefully make their signatures look like a forgery. This genre was at large neglected in PR research previously.
The terminology used, in the two communities - PR and FHEs, differ greatly. In fact, even in PR, there is no standard terminology and people often differ in the usage of various terms particularly related to various types of forged signatures/handwriting. The thesis presents a new terminology that is equally useful for both forensic scientists and PR researchers. The proposed terminology is hoped to increase the general acceptability of automatic signature analysis systems in forensic science.
The outputs reported by general signature verification systems are not acceptable for FHEs and courts as they are either binary (yes/no) or score (raw evidence) based on similarity/difference. The thesis describes that automatic systems should rather report the probability of observing the evidence (e.g., a certain similarity/difference score) given the signature belongs to the acclaimed identity, and the probability of observing the same evidence given the signature does not belong to the acclaimed identity. This will take automatic systems from hard decisions to soft decisions, thereby enabling them to report likelihood ratios that actually represent the evidential value of the score rather than the raw score (evidence).
When automatic systems report soft decisions (as in the form of likelihood ratios), the thesis argues that there must be some methods to evaluate such systems. This thesis presents one such adaptation. The thesis argues that the state-of-the-art evaluation methods, like equal error rate and area under curve, do not address the needs of forensic science. These needs require an assessment of the evidential value of signature verification, rather than a hard/pure classification (accept/reject binary decision). The thesis demonstrates and validates a relatively simple adaptation of the current verification methods based on the Bayesian inference dependent calibration of continuous scores rather than hard classifications (binary and/or score based classification).
The second goal of this thesis is to introduce various local features based techniques which are capable of performing signature verification in forensic cases and reporting results as anticipated by FHEs and courts. This is an important contribution of the thesis because of the following two reasons. First, to the best of author's knowledge, local feature descriptors are for the first time used for development of signature verification systems for forensic environments (particularly considering disguised signatures). Previously, such methods have been heavily used for recognition tasks, rather than verification of writing behaviors, such as character and digit recognition. Second, the proposed methods not only report the more traditional decisions (like scores-usually reported in PR) but also the Bayesian inference based likelihood ratios (suitable for courts and forensic cases).
Furthermore, the thesis also provides a detailed man vs. machine comparison for signature verification tasks. The men, in this comparison, are forensic scientists serving as forensic handwriting examiners and having experience of varying number of years. The machines are the local features based methods proposed in this thesis, along with various other state-of-the-art signature verification systems. The proposed methods clearly outperform the state-of-the-art systems, and sometimes the human experts.
Finally, the thesis details various tasks that have been performed in the areas closely related to signature verification and its application in forensic casework. These include, developing novel local feature based methods for extraction of signatures/handwritten text from document images, hyper-spectral image analysis for extraction of signatures from forensic documents, and analysis of on-line signatures acquired through specialized pens equipped with Accelerometer and Gyroscope. These tasks are important as they enable the thesis to take PR systems one step further close to direct application in forensic cases.
Im Rahmen der vorliegenden Arbeit konnten sowohl konzeptionelle Beiträge zur Berechnung
der magnetischen Anisotropie von mehrkernigen Übergangsmetallkomplexen mittels
DFT-Methoden geleistet, sowie zwei Molekülsysteme eingehend untersucht werden.
Auf der Ebene der Methodenweiterentwicklung konnten die Matrixelemente des Spin-Bahn
mean-field-Operators als effektivem Einteilchenoperator implementiert werden. Diese wurden
sowohl mit SMP als auch mit MPI parallelisiert, so dass eine sehr effektive Berechnung
auch bei großen Systemen möglich ist. Bei Verwendung von Hybridfunktionalen erhöht sich
die Rechenzeit einer sopt-Rechnung durch die Berechnung dieser Integrale um etwa
einen Faktor drei. Die restliche Rechenzeit wird durch das Lösen des CHF-Systems
dominiert.
Bei Verwendung reiner Dichtefunktionale dauern die Rechnungen sehr viel kürzer, da hier
kein CHF-System zu lösen ist. Dadurch verteuert die Berechnung der SOMF-Matrixelemente
diese Rechnungen prozentual deutlich mehr, aber dennoch sind Rechnungen mit reinen
Dichtefunktionalen sehr viel schneller fertig als mit Hybridfunktionalen.
Weiterhin konnte eine neue Methode zur Berechnung von Einzelionentensoren entworfen und
implementiert werden, die mit lokalisierten Orbitalen arbeitet. Diese Methode konnte mit
der bereits bestehenden Methode, bei der die SOC an einzelnen Zentren "ausgeschaltet" wird,
verglichen werden. Die Ergebnisse besitzen in etwa dieselbe
Qualität.
Für die Zuordnung einzelner, lokalisierter Orbitale gibt es keine physikalisch eindeutige
Lösung. Es konnte jedoch ein Zuordnungsschema auf der Basis von Abständen und Winkeln
entwickelt werden, das in den meisten Fällen der chemischen Intuition entspricht, so dass
einem oktaedrisch koordinierten Metallzentrum sechs Bindungselektronenpaare zugeordnet
werden.
Die so entwickelte Methode liefert eine bequeme und einfache Möglichkeit zur Berechnung
aller benötigter Einzelionentensoren im Zuge einer einzigen Rechnung ohne nennenswerten
Mehraufwand. So wurde sie bei den weiteren Untersuchungen der beiden Molekülsysteme ausgiebig
genutzt.
Schließlich wurden zwei Komplexsysteme eingehend analysiert und mit verschiedenen
Übergangsmetallkombinationen untersucht. Es wurde hierbei ein breites Spektrum an
Analysewerkzeugen eingesetzt, sodass die erhaltenen Ergebnisse nicht nur nähere Einsichten
zu den konkret untersuchten Komplexen liefern, sondern auch allgemein wertvolle
Erfahrungen zur Untersuchung der magnetischen Anisotropie an mehrkernigen
Übergangsmetallkomplexen mit DFT-Methoden liefern.
Zuerst wurden Komplexe mit Tripelsalenliganden untersucht, wie sie in der Arbeitsgruppe
von Thorsten Glaser synthetisiert und charakterisiert werden. Der Einfachheit halber
wurden zunächst Komplexe mit nur einer Tripelsaleneinheit untersucht, wobei als
Metallionen in der Tripelsaleneinheit Mn(III)-Ionen verwendet wurden. Hierbei zeigte sich,
dass durch die Substitution von Chrom(III) als Zentralion durch Wolfram(III) bzw.
Rhenium(IV) eine deutliche Steigerung der magnetischen Anisotropie erreicht werden kann.
In einem nächsten Schritt wurden diese Komplexe durch eine weitere Tripelsaleneinheit
erweitert. Diese Komplexe sind also von der Struktur, wie sie auch in der Arbeitsgruppe
Glaser synthetisiert werden. Es zeigt sich, dass die Mn6M-Komplexe eine sehr viel
geringere Anisotropie aufweisen. Dies liegt daran, dass bei den Mn3M-Komplexen die
oktaedrische Koordinationsumgebung um das Zentralion verzerrt ist, da nur 3 der 6
Cyanoliganden an der Koordination der Tripelsaleneinheit beteiligt sind. Durch diese
starke Verzerrung erreicht man bei Verwendung von 5d-Elementen hohe Anisotropien. Bei den
Mn6M-Komplexen ergibt sich die Anisotropie hauptsächlich aus den Beiträgen der
Manganionen.
Schließlich wurden Komplexe mit nur einer Tripelsaleneinheit untersucht, bei denen jedoch
in der Tripelsaleneinheit Mo(III)-Ionen koordiniert sind. Hier konnte gezeigt werden, dass
durch die Molybdänionen eine höhere Anisotropie erhalten werden kann als bei den
entsprechenden Mn3M-Komplexen. Bei den leichten Zentralionen (Chrom und Molybdän)
jedoch war die Anisotropie geringer als bei den Mn6M-Komplexen. Dies liegt daran,
dass bei diesen Komplexen der Beitrag der Ionen der Tripelsaleneinheit überwiegt und somit
macht sich bemerkbar, dass bei den Mn6M-Komplexen 6 Ionen in der Tripelsaleneinheit
koordiniert sind und bei den Mo3M-Komplexen lediglich 3.
Bei der Untersuchung der Tripelsalenkomplexe konnte ein Verfahren vorgestellt werden, wie
man sich die Symmetrie von Komplexen bei der Berechnung des anisotropen Austauschs zu
Nutze machen kann, um die Anzahl zu berechnender Konfigurationen zu minimieren.
Als zweites Komplexsystem wurde ein von Habib et al. vorgestellter Oximligand gewählt, der
als Chelatligand fungiert. Der ursprünglich synthetisierte Komplex enthielt zwei
Mn(IV)-Ionen außen und in der Mitte ein Mn(III)-Ion. Auch hier wurde die Kombination
verschiedener Metallzentren analysiert.
Für den Ursprungskomplex konnte ein axialer MAE-Parameter nachgewiesen, der im normalen
Rahmen für Mn(III)-Komplexe liegt. Die Substitution des zentralen Manganzentrums durch
schwerere Metallzentren führt hier jedoch nicht zum gewünschten Ergebnis. Der
Molybdänkomplex liefert eine sehr geringe Anisotropie und der Rheniumkomplex weist einen
positiven axialen MAE-Parameter auf. Für den Wolframkomplex hingegen erhält man
unplausible Ergebnisse.
Im nächsten Schritt wurden die äußeren Manganzentren durch Mo(III) ersetzt. Bei Molybdän,
Wolfram und Rhenium ergeben sich genau dieselben Probleme wie bei den Mn2M-Komplexen.
Der Mo2Mn-Komplex hingegen weist eine deutlich höhere Anisotropie auf als der
Mn2Mn-Komplex.
Untersuchungen zum langzeitbeständigen Kleben von organisch bandbeschichteten
Stahlfeinblechen mittels Labormethoden stoßen immer wieder auf
die Problematik der korrosiven Unterwanderung der Beschichtung. Diese ist
für die Bestimmung der Langzeitbeständigkeit der Klebung hinderlich, da sie in
der Realität in dieser Form selten vorzufinden ist. Ein Ziel dieser Arbeit war es,
eine angepasste Klebprobengeometrie zu entwickeln, welche eine korrosive
Unterwanderung der organischen Bandbeschichtung in zeitraffenden Laboralterungstests
verhindert. Es konnte gezeigt werden, dass mittels der entwickelten
Probengeometrie eine zuverlässige Bestimmung des Alterungsverhaltens
an geklebten Verbunden mit organisch bandbeschichteten Stahlfeinblechen
möglich ist.
Hierauf aufbauend zielten die weiteren Untersuchungen mit zweikomponentigen
Polyurethan-Klebstoffen auf einen Vergleich der zeitraffenden Laboralterungsmethoden
mit nicht zeitraffenden Alterungsverfahren wie der Freibewitterung
und der Auslagerung am Feldfahrzeug. Die Auslagerung am
Feldfahrzeug erfolgte an Kühlfahrzeugen, welche im Speditionsverkehr auf
europäischen Routen verkehrten. Hauptaugenmerk bei allen Alterungsversuchen
war es neben der Bestimmung der Restfestigkeit auch die klimatischen
Expositionsbedingungen zu dokumentieren. Dies ermöglichte zum einen die
Interpretation der Zugscherergebnisse. Zum anderen konnte hieraus eine
Korrelation und letztendlich ein mathematisches Modell zur Festigkeitsvorhersage
von reversiblen Alterungseffekten abgeleitet werden. Mit diesem Modell
ist eine Vorhersage der Zugscherfestigkeit auf Basis eines bekannten Expositionsprofils
möglich.
Das Arbeits- und Forschungspapier erörtert den Zugang zur Hochschulbildung für Geflüchtete in Deutschland und wird im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) publiziert. Das Forschungs- und Entwicklungsprojekt hat zum Ziel, bedarfsorientierte (Weiter-)Bildungsangebote für neue Zielgruppen in der Region Westpfalz zu entwickeln. Geflüchtete mit Aufenthaltserlaubnis sowie Geflüchtete im Asylbewerbungsverfahren stellen eine solche neue Zielgruppe dar, da für sie eine Öffnung der Hochschulbildung bis Dato noch nicht rechtlich festgelegt ist (Stand: August 2015). Im Rahmen des Arbeits- und Forschungspapiers werden zunächst unterschiedliche Hürden im Zugang zu Hochschulbildung aufgezeigt, die in der Problematik des Aufenthaltsstatus, in den Zugangsvoraussetzungen, aber auch in der Studienfinanzierung sowie der Anerkennung von Kompetenzen begründet liegen. Zudem werden hochschulinterne Barrieren in Bezug auf die Programmlogiken der Studiengänge sowie den Beratungs- und Unterstützungsangeboten angesprochen. Daran anschließend werden mögliche Lösungsansätze für diese Hürden skizziert.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
In embedded systems, there is a trend of integrating several different functionalities on a common platform. This has been enabled by increasing processing power and the arise of integrated system-on-chips.
The composition of safety-critical and non-safety-critical applications results in mixed-criticality systems. Certification Authorities (CAs) demand the certification of safety-critical applications with strong confidence in the execution time bounds. As a consequence, CAs use conservative assumptions in the worst-case execution time (WCET) analysis which result in more pessimistic WCETs than the ones used by designers. The existence of certified safety-critical and non-safety-critical applications can be represented by dual-criticality systems, i.e., systems with two criticality levels.
In this thesis, we focus on the scheduling of mixed-criticality systems which are subject to certification. Scheduling policies cognizant of the mixed-criticality nature of the systems and the certification requirements are needed for efficient and effective scheduling. Furthermore, we aim at reducing the certification costs to allow faster modification and upgrading, and less error-prone certification. Besides certification aspects, requirements of different operational modes result in challenging problems for the scheduling process. Despite the mentioned problems, schedulers require a low runtime overhead for an efficient execution at runtime.
The presented solutions are centered around time-triggered systems which feature a low runtime overhead. We present a transformation to include event-triggered activities, represented by sporadic tasks, already into the offline scheduling process. Further, this transformation can also be applied on periodic tasks to shorten the length of schedule tables which reduces certification costs. These results can be used in our method to construct schedule tables which creates two schedule tables to fulfill the requirements of dual-criticality systems using mode changes at runtime. Finally, we present a scheduler based on the slot-shifting algorithm for mixed-criticality systems. In a first version, the method schedules dual-criticality jobs without the need for mode changes. An already certified schedule table can be used and at runtime, the scheduler reacts to the actual behavior of the jobs and thus, makes effective use of the available resources. Next, we extend this method to schedule mixed-criticality job sets with different operational modes. As a result, we can schedule jobs with varying parameters in different modes.
In this thesis, collision-induced dissociation (CID) studies serve to elucidate relative stabilities and to determine bond strengths within a given structure type of transition metal complexes. The infrared multi photon dissociation (IRMPD) spectroscopy combined with density functional theory (DFT) allow for structural analysis and provide insights into the coordination sphere of transition metal centers. The used combination of CID and IRMPD experiments is a powerful tool to obtain a detailed and comprehensive characterization and understanding of interactions between transition metals and organic ligands. The compounds’ spectrum comprises mono- or oligonuclear transition metal complexes containing iron, palladium, and ruthenium as well as lanthanide containing single molecule magnets (SMM). The presented investigations on the different transition metal complexes reveal manifold effects for each species leading to valuable results. A fundamental understanding of metal to ligand interactions is mandatory for the development of new and better organometallic complexes with catalytic, optical or magnetic properties.
Many tasks in image processing can be tackled by modeling an appropriate data fidelity term \(\Phi: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\) and then solve one of the regularized minimization problems \begin{align*}
&{}(P_{1,\tau}) \qquad \mathop{\rm argmin}_{x \in \mathbb R^n} \big\{ \Phi(x) \;{\rm s.t.}\; \Psi(x) \leq \tau \big\} \\ &{}(P_{2,\lambda}) \qquad \mathop{\rm argmin}_{x \in \mathbb R^n} \{ \Phi(x) + \lambda \Psi(x) \}, \; \lambda > 0 \end{align*} with some function \(\Psi: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\) and a good choice of the parameter(s). Two tasks arise naturally here: \begin{align*} {}& \text{1. Study the solver sets \({\rm SOL}(P_{1,\tau})\) and
\({\rm SOL}(P_{2,\lambda})\) of the minimization problems.} \\ {}& \text{2. Ensure that the minimization problems have solutions.} \end{align*} This thesis provides contributions to both tasks: Regarding the first task for a more special setting we prove that there are intervals \((0,c)\) and \((0,d)\) such that the setvalued curves \begin{align*}
\tau \mapsto {}& {\rm SOL}(P_{1,\tau}), \; \tau \in (0,c) \\ {} \lambda \mapsto {}& {\rm SOL}(P_{2,\lambda}), \; \lambda \in (0,d) \end{align*} are the same, besides an order reversing parameter change \(g: (0,c) \rightarrow (0,d)\). Moreover we show that the solver sets are changing all the time while \(\tau\) runs from \(0\) to \(c\) and \(\lambda\) runs from \(d\) to \(0\).
In the presence of lower semicontinuity the second task is done if we have additionally coercivity. We regard lower semicontinuity and coercivity from a topological point of view and develop a new technique for proving lower semicontinuity plus coercivity.
Dropping any lower semicontinuity assumption we also prove a theorem on the coercivity of a sum of functions.
We study an online flow shop scheduling problem where each job consists of several tasks that have to be completed in t different stages and the goal is to maximize the total weight of accepted jobs.
The set of tasks of a job contains one task for each stage and each stage has a dedicated set of identical parallel machines corresponding to it that can only process tasks of this stage. In order to gain the weight (profit) associated with a job j, each of its tasks has to be executed between a task-specific release date and deadline subject to the constraint that all tasks of job j from stages 1, …, i-1 have to be completed before the task of the ith stage can be started. In the online version, jobs arrive over time and all information about the tasks of a job becomes available at the release date of its first task. This model can be used to describe production processes in supply chains when customer orders arrive online.
We show that even the basic version of the offline problem with a single machine in each stage, unit weights, unit processing times, and fixed execution times for all tasks (i.e., deadline minus release date equals processing time) is APX-hard. Moreover, we show that the approximation ratio of any polynomial-time approximation algorithm for this basic version of the problem must depend on the number t of stages.
For the online version of the basic problem, we provide a (2t-1)-competitive deterministic online algorithm and a matching lower bound. Moreover, we provide several (sometimes tight) upper and lower bounds on the competitive ratio of online algorithms for several generalizations of the basic problem involving different weights, arbitrary release dates and deadlines, different processing times of tasks, and several identical machines per stage.
Computational Homogenization of Piezoelectric Materials using FE² Methods and Configurational Forces
(2015)
Piezoelectric materials are electro-mechanically coupled materials. In these materials it is possible to produce an electric field by applying a mechanical load. This phenomenon is known as the piezoelectric effect. These materials also exhibit a mechanical deformation in response to an external electric loading, which is known as the inverse piezoelectric effect. By using these smart properties of piezoelectric materials, applications are possible in sensors and actuators. Ferroelectric or piezoelectric materials show switching behavior of the polarization in the material under an external loading. Due to this property, these materials are used to produce random access memory (RAM) for the non-volatile storage of data in computing devices. It is essential to understand the material responses of piezoelectric materials properly in order to use them in the engineering applications in innovative manners. Due to the growing interest in determining the material responses of smart material (e.g., piezoelectric material), computational methods are becoming increasingly important.
Many engineering materials possess inhomogeneities on the micro level. These inhomogeneities in the materials cause some difficulties in the determination of the material responses computationally as well as experimentally. But on the other hand, sometimes these inhomogeneities help the materials to render some good physical properties, e.g., glass or carbon fiber reinforced composites are light weight, but show higher strength. Piezoelectric materials also exhibit intense inhomogeneities on the micro level. These inhomogeneities are originating from the presence of domains, domain walls, grains, grain boundaries, micro cracks, etc. in the material. In order to capture the effects of the underlying microstructures on the macro quantities, it is essential to homogenize material parameters and the physical responses. There are several approaches to perform the homogenization. A two-scale classical (first-order) homogenization of electro-mechanically coupled materials using a FE²-approach is discussed in this work. The main objective of this work is to investigate the influences of the underlying micro structures on the macro Eshelby stress tensor and on the macro configurational forces. The configurational forces are determined in certain defect situations. These defect situations include the crack tip of a sharp crack in the macro specimen.
A literature review shows that the macro strain tensor is used to determine the micro boundary condition for the FE²-based homogenization in a small strain setting. This approach is capable to determine the consistent homogenized physical quantities (e.g., stress, strain) and the homogenized material quantities (e.g., stiffness tensor). But the application of these type of micro boundaries for the homogenization does not generate physically consistent macro Eshelby stress tensor or the macro configurational forces. Even in the absence of the micro volume configurational forces, this approach of the homogenization of piezoelectric materials produces unphysical volume configurational forces on the macro level. After a thorough investigation of the boundary conditions on the representative volume elements (RVEs), it is found that a displacement gradient driven micro boundary conditions remedy this issue. The use of the displacement gradient driven micro boundary conditions also satisfies the Hill-Mandel condition. The macro Eshelby stress tensor of a pure mechanical problem in a small deformation setting can be determined in two possible ways: by using the homogenized mechanical quantities (displacement gradient and stress tensor), or by homogenizing the Eshelby stress tensor on the micro level by volume averaging. The first approach does not satisfy the Hill-Mandel condition incorporating the Eshelby stress tensor in the energy term, on the other hand, the Hill-Mandel condition is satisfied in the second approach. In the case of homogenized Eshelby stress tensor determined from the homogenized physical quantities, the Hill-Mandel condition gives an additional energy term. A body in a small deformation setting is deformed according to the displacement gradient. If the homogenization is done using strain driven micro boundary conditions, the micro domain is deformed according to the macro strain, but the tiny vicinity around the corresponding Gauß point is deformed according to the macro displacement gradient. This implies that some restrictions are imposed at every Gauß point on the macro level. This situation helps the macro system to produce nonphysical volume configurational forces.
A FE²-based computational homogenization technique is also considered for the homogenization of piezoelectric materials. In this technique a representative volume element, which comprises of the micro structural features in the material, is assigned to every Gauß point of the macro domain. The macro displacement gradient and the macro electric field, or the macro stress tensor and the macro electric displacement are passed to the RVEs at every macro Gauß point. After determining boundary conditions on the RVEs, the homogenization process is performed. The homogenized physical quantities and the homogenized material parameters are passed back to macro Gauß points. In this work numerical investigations are carried out for two distinct situations of the microstructures of the piezoelectric materials regarding the evolution on the micro level: a) homogenization by using stationary microstructures, and b) homogenization by using evolving microstructures.
For the first case, the domain walls remain at fixed positions through out the simulations for the homogenization of piezoelectric materials. For a considerably large external loading, the real situation is different. But to understand the effects of the underlying microstructures on the macro configurational forces, to some extent it is sufficient to do the homogenization with fixed or stationary microstructures. The homogenization process is carried out for different microstructures and for different loading conditions. If the mechanical load is applied in the direction of the polarization, a smaller crack tip configurational force is observed in comparison to the configurational force determined for a mechanical loading perpendicular to the polarization. If the polarizations in the microstructures are parallel or perpendicular to the applied electric field and the applied displacement, configurational forces parallel to the crack ligament of the macro crack are observed only. In the case of inclined polarizations in the microstructures, configurational forces inclined to the crack ligament are obtained. The simulation results also reveal that an application of an external electric field to the material reduces the value of the nodal configurational forces at the crack tip.
In the second case, the interfaces of the micro structures are allowed to move from their initial positions at every step of the applied incremental external loading. Thus, at every step of the application of the external loading, the microstructures are changed when the external loading is larger than the coercive field. The movement of the interfaces is realized through the nodal configurational forces on the micro level. At every step of the application of the external loading, the nodal configurational forces per unit length on the domain walls are determined in the post-processing of the FE-simulation on the micro domain. With the help of the domain wall kinetics, the new positions of the domain walls are determined. Numerical results show that the crack tip region is the most affected area in the macro domain. For that reason a very different distribution of the macro electric displacement is observed comparing the same produced by using fixed microstructures. Due to the movement of the domain walls, the energy is dissipated in the system. As a result, a smaller configurational force appears at the crack tip on the macro level in the case of the homogenization by using evolving microstructures. By using the homogenization technique involving the evolution of the microstructures, it is possible to produce the electric displacement vs. electric field hysteresis loop on the macro level. The shape of the hysteresis loop depends on the value of the rate of application of the external electric loading. A faster deployment of the external electric field widens the hysteresis loop.
Congress Report 2015.01-04
(2015)
Congress Report 2015.05-08
(2015)
Congress Report 2015.09-10
(2015)
Motivated by the results of infinite dimensional Gaussian analysis and especially white noise analysis, we construct a Mittag-Leffler analysis. This is an infinite dimensional analysis with respect to non-Gaussian measures of Mittag-Leffler type which we call Mittag-Leffler measures. Our results indicate that the Wick ordered polynomials, which play a key role in Gaussian analysis, cannot be generalized to this non-Gaussian case. We provide evidence that a system of biorthogonal polynomials, called generalized Appell system, is applicable to the Mittag-Leffler measures, instead of using Wick ordered polynomials. With the help of an Appell system, we introduce a test function and a distribution space. Furthermore we give characterizations of the distribution space and we characterize the weak integrable functions and the convergent sequences within the distribution space. We construct Donsker's delta in a non-Gaussian setting as an application.
In the second part, we develop a grey noise analysis. This is a special application of the Mittag-Leffler analysis. In this framework, we introduce generalized grey Brownian motion and prove differentiability in a distributional sense and the existence of generalized grey Brownian motion local times. Grey noise analysis is then applied to the time-fractional heat equation and the time-fractional Schrödinger equation. We prove a generalization of the fractional Feynman-Kac formula for distributional initial values. In this way, we find a Green's function for the time-fractional heat equation which coincides with the solutions given in the literature.
The heterogeneity of today's access possibilities to wireless networks imposes challenges for efficient mobility support and resource management across different Radio Access Technologies (RATs). The current situation is characterized by the coexistence of various wireless communication systems, such as GSM, HSPA, LTE, WiMAX, and WLAN. These RATs greatly differ with respect to coverage, spectrum, data rates, Quality of Service (QoS), and mobility support.
In real systems, mobility-related events, such as Handover (HO) procedures, directly affect resource efficiency and End-To-End (E2E) performance, in particular with respect to signaling efforts and users' QoS. In order to lay a basis for realistic multi-radio network evaluation, a novel evaluation methodology is introduced in this thesis.
A central hypothesis of this thesis is that the consideration and exploitation of additional information characterizing user, network, and environment context, is beneficial for enhancing Heterogeneous Access Management (HAM) and Self-Optimizing Networks (SONs). Further, Mobile Network Operator (MNO) revenues are maximized by tightly integrating bandwidth adaptation and admission control mechanisms as well as simultaneously accounting for user profiles and service characteristics. In addition, mobility robustness is optimized by enabling network nodes to tune HO parameters according to locally observed conditions.
For establishing all these facets of context awareness, various schemes and algorithms are developed and evaluated in this thesis. System-level simulation results demonstrate the potential of context information exploitation for enhancing resource utilization, mobility support, self-tuning network operations, and users' E2E performance.
In essence, the conducted research activities and presented results motivate and substantiate the consideration of context awareness as key enabler for cognitive and autonomous network management. Further, the performed investigations and aspects evaluated in the scope of this thesis are highly relevant for future 5G wireless systems and current discussions in the 5G infrastructure Public Private Partnership (PPP).
Context-Enabled Optimization of Energy-Autarkic Networks for Carrier-Grade Wireless Backhauling
(2015)
This work establishes the novel category of coordinated Wireless Backhaul Networks (WBNs) for energy-autarkic point-to-point radio backhauling. The networking concept is based on three major building blocks: cost-efficient radio transceiver hardware, a self-organizing network operations framework, and power supply from renewable energy sources. The aim of this novel backhauling approach is to combine carrier-grade network performance with reduced maintenance effort as well as independent and self-sufficient power supply. In order to facilitate the success prospects of this concept, the thesis comprises the following major contributions: Formal, multi-domain system model and evaluation methodology
First, adapted from the theory of cyber-physical systems, the author devises a multi-domain evaluation methodology and a system-level simulation framework for energy-autarkic coordinated WBNs, including a novel balanced scorecard concept. Second, the thesis specifically addresses the topic of Topology Control (TC) in point-to-point radio networks and how it can be exploited for network management purposes. Given a set of network nodes equipped with multiple radio transceivers and known locations, TC continuously optimizes the setup and configuration of radio links between network nodes, thus supporting initial network deployment, network operation, as well as topology re-configuration. In particular, the author shows that TC in WBNs belongs to the class of NP-hard quadratic assignment problems and that it has significant impact in operational practice, e.g., on routing efficiency, network redundancy levels, service reliability, and energy consumption. Two novel algorithms focusing on maximizing edge connectivity of network graphs are developed.
Finally, this work carries out an analytical benchmarking and a numerical performance analysis of the introduced concepts and algorithms. The author analytically derives minimum performance levels of the the developed TC algorithms. For the analyzed scenarios of remote Alpine communities and rural Tanzania, the evaluation shows that the algorithms improve energy efficiency and more evenly balance energy consumption across backhaul nodes, thus significantly increasing the number of available backhaul nodes compared to state-of-the-art TC algorithms.
Self-adaptation allows software systems to autonomously adjust their behavior during run-time by handling all possible
operating states that violate the requirements of the managed system. This requires an adaptation engine that receives adaptation
requests during the monitoring process of the managed system and responds with an automated and appropriate adaptation
response. During the last decade, several engineering methods have been introduced to enable self-adaptation in software systems.
However, these methods lack addressing (1) run-time uncertainty that hinders the adaptation process and (2) the performance
impacts resulted from the complexity and the large number of the adaptation space. This paper presents CRATER, a framework
that builds an external adaptation engine for self-adaptive software systems. The adaptation engine, which is built on Case-based
Reasoning, handles the aforementioned challenges together. This paper is braced with an experiment illustrating the benefits of
this framework. The experimental results shows the potential of CRATER in terms handling run-time uncertainty and adaptation
remembrance that enhances the performance for large number of adaptation space.
Als Ergänzung zum elektronischen Bibliothekssystem ALEPH wird an der UB Kaiserslautern für die Verwaltung der E-Medien das Electronic Resource Management System SemperTool eingesetzt.
Die Video-Präsentation geht auf die Vorteile dieses ERM-Systems sowie auf dessen
Anwendung an der UB Kaiserslautern ein und beschreibt kurz die genutzten
Funktionalitäten.
Since their invention in the 1980s, behaviour-based systems have become very popular among roboticists. Their component-based nature facilitates the distributed implementation of systems, fosters reuse, and allows for early testing and integration. However, the distributed approach necessitates the interconnection of many components into a network in order to realise complex functionalities. This network is crucial to the correct operation of the robotic system. There are few sound design techniques for behaviour networks, especially if the systems shall realise task sequences. Therefore, the quality of the resulting behaviour-based systems is often highly dependant on the experience of their developers.
This dissertation presents a novel integrated concept for the design and verification of behaviour-based systems that realise task sequences. Part of this concept is a technique for encoding task sequences in behaviour networks. Furthermore, the concept provides guidance to developers of such networks. Based on a thorough analysis of methods for defining sequences, Moore machines have been selected for representing complex tasks. With the help of the structured workflow proposed in this work and the developed accompanying tool support, Moore machines defining task sequences can be transferred automatically into corresponding behaviour networks, resulting in less work for the developer and a lower risk of failure.
Due to the common integration of automatically and manually created behaviour-based components, a formal analysis of the final behaviour network is reasonable. For this purpose, the dissertation at hand presents two verification techniques and justifies the selection of model checking. A novel concept for applying model checking to behaviour-based systems is proposed according to which behaviour networks are modelled as synchronised automata. Based on such automata, properties of behaviour networks that realise task sequences can be verified or falsified. Extensive graphical tool support has been developed in order to assist the developer during the verification process.
Several examples are provided in order to illustrate the soundness of the presented design and verification techniques. The applicability of the integrated overall concept to real-world tasks is demonstrated using the control system of an autonomous bucket excavator. It can be shown that the proposed design concept is suitable for developing complex sophisticated behaviour networks and that the presented verification technique allows for verifying real-world behaviour-based systems.
Im Rahmen dieser Arbeit wurden DFT Rechnungen zum mechanistischen Verständnis und zur rationalen Entwicklung homogenkatalytischer Reaktionen eingesetzt.
Im ersten Projekt konnten mit Hilfe von DFT Rechnungen effizientere Katalysatorsysteme für Protodecarboxylierungsreaktionen und decarboxylierende Kreuzkupplungen durch rationale Katalysatorentwicklung identifiziert werden. Hierzu wurde die Decarboxylierung von 2- und 4 Fluorbenzoesäure mit DFT Rechnungen untersucht. Zunächst sagten die Rechnungen keine deutlich erhöhten Reaktionsgeschwindigkeiten für Katalysatorsysteme bestehend aus Kupfer(I) und verschiedenen 4,7 disubstituierten 1,10 Phenanthrolinliganden voraus. Weitere Berechnungen prognostizierten hingegen stark erhöhte Effizienz für Silber-basierte Katalysatoren in der Decarboxylierung von ortho-substituierten Benzoesäuren. Tatsächlich konnte daraufhin für diese Carbonsäuren ein Katalysatorsystem bestehend aus AgOAc und K2CO3 in NMP entwickelt werden, welches die Protodecarboxylierung bereits bei 120 °C ermöglicht, 50 °C niedriger als die des Kupfer-basierten Systems.
Die Erkenntnisse ließen sich in der Arbeitsgruppe Gooßen weiterhin auf die decarboxylierende Kreuzkupplung übertragen. Es gelang die Entwicklung eines Ag/Pd-basierten Katalysatorsystems für die Biarylsynthese ausgehend von Benzoesäuren und Aryltriflaten bei Reaktionstemperaturen von nur 130 °C.
Im Folgenden war es möglich, durch den Einsatz von DFT Rechnungen den Reaktionsmechanismus der decarboxylierenden Kreuzkupplung aufzuklären und Voraussagen für ein effizienteres Cu/Pd-basiertes Katalysatorsystem zu treffen. Nachdem durch experimentelle Beobachtungen klar wurde, dass der Decarboxylierungsschritt nicht notwendigerweise geschwindigkeitsbestimmend sein muss, wurde der komplette Katalysezyklus der decarboxylierenden Kreuzkupplung eingehend mit Hilfe von DFT Rechnungen untersucht. In Abhängigkeit des Benzoats wurde die Decarboxylierung oder die Transmetallierung als geschwindigkeitsbestimmend identifiziert. Da in der Transmetallierung zunächst die Bildung eines bimetallischen Cu−Pd-Addukts erforderlich ist, wurde gefolgert, dass die Verwendung von verbrückenden, bidentaten Liganden die Reaktion begünstigen sollte. In der Tat konnte durch Einsatz eines P,N-Liganden eine Cu/Pd-katalysierte decarboxylierende Kreuzkupplung von aromatischen Carboxylaten mit Aryltriflaten bei nur 100 °C entwickelt werden, was einer Absenkung der Reaktionstemperatur um 50 °C entspricht.
Zukünftige Weiterentwicklungen der Cu/Pd-katalysierten decarboxylierenden Kreuzkupplung zielen auf die Überwindung der Beschränkung auf ortho-substituierte Benzoate und den Ersatz der teuren Aryltriflate durch günstigere Arylhalogenide. Arbeiten hierzu sind bereits im Gange.
Im zweiten Projekt wurde der Reaktionsmechanismus der Ruthenium-katalysierten Hydroamidierung terminaler Alkine eingehend untersucht. Nachdem durch Isotopen-markierungsexperimente, Bestimmungen von kinetischen Isotopeneffekten mittels in situ IR-Spektroskopie und verschiedene in situ NMR- sowie ESI-MS-Experimente drei von fünf potentiellen Reaktionsmechanismen ausgeschlossen werden konnten, erlaubten die experimentellen Ergebnisse die Eingrenzung auf einen der verbliebenen Katalysezyklen.
Mit Hilfe von DFT Rechnungen wurde daraufhin bestätigt, dass es sich bei den postulierten Intermediaten um stabile Minima handelt. Das Auftreten einer Ru–Hydrid–Vinylidenspezies lieferte die Erklärung, warum die Hydroamidierung auf terminale Alkine beschränkt ist. Der nukleophile Angriff des Amidliganden an das Vinylidenkohlenstoffatom erklärt die anti-Markovnikov-Selektivität der Reaktion. Nachdem Gooßen und Koley et al. in einer weiteren Untersuchung den Einfluss der Liganden auf die Stereoselektivität der Hydroamidierung aufklären konnten, ist nun der Grundstein für die zukünftige rationale Entwicklung effizienterer Hydroamidierungskatalysatoren gelegt.
Im dritten Projekt konnten Erkenntnisse zum Reaktionsmechanismus der Palladium-katalysierten Isomerisierung von Allylestern zu Enolestern und Hinweise auf die katalytisch aktive Spezies der Reaktion erlangt werden. Zunächst gelang mit dem homodinuklearen Palladiumkatalysator [Pd(μ Br)(PtBu3)]2 die Entwicklung einer effizienten Synthese zur Darstellung einer großen Bandbreite diverser Enolester. In 1 Position verzweigte Enolester dienten anschließend als Substrate für enantioselektive Hydrierungen zur Synthese enantiomerenreiner chiraler Ester.
Aufgrund experimenteller Beobachtungen, die nahelegten, dass ein Palladiumhydrid-Komplex die katalytisch aktive Spezies darstellt, wurde die Bildung verschiedener Palladiumhydrid-Spezies ausgehend vom homodinuklearen Palladiumkatalysator [Pd(μ Br)(PtBu3)]2 mit Hilfe von DFT Rechnungen untersucht. Hierbei konnte der Palladiumhydrid-Komplex [Pd(Br)(H)(PtBu3)] als die vermutlich katalytisch aktive Spezies identifiziert werden. Aufgrund seiner hohen Reaktivität konnten in in situ NMR-Experimenten lediglich ein oxidiertes Dimer und ein Abfangprodukt mit überschüssigem Tri-tert-butylphosphin nachgewiesen werden.
In zukünftigen Arbeiten soll durch kinetische Untersuchungen die Reaktionsordnung der Isomerisierung ermittelt werden. Dies soll dazu beitragen, Aufschluss darüber zu gewinnen, ob tatsächlich ein monometallischer oder ein bimetallischer Komplex die katalytisch aktive Spezies darstellt.
Industrial design has a long history. With the introduction of Computer-Aided Engineering, industrial design was revolutionised. Due to the newly found support, the design workflow changed, and with the introduction of virtual prototyping, new challenges arose. These new engineering problems have triggered
new basic research questions in computer science.
In this dissertation, I present a range of methods which support different components of the virtual design cycle, from modifications of a virtual prototype and optimisation of said prototype, to analysis of simulation results.
Starting with a virtual prototype, I support engineers by supplying intuitive discrete normal vectors which can be used to interactively deform the control mesh of a surface. I provide and compare a variety of different normal definitions which have different strengths and weaknesses. The best choice depends on
the specific model and on an engineer’s priorities. Some methods have higher accuracy, whereas other methods are faster.
I further provide an automatic means of surface optimisation in the form of minimising total curvature. This minimisation reduces surface bending, and therefore, it reduces material expenses. The best results can be obtained for analytic surfaces, however, the technique can also be applied to real-world examples.
Moreover, I provide engineers with a curvature-aware technique to optimise mesh quality. This helps to avoid degenerated triangles which can cause numerical issues. It can be applied to any component of the virtual design cycle: as a direct modification of the virtual prototype (depending on the surface defini-
tion), during optimisation, or dynamically during simulation.
Finally, I have developed two different particle relaxation techniques that both support two components of the virtual design cycle. The first component for which they can be used is discretisation. To run computer simulations on a model, it has to be discretised. Particle relaxation uses an initial sampling,
and it improves it with the goal of uniform distances or curvature-awareness. The second component for which they can be used is the analysis of simulation results. Flow visualisation is a powerful tool in supporting the analysis of flow fields through the insertion of particles into the flow, and through tracing their movements. The particle seeding is usually uniform, e.g. for an integral surface, one could seed on a square. Integral surfaces undergo strong deformations, and they can have highly varying curvature. Particle relaxation redistributes the seeds on the surface depending on surface properties like local deformation or curvature.
Scheduling-Location (ScheLoc) Problems integrate the separate fields of
scheduling and location problems. In ScheLoc Problems the objective is to
find locations for the machines and a schedule for each machine subject to
some production and location constraints such that some scheduling object-
ive is minimized. In this paper we consider the Discrete Parallel Machine
Makespan (DPMM) ScheLoc Problem where the set of possible machine loc-
ations is discrete and a set of n jobs has to be taken to the machines and
processed such that the makespan is minimized. Since the separate location
and scheduling problem are both NP-hard, so is the corresponding ScheLoc
Problem. Therefore, we propose an integer programming formulation and
different versions of clustering heuristics, where jobs are split into clusters
and each cluster is assigned to one of the possible machine locations. Since
the IP formulation can only be solved for small scale instances we propose
several lower bounds to measure the quality of the clustering heuristics. Ex-
tensive computational tests show the efficiency of the heuristics.
In a networked system, the communication system is indispensable but often the weakest link w.r.t. performance and reliability. This, particularly, holds for wireless communication systems, where the error- and interference-prone medium and the character of network topologies implicate special challenges. However, there are many scenarios of wireless networks, in which a certain quality-of-service has to be provided despite these conditions. In this regard, distributed real-time systems, whose realization by wireless multi-hop networks becomes increasingly popular, are a particular challenge. For such systems, it is of crucial importance that communication protocols are deterministic and come with the required amount of efficiency and predictability, while additionally considering scarce hardware resources that are a major limiting factor of wireless sensor nodes. This, in turn, does not only place demands on the behavior of a protocol but also on its implementation, which has to comply with timing and resource constraints.
The first part of this thesis presents a deterministic protocol for wireless multi-hop networks with time-critical behavior. The protocol is referred to as Arbitrating and Cooperative Transfer Protocol (ACTP), and is an instance of a binary countdown protocol. It enables the reliable transfer of bit sequences of adjustable length and deterministically resolves contest among nodes based on a flexible priority assignment, with constant delays, and within configurable arbitration radii. The protocol's key requirement is the collision-resistant encoding of bits, which is achieved by the incorporation of black bursts. Besides revisiting black bursts and proposing measures to optimize their detection, robustness, and implementation on wireless sensor nodes, the first part of this thesis presents the mode of operation and time behavior of ACTP. In addition, possible applications of ACTP are illustrated, presenting solutions to well-known problems of distributed systems like leader election and data dissemination. Furthermore, results of experimental evaluations with customary wireless transceivers are outlined to provide evidence of the protocol's implementability and benefits.
In the second part of this thesis, the focus is shifted from concrete deterministic protocols to their model-driven development with the Specification and Description Language (SDL). Though SDL is well-established in the domain of telecommunication and distributed systems, the predictability of its implementations is often insufficient as previous projects have shown. To increase this predictability and to improve SDL's applicability to time-critical systems, real-time tasks, an approved concept in the design of real-time systems, are transferred to SDL and extended to cover node-spanning system tasks. In this regard, a priority-based execution and suspension model is introduced in SDL, which enables task-specific priority assignments in the SDL specification that are orthogonal to the static structure of SDL systems and control transition execution orders on design as well as on implementation level. Both the formal incorporation of real-time tasks into SDL and their implementation in a novel scheduling strategy are discussed in this context. By means of evaluations on wireless sensor nodes, evidence is provided that these extensions reduce worst-case execution times substantially, and improve the predictability of SDL implementations and the language's applicability to real-time systems.
This thesis deals with the development of a tractor front loader scale which measures payload continuously, independent of the center of gravity of the payload, and unaffected of the position and movements of the loader. To achieve this, a mathematic model of a common front loader is simplified which makes it possible to identify its parameters by a repeatable and automatic procedure. By measuring accelerations as well as cylinder forces, the payload is determined continuously during the working process. Finally, a prototype was build and the scale was tested on a tractor.
Seit Aufkommen der Halbleiter-Technologie existiert ein Trend zur Miniaturisierung elektronischer Systeme. Dies, steigende Anforderungen sowie die zunehmende Integration verschiedener Sensoren zur Interaktion mit der Umgebung lassen solche eingebetteten Systeme, wie sie zum Beispiel in mobilen Geräten oder Fahrzeugen vorkommen, zunehmend komplexer werden. Die Folgen sind ein Anstieg der Entwicklungszeit und ein immer höherer Bauteileaufwand, bei gleichzeitig geforderter Reduktion von Größe und Energiebedarf. Insbesondere der Entwurf von Multi-Sensor-Systemen verlangt für jeden verwendeten Sensortyp jeweils gesondert nach einer spezifischen Sensorelektronik und steht damit den Forderungen nach Miniaturisierung und geringem Leistungsverbrauch entgegen.
In dieser Forschungsarbeit wird das oben beschriebene Problem aufgegriffen und die Entwicklung eines universellen Sensor-Interfaces für eben solche Multi-Sensor-Systeme erörtert. Als ein einzelner integrierter Baustein kann dieses Interface bis zu neun verschiedenen Sensoren unterschiedlichen Typs als Sensorelektronik dienen. Die aufnehmbaren Messgrößen umfassen: Spannung, Strom, Widerstand, Kapazität, Induktivität und Impedanz.
Durch dynamische Rekonfigurierbarkeit und applikationsspezifische Programmierung wird eine variable Konfiguration entsprechend der jeweiligen Anforderungen ermöglicht. Sowohl der Entwicklungs- als auch der Bauteileaufwand können dank dieser Schnittstelle, die zudem einen Energiesparmodus beinhaltet, erheblich reduziert werden.
Die flexible Struktur ermöglicht den Aufbau intelligenter Systeme mit sogenannten Self-x Charakteristiken. Diese betreffen Fähigkeiten zur eigenständigen Systemüberwachung, Kalibrierung oder Reparatur und tragen damit zu einer erhöhten Robustheit und Fehlertoleranz bei. Als weitere Innovation enthält das universelle Interface neuartige Schaltungs- und Sensorkonzepte, beispielsweise zur Messung der Chip-Temperatur oder Kompensation thermischer Einflüsse auf die Sensorik.
Zwei unterschiedliche Anwendungen demonstrieren die Funktionalität der hergestellten Prototypen. Die realisierten Applikationen haben die Lebensmittelanalyse sowie die dreidimensionale magnetische Lokalisierung zum Gegenstand.
Vorgestellt wird ein Verfahren zur Bestimmung der Erdschlussentfernung in hochohmig geerdeten
Netzen. Nach Abklingen der transienten Vorgänge im Fehlerfall stellt sich ein stationärer
Zustand ein, in dem das Netz zunächst weiter betrieben werden kann.
Ausgehend von diesem stationären Fehlerfall wird auf der Basis eines Π-Glieds das Leitungsmodell
des einseitig gespeisten Stichabgangs mit einer Last in der Vier-Leiter-Darstellung
entwickelt. Die Schaltungsanalyse erfolgt mit Hilfe komplexer Rechnung und der Kirchhoffschen
Gesetze. Grundlage der Betrachtungen bildet das Netz mit isoliertem Sternpunkt.
Das entstehende Gleichungssystem ist in seiner Grundform nichtlinear, lässt sich jedoch auf eine
elementar lösbare kubische Gleichung im gesuchten Fehlerentfernungsparameter zurückführen.
Eine weitere Lösungsmöglichkeit bietet das Newton-Raphson-Verfahren.
Durch Verlegen der lastseitigen Leiter-Erd-Kapazitäten an den Abgangsanfang kann das vollständige,
nichtlineare System in ein lineares System überführt werden. Hierbei sind die beiden
Ausprägungen „direkte Lösung mit unsymmetrischer Last“ oder „Ausgleichsrechnung mit
symmetrischer Last“ möglich.
Eine MATLAB®-Implementierung dieser vier Rechenalgorithmen bildet die Basis der weiteren
Analysen.
Alle messtechnischen Untersuchungen erfolgten am Netz-Kraftwerksmodell der TU Kaiserslautern.
Hier wurden verschiedene Fehlerszenarien hinsichtlich Fehlerentfernung, -widerstand und
Größe des gesunden Restnetzes hergestellt, in 480 Einzelmessungen erfasst und mit den Algorithmen
ausgewertet. Dabei wurden auch Messungen an fehlerfreien Abgängen erhoben, um das
Detektionsvermögen der Algorithmen zu testen.
Neben Grundschwingungsbetrachtungen ist die Auswertung aller Datensätze mit der 5. und der
7. Harmonischen ein zentrales Thema. Im Fokus steht die Verwendbarkeit dieser Oberschwingungen
zur Erdschlussentfernungsmessung bzw. -detektion mit den o.g. Algorithmen.
Besondere Bedeutung kommt der Fragestellung zu, inwieweit die für ein Netz mit isoliertem
Sternpunkt konzipierten Algorithmen unter Benutzung der höheren Harmonischen zur Erdschlussentfernungsmessung
in einem gelöschten Netz geeignet sind.
Schließlich wird das Verfahren auf Abgänge mit inhomogenem Leitermaterial erweitert, da auch
diese Konstellation von praktischer Bedeutung ist.
Die Klebetechnologie spielt heutzutage eine sehr bedeutende Rolle bei der Realisierung von Werkstoffverbunden unterschiedlichster Art. Hierbei sind die mechanischen und strukturellen Eigenschaften der Klebverbunde unter Einsatzbedingungen bemerkenswert. Diese Merkmale werden erheblich durch die Art der Klebstoffbestandteile und ihre Wechselwirkung beeinflusst.
In dieser Arbeit kommen unterschiedliche Test-Verfahren zum Einsatz, um die mechanischen und strukturellen Eigenschaften von gefüllten Klebstoffen zu untersuchen. Als Basiswerkstoff werden Klebstoffe auf Epoxid- und Polyurethan-System verwendet. Zur Untersuchung des Einflusses der inneren Oberflächen von Füllstoffen auf die oben genannten Eigenschaften finden zwei Gruppen von Füllstoffen auf Calciumcarbonat- und Kieselerde-Basis Verwendung. Die Bewertung der Bruchflächen erfolgt durch die Digital-Mikroskopische-Analyse und Raster-Elektronen-Mikroskopie (REM).
Die aus den Untersuchungen gewonnenen Erkenntnisse zeigen, dass die mechanischen und strukturellen Kennwerte des Polymer-Metall-Verbundes, insbesondere des Elastizitätsmoduls, der Zugfestigkeit, des mittleren und maximalen Schälwiderstands sowie der Bruchzähigkeit durch die Wechselwirkung zwischen den inneren Oberflächen der verwendeten Füllstoffe und der Polymermatrix erheblich beeinflusst werden können.
Mit der Entdeckung von Acrylamid in Lebensmitteln und seiner krebserzeugenden Wirkung wurde der Fokus auf prozessgebildete Kontaminierungen gelenkt. Weitere hitzebedingte, kanzerogene Substanzen wurden in einer Vielzahl von Nahrungsmitteln entdeckt, eine davon ist Furan. Studien an Ratten und Mäusen zeigten eindeutig seine Karzinogenität und auch weitere toxikologische Untersuchungen stützen diesen Befund. Dennoch konnte der Weg der durch Furan hervorgerufenen Krebsentstehung noch nicht aufgeklärt werden. So steht nach wie vor zur Debatte, ob es sich um eine direkt genotoxische, oder eine indirekt resultierende Bildungsform handelt.
Als Teil des europäischen Furan-RA-Projektes sollte in dieser Arbeit ein Beitrag zur Beantwortung dieser Frage geleistet werden. Speziell im Niedrigdosisbereich unter 2 mg/kg KG wurde nach Gewebsveränderungen und zytotoxischen Effekten gesucht.
Für histologische Untersuchungen der Leber wurden Ratten in drei Dosisgruppen mit 0,1 sowie 0,5 und 2,0 mg/kg KG jeweils 28 Tage lang behandelt. Neben der Kontrollgruppe zum Vergleich wurde eine weitere Gruppe mit anschließenden zwei Wochen Erholungszeit betrachtet. Die Parafinschnitte der fünf Leberlappen wurden mit Hämatoxylin-Eosin und einem PCNA-Antikörper angefärbt.
Die randomisierte Begutachtung unter dem Mikroskop ließ keine dosisbezogenen Gewebsveränderungen erkennen, und es konnten auch keine Hinweise auf krebspromovierende Proliferationen gefunden werden.
Um einen Einblick auf zellulärer Ebene zu erlangen, wurden Hepatomzellen und Primäre Hepatozyten der Ratte mit verschiedenen Furankonzentrationen inkubiert. Wegen des hohen Dampfdruckes von Furan geschah dies im dafür entwickelten, geschlossenen Gefäß, in dem sich ein Gleichgewicht zwischen dem Medium und dem ausreichend dimensionierten Gasraum einstellen konnte. Die Kontrolle der wirkenden Konzentrationen erfolgte mit Hilfe einer geeigneten Headspace-Gaschromatographie. An Primären Hepatozyten zeigte sich eine konzentrationsabhängige Zytotoxizität von Furan mit einem ermittelten EC50 von 0,0188 mM.
Auch die weiteren Metabolite wurden auf ihre Wirkung an Zellen getestet. Der wichtigste Phase-I-Metabolit wies dabei einen EC50-Wert von 1,64 mM an Primären Hepatozyten und 0,55 mM an H4IIE auf. Die sehr hohe Reaktivität dieses cis-1,2-Butendials deutet darauf hin, dass bereits ein Großteil im Medium abreagiert, bevor es an den Zellen wirken kann. Daher resultiert die im Vergleich zum Furan enorm hohe Wirkkonzentration.
Bei einer weiteren Metabolisierung mit Glutathion stieg die gemessene Zytotoxizität wiederum an. Das Produktgemisch dieser beiden Reaktanden zeigte bereits ab einer Gesamtkonzentration von 0,025 mM signifikante Effekte. Die physiologisch gewollte Entgiftung findet also nicht statt. Wie dieser Effekt zustande kommt konnte leider nicht genau geklärt werden. Mit steigendem Butendial-Anteil stieg die schädigende Wirkung jedoch deutlich an.
Dies zeigt unter anderem, dass eine Verarmung an Glutathion die Wirkung von Furan steigert und die Detoxifizierung mit diesem Schritt noch nicht beendet ist. Aus den Ergebnissen geht hervor, dass Furan an sich und zumindest einige seiner Metabolite in der Leber toxisch wirken. Das gilt auch für Konzentrationen in einem Bereich, der keinen ausreichenden Sicherheitsabstand zur möglichen täglichen Aufnahme des Menschen lässt.
Auch wenn in den histologischen Untersuchungen noch keine Hinweise auf Tumore zu erkennen waren, so deuten die Daten in vitro doch deutlich auf ein hohes Potential vor allem des Furanmetaboliten Butendial hin. In wie weit dieser zur in Ratten beobachteten Krebsentstehung beisteuert, sollte Thema weiterer Untersuchungen sein.
In seiner Entwicklungsgeschichte hat der stationäre Einzelhandel eine enorme Wandlungsfähigkeit bewiesen. Dieser hat er es zu verdanken, dass er bis heute eine zentrale Funktion der Innenstadt darstellt. Allerdings wird die Stabilität der innerstädtischen Einzelhandelslagen seit einigen Jahren zunehmend auf die Probe gestellt. Mit dem Online-Handel als sich etablierenden neuen Absatzkanal mit wachsenden Umsatz- und Nutzerzahlen, bekommen die innerstädtischen Einzelhandelslagen einerseits deutliche Konkurrenz. So eignet sich das innerstädtische Sortiment besonders gut für den Online-Vertrieb. Umsatzeinbußen in den lokalen Geschäften, Geschäftsaufgaben, Ladenverkleinerungen, Leerstände sowie eine Abwertung der innerstädtischen Einzelhandelslagen sind die Folgen. Andererseits stellen der Online-Handel sowie einkaufsunterstützende digitale Medien eine Chance dar, die innerstädtischen Einzelhandelslagen für das digitale Zeitalter zu qualifizieren und hiermit zukunftsfähig zu halten. Zentrale Bedeutung kommt in diesem Zusammenhang den Konsumenten zu. Die innerstädtischen Einzelhandelslagen müssen an die, u.a. aus den Einfluss digitaler Medien im Allgemeinen und dem Online-Handel im Besonderen, resultierenden veränderten Bedürfnisse und Anforderungen der Konsumenten angepasst werden, wenn sie keinen Attraktivitätsverlust erleiden sollen. Eine schwierige Aufgabe, zeichnet sich doch das Kauf- und Konsumverhalten der ‚Neuen Konsumenten‘ durch Hybridität bzw. Multioptionalität aus. Diese macht ständige Neuausrichtungen und Anpassungen der Einzelhandelsbetriebe und Unternehmen erforderlich, welche durch die gestiegene Informiertheit, die höhere Anspruchshaltung, die Sprunghaftigkeit und Spontanität der Konsumenten sowie ihre abnehmende Loyalität mit den Anbietern erschwert werden.
Insgesamt ist davon auszugehen, dass zukünftig – abhängig von ihrer Lokalisierung in räumlich und strukturell begünstigten oder benachteiligten Städten – unterschiedliche Herausforderungen auf die innerstädtischen Einzelhandelslagen zukommen werden. Unter benachteiligte Städte werden strukturschwache Kommunen mit negativer Bevölkerungsentwicklung, geringer Zentralität und geringer wirtschaftlicher Anziehungskraft für das Umland gefasst, während sich begünstigte Städte durch wirtschaftliche Prosperität, Zentralität und Bevölkerungswachstum auszeichnen. Während innerstädtische Einzelhandelslagen in benachteiligten Städten vor allem negative Folgen zu erwarten haben und folglich akuter Handlungsbedarf besteht, können innerstädtische Einzelhandelslagen in räumlich-strukturell begünstigten Städten i.d.R. von der Digitalisierung und dem veränderten Kauf- und Konsumverhalten der Konsumenten profitieren. Zentrale Bedeutung kommt in diesem Zusammenhang den charakteristischen Merkmalen einer Innenstadt zu. Sie zeichnet sich im Idealfall durch Zentralität, Bedeutungsüberschuss, Dichte und Nutzungsmischung, eine hohe Besucherfrequenz sowie einen hohen Identifikationsgrad bzw. Authentizität aus. Diese Standortvorteile verhelfen innerstädtischen Einzelhandelslagen in begünstigten Städten zu einem Alleinstellungsmerkmal gegenüber konkurrierenden lokalen Einzelhandelsstandorten sowie gegenüber dem Online-Handel. So gewinnen Atmosphäre und zentrales Erleben bei Konsumenten, die das Internet nutzen, an Bedeutung. Qualitativ hochwertige innerstädtische Einzelhandelslagen erlangen somit eine neue Anziehungskraft.
Handlungsbedarf besteht folglich vor allem in den räumlich-strukturell benachteiligten Städten. Aber auch die begünstigen Städte brauchen Unterstützung, um die innerstädtischen Einzelhandelslagen den Bedürfnissen der Konsumenten nach Erlebnis, Bequemlichkeit, Individualität, Flexibilität, Schnelligkeit etc. entsprechend zu gestalten sowie die Voraussetzungen für den Einsatz einkaufsunterstützender digitaler Medien zu schaffen.
Als Modellansatz sind drei Strategieansätze im Rahmen eines integrierten Gesamtkonzepts umzusetzen:
1. Befähigende Ansätze: Hierzu zählt einerseits die Schaffung der technischen Rahmenbedingungen hinsichtlich Verfügbarkeit und Leistungsfähigkeit, funktioneller Zuverlässigkeit, Sicherheit und Nutzerfreundlichkeit der technischen Infrastruktur und der digitalen Medien. Konkret sind der Ausbau flächendeckender Breitbandverbindungen und eines frei zugänglichen WLAN-Netzes in den Innenstädten sowie der Einsatz von elektronischer Authentisierung und biometrischen Verifikationssystemen anzuraten. Andererseits gilt es, die Medienkompetenz der Einzelhändler und der Konsumenten für den Umgang und die Nutzung digitaler Medien zu schulen. Die Nutzerfreundlichkeit muss durch eine qualitätvolle HCI (Human Computer Interaction) sowie den Einsatz von Feature based visualization verbessert werden. Weiterhin ist die Nutzung von Multi-Channel-Retailing, der Verknüpfung des stationären Handels mit dem Online-Handel, zu unterstützen.
2. Steuernde Ansätze: Vor dem Hintergrund des engen finanziellen Gestaltungsspielraums der Mehrheit der Kommunen sollten die Städtebauförderprogramme und die Förderprogramme zur Breitbandförderung gezielt genutzt und weiterentwickelt werden. Weiterhin gilt es die Effektivität der Steuerung über die Stärkung gemeinschaftlichen Handelns zu verbessern. Es sind hierbei sowohl Kooperationen zwischen Kommunen, Handel und Eigentümern zu unterstützen als auch die Bevölkerung verstärkt in bedeutsame Umgestaltungsprozesse in der Innenstadt einzubinden.
3. Stärkende Ansätze: Unter dem Ansatz der Stärkung werden die Verbesserung der Aufenthaltsqualität sowie die Schaffung von Strukturen für eine zukunftsfähige Mobilität verstanden. Um die Aufenthaltsqualität und damit die Attraktivität der innerstädtischen Einzelhandelslagen zu erhöhen, muss frühzeitig ein angepasstes Leerstandsmanagement initiiert, Einkaufsbereiche konzentriert, eine attraktive Gestaltung und Möblierung unterstützt sowie die Innenstadt entsprechend ihrer besonderen Merkmale inszeniert werden. Eine zukunftsfähige Mobilität innerhalb der Innenstadt ist durch Maßnahmen zur Verbesserung der Erreichbarkeit der innerstädtischen Einzelhandelslagen sowie der Förderung zukunftsfähiger Mobilitätsformen zu unterstützen.
Insgesamt sollen besagte Strategieansätze dazu beitragen, die Voraussetzungen für die Digitalisierung des innerstädtischen Einzelhandels zu schaffen, die analysierten Restriktionen der Innenstadt abzumildern sowie die besonderen Potenziale der innerstädtischen Einzelhandelslagen im Sinne von Alleinstellungsmerkmalen hervorzuheben, um die innerstädtischen Einzelhan-delslagen für das digitale Zeitalter zu qualifizieren.
Das Ziel der vorliegenden Dissertation ist es, für den innerhalb der Faserkunststoffverbunde
etablierten Liquid Composite Molding (LCM) Herstellungsprozess, eine optimierte
Preformherstellung aus unidirektionalen (UD) Verstärkungsfasern zu entwickeln.
Dies beinhaltet auch das lokale Verstärken einer textilen Preform. Der ausschlaggebende
Prozess ist hierbei der Preform-Prozess, da dieser Kostentreiber innerhalb
der LCM-Prozesskette ist, in welchem die Verstärkungsfasern zu einem trockenen,
transportfähigen und meist flächigen Faserrohling verbunden werden.
Innerhalb des hier entwickelten Preformingprozesses werden Kohlenstofffasern, sogenannte
Heavy Tows mit einem pulverförmigen Bindersystem eingebracht, erhitzt
und mittels Endeffektor beim Ablegen konsolidiert. Die für den Prozess benötigten
Module und Systeme wurden vor der Online-Bebinderung zuerst an einem separaten
Offlinebebinderungsprüfstand montiert. Mittels dieses Offlinebebinderungsprüfstandes
war die Optimierung und Analyse der einzelnen Module und Systeme durch die
Herstellung eines kontinuierlich bebinderten Rovings (Halbzeug) außerhalb der diskontinuierlichen
Online-Bebinderung möglich. Zugleich wurden mit dem Offlineprüfstand
Halbzeuge mit unterschiedlichem Bindergehalt und unterschiedlichem Bindertyp
hergestellt um einen Einfluss des Bindergehaltes als auch des Bindertyps auf die
Eigenschaften der Preform und des infiltrierten Bauteiles zu analysieren. Die Analyse
der Versuche zeigte deutlich, dass die Wahl des Bindertyps bei gleichbleibender Infiltrationsmatrix
einen signifikanten Einfluss auf die Performance des Bauteils hat,
wohingegen die Bindermenge tendenziell einen untergeordneten Einfluss zeigt. Nach
der Sicherstellung der Funktionsfähigkeit der Module wurden diese an ein robotergestütztes
Ablegesystem zur Online-Bebinderung installiert. Die Applizierung der Binderpartikel
innerhalb der Online-Bebinderung erfolgt temporär während des Ablegeprozesses.
Zur Demonstration der Funktionsfähigkeit wurde eine quasiisotrope Glasfaserpreform
lokal mit den Kohlenstofffasern verstärkt. Die hergestellte ebene Preform
wurde im Anschluss erwärmt, kompaktiert und in eine 3 dimensionale Preform
umgeformt.
Den Abschluss der Arbeit bildet eine Wirtschaftlichkeitsbetrachtung des entwickelten
Prozesses im Vergleich zu zwei „State of the Art“ Preformherstellungsprozessen.
Hierbei konnte gezeigt werden dass die Kosten des gesamten Bauteiles um 3,7 %
sinken unter Anwendung des neu entwickelten Verfahrens der Online-Bebinderung.
Verkehrsverbünde in Deutschland haben heute eine hohe Relevanz für die Gestaltung des ÖPNV. Aktuell bestehen bundesweit 58 Verbünde, die ca. 70% des Bundesgebietes abde-cken. Die Bandbreite der Verbünde ist dabei groß und reicht vom Landkreisverbund bis hin zur Abdeckung ganzer Bundesländer. Durch die Heterogenität der Verbundlandschaft ist festzuhalten, dass es DEN Verbundprototyp nicht gibt. Das Erfolgsmodell „Verkehrsver-bund“ hat jedoch auch negative Aspekte. Verbünde sind keine Instrumente zur Defizitbeseitigung. Die regelmäßig auszugleichenden Defizite werden durch die verschiedenen Institutionen der öffentlichen Hand getragen. Obwohl den Verbünden aus dem evidenten Umstand einer Mangelverwaltung ein Effizienzauftrag praktisch mit in die Wiege gelegt wird, ist bisher in der Verbundpraxis kein einheitliches Instrument vorzufinden, das das Handeln der Verbünde systematisch erfasst, eine Bewertung ermöglicht und ggf. einen Vergleich mit anderen Verbünden vornimmt.
Ziel der Arbeit ist es daher, ein Instrument zur Erfassung, Bewertung und zum Vergleich der Arbeit von Verkehrsverbundorganisationen aufzustellen. Dazu lassen sich verschiedene Forschungsfragen formulieren:
1. Welches sind die Ziele und Aufgaben von Verbünden?
2. Wie können Ziele und Aufgaben von Verbünden erfasst und bewertet werden?
3. Wie ist ein Instrument zur einheitlichen Erfassung und Bewertung der Arbeit von Ver-kehrsverbundorganisationen auszugestalten?
4. Wie können Verkehrsverbünde verglichen werden?
5. Ist eine Verbundbewertung und ein Verbundvergleich in der Praxis anwendbar?
Hinsichtlich der Ziele und Aufgaben von Verbundorganisationen zeigen die Untersuchungsergebnisse, dass in der Praxis keine klare Verwendung der Begriffe Oberziele, Ziele und Aufgaben erfolgt. Oberziele liegen oft weit außerhalb des Wirkungsbereichs von Verkehrsverbünden und können somit nicht von diesen beeinflusst werden. Der Züricher Verkehrsverbund (ZVV) hat daher den Begriff der „lenkbaren Größe“ eingeführt, der auch im Rahmen dieser Arbeit Verwendung findet.
Die weiteren Untersuchungen zeigen, dass sich eine Bewertung nicht nur auf betriebswirt-schaftliche Kennzahlen stützen kann, da der jeweilige Handlungsauftrag einer Verkehrsver-bundorganisation, entgegen dem eines Wirtschaftsunternehmens, nicht nur an marktwirt-schaftlich orientierten Erfolgs- und Effizienzkriterien ausgerichtet ist, sondern auch nicht gewinnorientierte Aufgaben der öffentlichen Hand wie z.B. die Daseinsvorsorge einschließt.
In einem folgenden Arbeitsschritt werden die Erkenntnisse aus den Voruntersuchungen im Rahmen der Aufstellung eines speziellen Instruments zur Erfassung und Bewertung der Verbundarbeit zusammengeführt. Dazu werden vier Kernthemen und vier erweiterte Themen der Verbundarbeit definiert, denen dann einzelne Aufgaben zugeordnet werden. Zu diesen Aufgaben werden Indikatoren und Messgrößen bestimmt.
Ein komplexes und anspruchsvolles Bewertungsinstrument benötigt eine systematische Einführung und Anwendung. Eine wesentliche Unterstützung ist dabei eine Institutionalisierung. Die Untersuchung der verschiedenen Möglichkeiten einer Institutionalisierung für das hier entwickelte Bewertungsinstrument lassen den Verband Deutscher Verkehrsunternehmen (VDV) als Branchenverband oder eine unabhängige, als Verein organisierte Institution in Frage kommen.
Als erste Anwendungsstufe ist der entwickelte Bewertungsansatz als internes Controlling-Instrument einzusetzen. Damit kann eine Verkehrsverbundorganisation ihre internen Aufgaben und Prozesse erfassen und den Soll-Ist-Abgleich als Steuerungsinstrument für die Verbundarbeit verwenden. In einer zweiten Stufe ist über den einzelnen Verbund hinaus ein Benchmarking mit anderen Verbünden möglich. Hierbei sollte jedoch ein Vergleich innerhalb einer geeigneten (homogenen) Vergleichsgruppe stattfinden.
Im Rahmen der vorliegenden Arbeit wird eine Systematik zur Einteilung von Verkehrsver-bünden entwickelt, um so geeignete homogene Vergleichsgruppen bilden zu können. Dazu werden die vier Merkmale Fläche, Einwohnerzahl, Anzahl der Verkehrsunternehmen und Anzahl der Aufgabenträger sowie die Organisationsform der Verbünde für eine Einteilung herangezogen. So lassen sich alle Verbünde in eine von neun gebildeten Eigenschaftsgruppen einteilen. Für die vorliegende Untersuchung werden aus den stärksten Gruppen typische Vertreter für eine weitere Untersuchung auswählt.
Nach einer Rückkopplung mit ausgewählten Verbünden zeigte sich, dass die grundsätzliche Systematik des Bewertungsinstruments von allen Verbünden bestätigt wurde. Hinsichtlich der Anwendung als Controlling-Instrument haben die großen Verbünde oft eigene Systematiken aufgebaut, die nur schwer einem neuen hier entwickelten Instrument angepasst werden können. Bei kleinen Verbünden sind i.d.R. keine internen Bewertungsinstrumente im Einsatz, so dass die Voraussetzungen für eine Anwendung hier eher gegeben sind. Aufgrund ihrer oft sehr geringen (personellen) Ressourcen sehen sie sich jedoch mit der Einführung und Anwendung überfordert. Daher kommt einer unterstützenden Institutionalisierung für den zukünftigen Einsatz eine große Bedeutung zu. Im Rahmen der Arbeit wurden dazu Ansätze untersucht und Lösungen aufgezeigt.
An der zweiten Anwendungsstufe in Form eines Benchmarking haben alle befragten Verbünde großes Interesse. Die großen Verbünde sehen hier weniger einen vollumfänglichen Vergleich, sondern eher ausgewählte punktuelle Vergleiche zu speziellen Themen - auch vor dem Hintergrund, dass es nach Einschätzung der Verbünde keine richtigen Vergleichsgruppen in ihrer Größenklasse gibt. Die kleinen Verbünde haben sowohl Interesse an einem vergleichenden Einsatz als auch an der Methodik zur Bildung von (homogenen) Vergleichsgruppen. Insgesamt empfiehlt sich eine intensivere Auseinandersetzung der Verbünde mit der Anwendung eines Bewertungsinstruments, da die Grundlagen eines internen und eines externen Vergleichs dicht zusammen liegen - eine interne Verwendung stellt eine wesentliche Vorstufe für einen externen Vergleich dar. Auch hier kann eine Institutionalisierung diese anstehende Auseinandersetzung positiv unterstützen.
Die Arbeit zeigt, dass für die unterschiedlichen Verbundtypen ein flexibles Bewertungs-instrumentarium, sowohl inhaltlich als auch hinsichtlich der Anwendung, benötigt wird. Die mit dieser Arbeit entwickelten Grundlagen und Instrumente zur Erfassung, Bewertung und Einteilung von Verkehrsverbünden können dies leisten und sollten eine weitere praktische Anwendung erfahren.