Refine
Year of publication
- 2005 (126) (remove)
Document Type
- Doctoral Thesis (58)
- Report (23)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Master's Thesis (3)
- Conference Proceeding (2)
- Habilitation (1)
- Lecture (1)
Has Fulltext
- yes (126)
Keywords
- Mobilfunk (4)
- Mehrskalenanalyse (3)
- Wavelet (3)
- mobile radio (3)
- Ambient Intelligence (2)
- Approximation (2)
- Computeralgebra (2)
- Elastoplastizität (2)
- Empfängerorientierung (2)
- Flüssig-Flüssig-Extraktion (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (38)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Fraunhofer (ITWM) (13)
- Kaiserslautern - Fachbereich Sozialwissenschaften (13)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Kaiserslautern - Fachbereich Informatik (8)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (4)
- Kaiserslautern - Fachbereich ARUBI (3)
The level-set method has been recently introduced in the field of shape optimization, enabling a smooth representation of the boundaries on a fixed mesh and therefore leading to fast numerical algorithms. However, most of these algorithms use a Hamilton-Jacobi equation to connect the evolution of the level-set function with the deformation of the contours, and consequently they cannot create any new holes in the domain (at least in 2D). In this work, we propose an evolution equation for the level-set function based on a generalization of the concept of topological gradient. This results in a new algorithm allowing for all kinds of topology changes.
An autoregressive-ARCH model with possible exogeneous variables is treated. We estimate the conditional volatility of the model by applying feedforward networks to the residuals and prove consistency and asymptotic normality for the estimates under the rate of feedforward networks complexity. Recurrent neural networks estimates of GARCH and value-at-risk is studied. We prove consistency and asymptotic normality for the recurrent neural networks ARMA estimator under the rate of recurrent networks complexity. We also overcome the estimation problem in stochastic variance models in discrete time by feedforward networks and the introduction of a new distributions on the innovations. We use the method to calculate market risk such as expected shortfall and Value-at risk. We tested this distribution together with other new distributions on the GARCH family models against other common distributions on the financial market such as Normal Inverse Gaussian, normal and the Student's t- distributions. As an application of the models, some German stocks are studied and the different approaches are compared together with the most common method of GARCH(1,1) fit.
Im vorliegenden Bericht werden die Erfahrungen und Ergebnisse aus dem Projekt OptCast zusammengestellt. Das Ziel dieses Projekts bestand (a) in der Anpassung der Methodik der automatischen Strukturoptimierung für Gussteile und (b) in der Entwicklung und Bereitstellung von gießereispezifischen Optimierungstools für Gießereien und Ingenieurbüros. Gießtechnische Restriktionen lassen sich nicht vollständig auf geometrische Restriktionen reduzieren, da die lokalen Eigenschaften nicht nur von der geometrischen Form des Gussteils, sondern auch vom verwendeten Material abhängen. Sie sind jedoch über eine Gießsimulation (Erstarrungssimulation und Eigenspannungsanalyse) adäquat erfassbar. Wegen dieser Erkenntnis wurde ein neuartiges Topologieoptimierungsverfahren unter Verwendung der Level-Set-Technik entwickelt, bei dem keine variable Dichte des Materials eingeführt wird. In jeder Iteration wird ein scharfer Rand des Bauteils berechnet. Somit ist die Gießsimulation in den iterativen Optimierungsprozess integrierbar.
Within the last decades, a remarkable development in materials science took place -- nowadays, materials are not only constructed for the use of inert structures but rather designed for certain predefined functions. This innovation was accompanied with the appearance of smart materials with reliable recognition, discrimination and capability of action as well as reaction. Even though ferroelectric materials serve smartly in real applications, they also possess several restrictions at high performance usage. The behavior of these materials is almost linear under the action of low electric fields or low mechanical stresses, but exhibits strong non-linear response under high electric fields or mechanical stresses. High electromechanical loading conditions result in a change of the spontaneous polarization direction with respect to individual domains, which is commonly referred to as domain switching. The aim of the present work is to develop a three-dimensional coupled finite element model, to study the rate-independent and rate-dependent behavior of piezoelectric materials including domain switching based on a micromechanical approach. The proposed model is first elaborated within a two-dimensional finite element setting for piezoelectric materials. Subsequently, the developed two-dimensional model is extended to the three-dimensional case. This work starts with developing a micromechanical model for ferroelectric materials. Ferroelectric materials exhibit ferroelectric domain switching, which refers to the reorientation of domains and occurs under purely electrical loading. For the simulation, a bulk piezoceramic material is considered and each grain is represented by one finite element. In reality, the grains in the bulk ceramics material are randomly oriented. This property is taken into account by applying random orientation as well as uniform distribution for individual elements. Poly-crystalline ferroelectric materials at un-poled virgin state can consequently be characterized by randomly oriented polarization vectors. Energy reduction of individual domains is adopted as a criterion for the initiation of domain switching processes. The macroscopic response of the bulk material is predicted by classical volume-averaging techniques. In general, domain switching does not only depend on external loads but also on neighboring grains, which is commonly denoted as the grain boundary effect. These effects are incorporated into the developed framework via a phenomenologically motivated probabilistic approach by relating the actual energy level to a critical energy level. Subsequently, the order of the chosen polynomial function is optimized so that simulations nicely match measured data. A rate-dependent polarization framework is proposed, which is applied to cyclic electrical loading at various frequencies. The reduction in free energy of a grain is used as a criterion for the onset of the domain switching processes. Nucleation in new grains and propagation of the domain walls during domain switching is modeled by a linear kinetics theory. The simulated results show that for increasing loading frequency the macroscopic coercive field is also increasing and the remanent polarization increases at lower loading amplitudes. The second part of this work is focused on ferroelastic domain switching, which refers to the reorientation of domains under purely mechanical loading. Under sufficiently high mechanical loading, however, the strain directions within single domains reorient with respect to the applied loading direction. The reduction in free energy of a grain is used as a criterion for the domain switching process. The macroscopic response of the bulk material is computed for the hysteresis curve (stress vs strain) whereby uni-axial and quasi-static loading conditions are applied on the bulk material specimen. Grain boundary effects are addressed by incorporating the developed probabilistic approach into this framework and the order of the polynomial function is optimized so that simulations match measured data. Rate dependent domain switching effects are captured for various frequencies and mechanical loading amplitudes by means of the developed volume fraction concept which relates the particular time interval to the switching portion. The final part of this work deals with ferroelectric and ferroelastic domain switching and refers to the reorientation of domains under coupled electromechanical loading. If this free energy for combined electromechanical loading exceeds the critical energy barrier elements are allowed to switch. Firstly, hysteresis and butterfly curves under purely electrical loading are discussed. Secondly, additional mechanical loads in axial and lateral directions are applied to the specimen. The simulated results show that an increasing compressive stress results in enlarged domain switching ranges and that the hysteresis and butterfly curves flatten at higher mechanical loading levels.
In diesem technischen Bericht werden drei Aufgaben zur Prüfung bzw. zur Beanspruchung unterschiedlicher Facetten der Arbeitsgedächtniskapazität beschrieben. Die Aufgaben beruhen zum Teil auf Material von Oberauer (1993) sowie Oberauer et al. (2000, 2003). Sie wurden in RSVP programmiert und sind auf Apple-Macintosh-Rechnern lauffähig. Die Aufgaben eignen sich zur computerunterstützten Erfassung oder Beanspruchung der Arbeitsgedächtniskapazität im Einzelversuch, teilweise auch im Gruppenversuch und werden hauptsächlich in Forschungskontexten benutzt. Für jede Aufgabe werden das Konzept, die Durchführung, Auswertungs- und Anwendungsmöglichkeiten sowie gegebenenfalls Vergleichsdaten geschildert.
In this thesis we have discussed the problem of decomposing an integer matrix \(A\) into a weighted sum \(A=\sum_{k \in {\mathcal K}} \alpha_k Y^k\) of 0-1 matrices with the strict consecutive ones property. We have developed algorithms to find decompositions which minimize the decomposition time \(\sum_{k \in {\mathcal K}} \alpha_k\) and the decomposition cardinality \(|\{ k \in {\mathcal K}: \alpha_k > 0\}|\). In the absence of additional constraints on the 0-1 matrices \(Y^k\) we have given an algorithm that finds the minimal decomposition time in \({\mathcal O}(NM)\) time. For the case that the matrices \(Y^k\) are restricted to shape matrices -- a restriction which is important in the application of our results in radiotherapy -- we have given an \({\mathcal O}(NM^2)\) algorithm. This is achieved by solving an integer programming formulation of the problem by a very efficient combinatorial algorithm. In addition, we have shown that the problem of minimizing decomposition cardinality is strongly NP-hard, even for matrices with one row (and thus for the unconstrained as well as the shape matrix decomposition). Our greedy heuristics are based on the results for the decomposition time problem and produce better results than previously published algorithms.
In the first part of this work, called Simple node singularity, are computed matrix factorizations of all isomorphism classes, up to shiftings, of rank one and two, graded, indecomposable maximal Cohen--Macaulay (shortly MCM) modules over the affine cone of the simple node singularity. The subsection 2.2 contains a description of all rank two graded MCM R-modules with stable sheafification on the projective cone of R, by their matrix factorizations. It is given also a general description of such modules, of any rank, over a projective curve of arithmetic genus 1, using their matrix factorizations. The non-locally free rank two MCM modules are computed using an alghorithm presented in the Introduction of this work, that gives a matrix factorization of any extension of two MCM modules over a hypersurface. In the second part, called Fermat surface, are classified all graded, rank two, MCM modules over the affine cone of the Fermat surface. For the classification of the orientable rank two graded MCM R-modules, is used a description of the orientable modules (over normal rings) with the help of codimension two Gorenstein ideals, realized by Herzog and Kühl. It is proven (in section 4), that they have skew symmetric matrix factorizations (over any normal hypersurface ring). For the classification of the non-orientable rank two MCM R-modules, we use a similar idea as in the case of the orientable ones, only that the ideal is not any more Gorenstein.
In dieser Arbeit wurden auf der Basis des felinen Foamyvirus (FFV) bzw. Spumaretrovirus diverse replikationsdefiziente Vektoren entwickelt und deren Tranduktionseffizienz, Stabilität, Markergenexpression und biologische Sicherheit unter Zellkulturbedingungen charakterisiert. Ausgehend von replikationskompetenten FFV-Vektoren wurden zunächst so genannte selbst-inaktivierende (SIN) Vektoren, in welchen die LTR-Promotoraktivität inhibiert ist, konstruiert. Diese FFV-SIN-Vektoren erlaubten eine stabile Transduktion und Markergenexpression, entwickelten jedoch nach einer begrenzten Zeit replikationskompetente Revertanten und waren daher nicht zur Transduktion langlebiger Zellen geeignet. In Analogie zu humanen Foamyvirus-basierenden Vektoren wurde anschließend ein Großteil der env-Sequenz aus den SIN-Vektoren deletiert, um die biologische Sicherheit der Vektoren zu erhöhen. Diese Env-deletierten und FFV-Promotor-abhängigen Vektoren waren allerdings aufgrund eines schwachen und schnell abklingenden Markergentransfers nicht zur effizienten und stabilen Markergentransduktion geeignet. Zur Entwicklung replikationsdefizienter Vektoren mit einem starken heterologen Promotor zur Markergenexpression wurden verschiedene Deletionen in das Vektorgenom eingeführt und Helferplasmide für die Strukturgene bzw. viralen Enzyme kloniert. Hiermit wurde ein transientes Transfektionssystem zur Produktion von Vektorpartikeln etabliert, wobei die für den Markergentransfer essentiellen cis-agierenden Sequenzen auf dem FFV-Genom identifiziert wurden. Die Lokalisation zweier essentieller cis-agierender Sequenzen am 5’-Ende des Genoms und in pol ermöglichte die anschließende Konstruktion replikationsdefizienter Bel1-unabhängiger Vektoren, in denen die 3’ von pol liegenden Gene fast vollständig deletiert und durch eine Expressionskassette, bestehend aus dem humanen Ubiquitin C-Promotor und dem lacZ-Gen, ersetzt wurden. Diese neuen FFV-basierenden Vektoren erlauben einen effizienten Markergentransfer und ermöglichen eine stabile Transduktion diverser Zielzellen bei gleichzeitiger nicht nachweisbarer viraler Genexpression und replikationskompetenter Revertanten. Daher sind diese Vektoren biologisch sicher, zur Transduktion langlebiger Zellen geeignet und können daher für gentherapeutische Untersuchungen in tierexperimentellen Modellen verwendet werden.
We will give explicit differentiation and integration rules for homogeneous harmonic polynomial polynomials and spherical harmonics in IR^3 with respect to the following differential operators: partial_1, partial_2, partial_3, x_3 partial_2 - x_2 partial_3, x_3 partial_1 - x_1 partial_3, x_2 partial_1 - x_1 partial_2 and x_1 partial_1 + x_2 partial_2 + x_3 partial_3. A numerical application to the problem of determining the geopotential field will be shown.
In the field of gravity determination a special kind of boundary value problem respectively ill-posed satellite problem occurs; the data and hence side condition of our PDE are oblique second order derivatives of the gravitational potential. In mathematical terms this means that our gravitational potential \(v\) fulfills \(\Delta v = 0\) in the exterior space of the Earth and \(\mathscr D v = f\) on the discrete data location which is on the Earth's surface for terrestrial measurements and on a satellite track in the exterior for spaceborne measurement campaigns. \(\mathscr D\) is a first order derivative for methods like geometric astronomic levelling and satellite-to-satellite tracking (e.g. CHAMP); it is a second order derivative for other methods like terrestrial gradiometry and satellite gravity gradiometry (e.g. GOCE). Classically one can handle first order side conditions which are not tangential to the surface and second derivatives pointing in the radial direction employing integral and pseudo differential equation methods. We will present a different approach: We classify all first and purely second order operators \(\mathscr D\) which fulfill \(\Delta \mathscr D v = 0\) if \(\Delta v = 0\). This allows us to solve the problem with oblique side conditions as if we had ordinary i.e. non-derived side conditions. The only additional work which has to be done is an inversion of \(\mathscr D\), i.e. integration.
Die Aufgabenstellung dieser Arbeit betraf die kinetische Charakterisierung des Wildtyps sowie der Mutanten E und G der Glucose-Dye-Oxidoreductase (GlucDOR) mit den N-substituierten p-Nitrosoanilinen BM-53.0861, BM-31.1008 und BM.31.1144 (firmeninterne Bezeichnungen) und den Zuckern Glucose, Maltose und Galaktose als Zweitsubstrate. Diese Mediatoren finden bei der Firma Roche Diagnostics GmbH ihre praktische Anwendung und befinden sich unter anderem auf dem Testsreifensystem, welches zur Blutzuckerbestimmung bei Diabetikern benutzt wird. Mit Hilfe der in dieser Arbeit gewonnenen Daten bezüglich z.B. der Substratspezifität, Stabilität der drei Enzyme sollte abgeschätzt werden, in wie weit eine praktische Anwendung der Mutanten E und G möglich und auch sinnvoll wäre. Die Charakterisierungen mit den Zuckern Glucose, Maltose und Galaktose und Mediator BM-53.0861 als Zweitsubstrat zeigten, dass beide Mutanten eine bessere Spezifität für die Glucose gegenüber der Maltose aufwiesen. Dabei war die Mutante G mit einem Quotienten vmaxMaltose/vmaxGlucose von 0,018 wesentlich spezifischer als die Mutante E, bei der der Quotient 0,10 betrug. Ein Vergleich der Spezifität für Glucose gegenüber der Galaktose zeigte, dass beide Mutanten eine schlechtere Spezifität als der Wildtyp hatten. Die Berechnungen der 3D-Struktur der Mutanten E und G brachten einige strukturelle Hinweise, durch die die veränderten Substratspezifitäten gegenüber dem WT, besonders im Fall der Maltose, erklärt werden konnten. So ragt z.B. Tyrosin 343 bei den Mutanten weiter in das aktive Zentrum als beim WT und kommt so der Maltose ziemlich nahe. Dadurch könnte es zu sterischer Hinderung kommen. Beim Vergleich der kinetischen Parameter der Mutanten E und G für die Glucose mit den Zweitsubstraten BM-53.0861, BM-31.1008 und BM-31.1144 mit denen des WTs, sprechen die Ergebnisse nicht gegen eine Anwendung der Mutanten auf den Teststreifen. Weder die leicht niedrigeren Hemmkonstanten der Mediatoren, noch die höheren kM-Werte für die Glucose bei den Mutanten sollten ein Hindernis darstellen, da das Enzym auf den Teststreifen in großem Überschuss vorliegt. Ein Aspekt, der bei der praktischen Anwendung zu Problemen führen kann, ist die verringerte Thermostabilität beider Mutanten. Sie zeigten bei 60 °C einen erheblichen Stabilitätsverlust gegenüber dem WT der GlucDOR. Nach einer halben Stunde Inkubationzeit hatten sie weniger als 10 % Restaktivität. Im Falle der Mediatoren BM-31.1008 und BM-31.1144 konnte durch ESR-Untersuchungen festgestellt werden, dass das Phenylendiaminradkal, welches sich im nichtenzymatischen Gleichgewicht zwischen den entsprechenden Chinondiiminen und Phenylendiaminen befindet, nicht für die auftretende Hemmung verantwortlich ist. Mit einem Abnehmen der Umsatzraten sank auch die Konzentration an Phenylendiaminradikal, was im Falle einer durch das Radikal verursachten Hemmung nicht sein dürfte. Ebenfalls konnte durch die ESR-Untersuchungen gezeigt werden, dass während einer konstanten enzymatischen Umsetzung auch die Konzentration des Phenylendiaminradikals konstant blieb. Das spricht für ein konstantes Redoxpotential des Testsystems während der Umsetzung. Das Radikal kann als eine Art Marker für die Gesamtkonzentration an Chinondiimin und Phenylendiamin angesehen werden. Insgesamt zeigt die Arbeit, dass die beiden Mutanten E und G der GlucDOR für die Anwendung auf Teststreifen zur Blutzuckerbestimmung geeignet sind, wenngleich sie eine gewisse Thermoinstabilität im Vergleich zum Wildtyp aufweisen. Diesbezüglich sollten noch Verbesserungen vorgenommen werden.
Durch Metathese gelang es aus Cadmiumiodid und zwei Äquivalenten Natrium-tetraisopropylcyclopentadienid bzw. Natrium-tri(tert.-butyl)cyclopentadienid die monomeren Metallocene Bis(tetraisopropylcyclopentadienyl)cadmium (4) und Bis[tri(tert.-butyl)cyclopentadienyl]cadmium (5) herzustellen, welche ohne koordinierte Lösungsmittel oder Alkalimetallsalze vorliegen. Zusätzlich zeichnen sie sich durch gute Sublimierbarkeit, Lichtbeständigkeit und Löslichkeit aus. Weiterhin ist es gelungen, durch die Umsetzung von Cadmiumiodid mit Natrium-tri(tert.-butyl)cyclopentadienid und Mestitylmagnesiumbromid den ersten kristallstrukturanalytisch charakterisierten Cyclopentadienylkomplex des Cadmiums herzustellen, der einen Aryl-Liganden trägt. Das durch Metathese von Zinkiodid und zwei Äquivalenten Natrium-tri(tert.-butyl)cyclopentadienid hergestellte Bis[tri(tert.-butyl)cyclopentadienyl]zink (2) liegt ebenfalls als Monomer vor. Komplex 2 zeigt zu den Liganden eine 1- / 5- Bindungssituation, wodurch am Zinkatom eine 18 Valenzelektronenkonfiguration erzeugt wird. Durch die Kombination von Phasentransferkatalyse und anschließender Metallierung/ Alkylierung, wurde eine Synthesevariante für Tetraisopropylcyclopentadien entwickelt, bei der unter nur geringer Ausbeuteeinbuße die Verwendung von flüssigem Ammoniak vermieden und eine deutliche Arbeitsersparnis erreicht werden konnte. Weiterhin wurde durch Behandlung von geminal dialkylierten Pentaisopropylcyclopentadien-Isomeren mit n-Butyllithium im Ultraschallbad ein neuer Zugang zu Lithiumpenta-isopropylcyclopentadienid durch die Verschiebung einer Alkylgruppe gefunden. Die Umsetzung von zwei Äquivalenten Natrium-tetraisopropylcyclopentadienid mit einem Äquivalent SmCl3  2 THF liefert mit dem Natrium-bis(tetra-isopropylcyclopentadienyl)-dichloro-bis(dimethoxyethan)-samarat (16) das erste kristallographisch charakterisierte Natriumsamarat mit sterisch aufwendig substituierten Cp-Liganden. Das monomere Bis[tri(tert.-butyl)cyclopentadienyl]samarium(III)iodid (17) dagegen wurde durch eine Oxidation von Hexa(tert.-butyl)samarocen mit CuI hergestellt. Das voluminöse Iodid im Zusammenspiel mit den sterisch aufwendigen Cyclopentadienylliganden bewirkt, dass weder eine Salzadduktbildung noch eine Koordination von Donorlösungsmitteln zu beobachten ist. Eine Umsetzung äquimolarer Mengen von Natrium-tetraisopropylcyclopentadienid mit CeCl3  1,5 THF und anschließende Kristallisation aus TMEDA ergab den polymeren Komplex [(4Cp2Ce)(μ-Cl)2Na(TMEDA)2] (18). Die Kristallstrukturanalyse zeigt, dass Komplex 18 in zick – zack – förmiger Kettenstruktur vorliegt, welche aus einzelnen [4Cp2CeCl2Na(TMEDA)2] – Einheiten zusammengesetzt ist. Die Metathese von LaI3  3,75 THF mit zwei Äquivalenten Natrium-tri(tert.-butyl)cyclopentadienid bzw. Natrium-tetraisopropylcyclopentadienid lieferte Bis[tri(tert.-butyl)cyclopenta-dienyl]lanthan(III)iodid (20) und Bis[tetraisopropyl-cyclopentadienyl]-lanthan(III)iodid) (21). Eine erste erfolgreiche Umsetzung von 20 mit einem Äquivalent Na2COT ergab Cyclooctatetraenyl-[tri(tert.-butyl)cyclopentadienyl]lanthan(III) (22).
This diploma thesis examines logistic problems occurring in a container terminal. The thesis focuses on the scheduling of cranes handling containers in a port. Two problems are discussed in detail: the yard crane scheduling of rubber-tired gantry cranes (RMGC) which move freely among the container blocks, and the scheduling of rail-mounted gantry cranes (RMGC) which can only move within a yard zone. The problems are formulated as integer programs. For each of the two problems discussed, two models are presented: In one model, the crane tasks are interpreted as jobs with release times and processing times while in the other model, it is assumed that the tasks can be modeled as generic workload measured in crane minutes. It is shown that the problems are NP-hard in the strong sense. Heuristic solution procedures are developed and evaluated by numerical results. Further ideas which could lead to other solution procedures are presented and some interesting special cases are discussed.
This thesis aims at an overall improvement of the diffusion coefficient predictions. For this reason the theoretical determination of diffusion, viscosity, and thermodynamics in liquid systems is discussed. Furthermore, the experimental determination of diffusion coefficients is also part of this work. All investigations presented are carried out for organic binary liquid mixtures. Diffusion coefficient data of 9 highly nonideal binary mixtures are reported over the whole concentration range at various temperatures, (25, 30, and 35) °C. All mixtures investigated in a Taylor dispersion apparatus consist of an alcohol (ethanol, 1-propanol, or 1-butanol) dissolved in hexane, cyclohexane, carbon tetrachloride, or toluene. The uncertainty of the reported data is estimated to be within 310-11 m2s-1. To compute the thermodynamic correction factor an excess Gibbs energy model is required. Therefore, the applicability of COSMOSPACE to binary VLE predictions is thoroughly investigated. For this purpose a new method is developed to determine the required molecular parameters such as segment types, areas, volumes, and interaction parameters. So-called sigma profiles form the basis of this approach which describe the screening charge densities appearing on a molecule’s surface. To improve the prediction results a constrained two-parameter fitting strategy is also developed. These approaches are crucial to guarantee the physical significance of the segment parameters. Finally, the prediction quality of this approach is compared to the findings of the Wilson model, UNIQUAC, and the a priori predictive method COSMO-RS for a broad range of thermodynamic situations. The results show that COSMOSPACE yields results of similar quality compared to the Wilson model, while both perform much better than UNIQUAC and COSMO-RS. Since viscosity influences also the diffusion process, a new mixture viscosity model has been developed on the basis of Eyring’s absolute reaction rate theory. The nonidealities of the mixture are accounted for with the thermodynamically consistent COSMOSPACE approach. The required model and component parameters are derived from sigma-profiles, which form the basis of the a priori predictive method COSMO-RS. To improve the model performance two segment parameters are determined from a least-squares analysis to experimental viscosity data, whereas a constraint optimisation procedure is applied. In this way the parameters retain their physical meaning. Finally, the viscosity calculations of this approach are compared to the findings of the Eyring-UNIQUAC model for a broad range of chemical mixtures. These results show that the new Eyring-COSMOSPACE approach is superior to the frequently employed Eyring-UNIQUAC method. Finally, on the basis of Eyring’s absolute reaction rate theory a new model for the Maxwell-Stefan diffusivity has been developed. This model, an extension of the Vignes equation, describes the concentration dependence of the diffusion coefficient in terms of the diffusivities at infinite dilution and an additional excess Gibbs energy contribution. This energy part allows the explicit consideration of thermodynamic nonidealities within the modelling of this transport property. If the same set of interaction parameters, which has been derived from VLE data, is applied for this part and for the thermodynamic correction, a theoretically sound modelling of VLE and diffusion can be achieved. The influence of viscosity and thermodynamics on the model accuracy is thoroughly investigated. For this purpose diffusivities of 85 binary mixtures consisting of alkanes, cycloalkanes, halogenated alkanes, aromatics, ketones, and alcohols are computed. The average relative deviation between experimental data and computed values is approximately 8 % depending on the choice of the gE-model. These results indicate that this model is superior to some widely used methods. In summary, it can be said that the new approach facilitates the prediction of diffusion coefficients. The final equation is mathematically simple, universally applicable, and the prediction quality is as good as other models recently developed without having to worry about additional parameters, like pure component physical property data, self diffusion coefficients, or mixture viscosities. In contrast to many other models, the influence of the mixture viscosity can be omitted. Though a viscosity model is not required in the prediction of diffusion coefficients with the new equation, the models presented in this work allow a consistent modelling approach of diffusion, viscosity, and thermodynamics in liquid systems.
The use of polymers subjected to various tribological situations has become state of
the art. Owing to the advantages of self-lubrication and superior cleanliness, more
and more polymer composites are now being used as sliding elements, which were
formerly composed of metallic materials only. The feature that makes polymer composites
so promising in industrial applications is the opportunity to tailor their properties
with special fillers. The main aim of this study was to strength the importance of
integrating various functional fillers in the design of wear-resistant polymer composites
and to understand the role of fillers in modifying the wear behaviour of the materials.
Special emphasis was focused on enhancement of the wear resistance of
thermosetting and thermoplastic matrix composites by nano-TiO2 particles (with a
diameter of 300nm).
In order to optimize the content of various fillers, the tribological performance of a
series of epoxy-based composites, filled with short carbon fibre (SCF), graphite,
PTFE and nano-TiO2 in different proportions and combinations, was investigated.
The patterns of frictional coefficient, wear resistance and contact temperature were
examined by a pin-on-disc apparatus in a dry sliding condition under different contact
pressures and sliding velocities. The experimental results indicated that the addition
of nano-TiO2 effectively reduced the frictional coefficient, and consequently the contact
temperature, of short-fibre reinforced epoxy composites. Based on scanning
electron microscopy (SEM) and atomic force microscopy (AFM) observations of the
worn surfaces, a positive rolling effect of the nanoparticles between the material pairs
was proposed, which led to remarkable reduction of the frictional coefficient. In particular,
this rolling effect protected the SCF from more severe wear mechanisms, especially
in high sliding pressure and speed situations. As a result, the load carrying capacity of materials was significantly improved. In addition, the different contributions
of two solid lubricants, PTFE powders and graphite flakes, on the tribological
performance of epoxy nanocomposites were compared. It seems that graphite contributes
to the improved wear resistance in general, whereas PTFE can easily form a
transfer film and reduce the wear rate, especially in the running-in period. A combination of SCF and solid lubricants (PTFE and graphite) together with TiO2 nanoparticles
can achieve a synergistic effect on the wear behaviour of materials.
The favourable effect of nanoparticles detected in epoxy composites was also found
in the investigations of thermoplastic, e.g. polyamide (PA) 6,6 matrix. It was found
that nanoparticles could reduce the friction coefficient and wear rate of the PA6,6
composite remarkably, when additionally incorporated with short carbon fibres and
graphite flakes. In particular, the addition of nanoparticles contributed to an obvious
enhancement of the tribological performances of the short-fibre reinforced, hightemperature
resistant polymers, e.g. polyetherimide (PEI), especially under extreme
sliding conditions.
A procedure was proposed in order to correlate the contact temperature and the
wear rate with the frictional dissipated energy. Based on this energy consideration, a
better interpretation of the different performance of distinct tribo-systems is possible.
The validity of the model was illustrated for various sliding tests under different conditions.
Although simple quantitative formulations could not be expected at present, the
study may lead to a fundamental understanding of the mechanisms controlling friction
and wear from a general system point of view. Moreover, using the energybased
models, the artificial neural network (ANN) approach was applied to the experimental
data. The well-trained ANN has the potential to be further used for online
monitoring and prediction of wear progress in practical applications.
Die Verwendung von Polymeren im Hinblick auf verschiedene tribologische Anwendungen
entspricht mittlerweile dem Stand der Technik. Aufgrund der Vorteile von
Selbstschmierung und ausgezeichneter Sauberkeit werden polymere Verbundwerkstoffe
immer mehr als Gleitelemente genutzt, welche früher ausschließlich aus metallischen
Werkstoffen bestanden. Die Besonderheit, die polymere Verbundwerkstoffe
so vielversprechend für industrielle Anwendungen macht, ist die Möglichkeit ihre Eigenschaften
durch Zugabe von speziellen Füllstoffen maßzuschneidern. Das Hauptziel
dieser Arbeit bestand darin, die Wichtigkeit der Integration verschiedener funktionalisierter
Füllstoffe in den Aufbau polymerer Verbundwerkstoffe mit hohem Verschleißwiderstand
aufzuzeigen und die Rolle der Füllstoffe hinsichtlich des Verschleißverhaltens
zu verstehen. Hierbei lag besonderes Augenmerk auf der Verbesserung
des Verschleißwiderstandes bei Verbunden mit duromerer und thermoplastischer
Matrix durch die Präsenz von TiO2-Partikeln (Durchmesser 300nm).
Das tribologische Verhalten epoxidharzbasierter Verbunde, gefüllt mit kurzen Kohlenstofffasern
(SCF), Graphite, PTFE und nano-TiO2 in unterschiedlichen Proportionen
und Kombinationen wurde untersucht, um den jeweiligen Füllstoffgehalt zu optimieren.
Das Verhalten von Reibungskoeffizient, Verschleißwiderstand und Kontakttemperatur
wurde unter Verwendung einer Stift-Scheibe Apparatur bei trockenem
Gleitzustand, verschiedenen Kontaktdrücken und Gleitgeschwindigkeiten erforscht.
Die experimentellen Ergebnisse zeigen, dass die Zugabe von nano-TiO2 in kohlenstofffaserverstärkte
Epoxide den Reibungskoeffizienten und die Kontakttemperatur
herabsetzen können. Basierend auf Aufnahmen der verschlissenen Oberflächen
durch Rasterelektronen- (REM) und Rasterkraftmikroskopie (AFM) trat ein positiver
Rolleffekt der Nanopartikel zwischen den Materialpaaren zum Vorschein, welcher zu
einer beachtlichen Reduktion des Reibungskoeffizienten führte. Dieser Rolleffekt schützte insbesondere die SCF vor schwerwiegenderen Verschleißmechanismen,
speziell bei hohem Gleitdruck und hohen Geschwindigkeiten. Als Ergebnis konnte
die Tragfähigkeit dieser Materialien wesentlich verbessert werden. Zusätzlich wurde
die Wirkung zweier fester Schmierstoffe (PTFE-Pulver und Graphit-Flocken) auf die tribologische Leistungsfähigkeit verglichen. Es scheint, daß Graphit generell zur Verbesserung
des Verschleißwiderstandes beiträgt, wobei PTFE einen Transferfilm bilden
kann und die Verschleißrate insbesondere in der Einlaufphase reduziert. Die
Kombination von SCF und festen Schmierstoffen zusammen mit TiO2-Nanopartikeln
kann einen Synergieeffekt bei dem Verschleißverhalten der Materialien hervorrufen.
Der positive Effekt der Nanopartikel in Duromeren wurde ebenfalls bei den Untersuchungen
von Thermoplasten (PA 66) gefunden. Die Nanopartikel konnten den Reibungskoeffizienten
und die Verschleißrate der PA 66-Verbunde herabsetzen, wobei
zusätzlich Kohlenstofffasern und Graphit-Flocken enthalten waren. Die Zugabe von
Nanopartikeln trug offensichtlich auch zur Verbesserung der tribologischen Leistungsfähigkeit
von SCF-verstärkten, hochtemperaturbeständigen Polymeren (PEI)
insbesondere unter extremen Gleitzuständen, bei. Es wurde eine Methode vorgestellt,
um die Kontakttemperatur und die Verschleißrate mit der durch Reibung dissipierten
Energie zu korrelieren. Diese Energiebetrachtung ermöglicht eine bessere
Interpretation der verschiedenen Eigenschaften von ausgewählten Tribo-Systemen.
Die Gültigkeit dieses Models wurde für mehrere Gleittests unter verschiedenen Bedingungen
erklärt.
Vom generellen Blickpunkt eines tribologischen Systems aus mag diese Arbeit zu
einem fundamentalen Verständnis der Mechanismen führen, welche das Reibungs und Verschleißverhalten kontrollieren, obwohl hier einfache quantitative (mathematische)
Zusammenhänge bisher nicht zu erwarten sind. Der auf energiebasierenden
Modellen fußende Lösungsansatz der neuronalen Netzwerke (ANN) wurde darüber
hinaus auf die experimentellen Datensätze angewendet. Die gut trainierten ANN's
besitzen das Potenzial sie in der praktischen Anwendungen zur Online-
Datenauswertung und zur Vorhersage des Verschleißfortschritts einzusetzen.
This thesis investigates the constrained form of the spherical Minimax location problem and the spherical Weber location problem. Specifically, we consider the problem of locating a new facility on the surface of the unit sphere in the presence of convex spherical polygonal restricted regions and forbidden regions such that the maximum weighted distance from the new facility on the surface of the unit sphere to m existing facilities is minimized and the sum of the weighted distance from the new facility on the surface of the unit sphere to m existing facilities is minimized. It is assumed that a forbidden region is an area on the surface of the unit sphere where travel and facility location are not permitted and that distance is measured using the great circle arc distance. We represent a polynomial time algorithm for the spherical Minimax location problem for the special case where all the existing facilities are located on the surface of a hemisphere. Further, we have developed algorithms for spherical Weber location problem using barrier distance on a hemisphere as well as on the unit sphere.
In this dissertation a model of melt spinning (by Doufas, McHugh and Miller) has been investigated. The model (DMM model) which takes into account effects of inertia, air drag, gravity and surface tension in the momentum equation and heat exchange between air and fibre surface, viscous dissipation and crystallization in the energy equation also has a complicated coupling with the microstructure. The model has two parts, before onset of crystallization (BOC) and after onset of crystallization (AOC) with the point of onset of crystallization as the unknown interface. Mathematically the model has been formulated as a Free boundary value problem. Changes have been introduced in the model with respect to the air drag and an interface condition at the free boundary. The mathematical analysis of the nonlinear, coupled free boundary value problem shows that the solution of this problem depends heavily on initial conditions and parameters which renders the global analysis impossible. But by defining a physically acceptable solution, it is shown that for a more restricted set of initial conditions if a unique solution exists for IVP BOC then it is physically acceptable. For this the important property of the positivity of the conformation tensor variables has been proved. Further it is shown that if a physically acceptable solution exists for IVP BOC then under certain conditions it also exists for IVP AOC. This gives an important relation between the initial conditions of IVP BOC and the existence of a physically acceptable solution of IVP AOC. A new investigation has been done for the melt spinning process in the framework of classical mechanics. A Hamiltonian formulation has been done for the melt spinning process for which appropriate Poisson brackets have been derived for the 1-d, elongational flow of a viscoelastic fluid. From the Hamiltonian, cross sectionally averaged balance mass and momentum equations of melt spinning can be derived along with the microstructural equations. These studies show that the complicated problem of melt spinning can also be studied under the framework of classical mechanics. This work provides the basic groundwork on which further investigations on the dynamics of a fibre could be carried out. The Free boundary value problem has been solved numerically using shooting method. Matlab routines have been used to solve the IVPs arising in the problem. Some numerical case studies have been done to study the sensitivity of the ODE systems with respect to the initial guess and parameters. These experiments support the analysis done and throw more light on the stiff nature and ill posedness of the ODE systems. To validate the model, simulations have been performed on sets of data provided by the company. Comparison of numerical results (axial velocity profiles) has been done with the experimental profiles provided by the company. Numerical results have been found to be in excellent agreement with the experimental profiles.
Aggregation of Large-Scale Network Flow Problems with Application to Evacuation Planning at SAP
(2005)
Our initial situation is as follows: The blueprint of the ground floor of SAP’s main building the EVZ is given and the open question on how mathematic can support the evacuation’s planning process ? To model evacuation processes in advance as well as for existing buildings two models can be considered: macro- and microscopic models. Microscopic models emphasize the individual movement of evacuees. These models consider individual parameters such as walking speed, reaction time or physical abilities as well as the interaction of evacuees during the evacuation process. Because of the fact that the microscopic model requires lots of data, simulations are taken for implementation. Most of the current approaches concerning simulation are based on cellular automats. In contrast to microscopic models, macroscopic models do not consider individual parameters such as the physical abilities of the evacuees. This means that the evacuees are treated as a homogenous group for which only common characteristics are considered; an average human being is assumed. We do not have that much data as in the case of the microscopic models. Therefore, the macroscopic models are mainly based on optimization approaches. In most cases, a building or any other evacuation object is represented through a static network. A time horizon T is added, in order to be able to describe the evolution of the evacuation process over time. Connecting these two components we finally get a dynamic network. Based on this network, dynamic network flow problems are formulated, which can map evacuation processes. We focused on the macroscopic model in our thesis. Our main focus concerning the transfer from the real world problem (e.g. supporting the evacuation planning) will be the modeling of the blueprint as a dynamic network. After modeling the blueprint as a dynamic network, it will be no problem to give a formulation of a dynamic network flow problem, the so-called evacuation problem, which seeks for an optimal evacuation time. However, we have to solve a static large-scale network flow problem to derive a solution for this formulation. In order to reduce the network size, we will examine the possibility of applying aggregation to the evacuation problem. Aggregation (lat. aggregare = piling, affiliate; lat. aggregatio = accumulation, union; the act of gathering something together) was basically used to reduce the size of general large-scale linear or integer programs. The results gained for the general problem definitions were then applied to the transportation problem and the minimum cost network flow problem. We review this theory in detail and look on how results derived there can be used for the evacuation problem, too.
Fliehkraftbedingte Aufweitungen und Verzerrungen der nur wenige Mikrometer großen Lagerspalte sowie strömungsdynamische Instabilitäten wie der des Halbfrequenzwirbels sind heutige physikalische Grenzen gasgeschmierter Lagerungen für hohe Drehfrequenzen. Neben der Entwicklung neuartiger, inhomogener Materialien wie zum Beispiel Verbunde, sind Verkleinerungen der Flugkreise aktuelle Lösungsstrategien dieser Problematiken. Die Entwicklung, Realisierung und experimentelle Untersuchung eines hochfrequenten Lagersystems konventioneller Baugröße, unter Verwendung ordinärer, homogener Materialien ist Ziel vorliegender Arbeit. Die Ausarbeitung einer Idee für drehfrequenzunabhängige fliehkraftinvariante Lagerspalte überführt die Problematik der Fliehkraftaufweitung zur alleinigen Grenze der maximal verträglichen Spannung des Rotormaterials unter Fliehkraft. Sowohl die Größe als auch die Kreuzkoppelungen von Kreiselmomenten, die in einer der Störung unterschiedlichen Richtung ihrer Antworten resultieren, sind durch isotrope Gesamtauslegung der Lagerspaltcharakteristika und der Rotorträgheitsmomente auf das mögliche Minimum zu reduzieren. Hierfür sollen sich Lagerkräfte um den isotropen Mittelpunkt, der auch gleichzeitig der Massenmittelpunkt des Rotors darstellt, gegeneinander auslöschen. Analytische Untersuchungen der resultierenden Eigenfrequenzen des Lagersystems gaben Rückschlüsse auf mögliche, eigenfrequenzgebundene Instabilitäten über dem Drehfrequenzbereich. Durch eine vorgeschaltete Steifigkeit vor das Lagersystem konnten diese Eigenfrequenzen derart nach oben transformiert werden, daß solche Instabilitäten auszuschließen sind. Da als dynamisch arbeitendes, gasgeschmiertes Lager konzipiert wurde, bis zum Erreichen der Levitationsdrehfrequenz, eine statisch arbeitende, gasgeschmierte Anlaufhilfe in das dynamisch arbeitende System integriert. Zur Erfassung der Rotorlage und –dynamik im Betrieb wurde ein optischer „low-cost“ Sensor mit der der Optik eines handelsüblichen CD-Roms entwickelt. Mit fünf dieser Sensoren und einer eigens hierfür entwickelten Auswerteelektronik konnte die Rotordynamik bis zu einer Drehfrequenz von 3 kHz und mit bis zu 90.000 Signalen pro Sekunde sicher erfaßt werden. Die entwickelte Software war, in Verbindung mit den gelieferten Abstandsinformationen der digitalen Meßwertelektronik, in der Lage das System nach Parametrierung autonom so zu steuern und zu regeln, daß der vorgegebene Nennlagerspalt und die vorgegebene Drehfrequenz stets eingehalten werden konnte. Die experimentellen Ergebnisse spiegelten eindeutig die analytisch verfolgten Ziele der fliehkraftinvarianten, isotropen und eigenfrequenzoptimierten Gestaltung wieder und bilden in analytischer Auslegung, rotordynamischer Behandlung und Eigenfrequenzbeeinflussung neue Grundlagen für hochfrequent drehende, gasgeschmierte Lagersysteme, die zum Teil auch auf Wälzlagerungen übertragbar sind.
Flow of non-Newtonian fluid in saturated porous media can be described by the continuity equation and the generalized Darcy law. Efficient solution of the resulting second order nonlinear elliptic equation is discussed here. The equation is discretized by a finite volume method on a cell-centered grid. Local adaptive refinement of the grid is introduced in order to reduce the number of unknowns. A special implementation approach is used, which allows us to perform unstructured local refinement in conjunction with the finite volume discretization. Two residual based error indicators are exploited in the adaptive refinement criterion. Second order accurate discretization of the fluxes on the interfaces between refined and non-refined subdomains, as well as on the boundaries with Dirichlet boundary condition, are presented here, as an essential part of the accurate and efficient algorithm. A nonlinear full approximation storage multigrid algorithm is developed especially for the above described composite (coarse plus locally refined) grid approach. In particular, second order approximation of the fluxes around interfaces is a result of a quadratic approximation of slave nodes in the multigrid - adaptive refinement (MG-AR) algorithm. Results from numerical solution of various academic and practice-induced problems are presented and the performance of the solver is discussed.
Traditional methods fail for the purpose of simulating the complete flow process in urban areas as a consequence of heavy rainfall and as required by the European Standard EN-752 since the bi-directional coupling between sewer and surface is not properly handled. The methodology, developed in the BMBF/ EUREKA-project RisUrSim, solves this problem by carrying out the runoff on the basis of shallow water equations solved on high-resolution surface grids. Exchange nodes between the sewer and the surface, like inlets and manholes, are located in the computational grid and water leaving the sewer in case of surcharge is further distributed on the surface. So far, it has been a problem to get the dense topographical information needed to build models suitable for hydrodynamic runoff calculation in urban areas. Recent airborne data collection methods like laser scanning, however, offer a great chance to economically gather densely sampled input data. This paper studies the potential of such laser-scan data sets for urban water hydrodynamics.
The following three papers present recent developments in nonlinear Galerkin schemes for solving the spherical Navier-Stokes equation, in wavelet theory based on the 3-dimensional ball, and in multiscale solutions of the Poisson equation inside the ball, that have been presented at the 76th GAMM Annual Meeting in Luxemburg. Part A: A Nonlinear Galerkin Scheme Involving Vectorial and Tensorial Spherical Wavelets for Solving the Incompressible Navier-Stokes Equation on the Sphere The spherical Navier-Stokes equation plays a fundamental role in meteorology by modelling meso-scale (stratified) atmospherical flows. This article introduces a wavelet based nonlinear Galerkin method applied to the Navier-Stokes equation on the rotating sphere. In detail, this scheme is implemented by using divergence free vectorial spherical wavelets, and its convergence is proven. To improve numerical efficiency an extension of the spherical panel clustering algorithm to vectorial and tensorial kernels is constructed. This method enables the rapid computation of the wavelet coefficients of the nonlinear advection term. Thereby, we also indicate error estimates. Finally, extensive numerical simulations for the nonlinear interaction of three vortices are presented. Part B: Methods of Resolution for the Poisson Equation on the 3D Ball Within the article at hand, we investigate the Poisson equation solved by an integral operator, originating from an ansatz by Greens functions. This connection between mass distributions and the gravitational force is essential to investigate, especially inside the Earth, where structures and phenomena are not sufficiently known and plumbable. Since the operator stated above does not solve the equation for all square-integrable functions, the solution space will be decomposed by a multiscale analysis in terms of scaling functions. Classical Euclidean wavelet theory appears not to be the appropriate choice. Ansatz functions are chosen to be reflecting the rotational invariance of the ball. In these terms, the operator itself is finally decomposed and replaced by versions more manageable, revealing structural information about itself. Part C: Wavelets on the 3–dimensional Ball In this article wavelets on a ball in R^3 are introduced. Corresponding properties like an approximate identity and decomposition/reconstruction (scale step property) are proved. The advantage of this approach compared to a classical Fourier analysis in orthogonal polynomials is a better localization of the used ansatz functions.
In this work we introduce a new bandlimited spherical wavelet: The Bernstein wavelet. It possesses a couple of interesting properties. To be specific, we are able to construct bandlimited wavelets free of oscillations. The scaling function of this wavelet is investigated with regard to the spherical uncertainty principle, i.e., its localization in the space domain as well as in the momentum domain is calculated and compared to the well-known Shannon scaling function. Surprisingly, they possess the same localization in space although one is highly oscillating whereas the other one shows no oscillatory behavior. Moreover, the Bernstein scaling function turns out to be the first bandlimited scaling function known to the literature whose uncertainty product tends to the minimal value 1.
This work is dedicated to the wavelet modelling of regional and temporal variations of the Earth's gravitational potential observed by GRACE. In the first part, all required mathematical tools and methods involving spherical wavelets are introduced. Then we apply our method to monthly GRACE gravity fields. A strong seasonal signal can be identified, which is restricted to areas, where large-scale redistributions of continental water mass are expected. This assumption is analyzed and verified by comparing the time series of regionally obtained wavelet coefficients of the gravitational signal originated from hydrology models and the gravitational potential observed by GRACE. The results are in good agreement to previous studies and illustrate that wavelets are an appropriate tool to investigate regional time-variable effects in the gravitational field.
We introduce splines for the approximation of harmonic functions on a 3-dimensional ball. Those splines are combined with a multiresolution concept. More precisely, at each step of improving the approximation we add more data and, at the same time, reduce the hat-width of the used spline basis functions. Finally, a convergence theorem is proved. One possible application, that is discussed in detail, is the reconstruction of the Earth´s density distribution from gravitational data obtained at a satellite orbit. This is an exponentially ill-posed problem where only the harmonic part of the density can be recovered since its orthogonal complement has the potential 0. Whereas classical approaches use a truncated singular value decomposition (TSVD) with the well-known disadvantages like the non-localizing character of the used spherical harmonics and the bandlimitedness of the solution, modern regularization techniques use wavelets allowing a localized reconstruction via convolutions with kernels that are only essentially large in the region of interest. The essential remaining drawback of a TSVD and the wavelet approaches is that the integrals (i.e. the inner product in case of a TSVD and the convolution in case of wavelets) are calculated on a spherical orbit, which is not given in reality. Thus, simplifying modelling assumptions, that certainly include a modelling error, have to be made. The splines introduced here have the important advantage, that the given data need not be located on a sphere but may be (almost) arbitrarily distributed in the outer space of the Earth. This includes, in particular, the possibility to mix data from different satellite missions (different orbits, different derivatives of the gravitational potential) in the calculation of the Earth´s density distribution. Moreover, the approximating splines can be calculated at varying resolution scales, where the differences for increasing the resolution can be computed with the introduced spline-wavelet technique.
The present thesis deals with a novel approach to increase the resource usage in digital communications. In digital communication systems, each information bearing data symbol is associated to a waveform which is transmitted over a physical medium. The time or frequency separations among the waveforms associated to the information data have always been chosen to avoid or limit the interference among them. By doing so, n the presence of a distortionless ideal channel, a single receive waveform is affected as little as possible by the presence of the other waveforms. The conditions necessary to meet the absence of any interference among the waveforms are well known and consist of a relationship between the minimum time separation among the waveforms and their bandwidth occupation or, equivalently, the minimum frequency separation and their time occupation. These conditions are referred to as Nyquist assumptions. The key idea of this work is to relax the Nyquist assumptions and to transmit with a time and/or frequency separation between the waveforms smaller than the minimum required to avoid interference. The reduction of the time and/or frequency separation generates not only an increment of the resource usage, but also a degradation in the quality of the received data. Therefore, to maintain a certain quality in the received signal, we have to increase the amount of transmitted power. We investigate the trade-off between the increment of the resource usage and the correspondent performance degradation in three different cases. The first case is the single carrier case in which all waveforms have the same spectrum, but have different temporal locations. The second one is the multi carrier case in which each waveform has its distinct spectrum and occupies all the available time. Finally, the hybrid case when each waveform has its unique time and frequency location. These different cases are framed within the general system modelling developed in the thesis so that they can be easily compared. We evaluate the potential of the key idea of the thesis by choosing a set of four possible waveforms with different characteristics. By doing so, we study the influence of the waveform characteristics in the three system configurations. We propose an interpretation of the results by modifying the well-known Shannon capacity formula and by explicitly expressing its dependency on the increment of resource usage and on the performance degradation. The results are very promising. We show that both in the case of a single carrier system with a time limited waveform and in the case of a multi-carrier system with a frequency limited waveform, the reduction of the time or frequency separation, respectively, has a positive effect on the channel capacity. The latter, depending on the actual SNR, can double or increase even more significantly.
Das Handlungsreisendenproblem ist eines der bekanntesten NP-vollständigen kombinatorischen Optimierungsprobleme. Algorithmen mit unterschiedlichen Konzepten und Strategien wurden entwickelt, die sich in Lösungsqualität und Laufzeit unterscheiden. Ein vergleichsweise neuer Ansatz stellt jedoch das Kombinieren vorhandener Lösungen dar. Hier werden die Kantenmengen gegebener Handlungsreisendertouren als Ausgangsbasis für weitere Optimierungen verwendet. Erste Veröffentlichungen zu diesem Gebiet stellen bereits vielversprechende Ergebnisse vor, die nachfolgend vertieft evaluiert werden.
By means of the limit and jump relations of classical potential theory with respect to the vectorial Helmholtz equation a wavelet approach is established on a regular surface. The multiscale procedure is constructed in such a way that the emerging scalar, vectorial and tensorial potential kernels act as scaling functions. Corresponding wavelets are defined via a canonical refinement equation. A tree algorithm for fast decomposition of a complex-valued vector field given on a regular surface is developed based on numerical integration rules. By virtue of this tree algorithm, an effcient numerical method for the solution of vectorial Fredholm integral equations on regular surfaces is discussed in more detail. The resulting multiscale formulation is used to solve boundary-value problems for the time harmonic Maxwell's equations corresponding to regular surfaces.
In modern geoscience, understanding the climate depends on the information about the oceans. Covering two thirds of the Earth, oceans play an important role. Oceanic phenomena are, for example, oceanic circulation, water exchanges between atmosphere, land and ocean or temporal changes of the total water volume. All these features require new methods in constructive approximation, since they are regionally bounded and not globally observable. This article deals with methods of handling data with locally supported basis functions, modeling them in a multiscale scheme involving a wavelet approximation and presenting the main results for the dynamic topography and the geostrophic flow, e.g., in the Northern Atlantic. Further, it is demonstrated that compressional rates of the occurring wavelet transforms can be achieved by use of locally supported wavelets.
Das Ziel dieser Arbeit ist es, ein Framework und einen funktionsfähigen Prototypen für eine Middleware zu entwickeln, die es ermöglicht, Berechnungen verteilt in einem Peer-to-Peer-Netz auszuführen. Dabei sollen verschiedene Arten der Berechnung unterstützt werden. Eine Art der Berechnung sind Aufträge, die massiv parallel berechnet werden können, d.h. solche, die in unabhängige Teilaufträge zerlegt werden können und ohne gegenseitige Kommunikation auskommen. Diese Aufträge können entweder so parametrisiert sein, dass jeder Teilauftrag einen anderen Satz Parameter erhält (z.B. Fraktalberechnung), oder zufallsbasiert, so dass jeder Teilauftrag mit den gleichen Ausgangswerten berechnet wird und unterschiedliche Ergebnisse resultieren. Eine andere Art der Berechnung setzt voraus, dass Knoten, die am gleichen Auftrag arbeiten, auch miteinander kooperieren und durch Nachrichten beispielsweise Teillösungen austauschen (z.B. verteilte evolutionäre Algorithmen). Alle Knoten in diesem Netz sollen gleichberechtigt sein, d.h. jedem Knoten soll es möglich sein, eigene Anwendungen und Aufgaben im Netz zu verteilen. Den verteilten Anwendungen soll zudem die Möglichkeit gegeben werden, mit anderen Knoten, die an der gleichen Aufgabe arbeiten, kommunizieren zu können. Alle benötigten Informationen zur Berechnung eines Auftrags (d.h. Parameter, ausführbarer Code der Anwendung, Anzahl der zu berechnenden Fälle) sollen den rechnenden Knoten durch Middlewarefunktionen zur Verfügung gestellt werden, ebenso soll der Rücktransport der Ergebnisse zum Initiator durch die Middleware erfolgen. Der Nutzer soll also an seinem Arbeitsplatz seine verteilte Anwendung starten können und die Ergebnisse schließlich wieder auf seinem Rechner vorfinden. Die Implementierung soll möglichst modular angelegt sein und nicht auf ein konkretes P2P-Protokoll beschränkt sein, sondern einen leichten Austausch bzw. eine nutzergesteuerte Auswahl von verschiedenen Protokollen ermöglichen. Im Rahmen dieses Prototypen soll ein epidemisches P2P-Protokoll realisiert werden.
Im Rahmen der Arbeit wurden neue monosubstituierte, optisch aktive Cyclopentadienylliganden mit [2.2.1]-bicyclischen Substituenten synthetisiert. Als Startmaterialien dienten Verbindungen aus dem chiral pool wie beispielsweise Campher, Borneol oder auch Fenchon. Mit den neuen Liganden wurden optisch aktive Komplexe des Zirkoniums und des Titans hergestellt. Ein erstes Katalyseexperiment (katalytische Hydrierung) wurde durchgeführt.
Carbon-fibre reinforced plastics have been widely used in the aerospace industry as
materials for structural components. During recent years, the focus has been on
preform/RTM materials with the aim of improving material properties and reducing
costs. Harnessing the full potential of these materials requires a model for assessing
the properties and in particular long-term behaviour. Such a model needs to take into
account the special conditions of these materials. Basic failure mechanisms have to
be analysed in order to develop this kind of model.
Consequently, the aim of the work was to investigate the fatigue phenomenon in
preform-CFRP materials with thermoset matrices on a microstructural level. The
influence of the dynamic loading and the temperature on the emerging fracture
phenomena should be identified. Based on the results, a common fracture mechanism
should be found. The failure should be described on a mesoscopic level so that
it is not restricted on the fatigue failure at a single crack front.
To achieve this aim, different preform materials with EP matrix (some of which had
been subjected to impact) were loaded with dynamic compression load and high
frequent alternate bending. The fatigue behaviour of the matrix systems was investigated
by CT tests.
By means of microfractography, the only method for detecting fatigue failure as such,
the failure mechanisms were analysed at submicroscopic level. The results showed
correlations between microstructure and failure.
It became apparent that what in the technical literature has been given as an explanation
for the appearance of the fatigue striations in the scanning electron microscope
had to be corrected. As undercuts are not reflected in the SEM as dark striations,
the appearance of the striations must be based on different inclinations of the
local fractured surface to the primary electron beam.
On the basis of this result the shape and the formation of the fatigue striations could
be shown in resin pockets and fibre imprints. Fatigue striations have a shape which
sticks out from the fracture plane, preferably in the form of steps.
There was no proof for an influence of the high frequent load on the formation of
fatigue striations. However, it was possible to find lamellar fracture phenomena which
have not been described in the technical literature yet. Due to their shape and their occurrence these can be understood rather as a sign of a dynamic load then as a
fracture phenomenon of a high frequent cyclic loading.
The examinations of the high frequent loaded samples, where temperatures up to
120°C occurred, as well as in the CT tests with elevated temperatures (60% Tg)
yielded no proof that the temperature has an influence on the mechanical failure
behaviour. However, the formation of the fatigue striations in high frequent loaded
specimens leads to the deduction that adiabatic heating exists at the crack tip which
leads to large plastic deformations because the glass transition temperature is exceeded
locally.
The microfractographic investigations showed that the fatigue striations appear as
separate static fractures. On account of their shape and in relation to the matching
fracture surfaces plastic processes can be held responsible for the formation of the
striations. Altogether this leads to a modification of the models for the origin of fatigue
striations prevalent in the technical literature. The suggested model associates the
real fracture growth under fatigue loading only with a small part of the loading cycle.
Crack propagation only occurs when the maximum stress intensity is reached in the
area of the upper loading of the cycle. Microplastic processes by molecular rearrangement
in the stress field ahead of the crack tip lead to the blunting of the crack
tip, which is reflected as fatigue striations on the fracture surface. Simultaneously, the
cyclic loading causes damages in the molecular network of the thermoset. This leads
to the possibility of fracture formation below the static stress at break.
On the basis of the model and of fatigue crack growth diagrams it is possible to
establish thresholds for the stress intensity necessary for crack propagation under
cyclic load. The upper threshold of the stress intensity corresponds to KC, because it
marks the transition to unstable crack growth. The lower threshold is determined by
the value of the cyclic stress intensity factor where crack growth has just ceased to
be ascertainable.
With the existing model of local crack growth under fatigue loading and the results of
the chronological course of failure from the microfractographic investigations of the
different materials it was possible to detect a general failure mechanism for the
preform-CFRP materials.
When an external alternating load is applied, an inhomogeneous stress field forms in
the composite material. In areas stressed within the growth stress, fatigue growth occurs in the form of secondary fractures within the matrix. The primary crack front
runs along these damaged points in the material until global failure occurs. This leads
to a discontinuous, stepwise failure expiration under fatigue loading. This general
mechanism permits assessment of the damage behaviour and the progression of
failure in various types of fibre reinforcement.
Bei gängigen Verfahren zur Untersuchung von unbekannten Duftstoffgemischen sind entweder die Selektivität, die Empfindlichkeit oder aber die zeitliche Auflösung des Systems nicht ausreichend für eine gute und schnelle Analyse. Sollen diese Ansprüche erfüllt werden, so besteht Bedarf nach einem neuen Verfahren, welches schnell und dennoch sehr genau Duftstoffgemische analysieren kann. In dieser Arbeit wird ein solches Verfahren und ein neu entwickeltes Meßsystem vorgestellt, welches mittels Potentialänderung einer Insektenantenne (Elektroantennogramm, EAG) Duftstoffgemische auf deren Komponenten und Konzentrationen bestimmen kann. Dazu werden Basis-Reizstoffe ermittelt, welche ihrerseits zur Quantifizierung der Komponenten des zu untersuchenden Duftstoffgemischs benötigt werden. Je mehr dieser Basis-Reizstoffe bekannt und zur Bestimmung des Duftstoffgemischs eingesetzt werden können, desto genauer wird die Analyse. Zu diesem Zweck wurde ein multidimensionales EAG-Meßsystem entwickelt, mit dem 7 Basis-Reizstoffe mit je 2 Konzentrationen verwendet werden können. Zur Ermittlung der Basis-Reizstoffe wurde ein Verfahren entwickelt und Überlagerungsversuche von Duftstoffen mit dem Kartoffelkäfer Leptinotarsus decemlineata durchgeführt. Dabei konnte ein Triplett von Basis-Reizstoffen gefunden werden. Zudem konnte durch Überlagerungsversuche von Pflanzenduftstoffen und Pheromon mit dem Bekreuzten Traubenwickler Lobesia botrana gezeigt werden, daß die Anwesenheit von Pflanzenduftstoffen die Bestimmung der Konzentration des Pheromons mit dem EAG-Meßsystem und dem Zusatzreizverfahren nicht beeinträchtigt. Pheromon einerseits und Pflanzenduftstoffe andererseits werden getrennt voneinander mit einer hohen Selektivität von der Insektenantenne registriert. Das entwickelte Verfahren und Meßsystem kann ebenfalls zur Überprüfung der Selektivität einer Insektenantenne auf Duftstoffe benutzt werden.
The scientific and industrial interest devoted to polymer/layered silicate
nanocomposites due to their outstanding properties and novel applications resulted
in numerous studies in the last decade. They cover mostly thermoplastic- and
thermoset-based systems. Recently, studies in rubber/layered silicate
nanocomposites were started, as well. It was presented how complex maybe the
nanocomposite formation for the related systems. Therefore the rules governing their
structure-property relationships have to be clarified. In this Thesis, the related
aspects were addressed.
For the investigations several ethylene propylene diene rubbers (EPDM) of polar and
non-polar origin were selected, as well as, the more polar hydrogenated acrylonitrile
butadiene rubber (HNBR). The polarity was found to be beneficial on the
nanocomposite formation as it assisted to the intercalation of the polymer chains
within the clay galleries. This favored the development of exfoliated structures.
Finding an appropriate processing procedure, i.e. compounding in a kneader instead
of on an open mill, the mechanical performance of the nanocomposites was
significantly improved. The complexity of the nanocomposite formation in
rubber/organoclay system was demonstrated. The deintercalation of the organoclay
observed, was traced to the vulcanization system used. It was evidenced by an
indirect way that during sulfur curing, the primary amine clay intercalant leaves the
silicate surface and migrates in the rubber matrix. This was explained by its
participation in the sulfur-rich Zn-complexes created. Thus, by using quaternary
amine clay intercalants (as it was presented for EPDM or HNBR compounds) the
deintercalation was eliminated. The organoclay intercalation/deintercalation detected
for the primary amine clay intercalants, were controlled by means of peroxide curing
(as it was presented for HNBR compounds), where the vulcanization mechanism
differs from that of the sulfur curing.
The current analysis showed that by selecting the appropriate organoclay type the
properties of the nanocomposites can be tailored. This occurs via generating different
nanostructures (i.e. exfoliated, intercalated or deintercalated). In all cases, the
rubber/organoclay nanocomposites exhibited better performance than vulcanizates
with traditional fillers, like silica or unmodified (pristine) layered silicates.The mechanical and gas permeation behavior of the respective nanocomposites
were modelled. It was shown that models (e.g. Guth’s or Nielsen’s equations)
developed for “traditional” vulcanizates can be used when specific aspects are taken
into consideration. These involve characteristics related to the platy structure of the
silicates, i.e. their aspect ratio after compounding (appearance of platelet stacks), or
their orientation in the rubber matrix (order parameter).
In der vorliegenden Arbeit wurden mittels ab initio Methoden die Strukturen und Eigenschaften sowie das Reaktionsverhalten der kationischen Zwischenstufen einer nucleophilen und einer elektrophilen Substitution untersucht. Geometrieoptimierungen wurden unter Verwendung des B3LYP-Dichtefunktionals durchgeführt, Energien und Enthalpien aus Coupled-Cluster (CCSD(T))-Rechnungen gewonnen. Standardmäßig wurde der Basissatz 6-31++G(d,p) benutzt. Im ersten Teil der Arbeit stand die Frage im Mittelpunkt, welchen Einfluss eine Aminosubstitution am Bicyclo[3.1.0]hex-3-ylium-Kation auf dessen Reaktionsverhalten im Vergleich zum Grundkörper hat und ob sich die experimentell beobachteten Produktbilder der nucleophilen Substitution mit der Annahme dieser Zwischenstufe vereinbaren lassen. Die Reaktions- und Aktivierungsenergien der beiden Teilschritte einer nucleophilen S(N)1-Reaktion an chlor-substituierten Amino-Bicyclo[3.1.0]hexanen unter Gegenwart von Methanol und Methanolat-Anionen sowie der Isomerisierungswege des intermediären Amino-Bicyclo[3.1.0]hex-3-ylium-Kations wurden in CCSD(T)-Rechnungen ermittelt. Der Einfluss des Lösungsmittels Methanol auf die Energien wurde unter Verwendung des C-PCM-Modells bestimmt. Es konnte gezeigt werden, dass die Anwesenheit eines NH2- oder Morpholin-Substituenten zwar wenig an den elektronischen Eigenschaften des Bicyclo[3.1.0]hex-3-ylium-Kations ändert, jedoch neue Reaktionswege, insbesondere Möglichkeiten zur Isomerisierung eröffnet. Die Energiebarrieren dieser Prozesse liegen jedoch durchweg über denen eines nucleophilen Angriffs, so dass die Bildung eines thermodynamisch stabilen, methoxy-substituierten Produktes die vorherrschende Reaktion bleibt und keine isomeren Kationen zu erwarten sind. Der Aminorest erzeugt aus sterischen Gründen und durch die von ihm bewirkte Erhöhung des Dipolmomentes im Trishomocyclopropenylium-Kation eine hohe Regioselektivität zugunsten eines nucleophilen Angriffs an Ringposition beta-C(3), was die aus Sicht der Experimentatoren dringendste Frage nach den Ursachen des regio- und stereochemischen Verlauf der Substitution beantwortet. Im zweiten Teil der vorliegenden Dissertation wurden die Strukturen der sigma- und pi-Komplexe der protonierten Aromaten Benzol, Toluol und Mesitylen bestimmt sowie die Energieprofile der in diesen Verbindungen ablaufenden 1,2-Hydridverschiebungen berechnet. Darüber hinaus wurden für Benzol und Mesitylen die Strukturen von Arenium-Aren-Komplexen und Arenium-Tetrachloroaluminat-Verbindungen ermittelt und die Energetik von Protonentransfers innerhalb dieser Spezies untersucht. Als Ergebnis liegt eine umfassende Datenbasis zur Energetik von intra- und intermolekularen Wasserstoffverschiebungen vor. Die von allen aufgeführten Spezies unter Verwendung der SQM-Methode simulierten Schwingungsspektren erlauben es, bestimmte Verbindungen und Zwischenstufen in Zukunft zuverlässiger und schneller zu identifizieren. Es zeigten sich durchweg sehr gute Übereinstimmungen mit Daten aus IR-, NMR-, MS- und Röntgenstruktur-Experimenten. Einige offene Fragen, wie etwa Auffälligkeiten in den Kristallstrukturen, konnten beantwortet werden. Viele bisher nur qualitativ bekannte Fakten können anhand der erarbeiteten Daten in einem neuen Licht betrachtet werden. Die vorliegenden quantenchemischen Daten bestätigen in den untersuchten Fällen die Beobachtungen der Experimentatoren und liefern darüber hinaus eine fundierte Basis für detaillierte Modellvorstellungen über den Mechanismus von Substitutionsreaktionen, die über substituierte Trishomocyclopropenylium-Kationen oder protonierte Alkylbenzole verlaufen.
Die Verbreitung und damit auch die Abhängigkeit der Unternehmen von der Informationstechnologie [IT] sind in den vergangenen Jahrzehnten extrem angestiegen. Die negativen Folgen dieser Entwicklung zeigt beispielsweise der Zusammenbruch des Stromsystems in den USA im Jahr 2003, wo aufgrund von Computerstörungen in großen Teilen des Landes der Strom ausfiel. Auch höhere Gewalt oder terroristische Angriffe auf IT-Systeme (Cyber-Attacken) können schwerwiegende Schäden für die weltweite Wirtschaft zur Folge haben. Bedingt durch diesen Anstieg der Bedeutung der IT und die damit verbundene zentrale Rolle der Technologie im Unternehmensalltag, der allgemein stärkeren Betrachtung von Risiken durch externe Faktoren wie KonTrAG, Basel II und Sarbanes Oxley, ist die Relevanz einer IT-Risikoberücksichtigung in jüngster Vergangenheit stark angestiegen. Das Ziel dieser Studie ist es, die Bedeutung, welche die IT für einzelne Unternehmen hat, zu messen und diese der Ausgestaltung der IT- Risikoberücksichtigung gegenüberzustellen. Dazu wurde eine Befragung zum Bereich „Einsatz von IT“ und spezifisch zu den auf die IT ausgerichteten „Risikobewältigungsmaßnahmen“ unter den deutschen Aktiengesellschaften durchgeführt. Durch die Auswertung dieser Daten konnte ein Vergleich zwischen der subjektiven Selbsteinschätzung der Unternehmen im Bezug auf die Bedeutung der IT mit den durch diese Studie ermittelten Daten zur IT-Sicherheit durchgeführt werden. Dazu wurde ein IT-Bedeutungsindex entwickelt, welcher in einer weitergehenden Anwendung hilfreich beim zwischenbetrieblichen Vergleich sein kann.
Anthocyane, eine Untergruppe der Flavonoide, sind als natürliche Farbpigmente weit verbreitet in Lebensmitteln pflanzlicher Herkunft. Ihnen werden eine Reihe von gesundheitlich positiven Wirkungen zugeschrieben, was dazu geführt hat, dass auf dem Markt für Nahrungsergänzungsmittel immer mehr Produkte auf Anthocyanbasis auftauchen. Als ein möglicher nachteiliger Faktor für eine potentielle genotoxische Wirkung von Flavonoiden wird die Interaktion mit humanen Topoisomerasen diskutiert. Bezüglich einer möglichen Risiko/Nutzen-Evaluierung ist es nicht nur von Bedeutung, ob Flavonoide/Anthocyane mit diesen Enzymen interagieren, sondern auch die Art dieser Interaktion und sich möglicherweise daraus ergebende Konsequenzen, besonders im Hinblick auf die Integrität der DNA. Ziel der vorliegenden Arbeit war es, die Anthocyanidine Delphinidin (Del), Cyanidin (Cy), Pelargonidin (Pg), Paeonidin (Pn) und Malvidin (Mv) hinsichtlich ihrer Beeinflussung humaner Topoisomerase I und II zu untersuchen. Ein Schwerpunkt lag bei der Aufklärung des Wirkmechanismus dieser Verbindungen bezüglich einer Stabilisierung des Cleavable Complex, möglichen Interaktionen mit der DNA und die Relevanz dieser Effekte für die Integrität zellulärer DNA. Es konnte gezeigt werden, dass nur die Verbindungen mit vicinalen Hydroxygruppen im B-Ring des Anthocyangrundgerüstes, Del und Cy, effektiv die katalytische Aktivität isolierter humaner Topoisomerase I und Topoisomerase IIalpha + IIbeta hemmen. Sie wirken jedoch nicht wie die klassischen Topoisomerasegifte Camptothecin oder Etoposid über die Stabilisierung des kovalenten Topoisomerase-DNA-Komplexes, sondern stellen rein katalytische Inhibitoren dar. Del und Cy könnten sogar die DNA vor Topoisomerase I-Giften schützen, da sie zumindest am isolierten Enzym die Stabilisierung des Cleavable Complex der Topoisomerase I durch Camptothecin effektiv verhindern. Für alle getesteten Anthocyanidine konnte gezeigt werden, dass sie im niedrigen mikromolaren Bereich, zwischen 15 µM und 50 µM, sowohl an die kleine Furche der DNA binden, als auch in die DNA interkalieren können und das diese DNA-interagierenden Eigenschaften keinen wesentlichen Beitrag zur Hemmung der Topoisomerasen liefern. Auch wenn im Falle der Anthocyanidine die direkte DNA-Interaktion im Hinblick auf die Topoisomerasehemmung nur von geringer Bedeutung ist, so scheint sie jedoch relevant bezüglich der Integrität zellulärer DNA zu sein. Die einstündige Inkubation von HT29 Kolonkarzinomzellen zeigte, dass bei Inkubation mit den Anthocyanidinen in Konzentrationen >50 µM, signifikant DNA-Schäden induziert werden. Im Hinblick auf die Integrität der DNA lebender Zellen scheint der jeweilige Konzentrationsbereich von entscheidender Bedeutung zu sein. Ein weiterer Schwerpunkt der vorliegenden Arbeit war es, den Einfluss der Überexpression der Tyrosyl-DNA-Phosphodiesterase 1 (TDP1) nach Inkubation mit Topoisomerasegiften zu untersuchen. Im Rahmen einer Kooperation mit Prof. Boege, Universitätsklinikum Düsseldorf, wurden uns verschiedene Zellklone zur Verfügung gestellt, die ein Fusionsprotein aus TDP1 und GFP überexprimierten, sowie eine katalytisch inaktive Variante des Enzymes (TDP1-H263A). Im Rahmen dieser Arbeit wurden Untersuchungen an diesen Zelllinien zur Zytotoxizität von Topoisomerasegiften durchgeführt, sowie Untersuchungen zum Einfluss der TDP1 auf die Induktion von DNA-Schäden durch Topoisomerasegifte. Untersuchungen zum Zellwachstum der verschiedenen Zelllinien mittels MTT-Zytotoxiziätsassay zeigten nach 72 stündiger Inkubation mit den Topoisomerasegiften Camptothecin (Topo I) und Etoposid (Topo II) keinen signifikanten Wachstumsvorteil bei Überexpression der TDP1. Betrachtet man jedoch die Induktion von DNA-Schäden bei Kurzzeitinkubationen (1h) von Camptothecin im Comet-Assay, so erkennt man eine signifikante Reduktion der DNA-Schäden bei Überexpression der TDP1. Ist bei der TDP1 das katalytische Histidin 263 gegen Alanin ausgetauscht, steigen die DNA-Schäden auf das gleiche Niveau wie bei nicht TDP1-überexprimierenden Zellen, d.h. es findet keine Reparatur statt. Erstaunlicherweise zeigte sich auch bei der Inkubation mit dem Topoisomerase II-Gift Etoposid, welches ursprünglich als Negativkontrolle gedacht war, der gleiche Reparatureffekt. Eine Hochregulation DNA-reparierender Enzyme ist unwahrscheinlich, da bei Inkubation mit dem DNA-methylierenden Agens N-methyl-N'-nitro-N-nitrosoguanidin (MNNG) alle Zelllinien eine vergleichbare Menge an DNA-Schäden aufwiesen. Die nunmehr erzielten Ergebnisse eröffnen erstmals die Möglichkeit den Comet-Assay, unter Verwendung der unterschiedlichen TDP1-Klone, zum Auffinden von TDP1-Hemmstoffen einzusetzen.
In modern textile manufacturing industries, the function of human eyes to detect disturbances in the production processes which yield defective products is switched to cameras. The camera images are analyzed with various methods to detect these disturbances automatically. There are, however, still problems with in particular semi-regular textures which are typical for weaving patterns. We study three parts of that problem of automatic texture analysis: image smoothing, texture synthesis and defect detection. In image smoothing, we develop a two dimensional kernel smoothing method with locally and directionally adaptive bandwidths allowing correlation in the errors. Two approaches are used in synthesising texture. The first is based on constructing a generalized Ising energy function in the Markov Random Field setup, and for the second, we use two-dimensional periodic bootstrap methods for semi-regular texture synthesis. We treat defect detection as multihypothesis testing problem with the null hypothesis representing the absence of defects and the other hypotheses representing various types of defects. We develop a test based on a nonparametric regression setup, and we use the bootstrap for approximating the distribution of our test statistic.
In this paper, theory and algorithms for solving the multiple objective minimum cost flow problem are reviewed. For both the continuous and integer case exact and approximation algorithms are presented. In addition, a section on compromise solutions summarizes corresponding results. The reference list consists of all papers known to the autheors which deal with the multiple objective minimum cost flow problem.
Im diesem Dokument werden Aspekte der formalen zeitlichen Planung bzw. des Scheduling für Bauprojekte anhand ausgewählter Literatur diskutiert. Auf allgemeine Aspekte des Scheduling soll dabei nicht eingegangen werden. Hierzu seien als Standard-Referenzen nur Brucker (2004) und Pinedo (1995) genannt. Zu allgemeinen Fragen des Projekt-Managements sei auf Kerzner (2003) verwiesen. Im Abschnitt 1 werden einige Anforderungen und Besonderheiten der Planung von Baustellen diskutiert. Diese treten allerdings auch in zahlreichen anderen Bereichen der Produktionsplanung und des Projektmanagements auf. In Abschnitt 2 werden dann Aspekte zur Formalisierung von Scheduling-Problemen in der Bauwirtschaft diskutiert, insbesondere Ziele und zu berücksichtigende Restriktionen. Auf eine mathematische Formalisierung wird dabei allerdings verzichtet. Abschnitt 3 bietet eine Übersicht über Verfahren und grundlegende Techniken für die Berechnung von Schedules. In Abschnitt 4 wird ein Überblick über vorhandene Software, zum einen verbreitete Internationale Software, zum anderen deutschsprachige Branchenlösungen, gegeben. Anschließend werden Schlussfolgerungen gezogen und es erfolgt eine Auflistung der Literaturquellen.
Die Nachhaltige Entwicklung gilt spätestens seit der Weltkonferenz 1992 in Rio de Janeiro als globales Leitbild. Zehn Jahre später wurde es durch die Konferenz in Johannesburg weiter konkretisiert und ausdifferenziert. In diesem Kontext entwickelten zahlreiche Regierungen Nachhaltigkeitsstrategien, um das Leitbild der Nachhaltigen Entwicklung zu implementieren. Dennoch sind die Diskussionen hierzu oft noch unspezifisch und konzeptionell ungenügend abgesichert. Insbesondere wurden Indikatoren und Handlungsfelder sowie deren Wechselbeziehungen stark isoliert diskutiert. Der vorliegende Diskussionsbeitrag präsentiert daher eine Methode zur Systematisierung von Handlungsfeldern und Indikatoren. Ausgangspunkt sind die drei Säulen der Nachhaltigen Entwicklung (Ökologie, Ökonomie und Soziales), die in einem Dreieck zusammengeführt werden. Das Dreieck ist in Felder aufgeteilt, um die verschiedenen Zusammenhänge zwischen den drei Säulen abzubilden. Das „Integrierende Nachhaltigkeits-Dreieck“ soll Handlungsfelder und Indikatoren systematisch im Rahmen der Nachhaltigen Entwicklung einordnen. Dieser methodische Ansatz wird gegenwärtig in der Entwicklung der „Nachhaltigkeitsstrategie für Rheinland-Pfalz“ umgesetzt.
Der Trend zur Verfügbarkeit mehrerer Mobilfunknetze im gleichen Versorgungsgebiet nicht nur unterschiedlicher Operatoren, sondern auch unterschiedlicher Mobilfunkstandards in möglicherweise unterschiedlichen Hierarchieebenen führt zu einer Vielzahl von Koexistenzszenarien, in denen Intersystem- und Interoperator-MAI die einzelnen Mobilfunknetze beeinträchtigen können. In der vorliegenden Arbeit wird ein systematischer Zugang zur Koexistenzproblematik durch die Klassifizierung der MAI erarbeitet. Eine MAI-Art kann dabei mehreren MAI-Klassen angehören. Durch die Einteilung in Klassen wird angestrebt, zum einen die eine MAI-Art beeinflussenden Effekte anhand der Zugehörigkeit zu bestimmten MAI-Klassen besser verstehen zu können. Zum anderen dient die Einteilung der MAI in Klassen zum Abschätzen der Gefährlichkeit einer MAI-Art, über die sich Aussagen machen lassen anhand der Zugehörigkeit zu bestimmten MAI-Klassen. Der Begriff Gefährlichkeit einer MAI-Art schließt neben der mittleren Leistung auch weitere Eigenschaften wie Varianz oder Ursache der MAI ein. Einfache Schlimmstfall-Abschätzungen, wie sie in der Literatur gebräuchlich sind, können leicht zu Fehleinschätzungen der Gefährlichkeit einer MAI-Art führen. Durch die Kenntnis der zugehörigen MAI-Klassen einer MAI-Art wird die Gefahr solcher Fehleinschätzungen erkennbar. Neben den Schlimmstfall-Abschätzungen unter Berücksichtigung der MAI-Klassen werden in der vorliegenden Arbeit auch Simulationen durchgeführt, anhand derer die Abschätzungen verifiziert werden. Dazu werden Werkzeuge in Form von mathematischen Modellen zum Berechnen der Leistung der verschiedenen MAI-Arten unter Einbeziehen der verschiedenen betrachteten Verfahren zum Mindern von MAI erarbeitet. Dabei wird auch ein Konzept zum Vermindern der erforderlichen Rechenleistung vorgestellt. Anhand der Untersuchung der Koexistenz der beispielhaften Mobilfunksysteme WCDMA und TD-CDMA wird gezeigt, daß sich das Auftreten extrem hoher Intersystem- bzw. Interoperator-MAI durch geeignete Wahl der Systemparameter wie Zellradien und Antennenhöhen, sowie durch Verfahren zum Mindern von MAI wie effizienten Leistungsregelungsverfahren und dynamische Kanalzuweisung meist vermeiden läßt. Es ist jedoch essentiell, daß die Koexistenzproblematik bereits in der Phase der Funknetzplanung adäquat berücksichtigt wird. Dabei ist eine Kooperation der beteiligten Operatoren meist nicht notwendig, lediglich besonders kritische Fälle wie Kollokation von BSen verschiedener TDD-Mobilfunknetze z.B. nach dem 3G-Teilstandard TD-CDMA müssen von den Operatoren einvernehmlich vermieden werden. Da bei der Koexistenz von Mobilfunknetzen in Makrozellen aufgrund ihres hohen Zellradius besonders hohe Interoperator-MAI für den Fall der Gleichstrecken-MAI auftreten kann, wird in der vorliegenden Arbeit ein neuartiges Konzept zum Vermindern dieser MAI basierend auf Antennentechniken vorgestellt. Das Konzept zeigt ein vielverspechendes Potential zum Mindern der Interoperator-MAI.
Im Rahmen dieser wurden neuartige Fertigungsverfahren zur Herstellung von Bauteilen aus kontinuierlich faserverstärkten Thermoplasten untersucht. Prozesskombinationen aus Faserbündelimprägnierung und Wickeltechnik wurden in der Vergangenheit weitestgehend vernachlässigt, aufgrund der technisch schon sehr anspruchsvollen Imprägnierung einer großen Anzahl von Fasern mit einer hochviskosen Thermoplastschmelze. In jüngerer Vergangenheit wurde jedoch eine neue Technologie entwickelt, die sogenannte Imprägnierrad-Technologie, die eine hochwertige Schmelzeimprägnierung von Faserrovings ermöglicht. Aufgrund der beachtlichen Imprägniergeschwindigkeit und der spezifischen Charakteristika des Prozesses, bot sich die Technologie für eine Prozesskombination mit der Wickeltechnik an. Nach Auslegung und Umsetzung des Entwurfs der Anlagentechnik, wurden umfassende Parameterstudien durchgeführt. Glasfaserverstärkte Polypropylen- und Polyamid 12-Rohrabschnitte wurden mit Prozessgeschwindigkeiten von bis zu 15 m/min hergestellt. Die gegenwärtige Begrenzung der Prozessgeschwindigkeit ist nicht durch die Imprägniergüte bedingt, sondern durch den übermäßigen Anstieg der Kräfte, die benötigt werden, um das Faserbündel von den Imprägnierwerkzeugen abzuziehen. Anlagentechnische Maßnahmen zur Entschärfung dieser Problematik und zur allgemeinen Verbesserung, sowie der damit verbundenen Steigerung der Produktivität wurden vorgeschlagen. Die Wirtschaftlichkeit der Prozesskombination wurde auf Basis einer Kostenvergleichsrechnung bewertet. Die einzigartige Möglichkeit mit einer Prozesskombination den Faservolumengehalt in radialer Richtung in einem Bauteil zu variieren wurde gezeigt. Rollformen als Verfahren zur Herstellung von Profilen mit einer großen Vielfalt von Querschnittsgeometrien aus Metallblechen hat aufgrund seiner hohen Produktivität weite Verbreitung in einer Vielzahl von Industriezweigen gefunden. Durch die Adaption dieses Verfahrens zur Verarbeitung von kontinuierlich verstärkten, thermoplastischen Faserkunststoffverbunden können lange Komponenten, die all die Vorteile dieser Materialien besitzen, auf eine effiziente Art und Weise gefertigt werden. Gewebeverstärkte GF/PP- und GF/PA66-Plattenhalbzeuge wurden erfolgreich zu Hutprofilen umgeformt, mit Prozessgeschwindigkeiten von bis zu 10 m/min. Die Fähigkeit teilkristalline Thermoplaste im Zustand einer unterkühlten Schmelze bei Tem-peraturen unter der Schmelztemperatur umzuformen wurde im Prozess gezielt ausgenutzt. Besondere Aufmerksamkeit wurde dem Werkzeugdesign gewidmet, um dem Umformverhalten kontinuierlich verstärkter Thermoplaste Rechnung zu tragen. Die Qualität der Profile wurde maßgeblich von der Zustelltemperatur der Halbzeuge in den ersten Rollenstand sowie der Austrittstemperatur aus dem Prozess beeinflusst. Das Temperaturprofil des Materials während der Verarbeitung und das Prozesslayout müssen als Funktion von Verarbeitungsgeschwindigkeit und Materialeigenschaften aufeinander abgestimmt werden, um Profile hoher Qualität herzustellen. Die Komplexität und die Schwierigkeiten eines theoretischen Ansatzes zur Beschreibung des Prozesses wurden angesprochen, aber auch auf die Notwendigkeit eines solchen zur Weiterentwicklung des Verfahrens wurde hingewiesen. Im Rahmen dieser Arbeit wurde ein einfaches FE-Modell zur Simulation des Stempelumformens eines Organoblechs zu einem Hutprofil entwickelt. Trotz des unterschiedlichen Formgebungsprozesses konnten einige allgemeine Erkenntnisse gewonnen werden, die auch für den Rollformprozess von Bedeutung sind. Einige anlagentechnische Maßnahmen zur Steigerung der Produktqualität im Rah-men zukünftiger Arbeiten wurden vorgeschlagen.
Annual Report 2004
(2005)
Annual Report, Jahrbuch AG Magnetismus
This thesis contains the mathematical treatment of a special class of analog microelectronic circuits called translinear circuits. The goal is to provide foundations of a new coherent synthesis approach for this class of circuits. The mathematical methods of the suggested synthesis approach come from graph theory, combinatorics, and from algebraic geometry, in particular symbolic methods from computer algebra. Translinear circuits form a very special class of analog circuits, because they rely on nonlinear device models, but still allow a very structured approach to network analysis and synthesis. Thus, translinear circuits play the role of a bridge between the "unknown space" of nonlinear circuit theory and the very well exploited domain of linear circuit theory. The nonlinear equations describing the behavior of translinear circuits possess a strong algebraic structure that is nonetheless flexible enough for a wide range of nonlinear functionality. Furthermore, translinear circuits offer several technical advantages like high functional density, low supply voltage and insensitivity to temperature. This unique profile is the reason that several authors consider translinear networks as the key to systematic synthesis methods for nonlinear circuits. The thesis proposes the usage of a computer-generated catalog of translinear network topologies as a synthesis tool. The idea to compile such a catalog has grown from the observation that on the one hand, the topology of a translinear network must satisfy strong constraints which severely limit the number of "admissible" topologies, in particular for networks with few transistors, and on the other hand, the topology of a translinear network already fixes its essential behavior, at least for static networks, because the so-called translinear principle requires the continuous parameters of all transistors to be the same. Even though the admissible topologies are heavily restricted, it is a highly nontrivial task to compile such a catalog. Combinatorial techniques have been adapted to undertake this task. In a catalog of translinear network topologies, prototype network equations can be stored along with each topology. When a circuit with a specified behavior is to be designed, one can search the catalog for a network whose equations can be matched with the desired behavior. In this context, two algebraic problems arise: To set up a meaningful equation for a network in the catalog, an elimination of variables must be performed, and to test whether a prototype equation from the catalog and a specified equation of desired behavior can be "matched", a complex system of polynomial equations must be solved, where the solutions are restricted to a finite set of integers. Sophisticated algorithms from computer algebra are applied in both cases to perform the symbolic computations. All mentioned algorithms have been implemented using C++, Singular, and Mathematica, and are successfully applied to actual design problems of humidity sensor circuitry at Analog Microelectronics GmbH, Mainz. As result of the research conducted, an exhaustive catalog of all static formal translinear networks with at most eight transistors is available. The application for the humidity sensor system proves the applicability of the developed synthesis approach. The details and implementations of the algorithms are worked out only for static networks, but can easily be adopted for dynamic networks as well. While the implementation of the combinatorial algorithms is stand-alone software written "from scratch" in C++, the implementation of the algebraic algorithms, namely the symbolic treatment of the network equations and the match finding, heavily rely on the sophisticated Gröbner basis engine of Singular and thus on more than a decade of experience contained in a special-purpose computer algebra system. It should be pointed out that the thesis contains the new observation that the translinear loop equations of a translinear network are precisely represented by the toric ideal of the network's translinear digraph. Altogether, this thesis confirms and strengthenes the key role of translinear circuits as systematically designable nonlinear circuits.
Der Begriff Risiko ist heutzutage durch politische Bewegungen wie KonTraG und Basel II sowie spektakuläre Unternehmenszusammenbrüche in aller Munde. Dabei wird immer wieder darauf hingewiesen, dass die Unternehmen ganzheitliche integrierte Risikomanagement- und controllingsysteme installieren sollen, um den gesetzlichen Regelungen Genüge zu leisten, keinen dramatischen Anstieg der Refinanzierungskosten verzeichnen zu müssen und das Unternehmen rechtzeitig vor der Illiquidität bewahren zu können. Dazu sind mittlerweile unzählige Vorschläge zur funktionalen und institutionalen Ausgestaltung dieser Systeme vorgenommen worden. Risikosoftware wurde zunächst vermehrt in Banken eingesetzt, da dies schon früh eine Forderung des Bundesaufsichtsamtes für Kreditwesen zum Betreiben von Handelsgeschäften war. In den vergangenen Jahren hat sich, hervorgerufen durch die oben genannten Veränderungen, ein allgemeiner Markt (also auch für Nicht-Banken) für Softwareprogramme, welche die Behandlung des Risikos unterstützen, gebildet. Dieser ist zum einen durch eine Vielzahl von Anbietern geprägt und zum anderen sind die Ausgestaltungsformen der einzelnen Programme sehr unterschiedlich. Es existiert quasi für jedes Risiko (z.B. Liquidität) eine spezielle Software. Damit ergibt sich bei der Auswahl von Software ein komplexes Entscheidungsproblem, auf welches in den folgenden Ausführungen näher eingegangen werden soll. Die Ergebnisse, die in dieser Studie zusammengefasst sind wurden in dem auf Excel basierenden Tool Lynkeus programmiert, sodass eine unternehmensindividuelle Auswahl der Alternativen auf Basis der Nutzwertanalyse möglich ist.