Refine
Year of publication
- 2014 (143) (remove)
Document Type
- Doctoral Thesis (78)
- Preprint (28)
- Article (15)
- Periodical Part (14)
- Working Paper (4)
- Other (2)
- Report (1)
- Study Thesis (1)
Keywords
- Denkmäler (8)
- Monitoring (8)
- Raumplanung (8)
- Brücken (5)
- Bestandserhaltung (4)
- Zerstörungsfreie Prüfung (4)
- Multiobjective optimization (3)
- Querkraft (3)
- Zustandserfassung (3)
- Activity recognition (2)
Faculty / Organisational entity
- Fachbereich Mathematik (43)
- Fachbereich Informatik (15)
- Fachbereich Maschinenbau und Verfahrenstechnik (13)
- Fachbereich Raum- und Umweltplanung (13)
- Fachbereich Sozialwissenschaften (13)
- Fachbereich Chemie (12)
- Fachbereich Bauingenieurwesen (10)
- Universität (8)
- Fachbereich Wirtschaftswissenschaften (5)
- Fachbereich Biologie (3)
- Fachbereich Elektrotechnik und Informationstechnik (3)
- Fachbereich ARUBI (2)
- Fachbereich Physik (1)
- Fraunhofer (ITWM) (1)
- Universitätsbibliothek (1)
Der Bericht beinhaltet die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Online-Fachdatenbanken und CD-ROM-Netz", "Elektronische Hochschulschriften, Lernmaterialien und Fotos", "E-Journals und E-Books", "Literatur- und Sachmittel", "Literaturerwerbung/Bestand", "Bestandserschließung", "Benutzung/Information", "Schulungen", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2013.
Congress Report 2014.08-10
(2014)
Congress Report 2014.11-12
(2014)
Congress Report 2014.01-03
(2014)
Congress Report 2014.04-07
(2014)
Building interoperation among separately developed software units requires checking their conceptual assumptions and constraints. However, eliciting such assumptions and constraints is time consuming and is a challenging task as it requires analyzing each of the interoperating software units. To address this issue we proposed a new conceptual interoperability analysis approach which aims at decreasing the analysis cost and the conceptual mismatches between the interoperating software units. In this report we present the design of a planned controlled experiment for evaluating the effectiveness, efficiency, and acceptance of our proposed conceptual interoperability analysis approach. The design includes the study objectives, research questions, statistical hypotheses, and experimental design. It also provides the materials that will be used in the execution phase of the planned experiment.
In 2006 Jeffrey Achter proved that the distribution of divisor class groups of degree 0 of function fields with a fixed genus and the distribution of eigenspaces in symplectic similitude groups are closely related to each other. Gunter Malle proposed that there should be a similar correspondence between the distribution of class groups of number fields and the distribution of eigenspaces in ceratin matrix groups. Motivated by these results and suggestions we study the distribution of eigenspaces corresponding to the eigenvalue one in some special subgroups of the general linear group over factor rings of rings of integers of number fields and derive some conjectural statements about the distribution of \(p\)-parts of class groups of number fields over a base field \(K_{0}\). Where our main interest lies in the case that \(K_{0}\) contains the \(p\)th roots of unity, because in this situation the \(p\)-parts of class groups seem to behave in an other way like predicted by the popular conjectures of Henri Cohen and Jacques Martinet. In 2010 based on computational data Malle has succeeded in formulating a conjecture in the spirit of Cohen and Martinet for this case. Here using our investigations about the distribution in matrixgroups we generalize the conjecture of Malle to a more abstract level and establish a theoretical backup for these statements.
Durch den Einsatz von Hohlkörpern in Stahlbetondecken können Beton, Stahl und folglich Gewicht eingespart werden. Die Materialeinsparung reduziert den Primärenergiebedarf sowie die Treibhausgasemissionen bei der Herstellung. Hierdurch stellen Hohlkörperdecken im Vergleich zu konventionellen Massivdecken eine ressourcenschonendere Bauweise dar. Infolge der deutlich reduzierten Eigenlast und einem im Verhältnis geringeren Steifigkeitsabfall können zudem Decken mit großen Spannweiten realisiert werden.
Die einzelnen Traganteile der Decken werden durch die Hohlkörper grundsätzlich nachteilig beeinflusst. Die Tragfähigkeit von Hohlkörperdecken mit abgeflachten rotationssymmetrischen Hohlkörpern wurde in der vorliegenden Dissertationsschrift im Detail analysiert. Auf Grundlage experimenteller und theoretischer Untersuchungen wurden Bemessungskonzepte für die Biegetragfähigkeit, die Querkrafttragfähigkeit, die Schubkraftübertragung in der Verbundfuge und das lokale Durchstanzen des Deckenspiegels oberhalb der Hohlkörper entwickelt. Unter Berücksichtigung der Bemessungskonzepte können die Hohlkörperdecken auf dem bauaufsichtlich geforderten Sicherheitsniveau hergestellt werden.
Für die Querkrafttragfähigkeit von Stahlbetondecken ohne Querkraftbewehrung steht derzeit kein allgemein anerkanntes mechanisch begründetes Bemessungskonzept zur Verfügung. Der Einfluss der einzelnen Traganteile auf das Versagen wurde experimentell analysiert. Hierzu wurden Versuche mit verlagerter Druckzone sowie mit ausgeschalteter Rissuferverzahnung und mit ausgeschalteter Dübelwirkung durchgeführt. Der rechnerische Einfluss der einzelnen Traganteile an der Gesamttragfähigkeit konnte durch die Nachrechnung von Versuchen zu Hohlkörper- und Installationsdecken unter Verwendung eines bestehenden mechanisch begründeten Rechenmodells visualisiert und verifiziert werden. Hierdurch wird ein Beitrag zum besseren Verständnis der Querkrafttragfähigkeit geleistet.
Weit ab von Wachstumskernen, raumordnerischen Entwicklungsachsen und ökonomi-scher Wettbewerbsfähigkeit befinden sich peripherisierte Räume in Nord-Thüringen bzw. im südlichen Sachsen-Anhalt. Der dort persistente Transformationsprozess ist durch Abwanderung, mangelnde Investitionen oder überdurchschnittlich hohe Arbeits-losenzahlen gekennzeichnet. Das Dilemma besteht darin, dass die durch nicht selbst verschuldete Abkopplung, Stigmatisierung und Abhängigkeiten gekennzeichneten Kommunen nicht in der Lage sind, durch endogene Kräfte sich neu zu erfinden, was eine Regenerierung möglich machte, um letztendlich in der Wertschöpfungskette den für Investoren derzeit unattraktiven Immobilienmarkt wieder zu beleben. Diese seit mehr als 20 Jahren durchlaufenen Entwicklungspfade wirken sich auf die Siedlungskör-per aus, die in vielen Orten zu perforieren drohen. Es ist festzustellen, dass der Prozess des Niedergangs längst noch nicht abgeschlossen ist.
Soziale Infrastrukturbauten, wie ehemaligen Schulen, Kitas und Krankenhäusern, sind im besonderen Maß von diesen Entwicklungen betroffen. Insbesondere durch den selbst verstärkenden Effekt des demografischen Wandels dienen sie als stadtplanerischer For-schungsgegenstand. Dies vor dem Hintergrund einer möglichen Inwertsetzung als städ-tebauliche Innenentwicklungsstrategie (Anpassung) nach dem diese Immobilien ihre ursprüngliche Nutzung verloren haben. Die Notwendigkeit zum stadtplanerischen Handeln ergibt sich u.a. aus der nicht selten städtebaulich exponierten Lage, als seltene bauliche Zeitzeugnisse auch als Teil eines Ensemble mit kulturhistorischem Wert sowie als Merkpunkte einer gesamtstädtischen bzw. dörflichen Ordnung.
Die Arbeit identifiziert die neuen Herausforderungen, die im Umgang mit leer stehen-den sozialen Infrastrukturbauten in peripherisierten Klein- und Mittelstädten durch die Eigentümer zu bewältigen sind und reflektiert kritisch die Wirksamkeit der informellen sowie formellen planerischen Instrumente. Es werden konkrete Vorschläge gemacht, wie das Immobilienmanagement sowie die Eigentümereinbindung bei sehr stark beru-higten Wohnimmobilienmärkten zu erfolgen hat. Weiterhin werden Strategieansätze des Verwaltungshandelns empfohlen, die auf die speziellen Marktbedingungen abge-stimmt sind.
Neben diesen aus der Theorie gewonnenen Analogieschlüssen zeigen die aus dem Feldexperiment in der o.g. Untersuchungsregion durch umfangreiche Erhebungen ope-rationalisierbare Daten. Aus dieser Dichte der Informationen entstanden valide Aussa-gen, deren Reliabilität in die Entwicklung einer Standortanalysedatenbank einflossen sind. Somit konnte nicht nur die Problemlage objektiv nachgewiesen werden, sondern es gelang auch in der Exploration ein für die Kommunen handhabbares Planungs-instrument zu entwickeln, das auch anderswohin übertragbar ist.
Einfluss verschiedener Angussszenarien auf den Harzinjektionsprozess und dessen simulative Abbildung
(2014)
Die Herstellung von hochleistungs Kunststoff Verbunden für Strukturbauteile erfolgt
in der Automobilindustrie mittels Resin Transfer Molding (RTM), wobei die Kosten für
die Bauteile sehr hoch sind. Die Kosten müssen durch Prozessoptimierungen deutlich
reduziert werden, um eine breite Anwendung von faserverstärkten Kunststoff
Verbunde zu ermöglichen. Prozesssimulationen spielen hierbei eine entscheidende
Rolle, da zeitaufwendige und kostspielige Praxisversuche ersetzt werden können.
Aus diesem Grund wurden in dieser Arbeit die Potentiale der simulativen Abbbildung
des RTM-Prozesses untersucht. Basis der Simulationen bildete eine umfangreiche
Materialparameterstudie bei der die Permeabilität, von für die Automobilindustrie relevanten
Textilhalbzeugen im ungescherten und gescherten Zustand, untersucht
wurde. Somit konnte der Einfluss von Drapierung bei der Fließsimulation evaluiert
werden. Zudem wurde eine neue Methode zur Ermittlung der zeit-, vernetzungs- und
temperaturabhängigen Viskositätsverläufe von hochreaktiven Harzsystemen entwickelt
und angewendet. Die Fließsimulationsmethode wurde zunächst erfolgreich an
einem ebenen Plattenwerkzeug validiert, um zu zeigen, dass die ermittelten Materialparameter
korrekt bestimmt wurden.
Zur Validierung der Simulation wurde ein komplexes Technologieträgerwerkzeug
(TTW) entwickelt. Die Auslegung der Temperierung wurde mittels Temperiersimulationen
unterstützt. Untersuchungen an markanten Kantenbereichen, wie sie bei Automobilbauteilen
häufig auftreten, haben gezeigt, dass bei Kantenradien < 5 mm ein
Voreilen des Harzsystem zu beachten ist. Zudem konnte mittels verschiedener Angussleisten,
der Einfluss verschiedener Angussszenarien untersucht werden.
Mit Hilfe von Sensoren im TTW wurden die Prozessdaten protokolliert und anschließend
mit den Simulationen verglichen. Die Ergebnisse zeigen, dass die simulative
Abbildung des Füllprozesses bei einem komplexen RTM-Werkzeug, trotz einer Vielzahl
an Prozesseinflüssen, möglich ist. Die Abweichungen zwischen der Simulation
und dem Versuch lagen teilweise unter 15 %. Die Belastbarkeit der ermittelten Permeabilitäts-
und Viskositätswerte wurde dadurch nochmals bestätigt. Zudem zeigte
sich, dass die Angussleistenlänge einen signifikanten Einfluss auf die Prozesszeit
hat, wohingegen der Angussleistenquerschnitt eine untergeordnete Rolle spielt.
Die Bestanderhaltung historischer Bauwerke bedarf gründlicher Voruntersuchung, Qualitätskontrolle und Bauwerksüberwachung, um die Eingriffe in die Denkmalsubstanz zu minimieren und Folgeschäden zu vermeiden. Zerstörungsfreie Prüfmethoden und numerische Modellierungsverfahren bieten heute bewährte und neue Möglichkeiten, gesicherte Kenntnisse über die Bauwerke und die altersbedingten Veränderungen ihrer Baumaterialien zu erzielen und gleichzeitig die Eingriffe für Materialentnahmen und Bauwerksöffnungen zu minimieren. Anhand von Fallbeispielen werden aktuelle Forschungsergebnisse präsentiert. Georadarmessungen werden mit theoretischen Modellierungen kombiniert, um gemessene Anomalien in Materialparametern zu begründen. Moderne Anforderungen wie die energetische Sanierung historischer Gebäude werfen neue Problemfelder auf, für die anhand von Modellierungen des Wärme- und Feuchtetransports Antworten gefunden werden. Die Weiterentwicklung von Ultraschallmesstechnik und Signalauswertung ermöglicht neue Anwendungen bei der Untersuchung verwitterter Sandsteinoberflächen mittels Rayleighwellen.
This dissertation focuses on the evaluation of technical and environmental sustainability of water distribution systems based on scenario analysis. The decision support system is created to assist in the decision making-process and to visualize the results of the sustainability assessment for current and future populations and scenarios. First, a methodology is developed to assess the technical and environmental sustainability for the current and future water distribution system scenarios. Then, scenarios are produced to evaluate alternative solutions for the current water distribution system as well as future populations and water demand variations. Finally, a decision support system is proposed using a combination of several visualization approaches to increase the data readability and robustness for the sustainability evaluations of the water distribution system.
The technical sustainability of a water distribution system is measured using the sustainability index methodology which is based on the reliability, resiliency and vulnerability performance criteria. Hydraulic efficiency and water quality requirements are represented using the nodal pressure and water age parameters, respectively. The U.S. Environmental Protection Agency EPANET software is used to simulate hydraulic (i.e. nodal pressure) and water quality (i.e. water age) analysis in a case study. In addition, the environmental sustainability of a water network is evaluated using the “total fresh water use” and “total energy intensity” indicators. For each scenario, multi-criteria decision analysis is used to combine technical and environmental sustainability criteria for the study area.
The technical and environmental sustainability assessment methodology is first applied to the baseline scenario (i.e. the current water distribution system). Critical locations where hydraulic efficiency and water quality problems occur in the current system are identified. There are two major scenario options that are considered to increase the sustainability at these critical locations. These scenarios focus on creating alternative systems in order to test and verify the technical and environmental sustainability methodology rather than obtaining the best solution for the current and future water distribution systems. The first scenario is a traditional approach in order to increase the hydraulic efficiency and water quality. This scenario includes using additional network components such as booster pumps, valves etc. The second scenario is based on using reclaimed water supply to meet the non-potable water demand and fire flow. The fire flow simulation is specifically included in the sustainability assessment since regulations have significant impact on the urban water infrastructure design. Eliminating the fire flow need from potable water distribution systems would assist in saving fresh water resources as well as to reduce detention times.
The decision support system is created to visualize the results of each scenario and to effectively compare these results with each other. The EPANET software is a powerful tool used to conduct hydraulic and water quality analysis but for the decision support system purposes the visualization capabilities are limited. Therefore, in this dissertation, the hydraulic and water quality simulations are completed using EPANET software and the results for each scenario are visualized by combining several visualization techniques in order to provide a better data readability. The first technique introduced here is using small multiple maps instead of the animation technique to visualize the nodal pressure and water age parameters. This technique eliminates the change blindness and provides easy comparison of time steps. In addition, a procedure is proposed to aggregate the nodes along the edges in order to simplify the water network. A circle view technique is used to visualize two values of a single parameter (i.e. the nodal pressure or water age). The third approach is based on fitting the water network into a grid representation which assists in eliminating the irregular geographic distribution of the nodes and improves the visibility of each circle view. Finally, a prototype for an interactive decision support tool is proposed for the current population and water demand scenarios. Interactive tools enable analyzing of the aggregated nodes and provide information about the results of each of the current water distribution scenarios.
The recognition of day-to-day activities is still a very challenging and important research topic. During recent years, a lot of research has gone into designing and realizing smart environ- ments in different application areas such as health care, maintenance, sports or smart homes. As a result, a large amount of sensor modalities were developed, different types of activity and context recognition services were implemented and the resulting systems were benchmarked using state-of-the-art evaluation techniques. However, so far hardly any of these approaches have found their way into the market and consequently into the homes of real end-users on a large scale. The reason for this is, that almost all systems have one or more of the following characteristics in common: expensive high-end or prototype sensors are used which are not af- fordable or reliable enough for mainstream applications; many systems are deployed in highly instrumented environments or so-called "living labs", which are far from real-life scenarios and are often evaluated only in research labs; almost all systems are based on complex system con- figurations and/or extensive training data sets, which means that a large amount of data must be collected in order to install the system. Furthermore, many systems rely on a user and/or environment dependent training, which makes it even more difficult to install them on a large scale. Besides, a standardized integration procedure for the deployment of services in existing environments and smart homes has still not been defined. As a matter of fact, service providers use their own closed systems, which are not compatible with other systems, services or sensors. It is clear, that these points make it nearly impossible to deploy activity recognition systems in a real daily-life environment, to make them affordable for real users and to deploy them in hundreds or thousands of different homes.
This thesis works towards the solution of the above mentioned problems. Activity and context recognition systems designed for large-scale deployment and real-life scenarios are intro- duced. Systems are based on low-cost, reliable sensors and can be set up, configured and trained with little effort, even by technical laymen. It is because of these characteristics that we call our approach "minimally invasive". As a consequence, large amounts of training data, that are usu- ally required by many state-of-the-art approaches, are not necessary. Furthermore, all systems were integrated unobtrusively in real-world/similar to real-world environments and were evalu- ated under real-life, as well as similar to real-life conditions. The thesis addresses the following topics: First, a sub-room level indoor positioning system is introduced. The system is based on low-cost ceiling cameras and a simple computer vision tracking approach. The problem of user identification is solved by correlating modes of locomotion patterns derived from the trajectory of unidentified objects and on-body motion sensors. Afterwards, the issue of recognizing how and what mainstream household devices have been used for is considered. Based on a low-cost microphone, the water consumption of water-taps can be approximated by analyzing plumbing noise. Besides that, operating modes of mainstream electronic devices were recognized by using rule-based classifiers, electric current features and power measurement sensors. As a next step, the difficulty of spotting subtle, barely distinguishable hand activities and the resulting object interactions, within a data set containing a large amount of background data, is addressed. The problem is solved by introducing an on-body core system which is configured by simple, one-time physical measurements and minimal data collections. The lack of large training sets is compensated by fusing the system with activity and context recognition systems, that are able to reduce the search space observed. Amongst other systems, previously introduced approaches and ideas are revisited in this section. An in-depth evaluation shows the impact of each fusion procedure on the performance and run-time of the system. The approaches introduced are able to provide significantly better results than a state-of-the-art inertial system using large amounts of training data. The idea of using unobtrusive sensors has also been applied to the field of behavior analysis. Integrated smartphone sensors are used to detect behavioral changes of in- dividuals due to medium-term stress periods. Behavioral parameters related to location traces, social interactions and phone usage were analyzed to detect significant behavioral changes of individuals during stressless and stressful time periods. Finally, as a closing part of the the- sis, a standardization approach related to the integration of ambient intelligence systems (as introduced in this thesis) in real-life and large-scale scenarios is shown.
Test rig optimization
(2014)
Designing good test rigs for fatigue life tests is a common task in the auto-
motive industry. The problem to find an optimal test rig configuration and
actuator load signals can be formulated as a mathematical program. We in-
troduce a new optimization model that includes multi-criteria, discrete and
continuous aspects. At the same time we manage to avoid the necessity to
deal with the rainflow-counting (RFC) method. RFC is an algorithm, which
extracts load cycles from an irregular time signal. As a mathematical func-
tion it is non-convex and non-differentiable and, hence, makes optimization
of the test rig intractable.
The block structure of the load signals is assumed from the beginning.
It highly reduces complexity of the problem without decreasing the feasible
set. Also, we optimize with respect to the actuators’ positions, which makes
it possible to take torques into account and thus extend the feasible set. As
a result, the new model gives significantly better results, compared with the
other approaches in the test rig optimization.
Under certain conditions, the non-convex test rig problem is a union of
convex problems on cones. Numerical methods for optimization usually need
constraints and a starting point. We describe an algorithm that detects each
cone and its interior point in a polynomial time.
The test rig problem belongs to the class of bilevel programs. For every
instance of the state vector, the sum of functions has to be maximized. We
propose a new branch and bound technique that uses local maxima of every
summand.
In the theory of option pricing one is usually concerned with evaluating expectations under the risk-neutral measure in a continuous-time model.
However, very often these values cannot be calculated explicitly and numerical methods need to be applied to approximate the desired quantity. Monte Carlo simulations, numerical methods for PDEs and the lattice approach are the methods typically employed. In this thesis we consider the latter approach, with the main focus on binomial trees.
The binomial method is based on the concept of weak convergence. The discrete-time model is constructed so as to ensure convergence in distribution to the continuous process. This means that the expectations calculated in the binomial tree can be used as approximations of the option prices in the continuous model. The binomial method is easy to implement and can be adapted to options with different types of payout structures, including American options. This makes the approach very appealing. However, the problem is that in many cases, the convergence of the method is slow and highly irregular, and even a fine discretization does not guarantee accurate price approximations. Therefore, ways of improving the convergence properties are required.
We apply Edgeworth expansions to study the convergence behavior of the lattice approach. We propose a general framework, that allows to obtain asymptotic expansion for both multinomial and multidimensional trees. This information is then used to construct advanced models with superior convergence properties.
In binomial models we usually deal with triangular arrays of lattice random vectors. In this case the available results on Edgeworth expansions for lattices are not directly applicable. Therefore, we first present Edgeworth expansions, which are also valid for the binomial tree setting. We then apply these result to the one-dimensional and multidimensional Black-Scholes models. We obtain third order expansions
for general binomial and trinomial trees in the 1D setting, and construct advanced models for digital, vanilla and barrier options. Second order expansion are provided for the standard 2D binomial trees and advanced models are constructed for the two-asset digital and the two-asset correlation options. We also present advanced binomial models for a multidimensional setting.
Edgeworth expansions have been introduced as a generalization of the central limit theorem and allow to investigate the convergence properties of sums of i.i.d. random variables. We consider triangular arrays of lattice random vectors and obtain a valid Edgeworth expansion for this case. The presented results can be used, for example, to study the convergence behavior of lattice models.
In this paper we construct a numerical solver for the Saint Venant equations. Special attention
is given to the balancing of the source terms, including the bottom slope and variable cross-
sectional profiles. Therefore a special discretization of the pressure law is used, in order to
transfer analytical properties to the numerical method. Based on this approximation a well-
balanced solver is developed, assuring the C-property and depth positivity. The performance
of this method is studied in several test cases focusing on accurate capturing of steady states.
In this paper we propose a procedure to extend classical numerical schemes for
hyperbolic conservation laws to networks of hyperbolic conservation laws. At the
junctions of the network we solve the given coupling conditions and minimize the
contributions of the outgoing numerical waves. This flexible procedure allows
us to also use central schemes at the junctions. Several numerical examples are
considered to investigate the performance of this new approach compared to the
common Godunov solver and exact solutions.
The demand of sustainability is continuously increasing. Therefore, thermoplastic
composites became a focus of research due to their good weight to performance
ratio. Nevertheless, the limiting factor of their usage for some processes is the loss of
consolidation during re-melting (deconsolidation), which reduces the part quality.
Several studies dealing with deconsolidation are available. These studies investigate
a single material and process, which limit their usefulness in terms of general
interpretations as well as their comparability to other studies. There are two main
approaches. The first approach identifies the internal void pressure as the main
cause of deconsolidation and the second approach identifies the fiber reinforcement
network as the main cause. Due to of their controversial results and limited variety of
materials and processes, there is a big need of a more comprehensive investigation
on several materials and processes.
This study investigates the deconsolidation behavior of 17 different materials and
material configurations considering commodity, engineering, and performance
polymers as well as a carbon and two glass fiber fabrics. Based on the first law of
thermodynamics, a deconsolidation model is proposed and verified by experiments.
Universal applicable input parameters are proposed for the prediction of
deconsolidation to minimize the required input measurements. The study revealed
that the fiber reinforcement network is the main cause of deconsolidation, especially
for fiber volume fractions higher than 48 %. The internal void pressure can promote
deconsolidation, when the specimen was recently manufactured. In other cases the
internal void pressure as well as the surface tension prevents deconsolidation.
During deconsolidation the polymer is displaced by the volume increase of the void.
The polymer flow damps the progress of deconsolidation because of the internal
friction of the polymer. The crystallinity and the thermal expansion lead to a
reversible thickness increase during deconsolidation. Moisture can highly accelerate
deconsolidation and can increase the thickness by several times because of the
vaporization of water. The model is also capable to predict reconsolidation under the
defined boundary condition of pressure, time, and specimen size. For high pressure
matrix squeeze out occur, which falsifies the accuracy of the model.The proposed model was applied to thermoforming, induction welding, and
thermoplastic tape placement. It is demonstrated that the load rate during
thermoforming is the critical factor of achieving complete reconsolidation. The
required load rate can be determined by the model and is dependent on the cooling
rate, the forming length, the extent of deconsolidation, the processing temperature,
and the final pressure. During induction welding deconsolidation can tremendously
occur because of the left moisture in the polymer at the molten state. The moisture
cannot fully diffuse out of the specimen during the faster heating. Therefore,
additional pressure is needed for complete reconsolidation than it would be for a dry
specimen. Deconsolidation is an issue for thermoplastic tape placement, too. It limits
the placement velocity because of insufficient cooling after compaction. If the
specimen after compaction is locally in a molten state, it deconsolidates and causes
residual stresses in the bond line, which decreases the interlaminar shear strength. It
can be concluded that the study gains new knowledge and helps to optimize these
processes by means of the developed model without a high number of required
measurements.
Aufgrund seiner guten spezifischen Festigkeit und Steifigkeit ist der
endlosfaserverstärkte Thermoplast ein hervorragender Leichtbauwerkstoff. Allerdings
kann es während des Wiederaufschmelzens durch Dekonsolidierung zu einem
Verlust der guten mechanischen Eigenschaften kommen, daher ist Dekonsolidierung
unerwünscht. In vielen Studien wurde die Dekonsolidierung mit unterschiedlichen
Ergebnissen untersucht. Dabei wurde meist ein Material und ein Prozess betrachtet.
Eine allgemeine Interpretation und die Vergleichbarkeit unter den Studien sind
dadurch nur begrenzt möglich. Aus der Literatur sind zwei Ansätze bekannt. Dem
ersten Ansatz liegt der Druckunterschied zwischen Poreninnendruck und
Umgebungsdruck als Hauptursache der Dekonsolidierung zu Grunde. Beim zweiten
Ansatz wird die Faserverstärkung als Hauptursache identifiziert. Aufgrund der
kontroversen Ergebnisse und der begrenzten Anzahl der Materialien und
Verarbeitungsverfahren, besteht die Notwendigkeit einer umfassenden Untersuchung
über mehrere Materialien und Prozesse. Diese Studie umfasst drei Polymere
(Polypropylen, Polycarbonat und Polyphenylensulfid), drei Gewebe (Köper, Atlas und
Unidirektional) und zwei Prozesse (Autoklav und Heißpressen) bei verschiedenen
Faservolumengehalten.
Es wurde der Einfluss des Porengehaltes auf die interlaminare Scherfestigkeit
untersucht. Aus der Literatur ist bekannt, dass die interlaminare Scherfestigkeit mit
der Zunahme des Porengehaltes linear sinkt. Dies konnte für die Dekonsolidierung
bestätigt werden. Die Reduktion der interlaminaren Scherfestigkeit für
thermoplastische Matrizes ist kleiner als für duroplastische Matrizes und liegt im
Bereich zwischen 0,5 % bis 1,5 % pro Prozent Porengehalt. Außerdem ist die
Abnahme signifikant vom Matrixpolymer abhängig.
Im Falle der thermisch induzierten Dekonsolidierung nimmt der Porengehalt
proportional zu der Dicke der Probe zu und ist ein Maß für die Dekonsolidierung. Die
Pore expandiert aufgrund der thermischen Gasexpansion und kann durch äußere
Kräfte zur Expansion gezwungen werden, was zu einem Unterdruck in der Pore
führt. Die Faserverstärkung ist die Hauptursache der Dickenzunahme
beziehungsweise der Dekonsolidierung. Die gespeicherte Energie, aufgebaut während der Kompaktierung, wird während der Dekonsolidierung abgegeben. Der
Dekompaktierungsdruck reicht von 0,02 MPa bis 0,15 MPa für die untersuchten
Gewebe und Faservolumengehalte. Die Oberflächenspannung behindert die
Porenexpansion, weil die Oberfläche vergrößert werden muss, die zusätzliche
Energie benötigt. Beim Kontakt von benachbarten Poren verursacht die
Oberflächenspannung ein Verschmelzen der Poren. Durch das bessere Volumen-
Oberfläche-Verhältnis wird Energie abgebaut. Der Polymerfluss bremst die
Entwicklung der Dickenzunahme aufgrund der erforderlichen Energie (innere
Reibung) der viskosen Strömung. Je höher die Temperatur ist, desto niedriger ist die
Viskosität des Polymers, wodurch weniger Energie für ein weiteres Porenwachstum
benötigt wird. Durch den reversiblen Einfluss der Kristallinität und der
Wärmeausdehnung des Verbundes wird während der Erwärmung die Dicke erhöht
und während der Abkühlung wieder verringert. Feuchtigkeit kann einen enormen
Einfluss auf die Dekonsolidierung haben. Ist noch Feuchtigkeit über der
Schmelztemperatur im Verbund vorhanden, verdampft diese und kann die Dicke um
ein Vielfaches der ursprünglichen Dicke vergrößern.
Das Dekonsolidierungsmodell ist in der Lage die Rekonsolidierung vorherzusagen.
Allerdings muss der Rekonsolidierungsdruck unter einem Grenzwert liegen
(0,15 MPa für 50x50 mm² und 1,5 MPa für 500x500 mm² große Proben), da es sonst
bei der Probe zu einem Polymerfluss aus der Probe von mehr als 2 % kommt. Die
Rekonsolidierung ist eine inverse Dekonsolidierung und weist die gleichen
Mechanismen in der entgegengesetzten Richtung auf.
Das entwickelte Modell basiert auf dem ersten Hauptsatz der Thermodynamik und
kann die Dicke während der Dekonsolidierung und der Rekonsolidierung
vorhersagen. Dabei wurden eine homogene Porenverteilung und eine einheitliche,
kugelförmige Porengröße angenommen. Außerdem wurde die Massenerhaltung
angenommen. Um den Aufwand für die Bestimmung der Eingangsgrößen zu
reduzieren, wurden allgemein gültige Eingabeparameter bestimmt, die für eine
Vielzahl von Konfigurationen gelten. Das simulierte Materialverhalten mit den
allgemein gültigen Eingangsparametern erzielte unter den definierten
Einschränkungen eine gute Übereinstimmung mit dem tatsächlichen
Materialverhalten. Nur bei Konfigurationen mit einer Viskositätsdifferenz von mehr als 30 % zwischen der Schmelztemperatur und der Prozesstemperatur sind die
allgemein gültigen Eingangsparameter nicht anwendbar. Um die Relevanz für die
Industrie aufzuzeigen, wurden die Effekte der Dekonsolidierung für drei weitere
Verfahren simuliert. Es wurde gezeigt, dass die Kraftzunahmegeschwindigkeit
während des Thermoformens ein Schlüsselfaktor für eine vollständige
Rekonsolidierung ist. Wenn die Kraft zu langsam appliziert wird oder die finale Kraft
zu gering ist, ist die Probe bereits erstarrt, bevor eine vollständige Konsolidierung
erreicht werden kann. Auch beim Induktionsschweißen kann Dekonsolidierung
auftreten. Besonders die Feuchtigkeit kann zu einer starken Zunahme der
Dekonsolidierung führen, verursacht durch die sehr schnellen Heizraten von mehr als
100 K/min. Die Feuchtigkeit kann während der kurzen Aufheizphase nicht vollständig
aus dem Polymer ausdiffundieren, sodass die Feuchtigkeit beim Erreichen der
Schmelztemperatur in der Probe verdampft. Beim Tapelegen wird die
Ablegegeschwindigkeit durch die Dekonsolidierung begrenzt. Nach einer scheinbar
vollständigen Konsolidierung unter der Walze kann die Probe lokal dekonsolidieren,
wenn das Polymer unter der Oberfläche noch geschmolzen ist. Die daraus
resultierenden Poren reduzieren die interlaminare Scherfestigkeit drastisch um 5,8 %
pro Prozent Porengehalt für den untersuchten Fall. Ursache ist die Kristallisation in
der Verbindungszone. Dadurch werden Eigenspannungen erzeugt, die in der
gleichen Größenordnung wie die tatsächliche Scherfestigkeit sind.
In automotive testrigs we apply load time series to components such that the outcome is as close as possible to some reference data. The testing procedure should in general be less expensive and at the same time take less time for testing. In my thesis, I propose a testrig damage optimization problem (WSDP). This approach improves upon the testrig stress optimization problem (TSOP) used as a state of the art by industry experts.
In both (TSOP) and (WSDP), we optimize the load time series for a given testrig configuration. As the name suggests, in (TSOP) the reference data is the stress time series. The detailed behaviour of the stresses as functions of time are sometimes not the most important topic. Instead the damage potential of the stress signals are considered. Since damage is not part of the objectives in the (TSOP) the total damage computed from the optimized load time series is not optimal with respect to the reference damage. Additionally, the load time series obtained is as long as the reference stress time series and the total damage computation needs cycle counting algorithms and Goodmann corrections. The use of cycle counting algorithms makes the computation of damage from load time series non-differentiable.
To overcome the issues discussed in the previous paragraph this thesis uses block loads for the load time series. Using of block loads makes the damage differentiable with respect to the load time series. Additionally, in some special cases it is shown that damage is convex when block loads are used and no cycle counting algorithms are required. Using load time series with block loads enables us to use damage in the objective function of the (WSDP).
During every iteration of the (WSDP), we have to find the maximum total damage over all plane angles. The first attempt at solving the (WSDP) uses discretization of the interval for plane angle to find the maximum total damage at each iteration. This is shown to give unreliable results and makes maximum total damage function non-differentiable with respect to the plane angle. To overcome this, damage function for a given surface stress tensor due to a block load is remodelled by Gaussian functions. The parameters for the new model are derived.
When we model the damage by Gaussian function, the total damage is computed as a sum of Gaussian functions. The plane with the maximum damage is similar to the modes of the Gaussian Mixture Models (GMM), the difference being that the Gaussian functions used in GMM are probability density functions which is not the case in the damage approximation presented in this work. We derive conditions for a single maximum for Gaussian functions, similar to the ones given for the unimodality of GMM by Aprausheva et al. in [1].
By using the conditions for a single maximum we give a clustering algorithm that merges the Gaussian functions in the sum as clusters. Each cluster obtained through clustering is such that it has a single maximum in the absence of other Gaussian functions of the sum. The approximate point of the maximum of each cluster is used as the starting point for a fixed point equation on the original damage function to get the actual maximum total damage at each iteration.
We implement the method for the (TSOP) and the two methods (with discretization and with clustering) for (WSDP) on two example problems. The results obtained from the (WSDP) using discretization is shown to be better than the results obtained from the (TSOP). Furthermore we show that, (WSDP) using clustering approach to finding the maximum total damage, takes less number of iterations and is more reliable than using discretization.
Variational methods in imaging are nowadays developing towards a quite universal and
exible
tool, allowing for highly successful approaches on tasks like denoising, deblurring, inpainting,
segmentation, super-resolution, disparity, and optical flow estimation. The overall structure of such approaches is of the form
D(Ku) + alpha R(u) to min_u
;
where the functional D is a data fidelity term also depending on some input data f and
measuring the deviation of Ku from such and R is a regularization functional. Moreover
K is a (often linear) forward operator modeling the dependence of data on an underlying
image, and alpha is a positive regularization parameter. While D is often smooth and (strictly)
convex, the current practice almost exclusively uses nonsmooth regularization functionals.
The majority of successful techniques is using nonsmooth and convex functionals like the total variation and generalizations thereof, cf. [28, 31, 40], or l_1-norms of coeefficients arising
from scalar products with some frame system, cf. [73] and references therein.
The efficient solution of such variational problems in imaging demands for appropriate algorithms.
Taking into account the specific structure as a sum of two very different terms
to be minimized, splitting algorithms are a quite canonical choice. Consequently this field
has revived the interest in techniques like operator splittings or augmented Lagrangians. In
this chapter we shall provide an overview of methods currently developed and recent results
as well as some computational studies providing a comparison of different methods and also
illustrating their success in applications.
We start with a very general viewpoint in the first sections, discussing basic notations, properties
of proximal maps, firmly non-expansive and averaging operators, which form the basis
of further convergence arguments. Then we proceed to a discussion of several state-of-the
art algorithms and their (theoretical) convergence properties. After a section discussing issues
related to the use of analogous iterative schemes for ill-posed problems, we present some practical convergence studies in numerical examples related to PET and spectral CT reconstruction.
Das in Manderen, Departement Moselle, gelegene Schloss von Malbrouck befindet sich genau an der deutschen und luxemburgischen Grenze. Sein Bau wurde nach dem Willen von Arnold VI, dem Grundherrn von Sierck, im Jahre 1419 begonnen, wurde 1434, in dem Jahr, in dem das Schloss für geeignet befunden wurde, einem Angriff widerstehen zu können, vollendet und dann in den Dienst des Erzbistums Trier gestellt.
Unglücklicherweise war zum Zeitpunkt des Todes von Ritter Arnold dessen Nachfolge nicht gesichert, weshalb das Schloss ab Ende des XV. bis Anfang des XVII. Jahrhunderts von einer Hand in die nächste überwechselte.
Seit es im Jahre 1930 unter Denkmalschutz gestellt wurde und der Conseil Général de la Moselle es 1975 von seinem letzten Eigentümer, einem Bauern, zurückkaufte, wurde das Schloss vollständig saniert und im September 1988 wiedereröffnet. Wie jedes andere Bauwerk dieser Größenordnung braucht es eine feine und genaue Überwachung. Aus diesem Grund wollte der Conseil Général de la Moselle strategischer Partner im Projekt CURe MODERN werden.
Methyleugenol (ME), (\(\it E \))-Methylisoeugenol (MIE), alpha-Asaron (aA), beta-Asaron (bA) und gamma-Asaron (gA) sind natürlich vorkommende Pflanzeninhaltsstoffe aus der Klasse der Phenylpropene (PP) und Bestandteil der menschlichen Ernährung. ME, aA und bA erwiesen sich im Tierversuch als hepatokanzerogen. MIE und gA wurden bislang nicht untersucht. Die allylischen Hepatokanzerogene Estragol und Safrol werden im Verlauf des Fremdstoff-metabolismus durch Cytochrom P450-Enzyme (CYP) in 1‘-Position hydroxyliert und anschließend durch Sulfotransferasen sulfoniert. Der reaktive Schwefelsäureester kann DNA-Addukte bilden, wodurch in der Folge Mutationen und Tumoren ausgelöst werden können. Für ME wurde der gleiche Mechanismus der Aktivierung postuliert, obgleich definitive Beweise bislang fehlten. Im Gegensatz dazu war die Mehrheit der bislang untersuchten propenylischen PP nicht kanzerogen. aA und bA stellen insofern eine Ausnahme dar. Tierexperimentelle Untersuchungen legen einen alternativen Mechanismus für die Aktivierung von aA und bA nahe. Untersuchungen zum Metabolismus der Asarone liegen bisher nicht vor. Ziel der Arbeit war es daher, den hepatischen Metabolismus dieser fünf PP zu untersuchen, um Einblicke in die potentiellen gentoxischen Mechanismen zu erhalten. Die Metabolitenbildung der fünf Substanzen wurde zeit- und konzentrationsabhängig in humanen und tierischen Lebermikrosomen (LM) sowie verschiedenen humanen CYP-Enzymen (Supersomes\(^{TM}\)) untersucht. Die Metaboliten wurden charakterisiert, identifiziert und synthetisiert, um als Referenzverbindungen für die Quantifizierung sowie für weitere mechanistische in vitro Untersuchungen zu dienen. Ferner wurden enzymkinetische Parameter bestimmt, um eine Extrapolation der Metabolitenbildung hin zu kleinen Substratkonzentrationen sowie die Beteiligung humaner CYPs an der Metabolitenbildung in humanen LM zu ermöglichen. Außerdem wurde die Bildung von DNA-Addukten in primären Rattenhepatozyten nach Inkubation mit ME, MIE sowie deren Metaboliten untersucht. Für alle Verbindungen konnten die folgenden fünf enzymatischen Reaktionen identifiziert werden: Hydroxylierung der Seitenkette, Oxidation dieser Alkohole, Epoxidierung der Seitenkette und Hydrolyse zu Diolen sowie \(\it O \)-Demethylierung. Als Hauptmetaboliten von ME, MIE, aA und gA wurden die jeweiligen Seitenkettenalkohole identifiziert, während bA hauptsächlich über Epoxide zu Diolen metabolisiert wurde. Die Ergebnisse belegen, dass ME, im Gegensatz zu MIE, über den gleichen Mechanismus wie Safrol und Estragol, auch in geringen, humanrelevanten Konzentrationen aktiviert werden kann. Für aA und vor allem bA scheint eine Aktivierung über Epoxide wahrscheinlicher, während es für gA keine Hinweise auf potentiell gentoxische Metaboliten gibt.
We consider an uncertain traveling salesman problem, where distances between nodes are not known exactly, but may stem from an uncertainty set of possible scenarios. This uncertainty set is given as intervals with an additional bound on the number of distances that may deviate from their expected, nominal value.
A recoverable robust model is proposed, that allows a tour to change a bounded number of edges once a scenario becomes known. As the model contains an exponential number of constraints and variables, an iterative algorithm is proposed, in which tours and scenarios are computed alternately.
While this approach is able to find a provably optimal solution to the robust model, it also needs to solve increasingly complex subproblems. Therefore, we also consider heuristic solution procedures based on local search moves using a heuristic estimate of the actual objective function. In computational experiments, these approaches are compared.
Finally, an alternative recovery model is discussed, where a second-stage recovery tour is not required to visit all nodes of the graph. We show that the previously NP-hard evaluation of a fixed solution now becomes solvable in polynomial time.
The ordered weighted averaging objective (OWA) is an aggregate function over multiple optimization criteria which received increasing attention by the research community over the last decade. Different to the ordered weighted sum, weights are attached to ordered objective functions (i.e., a weight for the largest value, a weight for the second-largest value and so on). As this contains max-min or worst-case optimization as a special case, OWA can also be considered as an alternative approach to robust optimization.
For linear programs with OWA objective, compact reformulations exist, which result in extended linear programs. We present new such reformulation models with reduced size. A computational comparison indicates that these formulations improve solution times.
Geometric Programming is a useful tool with a wide range of applications in engineering. As in real-world problems input data is likely to be affected by uncertainty, Hsiung, Kim, and Boyd introduced robust geometric programming to include the uncertainty in the optimization process. They also developed a tractable approximation method to tackle this problem. Further, they pose the question whether there exists a tractable reformulation of their robust geometric programming model instead of only an approximation method. We give a negative answer to this question by showing that robust geometric programming is co-NP hard in its natural posynomial form.
The classic approach in robust optimization is to optimize the solution with respect to the worst case scenario. This pessimistic approach yields solutions that perform best if the worst scenario happens, but also usually perform bad on average. A solution that optimizes the average performance on the other hand lacks in worst-case performance guarantee.
In practice it is important to find a good compromise between these two solutions. We propose to deal with this problem by considering it from a bicriteria perspective. The Pareto curve of the bicriteria problem visualizes exactly how costly it is to ensure robustness and helps to choose the solution with the best balance between expected and guaranteed performance.
Building upon a theoretical observation on the structure of Pareto solutions for problems with polyhedral feasible sets, we present a column generation approach that requires no direct solution of the computationally expensive worst-case problem. In computational experiments we demonstrate the effectivity of both the proposed algorithm, and the bicriteria perspective in general.
Minmax regret optimization aims at finding robust solutions that perform best in the worst-case, compared to the respective optimum objective value in each scenario. Even for simple uncertainty sets like boxes, most polynomially solvable optimization problems have strongly NP-hard minmax regret counterparts. Thus, heuristics with performance guarantees can potentially be of great value, but only few such guarantees exist.
A very easy but effective approximation technique is to compute the midpoint solution of the original optimization problem, which aims at optimizing the average regret, and also the average nominal objective. It is a well-known result that the regret of the midpoint solution is at most 2 times the optimal regret. Besides some academic instances showing that this bound is tight, most instances reveal a way better approximation ratio.
We introduce a new lower bound for the optimal value of the minmax regret problem. Using this lower bound we state an algorithm that gives an instance dependent performance guarantee of the midpoint solution for combinatorial problems that is at most 2. The computational complexity of the algorithm depends on the minmax regret problem under consideration; we show that the sharpened guarantee can be computed in strongly polynomial time for several classes of combinatorial optimization problems.
To illustrate the quality of the proposed bound, we use it within a branch and bound framework for the robust shortest path problem. In an experimental study comparing this approach with a bound from the literature, we find a considerable improvement in computation times.
In der vorliegenden Arbeit werden einige Probleme der dynamischen Boden-
Bauwerk-Wechselwirkung behandelt. Der Schwerpunkt der Arbeit liegt in
der Untersuchung des Einflusses einer mit der Tiefe zunehmenden
Steifigkeit für den Boden.
In dem ersten Teil der Arbeit werden elastische Bodenplatten unter
vertikaler harmonischer Belastung untersucht. Die Platte wird mit Hilfe der
Finite-Elemente-Methode modelliert. Die Baugrundantwort wird mit Hilfe
von Einflussfunktionen für vertikale Einzel- bzw. Flächenlasten erfasst. Im
Kontaktbereich wird die Kompatibilität an den Mittelpunkten der
Bodenelemente und den darüber liegenden Punkten der Platte hergestellt.
Die Lösung für den homogenen Boden wird mit Ergebnissen aus der
Literatur verglichen. Für den inhomogenen Boden wird die Antwort der
Platte an verschiedenen Punkten über die Frequenz ermittelt und graphisch
dargestellt. In einem weiteren Bearbeitungspunkt wird die dynamische
Wechselwirkung zwischen mehreren starren Fundamenten auf der
Baugrundoberfläche untersucht. Der Einfluss der Inhomogenität des
Baugrundes wird in den Ergebnissen mit Hilfe von dimensionslosen
Parametern erfasst.
In dem zweiten Teil der Arbeit werden dynamische Steifigkeitsfunktionen,
sogenannte Impedanzfunktionen, für Einzelfundamente unter Zuhilfenahme
der Finite-Elemente-Methode im Zeitbereich ermittelt. Ziel ist es dabei, ein
Verfahren zu entwickeln, mit dem später auch nicht-lineare dynamische
Probleme numerisch gelöst werden können. Mit dem vorgestellten
Fensterverfahren wird aus der komplexen Antwort des Fundaments,
berechnet mit der Finite-Elemente-Methode im Zeitbereich, die Lösung im
Frequenzbereich für das in der Anregung enthaltene Frequenzspektrum
bestimmt. Hierzu wird eine eindeutige Vorgehensweise vorgeschlagen, und
die erforderlichen Angaben zur Wahl der Diskretisierungsfeinheit und des
Zeitschrittes gemacht. Schließlich wird das Fensterverfahren für
inhomogene Böden eingesetzt. Vorhandene halb-analytische Lösungen für
starre Fundamente werden mit ausreichender Genauigkeit reproduziert.
According to the domain specific models of speech perception, speech is supposed to be processed distinctively compared to non-speech. This assumption is supported by many studies dealing with the processing of speech and non-speech stimuli. However, the complexity of both stimulus classes is not matched in most studies, which might be a confounding factor, according to the cue specific models of speech perception. One solution is spectrally rotated speech, which has already been used in a range of fMRI and PET studies. In order to be able to investigate the role of stimulus complexity, vowels, spectrally rotated vowels and a second non-speech condition with two bands of sinusoidal waves, representing the first two formants of the vowels, were used in the present thesis. A detailed description of the creation and the properties of the whole stimulus set are given in Chapter 2 (Experiment 1) of this work. These stimuli were used to investigate the auditory processing of speech and non-speech sounds in a group of dyslexic adults and age matched controls (Experiment 2). The results support the assumption of a general auditory deficit in dyslexia. In order to compare the sensory processing of speech and non-speech in healthy adults on the electrophysiological level, stimuli were also presented within a multifeature oddball paradigm (Experiment 3). Vowels evoked a larger mismatch negativity (MMN) compared to both non-speech stimulus types. The MMN evoked by tones and spectrally rotated tones were compared in Experiment 4, to investigate the role of harmony. No difference in the area of MMN was found, indicating that the results found in Experiment 3 were not moderated by the harmonic structure of the vowels. All results are discussed in the context of the domain and cue specific models of speech perception.
Gegenwärtig stellen die hohen Stückkosten das wesentliche Hemmnis für die Marktdurchdringung
endlosfaserverstärkter Bauteile dar. Das umfassende Ziel dieser
Arbeit war daher die Senkung der Prozesskosten durch die Steigerung der Prozessgeschwindigkeit.
Ansatzpunkt bildete der zeitintensive Imprägnierungsvorgang, welcher
durch die Verwendung einer in orthogonaler und planarer Richtung ablaufenden
2D-Imprägnierung optimiert wurde.
In der Analysephase wurden grundlegende Untersuchungen mit einer semi-kontinuierlich
arbeitenden Intervallheißpresse durchgeführt. Dabei zeigten sich komplexe
Wechselwirkungen zwischen inhomogenen Temperatureinstellungen, vorliegender
Druckverteilung, planarem Fließverhalten des Polymers und der resultierenden Imprägnierungsqualität.
Als vorteilhafte Prozessbedingung wurden Polymerfließvorgänge
in Richtung der offenen seitlichen und vorderen Werkzeugkante identifiziert,
welche durch die bei höheren Randtemperaturen vorliegende Druckverteilung begünstigt
werden. Mit einem eigens dafür entwickelten Presswerkzeug ist die prinzipielle
Vorteilhaftigkeit einer Kombination aus orthogonalem und planarem Polymerfließen
auf die Imprägnierungsgeschwindigkeit nachgewiesen worden. Die durchgeführte
Parameterstudie verdeutlicht das Potential durch die Verkürzung der Imprägnierungsdauer
um 33 %. Bei der Analyse der Druckprofile ist für den Übergangsbereich
von der Heiz- zur Kühlzone ein signifikanter Druckabfall festgestellt worden. Um
die dadurch bedingte Dekonsolidierung während der Solidifikation zu verhindern,
wurde ein an das Schwindungsverhalten des Laminats angepasstes Werkzeugdesign
für den Übergangsbereich entwickelt. Dadurch konnte die Reduktion des applizierten
Prozessdrucks verhindert und die Verschlechterung der Organoblechqualität
während der Abkühlung ausgeschlossen werden. Für die Modellierung des
Imprägnierungsvorgangs wurde das B-Faktor-Modell von Mayer durch die Integration
der vom Verarbeitungsdruck abhängigen Sättigungspermeabilität erweitert. Dadurch
wird die Abbildung von Prozessen mit nicht konstantem Prozessdruck ermöglicht.
Die Ergebnisse der Arbeit bilden die Grundlage für die effektive Prozessgestaltung
durch ein materialspezifisches Anlagendesign und die Wahl vorteilhafter Prozessparameter
von der Einzel- bis zur Serienproduktion.
This thesis is devoted to the computational aspects of intersection theory and enumerative geometry. The first results are a Sage package Schubert3 and a Singular library schubert.lib which both provide the key functionality necessary for computations in intersection theory and enumerative geometry. In particular, we describe an alternative method for computations in Schubert calculus via equivariant intersection theory. More concretely, we propose an explicit formula for computing the degree of Fano schemes of linear subspaces on hypersurfaces. As a special case, we also obtain an explicit formula for computing the number of linear subspaces on a general hypersurface when this number is finite. This leads to a much better performance than classical Schubert calculus.
Another result of this thesis is related to the computation of Gromov-Witten invariants. The most powerful method for computing Gromov-Witten invariants is the localization of moduli spaces of stable maps. This method was introduced by Kontsevich in 1995. It allows us to compute Gromov-Witten invariants via Bott's formula. As an insightful application, we computed the numbers of rational curves on general complete intersection Calabi-Yau threefolds in projective spaces up to degree six. The results are all in agreement with predictions made from mirror symmetry.
Three dimensional (3d) point data is used in industry for measurement and reverse engineering. Precise point data is usually acquired with triangulating laser scanners or high precision structured light scanners. Lower precision point data is acquired by real-time structured light devices or by stereo matching with multiple cameras. The basic principle of all these methods is the so-called triangulation of 3d coordinates from two dimensional (2d) camera images.
This dissertation contributes a method for multi-camera stereo matching that uses a system of four synchronized cameras. A GPU based stereo matching method is presented to achieve a high quality reconstruction at interactive frame rates. Good depth resolution is achieved by allowing large disparities between the images. A multi level approach on the GPU allows a fast processing of these large disparities. In reverse engineering, hand-held laser scanners are used for the scanning of complex shaped objects. The operator of the scanner can scan complex regions slower, multiple times, or from multiple angles to achieve a higher point density. Traditionally, computer aided design (CAD) geometry is reconstructed in a separate step after the scanning. Errors or missing parts in the scan prevent a successful reconstruction. The contribution of this dissertation is an on-line algorithm that allows the reconstruction during the scanning of an object. Scanned points are added to the reconstruction and improve it on-line. The operator can detect the areas in the scan where the reconstruction needs additional data.
First, the point data is thinned out using an octree based data structure. Local normals and principal curvatures are estimated for the reduced set of points. These local geometric values are used for segmentation using a region growing approach. Implicit quadrics are fitted to these segments. The canonical form of the quadrics provides the parameters of basic geometric primitives.
An improved approach uses so called accumulated means of local geometric properties to perform segmentation and primitive reconstruction in a single step. Local geometric values can be added and removed on-line to these means to get a stable estimate over a complete segment. By estimating the shape of the segment it is decided which local areas are added to a segment. An accumulated score estimates the probability for a segment to belong to a certain type of geometric primitive. A boundary around the segment is reconstructed using a growing algorithm that ensures that the boundary is closed and avoids self intersections.
Feine Feststoffe mit einer Korngröße zwischen > 45 µm und ≤ 63 µm (PM63) können als Maß für eine Belastung von Niederschlagsabflüssen dienen, da sie abhängig von der Herkunftsfläche überproportional mit Schadstoffen, wie z.B. Schwermetalle, belastet sein können. Neben den Aktivitäten auf der Herkunftsfläche (Staubniederschlag, Verkehr) beeinflussen jahreszeitliche Randbedingungen und bauliche Gegebenheiten das Feststoffaufkommen sowie den Feststofftransport in die Niederschlagsabflüsse maßgeblich.
Das Ziel der Arbeit war, den Kenntnisstand bezüglich Herkunft, Verhalten und Verbleib, aber auch Zusammensetzung und Korngrößenverteilung von Feststoffen auf Verkehrs- und Dachflächen darzustellen. Anhand der Kenntnisse und der Auswertung von Ergebnissen aus Messkampagnen wurden Gleichungen für unterschiedliche Herkunftsflächen (Verkehrsflächen, Dachflächen, Mischflächen) entwickelt, mit denen das flächenspezifische jährliche Aufkommen abfiltrierbarer Stoffe (AFS) und feiner Feststoffe (PM63) in [kg/(ha∙a)] bzw. jeweils eine mittlere Jahreskonzentration in [mg/l] abgeschätzt werden können.
Die Gleichungen wurden schließlich jeweils einer Sensitivitätsanalyse unterzogen und anhand von gut beschriebenen Messprogrammen zur Gesamtfeststoffkonzentration (AFS) verifiziert.
Da es derzeit noch wenige Studien bezüglich des Aufkommens und -transportes feiner Feststoffe in Niederschlagsabflüssen gibt, blieben einige Fragestellungen offen. Sind in Zukunft weitere Studien über PM63-Anteile, -Aufkommen und -Transport verfügbar, lassen sich die hier zunächst vorgeschlagenen PM63-Anteile und -Faktoren problemlos anpassen.
Es wurde zuerst das intrinsische Puffersystem der Oozyte charakterisiert, als Grundlage für eine weitere Untersuchung des \(CO_2/HCO_3^{-}\)-Puffersystem. Der \(pK_s\) des intrinsischen Puffersystem betrug 6,9 bei einer totalen Konzentration von 40 mM. Auf Basis des bestimmten \(pK_s\) von 6,9 wurden Carnosin und dessen Derivate als mobile Puffer identifiziert, die die Mobilität der \(H^+\) bestimmen. Aus der apparenten Diffusionskonstanten der \(H^+\) konnte der Anteil an mobilen Puffern am gesamten intrinsischen Puffersystem bestimmt werden, er betrug 37,5% bzw. 15 mM. Intrazelluläre CA erhöhte die Effektivität (Geschwindigkeit) des \(CO_2/HCO_3^{-}\)-Puffersystems, aber nicht die Pufferkapazität im Gleichgewicht. Damit dieser Effekt quantifiziert werden kann, musste die bestehende Definition der Pufferkapazität von Koppel & Spiro aus dem Jahre 1914 um eine zeitliche Komponente erweitert werden. Dafür wurde die Nettoreaktionsgeschwindigkeit r als Maß für die Dynamik eines Puffer oder einer Mischung aus verschiedenen Puffern hergeleitet und durch die numerische Lösung eines Systems an ODEs ausgerechnet . Ohne CA befand sich das \(CO_2/HCO_3^{-}\) bei der Applikation von Butyrat nicht mehr zu jeder Zeit im Gleichgewicht \( ( r\neq 0 ) \), was zu einer erhöhten \(\Delta pH_i/\Delta t\) führte. Nicht nur die Effektivität der Pufferung wurde durch die CA erhöht, auch die apparente Mobilität der Protonen wurde in Anwesenheit von \(CO_2/{HCO_3^{-}}\) erhöht. Weiterhin konnte gezeigt werden, dass \(H^+\) alle theoretisch nötigen Voraussetzungen erfüllt, die es braucht, um als Signalmolekül, ähnlich dem Calcium, fungieren zu können. So wird über die hohe Pufferung und den geringen Anteil an mobilen Puffern (37,5 % in der Oozyte) die Mobilität der \(H^+\) gesenkt, so dass sich Mikrodomänen mit aktiven Konzentrationen ausbilden können. Damit sich unter diesen Umständen eine Mikrodomäne ausbilden kann, ist ein Flux von \(0,8\cdot 10^6 H^+ /s\) nötig. Die Ausbildung von solchen Mikrodomänen kann physiologisch zur lokalen Modulation zellulärer Prozesse führen, da wichtige Bestandteile von Signalkaskaden, wie G-Proteine, pH-sensitiv sind. Die CA spielt für die Signalwirkung der \(H^+\) eine wichtige Rolle, so konnte gezeigt werden, dass CA-Aktivtät zu einer Unterscheidbarkeit von metabolischer und respiratorischer Ansäuerung führt, die ohne CA-Aktivität nicht möglich wäre.
Obwohl das Zufußgehen die natürliche Fortbewegungsform des Menschen darstellt, spielte diese Mobilitätsform ab der zweiten Hälfte des 20. Jahrhunderts eine zunehmend schwindende Rolle in der politischen Wahrnehmung und der Stadt- und Verkehrsplanung. Zu Beginn des 21. Jahrhunderts wird im Zuge eines Paradigmenwechsel der Fußverkehr wieder von der Politik, der Planungspraxis aber auch von der Immobilienwirtschaft als ein wichtiger Baustein für eine nachhaltige Stadt- und Quartiersentwicklung angesehen. Hierbei wird der Nahmobilität, d.h. der fußläufigen Erreichbarkeit alltagsrelevanter Aktivitätsziele, eine wichtige Rolle beigemessen. Aus verkehrswissenschaftlicher Sicht bleibt bislang die Frage unbeantwortet, inwiefern das theoretische Konstrukt „Nahmobilität“ objektiv ermittelt werden kann. Aus immobilienwirtschaftlicher Sicht ist der Einfluss der Nahmobilität auf die Immobilienpreise von Wohnungen und Häusern in verschiedenen siedlungsstrukturellen Raumtypen von Interesse. Für die theoretische Konzeption eines Nahmobilitätsindikators werden nationale und international empirische Studien zum Fußgängerverhalten sowie Bewohner-, Makler- und Expertenbefragungen ausgewertet. Die praktische Umsetzung des Nahmobilitätsindikators erfolgt mithilfe eines Geographischen Informationssystems für die Städte Frankfurt, Köln und Wiesbaden. Damit können Bereiche mit einem hohen oder niedrigen Nahmobilitätspotential differenziert werden. Ergänzend wird eine Sozialraumanalyse zur Ableitung von vier siedlungsstrukturellen Raumtypen durchgeführt. Aus der Kombination von drei Nahmobilitätsniveau und vier Raumtypen können zwölf Gebietstypen abgeleitet werden, um den Einfluss der Nahmobilität auf Immobilienpreise differenziert analysieren zu können. Nach Herleitung des Angebotspreisfestsetzungsprozesses wird die ökonometrische Analyse mit dem Spatial Durbin Modell (SDM) und dem Ordinary Least Squares Modell (OLS-Modell) auf Stadtteil- und Stadtviertelebene durchgeführt. Die als ebenfalls relevant erachtete geografisch gewichtete Regression (GWR) wird aufgrund räumlicher Autokorrelation der Variablen nicht durchgeführt. Das SDM-Modell hat bei Wohnungen zum Ergebnis, dass Haushalte allgemein Standorte mit einem mittleren Nahmobilitätsniveau vorziehen, da an Standorten mit hohen Nahmobilitätswerten negative externe Effekte (z.B. Lärm) auftreten können. In urbanen Räumen werden niedrige Nahmobilitätswerte als Malus in suburbanen Räumen dagegen als Bonus angesehen. Beide Ergebnisse werden auf Basis von Bewohnerbefragungen plausibilisiert. Bei Häusern führen die ökonometrischen Analysen auf Stadtteil- und Stadtviertelebene zu gegensätzlichen Ergebnissen. Dies wird auf das Problem der veränderbaren Gebietseinheit zurückgeführt. Da auf Stadtviertelebene Gebietsabgrenzungen präziser möglich sind, werden diese als glaubwürdiger angesehen. Damit verbunden ist kein Einfluss der Nahmobilität auf Hauspreise festzustellen. Die Residuen des OLS-Modells weisen erwartungsgemäß eine räumliche Autokorrelation auf, weshalb die Schätzer nur bedingt interpretierbar sind.
This work presents a framework for the computation of complex geometries containing intersections of multiple patches with Reissner-Mindlin shell elements. The main objective is to provide an isogeometric finite element implementation which neither requires drilling rotation stabilization, nor user interaction to quantify the number of rotational degrees of freedom for every node. For this purpose, the following set of methods is presented. Control points with corresponding physical location are assigned to one common node for the finite element solution. A nodal basis system in every control point is defined, which ensures an exact interpolation of the director vector throughout the whole domain. A distinction criterion for the automatic quantification of rotational degrees of freedom for every node is presented. An isogeometric Reissner-Mindlin shell formulation is enhanced to handle geometries with kinks and allowing for arbitrary intersections of patches. The parametrization of adjacent patches along the interface has to be conforming. The shell formulation is derived from the continuum theory and uses a rotational update scheme for the current director vector. The nonlinear kinematic allows the computation of large deformations and large rotations. Two concepts for the description of rotations are presented. The first one uses an interpolation which is commonly used in standard Lagrange-based shell element formulations. The second scheme uses a more elaborate concept proposed by the authors in prior work, which increases the accuracy for arbitrary curved geometries. Numerical examples show the high accuracy and robustness of both concepts. The applicability of the proposed framework is demonstrated.
Zerstörungsfreie (ND) Erkundungstechniken, seien es nun zerstörungsfreie oder geophysikalische Bewertungsmethoden, werden üblicherweise im Bau- und Transportwesen, im Bereich der Energietechnik oder der Stadtentwicklung angewandt. Während sich jedoch im Laufe der letzten Jahrzehnte das Interesse auf interne geometrische Informationen zu der untersuchten Umgebung richtete, konzentrieren sich jüngere Forschungen auf Informationen, die mit der Art und dem Zustand dieser Umgebung verbunden sind, um so dem Begiff der zerstörungsfreien Bewertung näher zu kommen. Die gegenwärtig laufenden Studien versuchen, die aus zerstörungsfreien Messungen abgeleiteten Werte in statistische, mit Lebensdauermodellen verknüpfte Ansätze zu integrieren.
Researchers and analysts in modern industrial and academic environments are faced with a daunting amount of multivariate data. While there has been significant development in the areas of data mining and knowledge
discovery, there is still the need for improved visualizations and generic solutions. The state-of-the-art in visual analytics and exploratory data visualization is to incorporate more profound analysis methods while focusing on improving interactive abilities, in order to support data analysts in gaining new insights through visual exploration and hypothesis building.
In the research field of exploratory data visualization, this thesis contributes new approaches in dimension reduction that tackle a number of shortcomings in state-of-the-art methods, such as interpretability and ambiguity. By combining methods from several disciplines, we describe how ambiguity can be countered effectively by visualizing coordinate values within a lower-dimensional embedding, thereby focusing on the display of the structural composition of high-dimensional data and on an intuitive depiction of inherent global relationships. We also describe how properties and alignment of high-dimensional manifolds can be analyzed in different levels of detail by means of a self-embedding hierarchy of local projections, each using full degree of freedom, while keeping the global context.
To the application field of air quality research, the thesis provides novel means for the research of aerosol source contributions. Triggered by this particularly challenging application problem, we instigate a new research direction in the area of visual analytics by describing a methodology to model-based visual analysis that (i) allows the scientist to be “in the loop” of computations and (ii) enables him to verify and control the analysis process, in order to steer computations towards physical meaning. Careful reflection of our work in this application has led us to derive key design choices that underlie and transcend beyond application-specific solutions. As a result, we describe a general design methodology to computing parameters of a pre-defined analytical model that map to multivariate data. Core applications areas that can benefit from our approach are within engineering disciplines, such as civil, chemical, electrical, and mechanical engineering, as well as in geology, physics, and biology.
Glioma is a common type of primary brain tumor, with a strongly invasive potential, often exhibiting nonuniform, highly irregular growth. This makes it difficult to assess
the degree of extent of the tumor, hence bringing about a supplementary challenge for the treatment. It is therefore necessary to understand the
migratory behavior of glioma in greater detail.
In this paper we propose a multiscale model for glioma growth and migration. Our model couples the microscale dynamics (reduced to the binding of surface receptors to the
surrounding tissue) with a kinetic transport equation for the cell density on the mesoscopic level of individual cells. On the latter scale we also include the
proliferation of tumor cells via effects of interaction with the tissue. An adequate parabolic scaling yields a convection-diffusion-reaction equation, for which the coefficients
can be explicitly determined from the information about the tissue obtained by diffusion tensor imaging. Numerical simulations relying on DTI measurements confirm the biological
findings that glioma spreads
along white matter tracts.
A positive affection of human health by nutrition is of high interest, especially for bioactive compounds which are consumed daily in high amounts. This is the case for chlorogenic acids (CGA) ingested by coffee. This molecule class is associated with several possible beneficial health effects observed in vitro that strongly depend on their bioavailability. So far factors influencing bioavailability of CGA such as dose, molecule structure and site of absorption haven´t been investigated sufficiently.
Therefore we performed an in vivo dose-response study with ileostomists, who consumed three different nutritional doses of CGA ingested as instant coffee (4,525 (HIGH); 2,219 (MEDIUM); 1,053 (LOW) μmol CGA). CGA concentrations were determined in ileal fluid, urine and plasma. Furthermore, we conducted an ex vivo study with pig jejunal mucosa using the Ussing chamber model to confirm the in vivo observations. Individual transfer rates of CGA from coffee were investigated, namely: caffeoylquinic acid (CQA), feruloylquinic acid (FQA), caffeic acid (CA), dicaffeoylquinic acid (diCQA) and QA at physiological concentrations (0.2–3.5 mM). Samples were analyzed by HPLC-DAD, -ESI-MS and -ESI-MS/MS.
About ⅔ of the ingested CGA by coffee consumption were available in the colon dose independent. Nevertheless, the results showed that the consumption of higher CGA doses leads to a faster ileal excretion. This corresponds to a plasma AUC0-8h for CGA and metabolites of 4,412 ± 751 nM*h0-8-1 (HIGH), 2,394 ± 637 nM*h0-8-1 (MEDIUM) and 1,782 ± 731 nM*h0-8-1 (LOW) respectively, and a renal excretion of 8.0 ± 4.9% (HIGH), 12.1 ± 6.7% (MEDIUM) and 14.6 ± 6.8% (LOW). Moreover interindividual differences in gastrointestinal transit times were related to differences in total CGA absorption. Thus the variety of patient´s physiology is a decisive bioavailability factor for CGA uptake. This is corroborated ex vivo by a direct proportional relationship of incubation time with absorbed CGA amount.
The consumption of high CGA doses influences the metabolism pattern as an increasing glucuronidation was observed with consumption of increasing CGA doses. However, the different CGA doses have only minor effects on the overall bioavailability which was confirmed ex vivo by a non-saturable passive diffusion of 5-CQA. Furthermore, we identified in the Ussing chamber an active efflux secretion for 5-CQA that decreases its bioavailability and the physicochemical properties of the CGA subgroups as an important bioavailability factor. Transferred amount in increasing order: diCQA, trace amounts; CQA ≈ 1%; CA ≈ 1.5%; FQA ≈ 2%; and QA ≈ 4%.
Altogether, the consumption of increasing CGA doses by coffee had a minor effect on oral bioavailability in ileostomists, such as a slightly increased glucuronidation. Thus, the consumption of high amounts of CGA from coffee in the daily diet is not limiting the CGA concentrations at the site of possible health effects in the human body. However, according to the patient´s physiology the interindividual gastrointestinal transit time which is possibly influenced by dose is influencing CGA bioavailability. Moreover, ex vivo CGA absorption is governed by diffusion as an absorption mechanism corroborating an unsaturable uptake in vivo and by the individual physicochemical properties of CGA.
When stimulus and response overlap in a choice-reaction task, enhanced performance can be observed. This effect, the so-called Stimulus-Response Compatibility (SRC) has been shown to appear for a variety of different stimulus features such as numerical or physical size, luminance, or pitch height. While many of these SRC effects have been investigated in an isolated manner, only fewer studies focus on possible interferences when more than one stimulus dimension is varied. The present thesis investigated how the SRC effect of pitch heights, the so-called SPARC effect (Spatial Pitch Associations of Response Codes), is influenced by additionally varied stimulus information. In Study 1, the pitch heights of presented tones were varied along with timbre categories under two different task and pitch range conditions and with two different response alignments. Similarly, in Study 2, pitch heights as well as numerical values were varied within sung numbers under two different task conditions. The results showed simultaneous SRC effects appearing independently of each other in both studies: In Study 1, an expected SRC effect of pitch heights with horizontal responses (i.e., a horizontal SPARC effect) was observed. More interestingly, an additional and unexpected SRC effect of timbre with response sides presented itself independently of this SPARC effect. Similar results were obtained in Study 2: Here, an SRC effect for pitch heights (SPARC) and an SRC effect for numbers (i.e., SNARC or Spatial Numerical Associations of Response Codes, respectively) were observed and again the effects did not interfere with each other. Thus, results indicate that SPARC with horizontal responses does not interfere with SRC effects of other, simultaneously varied stimulus dimensions. These findings are discussed within the principle of polarity correspondence and the dimensional overlap model as theoretical accounts for SRC effects. In sum, it appears that the different types of information according to varied stimulus dimensions enter the decision stage of stimulus processing from separate channels.