Refine
Year of publication
- 2007 (145) (remove)
Document Type
- Doctoral Thesis (64)
- Report (37)
- Preprint (14)
- Periodical Part (13)
- Study Thesis (5)
- Working Paper (4)
- Diploma Thesis (3)
- Article (2)
- Conference Proceeding (2)
- Habilitation (1)
Has Fulltext
- yes (145)
Keywords
- Phasengleichgewicht (4)
- numerical upscaling (4)
- Dienstgüte (3)
- Elastoplastizität (3)
- Model checking (3)
- Networked Automation Systems (3)
- Netzwerk (3)
- Response-Zeit (3)
- Visualisierung (3)
- hub location (3)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Fraunhofer (ITWM) (28)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Informatik (19)
- Kaiserslautern - Fachbereich Sozialwissenschaften (10)
- Kaiserslautern - Fachbereich Chemie (9)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
In this work, we analyze two important and simple models of short rates, namely Vasicek and CIR models. The models are described and then the sensitivity of the models with respect to changes in the parameters are studied. Finally, we give the results for the estimation of the model parameters by using two different ways.
In this article we give a sufficient condition that a simply connected flexible body does not penetrate itself, if it is subjected to a continuous deformation. It is shown that the deformation map is automatically injective, if it is just locally injective and injective on the boundary of the body. Thereby, it is very remarkable that no higher regularity assumption than continuity for the deformation map is required. The proof exclusively relies on homotopy methods and the Jordan-Brouwer separation theorem.
Embedded systems have become ubiquitous in everyday life, and especially in the automotive industry. New applications challenge their design by introducing a new class of problems that are based on a detailed analysis of the environmental situation. Situation analysis systems rely on models and algorithms of the domain of computational geometry. The basic model is usually an Euclidean plane, which contains polygons to represent the objects of the environment. Usual implementations of computational geometry algorithms cannot be directly used for safety-critical systems. First, a strict analysis of their correctness is indispensable and second, nonfunctional requirements with respect to the limited resources must be considered. This thesis proposes a layered approach to a polygon-processing system. On top of rational numbers, a geometry kernel is formalised at first. Subsequently, geometric primitives form a second layer of abstraction that is used for plane sweep and polygon algorithms. These layers do not only divide the whole system into manageable parts but make it possible to model problems and reason about them at the appropriate level of abstraction. This structure is used for the verification as well as the implementation of the developed polygon-processing library.
Nowadays, accounting, charging and billing users' network resource consumption are commonly used for the purpose of facilitating reasonable network usage, controlling congestion, allocating cost, gaining revenue, etc. In traditional IP traffic accounting systems, IP addresses are used to identify the corresponding consumers of the network resources. However, there are some situations in which IP addresses cannot be used to identify users uniquely, for example, in multi-user systems. In these cases, network resource consumption can only be ascribed to the owners of these hosts instead of corresponding real users who have consumed the network resources. Therefore, accurate accountability in these systems is practically impossible. This is a flaw of the traditional IP address based IP traffic accounting technique. This dissertation proposes a user based IP traffic accounting model which can facilitate collecting network resource usage information on the basis of users. With user based IP traffic accounting, IP traffic can be distinguished not only by IP addresses but also by users. In this dissertation, three different schemes, which can achieve the user based IP traffic accounting mechanism, are discussed in detail. The inband scheme utilizes the IP header to convey the user information of the corresponding IP packet. The Accounting Agent residing in the measured host intercepts IP packets passing through it. Then it identifies the users of these IP packets and inserts user information into the IP packets. With this mechanism, a meter located in a key position of the network can intercept the IP packets tagged with user information, extract not only statistic information, but also IP addresses and user information from the IP packets to generate accounting records with user information. The out-of-band scheme is a contrast scheme to the in-band scheme. It also uses an Accounting Agent to intercept IP packets and identify the users of IP traffic. However, the user information is transferred through a separated channel, which is different from the corresponding IP packets' transmission. The Multi-IP scheme provides a different solution for identifying users of IP traffic. It assigns each user in a measured host a unique IP address. Through that, an IP address can be used to identify a user uniquely without ambiguity. This way, traditional IP address based accounting techniques can be applied to achieve the goal of user based IP traffic accounting. In this dissertation, a user based IP traffic accounting prototype system developed according to the out-of-band scheme is also introduced. The application of user based IP traffic accounting model in the distributed computing environment is also discussed.
This paper disscuses the minimal area rectangular packing problem of how to pack a set of specified, non-overlapping rectangels into a rectangular container of minimal area. We investigate different mathematical programming approaches of this and introduce a novel approach based on non-linear optimization and the \\\"tunneling effect\\\" achieved by a relaxation of the non-overlapping constraints.
In this article, we present an analytic solution for Jiang's constitutive model of elastoplasticity. It is considered in its stress controlled form for proportional stress loading under the assumptions that the one-to-one coupling of the yield surface radius and the memory surface radius is switched off, that the transient hardening is neglected and that the ratchetting exponents are constant.
This dissertation is intended to transport the theory of Serre functors into the context of A-infinity-categories. We begin with an introduction to multicategories and closed multicategories, which form a framework in which the theory of A-infinity-categories is developed. We prove that (unital) A-infinity-categories constitute a closed symmetric multicategory. We define the notion of A-infinity-bimodule similarly to Tradler and show that it is equivalent to an A-infinity-functor of two arguments which takes values in the differential graded category of complexes of k-modules, where k is a commutative ground ring. Serre A-infinity-functors are defined via A-infinity-bimodules following ideas of Kontsevich and Soibelman. We prove that a unital closed under shifts A-infinity-category over a field admits a Serre A-infinity-functor if and only if its homotopy category admits an ordinary Serre functor. The proof uses categories and Serre functors enriched in the homotopy category of complexes of k-modules. Another important ingredient is an A-infinity-version of the Yoneda Lemma.
An efficient approach for calculating the effective heat conductivity for a class of industrial composite materials, such as metal foams, fibrous glass materials, and the like, is discussed. These materials, used in insulation or in advanced heat exchangers, are characterized by a low volume fraction of the highly conductive material (glass or metal) having a complex, network-like structure and by a large volume fraction of the insulator (air). We assume that the composite materials have constant macroscopic thermal conductivity tensors, which in principle can be obtained by standard up-scaling techniques, that use the concept of representative elementary volumes (REV), i.e. the effective heat conductivities of composite media can be computed by post-processing the solutions of some special cell problems for REVs. We propose, theoretically justify, and numerically study an efficient approach for calculating the effective conductivity for media for which the ratio of low and high conductivities satisfies 1. In this case one essentially only needs to solve the heat equation in the region occupied by the highly conductive media. For a class of problems we show, that under certain conditions on the microscale geometry, the proposed approach produces an upscaled conductivity that is O() close to the exact upscaled permeability. A number of numerical experiments are presented in order to illustrate the accuracy and the limitations of the proposed method. Applicability of the presented approach to upscaling other similar problems, e.g. flow in fractured porous media, is also discussed.
Netzbasierte Automatisierungssysteme (NAS) sind das Ergebnis der zunehmenden Dezentralisierung von Automatisierungssystemen mittels neuerer Netzwerkstrukturen. Eine ganze Fülle von Einflussfaktoren führt jedoch zu einem Spektrum von nicht-deterministischen Verzögerungen, die direkten Einfluss auf Qualität, Sicherheit und Zuverlässigkeit der Automatisierungsanlagen haben. Eine genaue Analyse dieser Einflussfaktoren ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen Fragen der Verlässlichkeit zu klären. In diesem Beitrag wird gezeigt, welchen Einfluss einzelne Komponenten sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) verwendet. Umfangreiche Messungen wurden zur Validierung der Ergebnisse durchgeführt.
In der vorliegenden Arbeit werden Sekundärstrukturmotive von isolierten Peptiden und Peptid-Aggregaten in der Gasphase analysiert. Zur Untersuchung ihrer intrinsischen Eigenschaften werden die isolierten Peptide durch adiabatische Abkühlung in Molekularstrahlen erzeugt. Durch die Anwendung hochsensitiver Techniken der Doppelresonanzspektroskopie, Resonante zwei Photonen Ionisation (R2PI) und Infrarot/Resonante zwei Photonen Ionisation (IR/R2PI), werden die Peptide und Peptid-Aggregate hinsichtlich ihrer Elektronen – und Schwingungsübergängen analysiert. Die Schwingungsfrequenzen im Bereich der Amid A, I, II Moden und im oberen „Fingerprintbereich“ von Peptiden sind sehr signifikant für die Geometrie des Rückgrates und der Seitenketten, z.B. unterscheiden sich Schwingungen von Gruppen, die an Wasserstoffbrückenbindungen beteiligt sind, sehr stark durch ihre Lage und Intensität gegenüber Schwingungen von frei vorliegenden Gruppen. Ein Vergleich mit berechneten Schwingungsfrequenzen aus ab initio und Dichtefunktionaltheorie Rechnungen ermöglicht eine Zuordnung zu einer bestimmten Struktur. Es werden in dieser Arbeit verschiedene Sekundärstrukturen über die Analyse von geschützten Aminosäuren, Di- und Tripeptiden untersucht. Insbesondere gelang es erstmals, ein ß-Faltblattmodellsystem für ein isoliertes Dimer eines Peptids nachzuweisen. Weiterhin werden zum molekularen Verständnis der Mikrosolvatation Aggregate mit Wassermolekülen betrachtet und somit der Einfluss auf die Sekundärstruktur durch sukzessive Aggregation von Wassermolekülen analysiert. In Kooperation mit Prof. Schrader (Universität Duisburg-Essen) werden Templatmoleküle charakterisiert, um ihre Fähigkeiten zur Anlagerung an schädliche ß-Faltblattstrukturen zu untersuchen, die in sogenannten neurodegenerativen Krankheiten häufig auftreten. Die Effizienz ist sowohl über die Analyse der Zahl und Stärke der inter- und intramolekularen Wasserstoffbrückenbindungen als auch über die gebildete Clusterstruktur untersucht worden.
Anionenrezeptoren aus Cyclopeptiden mit 6-Aminopicolinsäure- und substituierten Prolinuntereinheiten
(2007)
Ziel dieser Arbeit war es, neue Cyclopeptide auf Basis der in der Arbeitsgruppe um S. Kubik untersuchten Anionenrezeptoren aus L-Prolin- und 6-Aminopicolinsäure zu entwickeln und hinsichtlich ihrer Rezeptor- und Sensoreigenschaften zu untersuchen. Das Hauptaugenmerk lag dabei auf dem Einfluss von Substituenten an den Prolinuntereinheiten auf die Bindungsaffinität und -selektivität. Durch eine systematische Syntheseoptimierung konnte eine effiziente Strategie für ein 4R-Amino-L-prolin-haltiges Dipeptid erarbeitet werden, welches es ermöglicht, verschiedene Substituenten mit der gewünschten Konfiguration an den C(γ)-Atomen der Prolineinheiten einzuführen. Aus den funktionalisierten Dipeptiden konnten anschließend die entsprechenden Cyclopeptide nach Standardmethoden aufgebaut werden. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener Sulfonate und Acetat erfolgte mittels NMR-Spektroskopie und isothermer Titrationskalorimetrie in unterschiedlichen Lösungsmitteln. Die Untersuchungen zeigten, dass die Struktur und die Flexibilität der peripheren Substituenten um den Cyclopeptidhohlraum einen signifikanten Einfluss auf die Substratbindung besitzt.
Die vorliegende Arbeit befasst sich mit Anionenrezeptoren aus einfach und zweifach verbrückten Bis(cyclopeptiden). Die Cyclohexapeptiduntereinheiten bestehen dabei aus einer alternierenden Sequenz aus L-Prolin und 6-Aminopicolinsäure. Im ersten Teil dieser Arbeit wurden eine Reihe neuer einfach verbrückter Bis(cyclopeptide) synthetisiert und mit dem bis jetzt einzigen bekannten verbrückten Bis(cyclopeptid) dieser Art verglichen. Bei diesen Untersuchungen konnte gezeigt werden, dass die neu dargestellten Bis(cyclopeptide) anorganische Anionen auf die gleiche Art wie das bereits bekannte binden. Dabei wird das Anion kooperativ durch die Cyclopeptiduntereinheiten über sechs Wasserstoffbrücken koordiniert. Mittels isothermer Titrationskalorimetrie (ITC) wurden die thermodynamischen Parameter der Komplexbildung der Anionen mit den Bis(cyclopeptiden) bestimmt. Es stellte sich heraus, dass die Linkerstruktur einen großen Einfluss auf die thermodynamischen Parameter der Komplexbildung besitzt, wenn auch die resultierenden Bindungskonstanten der Rezeptoren für ein Anion in einer ähnlichen Größenordung liegen. Mit einem log Ka von etwa 6,0 konnte in dieser Untersuchung einer der besten neutralen Sulfatrezeptoren in wässrigen Lösungsmitteln identifiziert werden. Im zweiten Teil dieser Arbeit wurde eine Strategie erarbeitet, die den Zugang zu zweifach verbrückten Bis(cyclopeptiden) ermöglicht. Dabei wurde die dynamische kovalente Chemie (DCC) bei der Synthese verwendet. Als reversible Reaktion wurde der Disulfidaustausch eingesetzt. Bei der Synthese wurde ein entsprechend dithiofunktionalisiertes Bis(cyclopeptid) in Anwesenheit verschiedener Dithiole als Linker und eines Templats umgesetzt. Dabei bildete sich die thermodynamisch stabilste Bis(cyclopeptid)-Linker Struktur aus. Es konnten im Laufe dieser Untersuchungen bereits erste Strukturen identifiziert werden, die selektiv für Anionen der Größe und Geometrie von Sulfat und Iodid waren. Dabei wurden nur Bis(cyclopeptide) gebildet, die einen Linker pro Brücke besaßen und es kam nicht zum Einbau verschiedener Linker in ein Bis(cyclopeptid). Im letzten Teil dieser Arbeit wurde überprüft, ob die Entwicklung eines Sensors auf Basis von einfach verbrückten Bis(cycloeptiden) möglich ist. Es konnte gezeigt werden, dass der Einsatz von Bis(cyclopeptiden) als Ionophore in ionenselektiven Elektroden (ISEs) kein viel versprechender Weg zur Erzeugung eines Sensors ist. Durch die Einführung eines fluoreszenzaktiven Linker konnte aber Bis(cyclopeptid) synthetisiert werden, dass in wässrigen Lösungen einen hochselektiven Fluoreszenzsensor für Sulfat darstellt. Dabei kommt es in Anwesenheit von Sulfat, selbst in Anwesenheit von 100 Äquivalenten Natriumchlorid, zu einer Löschung der Fluoreszenz. Keins der anderen acht untersuchten Anionen hatte einen ähnlichen Effekt auf das Fluoreszenzspektrum. Durch theoretische DFT Rechnungen konnte die Löschung der Fluoreszenz rationalisiert werden. Damit eröffnen sich erste praktische Anwendungen für die Bis(cyclopetide).
Annual Report 2006
(2007)
Annual Report, Jahrbuch AG Magnetismus
The lattice Boltzmann method (LBM) is a numerical solver for the Navier-Stokes equations, based on an underlying molecular dynamic model. Recently, it has been extended towardsthe simulation of complex fluids. We use the asymptotic expansion technique to investigate the standard scheme, the initialization problem and possible developments towards moving boundary and fluid-structure interaction problems. At the same time, it will be shown how the mathematical analysis can be used to understand and improve the algorithm. First of all, we elaborate the tool "asymptotic analysis", proposing a general formulation of the technique and explaining the methods and the strategy we use for the investigation. A first standard application to the LBM is described, which leads to the approximation of the Navier-Stokes solution starting from the lattice Boltzmann equation. As next, we extend the analysis to investigate origin and dynamics of initial layers. A class of initialization algorithms to generate accurate initial values within the LB framework is described in detail. Starting from existing routines, we will be able to improve the schemes in term of efficiency and accuracy. Then we study the features of a simple moving boundary LBM. In particular, we concentrate on the initialization of new fluid nodes created by the variations of the computational fluid domain. An overview of existing possible choices is presented. Performing a careful analysis of the problem we propose a modified algorithm, which produces satisfactory results. Finally, to set up an LBM for fluid structure interaction, efficient routines to evaluate forces are required. We describe the Momentum Exchange algorithm (MEA). Precise accuracy estimates are derived, and the analysis leads to the construction of an improved method to evaluate the interface stresses. In conclusion, we test the defined code and validate the results of the analysis on several simple benchmarks. From the theoretical point of view, in the thesis we have developed a general formulation of the asymptotic expansion, which is expected to offer a more flexible tool in the investigation of numerical methods. The main practical contribution offered by this work is the detailed analysis of the numerical method. It allows to understand and improve the algorithms, and construct new routines, which can be considered as starting points for future researches.
Mit der Novellierung des Energiewirtschaftsgesetzes im Jahr 2005 wurde die Bundesnetzagentur damit beauftragt, ein Regulierungskonzept für den Energiesektor zu entwickeln. Im Sommer 2006 hat die Regulierungsbehörde einen Entwurf zur Anreizregulierung vorgelegt, der in Form einer Verordnung im Sommer 2007 in Kraft treten wird. Die Anwendung der Anreizregulierung ab dem 1.1.2009 ist ein weiterer Meilenstein auf dem Weg zum angepeilten wettbewerbsorientierten und nachhaltigen Stromsystem. Dieses Ziel wird seit Beginn der Liberalisierung in den 90er Jahren vor allem auf gesamteuropäischer Ebene verfolgt, und Schritt für Schritt auf die nationale Ebene übertragen. Da die Netzentgeltregulierung wie in den meisten europäischen Ländern auch in Deutschland als Anreizregulierung ausgestaltet wird, besteht die Herausforderung darin,in diesem Verfahren die Anreize so zu setzen, dass die Netzbetreiber den angedeuteten Umbau des Stromsystems im eigenen ökonomischen Interesse unterstützen oder ihn zumindest nicht behindern. Ziel dieser Arbeit ist es das Regulierungskonzept der Bundesnetzagentur daraufhin zu untersuchen, welche Anreizstrukturen für Stromnetzbetreiber geschaffen werden. Schließlich ergibt sich aus den Regulierungsanreizen die Bedeutung der Anreizregulierung für dezentrale Stromversorgung. Als Maßstab für den Grad der Zielerreichnung dient das Ideal des gleichberechtigten Spielfeldes, das einen Handlungsrahmen setzt, in dem faire Bedingungen sowohl für dezentrale als auch für zentrale Stromoptionen herrschen.
In der vorliegenden Arbeit wird das Tragverhalten von Verbundträgern im Bereich von großen Stegöffnungen analysiert und ein Modell zur Ermittlung der Querkrafttragfähigkeit des Betongurts entwickelt. Die Basis dazu bilden umfangreiche experimentelle und rechnerische Untersuchungen. Des Weiteren wird die Reibung zwischen dem Schaft von einbetonierten Kopfbolzendübeln und dem umgebendem Beton experimentell untersucht. Anhand von 21 großmaßstäblichen Traglastversuchen, die erstmals so konzipiert waren, dass im Öffnungsbereich nahezu die gesamte Querkraft durch den Betongurt übertragen wurde, konnte die Querkrafttragfähigkeit des Betongurts experimentell in engen Grenzen bestimmt werden. Neue Erkenntnisse über den Lastabtragungs- und Versagensmechanismus im Öffnungsbereich wurden durch die Auswertung der Dehnungen der Kopfbolzendübel im Öffnungsbereich und das nachträgliche Aufsägen des Betongurts der Versuchsträger gewonnen. Die Versuche wurden mit einem dreidimensionalen FE-Modell, das die Versuche in ihren wesentlichen Teilen abbildete, simuliert. Durch den Vergleich der rechnerischen mit den experimentell ermittelten Werten wurde dieses Modell überprüft und anschließend wurden damit Parameteruntersuchungen durchgeführt. Mit den Erkenntnissen aus den experimentellen und rechnerischen Untersuchungen konnte der Lastabtragungsmechanismus im Öffnungsbereich umfassend analysiert werden und ein Ingenieurmodell zur Bestimmung und zum Nachweis der Querkrafttragfähigkeit des Betongurts im Öffnungsbereich entwickelt werden.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2006.
Analog sensor electronics requires special care during design in order to increase the quality and precision of the signal, and the life time of the product. Nevertheless, it can experience static deviations due to the manufacturing tolerances, and dynamic deviations due to operating in non-ideal environment. Therefore, the advanced applications such as MEMS technology employs calibration loop to deal with the deviations, but unfortunately, it is considered only in the digital domain, which cannot cope with all the analog deviations such as saturation of the analog signal, etc. On the other hand, rapid-prototyping is essential to decrease the development time, and the cost of the products for small quantities. Recently, evolvable hardware has been developed with the motivation to cope with the mentioned sensor electronic problems. However the industrial specifications and requirements are not considered in the hardware learning loop. Indeed, it minimizes the error between the required output and the real output generated due to given test signal. The aim of this thesis is to synthesize the generic organic-computing sensor electronics and return hardware with predictable behavior for embedded system applications that gains the industrial acceptance; therefore, the hardware topology is constrained to the standard hardware topologies, the hardware standard specifications are included in the optimization, and hierarchical optimization are abstracted from the synthesis tools to evolve first the building blocks, then evolve the abstract level that employs these optimized blocks. On the other hand, measuring some of the industrial specifications needs expensive equipments and some others are time consuming which is not fortunate for embedded system applications. Therefore, the novel approach "mixtrinsic multi-objective optimization" is proposed that simulates/estimates the set of the specifications that is hard to be measured due to the cost or time requirements, while it measures intrinsically the set of the specifications that has high sensitivity to deviations. These approaches succeed to optimize the hardware to meet the industrial specifications with low cost measurement setup which is essential for embedded system applications.
Bringing robustness to patient flow management through optimized patient transports in hospitals
(2007)
Intra-hospital transports are often required for diagnostic or therapeutic reasons. Depending on the hospital layout, transportation between nursing wards and service units is either provided by ambulances or by trained personnel who accompany patients on foot. In many large German hospitals, the patient transport service is poorly managed and lacks workflow coordination. This contributes to higher hospital costs (e.g. when a patient is not delivered to the operating room on time) and to patient inconvenience due to longer waiting times. We have designed a computer-based planning system - Opti-TRANS c - that supports all phases of the transportation flow, ranging from travel booking, dispatching transport requests to monitoring and reporting trips in real-time. The methodology developed to solve the underlying optimization problem - a dynamic dial-a-ride problem with hospital-specific constraints - draws on fast heuristic methods to ensure the efficient and timely provision of transports. We illustrate the strong impact of Opti-TRANS c on the daily performance of the patient transportation service of a large German hospital. The major benefits obtained with the new tool include streamlined transportation processes and workflow, significant savings and improved patient satisfaction. Moreover, the new planning system has contributed to increase awareness among hospital staff about the importance of implementing efficient logistics practices.