Refine
Year of publication
- 2007 (145) (remove)
Document Type
- Doctoral Thesis (64)
- Report (37)
- Preprint (14)
- Periodical Part (13)
- Study Thesis (5)
- Working Paper (4)
- Diploma Thesis (3)
- Article (2)
- Conference Proceeding (2)
- Habilitation (1)
Has Fulltext
- yes (145)
Keywords
- Phasengleichgewicht (4)
- numerical upscaling (4)
- Dienstgüte (3)
- Elastoplastizität (3)
- Model checking (3)
- Networked Automation Systems (3)
- Netzwerk (3)
- Response-Zeit (3)
- Visualisierung (3)
- hub location (3)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Fraunhofer (ITWM) (28)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Informatik (19)
- Kaiserslautern - Fachbereich Sozialwissenschaften (10)
- Kaiserslautern - Fachbereich Chemie (9)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Physik (1)
- Universität (1)
- Universitätsbibliothek (1)
In recent years, nanofiller-reinforced polymer composites have attracted considerable
interest from numerous researchers, since they can offer unique mechanical,
electrical, optical and thermal properties compared to the conventional polymer
composites filled with micron-sized particles or short fibers. With this background, the
main objective of the present work was to investigate the various mechanical
properties of polymer matrices filled with different inorganic rigid nanofillers, including
SiOB2B, TiOB2B, AlB2BOB3B and multi-walled carbon nanotubes (MWNT). Further, special
attention was paid to the fracture behaviours of the polymer nanocomposites. The
polymer matrices used in this work contained two types of epoxy resin (cycloaliphatic
and bisphenol-F) and two types of thermoplastic polymer (polyamide 66 and isotactic
polypropylene).
The epoxy-based nanocomposites (filled with nano-SiOB2B) were formed in situ by a
special sol-gel technique supplied by nanoresins AG. Excellent nanoparticle
dispersion was achieved even at rather high particle loading. The almost
homogeneously distributed nanoparticles can improve the elastic modulus and
fracture toughness (characterized by KBICB and GBICB) simultaneously. According to
dynamic mechanical and thermal analysis (DMTA), the nanosilica particles in epoxy
resins possessed considerable "effective volume fraction" in comparison with their
actual volume fraction, due to the presence of the interphase. Moreover, AFM and
high-resolution SEM observations also suggested that the nanosilica particles were
coated with a polymer layer and therefore a core-shell structure of particle-matrix was
expected. Furthermore, based on SEM fractography, several toughening
mechanisms were considered to be responsible for the improvement in toughness,
which included crack deflection, crack pinning/bowing and plastic deformation of
matrix induced by nanoparticles.
The PA66 or iPP-based nanocomposites were fabricated by a conventional meltextrusion
technique. Here, the nanofiller content was set constant as 1 vol.%. Relatively good particle dispersion was found, though some small aggregates still
existed. The elastic modulus of both PA66 and iPP was moderately improved after
incorporation of the nanofillers. The fracture behaviours of these materials were
characterized by an essential work fracture (EWF) approach. In the case of PA66
system, the EWF experiments were carried out over a broad temperature range
(23~120 °C). It was found that the EWF parameters exhibited high temperature
dependence. At most testing temperatures, a small amount of nanoparticles could
produce obvious toughening effects at the cost of reduction in plastic deformation of
the matrix. In light of SEM fractographs and crack opening tip (COD) analysis, the
crack blunting induced by nanoparticles might be the major source of this toughening.
The fracture behaviours of PP filled with MWNTs were investigated over a broad
temperature range (-196~80 °C) in terms of notched impact resistance. It was found
that MWNTs could enhance the notched impact resistance of PP matrix significantly
once the testing temperature was higher than the glass transition temperature (TBgB) of
neat PP. At the relevant temperature range, the longer the MWNTs, the better was
the impact resistance. SEM observation revealed three failure modes of nanotubes:
nanotube bridging, debonding/pullout and fracture. All of them would contribute to
impact toughness to a degree. Moreover, the nanotube fracture was considered as
the major failure mode. In addition, the smaller spherulites induced by the nanotubes
would also benefit toughness.
Nowadays, accounting, charging and billing users' network resource consumption are commonly used for the purpose of facilitating reasonable network usage, controlling congestion, allocating cost, gaining revenue, etc. In traditional IP traffic accounting systems, IP addresses are used to identify the corresponding consumers of the network resources. However, there are some situations in which IP addresses cannot be used to identify users uniquely, for example, in multi-user systems. In these cases, network resource consumption can only be ascribed to the owners of these hosts instead of corresponding real users who have consumed the network resources. Therefore, accurate accountability in these systems is practically impossible. This is a flaw of the traditional IP address based IP traffic accounting technique. This dissertation proposes a user based IP traffic accounting model which can facilitate collecting network resource usage information on the basis of users. With user based IP traffic accounting, IP traffic can be distinguished not only by IP addresses but also by users. In this dissertation, three different schemes, which can achieve the user based IP traffic accounting mechanism, are discussed in detail. The inband scheme utilizes the IP header to convey the user information of the corresponding IP packet. The Accounting Agent residing in the measured host intercepts IP packets passing through it. Then it identifies the users of these IP packets and inserts user information into the IP packets. With this mechanism, a meter located in a key position of the network can intercept the IP packets tagged with user information, extract not only statistic information, but also IP addresses and user information from the IP packets to generate accounting records with user information. The out-of-band scheme is a contrast scheme to the in-band scheme. It also uses an Accounting Agent to intercept IP packets and identify the users of IP traffic. However, the user information is transferred through a separated channel, which is different from the corresponding IP packets' transmission. The Multi-IP scheme provides a different solution for identifying users of IP traffic. It assigns each user in a measured host a unique IP address. Through that, an IP address can be used to identify a user uniquely without ambiguity. This way, traditional IP address based accounting techniques can be applied to achieve the goal of user based IP traffic accounting. In this dissertation, a user based IP traffic accounting prototype system developed according to the out-of-band scheme is also introduced. The application of user based IP traffic accounting model in the distributed computing environment is also discussed.
In this work, we analyze two important and simple models of short rates, namely Vasicek and CIR models. The models are described and then the sensitivity of the models with respect to changes in the parameters are studied. Finally, we give the results for the estimation of the model parameters by using two different ways.
Die vorliegende Arbeit beschreibt die Synthese neuartiger, substituierter N,N,N-tridentater Liganden auf der Basis der Stammverbindungen 2,6-Di(pyrazol-3-yl)pyridin und 2,6-Di(pyrimidin-4-yl)pyridin. Die katalytische Aktivität von Dichloroeisen- und Dichlorocobaltkomplexen dieser Liganden in der Olefinpolymerisation wurde getestet. Einen weiteren Schwerpunkt stellte die Synthese von Rutheniumkomplexen auf der Basis dieser neuartigen Liganden und deren Anwendbarkeit in homogen katalysierten Oxidations- und Epoxidationsreaktionen sowie der Hydrovinylierungsreaktion dar. Die Möglichkeit den Liganden 2,6-Di(pyrazol-3-yl)pyridin leicht chemisch modifizieren zu können, wurde genutzt, um Eigenschaften (z. B. die Löslichkeit in organischen Lösungsmitteln) des Liganden und der sich ableitenden Komplexe zu beeinflussen. Zur regioselektiven N-Funktionalisierung der Pyrazolringe wurden nucleophile Substitutionsreaktionen genutzt. Dieser einfache Zugangsweg zu substituierten 2,6-Di(pyrazol-3-yl)pyridinen wurde ebenso dazu verwendet, um funktionelle Gruppen, die eine Substraterkennung über Wasserstoffbrückenbindungen und eine Komplexierung von Lewis-Säuren ermöglichen sollte, in die Peripherie dieser Liganden anzubinden.
Die vorliegende Arbeit hat zum Ziel, Methoden zur Beschreibung der Quellung von (nichtionischen und ionischen) Hydrogelen in wässrigen Lösungen zu entwickeln und zu erproben. Die Modelle setzen sich aus einem Beitrag, der die Gibbssche Energie von Flüssigkeiten beschreibt und aus einem Beitrag für die Helmholtz-Energie des Netzwerks zusammen. Die Beschreibung der elastischen Eigenschaften des Netzwerks beruht auf der Phantom-Netzwerk-Theorie. Die Gibbssche Exzessenergie der Flüssigkeiten wurde mit verschiedenen Modellen, abhängig vom Typ der untersuchten Systeme (wässrig/salzhaltige Lösung oder wässrig/organische Lösung), beschrieben. Bei der Modellierung wurden der Einfluss der Zusammensetzung des Netzwerks (z.B. Konzentration von Vernetzer und/bzw. von ionischem Komonomeren) und der Einfluss der Zugabe von weiteren Komponenten in der das Gel umgebenden wässrigen Lösung auf den Quellungsgrad behandelt. Als weitere Komponenten wurden einerseits anorganische Salze (Natriumchlorid,Dinatriumhydrogenphosphat) und andererseits organische Lösungsmittel (Ethanol, Aceton, Essigsäure, 1-Butanol,Methylisobutylketon) behandelt. Zur Modellierung des Quellverhaltens von nichtionischen IPAAm-Gelen in NaCl bzw. Na2HPO4-haltigen Lösungen wurde das VERS-Modell in Kombination mit der Phanom-Netzwerk-Theorie verwendet. Bei der Erweiterung dieser Modelle auf ionische Gele wurde eine gute Beschreibung nur dann erzielt, wenn sowohl das Dissoziationsgleichgewicht des ionischen Komonomeren Natriummethacrylat als auch eine Korrektur im Phantom-Netzwerk-Modell berücksichtigt wurden. Wenn beide Korrekturen allein aus wenigen experimentellen Daten für die Quellung ionischer Gele in wässrigen Lösungen von NaCl bestimmt wurden, gelingen nicht nur eine gute Korrelation für den Quellungsgrad, sondern auch zuverlässige Vorhersagen (sowohl Erweiterung auf andere (IPAAm/NaMA)Gele als auch bei Verwendung von Na2HPO4 anstelle von NaCl). Die Modellierung der Einflüsse der untersuchten Salze (NaCl bzw. Na2HPO4) auf das Quellverhalten sowohl nichtionischer VP-Gele als auch ionischer (VP/NaMA)Gele erfolgt auch in Kombination des VERS-Modells mit der Phanom-Netzwerk-Theorie. Die vorgeschlagene Methode liefert sowohl für nichtionische VP-Gele als auch für ionische (VP/NaMA)Gele in wässrigen salzhaltigen Lösungen eine gute Übereinstimmung zwischen Experiment und Rechnung. Die Quellungsgleichgewichte nichtionischer IPAAm-Gele in Mischungen aus Wasser und einem organischen Lösungsmittel (Ethanol, Aceton, Essigsäure, Butanol, Methylisobutylketon) lassen sich mit Hilfe der Kombination aus dem UNIQUAC-Modell und einem Free-Volume-Beitrag mit der Phantom-Netwerk-Theorie beschreiben. Bei der Erweiterung des Modells auf ionische (IPAAm/NaMA)Gele wurde der Einfluss der Konzentration des organischen Lösungsmittels auf die Dissoziationskonstante von Natriummethacrylat berücksichtigt. Ähnlich zur Modellierung der Quellung im System (IPAAm/NaMA)Gel-Wasser-Salz wurden die Abweichungen von der Phantom-Netzwerk-Theorie mit Hilfe eines empirischen Faktors betrachtet. Mit diesen Modellvorstellungen gelingt sowohl eine gute Korrelation als auch zuverlässige Vorhersage des Quellungsgrades von ionischen Gelen in wässrig/organischen Lösungen. Bei den theoretischen Studien zur Quellung von Gelen auf Basis von Vinylpyrrolidon in wässrig/organischen Lösungsmittelgemischen erwies sich, dass eine Kombination aus dem UNIQUAC-Modell (jedoch ohne kombinatorischen Beitrag) und der Phantom-Netzwerk-Theorie die besten Ergebnisse bei der Beschreibung des Quellverhaltens der nichtionischen VP-Gele liefert. Bei der Erweiterung des Modells auf ionische (VP/NaMA)Gele wurde eine Abhängigkeit des Dissoziationsgrades von Natriummethacrylat von der Ethanol-, bzw. der Acetonkonzentration berücksichtigt.
The broad engineering applications of polymers and composites have become the
state of the art due to their numerous advantages over metals and alloys, such as
lightweight, easy processing and manufacturing, as well as acceptable mechanical
properties. However, a general deficiency of thermoplastics is their relatively poor
creep resistance, impairing service durability and safety, which is a significant barrier
to further their potential applications. In recent years, polymer nanocomposites have
been increasingly focused as a novel field in materials science. There are still many
scientific questions concerning these materials leading to the optimal property
combinations. The major task of the current work is to study the improved creep
resistance of thermoplastics filled with various nanoparticles and multi-walled carbon
nanotubes.
A systematic study of three different nanocomposite systems by means of
experimental observation and modeling and prediction was carried out. In the first
part, a nanoparticle/PA system was prepared to undergo creep tests under different
stress levels (20, 30, 40 MPa) at various temperatures (23, 50, 80 °C). The aim was
to understand the effect of different nanoparticles on creep performance. 1 vol. % of
300 nm and 21 nm TiO2 nanoparticles and nanoclay was considered. Surface
modified 21 nm TiO2 particles were also investigated. Static tensile tests were
conducted at those temperatures accordingly. It was found that creep resistance was
significantly enhanced to different degrees by the nanoparticles, without sacrificing
static tensile properties. Creep was characterized by isochronous stress-strain curves,
creep rate, and creep compliance under different temperatures and stress levels.
Orientational hardening, as well as thermally and stress activated processes were
briefly introduced to further understanding of the creep mechanisms of these
nanocomposites. The second material system was PP filled with 1 vol. % 300 nm and 21 nm TiO2
nanoparticles, which was used to obtain more information about the effect of particle
size on creep behavior based on another matrix material with much lower Tg. It was
found especially that small nanoparticles could significantly improve creep resistance.
Additionally, creep lifetime under high stress levels was noticeably extended by
smaller nanoparticles. The improvement in creep resistance was attributed to a very
dense network formed by the small particles that effectively restricted the mobility of
polymer chains. Changes in the spherulite morphology and crystallinity in specimens
before and after creep tests confirmed this explanation.
In the third material system, the objective was to explore the creep behavior of PP
reinforced with multi-walled carbon nanotubes. Short and long aspect ratio nanotubes
with 1 vol. % were used. It was found that nanotubes markedly improved the creep
resistance of the matrix, with reduced creep deformation and rate. In addition, the
creep lifetime of the composites was dramatically extended by 1,000 % at elevated
temperatures. This enhancement contributed to efficient load transfer between
carbon nanotubes and surrounding polymer chains.
Finally, a modeling analysis and prediction of long-term creep behaviors presented a
comprehensive understanding of creep in the materials studied here. Both the
Burgers model and Findley power law were applied to satisfactorily simulate the
experimental data. The parameter analysis based on Burgers model provided an
explanation of structure-to-property relationships. Due to their intrinsic difference, the
power law was more capable of predicting long-term behaviors than Burgers model.
The time-temperature-stress superposition principle was adopted to predict long-term
creep performance based on the short-term experimental data, to make it possible to
forecast the future performance of materials.
Ziel der vorliegenden Arbeit war es, durch Lagerung hervorgerufene unerwünschte Alterungsphänomene in Fruchtsäften und Konzentraten aus anthocyanhaltigen Früchten aufzuklären und zu minimieren. Ein wesentlicher Schwerpunkt lag dabei in der Betrachtung der Veränderung der komplexen Stoffgruppe der Polyphenole, die aufgrund ihrer Vielzahl an gesundheitlich positiven Wirkungen in jüngster Zeit immer mehr in den Focus einer gesunden Ernährung gerückt sind. Buntsäfte und Buntsaftkonzentrate aus roter Traube (Vitis Vinifera, nur Saft), schwarzer Johannisbeere (Ribes nigrum L.), und Aronia (Aronia melanocarpa) wurden hergestellt und anschließend über einen Zeitraum von zwölf Monaten bei 4 °C, 20 °C und 37 °C unter Lichtausschluss gelagert. Bei allen Buntsäften und Buntsaftkonzentraten wirkt sich die Zunahme von Lagertemperatur und Lagerdauer negativ aus. Die Intensität der Auswirkung differierte stark zwischen den untersuchten Parametern: Die Gesamtphenolgehalte (Folin-Ciocalteu) sowie die damit häufig korrelierende antioxidative Kapazität (TEAC) unterlagen in allen Säften und Konzentraten bei 4 °C und 20 °C über einen Zeitraum von 12 Monaten nur geringen Schwankungen. Möglicherweise entstehen während der Lagerung neue Pigmente wie polymere oder kondensierte Polyphenole, die ebenfalls eine hohe antioxidative Kapazität besitzen. Die originäre Farbe (CIELAB, Sensorik) blieb bei sehr stark gefärbten Proben (z.B. schwarze Johannisbeere) länger erhalten als bei nur schwach gefärbten Proben (z.B. Rebsorte cv. Spätburgunder), die zu einer wesentlich schnelleren Bräunung auch bei niedrigeren Lagertemperaturen neigten. Die Phenolprofile (HPLC) sind frucht- und sortenabhängig, die Phenolgehalte (HPLC) sind frucht-, sorten- und jahrgangsabhängig. Die höchsten Gehalte an farblosen Phenolen wurden im Rahmen dieser Arbeit für Aroniasaft und –konzentrat (1000 mg/L) gemessen. Während der Lagerung blieben die Werte für 4 °C in fast allen Proben relativ stabil, wohingegen für 20 °C bereits deutliche Abnahmen, insbesondere der Phenolcarbonsäuren und Flavan-3-ole, gemessen wurden. Die temperaturabhängige Abnahme von Flavan-3-olen in rotem Traubensaft cv. Spätburgunder steht wahrscheinlich im Zusammenhang mit der Bildung von Anthocyan-Tannin-Addukten, diese konnten als solche nach Größenausschlusschromatographie und anschließender LC-MS-Analytik identifiziert werden. Die Anthocyangehalte der originären Anthocyane (berechnet als Cya-3-glc bzw. Mal-3-glc, HPLC) nahmen in Abhängigkeit von der Lagertemperatur und der Lagerdauer in allen untersuchten Proben deutlich ab. Der Vergleich der aus den kinetischen Berechnungen auf der Basis der HPLC-Daten hervor gehenden Halbwertszeiten der Anthocyane verdeutlicht die unterschiedlichen Stabilitäten in den Säften. Generell ging eine hohe Ausgangskonzentration an Anthocyanen auch mit einer höheren Halbwertszeit und damit einer höheren Stabilität einher. Mit der Anthocyankonzentration (HPLC) korreliert der Monomerindex (pH-Shift-Methode), der auch als Marker zur Beschreibung der Alterung von Anthocyanen geeignet ist. Ein weiterer Schwerpunkt lag bei der Erhaltung der Farbe auf dem Zusatz von farblosen Phenolen, die durch sogenannte Copigmentierungsreaktionen Anthocyane stabilisieren. Während sich einige farblose Phenole (Kaffeesäure, Coumarsäure, Chlorogensäure) in Modellversuchen farbstabilisierend auf das Anthocyan Cyanidin-3-glucosid auswirkten, haben sich die verhältnismäßig geringen Konzentrationen in rotem Traubensaft nicht positiv bemerkbar gemacht. Die erst durch sehr hohe Dosen an Copigmenten eintretende Farbstabilisierung ist für die Praxis nicht realistisch und finanziell nicht umsetzbar. Ein stark farbdestabilisierender Effekt sowie eine deutliche Verstärkung der Bräunung sowohl in den Modelllösungen als auch in Realmedien wurden beim Zusatz von Ascorbinsäure beobachtet. Basierend auf den Ergebnissen aller Lagerstudien können klare Empfehlungen für die Eindämmung von Alterungsprozessen ausgesprochen werden: 1. Sehr gute Qualität der Rohware (reich insbesondere an Anthocyanen) 2. Vermeidung von Prozessschritten und Behandlungsmaßnahmen während der Verarbeitung, die eine starke Abnahme des Anthocyangehaltes verursachen (z.B. durch kurze Erhitzungsprozesse, Ausschluss von Sauerstoff, möglichst niedrige Verarbeitungstemperaturen, Inaktivierung von Polyphenoloxidasen) 3. Dauerhaft niedrige Lagertemperaturen (ca. 4 °C) 4. Lichtausschluss während der Lagerung 5. Möglichst kurze Lagerdauer, entsprechend des jeweiligen Produktes 6. Kein Zusatz von farblosen Phenolen als Copigmente sowie Ascorbinsäure, evtl. Verschnitt mit sehr farbintensiven Buntsäften 7. Lagerung als Direktsaft Für die Praxis können unter Berücksichtigung dieser Aspekte Grundlagen geschaffen werden, die Qualität von Buntsäften zu erhalten und im Hinblick der aktuellen functional food Diskussion einen Beitrag zu einem gesundheitsbewussten Lebenstil mit natürlichen Lebensmitteln zu leisten.
Retentionsbodenfilter (RBF) werden in den letzten Jahren zunehmend zur weitergehenden Mischwasserbehandlung eingesetzt. Insbesondere bei empfindlichen Gewässern haben sich Retentionsbodenfilter als eine wertvolle Maßnahme zur Erfüllung der immissionsorientierten Anforderungen erwiesen, die sich vermehrt aus neuen europäischen Regelungen (EU WRRL, 2000) ergeben. Der überwiegend hohe Wirkungsgrad von RBF hinsichtlich der Elimi-nation von C-Verbindungen (CSB) und Ammonium (NH4) wurde mittlerweile an verschiede-nen Anlagen nachgewiesen. Es bestehen weiterhin Unsicherheiten hinsichtlich des Einflus-ses unterschiedlicher Beschickungs- und Betriebssituationen auf die Reinigungsleistung von Bodenfiltern. Die vorliegende Arbeit soll einen Beitrag zur Verbesserung des Kenntnisstan-des zur Belastbarkeit von RBF liefern. Im Vordergrund steht die Ermittlung des maximalen Frachtrückhaltes hinsichtlich organischen Kohlenstoffverbindungen und Stickstoffverbindun-gen unter hohen hydraulischen und stofflichen Belastungen. Die Untersuchungen wurden im Labormaßstab an Säulenmodellen mit zwei unterschiedli-chen Filtersubstraten durchgeführt. Durch die gezielte Variierung der Beschickungsmengen und Filtergeschwindigkeit wurde ein breites Spektrum unterschiedlicher Belastungszustände untersucht. Ferner wurden Sauerstoff- und Redoxpotential im Säulenablauf sowie im Filter-körper gemessen. In Anschluss an die Versuchsreihen wurden die Säulen abgebaut und ergänzende bodenkundliche und mikrobiologische Untersuchungen durchgeführt. Die Ergebnisse einer ergänzenden Volumenbilanz zeigen, dass selbst in einem überstauten Filterkörper nicht alle Poren im mit Wasser gefüllt sind. Der in der eingeschlossenen Boden-luft enthaltene Sauerstoff trägt zur Wiederbelüftung des infiltrierenden Beschickungswassers bei. Die mikrobiell bedingten Unterschiede des O2-Verbrauchs im vertikalen Filterprofil haben zur Folge, dass in einem Filterkörper gleichzeitig aerobe, anoxische und anaerobe Zonen existieren können. Der Rückhalt von Ammonium hat sich als signifikant abhängig von der Filtrationsgeschwin-digkeit und der substratspezifischen Sorptionskapazität erwiesen. Die Gesamtbetrachtung der Stickstoffkomponenten und insbesondere NO3-Konzentrationsganglinien in Säulenablauf führt im Zusammenhang mit der Sauerstoffverfügbarkeit im Filterkörper zur Folgerung, dass NH4-Rückhalt nicht wie bisher als streng zweistufiger Prozess mit Teilschritten Sorption (in der Betriebsphase) und Nitrifikation (in der Trockenphase) angesehen werden kann. Die Er-gebnisse der Arbeit zeigen erstmals, dass unter bestimmten Bedingungen die Nitrifikation schon während der Betriebsphase stattfindet. Die Analyse des Sauerstoffverbrauchs in den Filterkörpern der untersuchten Säulen in Ver-bindung mit der CSB-Reinigungsleistung belegt, dass während der Betriebsphase auch für die CSB-Verbindungen ein unmittelbarer Abbau stattfindet. Unter aeroben Verhältnissen ist die Reinigungsleistung in allen untersuchten Säulen – unabhängig von Substrat und Filter-geschwindigkeit - weitgehend stabil.
On the Complexity of the Uncapacitated Single Allocation p-Hub Median Problem with Equal Weights
(2007)
The Super-Peer Selection Problem is an optimization problem in network topology construction. It may be cast as a special case of a Hub Location Problem, more exactly an Uncapacitated Single Allocation p-Hub Median Problem with equal weights. We show that this problem is still NP-hard by reduction from Max Clique.
This report reviews selected image binarization and segmentation methods that have been proposed and which are suitable for the processing of volume images. The focus is on thresholding, region growing, and shape–based methods. Rather than trying to give a complete overview of the field, we review the original ideas and concepts of selected methods, because we believe this information to be important for judging when and under what circumstances a segmentation algorithm can be expected to work properly.
Aufgrund ihrer Besonderheiten und Merkmalen ist die Innenstadt als wichtigster Stadtteil einer Stadt zu charakterisieren. Aufgrund der Zerstörungen durch den Zweiten Weltkrieg und den anschließenden Entwicklungen hat die Innenstadt an urbaner Qualität eingebüßt. Dies ist unter anderem darin begründet, dass eine Verdrängung der Wohnfunktion aus der Innenstadt an den Stadtrand oder ins Umland stattfindet. Die Stärkung der Wohnfunktion ist eine Grundvoraussetzung zur Wiedergewinnung urbaner Qualitäten und zur nachhaltigen Revitalisierung und Stabilisierung der Innenstadt. Das Wohnen an sich ist ein multidimensionales Phänomen mit vielfältigen Wirkungsgefügen und Verflechtungen. Zur Ableitung von Konzepten und Handlungsmaßnahmen sind die Wohnbedürfnisse der Bevölkerung durch verschiedene Klassifizierungen zu erheben und mit den so genannten Megatrends -allen voran der demografischen Entwicklung- und den spezifischen Kommunalsituationen zu überlagern. An diesem Prozess ist mit steigender Tendenz eine Vielzahl von öffentlichen und privaten Akteuren beteiligt. Gängige Darstellungsmethoden der Stadtplanung sind nur bedingt geeignet, die komplexen Wirkungsgefüge sowie die Ein- auf und Auswirkungen von Vorhaben als Informationen transparent und nachvollziehbar abzubilden. Der Einsatz von Mixed Reality-Techniken und von immersiven Szenarien zur Unterstützung von Entscheidungssituationen in stadtplanerischen Aufgabenfeldern ist als qualifizierend für diese einzustufen. Durch Mixed Reality-Techniken, die reale Gegebenheiten und virtuelle Objekte gleichzeitig überlagert abbilden, ist es im Sinne einer Ergebnisvisualisierung möglich, sowohl Handlungsbedarfe in der Bestandssituation zu identifizieren als auch die visuellen Ein- und Auswirkungen von Vorhaben originalmaßstäblich und dreidimensional zu simulieren. Darüber hinaus können auch originär nicht visuell wahrnehmbare Informationen visuell abgebildet werden. Neben den technischen Ausstattungen ist hierfür ein virtueller, generischer Datenschatten notwendig, der ein digitales Abbild der Realität und der geplanten Vorhaben darstellt. Der bislang theoretische Ansatz der immersiven Szenarien ist der nächste Schritt im Bereich der computergestützten Daten- und Informationsvisualisierung beziehungsweise -darstellung. Über die Ergebnisvisualisierung hinaus sind immersionserzeugende Systeme in der Lage, einen Benutzer in eine Situationsdarstellung zu versetzen, in der er nicht mehr zwischen realen und virtuellen Objekten unterscheiden kann. Zugleich bedeutet dies, dass er mit allen virtuellen Objekten intuitiv interagieren kann. Der Benutzer wird dadurch Teil des Szenarios. Seine Aktionen wirken sich wahrnehmbar rekursiv auf das Szenario aus. Sowohl Mixed Reality-Techniken als auch immersive Szenarien können für Entscheidungssituationen im Bereich des thematisierten Wirkungsgefüge ‚innerstädtisches Wohnen’ die Entscheidungsgrundlagen auf den Betrachtungsebenen Wohnstandort, Wohnanlage und Wohnung für alle beteiligten Akteure qualifizieren. Sie sind geeignet, um Handlungserfordernisse transparent und nachvollziehbar abzubilden sowie die visuell wahrnehmbaren und originär nicht visuell wahrnehmbaren Konsequenzen von Wohnbauvorhaben abzuschätzen. Anhand des innerstädtischen Projektes „Glockencarré Kaiserslautern“ wurden hierzu die Möglichkeiten der Augmented Reality-Technik (als eine Ausprägung der Mixed Reality-Techniken) aufgezeigt und die Einsatzmöglichkeiten für unterschiedliche Akteursgruppen charakterisiert.
A fully automatic procedure is proposed to rapidly compute the permeability of porous materials from their binarized microstructure. The discretization is a simplified version of Peskin’s Immersed Boundary Method, where the forces are applied at the no-slip grid points. As needed for the computation of permeability, steady flows at zero Reynolds number are considered. Short run-times are achieved by eliminating the pressure and velocity variables using an Fast Fourier Transform-based and 4 Poisson problembased fast inversion approach on rectangular parallelepipeds with periodic boundary conditions. In reference to calling it a fast method using fictitious or artificial forces, the implementation is called FFF-Stokes. Large scale computations on 3d images are quickly and automatically performed to estimate the permeability of some sample materials. A matlab implementation is provided to allow readers to experience the automation and speed of the method for realistic three-dimensional models.
Durchlaufende Verbundträger können mit dem Fließgelenkverfahren berechnet werden. Bei dieser Methode werden die plastischen Querschnitts- und Systemreserven ausgenutzt. Bisher war bei der Anwendung der Fließgelenktheorie die Betrachtung von großen Öffnungen im Steg nicht geklärt. Im Rahmen der vorliegenden Arbeit wurden durchlaufende Verbundträger mit Öffnungen experimentell und numerisch untersucht. Mit den ermittelten Ergebnissen wurden zwei Bemessungsmodelle entwickelt, mit denen solche Verbundträger bemessen werden können. Bei dem ersten Bemessungsmodell handelt es sich um ein elastisch-plastisches Nachweisverfahren. Das Verfahren beruht auf einer elastischen Schnittgroßenermittlung, bei dem die Querschnitte plastisch nachgewiesen werden. Nach dem zweiten Nachweisverfahren werden die Durchlaufträger nach der Fließgelenktheorie plastisch-plastisch berechnet. Über die plastischen Tragfähigkeiten der Querschnitte werden die plastischen Systemreserven rechnerisch ausgenutzt. Dazu werden die möglichen kinematischen Ketten des Systems zusammengestellt und die jeweiligen Traglasten ermittelt.
Induktionsschweißen kann sowohl für das Schweißen von thermoplastischen Faser-
Kunststoff-Verbunden als auch für das Verbinden von Metall/Faser-Kunststoff-
Verbunden eingesetzt werden. Nach Betrachtung der Möglichkeiten einer solchen
Verbindung wurde festgestellt, dass die Verbindungsqualität durch die
Oberflächenvorbehandlung des metallischen und des polymeren Fügepartners und
durch die Prozessbedingungen bestimmt wird.
Verschiedene neue Werkzeuge (z.B. spezielle Probenhalterungen, temperierbarer
Anpressstempel, Erwärmungs- und Konsolidierungsrolle) wurden entwickelt und in
die Induktionsschweißanlage zur Herstellung von Metall/Faser-Kunststoff-Verbunden
integriert. Topografische Analysen mittels Rasterelektronenmikroskopie und
Laserprofilometrie zeigen einen großen Einfluss der Vorbehandlungsmethoden auf
die Oberflächenrauhigkeit. Zusätzlich ändert die Vorbehandlung die physikalischen
(Oberflächenenergie) und die chemischen Eigenschaften (Atomkonzentration). Die
Eigenschaften der Verbindungen wurden zuerst anhand von Zugscherprüfungen und
parallel durch Oberflächenanalysen untersucht. Die Ergebnisse dieser
Untersuchungen zeigen:
• Die Vorbehandlungsmethoden Korundstrahlen und Sauerbeizen führen bei
dem metallischen Fügepartner zu den höchsten Verbundfestigkeiten. Die
Atmosphären-Plasmareinigung des polymeren Fügepartners ergibt eine
Zunahme der Zugscherfestigkeit von ca. 10 % sowie auch eine Verkleinerung
des Vertrauensbereiches.
• Die Zugscherfestigkeit hängt vom Prozessdruck und damit vom Fließverhalten
des Polymers in der Fügezone ab.
• Die Orientierung der Prüfkraft relativ zur Faserorientierung hat keinen Einfluss
auf die Zugscherfestigkeit der eingesetzten faserverstärkten Materialien.
• Die Leinwand-Bindung, mit mehr polymerreichen Zonen, führt zu einem
geringen Anstieg der Zugscherfestigkeit im Vergleich zu einer Atlas 1/4-
Bindung. Die Gelege-Struktur ergibt durch Faserverschiebungen ähnliche
Festigkeiten wie die Leinwand-Bindung. Es zeigt sich, dass die
Verbundfestigkeit durch das Polymer bestimmt wird. • Die Zugscherfestigkeit gewinnt einen großen Anstieg durch eine zusätzliche
Polymerfolie in der Fügezone. Die Schliffbilder zeigen eine polymere
Zwischenschichtdicke von 5 bis 20 μm für AlMg3-CF/PA66.
• Durch den gezielten Einsatz verschiedener Vorbehandlungsmethoden
(Korundstrahlen mit zusätzlichem Polymer) kann die Zugscherfestigkeit auf bis
zu 14 MPa für AlMg3-CF/PA66-Verbunde und 18 MPa für DC01-CF/PEEKVerbunde
gegenüber dem unbehandelten Zustand verdoppelt werden. Weitere Untersuchungen an den Prozessparametern ergaben für DC01-CF/PEEKVerbunde,
dass folgende Einstellungen zu einer weiteren Steigerung der
Zugscherfestigkeit auf 19 MPa führen:
• Eine Starttemperatur des Anpresstempels von 370 °C.
• Eine Haltezeit von 7 Minuten.
• Eine Abkühlrate von 6 °C/min.
Für AlMg3-CF/PA66 zeigte sich, dass eine Anpresstemperatur von 10 °C zu einer
Zugscherfestigkeit von 14,5 MPa führt. Diese beiden Zugscherfestigkeiten sind
lediglich 10 – 15 % geringer als die unter optimalen Bedingungen hergestellten
Klebeverbindungen.
Erste Untersuchungen zeigen, dass bei galvanischer Korrosion von Metall/FKVVerbunden
eine schnelle Abnahme der Zugscherfestigkeit erfolgt. Hierfür wurden die
Proben drei Wochen in Wasser gelagert. Beim direkten Kontakt zwischen
Kohlenstofffaser und Aluminium erklärt sich dies durch Korrosion in der Fügezone.
Dabei sinken die Zugscherfestigkeiten der Proben bis auf 5 MPa. Bei Proben mit
einer Glasfaserlage als Isolationsschicht zeigen sich keine Korrosionsprodukte und
die Zugscherfestigkeit nimmt um 30 % bis auf 8 – 9 MPa ab.
Bei in Salzwasser gelagerten Proben ist die galvanische Korrosion deutlich stärker
ausgeprägt. Bereits nach einer Woche besitzen die acetongereinigten Proben mit
zusätzlichem Polymer lediglich eine Restzugscherfestigkeit von 3 bis 4 MPa. Die
korundgestrahlten Proben zeigen Korrosionsprodukte am Rande der Fügezone und
in der Fügezone, weisen aber dennoch eine Zugscherfestigkeit von ca. 10 MPa auf.
Die glasfaserverstärkten Proben zeigen weder Korrosionsprodukte noch eine
Abnahme der Zugscherfestigkeit. Dynamisch thermografische Analysen wurden in verschiedenen Umgebungsgasen
durchgeführt, um die Zersetzungstemperatur des faserverstärkten Polymers zu
bestimmen. Im Falle von CF/PA66 führte dies nicht zu einer Vergrößerung des
Prozessfensters, da die Zersetzung hauptsächlich thermisch und nicht thermooxidativ
ist. Die festgestellte Zersetzungstemperatur von CF/PEEK in Luft betrug
550 °C. Die Vergrößerung des Prozessfensters ist für CF/PA66 gering und zeigte
auch keinen Anstieg in der Zugscherfestigkeit nach dem Schweißen in Stickstoff.
Trotzdem hat das Induktionsschweißen unter Schutzgas ein großes Potential für
gesättigte Kohlenwasserstoffe wie z.B. glasfaserverstärktes Polypropylen. Hier wurde
die Zersetzungstemperatur von 230 °C in Luft auf 390 °C in Stickstoff erhöht.
Es wurde ein Demonstrator bestehend aus einem Aluminium-Profil und einer
CF/PA66-Platte hergestellt, womit gezeigt werden konnte, dass die erworbenen
Kenntnisse auch für die industrielle Anwendung umsetzbar sind. Mittels analytischer
Modelle und FE-Berechnungen wurde die induktive Erwärmung erfolgreich
nachgebildet.
Gegenstand der vorliegenden Arbeit waren Untersuchungen zum Hochdruck-Mehrphasengleichgewicht ternärer Systeme bestehend aus einem nahekritischen Gas, Wasser und einem bei Umgebungsbedingungen vollständig wasserlöslichen organischen Lösungsmittel. Das Aufpressen eines Gases nahe seiner kritischen Temperatur (nahekritisches Gas) auf eine einphasige wässrige Lösung kann – wie die Zugabe eines Salzes – zur Entmischung der Flüssigkeit in eine wasserreiche (hydrophile) sowie eine an organischem Lösungsmittel reiche (lipophile bzw. hydrophobe) Phase führen. Elgin und Weinstock (1959) nannten dieses Phänomen bezeichnenderweise „salting out with a supercritical gas“. In der vorliegenden Arbeit wurde dieser Vorschlag aufgegriffen und umgesetzt. Der Schwerpunkt lag auf der Untersuchung des Einflusses ionischer Komponenten, z. B. von Puffersystemen bzw. anorganischer Salze, sowohl auf das Phasengleichgewicht des ternären phasenbildenden Systems als auch auf die Verteilung überwiegend dissoziierbarer Naturstoffe auf die koexistierenden Hochdruck-Flüssigphasen. Die Experimente wurden mit einer in früheren Arbeiten (Wendland 1994, Adrian 1997, Freitag 2003) entwickelten Phasengleichgewichtsapparatur durchgeführt. Die beiden untersuchten ternären phasenbildenden Systeme waren das System Ethen + Wasser + Aceton und das System Ethan + Wasser + Aceton. Für beide Systeme wurde die Zusammensetzung der koexistierenden flüssigen Phasen L1 und L2 des Dreiphasengleichgewichts L1L2V über den gesamten Existenzbereich bei Temperaturen von 293, 313 und 333 K bestimmt. Ausserdem wurde der Verlauf beider kritischer Endpunktlinien für die beiden genannten und zusätzlich für die bereits von Freitag (2003) untersuchten Systeme Ethen + Wasser + 1- bzw. 2-Propanol über einen Temperaturbereich zwischen 278 und 353 K vermessen. Den Schwerpunkt der Untersuchungen bildeten Messungen zur Verteilung von Naturstoffen auf die koexistierenden flüssigen Phasen L1 und L2 des Dreiphasengleichgewicht L1L2V im pH-neutralen ternären System Ethen + Wasser + 2-Propanol. Zunächst wurde die Auswirkung der Zugabe von ionischen Komponenten auf die Lage der kritischen Endpunktlinien untersucht. Der erwartete, zusätzliche Aussalzeffekt bestätigte sich. Kernstück waren Verteilungsmessungen der sechs ausgewählten Wirkstoffe L-Histidin, Cimetidin, Aspirin®, 4-Dimethylaminoantipyrin, Sulfameter und Ciprofloxacin bei 293 und 333 K und bei mindestens zwei pH-Werten (insgesamt ca. 300 Messpunkte). Diese Erkenntnisse liefern neue Aspekte hinsichtlich der Entwicklung neuer, dieses spezielle Phasengleichgewichtsverhalten ausnutzende Hochdruckextraktionsverfahren zur Abtrennung organischer Wertstoffe aus wässrigen Lösungen. Gegenstand der theoretischen Untersuchungen war die Modellierung der Phasengleichgewichte der untersuchten ternären, phasenbildenden Systeme Ethen bzw. Ethan + Wasser + Aceton mit dem vorhandenen Programmpaket. Es verwendet die kubische Zustandgleichung von Peng und Robinson in der Modifikation von Melhem et al. (1989). In Anlehnung an die Untersuchungen von Freitag (2003) kamen die beiden Mischungsregeln von Panagiotopoulos und Reid (1986) sowie von Huron und Vidal (1979) zur Anwendung. Zunächst wurden die für den Programmablauf notwendigen binären Wechselwirkungsparameter an Messwerte für das Dampf-Flüssigkeits-Gleichgewicht der binären Randsysteme (aus der Literatur) angepasst. Da das Programm hierbei auf keine eigenen Messdaten, sondern lediglich auf Daten aus der Literatur zurückgreift, kann von einer Vorhersage gesprochen werden. Die Vorhersage der Phasengleichgewichte stimmt aber nur qualitativ mit den Messwerten überein, wobei das Phasenverhalten aber grundsätzlich richtig vorhergesagt wird. Eine zufriedenstellende quantitative Beschreibung der ternären Dreiphasengleichgewichte ist (wie schon von Adrian (1997) und Freitag (2003) gezeigt) nur mit Hilfe einer Korrelation möglich, bei der die binären Wechselwirkungsparameter durch Anpassung an die experimentell ermittelten ternären Phasengleichgewichtsdaten bestimmt werden. Ein Vorschlag für weiterführende Untersuchungen ist die Implementierung chemischer Reaktionen, wie sie bei dissoziierenden Spezies vorkommen, in das Programmpaket. Hiervon kann eine brauchbare Modellierung sowohl der Phasen- als auch der Verteilungsgleichgewichte gepufferter Systeme erwartet werden. Des weiteren bleibt die Notwendigkeit bestehen, für die entsprechenden binären Randsysteme möglichst zahlreiche und vor allem genaue Daten für einen grossen Temperatur- und Druckbereich zur Verfügung zu haben, um die Modellierung zu verbessern.
Die Bestimmung der Filtrierbarkeit von Suspensionen mit einer neuen Auswertemethode auf der Grundlage bekannter und erprobter Auswerteverfahren ergibt eindeutige Auswertekriterien insbesondere bei inkompressiblen Feststoffen und newtonschen Flüssigkeiten. Eine verbesserte Messtechnik erfasst den Filtratanfall bei beginnender Sättigung genau und vereinfacht die Zeitnahme. Methode und Technik erhöhen Genauigkeit und Reproduzierbarkeit bei der Bestimmung von Filtermittel- und Filterkuchenwiderstand und schaffen eine präzise Grundlage zur Auslegung von kontinuierlichen Fest-Flüssig-Filtern hoher Durchsatzleistung oder zur Entwicklung widerstandsarmer Filtermittel. Die Messungen zeigen einen hohen Anteil des Filtermittelwiderstandes am Gesamtwiderstand und erlauben die Berechnung eines Richtwertes für den Filtermittelwiderstand. Die industrielle Fest-Flüssig-Trennung wird in der chemischen, pharmazeutischen und Aufbereitungs-Industrie zu einem großen Teil auf kontinuierlich betriebenen Filtern durchgeführt, bei denen die Flüssigkeit vom Feststoff durch Kuchenfiltration sehr vollständig getrennt werden kann. Diese Filter sind durch Filtrationszykluszeiten zwischen 10 und 100 Sekunden charakterisierbar. Bei der Auslegung, Simulation oder Optimierung dieser Filter ist der Prozessingenieur auf genaue Daten zur Filtrierbarkeit der Suspensionen angewiesen. Die Theorie des durchströmten Filterkuchens ist sehr perfektioniert. Weniger Beachtung hatte dagegen der Einfluss des Filtermittels auf den Gesamtwiderstand bei der Filtration gefunden. Dies lag in der Vergangenheit teilweise daran, dass die genaue Bestimmung des Filtermittelwiderstandes RM – die zusammen mit der Bestimmung des Filterkuchenwiderstandes rK erfolgt – schwierig war. In den letzten Jahren wurden Filter für sehr hohe spezifische Durchsätze gebaut, bei denen dieser Wert von erheblichem Einfluss ist. Ziel der Arbeit war es, mehr Wissen und genaue Daten zum Filtermittelwiderstand zu erarbeiten. Es wurden umfangreiche Messungen des Filtermittelwiderstandes mit unterschiedlichen Filtermitteln und verschiedenen Produkten in wässrigen Suspensionen durchgeführt. Zur genauen Bestimmung des Filtermittelwiderstandes wurde ein gegenüber dem Stand der Technik verbesserter Versuchsaufbau mit rechnergestützter Datenerfassung entwickelt. Filtratanfall und Druckverlauf wurden bei den Versuchen festgehalten. Bei der Auswertung der Filterkurven wurden eindeutige Kriterien zur Bestimmung von Anfang und Ende der Filtration eingeführt. Dies erfolgte durch die Kombination von zwei bekannten und erprobten Auswerteverfahren zur Bestimmung der Filtrationseigenschaften. Diese Kombination ergab mit der verbesserten Versuchstechnik neben der Eindeutigkeit auch den Vorteil der exakten Erfassung des Filtratanfalls bei beginnender Sättigung, die ebenfalls zur erhöhten Genauigkeit bei der Bestimmung der Filterwiderstände beitrug. Der Filtermittelwiderstand kann bei kontinuierlich betriebenen Filtern am Ende des Filtrationszyklus 25 % des Gesamtwiderstandes und mehr erreichen. Bei leicht filtrierbaren Feststoffen werden trotz offener Filtergewebe auch höhere Anteile am Gesamtwiderstand gefunden. Der Filtermittelwiderstand ist bei kontinuierlichen Filtern ein wesentlicher Faktor bei der Filterauslegung. Durch Variation der Parameter der Filtergleichung wie Feststoffgehalt, Druck usf. wurden die Einflüsse wichtiger Betriebsparameter auf tendenzielle Änderungen der Widerstände untersucht. Bei diesen Messungen wurde festgestellt, dass der Durchflusswiderstand des Filtermittels bei höheren Durchflussgeschwindigkeiten nicht konstant ist. Die Einführung einer Reynoldszahl, die auf den nominellen Porendurchmesser bezogen ist, erlaubt es Strömungszustände zu definieren, ab denen der Durchflusswiderstand nicht mehr konstant ist. Mit den bekannten Gesetzten der Durchströmung poröser Haufwerke lassen sich Widerstandszahlen, analog zur Rohrreibungszahl, und daraus Druckverluste errechnen. Letztere sind mit den gemessenen Druckverlusten aus der Bestimmung der Filtermittelleerwiderstände gut korreliert. Mechanische Vorgänge bei der Partikelabscheidung an Filtermitteln werden anhand eines Kugel-Loch-Modells diskutiert. Experimentelle Ergebnisse stützen Schlussfolgerungen, die aufgrund dieses Modells gezogen wurden. Dazu wurden Überlegungen möglich, welche einige Tendenzen bei der Variation der Porengrößen bei unterschiedlichen Filtermedien erklären können.
Acrylamid (AA) ist ein Kanzerogen, das beim Braten, Backen und Frittieren stärkehaltiger Le-bensmittel im Wesentlichen aus dem Vorläufer Asparagin in Gegenwart reduzierender Zucker in substantiellen Mengen gebildet wird. AA wird im Organismus metabolisch zu Glycidamid (GA) umgewandelt. Für GA wurden DNA-Addukte insbesondere mit dem N7 des Guanins nachgewiesen. Von besonderem Interesse für die Risikobewertung von AA ist Aufklärung des kanzerogenen Wirkmechanismus sowie des genotoxischen Potentials im Vergleich zu anderen bekannten Kanzerogenen. Ziel der Arbeit war es daher, das genotoxische Potential von AA und seinen Metaboliten GA sowie deren genotoxischen Wirkmechanismus zu charakterisieren. AA wurde im Vergleich zu den alpha, beta-ungesättigten Carbonylverbindungen Acrolein (Ac) und Hexenal (Hex) getestet, GA vergleichend zu aktiven Formen der Kanzerogene Benzo[a]pyren (B[a]P) und N-Nitrosodiethanolamin (NDELA) sowie den N-Nitrosoharnstoffen MNU und HENU und ausgewählten N-Nitroso-oxazolidinonen, einer Gruppe von N-Nitrosaminen, welche möglicherweise endogen im Organismus gebildet und nach Hydrolyse in ihre biologisch aktive Form überführt werden. Humanes Vollblut, isolierte Lymphozyten sowie V79-Säugerzellen wurden als Testsysteme verwendet. Als Endpunkte der Genotoxizität wurde die Induktion und Kinetik der Abnahme von DNA-Strangbrüchen sowie der Einfluss von Glutathion auf die DNA-Strangbruchinduktion im Comet Assay bestimmt. Die Sensitivität und Selektivität des Comet Assays wurde durch zusätzliche Behandlung der DNA mit dem DNA-Reparaturenzym Formamido-pyrimidin-DNA-glykosylase (FPG) gesteigert. FPG erkennt AP Stellen, ring-geöffnete Pyrimidine sowie oxidierte Purine und überführt diese in zusätzliche DNA-Strangbrüche. Das mutagene Potential der Verbindungen nach 5-tägiger Expressionszeit wurde in V79 Zellen mittels hPRT-Genmutations-Assay untersucht. AA erwies sich in allen Testsystemen als nicht genotoxisch. Die im Vergleich getesteten alpha, beta-ungesättigten Carbonylverbindungen Ac und Hex waren ebenfalls in humanem Vollblut nicht genotoxisch, verursachten jedoch in isolierten Lymphozyten in hohen Konzentrationen(> 3000 µM) DNA-Strangbrüche. GA war in allen Testsystemen genotoxisch. Im Comet Assay ohne FPG zeigten sich DNA-Strangbrüche ab 300 µM (1h). Nach zusätzlicher Behandlung der DNA mit FPG wurden bereits ab 10 µM (4h) DNA-Strangbrüche detektiert. DNA-Schäden waren erst ab einer Inkubationszeit von einer Stunde signifikant und erreichten nach 24h ein Maximum. GA induzierte in V79 Zellen zudem erst in 80-fach höheren Konzentrationen hPRT-Mutationen (800 µM) als DNA-Strangbrüche. Zusätzlich zeigte sich, dass die Mutationsrate erst in Konzentrationen signifikant erhöht war, in denen eine Reduktion der DNA-Schäden nicht mehr effektiv erfolgte. Die Genotoxizität von GA beruht vermutlich auf der präferentiellen Bindung an N7-Guanin. Die entstehenden N7-G-Addukte werden entweder spontan zur AP Stelle depuriniert oder zum Formamido-pyrimidin ring-geöffnet. Beide Arten von Folgeprodukten sind FPG-Substrate und werden vermutlich effizient repariert, sodass es erst bei hohen lokalen Konzentrationen (> 800 µM) zu einer signifikanten Ausprägung von Mutationen kommt. Die im Vergleich zu GA getesteten Kanzerogene (±)-BPDE und alpha-Acetoxy-NDELA waren im Comet Assay bei ähnlichen Konzentrationen genotoxisch (10-30 µM; 1h). Im Gegensatz zu GA induzierten beide allerdings hPRT-Mutationen (3-10 µM) im gleichen Konzentrationsbereich wie DNA-Strangbrüche. Ähnliche genotoxische Eigenschaften zeigten auch die im Vergleich zu GA getesteten N-Nitrosoverbindungen. Die Gruppe der N-Nitroso-oxazolidinone wurde erstmals im Hinblick auf Genotoxizität und Mutagenität geprüft. NOZ-2 induzierte in V79 Zellen bereits nach 15’ ab 3 µM maximal DNA-Strangbrüche. HENU induzierte DNA-Strangbrüche ab 100 µM (15’). In beiden Fällen hatte FPG keinen Einfluss auf die DNA-Strangbruchinduktion. Sowohl NOZ-2 als auch HENU sind hydroxyethylierend. Im Gegensatz dazu, waren das carboxymethylierende oder methylierende NOZ-5 und das methylierende MNU im Comet Assay ohne FPG nur gering aktiv (> 300 resp. 1000 µM; 15’), während nach FPG-Behandlung die Aktivität im Comet Assay (NOZ-5: >10µM; MNU: >100µM; 15’) deutlich gesteigert war. Die Kinetik der Abnahme von DNA-Strangbrüchen ist für die Verbindungen unterschiedlich. Während die NOZ-2-induzierten DNA-Läsionen (30µM) persistieren, wurden die durch NOZ-5 und HENU induzierten DNA-Schäden -vergleichbar mit GA- effektiv innerhalb einer 8-stündigen Nachbehandlungszeit reduziert. Für alle untersuchten N-Nitrosoverbindungen waren hPRT-Mutationen im gleichen Konzentrationsbereich wie DNA-Strangbrüche im Comet Assay mit FPG nachweisbar. Die N-Nitrosoverbindungen sind damit insgesamt deutlich potenter mutagen als GA. NOZ-2 und HENU führen vermutlich vergleichbar mit alpha-Acetoxy-NDELA zu einer Hydroxyethylierung der DNA-Phosphodiester. Die resultierenden Phosphotriester sind instabil und werden voraussichtlich schnell in DNA-Strangbrüche gespalten. Des Weiteren ist die Bildung instabiler N7-G- und promutagener O6-G-2-Hydroxyethyl-Addukte zu erwarten. Das potentiell DNA-carboxymethylierende/methylierende NOZ-5 und das DNA-methylierende MNU alkylieren ver-mutlich die gleichen Positionen in der DNA. Allerdings scheinen die gebildeten Methyl- oder Carboxymethyl-Phosphotriester stabil zu sein und werden nicht spontan in Strangbrüche überführt. Die gebildeten N7-G-Addukte sind FPG-Substrate, was sich am FPG-vermittelten Anstieg der DNA-Strangbruchrate zeigt. Dies steht im Gegensatz zu NOZ-2, bei welchem FPG keinen Einfluss auf die DNA-Strangbruchinduktion hatte. Vermutlich ist dies auf die Hydroxyethylierung der Phosphat-Gruppen durch NOZ-2 zurückzuführen, deren spontane DNA-Strangbruch-Induktion den Nachweis von N7-G-Addukten mittels FPG überlagert. Weiterhin zeigte sich, dass trotz vergleichbar hoher hPRT-Mutagenität, NOZ-5-induzierte DNA-Schäden deutlich geringer persistent als entsprechende NOZ-2-Läsionen sind. Das mutagene Potential von NOZ-5 ist daher vermutlich, neben anderen nicht reparierten DNA-Schäden, auf promutagene O6-G-Addukte zurückzuführen, welche in MGMT-defizienten V79 Zellen nicht repariert werden. Orientierend wurde der Einfluss detoxifizierender Makromoleküle auf die Genotoxizität von GA und alpha, beta-ungesättigten Carbonylverbindungen durch Vergleich der Aktivitäten in humanem Vollblut und isolierten Lymphozyten sowie durch Co-Inkubation mit Glutathion (GSH) in V79 Zellen untersucht. Während Ac und Hex in isolierten Lymphozyten deutlich potenter DNA-schädigend als in humanem Vollblut sind, ist GA in beiden Systemen vergleichbar genotoxisch. Offensichtlich wird in humanem Vollblut die Aktivität von GA durch detoxifizierende Blutbestandteile nur unwesentlich beeinflusst. Ein entsprechender Effekt zeigt sich auch bei der Co-Inkubation von V79 Zellen. Während GSH die DNA-schädigende Wirkung von Ac und Hex in V79 Zellen deutlich reduzierte, war für GA kein signifikanter Unterschied zur DNA-Strangbruchrate in ausschließlich GA-behandelten Zellen nachzuweisen. Zusammenfassend konnte mit dieser Arbeit gezeigt werden, dass AA selbst nicht genotoxisch bzw. mutagen ist; Ac und Hex in humanem Vollblut ebenfalls nicht genotoxisch sind, allerdings in isolierten Lymphozyten bei hohen Konzentrationen (> 3000 µM) Genotoxizität induzieren; die genotoxische/ mutagene Wirkung von AA durch GA vermittelt wird; GA im Vergleich zu anderen potenten Kanzerogenen Genotoxizität nur sehr langsam induziert (signifikant nach 1h) und eher schwach mutagen ist; GA-induzierte DNA-Läsionen schnell (innerhalb von 8h) repariert werden;die physiologische Umgebung in Humanblut nur geringen Einfluss auf die biologische Aktivität von GA hat; NOZ-2 vergleichbar mit HENU mit und ohne FPG-Behandlung signifikant DNA-Strangbrüche erzeugt. Vermutlich führt die Hydroxylierung am Phosphat-Rückgrad zu spontanen Strangbrüchen, die den FPG-Effekt überlagern; NOZ-5 (vermutlich methylierend oder carboxymethylierend im Comet Assay) im Gegensatz dazu ohne FPG-Behandlung im Comet Assay nur schwach aktiv ist, während nach FPG-Behandlung offenbar die vermutete Bildung von N7-G-Addukten zum Tragen kommt; NOZ’s in V79-Zellen potente Mutagene sind; dies vermutlich in Folge von O6-Guanin-Addukt-Bildung, welche in MGMT-defizienten V79 Zellen nicht repariert werden; durch Kombination unterschiedlicher Protokolle des Comet-Genotoxizitäts- und hPRT-Mutagenitätstests orientierende Aussagen über den Zusammenhang zwischen DNA-Alkylierung, Detoxifizierung, DNA-Reparatur und der Entstehung von Mutationen gemacht werden können.
Analog sensor electronics requires special care during design in order to increase the quality and precision of the signal, and the life time of the product. Nevertheless, it can experience static deviations due to the manufacturing tolerances, and dynamic deviations due to operating in non-ideal environment. Therefore, the advanced applications such as MEMS technology employs calibration loop to deal with the deviations, but unfortunately, it is considered only in the digital domain, which cannot cope with all the analog deviations such as saturation of the analog signal, etc. On the other hand, rapid-prototyping is essential to decrease the development time, and the cost of the products for small quantities. Recently, evolvable hardware has been developed with the motivation to cope with the mentioned sensor electronic problems. However the industrial specifications and requirements are not considered in the hardware learning loop. Indeed, it minimizes the error between the required output and the real output generated due to given test signal. The aim of this thesis is to synthesize the generic organic-computing sensor electronics and return hardware with predictable behavior for embedded system applications that gains the industrial acceptance; therefore, the hardware topology is constrained to the standard hardware topologies, the hardware standard specifications are included in the optimization, and hierarchical optimization are abstracted from the synthesis tools to evolve first the building blocks, then evolve the abstract level that employs these optimized blocks. On the other hand, measuring some of the industrial specifications needs expensive equipments and some others are time consuming which is not fortunate for embedded system applications. Therefore, the novel approach "mixtrinsic multi-objective optimization" is proposed that simulates/estimates the set of the specifications that is hard to be measured due to the cost or time requirements, while it measures intrinsically the set of the specifications that has high sensitivity to deviations. These approaches succeed to optimize the hardware to meet the industrial specifications with low cost measurement setup which is essential for embedded system applications.
It has been empirically verified that smoother intensity maps can be expected to produce shorter sequences when step-and-shoot collimation is the method of choice. This work studies the length of sequences obtained by the sequencing algorithm by Bortfeld and Boyer using a probabilistic approach. The results of this work build a theoretical foundation for the up to now only empirically validated fact that if smoothness of intensity maps is considered during their calculation, the solutions can be expected to be more easily applied.
Anionenrezeptoren aus Cyclopeptiden mit 6-Aminopicolinsäure- und substituierten Prolinuntereinheiten
(2007)
Ziel dieser Arbeit war es, neue Cyclopeptide auf Basis der in der Arbeitsgruppe um S. Kubik untersuchten Anionenrezeptoren aus L-Prolin- und 6-Aminopicolinsäure zu entwickeln und hinsichtlich ihrer Rezeptor- und Sensoreigenschaften zu untersuchen. Das Hauptaugenmerk lag dabei auf dem Einfluss von Substituenten an den Prolinuntereinheiten auf die Bindungsaffinität und -selektivität. Durch eine systematische Syntheseoptimierung konnte eine effiziente Strategie für ein 4R-Amino-L-prolin-haltiges Dipeptid erarbeitet werden, welches es ermöglicht, verschiedene Substituenten mit der gewünschten Konfiguration an den C(γ)-Atomen der Prolineinheiten einzuführen. Aus den funktionalisierten Dipeptiden konnten anschließend die entsprechenden Cyclopeptide nach Standardmethoden aufgebaut werden. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener Sulfonate und Acetat erfolgte mittels NMR-Spektroskopie und isothermer Titrationskalorimetrie in unterschiedlichen Lösungsmitteln. Die Untersuchungen zeigten, dass die Struktur und die Flexibilität der peripheren Substituenten um den Cyclopeptidhohlraum einen signifikanten Einfluss auf die Substratbindung besitzt.
Die RNAi–Methode spielt eine grosse Rolle in der Wirkstoffentwicklung bei der Validierung eines pharmakologischen Ziels. Die Anwendbarkeit in der Toxikologie wurde noch nicht systematisch untersucht. Das Ziel dieser Arbeit ist die Evaluierung der RNAi-Methode für mechanistisch-toxikologische Studien und den Einfluss von posttranskriptioneller Genunterdrückung auf biochemisch-zelluläre Endpunkte zu zeigen. Die siRNAs wurden mit Hilfe eines computerunterstützten Algorithmus ausgewählt. Effiziente und reproduzierbare Einschleusung der siRNA in vitro wurde durch Elektroporation erreicht. Die molekulare Reduktion der Expression des Zielgens wurde auf mRNA- und Proteinexpressionslevel oder auf Proteinaktivitätsebene zwischen 24 und 144 Stunden nach Behandlung überwacht. Die siRNAs wurden in vitro getestet bevor sie in vivo angewandt wurden. Als Methode zum Erreichen der Leber in vivo wurde die intraperitoneale Gabe von siRNAs gegenüber hydrodynamischer Injektion in die Schwanzvene evaluiert. Auf folgenden Enzyme wurde mit RNAi in der Zellkultur abgezielt: ATP-Synthase in HepG2, Farnesylpyrophosphat-Synthase (FPPS) in humanen Nierenzellen (HK-2) und Caspase-3 in Primärhepatozyten der Ratte. In allen Experimenten war RNAi in der Lage, das mRNA- und Proteinexpressions- oder Proteinaktivitäts-Niveau zu reduzieren, wodurch die erfolgreiche Genunterdrückung gezeigt werden konnte. Die Unterdrückung der mitochondrialen ATP- Synthase β-Untereinheit hatte keinen signifikanten Einfluss auf die Überlebensrate und den Energiestoffwechsel von HepG2-Zellen. Obwohl Oligomycin B-Behandlung zu ATP- Depletion und Verlust des mitochondiralen Membranpotentials führte, war keine Sensitivierung der Zellen gegenüber Oligomycin B- oder Diclofenac-induzierten Veränderungen des mitochondrialen Membranpotentials oder Zytotoxizität zu beobachten. Die Genunterdrückung der ATP-Synthase in HepG2-Zellen führte zu einer ähnlichen transkriptionellen Signatur wie Diclofenac-Behandlung in vivo, so dass eine mögliche Verbindung zwischen ATP-Synthase und Hepcidin, BiP und ALAS-1 durch Koregulation nahegelegt wird. Die Genunterdrückung von FPPS führte zu tendenziell erhöhter Zytotoxizität von Zoledronsäure, hatte aber keinen Einfluss auf den Prenylierungsstatus der kleinen GTPasen. Der Caspase-3/7-Inhibitor Ac-DEVD-CHO verhinderte SDZ IMM125-vermittelte Apoptose. Spezifische Genunterdrückung von Caspase-3 führte zur Reduktion der SDZ IMM125-induzierten Caspaseaktivität, während die Unterdrückung von Caspase-7 in dieser Hinsicht keinen Einfluss hatte. Die Effektschwelle des Genunterdrückung wurde durch Vergleich zwischen Caspase-3-silencing und Behandlung mit dem chemischen Caspase-Inhibitor Ac-DEVD-CHO auf Ebene der Caspase-3-Aktivität und der zytoprotektiven Wirksamkeit bestimmt. Der Effekt von Caspase-3-Unterdrückung war equivalent zur Wirkung von 1 μM Inhibitor. Die inhibitorvermittelte Schutzwirkung im Hinblick auf die Zytotoxizität wurde ausschliesslich bei höheren Inhibitorkonzentrationen erreicht, wodurch gezeigt wurde, dass die erreichte Genunterdrückung für zytoprotektive Wirkungen nicht ausreichend war. SiRNAs haben verglichen mit Enzyminhibitoren generell eine höhere Spezifität. Chemische Inhibitoren sind weniger spezifisch und können enzymatische Aktivitäten vollständig, in manchen Fällen irreversibel und schnell beeinflussen, so dass sie direkten Einfluss auf die zu untersuchenden Signalwege haben. SiRNAs unterscheiden sich in dieser Hinsicht, da die Abnahme des Proteins nicht vollständig, nur transient und langsam über eine Periode hinweg erfolgt, innerhalb welcher sich die Zellen durch kompensatorische Mechanismen anpassen und Primäreffekte maskiert werden können. Hydrodynamische Einschleusung von nicht-komplexierter siRNA in die Leber von CD-1-Mäusen war möglich und reduzierte die CYP2E1-Proteinexpression signifikant. Ein- oder mehrfache hochdosierte intraperitoneale Gabe von siRNA führte weder auf mRNA- noch auf Proteinebene zu signifikanten Effekten. Weitere Untersuchungen im Hinblick auf Stabilität und effiziente Einschleusung von siRNAs ist unvermeidlich, bevor siRNAs in vivo in der mechanistischen Toxikologie angewandt werden können. Zusammenfassend kann ausgesagt werden, dass die Anwendung von siRNAs in vitro eine universelle und spezifische Methode darstellt, welche in vielen mechanistisch-toxikologischen Studien als Werkzeug zur Signalweganalyse und zur Validierung von Zielproteinen eingesetzt werden kann. Die Stärke der enzymatischen Inhibition, die mit Hilfe eines chemischen Inhibitors erreicht werden kann, ist durch siRNA-vermittelte Genunterdrückung nicht zu erreichen. Genunterdrückung in vivo kann erreicht werden, doch die invasive hydrodynamische Methode ist nicht geeignet für Toxizitätsprüfungen im Tier. Die Einschleusung von siRNA in spezifische Zielorgane benötigt signifikante Verbesserung.
Esterases and lipases are widely used as industrial enzymes and for the synthesis of chiral drugs. Because of their rich secondary metabolism, Streptomyces species offer a relatively untapped source of interesting esterases and lipases. S. coelicolor and S. avermitilis contain 51 genes annotated as esterases and/or lipases. In this study I have cloned 14 different genes encoding for lipolytic enzymes from S. coelicolor (11 genes) and S. avermitilis (four genes). Some of these genes were over-expressed in E. coli. Three of the produced enzymes, which were produced by the genes SCO 7131, SCO6966 and SCO3644, were characterized biochemically and one of them was subjected for directed evolution. The gene estA (locus SCO 7131) was annotated as a putative lipase/esterase in the genome sequence of S. coelicolor A3(2), but does not have a homologue in the genome sequence of S. avermitilis or in other known Streptomyces sequences. estA was cloned and expressed in E. coli as a His-tagged protein. The protein was purified and could be recovered in its non-tagged form after digestion with factor Xa. The relative molecular weight was estimated to be 35.5kDa. The enzyme was only active towards acetate esters and not on larger substrates. It had a stereospecificity towards α-naphathylacetate. It was thermostable, with a half-life at 50C of 4.5 hours. Est A showed stability over pH range 5.5-10, and had optimum pH of 7.5. Its activity was drastically decreased when it was pre-incubated in 10mM PMSF, Cu+2 and Hg+2. It was not very stable in most organic solvents and had only slight enantioselectivity. Est A belongs to the HSL family whose founder member is the human hormone-sensitive lipase. I have developed a protein profile for the HSL family modifying the conserved motifs found by Arpigny and Jaeger (1999). Due to the presence of several HSL members with known 3D structure and good homology to Est A, I was able to make a homology model of Est A. Five different mutants of Est A were produced through site directed mutagenesis: W87F, V158A, W87F/V158A, M162L and S163A. The mutants M162L and S163A did not produce a significant change either in substrate specificity or enzyme kinetics. The mutants V158A and W87F/V158A could act on the larger substrates p-nitrophenylbutyrate and caproate and tributyrin. The mutant V158A had improved thermostability and its t1/2 at 50ºC increased to 24h. The affinity of V158A towards p-nitrophenyacetate increased 6-fold when compared with the wild type, whereas the affinity of W87F decreased 4-fold. Directed evolution of Est A was done through random mutagenesis and ER-PCR. A library of 6336 mutants was constructed and screened for mutants with a broader spectrum of substrate specificity. The mutant XXVF7 did show alteration in the substrate specificity of Est A. The mutant XXVF7 had 5 amino acids changes L76R, L146P, S196G, W213R and L267R. The gene locus SCO 6966 (estB gene) was cloned and expressed in E. coli as a His-tagged protein. It was not possible to remove the His-tag using factor Xa. The tagged protein had a molecular weight 31.9kDa. Est B was active against short chain fatty acid esters (C2-C6). Its optimum temperature was 30ºC and was stable for 1h at temperatures up to 37ºC. The enzyme had maximum activity at pH 8-8.5 and was stable over pH range 7.5-11 for 24h. It was highly sensitive for PMSF, Cu+2 and Hg+2. The enzymatic activity deceased in presence of organic solvents, however it was fairly stable for 1h in 20% organic solvents solutions. A third esterase was produced from the gene locus SCO 3644. This esterase was a thermosensitive one with optimum temperature of 35ºC. The three characterized enzymes included a thermophilic, mesophilic and psychrophilic ones. This indicates the high variation in the characters of Streptomyces lipolytic enzymes and highlighting Streptomyces as a source for esterases and lipases of interesting catalytic activity. This study was an initial trial to provide a strategy for a comprehensive use of genome data.
Sepsis ist eine lebensbedrohliche Krankheit und eine der häufigsten Todesursachen auf Intensiv-Stationen. Eine der Hauptursachen für die Schwere dieser Krankheit ist die Lymphopenie, d. h. die apoptotische Depletion von Lymphozyten, die vor allem in der späten hypo-inflammatorischen Phase der Sepsis auftritt. Die dafür verantwortlichen Signalwege sind jedoch nicht im Detail geklärt. Die Liganden-vermittelte Aktivierung von PPARgamma (‚peroxisome proliferator activated receptor gamma’), einem wichtigen Regulator der Immunantwort, führt zur Apoptose in aktivierten T-Zellen. Daher postulierte ich, dass die PPARgamma-vermittelte Apoptose in T-Zellen zur Lymphopenie während der Sepsis beiträgt. Hierbei konnte ich zeigen, dass T-Zellen aus dem peripheren Blut von Sepsis-Patienten eine stark erhöhte PPARgamma-mRNA-Expression zeigten und in vitro stark erhöhte Apoptoseraten infolge einer Liganden-vermittelten PPARgamma-Aktivierung aufwiesen. Die hierfür erforderlichen PPARgamma-Liganden lagen im Plasma von Sepsis-Patienten vor. D. h. die PPARgamma-vermittelte Apoptose in T-Zellen könnte zur nachgewiesenen Lymphopenie während der Sepsis beitragen. Aufgrund der anti-inflammatorischen Wirkung von PPARgamma könnte dessen gezielte Aktivierung in der frühen hyper-inflammatorischen Phase durch Thiazolidindione (TZDs) als synthetische PPARgamma-Aktivatoren therapeutisch interessant sein. Da diese jedoch auch auf PPARgamma-unabhängigen Wegen den Zelltod in T-Zellen induzieren können, war es essentiell, die dafür verantwortlichen Signalwege zu klären. Dabei konnte ich feststellen, dass Ciglitazon Nekrose und Troglitazon Apoptose auf PPARgamma-unabhängigen Wegen bereits nach 4 h in Jurkat T-Zellen induzierten, wohingegen Rosiglitazon keinen Einfluss auf den Zelltod hatte. Die Inkubation der TZDs führte zur Produktion von reaktiven Sauerstoffspezies, welche eine wichtige Rolle bei der Ciglitazon-induzierten Nekrose, jedoch nur marginal bei der Troglitazon-induzierten Apoptose spielten. Durch Studien in submitochondrialen Partikeln konnte ich zeigen, dass die getesteten TZDs den Komplex I der mitochondrialen Atmungskette inhibierten, während nur Ciglitazon und Troglitazon zusätzlich den Komplex II hemmen konnten. Mit Hilfe synthetischer Atmungskette-Inhibitoren konnte ich weiterhin zeigen, dass die Zelltod-Induktion nach Ciglitazon und Troglitazon in Jurkat T-Zellen hauptsächlich auf der Hemmung des Komplexes II beruhte. Da die Ciglitazon-Inkubation zur Depletion des ATP-Gehaltes führte, erfolgte eine Nekrose-Induktion nach Ciglitazon, wohingegen Troglitazon den ATP-Gehalt nicht beeinflusste und daher Apoptose induzierte. Die von mir identifizierten PPARgamma-unabhängigen Mechanismen der Zelltod-Induktion durch TZDs könnten eventuell Nebenwirkungen bei TZD-basierten Therapien erklären.
This technical report is the Emerging Trends proceedings of the 20th International Conference on Theorem Proving in Higher Order Logics (TPHOLs 2007), which was held during 10-13 September in Kaiserslautern, Germany. TPHOLs covers all aspects of theorem proving in higher order logics as well as related topics in theorem proving and verification.
We are concerned with modeling and simulation of the pressing section of a paper machine. We state a two-dimensional model of a press nip which takes into account elasticity and flow phenomena. Nonlinear filtration laws are incorporated into the flow model. We present a numerical solution algorithm and a numerical investigation of the model with special focus on inertia effects.
Die vorliegende Arbeit befasst sich mit Anionenrezeptoren aus einfach und zweifach verbrückten Bis(cyclopeptiden). Die Cyclohexapeptiduntereinheiten bestehen dabei aus einer alternierenden Sequenz aus L-Prolin und 6-Aminopicolinsäure. Im ersten Teil dieser Arbeit wurden eine Reihe neuer einfach verbrückter Bis(cyclopeptide) synthetisiert und mit dem bis jetzt einzigen bekannten verbrückten Bis(cyclopeptid) dieser Art verglichen. Bei diesen Untersuchungen konnte gezeigt werden, dass die neu dargestellten Bis(cyclopeptide) anorganische Anionen auf die gleiche Art wie das bereits bekannte binden. Dabei wird das Anion kooperativ durch die Cyclopeptiduntereinheiten über sechs Wasserstoffbrücken koordiniert. Mittels isothermer Titrationskalorimetrie (ITC) wurden die thermodynamischen Parameter der Komplexbildung der Anionen mit den Bis(cyclopeptiden) bestimmt. Es stellte sich heraus, dass die Linkerstruktur einen großen Einfluss auf die thermodynamischen Parameter der Komplexbildung besitzt, wenn auch die resultierenden Bindungskonstanten der Rezeptoren für ein Anion in einer ähnlichen Größenordung liegen. Mit einem log Ka von etwa 6,0 konnte in dieser Untersuchung einer der besten neutralen Sulfatrezeptoren in wässrigen Lösungsmitteln identifiziert werden. Im zweiten Teil dieser Arbeit wurde eine Strategie erarbeitet, die den Zugang zu zweifach verbrückten Bis(cyclopeptiden) ermöglicht. Dabei wurde die dynamische kovalente Chemie (DCC) bei der Synthese verwendet. Als reversible Reaktion wurde der Disulfidaustausch eingesetzt. Bei der Synthese wurde ein entsprechend dithiofunktionalisiertes Bis(cyclopeptid) in Anwesenheit verschiedener Dithiole als Linker und eines Templats umgesetzt. Dabei bildete sich die thermodynamisch stabilste Bis(cyclopeptid)-Linker Struktur aus. Es konnten im Laufe dieser Untersuchungen bereits erste Strukturen identifiziert werden, die selektiv für Anionen der Größe und Geometrie von Sulfat und Iodid waren. Dabei wurden nur Bis(cyclopeptide) gebildet, die einen Linker pro Brücke besaßen und es kam nicht zum Einbau verschiedener Linker in ein Bis(cyclopeptid). Im letzten Teil dieser Arbeit wurde überprüft, ob die Entwicklung eines Sensors auf Basis von einfach verbrückten Bis(cycloeptiden) möglich ist. Es konnte gezeigt werden, dass der Einsatz von Bis(cyclopeptiden) als Ionophore in ionenselektiven Elektroden (ISEs) kein viel versprechender Weg zur Erzeugung eines Sensors ist. Durch die Einführung eines fluoreszenzaktiven Linker konnte aber Bis(cyclopeptid) synthetisiert werden, dass in wässrigen Lösungen einen hochselektiven Fluoreszenzsensor für Sulfat darstellt. Dabei kommt es in Anwesenheit von Sulfat, selbst in Anwesenheit von 100 Äquivalenten Natriumchlorid, zu einer Löschung der Fluoreszenz. Keins der anderen acht untersuchten Anionen hatte einen ähnlichen Effekt auf das Fluoreszenzspektrum. Durch theoretische DFT Rechnungen konnte die Löschung der Fluoreszenz rationalisiert werden. Damit eröffnen sich erste praktische Anwendungen für die Bis(cyclopetide).
Die Peltulaceae sind eine flechtenbildende Ascomycetenfamilie, die derzeit 43 morphologisch umschriebene Spezies in drei Gattungen umfasst. Systematisch gehören sie in die Ordnung Lichinales (Lichinomycetes, Pezizomycotina), ihre genaue Stellung im System der Ascomyceten ist unbekannt. Die Familie lebt exklusiv mit Cyanobakterien in Symbiose und besiedelt weltweit aride und semi-aride Habitate. Die aktuell bekannte Verbreitung zeigt Ähnlichkeiten zu derjenigen xerophytischer Moospflanzen, für die ein gondwanischer Ursprung angenommen wird. Außerdem besiedeln mehr Peltulaceen-Spezies die ehemaligen Gondwanakontinente (Afrika, Südamerika, Australien, Indien) als die übrigen, laurasischen Kontinente (Nordamerika, Europa, Asien); der Sörensen-Koeffizient für die Florenähnlichkeit beträgt 0,697. Die Hypothese, dass die Peltulaceae gondwanischen Ursprungs sind, sollte mit Hilfe einer phylogenetischen Analyse der Familie geklärt werden, indem durch darauf aufbauende geographische Analysen das Ursprungsareal auf kontinentalem Niveau identifiziert wird. Mit Hilfe des morphologischen Merkmalskomplexes ließ sich keine aufgelöste Phylogeniehypothese erstellen. Da die geographischen Analysen eine voll aufgelöste Phylogenie erfordern, wurden sechs molekulare Marker ausgewählt (nucSSU, nucLSU, mtSSU, ITS, RPB2/7-11, β-Tubulin) und zunächst für je einen Vertreter von 37 der 43 umschriebenen Morphotaxa sequenziert. Die resultierenden Stammbäume der ML- und Bayes'schen Analysen waren unterschiedlich gut aufgelöst und untereinander dergestalt inkompatibel, dass unterschiedliche monophyletische Beziehungen unterstützt wurden. Außerdem wies das β-Tubulin-Gen eine paraloge Kopie auf. Durch Kompatibilitätstests ließen sich keine Teilmengen kongruenter Daten feststellen. Die dennoch durchgeführte kombinierte Analyse aller sechs Marker war vom phylogenetischen Signal des RPB2/7-11-Gens dominiert und ließ sich nicht durch geographische, morphologisch-anatomische oder ökologische Merkmale bestätigen. Zwei verschiedene Methoden zur Detektion von Rekombination ergaben nicht-übereinstimmende Signale nur in der nucLSU beziehungsweise in allen Markern außer der ITS. Von den Genen ITS und RPB2/7-11 wurden zusätzlich Sequenzen weiterer Peltulaceae-Individuen erzeugt und ML- und Bayes‘sche Analysen durchgeführt, in der die Vertreter von zwölf Morphospezies keine monophyletischen Einheiten bildeten. Die Suche nach phylogenetischen Spezies mittels der Konsensusmethode zeigte lediglich eine nicht-terminale Gruppierung unterschiedlicher Morphotaxa: die Vereinigung dreier durch eine peltate Wuchsform charakterisierte Spezies. Dieses Merkmal besitzen jedoch auch andere, in dieser Gruppierung nicht eingeschlossene Spezies. Die Monophylie der Peltulaceae wurde mit molekularen Daten bestätigt, die Stellung im System der Ascomyceten konnte jedoch nicht geklärt werden. Die Existenz der Gattungen Neoheppia und Phyllopeltula konnte mittels molekularer Marker nicht bestätigt werden. Sie werden als taxonomische Konsequenz mit dem älteren Gattungsnamen Peltula synonymisiert, womit die Familie monogenerisch wird. Die vorhandenen Inkongruenzen zwischen den molekularen Markern deuten auf genetisch nicht isolierte Taxa hin. Die Peltulaceae werden nun als ein Spezieskomplex mit bisher ungeklärter Spezieszahl gedeutet. Die morphologische Speziesumschreibung bedarf einer Neubewertung, da sie sich größtenteils nicht mit molekularen Daten bestätigen ließ. Die Klärung der Ausgangsfrage nach dem geographischen Ursprung der Peltulaceae muss die Überarbeitung der Speziesabgrenzungen abwarten.
GPU Stereo Vision
(2007)
To analyze scenery obstacles in robotics applications depth information is very valuable. Stereo vision is a powerful way to extract dense range information out of two camera images. In order to unload the CPU the intensive computation can be moved to GPU, taking advantage of the parallel processing capabilities of todays consumer level graphics hardware. This work shows how an efficient implementation on the GPU can be realized utilizing the NVIDIA Cuda framework.
Im Rahmen der vorliegenden Arbeit wurden sowohl neuartige polymere Hochleistungsverbundwerkstoffe als auch unterschiedliche Modellprüfmethoden zur Nachbildung abrasiver Verschleißbedingungen entwickelt. Ausgangspunkt für diese Themenstellung war, Verbundwerkstoffe als alternative Gleitlagermaterialien in hermetisch dichten Pumpen für aggressive und abrasive Medien einzusetzen. Stand der Technik sind hierbei keramische Gleitlager, insbesondere aus monolithischem Siliziumkarbid. Das Ziel war somit zu untersuchen, ob Polymerwerkstoffe derart modifiziert werden können, dass ein vergleichbares Verschleißverhalten erreicht wird. Auf der Basis von Epoxidharz wurde die elementare Werkstoffentwicklung, durch Variation von Füll- und Verstärkungsstoffe, hinsichtlich Art, Größe und Menge, durchgeführt. Die Formulierung mit den in Summe günstigsten Eigenschaften wurde anschließend auf einen weiteren Duroplasten (Vinylester) und einen Thermoplasten (Etylentetrafluorethylen) übertragen. Auf diese Weise konnte gezeigt werden, dass das Verschleißverhalten bei hochgefüllten Systemen maßgeblich von den Füll- und Verstärkungsstoffen geprägt wird und durch die Übertragung der Formulierung ähnliche Verschleißraten erzielt werden. Weiterhin wurde der Einfluss der Aushärtungstemperatur, und somit des Herstellungsprozesses, auf die Werkstoffeigenschaften dargestellt. Durch eine weiterführende Werkstoffmodifikation, den Einsatz multimodaler Korngrößenverteilungen, war es zudem möglich die tribologischen Eigenschaften nochmals zu verbessern. Der Vergleich der Werkstoffeigenschaften erfolgte mittels mechanischer und tribologischer Prüfungen. Letztere waren jedoch nur bedingt anwendbar, um einen Vergleich zwischen den neu entwickelten Hochleistungsverbundwerkstoffen und dem Referenzwerkstoff Siliziumkarbid zu ermöglichen. Aus diesem Grunde wurde ein spezieller Medienprüfstand konstruiert und aufgebaut, um verschiedenste abrasive Prüfbedingungen, ob geschmiert oder ungeschmiert, simulieren zu können. Mit Hilfe abrasiver Gegenkörper war es möglich die Testzeit von 20 Stunden auf 60 Sekunden zu verkürzen. Die anschließende Validierung der Ergebnisse ergab eine gute Übereinstimmung. Zur Ableitung allgemein gültiger Aussagen wurden die Ergebnisse anhand dreier Verschleißmodelle für abrasive Bedingungen (Archard, Budinski, Ratner et al) überprüft. Dabei erwies sich jedoch keines der Modell als passend, um alle experimentellen Werte abbilden zu können. Dennoch lies sich erkennen, dass das Deformationsverhalten bei abrasiven Verschleißvorgängen eine bedeutende Rolle spielt. Deshalb wurde das Deformationsverhalten von drei exemplarischen Verbundwerkstoffen bei einer dynamischen Mikrohärteprüfung mittels der Finiten Elemente Methode (FEM) simuliert. Es zeigte sich, dass zum einen die Berechnungen und die experimentellen Ergebnisse sehr gut übereinstimmen. Zum anderen sind die entwickelten FEM Modelle sehr gut geeignet, um das Verschleißverhalten zu erklären.
In der biotechnologischen Herstellung von Proteinen ist die Fällung mit Hilfe von Salzen (z. B. Ammoniumsulfat) ein unkompliziertes und verbreitetes Verfahren, wobei die biologischen Eigenschaften der Proteine (meistens) erhalten bleiben. Dieses Verfahren basiert auf dem sogenannten „Aussalzeffekt“. Obwohl das „Aussalzen“ von Proteinen seit langem bekannt ist, ist das Phasenverhalten in Systemen aus Proteinen, Salzen und Wasser weitgehend ungeklärt. Das Phasenverhalten eines proteinhaltigen Systems wird durch eine Vielzahl von Parametern, z. B. Art und Konzentration der Stoffe, Temperatur, pH-Wert und Ionenstärke, beeinflusst. Darüber hinaus können beim Ausfällen der Proteine sowohl stabile als auch metastabile Phasengleichgewichte auftreten. In der vorliegenden Arbeit wurden experimentelle Untersuchungen zum Phasenverhalten ternärer Systeme (Protein + Salz + Wasser) bei Umgebungstemperatur durchgeführt. Das Ausfällen von Lysozym, Bovin Serum Albumin, Ovalbumin und Trypsin mit Hilfe verschiedener Salze (Ammoniumsulfat, Natriumsulfat und teilweise der flüchtigen Salze Ammoniumcarbamat und Ammoniumbicarbonat) wurde untersucht. Die experimentellen Untersuchungen erfolgten einerseits durch Bestimmung der Trübungskurven und andererseits durch Bestimmung der Zusammensetzung der koexistierenden Phasen. Zusätzlich wurden mikroskopische Untersuchungen durchgeführt, um die Struktur der proteinreichen Phase (amorph, kristallin) aufzuklären. Die vorliegende Arbeit trägt zur Aufklärung der das Ausfällen von Proteinen verursachenden physikalisch-chemischen Effekte am Beispiel einiger Modellsysteme bei. Es wurde gezeigt, dass flüchtige Salze (d. h. die Salze auf Basis von Ammoniak und Kohlendioxid) erfolgreich für die Aufarbeitung der wässrigen Proteinlösungen eingesetzt werden können. Die Ergebnisse der experimentellen Untersuchungen sollen die Grundlage für eine in weiterführenden Arbeiten vorgesehene Modellierung solcher Phasengleichgewichte bilden.
This technical report contains the preliminary versions of the regular papers presented at the first workshop on Verification of Adaptive Systems (VerAS) that has been held in Kaiserslautern, Germany, on September 14th, 2007 as part of the 20th International Conference on Theorem Proving in Higher Order Logics. The final versions will be published with Elsevier's Electronic Notes on Theoretical Computer Science (ENTCS). VerAS is the first workshop that aims at considering adaptation as a cross-cutting system aspect that needs to be explicitly addressed in system design and verification. The program committee called for original submissions on formal modeling, specification, verification, and implementation of adaptive systems. There were six submissions from different countries of Europe. Each submission has been reviewed by three programme committee members. Finally, the programme committee decided to accept three of the six submissions. Besides the presentations of the regular papers, the workshop's programme included a tutorial on the `Compositional Verification of Self-Optimizing Mechatronic Systems' held by Holger Giese (University of Paderborn, Germany) as well as three presentations of DASMOD projects on the verification of adaptive systems.
We study nonlinear finite element discretizations for the density gradient equation in the quantum drift diffusion model. Especially, we give a finite element description of the so--called nonlinear scheme introduced by {it Ancona}. We prove the existence of discrete solutions and provide a consistency and convergence analysis, which yields the optimal order of convergence for both discretizations. The performance of both schemes is compared numerically, especially with respect to the influence of approximate vacuum boundary conditions.
Given an undirected connected network and a weight function finding a basis of the cut space with minimum sum of the cut weights is termed Minimum Cut Basis Problem. This problem can be solved, e.g., by the algorithm of Gomory and Hu [GH61]. If, however, fundamentality is required, i.e., the basis is induced by a spanning tree T in G, the problem becomes NP-hard. Theoretical and numerical results on that topic can be found in Bunke et al. [BHMM07] and in Bunke [Bun06]. In the following we present heuristics with complexity O(m log n) and O(mn), where n and m are the numbers of vertices and edges respectively, which obtain upper bounds on the aforementioned problem and in several cases outperform the heuristics of Schwahn [Sch05].
Sewn net-shape preform based composite manufacturing technology is widely
accepted in combination with liquid composite molding technologies for the
manufacturing of fiber reinforced polymer composites. The development of threedimensional
dry fibrous reinforcement structures containing desired fiber orientation
and volume fraction before the resin infusion is based on the predefined preforming
processes. Various preform manufacturing aspects influence the overall composite
manufacturing processes. Sewing technology used for the preform manufacturing
has number of challenges to overcome which includes consistency in preform quality,
composite quality, and composite mechanical properties.
Experimental studies are undertaken to investigate the influence of various sewing
parameters on the preform manufacturing processes, preform quality, and the fiber
reinforced polymer composite quality and properties. Sewing thread, sewing machine
parameters, shortcomings of sewing process, and remedies are explained according
to their importance during preforming and liquid composite molding. The stitches and
fiber free zone in the form of ellipse that are generated in the thickness direction were
investigated by evaluating the laminate micrographs. Correlation between ellipse
formation phenomenon, sewing thread, and sewing machine parameters is
established. A statistical tool, analysis of variance, was used to emphasize the major
preform processing factors influencing the preform imperfections.
For assessing the preform quality, the observations of sewing thread requirements
for preform and structural sewing were well documented during the experimental
studies and explained according to their significance in the composite processing.
Furthermore, selection criteria for sewing thread according to end application are
discussed in detail. Investigations on polyester sewing thread as a high speed
preform manufacturing element are also performed. Applicability of polyester sewing
thread for the preform sewing and challenges to be overcome for its extensive
utilization in the composite components are explained. Apart from this, influence of
physical structure of sewing thread on the laminate quality and properties are
explained and relationship between them is discussed in brief. Furthermore,
challenges caused due to applied spin-finishes and sizing and remedies for the same
are discussed. Sewing threads made of high performance fibers that are available in the market,
e.g., carbon, glass, and Zylon are studied for effect of thread material on through-thethickness
laminate properties. Threads made up of carbon or glass fibers are very
rigid and produces number of defects, which is a major cause of concern. Optimized
sewing procedure has been implemented to minimize the in-plane and through-thethickness
imperfections and to improve mechanical properties and surface
characteristics of composite laminate.
Preform sewing process and final ready to impregnate preforms were analyzed for
quality appearance. The sewing defects and their influence on composite structure
are monitored. Preform compressibility before and after the sewing operations are
intensively studied and correlation with sewing parameters is developed. Influence of
sewing process parameters on the warpage and change in preform area weight are
also explained in detail. Results of analytical experiments can help to improve further
exploitation of sewn preforms for composite manufacturing and overall preform and
laminate quality.
This paper presents a wavelet analysis of temporal and spatial variations of the Earth's gravitational potential based on tensor product wavelets. The time--space wavelet concept is realized by combining Legendre wavelets for the time domain and spherical wavelets for the space domain. In consequence, a multiresolution analysis for both, temporal and spatial resolution, is formulated within a unified concept. The method is then numerically realized by using first synthetically generated data and, finally, several real data sets.
Zwölf Testpflanzen des Weinbauinstituts Freiburg wurden auf deren Resistenzeigenschaften gegenüber dem Virusvektor Xiphinema index und dem GFLV getestet. Das Hauptziel dieser Arbeit lag in der Entwicklung eines in-vitro-Testsystems für Reben, das detaillierte Einblicke in das Wurzel-Nematoden-System erlaubt. Anhand dieses in-vitro-Testsystems konnten zwei unterschiedliche Reaktionen der Wurzeln dieser Testreben auf die Saugtätigkeit der Nematoden festgestellt werden. Es konnte sowohl eine Gallenbildung als auch eine Nekrosenbildung bei den unterschiedlichen Kreuzungen der Testpflanzen beobachtet werden. Alle Testpflanzen aus verschiedenen Kreuzungen zeigten eine Abwehrreaktion gegenüber den Nematoden. Dies resultierte in Auftreten von Transkripten der Phenylalanin-Ammonium-Lyase (PAL) und der Bildung von Superoxid-Radikalen. Bei zwei V. rotundifolia-Hybriden war zusätzlich die Callose-Synthase aktiv und es kam außerdem zu einer Callose-Deposition an den betroffenen Stellen im Wurzelgewebe. Bis auf Testpflanze 46, einem V. rotundifolia-Hybrid waren alle getesteten Reben nach vier Wochen Versuchsdauer sensitiv für eine Transmission des GFLV. Dieser Hybrid war an den Wurzeln durch die Saugtätigkeit der Nematoden nekrosenbildend und zeigte eine Callose-Synthase-Aktivität. X. index findet seine Wirtspflanzen durch Chemotaxis. Er orientiert sich anhand von Wurzelexudaten, die von Wurzeln ins Medium abgeben werden. Totes Wurzelgewebe kann der Nematode nicht lokalisieren und stellt keinen Stimulus dar. Bei knappem Nahrungsangebot nutzt der Nematode vorhandene Nahrungsressourcen aller Rebsorten mit verschiedenster Beschaffenheit. Mit dem Pflanzenhormon Methyljasmonat behandelte Wurzeln wurden gezielt gemieden. Zwei mit dem GFLV infizierte Rebflächen an verschiedenen Standorten zeigten innerhalb dreijähriger Beobachtung eine Zunahme von virustragenden Rebstöcken. Ein Hinweis auf die Verbreitung durch virusübertragende Nematoden konnte durch Bodenproben bisher nicht bestätigt werden.
In this thesis, the quasi-static Biot poroelasticity system in bounded multilayered domains in one and three dimensions is studied. In more detail, in the one-dimensional case, a finite volume discretization for the Biot system with discontinuous coefficients is derived. The discretization results in a difference scheme with harmonic averaging of the coefficients. Detailed theoretical analysis of the obtained discrete model is performed. Error estimates, which establish convergence rates for both primary as well as flux unknowns are derived. Besides, modified and more accurate discretizations, which can be applied when the interface position coincides with a grid node, are obtained. These discretizations yield second order convergence of the fluxes of the problem. Finally, the solver for the solution of the produced system of linear equations is developed and extensively tested. A number of numerical experiments, which confirm the theoretical considerations are performed. In the three-dimensional case, the finite volume discretization of the system involves construction of special interpolating polynomials in the dual volumes. These polynomials are derived so that they satisfy the same continuity conditions across the interface, as the original system of PDEs. This technique allows to obtain such a difference scheme, which provides accurate computation of the primary as well as of the flux unknowns, including the points adjacent to the interface. Numerical experiments, based on the obtained discretization, show second order convergence for auxiliary problems with known analytical solutions. A multigrid solver, which incorporates the features of the discrete model, is developed in order to solve efficiently the linear system, produced by the finite volume discretization of the three-dimensional problem. The crucial point is to derive problem-dependent restriction and prolongation operators. Such operators are a well-known remedy for the scalar PDEs with discontinuous coefficients. Here, these operators are derived for the system of PDEs, taking into account interdependence of different unknowns within the system. In the derivation, the interpolating polynomials from the finite volume discretization are employed again, linking thus the discretization and the solution processes. The developed multigrid solver is tested on several model problems. Numerical experiments show that, due to the proper problem-dependent intergrid transfer, the multigrid solver is robust with respect to the discontinuities of the coefficients of the system. In the end, the poroelasticity system with discontinuous coefficients is used to model a real problem. The Biot model, describing this problem, is treated numerically, i.e., discretized by the developed finite volume techniques and then solved by the constructed multigrid solver. Physical characteristics of the process, such as displacement of the skeleton, pressure of the fluid, components of the stress tensor, are calculated and then presented at certain cross-sections.
Indirubin wurde als aktive Komponente einer aus der traditionellen chinesischen Medizin stammenden Wirkstoffmischung namens Danggui Longhui Wan identifiziert, welche sich unter anderem als ein wirksames Mittel gegen chronisch myeloische Leukämie (CML) erwiesen hat. Erste Untersuchungen zum Wirkmechanismus zeigten, dass es sich bei Indirubin und dessen Derivaten um potente Inhibitoren cyclin-abhängiger Kinasen (CDKs) handelt. Diese Enzyme spielen eine essentielle Rolle bei der Regulation des Zellzyklus’, welche bei Tumorzellen meist außer Kontrolle ist. Inkubation verschiedener Tumorzellen (u.a. MCF-7) mit dem Derivat Indirubin-3’-oxim führte zu einem konzentrationsabhängigen Zellzyklus-Arrest bei G1/S bzw. G2/M. Diese Beobachtungen machen Indirubin und dessen Derivate für einen eventuellen Einsatz als Tumortherapeutikum interessant. Für die Verwendung als Tumortherapeutikum erweist sich die geringe Wasserlöslichkeit und die damit einhergehende geringe Bioverfügbarkeit des Indirubins und vieler seiner Derivate als nachteilig. Im Rahmen dieser Arbeit sollte das Molekülgerüst des Indirubins durch das Einbringen geeigneter Substituenten so modifiziert werden, dass eine höhere Wasserlöslichkeit bei gleichzeitig starker inhibitorischer Wirkung auf CDKs (untersucht am CDK2/Cyc E Komplex) und starker Cytotoxizität (untersucht mittels SRB-Test an der MCF-7 Tumorzellinie) erzielt wird. Bei den dafür verwendeten Substituenten handelt es sich vorwiegend um ein- oder mehrfach hydroxylierte Alkylgruppen oder um ionische Gruppen wie die Carbonsäuregruppe, die an den Positionen 3’ bzw. 5 des Indirubinmoleküls eingeführt werden. Ergebnisse: Durch das Einführen hydroxylierter Alkyl-Substituenten in Position 3’ des Indirubingrundgerüstes konnte die Wasserlöslichkeit der entstandenen Derivate im Vergleich zum Indirubuin etwa 10- bis 50-fach erhöht werden (1 bis 5 mg/ml im Vergleich zu 0,1 mg/ml). Das Einführen einer Carboxygruppe in Position 5 (5-Carboxyindiruin, E810) führt zu einer noch höheren Wasserlöslichkeit von 41 mg/ml. Die inhibitorische Aktivität auf den CDK2/Cyc E Komplex einiger der synthetisierten Derivate liegt mit etwa 0,2 µM unter dem entsprechenden IC50-Wert des Indirubins (etwa 7 µM), und auch die Cytotoxizität liegt bei einigen Derivaten mit IC50-Werten von 0,1 bis 0,9 µM unter dem IC50-Wert von Indirubin (4 µM).
Nonlinear diffusion filtering of images using the topological gradient approach to edges detection
(2007)
In this thesis, the problem of nonlinear diffusion filtering of gray-scale images is theoretically and numerically investigated. In the first part of the thesis, we derive the topological asymptotic expansion of the Mumford-Shah like functional. We show that the dominant term of this expansion can be regarded as a criterion to edges detection in an image. In the numerical part, we propose the finite volume discretization for the Catté et al. and the Weickert diffusion filter models. The proposed discretization is based on the integro-interpolation method introduced by Samarskii. The numerical schemes are derived for the case of uniform and nonuniform cell-centered grids of the computational domain \(\Omega \subset \mathbb{R}^2\). In order to generate a nonuniform grid, the adaptive coarsening technique is proposed.
Die enorme Nachfrage nach neuartigen Naturstoffen sowie Leitstrukturen für die (Teil-) Synthese pharmazeutischer Produkte verlangt ständig nach neuen Innovationen. Ein bedeutender Impuls ist dabei von der Marinen Biotechnologie zu erwarten, die seit einigen Jahren versucht, die sich bietenden medizinischen Potentiale auszuschöpfen. So können neuartige Wirkstoffe bzw. die für deren Produktion verantwortlichen Organismen und Enzyme isoliert und bereitgestellt werden. Häufig ist das Wachstum der Organismen jedoch stark limitiert sowie eine Produktion der Ziel-Metabolite nur unter bestimmten Bedingungen möglich, weshalb ein enormes Interesse an neuen Optimiermethoden zur Lösung des Problems besteht. Neuartige Lösungsansätze sollten daher im Rahmen dieser Arbeit verfolgt werden. Untersucht wurde eine „biochemische“ Wachstums- und Produktionsoptimierung mariner Bakterien durch einen Zusatz von Homoserinlactonen zum Kultivierungsmedium. Dabei konnte neben einem verbesserten Wachstum diverser Prokaryonten eine leichte Variation im Metabolitspektrum ermittelt sowie eine geringfügig erhöhte Produktion biologisch aktiver Substanzen detektiert werden. Soll das Wachstum von (marinen) Mikroorganismen optimiert werden, wird vom Anwender häufig eine unstrukturierte one-factor-at-a-time-Methode angewendet. Da diese in der Regel keine Beeinflussung der zu optimierenden variablen Parameter beachtet, wurden in dieser Arbeit alternativ rechnergestützte Optimierungen zur Umgehung dieses Problems durchgeführt. Zum Einsatz kam dabei eine Kombination aus einem Genetischen Algorithmus, welcher die Identifikation des globalen Optimums erlaubt und einem Simplex-Algorithmus, der zur Verfeinerung des bereits aufgefundenen Optimums dient. Hiermit konnte die Produktion einer marinen L-Serindehydratase im Rahmen einer Nährmediumsoptimierung um mehr als 50 % im Vergleich zum Referenzmedium gesteigert werden. Des Weiteren wurde ein im Polyketidscreening positiv aufgefallenes Bakterium (Halomonas marina) als Modellorganismus für ein neuartiges rechnergestütztes Verfahren eingesetzt, welches eine schnelle Identifizierung der Güte von Wachstumsparametern erlaubt und dabei eine repetitiv geführte Batch-Betriebsweise von Bioreaktoren nutzt. Ein weiterer Schwerpunkt dieser Arbeit ist die Charakterisierung einer rekombinant exprimierten Tryptophan-5-Halogenase. Hierbei konnte nach der Identifizierung des Aktivitätsoptimums hinsichtlich des einzustellenden pH-Werts sowie der Temperatur die Halbwertszeit des Enzyms bei verschiedenen Temperaturen bestimmt und mittels 2 D-Gelelektrophorese der pI-Wert des Enzyms erstmalig determiniert werden. Ein Fokus dieser Untersuchungen lag auf der Optimierung der Enzymkinetik. Dabei konnte insgesamt eine Verbesserung der Ausbeute um den Faktor 1,6 erzielt werden.
Background and purpose Inherently, IMRT treatment planning involves compromising between different planning goals. Multi-criteria IMRT planning directly addresses this compromising and thus makes it more systematic. Usually, several plans are computed from which the planner selects the most promising following a certain procedure. Applying Pareto navigation for this selection step simultaneously increases the variety of planning options and eases the identification of the most promising plan. Material and methods Pareto navigation is an interactive multi-criteria optimization method that consists of the two navigation mechanisms “selection” and “restriction”. The former allows the formulation of wishes whereas the latter allows the exclusion of unwanted plans. They are realized as optimization problems on the so-called plan bundle – a set constructed from precomputed plans. They can be approximately reformulated so that their solution time is a small fraction of a second. Thus, the user can be provided with immediate feedback regarding his or her decisions.
Im Zuge der steigenden Anzahl von Einsatzmöglichkeiten der
Faserverbundwerkstoffe in den verschiedensten Industriebereichen spielt die
Entwicklung bzw. Weiterentwicklung neuer und effektiverer Verarbeitungstechniken
eine bedeutende Rolle.
Dabei findet derzeit das Harzinjektionsverfahren (LCM) ausschließlich für kleinere bis
mittlere Stückzahlen seinen Einsatz. Aufgrund der sehr großen Stückzahlen im
Automobilbereich, ist dieses Verfahren hier zurzeit weniger interessant. Daher
werden große Anstrengungen unternommen, das Harzinjektionsverfahren besonders
für solche Bauteile attraktiver zu machen, die gegenwärtig mit Hilfe des Prepreg-
Verfahrens hergestellt werden. Dabei spielt die Reduktion der hier vergleichsweise
hohen Zykluszeit eine tragende Rolle. Die Dauer eines Zyklus wird hierbei
hauptsächlich durch die Vorbereitung und Herstellung der Verstärkungsstruktur
(Preform) sowie durch die Bestückung des Werkzeuges bestimmt. Diese so
genannte Preform-Technik weist daher ein sehr großes Entwicklungspotential auf,
mit dem Ziel, solche Verstärkungsstrukturen herzustellen, die nach der Injektion
keine Nacharbeit erfordern. Solche Strukturen werden auch als „net shape, ready-toimpregnate“-
Preform bezeichnet. Die hierfür notwendigen Techniken stammen
vornehmend aus der Textilindustrie, wie z.B. die direkte Preformtechnik, das Nähen
oder Kleben (Binder-Technik).
Ziel der vorliegenden Dissertation ist es, die Möglichkeiten der Nähtechnik bezogen
auf die Herstellung der Preforms zu untersuchen. Hierfür werden die verschiedenen
Naht- und Verbindungsarten hinsichtlich ihres Einsatzes in der Preformtechnik, wie
die Fixier- und Positionier-, die Füge- oder Verbindungsnaht und die Montagenaht,
untersucht.
Im Rahmen dieser Arbeit wurde zunächst innerhalb einer Studie zur „net shape“-
Preformtechnik eine Versteifungsstruktur entwickelt und hergestellt. Diese Struktur
soll dabei der Veranschaulichung der Möglichkeiten und Einsatzbereiche der
Nähtechnik bei der Preformtechnologie dienen. Zudem kann so ein mehrstufiger
Preformherstellungsprozess demonstriert werden. Ferner zeigt diese Studie, dass
ein hochgradiger, automatisierter Prozess, welcher zudem eine durchgängige
Qualitätskontrolle ermöglicht, realisiert werden konnte. Als ein weiterer Schritt wurde ein Prozess zur Herstellung eine dreidimensionalen
Preform, der die Anwendung verschiedener thermoplastischer,
niedrigtemperaturschmelzender Nähgarne zulässt, ausgearbeitet. Hierbei wurden die
Vorteile der Näh- und der Binder-Technologie miteinander verbunden. Außerdem
konnte durch die bereits formstabile und imprägnierungsfertige Preformstruktur, die
Bestückung des Werkzeuges wesentlich vereinfacht werden. Um die mechanischen
Eigenschaften der Preforms bestimmen zu können, wurden quantitative
Messmethoden erarbeitet. Hierdurch konnten anschließend die Einflüsse der
Orientierung sowie der Stichdichte ermittelt werden. Zudem wurden die folgenden
drei grundlegenden Eigenschaften untersucht: die spezifische Biegesteifigkeit, der so
genannte Rückspringwinkel sowie die Rückstellkraft nach dem Thermoformen
hinsichtlich der verschiedenen Nähtypen.
Um dies zu ergänzen, wurden weiterführende Untersuchungen zu den
Materialeigenschaften der Nähfäden, die bei der dreidimensionalen Preformtechnik
eingesetzt werden können, durchgeführt. Dabei ist neben der niedrigen
Schmelztemperatur die vollständige Auflösbarkeit der Nähgarne in den ungesättigten
Polyester- und Epoxidharzen besonders wichtig. Auf Grund dieser vollständigen
Auflösung der Fäden in der Matrix können die Stichlöcher wieder vollkommen
verschlossen werden. Dadurch kann eine Reduktion des Einflusses solcher
Stichlöcher auf die mechanischen Eigenschaften des Faserverbundwerkstoffes
erreicht werden. Mit Hilfe dieser Untersuchungen wurden schließlich zwei polymere
Nähgarne als vielversprechend beurteilt. Diese weisen eine Schmelztemperatur von
weniger als 100 °C sowie eine gute Lösbarkeit, besonders im Harzsystem RTM 6,
auf.
In der Preformtechnik werden die Nähte nicht nur als Positionier- oder Montagenaht
eingesetzt, sondern können in einer Struktur als auch als Verstärkungselement, eine
so genannte Verstärkungsnaht, verwendet werden. Der Zweck einer solchen Naht ist
die interlaminare Verstärkung von monolitischen oder Sandwichstrukturen. Zudem
besteht die Möglichkeit, diese zur Fixierung von metallischen Funktionselementen
(Inserts) in den Faserverbundwerkstoff zu benutzen. Hinsichtlich diese Möglichkeiten
wurden im Rahmen dieser Arbeit erfolgreich Untersuchung durchgeführt. Dabei
wiesen die eingenähten Krafteinleitungselemente in durchgeführten statischen
Zugversuchen eine annähernd 200 % höhere maximale Zugkraft verglichen mit
entsprechenden Elementen (BigHead®), die nicht durch eine Naht fixiert wurden. Weitere Untersuchungen zeigten auch, dass eine doppelte Naht nicht eine
proportionale Verdoppelung der maximal erreichbaren Zugkraft bewirkt. Der Grund
hierfür liegt an einer partiellen Zerstörung des vorhandenen Nähgarns der ersten
Naht begründet durch den doppelten Einstich in die bereits bestehenden Löcher
beim mehrmaligen Durchlaufen der Nadel. Der größte Verstärkungseffekt konnte
schließlich bei der interlaminaren Einbettung und der Vernähung des Insert erreicht
werden. In diesem Fall kann eine Delamination, wie sie bei lediglich interlaminar
eingebetteten Inserts auftritt, verhindert werden.
Zusätzlich wurden statische Scherversuche durchgeführt, um auch in diesem
Belastungsfall die Versagensart zu untersuchen. Dabei stellte sich heraus, dass nicht
die Nähte sondern der Insert versagte. Auf Grund des Materialbruchs des Inserts,
sowohl in Zug- als auch in Scherversuchen, wurde in einem weiteren Schritt ein
optimiertes Insert entwickelt. Bei diesem wurde der Sockel in soweit modifiziert, dass
die maximale Versagenslast des Nähgarns ermittelt werden konnte. Dabei stellte
sich heraus, dass Glas-, Kohlenstoff- und Aramidfasern sich nur bedingt als
Verstärkungsgarn zur Fixierung von Inserts eignen. Im Gegensatz dazu sind die
Polyestergarne als ausreichende Verstärkung gut geeignet. Weitere Vorteile des
Polyestergarns sind die niedrigeren Kosten sowie die gute Vernähbarkeit.
Anschließend wurde eine solche Verbindung des Inserts mit einem
Faserverbundwerkstoff mit Hilfe der Finite-Elemente-Methode (FEM) simuliert. Dabei
zeigte sich eine gute Übereinstimmung der simulierten Ergebnisse mit denen aus
dem statischen Zugversuch mit dem weiterentwickelten Insert.
Auf Grund der elektrischen Leitfähigkeit von Kohlenstofffasern, können Fäden aus
diesem Material auch als Sensoren zur Überwachung einer Struktur oder Verbindung
eingesetzt werden. Hierfür wurden ebenfalls Untersuchungen durchgeführt. Dabei
konnte mit Hilfe der Änderung des elektrischen Widerstandes auf Schädigungen der
Fasern geschlossen werden. Somit können nicht nur das Bestehen einer
Schädigung, sondern auch der annähernde Ort ermittelt werden. Die
Untersuchungen zeigten somit, dass die Kohlenstofffasern nicht lediglich als
Verstärkung sondern auch als Überwachungssensor bei einem eingebetteten Insert
dienen können.
Im Rahmen aller Untersuchungen konnte das große und vielversprechende Potential
der Nähtechnik bei der Herstellung von Preform-Bauteilen aufgezeigt sowie ein
Einblick in einige von vielen Anwendungsmöglichkeiten gegeben werden.
The thesis is concerned with multiscale approximation by means of radial basis functions on hierarchically structured spherical grids. A new approach is proposed to construct a biorthogonal system of locally supported zonal functions. By use of this biorthogonal system of locally supported zonal functions, a spherical fast wavelet transform (SFWT) is established. Finally, based on the wavelet analysis, geophysically and geodetically relevant problems involving rotation-invariant pseudodifferential operators are shown to be efficiently and economically solvable.
Embedded systems are becoming more and more important in today’s life in many ways. They can be found in dishwashers, mobile phones, coffee machines, PDAs, etc. Although there is no common definition of what an embedded system is, it can be generally defined as a special-purpose information processing system, containing both: software and hardware. Embedded systems are integrated in a larger systems which interact with environment for achieving a set of predefined tasks or applications. In general, embedded systems are characterized by resources scarcity, among which energy is becoming more and more important (especially the energy consumed by the processor). The energy consumed by an embedded system is strongly influenced by the software running on it (the embedded software). That is why it is crucial to explore the software characteristics that have an influence on the energy consumption, and to understand how this influence could be represented. In order to realize this task, there is a need for the construction of a reliable measurement platform for energy consumption by embedded devices. The target of this work is to design and implement a framework for measuring energy consumption of embedded software. This framework is based on the XScale architecture, a popular Intel platform designed for energy aware applications. The framework has a software repository which contains a number of programs (user-defined) that are supposed to run on the mentioned platform. These program codes are the input of the framework. Automated measurements for energy consumption are performed on all programs for gathering the required information. In the context of this work, a first evaluation of the framework was performed to make an initial check its quality.
Diese Arbeit beschäftigt sich mit Methoden zur Klassifikation von Ovoiden in quadratischen Räumen. Die Anwendung der dazu entwickelten Algorithmen erfolgt hauptsächlich in achtdimensionalen Räumen speziell über den Körpern GF(7), GF(8) und GF(9). Zu verschiedenen, zumeist kleinen, zyklischen Gruppen werden hier die unter diesen Gruppen invarianten Ovoide bestimmt. Die bei dieser Suche auftretenden Ovoide sind alle bereits bekannt. Es ergeben sich jedoch Restriktionen an die Stabilisatoren gegebenenfalls existierender, unbekannter Ovoide.
In urban planning, sophisticated simulation models are key tools to estimate future population growth for measuring the impact of planning decisions on urban developments and the environment. Simulated population projections usually result in large, macro-scale, multivariate geospatial data sets. Millions of records have to be processed, stored, and visualized to help planners explore and analyze complex population patterns. We introduce a database driven framework for visualizing geospatial multidimensional simulation data based on the output from UrbanSim, a software for the analysis and planning of urban developments. The designed framework is extendable and aims at integrating empirical-stochastic methods and urban simulation models with techniques developed for information visualization and cartography. First, we develop an empirical model for the estimation of residential building types based on demographic household characteristics. The predicted dwelling type information is important for the analysis of future material use, carbon footprint calculations, and for visualizing simultaneously the results of land usage, density, and other significant parameters in 3D space. Our model uses multinomial logistic regression to derive building types at different scales. The estimated regression coefficients are applied to UrbanSim output in order to predict residential building types. The simulation results and the estimated building types are managed in an object-relational geodatabase. From the database, density, building types, and significant demographic variables are visually encoded as scalable, georeferenced 3D geometries and displayed on top of aerial photographs in a Google Earth visual synthesis. The geodatabase can be accessed and the visualization parameters can be chosen through a web-based user interface. The geometries are encoded in KML, Google's markup language, as ready-to-visualize data sets. The goal is to enhance human cognition by displaying abstract representations of multidimensional data sets in a realistic context and thus to support decision making in planning processes.
The main goal of this work is to examine various aspects of `inelastic continuum mechanics': first, fundamental aspects of a general finite deformation theory based on a multiplicative decomposition of the deformation gradient with special emphasis on the incompatibility of the so-called intermediate configuration are discussed in detail. Moreover, various balance of linear momentum representations together with the corresponding volume forces are derived in a configurational mechanics context. Subsequent chapters are consequently based on these elaborations so that the applied multiplicative decomposition generally serves as a fundamental modelling concept in this work; after generalised strain measures are introduced, a kinematic hardening model coupled with anisotropic damage, a substructure evolution framework as well as two different growth and remodelling formulations for biological tissues are presented.
Facility location decisions play a critical role in the strategic design of supply chain networks. In this paper, an extensive literature review of facility location models in the context of supply chain management is given. Following a brief review of core models in facility location, we identify basic features that such models must capture to support decision-making involved in strategic supply chain planning. In particular, the integration of location decisions with other decisions relevant to the design of a supply chain network is discussed. Furthermore, aspects related to the structure of the supply chain network, including those specific to reverse logistics, are also addressed. Significant contributions to the current state-of-the-art are surveyed taking into account numerous factors. Supply chain performance measures and optimization techniques are also reviewed. Applications of facility location models to supply chain network design ranging across various industries are discussed. Finally, a list of issues requiring further research are highlighted.
For almost thirty years bast fibers such as flax, hemp, kenaf, sisal and jute have been
used as reinforcing material in the molding process of both thermoplastic and thermoset
matrices. The main application areas of these natural fiber reinforced composites
in Europe are limited almost exclusively to the passenger car range. Typical
components are door panels, rear parcel shelves, instrument boards and trunk linings.
Natural fiber reinforced composites have become prevalent due to their good
mechanical properties and their low production costs. The main advantage in applying
natural fibers as reinforcement in composite materials is the price. Nowadays this
argument becomes more and more important due to the scarcity of synthetic raw materials
and consequently, their rising prices. Additionally the low density (approx.
1.5 g/cm³) of natural fibers confers them a very good lightweight potential. Other advantageous
features of natural fiber composites include very good processing and
acoustic properties. Further benefits such as good life cycle assessment and easier
processability compared to glass fiber material should also be taken into account.
Disadvantages of natural fibers are unevenness of the fiber quality and varying fiber
characteristics due to differences in soil, climate and fiber separation and their low
heat resistance (at temperatures exceeding 220 °C, some fiber components start
thermal degradation). Another disadvantage of natural fiber reinforced materials is
that with some matrices (mostly thermoplastic polymers) a sufficient impregnation of
the fibers can only be achieved if the fiber content in the composite is kept low, usually
below 50 wt.-%. Under these conditions the best performance of the natural fiber
reinforcement can not be realized. Another disadvantage of non-impregnated thermoplastic
prepregs is the long processing cycle times, which result from heating up the enclosed air in the prepreg during the process. Alternatively pure natural fiber
based non-woven fabrics are impregnated with thermoset systems. Due to the relatively
simple handling compared to alternative procedures, the thermoforming of thermoset
bonded prepregs is a very promising method for manufacturing natural fiber
reinforced components.
In this work, a novel general concept for natural fiber reinforced composites with a
natural fiber content of approx. 80 wt.-% and a thermoset matrix is developed. A suitable
material combination as well as an optimal process execution that help to meet the technical requirements for the natural fiber reinforced composites will be demonstrated.
Hemp and kenaf have been chosen as reinforcement fibers. In this work it is shown
that hemp and kenaf can be used as successful reinforcement alternatives to the
more established flax fibers in composite materials. Short flax fibers, which are commonly
used as reinforcement in composites (approx. 67 % for the German automotive
applications), are the “waste” of the long fiber production and their availability
and price strongly depend on the demand of the long fibers from the textile industry
and therefore their cost can strongly fluctuate, as it has been demonstrated in the
past few years. In contrast fiber plants such as hemp and kenaf are especifically cultivated
for technical applications and their availability and price is much more stable.
For their application a profound knowledge of the structural and mechanical properties
of the fibers is indispensable. In this work single filament tensile tests on these
two types of natural fibers are carried out. The cross-section area of both fibers, necessary
for the calculation of the tensile properties, was intensively studied using light
microscopy and Scanning Electron Microscopy (SEM) analysis. Because the occurrence
of flaws within the fiber is random in nature, tensile strength data of these fibers
was statistically analyzed using the Weibull distribution. The strengths were estimated
by means of Weibull statistics and then were compared to experimentally
measured strengths.
For a better handling of the material, both kenaf and hemp fibers were manufactured
to needle punched fiber mats. For the impregnation of the natural fiber mats, a Foulard-
process with the thermoset matrix as an aqueous solution was employed. The
reproducibility of this impregnation process was examined. Different matrix Systems with different chemical compositions were applied on the needle punched fiber mats.
The impregnated prepregs were heated and consolidated to components in a onestep-
process. A big advantage of this procedure is the short cycle times, since no
additional pre-heating process is required, in contrast to thermoplastic bonded prepregs.
Additionally, a parameter study of the mechanical properties of the composites
was performed. The best matrix system satisfying the work conditions and properties
of the composites was chosen to carry out the next working step, namely optimization of the compression molding process for the thermoset bonded natural fiber prepregs.
Apart from the material composition of prepregs, general processing parameters
such as temperature, time and pressure play a decisive role for the quality of structures
made of natural fiber reinforced polymers. The impregnated prepregs were
consolidated in a one-step-process to components. A systematic parameter study of
the influence of the relevant process parameters on the characteristics of manufactured
components was performed. Mould temperatures over 200 °C lead to thermal
degradation of the fibers. This temperature should not be exceeded when working
with natural fibers. Furthermore, the composites clearly display a dependence on the
processing pressure. The flexural properties increase with increasing manufacturing
pressures between 15 and 60 bar, reaching a maximum at 60 bar. At higher pressures
(80 to 200 bar) a decrease of the flexural properties is demonstrated. SEM images
of the fracture surface of the composites show that the decrease of the mechanical
properties is related to structural damage of the fiber.
A new technology allowing pressing under vacuum conditions was developed and tested. The press is equipped with a vacuum chamber and achieves very short cycle
processing times (up to less than one minute during the compression molding). The
aspiration connections of the vacuum chamber ensure that the residual moisture and
the condensation products of the matrix chemical reaction could be directly evacuated.
This type of press ensures also very safe processing and working conditions.
The properties of the components fulfill the technical specifications for natural fiber
reinforced polymers for use in the car interior. This versatile composite material is not
only limited to automotive applications, but may also be used for product manufacturing
in other industries. This work shows that the process parameters can be optimized
to fit a particular application.
Haustoria of the rust fungus pathogen Uromyces fabae deliver RTP1 (Rust Transferred Protein1) into host plant cells. In this work, different heterologous expression systems were used to study RTP1 biological function as well as RTP1 transfer mechanism. The first part of this thesis focused on the identification of the subcellular target compartment of RTP1 in plant cells. In this respect we could identify a functional bipartite nuclear localization signal within RTP1. However, stable and transient expression studies of RTP1 in different plant species, including the host plant Vicia faba, interfered with plant cell vitality but did not result in detection of RTP1 protein. These findings led us to propose that RTP1 interferes with plant gene expression. However, the molecular basis of this interference remains unclear. By deletion studies, we could localize the active region of RTP1 within a 45 amino acid central domain. In the second part of this study, two different lines of approaches were taken to study RTP1 transfer mechanism. First, transient expression of secreted RTP1 (sRTP1) also interfered with plant cell vitality. Addition of an endoplasmic reticulum retention signal abolished sRTP1 interference with plant cell vitality, suggesting that RTP1 can reenter the plant cell from the apoplast after secretion in the absence of the pathogen. We have identified a PEST-like region within RTP1, however, contribution of this region to the stability of RTP1 is not clear. Site directed mutagenesis analysis showed that the PEST-like region is likely to play a role during the transfer of RTP1 through plant plasma membrane. In the second line of approach, we established a recombinant delivery model, using Ustilago maydis/Zea mays pathosystem, to pursue RTP1 translocation into the plant cell. Our results indicate that U. maydis is capable of secreting high amounts of recombinant RTP1, showing similar glycosylation pattern as RTP1 secreted from rust haustoria. Our data propose the use of this model system to study RTP1 domains mediating its entry into the plant cell. Haustoria of the rust fungus pathogen Uromyces fabae deliver RTP1 (Rust Transferred Protein1) into host plant cells. In this work, different heterologous expression systems were used to study RTP1 biological function as well as RTP1 transfer mechanism. The first part of this thesis focused on the identification of the subcellular target compartment of RTP1 in plant cells. In this respect we could identify a functional bipartite nuclear localization signal within RTP1. However, stable and transient expression studies of RTP1 in different plant species, including the host plant Vicia faba, interfered with plant cell vitality but did not result in detection of RTP1 protein. These findings led us to propose that RTP1 interferes with plant gene expression. However, the molecular basis of this interference remains unclear. By deletion studies, we could localize the active region of RTP1 within a 45 amino acid central domain. In the second part of this study, two different lines of approaches were taken to study RTP1 transfer mechanism. First, transient expression of secreted RTP1 (sRTP1) also interfered with plant cell vitality. Addition of an endoplasmic reticulum retention signal abolished sRTP1 interference with plant cell vitality, suggesting that RTP1 can reenter the plant cell from the apoplast after secretion in the absence of the pathogen. We have identified a PEST-like region within RTP1, however, contribution of this region to the stability of RTP1 is not clear. Site directed mutagenesis analysis showed that the PEST-like region is likely to play a role during the transfer of RTP1 through plant plasma membrane. In the second line of approach, we established a recombinant delivery model, using Ustilago maydis/Zea mays pathosystem, to pursue RTP1 translocation into the plant cell. Our results indicate that U. maydis is capable of secreting high amounts of recombinant RTP1, showing similar glycosylation pattern as RTP1 secreted from rust haustoria. Our data propose the use of this model system to study RTP1 domains mediating its entry into the plant cell.
In this paper we extend the slender body theory for the dynamics of a curved inertial viscous Newtonian fiber [23] by the inclusion of surface tension in the systematic asymptotic framework and the deduction of boundary conditions for the free fiber end, as it occurs in rotational spinning processes of glass fibers. The fiber ow is described by a three-dimensional free boundary value problem in terms of instationary incompressible Navier-Stokes equations under the neglect of temperature dependence. From standard regular expansion techniques in powers of the slenderness parameter we derive asymptotically leading-order balance laws for mass and momentum combining the inner viscous transport with unrestricted motion and shape of the fiber center-line which becomes important in the practical application. For the numerical investigation of the effects due to surface tension, viscosity, gravity and rotation on the fiber behavior we apply a fnite volume method with implicit flux discretization.
This dissertation is intended to transport the theory of Serre functors into the context of A-infinity-categories. We begin with an introduction to multicategories and closed multicategories, which form a framework in which the theory of A-infinity-categories is developed. We prove that (unital) A-infinity-categories constitute a closed symmetric multicategory. We define the notion of A-infinity-bimodule similarly to Tradler and show that it is equivalent to an A-infinity-functor of two arguments which takes values in the differential graded category of complexes of k-modules, where k is a commutative ground ring. Serre A-infinity-functors are defined via A-infinity-bimodules following ideas of Kontsevich and Soibelman. We prove that a unital closed under shifts A-infinity-category over a field admits a Serre A-infinity-functor if and only if its homotopy category admits an ordinary Serre functor. The proof uses categories and Serre functors enriched in the homotopy category of complexes of k-modules. Another important ingredient is an A-infinity-version of the Yoneda Lemma.
Zwei zentrale Probleme der modernen Finanzmathematik sind die Portfolio-Optimierung und die Optionsbewertung. Während es bei der Portfolio-Optimierung darum geht, das Vermögen optimal auf verschiedene Anlagemöglichkeiten zu verteilen, versucht die Optionsbewertung faire Preise von derivativen Finanzinstrumenten zu bestimmen. In dieser Arbeit werden Fragestellungen aus beiden dieser Themenbereiche bearbeitet. Die Arbeit beginnt mit einem Kapitel über Grundlagen, in dem zum Beispiel das Portfolio-Problem von Merton dargestellt und die Black/Scholes-Formel zur Optionsbewertung hergeleitet wird. In Kapitel 2 wird das Portfolio-Problem von Morton und Pliska betrachtet, die in das Merton-Modell fixe Transaktionskosten eingeführt haben. Dabei muß der Investor bei jeder Transaktion einen fixen Anteil vom derzeitigen Vermögen als Kosten abführen. Es wird die asymptotische Approximation dieses Modells von Atkinson und Wilmott vorgestellt und die optimale Portfoliostrategie aus den Marktparametern hergeleitet. Danach werden die tatsächlichen Transaktionskosten abgeschätzt und ein User Guide zur praktischen Anwendung dieses Transaktionskostenmodells angegeben. Zum Schluß wird das Modell numerisch analysiert, indem unter anderem die erwartete Handelszeit und die Güte der Abschätzung der tatsächlichen Transaktionskosten berechnet werden. Ein Portfolio-Problem mit internationalen Märkten wird in Kapitel 3 vorgestellt. Dem Investor steht zusätzlich zu seinem Heimatland noch ein weiteres Land für seine Vermögensanlagen zur Verfügung. Dabei werden die Preisprozesse für die ausländischen Wertpapiere mit einem stochastischen Wechselkurs in die Heimatwährung umgerechnet. In einer statischen Analyse wird unter anderem berechnet, wieviel weniger Vermögen der Investor benötigt, um das gleiche erwartete Endvermögen zu erhalten wie in dem Fall, wenn ihm keine Auslandsanlagen zur Verfügung stehen. Kapitel 4 behandelt drei verschiedene Portfolio-Probleme mit Sprung-Diffusions-Prozessen. Nach der Herleitung eines Verifikationssatzes wird das Problem bei Anlagemöglichkeit in eine Aktie und in ein Geldmarktkonto jeweils für eine konstante und eine stochastische Zinsrate untersucht. Im ersten Fall wird eine implizite Darstellung für den optimalen Portfolioprozeß und eine Bedingung angegeben, unter der diese Darstellung eindeutig lösbar ist. Außerdem wird der optimale Portfolioprozeß für verschiedene Verteilungen für die Sprunghöhe untersucht. Im Falle einer stochastischen Zinsrate kann nur ein Kandidat für den optimalen Lösungsprozeß angeben werden. Dieser hat wieder eine implizite Darstellung. Das letzte Portfolio-Problem ist eine Abwandlung des Modells aus Kapitel 3. Wird dort der Wechselkurs durch eine geometrisch Brownsche Bewegung modelliert, ist er hier ein reiner Sprungprozeß. Es wird wieder der optimale Portfolioprozeß hergeleitet, wobei ein Anteil davon unter Umständen nur numerisch lösbar ist. Eine hinreichende Bedingung für die Lösbarkeit wird angegeben. In Kapitel 5 werden verschiedene Bewertungsansätze für Optionen auf Bondindizes präsentiert. Es wird eine Methode vorgestellt, mit der die Optionen anhand von Marktpreisen bewertet werden können. Für den Fall, daß es nicht genug Marktpreise gibt, wird ein Verfahren angegeben, um den Bondindex realitätsnah zu simulieren und künstliche Marktpreise zu erzeugen. Diese Preise können dann für eine Kalibrierung verwendet werden.
This paper disscuses the minimal area rectangular packing problem of how to pack a set of specified, non-overlapping rectangels into a rectangular container of minimal area. We investigate different mathematical programming approaches of this and introduce a novel approach based on non-linear optimization and the \\\"tunneling effect\\\" achieved by a relaxation of the non-overlapping constraints.
The present work deals with the (global and local) modeling of the windfield on the real topography of Rheinland-Pfalz. Thereby the focus is on the construction of a vectorial windfield from low, irregularly distributed data given on a topographical surface. The developed spline procedure works by means of vectorial (homogeneous, harmonic) polynomials (outer harmonics) which control the oscillation behaviour of the spline interpoland. In the process the characteristic of the spline curvature which defines the energy norm is assumed to be on a sphere inside the Earth interior and not on the Earth’s surface. The numerical advantage of this method arises from the maximum-minimum principle for harmonic functions.
Im Rahmen der vorliegenden Arbeit wurden pflanzliche Membranproteine mit strukturellen Ähnlichkeiten zu Anion:Cation-Symportern, insbesondere zu den Transportern der NaPi1- Familie aus Tieren untersucht. Neben den bereits bekannten Anion-Transporter (ANTR) aus Arabidopsis thaliana (ROTH et al., 2004) wurde in dieser Arbeit eine homologe Proteinfamilie aus Oryza sativa identifiziert. Dabei konnte die funktionelle Verwandtschaft der Proteine AtANTR5 aus A. thaliana und OsANTR5.1 aus O. sativa mittels Komplementation der antr5-Mutante nachgewiesen werden. Der Schwerpunkt der Arbeit lag in der Charakterisierung der physiologischen Bedeutung des AtANTR5-Proteins in der Phosphathomöostase, im Stickstoffstoffwechsel oder bei Pathogenbefall. Mittels GFP-Fusionsexperimenten konnte für AtANTR5 eine subzelluläre Lokalisierung im Golgi-Apparat festgestellt werden. Durch AtANTR5-Promotor-GUS-Pflanzen wurde die gewebe- und entwicklungsspezifische Expression des Membranproteins untersucht. AtANTR5 weist in den meisten Geweben eine sehr geringe Transkriptmenge auf und ist mittels GUS-Färbung nur in Pollen detektierbar. Dennoch ist das AtANTR5-Protein für die ganze Pflanze von essentieller Bedeutung, da eine Inaktivierung des Gen zu gravierenden phänotypischen Veränderungen, gekennzeichnet durch zwergenhaften Wuchs, eingerollten Blättern und Blattläsionen. Aufgrund der Ähnlichkeit zu tierischen Phosphattransportern, wurde zunächst der Einfluss von AtANTR5 auf die Phosphathomöostase in entsprechenden „knock out“-Mutanten untersucht. Es konnte jedoch keine Veränderungen im Phosphathaushalt festgestellt werden. Vielmehr weist die antr5-Mutante eine erhöhte Sensitivität gegenüber Aminosäuren, Ammonium und Salz auf. Offensichtlich ist die durch AtANTR5 Transportaktivität innerhalb des Golgi-Apparates von außerordentlichen Wichtigkeit für den pflanzlichen Stoffwechsel. Des weiteren konnte ein Zusammenhang zwischen AtANTR5 und Pathogenabwehr festgestellt werden. „Northern-Blot“-Analysen zeigten eine Induktion der AtANTR5-Expression als Antwort auf Pathogenbefall durch P. syringae. Zytologische sowie histochemische Analysen haben bei antr5-Pflanzen die Ausprägung zahlreicher Abwehrmechanismen, wie Ablagerungen von Callose in den Zellwänden, Akkumulation von phenolischen Metaboliten, Salizylsäure, PR Proteinen und Wasserstoffperoxid oder Absterben der Zellen, gezeigt. Weiterhin konnte eine erhöhte Resistenz der antr5-Pflanzen gegenüber dem Befall von P. syringae ermittelt werden. Durch die Expression des NahG-Gens in antr5-Mutanten konnte gezeigt werden, dass die Expression der PR-Gene Salizylsäure abhängig, das spontane Absterben der Zellen jedoch Salizylsäure unabhängig war. Dieses Befund lässt den Schluss zu, dass erhöhte SA-Akkumulation und die dadurch aktivierte Abwehr, sekundäre Effekte der AtANTR5-Inaktivierung darstellen.
In this article, we present an analytic solution for Jiang's constitutive model of elastoplasticity. It is considered in its stress controlled form for proportional stress loading under the assumptions that the one-to-one coupling of the yield surface radius and the memory surface radius is switched off, that the transient hardening is neglected and that the ratchetting exponents are constant.
In the theoretical part of this thesis, the difference of the solutions of the elastic and the elastoplastic boundary value problem is analysed, both for linear kinematic and combined linear kinematic and isotropic hardening material. We consider both models in their quasistatic, rate-independent formulation with linearised geometry. The main result of the thesis is, that the differences of the physical obervables (the stresses, strains and displacements) can be expressed as composition of some linear operators and play operators with respect to the exterior forces. Explicit homotopies between both solutions are presented. The main analytical devices are Lipschitz estimates for the stop and the play operator. We present some generalisations of the standard estimates. They allow different input functions, different initial memories and different scalar products. Thereby, the underlying time involving function spaces are the Sobolov spaces of first order with arbitrary integrability exponent between one and infinity. The main results can easily be generalised for the class of continuous functions with bounded total variation. In the practical part of this work, a method to correct the elastic stress tensor over a long time interval at some chosen points of the body is presented and analysed. In contrast to widespread uniaxial corrections (Neuber or ESED), our method takes multiaxiality phenomena like cyclic hardening/softening, ratchetting and non-masing behaviour into account using Jiang's model of elastoplasticity. It can be easily adapted to other constitutive elastoplastic material laws. The theory for our correction model is developped for linear kinematic hardening material, for which error estimated are derived. Our numerical algorithm is very fast and designed for the case that the elastic stress is piecewise linear. The results for the stresses can be significantly improved with Seeger's empirical strain constraint. For the improved model, a simple predictor-correcor algorithm for smooth input loading is established.
In this article we give a sufficient condition that a simply connected flexible body does not penetrate itself, if it is subjected to a continuous deformation. It is shown that the deformation map is automatically injective, if it is just locally injective and injective on the boundary of the body. Thereby, it is very remarkable that no higher regularity assumption than continuity for the deformation map is required. The proof exclusively relies on homotopy methods and the Jordan-Brouwer separation theorem.
Im Rahmen der vorliegenden Arbeit konnte eine Prozesstechnologie entwickelt werden,
die das Einsatzgebiet von endlosfaserverstärkten Thermoplasten (Organoblechen)
auf den Bereich von schnellbewegten Getriebebauteilen im Maschinenbau erweitert.
Zum Thermoformen von kohlenstofffaserverstärkten Thermoplasten wurde erstmals
die induktive Erwärmung als Heizquelle eingesetzt. Dies ermöglicht die Erwärmung
des untersuchten Halbzeuges (CF/PA66) an zwei lokal begrenzten Bereichen in weniger
als 30 Sekunden auf Umformtemperatur. Dieser lokale Energieeintrag bietet die
Grundlage für den anschließenden partiellen Thermoformprozess, mit dem Ziel
der gleichzeitigen Umformung mehrerer Formnester auf einem Halbzeug.
Durch Koppelung dieses Verfahren mit einem Werkzeugkonzept zur dickenadaptiven
Umformung war eine Erhöhung der Halbzeugdicke in definierten Bereichen um
bis zu 200 % möglich. In Organobleche mit einer Dicke von 2 mm wurden Lagersitze
mit einer Lagersitzbreite von 6 mm eingeformt, ohne dass Material von außen nachgeführt
oder extern dem Prozess zugeführt werden musste. Auch ein Verfahren zum
Ausformen von Lagersitzen und dem gleichzeitigen Fügen metallischer Lager wurde
realisiert und ein Modell von geometrisch möglichen Lagersitzdimensionen in Abhängigkeit
der Organoblechdicke erstellt.
Die Kombination aus Prozess Neu- und Weiterentwicklungen führt zu einer Prozesskettenverkürzung
mit einer daraus resultierenden Prozesszeiteinsparung von
bis zu 37 % gegenüber dem partiellen Thermoformen, was entscheidend zur Kostensenkung
bei der Herstellung beiträgt.
Die Prozesskette wurde an einem Demonstratorbauteil, einem schnellbewegten Hebel
(Fadenhebel) einer Industrienähmaschine, exemplarisch abgebildet. Dieser Fadenhebel
besitzt zwei metallische Rillenkugellager, die in einem Schritt in ein zuvor
ebenes Halbzeug eingeformt und gefügt wurden. Bei der Bauteilprüfung zeigte sich
neben einer Netto-Gewichtsreduzierung von 50 % gegenüber der bestehenden Aluminiumvariante
eine Reduzierung der Schallemission um bis zu 1 dB(A). Dies ist auf
das hohe Dämpfungsvermögen des thermoplastischen Ausgangsmaterials zurückzuführen, und unterstreicht das große Potenzial dieser Werkstoffklasse in dynamisch
belasteten Bauteilen.
In the present work the modelling and numerical treatment of discontinuities in thermo-mechanical solids is investigated and applied to diverse physical problems. From this topic a structure for this work results, which considers the formulation of thermo-mechanical processes in continua in the first part and which forms the mechanical and thermodynamical framework for the description of discontinuities and interfaces, that is performed in the second part. The representation of the modelling of solid materials bases on the detailed derivation of geometrically nonlinear kinematics, that yields different strain and stress measures for the material and spatial configuration. Accordingly, this results in different formulations of the mechanical and thermodynamical balance equations. On these foundations we firstly derive by means of the concepts of the plasticity theory an elasto-plastic prototype-model, that is extended subsequently. In the centre of interest is the formulation of damage models in consideration of rate-dependent material behaviour. In the next step follows the extension of the isothermal material models to thermo-mechanically coupled problems, whereby also the special case of adiabatic processes is discussed. Within the representation of the different constitutive laws, the importance is attached to their modular structure. Moreover, a detailed discussion of the isothermal and the thermo-mechanically coupled problem with respect to their numerical treatment is performed. For this purpose the weak forms with respect to the different configurations and the corresponding linearizations are derived and discretized. The derived material models are highlighted by numerical examples and also proved with respect to plausibility. In order to take discontinuities into account appropriate kinematics are introduced and the mechanical and thermodynamical balance equations have to be modified correspondingly. The numerical description is accomplished by so-called interface-elements, which are based on an adequate discretization. In this context two application fields are distinguished. On the one side the interface elements provide a tool for the description of postcritical processes in the framework of localization problems, which include material separation and therefore they are appropriate for the description of cutting processes. Here in turn one has to make the difference between the domain-dependent and the domain-independent formulation, which mainly differ in the definition of the interfacial strain measure. On the other side material properties are attached to the interfaces whereas the spatial extension is neglectable. A typical application of this type of discontinuities can be found in the scope of the modelling of composites, for instance. In both applications the corresponding thermo-mechanical formulations are derived. Finally, the different interface formulations are highlighted by some numerical examples and they are also proved with respect to plausibility.
Modeling and formulation of optimization problems in IMRT planning comprises the choice of various values such as function-specific parameters or constraint bounds. These values also affect the characteristics of the optimization problem and thus the form of the resulting optimal plans. This publication utilizes concepts of sensitivity analysis and elasticity in convex optimization to analyze the dependence of optimal plans on the modeling parameters. It also derives general rules of thumb how to choose and modify the parameters in order to obtain the desired IMRT plan. These rules are numerically validated for an exemplary IMRT planning problems.
In der vorliegenden Arbeit wird das Tragverhalten von Verbundträgern im Bereich von großen Stegöffnungen analysiert und ein Modell zur Ermittlung der Querkrafttragfähigkeit des Betongurts entwickelt. Die Basis dazu bilden umfangreiche experimentelle und rechnerische Untersuchungen. Des Weiteren wird die Reibung zwischen dem Schaft von einbetonierten Kopfbolzendübeln und dem umgebendem Beton experimentell untersucht. Anhand von 21 großmaßstäblichen Traglastversuchen, die erstmals so konzipiert waren, dass im Öffnungsbereich nahezu die gesamte Querkraft durch den Betongurt übertragen wurde, konnte die Querkrafttragfähigkeit des Betongurts experimentell in engen Grenzen bestimmt werden. Neue Erkenntnisse über den Lastabtragungs- und Versagensmechanismus im Öffnungsbereich wurden durch die Auswertung der Dehnungen der Kopfbolzendübel im Öffnungsbereich und das nachträgliche Aufsägen des Betongurts der Versuchsträger gewonnen. Die Versuche wurden mit einem dreidimensionalen FE-Modell, das die Versuche in ihren wesentlichen Teilen abbildete, simuliert. Durch den Vergleich der rechnerischen mit den experimentell ermittelten Werten wurde dieses Modell überprüft und anschließend wurden damit Parameteruntersuchungen durchgeführt. Mit den Erkenntnissen aus den experimentellen und rechnerischen Untersuchungen konnte der Lastabtragungsmechanismus im Öffnungsbereich umfassend analysiert werden und ein Ingenieurmodell zur Bestimmung und zum Nachweis der Querkrafttragfähigkeit des Betongurts im Öffnungsbereich entwickelt werden.
In the article the application of kernel functions – the so-called »kernel trick« – in the context of Fisher’s approach to linear discriminant analysis is described for data sets subdivided into two groups and having real attributes. The relevant facts about functional Hilbert spaces and kernel functions including their proofs are presented. The approximative algorithm published in [Mik3] to compute a discriminant function given the data and a kernel function is briefly reviewed. As an illustration of the technique an artificial data set is analysed using the algorithm just mentioned.
Elastomeric and other rubber-like materials are often simultaneously exposed to short- and long-time loads within engineering applications. When aiming at establishing a general simulation tool for viscoelastic media over these different time scales, a suitable material model and its corresponding material parameters can only be determined if an appropriate number of experimental data is taken into account. In this work an algorithm for the identification of material parameters for large strain viscoelasticity is presented. Thereby, data of multiple experiments are considered. Based on this method the experimental loading intervals for long-time experiments can be shortened in time and the parameter identification procedure is now referred to experimental data of tests under short- and long-time loads without separating the parameters due to these different time scales. The employed viscoelastic material law is based on a nonlinear evolution law and valid far from thermodynamic equilibrium. The identification is carried out by minimizing a least squares functional comparing inhomogeneous displacement fields from experiments and FEM simulations at given (measured) force loads. Within this optimization procedure all material parameters are identified simultaneously by means of a gradient based method for which a semi-analytical sensitivity analysis is calculated. Representative numerical examples are referred to measured data for different polyurethanes. In order to show the general applicability of the identification method for multiple tests, in the last part of this work the parameter identification for small strain plasticity is presented. Thereby three similar test programs on three specimen of the aluminum alloy AlSi9Cu3 are analyzed, and the parameter sets for the respective individual identifications, and for the combination of all tests in one identification, is compared.
The present thesis deals with multi-user mobile radio systems, and more specifically, the downlinks (DL) of such systems. As a key demand on future mobile radio systems, they should enable highest possible spectrum and energy efficiency. It is well known that, in principle, the utilization of multi-antennas in the form of MIMO systems, offers considerable potential to meet this demand. Concerning the energy issue, the DL is more critical than the uplink. This is due to the growing importance of wireless Internet applications, in which the DL data rates and, consequently, the radiated DL energies tend to be substantially higher than the corresponding uplink quantities. In this thesis, precoding schemes for MIMO multi-user mobile radio DLs are considered, where, in order to keep the complexity of the mobile terminals as low as possible, the rationale receiver orientation (RO) is adopted, with the main focus to further reduce the required transmit energy in such systems. Unfortunately, besides the mentioned low receiver complexity, conventional RO schemes, such as Transmit Zero Forcing (TxZF), do not offer any transmit energy reductions as compared to conventional transmitter oriented schemes. Therefore, the main goal of this thesis is the design and analysis of precoding schemes in which such transmit energy reductions become feasible - under virtually maintaining the low receiver complexity - by means of replacing the conventional unique mappings by the selectable representations of the data. Concerning the channel access scheme, Orthogonal Frequency Division Multiplex (OFDM) is presently being favored as the most promising candidate in the standardization process of the enhanced 3G and forthcoming 4G systems, because it allows a very flexible resource allocation and low receiver complexity. Receiver oriented MIMO OFDM multi-user downlink transmission, in which channel equalization is already performed in the transmitter of the access point, further contributes to low receiver complexity in the mobile terminals. For these reasons, OFDM is adopted in the target system of the considered receiver oriented precoding schemes. In the precoding schemes considered the knowledge of channel state information (CSI) in the access point in the form of the channel matrix is essential. Independently of the applied duplexing schemes FDD or TDD, the provision of this information to the access point is always erroneous. However, it is shown that the impact of such deviations not only scales with the variance of the channel estimation errors, but also with the required transmit energies. Accordingly, the reduced transmit energies of the precoding schemes with selectable data representation also have the advantage of a reduced sensitivity to imperfect knowledge of CSI. In fact, these two advantages are coupled with each other.
In contrast to p-hub problems with a summation objective (p-hub median), minmax hub problems (p-hub center) have not attained much attention in the literature. In this paper, we give a polyhedral analysis of the uncapacitated single allocation p-hub center problem (USApHCP). The analysis will be based on a radius formulation which currently yields the most efficient solution procedures. We show which of the valid inequalities in this formulation are facet-defining and present non-elementary classes of facets, for which we propose separation problems. A major part in our argumentation will be the close connection between polytopes of the USApHCP and the uncapacitated p-facility location (pUFL). Hence, the new classes of facets can also be used to improve pUFL formulations.
Nichtlinearer Horizontaler Bettungsmodulansatz für Trägerbohlwände in mitteldicht gelagertem Sand
(2007)
In der allgemeinen Baugrubenstatik für Trägerbohlwände werden haltende Kräfte vor dem im Baugrund einbindenden Teil des Trägers dem Erdwiderstand gleichgesetzt. Der Erwiderstand kann jedoch nur im Grenzzustand vollständig mobilisiert werden, was ausreichend große Verschiebungen am Trägerfuß voraussetzt. Die Abhängigkeit der tatsächlich mobilisierten Erdwiderstandsspannungen von den Verschiebungen kann mathematisch durch den hori-zontalen Bettungsmodul ausgedrückt werden. Bislang liegen zum horizontalen Bettungsmodul nur grobe Näherungsansätze vor, die die tatsächlichen Wechselwirkungen zwischen Spannun-gen und Verschiebungen für beliebige Verschiebungsbilder nicht realitätsnah erfassen. Ziel dieser Arbeit ist eine realitätsnahe Beschreibung des horizontalen Bettungsmoduls und damit einer realistischere Berechnung des Trag- und Verformungsverhaltens von Trägerbohl-wänden. Zur Ermittlung des Bettungsmoduls in Größe und Verlauf sowie zur Untersuchung von Einflussfaktoren auf den Bettungsmodul werden dreidimensionale Berechnungen nach der Finiten-Elemente-Methode (FEM) durchgeführt. Dabei werden die maßgebendenden Einfluss-faktoren im Rahmen von Parameterstudien für in der Praxis häufig vorkommende Werte-intervalle untersucht. Die FEM-Berechnungen erfolgen für freistehende, einfach rückverankerte und zweifach rückverankterte Trägerbohlwände in mitteldicht gelagertem Sand. Den Berechnungen liegt ein nichtlineares, elastoplastisches Stoffgesetz zugrunde. Die FEM-Berechnungen werden an den Messergebnissen vorhandener Großversuche kalibriert. Die FEM-Parameterstudien belegen eine Abhängigkeit des Bettungsmoduls von der Verschiebung u, der Tiefe z/t und der Druckflächenbreite b. Aus den FEM-Parameterstudien abgeleitet wird ein iterativer, nichtlinearer Berechnungsansatz für den horizontalen Bettungsmodul ksh erarbeitet. Darüber hinaus wird als Anfangswert der Iteration in der Ingenieurpraxis ein einfacher, linearer Näherungsansatz für den horizontalen Bettungsmodul ermittelt.
The IEEE 802.11 networks have a tremendous growth in the last years, but also now there is a rapid development of the wireless LAN technologies. High transmission rates, simple deployment and especially low costs make this network technology an efficient and cheap way to get access to the Internet. Fon is the world-wide greatest WIFI community and in January 2007 this community offers more than 11.000 access points in Germany and nearly 55.000 all over the world. However, this technology has also his shady sides. For example, it is possible for everyone to receive data from the wireless medium. So a protection against this open data traffic is a encryption mechanism called Wired Equivalent Privacy (WEP). The tragic end of theWired Equivalent Privacy (WEP) and the simplicity of various Denial-of-Service (DoS) attacks on the wireless medium have resulted in giving up the security at the logical-link layer and shifting it to upper layers (or in the best case leaving it within virtual private networks (VPNs)). Nevertheless, there is an enormous growth in using public access to the Internet via HotSpots in cafés, libraries, schools or at airports, train stops etc. Therefore, it is important for the Wireless Internet Service Provider (WISP) to make sure that anyone with a usual wireless device can connect to their access points. Offering this service to anybody makes giving a sufficient level of security very difficult. On the one hand it should be easy for everyone to use this access, on the other hand there is, in most cases, no security. A businessman is not very pleased about phishing his account data for a great enterprise or for his online office like the KIS at the University of Technology in Kaiserslautern. In most cases the WISPs use a simple web based authentication mechanism. By connecting to the WISPs services, the user is redirected to a webpage requesting his login data or credit card information. Therefore the user only needs a wireless LAN device and a webbrowser to authenticate. An attacker could sniff on the wireless medium to phish delicate data from a legal connected user or use DoS attacks as initial point for various other attacks. In most cases, this can be done with no or only small effort. On the other side, in some cases, the WISP has to do a hard reset on his wireless devices after a DoS attack. Therefore an analysis of access points is done in this work. So, the first part is to show how "‘new"’ access points react to flooding attacks and what mechanisms are used to protect them. The second part implements an attack using an anomaly of some access points that are discovered in the first part. And the last chapter deals with some information about using an Intrusion Detection System (IDS) to protect the devices against such attacks.
In der betriebswirtschaftlichen Literatur hat sich bisher keine einheitliche Controllingkon-zeption durchsetzen können. Deswegen ist auch weitestgehend unklar, welche Instrumente dem Controlling zugeordnet werden können, obwohl eine starke instrumentelle Prägung des Controllings zu beobachten ist. Dieser Beitrag versucht, mit Hilfe kognitionswissen-schaftlicher Erkenntnisse und auf Basis einer breiten Literaturanalyse eine konsistente Zuordnung der betriebswirtschaftlichen Instrumente auf die betrieblichen Funktionsberei-che vorzunehmen. Dabei werden sechs Instrumentengruppen identifiziert, die unterschied-liche Arten von Methoden- und Faktenwissen benötigen. Diese Gruppen können zu weiten Teilen eindeutig einzelnen Funktionsbereichen zugeordnet werden. Auf diese Weise kann für eine ganze Reihe von betriebswirtschaftlichen Instrumenten die Controllingrelevanz präzise herausgearbeitet werden.
In the thesis the author presents a mathematical model which describes the behaviour of the acoustical pressure (sound), produced by a bass loudspeaker. The underlying physical propagation of sound is described by the non--linear isentropic Euler system in a Lagrangian description. This system is expanded via asymptotical analysis up to third order in the displacement of the membrane of the loudspeaker. The differential equations which describe the behaviour of the key note and the first order harmonic are compared to classical results. The boundary conditions, which are derived up to third order, are based on the principle that the small control volume sticks to the boundary and is allowed to move only along it. Using classical results of the theory of elliptic partial differential equations, the author shows that under appropriate conditions on the input data the appropriate mathematical problems admit, by the Fredholm alternative, unique solutions. Moreover, certain regularity results are shown. Further, a novel Wave Based Method is applied to solve appropriate mathematical problems. However, the known theory of the Wave Based Method, which can be found in the literature, so far, allowed to apply WBM only in the cases of convex domains. The author finds the criterion which allows to apply the WBM in the cases of non--convex domains. In the case of 2D problems we represent this criterion as a small proposition. With the aid of this proposition one is able to subdivide arbitrary 2D domains such that the number of subdomains is minimal, WBM may be applied in each subdomain and the geometry is not altered, e.g. via polygonal approximation. Further, the same principles are used in the case of 3D problem. However, the formulation of a similar proposition in cases of 3D problems has still to be done. Next, we show a simple procedure to solve an inhomogeneous Helmholtz equation using WBM. This procedure, however, is rather computationally expensive and can probably be improved. Several examples are also presented. We present the possibility to apply the Wave Based Technique to solve steady--state acoustic problems in the case of an unbounded 3D domain. The main principle of the classical WBM is extended to the case of an external domain. Two numerical examples are also presented. In order to apply the WBM to our problems we subdivide the computational domain into three subdomains. Therefore, on the interfaces certain coupling conditions are defined. The description of the optimization procedure, based on the principles of the shape gradient method and level set method, and the results of the optimization finalize the thesis.
An algorithm for automatic parallel generation of three-dimensional unstructured computational meshes based on geometrical domain decomposition is proposed in this paper. Software package build upon proposed algorithm is described. Several practical examples of mesh generation on multiprocessor computational systems are given. It is shown that developed parallel algorithm enables us to reduce mesh generation time significantly (dozens of times). Moreover, it easily produces meshes with number of elements of order 5 · 107, construction of those on a single CPU is problematic. Questions of time consumption, efficiency of computations and quality of generated meshes are also considered.
Calculating effective heat conductivity for a class of industrial problems is discussed. The considered composite materials are glass and metal foams, fibrous materials, and the like, used in isolation or in advanced heat exchangers. These materials are characterized by a very complex internal structure, by low volume fraction of the higher conductive material (glass or metal), and by a large volume fraction of the air. The homogenization theory (when applicable), allows to calculate the effective heat conductivity of composite media by postprocessing the solution of special cell problems for representative elementary volumes (REV). Different formulations of such cell problems are considered and compared here. Furthermore, the size of the REV is studied numerically for some typical materials. Fast algorithms for solving the cell problems for this class of problems, are presented and discussed.
A numerical upscaling approach, NU, for solving multiscale elliptic problems is discussed. The main components of this NU are: i) local solve of auxil- iary problems in grid blocks and formal upscaling of the obtained re sults to build a coarse scale equation; ii) global solve of the upscaled coarse scale equation; and iii) reconstruction of a fine scale solution by solving local block problems on a dual coarse grid. By its structure NU is similar to other methods for solving multiscale elliptic problems, such as the multiscale finite element method, the multiscale mixed finite element method, the numerical subgrid upscaling method, heterogeneous multiscale method, and the multiscale finite volume method. The difference with those methods is in the way the coarse scale equation is build and solved, and in the way the fine scale solution is reconstructed. Essential components of the presented here NU approach are the formal homogenization in the coarse blocks and the usage of so called multipoint flux approximation method, MPFA. Unlike the usual usage as MPFA as a discretiza- tion method for single scale elliptic problems with tensor discontinuous coefficients, we consider its usage as a part of a numerical upscaling approach. The main aim of this paper is to compare NU with the MsFEM. In particular, it is shown that the resonance effect, which limits the application of the Multiscale FEM, does not appear, or it is significantly relaxed, when the presented here numerical upscaling approach is applied.
Approximation property of multipoint flux approximation (MPFA) approach for elliptic equations with discontinuous full tensor coefficients is discussed here. Finite volume discretization of the above problem is presented in the case of jump discontinuities for the permeability tensor. First order approximation for the fluxes is proved. Results from numerical experiments are presented and discussed.
Abstract — Various advanced two-level iterative methods are studied numerically and compared with each other in conjunction with finite volume discretizations of symmetric 1-D elliptic problems with highly oscillatory discontinuous coefficients. Some of the methods considered rely on the homogenization approach for deriving the coarse grid operator. This approach is considered here as an alternative to the well-known Galerkin approach for deriving coarse grid operators. Different intergrid transfer operators are studied, primary consideration being given to the use of the so-called problemdependent prolongation. The two-grid methods considered are used as both solvers and preconditioners for the Conjugate Gradient method. The recent approaches, such as the hybrid domain decomposition method introduced by Vassilevski and the globallocal iterative procedure proposed by Durlofsky et al. are also discussed. A two-level method converging in one iteration in the case where the right-hand side is only a function of the coarse variable is introduced and discussed. Such a fast convergence for problems with discontinuous coefficients arbitrarily varying on the fine scale is achieved by a problem-dependent selection of the coarse grid combined with problem-dependent prolongation on a dual grid. The results of the numerical experiments are presented to illustrate the performance of the studied approaches.
The main concern of this contribution is the computational modeling of biomechanically relevant phenomena. To minimize resource requirements, living biomaterials commonly adapt to changing demands. One way to do so is the optimization of mass. For the modeling of biomaterials with changing mass, we distinguish between two different approaches: the coupling of mass changes and deformations at the constitutive level and at the kinematic level. Mass change at the constitutive level is typically realized by weighting the free energy function with respect to the density field, as experimentally motivated by Carter and Hayes [1977] and computationally realized by Harrigan and Hamilton [1992]. Such an ansatz enables the simulation of changes in density while the overall volume remains unaffected. In this contribution we call this effect remodeling. Although in principle applicable for small and large strains, this approach is typically adopted for hard tissues, e.g. bone, which usually undergo small strain deformations. Remodeling in anisotropic materials is realized by choosing an appropriate anisotropic free energy function. <br> Within the kinematic coupling, a changing mass is characterized through a multiplicative decomposition of the deformation gradient into a growth part and an elastic part, as first introduced in the context of plasticity by Lee [1969]. In this formulation, which we will refer to as growth in the following, mass changes are attributed to changes in volume while the material density remains constant. This approach has classically been applied to model soft tissues undergoing large strains, e.g. the arterial wall. The first contribution including this ansatz is the work by Rodriguez, Hoger and McCulloch [1994]. To model anisotropic growth, an appropriate anisotropic growth deformation tensor has to be formulated. In this contribution we restrict ourselves to transversely isotropic growth, i.e., growth characterized by one preferred direction. On that account, we define a transversely isotropic growth deformation tensor determined by two variables, namely the stretch ratios parallel and perpendicular to the characteristic direction. <br> Another method of material optimization is the adaption of the inner structure f a material to its loading conditions. In anisotropic materials this can be realized by a suitable orientation of the material directions. For example, the trabeculae in the human femur head are oriented such that they can carry the daily loads with an optimum mass. Such a behavior can also be observed in soft tissues. For instance, the fibers of muscles and the collagen fibers in the arterial wall are oriented along the loading directions to carry a maximum of mechanical load. If the overall loading conditions change, for instance during a balloon angioplasty or a stent implantation, the material orientation readapts, which we call reorientation. The anisotropy type in biomaterials is often characterized by fiber reinforcement. A particular subclass of tissues, which includes muscles, tendons and ligaments, is featured by one family of fibers. More complex microstructures, such as arterial walls, show two fiber families, which do not necessarily have to be perpendicular. Within this contribution we confine ourselves to the first case, i.e., transversely isotropic materials indicated by one characteristic direction. The reorientation of the fiber direction in biomaterials is commonly smooth and continuous. For transverse isotropy it can be described by a rotation of the characteristic direction. Analogous to the theory of shells, we additionally exclude drilling rotations, see also Menzel [2006]. However, the driving force for these reorientation processes is still under discussion. Mathematical considerations promote strain driven reorientations. As discussed, for instance, in Vianello [1996], the free energy reaches a critical state for coaxial stresses and strains. For transverse isotropy, it can be shown that this can be achieved if the characteristic direction is aligned with a principal strain direction. From a biological point of view, depending on the kind of material (i.e. bone, muscle tissue, cartilage tissue, etc.), both strains and stresses can be suggested as stimuli for reorientation. Thus, whithin this contribution both approaches are investigated. <br> In contrast to previous works, in which remodeling, growth and reorientation are discussed separately, the present work provides a framework comprising all of the three mentioned effects at once. This admits a direct comparison how and on which level the individual phenomenon is introduced into the material model, and which influence it has on the material behavior. For a uniform description of the phenomenological quantities an internal variable approach is chosen. Moreover, we particularly focus on the algorithmic implementation of the three effects, each on its own, into a finite element framework. The nonlinear equations on the local and the global level are solved by means of the Newton-Raphson scheme. Accordingly, the local update of the internal variables and the global update of the deformation field are consistently linearized yielding the corresponding tangent moduli. For an efficient implementation into a finite element code, unitized update algorithms are given. The fundamental characteristics of the effects are illustrated by means of some representative numerical simulations. Due to the unified framework, combinations of the individual effects are straightforward.
Annual Report 2006
(2007)
Annual Report, Jahrbuch AG Magnetismus
Feature Based Visualization
(2007)
In this thesis we apply powerful mathematical tools such as interval arithmetic for applications in computational geometry, visualization and computer graphics, leading to robust, general and efficient algorithms. We present a completely novel approach for computing the arrangement of arbitrary implicit planar curves and perform ray casting of arbitrary implicit functions by jointly achieving, for the first time, robustness, efficiency and flexibility. Indeed we are able to render even the most difficult implicits in real-time with guaranteed topology and at high resolution. We use subdivision and interval arithmetic as key-ingredients to guarantee robustness. The presented framework is also well-suited for applications to large and unstructured data sets due to the inherent adaptivity of the techniques that are used. We also approach the topic of tensors by collaborating with mechanical engineers on comparative tensor visualization and provide them with helpful visualization paradigms to interpret the data.
Tropical geometry is a very new mathematical domain. The appearance of
tropical geometry was motivated by its deep relations to other mathematical
branches. These include algebraic geometry, symplectic geometry, complex
analysis, combinatorics and mathematical biology.
In this work we see some more relations between algebraic geometry and
tropical geometry. Our aim is to prove a one-to-one correspondence between
the divisor classes on the moduli space of n-pointed rational stable curves
and the divisors of the moduli space of n-pointed abstract tropical curves.
Thus we state some results of the algebraic case first. In algebraic geometry
these moduli spaces are well understood. In particular, the group of divisor
classes is calculated by S. Keel. We recall the needed results in chapter one.
For the proof of the correspondence we use some results of toric geometry.
Further we want to show an equality of the Chow groups of a special toric
variety and the algebraic moduli space. Thus we state some results of the
toric geometry as well.
This thesis tries to discover some connection between algebraic and tropical
geometry. Thus we also need the corresponding tropical objects to the
algebraic objects. Therefore we give some necessary definitions such as fan,
tropical fan, morphisms between tropical fans, divisors or the topical moduli
space of all n-marked tropical curves. Since we need it, we show that the
tropical moduli space can be embedded as a tropical fan.
After this preparatory work we prove that the group of divisor classes in
v
classical algebraic geometry has it equivalence in tropical geometry. For this
it is useful to give a map from the group of divisor classes of the algebraic
moduli space to the group of divisors of the tropical moduli space. Our aim is
to prove the bijectivity of this map in chapter three. On the way we discover
a deep connection between the algebraic moduli space and the toric variety
given by the tropical fan of the tropical moduli space.
In an undirected graph G we associate costs and weights to each edge. The weight-constrained minimum spanning tree problem is to find a spanning tree of total edge weight at most a given value W and minimum total costs under this restriction. In this thesis a literature overview on this NP-hard problem, theoretical properties concerning the convex hull and the Lagrangian relaxation are given. We present also some in- and exclusion-test for this problem. We apply a ranking algorithm and the method of approximation through decomposition to our problem and design also a new branch and bound scheme. The numerical results show that this new solution approach performs better than the existing algorithms.
Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung fluoreszenzmarkierter Pyrrolin-N-oxide sowie von Stilbennitronen. Diese Verbindungen sind aufgrund ihrer chemischen Struktur zum Abfangen kurzlebiger Radikale befähigt, wobei sie selbst zu einem langlebigen Radikal-Addukt reagieren. Diese Methode ist unter dem Namen „Spin-Trapping“ bekannt und wird bevorzugt zum Nachweis reaktiver Sauerstoffspezies in biologischen Systemen eingesetzt. Zu diesem Zweck wurde zunächst die Synthese der Spin-Trap EMPO etabliert und versucht, diese durch Umesterung mit einem Fluoreszenzfarbstoff zu markieren. Da dieser Syntheseweg erfolglos blieb, wurden die neuen Spin-Trap-Verbindungen BocAEMPO, AEMPO, BocEAEMPO und EAEMPO synthetisiert. Versuche zur Umsetzung dieser Verbindungen mit einer Reihe von Fluoreszenzfarbstoffen verliefen jedoch ebenfalls ohne Erfolg. Ursache hierfür ist die ausgeprägte Reaktivität der zum Spin-Trapping benötigten Nitron-Gruppe. Die hierzu benötigten NBD- und BODIPY-Farbstoffderivate wurden ebenfalls selbst synthetisiert. Weiterhin wurden Versuche zur Direktsynthese einer fluoreszenzmarkierten Spin-Trap unternommen. Ziel war hierbei, vor dem Erzeugen der Nitron-Gruppe bereits ein Fluorophor im Molekül einzubauen. Diese Versuche scheiterten jedoch an der Empfindlichkeit der verwendeten Farbstoffe. In einem Fall konnte zwar ein BODIPY-System erfolgreich unter den Bedingungen der Nitronsynthese erhalten werden, jedoch war das erhaltene Produkt nicht eindeutig charakterisierbar. Weiterhin wurde die Synthese von DEPMPO etabliert und erste Versuche zur Modifikation dieser Spin-Trap unternommen. Die neu synthetisierten Spin-Traps wurden mit sechs verschiedenen Radikalen zu ihren Addukten umgesetzt und durch ESR-Spektroskopie charakterisiert. Aus den durchgeführten Kinetikmessungen wurden die Zerfallskonstanten und die Halbwertszeiten der Spin-Addukte bestimmt. In einem weiteren Teil dieser Arbeit wurden Stilbennitrone hergestellt. Hierbei wurde die Synthese von Stilbenaldehyd-Derivaten mittels Heck-Reaktionen etabliert und im Anschluss drei verschiedenen Stilbennitrone synthetisiert. Diese wurden sowohl ESR- als auch UV- und Fluoreszenz-spektroskopisch charakterisiert. Mit der Verbindung Nitrostilbennitron wurden erste Versuche zum Fluoreszenzquenching und zur Inkubation von COS7-Zellen unternommen. Bei den Quenchingversuchen konnten die erwarteten Effekte bei der Reaktion mit OH-Radikalen gemessen werden. Die Inkubation der COS7-Zellen verlief ebenfalls erfolgreich, wobei hier jedoch aufgrund technischer Limitierungen auf Seiten der verfügbaren Mikroskope keine Aussagen zur Spezifität der erreichten Färbung getroffen werden können.
With the ever-increasing significance of software in our everyday lives, it is vital to afford reliable software quality estimates. Typically, quantitative software quality analyses rely on either statistical fault prediction methods (FPMs) or stochastic software reliability growth models (SRGMs). Adopting solely FPMs or SRGMs, though, may result in biased predictions that do not account for uncertainty in the distinct prediction methods; thus rendering the prediction less reliable. This paper identifies flaws of the individual prediction methods and suggests a hybrid prediction approach that combines FPMs and SRGMs. We adopt FPMs for initially estimating the expected number of failures for fi- nite failure SRGMs. Initial parameter estimates yield more accurate reliability predictions until sufficient failures are observed that enable stable parameter estimates in SRGMs. Being at the equilibrium level of FPM and SRGM pre- dictions we suggest combining the competing prediction methods with respect to the principle of heterogeneous redundancy. That is, we propose using the in- dividual methods separately and combining their predictions. In this paper we suggest Bayesian model averaging (BMA) for combining the different methods. The hybrid approach allows early reliability estimates and encourages higher confidence in software quality predictions.
Bringing robustness to patient flow management through optimized patient transports in hospitals
(2007)
Intra-hospital transports are often required for diagnostic or therapeutic reasons. Depending on the hospital layout, transportation between nursing wards and service units is either provided by ambulances or by trained personnel who accompany patients on foot. In many large German hospitals, the patient transport service is poorly managed and lacks workflow coordination. This contributes to higher hospital costs (e.g. when a patient is not delivered to the operating room on time) and to patient inconvenience due to longer waiting times. We have designed a computer-based planning system - Opti-TRANS c - that supports all phases of the transportation flow, ranging from travel booking, dispatching transport requests to monitoring and reporting trips in real-time. The methodology developed to solve the underlying optimization problem - a dynamic dial-a-ride problem with hospital-specific constraints - draws on fast heuristic methods to ensure the efficient and timely provision of transports. We illustrate the strong impact of Opti-TRANS c on the daily performance of the patient transportation service of a large German hospital. The major benefits obtained with the new tool include streamlined transportation processes and workflow, significant savings and improved patient satisfaction. Moreover, the new planning system has contributed to increase awareness among hospital staff about the importance of implementing efficient logistics practices.
Given a directed graph G = (N,A) with arc capacities u and a minimum cost flow problem defined on G, the capacity inverse minimum cost flow problem is to find a new capacity vector u' for the arc set A such that a given feasible flow x' is optimal with respect to the modified capacities. Among all capacity vectors u' satisfying this condition, we would like to find one with minimum ||u' - u|| value. We consider two distance measures for ||u' - u||, rectilinear and Chebyshev distances. By reduction from the feedback arc set problem we show that the capacity inverse minimum cost flow problem is NP-hard in the rectilinear case. On the other hand, it is polynomially solvable by a greedy algorithm for the Chebyshev norm. In the latter case we propose a heuristic for the bicriteria problem, where we minimize among all optimal solutions the number of affected arcs. We also present computational results for this heuristic.
Abstract. The stationary, isothermal rotational spinning process of fibers is considered. The investigations are concerned with the case of large Reynolds (± = 3/Re ¿ 1) and small Rossby numbers (\\\" ¿ 1). Modelling the fibers as a Newtonian fluid and applying slender body approximations, the process is described by a two–point boundary value problem of ODEs. The involved quantities are the coordinates of the fiber’s centerline, the fluid velocity and viscous stress. The inviscid case ± = 0 is discussed as a reference case. For the viscous case ± > 0 numerical simulations are carried out. Transfering some properties of the inviscid limit to the viscous case, analytical bounds for the initial viscous stress of the fiber are obtained. A good agreement with the numerical results is found. These bounds give strong evidence, that for ± > 3\\\"2 no physical relevant solution can exist. A possible interpretation of the above coupling of ± and \\\" related to the die–swell phenomenon is given.
In this dissertation we present analysis of macroscopic models for slow dense granular flow. Models are derived from plasticity theory with yield condition and flow rule. Corner stone equations are conservation of mass and conservation of momentum with special constitutive law. Such models are considered in the class of generalised Newtonian fluids, where viscosity depends on the pressure and modulo of the strain-rate tensor. We showed the hyperbolic nature for the evolutionary model in 1D and ill-posed behaviour for 2D and 3D. The steady state equations are always hyperbolic. In the 2D problem we derived a prototype nonlinear backward parabolic equation for the velocity and the similar equation for the shear-rate. Analysis of derived PDE showed the finite blow up time. Blow up time depends on the initial condition. Full 2D and antiplane 3D model were investigated numerically with finite element method. For 2D model we showed the presence of boundary layers. Antiplane 3D model was investigated with the Runge Kutta Discontinuous Galerkin method with mesh addoption. Numerical results confirmed that such a numerical method can be a good choice for the simulations of the slow dense granular flow.
Die fortschreitende Verbreitung von Ethernet-basierten Strukturen mit dezentralen und verteilten Anwendungen in der Automatisierung führt zu den so genannten netzbasier-ten Automatisierungssystemen (NAS). Diese sind zwar in Anschaffung und Betrieb kostengünstiger, moderner und flexibler als herkömmliche Strukturen, weisen jedoch nicht-deterministische Verzögerungen auf. Die genaue Analyse der resultierenden Antwortzeiten ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen, Fragen der Verlässlichkeit zu klären. In diesem ersten von zwei Beiträgen wird hierfür zunächst die für die speziellen Bedürfnisse der Strukturbeschreibung von netzbasierten Automatisierungssystemen entwickelte Modellierungssprache DesLaNAS vorgestellt und auf ein einführendes Beispiel angewendet. Im zweiten Beitrag wird darauf aufbauend gezeigt, welchen Einfluss die einzelnen System-komponenten (SPS, Netzwerk, I/O-Karten) sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse selbst wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) angewendet.
Netzbasierte Automatisierungssysteme (NAS) sind das Ergebnis der zunehmenden Dezentralisierung von Automatisierungssystemen mittels neuerer Netzwerkstrukturen. Eine ganze Fülle von Einflussfaktoren führt jedoch zu einem Spektrum von nicht-deterministischen Verzögerungen, die direkten Einfluss auf Qualität, Sicherheit und Zuverlässigkeit der Automatisierungsanlagen haben. Eine genaue Analyse dieser Einflussfaktoren ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen Fragen der Verlässlichkeit zu klären. In diesem Beitrag wird gezeigt, welchen Einfluss einzelne Komponenten sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) verwendet. Umfangreiche Messungen wurden zur Validierung der Ergebnisse durchgeführt.
Die Architekturen vieler technischer Systeme sind derzeit im Umbruch. Der fortschreitende Einsatz von Netzwerken aus intelligenten rechnenden Knoten führt zu neuen Anforderungen an den Entwurf und die Analyse der resultierenden Systeme. Dabei spielt die Analyse des Zeitverhaltens mit seinen Bezügen zu Sicherheit und Performanz eine zentrale Rolle. Netzbasierte Automatisierungssysteme (NAS) unterscheiden sich hierbei von anderen verteilten Echtzeitsystemen durch ihr zyklisches Komponentenverhalten. Das aus der asynchronen Verknüpfung entstehende Gesamtverhalten ist mit klassischen Methoden kaum analysierbar. Zur Analyse von NAS wird deshalb der Einsatz der wahrscheinlichkeitsbasierten Modellverifikation (PMC) vorgeschlagen. PMC erlaubt detaillierte, quantitative Aussagen über das Systemverhalten. Für die dazu notwendige Modellierung des Systems auf Basis wahrscheinlichkeitsbasierter, zeitbewerteter Automaten wird die Beschreibungssprache DesLaNAS eingeführt. Exemplarisch werden der Einfluss verschiedener Komponenten und Verhaltensmodi auf die Antwortzeit eines NAS untersucht und die Ergebnisse mittels Labormessungen validiert.
Modelling languages are important in the process of software development. The suitability of a modelling language for a project depends on its applicability to the target domain. Here, domain-specific languages have an advantage over more general modelling languages. On the other hand, modelling languages like the Unified Modeling Language can be used in a wide range of domains, which supports the reuse of development knowledge between projects. This thesis treats the syntactical and semantical harmonisation of modelling languages and their combined use, and the handling of complexity of modelling languages by providing language subsets - called language profiles - with tailor-made formal semantics definitions, generated by a profile tool. We focus on the widely-used modelling languages SDL and UML, and formal semantics definitions specified using Abstract State Machines.
In this paper, a new mixed integer mathematical programme is proposed for the application of Hub Location Problems (HLP) in public transport planning. This model is among the few existing ones for this application. Some classes of valid inequalities are proposed yielding a very tight model. To solve instances of this problem where existing standard solvers fail, two approaches are proposed. The first one is an exact accelerated Benders decomposition algorithm and the latter a greedy neighborhood search. The computational results substantiate the superiority of our solution approaches to existing standard MIP solvers like CPLEX, both in terms of computational time and problem instance size that can be solved. The greedy neighborhood search heuristic is shown to be extremely efficient.
The visualization of numerical fluid flow datasets is essential to the engineering processes that motivate their computational simulation. To address the need for visual representations that convey meaningful relations and enable a deep understanding of flow structures, the discipline of Flow Visualization has produced many methods and schemes that are tailored to a variety of visualization tasks. The ever increasing complexity of modern flow simulations, however, puts an enormous demand on these methods. The study of vortex breakdown, for example, which is a highly transient and inherently three-dimensional flow pattern with substantial impact wherever it appears, has driven current techniques to their limits. In this thesis, we propose several novel visualization methods that significantly advance the state of the art in the visualization of complex flow structures. First, we propose a novel scheme for the construction of stream surfaces from the trajectories of particles embedded in a flow. These surfaces are extremely useful since they naturally exploit coherence between neighboring trajectories and are highly illustrative in nature. We overcome the limitations of existing stream surface algorithms that yield poor results in complex flows, and show how the resulting surfaces can be used a building blocks for advanced flow visualization techniques. Moreover, we present a visualization method that is based on moving section planes that travel through a dataset and sample the flow. By considering the changes to the flow topology on the plane as it moves, we obtain a method of visualizing topological structures in three-dimensional flows that are not accessible by conventional topological methods. On the same algorithmic basis, we construct an algorithm for the tracking of critical points in such flows, thereby enabling the treatment of time-dependent datasets. Last, we address some problems with the recently introduced Lagrangian techniques. While conceptually elegant and generally applicable, they suffer from an enormous computational cost that we significantly use by developing an adaptive approximation algorithm. This allows the application of such methods on very large and complex numerical simulations. Throughout this thesis, we will be concerned with flow visualization aspect of general practical significance but we will particularly emphasize the remarkably challenging visualization of the vortex breakdown phenomenon.
In this article a new data-adaptive method for smoothing of bivariate functions is developed. The smoothing is done by kernel regression with rotational invariant bivariate kernels. Two or three local bandwidth parameters are chosen automatically by a two-step plug-in approach. The algorithm starts with small global bandwidth parameters, which adapt during a few iterations to the noisy image. In the next step local bandwidths are estimated. Some general asymptotic results about Gasser-Müller-estimators and optimal bandwidth selection are given. The derived local bandwidth estimators converge and are asymptotically normal.
In der vorliegenden Arbeit werden Sekundärstrukturmotive von isolierten Peptiden und Peptid-Aggregaten in der Gasphase analysiert. Zur Untersuchung ihrer intrinsischen Eigenschaften werden die isolierten Peptide durch adiabatische Abkühlung in Molekularstrahlen erzeugt. Durch die Anwendung hochsensitiver Techniken der Doppelresonanzspektroskopie, Resonante zwei Photonen Ionisation (R2PI) und Infrarot/Resonante zwei Photonen Ionisation (IR/R2PI), werden die Peptide und Peptid-Aggregate hinsichtlich ihrer Elektronen – und Schwingungsübergängen analysiert. Die Schwingungsfrequenzen im Bereich der Amid A, I, II Moden und im oberen „Fingerprintbereich“ von Peptiden sind sehr signifikant für die Geometrie des Rückgrates und der Seitenketten, z.B. unterscheiden sich Schwingungen von Gruppen, die an Wasserstoffbrückenbindungen beteiligt sind, sehr stark durch ihre Lage und Intensität gegenüber Schwingungen von frei vorliegenden Gruppen. Ein Vergleich mit berechneten Schwingungsfrequenzen aus ab initio und Dichtefunktionaltheorie Rechnungen ermöglicht eine Zuordnung zu einer bestimmten Struktur. Es werden in dieser Arbeit verschiedene Sekundärstrukturen über die Analyse von geschützten Aminosäuren, Di- und Tripeptiden untersucht. Insbesondere gelang es erstmals, ein ß-Faltblattmodellsystem für ein isoliertes Dimer eines Peptids nachzuweisen. Weiterhin werden zum molekularen Verständnis der Mikrosolvatation Aggregate mit Wassermolekülen betrachtet und somit der Einfluss auf die Sekundärstruktur durch sukzessive Aggregation von Wassermolekülen analysiert. In Kooperation mit Prof. Schrader (Universität Duisburg-Essen) werden Templatmoleküle charakterisiert, um ihre Fähigkeiten zur Anlagerung an schädliche ß-Faltblattstrukturen zu untersuchen, die in sogenannten neurodegenerativen Krankheiten häufig auftreten. Die Effizienz ist sowohl über die Analyse der Zahl und Stärke der inter- und intramolekularen Wasserstoffbrückenbindungen als auch über die gebildete Clusterstruktur untersucht worden.
As a first approximation the Earth is a sphere; as a second approximation it may be considered an ellipsoid of revolution. The deviations of the actual Earth's gravity field from the ellipsoidal 'normal' field are so small that they can be understood to be linear. The splitting of the Earth's gravity field into a 'normal' and a remaining small 'disturbing' field considerably simplifies the problem of its determination. Under the assumption of an ellipsoidal Earth model high observational accuracy is achievable only if the deviation (deflection of the vertical) of the physical plumb line, to which measurements refer, from the ellipsoidal normal is not ignored. Hence, the determination of the disturbing potential from known deflections of the vertical is a central problem of physical geodesy. In this paper we propose a new, well-promising method for modelling the disturbing potential locally from the deflections of the vertical. Essential tools are integral formulae on the sphere based on Green's function of the Beltrami operator. The determination of the disturbing potential from deflections of the vertical is formulated as a multiscale procedure involving scale-dependent regularized versions of the surface gradient of the Green function. The modelling process is based on a multiscale framework by use of locally supported surface curl-free vector wavelets.
We derive some asymptotics for a new approach to curve estimation proposed by Mr'{a}zek et al. cite{MWB06} which combines localization and regularization. This methodology has been considered as the basis of a unified framework covering various different smoothing methods in the analogous two-dimensional problem of image denoising. As a first step for understanding this approach theoretically, we restrict our discussion here to the least-squares distance where we have explicit formulas for the function estimates and where we can derive a rather complete asymptotic theory from known results for the Priestley-Chao curve estimate. In this paper, we consider only the case where the bias dominates the mean-square error. Other situations are dealt with in subsequent papers.