Refine
Year of publication
- 2007 (145) (remove)
Document Type
- Doctoral Thesis (64)
- Report (37)
- Preprint (14)
- Periodical Part (13)
- Study Thesis (5)
- Working Paper (4)
- Diploma Thesis (3)
- Article (2)
- Conference Proceeding (2)
- Habilitation (1)
Has Fulltext
- yes (145)
Keywords
- Phasengleichgewicht (4)
- numerical upscaling (4)
- Dienstgüte (3)
- Elastoplastizität (3)
- Model checking (3)
- Networked Automation Systems (3)
- Netzwerk (3)
- Response-Zeit (3)
- Visualisierung (3)
- hub location (3)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Fraunhofer (ITWM) (28)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Informatik (19)
- Kaiserslautern - Fachbereich Sozialwissenschaften (10)
- Kaiserslautern - Fachbereich Chemie (9)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
In recent years, nanofiller-reinforced polymer composites have attracted considerable
interest from numerous researchers, since they can offer unique mechanical,
electrical, optical and thermal properties compared to the conventional polymer
composites filled with micron-sized particles or short fibers. With this background, the
main objective of the present work was to investigate the various mechanical
properties of polymer matrices filled with different inorganic rigid nanofillers, including
SiOB2B, TiOB2B, AlB2BOB3B and multi-walled carbon nanotubes (MWNT). Further, special
attention was paid to the fracture behaviours of the polymer nanocomposites. The
polymer matrices used in this work contained two types of epoxy resin (cycloaliphatic
and bisphenol-F) and two types of thermoplastic polymer (polyamide 66 and isotactic
polypropylene).
The epoxy-based nanocomposites (filled with nano-SiOB2B) were formed in situ by a
special sol-gel technique supplied by nanoresins AG. Excellent nanoparticle
dispersion was achieved even at rather high particle loading. The almost
homogeneously distributed nanoparticles can improve the elastic modulus and
fracture toughness (characterized by KBICB and GBICB) simultaneously. According to
dynamic mechanical and thermal analysis (DMTA), the nanosilica particles in epoxy
resins possessed considerable "effective volume fraction" in comparison with their
actual volume fraction, due to the presence of the interphase. Moreover, AFM and
high-resolution SEM observations also suggested that the nanosilica particles were
coated with a polymer layer and therefore a core-shell structure of particle-matrix was
expected. Furthermore, based on SEM fractography, several toughening
mechanisms were considered to be responsible for the improvement in toughness,
which included crack deflection, crack pinning/bowing and plastic deformation of
matrix induced by nanoparticles.
The PA66 or iPP-based nanocomposites were fabricated by a conventional meltextrusion
technique. Here, the nanofiller content was set constant as 1 vol.%. Relatively good particle dispersion was found, though some small aggregates still
existed. The elastic modulus of both PA66 and iPP was moderately improved after
incorporation of the nanofillers. The fracture behaviours of these materials were
characterized by an essential work fracture (EWF) approach. In the case of PA66
system, the EWF experiments were carried out over a broad temperature range
(23~120 °C). It was found that the EWF parameters exhibited high temperature
dependence. At most testing temperatures, a small amount of nanoparticles could
produce obvious toughening effects at the cost of reduction in plastic deformation of
the matrix. In light of SEM fractographs and crack opening tip (COD) analysis, the
crack blunting induced by nanoparticles might be the major source of this toughening.
The fracture behaviours of PP filled with MWNTs were investigated over a broad
temperature range (-196~80 °C) in terms of notched impact resistance. It was found
that MWNTs could enhance the notched impact resistance of PP matrix significantly
once the testing temperature was higher than the glass transition temperature (TBgB) of
neat PP. At the relevant temperature range, the longer the MWNTs, the better was
the impact resistance. SEM observation revealed three failure modes of nanotubes:
nanotube bridging, debonding/pullout and fracture. All of them would contribute to
impact toughness to a degree. Moreover, the nanotube fracture was considered as
the major failure mode. In addition, the smaller spherulites induced by the nanotubes
would also benefit toughness.
Nowadays, accounting, charging and billing users' network resource consumption are commonly used for the purpose of facilitating reasonable network usage, controlling congestion, allocating cost, gaining revenue, etc. In traditional IP traffic accounting systems, IP addresses are used to identify the corresponding consumers of the network resources. However, there are some situations in which IP addresses cannot be used to identify users uniquely, for example, in multi-user systems. In these cases, network resource consumption can only be ascribed to the owners of these hosts instead of corresponding real users who have consumed the network resources. Therefore, accurate accountability in these systems is practically impossible. This is a flaw of the traditional IP address based IP traffic accounting technique. This dissertation proposes a user based IP traffic accounting model which can facilitate collecting network resource usage information on the basis of users. With user based IP traffic accounting, IP traffic can be distinguished not only by IP addresses but also by users. In this dissertation, three different schemes, which can achieve the user based IP traffic accounting mechanism, are discussed in detail. The inband scheme utilizes the IP header to convey the user information of the corresponding IP packet. The Accounting Agent residing in the measured host intercepts IP packets passing through it. Then it identifies the users of these IP packets and inserts user information into the IP packets. With this mechanism, a meter located in a key position of the network can intercept the IP packets tagged with user information, extract not only statistic information, but also IP addresses and user information from the IP packets to generate accounting records with user information. The out-of-band scheme is a contrast scheme to the in-band scheme. It also uses an Accounting Agent to intercept IP packets and identify the users of IP traffic. However, the user information is transferred through a separated channel, which is different from the corresponding IP packets' transmission. The Multi-IP scheme provides a different solution for identifying users of IP traffic. It assigns each user in a measured host a unique IP address. Through that, an IP address can be used to identify a user uniquely without ambiguity. This way, traditional IP address based accounting techniques can be applied to achieve the goal of user based IP traffic accounting. In this dissertation, a user based IP traffic accounting prototype system developed according to the out-of-band scheme is also introduced. The application of user based IP traffic accounting model in the distributed computing environment is also discussed.
In this work, we analyze two important and simple models of short rates, namely Vasicek and CIR models. The models are described and then the sensitivity of the models with respect to changes in the parameters are studied. Finally, we give the results for the estimation of the model parameters by using two different ways.
Die vorliegende Arbeit beschreibt die Synthese neuartiger, substituierter N,N,N-tridentater Liganden auf der Basis der Stammverbindungen 2,6-Di(pyrazol-3-yl)pyridin und 2,6-Di(pyrimidin-4-yl)pyridin. Die katalytische Aktivität von Dichloroeisen- und Dichlorocobaltkomplexen dieser Liganden in der Olefinpolymerisation wurde getestet. Einen weiteren Schwerpunkt stellte die Synthese von Rutheniumkomplexen auf der Basis dieser neuartigen Liganden und deren Anwendbarkeit in homogen katalysierten Oxidations- und Epoxidationsreaktionen sowie der Hydrovinylierungsreaktion dar. Die Möglichkeit den Liganden 2,6-Di(pyrazol-3-yl)pyridin leicht chemisch modifizieren zu können, wurde genutzt, um Eigenschaften (z. B. die Löslichkeit in organischen Lösungsmitteln) des Liganden und der sich ableitenden Komplexe zu beeinflussen. Zur regioselektiven N-Funktionalisierung der Pyrazolringe wurden nucleophile Substitutionsreaktionen genutzt. Dieser einfache Zugangsweg zu substituierten 2,6-Di(pyrazol-3-yl)pyridinen wurde ebenso dazu verwendet, um funktionelle Gruppen, die eine Substraterkennung über Wasserstoffbrückenbindungen und eine Komplexierung von Lewis-Säuren ermöglichen sollte, in die Peripherie dieser Liganden anzubinden.
Die vorliegende Arbeit hat zum Ziel, Methoden zur Beschreibung der Quellung von (nichtionischen und ionischen) Hydrogelen in wässrigen Lösungen zu entwickeln und zu erproben. Die Modelle setzen sich aus einem Beitrag, der die Gibbssche Energie von Flüssigkeiten beschreibt und aus einem Beitrag für die Helmholtz-Energie des Netzwerks zusammen. Die Beschreibung der elastischen Eigenschaften des Netzwerks beruht auf der Phantom-Netzwerk-Theorie. Die Gibbssche Exzessenergie der Flüssigkeiten wurde mit verschiedenen Modellen, abhängig vom Typ der untersuchten Systeme (wässrig/salzhaltige Lösung oder wässrig/organische Lösung), beschrieben. Bei der Modellierung wurden der Einfluss der Zusammensetzung des Netzwerks (z.B. Konzentration von Vernetzer und/bzw. von ionischem Komonomeren) und der Einfluss der Zugabe von weiteren Komponenten in der das Gel umgebenden wässrigen Lösung auf den Quellungsgrad behandelt. Als weitere Komponenten wurden einerseits anorganische Salze (Natriumchlorid,Dinatriumhydrogenphosphat) und andererseits organische Lösungsmittel (Ethanol, Aceton, Essigsäure, 1-Butanol,Methylisobutylketon) behandelt. Zur Modellierung des Quellverhaltens von nichtionischen IPAAm-Gelen in NaCl bzw. Na2HPO4-haltigen Lösungen wurde das VERS-Modell in Kombination mit der Phanom-Netzwerk-Theorie verwendet. Bei der Erweiterung dieser Modelle auf ionische Gele wurde eine gute Beschreibung nur dann erzielt, wenn sowohl das Dissoziationsgleichgewicht des ionischen Komonomeren Natriummethacrylat als auch eine Korrektur im Phantom-Netzwerk-Modell berücksichtigt wurden. Wenn beide Korrekturen allein aus wenigen experimentellen Daten für die Quellung ionischer Gele in wässrigen Lösungen von NaCl bestimmt wurden, gelingen nicht nur eine gute Korrelation für den Quellungsgrad, sondern auch zuverlässige Vorhersagen (sowohl Erweiterung auf andere (IPAAm/NaMA)Gele als auch bei Verwendung von Na2HPO4 anstelle von NaCl). Die Modellierung der Einflüsse der untersuchten Salze (NaCl bzw. Na2HPO4) auf das Quellverhalten sowohl nichtionischer VP-Gele als auch ionischer (VP/NaMA)Gele erfolgt auch in Kombination des VERS-Modells mit der Phanom-Netzwerk-Theorie. Die vorgeschlagene Methode liefert sowohl für nichtionische VP-Gele als auch für ionische (VP/NaMA)Gele in wässrigen salzhaltigen Lösungen eine gute Übereinstimmung zwischen Experiment und Rechnung. Die Quellungsgleichgewichte nichtionischer IPAAm-Gele in Mischungen aus Wasser und einem organischen Lösungsmittel (Ethanol, Aceton, Essigsäure, Butanol, Methylisobutylketon) lassen sich mit Hilfe der Kombination aus dem UNIQUAC-Modell und einem Free-Volume-Beitrag mit der Phantom-Netwerk-Theorie beschreiben. Bei der Erweiterung des Modells auf ionische (IPAAm/NaMA)Gele wurde der Einfluss der Konzentration des organischen Lösungsmittels auf die Dissoziationskonstante von Natriummethacrylat berücksichtigt. Ähnlich zur Modellierung der Quellung im System (IPAAm/NaMA)Gel-Wasser-Salz wurden die Abweichungen von der Phantom-Netzwerk-Theorie mit Hilfe eines empirischen Faktors betrachtet. Mit diesen Modellvorstellungen gelingt sowohl eine gute Korrelation als auch zuverlässige Vorhersage des Quellungsgrades von ionischen Gelen in wässrig/organischen Lösungen. Bei den theoretischen Studien zur Quellung von Gelen auf Basis von Vinylpyrrolidon in wässrig/organischen Lösungsmittelgemischen erwies sich, dass eine Kombination aus dem UNIQUAC-Modell (jedoch ohne kombinatorischen Beitrag) und der Phantom-Netzwerk-Theorie die besten Ergebnisse bei der Beschreibung des Quellverhaltens der nichtionischen VP-Gele liefert. Bei der Erweiterung des Modells auf ionische (VP/NaMA)Gele wurde eine Abhängigkeit des Dissoziationsgrades von Natriummethacrylat von der Ethanol-, bzw. der Acetonkonzentration berücksichtigt.
The broad engineering applications of polymers and composites have become the
state of the art due to their numerous advantages over metals and alloys, such as
lightweight, easy processing and manufacturing, as well as acceptable mechanical
properties. However, a general deficiency of thermoplastics is their relatively poor
creep resistance, impairing service durability and safety, which is a significant barrier
to further their potential applications. In recent years, polymer nanocomposites have
been increasingly focused as a novel field in materials science. There are still many
scientific questions concerning these materials leading to the optimal property
combinations. The major task of the current work is to study the improved creep
resistance of thermoplastics filled with various nanoparticles and multi-walled carbon
nanotubes.
A systematic study of three different nanocomposite systems by means of
experimental observation and modeling and prediction was carried out. In the first
part, a nanoparticle/PA system was prepared to undergo creep tests under different
stress levels (20, 30, 40 MPa) at various temperatures (23, 50, 80 °C). The aim was
to understand the effect of different nanoparticles on creep performance. 1 vol. % of
300 nm and 21 nm TiO2 nanoparticles and nanoclay was considered. Surface
modified 21 nm TiO2 particles were also investigated. Static tensile tests were
conducted at those temperatures accordingly. It was found that creep resistance was
significantly enhanced to different degrees by the nanoparticles, without sacrificing
static tensile properties. Creep was characterized by isochronous stress-strain curves,
creep rate, and creep compliance under different temperatures and stress levels.
Orientational hardening, as well as thermally and stress activated processes were
briefly introduced to further understanding of the creep mechanisms of these
nanocomposites. The second material system was PP filled with 1 vol. % 300 nm and 21 nm TiO2
nanoparticles, which was used to obtain more information about the effect of particle
size on creep behavior based on another matrix material with much lower Tg. It was
found especially that small nanoparticles could significantly improve creep resistance.
Additionally, creep lifetime under high stress levels was noticeably extended by
smaller nanoparticles. The improvement in creep resistance was attributed to a very
dense network formed by the small particles that effectively restricted the mobility of
polymer chains. Changes in the spherulite morphology and crystallinity in specimens
before and after creep tests confirmed this explanation.
In the third material system, the objective was to explore the creep behavior of PP
reinforced with multi-walled carbon nanotubes. Short and long aspect ratio nanotubes
with 1 vol. % were used. It was found that nanotubes markedly improved the creep
resistance of the matrix, with reduced creep deformation and rate. In addition, the
creep lifetime of the composites was dramatically extended by 1,000 % at elevated
temperatures. This enhancement contributed to efficient load transfer between
carbon nanotubes and surrounding polymer chains.
Finally, a modeling analysis and prediction of long-term creep behaviors presented a
comprehensive understanding of creep in the materials studied here. Both the
Burgers model and Findley power law were applied to satisfactorily simulate the
experimental data. The parameter analysis based on Burgers model provided an
explanation of structure-to-property relationships. Due to their intrinsic difference, the
power law was more capable of predicting long-term behaviors than Burgers model.
The time-temperature-stress superposition principle was adopted to predict long-term
creep performance based on the short-term experimental data, to make it possible to
forecast the future performance of materials.
Ziel der vorliegenden Arbeit war es, durch Lagerung hervorgerufene unerwünschte Alterungsphänomene in Fruchtsäften und Konzentraten aus anthocyanhaltigen Früchten aufzuklären und zu minimieren. Ein wesentlicher Schwerpunkt lag dabei in der Betrachtung der Veränderung der komplexen Stoffgruppe der Polyphenole, die aufgrund ihrer Vielzahl an gesundheitlich positiven Wirkungen in jüngster Zeit immer mehr in den Focus einer gesunden Ernährung gerückt sind. Buntsäfte und Buntsaftkonzentrate aus roter Traube (Vitis Vinifera, nur Saft), schwarzer Johannisbeere (Ribes nigrum L.), und Aronia (Aronia melanocarpa) wurden hergestellt und anschließend über einen Zeitraum von zwölf Monaten bei 4 °C, 20 °C und 37 °C unter Lichtausschluss gelagert. Bei allen Buntsäften und Buntsaftkonzentraten wirkt sich die Zunahme von Lagertemperatur und Lagerdauer negativ aus. Die Intensität der Auswirkung differierte stark zwischen den untersuchten Parametern: Die Gesamtphenolgehalte (Folin-Ciocalteu) sowie die damit häufig korrelierende antioxidative Kapazität (TEAC) unterlagen in allen Säften und Konzentraten bei 4 °C und 20 °C über einen Zeitraum von 12 Monaten nur geringen Schwankungen. Möglicherweise entstehen während der Lagerung neue Pigmente wie polymere oder kondensierte Polyphenole, die ebenfalls eine hohe antioxidative Kapazität besitzen. Die originäre Farbe (CIELAB, Sensorik) blieb bei sehr stark gefärbten Proben (z.B. schwarze Johannisbeere) länger erhalten als bei nur schwach gefärbten Proben (z.B. Rebsorte cv. Spätburgunder), die zu einer wesentlich schnelleren Bräunung auch bei niedrigeren Lagertemperaturen neigten. Die Phenolprofile (HPLC) sind frucht- und sortenabhängig, die Phenolgehalte (HPLC) sind frucht-, sorten- und jahrgangsabhängig. Die höchsten Gehalte an farblosen Phenolen wurden im Rahmen dieser Arbeit für Aroniasaft und –konzentrat (1000 mg/L) gemessen. Während der Lagerung blieben die Werte für 4 °C in fast allen Proben relativ stabil, wohingegen für 20 °C bereits deutliche Abnahmen, insbesondere der Phenolcarbonsäuren und Flavan-3-ole, gemessen wurden. Die temperaturabhängige Abnahme von Flavan-3-olen in rotem Traubensaft cv. Spätburgunder steht wahrscheinlich im Zusammenhang mit der Bildung von Anthocyan-Tannin-Addukten, diese konnten als solche nach Größenausschlusschromatographie und anschließender LC-MS-Analytik identifiziert werden. Die Anthocyangehalte der originären Anthocyane (berechnet als Cya-3-glc bzw. Mal-3-glc, HPLC) nahmen in Abhängigkeit von der Lagertemperatur und der Lagerdauer in allen untersuchten Proben deutlich ab. Der Vergleich der aus den kinetischen Berechnungen auf der Basis der HPLC-Daten hervor gehenden Halbwertszeiten der Anthocyane verdeutlicht die unterschiedlichen Stabilitäten in den Säften. Generell ging eine hohe Ausgangskonzentration an Anthocyanen auch mit einer höheren Halbwertszeit und damit einer höheren Stabilität einher. Mit der Anthocyankonzentration (HPLC) korreliert der Monomerindex (pH-Shift-Methode), der auch als Marker zur Beschreibung der Alterung von Anthocyanen geeignet ist. Ein weiterer Schwerpunkt lag bei der Erhaltung der Farbe auf dem Zusatz von farblosen Phenolen, die durch sogenannte Copigmentierungsreaktionen Anthocyane stabilisieren. Während sich einige farblose Phenole (Kaffeesäure, Coumarsäure, Chlorogensäure) in Modellversuchen farbstabilisierend auf das Anthocyan Cyanidin-3-glucosid auswirkten, haben sich die verhältnismäßig geringen Konzentrationen in rotem Traubensaft nicht positiv bemerkbar gemacht. Die erst durch sehr hohe Dosen an Copigmenten eintretende Farbstabilisierung ist für die Praxis nicht realistisch und finanziell nicht umsetzbar. Ein stark farbdestabilisierender Effekt sowie eine deutliche Verstärkung der Bräunung sowohl in den Modelllösungen als auch in Realmedien wurden beim Zusatz von Ascorbinsäure beobachtet. Basierend auf den Ergebnissen aller Lagerstudien können klare Empfehlungen für die Eindämmung von Alterungsprozessen ausgesprochen werden: 1. Sehr gute Qualität der Rohware (reich insbesondere an Anthocyanen) 2. Vermeidung von Prozessschritten und Behandlungsmaßnahmen während der Verarbeitung, die eine starke Abnahme des Anthocyangehaltes verursachen (z.B. durch kurze Erhitzungsprozesse, Ausschluss von Sauerstoff, möglichst niedrige Verarbeitungstemperaturen, Inaktivierung von Polyphenoloxidasen) 3. Dauerhaft niedrige Lagertemperaturen (ca. 4 °C) 4. Lichtausschluss während der Lagerung 5. Möglichst kurze Lagerdauer, entsprechend des jeweiligen Produktes 6. Kein Zusatz von farblosen Phenolen als Copigmente sowie Ascorbinsäure, evtl. Verschnitt mit sehr farbintensiven Buntsäften 7. Lagerung als Direktsaft Für die Praxis können unter Berücksichtigung dieser Aspekte Grundlagen geschaffen werden, die Qualität von Buntsäften zu erhalten und im Hinblick der aktuellen functional food Diskussion einen Beitrag zu einem gesundheitsbewussten Lebenstil mit natürlichen Lebensmitteln zu leisten.
Retentionsbodenfilter (RBF) werden in den letzten Jahren zunehmend zur weitergehenden Mischwasserbehandlung eingesetzt. Insbesondere bei empfindlichen Gewässern haben sich Retentionsbodenfilter als eine wertvolle Maßnahme zur Erfüllung der immissionsorientierten Anforderungen erwiesen, die sich vermehrt aus neuen europäischen Regelungen (EU WRRL, 2000) ergeben. Der überwiegend hohe Wirkungsgrad von RBF hinsichtlich der Elimi-nation von C-Verbindungen (CSB) und Ammonium (NH4) wurde mittlerweile an verschiede-nen Anlagen nachgewiesen. Es bestehen weiterhin Unsicherheiten hinsichtlich des Einflus-ses unterschiedlicher Beschickungs- und Betriebssituationen auf die Reinigungsleistung von Bodenfiltern. Die vorliegende Arbeit soll einen Beitrag zur Verbesserung des Kenntnisstan-des zur Belastbarkeit von RBF liefern. Im Vordergrund steht die Ermittlung des maximalen Frachtrückhaltes hinsichtlich organischen Kohlenstoffverbindungen und Stickstoffverbindun-gen unter hohen hydraulischen und stofflichen Belastungen. Die Untersuchungen wurden im Labormaßstab an Säulenmodellen mit zwei unterschiedli-chen Filtersubstraten durchgeführt. Durch die gezielte Variierung der Beschickungsmengen und Filtergeschwindigkeit wurde ein breites Spektrum unterschiedlicher Belastungszustände untersucht. Ferner wurden Sauerstoff- und Redoxpotential im Säulenablauf sowie im Filter-körper gemessen. In Anschluss an die Versuchsreihen wurden die Säulen abgebaut und ergänzende bodenkundliche und mikrobiologische Untersuchungen durchgeführt. Die Ergebnisse einer ergänzenden Volumenbilanz zeigen, dass selbst in einem überstauten Filterkörper nicht alle Poren im mit Wasser gefüllt sind. Der in der eingeschlossenen Boden-luft enthaltene Sauerstoff trägt zur Wiederbelüftung des infiltrierenden Beschickungswassers bei. Die mikrobiell bedingten Unterschiede des O2-Verbrauchs im vertikalen Filterprofil haben zur Folge, dass in einem Filterkörper gleichzeitig aerobe, anoxische und anaerobe Zonen existieren können. Der Rückhalt von Ammonium hat sich als signifikant abhängig von der Filtrationsgeschwin-digkeit und der substratspezifischen Sorptionskapazität erwiesen. Die Gesamtbetrachtung der Stickstoffkomponenten und insbesondere NO3-Konzentrationsganglinien in Säulenablauf führt im Zusammenhang mit der Sauerstoffverfügbarkeit im Filterkörper zur Folgerung, dass NH4-Rückhalt nicht wie bisher als streng zweistufiger Prozess mit Teilschritten Sorption (in der Betriebsphase) und Nitrifikation (in der Trockenphase) angesehen werden kann. Die Er-gebnisse der Arbeit zeigen erstmals, dass unter bestimmten Bedingungen die Nitrifikation schon während der Betriebsphase stattfindet. Die Analyse des Sauerstoffverbrauchs in den Filterkörpern der untersuchten Säulen in Ver-bindung mit der CSB-Reinigungsleistung belegt, dass während der Betriebsphase auch für die CSB-Verbindungen ein unmittelbarer Abbau stattfindet. Unter aeroben Verhältnissen ist die Reinigungsleistung in allen untersuchten Säulen – unabhängig von Substrat und Filter-geschwindigkeit - weitgehend stabil.
On the Complexity of the Uncapacitated Single Allocation p-Hub Median Problem with Equal Weights
(2007)
The Super-Peer Selection Problem is an optimization problem in network topology construction. It may be cast as a special case of a Hub Location Problem, more exactly an Uncapacitated Single Allocation p-Hub Median Problem with equal weights. We show that this problem is still NP-hard by reduction from Max Clique.
This report reviews selected image binarization and segmentation methods that have been proposed and which are suitable for the processing of volume images. The focus is on thresholding, region growing, and shape–based methods. Rather than trying to give a complete overview of the field, we review the original ideas and concepts of selected methods, because we believe this information to be important for judging when and under what circumstances a segmentation algorithm can be expected to work properly.
Aufgrund ihrer Besonderheiten und Merkmalen ist die Innenstadt als wichtigster Stadtteil einer Stadt zu charakterisieren. Aufgrund der Zerstörungen durch den Zweiten Weltkrieg und den anschließenden Entwicklungen hat die Innenstadt an urbaner Qualität eingebüßt. Dies ist unter anderem darin begründet, dass eine Verdrängung der Wohnfunktion aus der Innenstadt an den Stadtrand oder ins Umland stattfindet. Die Stärkung der Wohnfunktion ist eine Grundvoraussetzung zur Wiedergewinnung urbaner Qualitäten und zur nachhaltigen Revitalisierung und Stabilisierung der Innenstadt. Das Wohnen an sich ist ein multidimensionales Phänomen mit vielfältigen Wirkungsgefügen und Verflechtungen. Zur Ableitung von Konzepten und Handlungsmaßnahmen sind die Wohnbedürfnisse der Bevölkerung durch verschiedene Klassifizierungen zu erheben und mit den so genannten Megatrends -allen voran der demografischen Entwicklung- und den spezifischen Kommunalsituationen zu überlagern. An diesem Prozess ist mit steigender Tendenz eine Vielzahl von öffentlichen und privaten Akteuren beteiligt. Gängige Darstellungsmethoden der Stadtplanung sind nur bedingt geeignet, die komplexen Wirkungsgefüge sowie die Ein- auf und Auswirkungen von Vorhaben als Informationen transparent und nachvollziehbar abzubilden. Der Einsatz von Mixed Reality-Techniken und von immersiven Szenarien zur Unterstützung von Entscheidungssituationen in stadtplanerischen Aufgabenfeldern ist als qualifizierend für diese einzustufen. Durch Mixed Reality-Techniken, die reale Gegebenheiten und virtuelle Objekte gleichzeitig überlagert abbilden, ist es im Sinne einer Ergebnisvisualisierung möglich, sowohl Handlungsbedarfe in der Bestandssituation zu identifizieren als auch die visuellen Ein- und Auswirkungen von Vorhaben originalmaßstäblich und dreidimensional zu simulieren. Darüber hinaus können auch originär nicht visuell wahrnehmbare Informationen visuell abgebildet werden. Neben den technischen Ausstattungen ist hierfür ein virtueller, generischer Datenschatten notwendig, der ein digitales Abbild der Realität und der geplanten Vorhaben darstellt. Der bislang theoretische Ansatz der immersiven Szenarien ist der nächste Schritt im Bereich der computergestützten Daten- und Informationsvisualisierung beziehungsweise -darstellung. Über die Ergebnisvisualisierung hinaus sind immersionserzeugende Systeme in der Lage, einen Benutzer in eine Situationsdarstellung zu versetzen, in der er nicht mehr zwischen realen und virtuellen Objekten unterscheiden kann. Zugleich bedeutet dies, dass er mit allen virtuellen Objekten intuitiv interagieren kann. Der Benutzer wird dadurch Teil des Szenarios. Seine Aktionen wirken sich wahrnehmbar rekursiv auf das Szenario aus. Sowohl Mixed Reality-Techniken als auch immersive Szenarien können für Entscheidungssituationen im Bereich des thematisierten Wirkungsgefüge ‚innerstädtisches Wohnen’ die Entscheidungsgrundlagen auf den Betrachtungsebenen Wohnstandort, Wohnanlage und Wohnung für alle beteiligten Akteure qualifizieren. Sie sind geeignet, um Handlungserfordernisse transparent und nachvollziehbar abzubilden sowie die visuell wahrnehmbaren und originär nicht visuell wahrnehmbaren Konsequenzen von Wohnbauvorhaben abzuschätzen. Anhand des innerstädtischen Projektes „Glockencarré Kaiserslautern“ wurden hierzu die Möglichkeiten der Augmented Reality-Technik (als eine Ausprägung der Mixed Reality-Techniken) aufgezeigt und die Einsatzmöglichkeiten für unterschiedliche Akteursgruppen charakterisiert.
A fully automatic procedure is proposed to rapidly compute the permeability of porous materials from their binarized microstructure. The discretization is a simplified version of Peskin’s Immersed Boundary Method, where the forces are applied at the no-slip grid points. As needed for the computation of permeability, steady flows at zero Reynolds number are considered. Short run-times are achieved by eliminating the pressure and velocity variables using an Fast Fourier Transform-based and 4 Poisson problembased fast inversion approach on rectangular parallelepipeds with periodic boundary conditions. In reference to calling it a fast method using fictitious or artificial forces, the implementation is called FFF-Stokes. Large scale computations on 3d images are quickly and automatically performed to estimate the permeability of some sample materials. A matlab implementation is provided to allow readers to experience the automation and speed of the method for realistic three-dimensional models.
Durchlaufende Verbundträger können mit dem Fließgelenkverfahren berechnet werden. Bei dieser Methode werden die plastischen Querschnitts- und Systemreserven ausgenutzt. Bisher war bei der Anwendung der Fließgelenktheorie die Betrachtung von großen Öffnungen im Steg nicht geklärt. Im Rahmen der vorliegenden Arbeit wurden durchlaufende Verbundträger mit Öffnungen experimentell und numerisch untersucht. Mit den ermittelten Ergebnissen wurden zwei Bemessungsmodelle entwickelt, mit denen solche Verbundträger bemessen werden können. Bei dem ersten Bemessungsmodell handelt es sich um ein elastisch-plastisches Nachweisverfahren. Das Verfahren beruht auf einer elastischen Schnittgroßenermittlung, bei dem die Querschnitte plastisch nachgewiesen werden. Nach dem zweiten Nachweisverfahren werden die Durchlaufträger nach der Fließgelenktheorie plastisch-plastisch berechnet. Über die plastischen Tragfähigkeiten der Querschnitte werden die plastischen Systemreserven rechnerisch ausgenutzt. Dazu werden die möglichen kinematischen Ketten des Systems zusammengestellt und die jeweiligen Traglasten ermittelt.
Induktionsschweißen kann sowohl für das Schweißen von thermoplastischen Faser-
Kunststoff-Verbunden als auch für das Verbinden von Metall/Faser-Kunststoff-
Verbunden eingesetzt werden. Nach Betrachtung der Möglichkeiten einer solchen
Verbindung wurde festgestellt, dass die Verbindungsqualität durch die
Oberflächenvorbehandlung des metallischen und des polymeren Fügepartners und
durch die Prozessbedingungen bestimmt wird.
Verschiedene neue Werkzeuge (z.B. spezielle Probenhalterungen, temperierbarer
Anpressstempel, Erwärmungs- und Konsolidierungsrolle) wurden entwickelt und in
die Induktionsschweißanlage zur Herstellung von Metall/Faser-Kunststoff-Verbunden
integriert. Topografische Analysen mittels Rasterelektronenmikroskopie und
Laserprofilometrie zeigen einen großen Einfluss der Vorbehandlungsmethoden auf
die Oberflächenrauhigkeit. Zusätzlich ändert die Vorbehandlung die physikalischen
(Oberflächenenergie) und die chemischen Eigenschaften (Atomkonzentration). Die
Eigenschaften der Verbindungen wurden zuerst anhand von Zugscherprüfungen und
parallel durch Oberflächenanalysen untersucht. Die Ergebnisse dieser
Untersuchungen zeigen:
• Die Vorbehandlungsmethoden Korundstrahlen und Sauerbeizen führen bei
dem metallischen Fügepartner zu den höchsten Verbundfestigkeiten. Die
Atmosphären-Plasmareinigung des polymeren Fügepartners ergibt eine
Zunahme der Zugscherfestigkeit von ca. 10 % sowie auch eine Verkleinerung
des Vertrauensbereiches.
• Die Zugscherfestigkeit hängt vom Prozessdruck und damit vom Fließverhalten
des Polymers in der Fügezone ab.
• Die Orientierung der Prüfkraft relativ zur Faserorientierung hat keinen Einfluss
auf die Zugscherfestigkeit der eingesetzten faserverstärkten Materialien.
• Die Leinwand-Bindung, mit mehr polymerreichen Zonen, führt zu einem
geringen Anstieg der Zugscherfestigkeit im Vergleich zu einer Atlas 1/4-
Bindung. Die Gelege-Struktur ergibt durch Faserverschiebungen ähnliche
Festigkeiten wie die Leinwand-Bindung. Es zeigt sich, dass die
Verbundfestigkeit durch das Polymer bestimmt wird. • Die Zugscherfestigkeit gewinnt einen großen Anstieg durch eine zusätzliche
Polymerfolie in der Fügezone. Die Schliffbilder zeigen eine polymere
Zwischenschichtdicke von 5 bis 20 μm für AlMg3-CF/PA66.
• Durch den gezielten Einsatz verschiedener Vorbehandlungsmethoden
(Korundstrahlen mit zusätzlichem Polymer) kann die Zugscherfestigkeit auf bis
zu 14 MPa für AlMg3-CF/PA66-Verbunde und 18 MPa für DC01-CF/PEEKVerbunde
gegenüber dem unbehandelten Zustand verdoppelt werden. Weitere Untersuchungen an den Prozessparametern ergaben für DC01-CF/PEEKVerbunde,
dass folgende Einstellungen zu einer weiteren Steigerung der
Zugscherfestigkeit auf 19 MPa führen:
• Eine Starttemperatur des Anpresstempels von 370 °C.
• Eine Haltezeit von 7 Minuten.
• Eine Abkühlrate von 6 °C/min.
Für AlMg3-CF/PA66 zeigte sich, dass eine Anpresstemperatur von 10 °C zu einer
Zugscherfestigkeit von 14,5 MPa führt. Diese beiden Zugscherfestigkeiten sind
lediglich 10 – 15 % geringer als die unter optimalen Bedingungen hergestellten
Klebeverbindungen.
Erste Untersuchungen zeigen, dass bei galvanischer Korrosion von Metall/FKVVerbunden
eine schnelle Abnahme der Zugscherfestigkeit erfolgt. Hierfür wurden die
Proben drei Wochen in Wasser gelagert. Beim direkten Kontakt zwischen
Kohlenstofffaser und Aluminium erklärt sich dies durch Korrosion in der Fügezone.
Dabei sinken die Zugscherfestigkeiten der Proben bis auf 5 MPa. Bei Proben mit
einer Glasfaserlage als Isolationsschicht zeigen sich keine Korrosionsprodukte und
die Zugscherfestigkeit nimmt um 30 % bis auf 8 – 9 MPa ab.
Bei in Salzwasser gelagerten Proben ist die galvanische Korrosion deutlich stärker
ausgeprägt. Bereits nach einer Woche besitzen die acetongereinigten Proben mit
zusätzlichem Polymer lediglich eine Restzugscherfestigkeit von 3 bis 4 MPa. Die
korundgestrahlten Proben zeigen Korrosionsprodukte am Rande der Fügezone und
in der Fügezone, weisen aber dennoch eine Zugscherfestigkeit von ca. 10 MPa auf.
Die glasfaserverstärkten Proben zeigen weder Korrosionsprodukte noch eine
Abnahme der Zugscherfestigkeit. Dynamisch thermografische Analysen wurden in verschiedenen Umgebungsgasen
durchgeführt, um die Zersetzungstemperatur des faserverstärkten Polymers zu
bestimmen. Im Falle von CF/PA66 führte dies nicht zu einer Vergrößerung des
Prozessfensters, da die Zersetzung hauptsächlich thermisch und nicht thermooxidativ
ist. Die festgestellte Zersetzungstemperatur von CF/PEEK in Luft betrug
550 °C. Die Vergrößerung des Prozessfensters ist für CF/PA66 gering und zeigte
auch keinen Anstieg in der Zugscherfestigkeit nach dem Schweißen in Stickstoff.
Trotzdem hat das Induktionsschweißen unter Schutzgas ein großes Potential für
gesättigte Kohlenwasserstoffe wie z.B. glasfaserverstärktes Polypropylen. Hier wurde
die Zersetzungstemperatur von 230 °C in Luft auf 390 °C in Stickstoff erhöht.
Es wurde ein Demonstrator bestehend aus einem Aluminium-Profil und einer
CF/PA66-Platte hergestellt, womit gezeigt werden konnte, dass die erworbenen
Kenntnisse auch für die industrielle Anwendung umsetzbar sind. Mittels analytischer
Modelle und FE-Berechnungen wurde die induktive Erwärmung erfolgreich
nachgebildet.
Gegenstand der vorliegenden Arbeit waren Untersuchungen zum Hochdruck-Mehrphasengleichgewicht ternärer Systeme bestehend aus einem nahekritischen Gas, Wasser und einem bei Umgebungsbedingungen vollständig wasserlöslichen organischen Lösungsmittel. Das Aufpressen eines Gases nahe seiner kritischen Temperatur (nahekritisches Gas) auf eine einphasige wässrige Lösung kann – wie die Zugabe eines Salzes – zur Entmischung der Flüssigkeit in eine wasserreiche (hydrophile) sowie eine an organischem Lösungsmittel reiche (lipophile bzw. hydrophobe) Phase führen. Elgin und Weinstock (1959) nannten dieses Phänomen bezeichnenderweise „salting out with a supercritical gas“. In der vorliegenden Arbeit wurde dieser Vorschlag aufgegriffen und umgesetzt. Der Schwerpunkt lag auf der Untersuchung des Einflusses ionischer Komponenten, z. B. von Puffersystemen bzw. anorganischer Salze, sowohl auf das Phasengleichgewicht des ternären phasenbildenden Systems als auch auf die Verteilung überwiegend dissoziierbarer Naturstoffe auf die koexistierenden Hochdruck-Flüssigphasen. Die Experimente wurden mit einer in früheren Arbeiten (Wendland 1994, Adrian 1997, Freitag 2003) entwickelten Phasengleichgewichtsapparatur durchgeführt. Die beiden untersuchten ternären phasenbildenden Systeme waren das System Ethen + Wasser + Aceton und das System Ethan + Wasser + Aceton. Für beide Systeme wurde die Zusammensetzung der koexistierenden flüssigen Phasen L1 und L2 des Dreiphasengleichgewichts L1L2V über den gesamten Existenzbereich bei Temperaturen von 293, 313 und 333 K bestimmt. Ausserdem wurde der Verlauf beider kritischer Endpunktlinien für die beiden genannten und zusätzlich für die bereits von Freitag (2003) untersuchten Systeme Ethen + Wasser + 1- bzw. 2-Propanol über einen Temperaturbereich zwischen 278 und 353 K vermessen. Den Schwerpunkt der Untersuchungen bildeten Messungen zur Verteilung von Naturstoffen auf die koexistierenden flüssigen Phasen L1 und L2 des Dreiphasengleichgewicht L1L2V im pH-neutralen ternären System Ethen + Wasser + 2-Propanol. Zunächst wurde die Auswirkung der Zugabe von ionischen Komponenten auf die Lage der kritischen Endpunktlinien untersucht. Der erwartete, zusätzliche Aussalzeffekt bestätigte sich. Kernstück waren Verteilungsmessungen der sechs ausgewählten Wirkstoffe L-Histidin, Cimetidin, Aspirin®, 4-Dimethylaminoantipyrin, Sulfameter und Ciprofloxacin bei 293 und 333 K und bei mindestens zwei pH-Werten (insgesamt ca. 300 Messpunkte). Diese Erkenntnisse liefern neue Aspekte hinsichtlich der Entwicklung neuer, dieses spezielle Phasengleichgewichtsverhalten ausnutzende Hochdruckextraktionsverfahren zur Abtrennung organischer Wertstoffe aus wässrigen Lösungen. Gegenstand der theoretischen Untersuchungen war die Modellierung der Phasengleichgewichte der untersuchten ternären, phasenbildenden Systeme Ethen bzw. Ethan + Wasser + Aceton mit dem vorhandenen Programmpaket. Es verwendet die kubische Zustandgleichung von Peng und Robinson in der Modifikation von Melhem et al. (1989). In Anlehnung an die Untersuchungen von Freitag (2003) kamen die beiden Mischungsregeln von Panagiotopoulos und Reid (1986) sowie von Huron und Vidal (1979) zur Anwendung. Zunächst wurden die für den Programmablauf notwendigen binären Wechselwirkungsparameter an Messwerte für das Dampf-Flüssigkeits-Gleichgewicht der binären Randsysteme (aus der Literatur) angepasst. Da das Programm hierbei auf keine eigenen Messdaten, sondern lediglich auf Daten aus der Literatur zurückgreift, kann von einer Vorhersage gesprochen werden. Die Vorhersage der Phasengleichgewichte stimmt aber nur qualitativ mit den Messwerten überein, wobei das Phasenverhalten aber grundsätzlich richtig vorhergesagt wird. Eine zufriedenstellende quantitative Beschreibung der ternären Dreiphasengleichgewichte ist (wie schon von Adrian (1997) und Freitag (2003) gezeigt) nur mit Hilfe einer Korrelation möglich, bei der die binären Wechselwirkungsparameter durch Anpassung an die experimentell ermittelten ternären Phasengleichgewichtsdaten bestimmt werden. Ein Vorschlag für weiterführende Untersuchungen ist die Implementierung chemischer Reaktionen, wie sie bei dissoziierenden Spezies vorkommen, in das Programmpaket. Hiervon kann eine brauchbare Modellierung sowohl der Phasen- als auch der Verteilungsgleichgewichte gepufferter Systeme erwartet werden. Des weiteren bleibt die Notwendigkeit bestehen, für die entsprechenden binären Randsysteme möglichst zahlreiche und vor allem genaue Daten für einen grossen Temperatur- und Druckbereich zur Verfügung zu haben, um die Modellierung zu verbessern.
Die Bestimmung der Filtrierbarkeit von Suspensionen mit einer neuen Auswertemethode auf der Grundlage bekannter und erprobter Auswerteverfahren ergibt eindeutige Auswertekriterien insbesondere bei inkompressiblen Feststoffen und newtonschen Flüssigkeiten. Eine verbesserte Messtechnik erfasst den Filtratanfall bei beginnender Sättigung genau und vereinfacht die Zeitnahme. Methode und Technik erhöhen Genauigkeit und Reproduzierbarkeit bei der Bestimmung von Filtermittel- und Filterkuchenwiderstand und schaffen eine präzise Grundlage zur Auslegung von kontinuierlichen Fest-Flüssig-Filtern hoher Durchsatzleistung oder zur Entwicklung widerstandsarmer Filtermittel. Die Messungen zeigen einen hohen Anteil des Filtermittelwiderstandes am Gesamtwiderstand und erlauben die Berechnung eines Richtwertes für den Filtermittelwiderstand. Die industrielle Fest-Flüssig-Trennung wird in der chemischen, pharmazeutischen und Aufbereitungs-Industrie zu einem großen Teil auf kontinuierlich betriebenen Filtern durchgeführt, bei denen die Flüssigkeit vom Feststoff durch Kuchenfiltration sehr vollständig getrennt werden kann. Diese Filter sind durch Filtrationszykluszeiten zwischen 10 und 100 Sekunden charakterisierbar. Bei der Auslegung, Simulation oder Optimierung dieser Filter ist der Prozessingenieur auf genaue Daten zur Filtrierbarkeit der Suspensionen angewiesen. Die Theorie des durchströmten Filterkuchens ist sehr perfektioniert. Weniger Beachtung hatte dagegen der Einfluss des Filtermittels auf den Gesamtwiderstand bei der Filtration gefunden. Dies lag in der Vergangenheit teilweise daran, dass die genaue Bestimmung des Filtermittelwiderstandes RM – die zusammen mit der Bestimmung des Filterkuchenwiderstandes rK erfolgt – schwierig war. In den letzten Jahren wurden Filter für sehr hohe spezifische Durchsätze gebaut, bei denen dieser Wert von erheblichem Einfluss ist. Ziel der Arbeit war es, mehr Wissen und genaue Daten zum Filtermittelwiderstand zu erarbeiten. Es wurden umfangreiche Messungen des Filtermittelwiderstandes mit unterschiedlichen Filtermitteln und verschiedenen Produkten in wässrigen Suspensionen durchgeführt. Zur genauen Bestimmung des Filtermittelwiderstandes wurde ein gegenüber dem Stand der Technik verbesserter Versuchsaufbau mit rechnergestützter Datenerfassung entwickelt. Filtratanfall und Druckverlauf wurden bei den Versuchen festgehalten. Bei der Auswertung der Filterkurven wurden eindeutige Kriterien zur Bestimmung von Anfang und Ende der Filtration eingeführt. Dies erfolgte durch die Kombination von zwei bekannten und erprobten Auswerteverfahren zur Bestimmung der Filtrationseigenschaften. Diese Kombination ergab mit der verbesserten Versuchstechnik neben der Eindeutigkeit auch den Vorteil der exakten Erfassung des Filtratanfalls bei beginnender Sättigung, die ebenfalls zur erhöhten Genauigkeit bei der Bestimmung der Filterwiderstände beitrug. Der Filtermittelwiderstand kann bei kontinuierlich betriebenen Filtern am Ende des Filtrationszyklus 25 % des Gesamtwiderstandes und mehr erreichen. Bei leicht filtrierbaren Feststoffen werden trotz offener Filtergewebe auch höhere Anteile am Gesamtwiderstand gefunden. Der Filtermittelwiderstand ist bei kontinuierlichen Filtern ein wesentlicher Faktor bei der Filterauslegung. Durch Variation der Parameter der Filtergleichung wie Feststoffgehalt, Druck usf. wurden die Einflüsse wichtiger Betriebsparameter auf tendenzielle Änderungen der Widerstände untersucht. Bei diesen Messungen wurde festgestellt, dass der Durchflusswiderstand des Filtermittels bei höheren Durchflussgeschwindigkeiten nicht konstant ist. Die Einführung einer Reynoldszahl, die auf den nominellen Porendurchmesser bezogen ist, erlaubt es Strömungszustände zu definieren, ab denen der Durchflusswiderstand nicht mehr konstant ist. Mit den bekannten Gesetzten der Durchströmung poröser Haufwerke lassen sich Widerstandszahlen, analog zur Rohrreibungszahl, und daraus Druckverluste errechnen. Letztere sind mit den gemessenen Druckverlusten aus der Bestimmung der Filtermittelleerwiderstände gut korreliert. Mechanische Vorgänge bei der Partikelabscheidung an Filtermitteln werden anhand eines Kugel-Loch-Modells diskutiert. Experimentelle Ergebnisse stützen Schlussfolgerungen, die aufgrund dieses Modells gezogen wurden. Dazu wurden Überlegungen möglich, welche einige Tendenzen bei der Variation der Porengrößen bei unterschiedlichen Filtermedien erklären können.
Acrylamid (AA) ist ein Kanzerogen, das beim Braten, Backen und Frittieren stärkehaltiger Le-bensmittel im Wesentlichen aus dem Vorläufer Asparagin in Gegenwart reduzierender Zucker in substantiellen Mengen gebildet wird. AA wird im Organismus metabolisch zu Glycidamid (GA) umgewandelt. Für GA wurden DNA-Addukte insbesondere mit dem N7 des Guanins nachgewiesen. Von besonderem Interesse für die Risikobewertung von AA ist Aufklärung des kanzerogenen Wirkmechanismus sowie des genotoxischen Potentials im Vergleich zu anderen bekannten Kanzerogenen. Ziel der Arbeit war es daher, das genotoxische Potential von AA und seinen Metaboliten GA sowie deren genotoxischen Wirkmechanismus zu charakterisieren. AA wurde im Vergleich zu den alpha, beta-ungesättigten Carbonylverbindungen Acrolein (Ac) und Hexenal (Hex) getestet, GA vergleichend zu aktiven Formen der Kanzerogene Benzo[a]pyren (B[a]P) und N-Nitrosodiethanolamin (NDELA) sowie den N-Nitrosoharnstoffen MNU und HENU und ausgewählten N-Nitroso-oxazolidinonen, einer Gruppe von N-Nitrosaminen, welche möglicherweise endogen im Organismus gebildet und nach Hydrolyse in ihre biologisch aktive Form überführt werden. Humanes Vollblut, isolierte Lymphozyten sowie V79-Säugerzellen wurden als Testsysteme verwendet. Als Endpunkte der Genotoxizität wurde die Induktion und Kinetik der Abnahme von DNA-Strangbrüchen sowie der Einfluss von Glutathion auf die DNA-Strangbruchinduktion im Comet Assay bestimmt. Die Sensitivität und Selektivität des Comet Assays wurde durch zusätzliche Behandlung der DNA mit dem DNA-Reparaturenzym Formamido-pyrimidin-DNA-glykosylase (FPG) gesteigert. FPG erkennt AP Stellen, ring-geöffnete Pyrimidine sowie oxidierte Purine und überführt diese in zusätzliche DNA-Strangbrüche. Das mutagene Potential der Verbindungen nach 5-tägiger Expressionszeit wurde in V79 Zellen mittels hPRT-Genmutations-Assay untersucht. AA erwies sich in allen Testsystemen als nicht genotoxisch. Die im Vergleich getesteten alpha, beta-ungesättigten Carbonylverbindungen Ac und Hex waren ebenfalls in humanem Vollblut nicht genotoxisch, verursachten jedoch in isolierten Lymphozyten in hohen Konzentrationen(> 3000 µM) DNA-Strangbrüche. GA war in allen Testsystemen genotoxisch. Im Comet Assay ohne FPG zeigten sich DNA-Strangbrüche ab 300 µM (1h). Nach zusätzlicher Behandlung der DNA mit FPG wurden bereits ab 10 µM (4h) DNA-Strangbrüche detektiert. DNA-Schäden waren erst ab einer Inkubationszeit von einer Stunde signifikant und erreichten nach 24h ein Maximum. GA induzierte in V79 Zellen zudem erst in 80-fach höheren Konzentrationen hPRT-Mutationen (800 µM) als DNA-Strangbrüche. Zusätzlich zeigte sich, dass die Mutationsrate erst in Konzentrationen signifikant erhöht war, in denen eine Reduktion der DNA-Schäden nicht mehr effektiv erfolgte. Die Genotoxizität von GA beruht vermutlich auf der präferentiellen Bindung an N7-Guanin. Die entstehenden N7-G-Addukte werden entweder spontan zur AP Stelle depuriniert oder zum Formamido-pyrimidin ring-geöffnet. Beide Arten von Folgeprodukten sind FPG-Substrate und werden vermutlich effizient repariert, sodass es erst bei hohen lokalen Konzentrationen (> 800 µM) zu einer signifikanten Ausprägung von Mutationen kommt. Die im Vergleich zu GA getesteten Kanzerogene (±)-BPDE und alpha-Acetoxy-NDELA waren im Comet Assay bei ähnlichen Konzentrationen genotoxisch (10-30 µM; 1h). Im Gegensatz zu GA induzierten beide allerdings hPRT-Mutationen (3-10 µM) im gleichen Konzentrationsbereich wie DNA-Strangbrüche. Ähnliche genotoxische Eigenschaften zeigten auch die im Vergleich zu GA getesteten N-Nitrosoverbindungen. Die Gruppe der N-Nitroso-oxazolidinone wurde erstmals im Hinblick auf Genotoxizität und Mutagenität geprüft. NOZ-2 induzierte in V79 Zellen bereits nach 15’ ab 3 µM maximal DNA-Strangbrüche. HENU induzierte DNA-Strangbrüche ab 100 µM (15’). In beiden Fällen hatte FPG keinen Einfluss auf die DNA-Strangbruchinduktion. Sowohl NOZ-2 als auch HENU sind hydroxyethylierend. Im Gegensatz dazu, waren das carboxymethylierende oder methylierende NOZ-5 und das methylierende MNU im Comet Assay ohne FPG nur gering aktiv (> 300 resp. 1000 µM; 15’), während nach FPG-Behandlung die Aktivität im Comet Assay (NOZ-5: >10µM; MNU: >100µM; 15’) deutlich gesteigert war. Die Kinetik der Abnahme von DNA-Strangbrüchen ist für die Verbindungen unterschiedlich. Während die NOZ-2-induzierten DNA-Läsionen (30µM) persistieren, wurden die durch NOZ-5 und HENU induzierten DNA-Schäden -vergleichbar mit GA- effektiv innerhalb einer 8-stündigen Nachbehandlungszeit reduziert. Für alle untersuchten N-Nitrosoverbindungen waren hPRT-Mutationen im gleichen Konzentrationsbereich wie DNA-Strangbrüche im Comet Assay mit FPG nachweisbar. Die N-Nitrosoverbindungen sind damit insgesamt deutlich potenter mutagen als GA. NOZ-2 und HENU führen vermutlich vergleichbar mit alpha-Acetoxy-NDELA zu einer Hydroxyethylierung der DNA-Phosphodiester. Die resultierenden Phosphotriester sind instabil und werden voraussichtlich schnell in DNA-Strangbrüche gespalten. Des Weiteren ist die Bildung instabiler N7-G- und promutagener O6-G-2-Hydroxyethyl-Addukte zu erwarten. Das potentiell DNA-carboxymethylierende/methylierende NOZ-5 und das DNA-methylierende MNU alkylieren ver-mutlich die gleichen Positionen in der DNA. Allerdings scheinen die gebildeten Methyl- oder Carboxymethyl-Phosphotriester stabil zu sein und werden nicht spontan in Strangbrüche überführt. Die gebildeten N7-G-Addukte sind FPG-Substrate, was sich am FPG-vermittelten Anstieg der DNA-Strangbruchrate zeigt. Dies steht im Gegensatz zu NOZ-2, bei welchem FPG keinen Einfluss auf die DNA-Strangbruchinduktion hatte. Vermutlich ist dies auf die Hydroxyethylierung der Phosphat-Gruppen durch NOZ-2 zurückzuführen, deren spontane DNA-Strangbruch-Induktion den Nachweis von N7-G-Addukten mittels FPG überlagert. Weiterhin zeigte sich, dass trotz vergleichbar hoher hPRT-Mutagenität, NOZ-5-induzierte DNA-Schäden deutlich geringer persistent als entsprechende NOZ-2-Läsionen sind. Das mutagene Potential von NOZ-5 ist daher vermutlich, neben anderen nicht reparierten DNA-Schäden, auf promutagene O6-G-Addukte zurückzuführen, welche in MGMT-defizienten V79 Zellen nicht repariert werden. Orientierend wurde der Einfluss detoxifizierender Makromoleküle auf die Genotoxizität von GA und alpha, beta-ungesättigten Carbonylverbindungen durch Vergleich der Aktivitäten in humanem Vollblut und isolierten Lymphozyten sowie durch Co-Inkubation mit Glutathion (GSH) in V79 Zellen untersucht. Während Ac und Hex in isolierten Lymphozyten deutlich potenter DNA-schädigend als in humanem Vollblut sind, ist GA in beiden Systemen vergleichbar genotoxisch. Offensichtlich wird in humanem Vollblut die Aktivität von GA durch detoxifizierende Blutbestandteile nur unwesentlich beeinflusst. Ein entsprechender Effekt zeigt sich auch bei der Co-Inkubation von V79 Zellen. Während GSH die DNA-schädigende Wirkung von Ac und Hex in V79 Zellen deutlich reduzierte, war für GA kein signifikanter Unterschied zur DNA-Strangbruchrate in ausschließlich GA-behandelten Zellen nachzuweisen. Zusammenfassend konnte mit dieser Arbeit gezeigt werden, dass AA selbst nicht genotoxisch bzw. mutagen ist; Ac und Hex in humanem Vollblut ebenfalls nicht genotoxisch sind, allerdings in isolierten Lymphozyten bei hohen Konzentrationen (> 3000 µM) Genotoxizität induzieren; die genotoxische/ mutagene Wirkung von AA durch GA vermittelt wird; GA im Vergleich zu anderen potenten Kanzerogenen Genotoxizität nur sehr langsam induziert (signifikant nach 1h) und eher schwach mutagen ist; GA-induzierte DNA-Läsionen schnell (innerhalb von 8h) repariert werden;die physiologische Umgebung in Humanblut nur geringen Einfluss auf die biologische Aktivität von GA hat; NOZ-2 vergleichbar mit HENU mit und ohne FPG-Behandlung signifikant DNA-Strangbrüche erzeugt. Vermutlich führt die Hydroxylierung am Phosphat-Rückgrad zu spontanen Strangbrüchen, die den FPG-Effekt überlagern; NOZ-5 (vermutlich methylierend oder carboxymethylierend im Comet Assay) im Gegensatz dazu ohne FPG-Behandlung im Comet Assay nur schwach aktiv ist, während nach FPG-Behandlung offenbar die vermutete Bildung von N7-G-Addukten zum Tragen kommt; NOZ’s in V79-Zellen potente Mutagene sind; dies vermutlich in Folge von O6-Guanin-Addukt-Bildung, welche in MGMT-defizienten V79 Zellen nicht repariert werden; durch Kombination unterschiedlicher Protokolle des Comet-Genotoxizitäts- und hPRT-Mutagenitätstests orientierende Aussagen über den Zusammenhang zwischen DNA-Alkylierung, Detoxifizierung, DNA-Reparatur und der Entstehung von Mutationen gemacht werden können.
Analog sensor electronics requires special care during design in order to increase the quality and precision of the signal, and the life time of the product. Nevertheless, it can experience static deviations due to the manufacturing tolerances, and dynamic deviations due to operating in non-ideal environment. Therefore, the advanced applications such as MEMS technology employs calibration loop to deal with the deviations, but unfortunately, it is considered only in the digital domain, which cannot cope with all the analog deviations such as saturation of the analog signal, etc. On the other hand, rapid-prototyping is essential to decrease the development time, and the cost of the products for small quantities. Recently, evolvable hardware has been developed with the motivation to cope with the mentioned sensor electronic problems. However the industrial specifications and requirements are not considered in the hardware learning loop. Indeed, it minimizes the error between the required output and the real output generated due to given test signal. The aim of this thesis is to synthesize the generic organic-computing sensor electronics and return hardware with predictable behavior for embedded system applications that gains the industrial acceptance; therefore, the hardware topology is constrained to the standard hardware topologies, the hardware standard specifications are included in the optimization, and hierarchical optimization are abstracted from the synthesis tools to evolve first the building blocks, then evolve the abstract level that employs these optimized blocks. On the other hand, measuring some of the industrial specifications needs expensive equipments and some others are time consuming which is not fortunate for embedded system applications. Therefore, the novel approach "mixtrinsic multi-objective optimization" is proposed that simulates/estimates the set of the specifications that is hard to be measured due to the cost or time requirements, while it measures intrinsically the set of the specifications that has high sensitivity to deviations. These approaches succeed to optimize the hardware to meet the industrial specifications with low cost measurement setup which is essential for embedded system applications.
It has been empirically verified that smoother intensity maps can be expected to produce shorter sequences when step-and-shoot collimation is the method of choice. This work studies the length of sequences obtained by the sequencing algorithm by Bortfeld and Boyer using a probabilistic approach. The results of this work build a theoretical foundation for the up to now only empirically validated fact that if smoothness of intensity maps is considered during their calculation, the solutions can be expected to be more easily applied.
Anionenrezeptoren aus Cyclopeptiden mit 6-Aminopicolinsäure- und substituierten Prolinuntereinheiten
(2007)
Ziel dieser Arbeit war es, neue Cyclopeptide auf Basis der in der Arbeitsgruppe um S. Kubik untersuchten Anionenrezeptoren aus L-Prolin- und 6-Aminopicolinsäure zu entwickeln und hinsichtlich ihrer Rezeptor- und Sensoreigenschaften zu untersuchen. Das Hauptaugenmerk lag dabei auf dem Einfluss von Substituenten an den Prolinuntereinheiten auf die Bindungsaffinität und -selektivität. Durch eine systematische Syntheseoptimierung konnte eine effiziente Strategie für ein 4R-Amino-L-prolin-haltiges Dipeptid erarbeitet werden, welches es ermöglicht, verschiedene Substituenten mit der gewünschten Konfiguration an den C(γ)-Atomen der Prolineinheiten einzuführen. Aus den funktionalisierten Dipeptiden konnten anschließend die entsprechenden Cyclopeptide nach Standardmethoden aufgebaut werden. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener Sulfonate und Acetat erfolgte mittels NMR-Spektroskopie und isothermer Titrationskalorimetrie in unterschiedlichen Lösungsmitteln. Die Untersuchungen zeigten, dass die Struktur und die Flexibilität der peripheren Substituenten um den Cyclopeptidhohlraum einen signifikanten Einfluss auf die Substratbindung besitzt.