Refine
Year of publication
- 2010 (61) (remove)
Document Type
- Doctoral Thesis (61) (remove)
Has Fulltext
- yes (61)
Keywords
- Bemessung (3)
- Homogene Katalyse (3)
- Palladium (3)
- Acrylamid (2)
- Biaryle (2)
- Carbonsäuren (2)
- Datenbank (2)
- Erwarteter Nutzen (2)
- Glycidamid (2)
- Katalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (12)
- Kaiserslautern - Fachbereich ARUBI (11)
- Kaiserslautern - Fachbereich Mathematik (10)
- Kaiserslautern - Fachbereich Biologie (7)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (4)
- Kaiserslautern - Fachbereich Informatik (4)
A prime motivation for using XML to directly represent pieces of information is the ability of supporting ad-hoc or 'schema-later' settings. In such scenarios, modeling data under loose data constraints is essential. Of course, the flexibility of XML comes at a price: the absence of a rigid, regular, and homogeneous structure makes many aspects of data management more challenging. Such malleable data formats can also lead to severe information quality problems, because the risk of storing inconsistent and incorrect data is greatly increased. A prominent example of such problems is the appearance of the so-called fuzzy duplicates, i.e., multiple and non-identical representations of a real-world entity. Similarity joins correlating XML document fragments that are similar can be used as core operators to support the identification of fuzzy duplicates. However, similarity assessment is especially difficult on XML datasets because structure, besides textual information, may exhibit variations in document fragments representing the same real-world entity. Moreover, similarity computation is substantially more expensive for tree-structured objects and, thus, is a serious performance concern. This thesis describes the design and implementation of an effective, flexible, and high-performance XML-based similarity join framework. As main contributions, we present novel structure-conscious similarity functions for XML trees - either considering XML structure in isolation or combined with textual information -, mechanisms to support the selection of relevant information from XML trees and organization of this information into a suitable format for similarity calculation, and efficient algorithms for large-scale identification of similar, set-represented objects. Finally, we validate the applicability of our techniques by integrating our framework into a native XML database management system; in this context we address several issues around the integration of similarity operations into traditional database architectures.
Wireless Sensor Networks (WSN) are dynamically-arranged networks typically composed of a large number of arbitrarily-distributed sensor nodes with computing capabilities contributing to –at least– one common application. The main characteristic of these networks is that of being functionally constrained due to a scarce availability of resources and strong dependence on uncontrollable environmental factors. These conditions introduce severe restrictions on the applicability of classic real-time methods aiming at guaranteeing time-bounded communications. Existing real-time solutions tend to apply concepts that were originally not conceived for sensor networks, idealizing realistic application scenarios and overlooking at important design limitations. This results in a number of misleading practices contributing to approaches of restricted validity in real-world scenarios. Amending the confrontation between WSNs and real-time objectives starts with a review of the basic fundamentals of existing approaches. In doing so, this thesis presents an alternative approach based on a generalized timeliness notion suitable to the particularities of WSNs. The new conceptual notion allows the definition of feasible real-time objectives opening a new scope of possibilities not constrained to idealized systems. The core of this thesis is based on the definition and application of Quality of Service (QoS) trade-offs between timeliness and other significant QoS metrics. The analysis of local and global trade-offs provides a step-by-step methodology identifying the correlations between these quality metrics. This association enables the definition of alternative trade-off configurations (set points) influencing the quality performance of the network at selected instants of time. With the basic grounds established, the above concepts are embedded in a simple routing protocol constituting a proof of concept for the validity of the presented analysis. Extensive evaluations under realistic scenarios are driven on simulation environments as well as real testbeds, validating the consistency of this approach.
Die industrielle Oberflächeninspektion und insbesondere die Defekterkennung ist ein wichtiges Anwendungsgebiet für die automatische Bildverarbeitung (BV). Für den Entwurf und die Konfiguration der entsprechenden Softwaresysteme, in der Regel anwendungsspezifische Einzellösungen, werden im industriellen Umfeld zumeist entweder firmeneigene Bildverarbeitungsbibliotheken, kommerzielle oder freie Toolboxen verwendet. In der Regel beinhalten diese u.a. Standardalgorithmen der Bildverarbeitung in modularer Form, z. B. Filter- oder Schwellwertoperatoren. Die einzelnen BV-Methoden werden in der Regel nach dem Prinzip der visuellen Programmierung in einer grafischen Entwicklungsumgebung ausgewählt und zu einer BV-Kette bzw. einem -Graph zusammengesetzt. Dieses Prinzip ermöglicht es auch einem Programmierunkundigen, BV-Systeme zu erstellen und zu konfigurieren. Eine gewisse Grundkenntnis der Methoden der Bildverarbeitung ist jedoch notwendig. Je nach Aufgabenstellung und Erfahrung des Systementwicklers erfordern manueller Entwurf und Konfiguration eines BV-Systems erheblichen Zeiteinsatz. Diese Arbeit beschäftigt sich mit automatischen Entwurfs-, Konfigurations- und Optimierungsmöglichkeiten dieser modularen BV-Systeme, die es auch einem ungeübten Endnutzer ermöglichen, adäquate Lösungen zu generieren mit dem Ziel, ein effizienteres Entwurfswerkzeug für Bildverarbeitungssysteme mit neuen und verbesserten Eigenschaften zu schaffen. Die Methodenauswahl und Parameteroptimierung reicht von der Bildvorverarbeitung und -verbesserung mittels BV-Algorithmen bis hin zu ggf. eingesetzten Klassifikatoren, wie Nächste-Nachbar-Klassifikator (NNK) und Support-Vektor-Maschinen (SVM) und verschiedenen Bewertungsfunktionen. Der flexible Einsatz verschiedener Klassifikations- und Bewertungsmethoden ermöglicht einen automatischen problemspezifischen Entwurf und die Optimierung des BV-Systems für Aufgaben der Fehlerdetektion und Texturanalyse für 2d-Bilder, sowie die Trennung von Objekten und Hintergrund für 2d- und 3d-Grauwertbilder. Für die Struktur- und Parameteroptimierung des BV-Systems werden Evolutionäre Algorithmen (EA) und Partikelschwarmoptimierung (PSO) verwendet.
Mit der Erweiterten Technischen Biegelehre (ETB) steht eine Möglichkeit zur Verfügung, den Gesamtverzerrungszustand von biege- und schubbeanspruchten Stahlbeton- und Spannbetonquerschnitten sowohl für den Grenzzustand der Gebrauchstauglichkeit (GZG) als auch den Grenzzustand der Tragfähigkeit (GZT) zu ermitteln. Bisher fehlte jedoch für eine allgemeine Anwendung der ETB eine statistische Absicherung durch einen umfangreichen Vergleich mit Versuchen. Als Grundlage für diesen Vergleich wurde zunächst ein Konzept zur Berücksichtigung von Tension-Stiffening und Tension-Softening in der Berechnung erarbeitet. Die Integration dieses Konzepts in die ETB erfolgte durch Dr. Hartung, der die ETB ursprünglich entwickelt hat. Im Rahmen der vorliegenden Arbeit wurden dann an der TU Kaiserslautern insgesamt 222 Querkraftversuche an Stahlbeton- und Spannbetontragern mit der ETB nachgerechnet. Dazu mussten zunachst fur die in den Versuchen auftretenden drei Schubbrucharten geeignete Versagenskriterien definiert werden. Aus der abschliesenden statistischen Bewertung ergaben sich mit der ETB fur die Tragfahigkeit gegenuber dem Fachwerkmodell wesentlich wirtschaftlichere Ergebnisse. Sowohl die verbleibende, nicht nutzbare Modellsicherheit war im Mittel deutlich geringer, als auch die Streuung der erzielten Ergebnisse. Damit wird eine Anwendung der ETB fur den GZT grundsatzlich ermoglicht. Auffallig ist hier u. a. die gegenuber dem Fachwerkmodell deutlich bessere Erfassung des Tragverhaltens von Spannbetontragern. Hier schrankt die untere Begrenzung der Druckstrebenneigung auf 18,4° die Effektivitat des Fachwerkmodells stark ein. Weiterhin wurde im Labor für Konstruktiven Ingenieurbau der TU Kaiserslautern an insgesamt sechs großmaßstäblichen Versuchen das Trag- und Verformungsverhalten von Stahlbeton- und Spannbetonträgern untersucht. Für die Bügeldehnungen ergaben sich daraus auch auf dem Niveau des Gebrauchszustandes gute Übereinstimmungen zwischen Versuch und Berechnung. Die bei einem Versuch im Momentennullpunkt erfolgten Messungen der Längsdehnungen haben zudem gezeigt, dass die durch die Schubbeanspruchung bedingte Stabverlängerung bereits im GZG nennenswerte Größen annehmen kann und somit bei Spannungsnachweisen berücksichtigt werden sollte. Eine statistische Absicherung für den GZG war jedoch aufgrund der geringen Anzahl der Versuche nicht möglich. In Verbindung mit der Vorstellung eines auf der ETB basierenden Bemessungskonzeptes wurde abschließend noch auf die Frage der erforderlichen Mindestquerkraftbewehrung eingegangen. Für den Nachweis von bestehenden Tragwerken wurde hier ein zu DIN 1045-1 2008 alternativer Nachweis der erforderlichen Duktilität auf Basis der ETB aufgezeigt.
Alle derzeit in Deutschland gültigen Bemessungsnormen sind für Neubauten oder neu anzufertigende Bauteile konzipiert. Diese Normen unterliegen dem semi-probabilistischen Sicherheitskonzept, das mithilfe von Teilsicherheitsbeiwerten und charakteristischen Werten der Materialien bzw. Einwirkungen die in DIN 1055-100 (2001) geforderte Zuverlässigkeit sicherstellen soll. Die Nachbemes-sung von Stahlbetonbauteilen im Bestand, die beispielweise eine direkte Lasterhöhung infolge einer Nutzungsänderung erfahren, hat grundsätzlich nach aktueller DIN 1045-1 (2008) zu erfolgen. Die direkte Anwendung der Nachweisfor-mate der DIN 1045-1 ist aber in vielen Fällen nicht zielführend, da alle Unsicherheiten der Planungs- und Errichtungsphase durch die Teilsicher-heitsbeiwerte mit abgedeckt werden. Im Bestand können die Unsicherheiten z. B. der Geometrie, der Materialkennwerte sowie Lage und Menge der vorhandenen Bewehrung oder der ständigen Einwirkungen infolge einer qualifizierten Bestandsaufnahme eingeschränkt werden. Die Tatsache, dass die oben genannten streuenden Größen genauer quantifiziert werden können, erlaubt eine Anpassung der Teilsicherheitsbeiwerte an die am Bauwerk vorherrschenden Streuungen der Festigkeitswerte und geometrischen Größen. Ziel dieser Arbeit ist die Ausweisung modifizierter Teilsicherheitsbeiwerte unter Beachtung des geforderten Zielzuverlässigkeitsniveaus für im Bestand übliche Nachweisformate. Die tabelliert ausgewiesenen Teilsicherheitsbeiwerte auf Widerstandsseite ermöglichen je nach angetroffener Materialstreuung eine praxisgerechte, wirtschaftliche und erfolgreiche Nachweisführung von Bestandsbauten bei Anwendung des semiprobabilistischen Teilsicherheitskonzeptes.
Wetlands are special areas that they offer habitat for terrestrial and water life. Wetlands are nest sides also for amphibian, for this reason wetlands offer wide range diversity for species. Wetlands are also reproduction regions for birds. Wetlands have special importance for ecosystem because they obstruct erosion. Wetlands absorb contaminants from water therefore wetlands contribute to clean water and they offer more potable water. Wetlands obstruct waterflood. In that case wetlands must be maintained and conserved. Wetlands must be conserved because wetlands vanish very rapidly because of contamination, excessively agriculture, urban sprawl, dams…etc. this PhD thesis contributes to solve problems of wetlands that they are affected from urbanization especially metropolitan areas. Growth of cities requires more land for settlements; the more settlements bring about the more urban sprawl. The more urban sprawl deteriorates more natural regions. In this cycle wetlands are also affected from urbanization effects. In this sense some precautions should be developed in order to protect wetlands from urbanization effect. These precautions should include anticipation about effects of urbanization. An important tool for conserving wetlands and protecting these regions from cities is land uses and land use planning in city and regional planning. First step of land use planning is determination of settlement appropriateness. Settlement appropriateness contributes to choose correct locations for settlement in this respect wetlands can be affected in minimum level from urban sprawl. This PhD thesis inquires a method about buffer zones around wetlands and Thresholds in basin of wetlands; and this method is examined in two case study areas Mogan and Büyükçekmece Lake. According to results of Mogan and Büyükçekmece Lake the PhD method will be generalized to other quasi wetlands that they exist near cities and are affected from urban sprawl.
Charakterisierung der DNA-schädigenden Wirkung von Acrylamid in Lebensmitteln am Modell der Ratte
(2010)
Die alpha,beta-ungesättigte Carbonylverbindung Acrylamid entsteht beim Erhitzen von kohlenhydratreichen Lebensmitteln aus der Reaktion von Aminosäuren (hauptsächlich Asparagin) und reduzierenden Zuckern als Nebenprodukt der Maillard-Reaktion. In Langzeitstudien an Ratten wurde ein kanzerogenes Potential von Acrylamid nachgewiesen, was zu seiner Klassifizierung als „wahrscheinlich kanzerogen am Menschen“ (Kategorie 2a) durch die International Agency for Research on Cancer führte. Als Auslöser der Kanzerogenität von Acrylamid wird ein genotoxischer Mechanismus vermutet, der auf der Reaktion von Glycidamid mit der DNA unter Ausbildung des Hauptadduktes N7-Glycidamid-Guanin (N7-GA-Guanin) basiert. Das Ziel der vorliegenden Arbeit war die Untersuchung der genotoxischen Wirkung von Acrylamid in vivo anhand des modifizierten Comet Assays sowie der massenspektrometrischen Untersuchung von N7-GA-Guanin-Addukten. Die Problematik wurde in zwei Teilprojekten bearbeitet. Zum einen wurde die Auswirkung verschiedener Lebensmittelmatrices auf die genotoxische Wirkung von Acrylamid in der Ratte im Vergleich zur Acrylamid-Aufnahme über Trinkwasser per Schlundsonde untersucht. Dazu wurden jeweils drei Ratten über maximal neun Tage mit Acrylamid-Dosen von 50 µg/kg KG/d in Trinkwasser oder Brotkruste bzw. 100 µg/kg KG/d in Trinkwasser (Schlundsonde), geschnittenen und rekonstituierten Pommes Frites sowie Lebkuchen behandelt. Zusätzlich wurde jeweils drei Tiere einmalig eine Dosis von 450 µg bzw. 900 µg Acrylamid/kg KG in Trinkwasser mittels Schlundsonde verabreicht, was der maximalen Aufnahmemenge über neun Tage entspricht. Außerdem wurde zwei Tieren einmalig 10 mg Acrylamid/kg KG in Trinkwasser per Schlundsonde gegeben. Die Tötung der Tiere sowie Blut- und Organentnahme erfolgten 24 Stunden nach der letzten Acrylamid-Gabe. Die Untersuchung der Blut- und Leberzellen mittels modifiziertem Comet Assay ließ auf keine signifikante DNA-Schädigung der mit 50 oder 100 µg Acrylamid/kg KG behandelten Tiere schließen. Auch die einmalige Verabreichung von 450 µg bzw. 900 µg Acrylamid/kg KG im Trinkwasser führte zu keiner signifikanten Erhöhung der DNA-Schädigung. Lediglich nach der Gabe von 10 mg Acrylamid/kg KG wurden DNA-Schäden in Blut und Leber detektiert. In den Geweben der für maximal neun Tage mit 50 oder 100 µg Acrylamid/kg KG im Trinkwasser oder Lebensmittel behandelten Ratten wurden keine N7-GA-Guanin-Addukte detektiert und lagen somit unterhalb der Nachweisgrenze von 1 Addukt/10E8 Nukleotide. Nach einmaliger Verabreichung von 450 µg Acrylamid/kg KG wurden in allen Organen der behandelten Tiere N7-GA-Guanin-Addukte detektiert, die allerdings unterhalb der Bestimmungsgrenze von 3 Addukten/10E8 Nukleotide lagen. Die einmalige Gabe von 900 µg und 10 mg Acrylamid/kg KG führte zu quantifizierbaren Addukten in allen untersuchten Organen. Im zweiten Teil dieser Arbeit wurde die zeit- und dosisabhängige Bildung von N7-GA-Guanin-Addukten in der DNA aus Leber, Niere und Lunge weiblicher Sprague-Dawley Ratten untersucht. Dazu wurden die Ratten zunächst einmalig mit 1 mg oder 10 mg Acrylamid/kg KG per Schlundsonde behandelt und die Gewebeproben nach 8, 16 oder 24 Stunden entnommen und untersucht. Nach Ermittlung des Zeitpunktes der maximalen N7-GA-Guanin-Adduktbildung wurden weitere Ratten einmalig mit 0,1 mg, 0,5 mg, 3 mg oder 6 mg Acrylamid/kg KG behandelt. Neben der N7-GA-Guanin-Adduktbildung wurde die Bildung der Mercaptursäuren von Acrylamid und Glycidamid mittels HPLC-MS/MS untersucht. Die Mercaptursäuren AAMA und GAMA entstehen als Abbauprodukte der Glutathionkonjugate von Acrylamid und Glycidamid und werden über den Urin ausgeschieden. Die dosisabhängige Bildung von N7-GA-Guanin-Addukten wurde 16 Stunden nach Verabreichung von Acrylamiddosen zwischen 0,1 mg und 10 mg/kg KG untersucht. Die N7-GA-Guanin-Addukte konnten erst ab einer Dosis von 1 mg Acrylamid/kg KG in der DNA der Tiere quantifiziert werden. Die Adduktbildung in der 0,1 mg Acrylamid/kg KG-Gruppe lag unterhalb der Nachweisgrenze, während die Addukte in der 0,5 mg Acrylamid/kg KG-Gruppe zwar nachweisbar, aber nicht quantifizierbar waren. Im Bereich von 1 bis 10 mg Acrylamid/kg KG wurde ein dosisabhängiger Anstieg der N7-GA-Guanin-Addukte beobachtet. Die Ergebnisse der gemessenen Mercaptursäuren zeigen insgesamt, dass 53-55 % der Acrylamid-Dosis von 1 und 10 mg/kg KG innerhalb von 24 Stunden als Mercaptursäuren ausgeschieden werden und dadurch eine effektive Entgiftung von Acrylamid gewährleistet ist. Anhand der ausgeschiedenen GAMA-Menge lässt sich rückschließen, dass 14-18 % der verabreichten 1 und 10 mg Acrylamid/kg KG innerhalb von 24 Stunden zu Glycidamid metabolisiert werden. Die Untersuchung der Mercaptursäuren im 16-Stunden-Sammelurin nach Gabe von 0,1 bis 10 mg Acrylamid/kg KG zeigte, dass die absolute Ausscheidung von AAMA und GAMA linear mit der Dosis ansteigt.
In robotics, information is often regarded as a means to an end. The question of how to structure information and how to bridge the semantic gap between different levels of abstraction in a uniform way is still widely regarded as a technical issue. Ignoring these challenges appears to lead robotics into a similar stasis as experienced in the software industry of the late 1960s. From the beginning of the software crisis until today, numerous methods, techniques, and tools for managing the increasing complexity of software systems have evolved. The attempt to transfer several of these ideas towards applications in robotics yielded various control architectures, frameworks, and process models. These attempts mainly provide modularisation schemata which suggest how to decompose a complex system into less complex subsystems. The schematisation of representation and information flow however is mostly ignored. In this work, a set of design schemata is proposed which is embedded into an action/perception-oriented design methodology to promote thorough abstractions between distinct levels of control. Action-oriented design decomposes control systems top-down and sensor data is extracted from the environment as required. This comes with the problem that information is often condensed in a premature fashion. That way, sensor processing is dependent on the control system design resulting in a monolithical system structure with limited options for reusability. In contrast, perception-oriented design constructs control systems bottom-up starting with the extraction of environment information from sensor data. The extracted entities are placed into structures which evolve with the development of the sensor processing algorithms. In consequence, the control system is strictly dependent on the sensor processing algorithms which again results in a monolithic system. In their particular domain, both design approaches have great advantages but fail to create inherently modular systems. The design approach proposed in this work combines the strengths of action orientation and perception orientation into one coherent methodology without inheriting their weaknesses. More precisely, design schemata for representation, translation, and fusion of environmental information are developed which establish thorough abstraction mechanisms between components. The explicit introduction of abstractions particularly supports extensibility and scalability of robot control systems by design.
The aim of this thesis was to link Computational Fluid Dynamics (CFD) and Population Balance Modelling (PBM) to gain a combined model for the prediction of counter-current liquid-liquid extraction columns. Parts of the doctoral thesis project were done in close cooperation with the Fraunhofer ITWM. Their in-house CFD code Finite Pointset Method (FPM) was further developed for two-phase simulations and used for the CFD-PBM coupling. The coupling and all simulations were also carried out in the commercial CFD code Fluent in parallel. For the solution methods of the PBM there was a close cooperation with Prof. Attarakih from the Al-Balqa Applied University in Amman, Jordan, who developed a new adaptive method, the Sectional Quadrature Method of Moments (SQMOM). At the beginning of the project, there was a lack of two-phase liquid-liquid CFD simulations and their experimental validation in literature. Therefore, stand-alone CFD simulations without PBM were carried out both in FPM and Fluent to test the predictivity of CFD for stirred liquid-liquid extraction columns. The simulations were validated by Particle Image Velocimetry (PIV) measurements. The two-phase PIV measurements were possible when using an iso-optical system, where the refractive indices of both liquid phases are identical. These investigations were done in segments of two Rotating Disc Contactors with 150mm and 450mm diameter to validate CFD at lab and at industrial scale. CFD results of the aqueous phase velocities, hold-up, droplet raising velocities and turbulent energy dissipation were compared to experimental data. The results show that CFD can predict most phenomena and there was an overall good agreement. In the next steps, different solution methods for the PBM, e.g. the SQMOM and the Quadrature Method of Moments (QMOM) were implemented, varied and tested in Fluent and FPM in a two-fluid model. In addition, different closures for coalescence and breakage were implemented to predict drop size distributions and Sauter mean diameters in the RDC DN150 column. These results show that a prediction of the droplet size distribution is possible, even when no adjustable parameters are used. A combined multi-fluid CFD-PBM model was developed by means of the SQMOM to overcome drawbacks of the two-fluid approach. Benefits of the multi-fluid approach could be shown, but the high computational load was also visible. Therefore, finally, the One Primary One Secondary Particle Method (OPOSPM), which is a very easy and efficient special case of the SQMOM, was introduced in CFD to simulate a full pilot plant column of the RDC DN150. The OPOSPM offers the possibility of a one equation model for the solution of the PBM in CFD. The predicted results for the mean droplet diameter and the dispersed phase hold up agree well with literature data. The results also show that the new CFD-PBM model is very efficient from computational point of view (two times less than the QMOM and five times less than the method of classes). The overall results give rise to the expectation that the coupled CFD-PBM model will lead to a better, faster and more cost-efficient layout of counter-current extraction columns in future.
Prostate cancer preferentially metastasizes to the skeleton and abundant evidence exists that osteoblasts specifically support the metastatic process, including cancer stem cell niche formation. At early stages of bone metastasis, crosstalk of prostate cancer cells and osteoblasts through soluble molecules results in a decrease of cancer cell proliferation, accompanied by altered adhesive properties and increased expression of bone-specific genes, or osteomimicry. Osteoblasts synthesize a plethora of biologically active factors, which comprise the unique bone microenvironment. By means of quantitative real-time RT-PCR it was determined that exposure to the osteoblast secretome induced gene expression changes in prostate cancer cells, including the upregulation of osteomimetic genes such as BMP2, AP, COL1A1, OPG and RANKL. IL6 and TGFbeta1 signaling pathway components also became upregulated at early time points. Moreover, osteoblast-released IL6 and TGFbeta1 contributed to the upregulation of OPG mRNA in LNCaP. Thus, the earliest response of prostate cancer cells to osteoblast-released factors, which ultimately cause metastatic cells to assume an osteomimetic phenotype, involved activation of paracrine and autocrine IL6 and TGFbeta signaling. On the other hand, a microarray analysis showed that osteoblasts exposed to the secretome of prostate cancer cells exhibited gene expression alterations suggestive of repressed proliferation, decreased matrix synthesis and inhibited immune response, which together indicate enhanced preosteocytic differentiation. TGFbeta signaling, known to inhibit osteoblast maturation, was strongly suppressed, as shown by elevated expression of negative regulators, downregulation of pathway components and of numerous target genes. Transcriptional downregulation of osteoblast inhibitory molecules such as DKK1 and FST also occurred, with concomitant upregulation of the osteoinductive molecules ADM, STC1 and BMP2, and of the transcription factors CBFA1 and HES1, which promote osteoblast differentiation. Finally, the mRNA encoding NPPB, the precursor of a molecule implicated in the inhibition of TGFbetaeffects, in bone formation and in stem cell maintenance, became upregulated after coculture both in osteoblasts and in prostate cancer cells. These results provide an insight into potential mechanisms of dysregulated bone formation in metastatic prostate cancer, as well as mechanisms by which osteoblasts might enhance the invasive, osteomimetic and stem cell-like properties of the tumor cells. In particular, the differential modulation of TGFbetasignaling in prostate cancer cells and osteoblasts appears to merit further research.