Refine
Year of publication
Document Type
- Doctoral Thesis (1609)
- Preprint (1184)
- Report (480)
- Article (388)
- Periodical Part (273)
- Master's Thesis (175)
- Working Paper (111)
- Conference Proceeding (45)
- Diploma Thesis (34)
- Lecture (25)
Language
- English (2661)
- German (1761)
- Multiple Languages (5)
- Spanish (4)
Is part of the Bibliography
- no (4431)
Keywords
- AG-RESY (64)
- PARO (31)
- Stadtplanung (28)
- Erwachsenenbildung (24)
- Modellierung (22)
- Simulation (22)
- Case-Based Reasoning (20)
- Schule (20)
- Visualisierung (20)
- wissenschaftliche Weiterbildung (19)
Faculty / Organisational entity
- Fachbereich Mathematik (1109)
- Fachbereich Informatik (870)
- Fachbereich Maschinenbau und Verfahrenstechnik (408)
- Fachbereich Chemie (357)
- Fachbereich Physik (303)
- Fachbereich Sozialwissenschaften (299)
- Fraunhofer (ITWM) (223)
- Fachbereich Elektrotechnik und Informationstechnik (152)
- Fachbereich Biologie (149)
- Distance and Independent Studies Center (DISC) (97)
Acrylamid ist eine α,β-ungesättigte Carbonylverbindung, die beim Erhitzen von Lebensmitteln durch die Maillard-Reaktion aus Aminosäuren wie Asparagin und reduzierenden Zuckern gebildet wird. Da für diese prozessbedingte Lebensmittelkontaminante neuro- und gentoxische Effekte beschrieben sind und die mittlere alimentäre Exposition in Europa auf 0,4–1,9 μg/kg KG/d geschätzt wurde, ist Acrylamid von Bedeutung für die Risikobewertung von Lebensmitteln.
Acrylamid und sein gentoxischer Metabolit Glycidamid werden zu den Mercaptursäuren N-Acetyl-S-(2-carbamoylethyl)-L-cystein (AAMA) bzw. N-Acetyl-S-(2-hydroxy-2-carbamoylethyl)-L-cystein (GAMA) metabolisiert, die als renale Biomarker zur Abschätzung der internen Exposition Verwendung finden. Frühere Befunde deuteten bereits auf eine potentielle endogene Bildung hin, die einer Acrylamid-Exposition von 0,2–0,7 µg/kg KG entsprach und somit nennenswert zur Biomarker-Ausscheidung beitragen kann, die exogen durch Acrylamid-Aufnahme durch Lebensmittel, Tabakrauch oder Exposition am Arbeitsplatz beeinflusst werden kann. Um diese verschiedenen Einflussfaktoren weiter zu untersuchen, wurden zwei Humanstudien durchgeführt.
Im Rahmen einer Duplikat-Studie unter streng kontrollierten Bedingungen wurde die Toxikokinetik der Mercaptursäuren und Hämoglobin-Addukte nach Acrylamid-Aufnahme durch den Verzehr von Kaffee (0,15–0,17 µg/kg KG/d) bzw. hitzebehandelten Lebensmitteln (14,1–15,9 μg/kg KG/d) in sechs Probanden untersucht. Während der Kaffeekonsum nur zu einer leicht erhöhten Mercaptursäure-Antwort führte, konnte die renale Ausscheidungskinetik nach Aufnahme von 14,1–15,9 μg/kg KG/d Acrylamid erfasst werden. Weitere sechs Probanden erhielten eine Acrylamid-minimierte Diät, die eine Acrylamid-Aufnahme von 0,05–0,06 µg/kg KG/d nicht überschritt (Washout), und zusätzlich einen einmaligen Bolus von 1 μg/kg KG 13C3D3-Acrylamid. Am Ende des 13-tägigen Washout wurde ein AAMA-Level erfasst, das einer Hintergrundbelastung von 0,3–0,4 µg/kg KG/d entsprach, während die Ausscheidung von 13C3D3-Acrylamid als 13C3D3-AAMA innerhalb von 72–96 h praktisch abgeschlossen war, welches die Hypothese einer anhaltenden endogenen Acrylamid-Bildung in vivo unterstützt. Dies wurde durch Modell-Reaktionen untermauert, die eine Acrylamid-Bildung unter physiologischen Bedingungen zeigten.
Eine zweite Duplikat-Studie mit Gemischtköstlern und Veganern befasste sich mit dem Einfluss der Ernährung und Lebensstils auf die Acrylamid-Exposition und Ausscheidung von AAMA, GAMA sowie Tabakrauch-Expositionsbiomarkern. Die mittlere Acrylamid-Aufnahme betrug 0,32±0,19 µg/kg KG/d, es zeigten sich jedoch deutliche Variabilitäten zwischen den Tagen und den Probanden. So nahmen Veganer mehr Acrylamid auf (0,38±0,23 µg/kg KG/d) als Gemischtköstler (0,26±0,10 µg/kg KG/d). Die Ausscheidungskinetik von AAMA und GAMA im Urin stimmte im Wesentlichen mit der jeweiligen alimentären Acrylamid-Aufnahme überein. Erhöhte Werte konnten auf eine umwelt-bezogene Belastung mit Tabakrauch zurückgeführt werden.
Um die Emissionsziele des Übereinkommens von Paris zu erreichen, muss die Weiterentwicklung von Gasturbinen und deren Komponenten im Mittelpunkt der aktuellen Energieforschung stehen. Ein nach wie vor hohes Optimierungspotential bietet hierbei die sich der Brennkammer anschließende Hochdruckturbine und hierin die Verbesserung der Kühlmethoden, da diese einen signifikanten Beitrag zum Gesamtwirkungsgrad der Gasturbine beitragen. Diese Dissertation nimmt sich dem Teilgebiet der Filmkühlungstechnologie an und untersucht die Anwendbarkeit eines konstruktiv bedingt vorhandenen Leckagespalts zur aktiven Kühlung der Seitenwand in der ersten Turbinenleitschaufelreihe. Die experimentell durchgeführte Studie analysiert in Form einer Parametervariation verschiedene Leckagespaltkühlungskonfigurationen, um einerseits die Einflüsse der Parameter zu identifizieren und andererseits die Konfigurationen auch hinsichtlich der Filmkühlwirkung zu bewerten. Hier kommen neben der Pressure Sensitive Paint Messtechnik zur Bestimmung der Filmkühleffektivität auch Ölanstrichbilder der Seitenwand sowie Fünflochsondenmessungen am Schaufelaustritt zum Einsatz. Dadurch werden zusätzlich die Auswirkungen auf die Aerodynamik beurteilt. Alle Messkampagnen wurden dabei für zwei, sich im Auslegungsprinzip markant unterscheidende Leitschaufelprofildesigns durchgeführt, um in einem weiterführenden Schritt eine Übertragbarkeit der Erkenntnisse oder gar korrelative Zusammenhänge für die untersuchten Leckagespaltparameter aufzuzeigen. Die Ergebnisse dieser umfassenden, komparativen Parameteranalyse decken auf, dass zwar einige Spaltkonfigurationen in Ansätzen konsistente Ergebnistendenzen aufweisen, jedoch nicht ohne weiteres übertragbar sind oder eine Allgemeingültigkeit erkennen lassen. Im Endresultat wird dadurch deutlich, dass die robuste Auslegung solcher Kühlkonzepte zum einen spezifisch und zum anderen auch unter Berücksichtigung der verbundenen Komponenten erfolgen sollte.
Sequence learning describes the process of understanding the spatio-temporal
relations in a sequence in order to classify it, label its elements or generate
new sequences. Due to the prevalence of structured sequences in nature
and everyday life, it has many practical applications including any language
related processing task. One particular such task that has seen recent success
using sequence learning techniques is the optical recognition of characters
(OCR).
State-of-the-art sequence learning solutions for OCR achieve high performance
through supervised training, which requires large amounts of transcribed
training data. On the other hand, few solutions have been proposed on how
to apply sequence learning in the absence of such data, which is especially
common for hard to transcribe historical documents. Rather than solving
the unsupervised training problem, research has focused on creating efficient
methods for collecting training data through smart annotation tools or generating
synthetic training data. These solutions come with various limitations
and do not solve all of the related problems.
In this work, first the use of erroneous transcriptions for supervised sequence
learning is introduced and it is described how this concept can be applied in
unsupervised training scenarios by collecting or generating such transcriptions.
The proposed OCR pipeline reduces the need of domain specific expertise
to apply OCR, with the goal of making it more accessible. Furthermore, an
approach for evaluating sequence learning OCR models in the absence of
reference transcriptions is presented and its different properties compared
to the standard method are discussed. In a second approach, unsupervised
OCR is treated as an alignment problem between the latent features of the
different language modalities. The outlined solution is to extract language
properties from both the text and image domain through adversarial training
and learn to align them by adding a cycle consistency constraint. The proposed
approach has some strict limitations on the input data, but the results
encourage future research into more widespread applications.
Reinforcing sand soils using tyre rubber chips is a novel technology that is under investigation to optimize its engineering application. Previous studies concentrated on static behaviour and very few on cyclic and dynamic behaviour of sand rubber mixtures leaving gaps that need to be addressed.
This research focuses on evaluating the static, cyclic and dynamic behaviours of sand rubber mixtures. The basic properties of sands S2, S3, S4, rubber chips and sand rubber chips mixtures at 10/20/30% rubber chips content by dry mass were first evaluated in order to obtain the parameters essential for subsequent testing. Oedometer, direct shear with larger box 300x300 mm and static triaxial compression tests were performed to assess the static behaviour of the composite material. Further, dynamic cyclic triaxial tests were performed to evaluate the cyclic behaviour of saturated, dry and wet mixtures. All specimens were first isotropically consolidated at 100 kPa. For saturated material a static deviatoric stress of 45 kPa was imposed prior to cycling to simulate the field anisotropic consolidation condition. Cycling was applied stress-controlled with amplitude of 50kPa. Both undrained and drained tests were performed. Cyclic tests in dry or wet conditions were also performed under anisotropic consolidation condition with the application of different stress amplitudes. For all cyclic tests the loading frequency was 1 Hz. With regard to dynamic behaviour of the mixtures, the resonant column tests were conducted. Calibration was first performed yielding a frequency dependent drive head inertia. Wet mixture specimens were prepared at relative density of 50% and tested at various confining stresses. Note that all specimens tested in both triaxial and resonant column were 100 mm diameter. The results from the entire investigation are promising.
In summary, rubber chips in the range of 4 to 14 mm mixed with sands were found to increase the shear resistance of the mixtures. They yield an increase of the cyclic resistance under saturated condition, to a decrease of stiffness and to an increase of damping ratio. Increased confining stress increased the shear modulus reduction and decreased damping ratio of the mixtures. Increased rubber content increased both shear modulus reduction and damping ratio. Several new design equations were proposed that can be used to compute the compression deformation, pore pressure ratio, maximum shear modulus and minimum damping ratio, as well as the modulus reduction with shear strain. Finally, chips content around 20% to 30% by dry mass can be used to reinforce sandy soils. The use of this novel composite material in civil engineering application could consume a large volume of scrap tyres and at the same time contribute to cleaning environment and saving natural resources.
Forschung und Entwicklung (FuE)stellt einen elementaren Baustein für das langfristige Wachstum und die Zukunftsfähigkeit einer Volkswirtschaft dar. Diese Arbeit untersucht, inwiefern der Staat aus steuerrechtlicher Sicht eine FuE-Förderung für Konzerne unternimmt und wo Möglichkeiten zur Verbesserung liegen könnten, um das FuE-Klima in Deutschland nachhaltig zu verbessern. Fokus wird dazu insbesondere auf das Konstrukt der ertragsteuerlichen Organschaft und das neu geschaffene Forschungszulagengesetz (FZulG)gelegt.
Understanding the mechanisms and controlling
the possibilities of surface nanostructuring is of crucial interest
for both fundamental science and application perspectives.
Here, we report a direct experimental observation
of laser-induced periodic surface structures (LIPSS) formed
near a predesigned gold step edge following single-pulse
femtosecond laser irradiation. Simulation results based on a
hybrid atomistic-continuum model fully support the experimental
observations. We experimentally detect nanosized
surface features with a periodicity of ∼300 nm and heights of
a few tens of nanometers.We identify two key components of
single-pulse LIPSS formation: excitation of surface plasmon
polaritons and material reorganization. Our results lay a
solid foundation toward simple and efficient usage of light
for innovative material processing technologies.
Regelkonzept für eine Niederspannungsnetzautomatisierung unter Verwendung des Merit-Order-Prinzips
(2022)
Durch die zunehmende Erzeugungsleistung auf Niederspannungsnetzebene (NS-Netzebene) durch Photovoltaikanlagen, sowie die Elektrifizierung des Wärme- und des Verkehrssektors sind Investitionen in die NS-Netze notwendig. Ein höherer Digitalisierungsgrad im NS-Netz birgt das Potential, die notwendigen Investitionen genauer zu identifizieren, und damit ggf. zu reduzieren oder zeitlich zu verschieben. Hierbei stellt die Markteinführung intelligenter Messsysteme, sog. Smart Meter, eine neue Möglichkeit dar, Messwerte aus dem NS-Netz zu erhalten und auf deren Grundlage die Stellgrößen verfügbarer Aktoren zu optimieren. Dazu stellt sich die Frage, wie Messdaten unterschiedlicher Messzyklen in einem Netzautomatisierungssystem genutzt werden können und wie sich das nicht-lineare ganzzahlige Optimierungsproblem der Stellgrößenoptimierung effizient lösen lässt. Diese Arbeit befasst sich mit der Lösung des Optimierungsproblems. Dazu kommt eine Stellgrößenoptimierung nach dem Merit-Order-Prinzip zur Anwendung.
Automation of the Hazard and Operability Method Using Ontology-based Scenario Causation Models
(2022)
The hazard and operability (HAZOP) method is widely used in chemical and process industries to identify and evaluate hazards. Due to its human-centered nature, it is time-consuming, and the results depend on the team composition. In addition, the factors time pressure, type of implementation, experience of the participants, and participant involvement affect the results. This research aims to digitize the HAZOP method. The investigation shows that knowledge-based systems with ontologies for knowledge representation are suitable to achieve the objective. Complex interdisciplinary knowledge regarding facility, process, substance, and site information must be represented to perform the task. A result of this work is a plant part taxonomy and a developed object-oriented equipment entity library. During ontology development, typical HAZOP scenarios, as well as their structure, components, and underlying causal model, were investigated. Based on these observations, semantic relationships between the scenario components were identified. The likelihood of causes and severity of consequences were determined as part of an automatic risk assessment using a risk matrix to determine safeguards reliably. An inference algorithm based on semantic reasoners and case-based reasoning was developed to exploit the ontology and evaluate the input data object containing the plant representation. With consideration given to topology, aspects like the propagation of sub-scenarios through plant parts were considered. The results of the developed knowledge-based system were automatically generated HAZOP worksheets. Evaluation of the achieved results was based on representative case studies in which the relevance, comprehensibility, and completeness of the automatically identified scenarios were considered. The achieved results were compared with conventionally prepared HAZOP tables for benchmark purposes. By paying particular attention to the causal relationships between scenario components, the risk assessment, and with consideration of safeguards, the quality of the automatically generated results was comparable to conventional HAZOP worksheets. This research shows that formal ontologies are suitable for representing complex interdisciplinary knowledge in the field of process and plant safety. The results contribute to the use of knowledge-based systems for digitizing the HAZOP method. When used correctly, knowledge-based systems can help decrease the preparation time and repetitious nature of HAZOP studies and standardize results.
Die Systeme der Planung von Windenergieanlagen in Deutschland und Frankreich – ein Rechtsvergleich
(2022)
Die Energiewende in Deutschland stockt, so auch der Ausbau der Windenergie an Land. Die Gründe liegen unter anderem in der Umstellung des Fördersystems von einer garantierten Einspeisevergütung hin zu Ausschreibungen, sinkender Akzeptanz gegenüber Windenergieanlagen und der Einführung von Abstandsflächen in bestimmten Bundesländern. Bundesweit stellen Vorhabenträger und Investoren gleichermaßen fest, es mangelt an Ausbauflächen. Vor dem Hintergrund der beabsichtigten Steigerung der Ausbauziele stellen sich beträchtliche Ansprüche an den Raum. Ihnen Geltung zu verschaffen ist in Deutschland die Aufgabe der räumlichen (Gesamt-)Planung. Das bestehende Planungssystem stößt dabei jedoch an seine Grenzen. Die rechtsvergleichende Untersuchung wendet den Blick Deutschlands Nachbarn und starkem Partner in der Europäischen Union zu: Frankreich. Einerseits hat Frankreich im Jahr 2018 den ersten Rang als attraktivsten Markt für Investitionen in erneuerbare Energien vor Deutschland eingenommen. Andererseits verzeichnet Frankreich im Vergleich zu Deutschland einen stetigen Zubau der installierten Windenergieleistung. Der einfachen Frage, was Frankreich anders oder gar besser macht, folgen die zwei zentralen Forschungsleitfragen der Untersuchung:
1. Wie vergleichbar ist die rechtliche und tatsächliche Ausgangslage in Bezug auf die Planungssysteme von Windenergieanlagen in Deutschland und Frankreich?
2. Wie erfolgt die planerische Steuerung des Ausbaus der Windenergie in Deutschland und Frankreich – wie kann das deutsche System durch das französische optimiert werden?
Die Beantwortung dieser Fragen führte zum Aufbau der Arbeit in zwei Teile. Im ersten (Grundlagen-)Teil werden jeweils die Ziele zum Ausbau der Windenergie, die tatsächliche Ausgangssituation, Fördermechanismen und der Staats- und verwaltungsorganisatorische Rahmen aufgezeigt. Dies schafft den Kontext und eine bessere Vergleichbarkeit für den sich anschließenden Zweiten Teil. Verglichen werden hier für Deutschland und Frankreich jeweils das Verständnis von (Raum-)Planung, die Systeme der Planung mit ihren einzelnen Planungsinstrumenten zum Ausbau der Windenergie und die Systeme ihrer planerischen Steuerung sowie das Verhältnis von Planung zur Vorhabenzulassung. Die Untersuchung mündet in dem Entwurf eines „Energieplanungskonzepte-Systems“ für das deutsche Planungssystem. Denn die zentralen Erkenntnisse der Arbeit sind:
In Frankreich stehen keine stärkeren Umsetzungs-/ Durchsetzungsmechanismen als in Deutschland zur Verfügung, auch nicht in Gestalt von finanziellen Fördermechanismen durch das vergleichbare Ausschreibungsmodell für Windenergieanlagen. Das „günstige Klima“ ist zum einen dem größeren Entwicklungspotenzial der Windenergie geschuldet, zum anderem der besseren, landesweiten und einheitlichen Integration von Umweltfachplanungen, die in Deutschland mit Energiekonzepten vergleichbar sind. In Frankreich verhelfen die sektoralen (Energiefach-)Planungen zu einem vergleichbar besseren Überblick über die Erneuerbare- Energien-Erzeugung – auch wenn ein Zusammenführen der (inter-)kommunalen Daten auf regionaler Ebene nicht vorgesehen ist. Durch die Zentralisierung strategischer und struktureller Entscheidungen verfügt das französische Planungssystem zudem über mehr Systemkohärenz.
Die Überführung der Windenergieplanung von der Außenbereichsprivilegierung in Verbindung mit begrenzender Steuerungsplanung hin zu einer Bedarfsfachplanung, die den bundesweiten Ausbaubedarf ermittelt und über die Planungshierarchie schrittweise auf Bundesländer, Regionen und Kommunen herunterbricht, konkretisiert und durchsetzt, würde endlich das vielfach vermisste übergreifende Konzept der Energiewende erbringen. Auf der Grundlage des Vergleichs mit dem französischen Planungssystem bietet die vorliegende Untersuchung einen Vorschlag an, wie das deutsche System für den weiteren Ausbau der Windenergie zur Erreichung der Ausbauziele ertüchtigt werden kann.
Die Anbieter von Produkt-Service Systemen (PSS) im Investitionsgüterbereich unterliegen zunehmend dem Einfluss einer VUKA-Welt. Neue Technologien und Geschäftsmodelle, sich schnell ändernde Kundenbedürfnisse und der Einbezug vieler interner und externer Akteure resultieren in Komplexität, Unsicherheiten und kurzfristigen Änderungen, auf welche die PSS-Anbieter reagieren müssen, um frühzeitig entsprechende Lösungen anbieten zu können. Die PSS-Planung befasst sich mit der Identifikation und Spezifikation neuer PSS-Ideen. Die meisten Vorgehen zur PSS-Planung fokussieren auf die Planung von Sachprodukten, Serviceprodukten, unterstützender Infrastruktur und Netzwerke von Akteuren und binden den Kunden in die Planung ein. Durch die genannten Einflüsse der VUKA-Welt auf die Planung von PSS, muss diese an sich schnell ändernde Gegebenheiten angepasst werden. Agile Methoden der Softwareentwicklung bieten hierfür Potenziale. Insbesondere die Agile Methode Design Thinking, die den Kunden innerhalb eines kurzzyklischen Vorgehens in den Mittelpunkt der Entwicklungstätigkeiten stellt und auf die Entwicklung von Prototypen zur schnellen Realisierung von Lösungen setzt, bietet sich für den Einsatz in der PSS-Planung an. Die Arbeit befasst sich mit der Frage, wie Design Thinking in die PSS-Planung integriert werden kann, um zukünftig auf Änderungen adäquat reagieren zu können und gleichzeitig die Vorteile bestehender Ansätze, wie z. B. Kundenorientierung, nicht zu vernachlässigen. Dabei wird mit Hilfe eines Modellierungsansatzes eine Methode entwickelt, welches mit Rollen, Aktivitäten, Techniken und Ergebnissen den Einsatz von Design Thinking für die agile Planung von PSS ermöglicht, den Kunden an unterschiedlichen Stellen mit einbindet und Rücksprünge bei Änderungen erlaubt. Hervorzuheben ist, dass die Methode sowohl technologiegetrieben als auch marktgetrieben initiiert werden kann. Validiert wurde die Methode innerhalb eines Verbundprojekts bei der GRIMME Landmaschinenfabrik GmbH & Co. KG.
Untersucht wurde das mechanische Verformungsverhalten des massiven metallischen Glases Zr52,5Cu17,9Ni14,6Al10Ti5 (Vitreloy 105) an Luft und im wässrigen Umgebungsmedium 0,01 M Na2SO4 (+ 0,01 M NaCl). Die Belastung erfolgte im Dreipunktbiegeversuch unter quasistatischer sowie zyklischer Beanspruchung und mit Hilfe der instrumentierten Schlagprüfung. Neben dem Umgebungseinfluss wurde der Effekt von zyklisch-kryogenen Vorbehandlungen und Oberflächenbearbeitungen mittels Mikrostrahlen, -fräsen, -erodieren und -laserablation auf die Schädigungsentwicklung und die ertragbaren Spannungen analysiert. Während eine Modifikation der Oberfläche stets in einer Erhöhung der Plastizität infolge einer verstärkten Scherbandbildung resultierte, wiesen diese Proben i.d.R. deutlich niedrigere Dauerfestigkeiten unter zyklischer Wechselbeanspruchung auf. Die tiefkühlbehandelten Zustände zeigten in allen mechanischen Tests ein optimiertes Verformungsverhalten. Mit Hilfe der anodischen Polarisation wurde außerdem im chloridhaltigen Medium ein signifikanter Effekt auf die Lebensdauer der unbehandelten Ermüdungsproben verzeichnet. Die Detektion der scherbandgetriebenen Deformationsprozesse sowie der Rissinitiierung und -ausbreitung erfolgte sowohl mittels Licht- und Rasterelektronenmikroskopie als auch unter Ausnutzung elektrochemischer Messsignale im wässrigen Medium bzw. resistometrischer Methoden an Luft. Auf Basis der Untersuchungsergebnisse wurden abschließend Schädigungsmodelle für die jeweiligen Versuchsbedingungen aufgestellt und diskutiert.
Der Terminus der „Geringqualifizierten“ ist eine ebenso verbreitete wie eingeschränkte Beschreibung einer heterogenen Zielgruppe, welche vor dem Hintergrund steigender arbeitsmarktbezogener Kompetenzanforderungen sowie des Zusammenhangs zwischen formalem Bildungsstatus und Risiken der Erwerbslosigkeit im Zentrum arbeitsmarktpolitischer Diskussionen steht. Geringqualifizierung drückt sich nicht nur im Fehlen formaler, berufsqualifizierender Abschlüsse aus, sondern besitzt angesichts sich dynamisch verändernder Arbeitsfelder und Anforderungen an die Qualifikation der Mitarbeitenden auch eine relative Dimension. So können vorhandene Kompetenzen aufgrund fehlender Aktualisierung veralten und damit als „zu gering“ eingestuft werden. Vor diesem Hintergrund nähert sich der Bericht der Personengruppe der Geringqualifizierten an, indem er bestehende Definitionen kritisch betrachtet, Verbindungen zu anderen Begriffen aufzeigt und aus den Erkenntnissen eine eigene relative Beschreibung ableitet. Ergänzt wird dieser Report durch die Betrachtung von Weiterbildungsangeboten für diese Zielgruppe.
Like many other bacteria, the opportunistic pathogen P. aeruginosa encodes a broad network of enzymes that regulate the intracellular concentration of the second messenger c-di-GMP. One of these enzymes is the phosphodiesterase NbdA that consists of three domains: a membrane anchored, putative sensory MHYT domain, a non-functional diguanylate cyclase domain with degenerated GGDEF motif and an active PDE domain with EAL motif. Analysis of the nbdA open reading frame by 5’-RACE PCR revealed an erroneous annotation of nbdA in the Pseudomonas database with the ORF 170 bp shorter than previously predicted. The newly defined promoter region of nbdA contains recognition sites for the alternative sigma-factor RpoS as well as the transcription factor AmrZ. Promoter analysis within PAO1 wt as well as rpoS and amrZ mutant strains utilizing transcriptional fusions of the nbdA promoter to the reporter gene lacZ revealed transcriptional activation of nbdA by RpoS in stationary growth phase and transcriptional repression by AmrZ. Additionally, no influence of nitrite and neither exogenous nor endogenous NO on nbdA transcription could be shown in this study. However, deletion of the nitrite reductase gene nirS led to a strong increase of nbdA promoter activity which needs to be characterized further. Predicted secondary structures of the 5’-UTR of the nbdA mRNA indicated either an RNA thermometer function of the mRNA or post-transcriptional regulation of nbdA by the RNA binding proteins RsmA and RsmF. Nevertheless, translational studies using fusions of the 5’ UTR of nbdA to the reporter gene bgaB did not verify either of these hypotheses. In general, nbdA translational levels were very low and neither the production of the reporter BgaB nor genomically encoded NbdA could be detected on a western blot. Overproduction of NbdA variants induced many phenotypic changes in motility and biofilm formation. But strains overproducing variants containing the MHYT domain revealed greatly elongated cells and were impaired in surface growth, indicating a misbalance in the membrane protein homeostasis. Therefore, these phenotypes have to be interpreted very critically. Microscopic studies with fluorescently tagged NbdA revealed either a diffuse fluorescent signal of NbdA or the formation of fluorescent foci which were located mainly at the cell poles. Co-localization studies with the polar flagellum and the chemotaxis protein CheA showed that NbdA is not generally localizing to the flagellated cell pole. NbdA localization indicates the control of a specific local c-di-GMP pool in the cell which is most likely involved in MapZ mediated chemotactic flagellar motor switching.
Multi-omics analysis as a tool to investigate causes and consequences of impaired genome integrity
(2022)
Impaired genome integrity has severe consequences for the viability of any cell. Unrepaired DNA lesions can lead to genomically unstable cells, which will often become predisposed for malignant growth and tumorigenesis, where genomic instability turns into a driving factor through the selection of more aggressive clones. Aneuploidy and polyploidy are both poorly tolerated in somatic cells, but frequently observed hallmarks of cancer. Keeping the genome intact requires the concentrated action of cellular metabolism, cell cycle and DNA damage response.
This study presents multi-omics analysis as a versatile tool to understand the various causes and consequences of impaired genome integrity. The possible computational approaches are demonstrated on three different datasets. First, an analysis of a collection of DNA repair experiments is shown, which features the creation of a high-fidelity dataset for the identification and characterization of DNA damage factors. Additionally, a web-application is presented that allows scientists without a computational background to interrogate this dataset. Further, the consequences of chromosome loss in human cells are analyzed by an integrated analysis of TMT labeled mass spectrometry and sequencing data. This analysis revealed heterogeneous cellular responses to chromosome losses that differ from chromosome gains. My analysis further revealed that cells possess both transcriptional and post-transcriptional mechanisms that compensate for the loss of genes encoded on a monosomic chromosome to alleviate the detrimental consequences of reduced gene expression. In my final project, I present a multi-omics analysis of data obtained from SILAC labeled mass spectrometry and dynamic transcriptome analysis of yeast cells of different ploidy, from haploidy to tetraploid. This analysis revealed that unlike cell volume, the proteome of a cell does not scale linearly with increasing ploidy. While the expression of most proteins followed this scaling, several proteins showed ploidy-dependent regulation that could not be explained by transcriptome expression. Hence, this ploidy-dependent regulation occurs mostly on a post-transcriptional level. The analysis uncovered that ribosomal and translation related proteins are downregulated with increasing ploidy, emphasizing a remodeling of the cellular proteome in response to increasing ploidy to ensure survival of cells after whole genome doubling. Altogether this study intends to show how state-of-the-art multi-omics analysis can uncover cellular responses to impaired genome integrity in a highly diverse field of research.
Gegenstand der Forschungsfrage ist, wie Wasserprogramme gemanagt werden, um zu einer nachhaltigen Entwicklung sowie zur Umsetzung des Sustainable Development Goal 6 und anderen zentralen SDGs der Agenda 2030 beitragen zu können, die als Fortschreibung der Millennium Development Goals eine wirksamere internationale Nachhaltigkeitspolitik sicherstellen sollen. Seit der Agenda 2030 versehen Durchführungsorganisationen der Entwicklungszusammenarbeit ihre Vorhaben mit dem Prädikat „nachhaltig“. Hier stellt sich die Frage, ob die Nachhaltigkeit nur auf dem Papier existiert oder ob sich tatsächlich nachhaltigere Ansätze erkennen lassen.
Im Rahmen der deutschen Entwicklungszusammenarbeit implementiert die Gesellschaft für Internationale Zusammenarbeit in Sambia das Vorhaben "Wasser klimasensibel bewirtschaften", in dessen Rahmen nachhaltige Maßnahmen ergriffen werden, Menschen zu befähigen, mit den veränderten klimatischen Bedingungen zurechtzukommen. Darunter fallen unter anderem Sensibilisierungsmaßnahmen für Landwirte, die dazu dienen, die Ressource Wasser effektiv zu nutzen, oder technische Eingriffe, die den Zweck verfolgen, Niederschläge aus Starkregenereignissen abzufangen bzw. deren Zerstörungspotenzial zu lindern.
Obwohl Sambia eines der wasserreichsten Länder Afrikas ist, haben dort nicht alle Menschen Zugang zu Wasser. Auch in der Landwirtschaft sind Engpässe zu verzeichnen. Diese Problematik wird zusätzlich durch den Klimawandel verstärkt. Es kam in den letzten Jahren zunehmend einerseits zu Ausfällen ganzer Regenzeiten, aber andererseits auch zu extremen Niederschlagsereignissen jenseits gewohnter Regen- und Trockenzeiten. Für Landwirte, die ihre Produktion auf die saisonalen Witterungsverhältnisse abgestimmt haben, sind diese unberechenbaren klimatischen Veränderungen existenzbedrohend. Trotz des Wasserreichtums kommt es dann entweder zu Engpässen bei der Bewässerung der Felder oder zur Zerstörung von Ernteerträgen durch Extremwetter.
Das von dem in Sambia lebenden Verfasser gewählte Fallbeispiel, dessen Analyse der Klärung der oben angeführten Forschungsfrage dienen soll, ist das GIZ-Projekt „Nachhaltige Bewirtschaftung von Wasserressourcen und landwirtschaftlicher Wassernutzung in Sambia“. Im Rahmen dieses Fallbeispiels wird kontrovers diskutiert, ob und inwiefern sich das heutige Nachhaltigkeitskonzept von bisherigen Maßnahmen unterscheidet, die zu Zeiten der MDGs noch nicht explizit nachhaltig geprägt waren. Der Verfasser wird sich kritisch mit der Frage auseinandersetzen, ob die in der Fallstudie gewählte Maßnahme "Wasser klimasensibel bewirtschaften" geeignet ist, langfristig nachhaltige Wirkung zu erzielen. Anhand des Fallbeispiels sollen theoretische Ansätze der Nachhaltigkeit empirisch untersucht werden.
Moderne Mikrostrukturierungsverfahren können dazu genutzt werden, die Eigenschaften von Bauteiloberflächen zu verändern und für bestimmte Anwendungsfälle gezielt zu optimieren. Gleichzeitig ist die Beschaffenheit einer Oberfläche von entscheidender Bedeutung für die Initiierung von Ermüdungsrissen. Im Rahmen dieser Arbeit wurden miniaturisierte Proben aus alpha-Titan mit drei verschiedenen Korngrößen, deren Oberflächen mithilfe von vier Mikrostrukturierungsverfahren modifiziert wurden, untersucht und die Einflussfaktoren auf die Schädigungsentwicklung unter zyklischer Beanspruchung eruiert.
Dafür wurden Methoden zur Charakterisierung der Oberflächenmorphologie (Topographie, Korngröße und kristallographische Orientierung) der Proben entwickelt. Die daraus abgeleiteten Informationen wurden für die Detektion kritischer Bereiche genutzt, in denen die Ermüdungsrissinitiierung vorzugsweise auftritt.
Die Untersuchungen zeigen, dass sich der Rissinitiierungsort anhand der entwickelten Methoden basierend auf Topographiedaten für Probenzustände bestimmen lässt, bei denen die Topographie den Rissinitiierungsort determiniert und bei denen folglich auch die Wechselfestigkeit aufgrund der Oberflächenstrukturierung reduziert ist. Für Probenzustände, bei denen die Rissinitiierung nicht an topographischen Merkmalen erfolgt, wird der Rissinitiierungsort durch lokale mikrostrukturelle Charakteristika bestimmt und konnte im Rahmen der vorliegenden Arbeit mit der Korngröße und der kristallographischen Orientierung korreliert werden.
In the field of measurement technology, the use of unmanned aerial vehicles is becoming more and more popular. For many measurement tasks, the use of such devices offers many advantages in terms of cost and measurement effort. However, the occurring vibrations and disturbances are a significant disadvantage for the application of these devices for several measurement tasks. Within the scope of this work, a platform for measurement devices is developed. The platform is designed specifically for use on drones. The task of the platform is to isolate measurement equipments mounted on it from the drone disturbances. For this purpose we go through the product development process according to VDI 2221 to design a mechanical model of the platform. Then, control strategies are applied to isolate the platform. Since the disturbances acting on a drone are not always stationary, two control strategies known for their ability to handle uncertain systems are used. One of them comes from the field of acoustic.