Refine
Year of publication
- 2018 (178) (remove)
Document Type
- Doctoral Thesis (79)
- Article (31)
- Master's Thesis (20)
- Working Paper (19)
- Periodical Part (17)
- Conference Proceeding (6)
- Preprint (3)
- Report (2)
- Study Thesis (1)
Has Fulltext
- yes (178)
Keywords
- Angebotsentwicklung (8)
- Hochschulforschung (8)
- wissenschaftliche Weiterbildung (8)
- Wissenschaftliche Weiterbildung (7)
- Bedarfserschließung (5)
- Bedarfserhebung (4)
- Erwachsenenbildung (4)
- Digitalisierung (3)
- Visualization (3)
- Carbonsäuren (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Sozialwissenschaften (31)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (23)
- Kaiserslautern - Fachbereich Informatik (18)
- Kaiserslautern - Fachbereich Mathematik (18)
- Distance and Independent Studies Center (DISC) (17)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Universität (9)
- Kaiserslautern - Fachbereich Bauingenieurwesen (7)
Funktion des C-terminalen Tryptophans cytosolischer Eisen-Schwefel-Proteine bei deren Assemblierung
(2018)
Eisen-Schwefel (Fe/S)-Cluster sind als essentielle Cofaktoren zahlreicher Proteine in allen Domänen des Lebens vertreten. In eukaryotischen Zellen sind ca. 50 cytosolische und nucleäre Fe/S-Proteine an lebenswichtigen Prozessen, wie der DNA-Replikation und Reparatur, Transkription, tRNA-Modifizierung, Ribosomenassemblierung und metabolischen Stoffwechselwegen, beteiligt. Die Biosynthese und die Insertion der Fe/S-Cluster in Apoproteine erfolgt durch die cytosolische Eisen-Schwefel-Protein-Assemblierungs-maschinerie (CIA). Daran sind nach aktuellem Kenntnisstand elf Faktoren beteiligt. Die zugrunde liegenden Mechanismen sind auf molekularer Ebene jedoch noch nicht aufgeklärt. So ist die Erkennung der Apoproteine durch den CIA-Targeting-Komplex bisher nahezu unerforscht. Molekulare Erkennungsfaktoren, eingebettet in der Primärsequenz der cytosolischen und nucleären Targetproteine, wurden bisher nicht beschrieben.
In bioinformatischen Analysen wurde das Tripeptid L(D/E)W am C-Terminus von cytosolischen und nucleären Fe/S-Proteinen identifiziert. Vor allem der Tryptophanrest ist auffällig hoch konserviert. Auf Grund des geringen Vorkommens dieser Aminosäure im eukaryotischen Proteom ist dieses frequente Auftreten von Interesse. Zunächst wurde der Einfluss des C-terminalen Tripeptides auf den Einbau des Fe/S-Clusters in die cytosolischen Apoproteine Leu1, Nar1 und Apd1 im Modellorganismus S. cerevisiae untersucht. C-terminal gekürzte bzw. mutierte Proteinvarianten zeigen in Enzymaktivitätsmessungen, 55Fe-Einbau-Experimenten und Wachstumsuntersuchungen einen Defekt im Clustereinbau. Im Gegensatz dazu hat das Tryptophan bei der Reifung der Isopropylmalat-Isomerase (IPMI, Leu1) in E. coli bzw. bei der chemischen Rekonstitution gereinigter Proteine keine Bedeutung, sodass eine Verbindung des Peptidmotives zur CIA-Maschinerie postuliert wird. Im zweiten Teil wurden Interaktionsstudien zwischen Targetproteinen bzw. Peptiden und den Proteinen des CIA-Targeting-Kompexes Cia1, Cia2 und Met18 durchgeführt. Als in vivo Verfahren wurden das Y2H- bzw. Y3H-System sowie die BioID angewendet. Neben Coimmunpräzipitation wurden auch Peptid-basierte in vitro Methoden wie Fluoreszenzanisotropie-Messungen, ITC und chemische Quervernetzung analysiert. Durch Depletionsstudien konnte gezeigt werden, dass das C-terminale Tryptophan insbesondere bei niedriger Cia1-Konzentration essentiell ist. Im dritten Teil war es möglich, die E. coli-IPMI durch Fusion mit der C-terminalen Sequenz der Hefe-IPMI im Hefecytosol funktionell zu exprimieren. Dieser Funktionstransfer ist abhängig von der CIA-Maschinerie. Dies ist von Bedeutung für die biotechnologische Anwendung von prokaryotischen Fe/S-Proteinen im Cytosol eukaryotischer Organismen. Diese Arbeit liefert, durch die Identifizierung des C-terminalen Tryptophans als Signalsequenz cytosolischer und nucleärer Fe/S-Proteine, einen wichtigen Beitrag zum Verständnis der Erkennung der Targetproteine durch die CIA-Maschinerie.
In separation processes not only thermodynamic bulk but also interfacial properties play a crucial role. In
classical theory, a vapour-liquid interface is a two-dimensional object. In reality it is a region in which
properties change over a few nanometres and the density changes continuously from its liquid bulk to its gas
bulk value. Many mixtures show unexpected effects in that transition region. While the total density changes
monotonously from the bulk vapour to the bulk liquid, this does not hold for the molarities of the components.
The molarities of the light boiling component can have a distinct maximum at the interface. That maximum
would be an insurmountable obstacle to mass transfer according to Fickian theory. Even if that argument is
not adopted, it shows that there is good reason to believe that the maximum may affect mass transfer and,
hence, fluid separation processes like absorption or distillation. Unfortunately, there are currently no
experimental methods that can be used for direct studies of density profiles in such interfacial regions. But
such data can be obtained with theoretical methods, namely with molecular dynamics simulations (MD) as
well as with density gradient theory (DGT) or with density functional theory (DFT) combined with an equation
of state (EOS).
Studies from our group on the vapour-liquid interface of several real mixtures and a model fluid using these
methods yield consistent results and reveal an important enrichment in some cases. Strong enrichment is
found at vapour-liquid interfaces in the systems in which one of the components is supercritical. These results
indicate that mixtures, which are typical for absorption processes usually show an important enrichment,
whereas this is not the case for mixtures that are typically separated by distillation.
Infobrief FBK 54/18
(2018)
Infobrief FBK 55/18
(2018)
Infobrief FBK 56/18
(2018)
Der Bericht rekonstruiert Bedarfslagen für eine erweiterte gemeindenahe Pflegepraxis anhand von Expert_inneninterviews mit pflegenden Angehörigen, Hausärzt_innen, Vertreter_innen von Pflegeverbänden und Hochschullehrenden. Es erfolgt zunächst die Darstellung des theoretischen Hintergrundes und der Methodik. Anschließend werden die Ergebnisse der qualitativen Erhebungen der genannten Befragtengruppen dargestellt und mit Blick auf deren Beitrag zur Entwicklung von Zertifikatskursen im Teilprojekt E-hoch-B – Pflege und Gesundheit diskutiert.
Der vorliegende Bericht stellt zunächst die Ausgangslage, die Bedarfe für eine erweiterte gemeindenahe Pflege und allgemeine Überlegungen zu einem partizipativen Forschungsprojekt in der Region Westpfalz im Kontext des Projektes E-hoch-B – Pflege und Gesundheit dar. Daran anschließend wird die Konzeption des partizipativen Forschungsprojekts präsentiert. Diese umfasst Überlegungen zur Bildung von Forschungsgruppen lokaler Akteure und einer Beratungsgruppe, sowie die Beschreibung der jeweiligen Rollen der beteiligten Personen, Vorstellungen zum zeitlichen Ablauf und mögliche zu bearbeitende Fragestellungen.
Der Zertifikatskurs „Interprofessionelle Kommunikation in gemeindenaher Gesundheitsversorgung“
(2018)
Der vorliegende Bericht beschreibt die Entwicklung und Inhalte des Hochschulzertifikats In-terprofessionelle Kommunikation in gemeindenaher Gesundheitsversorgung im Kontext des Projekts E-hoch-B – Pflege und Gesundheit.
Zunächst wird das Vorgehen im Rahmen der Angebotsentwicklung beschrieben. Die Darstellung der Kompetenzen, Überlegungen zum Tätigkeitsfeld und die Verknüpfung der Ergebnisse der Bedarfserhebungen mit den konkreten Inhalten des Zertifikats bilden den Schwerpunkt des Berichts. Abschließend werden didaktische Überlegungen zur Gestaltung des Zertifikats und zur Prüfungsform transparent gemacht.
Der vorliegende Bericht beschreibt die Entwicklung und die Inhalte des Hochschulzertifikats „Beraten, Informieren und Schulen in der Pflege" im Kontext des Projekts EB – Pflege und Gesundheit.
Zunächst wird das Vorgehen im Rahmen der Angebotsentwicklung beschrieben. Die Beschreibungen der Kompetenzen, Überlegungen zum Tätigkeitsfeld und die Verknüpfung der Ergebnisse der Bedarfserhebungen mit den konkreten Inhalten des Zertifikats bilden den Schwerpunkt des Berichts. Abschließend werden didaktische Überlegungen zur Gestaltung des Zertifikats und zur Prüfungsform transparent gemacht.
Der vorliegende Bericht beschreibt die Entwicklung und Inhalte des Hochschulzertifikats Versorgungsstrategien und psychosoziale Unterstützung für ein Leben mit Demenz zu Hause im Kontext des Projekts E-hoch-B – Pflege und Gesundheit.
Zunächst wird das Vorgehen im Rahmen der Angebotsentwicklung beschrieben. Die Darstellung der Kompetenzen, Überlegungen zum Tätigkeitsfeld und die Verknüpfung der Ergebnisse der Bedarfserhebungen mit den konkreten Inhalten des Zertifikats bilden den Schwerpunkt des Berichts. Abschließend werden didaktische Überlegungen zur Gestaltung des Zertifikats und zur Prüfungsform transparent gemacht.
Der Bericht stellt das methodische Vorgehen und die Ergebnisse quantitativer Studien zu Bildungsangeboten für erweiterte Pflege im gemeindenahen Bereich vor. Es wurden Pflegefachpersonen, Pflegedienstleitungen und Hausärzt_innen befragt.
Für alle drei Studienpopulationen erfolgt zunächst eine Beschreibung anhand der Basisdaten und eine Darstellung der Ergebnisse zu Zeitwünschen sowie zu vorstellbaren erweiterten Tätigkeiten. Das Interesse von Pflegefachpersonen an hochschulischen Bildungsangeboten wird aufgeführt, sowie die gestaltungsbezogenen Präferenzen von Pflegefachpersonen und Pflegedienstleitungen für hochschulische Weiterbildung.
Der vorliegende Bericht beschreibt die Entwicklung von Hochschulzertifikaten des Projekts E-hoch-B – Pflege und Gesundheit und ordnet diese in den Projektzusammenhang ein. Die Methodik der Angebotsentwicklung wird zunächst generell und darauf aufbauend spezifisch für das Zertifikat Ethik und Recht in gemeindenaher Gesundheitsversorgung beschrieben.
Die Beschreibungen der Kompetenzen, Überlegungen zum Tätigkeitsfeld und die Verknüpfung der Ergebnisse der Bedarfserhebungen mit den konkreten Inhalten des Zertifikats bilden den Schwerpunkt des Berichts. Abschließend werden didaktische Überlegungen zur Gestaltung des Zertifikats und zur Prüfungsform transparent gemacht.
Erprobung des berufsbegleitenden Bachelorstudiengangs Mechatronik an der Hochschule Kaiserslautern
(2018)
Der vorliegende Arbeits- und Forschungsbericht beschreibt die Begleitung der Studierenden im ersten Jahr des neu eingeführten berufsbegleitenden Bachelorstudiengangs Mechatronik durch das Projekt E-hoch-B. Der Studiengang startete im Sommersemester 2017 an der Hochschule Kaiserslautern. Das hochschulinterne Teilprojekt führte dabei zu zwei unterschiedlichen Zeiträumen qualitative Befragungen durch, um Erkenntnisse über die berufsbegleitend Studierenden und deren Wahrnehmung des Studiums zu gewinnen. Die Befragungen dienten der Qualitätssicherung des entwickelten Angebots. Aus ihnen lassen sich Maßnahmen und Empfehlungen für die Weiterentwicklung des Studiengangs Mechatronik und für die Entwicklung zukünftiger berufsbegleitender Studienangebote ableiten.
Das Ziel des vorliegenden Arbeits-und Forschungsberichts ist es, unter anderem einen Überblick über den wissenschaftlichen Weiterbildungsmarkt in der Region Westpfalz zu geben. Zu diesem Zweck wurden Informationen über bestehende Angebote der Weiterbildung gesammelt und eine Bildungsmarktanalyse durchgeführt. Die Angebote wurden anhand verschiedener Merkmale miteinander verglichen. Diese Merkmale betreffen die Zielgruppenorientierung und die Transparenz der Angebotsgestaltung. Als Ergebnis wurden Handlungsbedarfe identifiziert und Good-Practice-Beispiele vorgestellt. Dieser Bericht soll dazu beitragen diese Defizite aufzulösen und bedarfsorientierte wissenschaftliche Weiterbildungsmaßnahmen zu gestalten.
Der vorliegende Bericht fasst die Ergebnisse einer Online-Umfrage in pflegebezogenen Studiengängen an rheinland-pfälzischen Hochschulen und Universitäten zusammen. Ziel war es, Erkenntnisse zur Zusammensetzung der Studierendenschaft in den pflegebezogenen Studiengängen in Rheinland-Pfalzzu erhalten. Darüber hinaus sollten Erkenntnisse zu Bedürfnissen hinsichtlich der inhaltlichen, didaktischen und organisatorischen Gestaltung von Bildungsangeboten erlangt werden. Auch wurdenPräferenzen hinsichtlichhochschulischer Weiterbildung in Richtung erweiterter Pflegepraxis abgefragt.
We isolated an encysted ciliate from a geothermal field in Iceland. The morphological features of this isolate fit the descriptions of Dexiotricha colpidiopsis (Kahl, 1926) Jankowski, 1964 very well. These comprise body shape and size in vivo, the number of somatic kineties, and the positions of macronucleus and contractile vacuole. Using state-of-the-art taxonomic methods, the species is redescribed, including phylogenetic analyses of the small subunit ribosomal RNA (SSU rRNA) gene as molecular marker. In the phylogenetic analyses, D. colpidiopsis clusters with the three available SSU rRNA gene sequences of congeners, suggesting a monophyly of the genus Dexiotricha. Its closest relative in phylogenetic analyses is D. elliptica, which also shows a high morphological similarity. This is the first record of a Dexiotricha species from a hot spring, indicating a wide temperature tolerance of this species at least in the encysted state. The new findings on D. colpidiopsis are included in a briefly revision of the scuticociliate genus Dexiotricha and an identification key to the species.
Słowa kluczowe: Dexiotricha, hot spring, morphology, phylogeny, SSU rRNA gene
Initiated by a task in tunable microoptics, but not limited to this application, a microfluidic droplet array in an upright standing module with 3 × 3 subcells and droplet actuation via electrowetting is presented. Each subcell is filled with a single (of course transparent) water droplet, serving as a movable iris, surrounded by opaque blackened decane. Each subcell measures 1 × 1 mm ² and incorporates 2 × 2 quadratically arranged positions for the droplet. All 3 × 3 droplets are actuated synchronously by electrowetting on dielectric (EWOD). The droplet speed is up to 12 mm/s at 130 V (Vrms) with response times of about 40 ms. Minimum operating voltage is 30 V. Horizontal and vertical movement of the droplets is demonstrated. Furthermore, a minor modification of the subcells allows us to exploit the flattening of each droplet. Hence, the opaque decane fluid sample can cover each water droplet and render each subcell opaque, resulting in switchable irises of constant opening diameter. The concept does not require any mechanically moving parts or external pumps.
Biological soil crusts (biocrusts) are a common element of the Queensland (Australia) dry savannah ecosystem and are composed of cyanobacteria, algae, lichens, bryophytes, fungi and heterotrophic bacteria. Here we report how the CO2 gas exchange of the cyanobacteria-dominated biocrust type from Boodjamulla National Park in the north Queensland Gulf Savannah responds to the pronounced climatic seasonality and on their quality as a carbon sink using a semi-automatic cuvette system. The dominant cyanobacteria are the filamentous species Symplocastrum purpurascens together with Scytonema sp. Metabolic activity was recorded between 1 July 2010 and 30 June 2011, during which CO2 exchange was only evident from November 2010 until mid-April 2011, representative of 23.6 % of the 1-year recording period. In November at the onset of the wet season, the first month (November) and the last month (April) of activity had pronounced respiratory loss of CO2. The metabolic active period accounted for 25 % of the wet season and of that period 48.6 % was net photosynthesis (NP) and 51.4 % dark respiration (DR). During the time of NP, net photosynthetic uptake of CO2 during daylight hours was reduced by 32.6 % due to water supersaturation. In total, the biocrust fixed 229.09 mmol CO2 m−2 yr−1, corresponding to an annual carbon gain of 2.75 g m−2 yr−1. Due to malfunction of the automatic cuvette system, data from September and October 2010 together with some days in November and December 2010 could not be analysed for NP and DR. Based on climatic and gas exchange data from November 2010, an estimated loss of 88 mmol CO2 m−2 was found for the 2 months, resulting in corrected annual rates of 143.1 mmol CO2 m−2 yr−1, equivalent to a carbon gain of 1.7 g m−2 yr−1. The bulk of the net photosynthetic activity occurred above a relative humidity of 42 %, indicating a suitable climatic combination of temperature, water availability and light intensity well above 200 µmol photons m−2 s−1 photosynthetic active radiation. The Boodjamulla biocrust exhibited high seasonal variability in CO2 gas exchange pattern, clearly divided into metabolically inactive winter months and active summer months. The metabolic active period commences with a period (of up to 3 months) of carbon loss, likely due to reestablishment of the crust structure and restoration of NP prior to about a 4-month period of net carbon gain. In the Gulf Savannah biocrust system, seasonality over the year investigated showed that only a minority of the year is actually suitable for biocrust growth and thus has a small window for potential contribution to soil organic matter.
The extraction kinetics of polyphenols, which are leached from red vine leaves, are studied and evaluated using a laboratory robot and nonconventional processing techniques such as ultrasonic (US)-, microwave (MW)-, and pulsed electric field (PEF)-assisted extraction processes. The robotic high-throughput screening reveals optimal extraction conditions at a pH value of 2.5, a temperature of 56 °C, and a solvent mixture of methanol:water:HCl of 50:49:1 v/v/v. Nonconventional processing techniques, such as MW- and US-assisted extraction, have the fastest kinetics and produce the highest polyphenol yield. The non-conventional techniques yield is 2.29 g/L (MW) resp. 2.47 g/L (US) for particles that range in size from 450 to 2000 µm and 2.20 g/L (MW) resp. 2.05 g/L (US) for particles that range from 2000 to 4000 µm. PEF has the lowest yield of polyphenols with 0.94 g/L (450–2000 µm), resp. 0.64 g/L (2000–4000 µm) in comparison to 1.82 g/L (2000 to 4000 µm) in a standard stirred vessel (50 °C). When undried red vine leaves (2000 to 4000 µm) are used the total phenol content is 1.44 g/L with PEF.
In this study, the dependence of the cyclic deformation behavior on the surface morphology of metastable austenitic HSD® 600 TWinning Induced Plasticity (TWIP) steel was investigated. This steel—with the alloying concept Mn-Al-Si—shows a fully austenitic microstructure with deformation-induced twinning at ambient temperature. Four different surface morphologies were analyzed: as-received with a so-called rolling skin, after up milling, after down milling, and a reference morphology achieved by polishing. The morphologies were characterized by X-Ray Diffraction (XRD), Focused Ion Beam (FIB), Scanning Electron Microscopy (SEM) as well as confocal microscopy methods and show significant differences in initial residual stresses, phase fractions, topographies and microstructures. For specimens with all variants of the morphologies, fatigue tests were performed in the Low Cycle Fatigue (LCF) and High Cycle Fatigue (HCF) regime to characterize the cyclic deformation behavior and fatigue life. Moreover, this study focused on the frequency-dependent self-heating of the specimens caused by cyclic plasticity in the HCF regime. The results show that both surface morphology and specimen temperature have a significant influence on the cyclic deformation behavior of HSD® 600 TWIP steel in the HCF regime.
We report on generation of pulsed broadband terahertz radiation utilizing the inverse spin hall effect in Fe/Pt bilayers on MgO and sapphire substrates. The emitter was optimized with respect to layer thickness, growth parameters, substrates and geometrical arrangement. The experimentally determined optimum layer thicknesses were in qualitative agreement with simulations of the spin current induced in the ferromagnetic layer. Our model takes into account generation of spin polarization, spin diffusion and accumulation in Fe and Pt and electrical as well as optical properties of the bilayer samples. Using the device in a counterintuitive orientation a Si lens was attached to increase the collection efficiency of the emitter. The optimized emitter provided a bandwidth of up to 8 THz which was mainly limited by the low-temperature-grown GaAs (LT-GaAS) photoconductive antenna used as detector and the pulse length of the pump laser. The THz pulse length was as short as 220 fs for a sub 100 fs pulse length of the 800 nm pump laser. Average pump powers as low as 25 mW (at a repetition rate of 75 MHz) have been used for terahertz generation. This and the general performance make the spintronic terahertz emitter compatible with established emitters based on optical rectification in nonlinear crystals.
Entwicklung eines Verfahrens zur dreiphasigen Zustandsschätzung in vermaschten Niederspannungsnetzen
(2018)
Betreiber von Niederspannungsnetzen sind im Zuge der Energiewende durch den anhaltenden Ausbau dezentraler Erzeugungsanlagen und dem Aufkommen der Elektromobilität mit steigenden Netzauslastungen konfrontiert. Zukünftig wird ein sicherer Netzbetrieb ohne Leitungsüberlastungen grundsätzlich nur gewährleistet sein, wenn der Netzzustand durch geeignete Systeme ermittelt wird und auf dessen Basis ein intelligentes Netzmanagement mit regelnden Eingriffen erfolgt.
Diese Arbeit befasst sich mit der Entwicklung und dem Test eines Verfahrens zur dreiphasigen Zustandsschätzung in vermaschten Niederspannungsnetzen. Als Eingangsdaten dienen dabei Spannungs- und Strommesswerte, welche im Wesentlichen durch Smart Meter an Hausanschlusspunkten messtechnisch erfasst werden. Das Verfahren zielt darauf ab, Grenzwertverletzungen mit einer hohen Wahrscheinlichkeit zu erkennen.
Schwerpunkte der Betrachtung sind neben der Systemkonzeptionierung zum einen die Vorverarbeitung der Systemeingangsdaten im Rahmen der Generierung von Ersatzmesswerten sowie der Erkennung von Topologiefehlern und zum anderem die Entwicklung eines Schätzalgorithmus mit linearem Messmodell und der Möglichkeit zur Lokalisierung grob falscher Messdaten.
Das Projekt „Integration findet Stadt – Im Dialog zum Erfolg“ wird von 2017-2019 als eines von zehn Projekten im Rahmen der Nationalen Stadtentwicklungspolitik zum Thema Integration durchgeführt (gefördert vom Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit). Das bestehende Integrationskonzept der Stadt Kaiserslautern soll in diesem Kontext weiterentwickelt und an die veränderte Zusammensetzung der Migranten in der Stadt angepasst werden. Mit dem Projekt ist verbunden, auf Quartiersebene Partizipations- und Aktivierungsprozesse anzustoßen und Integrationsbedarfe und die Bereitschaft zum Engagement zu ermitteln. Ziel des Gesamtprojektes in Kaiserslautern ist es, die Vernetzung in den Quartieren zu stärken, um das Zusammenleben einfacher zu gestalten und Unterstützungspotenziale der deutsch wie migrantisch geprägten Bewohnerinnen und Bewohner zu aktivieren. Im Rahmen dieses Projektes hat das Fachgebiet Stadtsoziologie der TU Kaiserslautern eine Teil Studie über das Zusammenleben von Migranten und nicht Migranten in Kaiserslautern angefertigt.
Im ersten Teil der vorliegenden Studie wird eine statistische Bestandsaufnahme nach demografischen und sozial strukturellen Merkmalen der Bevölkerung in den verschiedenen Stadtteilen durchgeführt. Der zweite Teil informiert anhand von Interviews wie die sozialen Netzwerke in den unterschiedlichen Stadtteilen Kaiserslauterns von Zugewanderten und Alteingesessenen wahrgenommen werden. Im dritten Teil werden Ergebnisse einer quantitativen Befragung zum Zusammenleben im Stadtteil, Bewertungen und Vorstellungen sowie Potentiale für Engagement der Bewohner/innen Kaiserslauterns mit und ohne Migrationshintergrund dargestellt. Dieser Mix von quantitativen und qualitativen Methoden dient dazu um Unterschiede zwischen Bevölkerungsgruppen zu erfassen, Netzwerke des Zusammenlebens zu identifizieren und die unterschiedlichen Stärken und Schwächen der Stadtteile deutlich zu machen. Die unterschiedlichen Zugangswege sollen Integrationsbedarfe und –potenziale erkennbar machen um das vielfältige Leben der Stadt aufzuzeichnen.
In Anbetracht der Flüchtlingsbewegungen von 2014 bis 2016 und der damit einhergehenden Folgewirkungen auf die Bundesrepublik Deutschland als Aufnahmeland erhalten Fragen der Integration einen hohen Stellenwert in der aktuellen gesellschaftspolitischen Debatte. Der Begriff der Integration ist im deutschen Diskurs maßgeblich durch den Ansatz von Hartmut Esser geprägt (Esser 1980, 2001). Er unterscheidet vier Dimensionen der Integration: 1. Kulturation (Wissen, Sprache, gesellschaftliche Teilhabe), 2. Platzierung (Rechte, ökonomisches Potential, Zugang zum Bildungssystem, zum Arbeits- und Wohnungsmarkt); 3. Interaktion: kulturelles und soziales Kapital (Teilhabe am gesellschaftlichen und kulturellen Leben) und 4. Identifikation (Bürgersinn). Allerdings ist der Integrationsbegriff umstritten, da er die Aufgabe der Integration einseitig auf Seiten der Zuwandernden sieht und die Aufgaben der Aufnahmegesellschaft in diesem Prozess zu wenig berücksichtigt (Gestring 2014: 82). Der Begriff der Integration vernachlässigt darüber hinaus, dass sich vielfältige kulturelle Prägungen und Identitäten durchaus miteinander verbinden und gemeinsam leben lassen (West 2014: 92 ff.; Gans et al. 2014). Aus diesem Grund wird der Integrationsbegriff in den Migrationswissenschaften vermieden und neutralere Begriffe werden verwendet, wie Transnationalismus, Transmigration, Trans-, Inter- und Multikulturalität (ARL 2016: 2), Vielfalt, Zweiheimischkeit oder allgemein Vergesellschaftung (ARL 2016: 12). In Hinsicht auf soziale Unterschiede macht Vertovec mit dem Begriff der (Super-)Diversität auf die Bedeutung sozialer Ungleichheiten unterschiedlicher Aufenthaltstitel der Migranten aufmerksam, die mit Zukunftsrechten beziehungsweise Exklusion einhergehen (Vertovec 2007).
Jedoch ist der Begriff „Integration“ eingeführt und auch für praktische Anforderungen vor Ort gut handhabbar, vor allem wenn konkrete Verankerungen in den Lebensbereichen Arbeit, Wohnen, Freizeit und Kultur berührt sind. Zugleich sollte betont werden, dass der Integrationsbegriff nicht auf die Zuwandernden alleine fokussiert werden kann, sondern immer auch Integrationsleistungen von den übrigen Bevölkerungsmitgliedern und Akteuren erfordert.
Auf Stadtteilebene, dort wo die Menschen ihren Alltag verbringen, arbeiten Freiwillige und Organisationen zusammen, um die Integration zu erleichtern. Für die ehrenamtlich Tätigen und die Organisationen besteht die Notwendigkeit, die kulturelle Vielfalt in ihrer Arbeit aufzunehmen, die Ansprache und Prozesse entsprechend zu gestalten und dabei die sozialstrukturellen Bedingungen in den jeweiligen Nachbarschaften nicht außer Acht zu lassen (Sprachkenntnisse, Bildungsniveaus, Berufstätigkeit, familiäre Verpflichtungen, Aufenthaltstitel der verschiedenen Migrantengruppen). Die Veränderungen in der Zusammensetzung der zugewanderten Bevölkerung sind daher für die langjährig Beschäftigten vor Ort möglicherweise nicht unmittelbar nachzuvollziehen.
Verschiedene Studien zur Integration auf Quartiersebene zeigen, dass Rheinland-Pfalz ein hohes Niveau des freiwilligen Engagements erreicht hat (Gesemann/Roth 2015: 28). Wie an anderen Orten auch sind Migrantinnen und Migranten jedoch nur unterdurchschnittlich vertreten. Das Anliegen, die Teilnahmemöglichkeiten an der Gesellschaft zu erweitern, hat in den jeweiligen Stadtgebieten ganz unterschiedliche Voraussetzungen nach Aufenthaltstitel, Qualifikation, Alter oder Familiensituation der Bewohnerinnen und Bewohner. Neben Sprach- und Kontaktschwierigkeiten spielt seit der Flüchtlingsbewegung der Aufenthaltsstatus eine besondere Rolle, da er mit großer Unsicherheit bei den Lebensperspektiven und sonstigen Belastungen der Geflüchteten einhergeht (Vertovic 2007; Robert Bosch-Stiftung 2016; Brücker u.a./et al 2016).
Das Anliegen, die Teilnahmemöglichkeiten an der Gesellschaft zu erweitern, hat in den jeweiligen Stadtgebieten ganz unterschiedliche Voraussetzungen nach Aufenthaltstitel, Qualifikation, Alter oder Familiensituation der Bewohnerinnen und Bewohner.
Im Folgenden werden die stadtsozilogischen Erhebungen separat vorgestellt. Im ersten Teil werden die zentralen Indikatoren die das statistische Amt zur Verfügung stellt, so kleinräumig wie möglich vorgestellt. Die zentralen Indikatoren beziehen sich auf die Demografie und die soziale Lage von Migranten/innen und nicht Migranten/innen. Im zweiten Teil wird das Zusammenleben in ausgewählten Quartieren mit hohem Ausländer/innen bzw. Flüchtlingsanteil behandelt. Der dritte Teil beruht auf einer quantitativen Befragung im Rahmen der Interkulturellen Woche im September 2017, die auf Gemeinsamkeiten und Unterschiede der Wahrnehmung von Integration von Zugewanderten und Mehrheitsgesellschaft abzielt.
Postmortem Analysis of Decayed Online Social Communities: Cascade Pattern Analysis and Prediction
(2018)
Recently, many online social networks, such as MySpace, Orkut, and Friendster, have faced inactivity decay of their members, which contributed to the collapse of these networks. The reasons, mechanics, and prevention mechanisms of such inactivity decay are not fully understood. In this work, we analyze decayed and alive subwebsites from the Stack Exchange platform. The analysis mainly focuses on the inactivity cascades that occur among the members of these communities. We provide measures to understand the decay process and statistical analysis to extract the patterns that accompany the inactivity decay. Additionally, we predict cascade size and cascade virality using machine learning. The results of this work include a statistically significant difference of the decay patterns between the decayed and the alive subwebsites. These patterns are mainly cascade size, cascade virality, cascade duration, and cascade similarity. Additionally, the contributed prediction framework showed satisfactorily prediction results compared to a baseline predictor. Supported by empirical evidence, the main findings of this work are (1) there are significantly different decay patterns in the alive and the decayed subwebsites of the Stack Exchange; (2) the cascade’s node degrees contribute more to the decay process than the cascade’s virality, which indicates that the expert members of the Stack Exchange subwebsites were mainly responsible for the activity or inactivity of the Stack Exchange subwebsites; (3) the Statistics subwebsite is going through decay dynamics that may lead to it becoming fully-decayed; (4) the decay process is not governed by only one network measure, it is better described using multiple measures; (5) decayed subwebsites were originally less resilient to inactivity decay, unlike the alive subwebsites; and (6) network’s structure in the early stages of its evolution dictates the activity/inactivity characteristics of the network.
In modern algebraic geometry solutions of polynomial equations are studied from a qualitative point of view using highly sophisticated tools such as cohomology, \(D\)-modules and Hodge structures. The latter have been unified in Saito’s far-reaching theory of mixed Hodge modules, that has shown striking applications including vanishing theorems for cohomology. A mixed Hodge module can be seen as a special type of filtered \(D\)-module, which is an algebraic counterpart of a system of linear differential equations. We present the first algorithmic approach to Saito’s theory. To this end, we develop a Gröbner basis theory for a new class of algebras generalizing PBW-algebras.
The category of mixed Hodge modules satisfies Grothendieck’s six-functor formalism. In part these functors rely on an additional natural filtration, the so-called \(V\)-filtration. A key result of this thesis is an algorithm to compute the \(V\)-filtration in the filtered setting. We derive from this algorithm methods for the computation of (extraordinary) direct image functors under open embeddings of complements of pure codimension one subvarieties. As side results we show how to compute vanishing and nearby cycle functors and a quasi-inverse of Kashiwara’s equivalence for mixed Hodge modules.
Describing these functors in terms of local coordinates and taking local sections, we reduce the corresponding computations to algorithms over certain bifiltered algebras. It leads us to introduce the class of so-called PBW-reduction-algebras, a generalization of the class of PBW-algebras. We establish a comprehensive Gröbner basis framework for this generalization representing the involved filtrations by weight vectors.
The scales of white beetles strongly scatter light within a thin disordered network of
chitin filaments. There is no comparable artificial material achieving such a high scat-
tering strength within a thin layer of low refractive index material. Several analyses
investigated the scattering but could not explain the underlying concept. Here a model
system is described, which has the same optical properties as the white beetles’ scales
in the visible wavelength range. With some modification, it also explains the behavior
of the structures in the near infrared range. The comparison of the original structure and
the model system is done by finite-difference time-domain calculations. The calcula-
tions show excellent agreement with the beetles’ scales with respect to the reflectance,
the time-of-flight, and the intensity distribution in the far-field.
Für individuelle und nachhaltige Mobilität ist Leichtbau unverzichtbar. Die effiziente
Ressourcennutzung ist dafür eine technische Notwendigkeit. Das Gewicht eines
Fahrzeugs beeinflusst die Auslegung von Antriebsleistung, Speicherkapazität und
Strukturintegrität. Kohlenstofffaserverstärkte Kunststoffe ermöglichen über die
Kombination von gewichtsbezogen hoher Festigkeit eine Gewichtsreduktion. Durch
das Resin Transfer Molding Verfahren können entsprechende Komponenten in hoher
Stückzahl hergestellt werden. Zur weiteren Verbreitung des Werkstoffs ist eine
Reduktion der Herstellkosten notwendig. In dieser Arbeit werden zu diesem Zweck
werkzeugseitige Fließkanäle untersucht. Diese verkürzen den Fließweg, den das Fluid
durch die niedrigpermeable Verstärkungsstruktur fließen muss. Zur Charakterisierung
der Auswirkung von Fließkanälen auf den Fließfrontverlauf und die Injektionszeit wird
ein Versuchswerkzeug mit transparenten Werkzeughälften verwendet. Dadurch
können Fließfrontverläufe quantitativ mit einer Auflösung von einem Zeitwert pro 0,14
mm2 miteinander verglichen werden. Eine parabolische Querschnittsform ist
hinsichtlich dem Verhältnis von Ersatzpermeabilität und Querschnittsflächengröße
optimal. Eine kontinuierliche Vergrößerung der Fließkanalquerschnittsgröße wirkt sich
degressiv auf die Injektionszeit aus. Dadurch kann der Zusammenhang zwischen
Fließkanalquerschnittsgröße und Permeabilität der Verstärkungsstruktur quantifiziert
werden. Die Untersuchungen zeigen, dass die Reduktion des Fließwegs mit Hilfe von
Fließkanälen auch die Auswirkung von Falten in der Verstärkungsstruktur auf den
Fließfrontverlauf minimiert. Bei der Untersuchung verschiedener, möglicher
Einflussparameter auf die Fasereinschwemmung in Fließkanäle werden die Fließkanalquerschnittsgröße, Durchströmung und die relative Lagenorientierung
identifiziert. Durch die Verwendung von kleinen, schmalen Fließkanalquerschnitten
(Fließkanalbreite < 1,5 mm) kann eine Ondulation der Fasern vermieden werden.
Durch die kleinen Fließkanalquerschnitte kann die Erhöhung des Bauteilgewichts
minimiert werden. Die Versuchsergebnisse werden in Richtlinien zur Auslegung der
Fließkanalquerschnittsform und –größe zusammengefasst. Abschließend werden die
ermittelten Wirkzusammenhänge anhand eines Beispielbauteils, Stirnwand einer
Karosseriestruktur, validiert.
Über 68 Millionen Menschen sind derzeit weltweit auf der Flucht. Flucht ist zwar kein neues Phänomen, 2015 stellte jedoch in Deutschland und Österreich eine Zäsur dar: Nie zuvor suchten so viele Menschen in diesen Ländern Schutz. Die Debatten um geflüchtete Menschen sind seither in Medien und Gesellschaft allgegenwärtig. Darauf hat natürlich der Kinder- und Jugendbuchmarkt reagiert: Von 2015 bis 2017 nahm die Zahl der Neuerscheinungen zum Thema Flucht enorm zu, der Markt boomte. Fast jeder Verlag versuchte etwas dazu zu publizieren. Sogenannte „Fluchtbücher“ standen weit oben auf den Bestsellerlisten.
Kinder- und Jugendbücher transportieren und vermitteln Bilder, Inhalte, Werte und natürlich auch Stereotype – positive wie negative – in einer Gesellschaft. Literatur spielt daher eine wichtige Rolle in der Sozialisation. Zudem kann Kinder- und Jugendliteratur gerade im Aspekt der Fremdheit zu einer Vermittlungsinstanz werden, weil sie das Eintauchen in Fremderfahrungen erlaubt, und kann so im besten Falle zu verbesserter Interkultureller Kommunikation beitragen.
Diese Masterarbeit untersucht ausgewählte Kinder- und Jugendbücher, die in den Jahren 2015 bis 2017 erschienen sind, auf Bild- und Textebene, inwieweit hier Aspekte der Interkulturellen Kommunikation zum Tragen kommen, welche Stereotype reproduziert werden, wie Fremderfahrungen ermöglicht und beschrieben werden. Interkulturelle Kommunikation wird hier also in ihrer künstlerischen Widerspiegelung untersucht.
Relating mathematical concepts to graphical representations is a challenging task for students. In this paper, we introduce two visual strategies to qualitatively interpret the divergence of graphical vector field representations. One strategy is based on the graphical interpretation of partial derivatives, while the other is based on the flux concept. We test the effectiveness of both strategies in an instruction-based eye-tracking study with N = 41 physics majors. We found that students’ performance improved when both strategies were introduced (74% correct) instead of only one strategy (64% correct), and students performed best when they were free to choose between the two strategies (88% correct). This finding supports the idea of introducing multiple representations of a physical concept to foster student understanding.Relevant eye-tracking measures demonstrate that both strategies imply different visual processing of the vector field plots, therefore reflecting conceptual differences between the strategies. Advanced analysis methods further reveal significant differences in eye movements between the best and worst performing students. For instance, the best students performed predominantly horizontal and vertical saccades, indicating correct interpretation of partial derivatives. They also focused on smaller regions when they balanced positive and negative flux. This mixed method research leads to new insights into student visual processing of vector field representations, highlights the advantages and limitations of eye-tracking methodologies in this context, and discusses implications for teaching and for future research. The introduction of saccadic direction analysis expands traditional methods, and shows the potential to discover new insights into student understanding and learning difficulties.
III/V semiconductor quantum dots (QD) are in the focus of optoelectronics research for about 25 years now. Most of the work
has been done on InAs QD on GaAs substrate. But, e.g., Ga(As)Sb (antimonide) QD on GaAs substrate/buffer have also gained
attention for the last 12 years.There is a scientific dispute on whether there is a wetting layer before antimonide QD formation, as
commonly expected for Stransky-Krastanov growth, or not. Usually ex situ photoluminescence (PL) and atomic force microscope
(AFM) measurements are performed to resolve similar issues. In this contribution, we show that reflectance anisotropy/difference
spectroscopy (RAS/RDS) can be used for the same purpose as an in situ, real-time monitoring technique. It can be employed not
only to identify QD growth via a distinct RAS spectrum, but also to get information on the existence of a wetting layer and its
thickness. The data suggest that for antimonide QD growth the wetting layer has a thickness of 1 ML (one monolayer) only.
Cyanobacteria of biological soil crusts (BSCs) represent an important part of circumpolar
and Alpine ecosystems, serve as indicators for ecological condition and climate
change, and function as ecosystem engineers by soil stabilization or carbon and nitrogen
input. The characterization of cyanobacteria from both polar regions remains
extremely important to understand geographic distribution patterns and community
compositions. This study is the first of its kind revealing the efficiency of combining
denaturing gradient gel electrophoresis (DGGE), light microscopy and culture-based
16S rRNA gene sequencing, applied to polar and Alpine cyanobacteria dominated
BSCs. This study aimed to show the living proportion of cyanobacteria as an extension
to previously published meta-transcriptome
data of the same study sites.
Molecular fingerprints showed a distinct clustering of cyanobacterial communities
with a close relationship between Arctic and Alpine populations, which differed from
those found in Antarctica. Species richness and diversity supported these results,
which were also confirmed by microscopic investigations of living cyanobacteria
from the BSCs. Isolate-based
sequencing corroborated these trends as cold biome
clades were assigned, which included a potentially new Arctic clade of Oculatella.
Thus, our results contribute to the debate regarding biogeography of cyanobacteria
of cold biomes.
Influence of the Crystal Surface on the Austenitic and Martensitic Phase Transition in Pure Iron
(2018)
Using classical molecular dynamics simulations, we studied the influence that free
surfaces exert on the austenitic and martensitic phase transition in iron. For several single-indexed
surfaces—such as (100)bcc and (110)bcc as well as (100)fcc and (110)fcc surfaces—appropriate
pathways exist that allow for the transformation of the surface structure. These are the Bain,
Mao, Pitsch, and Kurdjumov–Sachs pathways, respectively. Tilted surfaces follow the pathway
of the neighboring single-indexed plane. The austenitic transformation temperature follows the
dependence of the specific surface energy of the native bcc phase; here, the new phase nucleates at
the surface. In contrast, the martensitic transformation temperature steadily decreases when tilting
the surface from the (100)fcc to the (110)fcc orientation. This dependence is caused by the strong
out-of-plane deformation that (110)fcc facets experience under the transformation; here, the new
phase also nucleates in the bulk rather than at the surface.
Education is the Achilles heel of successful resuscitation in cardiac arrest. Therefore, we aim to contribute to the educational efficiency by providing a novel augmented-reality (AR) guided interactive cardiopulmonary resuscitation (CPR) "trainer". For this trainer, a mixed reality smart glass, Microsoft HoloLens, and a CPR manikin covered with pressure sensors were used. To introduce the CPR procedure to a learner, an application with an intractable virtual teacher model was designed. The teaching scenario consists of the two main parts, theory and practice. In the theoretical part, the virtual teacher provides all information about the CPR procedure. Afterward, the user will be asked to perform the CPR cycles in three different stages. In the first two stages, it is aimed to gain the muscle memory with audio and optical feedback system. In the end, the performance of the participant is evaluated by the virtual teacher.
We present a study comparing the effect of real-time wearable feedback with traditional training methods for cardiopulmonary resuscitation (CPR). The aim is to ensure that the students can deliver CPR with the right compression speed and depth. On the wearable side, we test two systems: one based on a combination of visual feedback and tactile information on a smart-watch and one based on visual feedback and audio information on a Google Glass. In a trial with 50 subjects (23 trainee nurses and 27 novices,) we compare those modalities to standard human teaching that is used in nurse training. While a single traditional teaching session tends to improve only the percentage of correct depth, it has less effect on the percentage of effective CPR (depth and speed correct at the same time). By contrast, in a training session with the wearable feedback device, the average percentage of time when CPR is effective improves by up to almost 25%.
For modeling approaches in systems biology, knowledge of the absolute abundances of cellular proteins is essential. One way to gain this knowledge is the use of quantification concatamers (QconCATs), which are synthetic proteins consisting of proteotypic peptides derived from the target proteins to be quantified. The QconCAT protein is labeled with a heavy isotope upon expression in E. coli and known amounts of the purified protein are spiked into a whole cell protein extract. Upon tryptic digestion, labeled and unlabeled peptides are released from the QconCAT and the native proteins, respectively, and both are quantified by LC-MS/MS. The labeled Q-peptides then serve as standards for determining the absolute quantity of the native peptides/proteins. Here we have applied the QconCAT approach to Chlamydomonas reinhardtii for the absolute quantification of the major proteins and protein complexes driving photosynthetic light reactions in the thylakoid membranes and carbon fixation in the pyrenoid. We found that with 25.2 attomol/cell the Rubisco large subunit makes up 6.6% of all proteins in a Chlamydomonas cell and with this exceeds the amount of the small subunit by a factor of 1.56. EPYC1, which links Rubisco to form the pyrenoid, is eight times less abundant than RBCS, and Rubisco activase is 32-times less abundant than RBCS. With 5.2 attomol/cell, photosystem II is the most abundant complex involved in the photosynthetic light reactions, followed by plastocyanin, photosystem I and the cytochrome b6/f complex, which range between 2.9 and 3.5 attomol/cell. The least abundant complex is the ATP synthase with 2 attomol/cell. While applying the QconCAT approach, we have been able to identify many potential pitfalls associated with this technique. We analyze and discuss these pitfalls in detail and provide an optimized workflow for future applications of this technique.
Poor posture in childhood and adolescence is held responsible for the occurrence
of associated disorders in adult age. This study aimed to verify whether body
posture in adolescence can be enhanced through the improvement of neuromuscular
performance, attained by means of targeted strength, stretch, and body perception
training, and whether any such improvement might also transition into adulthood. From
a total of 84 volunteers, the posture development of 67 adolescents was checked
annually between the age of 14 and 20 based on index values in three posture
situations. 28 adolescents exercised twice a week for about 2 h up to the age of 18, 24
adolescents exercised continually up to the age of 20. Both groups practiced other
additional sports for about 1.8 h/week. Fifteen persons served as a non-exercising
control group, practicing optional sports of about 1.8 h/week until the age of 18,
after that for 0.9 h/week. Group allocation was not random, but depended on the
participants’ choice. A linear mixed model was used to analyze the development
of posture indexes among the groups and over time and the possible influence of
anthropometric parameters (weight, size), of optional athletic activity and of sedentary
behavior. The post hoc pairwise comparison was performed applying the Scheffé test.
The significance level was set at 0.05. The group that exercised continually (TR20)
exhibited a significant posture parameter improvement in all posture situations from
the 2nd year of exercising on. The group that terminated their training when reaching
adulthood (TR18) retained some improvements, such as conscious straightening of the
body posture. In other posture situations (habitual, closed eyes), their posture results
declined again from age 18. The effect sizes determined were between Eta² = 0.12 and
Eta² = 0.19 and represent moderate to strong effects. The control group did not exhibit
any differences. Anthropometric parameters, additional athletic activities and sedentary
behavior did not influence the posture parameters significantly. An additional athletic
training of 2 h per week including elements for improved body perception seems to
have the potential to improve body posture in symptom free male adolescents and
young adults.
To investigate whether participants can activate only one spatially oriented number line at a time or
multiple number lines simultaneously, they were asked to solve a unit magnitude comparison task
(unit smaller/larger than 5) and a parity judgment task (even/odd) on two-digit numbers. In both these
primary tasks, decades were irrelevant. After some of the primary task trials (randomly), participants
were asked to additionally solve a secondary task based on the previously presented number. In
Experiment 1, they had to decide whether the two-digit number presented for the primary task was
larger or smaller than 50. Thus, for the secondary task decades were relevant. In contrast, in Experiment
2, the secondary task was a color judgment task, which means decades were irrelevant. In Experiment
1, decades’ and units’ magnitudes influenced the spatial association of numbers separately. In contrast,
in Experiment 2, only the units were spatially associated with magnitude. It was concluded that
multiple number lines (one for units and one for decades) can be activated if attention is focused on
multiple, separate magnitude attributes.
Cutting-edge cancer therapy involves producing individualized medicine for many patients at the same time. Within this process, most steps can be completed for a certain number of patients simultaneously. Using these resources efficiently may significantly reduce waiting times for the patients and is therefore crucial for saving human lives. However, this involves solving a complex scheduling problem, which can mathematically be modeled as a proportionate flow shop of batching machines (PFB). In this thesis we investigate exact and approximate algorithms for tackling many variants of this problem. Related mathematical models have been studied before in the context of semiconductor manufacturing.
The size congruity effect involves interference between numerical magnitude and physical size of visually presented numbers: congruent numbers (either both small or both large in numerical magnitude and physical size) are responded to faster than incongruent ones (small numerical magnitude/large physical size or vice versa). Besides, numerical magnitude is associated with lateralized response codes, leading to the Spatial Numerical Association of Response Codes (SNARC) effect: small numerical magnitudes are preferably responded to on the left side and large ones on the right side. Whereas size congruity effects are ascribed to interference between stimulus dimensions in the decision stage, SNARC effects are understood as (in)compatibilities in stimulus-response combinations. Accordingly, size congruity and SNARC effects were previously found to be independent in parity and in physical size judgment tasks. We investigated their dependency in numerical magnitude judgment tasks. We obtained independent size congruity and SNARC effects in these tasks and replicated this observation for the parity judgment task. The results confirm and extend the notion that size congruity and SNARC effects operate in different representational spaces. We discuss possible implications for number representation.
Der Fokus der vorliegenden Arbeit liegt auf endlosfaser- und langfaserverstärkten
thermoplastischen Materialien. Hierfür wurde das „multilayered hybrid
(MLH)“ Konzept entwickelt und auf zwei Halbzeuge, den MLH-Roving und die MLHMat
angewendet. Der MLH-Roving ist ein Roving (bestehend aus Endlosfasern), der
durch thermoplastische Folien in mehrere Schichten geteilt wird. Der MLH-Roving
wird durch eine neuartige Spreizmethode mit anschließender thermischen Fixierung
und abschließender mehrfacher Faltung hergestellt. Dadurch können verschiedene
Faser-Matrix-Konfigurationen realisiert werden. Die MLH-Mat ist ein
glasmattenverstärktes thermoplastisches Material, das für hohe Fasergehalte bis 45
vol. % und verschiedene Matrixpolymere, z.B. Polypropylen (PP) und Polyamide 6
(PA6) geeignet ist. Sie zeichnet sich durch eine hohe Homogenität in der
Flächendichte und in der Faserrichtung aus. Durch dynamische Crashversuche mit
auf MLH-Roving und MLH-Mat basierenden Probekörpern wurden das
Crashverhalten und die Performance untersucht. Die Ergebnisse der Crashkörper
basierend auf langfaserverstärktem Material (MLH-Mat) und endlosfaserverstärktem
Material (MLH-Roving) waren vergleichbar. Die PA6-Typen zeigten eine bessere
Crashperformance als PP-Typen.
The present work deals with continuous fiber- and long fiber reinforced thermoplastic
materials. The concept of multilayered hybrid (MLH) structure was developed and
applied to the so-called MLH-roving and MLH-mat. The MLH-roving is a continuous
fiber roving separated evenly into several sublayers by thermoplastic films, through
the sequential processes of spreading with a newly derived equation, thermal fixing,
and folding. It was aimed to satisfy the variety of material configuration as well as the
variety in intermediate product. The MLH-mat is a glass mat reinforced thermoplastic
(GMT)-like material that is suitable for high fiber contents up to 45 vol. % and various
matrix polymers, e.g. polypropylene (PP), polyamide 6 (PA6). It showed homogeneity
in areal density, random directional fiber distribution, and reheating stability required
for molding process. On the MLH-roving and MLH-mat materials, the crash behavior
and performance were investigated by dynamic crash test. Long fiber reinforced
materials (MLH-mat) were equivalent to continuous fiber reinforced materials (MLHroving),
and PA6 grades showed higher crash performance than PP grades.
The gas phase infrared and fragmentation spectra of a systematic group of trimetallic oxo-centered
transition metal complexes are shown and discussed, with formate and acetate bridging ligands and
pyridine and water as axial ligands.
The stability of the complexes, as predicted by appropriate ab initio simulations, is demonstrated to
agree with collision induced dissociation (CID) measurements.
A broad range of DFT calculations are shown. They are used to simulate the geometry, the bonding
situation, relative stability and flexibility of the discussed complexes, and to specify the observed
trends. These simulations correctly predict the trends in the band splitting of the symmetric and
asymmetric carboxylate stretch modes, but fail to account for anharmonic effects observed specifically
in the mid IR range.
The infrared spectra of the different ligands are introduced in a brief literature review. Their changes
in different environments or different bonding situations are discussed and visualized, especially the
interplay between fundamental-, overtone-, and combination bands, as well as Fermi resonances
between them.
A new variation on the infrared multi photon dissociation (IRMPD) spectroscopy method is proposed
and evaluated. In addition to the commonly considered total fragment yield, the cumulative fragment
yield can be used to plot the wavelength dependent relative abundance of different fragmentation
products. This is shown to include valuable additional information on the excited chromophors, and
their coupling to specific fragmentation channels.
High quality homo- and heterometallic IRMPD spectra of oxo centered carboxylate complexes of
chromium and iron show the impacts of the influencing factors: the metal centers, the bridging ligands,
their carboxylate stretch modes and CH bend modes, and the terminal ligands.
In all four formate spectra, anharmonic effects are necessary to explain the observed spectra:
combination bands of both carboxylate stretch modes and a Fermi resonance of the fundamental of
the CH stretch mode, and a combination band of the asymmetric carboxylate stretch mode with the
CH bend mode of the formate bridging ligand.
For the water adduct species, partial hydrolysis is proposed to account for the changes in the observed
carboxylic stretch modes.
Appropriate experiments are suggested to verify the mode assignments that are not directly explained
by the ab initio calculations, the available experimental results or other means like deuteration
experiments.
Die Einführung des Internets hat einen stetigen Wandel des täglichen,
sowie beruflichen Alltags verursacht. Hierbei ist eine deutliche Verlagerung
in den virtuellen Raum (Internet) festzustellen. Zusätzlich hat
die Einführung von sozialen Netzwerken, wie beispielsweise Facebook
das Verlangen des Nutzers immer „online“ zu sein, deutlich verstärkt.
Hinzu kommen die kontinuierlich wachsenden Datenmengen, welche beispielsweise
durch Videostreaming (YouTube oder Internet Protocol Television
(IPTV)) oder den Austausch von Bildern verursacht werden.
Zusätzlich verursachen neue Dienste, welche beispielsweise im Rahmen
vom Internet der Dinge und auch Industrie 4.0 eingeführt werden, zusätzliche
Datenmengen. Aktuelle Technologien wie Long Term Evolution
Advanced (LTE-A) im Funkbereich und Very High Speed Digital Subsciber
Line (VDSL) beziehungsweise Glasfaser in kabelgebundenen Netzen,
versuchen diesen Anforderungen gerecht zu werden.
Angesichts der steigenden Anforderungen an die Mobilität des Nutzers,
ist die Verwendung von Funktechnologien unabdingbar. In Verbindung
mit dem stetig wachsenden Datenaufkommen und den ansteigenden
Datenraten ist ein wachsender Bedarf an Spektrum, also freien,
beziehungsweise ungenutzten Frequenzbereichen einhergehend. Für die
Identifikation geeigneter Bereiche müssen allerdings eine Vielzahl von
Parametern und Einflussfaktoren betrachtet werden. Einer der entscheidenden
Parameter ist die entstehende Dämpfung im betrachteten Frequenzbereich,
da diese mit steigender Frequenz größer wird und somit
die resultierende Abdeckung bei gleichbleibender Sendeleistung sinkt.
In aktuellen Funksystemen werden Frequenzen < 6 GHz verwendet, da
diese von den Ausbreitungseigenschaften geeignete Eigenschaften aufweisen.
Des Weiteren müssen vorhandene Nutzungsrechte, Inhaber des
Spektrums, Nutzungsbedingungen und so weiter im Vorfeld abgeklärt
werden. In Deutschland wird die Koordination von der Bundesnetzagentur
vorgenommen.
Aufgrund der Vielfalt der vorhandenen Dienste und Anwendungen ist
es leicht ersichtlich, dass der Frequenzbereich < 6 GHz stark ausgelastet
ist. Neben den kontinuierlich ausgelasteten Diensten wie zum Beispiel
Long Term Evolution (LTE) oder Digital Video Broadcast (DVB), gibt
es spektrale Bereiche, die nur eine geringe zeitliche Auslastung aufweisen.
Markant hierfür sind Frequenzbereiche, welche beispielsweise ausschließlich
für militärische Nutzung reserviert sind. Bei genauerer Betrachtung
fällt auf, dass sich dies nicht ausschließlich auf den zeitlichen Bereich
beschränkt, vielmehr ergibt sich eine Kombination aus zeitlicher und
räumlicher Beschränkung, da die Nutzung meist auf einen räumlichen
Bereich eingrenzbar ist. Eine weitere Einschränkung resultiert aus der
derzeit starren Vergabe von Frequenzbereichen. Die Zuteilung basiert
auf langwierigen Antragsverfahren und macht somit eine kurzfristige variable
Zuteilung unmöglich.
Um diesem Problem gerecht zu werden, erfolgt im Rahmen dieser Arbeit
die Entwicklung eines generischen Spektrum-Management-Systems
(SMSs) zur dynamischen Zuteilung vorhandener Ressourcen. Eine Anforderung
an das System ist die Unterstützung von bereits bekannten
Spektrum Sharing Verfahren, wie beispielsweise Licensed Shared Access
(LSA) beziehungsweise Authorized Shared Access (ASA) oder Spectrum
Load Smoothing (SLS). Hierfür wird eine Analyse der derzeit bekannten
Sharing Verfahren vorgenommen und diese bezüglich ihrer Anwendbarkeit
charakterisiert. DesWeiteren werden die Frequenzbereiche unterhalb
6 GHz hinsichtlich ihrer Verwendbarkeiten und regulatorischen Anforderungen
betrachtet. Zusätzlich wird ein erweiterter Anforderungskatalog
an das Spektrum-Management-System (SMS) entwickelt, welcher
als Grundlage für das Systemdesign verwendet wird. Essentiell ist hierbei,
dass alle (potentiellen) Nutzer beziehungsweise Inhaber eines spektralen
Bereiches die Funktionalität eines derartigen Systems verwenden
können. Hieraus ergibt sich bereits die Anforderung der Skalierbarkeit
des Systems. Zur Entwicklung einer geeigneten Systemarchitektur werden
bereits vorhandene Lösungsansätze zur Verwaltung und Speicherung
von Daten hinsichtlich ihrer Anwendbarkeit verglichen und bewertet.
Des Weiteren erfolgt die Einbeziehung der geografischen Position.
Um dies adäquat gewährleisten zu können, werden hierarchische Strukturen
in Netzwerken untersucht und auf ihre Verwendbarkeit geprüft.
Das Ziel dieser Arbeit ist die Entwicklung eines Spektrum-Management-
Systems (SMSs) durch Adaption bereits vorhandener Technologien und
Verfahren, sowie der Berücksichtigung aller definierten Anforderungen.
Es hat sich gezeigt, dass die Verwendung einer zentralisierten Broker-
Lösung nicht geeignet ist, da die Verzögerungszeit einen exponentiellförmigen
Verlauf bezüglich der Anzahl der Anfragen aufweist und somit
nicht skaliert. Dies kann mittels einer Distributed Hash Table (DHT)-
basierten Erweiterung überwunden werden ohne dabei die Funktionalität
der Broker-Lösung einzuschränken. Für die Einbringung der Geoinformation
hat sich die hierarchische Struktur, vergleichbar zum Domain
Naming Service (DNS) als geeignet erwiesen.
Als Parameter für die Evaluierung hat sich die resultierende Zugriffszeit,
das heißt die Zeit welche das System benötigt um Anfragen zu
bearbeiten, sowie die resultierende Anzahl der versorgbaren Nutzer herausgestellt.
Für die Simulation wird ein urbanes Areal mit fünf Gebäuden
betrachtet. In der Mitte befindet sich ein sechsstöckiges Firmengebäude,
welches in jedem Stockwerk mit einem Wireless Local Area Network Access
Point (WLAN-AP) ausgestattet ist. Umliegend befinden sich vier
Privathäuser, welche jeweils mit einem WLAN-AP ausgestattet sind.
Das komplette Areal wird von drei Mobilfunkbetreibern mit je einer
Basisstation (BS) versorgt. Als Ausgangspunkt für die Evaluierung erfolgt
der Betrieb ohne SMS. Aus den Ergebnissen wird deutlich, dass
eine Überlastung der Long Term Evolution Basisstationen (LTE-BSen)
vorliegt (im Speziellen bei Betreiber A und B). Im zweiten Durchlauf
wird das Szenario mit einem SMS betrachtet. Zusätzlich kommen in diesem
Fall noch Mikro Basisstationen (Mikro-BSen) zum Einsatz, welche
von der Spezifikation vergleichbar zu einem Wireless Local Area Network
(WLAN) sind. Hier zeigt sich ein deutlich ausgewogeneres Systemverhalten.
Alle BSen und Access Points (APs) befinden sich deutlich
unterhalb der Volllastgrenze.
Die Untersuchungen im Rahmen dieser Arbeit belegen, dass ein heterogenes,
zeitweise überlastetes Funksystem, vollständig harmonisiert
werden kann. Des Weiteren ermöglicht der Einsatz eines SMSs die effiziente
Verwendung von temporär ungenutzten Frequenzbereichen (sogenannte
White- und Gray-spaces).
In Anbetracht leistungsschwacher öffentlicher Institutionen im subsaharischen Afrika formulierte die Weltbank in den neunziger Jahren ein Anforderungsprofil an den Staat und die öffentliche Verwaltung. Sie führte wesentliche Ursachen für die sozialen und ökonomischen Fehlentwicklungen im subsaharischen Afrika auf Defizite im institutionellen Umfeld von Staat und Verwaltung zurück. In der Folgezeit avancierte dieses Anforderungsprofil zum entwicklungspolitischen Leitbild des Good Governance.
Heute bildet das Thema einen elementaren Bereich der internationalen Entwicklungszusammenarbeit und einen zentralen Aspekt der entwicklungspolitischen Auseinandersetzung. Insbesondere die unterschiedlichen Auffassungen darüber, inwiefern Demokratisierungsforderungen mit dem Leitbild des Good Governance verknüpft werden sollten, sind immer wieder Gegenstand der wissenschaftlichen und der politischen Diskussion. Deutlich kommt in diesem Zusammenhang die Streitfrage zum Ausdruck, ob die Entwicklung eines Staates Demokratie voraussetzt oder ob die Demokratie umgekehrt vielmehr ein Ergebnis erfolgreicher Entwicklungsprozesse darstellt. Es ist anzumerken, dass die Entwicklungsforschung diese Frage bislang nicht widerspruchsfrei erklären konnte. Darüber hinaus sprechen zahlreiche Länderbeispiele vielmehr dafür, dass die Staatsform grundsätzlich nicht die entscheidende Variable bildet, um klare Erkenntnisse für die Begründung ökonomischen Wachstums bzw. für die Erfolge der Armutsbekämpfung abzuleiten. Es erscheint zunächst folgerichtig, dass die Weltbank in Bezug auf Good Governance keine Demokratisierungsforderungen stellt.
In der vorliegenden Ausarbeitung wird vor diesem Hintergrund untersucht, inwiefern sich die Staatsform eines Landes auf die Existenz der jeweiligen Prinzipien für Good Governance auswirkt. Anhand zweier ökonomisch erfolgreicher afrikanischer Länder wird analysiert, inwiefern entwicklungsförderliche Good Governance-Strukturen unabhängig von der jeweils vorherrschenden Staatsform existieren können. Methodisch wird dabei das Anforderungsprofil der Weltbank auf die Demokratie Mauritius und auf die Autokratie Ruanda angewendet.
Numerical Godeaux surfaces are minimal surfaces of general type with the smallest possible numerical invariants. It is known that the torsion group of a numerical Godeaux surface is cyclic of order \(m\leq 5\). A full classification has been given for the cases \(m=3,4,5\) by the work of Reid and Miyaoka. In each case, the corresponding moduli space is 8-dimensional and irreducible.
There exist explicit examples of numerical Godeaux surfaces for the orders \(m=1,2\), but a complete classification for these surfaces is still missing.
In this thesis we present a construction method for numerical Godeaux surfaces which is based on homological algebra and computer algebra and which arises from an experimental approach by Schreyer. The main idea is to consider the canonical ring \(R(X)\) of a numerical Godeaux surface \(X\) as a module over some graded polynomial ring \(S\). The ring \(S\) is chosen so that \(R(X)\) is finitely generated as an \(S\)-module and a Gorenstein \(S\)-algebra of codimension 3. We prove that the canonical ring of any numerical Godeaux surface, considered as an \(S\)-module, admits a minimal free resolution whose middle map is alternating. Moreover, we show that a partial converse of this statement is true under some additional conditions.
Afterwards we use these results to construct (canonical rings of) numerical Godeaux surfaces. Hereby, we restrict our study to surfaces whose bicanonical system has no fixed component but 4 distinct base points, in the following referred to as marked numerical Godeaux surfaces.
The particular interest of this thesis lies on marked numerical Godeaux surfaces whose torsion group is trivial. For these surfaces we study the fibration of genus 4 over \(\mathbb{P}^1\) induced by the bicanonical system. Catanese and Pignatelli showed that the general fibre is non-hyperelliptic and that the number \(\tilde{h}\) of hyperelliptic fibres is bounded by 3. The two explicit constructions of numerical Godeaux surfaces with a trivial torsion group due to Barlow and Craighero-Gattazzo, respectively, satisfy \(\tilde{h} = 2\).
With the method from this thesis, we construct an 8-dimensional family of numerical Godeaux surfaces with a trivial torsion group and whose general element satisfy \(\tilde{h}=0\).
Furthermore, we establish a criterion for the existence of hyperelliptic fibres in terms of a minimal free resolution of \(R(X)\). Using this criterion, we verify experimentally the
existence of a numerical Godeaux surface with \(\tilde{h}=1\).
The growing computational power enables the establishment of the Population Balance Equation (PBE)
to model the steady state and dynamic behavior of multiphase flow unit operations. Accordingly, the twophase
flow
behavior inside liquid-liquid extraction equipment is characterized by different factors. These
factors include: interactions among droplets (breakage and coalescence), different time scales due to the
size distribution of the dispersed phase, and micro time scales of the interphase diffusional mass transfer
process. As a result of this, the general PBE has no well known analytical solution and therefore robust
numerical solution methods with low computational cost are highly admired.
In this work, the Sectional Quadrature Method of Moments (SQMOM) (Attarakih, M. M., Drumm, C.,
Bart, H.-J. (2009). Solution of the population balance equation using the Sectional Quadrature Method of
Moments (SQMOM). Chem. Eng. Sci. 64, 742-752) is extended to take into account the continuous flow
systems in spatial domain. In this regard, the SQMOM is extended to solve the spatially distributed
nonhomogeneous bivariate PBE to model the hydrodynamics and physical/reactive mass transfer
behavior of liquid-liquid extraction equipment. Based on the extended SQMOM, two different steady
state and dynamic simulation algorithms for hydrodynamics and mass transfer behavior of liquid-liquid
extraction equipment are developed and efficiently implemented. At the steady state modeling level, a
Spatially-Mixed SQMOM (SM-SQMOM) algorithm is developed and successfully implemented in a onedimensional
physical spatial domain. The integral spatial numerical flux is closed using the mean mass
droplet diameter based on the One Primary and One Secondary Particle Method (OPOSPM which is the
simplest case of the SQMOM). On the other hand the hydrodynamics integral source terms are closed
using the analytical Two-Equal Weight Quadrature (TEqWQ). To avoid the numerical solution of the
droplet rise velocity, an analytical solution based on the algebraic velocity model is derived for the
particular case of unit velocity exponent appearing in the droplet swarm model. In addition to this, the
source term due to mass transport is closed using OPOSPM. The resulting system of ordinary differential
equations with respect to space is solved using the MATLAB adaptive Runge–Kutta method (ODE45). At
the dynamic modeling level, the SQMOM is extended to a one-dimensional physical spatial domain and
resolved using the finite volume method. To close the mathematical model, the required quadrature nodes
and weights are calculated using the analytical solution based on the Two Unequal Weights Quadrature
(TUEWQ) formula. By applying the finite volume method to the spatial domain, a semi-discreet ordinary
differential equation system is obtained and solved. Both steady state and dynamic algorithms are
extensively validated at analytical, numerical, and experimental levels. At the numerical level, the
predictions of both algorithms are validated using the extended fixed pivot technique as implemented in
PPBLab software (Attarakih, M., Alzyod, S., Abu-Khader, M., Bart, H.-J. (2012). PPBLAB: A new
multivariate population balance environment for particulate system modeling and simulation. Procedia
Eng. 42, pp. 144-562). At the experimental validation level, the extended SQMOM is successfully used
to model the steady state hydrodynamics and physical and reactive mass transfer behavior of agitated
liquid-liquid extraction columns under different operating conditions. In this regard, both models are
found efficient and able to follow liquid extraction column behavior during column scale-up, where three
column diameters were investigated (DN32, DN80, and DN150). To shed more light on the local
interactions among the contacted phases, a reduced coupled PBE and CFD framework is used to model
the hydrodynamic behavior of pulsed sieve plate columns. In this regard, OPOSPM is utilized and
implemented in FLUENT 18.2 commercial software as a special case of the SQMOM. The dropletdroplet
interactions
(breakage
and
coalescence)
are
taken
into
account
using
OPOSPM,
while
the
required
information
about
the
velocity
field
and
energy
dissipation
is
calculated
by
the
CFD
model.
In
addition
to
this,
the proposed coupled OPOSPM-CFD framework is extended to include the mass transfer. The
proposed framework is numerically tested and the results are compared with the published experimental
data. The required breakage and coalescence parameters to perform the 2D-CFD simulation are estimated
using PPBLab software, where a 1D-CFD simulation using a multi-sectional gird is performed. A very
good agreement is obtained at the experimental and the numerical validation levels.
The Symbol Grounding Problem (SGP) is one of the first attempts to proposed a hypothesis about mapping abstract concepts and the real world. For example, the concept "ball" can be represented by an object with a round shape (visual modality) and phonemes /b/ /a/ /l/ (audio modality).
This thesis is inspired by the association learning presented in infant development.
Newborns can associate visual and audio modalities of the same concept that are presented at the same time for vocabulary acquisition task.
The goal of this thesis is to develop a novel framework that combines the constraints of the Symbol Grounding Problem and Neural Networks in a simplified scenario of association learning in infants. The first motivation is that the network output can be considered as numerical symbolic features because the attributes of input samples are already embedded. The second motivation is the association between two samples is predefined before training via the same vectorial representation. This thesis proposes to associate two samples and the vectorial representation during training. Two scenarios are considered: sample pair association and sequence pair association.
Three main contributions are presented in this work.
The first contribution is a novel Symbolic Association Model based on two parallel MLPs.
The association task is defined by learning that two instances that represent one concept.
Moreover, a novel training algorithm is defined by matching the output vectors of the MLPs with a statistical distribution for obtaining the relationship between concepts and vectorial representations.
The second contribution is a novel Symbolic Association Model based on two parallel LSTM networks that are trained on weakly labeled sequences.
The definition of association task is extended to learn that two sequences represent the same series of concepts.
This model uses a training algorithm that is similar to MLP-based approach.
The last contribution is a Classless Association.
The association task is defined by learning based on the relationship of two samples that represents the same unknown concept.
In summary, the contributions of this thesis are to extend Artificial Intelligence and Cognitive Computation research with a new constraint that is cognitive motivated. Moreover, two training algorithms with a new constraint are proposed for two cases: single and sequence associations. Besides, a new training rule with no-labels with promising results is proposed.
Erfolgreiches Compliance-Management basiert unverzichtbar auf einer gelebten, authentischen, wertegeleiteten Compliance-Kultur als Teil der Organisationskultur. Organisationskulturen sind zwar von außen nicht instruktiv plan- und steuerbar, doch durch gezielte systemische Interventionen beeinflussbar.
Eine nachhaltige Compliance-Kultur beinhaltet die fortwährende Kommunikation der Organisationsmitglieder über individuelle und organisationale Annahmen, Werte, Denk- und Verhaltensmuster und einer daraus resultierenden gemeinsamen Auffassung über die Bedeutung von Compliance in der Organisation.
Wirksame Interventionen systemischer Beratung setzen an den mentalen Modellen an und nicht an formalen Regeln und Kontrollmechanismen. Compliance-Management das vorwiegend auf Kontrolle und damit auf individuelles Fehlverhalten blickt, ignoriert die organisationalen Kontexte und kann aus systemischer Sicht nicht langfristig erfolgreich sein.
Den Führungskräften kommt bei der Verankerung von Compliance in der Organisation besondere Bedeutung zu.
Für systemische Berater*innen gilt es, dem Klientensystem Musterunterbrechungen und neue Handlungsoptionen durch passende Prozessbegleitung und Interventionssetzung zu ermöglichen. Dabei zielen alle Interventionen auf die Reflexion persönlicher und organisationaler mentaler Modelle und die Entwicklung der eigenständigen und verantwortlichen Handlungsfähigkeit der Organisationsmitglieder auf Basis der gemeinsamen Compliance-Kultur.
Compliance ist ein andauernder Change-Prozess und somit Teil der allgemeinen Veränderungsfähigkeit von Organisationen. Dieser Prozess zur integren Organisation muss sowohl auf personaler wie auf organisationaler Ebene stattfinden. Die Wechselwirkungen haben nicht nur Einfluss auf das Thema Compliance, sondern wirken positiv auf das Gesamtsystem als lernende und reflektierende Organisation.
Die systemische Beratung kann das Compliance-Management bei der Verankerung einer Compliance-Kultur in Organisationen nachhaltig unterstützen, indem Beteiligte in den Veränderungsprozess aktiv mit einbezogen werden, neue Perspektiven eröffnet, implizites Wissen sichtbar gemacht und grundlegende Annahmen reflektiert werden.
Congress Report 2018.9-10
(2018)
Congress Report 2018.5-8
(2018)
Der Einstieg in ein kommunales Starkregenrisikomanagement muss über eine fundierte Risikoanalyse erfolgen, die mögliche Gefährdungen, Objektbetroffenheiten und Schadenspotenziale identifiziert und bewertet. GIS-basierte Verfahren stellen hierfür vergleichsweise einfache, effiziente Werkzeuge dar, deren Ergebnisse jedoch erheblich von subjektiven Festlegungen, der Qualität der Eingangsdaten und methodischen Einzelaspekten abhängen. Im Gegensatz zur vergleichsweise zuverlässig quantifizierbaren Gefährdung entzieht sich die Objektvulnerabilität bislang mangels Daten noch einer gebietsweiten Beurteilung. Auch die Ersatzgröße Schadenspotenzial lässt sich nur schwer auf mikroskaliger Ebene erfassen.
Das im Rahmen dieser Arbeit entwickelte Gesamtkonzept einer GIS-basierten Risikoanalyse widmet sich zum einen einer methodischen Vertiefung der einzelnen Arbeitsschritte und analysiert die Auswirkungen unterschiedlicher Festlegungen auf die generierten Ergebnisse. Ein Hauptaugenmerk liegt dabei auf dem Einfluss der Eingangsdaten und deren optimaler Verwertung. Parallel dazu werden die Abbildungsdefizite der Vulnerabilität näher untersucht und Vorschläge für eine methodische Verbesserung der gebietsweiten Schadenspotenzialanalyse ausgearbeitet. Beide Schritte münden in Empfehlungen zur Anwendung sowie zur Ergebnisverwertung im Zuge der weiterführenden Risikokommunikation.
Die Untersuchungen zeigen, dass vor allem die Vorglättung des Oberflächenmodells (DOM) das Gefährdungsergebnis prägt und dass für Senken und Fließwege unterschiedliche DOM-Aufbereitungen erforderlich sind. Ferner darf die methodische Berücksichtigung weiterer gefährdungsrelevanter Parameter nicht die Effizienz und Handhabungsvorteile beeinträchtigen. Die Abbildung von Vulnerabilitäten auf Objektebene scheitert vorrangig an mangelnden Angaben zur Objektanfälligkeit und zur Bewältigungskapazität, während sich Schadenspotenziale sehr grob anhand von Nutzungsdaten abschätzen lassen. Eine bessere Objektivierung der Schadenspotenzialanalyse lässt sich erreichen, wenn dieses getrennt nach Vulnerabilitätsdimensionen bewertet wird und wenn dazu charakteristische Schadenstypen als Hilfsgrößen der Bewertung verwendet werden.
Risikobewertungen sind vorrangig vulnerabilitätsbezogen, d. h. mit Fokus auf möglichen Schadensausmaße und Präventionsmaßnahmen durchzuführen. Dies kann jedoch nur auf Objektebene, konkret durch bzw. mit dem potenziell Betroffenen erfolgen. Damit wird die Risikoanalyse zwangsläufig zu einem gemeinsamen Prozess und Dialog zwischen kommunaler Verantwortung zu Information und Aufklärung auf der einen Seite und individueller Eigenverantwortung und Risikoakzeptanz auf der anderen Seite.
In recent years, enormous progress has been made in the field of Artificial Intelligence (AI). Especially the introduction of Deep Learning and end-to-end learning, the availability of large datasets and the necessary computational power in form of specialised hardware allowed researchers to build systems with previously unseen performance in areas such as computer vision, machine translation and machine gaming. In parallel, the Semantic Web and its Linked Data movement have published many interlinked RDF datasets, forming the world’s largest, decentralised and publicly available knowledge base.
Despite these scientific successes, all current systems are still narrow AI systems. Each of them is specialised to a specific task and cannot easily be adapted to all other human intelligence tasks, as would be necessary for Artificial General Intelligence (AGI). Furthermore, most of the currently developed systems are not able to learn by making use of freely available knowledge such as provided by the Semantic Web. Autonomous incorporation of new knowledge is however one of the pre-conditions for human-like problem solving.
This work provides a small step towards teaching machines such human-like reasoning on freely available knowledge from the Semantic Web. We investigate how human associations, one of the building blocks of our thinking, can be simulated with Linked Data. The two main results of these investigations are a ground truth dataset of semantic associations and a machine learning algorithm that is able to identify patterns for them in huge knowledge bases.
The ground truth dataset of semantic associations consists of DBpedia entities that are known to be strongly associated by humans. The dataset is published as RDF and can be used for future research.
The developed machine learning algorithm is an evolutionary algorithm that can learn SPARQL queries from a given SPARQL endpoint based on a given list of exemplary source-target entity pairs. The algorithm operates in an end-to-end learning fashion, extracting features in form of graph patterns without the need for human intervention. The learned patterns form a feature space adapted to the given list of examples and can be used to predict target candidates from the SPARQL endpoint for new source nodes. On our semantic association ground truth dataset, our evolutionary graph pattern learner reaches a Recall@10 of > 63 % and an MRR (& MAP) > 43 %, outperforming all baselines. With an achieved Recall@1 of > 34% it even reaches average human top response prediction performance. We also demonstrate how the graph pattern learner can be applied to other interesting areas without modification.
SDE-driven modeling of phenotypically heterogeneous tumors: The influence of cancer cell stemness
(2018)
We deduce cell population models describing the evolution of a tumor (possibly interacting with its
environment of healthy cells) with the aid of differential equations. Thereby, different subpopulations
of cancer cells allow accounting for the tumor heterogeneity. In our settings these include cancer
stem cells known to be less sensitive to treatment and differentiated cancer cells having a higher
sensitivity towards chemo- and radiotherapy. Our approach relies on stochastic differential equations
in order to account for randomness in the system, arising e.g., by the therapy-induced decreasing
number of clonogens, which renders a pure deterministic model arguable. The equations are deduced
relying on transition probabilities characterizing innovations of the two cancer cell subpopulations,
and similarly extended to also account for the evolution of normal tissue. Several therapy approaches
are introduced and compared by way of tumor control probability (TCP) and uncomplicated tumor
control probability (UTCP). A PDE approach allows to assess the evolution of tumor and normal
tissue with respect to time and to cell population densities which can vary continuously in a given set
of states. Analytical approximations of solutions to the obtained PDE system are provided as well.
Though environmental inequality research has gained extensive interest in the United States, it has received far less attention in Europe and Germany. The main objective of this book is to extend the research on environmental inequality in Germany. This book aims to shed more light on the question of whether minorities in Germany are affected by a disproportionately high burden of environmental pollution, and to increase the general knowledge about the causal mechanisms, which contribute to the unequal distribution of environmental hazards across the population.
To improve our knowledge about environmental inequality in Germany, this book extends previous research in several ways. First, to evaluate the extent of environmental inequality, this book relies on two different data sources. On the on hand, it uses household-level survey data and self-reports about the impairment through air pollution. On the other hand, it combines aggregated census data and objective register-based measures of industrial air pollution by using geographic information systems (GIS). Consequently, this book offers the first analysis of environmental inequality on the national level that uses objective measures of air pollution in Germany. Second, to evaluate the causes of environmental inequality, this book applies a panel data analysis on the household level, thereby offering the first longitudinal analysis of selective migration processes outside the United States. Third, it compares the level of environmental inequality between German metropolitan areas and evaluates to which extent the theoretical arguments of environmental inequality can explain differing levels of environmental inequality across the country. By doing so, this book not only investigates the impact of indicators derived by the standard strand of theoretical reasoning but also includes structural characteristics of the urban space.
All studies presented in this book confirm the disproportionate exposure of minorities to environmental pollution. Minorities live in more polluted areas in Germany but also in more polluted parts of the communities, and this disadvantage is most severe in metropolitan regions. Though this book finds evidence for selective migration processes contributing to the disproportionate exposure of minorities to environmental pollution, it also stresses the importance of urban conditions. Especially cities with centrally located industrial facilities yield a high level of environmental inequality. This poses the question of whether environmental inequality might be the result of two independent processes: 1) urban infrastructure confines residential choices of minorities to the urban core, and 2) urban infrastructure facilitates centrally located industries. In combination, both processes lead to a disproportionate burden of minority households.
Tables or ranked lists summarize facts about a group of entities in a concise and structured fashion. They are found in all kind of domains and easily comprehensible by humans. Some globally prominent examples of such rankings are the tallest buildings in the World, the richest people in Germany, or most powerful cars. The availability of vast amounts of tables or rankings from open domain allows different ways to explore data. Computing similarity between ranked lists, in order to find those lists where entities are presented in a similar order, carries important analytical insights. This thesis presents a novel query-driven Locality Sensitive Hashing (LSH) method, in order to efficiently find similar top-k rankings for a given input ranking. Experiments show that the proposed method provides a far better performance than inverted-index--based approaches, in particular, it is able to outperform the popular prefix-filtering method. Additionally, an LSH-based probabilistic pruning approach is proposed that optimizes the space utilization of inverted indices, while still maintaining a user-provided recall requirement for the results of the similarity search. Further, this thesis addresses the problem of automatically identifying interesting categorical attributes, in order to explore the entity-centric data by organizing them into meaningful categories. Our approach proposes novel statistical measures, beyond known concepts, like information entropy, in order to capture the distribution of data to train a classifier that can predict which categorical attribute will be perceived suitable by humans for data categorization. We further discuss how the information of useful categories can be applied in PANTHEON and PALEO, two data exploration frameworks developed in our group.
Computational problems that involve dynamic data, such as physics simulations and program development environments, have been an important
subject of study in programming languages. Recent advances in self-adjusting
computation made progress towards achieving efficient incremental computation by providing algorithmic language abstractions to express computations that respond automatically to dynamic changes in their inputs. Selfadjusting programs have been shown to be efficient for a broad range of problems via an explicit programming style, where the programmer uses specific
primitives to identify, create and operate on data that can change over time.
This dissertation presents implicit self-adjusting computation, a type directed technique for translating purely functional programs into self-adjusting
programs. In this implicit approach, the programmer annotates the (toplevel) input types of the programs to be translated. Type inference finds
all other types, and a type-directed translation rewrites the source program
into an explicitly self-adjusting target program. The type system is related to
information-flow type systems and enjoys decidable type inference via constraint solving. We prove that the translation outputs well-typed self-adjusting
programs and preserves the source program’s input-output behavior, guaranteeing that translated programs respond correctly to all changes to their
data. Using a cost semantics, we also prove that the translation preserves the
asymptotic complexity of the source program.
As a second contribution, we present two techniques to facilitate the processing of large and dynamic data in self-adjusting computation. First, we
present a type system for precise dependency tracking that minimizes the
time and space for storing dependency metadata. The type system improves
the scalability of self-adjusting computation by eliminating an important assumption of prior work that can lead to recording spurious dependencies.
We present a type-directed translation algorithm that generates correct selfadjusting programs without relying on this assumption. Second, we show a
probabilistic-chunking technique to further decrease space usage by controlling the fundamental space-time tradeoff in self-adjusting computation.
We implement implicit self-adjusting computation as an extension to Standard ML with compiler and runtime support. Using the compiler, we are able
to incrementalize an interesting set of applications, including standard list
and matrix benchmarks, ray tracer, PageRank, sparse graph connectivity, and
social circle counts. Our experiments show that our compiler incrementalizes existing code with only trivial amounts of annotation, and the resulting
programs bring asymptotic improvements to large datasets from real-world
applications, leading to orders of magnitude speedups in practice.
Trotz der - theoretisch über die konstruktivistische Systemtheorie begründeten und durch die Organisationsforschung empirisch belegten - zentralen Rolle der Prozesse in der Einzelschule für die Gestaltung von Schulentwicklung, werden durch die Bildungspolitik über die Gestaltung der Systemumwelt wesentliche Impulse für diese Entwicklungsprozesse gesetzt, diese rechtlich und im Bereich der Ressourcen ermöglicht oder eben auch auf diesem Wege blockiert.
In der Arbeit wird ein Modell zur Bestimmung wesentlicher Einflussfaktoren auf bildungspolitische Schulreformen im Bereich institutioneller und parteipolitischer Vetospieler, Interessengruppen der Stakeholder, Medien sowie wissenschaftlicher Akteure entwickelt, über das deren Rationalisierungspotential im Sinne einer stärkeren Evidenzbasierung bildungspolitischer Entscheidungen, ihre Einflussstärke und Implementationsstärke bestimmbar werden. Exemplarisch wird dieses Modell im Anschluss auf die institutionelle Neubestimmung der Evidenzbasierung in Baden-Württemberg angewandt.
Die vorliegende Forschung fokussiert den Fachkräfteerhalt im Gesundheitswesen aus erziehungs- und sozialwissenschaftlicher Perspektive. Dabei geht die Untersuchung den Fragen nach, welche Faktoren den Verbleib im Pflegeberuf beeinflussen, inwieweit die Implementierung gesundheitsfördernder Maßnahmen (BGF) innerhalb des Betrieblichen Gesundheitsmanagements (BGM) zum Erhalt im Pflegeberuf beiträgt und welche gesundheitsfördernden Maßnahmen Pflegefachkräfte benötigen, um (weiterhin) im Beruf arbeiten zu können. Erziehungs- und sozialwissenschafliches Erkenntnisinteresse liegt darin, was zur Vermittlung gesundheitsrelevanter Informationen in der Kindheit beigetragen hat und wie diese Aneignungsprozesse den Begriff der individuellen Gesundheit geprägt haben. Die sozialwissenschaftliche Theoriebasis bildet zum einen das Segment des kulturellen Kapitals der „Habitus/Feld-Theorie“ Bourdieus, der als Aneignung von Kulturkapital die Vermittlung vorschulischer Bildung kennzeichnet, die untrennbar mit dem Individuum verbunden ist. Ein weiteres Teilelement der theoretischen Ausgangsbasis fußt auf autopoietischen Aspekten der „System/Umwelt-Theorie“ Luhmanns, der individuelle Selbststeuerungsprozesse für die Aufnahme und Verarbeitung (gesundheitsrelevanter) Informationen verantwortlich macht. Organisationspädagogische Komponenten bilden den Rahmen des theoretischen Modells, die als Verbindung zwischen Individuum und Organisation fungieren und ädaquate Angebots-strukturen zur Vermittlung einer adressatengerechten Gesundheitsförderung anbieten. Über-einstimmend in allen drei Theorieelementen wird die individuelle Systemgeschichte (Biografie) als relevanter Kernaspekt identifiziert, die sich in der Empirie widerspiegelt.
Zur Beantwortung der Forschungsfragen werden sowohl quantitative als auch qualitative Methoden der empirsichen Sozialforschung gewählt; mit einer Reichweite der Analyse von Dokumenten über qualitative Interviews bis hin zur Entwicklung von Typen.
Als bedeutsame empirische Kernkategorie kristallisiert sich die Zuschreibung „Wertschät-zung/Anerkennung“ heraus, die sich bereits im Theorieteil wiederfindet.
Da die Studie „PflegeWert“ (2011) in der Altenpflege durchgeführt wurde, nimmt die vorliegende Forschung ausschließlich klinisch tätige Pflegefachkräfte in den Blick.
Schlüsselbegriffe: Kulturelles Kapital; Autopoiesis; Organisationspädagogik; System-geschichte; Typologie; Wertschätzung
Eine Anpassung von Wasserversorgungs- und Abwasserentsorgungssystemen im ländlichen Raum kann aufgrund vielfältiger Herausforderungen wie demografischen, siedlungsstrukturellen und klimatischen Veränderungen erforderlich werden. Im Zuge dessen können auch die Nachhaltigkeit und Ressourceneffizienz der bestehenden Systeme gesteigert werden. Das Ziel dieser Arbeit ist die Ableitung von Handlungsempfehlungen zur Unterstützung der notwendigen Anpassungsprozesse der Abwasserentsorgung ländlicher Gemeinden. Dazu werden verschiedene Transformationspfade für Abwassersysteme aufgezeigt und analysiert.
In dieser Arbeit wird ein softwaregestütztes Entscheidungs- und Optimierungssystem angewendet und evaluiert, dass optimale Anpassungsmöglichkeiten aufgezeigt. Das gemischt-ganzzahlige lineare Optimierungsmodell berechnet für jede Gemeinde in Abhängigkeit von dem ausgewählten Szenario und vorgegebenen Zielen den optimalen Transformationspfad mit seiner zeitlichen und räumlichen Umsetzung. In den Szenarien werden zukünftige Entwicklungen der Bevölkerung, der Siedlungsstruktur, des Wasserbedarfs, der Kosten technischer Anlagen und des Klimawandels berücksichtigt. Die Zielfunktion bildet sich aus der gewichteten Summe ökonomischer, ökologischer und sozialer Bewertungskriterien. Die beispielhafte Anwendung des Modells erfolgt für zwei repräsentative ländliche Modellkommunen in Rheinland-Pfalz.
Durch eine detaillierte Auswertung und Evaluierung von ausgewählten Kombinationen von Szenarien und Bewertungskriterien kann das Spektrum an möglichen Transformationspfaden von der Erhaltung des zentralen Systems bis hin zu dezentralen und ressourcenorientierten Systemen aufgezeigt werden. Sensitivitätsbetrachtungen zeigen, dass die Auswahl und Gewichtung der Bewertungskriterien und die lokalen Randbedingungen der Gemeinde einen größeren Einfluss auf die resultierende Transformationspfade haben als die Auswahl der Szenarien.
Der Zustand des Entwässerungssystems wie der Anteil alter Kanäle, ein großer Anteil Mischsystem, große Durchmesser und eine große Kanallänge pro Einwohner sowie eine niedrige Siedlungsdichte fördern dezentrale Strukturen und sind geeignete Voraussetzungen für einen Systemwechsel. Bei der Priorisierung der Ziele Flexibilität, Wasserbilanz und Wasserrecycling wird die Dezentralisierung eines Systems mit Kleinkläranlagen favorisiert. Ein ressourcenorientiertes System mit einer Grau- und Schwarzwassertrennung ist nur zukünftig vorteilhaft, wenn die Ziele Wasserrecycling, Nährstoffrecycling und/oder Energieeffizienz priorisiert werden. Wenn ein Systemwechsel vollzogen werden soll, müssen auch die Auswirkungen auf die Wasserversorgung und Abwasserreinigung untersucht werden.
Es kann gezeigt werden, dass bei einer abnehmenden Bevölkerung dezentrale und ressourcenorientierte Systeme im ländlichen Raum eine Alternative darstellen. Zur Begleitung von Transformationsprozessen ist die Verwendung einer adäquaten Methodik zum Aufzeigen von verschiedenen Systemalternativen (z.B. mathematische Optimierung) zielführend.
Berufliche Umbrüche sind Teil der Entwicklung eines Menschen. Sie berühren auch seine Persönlichkeit und seine Identität. Wann kann man von gelingender Identitätsentwicklung sprechen? Woran lässt sich diese festmachen? Kann berufsbiografische Diskontinuität einen gelingenden Beitrag zur Identitätsentwicklung darstellen? Und wenn ja, wie? Was bedeutet es, berufliche Umbrüche nicht nur anzunehmen, sondern auch zu gestalten, damit sie einen positiven Beitrag zur Identitätsentwicklung leisten? Welche Faktoren sind dafür förderlich? Und wie sollten diese Erkenntnisse in der erwachsenenbildnerischen Praxis berücksichtigt werden? Die Arbeit nimmt zunächst den Begriff der Identität in den Blick und wendet sich besonders dem Begriff der Anerkennung zu. Nach Betrachtungen zum Zusammenhang von Identität und Erwerbsarbeit sowie einem Überblick über die Phasen von Erwerbsbiografien werden erwachsenenpädagogische Überlegungen angestellt, die für Transitionsprozesse benötigte Kompetenzen ins Zentrum stellen und Konsequenzen für die Arbeit in Einrichtungen der Erwachsenenbildung darstellen.
The transfer of substrates between to enzymes within a biosynthesis pathway is an effective way to synthesize the specific product and a good way to avoid metabolic interference. This process is called metabolic channeling and it describes the (in-)direct transfer of an intermediate molecule between the active sites of two enzymes. By forming multi-enzyme cascades the efficiency of product formation and the flux is elevated and intermediate products are transferred and converted in a correct manner by the enzymes.
During tetrapyrrole biosynthesis several substrate transfer events occur and are prerequisite for an optimal pigment synthesis. In this project the metabolic channeling process during the pink pigment phycoerythrobilin (PEB) was investigated. The responsible ferredoxin-dependent bilin reductases (FDBR) for PEB formation are PebA and PebB. During the pigment synthesis the intermediate molecule 15,16-dihydrobiliverdin (DHBV) is formed and transferred from PebA to PebB. While in earlier studies a metabolic channeling of DHBV was postulated, this work revealed new insights into the requirements of this protein-protein interaction. It became clear, that the most important requirement for the PebA/PebB interaction is based on the affinity to their substrate/product DHBV. The already high affinity of both enzymes to each other is enhanced in the presence of DHBV in the binding pocket of PebA which leads to a rapid transfer to the subsequent enzyme PebB. DHBV is a labile molecule and needs to be rapidly channeled in order to get correctly further reduced to PEB. Fluorescence titration experiments and transfer assays confirmed the enhancement effect of DHBV for its own transfer.
More insights became clear by creating an active fusion protein of PebA and PebB and comparing its reaction mechanism with standard FDBRs. This fusion protein was able to convert biliverdin IXα (BV IXα) to PEB similar to the PebS activity, which also can convert BV IXα via DHBV to PEB as a single enzyme. The product and intermediate of the reaction were identified via HPLC and UV-Vis spectroscopy.
The results of this work revealed that PebA and PebB interact via a proximity channeling process where the intermediate DHBV plays an important role for the interaction. It also highlights the importance of substrate channeling in the synthesis of PEB to optimize the flux of intermediates through this metabolic pathway.
Im Fokus dieser Promotionsarbeit stand die Synthese neuer kationischer Eisenkomplexe, die
sowohl einen Cyclopentadienyl-, als auch einen Phenylliganden besitzen. Der Sechsringligand
wurde dabei mit stickstoff- oder phosphorhaltigen Substituenten funktionalisiert. Dabei konnten
erstmals Eisenarenkomplexe mit Azidobenzolliganden isoliert und charakterisiert werden. Die
Umsetzung mit heterocyclischen Nucleophilen zeigte bei den 1,2,3-Triazolen die Möglichkeit in
1- und 2-Position eine Bindungsknüpfung einzugehen. Dies konnte durch die Verwendung von
Imidazolidsalzen umgangen werden und so konnte eine Reihe mono- und disubstituierter
Eisenkomplexe mit Methylimidazol und Benzimidazol synthetisiert werden. Durch Alkylierung und
Benzylierung gelang auf diesem Weg der Zugang zu di- und trikationischen Eisenarenkomplexen,
welche die Vorstufe zu NHC-Komplexen bilden. Für die Funktionalisierung mit phosphorhaltigen
Gruppen konnte ein Syntheseweg erarbeitet und auf disubstituierte Komplexe übertragen werden.
Es gelang durch die Koordination von Gold einen kationischen heterobimetallischen Komplex zu
synthetisieren und vollständig zu charakterisieren. Dieser zeigte in mehreren
Cyclisierungsreaktionen hohe katalytische Aktivität, welche über der literaturbekannter
Katalysatoren lag. Mitunter konnten vergleichbare Umsätze unter milderen Bedingungen erzielt
werden.
This thesis consists of five chapters. Chapter one elaborates on the principle of cognitive consistency and provides an overview of what extant research refers to as cognitive consistency theories (e.g., Abelson et al., 1968; Harmon-Jones & Harmon-Jones, 2007; Simon, Stenstrom, & Read, 2015). Moreover, it describes the most prominent theoretical representatives in this context, namely balance theory (Heider, 1946, 1958), congruity theory (Osgood & Tannenbaum, 1955), and cognitive dissonance theory (Festinger, 1957). Chapter one further outlines the role of individuals’ preference for cognitive consistency in the context of financial resource acquisition, the recruitment of employees and the acquisition of customers in the entrepreneurial context.
Chapter two is co-authored by Prof. Dr. Matthias Baum and presents two separate studies in which we empirically investigate the hypothesis that social entrepreneurs face a systematic disadvantage, compared to for-profit entrepreneurs, when seeking to acquire financial resources. Further, our work goes beyond existing research by introducing biased perceptions as a factor that may constrain social enterprise resource acquisition and therefore possibly stall the process of social value creation. On the foundation of role congruity theory (Eagly & Karau, 2002), we emphasize on the question whether social entrepreneurs provide signals which are less congruent with the stereotype of successful entrepreneurs and, in such, are perceived as less competent. We further test whether such biased competency perceptions feed forward into a lower probability to receive funding.
Chapter three is also co-authored by Prof. Dr. Matthias Baum as well as by Eva Henrich. The aim of this chapter is to further our understanding of the early recruitment phase and to contribute to the current debate about how firms should orchestrate their recruitment channels in order to enhance the creation of employer knowledge. We introduce the concept of integrated marketing communication into the recruitment field and examine how the level of consistency regarding job or organization information affects the recall and the recognition of that information. We additionally test whether information consistency among multiple recruitment channels influences information recognition failure quota. Answering this question is important as by failing to remember the source of recruitment information, job seekers may attribute job information to the wrong firm and thus create an incorrect employer knowledge.
Chapter four, which is co-authored by Prof. Dr. Matthias Baum, introduces customer congruity perceptions between a brand and a reward in the context of customer referral programs as an essential driver of the effectiveness of such programs. More precisely, we posit and empirically test a model according to which the decision-making process of the customer recommending a firm involves multiple mental steps and assumes reward perceptions to be an immediate antecedent of brand evaluation, which then, ultimately shapes the likelihood of recommendation. The level of congruity/incongruity is set up as an antecedent state and affects the perceived attractiveness of the reward. Our work contributes to the discussion on the optimal level of congruity between a prevailing schema in the mind of the customer and a stimulus presented. In addition, chapter four introduces customer referral programs as a strategic tool for brand managers. Chapter four is further published in Psychology & Marketing.
Chapter five first proposes that marketing strategies specifically designed to induce word-of-mouth (WOM) behavior are particular relevant for new ventures. Against the background that previous research suggests that customer perceptions of young firm age may influence customer behavior and the degree to which customers support new ventures (e.g., Choi & Shepherd, 2005; Stinchcombe, 1965), we secondly conduct an experiment to examine the causal mechanisms linking firm age and customer WOM. Chapter five, too, is co-authored by Prof. Dr. Matthias Baum.
Increasing costs due to the rising attrition of drug candidates in late developmental phases alongside post-marketing withdrawal of drugs challenge the pharmaceutical industry to further improve their current preclinical safety assessment strategies. One of the most common reasons for the termination of drug candidates is drug induced hepatotoxicity, which more often than not remains undetected in early developmental stages, thus emphasizing the necessity for improved and more predictive preclinical test systems. One reason for the very limited value of currently applied in vitro test systems for the detection of potential hepatotoxic liabilities is the lack of organotypic and tissue-specific physiology of hepatocytes cultured in ordinary monolayer culture formats.
The thesis at hand primarily deals with the evaluation of both two- and three-dimensional cell culture approaches with respect to their relative ability to predict the hepatotoxic potential of drug candidates in early developmental phases. First, different hepatic cell models, which are routinely used in pharmaceutical industry (primary human hepatocytes as well as the three cell lines HepG2, HepaRG and Upcyte hepatocytes), were investigated in conventional 2D monolayer culture with respect to their ability to detect hepatotoxic effects in simple cytotoxicity studies. Moreover, it could be shown that the global protein expression levels of all cell lines substantially differ from that of primary human hepatocytes, with the least pronounced difference in HepaRG cells.
The introduction of a third dimension through the cultivation of spheroids enables hepatocytes to recapitulate their typical native polarity and furthermore dramatically increases the contact surface of adjacent cells. These differences in cellular architecture have a positive influence on hepatocyte longevity and the expression of drug metabolizing enzymes and transporters, which could be proven via immunofluorescent (IF) staining for at least 14 days in PHH and at least 28 days in HepaRG spheroids, respectively. Additionally, the IF staining of three different phase III transporters (MDR1, MRP2 and BSEP) indicated a bile canalicular network in spheroids of both cell models. A dose-dependent inducibility of important cytochrome P450 isoenzymes in HepaRG spheroids could be shown on the protein level via IF for at least 14 days. CYP inducibility of HepaRG cells cultured in 2D and 3D was compared on the mRNA level for up to 14 days and inducibility was generally lower in 3D compared to 2D under the conditions of this study. In a comparative cytotoxicity study, both PHH and HepaRG spheroids as well as HepaRG monolayers have been treated with five hepatotoxic drugs for up to 14 days and viability was measured at three time points (days 3, 7 and 14). A clear time- and dose-dependent onset of the drug-induced hepatotoxic effects was observable in all conditions tested, indicated by a shift of the respective EC50 value towards lower doses by increasing exposure. The observed effects were most pronounced in PHH spheroids, thus indicating those as the most sensitive cell model in this study. Moreover, HepaRG cells were more sensitive in spheroid culture compared to monolayers, which suggests a potential application of spheroids as long-term test system for the detection of hepatotoxicities with slow onset. Finally, the basal protein expression levels of three antigens (CYP1A2, CYP3A4 and NAT 1/2) were analyzed via Western Blotting in HepaRG cells cultured in three different cell culture formats (2D, 3D and QV) in order to estimate the impact of the cell culture conditions on protein expression levels. In the QV system enables a pump-driven flow of cell culture media, which introduces both mechanical stimuli through shear and molecular stimuli through dynamic circulation to the monolayer. Those stimuli resulted in a clearly positive effect on the expression levels of the selected antigens by an increased expression level in comparison to both 2D and 3D. In contrast, HepaRG spheroids showed time-dependent differences with the overall highest levels at day 7.
The studies presented in this thesis delivered valuable information on the increased physiological relevance in dependence on the cell culture format: three-dimensionality as well as the circulation of media lead to a more differentiated phenotype in hepatic cell models. Those cell culture formats are applicable in preclinical drug development in order to obtain more relevant information at early developmental stages and thus help to create a more efficient drug development process. Nonetheless, further studies are necessary to thoroughly characterize, validate and standardize such novel cell culture approaches prior to their routine application in industry.
In Rheinland-Pfalz hinterlässt der demografische Wandel insbesondere in den ländlichen Regionen seine Spuren und die Gesellschaft wird „älter, bunter, weniger“. Ministerpräsidentin Malu Dreyer verdeutlichte bereits in ihrer Regierungserklärung 2013, dass auch die Förderpolitik des Landes neu ausgerichtet werden muss, um den Herausforderungen des demografischen Wandels frühzeitig begegnen zu können. Dabei sind die stärkere Zusammenarbeit der Kommunen sowie die gemeinsame Erarbeitung von überörtlichen Entwicklungskonzepten notwendig, um den gemeinsamen Bedürfnissen Rechnung tragen zu können. Die Entwicklungskonzepte sollen auf Basis von moderierten Beteiligungsprozessen entstehen, da die Bürgerinnen und Bürger am besten wissen, wie sich die Bedarfe in einer Region aufgrund des demografischen Wandels ändern.
In diesem Zusammenhang startete das Land Rheinland-Pfalz im Jahr 2013 die Zukunftsinitiative „Starke Kommunen – Starkes Land“, welche ein 30-monatiges landesweites Beratungs- und Begleitprojekt darstellte. Der Wettbewerb im Jahr 2013 richtete sich an die Verbandsgemeinden und verbandsfreien Gemeinden in Rheinland-Pfalz, an dessen Ende sechs Modellräume ausgewählt wurden. In diesen wurden Möglichkeiten von Bürgerbeteiligungen und langfristiger interkommunaler Zusammenarbeit auf Verbandsgemeinde-Ebene erprobt und ausgewertet.
Prof. Steinebach und das Team begleiteten die Zukunftsinitiative wissenschaftlich. Der Aufgabenbereich umfasste dabei die Evaluierung der organisatorischen Struktur und des Projektaufbaus, die Analyse der inhaltlichen Themenfelder sowie die Untersuchung und Bewertung der interkommunalen Kooperation. Am Ende der wissenschaftlichen Begleitung wurden die Ergebnisse aufgearbeitet und Handlungsempfehlungen gegeben. Daraus sollen Rückschlüsse für die Förderpolitik des Landes gezogen werden.
Im Zeitraum von März bis Mai 2017 wurde eine Evaluierung der Zukunftsinitiative durchgeführt. Diese ist im Download enthalten.
Road accidents remain as one of the major causes of death and injuries globally. Several million people die every year due to road accidents all over the world. Although the number of accidents in European region have reduced in the past years, road safety still remains a major challenge. Especially in case of commercial trucks, due to the size and load of the vehicle, even minor collisions with other road users would lead to serious injuries or death. In order to reduce number of accidents, automotive industry is rapidly developing advanced driver assistance systems (ADAS) and automated driving technologies. Efficient and reliable solutions are required for these systems to sense, perceive and react to different environmental conditions. For vehicle safety applications such as collision avoidance with vulnerable road users (VRUs), it is not only important for the system to efficiently detect and track the objects in the vicinity of the vehicle but should also function robustly.
An environment perception solution for application in commercial truck safety systems and for future automated driving is developed in this work. Thereby a method for integrated tracking and classification of road users in the near vicinity of the vehicle is formulated. The drawbacks in conventional multi-object tracking algorithms with respect to state, measurement and data association uncertainties have been addressed with the recent advancements in the field of unified multi-object tracking solutions based on random finite sets (RFS). Gaussian mixture implementation of the recently developed labeled multi-Bernoulli (LMB) filter [RSD15] is used as the basis for multi-object tracking in this work. Measurement from an high-resolution radar sensor is used as the main input for detecting and tracking objects.
On one side, the focus of this work is on tracking VRUs in the near vicinity of the truck. As it is beneficial for most of the vehicle safety systems to also know the category that the object belongs to, the focus on the other side is also to classify the road users. All the radar detections believed to originate from a single object are clustered together with help of density based spatial clustering for application with noise (DBSCAN) algorithm. Each cluster of detections would have different properties based on the respective object characteristics. Sixteen distinct features based on radar detections, that are suitable for separating pedestrians, bicyclists and passenger car categories are selected and extracted for each of the cluster. A machine learning based classifier is constructed, trained and parameterised for distinguishing the road users based on the extracted features.
The class information derived from the radar detections can further be used by the tracking algorithm, to adapt the model parameters used for precisely predicting the object motion according to the category of the object. Multiple model labeled multi-Bernoulli filter (MMLMB) is used for modelling different object motions. Apart from the detection level, the estimated state of an object on the tracking level also provides information about the object class. Both these informations are fused using Dempster-Shafer theory (DST) of evidence, based on respective class probabilities Thereby, the output of the integrated tracking and classification with MMLMB filter are classified tracks that can be used by truck safety applications with better reliability.
The developed environment perception method is further implemented as a real-time prototypical system on a commercial truck. The performance of the tracking and classification approaches are evaluated with the help of simulation and multiple test scenarios. A comparison of the developed approaches to a conventional converted measurements Kalman filter with global nearest neighbour association (CMKF-GNN) shows significant advantages in the overall accuracy and performance.
Mobility has become an integral feature of many wireless networks. Along with this mobility comes the need for location awareness. A prime example for this development are today’s and future transportation systems. They increasingly rely on wireless communications to exchange location and velocity information for a multitude of functions and applications. At the same time, the technological progress facilitates the widespread availability of sophisticated radio technology such as software-defined radios. The result is a variety of new attack vectors threatening the integrity of location information in mobile networks.
Although such attacks can have severe consequences in safety-critical environments such as transportation, the combination of mobility and integrity of spatial information has not received much attention in security research in the past. In this thesis we aim to fill this gap by providing adequate methods to protect the integrity of location and velocity information in the presence of mobility. Based on physical effects of mobility on wireless communications, we develop new methods to securely verify locations, sequences of locations, and velocity information provided by untrusted nodes. The results of our analyses show that mobility can in fact be exploited to provide robust security at low cost.
To further investigate the applicability of our schemes to real-world transportation systems, we have built the OpenSky Network, a sensor network which collects air traffic control communication data for scientific applications. The network uses crowdsourcing and has already achieved coverage in most parts of the world with more than 1000 sensors.
Based on the data provided by the network and measurements with commercial off-the-shelf hardware, we demonstrate the technical feasibility and security of our schemes in the air traffic scenario. Moreover, the experience and data provided by the OpenSky Network allows us to investigate the challenges for our schemes in the real-world air traffic communication environment. We show that our verification methods match all
requirements to help secure the next generation air traffic system.
This research explores the development of web based reference software for
characterisation of surface roughness for two-dimensional surface data. The reference software used for verification of surface characteristics makes the evaluation methods easier for clients. The algorithms used in this software
are based on International ISO standards. Most software used in industrial measuring
instruments may give variations in the parameters calculated due to numerical changes in
calculation. Such variations can be verified using the proposed reference software.
The evaluation of surface roughness is carried out in four major steps: data capture, data
align, data filtering and parameter calculation. This work walks through each of these steps
explaining how surface profiles are evaluated by pre-processing steps called fitting and
filtering. The analysis process is then followed by parameter evaluation according to DIN EN
ISO 4287 and DIN EN ISO 13565-2 standards to extract important information from the
profile to characterise surface roughness.
If gradient based derivative algorithms are used to improve industrial products by reducing their target functions, the derivatives need to be exact.
The last percent of possible improvement, like the efficiency of a turbine, can only be gained if the derivatives are consistent with the solution process that is used in the simulation software.
It is problematic that the development of the simulation software is an ongoing process which leads to the use of approximated derivatives.
If a derivative computation is implemented manually, it will be inconsistent after some time if it is not updated.
This thesis presents a generalized approach which differentiates the whole simulation software with Algorithmic Differentiation (AD), and guarantees a correct and consistent derivative computation after each change to the software.
For this purpose, the variable tagging technique is developed.
The technique checks at run-time if all dependencies, which are used by the derivative algorithms, are correct.
Since it is also necessary to check the correctness of the implementation, a theorem is developed which describes how AD derivatives can be compared.
This theorem is used to develop further methods that can detect and correct errors.
All methods are designed such that they can be applied in real world applications and are used within industrial configurations.
The process described above yields consistent and correct derivatives but the efficiency can still be improved.
This is done by deriving new derivative algorithms.
A fixed-point iterator approach, with a consistent derivation, yields all state of the art algorithms and produces two new algorithms.
These two new algorithms include all implementation details and therefore they produce consistent derivative results.
For detecting hot spots in the application, the state of the art techniques are presented and extended.
The data management is changed such that the performance of the software is affected only marginally when quantities, like the number of input and output variables or the memory consumption, are computed for the detection.
The hot spots can be treated with techniques like checkpointing or preaccumulation.
How these techniques change the time and memory consumption is analyzed and it is shown how they need to be used in selected AD tools.
As a last step, the used AD tools are analyzed in more detail.
The major implementation strategies for operator overloading AD tools are presented and implementation improvements for existing AD tools are discussed.
The discussion focuses on a minimal memory consumption and makes it possible to compare AD tools on a theoretical level.
The new AD tool CoDiPack is based on these findings and its design and concepts are presented.
The improvements and findings in this thesis make it possible, that an automatic, consistent and correct derivative is generated in an efficient way for industrial applications.
Die Arbeit stellt in Form eines Theorie-Praxis-Transfers eine Möglichkeit dar, der zunehmenden Heterogenität in der Schuleingangsphase durch die Bildung jahrgangsgemischter Klassen Rechnung zu tragen. Es werden Voraussetzungen, Mittel, Wege und Stolpersteine dargestellt und besonders die Aufgaben der Schulleitung als Verantwortliche des Schulentwicklungsprozesses dargestellt.
Neuronal inhibition is mediated by glycine and/or GABA. Inferior colliculus (IC) neurons receive glycinergic and GABAergic
inputs, whereas inhibition in hippocampus (HC) predominantly relies on GABA. Astrocytes heterogeneously
express neurotransmitter transporters and are expected to adapt to the local requirements regarding neurotransmitter
homeostasis. Here we analyzed the expression of inhibitory neurotransmitter transporters in IC and HC astrocytes using
whole-cell patch-clamp and single-cell reverse transcription-PCR. We show that most astrocytes in both regions expressed
functional glycine transporters (GlyTs). Activation of these transporters resulted in an inward current (IGly) that
was sensitive to the competitive GlyT1 agonist sarcosine. Astrocytes exhibited transcripts for GlyT1 but not for
GlyT2. Glycine did not alter the membrane resistance (RM) arguing for the absence of functional glycine receptors (GlyRs).
Thus, IGly was mainly mediated by GlyT1. Similarly, we found expression of functional GABA transporters (GATs) in all IC
astrocytes and about half of the HC astrocytes. These transporters mediated an inward current (IGABA) that was sensitive to
the competitive GAT-1 and GAT-3 antagonists NO711 and SNAP5114, respectively. Accordingly, transcripts for GAT-1 and
GAT-3 were found but not for GAT-2 and BGT-1. Only in hippocampal astrocytes, GABA transiently reduced
RM demonstrating the presence of GABAA receptors (GABAARs). However, IGABA was mainly not contaminated
by GABAAR-mediated currents as RM changes vanished shortly after GABA application. In both regions, IGABA
was stronger than IGly. Furthermore, in HC the IGABA/IGly ratio was larger compared to IC. Taken together, our
results demonstrate that astrocytes are heterogeneous across and within distinct brain areas. Furthermore, we
could show that the capacity for glycine and GABA uptake varies between both brain regions.
Untersuchungsgegenstand dieser Arbeit ist die Darstellung von wissenschaftlichen Erkenntnissen der Organisationstheorie und der educational governance Forschung über das Entstehen von öffentlichen Verwaltungen sowie deren Ansätze zur Reformierung. Die öffentliche Bildungsverwaltung in Niedersachsen wird an diese Erkenntnisse angelehnt und der Stand der Bildungsreform an den theoretischen Erkenntnissen gemessen. Ebenso wird das Geflecht der unterschiedlichen behördlichen Ebenen näher beleuchtet sowie deren Funktionalitäten bzw. Dysfunktionalitäten analysiert.
Optimal control of partial differential equations is an important task in applied mathematics where it is used in order to optimize, for example, industrial or medical processes. In this thesis we investigate an optimal control problem with tracking type cost functional for the Cattaneo equation with distributed control, that is, \(\tau y_{tt} + y_t - \Delta y = u\). Our focus is on the theoretical and numerical analysis of the limit process \(\tau \to 0\) where we prove the convergence of solutions of the Cattaneo equation to solutions of the heat equation.
We start by deriving both the Cattaneo and the classical heat equation as well as introducing our notation and some functional analytic background. Afterwards, we prove the well-posedness of the Cattaneo equation for homogeneous Dirichlet boundary conditions, that is, we show the existence and uniqueness of a weak solution together with its continuous dependence on the data. We need this in the following, where we investigate the optimal control problem for the Cattaneo equation: We show the existence and uniqueness of a global minimizer for an optimal control problem with tracking type cost functional and the Cattaneo equation as a constraint. Subsequently, we do an asymptotic analysis for \(\tau \to 0\) for both the forward equation and the aforementioned optimal control problem and show that the solutions of these problems for the Cattaneo equation converge strongly to the ones for the heat equation. Finally, we investigate these problems numerically, where we examine the different behaviour of the models and also consider the limit \(\tau \to 0\), suggesting a linear convergence rate.
Kapitel eins fokussiert auf die Forschungsfragen und Bezugstheorien der vorliegenden Arbeit. In Kapitel zwei geht es um die Darstellung des Anerkennungsbegriffs, Überlegungen zur Entwicklung von Anerkennungsverhältnissen und die drei für diese Arbeit wesentlichen Anerkennungstheorien von Wolfgang Müller-Commichau, Axel Honneth und Werner Nothdurft. Kapitel drei ist der 'Emotionalen Kompetenz' gewidmet und umfasst neben Definitionsversuchen die Beschreibung unterschiedlicher Aspekte emotionaler Kompetenz, die Darstellung der Begriffe Empathie, Verstehensfähigkeit, Introspektions- und Selbstreflexionsfähigkeit – Eigenschaften, die sowohl für die Suche als auch für das Geben von Anerkennung Bedeutung haben und schließt mit Überlegungen zur Förderung emotionaler Kompetenz in Kontexten der Erwachsenenbildung. In Kapitel vier gerät die Kommunikationsfähigkeit/Gesprächskompetenz in den Fokus. Nach einer Beschreibung der Begriffe werden Fragen dazu, wie gelingende Gespräche, wie ein verstehender Dialog aussehen könnte, thematisiert und wie Kommunikationsfähigkeit/ Gesprächskompetenz in erwachsenenpädagogischen Settings weiterentwickelt werden könnte. Kapitel fünf stellt anerkennende pädagogische Beziehungsgestaltungen ins Zentrum der Betrachtung. In den Fokus gelangen wechselseitige Anerkennungsverhältnisse (Beispiel Anerkennungsskulptur) und die bejahende/ ermöglichende bzw. begrenzende Perspektive (Verkennung, Missverstehen, ausbleibende Anerkennung) von Anerkennung. Kapitel sechs bringt eine Zusammenfassung der Ergebnisse, die in ihrer Relevanz für die Gestaltung von Anerkennungsverhältnissen in Kontexten der Erwachsenenbildung dargestellt werden. Am Ende des Kapitels geht es um Überlegungen zu einer Kultur der Anerkennung, um Anerkennung als Haltung. Das Schlusskapitel sieben bringt ein Resümee und einen Ausblick mit neuen Forschungsfragen zum Thema Anerkennung.
The aim of this dissertation is to explain processes in recruitment by gaining a better understanding of how perceptions evolve and how recruitment outcomes and perceptions are influenced. To do so, this dissertation takes a closer look at the formation of fit perceptions, the effects of top employer awards on pre-hire recruitment outcomes, and on how perceptions about external sources are influenced.
Fast Internet content delivery relies on two layers of caches on the request path. Firstly, content delivery networks (CDNs) seek to answer user requests before they traverse slow Internet paths. Secondly, aggregation caches in data centers seek to answer user requests before they traverse slow backend systems. The key challenge in managing these caches is the high variability of object sizes, request patterns, and retrieval latencies. Unfortunately, most existing literature focuses on caching with low (or no) variability in object sizes and ignores the intricacies of data center subsystems.
This thesis seeks to fill this gap with three contributions. First, we design a new caching system, called AdaptSize, that is robust under high object size variability. Second, we derive a method (called Flow-Offline Optimum or FOO) to predict the optimal cache hit ratio under variable object sizes. Third, we design a new caching system, called RobinHood, that exploits variances in retrieval latencies to deliver faster responses to user requests in data centers.
The techniques proposed in this thesis significantly improve the performance of CDN and data center caches. On two production traces from one of the world's largest CDN AdaptSize achieves 30-91% higher hit ratios than widely-used production systems, and 33-46% higher hit ratios than state-of-the-art research systems. Further, AdaptSize reduces the latency by more than 30% at the median, 90-percentile and 99-percentile.
We evaluate the accuracy of our FOO analysis technique on eight different production traces spanning four major Internet companies.
We find that FOO's error is at most 0.3%. Further, FOO reveals that the gap between online policies and OPT is much larger than previously thought: 27% on average, and up to 43% on web application traces.
We evaluate RobinHood with production traces from a major Internet company on a 50-server cluster. We find that RobinHood improves the 99-percentile latency by more than 50% over existing caching systems.
As load imbalances grow, RobinHood's latency improvement can be more than 2x. Further, we show that RobinHood is robust against server failures and adapts to automatic scaling of backend systems.
The results of this thesis demonstrate the power of guiding the design of practical caching policies using mathematical performance models and analysis. These models are general enough to find application in other areas of caching design and future challenges in Internet content delivery.
The simulation of cutting process challenges established methods due to large deformations and topological changes. In this work a particle finite element method (PFEM) is presented, which combines the benefits of discrete modeling techniques and methods based on continuum mechanics. A crucial part of the PFEM is the detection of the boundary of a set of particles. The impact of this boundary detection method on the structural integrity is examined and a relation of the key parameter of the method to the eigenvalues of strain tensors is elaborated. The influence of important process parameters on the cutting force is studied and a comparison to an empirical relation is presented.
In modern algebraic geometry solutions of polynomial equations are studied from a qualitative point of view using highly sophisticated tools such as cohomology, \(D\)-modules and Hodge structures. The latter have been unified in Saito’s far-reaching theory of mixed Hodge modules, that has shown striking applications including vanishing theorems for cohomology. A mixed Hodge module can be seen as a special type of filtered \(D\)-module, which is an algebraic counterpart of a system of linear differential equations. We present the first algorithmic approach to Saito’s theory. To this end, we develop a Gröbner basis theory for a new class of algebras generalizing PBW-algebras.
The category of mixed Hodge modules satisfies Grothendieck’s six-functor formalism. In part these functors rely on an additional natural filtration, the so-called \(V\)-filtration. A key result of this thesis is an algorithm to compute the \(V\)-filtration in the filtered setting. We derive from this algorithm methods for the computation of (extraordinary) direct image functors under open embeddings of complements of pure codimension one subvarieties. As side results we show
how to compute vanishing and nearby cycle functors and a quasi-inverse of Kashiwara’s equivalence for mixed Hodge modules.
Describing these functors in terms of local coordinates and taking local sections, we reduce the corresponding computations to algorithms over certain bifiltered algebras. It leads us to introduce the class of so-called PBW-reduction-algebras, a generalization of the class of PBW-algebras. We establish a comprehensive Gröbner basis framework for this generalization representing the involved filtrations by weight vectors.
Bedeutung des Konzepts außerschulischer Lernorte für die Pflegeausbildung, Kompetenzentwicklung durch das Aufsuchen außerschulischer Lernorte, Anwendung des Konzepts außerschulischer Lernorte auf unterschiedliche pflegerelevante Themen, konkrete Umsetzungsstrategien für das Konzept außerschulischer Lernorte in der Pflegeausbildung
Analyzing Centrality Indices in Complex Networks: an Approach Using Fuzzy Aggregation Operators
(2018)
The identification of entities that play an important role in a system is one of the fundamental analyses being performed in network studies. This topic is mainly related to centrality indices, which quantify node centrality with respect to several properties in the represented network. The nodes identified in such an analysis are called central nodes. Although centrality indices are very useful for these analyses, there exist several challenges regarding which one fits best
for a network. In addition, if the usage of only one index for determining central
nodes leads to under- or overestimation of the importance of nodes and is
insufficient for finding important nodes, then the question is how multiple indices
can be used in conjunction in such an evaluation. Thus, in this thesis an approach is proposed that includes multiple indices of nodes, each indicating
an aspect of importance, in the respective evaluation and where all the aspects of a node’s centrality are analyzed in an explorative manner. To achieve this
aim, the proposed idea uses fuzzy operators, including a parameter for generating different types of aggregations over multiple indices. In addition, several preprocessing methods for normalization of those values are proposed and discussed. We investigate whether the choice of different decisions regarding the
aggregation of the values changes the ranking of the nodes or not. It is revealed that (1) there are nodes that remain stable among the top-ranking nodes, which
makes them the most central nodes, and there are nodes that remain stable
among the bottom-ranking nodes, which makes them the least central nodes; and (2) there are nodes that show high sensitivity to the choice of normalization
methods and/or aggregations. We explain both cases and the reasons why the nodes’ rankings are stable or sensitive to the corresponding choices in various networks, such as social networks, communication networks, and air transportation networks.
Im Rahmen dieser Dissertation wurden nachhaltige Konzepte zur selektiven C-C, C-N, und C-S Bindungsknüpfung erarbeitet. Der Fokus lag dabei auf der Entwicklung katalytischer und ressourcenschonender Prozesse, die auf leicht zugänglichen und kostengünstigen Startmaterialien beruhen.
Im ersten Teilprojekt gelang es, eine abfallminimierte Eintopfsynthese von Amiden ausgehend von den entsprechenden Ammoniumcarboxylaten und einem niedermolekularen Alkin als Aktivator zu entwickeln. Entscheidend hierbei war die Identifikation eines hochaktiven und stabilen Rutheniumkatalysators, mit dem die Addition des Carboxylates an das Alkin selbst in Gegenwart von Aminen möglich ist. Eine Aminolyse der intermediär gebildeten Enolester liefert im Anschluss die gewünschten Amide zusammen mit einer niedermolekularen und leicht abtrennbaren Carbonylverbindung als einzigem Nebenprodukt.
In einem weiteren Projekt gelang es eine carboxylatdirigierte ortho-Arylierung von Benzoesäuren mit kostengünstigen und breit verfügbaren Arylhalogeniden zu entwickeln. Der bei diesem Verfahren eingesetzte Rutheniumkatalysator besticht dabei nicht nur durch seine hohe Aktivität, sondern ist im Vergleich zu bisher genutzten Katalysatoren um ein vielfaches günstiger und erlaubt selbst die Umsetzung von unreaktiveren Arylchloriden. Durch Kombination dieser neu entwickelten Methode mit einer Protodecarboxylierung bzw. einer decarboxylierenden Kreuzkupplung konnte weiterhin die Carboxygruppe als Ankerpunkt für weitere Funktionalisierungsschritte genutzt und so deren Überlegenheit im Vergleich zu anderen dirigierenden Gruppen demonstriert werden.
Daneben gelang in einem dritten Teilprojekt, welches zwei thematisch sehr verwandte Unterprojekte umfasst, die Einführung der pharmakologisch bedeutsamen Trifluormethylthiolgruppe in aliphatische Substrate unter Verzicht auf stöchiometrische Mengen an präformierten Metallspezies. Unter Verwendung der lagerstabilen Me4NSCF3 Vorstufe, welche aus den kommerziell erhältlichen Reagenzien Me4NF, elementarem Schwefel und TMS-CF3 zugänglich ist, konnten -Diazoester erstmals mit katalytischen Mengen eines Kupfersalzes zu den entsprechenden trifluormethylthiolierten Produkten umgesetzt werden. Zusätzlich hierzu gelang es, über eine indirekte Reaktionsführung aliphatische Kohlenstoffelektrophile, wie Halogenide oder Mesylate, in einer Eintopfreaktion zunächst zu thiocyanieren und anschließend über einen Langlois-Austausch mit kostengünstigem TMS-CF3 in die entsprechenden trifluormethylthiolierten Spezies umzuwandeln. Beide Verfahren bestechen mit einer hohen Toleranz gegenüber funktionellen Gruppen und einer deutlichen Reduktion der gebildeten Abfallmengen im Vergleich zu etablierten Verfahren.
Im letzten Teilprojekt dieser Arbeit konnte eine abfallfreie Hydroxymethylierung terminaler Alkine unter Nutzung von CO2 als nachhaltigem C1-Baustein realisiert werden. Durch den Einsatz der organischen Base 2,2,6-6-Tetramethylpiperidin werden Phenylacetylenderivate in einem sequentiellen Eintopfverfahren zunächst carboxyliert und im Anschluss daran zu den entsprechenden Alkoholen hydriert, wobei die Base nach der Sequenz wieder freigesetzt und als einziges Nebenprodukt Wasser gebildet wird. Analog dazu gelang es durch die Nutzung von Kaliumphosphat als Base dieses Konzept auch auf die anspruchsvolleren aliphatisch substituierten Alkine zu übertragen. Als Schlüsselschritt dieser Reaktionssequenz gilt eine Veresterung der intermediär gebildeten Kaliumcarboxylate in Methanol unter CO2 Druck. Das zusammen mit dem Produkt gebildete Basengemisch aus Kaliumhydrogencarbonat und Dikaliumhydrogenphosphat kann anschließend durch thermische Behandlung wieder in Wasser, Kohlendioxid und die eingesetzte Base Kaliumphosphat umgewandelt werden, sodass in der Gesamtsequenz lediglich Wasser als Nebenprodukt anfällt.
Certain brain tumours are very hard to treat with radiotherapy due to their irregular shape caused by the infiltrative nature of the tumour cells. To enhance the estimation of the tumour extent one may use a mathematical model. As the brain structure plays an important role for the cell migration, it has to be included in such a model. This is done via diffusion-MRI data. We set up a multiscale model class accounting among others for integrin-mediated movement of cancer cells in the brain tissue, and the integrin-mediated proliferation. Moreover, we model a novel chemotherapy in combination with standard radiotherapy.
Thereby, we start on the cellular scale in order to describe migration. Then we deduce mean-field equations on the mesoscopic (cell density) scale on which we also incorporate cell proliferation. To reduce the phase space of the mesoscopic equation, we use parabolic scaling and deduce an effective description in the form of a reaction-convection-diffusion equation on the macroscopic spatio-temporal scale. On this scale we perform three dimensional numerical simulations for the tumour cell density, thereby incorporating real diffusion tensor imaging data. To this aim, we present programmes for the data processing taking the raw medical data and processing it to the form to be included in the numerical simulation. Thanks to the reduction of the phase space, the numerical simulations are fast enough to enable application in clinical practice.
Informatorische Systeme finden zunehmend Eingang in Bildungseinrichtungen. „Schulen ans Netz“, eine 2012 abgeschlossene Förderinitiative des Bundesministeriums für Bildung und Forschung (BMBF) unter Beteiligung der Deutschen Telekom, ist ein Beispiel dafür. Das Land Rheinland-Pfalz stellt mit moodle@RLP Studienseminaren und Schulen eine kostenlose und wartungsfreundliche Lernplattform zur Verfügung. Neben dem Einsatz zu unterrichtlichen Zwecken legt der Verfasser das Augenmerk auf Möglichkeiten zur Optimierung schulorganisatorischer Arbeitsprozesse, zum Beispiel im Hinblick auf die Raum- und Gerätereservierung oder die Archivierung und Katalogisierung von Dokumenten und Unterrichtsmaterialien. Es werden hierzu notwendige Konfigurationseinstellungen erläutert und auf diese Weise eine virtuelle Organisationsstruktur einer Schule realisiert. Ihre Implementierung ist im Rahmen eines Schulentwicklungsprozesses an der IGS Wörth praktisch erprobt worden. Die hieraus gewonnenen Erkenntnisse bilden eine Basis für eine allgemeine, an der Praxis orientierten und theoretisch fundierten Handreichung zur Implementierung von moodle an Schulen. Insgesamt kommt die Studie zu dem Schluss, dass moodle durchaus eine Reihe an Möglichkeiten zur Verbesserung sowohl unterrichtlicher als auch schulorganisatorischer Aspekte besitzt, die jedoch nur dann zielführend ihre Wirkung entfalten können, wenn Schulentwicklungsprozesse erfolgreich durchgeführt werden. Hier kommt der Schulleitung eine Schlüsselrolle zu.
Die Arbeit beschäftigt sich mit der Interkulturellen Kompetenz als pädagogische Schlüsselqualifikation in der Erwachsenenbildung. Es werden verschiedene Modelle zur Interkulturellen Kompetenz dargestellt. Der Erwerb Interkultureller Kompetenz wird erläutert und in den erwachsenenpädagogischen Zusammenhang eingeordnet. Es wird der Forschungsfrage nachgegangen, inwieweit die konstruktivistische
Erwachsenenbildung und der Emotionale Konstruktivismus den Erwerb Interkultureller Kompetenz von Lehrenden der Erwachsenenbildung unterstützen können. Fünf leitfadengestützte Interviews ergänzen die als Literaturarbeit konzipierte Masterarbeit.
Das „Herzstück der Gewährleistung“ in Unternehmenskaufverträgen bilden die Jahresabschlussgarantien, sog. Bilanzgarantien. Dabei sichert der Verkäufer dem Käufer auf der Tatbestandseite von Bilanzgarantien zu, dass der Jahresabschluss des Zielunternehmens in Übereinstimmung mit den gesetzlichen Vorschriften er-stellt wurde. Das Interesse des Verkäufers besteht darin, nach dem Verkauf des Unternehmens frei über den Kaufpreis verfügen zu können, ohne dass es zu einer Haftungsinanspruchnahme durch den Käufer kommt. Die Arbeit beschäftigt sich aus unternehmenspraktischer und juristischer Sicht mit den Rechtsfolgen bei Ein-tritt des Garantiefalls, insbesondere der Bilanzauffüllung im Lichte des Schadens-rechts der §§ 249 ff. BGB.
We studied the development of cognitive abilities related to intelligence and creativity
(N = 48, 6–10 years old), using a longitudinal design (over one school year), in order
to evaluate an Enrichment Program for gifted primary school children initiated by
the government of the German federal state of Rhineland-Palatinate (Entdeckertag
Rheinland Pfalz, Germany; ET; Day of Discoverers). A group of German primary school
children (N = 24), identified earlier as intellectually gifted and selected to join the
ET program was compared to a gender-, class- and IQ- matched group of control
children that did not participate in this program. All participants performed the Standard
Progressive Matrices (SPM) test, which measures intelligence in well-defined problem
space; the Creative Reasoning Task (CRT), which measures intelligence in ill-defined
problem space; and the test of creative thinking-drawing production (TCT-DP), which
measures creativity, also in ill-defined problem space. Results revealed that problem
space matters: the ET program is effective only for the improvement of intelligence
operating in well-defined problem space. An effect was found for intelligence as
measured by SPM only, but neither for intelligence operating in ill-defined problem space
(CRT) nor for creativity (TCT-DP). This suggests that, depending on the type of problem
spaces presented, different cognitive abilities are elicited in the same child. Therefore,
enrichment programs for gifted, but also for children attending traditional schools,
should provide opportunities to develop cognitive abilities related to intelligence,
operating in both well- and ill-defined problem spaces, and to creativity in a parallel,
using an interactive approach.
Vor dem Hintergrund einer Häufung schadensträchtiger Ereignisse in den letzten Jahren und einer zukünftig möglichen Zunahme extremer Niederschläge infolge des Klimawandels sind mittlerweile methodische Ansätze des Risikomanagements im Rahmen einer kommunalen Überflutungsvorsorge etabliert. Zu der dafür erforderlichen
ortsbezogenen Analyse konkreter Überflutungsgefährdungen existieren
aktuell verschiedene methodische Ansätze unterschiedlicher Komplexität und Aussagekraft. Bestehende Anwendungsempfehlungen und vergleichende Untersuchungen stellen die integrale Berechnung des oberirdischen und unterirdischen Abflusses mithilfe bi-direktional gekoppelter 1D/2D-Abflussmodelle als den methodisch
umfassendsten und aussagekräftigsten Ansatz zur Durchführung entsprechender Analysen dar. Die hohe Komplexität dieser Modelle schlägt sich in einer Vielzahl an Einflussgrößen nieder, welche sich auf die Berechnungsergebnisse auswirken können. Zusätzlich ist die Kalibrierung von Modellen zur Überflutungssimulation aufgrund der oftmals fehlenden „Messdaten“ zum realen Überflutungsgeschehen stark begrenzt. Aufgrund fehlender konkreter Vorgaben und
Empfehlungen zur Anwendung der Methode bzw. zur Modellkonfiguration ist die Vergleichbarkeit von Analyseergebnissen und Gefährdungsaussagen derzeit nicht gegeben.
Die Ziele der vorliegenden Arbeit sind die Identifizierung und Quantifizierung von Einflussgrößen und die Erarbeitung entsprechender Anwendungsempfehlungen zur Erhöhung der Vergleichbarkeit beim Einsatz bi-direktional gekoppelter 1D/2DAbflussmodelle zur überflutungsbezogenen Gefährdungsanalyse.
Für zwei Modellgebiete, die sich hinsichtlich relevanter Gebietseigenschaften stark unterscheiden, wurden bi-direktional gekoppelte 1D/2D-Abflussmodelle mit einer Referenzkonfiguration erstellt und mithilfe von Daten zu historischen Überflutungsereignissen bestmöglich plausibilisiert. Im Rahmen einer Sensitivitätsanalyse an den beiden Referenzmodellen wurde eine große Zahl an Zusammenhängen und Auswirkungen durch Auslenkung relevanter Einflussgrößen identifiziert und quantifiziert. Um eine anwendungsbezogene Einschätzung zu gewährleisten wurden
Vergleichsindikatoren entwickelt, die nicht nur die Berücksichtigung berechneter Wasserstände und Fließgeschwindigkeiten, sondern auch eine Bewertung der Einflussgrößen hinsichtlich ihrer Auswirkungen auf die Gefährdungsaussage ermöglichen.
Anhand der Ergebnisse wurden gebietsspezifische Anwendungsempfehlungen für den Einsatz bi-direktional gekoppelter 1D/2D-Abflussberechnungen zur Gefährdungsanalyse abgeleitet. Die erarbeiteten Anwendungsempfehlungen tragen zu einer Erhöhung der Vergleichbarkeit künftiger Analysen der ortsbezogenen Überflutungsgefährdung bei. Die entwickelte Untersuchungsmethodik kann bei künftigen Ergänzungen oder Konkretisierungen der Anwendungsempfehlungen, z.B. anhand der Untersuchung weiterer Modellgebiete oder neuer Einflussgrößen, eingesetzt werden.
Based on the Lindblad master equation approach we obtain a detailed microscopic model of photons in a dye-filled cavity, which features condensation of light. To this end we generalise a recent non-equilibrium approach of Kirton and Keeling such that the dye-mediated contribution to the photon-photon interaction in the light condensate is accessible due to an interplay of coherent and dissipative dynamics. We describe the steady-state properties of the system by analysing the resulting equations of motion of both photonic and matter degrees of freedom. In particular, we discuss the existence of two limiting cases for steady states: photon Bose-Einstein condensate and laser-like. In the former case, we determine the corresponding dimensionless photon-photon interaction strength by relying on realistic experimental data and find a good agreement with previous theoretical estimates. Furthermore, we investigate how the dimensionless interaction strength depends on the respective system parameters.
Areal optical surface topography measurement is an emerging technology for industrial quality control. However, neither calibration procedures nor the utilization of material measures are standardized. State of the art is the calibration of a set of metrological characteristics with multiple calibration samples (material measures). Here, we propose a new calibration sample (artefact) capable of providing the entire set of relevant metrological characteristics within only one single sample. Our calibration artefact features multiple material measures and is manufactured with two-photon laser lithography (direct laser writing, DLW). This enables a holistic calibration of areal topography measuring instruments with only one series of measurements and without changing the sample.
Background: Aneuploidy, or abnormal chromosome numbers, severely alters cell physiology and is widespread in
cancers and other pathologies. Using model cell lines engineered to carry one or more extra chromosomes, it has
been demonstrated that aneuploidy per se impairs proliferation, leads to proteotoxic as well as replication stress
and triggers conserved transcriptome and proteome changes.
Results: In this study, we analysed for the first time miRNAs and demonstrate that their expression is altered in
response to chromosome gain. The miRNA deregulation is independent of the identity of the extra chromosome
and specific to individual cell lines. By cross-omics analysis we demonstrate that although the deregulated miRNAs
differ among individual aneuploid cell lines, their known targets are predominantly associated with cell development,
growth and proliferation, pathways known to be inhibited in response to chromosome gain. Indeed, we show that up
to 72% of these targets are downregulated and the associated miRNAs are overexpressed in aneuploid cells, suggesting
that the miRNA changes contribute to the global transcription changes triggered by aneuploidy. We identified
hsa-miR-10a-5p to be overexpressed in majority of aneuploid cells. Hsa-miR-10a-5p enhances translation of a
subset of mRNAs that contain so called 5’TOP motif and we show that its upregulation in aneuploids provides
resistance to starvation-induced shut down of ribosomal protein translation.
Conclusions: Our work suggests that the changes of the microRNAome contribute on one hand to the adverse
effects of aneuploidy on cell physiology, and on the other hand to the adaptation to aneuploidy by supporting
translation under adverse conditions.
Keywords: Aneuploidy, Cancer, miRNA, miR-10a-5p, Trisomy
Ecophysiological characterizations of photoautotrophic communities are not only necessary to identify the response of carbon fixation related to different climatic factors, but also to evaluate risks connected to changing environments. In biological soil crusts (BSCs), the description of ecophysiological features is difficult, due to the high variability in taxonomic composition and variable methodologies applied. Especially for BSCs in early successional stages, the available datasets are rare or focused on individual constituents, although these crusts may represent the only photoautotrophic component in many heavily disturbed ruderal areas, such as parking lots or building areas with increasing surface area worldwide. We analyzed the response of photosynthesis and respiration to changing BSC water contents (WCs), temperature and light in two early successional BSCs. We investigated whether the response of these parameters was different between intact BSC and the isolated dominating components. BSCs dominated by the cyanobacterium Nostoc commune and dominated by the green alga Zygogonium ericetorum were examined. A major divergence between the two BSCs was their absolute carbon fixation rate on a chlorophyll basis, which was significantly higher for the cyanobacterial crust. Nevertheless, independent of species composition, both crust types and their isolated organisms had convergent features such as high light acclimatization and a minor and very late-occurring depression in carbon uptake at water suprasaturation. This particular setup of ecophysiological features may enable these communities to cope with a high variety of climatic stresses and may therefore be a reason for their success in heavily disturbed areas with ongoing human impact. However, the shape of the response was different for intact BSC compared to separated organisms, especially in absolute net photosynthesis (NP) rates. This emphasizes the importance of measuring intact BSCs under natural conditions for collecting reliable data for meaningful analysis of BSC ecosystem services.
Die vorliegende Ausarbeitung greift die gegenwärte öffentliche Diskussion in Deutschland zu den
NOx-Emissionen von Dieselmotoren im realen Fahrbetrieb auf. Anhand von Motoren für leichte Nutzfahrzeuge und „Non Road“ Anwendungen werden konventielle, d.h. bereits verfügbare und in Serie eingeführte Maßnahmen zur Steigerung des Verbrennungsluftverhältnises und damit der Temperaturen des Abgasmassenstroms, mit der inneren Lastpunktverschiebung verglichen.
Die Absenkung des Verbrennungsluftverhältnises (λ) wird zur Sicherstellung der Funktion der Abgasnachbehandlung, inbesonders der NOx-Rohemissionen, und zur Darstellung eines ausreichenden Wirkungsgrades der Abgasnachbehandlung bei niedrigen Lasten benötigt. Der urbane Lieferverkehr ist in typischerweise durch den Stop&Go-Betrieb im innenstädtischen Betrieb, mit einem Betrieb bei kleinen Motordrehmomenten und Drehzahlen, sowie mit hohen zeitlichen Leerlaufanteilen verbunden. In diesem Lastbereich sind bei den derzeitigen Motorkonzepten zusätzliche motorische Maßnahmen und neue Konzepte notwendig, um die Einhaltung heutiger und zukünftiger Emissionsvorschriften sowie der Emissiongrenzwerte im realen Fahrbetrieb sicherzustellen. Dazu muss das hohe Verbrennungsluft-verhältnis, das heute der Grund für den niedrigen Kraftstoffverbrauch des Dieselmotors im Vergleich zum Ottomotor ist, abgesenkt werden. Die bisher eingesetzten konv. motorischen Maßnahmen (z.B. die Drosselung) führen zur einem Anstieg des Kraftstoffverbrauchs und damit auch der CO2-Emissionen. Eine bisher nicht verwendete Möglichkeit bzw. Maßnahme zur Reduktion des Verbrennungsluftverhältnisses beim Dieselmotor ist die dynamische Lastpunktverschiebung mittels Zylinderabschaltung.
Der größte Teil der Nutzfahrzeuge für den urbanen Personen- und Güterverkehr sowie die Mehrzahl der Arbeitmaschinen sind mit einem Vierzylinder-Dieselmotor ausgestattet. Für diese kleinen Nutzfahrzeugmotoren wird ein neuartiges Motorenkonzept vorgestellt. Das 3up-Motorenkonzept ermöglicht die Steigerung des Verbrennungsluftverhältnisses durch dyn. Lastpunktverschiebung (Zylinderabschaltung) bei signifikant niedrigeren indidzierten Kraftstoffverbrauch (z.B. bis zu – 20%), im Vergleich zu den konv. Maßnahmen zur Steigerung der Abgastemperatur bei Dieselmotoren. Dadurch ist es möglich, im realen Fahrbetrieb, d.h. bei Leerlauf und niedrigen Drehzahlen, bei vergleichbaren Schadstoffrohemissionen nachhaltig den realen Kraftstoffverbrauch zu senken.
Die Untersuchungen an den realiserten Konzeptmotoren zeigen die möglichen Verbesserungen bzgl. der Anhebung der Temperatur des Abgasmassenstroms, des Kraftstoffverbrauchs und die notwendigen Anpassungen bei der Realisierung dieses Motorkonzeptes für einen Dieselmotor auf.
The Power and Energy Student Summit (PESS) is designed for students, young professionals and PhD-students in the field of power engineering. PESS offers the possibility to gain first experience in presentation, publication and discussion with a renowned audience of specialists. Therefore, the conference is accompanied and supervised by established scientists and experts. The venue changes every year. In 2018, the University of Kaiserslautern held the eighth PESS conference. This document presents the submissions of this conference.
Das Ziel der Studie war es, die Reaktionen der Protagonisten an den Kinder-und Ju-gendsportschulen der DDR auf die gesellschaftlichen Veränderungen der Wendejahre zu eruieren. Es sollte herausgefunden werden, inwieweit diese Ereignisse die Bildungs-merkmale beeinflussten. Dazu wurden historische Archivdokumente analysiert und in 28 qualitativen Interviews 33 Zeitzeugen befragt. Eine wesentliche Erkenntnis war, dass die Arbeit an den KJS bis in das Jahr 1991 hinein nahezu unverändert fortgeführt wur-de. Durch eine partielle Ausdehnung der Thematik auf die heutigen Eliteschulen des Sports leistet der Text einen Beitrag zur Diskussion über den Leistungssport in Deutsch-land und dessen Spezialschulen.
Die Arbeit richtet sich neben Wissenschaftlern an leistungssportlich und bildungspoli-tisch interessierte Eltern, Pädagogen, Trainer und Verantwortungsträger.
Composite materials are used in many modern tools and engineering applications and
consist of two or more materials that are intermixed. Features like inclusions in a matrix
material are often very small compared to the overall structure. Volume elements that
are characteristic for the microstructure can be simulated and their elastic properties are
then used as a homogeneous material on the macroscopic scale.
Moulinec and Suquet [2] solve the so-called Lippmann-Schwinger equation, a reformulation of the equations of elasticity in periodic homogenization, using truncated
trigonometric polynomials on a tensor product grid as ansatz functions.
In this thesis, we generalize their approach to anisotropic lattices and extend it to
anisotropic translation invariant spaces. We discretize the partial differential equation
on these spaces and prove the convergence rate. The speed of convergence depends on
the smoothness of the coefficients and the regularity of the ansatz space. The spaces of
translates unify the ansatz of Moulinec and Suquet with de la Vallée Poussin means and
periodic Box splines, including the constant finite element discretization of Brisard and
Dormieux [1].
For finely resolved images, sampling on a coarser lattice reduces the computational
effort. We introduce mixing rules as the means to transfer fine-grid information to the
smaller lattice.
Finally, we show the effect of the anisotropic pattern, the space of translates, and the
convergence of the method, and mixing rules on two- and three-dimensional examples.
References
[1] S. Brisard and L. Dormieux. “FFT-based methods for the mechanics of composites:
A general variational framework”. In: Computational Materials Science 49.3 (2010),
pp. 663–671. doi: 10.1016/j.commatsci.2010.06.009.
[2] H. Moulinec and P. Suquet. “A numerical method for computing the overall response
of nonlinear composites with complex microstructure”. In: Computer Methods in
Applied Mechanics and Engineering 157.1-2 (1998), pp. 69–94. doi: 10.1016/s00457825(97)00218-1.