Refine
Year of publication
Document Type
- Doctoral Thesis (1592)
- Preprint (1184)
- Report (480)
- Article (385)
- Periodical Part (271)
- Master's Thesis (174)
- Working Paper (111)
- Conference Proceeding (45)
- Diploma Thesis (34)
- Lecture (25)
- Study Thesis (20)
- Bachelor Thesis (16)
- Book (15)
- Habilitation (15)
- Course Material (13)
- Part of a Book (10)
- Other (7)
- Periodical (6)
- Moving Images (3)
- Review (1)
Language
- English (2647)
- German (1752)
- Multiple Languages (4)
- Spanish (4)
Is part of the Bibliography
- no (4407)
Keywords
- AG-RESY (64)
- PARO (31)
- Stadtplanung (28)
- Erwachsenenbildung (24)
- Modellierung (22)
- Simulation (22)
- Case-Based Reasoning (20)
- Schule (20)
- wissenschaftliche Weiterbildung (19)
- Visualisierung (18)
Faculty / Organisational entity
- Fachbereich Mathematik (1108)
- Fachbereich Informatik (865)
- Fachbereich Maschinenbau und Verfahrenstechnik (400)
- Fachbereich Chemie (354)
- Fachbereich Physik (303)
- Fachbereich Sozialwissenschaften (298)
- Fraunhofer (ITWM) (223)
- Fachbereich Elektrotechnik und Informationstechnik (152)
- Fachbereich Biologie (148)
- Distance and Independent Studies Center (DISC) (96)
Globale Entwicklungen haben zu einer neuen Ausrichtung in der produzierenden Industrie geführt. Ressourceneffizienz hinsichtlich Werkstoff und Energie sowie die Ausnutzung von Multifunktionalitäten eines Werkstoffs und/oder Produkts sind mögliche Schlagwörter in diesem Zusammenhang. Bezogen auf Werkstoffe führt dies zu neuen Entwicklungen, die oft auf der Kombination eines oder mehrerer Einzelkomponenten zu einem Verbundwerkstoff basieren. Im Fokus stehen hierbei nicht nur die finale Anwendung des Produkts, sondern auch Aspekte wie Produktionskosten, -zeiten oder Wiederverwertbarkeit.
Induktive Heizverfahren erlauben hohe Heizraten, somit kurze Prozesszeiten und eine vergleichsweise hohe Energieeffizienz. Ihre Anwendung bei der Verarbeitung von insbesondere ungerichtet verstärkten Verbundwerkstoffen setzt voraus, dass Suszeptoren zur Umwandlung der elektromagnetischen in Wärmeenergie vorhanden sind. Die Auswahl entsprechender Suszeptoren ist eine wichtige Fragestellung, die in dieser Arbeit vor dem Hintergrund der Multifunktionalität untersucht wird. Oft beinhalten industriell verfügbare thermoplastische Compounds bereits Verstärkungsstoffe, die für die induktive Heizbarkeit geeignet sein können. In der vorliegenden Arbeit wurde deshalb basierend auf entsprechend kommerziell verfügbaren Compoundsystemen eine Bewertungsmethode entwickelt, die anhand von industriell relevanten und standardisiert messbaren Materialkennwerten – beispielsweise dem spezifischen Durchgangswiderstand – eine Aussage zur induktiven Heizbarkeit ermöglicht. Zum Einsatz kamen Kurzkohlenstoff- und Stahlfasern sowie Eisen- und Graphitpartikel in unterschiedlichen Konzentrationen und Kombinationen. Mit dem Durchgangswiderstand, der Dichte und der Wärmekapazität des Verbundwerkstoffs wurde ein Faktor ermittelt, der eine Korrelation mit der Heizrate aufweist, die mit einem industrierelevanten Induktionssystem experimentell gemessen wurde. Als eine wichtige Voraussetzung hat sich hierbei die Ausbildung eines perkolierenden Netzwerks, das sich aus den Verstärkungsstoffen zusammensetzt, gezeigt. Da dieses Netzwerk für eine Reihe von Anwendungsfällen relevant ist, leistet diese Arbeit einen Beitrag zur multifunktionellen Verwendung thermoplastischer
Verbundwerkstoffe.
Flächenhafte Kalibriernormale dienen zur Kalibrierung und Justierung von flächenhaft messenden Topographiemessgeräten und ermöglichen die Abschätzung der Messunsicherheit und die Rückführung der gemessenen Länge zur Basiseinheit. Es existieren hohe Anforderungen an die Maßhaltigkeit und Oberflächenqualität von Kalibriernormalen. Da in der Norm DIN EN ISO 25178-70 kein Fertigungsverfahren zur Herstellung von flächenhaften Kalibriernormalen vorgeschrieben ist, wurden bisher unterschiedliche Verfahren angewandt. Mikrofräsen ist ein sehr flexibles Herstellungsverfahren, welches hohe Maßhaltigkeiten und Oberflächengüten auf der Mikroskala ermöglicht. Im Rahmen dieser Arbeit wurde der Mikrofräsprozess zur Herstellung der Kalibriernormale mittels Kugelfräsern ausgelegt. Dazu wurden experimentelle als auch simulative Versuche durchgeführt und wichtige Einflussgrößen auf das Prozessergebnis zunächst identifiziert und anschließend entsprechend definiert. Nachdem zuerst flächenhafte Kalibriernormale, welche bereits genormte Kalibrierstrukturen aufweisen, gefertigt wurden, wurde der Mikrofräsprozess anschließend auch auf neuartige Kalibrierstrukturen basierend auf realen Bauteiloberflächen angewandt. Für alle gefertigten Kalibrierstrukturen lagen die Abweichungen von den Soll-Kennwerten nach der entsprechenden Prozessanpassung im einstelligen bis niedrig zweistelligen Nanometerbereich. Die Wiederholbarkeit bei der Fertigung der Kalibrierstrukturen lag in der gleichen Größenordnung. Mit dem ausgelegten Fräsprozess können die hohen Anforderungen an die Maßhaltigkeit und Oberflächenqualität der Kalibriernormale erfüllt werden.
In 2002, Korn and Wilmott introduced the worst-case scenario optimal portfolio approach.
They extend a Black-Scholes type security market, to include the possibility of a
crash. For the modeling of the possible stock price crash they use a Knightian uncertainty
approach and thus make no probabilistic assumption on the crash size or the crash time distribution.
Based on an indifference argument they determine the optimal portfolio process
for an investor who wants to maximize the expected utility from final wealth. In this thesis,
the worst-case scenario approach is extended in various directions to enable the consideration
of stress scenarios, to include the possibility of asset defaults and to allow for parameter
uncertainty.
Insurance companies and banks regularly have to face stress tests performed by regulatory
instances. In the first part we model their investment decision problem that includes stress
scenarios. This leads to optimal portfolios that are already stress test prone by construction.
The solution to this portfolio problem uses the newly introduced concept of minimum constant
portfolio processes.
In the second part we formulate an extended worst-case portfolio approach, where asset
defaults can occur in addition to asset crashes. In our model, the strictly risk-averse investor
does not know which asset is affected by the worst-case scenario. We solve this problem by
introducing the so-called worst-case crash/default loss.
In the third part we set up a continuous time portfolio optimization problem that includes
the possibility of a crash scenario as well as parameter uncertainty. To do this, we combine
the worst-case scenario approach with a model ambiguity approach that is also based on
Knightian uncertainty. We solve this portfolio problem and consider two concrete examples
with box uncertainty and ellipsoidal drift ambiguity.
Durch den kontinuierlichen Anstieg von aussortierten, nicht mehr verwendbaren Fast Fashion Produkten wird die Textilbranche zu einem allgegenwärtigen Problem in der heutigen Gesellschaft. Ein Bericht der Ellen MacArthur Foundation zeigte auf, dass bisher weniger als 1% des für die Herstellung von Kleidung verwendeten Materials recycelt wird. Um die Wiederverwendung und -verwertung von Kleidung zu ermöglichen, müssen weitreichende Veränderungen innerhalb der Textilindustrie stattfinden, aber sich auch das Verhalten von Konsumenten verändern.
Diese Arbeit soll deshalb die zentrale Fragestellung untersuchen, welche Maßnahmen unter Berücksichtigung des aktuellen Konsumentenverhaltens notwendig sind, um die Post-Verwendung von Kleidung nachhaltiger zu gestalten. In der vorliegenden Arbeit werden neue Erkenntnisse durch einen Mixed-Methods-Ansatz gewonnen. Um das Konsumentenverhalten hinsichtlich des Kleidungskonsums sowie der Verwendung und Verwertung von Gebrauchtkleidung beleuchten zu können, wird eine quantitative Online-Umfrage erstellt und durchgeführt. Im Zuge der Interpretation der quantitativen Forschung unterstützen zwei qualitative Experteninterviews den Erkenntnisgewinn. Darüber hinaus geben diese inhaltliche Unterstützung, um weitere Lösungsansätze für ein erfolgreiches Textilrecycling zu entwickeln. Der theoretische Rahmen der Arbeit wird durch eine Literaturrecherche unterstützt.
Das Kompetenzzentrum Weiterbildung Hessen (KW Hessen) bietet ein begleitendes und
prüfungsvorbereitendes Seminar- und Mentoringprogramm für Ärzte in Weiterbildung
und Train-the-Trainer Basis- und Aufbauseminare für Weiterbildner an. Im Rahmen
dieser Tätigkeit ist es aufgefallen, dass seitens der Teilnehmer wiederholt von - scheinbar
unvermittelt - gescheiterten Praxisübergaben berichtet wurde. Aus diesen Berichten ist
der Gedanke und damit der Wunsch entstanden, ein die Praxisübergabephase
begleitendes Coaching für abgebende und übernehmende Ärzte zu entwickeln und
anzubieten.
Ziel des zu entwickelnden Coachings ist es, die Übergabephase und die mit ihr
einhergehenden, oft tiefgreifenden, Veränderungsprozesse in den Hausarztpraxen auf
struktureller und emotionaler Ebene individuell und aufgabenzentriert zu unterstützen.
Dieser Ansatz wurde dem Hessischen Ministerium für Soziales und Integration (HMSI)
in Form eines Projektantrags zur Realisierung eines Praxisübergabe-/übernahme-
Coachings (Pü²C) vorgestellt, dort positiv beschieden und in der Folge im Rahmen des
Hessischen Gesundheitspaktes 3.0 als Beitrag zur Stärkung der ambulanten
Gesundheitsversorgung in Durchführungsverantwortung des Kompetenzzentrums
Weiterbildung Hessens beschlossen.
Die hier vorgelegte Studie dokumentiert die Bedarfserhebung für dieses Vorhaben und
untersucht den Wunsch der Ärzteschaft nach einem Praxisübergaben/-nahmen
begleitenden Coaching empirisch. Hierzu wurde eine multimethodische empirische
Studie durchgeführt, deren Gesamtkonzeption auf Seite 50 der vorgelegten
Forschungsarbeit grafisch dargestellt ist.
Die Ergebnisse zeigen sehr deutlich, dass sowohl die für diese Studie befragten Experten
der Einführung eines solchen Coachings außerordentlich positiv gegenüberstehen, als
auch, dass, insbesondere seitens der (Fach-)Ärzte mit Niederlassungsabsicht, respektive
der erfolgreichen Absolventen der Facharztprüfung Allgemeinmedizin in Hessen des
Jahres 2020, ein klarer und unmissverständlicher Wunsch nach einem solchen Angebot
besteht.
Darüber hinaus wurde mittels binär logistischer Regressionsanalyse der Einfluss von
soziostrukturellen Merkmalen, den Persönlichkeitsdimensionen, sowie von Vorerfahrungen und Zukunftsvorstellungen der Fachärzte für Allgemeinmedizin auf die
Coaching-Inanspruchnahmeabsicht untersucht.
Es konnte gezeigt werden, dass Vorerfahrungen im Mentoring und eine langfristige
Niederlassungsabsicht geeignete Prädiktoren für den Wunsch nach einem
Praxisübergabe-/übernahme-Coaching sind, wohingegen dies - auf Basis der
vorliegenden Daten - weder für die soziostrukturellen Merkmale, noch für die
Persönlichkeitsdimensionen der Befragten gilt, da diese keinen signifikanten Beitrag zur
Varianzaufklärung in Bezug auf den Wunsch nach Inanspruchnahme eines
Praxisübergabe-/übernahme-Coachings leisten.
Durch ein geeignetes Praxisübergabe-/übernahme-Coaching könnte es gelingen, dass
anberaumten Praxisübergaben aufgrund höherer Zufriedenheit beim Übergabe-
/Übernahmeprozess der involvierten Akteure ein höherer Erfolg beschieden sein dürfte
als ohne eine solche Begleitung. Vollständig aus- und weitergebildete Fachärzte für
Allgemeinmedizin könnten auf diese Weise umfassender in die Patientenversorgung
eingebunden werden. Evtl. kann ein solches Coaching in Einzelfällen sogar dazu führen,
dass Niederlassungen vorgezogen, evtl. sogar Niederlassungsabsichten bzw.
Praxisübergabewünsche geweckt werden. Die Chancen hierfür werden als umso besser
eingeschätzt, je schneller die Coachings starten können – einfach, solange und damit es
die zu übernehmenden Praxen überhaupt noch gibt. Keineswegs zuletzt
gesundheitspolitisch betrachtet, scheint es sich bei den Coachings um eine innovative,
vielversprechende und letztlich auch kostengünstige Maßnahme zur Sicherung der
ambulanten Gesundheitsversorgung im und durchaus auch gerade auf dem Lande zu
handeln.
In Gesamtwürdigung aller vorliegenden Ergebnisse empfiehlt der Verfasser der
vorgelegten Studie, die Konzeptspezifizierung für das Praxisübergabe-/übernahme-
Coaching (wieder) aufzunehmen und insbesondere die Durchführung einer qualitativ
hochwertigen, standardisierten Befragung in Form einer Vollerhebung der in Hessen
niedergelassenen Hausärzte ab einem Alter von 60 Jahren (bzw. zumindest in Form einer
Zufallsstichprobe aus dieser Grundgesamtheit) zu forcieren.
Parallel hierzu sollte zur Vorbereitung der Einführung eines generellen
Coachingangebots, auch mit Blick auf die Notwendigkeit der Entwicklung eines für
dieses Format geeigneten Evaluationsinstrumentariums, zunächst die intensive Begleitung einiger weniger Praxisübergaben/-übernahmen im Sinne eines Pilotprojektes
erfolgen.
Die Bedeutung und Nachfrage an der Holz-Beton-Verbundbauweise nimmt
aufgrund einer Vielzahl an Vorteilen gegenüber dem reinen Holzund
Stahlbetonbau immer weiter zu. Die Bemessung von Holz-Beton-
Verbundkonstruktionen ist aktuell nicht normativ geregelt, sondern wird auf
der Grundlage von bauaufsichtlichen Zulassungen und Bauartgenehmigungen
durchgeführt. Dabei kommen die unterschiedlichsten Typen an Verbindungsmitteln
zum Einsatz, wie beispielsweise stiftförmige Verbindungsmittel
und Kerven. Kontinuierliche Verbindungsmittel wie die Verbunddübelleiste
im Stahl-Beton-Verbundbau wurden bisher nicht im Holz-Beton-
Verbundbau verwendet. Verbunddübelleisten haben sich als sehr leistungsfähige
Verbundmittel mit einer hohen Tragfähigkeit und einfacher Herstellung
herausgestellt, deren Bemessung in der AbZ Z-26.4-56 2018 geregelt
ist. Zur Entwicklung eines Bemessungskonzeptes für ein den Verbunddübelleisten
ähnliches Verbundmittel für den Holz-Beton-Verbundbau sind klassischer
Weise experimentelle Untersuchungen zur Ermittlung der Tragfähigkeit
durchzuführen. Neben den oftmals zeitaufwendigen und kostenintensiven
Versuchen haben viele Untersuchungen an verschiedensten Verbundmitteln
gezeigt, dass sich numerische Untersuchungen in Form von Finite-
Elemente-Modellen dafür eignen das Tragverhalten abzubilden und die erforderliche
Anzahl an Versuchen zur Abdeckung der verschiedenen Parameter
zu reduzieren.
Im Rahmen dieser Arbeit wurde ein kontinuierliches Verbundmittel für die
Holz-Beton-Verbundbauweise entwickelt und es wurde mittels experimenteller
und numerischer Untersuchungen ein Bemessungskonzept erarbeitet.
Zur Beschreibung des Trag- und Verformungsverhaltens wurden Versuche
unter Längsschub- und Zugbeanspruchung durchgeführt. Anhand dieser
Versuche konnten Finite-Elemente-Modelle kalibriert werden und darauf aufbauend
numerische Untersuchungen zum Tragverhalten unter kombinierter
Zug- und Schubbeanspruchung durchgeführt werden. Da viele numerische
Untersuchungen an Verbundmitteln in der Vergangenheit eine hohe Sensibilität
bei der Variation der Materialparameter der Betonmodelle gezeigt
haben, wurde eine separate Untersuchung zu den Besonderheiten von Verbundmitteln
im Beton bei der numerischen Simulation herausgearbeitet und
entsprechende Lösungsansätze gegeben. Auf Grundlage der experimentellen
und numerischen Untersuchungen konnten die für das neue Verbundmittel
spezifischen Tragmechanismen identifiziert, in einem abschließenden
Trägerversuch bestätigt und in ein Bemessungsmodell überführt werden.
Durch den kombinierten Einsatz von experimentellen und numerischen
Untersuchungen konnte das Tragverhalten des neuen Holz-Beton-
Verbundsystems umfassend beschrieben und ein für die Praxis anwendbares
Bemessungskonzept entwickelt werden. Diese Arbeit soll damit neben dem
Bemessungskonzept einen Beitrag für die Anwendung numerischer Verfahren
bei der Untersuchung des Tragverhaltens von Verbundmitteln im Beton
leisten.
Infobrief FBK 66/22
(2022)
ERP-Systeme sind längst – nicht zuletzt durch mittelstandsspezifische Anbieter derartiger
Systeme – eine Selbstverständlichkeit auch in kleinen und mittleren Unternehmen (KMU).
Gleichzeitig stellen sie gerade in KMU häufig auch die einzige Informationsquelle für das
Controlling dar. Welche Anforderungen vor di esem Hintergrund an ein mittelstandsorientier-
tes Controlling gestellt werden, ist Gegenstand der hier aufgenommen Beiträge. Die Thematik
wird dabei sowohl aus einer konzeptionell-the oretischen, als auch aus einer anwendungsori-
entierten Perspektive behandelt. Die Beiträge sind hervor gegangen aus der langjährigen Ko-
operation zwischen den Lehrstühlen für Unte rnehmensrechnung und Controlling (Kaiserslau-
tern) sowie Controlling und Wirtschaftsinformatik (Zielona Gó ra), deren wesentliches Ziel
die Untersuchung von Möglichkeiten und Grenzen der Umsetzung aktueller betriebswirt-
schaftlicher Erkenntnisse in Standard-ERP Software für KMU ist.
Im ersten Beitrag geht es um Möglichkeiten und Grenzen der Befriedigung des Informations-
bedarfs von Controllinginstrumenten in Standard-ERP Software. Der zw eite Beitrag beschäf-
tigt sich mit dem (kaum vorhandenen) ERP-Bez ug in Standardlehrbüchern zur Kostenrech-
nung. Der dritte Beitrag geht von der Erkenntnis aus, dass die zunehmende mathematische
Komplexität betriebswirtschaftlicher Instrumente insbesondere im KMU-Kontext nicht auch
zu „besseren“ entscheidungsrelevanten Informationen führt. Die Originalbeiträge sind 2009 in
einem Sonderheft der polnischen Zeitschrift Management erschienen.
Der vorliegende Beitrag basiert auf einer Umfrage von 2019, die in kleinen und mittleren Unternehmen (KMU) in Rheinland-Pfalz durchgeführt wurde. Seit Jahren ist in den Medien, der Politik und der Wirtschaft verstärkt von Digitalisierung und Industrie 4.0 die Rede. Diese Entwicklung stellt Unternehmen aller Größen und Branchen vor Herausforderungen, jedoch liegt der Fokus hauptsächlich auf großen Unternehmen. Ziel der in diesem Beitrag vorgestellten Studie ist es, herauszufinden wie KMU in Rheinland-Pfalz den Herausforderungen und Chancen der Digitalisierung begegnen, welche Rolle das Controlling bei der digitalen Transformation spielt und welche Implikationen sich daraus für das Controlling ergeben.
Mit der Blickrichtung auf die Synthese und Darstellung neuer Verbindungen zur Verbesserung der Lebensqualität, Grundbedürfnisse und Gesundheit einer modernen Gesellschaft sind neue Strategien, welche die Konzepte der Nachhaltigkeit, Effizienz und Umweltschutz verinnerlichen, von immenser Bedeutung. Multikomponentenreaktionen (MCRs) offerieren hierfür einen attraktiven Lösungsansatz. Als Eintopfreaktionen zeichnen sich MCRs durch hohe Stufen- sowie Atomökonomien aus und können ferner dazu beitragen Kosten, Zeit, Energie und Abfälle einzusparen. Durch den modularen Charakter von MCRs lassen sich darüber hinaus schnell und effizient eine Vielzahl unterschiedlicher Molekülstrukturen generieren. Vor diesem Hintergrund konnten im Rahmen dieser Forschungsarbeit einige neue, kombinatorische Konzepte zur Synthese α-substituierter Glycinderivate entwickelt werden. Ausgehend von einer weiterentwickelten, Pd-katalysierten, enantioselektiven 3-Komponentenreaktion auf Basis von Sulfonsäureamiden, Glyoxylsäure Monohydrat und Boronsäuren konnte eine unerwartete Hintergrundreaktion festgestellt werden, die sich schlussendlich als erste katalysatorunabhängige Petasis-Reaktion auf Basis von Sulfonsäureamiden als Amin-Komponente darstellte.
In Anbetracht der Aufgabe eine ressourcensparende und nachhaltigere Aufbaumöglichkeit von unnatürlichen Aminosäurederivaten zu entwickeln, gelang es im Zuge dieser Doktorarbeit weiterhin eine Pd-katalysierte, decarboxylative 3-Komponentenreaktion aufzubauen und zu etablieren. Dabei bieten Arylcarbonsäuren als Schlüsselkomponenten in einem decarboxylativen Konzept mit Palladium eine kostengünstigere und umweltfreundlichere Alternative zu den bisher bestehenden Methoden mit Organoboronsäuren oder anderer Organometall-Spezies. Überraschenderweise konnte im Zuge der Untersuchungen zur Substratbreite der Aldehyd-Komponente eine direkte, decarboxylative Addition zwischen den eingesetzten Arylcarbonsäuren und den verschiedenen Glyoxylsäureestern beobachtet werden. Dabei eröffnete diese Methode in ersten Untersuchungen eine interessante Möglichkeit zur Darstellung entsprechender Mandelsäurederivate.
Ziel dieser Arbeit ist die Entwicklung einer optimierungsbasierten Betriebsstrategie von
Plug-In-Hybridfahrzeugen (PHEV), welche basierend auf Vorausschauinformationen die
Freiheitsgrade Lastpunktverschiebung und Motor-An/Aus-Entscheidung kraftstoffoptimal
einstellt. Der Hauptfokus der Arbeit liegt dabei auf der Entwicklung einer echtzeitfähigen
Strategie für Serienfahrzeuge. Hierfür wird ein neuartiger Ansatz auf Basis des Minimumprinzips
nach Pontryagin (PMP) vorgestellt, durch welchen die Freiheitsgrade des
PHEV kraftstoffoptimal eingestellt werden können. Dabei werden Informationen über die
vorausliegende Strecke effizient berücksichtigt. Die Qualität der in der Realität verfügbaren
Vorausschaudaten stellt jedoch eine besondere Herausforderung dar, da dadurch zwei in
der Praxis besonders relevante Aspekte auftreten: 1) Bei der Verwendung von PMP können
durch das besonders starke Auftreten sogenannter Singularitäten die Randbedingungen
des Optimalsteuerungsproblems nicht exakt eingehalten werden. Um dieses Problem zu
lösen, wurde in dieser Arbeit eine neuartige, PMP basierte Methodik entwickelt. 2) Die
für die Optimierung zur Verfügung stehenden Informationen sind zwangsweise unsicher,
und das reale Fahrzeugverhalten weicht von dem der Navi-Vorausschau ab. Um mit
dieser Unsicherheit umgehen zu können, wurde in dieser Arbeit eine Feedback-Struktur
entwickelt, welche eine Anpassung der Strategie auf ein abweichendes Fahrzeugverhalten
ermöglicht. Des Weiteren wurde eine Verallgemeinerung der vorgestellten PMP-Methodik
entwickelt, wodurch eine Integration von Motorstartkosten und externen Anforderungen
an die Motor-An/Aus-Entscheidung ermöglicht werden kann. Zu diesem Zweck wurde eine
Kombination von Dynamischer Programmierung und PMP betrachtet. Die entwickelten
Strategien wurden sowohl in der Simulation wie auch auf einem Prüfstand analysiert und
validiert. Abschließend wurde hierfür ein Vergleich mit regelbasierten Betriebsstrategien
vorgestellt. Dabei konnte ein deutlicher Verbrauchsvorteil durch die Verwendung der
entwickelten, optimierungsbasierten Betriebsstrategie ausgewiesen werden.
Die vorliegende Bachelorarbeit beleuchtet den Status quo der kooperativen Zusammenarbeit in deutschen Kollegien. Zunächst wird der Begriff der Kooperation aus einer theoretischen Sicht beleuchtet, ehe qualitative Interviews mit Lehrkräften über die Kooperationskultur an ihrer Schule ausgewertet werden.
Risk management is an indispensable component of the financial system. In this context, capital requirements are built by financial institutions to avoid future bankruptcy. Their calculation is based on a specific kind of maps, so-called risk measures. There exist several forms and definitions of them. Multi-asset risk measures are the starting point of this dissertation. They determine the capital requirements as the minimal amount of money invested into multiple eligible assets to secure future payoffs. The dissertation consists of three main contributions: First, multi-asset risk measures are used to calculate pricing bounds for European type options. Second, multi-asset risk measures are combined with recently proposed intrinsic risk measures to obtain a new kind of a risk measure which we call a multi-asset intrinsic (MAI) risk measure. Third, the preferences of an agent are included in the calculation of the capital requirements. This leads to another new risk measure which we call a scalarized utility-based multi-asset (SUBMA) risk measure.
In the introductory chapter, we recall the definition and properties of multi-asset risk
measures. Then, each of the aforementioned contributions covers a separate chapter. In
the following, the content of these three chapters is explained in more detail:
Risk measures can be used to calculate pricing bounds for financial derivatives. In
Chapter 2, we deal with the pricing of European options in an incomplete financial market
model. We use the common risk measures Value-at-Risk and Expected Shortfall to define
good deals on a financial market with log-normally distributed rates of return. We show that the pricing bounds obtained from Value-at-Risk may have a non-smooth behavior under parameter changes. Additionally, we find situations in which the seller's bound for a call option is smaller than the buyer's bound. We identify the missing convexity of the Value-at-Risk as main reason for this behavior. Due to the strong connection between the obtained pricing bounds and the theory of risk measures, we further obtain new insights in the finiteness and the continuity of multi-asset risk measures.
In Chapter 3, we construct the MAI risk measure. Therefore, recall that a multi-asset risk measure describes the minimal external capital that has to be raised into multiple eligible assets to make a future financial position acceptable, i.e., that it passes a capital adequacy test. Recently, the alternative methodology of intrinsic risk measures
was introduced in the literature. These ask for the minimal proportion of the financial position that has to be reallocated to pass the capital adequacy test, i.e., only internal capital is used. We combine these two concepts and call this new type of risk measure an MAI risk measure. It allows to secure the financial position by external capital as well as reallocating parts of the portfolio as an internal rebooking. We investigate several properties to demonstrate similarities and differences to the two
aforementioned classical types of risk measures. We find out that diversification reduces
the capital requirement only in special situations depending on the financial positions. With the help of Sion's minimax theorem we also prove a dual representation for MAI risk measures. Finally, we determine capital requirements in a model motivated by the Solvency II methodology.
In the final Chapter 4, we construct the SUBMA risk measure. In doing so, we consider the situation in which a financial institution has to satisfy a capital adequacy test, e.g., by the Basel Accords for banks or by Solvency II for insurers. If the financial situation of this institution is tight, then it can happen that no reallocation of the initial
endowment would pass the capital adequacy test. The classical portfolio optimization approach breaks down and a capital increase is needed. We introduce the SUBMA risk measure which optimizes the hedging costs and the expected utility of the institution simultaneously subject to the capital adequacy test. We find out that the SUBMA risk measure is coherent if the utility function has constant relative risk aversion and the capital adequacy test leads to a coherent acceptance set. In a one-period financial market model we present a sufficient condition for the SUBMA risk measure to be finite-valued and continuous. Finally, we calculate the SUBMA risk measure in a continuous-time financial market model for two benchmark capital adequacy tests.
Schnelllebige Umfeld-Dynamiken wie VUCA, neue Arbeitswelten und digitale Arbeit fordern spätestens seit Beginn der weltweiten COVID 19-Krise im Jahre 2020 adaptive Veränderungen und umfangreichen Wandel von und in Organisationen.
Aktuell zeigen die Veränderungsansätze und Methoden beratender Personen der Organisationsentwicklung oft auf, was alles zur Zielerreichung in den Fokus gestellt werden soll. Das heißt, es ist bekannt welche nach vorwärts gerichteten Veränderungen mit welchen Maßnahmen auf welchen Ebenen benötigt werden, ergänzt um welches Wissen und mit welchen Lernprozessen, das zur und bei Erreichung des Zieles aller Beteiligten als veränderte Kompetenzen und eingenommene Haltungen erforderlich ist. Erst wenn alles erfüllt ist, ist die Organisation am gewünschten Ziel angekommen. Es wird für und während dem Wandel viel Neues gelernt werden müssen. Einerseits wirken die bisherigen Haltungen, Verhalten, Denkweisen, Deutungsmuster, Routinen, Gewohnheiten, Wissensbestände nach wie vor bei den Beteiligten in den Wandelprozess ein, so auch in die Zeit nach der Zielerreichung. Die alte Welt schwingt noch mit und zeigt sich womöglich in unterschiedlichen Ausprägungen als Stolpersteine, vielleicht als Widerstände, als Wandlungsunflexibilität oder deutet sich gar als Wandlungsresistent. Dabei eröffnet sich die Frage „Wie kann eine Organisation das Bisherige loslassen, zurück- oder hinter sich lassen, wenn es rund um die Verhalten, Deutungsmuster, Traditionen und Allteingefahrenes dreht, die sich als Bestandteile einer bisherigen und nun zu wandelnden Organisationsidentität erweisen?“.
Für Organisationen und womöglich auch für die Beteiligten wäre es vorteilhaft, die bisher einwirkenden Faktoren als bislang zweckmäßig anzuerkennen und verabschiedend loszulassen. Das Loslassen und damit eine ermöglichende Wandlung von Haltungen, Wissen, Routinen, Gewohnheiten und Verhalten steht daher im Interesse von Organisationen und der Organisationsentwicklung. Damit würde Bestehendes verlernt, sofern dies in einem organisationalen Kontext erfassbar wäre. Daher wird für diese Arbeit ein Wandelprozess als Kontext angenommen, der auf New Work hinweist.
In der Zielsetzung und im Interesse dieser Arbeit steht daher, ob und wie Konzepte und Ansätze eines „Verlernens“ in Organisationen aus Sicht der OE praktisch genutzt und unterstützend einwirken könnten. Die Masterarbeit verfolgt die Forschungsfrage, deren Beantwortung Ziel der Arbeit darstellt:
„Wie lassen sich Ansätze des Verlernens für die Anwendung in der Organisationsentwicklung nutzen?“
By mapping the boundaries of Kant’s categorical imperative to the point where it permits the committing of a crime against Hume’s three principles of justice, it shall be demonstrated how far the area is in which these two concepts persist alongside each other and how narrow the border zone is in which they do not. Indeed, the latter is a forbidden place that can only be accessed through destiny and never by choice. Whoever is witnessed to stay there, must wish for Justice to draw her sword against him, and whoever dares to try reaching it, will only wander about a deserted land where both justice and morality are left behind.
This thesis reports about the investigation of di- and trinuclear coinage metal (Cu, Ag, Au) phosphine complexes with different anion adducts. Several mass spectrometric methods were utilized to investigate the complexes in gas phase without disturbing influences e.g. by the solvent. Electrospray Ionization (ESI) enabled the transfer of ions into the gas phase. In order to determine the fragmentation pathways and relative gas phase stabilities of these ions, Collision Induced Dissociation (CID) was used. The binding motifs and structures of the complexes were assigned by the help of Infrared (Multiple) Photon Dissociation (IR-(M)PD) at cryo (40 K, N2-tagged) and room temperature (300 K). Electron Transfer Dissociation/Reduction (ETD/R) was used to reduce the dicationic complexes to monocationic complexes. A tunable OPO/OPA laser system and the FELIX free-electron laser were used as IR laser sources. All experimental findings were supported by Density Functional Theory (DFT) calculation. In the first part of this thesis, the binding motifs and fragmentation behavior of the dinuclear coinage metal phosphine complexes with formate adduct were determined. Two different binding motifs were found and a stronger Cu-formate binding than in the case of Ag-formate. The dynamic bonding of hydrogen oxalate to phosphine ligand stabilized complexes were investigated in the second part. Several different binding motifs were determined. IR induced isomeric interconversions were found for the Ag complex whereas in case of the Cu complex a stiff hydrogen oxalate coordination seems to suppress such conversions. In the last part of this thesis, the ETD/R method was utilized to unravel the influence of oxidation states on the hydride and deuteride vibration modes of the trinuclear coinage metal complexes as well as the O2 adduct complexes and fragments with less complexity via IR-MPD and the FELIX free-electron laser. Unfortunately, an unambiguous assignment for the hydride and deuteride vibration modes is only possible for the fragments with less complexity.
The main objects of study in this thesis are abelian varieties and their endomorphism rings. Abelian varieties are not just interesting in their own right, they also have numerous applications in various areas such as in algebraic geometry, number theory and information security. In fact, they make up one of the best choices in public key cryptography and more recently in post-quantum cryptography. Endomorphism rings are objects attached to abelian varieties. Their computation plays an important role in explicit class field theory and in the security of some post-quantum cryptosystems.
There are subexponential algorithms to compute the endomorphism rings of abelian varieties of dimension one and two. Prior to this work, all these subexponential algorithms came with a probability of failure and additional steps were required to unconditionally prove the output. In addition, these methods do not cover all abelian varieties of dimension two. The objective of this thesis is to analyse the subexponential methods and develop ways to deal with the exceptional cases.
We improve the existing methods by developing algorithms that always output the correct endomorphism ring. In addition to that, we develop a novel approach to compute endomorphism rings of some abelian varieties that could not be handled before. We also prove that the subexponential approaches are simply not good enough to cover all the cases. We use some of our results to construct a family of abelian surfaces with which we build post-quantum cryptosystems that are believed to resist subexponential quantum attacks - a desirable property for cryptosystems. This has the potential of providing an efficient non interactive isogeny based key exchange protocol, which is also capable of resisting subexponential quantum attacks and will be the first of its kind.
Moderne Mikrostrukturierungsverfahren können dazu genutzt werden, die Eigenschaften von Bauteiloberflächen zu verändern und für bestimmte Anwendungsfälle gezielt zu optimieren. Gleichzeitig ist die Beschaffenheit einer Oberfläche von entscheidender Bedeutung für die Initiierung von Ermüdungsrissen. Im Rahmen dieser Arbeit wurden miniaturisierte Proben aus alpha-Titan mit drei verschiedenen Korngrößen, deren Oberflächen mithilfe von vier Mikrostrukturierungsverfahren modifiziert wurden, untersucht und die Einflussfaktoren auf die Schädigungsentwicklung unter zyklischer Beanspruchung eruiert.
Dafür wurden Methoden zur Charakterisierung der Oberflächenmorphologie (Topographie, Korngröße und kristallographische Orientierung) der Proben entwickelt. Die daraus abgeleiteten Informationen wurden für die Detektion kritischer Bereiche genutzt, in denen die Ermüdungsrissinitiierung vorzugsweise auftritt.
Die Untersuchungen zeigen, dass sich der Rissinitiierungsort anhand der entwickelten Methoden basierend auf Topographiedaten für Probenzustände bestimmen lässt, bei denen die Topographie den Rissinitiierungsort determiniert und bei denen folglich auch die Wechselfestigkeit aufgrund der Oberflächenstrukturierung reduziert ist. Für Probenzustände, bei denen die Rissinitiierung nicht an topographischen Merkmalen erfolgt, wird der Rissinitiierungsort durch lokale mikrostrukturelle Charakteristika bestimmt und konnte im Rahmen der vorliegenden Arbeit mit der Korngröße und der kristallographischen Orientierung korreliert werden.
Membrane proteins are of high pharmacological interest as they are involved in a variety of vital functions. However, to make them accessible to in vitro studies, they often need to be extracted from their natural lipid environment and stabilized with the aid of membrane-mimetic systems. Such membrane mimics can consist of diverse amphiphilic molecules. Small-molecule amphiphiles that can solubilize lipid bilayers, so-called detergents, have been invaluable tools for membrane-protein research in recent decades. Herein, novel small-molecule glyco-amphiphiles embodying three distinct design principles are introduced, and their biophysical and physicochemical properties are investigated. In doing so, the major aims consist in establishing new promising amphiphiles and in determining structure–efficacy relationships for their synthesis and application.
First, the software package D/STAIN was introduced to facilitate the analysis of demicellization curves obtained by isothermal titration calorimetry. The robustness of the underlying algorithm was demonstrated by analyzing demicellization curves representing large variations in amphiphile concentrations and thermodynamic parameters.
Second, the interactions of diastereomeric cyclopentane maltoside amphiphiles (CPMs) with lipid bilayers and membrane proteins were investigated. To this end, lipid model membranes, cellular membranes, and model membrane proteins were treated with different stereoisomer CPMs. These investigations pointed out the importance of stereochemical configuration in the solubilization of lipid bilayers, in the extraction of membrane proteins, and, ultimately, in the stabilization of the latter. Ultimately, CPM C12 could be identified as a particularly stabilizing agent.
Third, the influence of a polymerizable group attached to detergent-like amphiphiles was characterized regarding their micellization, micellar properties, and ability to solubilize lipid membranes. This revealed that such chemical modifications can have different degrees of impact regarding the investigated properties. In particular, micellization was influenced substantially, whereas the sizes of the resulting micelles varied slightly. The polymerizable amphiphiles were shown to solubilize artificial and natural lipid membranes and, consequently, to extract membrane proteins.
Last, the self-assembly of diglucoside amphiphiles bearing either a hydrocarbon or a lipophobic fluorocarbon chain to form native nanodiscs was investigated. It was shown that the presence of a fluorocarbon hydrophobic chain conveys superior stabilization properties onto the amphiphile and the resulting nanodiscs. Moreover, the kinetics of lipid exchange were fundamentally altered by the presence of the fluorocarbon amphiphiles in the nanodisc rim.
Der Bericht umfasst sechs Beiträge von Studierende der Karl-Franzenz-Universität Graz, die sich im Wintersemester 2021/2021 mit Fragen der Digitalisierung der Erwachsenenbildung in Österreich auseinandergesetzt haben. In diesem Rahmen wurden die Themenfelder Lernen und Lehren mit digitalen Medien, die medienpädagogische Professionalisierung von Erwachsenenbilnder:innen, die Digitalisierung der Anbieter sowie die Digitalisierung als Inhalt in den Angeboten und der (Weiter- )Bildungspolitik beleuchtet. Dabei wurde zum einen vorliegende Forschungsarbeiten ausgewertet, also auch ergänzende Recherchen auf durchgeführt, um die Datengrundlage zu verbessern. Allgemein wurde deutlich, dass die Forschungslage noch keine befriedigenden Rückschlüsse auf den Digitalisierungsprozess und dessen Wirkungen auf die Erwachsenenbildung/Weiterbildung in Österreich zulassen. Insofern stellt die hier vorliegende Zusammenstellen ein wichtigen Beitrag dar, die vorliegenden Desiderata zu identifizieren.
Industrial manufacturing companies have different IT control functions that can be represented with a so-called hierarchical automation pyramid. While these conventional software systems especially support the mass production with consistent demand, the future project “Industry 4.0” focuses on customer-oriented and adaptable production processes. In order to move from conventional production systems to a factory of the future, the control levels must be redistributed. With the help of cyber-physical production systems, an interoperable architecture must be, implemented which removes the hierarchical connection of the former control levels. The accompanied digitalisation of industrial companies makes the transition to modular production possible. At the same time, the requirements for production planning and control are increasing, which can be solved with approaches such as multi-agent systems (MASs). These software solutions are autonomous and intelligent objects with a distinct collaborative ability. There are different modelling methods, communication and interaction structures, as well as different development frameworks for these new systems. Since multi-agent systems have not yet been established as an industrial standard due to their high complexity, they are usually only tested in simulations. In this bachelor thesis, a detailed literature review on the topic of MASs in the field of production planning and control is presented. In addition, selected multi-agent approaches are evaluated and compared using specific classification criteria. In addition, the applicability of using these systems in digital and modular production is assessed.
Die Arbeit behandelt das facettenreiche Gebiet des steuerlichen Verlustabzugs, namentlich die konkrete Ausgestaltung des Verlustvortrags. Neben der verfassungsrechtlichen Würdigung der relevanten Normen legt die Autorin besonderen Wert auf die Frage, wie § 10d EStG im Sinne eines kohärenten Verlustabzugssystems auszugestalten sei. Auch die Verwerfungen der Corona-Krise haben im Bereich des Untersuchungsgegenstandes rege gesetzgeberische Tätigkeit ausgelöst. Die Verfasserin nimmt dies zum Anlass, pandemiebedingte Änderungen gesondert auf Rechtmäßigkeit wie auch ökonomische Wirksamkeit zu prüfen und die Vereinbarkeit der Neuerungen mit dem bestehenden Normsystem zu hinterfragen.
In recent months, sustainable development and the achievement of the United Nations Sus- tainable Development Goals has gained unprecedented prominence. SDG 7 aspires to achieve access to electricity for the entire world population by 2030 and - at the same time - to significantly increase the share of renewable energy in the power mix. This target trans- lates into ambitious electricity supply and renewable energy asset growth scenarios for Sub- Saharan Africa, the least developed region worldwide. Though theoretical renewable energy potential is abundant and capital generally available, progress has been slow. Aside funds from donors and Development Finance Institutions, private commercial capital is required to accelerate the progress. Project Finance has successfully attracted private funds for renew- able energy assets in other jurisdictions but has played a negligible role in the energy tran- sition in Sub-Saharan Africa. A variety of reasons are identified that impede their implemen- tation, which are categorised into (i) unsatisfactory project pre-requisites and preparation, (ii) challenging host country conditions, (iii) elevated non-financial project risks and (iv) risky financial transaction structures. While a review of potential mitigation measures reveals that the risk factors are theoretically addressable, most require a multi-stakeholder alignment and exhibit some implementation complexity. Putting them into practice will therefore take time and will require a high level of commitment from host governments, sponsors, and fi- nancial institutions. While pressure and urgency are mounting, time will tell whether the pro- ject parties are more successful going forward.
In the field of measurement technology, the use of unmanned aerial vehicles is becoming more and more popular. For many measurement tasks, the use of such devices offers many advantages in terms of cost and measurement effort. However, the occurring vibrations and disturbances are a significant disadvantage for the application of these devices for several measurement tasks. Within the scope of this work, a platform for measurement devices is developed. The platform is designed specifically for use on drones. The task of the platform is to isolate measurement equipments mounted on it from the drone disturbances. For this purpose we go through the product development process according to VDI 2221 to design a mechanical model of the platform. Then, control strategies are applied to isolate the platform. Since the disturbances acting on a drone are not always stationary, two control strategies known for their ability to handle uncertain systems are used. One of them comes from the field of acoustic.
Die Anbieter von Produkt-Service Systemen (PSS) im Investitionsgüterbereich unterliegen zunehmend dem Einfluss einer VUKA-Welt. Neue Technologien und Geschäftsmodelle, sich schnell ändernde Kundenbedürfnisse und der Einbezug vieler interner und externer Akteure resultieren in Komplexität, Unsicherheiten und kurzfristigen Änderungen, auf welche die PSS-Anbieter reagieren müssen, um frühzeitig entsprechende Lösungen anbieten zu können. Die PSS-Planung befasst sich mit der Identifikation und Spezifikation neuer PSS-Ideen. Die meisten Vorgehen zur PSS-Planung fokussieren auf die Planung von Sachprodukten, Serviceprodukten, unterstützender Infrastruktur und Netzwerke von Akteuren und binden den Kunden in die Planung ein. Durch die genannten Einflüsse der VUKA-Welt auf die Planung von PSS, muss diese an sich schnell ändernde Gegebenheiten angepasst werden. Agile Methoden der Softwareentwicklung bieten hierfür Potenziale. Insbesondere die Agile Methode Design Thinking, die den Kunden innerhalb eines kurzzyklischen Vorgehens in den Mittelpunkt der Entwicklungstätigkeiten stellt und auf die Entwicklung von Prototypen zur schnellen Realisierung von Lösungen setzt, bietet sich für den Einsatz in der PSS-Planung an. Die Arbeit befasst sich mit der Frage, wie Design Thinking in die PSS-Planung integriert werden kann, um zukünftig auf Änderungen adäquat reagieren zu können und gleichzeitig die Vorteile bestehender Ansätze, wie z. B. Kundenorientierung, nicht zu vernachlässigen. Dabei wird mit Hilfe eines Modellierungsansatzes eine Methode entwickelt, welches mit Rollen, Aktivitäten, Techniken und Ergebnissen den Einsatz von Design Thinking für die agile Planung von PSS ermöglicht, den Kunden an unterschiedlichen Stellen mit einbindet und Rücksprünge bei Änderungen erlaubt. Hervorzuheben ist, dass die Methode sowohl technologiegetrieben als auch marktgetrieben initiiert werden kann. Validiert wurde die Methode innerhalb eines Verbundprojekts bei der GRIMME Landmaschinenfabrik GmbH & Co. KG.
Der Terminus der „Geringqualifizierten“ ist eine ebenso verbreitete wie eingeschränkte Beschreibung einer heterogenen Zielgruppe, welche vor dem Hintergrund steigender arbeitsmarktbezogener Kompetenzanforderungen sowie des Zusammenhangs zwischen formalem Bildungsstatus und Risiken der Erwerbslosigkeit im Zentrum arbeitsmarktpolitischer Diskussionen steht. Geringqualifizierung drückt sich nicht nur im Fehlen formaler, berufsqualifizierender Abschlüsse aus, sondern besitzt angesichts sich dynamisch verändernder Arbeitsfelder und Anforderungen an die Qualifikation der Mitarbeitenden auch eine relative Dimension. So können vorhandene Kompetenzen aufgrund fehlender Aktualisierung veralten und damit als „zu gering“ eingestuft werden. Vor diesem Hintergrund nähert sich der Bericht der Personengruppe der Geringqualifizierten an, indem er bestehende Definitionen kritisch betrachtet, Verbindungen zu anderen Begriffen aufzeigt und aus den Erkenntnissen eine eigene relative Beschreibung ableitet. Ergänzt wird dieser Report durch die Betrachtung von Weiterbildungsangeboten für diese Zielgruppe.
In dieser Arbeit wurden photoaktive Übergangsmetallkomplexe mit häufig vorkommenden Metallen wie Chrom, Vanadium und Kupfer untersucht. Hierbei wurden ausgewählte Exemplare mit besonders interessanten photophysikalischen und photochemischen Eigenschaften in Bezug auf praktische Anwendungen spektroskopisch charakterisiert. Über statische und insbesondere zeitaufgelöste FTIR- und Lumineszenzspektroskopie wurde ein tieferes Verständnis der Dynamik nach Lichtanregung erzielt. Das Hauptziel dieser Forschung besteht darin seltene und teure Elemente wie Ruthenium und Iridium gegen häufigere Metalle zu ersetzen.
In diesem Zusammenhang wurden mononukleare, oktaedrische Chrom(III)- und Vanadium(III)-Komplexe mit Polypyridylliganden, die im Arbeitskreis von Prof. Dr. Katja Heinze synthetisiert wurden, spektroskopisch charakterisiert. Diese Systeme zeigen vielversprechende Lumineszenzeigenschaften mit einer roten bzw. nahinfraroten Phosphoreszenz, wobei bei tiefen Temperaturen besonders hohe Quantenausbeuten und längere Lebensdauern beobachtet werden konnten.
Außerdem wurden einkernige Chrom(0)-, Molybdän(0)- und Wolfram(0)-Komplexe spektroskopisch charakterisiert, die allesamt im Arbeitskreis von Prof. Dr. Biprajit Sarkar synthetisiert wurden. Es sind mononukleare Komplexe mit Pyridyl-Carben-Liganden und Carbonyl-Coliganden mit einer dualen Phosphoreszenz (Emissionsbande im roten und nahinfraroten Bereich), wobei sich die niederenergetische Bande interessanterweise bis 1300 nm erstreckt. Außerdem zeigen die drei Komplexe bei intensiver Bestrahlung mit sichtbarem oder UV-Licht in organischer Lösung eine photochemische Reaktivität.
Als weitere vielversprechende Luminophore (sichtbare Emission) wurden Kupfer(I)-Komplexe analysiert, die für organische Leuchtdioden relevant sind. Einerseits wurden zweikernige Systeme mit einer zentralen Cu2I2-Einheit untersucht, die sich durch eine Fluorierung an den Phosphin-Hilfsliganden von den Derivaten aus Vorarbeiten unterscheiden. Die Systeme wurden im Arbeitskreis von Prof. Dr. Stefan Bräse zur Verbesserung der Löslichkeit im Vergleich zu unfluorierten Derivaten entwickelt. Die spektroskopischen Befunde dieser Arbeit zeigen, dass insbesondere die Einführung von Trifluormethylgruppen nicht nur die Löslichkeit, sondern auch die Stabilität verbessert. Andererseits wurden vierkernige Komplexe mit näherungsweise oktaedrischen Cu4X4-Clustern (X = I, Br, Cl) charakterisiert, wobei sich teilweise eine stark thermochrome Lumineszenz mit zwei klar separierten roten bzw. blauen Phosphoreszenzbanden ergab. Der Ursprung dieser Thermochromie konnte erstmalig auf experimentellem Weg den starken strukturellen Veränderung innerhalb des Cu4X4-Clusters zugeordnet werden.
Außerdem sind Kupfer(I)-Komplexe vielversprechende Kandidaten zur Verwendung als Photosensibilisatoren. Bei einem vom Arbeitskreis von Dr. Michael Karnahl zu Verfügung gestellten Kupfer(I)-Einkerner mit einem Liganden mit ausgedehntem 𝜋-System ergab sich ein langlebiger, nicht-strahlender Triplett-Zustand. In einem verwandten Projekt wurden ein- und zweikernige Kupfer(I)-Komplexe untersucht, die im Arbeitskreis von Dr. Claudia Bizzarri synthetisiert wurden. Der Fokus lag hierbei auf dem Einfluss einer Dimerisierung (kovalente Verbindung zweier mononuklearer Komplexe) oder einer Protonierung eines Liganden auf die photophysikalischen Eigenschaften.
Untersucht wurde das mechanische Verformungsverhalten des massiven metallischen Glases Zr52,5Cu17,9Ni14,6Al10Ti5 (Vitreloy 105) an Luft und im wässrigen Umgebungsmedium 0,01 M Na2SO4 (+ 0,01 M NaCl). Die Belastung erfolgte im Dreipunktbiegeversuch unter quasistatischer sowie zyklischer Beanspruchung und mit Hilfe der instrumentierten Schlagprüfung. Neben dem Umgebungseinfluss wurde der Effekt von zyklisch-kryogenen Vorbehandlungen und Oberflächenbearbeitungen mittels Mikrostrahlen, -fräsen, -erodieren und -laserablation auf die Schädigungsentwicklung und die ertragbaren Spannungen analysiert. Während eine Modifikation der Oberfläche stets in einer Erhöhung der Plastizität infolge einer verstärkten Scherbandbildung resultierte, wiesen diese Proben i.d.R. deutlich niedrigere Dauerfestigkeiten unter zyklischer Wechselbeanspruchung auf. Die tiefkühlbehandelten Zustände zeigten in allen mechanischen Tests ein optimiertes Verformungsverhalten. Mit Hilfe der anodischen Polarisation wurde außerdem im chloridhaltigen Medium ein signifikanter Effekt auf die Lebensdauer der unbehandelten Ermüdungsproben verzeichnet. Die Detektion der scherbandgetriebenen Deformationsprozesse sowie der Rissinitiierung und -ausbreitung erfolgte sowohl mittels Licht- und Rasterelektronenmikroskopie als auch unter Ausnutzung elektrochemischer Messsignale im wässrigen Medium bzw. resistometrischer Methoden an Luft. Auf Basis der Untersuchungsergebnisse wurden abschließend Schädigungsmodelle für die jeweiligen Versuchsbedingungen aufgestellt und diskutiert.
Die Systeme der Planung von Windenergieanlagen in Deutschland und Frankreich – ein Rechtsvergleich
(2022)
Die Energiewende in Deutschland stockt, so auch der Ausbau der Windenergie an Land. Die Gründe liegen unter anderem in der Umstellung des Fördersystems von einer garantierten Einspeisevergütung hin zu Ausschreibungen, sinkender Akzeptanz gegenüber Windenergieanlagen und der Einführung von Abstandsflächen in bestimmten Bundesländern. Bundesweit stellen Vorhabenträger und Investoren gleichermaßen fest, es mangelt an Ausbauflächen. Vor dem Hintergrund der beabsichtigten Steigerung der Ausbauziele stellen sich beträchtliche Ansprüche an den Raum. Ihnen Geltung zu verschaffen ist in Deutschland die Aufgabe der räumlichen (Gesamt-)Planung. Das bestehende Planungssystem stößt dabei jedoch an seine Grenzen. Die rechtsvergleichende Untersuchung wendet den Blick Deutschlands Nachbarn und starkem Partner in der Europäischen Union zu: Frankreich. Einerseits hat Frankreich im Jahr 2018 den ersten Rang als attraktivsten Markt für Investitionen in erneuerbare Energien vor Deutschland eingenommen. Andererseits verzeichnet Frankreich im Vergleich zu Deutschland einen stetigen Zubau der installierten Windenergieleistung. Der einfachen Frage, was Frankreich anders oder gar besser macht, folgen die zwei zentralen Forschungsleitfragen der Untersuchung:
1. Wie vergleichbar ist die rechtliche und tatsächliche Ausgangslage in Bezug auf die Planungssysteme von Windenergieanlagen in Deutschland und Frankreich?
2. Wie erfolgt die planerische Steuerung des Ausbaus der Windenergie in Deutschland und Frankreich – wie kann das deutsche System durch das französische optimiert werden?
Die Beantwortung dieser Fragen führte zum Aufbau der Arbeit in zwei Teile. Im ersten (Grundlagen-)Teil werden jeweils die Ziele zum Ausbau der Windenergie, die tatsächliche Ausgangssituation, Fördermechanismen und der Staats- und verwaltungsorganisatorische Rahmen aufgezeigt. Dies schafft den Kontext und eine bessere Vergleichbarkeit für den sich anschließenden Zweiten Teil. Verglichen werden hier für Deutschland und Frankreich jeweils das Verständnis von (Raum-)Planung, die Systeme der Planung mit ihren einzelnen Planungsinstrumenten zum Ausbau der Windenergie und die Systeme ihrer planerischen Steuerung sowie das Verhältnis von Planung zur Vorhabenzulassung. Die Untersuchung mündet in dem Entwurf eines „Energieplanungskonzepte-Systems“ für das deutsche Planungssystem. Denn die zentralen Erkenntnisse der Arbeit sind:
In Frankreich stehen keine stärkeren Umsetzungs-/ Durchsetzungsmechanismen als in Deutschland zur Verfügung, auch nicht in Gestalt von finanziellen Fördermechanismen durch das vergleichbare Ausschreibungsmodell für Windenergieanlagen. Das „günstige Klima“ ist zum einen dem größeren Entwicklungspotenzial der Windenergie geschuldet, zum anderem der besseren, landesweiten und einheitlichen Integration von Umweltfachplanungen, die in Deutschland mit Energiekonzepten vergleichbar sind. In Frankreich verhelfen die sektoralen (Energiefach-)Planungen zu einem vergleichbar besseren Überblick über die Erneuerbare- Energien-Erzeugung – auch wenn ein Zusammenführen der (inter-)kommunalen Daten auf regionaler Ebene nicht vorgesehen ist. Durch die Zentralisierung strategischer und struktureller Entscheidungen verfügt das französische Planungssystem zudem über mehr Systemkohärenz.
Die Überführung der Windenergieplanung von der Außenbereichsprivilegierung in Verbindung mit begrenzender Steuerungsplanung hin zu einer Bedarfsfachplanung, die den bundesweiten Ausbaubedarf ermittelt und über die Planungshierarchie schrittweise auf Bundesländer, Regionen und Kommunen herunterbricht, konkretisiert und durchsetzt, würde endlich das vielfach vermisste übergreifende Konzept der Energiewende erbringen. Auf der Grundlage des Vergleichs mit dem französischen Planungssystem bietet die vorliegende Untersuchung einen Vorschlag an, wie das deutsche System für den weiteren Ausbau der Windenergie zur Erreichung der Ausbauziele ertüchtigt werden kann.
Die Covid-19-Pandemie und die damit verbundenen Regeln und Einschränkungen bestimmen seit März 2020 unseren Alltag. Aufgrund dessen waren und sind Schüler*innen von zuhause aus mit Hilfe digitaler Medien zu unterrichten (vgl. Fickermann & Edelstein, 2020). Durch die Corona-Pandemie wurden Lehrer*innen von jetzt auf gleich vor neue Herausforderungen gestellt: Einen Unterricht mit digitalen Medien gestalten, der an die technischen Gegebenheiten und Medienkompetenzen der Schüler*innen angepasst ist (vgl. Voss & Wittwer, 2020). Obwohl es zahlreiche Studien zum Einsatz von digitalen Medien im Unterricht gibt (u.a. BITKOM, 2015; Lorenz et al., 2017; Schmid et al., 2017; Eickelmann et al., 2019), ist bisher, insbesondere vor dem Hintergrund der Corona-Pandemie, nicht umfassend geklärt, wie genau Lehrer*innen mit digitalen Medien bei der Unterrichtsgestaltung handeln und welche medialen Praktiken sich daraus ergeben.
Das Ziel der vorliegenden Bachelorarbeit ist es, herauszustellen, welche medialen Praktiken von Lehrer*innen bei der Unterrichtsgestaltung vor dem Hintergrund der Corona-Pandemie zu beobachten sind und somit rekonstruiert werden können. Dazu wurde eine videographische Studie des Online-Unterrichts in der Zuhause-Schule durchgeführt. Unter der Forschungsfrage, Wie handeln Lehrer*innen mit digitalen Medien bei der Unterrichtsgestaltung vor dem Hintergrund der Corona-Pandemie, und der Frage, welche medialen Praktiken aus der Ferne rekonstruiert werden können, wurde mittels Videographie eine Lehrerin bei der Unterrichtsgestaltung mit digitalen Medien in ihrem häuslichen Arbeitszimmer beobachtet.
Die Ergebnisse der qualitativen Studie zeigen auf, dass während der Corona-Pandemie ausschließlich digitale Medien zur Unterrichtsgestaltung genutzt werden. Mediale Praktiken, die während der Unterrichtsgestaltung zu beobachten sind, sind unter anderem Aneignungspraktiken, Recherchepraktiken sowie Vermittlungspraktiken. Allerdings zeigen die Ergebnisse, dass die Finessen und Potenziale von digitalen Medien zur Unterstützung von Lehr- und Lernprozessen bisher unzureichend genutzt werden und Widerständigkeiten im Umgang mit digitalen Medien zu erkennen sind. Dies zeigt wiederum auf, dass Lehrer*innen im Umgang mit digitalen Medien umfassende Kompetenzen aufbauen müssen, um diese strukturiert und angepasst an den Unterrichtsinhalt nutzen zu können.
Das Allgemeine Gleichbehandlungsgesetz hat durch seine gesetzlich verankerten Regelungen bedeutsame Auswirkungen auf die Personalbeschaffung und birgt deshalb für Unternehmen gewisse Risiken im Rahmen des Prozesses rund um das Thema Stellenausschreibungen. Die Mastarbeit gibt neben Beispielen zu diskriminierenden Stellenanzeigen, einen Einblick in mögliche Rechtsfolgen für Unternehmen im Zusammenhang mit diskriminierenden Stellenanzeigen, sowie Handlungsempfehlungen zur Umsetzung von diskriminierungsfreien Stellenanzeigen.
Die Entwicklung der Lehrkompetenz von in der wissenschaftlichen Weiterbildung im Gesundheitsbereich Lehrenden und die Begleitung dieses Lernprozesses stellen Herausforderungen dar, die auf eine zunehmende Professionalität der Lehrenden und die Verbesserung der Qualität der Hochschullehre zielen. Basierend auf lerntheoretischen Ansätzen zum Thema Lebenslanges Lernen stellen sich die Fragen: Können aktuelle Erkenntnisse aus den Neurowissenschaften didaktisch und methodisch bei Lehrenden in der wissenschaftlichen Weiterbildung im Gesundheitsbereich einen Prozess der Lehrkompetenzentwicklung initiieren und flankieren? Welche Impulse können die Lehrtätigen aus der Verknüpfung von neurowissenschaftlichen Forschungsergebnissen mit lerntheoretischen Erkenntnissen für die Förderung der Motivation und für die Lernbegleitung der Studierenden gewinnen? Für das fachspezifisch an die naturwissenschaftlichen beziehungsweise medizinischen Vorkenntnisse der Lehrenden im Gesundheitsbereich anknüpfende Modell der Lehrkompetenzentwicklung erfolgt eine Einbettung in einen konzeptionellen Rahmen, der die verschiedenen Handlungsebenen an der Hochschule mit einbezieht.
Demonstrating perception without visual awareness: Double dissociations between priming and masking
(2022)
A double dissociation impressively demonstrates that visual perception and visual awareness can be independent of each other and do not have to rely on the same source of information (T. Schmidt & Vorberg, 2006). Traditionally, an indirect measure of stimulus processing and a direct measure of visual awareness are compared (dissociation paradigm or classic dissociation paradigm, Erdelyi, 1986; formally described by Reingold & Merikle, 1988; Merikle & Reingold, 1990; Reingold, 2004). If both measures exhibit opposite time courses, a double dissociation is demonstrated. One tool that is well suited to measure stimulus processing as fast visuomotor response activation is the response priming method (Klotz & Neumann, 1999; Klotz & Wolff, 1995; see also F. Schmidt et al., 2011; Vorberg et al., 2003). Typically, observers perform speeded responses to a target stimulus preceded by a prime stimulus, which can trigger the same motor response by sharing consistent features (e.g., shape) or different responses due to inconsistent features. While consistent features cause speeded motor responses, inconsistent trials can induce response conflicts and result in slowed responses. These response time differences describe the response priming effect (Klotz & Neumann, 1999; Klotz & Wolff, 1995; see also F. Schmidt et al., 2011; Vorberg et al., 2003). The theoretical background of this method forms the Rapid-Chase Theory (T. Schmidt et al., 2006, 2011; see also T. Schmidt, 2014), which assumes that priming is based on neuronal feedforward processing within the visuomotor system. Lamme and Roelfsema (2000; see also Lamme, 2010) claim that this feedforward processing does not generate visual awareness because neuronal feedback and recurrent processes are needed. Fascinatingly, while prime visibility can be manipulated by visual masking techniques (Breitmeyer & Öğmen, 2006), priming effects can still increase over time. Masking effects are used as a direct measure of prime awareness. Based on their time course, type-A and type-B masking functions are distinguished (Breitmeyer & Öğmen, 2006; see also Albrecht & Mattler, 2010, 2012, 2016). Type-A masking is most commonly shown with a typically increasing function over time. In contrast, type-B masking functions are rarely observed, which demonstrate a decreasing or u-shaped time course. This masking type is usually only found under metacontrast backward masking (Breitmeyer & Öğmen, 2006; see also Albrecht & Mattler, 2010, 2012, 2016). While priming effects are expected to increase over time by Rapid-Chase Theory (T. Schmidt et al., 2006, 2011; see also T. Schmidt, 2014), the masking effect can show an opposite trend with a decreasing or u-shaped type-B masking curve, forming a double dissociation.
In empirical practice, double dissociations are a rarity, while historically simple dissociations have been the favored data pattern to demonstrate perception without awareness, despite suffering from statistical measurement problems (T. Schmidt & Vorberg, 2006). Motivated by this shortcoming, I aim to demonstrate that a double dissociation is the most powerful and convincing data pattern, which provides evidence that visual perception does not necessarily generate visual awareness, since both processes are based on different neuronal mechanisms. I investigated which experimental conditions allow for a double dissociation between priming and prime awareness. The first set of experiments demonstrated that a double-dissociated pattern between priming and masking can be induced artificially, and that the technique of induced dissociations is of general utility. The second set of experiments used two awareness measures (objective vs. subjective) and a response priming task in various combinations, resulting in different task settings (single-, dual-, triple tasks). The experiments revealed that some task types constitute an unfavorable experimental environment that can prevent a double dissociation from occurring naturally, especially when a pure feedforward processing of the stimuli seems to be disturbed. The present work provides further important findings. First, stimulus perception and stimulus awareness show a general dissociability in most of the participants, supporting the idea that different neuronal processes are responsible for this kind of data pattern. Second, any direct awareness measure (no matter whether objective or subjective) is highly observer-dependent, requiring the individual analysis at the level of single participants. Third, a deep analysis of priming effects at the micro level (e.g., checking for fast errors) can provide further insights regarding information processing of different visual stimuli (e.g., shape vs. color) and under changing experimental conditions (e.g. single- vs. triple tasks).
Fast jeder zweite Mensch in Deutschland erkrankt im Laufe seines Lebens an Krebs
– so lautet eine Aussage des Robert Koch Instituts. Die Heilungschancen werden
bei einer Krebserkrankung wird stark durch den Zeitpunkt der Diagnose und Behandlung
beeinflusst. Generell gilt, je früher desto besser. Somit ist es essenziell,
dass Krebspatienten so früh wie möglich ihre Behandlung antreten. Ebenso
muss eine Unterbrechung der Therapie aus nicht-medizinischen Gründen verhindert
werden, um eine beschleunigte Repopulation der Tumorzellen zu unterbinden.
Eine der wichtigsten Formen der Krebsbehandlung ist die Strahlentherapie, die in
etwa 50 % der Fälle sowohl zur kurativen als auch zur palliativen Behandlung angewendet
wird. Innerhalb der Strahlentherapie ist der effiziente Ablauf der Prozesse
von großer Bedeutung für die Sicherheit und Effektivität der medizinischen
Behandlung bei gleichzeitiger Wirtschaftlichkeit. Für ein bestmögliches Ergebnis
müssen die Kernprozesse der Patientenaufnahme, Bildgebung, Bestrahlungsdurchführung
sowie die Abschlussuntersuchung und Nachsorge aufeinander abgestimmt
sein. Mögliche Änderungen in den synchronisierten Abläufen müssen
wohlüberlegt und gut geplant werden.
Die COVID-19 Pandemie hat Strahlentherapieeinrichtungen weltweit zu Änderungen
im Betriebsablauf gezwungen, um Schutzmaßnahmen für Patienten und Personal
zu ergreifen. Aufgrund des plötzlichen Auftretens war eine sorgfältige
Planung der Veränderungen oft nicht möglich. In Hinblick auf potentielle zukünftige
Entwicklungen ist es notwendig, die ergriffenen Maßnahmen zu bewerten und
auf Optimierungsmöglichkeiten hin zu untersuchen, um Strahlentherapie auch in
Pandemiezeiten sicherstellen zu können. Neue Ideen und Vorgaben sollten vor der
Implementierung eingehend untersucht werden. Hierzu können realitätsnahe Simulationsmodelle
dienen.
Simulationsmodelle sind potente Werkzeuge, mit denen komplexe Abläufe dargestellt,
analysiert und mögliche Anpassungen bewertet werden können. Dies macht
ein aufwendiges und möglicherweise riskantes Ausprobieren in der Praxis obsolet
und die möglichen Folgen einer Prozessänderung können bereits im Vorhinein
abgeschätzt werden.
Im Rahmen dieser Arbeit wurde ein ereignisdiskretes Simulationsmodell einer
Strahlentherapieeinrichtung zur Untersuchung und Bewertung von Prozessen einer
privaten Strahlentherapiepraxis mit und ohne Corona-Maßnahmen entwickelt.
Hierzu galt es zuerst die Frage zu beantworten, welche Aspekte der Strahlentherapieprozesse
bereits wissenschaftlich mit Methoden der ereignisdiskreten Simulation
untersucht wurden. In einer umfassenden strukturierten Literaturrecherche
wurden nach festgelegten Kriterien transparent aktuelle wissenschaftliche Veröffentlichungen
identifiziert, kategorisiert und inhaltlich analysiert. Anhand der Ergebnisse
wurde die Forschungsfrage dieser Arbeit konkretisiert und Designanforderungen
für das Simulationsmodell entwickelt.
Ziel dieser Arbeit ist die Untersuchung der Auswirkungen ausgewählter Aspekte
der COVID-19 Pandemie auf den Betriebsablauf einer privaten Strahlentherapiepraxis.
Insbesondere sollen pandemiebedingte Personalausfälle sowie der Einfluss
von Patientenscreening auf Corona-Symptome am Praxiseingang und Schutzmaßnahmen
bei der Behandlung von an COVID-19 erkrankten Patienten auf die
Praxisabläufe quantifiziert werden.
The knowledge of structural properties in microscopic materials contributes to a deeper understanding of macroscopic properties. For the study of such materials, several imaging techniques reaching scales in the order of nanometers have been developed. One of the most powerful and sophisticated imaging methods is focused-ion-beam scanning electron
microscopy (FIB-SEM), which combines serial sectioning by an ion beam and imaging by
a scanning electron microscope.
FIB-SEM imaging reaches extraordinary scales below 5 nm with large representative
volumes. However, the complexity of the imaging process results in the addition of artificial distortion and artifacts generating poor-quality images. We introduce a method
for the quality evaluation of images by analyzing general characteristics of the images
as well as artifacts exclusively for FIB-SEM, namely curtaining and charging. For the
evaluation, we propose quality indexes, which are tested on several data sets of porous and non-porous materials with different characteristics and distortions. The quality indexes report objective evaluations in accordance with visual judgment.
Moreover, the acquisition of large volumes at high resolution can be time-consuming. An approach to speed up the imaging is by decreasing the resolution and by considering cuboidal voxel configurations. However, non-isotropic resolutions may lead to errors in the reconstructions. Even if the reconstruction is correct, effects are visible in the analysis.
We study the effects of different voxel settings on the prediction of material and flow properties of reconstructed structures. Results show good agreement between highly resolved cases and ground truths as is expected. Structural anisotropy is reported as
resolution decreases, especially in anisotropic grids. Nevertheless, gray image interpolation
remedies the induced anisotropy. These benefits are visible at flow properties as well.
For highly porous structures, the structural reconstruction is even more difficult as
a consequence of deeper parts of the material visible through the pores. We show as an application example, the reconstruction of two highly porous structures of optical layers, where a typical workflow from image acquisition, preprocessing, reconstruction until a
spatial analysis is performed. The study case shows the advantages of 3D imaging for
optical porous layers. The analysis reveals geometrical structural properties related to the manufacturing processes.
Due to the steadily increasing number of decentralized generation units, the upcoming smart meter rollout and the expected electrification of the transport sector (e-mobility), grid planning and grid operation at low-voltage (LV) level are facing major challenges. Therefore, many studies, research and demonstration projects on the above topics have been carried out in recent years, and the results and the methods developed have been published. However, the published methods usually cannot be replicated or validated, since the majority of the examination models or the scenarios used are incomprehensible to third parties. There is a lack of uniform grid models that map the German LV grids and can be used for comparative investigations, which are similar to the example of the North American distribution grid models of the IEEE. In contrast to the transmission grid, whose structure is known with high accuracy, suitable grid models for LV grids are difficult to map because of the high number of LV grids and distribution system operators. Furthermore, a detailed description of real LV grids is usually not available in scientific publications for data privacy
reasons. For investigations within a research project, the most characteristic synthetic LV grid models have been created, which are based on common settlement structures and usual grid planning principles in Germany. In this work, these LV grid models, and their development are explained in detail. For the first time, comprehensible LV grid models for the middle European area are available to the public, which can be used as a benchmark for further scientific research and method developments.
This document is an English version of the paper which was originally written in German1. In addition, this paper discusses a few more aspects especially on the planning process of distribution grids in Germany.
Regelkonzept für eine Niederspannungsnetzautomatisierung unter Verwendung des Merit-Order-Prinzips
(2022)
Durch die zunehmende Erzeugungsleistung auf Niederspannungsnetzebene (NS-Netzebene) durch Photovoltaikanlagen, sowie die Elektrifizierung des Wärme- und des Verkehrssektors sind Investitionen in die NS-Netze notwendig. Ein höherer Digitalisierungsgrad im NS-Netz birgt das Potential, die notwendigen Investitionen genauer zu identifizieren, und damit ggf. zu reduzieren oder zeitlich zu verschieben. Hierbei stellt die Markteinführung intelligenter Messsysteme, sog. Smart Meter, eine neue Möglichkeit dar, Messwerte aus dem NS-Netz zu erhalten und auf deren Grundlage die Stellgrößen verfügbarer Aktoren zu optimieren. Dazu stellt sich die Frage, wie Messdaten unterschiedlicher Messzyklen in einem Netzautomatisierungssystem genutzt werden können und wie sich das nicht-lineare ganzzahlige Optimierungsproblem der Stellgrößenoptimierung effizient lösen lässt. Diese Arbeit befasst sich mit der Lösung des Optimierungsproblems. Dazu kommt eine Stellgrößenoptimierung nach dem Merit-Order-Prinzip zur Anwendung.
Um die Emissionsziele des Übereinkommens von Paris zu erreichen, muss die Weiterentwicklung von Gasturbinen und deren Komponenten im Mittelpunkt der aktuellen Energieforschung stehen. Ein nach wie vor hohes Optimierungspotential bietet hierbei die sich der Brennkammer anschließende Hochdruckturbine und hierin die Verbesserung der Kühlmethoden, da diese einen signifikanten Beitrag zum Gesamtwirkungsgrad der Gasturbine beitragen. Diese Dissertation nimmt sich dem Teilgebiet der Filmkühlungstechnologie an und untersucht die Anwendbarkeit eines konstruktiv bedingt vorhandenen Leckagespalts zur aktiven Kühlung der Seitenwand in der ersten Turbinenleitschaufelreihe. Die experimentell durchgeführte Studie analysiert in Form einer Parametervariation verschiedene Leckagespaltkühlungskonfigurationen, um einerseits die Einflüsse der Parameter zu identifizieren und andererseits die Konfigurationen auch hinsichtlich der Filmkühlwirkung zu bewerten. Hier kommen neben der Pressure Sensitive Paint Messtechnik zur Bestimmung der Filmkühleffektivität auch Ölanstrichbilder der Seitenwand sowie Fünflochsondenmessungen am Schaufelaustritt zum Einsatz. Dadurch werden zusätzlich die Auswirkungen auf die Aerodynamik beurteilt. Alle Messkampagnen wurden dabei für zwei, sich im Auslegungsprinzip markant unterscheidende Leitschaufelprofildesigns durchgeführt, um in einem weiterführenden Schritt eine Übertragbarkeit der Erkenntnisse oder gar korrelative Zusammenhänge für die untersuchten Leckagespaltparameter aufzuzeigen. Die Ergebnisse dieser umfassenden, komparativen Parameteranalyse decken auf, dass zwar einige Spaltkonfigurationen in Ansätzen konsistente Ergebnistendenzen aufweisen, jedoch nicht ohne weiteres übertragbar sind oder eine Allgemeingültigkeit erkennen lassen. Im Endresultat wird dadurch deutlich, dass die robuste Auslegung solcher Kühlkonzepte zum einen spezifisch und zum anderen auch unter Berücksichtigung der verbundenen Komponenten erfolgen sollte.
Sequence learning describes the process of understanding the spatio-temporal
relations in a sequence in order to classify it, label its elements or generate
new sequences. Due to the prevalence of structured sequences in nature
and everyday life, it has many practical applications including any language
related processing task. One particular such task that has seen recent success
using sequence learning techniques is the optical recognition of characters
(OCR).
State-of-the-art sequence learning solutions for OCR achieve high performance
through supervised training, which requires large amounts of transcribed
training data. On the other hand, few solutions have been proposed on how
to apply sequence learning in the absence of such data, which is especially
common for hard to transcribe historical documents. Rather than solving
the unsupervised training problem, research has focused on creating efficient
methods for collecting training data through smart annotation tools or generating
synthetic training data. These solutions come with various limitations
and do not solve all of the related problems.
In this work, first the use of erroneous transcriptions for supervised sequence
learning is introduced and it is described how this concept can be applied in
unsupervised training scenarios by collecting or generating such transcriptions.
The proposed OCR pipeline reduces the need of domain specific expertise
to apply OCR, with the goal of making it more accessible. Furthermore, an
approach for evaluating sequence learning OCR models in the absence of
reference transcriptions is presented and its different properties compared
to the standard method are discussed. In a second approach, unsupervised
OCR is treated as an alignment problem between the latent features of the
different language modalities. The outlined solution is to extract language
properties from both the text and image domain through adversarial training
and learn to align them by adding a cycle consistency constraint. The proposed
approach has some strict limitations on the input data, but the results
encourage future research into more widespread applications.
Forschung und Entwicklung (FuE)stellt einen elementaren Baustein für das langfristige Wachstum und die Zukunftsfähigkeit einer Volkswirtschaft dar. Diese Arbeit untersucht, inwiefern der Staat aus steuerrechtlicher Sicht eine FuE-Förderung für Konzerne unternimmt und wo Möglichkeiten zur Verbesserung liegen könnten, um das FuE-Klima in Deutschland nachhaltig zu verbessern. Fokus wird dazu insbesondere auf das Konstrukt der ertragsteuerlichen Organschaft und das neu geschaffene Forschungszulagengesetz (FZulG)gelegt.
Reinforcing sand soils using tyre rubber chips is a novel technology that is under investigation to optimize its engineering application. Previous studies concentrated on static behaviour and very few on cyclic and dynamic behaviour of sand rubber mixtures leaving gaps that need to be addressed.
This research focuses on evaluating the static, cyclic and dynamic behaviours of sand rubber mixtures. The basic properties of sands S2, S3, S4, rubber chips and sand rubber chips mixtures at 10/20/30% rubber chips content by dry mass were first evaluated in order to obtain the parameters essential for subsequent testing. Oedometer, direct shear with larger box 300x300 mm and static triaxial compression tests were performed to assess the static behaviour of the composite material. Further, dynamic cyclic triaxial tests were performed to evaluate the cyclic behaviour of saturated, dry and wet mixtures. All specimens were first isotropically consolidated at 100 kPa. For saturated material a static deviatoric stress of 45 kPa was imposed prior to cycling to simulate the field anisotropic consolidation condition. Cycling was applied stress-controlled with amplitude of 50kPa. Both undrained and drained tests were performed. Cyclic tests in dry or wet conditions were also performed under anisotropic consolidation condition with the application of different stress amplitudes. For all cyclic tests the loading frequency was 1 Hz. With regard to dynamic behaviour of the mixtures, the resonant column tests were conducted. Calibration was first performed yielding a frequency dependent drive head inertia. Wet mixture specimens were prepared at relative density of 50% and tested at various confining stresses. Note that all specimens tested in both triaxial and resonant column were 100 mm diameter. The results from the entire investigation are promising.
In summary, rubber chips in the range of 4 to 14 mm mixed with sands were found to increase the shear resistance of the mixtures. They yield an increase of the cyclic resistance under saturated condition, to a decrease of stiffness and to an increase of damping ratio. Increased confining stress increased the shear modulus reduction and decreased damping ratio of the mixtures. Increased rubber content increased both shear modulus reduction and damping ratio. Several new design equations were proposed that can be used to compute the compression deformation, pore pressure ratio, maximum shear modulus and minimum damping ratio, as well as the modulus reduction with shear strain. Finally, chips content around 20% to 30% by dry mass can be used to reinforce sandy soils. The use of this novel composite material in civil engineering application could consume a large volume of scrap tyres and at the same time contribute to cleaning environment and saving natural resources.
Understanding the mechanisms and controlling
the possibilities of surface nanostructuring is of crucial interest
for both fundamental science and application perspectives.
Here, we report a direct experimental observation
of laser-induced periodic surface structures (LIPSS) formed
near a predesigned gold step edge following single-pulse
femtosecond laser irradiation. Simulation results based on a
hybrid atomistic-continuum model fully support the experimental
observations. We experimentally detect nanosized
surface features with a periodicity of ∼300 nm and heights of
a few tens of nanometers.We identify two key components of
single-pulse LIPSS formation: excitation of surface plasmon
polaritons and material reorganization. Our results lay a
solid foundation toward simple and efficient usage of light
for innovative material processing technologies.
Automation of the Hazard and Operability Method Using Ontology-based Scenario Causation Models
(2022)
The hazard and operability (HAZOP) method is widely used in chemical and process industries to identify and evaluate hazards. Due to its human-centered nature, it is time-consuming, and the results depend on the team composition. In addition, the factors time pressure, type of implementation, experience of the participants, and participant involvement affect the results. This research aims to digitize the HAZOP method. The investigation shows that knowledge-based systems with ontologies for knowledge representation are suitable to achieve the objective. Complex interdisciplinary knowledge regarding facility, process, substance, and site information must be represented to perform the task. A result of this work is a plant part taxonomy and a developed object-oriented equipment entity library. During ontology development, typical HAZOP scenarios, as well as their structure, components, and underlying causal model, were investigated. Based on these observations, semantic relationships between the scenario components were identified. The likelihood of causes and severity of consequences were determined as part of an automatic risk assessment using a risk matrix to determine safeguards reliably. An inference algorithm based on semantic reasoners and case-based reasoning was developed to exploit the ontology and evaluate the input data object containing the plant representation. With consideration given to topology, aspects like the propagation of sub-scenarios through plant parts were considered. The results of the developed knowledge-based system were automatically generated HAZOP worksheets. Evaluation of the achieved results was based on representative case studies in which the relevance, comprehensibility, and completeness of the automatically identified scenarios were considered. The achieved results were compared with conventionally prepared HAZOP tables for benchmark purposes. By paying particular attention to the causal relationships between scenario components, the risk assessment, and with consideration of safeguards, the quality of the automatically generated results was comparable to conventional HAZOP worksheets. This research shows that formal ontologies are suitable for representing complex interdisciplinary knowledge in the field of process and plant safety. The results contribute to the use of knowledge-based systems for digitizing the HAZOP method. When used correctly, knowledge-based systems can help decrease the preparation time and repetitious nature of HAZOP studies and standardize results.
Einkünfte, die mit Bitcoins erzielt werden, werden unter die steuerlich relevanten Einkunftsarten subsumiert. Dabei wird zunächst auf die technischen Besonderheiten von Bitcoins und der damit einhergehenden Einkünfteerzielung eingegangen. Außerdem werden Bitcoins geschichtlich und rechtlich eingeordnet.
Anschließend wird die Frage geklärt, ob Bitcoins überhaupt ein steuerlich relevantes Wirtschaftsgut darstellen können, unter welchen Umständen sie in Deutschland Ertragsteuerpflichten auslösen und wie sie im Betriebs- und Privatvermögen steuerlich zu behandeln sind. In einem letzten Schritt wird geprüft, ob eine Besteuerung von mit Bitcoins erzielten Einkünften in Deutschland verfassungsgemäß ist.
We present an identification benchmark data set for a full robot movement with an KUKA KR300 R2500 ultra SE industrial robot. It is a robot with a nominal payload capacity of 300 kg, a weight of 1120 kg and a reach of 2500mm. It exhibits 12 states accounting for position and velocity for each of the 6 joints. The robot encounters backlash in all joints, pose-dependent inertia, pose-dependent gravitational loads, pose-dependent hydraulic forces, pose- and velocity dependent centripetal and Coriolis forces as well as a nonlinear friction, which is temperature dependent and therefore potentially time varying. We supply the prepared dataset for black-box identification of the forward or the inverse robot dynamics. Additional to the data for black-box modelling, we supply high-frequency raw data and videos of each experiment. A baseline and figures of merit are defined to make results compareable across different identification methods.
Die Verwendung der Fest-Flüssig Extraktion zur Gewinnung von Wirkstoffen aus
Pflanzenmaterial ist so alt wie die Menschheit. Es sind daher angereicherte Extrakte oder
aufgereinigte Wirkstoffe in der Lebensmitteltechnologie, Biotechnologie und Pharmakologie
alltäglich vorzufinden. Die Diffusion sowie der Stofftransport der Wirkstoffe werden durch die
biologischen, chemischen, physikalischen Charakteristika des Pflanzenmaterials und durch die
Betriebsführung des Extraktionsvorgangs beeinflusst. Diese Dissertation analysiert das
Diffusionsverhalten diverser Wirkstoffe aus unterschiedlichen Pflanzenmaterialien mit einer
Unterstützung des Extraktionsvorgangs durch Mikrowellen, Ultraschallwellen oder Hochspannungsimpulse. Der Stofftransport wird bei festgesetzter Temperatur mit verfahrenstechnischen Modellen einstufig und mehrstufig beschrieben.
Im Gegensatz zu vorangegangenen Studien werden mannigfaltige Pflanzenstrukturen in
Kombination mit alternativen Prozesskonzepte beruhend auf den verschiedenen
Wirkmechanismen ausgewählt. Diese Modellierungen sind durch die vielfältigen Pflanzenmaterialien wie Blätter, Blüten, Nadeln, Samen, Rinde, Wurzeln und Kräuter unter der Einwirkung
der Mikrowellen, Ultraschallwellen sowie Hochspannungsimpulse, die zur Erhöhung der Ausbeute
an den Wirkstoffen im Extrakt beitragen, inspiriert. Zuerst wurden die Eigenschaften wie die
Schüttgutdichte, der Anteil an flüchtigen Bestandteilen, Partikelgrößenverteilung, der Lösungsmittel- und Phasenverhältniseinfluss der ausgewählten Pflanzenmaterialien untersucht. Wie
erwartet zeigt jede Pflanze und deren Wirkstoffe verschiedene Merkmale, die sich auf den
Extraktionsvorgang mit alternativen Prozesskonzepte auswirken.
Entgegen den Vermutungen, erreicht die Mikrowellen-unterstützende Extraktion mittels
dielektrischer Erwärmung nach Optimierung der Leistung die höchste Ausbeute für alle ausgewählten Pflanzenmaterialien, wenn diese getrocknet vorliegen. Mit der Ultraschall-unterstützenden Extraktionstechnologie wird bei festgesetzter Extraktionstemperatur eine
größere Quantität der Wirkstoffe im Extrakt im Vergleich zu einem gerührten Batch gemessen.
Die Hochspannungsimpuls-unterstützende Extraktionstechnologie mit einem einfachen
Pulsprotokoll und einer moderaten elektrischen Feldstärke zeigt bei frisch geernteten bzw. nicht
getrockneten Pflanzenmaterialien und wässrigen Extraktionsmilieu mit maximal 20 Vol% Ethanol
eine hohe Ausbeute an Wirkstoffen und eine milde Erwärmung des Extraktionsmittels.
Die Berechnungen der Geschwindigkeitskonstanten, der daraus resultierenden
Aktivierungsenergien und der effektiven Diffusionskoeffizienten, die auf der analytischen Lösung
des 2. Fick‘schen Gesetz basieren, korrelieren mit den festgestellten Makro- und Mikroeigenschaften der Pflanzenmaterialien. Schließlich werden mit einem automatisierten Hochdurchsatzsystem durchgeführte, dreistufige Kreuzstromextraktionen auf Grundlage der
Massenbilanzen modelliert und die tatsächlich eingesetzten mit den berechneten
Extraktionsmittelmengen bei unterschiedlichen Pflanzenmaterialien verglichen. Die Wirkstoffe in
holzartigen Strukturen und in Kräuter zeigen aufgrund ihres Quellverhalten eine abgeschwächte
Diffusion im Vergleich zum Herauslösen der Wirkstoffe aus blättrigem Rohstoff oder
Gewürzsamen.