Refine
Year of publication
- 2017 (87) (remove)
Document Type
- Doctoral Thesis (42)
- Periodical Part (13)
- Working Paper (12)
- Master's Thesis (9)
- Article (4)
- Bachelor Thesis (2)
- Part of a Book (2)
- Habilitation (2)
- Conference Proceeding (1)
Language
- German (87) (remove)
Has Fulltext
- yes (87)
Keywords
- Angebotsentwicklung (5)
- Bedarfserschließung (5)
- Hochschulforschung (5)
- Wissenschaftliche Weiterbildung (4)
- Erwachsenenbildung (3)
- Schule (3)
- E-HRM (2)
- MINT (2)
- Mathematische Modellierung (2)
- Pflegewissenschaft (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Sozialwissenschaften (22)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (12)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (10)
- Distance and Independent Studies Center (DISC) (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Universität (6)
- Kaiserslautern - Fachbereich Mathematik (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Kaiserslautern - Fachbereich ARUBI (1)
Eine nachfrageorientierte und bedarfsgerechte Stadtplanung muss im Sinne
der Ordnung und Leitung der baulichen und sonstigen Nutzung des Bodens
unterschiedliche Flächenansprüche von Zielgruppen berücksichtigen, um
eine wechselseitige und verträgliche Zuordnung von Nutzungen zu erreichen.
Eine bedarfsgerechte Ausweisung von Wohnbauland erfordert es im
Sinne einer nachhaltigen Planung zu wissen, wo und wie die Menschen
wohnen wollen, wie ihre Präferenzen hinsichtlich Investitionsentscheidungen
(Miete oder Kauf) sowie deren quantitativen und qualitativen Anforderungen
an Wohnstandorte (Wohnung und Wohnumfeld) zu beurteilen sind.
Aus planungswissenschaftlicher Sicht sind im Rahmen der Wohnbaulandentwicklung
quantitative, qualitative und prozessuale Defizite von planungspraktischer
Relevanz identifizierbar, die sich – ausgehend von den Phasen
der Bedarfsermittlung über die Standortfindung und Bauleitplanung bis hin
zur baulichen Realisierung (Erschließung und Hochbau) – prozessübergreifend
erstrecken. So werden insbesondere qualitative Aspekte in diesen Prozessschritten
nicht gänzlich und zusammenhängend berücksichtigt, obwohl
qualitative Indikatoren bei der Wohnstandortentscheidung – im Sinne einer
sozialverträglichen, bestands- als auch nachfrageorientierten Stadtplanung
– eine immer stärkere Bedeutung erfahren.
Die Erkenntnisse aus der mikrogeographischen Milieu-Forschung – betrachtet
wird in der vorliegenden Arbeit primär das Sinus-Milieu-Modell® –
liefern Indizien für die zu erwartende quantitative und qualitative raumbezogene
Nachfrage einer heterogenen Stadtgesellschaft. Daher wird ein wissenschaftlicher
und planungspraktischer Mehrwert untersucht, der die Erkenntnisse
der Sinus-Milieu®-Forschung verwendet und im Sinne eines strategischen
Gesamtansatzes für Planungsprozesse nutzbar macht.
Anhand des Modellansatzes wird aufgezeigt, wie ganzheitlich
Planungs-, Realisierungs-, Vermarktungs- und Betriebsprozesse in Wohnquartieren
zielgruppenspezifisch und nachfrageorientiert gestaltet werden
können. Hierbei wird eine quantitative und qualitative Untersuchung durchgeführt,
die theoretische und anwendungsorientierte Erkenntnisse der Sinus-
Milieu®-Forschung im Kontext der Wohnbaulandentwicklung aus wissenschaftlichen
Erkenntnissen und Praxisprojekten adaptiert und in einem Optimierungsleitfaden
zur zielgruppenspezifischen Wohnbaulandausweisung
vereint. Darüber hinaus werden wohnstandort-, baugrundstücks-, wohngebäude-,
wohnungs- und planungsprozessual-bezogene Wohnqualitätskriterien
definiert, die als Orientierungsrahmen für zielgruppenspezifische
Wohnbaulandstrategien zu Grunde gelegt werden können.
Diese Erkenntnisse sind aus planungswissenschaftlicher Sicht mit einem planungspraktischen
Nutzen im Kontext der Wohnbaulandentwicklung anzusehen.
Das Vorgehen basiert auf der breiten Datenbasis der microm
GmbH, milieuspezifische und räumlicher Parameter werden für den Untersuchungsraum
in einem Sozialraumdiagramm eingeordnet. Das Instrument
der Sozialraumanalyse liegt dem Modellansatz zu Grunde und wird anhand
der Demonstrator-Kommune Stadt Kaiserslautern erforscht.
Die Akustik liefert einen interessanten Hintergrund, interdisziplinären und fächerverbindenen Unterricht zwischen Mathematik, Physik und Musik durchzuführen. SchülerInnen können hierbei beispielsweise experimentell tätig sein, indem sie Audioaufnahmen selbst erzeugen und sich mit Computersoftware Frequenzspektren erzeugen lassen. Genauso können die Schüler auch Frequenzspektren vorgeben und daraus Klänge erzeugen. Dies kann beispielsweise dazu dienen, den Begriff der Obertöne im Musikunterricht physikalisch oder mathematisch greifbar zu machen oder in der Harmonielehre Frequenzverhältnisse von Intervallen und Dreiklängen näher zu untersuchen.
Der Computer ist hier ein sehr nützliches Hilfsmittel, da der mathematische Hintergrund dieser Aufgabe -- das Wechseln zwischen Audioaufnahme und ihrem Frequenzbild -- sich in der Fourier-Analysis findet, die für SchülerInnen äußerst anspruchsvoll ist. Indem man jedoch die Fouriertransformation als numerisches Hilfsmittel einführt, das nicht im Detail verstanden werden muss, lässt sich an anderer Stelle interessante Mathematik betreiben und die Zusammenhänge zwischen Akustik und Musik können spielerisch erfahren werden.
Im folgenden Beitrag wird eine Herangehensweise geschildert, wie wir sie bereits bei der Felix-Klein-Modellierungswoche umgesetzt haben: Die SchülerInnen haben den Auftrag erhalten, einen Synthesizer zu entwickeln, mit dem verschiedene Musikinstrumente nachgeahmt werden können. Als Hilfsmittel haben sie eine kurze Einführung in die Eigenschaften der Fouriertransformation erhalten, sowie Audioaufnahmen verschiedener Instrumente.
Die evangelischen Landeskirchen mit ihrem tradierten institutionellen Selbstverständnis verlieren im Zuge der Mitgliedschaftserosion immer mehr den Anschluss an eine sich rasant wandelnde Gesellschaft. Die fortschreitende Pluralisierung, Individualisierung und Mobilität der Gesellschaft sowie die Zunahme von sozialen Organisationsformen alternativ zur klassischen Kleinfamilie stellen die regional agierende und massenkommunizierende evangelische Volkskirche heute vor Herausforderungen, die sie mit ihren bisherigen institutionellen Strukturen offensichtlich nicht mehr in jeder Hinsicht bewältigen kann. Als Körperschaft des öffentlichen Rechts sieht sich die evangelische Kirche selbst auf Augenhöhe zu den staatlichen Gewalten. Auf diese Weise steht sie im Spannungsfeld zwischen dem selbst auferlegten öffentlichen, mitgliederdistanzierten Auftrag einerseits und der Erwartung zur religiösen Bedürfnisbefriedigung andererseits.
Ausgehend von dem letzten Reformimpuls, den die EKD unter dem Titel Kirche der Freiheit im Jahr 2006 an ihre Gliedkirchen aussandte, wird ein differenzierterer Ansatz vorgeschlagen, bei dem die evangelische Kirche eine ihrer wichtigsten Dimensionen, nämlich die der mitgliederbasierten Freiwilligkeitsorganisation in den Fokus rückt. Ein vornehmlich organisationales Selbstverständnis würde der evangelischen Kirche mit der Anwendung von Nonprofit-Governance-Methoden, beispielsweise mit der organisationsweiten Einführung effektiverer Leitungs- und Steuerungsmechanismen, neue und flexiblere Handlungsspielräume eröffnen. Zudem erlaubte ein auf das kirchliche Wesen zugeschnittenes Nonprofit-Marketing das Organisationsziel in Relation zum Marktgeschehen und damit zu den Bedürfnissen der Individuen zu formulieren und zu verfolgen.
In der konsequenten Weiterentwicklung der im Impulspapier der EKD genannten Funktionsgemeinden wird eine funktionale Organisationsmatrix vorgeschlagen, die sich an den vier christlichen Grundvollzügen Koinonia, Diakonia, Leiturgia und Martyria orientiert. Dies impliziert die Substitution des traditionellen Parochialsystems durch eine rein funktionale Organisationsstruktur in Form von strategischen Kerngeschäftsfeldern, unter denen die diversen kirchlichen Dienste programmatisch zusammengefasst werden.
Für die bessere Wiedererkennbarkeit im Außenverhältnis und notwendige Komplexitätsreduzierung im Binnenverhältnis wird die Konzeptionierung einer einheitlichen evangelischen Corporate Identity angeraten, die organisationsweite einheitliche Vorgaben für das Verhalten, die Außendarstellung und Kommunikation im Rahmen einer einheitlichen evangelischen Dachmarke vorsieht. Ziel ist es hier, mit einer stimmigen Corporate Identity eine kirchliche Persönlichkeit zu erschaffen, die ihre religiöse Identitätsbotschaft mit ihrer eigenen Wahrhaftigkeit vermittelt.
Eines der tragenden Elemente der Europäischen Union ist zweifelsohne die Erwartung, dass sich durch einen ausgeprägten und gut funktionierenden europäischen Binnenmarkt ökonomische Vorteile für alle Beteiligten ergeben. Ein grundsätzliches Paradigma ist in diesem Zusammenhang die Annahme, dass einheitliches Recht bei der Erreichung von vorhergenanntem Ziel helfen kann.
Die sogenannte „UGP-Richtlinie“Richtlinie zielt auf eine umfassendere Rechtsvereinheitlichung der Regulierung von unlauteren Geschäftspraktiken ab. Neben dem Ziel, den europäischen Binnenmarkt zu stimulieren, formuliert die Richtlinie als weiteres Ziel ein hohes Verbraucherschutzniveau. Dabei bezieht sich die Regulierungsvorgabe der Richtlinie ausschließlich auf Rechtsfälle für das Verhältnis Unternehmen-Verbraucher.
Der Mitgliedsstaat ist zur Umsetzung der Richtlinien der Europäischen Kommission verpflichtet. Um insbesondere einen hohen Grad an Rechtsvereinheitlichung erreichen zu können, wurde die UGP-Richtlinie seitens der Kommission als vollharmonisierend ausgeführt. Dies bedeutet, dass der mitgliedsstaatliche Gesetzgeber die Richtlinieninhalte in sein nationales Rechtssystem dergestalt umsetzen muss, dass sich weder eine schwächere noch eine strengere Regulierung ergibt, als in der Richtlinie vorgesehen. Während die Kodifizierung von Richtlinien ins nationale Recht schon allgemein meist nicht trivial ist, verschärft sich die Herausforderung bei der besonderen Form der vollharmonisierenden Richtlinien. Insbesondere wird dem Gesetzgeber die Möglichkeit versagt, durch ein Abweichen „nach oben“ eine verbesserte Einpassung in sein Rechtssystem vornehmen zu können. Es verbleibt dem Gesetzgeber daher sehr wenig oder sogar gar kein maßgeblicher Spielraum.
Im Rahmen dieser Arbeit werden die konkreten zentralen Schwierigkeiten und Fragestellungen, welche sich im Rahmen der UGP-Richtlinie und ihrer Umsetzung ergaben, betrachtet und bewertet. Dazu zählen unter anderem die Tatsache, dass eine Einfügung des auf den Verbraucherschutz ausgerichteten Regulierungskonzeptes der UGP-Richtlinie in das „Integrierte Modell“4 des deutschen Lauterkeitsrechts stattfinden musste. Ferner fußt die UGP-Richtlinie auf einer Generalklausel, deren Konkretisierung im Lichte der Richtlinien-konformität weitere Fragen aufwirft. Nicht zuletzt muss auch die Frage gestellt werden, wie es um das resultierende Verbraucherschutzniveau bestellt ist. Während in Ländern wie Deutschland bereits ein vergleichsweise hohes Verbraucherschutzniveau im Lauterkeitsrecht erreicht worden war, führt die „Deckelung“ durch die Vollharmonisierungspflicht hier möglicherweise zu einem Rückschritt; auch diese Fragestellung ist Bestandteil der Diskussion.
Vor der konkreten, am Referenzobjekt der UGP-Richtlinie geführten Diskussion, wird zunächst noch eine allgemeine Betrachtung der Harmonisierungsbestrebungen im Privatrecht vorgenommen. Dabei wird auch die „mildere“ Form der mindestharmonisierenden Richtlinien diskutiert. Einleitend wird noch eine hierauf gerichtete kurze Einführung in den europarechtlichen Kontext gegeben.
Das homotetramere, cytosolische Chaperon SecB spielt eine entscheidende Rolle in der Proteintranslokation von Escherichia coli beim Transport von Proteinen über die Cytoplasmamembran in den periplasmatischen Raum der Zelle. Es bindet währenddessen naszierende Polypeptide, hält diese in einem entfalteten, translokationskompeteten Zustand und transportiert sie zur Translokationsmaschinerie an die Cytoplasmamembran. In vitro wechselwirkt SecB mit einer Reihe von entfalteten Proteinen, beispielsweise dem Bovine Pancreatic Trypsin Inhibitor (BPTI) oder in vivo mit dem Vorläuferprotein des Maltosebindungsproteins (preMBP). Frühere Untersuchungen lieferten Hinweise auf eine Konformationsänderung des Chaperons hervorgerufen durch eine Substratbindung des Modellsubstrats BPTI. Der Fokus der vorliegenden Arbeit liegt auf Untersuchungen zur Komplexbildung zwischen dem natürlichen Substrat preMBP und SecB sowie auf weiteren Untersuchungen zur Konformationsänderung hervorgerufen durch die Substratbindung.
Um die Aufreinigung der Chaperone zeiteffizienter zu gestalten und die Reinheit weiter zu steigern, erfolgte eine Umklonierung der verschiedenen SecB-Gene in pET20b(+)-Expressionsvektoren. Im Zuge dieser Einklonierung wurden die SecB-Sequenzen mit einer Thrombinschnittstelle und einem His-Tag fusioniert. Weiterhin wurden zwei neue SecB-Mutanten (C109 und C113) generiert.
Die Untersuchung des preMBP-SecB-Komplexes mit Hilfe der HPLC zeigte, dass 2 M GdnHCl ausreichend ist, um das preMBP zu entfalten und entfaltetes preMBP schneller von der Säule eluiert als rückgefaltetes. Weiterhin konnte nachgewiesen werden, dass die Rückfaltung von preMBP durch Verringerung der GdnHCl-Konzentration von 3 M auf 0,1 M innerhalb weniger Sekunden abgeschlossen ist. Die Komplexbildung erfolgte nur, wenn das Chaperon vorlegt wurde und preMBP anschließend hinzugegeben wurde. Die anschließende Analyse zeigte eine Koelution beider Proteine.
Für die EPR-spektroskopischen Untersuchungen wurden die SecB-Mutanten mit den Spinlabeln MTS und IOPI gelabelt. Die cw-EPR-Messungen bei Raumtemperatur zeigten, dass die Beweglichkeit des Spinlabels am Wildtyp-Protein deutlich stärker eingeschränkt ist als an Aminosäureposition 90. Die cw-EPR-Messungen am Wildtyp-Chaperon bei 180 K gaben erste Hinweise darauf, dass sich benachbarte Spinlabel in einem Abstand von weniger als 20 Å befinden. Der Vergleich mit den berechneten Abstandsdaten aus dem Molecular Modeling zeigte, dass es sich bei den gemessenen Entfernungen um die kurzen Abstände zwischen den Cysteinen benachbarter Untereinheiten handeln muss. Weiterhin konnte nachgewiesen werden, dass sich das Spinlabel an Aminosäureposition 312 des preMBPs in einer Entfernung von maximal 20 Å befindet.
Die DEER-Messungen ergaben Abstände zwischen den Aminosäurepositionen 97 am SecB von 19,3 Å für die kurzen Entfernungen zwischen direkt benachbarten Untereinheiten und 51,2 Å für die langen Entfernungen. Durch die Substratbindung von BPTI an das Chaperon konnte eine doppelscherenartige Aufweitung zwischen den Dimeren im Bereich der Substratbindungstasche belegt werden. Auch die Abstandsdaten von Aminosäureposition 90 bestätigten die Aufweitung der Bindungstasche.
Kurzfassung
Der zunehmende internationale Wettbewerb bewirkt, dass Unternehmen und auch öffentliche Einrichtungen/Institutionen ihr technisches Know-how bzw. ihre Innovationsvorsprünge gegenüber Dritten absichern müssen. Dies führt zwangsläufig dazu, dass die charakteristischen Merkmale innovativer Technologien vermehrt zum Patent angemeldet werden. Eine systematisierte, digitale Erfassung und Auswertung eingegangener Ideen, Erfindungen/Technologien und deren Koordinierung trägt in erheblichem Maße zur Steigerung der Effizienz und Effektivität des Innovations- und Technologiemanagements im Unternehmen bei. Jedoch sind die Chancen und Risiken bezüglich der gewerblichen Anwendung, die technische Funktionalität sowie die Erteilungswahrscheinlichkeit eines Patents in diesem frühen Stadium der Entwicklung meist sehr schwer zu prognostizieren. In Anbetracht dessen stehen die jeweiligen Entscheidungsträger vor dem Problem, ein für die Bewertung geeignetes Verfahren und das dazugehörige Werkzeug zu wählen, welche die Anforderungen an eine prozessbegleitende und umfassende Bewertung von patentrelevanten Innovationsvorhaben erfüllt. Eine prozessbegleitende Bewertung ist zudem mit einer kontinuierlichen, zum Teil rapiden Änderung der bewertungsrelevanten Parameter im Laufe der Entwicklung verbunden. Eine dynamische Evaluierung des Erfolgs- und des Risikopotenzials von Innovationsvorhaben ist daher von entscheidender Bedeutung. Nur so ist eine projektweite Transparenz des Gesamtprojektstatus gegeben und eine präventive Projektkoordinierung uneingeschränkt möglich.
Ziel dieser Arbeit ist daher die Entwicklung eines einheitlichen, aussagekräftigen und nachvollziehbaren Bewertungsverfahrens zur prozessbegleitenden und umfassenden Bewertung von Patenten und patenrelevanten Innovationsvorhaben. Hierbei werden interdisziplinäre Schwerpunkte und deren Parameter in ein dynamisches, homogenes und transparentes Bewertungsmodell zusammengeführt. Darüber hinaus soll ein fachkundiger Bewerter die Möglichkeit erhalten, auf Basis des Bewertungsergebnisses phasenabhängig geeignete Handlungs-empfehlungen abzugeben, die für eine ganze Reihe wichtiger Entscheidungen und Vorgehensweisen im Innovations- und Technologiemanagement von zentraler Bedeutung sind. Als Bewertungsobjekte kommen Ideen, virtuelle Modelle, prototypisch umgesetzte Teilsysteme, Produkte oder Verfahren, Patentanmeldungen, Patente etc. in Betracht.
Bei bisherigen Verfahren zur Bewertung von Patenten und patentrelevanten Innovationsvorhaben liegt die Problematik in der schwierigen Erfassung und Quantifizierung der zukünftigen Potenziale und der damit einhergehenden Risiken von innovativen Technologien und der daraus resultierenden Prognose. Dabei zeigte sich, dass keines der vorhandenen Bewertungsverfahren im Stande ist, bereits in den frühen Phasen des Innovationsprozesses eine aussagefähige und umfassende gesamtwirtschaftliche Betrachtung von Innovationsvorhaben und Patenten zu ermöglichen und zugleich die Anforderungen der DIN 77100 und die Grundsätze des IDW-Standards zu erfüllen. Eine Bewertung von patentrelevanten Innovationsvorhaben gemäß der DIN 77100 und dem IDW-Standard erfordert die Berücksichtigung qualitativer und quantitativer rechtlicher, technischer, wirtschaftlicher und monetärer Einflussfaktoren im Bewertungsalgorithmus. Dies setzt einen klar strukturierten, transparenten und nachvollziehbaren Bewertungsprozess voraus. Ferner soll das zu entwickelnde Modell im Stande sein, den monetären Wert aus den verschiedenen Blickwinkeln der Verwertung, z. B. Herstellung und Vertrieb, Lizenzierung, Verkauf usw. darzustellen bzw. zu berechnen.
Der Bewertungsvorgang der hier entwickelten Bewertungsmethode besteht im Wesentlichen aus den drei Teilschritten ‚Potenzial- und Risikoanalyse‘, ‚Festlegung der Bedingungen für die monetäre Wertermittlung‘ und ‚Wirtschaftlichkeitsanalyse und monetäre Wertermittlung‘. Zentraler Bestandteil der Potenzial- und Risikoanalyse ist eine „dynamische“ Nutzwertanalyse, mit deren Hilfe die Erfolgswahrscheinlichkeiten des Projektes nach zuvor definierten qualitativen und quantitativen Bewertungskriterien errechnet und damit vergleichbar gemacht werden. Dadurch ist es möglich, beschreibende und oft auch pauschal und qualitativ gehaltene Informationen in quantitativ verwertbare Größen zu transformieren und das Projektpotenzial und –risiko in Zahlenwerten auszudrücken. Die Nutzwertanalyse ihrerseits besteht aus den drei Modulen ‚Patentrechtliche Analyse‘, ‚Technische Analyse‘ und ‚Wirtschaftliche Analyse‘, in denen die rechtlichen, technischen und wirtschaftlichen Bewertungskriterien und deren entsprechende Ausprägungen enthalten sind. Durch die Modifizierung der Nutzwertanalyse mit dynamischen Checklisten, die eine unmittelbare Anpassung der Parameter an die vorliegenden Projektbedingungen erlauben, ist es erstmals möglich, eine quantitative Aussage zu den erreichten Zielerfüllungsgraden und den damit verbundenen Projektrisiken zu jedem Zeitpunkt des Innovationsprozesses zu treffen. Die Potenzial- und Risikoanalyse wird durch ein modifiziertes dynamisches Investitionsrechenverfahren ergänzt, so dass eine gesamtwirtschaftliche Betrachtung des Bewertungsobjektes aus verschiedenen Blickwinkeln möglich ist.
Weitere bedeutungsvolle Bestandteile der Bewertungsmethode sind die Wirtschaftlichkeitsanalyse und die montäre Wertermittlung des Bewertungsgegenstandes. Zur Durchführung der Wirtschaftlichkeitsanalyse, die ein wichtiger Teil der monetären Wertermittlung ist, werden die bewertungsrelevanten Parameter, wie beispielsweise das Projektpotenzial, der Diskontierungszins, die prognostizierten Umsatz-/Absatzzahlen und Aufwendungen, der Lizenzsatz, der Ziel-verkaufspreis etc., ermittelt und/oder festgelegt. Um eine frühzeitige aussagefähige Beurteilung des Innovationsvorhabens zu gewährleisten, wurde die Investitionsrecheneinheit mit der Destatis-Datenbank des Statistischen Bundesamtes für Produktionsgüter im verarbeitenden Gewerbe verknüpft. Die aus der statistischen Datenbank ermittelten Umsatz- und Absatzzahlen werden anschließend in eine Produktzyklusrecheneinheit übertragen. Dem Produktlebenszyklus wird dabei ein Umsatzverlauf in Form der Gaußschen Normalverteilung (Glockenkurve) zugrunde gelegt. Für die Modellierung des Umsatzverlaufes im Rahmen einer Innovations- und Patentbewertung wurden die entsprechenden Parameter an den mathematischen Ansatz der Kurvenfunktion angepasst. Dadurch können bereits in den frühen Phasen des Innovationsprozesses Umsatz- und Absatzsimulationen zu verschiedenen Szenarien (Worst-Case- oder Best-Case-Szenario) durchgeführt werden. Des Weiteren ist die Investitionsrecheneinheit derart gestaltet, dass neben den statistischen Daten auch eigene Umsatzerwartungen erfasst und mit den statistischen Ergebnissen verglichen werden können. Werden die prognostizierten Umsätze den zu erwartenden Ausgaben gegenübergestellt und auf den Betrachtungszeitraum diskontiert, kann der monetäre Wert des Innovationsvorhabens/des Patentes ermittelt werden.
Die Bewertung von Innovationsvorhaben und Patenten erfolgt aus unterschiedlichen Bewertungs-anlässen mit dem grundlegenden Ziel, eine fundierte Entscheidungsgrundlage zu schaffen, um im Hinblick auf ein festgelegtes Ziel nachvollziehbare Entscheidungen zu ermöglichen. Bewertungs-anlässe können u. a. die Selektion patentfähiger und erfolgversprechender Ideen aus einem Ideenpool, die Überwachung des Projektstatus zur Festlegung strategischer Maßnahmen, die Technologie- und Patentwertbestimmung für Bilanzierungszwecke, die Kreditsicherung und die Festlegung von Lizenzkonditionen sein. Insbesondere Letzteres (Lizenzierung an Dritte) ist für Universitäten und außeruniversitäre Forschungseinrichtungen sowie Privatpersonen, mit Ausnahme von Ausgründungen, in vielen Fällen der einzige Weg, eine innovative Technologie erfolgreich zu verwerten. Die Berechnung des Erfindungswertes erfolgt hierbei auf Basis der Lizenzpreis-analogiemethode. Als Grundlage für die Berechnung der Lizenzzahlungen wird meist ein „marktüblicher“ Lizenzsatz herangezogen, der sich aufgrund verschiedener Faktoren jedoch oftmals nur schwer ermitteln lässt. Ein Schwerpunkt der vorliegenden Arbeit war es, diesen Sachverhalt zu analysieren und hierfür eine Lösung bereitzustellen. Unter Berücksichtigung der Knoppe-Regel und des wirtschaftlichen Potenzials des Innovationsvorhabens konnte ein nachvollziehbarer Bewertungsalgorithmus zur Ermittlung eines „fairen“ Lizenzsatzes erarbeitet werden. Der mittels einer fairen Gewinnaufteilung kalkulierte Lizenzsatz ist daher einem Ansatz von angeblich „marktüblichen“ Lizenzsätzen, die aus Vergleichen mit möglichst ähnlichen Lizenzabschlüssen hergeleitet werden, vorzuziehen.
Das erarbeitete Bewertungskonzept wurde bereits zur Bewertung von realen Innovationsvorhaben eingesetzt und dabei einer kritischen Überprüfung unterzogen. Dies geschah einerseits mit bereits auf dem Markt befindlichen Innovationen und andererseits mit innovativen Technologien, die sich noch in der Entwurfs- und Entwicklungsphase befanden. Der wesentliche Teil der zur Berechnung notwendigen Informationen und Angaben können aus den detaillierten Beschreibungen der Innovationsvorhaben und aus öffentlichen Datenbanken entnommen werden. Informationen, die darüber hinaus noch benötigt werden, haben die jeweiligen Mitarbeiter der beteiligten Firmen beigesteuert. Die Berechnung des idealtypischen Produktlebenszyklus beruht auf veröffentlichten statistischen Daten. Aufgrund des hohen Detaillierungs- und Strukturierungsgrades, der guten Verfügbarkeit der benötigten Informationen, der hohen Relevanz und der guten Einschätzbarkeit des deutschen Marktes, wurden zur Ermittlung der Umsatzzahlen Daten vom Statistischen Bundesamt für Produktionsgüter im verarbeitenden Gewerbe herangezogen.
Zusammenfassend kann festgehalten werden, dass die im Rahmen dieser Arbeit entwickelte Bewertungsmethode im Stande ist, sämtliche bewertungsrelevanten Kenngrößen, die sowohl qualitativer als auch quantitativer Natur sind, zu erfassen und im Rahmen einer gesamtwirtschaftlichen Betrachtung zu evaluieren. Dadurch können transparente und belastbare Aussagen zum Chancen-/Risikopotenzial, zum Marktvolumen, zu Umsatz-/Absatzzahlen, zum Gewinn, zum monetären Zeitwert des Innovationsvorhabens bzw. des Patentes sowie zu angemessenen Lizenzsätzen gemacht werden.
Urbane Ernährungsstrategien decken eine Bandbreite an Wirkungsfeldern im Gefüge einer Stadt und dem dazugehörigen Nahrungssystem ab. Sie sind unter anderem in der Lage, für sicheren Zugang zu gesunden Lebensmitteln zu sorgen, lokale Wirtschaftskreisläufe zu fördern, relevante Stakeholder zusammen zu führen oder auch negative Umwelteinflüsse einzudämmen. Mithilfe digitaler Lösungen lassen sich effiziente und nachhaltige Ansätze für die raumplanerischen Herausforderungen im Zusammenhang mit urbanen Ernährungsstrategien finden.
Urbane Ernährungsstrategien als auch digitale Methoden repräsentieren wissenschaftliche Forschungsschwerpunkte mit vielfältigen Potentialen, deren Symbiose eine Bandbreite an Multiplikatoreffekten herzustellen vermag. So können entsprechende Strategien wesentlich von digitalen Herangehensweisen wie Echtzeitvisualisierung, Crowdmapping, Online-Verkaufsplattformen, urbane Emotionsmessung etc. profitieren.
Anhand von verschiedenen digitalen Methoden werden in dieser Arbeit die Möglichkeiten für deren Einsatz im Rahmen von urbanen Ernährungsstrategien untersucht und darüber hinaus wird diskutiert, inwieweit ein Mehrwert für letztere entstehen kann.
Die wissenschaftliche Auseinandersetzung mit dieser Thematik ist von besonderer fachlicher Relevanz, da die beiden noch jungen Forschungsdisziplinen in Kombination bislang unzureichende Aufmerksamkeit erhalten haben. Untermauert wird diese Erkenntnis durch die mangelhafte Datenlage zu diesem thematischen Zweiklang.
Mithilfe entsprechender digitaler Lösungsansätze können Planer mit verhältnismäßig geringem Aufwand nachhaltigen Mehrwert bewirken und zielgerichtet qualitativ hochwertige Maßnahmen im Zusammenhang mit urbanen Ernährungsstrategien durchführen. Dies wird zudem durch einen auf die Bedürfnisse der urbanen Ernährungsstrategien und digitalen Methoden abgestimmten Workflow gewährleistet.
Die Arbeit behandelt neuartige und gängige Methoden der Baugrundertüchtigung. Die Notwendigkeit einer Baugrundertüchtigung ergibt sich, wenn der anstehende Baugrund nicht in der Lage ist, den beabsichtigten Einwirkungen einen ausreichenden Widerstand entgegenzusetzen. Hierbei kann es sich um Einwirkungen einer geplanten Baumaßnahme handeln, wobei diese Lasten statischer oder auch dynamischer Natur sein können. Auch wenn es sich um Hilfsmaßnahmen handelt, beispielsweise an Baustraßen, so müssen diese während der geplanten Bauzeit ihre Funktion sicher erfüllen. Als weiteres Beispiel sei die Verarbeitbarkeit eines Bodens genannt, wenn dieser als Baustoff bei der Errichtung eines Dammbauwerkes verwendet wird. Letztendlich unterliegen Erdbauwerke nicht nur mechanischen Belastungen, sondern können auch durch Erosionsvorgänge einer Beanspruchung ausgesetzt sein. Wird der Baustoff Boden diesen Anforderungen nicht in ausreichendem Maße gerecht, so muss er entweder gegen ein geeignetes Material ausgetauscht werden oder es werden beispielsweise aufwändige Ergänzungsmaßnahmen erforderlich.
Um diese Maßnahmen zu umgehen, bieten sich in geeigneten Situationen die Ertüchtigung der vorgefundenen Böden an. Hierbei handelt es sich nicht nur um eine ressourcenschonende Vorgehensweise, oftmals ist diese Vorgehensweise auch die wirtschaftlichere. Der anstehende Boden muss nicht verfrachtet, möglicherweise deponiert und ein neues Material beigefahren werden. Die in situ Bearbeitung erfordert lediglich die Beistellung entsprechender Bauhilfsstoffe zur Ertüchtigung.
Welche Art an Bauhilfsstoffen zum Einsatz kommt, richtet sich vorrangig nach den vorgefundenen Bodenverhältnissen. Als traditionelles und längst etabliertes Verfahren hat sich die Beimischung geeigneter Bindemittel hervorgetan. Zu nennen sind hier die beiden hydraulischen Bindemittel Kalk und Zement. Für die Anwendung dieser Stoffe existieren Regelwerke, die Prüfungs- und Kontrollmethoden vor und während des Einbaus solcher Boden-Bindemittel-Mischungen beschreiben.
Trotz des seit langer Zeit bewährten Einsatzes, ist auch bei den beiden genannten Bauhilfsstoffen zu berücksichtigen, dass es sich letztendlich um Rohstoffe handelt, obwohl auch hier insbesondere bei den Kompositzementen bereits ein erhebliches Recyclingpotential genutzt wird. Jedoch fällt ins Gewicht, dass bei der Herstellung der Produkte klimaschädliches Kohlendioxid freigesetzt wird. Unter diesen Gesichtspunkten stellt die Verwendung von Industrieabfällen, die in gleichbleibender Güte anfallen, eine interessante Alternative dar. Neben diesen sogenannten by-products können auch recyclingfähige Materialien verwendet werden, sofern deren Eignung nachgewiesen werden kann. Eine gewisse Hürde bei der Verwendung der letztgenannten Alternativen stellen umweltrechtliche Fragestellungen dar. Zum einen handelt es sich um Abfälle und damit um Produkte, die rechtlich einer gänzlich anderen Würdigung und Bewertung unterliegen. Zum anderen müssen entsprechende Wechselwirkungen zwischen den Stoffen und der umgebenden Biosphäre berücksichtigt und bewertet werden.
In der vorliegenden Habilitationsarbeit werden im ersten Kapitel zunächst als Ausgangspunkt die wesentlichen Merkmale und Eigenschaften beim Einsatz traditioneller Kalk- und Zementbeimischungen untersucht. Das Kapitel 2 schließt an mit Betrachtungen zu dem Baustoff Tonbeton. Hierbei handelt es sich um einen ebenfalls schon lange Zeit bekannten Baustoff, der zwar aufgrund seines eng begrenzten Anwendungsspektrums nur wenig verbreitet ist. Aufgrund seiner Ähnlichkeit zu aktuellen Baustoffen, den zeitweise fließfähigen, selbstverdichtenden Verfüllbaustoffen, gewinnt das Produkt jedoch an Bedeutung. Dies gilt umso mehr, als Prüf- und Kontrollmethoden aufgrund des ähnlichen rheologischen Verhaltens im frühen Zustand derzeit nur ansatzweise vorliegen.
Die Kapitel 3 bis 5 umfassen neuartige Methoden der Bodenertüchtigung. Zu allen Verfahren liegen bereits Erfahrungen aus mehr als zwei Jahrzehnten vor. Diese Erfahrung beruht jedoch vorrangig auf exemplarischen Laborstudien.
Zu nennen sind hier zunächst die Epoxidharze in Kapitel 3. Epoxide werden im Konstruktiven Ingenieurbau vermehrt eingesetzt. Auch in der Geotechnik finden sich neben Laboruntersuchungen bereits praktische Anwendungsfälle, die eine wirksame Ertüchtigung von Festgestein dokumentiert. Eigene Untersuchungen bestätigen die Wirksamkeit dieser Methode.
Mit den Untersuchungen zu Boden-Gummi-Mischungen in Kapitel 4 werden Recyclingprodukte in die Ertüchtigungsmethoden mit einbezogen. Recyclinggummi steht in den unterschiedlichsten Formen zur Verfügung. Je nach Aufwand werden entweder komplette Reifen verbaut, zu Paketen verschnürt oder als Schreddergut in unterschiedlichen Siebfraktionen bis hin zu Pulver verbaut. Dementsprechend vielfältig ist auch das Anwendungsspektrum. Während insbesondere in den USA und einigen europäischen Ländern dieser „Baustoff“ bereits eine gewisse Akzeptanz besitzt, führen in Deutschland rechtliche und umwelttechnische Belange dazu, dass dieses Produkt derzeit nicht vermehrt eingesetzt wird.
In dem letzten Kapitel 5 wird als Ertüchtigungsmethode die Verwendung von Enzymen vorgestellt. Die Untersuchungen belegen, dass dieses biologische Verfahren für bestimmte Anwendungen durchaus seine Berechtigung hat und auch konkurrenzfähig zu bestehenden Methoden auftreten kann.
Kurzkettige Olefine wie Ethen, Propen und Butene haben eine große Bedeutung als Basisbausteine der chemischen Industrie. Vor allem der Bedarf an Propen ist in den letzten Jahren deutlich gewachsen. Bislang wird Propen primär im Steamcracker (SC) und im "Fluid Catalytic Cracking" (FCC) gewonnen. Allerdings kann der zukünftige Bedarf durch diese beiden Prozesse alleine nicht gedeckt werden. Neue, sogenannte "on-Purpose"-Propen-Technologien müssen daher etabliert werden. Dabei werden unterschiedliche Möglichkeiten verfolgt, etwa der "Methanol-to-Olefins" (MTO) Prozess, die Propandehydrierung und die Metathese von Ethen und 2-Buten. Ein weiterer möglicher Ansatz ist die zusätzliche Steigerung der Ausbeute an leichten Olefinen im FCC-Prozess. Ein wichtiger Schritt auf diesem Wege war die kommerzielle Nutzung des mittelporigen Zeoliths ZSM-5 als Additiv zum Basiskatalysator ab 1983. Dieser ermöglicht eine deutlich gesteigerte Ausbeute an leichten Olefinen gegenüber dem bis dato genutzten unmodifizierten Crackkatalysator, welcher auf dem weitporigen Zeolith Y basiert.
Ziel dieser Arbeit war die Untersuchung anderer mittelporiger Zeolithe hinsichtlich ihrer Aktivität und Selektivität beim katalytischen Cracken von n-Octan, welches als Modellkohlenwasserstoff für Naphtha verwendet wurde. Dabei sollten drei wichtige Charakteristika der Zeolithe untersucht werden: Der Einfluss der Porenarchitektur, des n(Si)/n(Al)-Verhältnisses sowie der Morphologie und der Kristallitgröße. Zuletzt wurde die Auswirkung einer Imprägnierung mit Phosphor untersucht, einer gängigen Methode zur Stabilisierung von Zeolith ZSM-5 gegen eine Dealuminierung im FCC-Prozess.
Im ersten Teil dieser Arbeit wurden fünf unterschiedliche mittelporige Zeolithe hergestellt und mittels Ionenaustausch in ihre Brønsted-saure Form überführt. Charakterisiert wurden die Katalysatoren mittels Pulver-Röntgendiffraktometrie, Stickstoff-Physisorption, Atom-absorptionsspektroskopie, Rasterelektronenmikroskopie und Festkörper-MAS-NMR-Spektroskopie (1H, 27Al, 29Si, 31P). Gegenstand waren die drei eindimensionalen Porensysteme der Zeolithe ZSM-22 (TON), ZSM-23 (MTT) und EU-1 (EUO) sowie Zeolith ZSM-57 (MFS) mit einem zweidimensionalen Porensystem. Zeolith ZSM-5 (MFI), welcher ein dreidimensionales Porensystem aufweist, wurde als Referenzmaterial benutzt. Alle Zeolithe wurden zwecks guter Vergleichbarkeit mit ähnlichem n(Si)/n(Al)-Verhältnis von circa 20 bis 30 hergestellt, mit Ausnahme von Zeolith HZSM-23 der im n(Si)/n(Al)-Verhältnis 45 synthetisiert wurde. Es zeigte sich, dass die vergleichsweise engen eindimensionalen Porensysteme der Zeolithe HZSM-22 und HZSM-23 eine höheren Anteil an monomolekularen Cracken gegenüber bimolekularen Cracken aufweisen. Damit erbrachten sie eine gesteigerte Selektivität zu leichten Olefinen. Bei vergleichbaren Aktivitäten der beiden Katalysatoren mit denjenigen von Zeolith HZSM-5 wurde eine deutliche Steigerung der Ausbeute an Propen und Butenen beobachtet. Daneben ergaben beide Katalysatoren gegenüber Zeolith HZSM-5 deutlich geringere Ausbeuten an Aromaten. Diese entstehen zu großen Teilen durch Dehydrocyclisierung von Propen und Butenen. Daher kann eine niedrige Selektivität zu Aromaten die Selektivität zu Olefinen weiter erhöhen. Auch Zeolith HZSM-57 zeigte aufgrund seines zweidimensionalen 10 x 8-Porensystems eine Steigerung der Ausbeute an leichten Olefinen, wenngleich diese deutlich geringer ausfiel im Vergleich zu den Zeolithen HZSM-22 und HZSM-23. Im Falle des Zeoliths HEU-1 wurde im Gegensatz dazu eine Verringerung der Ausbeute an leichten Olefinen beobachtet. Die großen 12-Ring-Seitentaschen dieser Struktur bieten genug Raum für bimolekulare Reaktionen, unter anderem für die im bimolekularen Crackmechanismus nötigen Hydridtransfer-Reaktionen. Zudem wirken diese Seitentaschen als "trapping cages". Größere Produkte werden zwar gebildet, diese können den Zeolith durch die deutlich kleineren 10-Ring-Poren aber nicht mehr verlassen und verbleiben daher als Koksablagerung in den Seitentaschen. Letztendlich führte dies zu einer äußerst zügigen Desaktivierung des Katalysators bei den durchgeführten Laufzeitmessungen. Allgemein stellt die deutlich schneller fortschreitende Desaktivierung der eindimensionalen Porensysteme von Zeolith HZSM-22 und Zeolith HZSM-23 einen Nachteil dar gegenüber dem laufzeitstabileren Zeolith HZSM-5 mit seinem dreidimensionalen Porensystem. Dennoch konnte durch die engere Porenarchitektur der eindimensionalen Porensysteme letztendlich eine deutliche Steigerung der Ausbeute an leichten Olefinen bei einer vergleichbaren Aktivität beobachtet werden.
Im zweiten Teil dieser Arbeit wurde der Einfluss des n(Si)/n(Al)-Verhältnisses untersucht und damit verbunden auch die Anzahl an aktiven Zentren im Zeolith. Dabei wurden Zeolith HZSM-22, welcher sich in der Untersuchung unterschiedlicher Porenarchitekturen als bester Katalysator herausstellte sowie Zeolith HZSM-5 als Referenz in unterschiedlichen n(Si)/n(Al)-Verhältnissen von 25 bis 100 synthetisiert. Es zeigte sich, dass die Aktivität für Zeolith HZSM-5 mit steigendem n(Si)/n(Al)-Verhältnis zwar leicht abnimmt, der Zeolith aber selbst mit niedrigerem Aluminiumgehalt noch eine hohe Aktivität aufweist. Zusätzlich stieg die Selektivität zu leichten Olefinen mit steigendem n(Si)/n(Al)-Verhältnis kontinuierlich an, wohingegen die Selektivität zu Aromaten deutlich zurückging. Somit ergab sich ein Optimum im n(Si)/n(Al)-Verhältnis für eine maximale Ausbeute an Propen. Im vorliegenden Fall befand sich dieses bei ca. 76. Im Falle von Zeolith HZSM-22 wurde ein stärkerer Rückgang der Aktivität mit sinkendem Aluminiumgehalt beobachtet. Dies führte zu einem deutlichen Rückgang der Ausbeuten an Ethen und Propen. Im Gegensatz dazu blieb die Ausbeute an Butenen in einem gewissen n(Si)/n(Al)-Bereich trotz des sinkenden Umsatzes annähernd konstant. Aufgrund des deutlichen Rückgangs der Aktivität mit steigendem n(Si)/n(Al)-Verhältnis kann festgehalten werden, dass Zeolith HZSM-22 die höchste Ausbeute an leichten Olefinen mit den niedrigsten hier untersuchten n(Si)/n(Al)-Verhältnissen von 26 bzw. 35 erbrachte.
Im dritten Teil dieser Arbeit wurden verschiedene Methoden zur Variation der Kristallitgröße für Zeolith HZSM-22 untersucht sowie der Einfluss der sich daraus ergebenden unterschiedlichen Morphologie auf das katalytische Cracken. Durch Variation der Base (engl. "Mineralizer"), des eingesetzten Templates, der Kristallisationsbedingungen sowie durch die Verwendung von Triethanolamin als keimbildungshemmendem Additiv (engl. "nucleation suppressing agent") konnte Zeolith HZSM-22 in n(Si)/n(Al)-Verhältnissen von 30 und 100 mit unterschiedlichen Kristallitgrößen von <0,5 µm bis >10 µm synthetisiert werden. Die Charakterisierung ergab Hinweise darauf, dass die unterschiedlichen Modifikationen der Synthese Einfluss auf die relative Verteilung des Aluminiums auf die kristallographisch unterschiedlichen T-Positionen im Zeolith haben können. Eine möglicherweise ebenso vorliegende inhomogene Verteilung des Aluminiums im Zeolithkristallit (engl. "Zoning") konnte dabei ebenfalls nicht ausgeschlossen werden. Grundsätzlich zeigten die größeren Kristallite eine schnellere Desaktivierung des Katalysators gegenüber den kleineren Kristalliten. Hervorgerufen wird dies unter anderem durch die geringere spezifische äußere Oberfläche und damit verbunden der geringeren Anzahl an Poreneingängen pro Masse an Katalysator. Dadurch wirkte sich die Blockierung der Poreneingänge durch Ablagerungen an Koks deutlicher auf die Abnahme der Aktivität aus. Trotz teilweise unterschiedlicher Aktivität zeigten alle Katalysatoren eine vergleichbare Selektivität für die verschiedenen Produkte. Ein signifikanter Einfluss der Kristallitgröße auf die Produktverteilung konnte nicht beobachtet werden. Tendenziell schienen größere Kristallite aber eine höhere Selektivität für Aromaten aufzuweisen, was sich durch eine gestiegene Verweilzeit innerhalb des Zeoliths aufgrund der längeren Diffusionswege erklären lässt. Mögliche Folgereaktionen der gebildeten Olefine werden scheinbar durch die gestiegene Verweilzeit im Katalysator gefördert.
Im letzten Teil dieser Arbeit wurde der Einfluss einer Imprägnierung des Zeoliths mit Phosphor auf die Aktivität und Selektivität von HZSM-22 und HZSM-5 untersucht. Hierbei lag der Fokus auf der Auswirkung einer Imprägnierung mit Phosphor auf die Aktivität und Selektivität der Katalysatoren zu Beginn ihrer Verwendung, das heißt als frisch eingesetzter Katalysator. Für Zeolith HZSM-5 zeigte sich, dass bis zu einer gewissen Beladung mit Phosphor die Aktivität des Katalysators größtenteils erhalten blieb. Zeitgleich stieg die Selektivität zu leichten Olefinen deutlich an, während die Selektivität zu Aromaten abnahm. Erst bei höheren Beladungen verringerte sich die Aktivität zusehends und damit auch die Ausbeute an leichten Olefinen. Grund hierfür ist die teilweise Dealuminierung des Zeoliths durch die eingebrachten Phosphatgruppen. Diese wurde insbesondere mittels 27Al-MAS-NMR-Spektroskopie erfasst, welche die massive Abnahme tetraedrisch-koordinierten Aluminiums bei steigender Beladung mit Phosphor anzeigt. Es ist aus der Literatur bekannt, dass je nach gewähltem n(Si)/n(Al)-Verhältnis ein Optimum an Aktivität und Selektivität bei einer bestimmten Beladung mit Phosphor zu erwarten ist. Im vorliegenden Fall mit n(Si)/n(Al) = 30 lag dieses im Bereich von 2 Gew.-% Phosphor. Im Falle von Zeolith HZSM-22 zeigte die Charakterisierung, dass selbst bei einer relativ geringen Beladung mit 0,5 bzw. 1 Gew.-% Phosphor offenbar die Poreneingänge des Zeoliths durch die eingebrachten Phosphatgruppen bereits weitgehend blockiert bzw. stark verengt wurden. Dies ging insbesondere aus der durchgeführten Stickstoff-Physisorption (BET) hervor, welche deutlich gesunkene spezifische Oberflächen und spezifische Porenvolumina für die modifizierten Katalysatoren ergaben. Sowohl die Pulver-Röntgendiffraktogramme als auch die Analyse durch MAS-NMR-Spektroskopie zeigte, dass die modifizierten Katalysatoren Großteils in ihrer Struktur erhalten blieben. Jedoch verdeutlichten die 27Al-MAS-NMR-Spektren auch hier eine zunehmende Dealuminierung des Zeoliths mit steigender Phosphorbeladung. Die Blockierung bzw. Verengung der Poreneingänge sorgte aufgrund des eindimensionalen Porensystemes für einen deutlichen Rückgang der Aktivität durch die P-Modifikation und damit verbunden auch der Ausbeute an leichten Olefinen. Für beide untersuchten Zeolithe HZSM-5 und HZSM-22 zeigte der Vergleich der Ergebnisse mit den jeweiligen Ergebnissen aus der Untersuchung verschiedener n(Si)/n(Al)-Verhältnisse, dass bei vergleichbaren Umsätzen die P-modifizierten und die nicht-modifizierten Katalysatoren ähnliche Produktverteilungen aufwiesen. Die veränderte Selektivität durch die Imprägnierung mit Phosphor scheint folglich zu einem gewissen Teil auch auf der niedrigeren Aktivität und der sinkenden Anzahl an Aluminium-T-Positionen bzw. aktiver Zentren zu basieren. Jedoch scheint auch die veränderte Säurestärke und die Verringerung des im Zeolith zur Verfügung stehenden Raumes durch die sperrigen Phosphatgruppen einen zusätzlichen Effekt auf die Produktverteilung zu haben.
Transversales Imprägnierverhalten textiler Verstärkungsstrukturen für Faser-Kunststoff-Verbunde
(2017)
Bei Harzinjektionsverfahren wird eine trockene Faserstruktur mit einem reaktiven
Harzsystem imprägniert, um einen Faser-Kunststoff-Verbund herzustellen. Dabei
gewinnen Verfahren an Bedeutung bei denen die Imprägnierung hauptsächlich
transversal, also senkrecht zur Bauteil- und Textilebene, stattfindet. Sie bergen im
Vergleich zur Imprägnierung in der Ebene ein großes Potenzial zur Fließweg- und
damit Zykluszeitreduktion. Allerdings behindern strömungsinduzierte Textildeformationen
die volle Ausschöpfung dieses Potenzials. Im Rahmen der Arbeit wurde ein
neues Messsystem entwickelt, welches die gezielte Untersuchung des transversalen
Imprägnierverhaltens von Textilien ermöglicht. Erstmalig wurde eine Dickenpermeabilitätsmessung
mit einer simultanen Echtzeiterfassung der strömungsinduzierten
Textilkompaktierung kombiniert. So konnte das Textilverhalten prozessnah untersucht
werden. Mit dem neuen Messsystem wurden anhand exemplarischer Textilien
(Glasfasergewebe und –gelege) zahlreiche Einflüsse auf das transversale Imprägnierverhalten
identifiziert. Diese ergeben sich aus dem Prozess (z. B. Injektionsdruck),
der Textilarchitektur (z. B. Garntiter) und dem Preforming (z. B. Bindern).
Vor allem konnte gezeigt werden, dass eine Erhöhung des Injektionsdrucks, aufgrund
von Textildeformationen, nicht zwingend zu einer Imprägnierzeitreduktion
führt. Unkenntnis über das transversale Imprägnierverhalten von Textilien stellt daher
ein großes Risiko für die Prozesseffizienz und –robustheit dar, denn meist werden
nicht die zykluszeitoptimalen Parameter gewählt. Hingegen kann entsprechendes
Know-How zur gezielten Parameterfestlegung genutzt werden. Die Parameterstudie
zeigt weiterhin auf, wie das transversale Imprägnierverhalten durch Anpassung der
Textilarchitektur oder gezieltes Preforming hinsichtlich einer minimalen Imprägnierzeit
optimiert werden kann. Die Ergebnisse wurden in Richtlinien für die Definition
von Prozess- und Materialparametern sowie für die Nutzung von Preformingtechnologie
für transversale Imprägnierprozesse zusammengefasst. Abschließend wurden
die entwickelten Richtlinien validiert, indem exemplarisch ein für Strukturbauteile typischer
Lagenaufbau anhand der Richtlinien angepasst wurde, um ihn hinsichtlich
des transversalen Imprägnierverhaltens zu optimieren.
In den vergangenen Jahren hat sich der Bereich der Nanotechnologie zu einem fachübergreifenden Gebiet entwickelt. Nanopartikel besitzen aufgrund ihrer Größe und einem hohen Oberfläche zu Volumen Verhältnis besondere chemische und physikalische Eigenschaften, die sich von denen größerer Partikel unterscheiden. Das Forschungsinteresse der letzten Zeit liegt insbesondere auf deren magnetischem Charakter. Damit verbunden sind auch vielseitige industrielle Einsatzmöglichkeiten. Magnetische, nanostrukturierte Materialien werden in Bereichen wie der Chemie, der Physik sowie der Biomedizin untersucht und angewendet.
In der Chemie werden die Herstellung und die Untersuchung der katalytischen Eigenschaften von Nanopartikeln intensiv erforscht. Zu den zahlreichen Synthesemethoden von nanoskaligen Partikeln zählen zum Beispiel die thermische Zersetzung, die Mitfällung oder die Hydrothermalsynthese. Die katalytische Aktivität und die Selektivität dieser Materialien werden von der Partikelgröße, der Morphologie und der Anzahl an aktiven Oberflächenzentren beeinflusst. Die Entwicklung von stabilen Katalysatoren ist entscheidend für viele Anwendungen. Zur Stabilisierung und zum Schutz gegen Oxidation und Erosion werden oberflächenaktive Substanzen (z. B. Polymere, Tenside), anorganische oder poröse Trägermaterialien (Siliciumdioxid, Zeolithe) eingesetzt. Ein wichtiges Ziel für nachhaltige Prozesse sind leicht abtrennbare und wiederzuverwendende Nanopartikel. Dies ermöglichen zum Beispiel Kern-Schale-Katalysatoren, die eine katalytisch aktive Schale (Rh, Pt, Au) und einen magnetischen Kern aus Fe, Co, Ni besitzen. Verschiedene magnetische Nanopartikel wurden in zahlreichen Reaktionen (z. B. C-C-Kupplungen, Hydrierung von Olefinen, Hydroformylierung) getestet und zeichneten sich als katalytisch aktive und stabile Katalysatoren aus.
Im Bereich der Physik werden die magnetischen und die elektronischen Eigenschaften der Nanopartikel untersucht. Die magnetischen Einheiten werden im Forschungsgebiet der Informationstechnologie als Nanobauteile in Speichermedien eingesetzt. Die Verwendung basiert auf der Nutzung des ferromagnetischen Verhaltens einzelner Nanomaterialien in Speichereinheiten. Bei der Herstellung werden die elektrischen, optischen und magnetischen Eigenschaften der Nanopartikel beeinflusst. So tritt mit abnehmender Partikelgröße ein Übergang vom Ferromagnetismus zum Paramagnetismus auf. Außerdem beginnt die Magnetisierungsrichtung zeitlich und räumlich zu fluktuieren und die magnetisch
gespeicherten Informationen gehen verloren. Die Miniaturisierung der Komponenten (z. B. Computerchips) bei gleichzeitiger Vergrößerung der Datenspeicherdichte ist sehr wichtig. Einer der vielversprechenden Zusammensetzungen dafür sind FePt-Partikel, die auch nach Entfernen des externen elektrischen Feldes ihre Magnetisierungsrichtung nicht sofort verlieren.
Im biomedizinischen Bereich eröffnen magnetische Nanopartikel ebenfalls neue Möglichkeiten. Sie werden als spezielle Kontrastmittel für die bildgebenden Verfahren der Magnetresonanztomografie genutzt. Außerdem können funktionalisierte Partikel als Transportmittel für Wirkstoffe bei einer Krebstherapie eingesetzt werden. Eine gezielte Positionierung des mit Wirkstoff modifizierten magnetischen Nanopartikels im Körper ist dabei möglich. Die Bioverträglichkeit der Materialien wird durch eine Verkapselung der Nanopartikel mit biologisch nicht belastenden, nicht toxischen Substanzen (z. B. Polyvinylalkohol, Polyethylenglykol, Stärke oder Dextran) erreicht.
Eine Materialklasse, die Wissenschaft und Technologie vereinigt und die in den letzten Jahren immer mehr an Interesse gewonnen hat, stellen die Heusler-Verbindungen dar. Dies sind ternäre intermetallische Zusammensetzungen der Form X2YZ, die im Jahr 1903 von Fritz Heusler entdeckt und beschrieben wurden. X und Y stehen meistens für Übergangmetalle, wohingegen Z häufig ein Element der III. – V. Hauptgruppe darstellt. Eine Kombination der unterschiedlichen charakteristischen Merkmale (halbmetallischer Charakter, hohes magnetisches Moment, hohe Curie-Temperatur) in einer Verbindung ermöglicht vielseitige Anwendungen dieser Materialien. Die Eigenschaften der Heusler-Verbindungen können durch die Veränderung der Zusammensetzung (Elementenaustausch) oder durch die Variation der Stöchiometrie der kombinierten Elemente beeinflusst werden. Unter den Heusler-Materialien sind halbmetallische Ferromagneten, ferrimagnetische Zusammensetzungen, Halbleiter und Supraleiter vertreten. Die X2YZ-Kompositionen werden industriell als magneto-optische Materialien, als Formgedächtnislegierungen, in thermoelektrischen Elementen oder als topologische Isolatoren verwendet. Das
Augenmerk der Spintronik liegt bei der hohen Spinpolarisation der Heusler-Verbindungen. Effiziente Bauelemente mit einem hohen Riesenmagnetwiderstand oder einem hohen Tunnelmagnetwiderstand werden in Festplattenleseköpfen von Computern und in magnetischen Sensoren eingebaut. Mit den ersten katalytischen Experimenten an ternären intermetallischen Materialien von Hedvall und Hedin im Jahr 1935 wurde auf ein weiteres Forschungs- und Einsatzbereich für Heusler-Verbindungen hingewiesen.
Elektromobilität ist in den letzten Jahren ein wichtiges Thema in der Automobilindustrie, der Politik und den Medien geworden. Die Innovation Elektromobilität hat das Potential die gesamte Automobilindustrie und ihre Innovationssysteme zu revolutionieren. Ziel dieser Arbeit ist es den Strukturwandel der Branche und in deren Innovationssystemen zu analysieren. Ein besonderer Fokus liegt dabei auf den Interaktionen und Beziehungen zwischen Organisationen der Wirtschaft, Wissenschaft und Politik. Es wird den Fragen nachgegangen, wie die Innovationssysteme der Branche auf die Veränderungen reagieren, wie diese Veränderungen aufgenommen und verarbeitet werden sowie wer an den Innovationsprozessen der Elektromobilität beteiligt ist.
Dazu werden zunächst die theoretischen Grundlagen des Strukturwandels von Innovationssystemen erarbeitet. Den Ausgangspunkt bilden die begrifflichen und konzeptionellen Grundlagen von Innovationen und Innovationsprozessen. Verschiedene Konzepte von Innovationssystemen gehen davon aus, dass es sich bei Innovationen um Leistungen eines Systems handelt. Innovationssysteme können als soziale Systeme definiert werden, die sich durch die Interaktion von Organisationen bilden und in denen sich Strukturwandel evolutionär vollzieht.
Auf die Untersuchung der theoretischen Grundlagen folgt eine Beschreibung der Akteure der deutschen Automobilindustrie, deren wesentlichen Merkmale und aktuellen Situation. Als Ursachen für die Forderung nach alternativen Antriebskonzepten werden Klimawandel und CO2-Emissionen einerseits und Ölabhängigkeit und Ressourcenverknappung andererseits thematisiert. Die Einführung von Elektromobilität ist mit der Diversifizierung und Elektrifizierung des automobilen Antriebssystems verbunden und kann unterschiedliche Strategien umfassen.
Die Einführung von Elektromobilität führt zu strukturellen Veränderungen in den Innovationssystemen der Automobilindustrie. Der Strukturwandel im Wirtschafts- und Wissenschaftssystem vollzieht sich dabei koevolutionär. In den Innovationssystemen entstehen neue Beziehungen zwischen Organisationen aus der Wirtschaft, Wissenschaft und Politik. In dieser Arbeit werden die Beziehungen in den Projekten der Förderprogramme „Modellregionen für Elektromobilität“ und „Schaufenster Elektromobilität“ genauer analysiert. In den als Triple-Helix-Kooperationen bezeichneten Kooperationen zwischen Wirtschaft, Wissenschaft und Politik lässt sich vor allem eine starke Heterogenität der Akteure beobachten.
Als Ergebnis der Arbeit werden die Folgen von Elektromobilität für die Innovationssysteme der deutschen Automobilindustrie diskutiert. Wesentliche Herausforderungen stellen die zunehmende Komplexität der Innovationssysteme und die Beschleunigung der Innovationsprozesse dar. Die beteiligten Akteure haben verschiedene Strategien zu deren Bewältigung entwickelt. Abschließend werden Empfehlungen zum Umgang mit dem Strukturwandel durch Elektromobilität in den verschiedenen, betroffenen Systemen gegeben.
Im Rahmen dieser Dissertationsschrift wurden erstmals gezielt Eisen(II)-SCO-Komplexe mit einem derivatisierten Diazapyridinophanliganden (L-N4Bz2) hergestellt. Die charakteristischen strukturellen Parameter für die high-spin- und low-spin-Zustände konnten bestimmt werden und können für zukünftige Experimente als Referenz verwendet werden. Der thermisch induzierte, isotrope SCO-Prozess in [Fe(L-N4Bz2)(NCS)2] (2.3) konnte mit einer Vielzahl an strukturellen, magnetochemischen und spektroskopischen Methoden nachgewiesen werden.
Weiterhin konnte zum ersten Mal gezeigt werden, dass sich redoxkontrollierte Veränderungen eines koordinierten Liganden zunutze gemacht werden können, um SCO-Eigenschaften in einem Eisen(II)-Komplex zu etablieren. Dazu wurde der der Einfluss einer ligandzentrierten Reduktion auf die Ligandenfeldstärke in verzerrt oktaedrischen Komplexen untersucht, indem drei Redoxpaare mit Eisen(II)-, Cobalt(II)- bzw. Nickel(II)-Zentralionen mit gleicher Ligandumgebung synthetisiert und durch strukturelle, magnetochemische und spektroskopische Untersuchungen charakterisiert wurden. Ausgehend vom LS-Eisen(II)-Komplex [Fe(L-N4Me2)(bian)](ClO4)2 (3.1b) werden im π-Radikalkomplex [Fe(L-N4Me2)(bian1-)](ClO4) (3.3) SCO-Eigenschaften eingeschaltet. Für [Co(L-N4Me2)(bian1-)](ClO4) (3.4), wird durch die Reduktion des Liganden bian zu bian1- ein Spinzustandswechsel des Co(II)-Ions vom LS-Zustand in [Co(L-N4Me2)(bian)]2+ (3.2) zum HS-Zustand in 3.4 ausgelöst. In den Nickel(II)-Komplexen sind π-Bindungen hingegen nur schwach ausgeprägt und somit hat die ligandbasierte Reduktion geringere Auswirkungen.
Durch kleine chemische Modifikationen konnte der SCO in Radikalkomplexen des Typs [Fe(L-N4Me2)(Rbian1-)](X) in entscheidendem Maße beeinflusst werden. Dies wurde dazu ausgenutzt, um eindeutig zu beweisen, dass die Präsenz eines direkt an das Metallion koordinierten π-Radikalliganden den Eisen(II)-SCO-Prozess entscheidend gegenüber closed-shell-Liganden beschleunigt, wie die temperaturabhängigen mößbauerspektroskopischen Untersuchungen an den einzigartigen Verbindungen [Fe(L-N4Me2)(OMebian1-)](OTf) (3.6a) und [Fe(L-N4Me2)(OMebian1-)](ClO4) ∙ MeCN (3.6b) zeigen. Zusätzlich konnte der für 3.3 ausschließlich in Lösung erreichte antiferromagnetisch gekoppelte HS-Sges = 3/2-Zustand in den Feststoffen 3.6a bzw. 3.6b bestätigt werden.
Eisen-Schwefel-Cluster bilden eine Klasse der vielseitigsten anorganischen Cofaktoren in der Natur und sind in allen Domänen des Lebens zu finden. Sie erfüllen vielfältige Aufgaben in verschiedensten Bereichen, wie beispielsweise Elektronentransport, regulatorische Funktionen oder enzymatische Aktivität. Da verschiedene Krankheiten auf Defekte von Eisen-Schwefel-Proteinen oder deren Biogenese zurückgeführt werden können, ist es von größtem Interesse unbekannte Fe/S Proteine zu charakterisieren und ihre Wirkungsweisen zu erforschen.
In den beiden häufigsten Clustertypen (der rhombische [2Fe-2S]- und der kubische [4Fe 4S] Cluster) werden zur Koordination der Eisenionen neben anorganischen Sulfidionen in der Regel vier Cysteine des Proteins verwendet. Daneben existieren jedoch auch Proteine, in denen andere Aminosäuren als Liganden fungieren.
Für das Rieske-Protein, welches in dieser Arbeit als Referenzprotein fungierte, wurden Mössbauerspektren bei drei passenden pH-Werten aufgenommen. Dadurch konnten zum ersten Mal die drei verschiedenen Zustände des Clusters mit diprotonierten, monoprotonierten bzw. deprotonierten Histidinen mittels Mössbauerspektroskopie untersucht und die entsprechenden Parameter ermittelt werden.
Im Hauptteil dieser Arbeit wurden die beiden weitgehend unerforschten Proteine Apd1 und Aim32 aus Saccharomyces cerevisiae kloniert, heterolog in E. coli exprimiert und isoliert. Durch eine anschließende Charakterisierung mittels UV/Vis-, ESR- und Mössbauerspektroskopie konnte der enthaltene [2Fe 2S] Cluster identifiziert und eine Koordination durch zwei Cysteine und zwei Histidine festgestellt werden, wobei die Proteine keine Rieske-Faltung besitzen. Nach Entdeckung des hochkonservierten HXGGH-Motivs, welches an ähnlicher Stelle zum dritten und vierten Cystein in der Primärstruktur von TLF´s (thioredoxin-like ferredoxins) vorliegt, wurden Mutationen dieser Histidine durchgeführt. In Untersuchungen an diesen Mutanten konnten Änderungen in den UV/Vis , ESR- und Mössbauerspektren der variierten Fe/S Cluster beobachtet werden. Bei der pKS-Wert-Bestimmung wurde nach jeder Mutation der vorhandenen Histidine zu Cysteinen, jeweils ein (De-)Protonierungsschritt weniger detektiert. Ebenso zeigten die Mutanten niedrigere Redoxpotentiale als der Wildtyp, dessen Redoxpotential pH-abhängig ist. Es handelt sich hierbei also um eine neuartige Klasse von Proteinen, die eine C-terminale Domäne mit einer Faltung ähnlich zu TLF´s besitzt, die aber gleichzeitig ein Rieske-artiges Zentrum beinhaltet. Eine Funktion bei Elektronentransfers liegt deshalb nahe, allerdings ist dazu noch nichts genaueres bekannt. Die Identifikation der genauen Wirkweise sowie der Reaktionspartner der beiden Proteine ist also weiterhin ein spannendes Forschungsgebiet. Ebenso wird der Nachweis über die Art der Bindung der Histidine durch eine Kristallstruktur wichtige Erkenntnisse über die Proteinklasse liefern.
Im Rahmen dieser Dissertation wurde ein Verfahren entwickelt, dass es kleinen Gemeinden erlaubt, selbstständig die siedlungsökologische Situation innerhalb ihrer Siedlung zu analysieren. Das entwickelte Matrix-Verfahren beruht dabei nicht auf der Messung oder Simulation der Klimaparameter, sondern auf der Abschätzung der Eintrittswahrscheinlichkeit in Abhängigkeit von verschiede-nen siedlungsklimarelevanten Indikatoren. Dabei werden die Indikatoren nicht isoliert betrachtet, sondern paarweise in einer Matrix gegenübergestellt. An-hand der Ausprägungsintensität der Indikatoren kann aus dieser Matrix die Ein-trittswahrscheinlichkeit eines Stadtklimaphänomens abgeschätzt werden. Durch Anwendung des entwickelten Verfahrens können die für kleine Siedlun-gen relevanten Themenbereiche „urbane Überwärmung“, „urbane Frisch- und Kaltluftversorgung“ und „urbaner Wasserhaushalt“ untersucht werden.
Eng mit der Entwicklung der Matrix-Methode verknüpft, wurde parallel ein Be-standsaufnahmeverfahren entwickelt, dass für die Erfassung der Indikatoren genutzt wird. Für die Bestandsaufnahme vor Ort wurde die Android-App „ÖkoHaSie“ entwickelt, die den Anwender Schritt-für-Schritt durch die Be-standsaufnahme leitet.
Die Kombination aus den beiden entwickelten Komponenten „Matrix-Methode“ und „ÖkoHaSie“ ermöglicht es Gemeinden schnell und selbstständig siedlungsökologische Risiko- und Potenzialflächen zu identifizieren. Durch den im Vergleich zu anderen Siedlungsklimaanalysemethoden geringen Arbeits-aufwand und die deutlich günstigeren Anschaffungskosten von technischen Geräten und Softwarelizenzen kann die Matrix-Methode als einzige „low-cost“-Lösung angesehen werden, die es Gemeinden ermöglicht, selbstständig die siedlungsökologische Situation vor Ort zu analysieren.
Sicherheitstechnik ist eine sehr breit gefächerte Querschnittsdisziplin mit der Aufgabe
Mensch und Umwelt vor den Gefahren von Maschinen, Prozessen und technischen
Anlagen zu schützen. Während im 19ten Jahrhundert Anlagen durch Erfahrungswissen
sicher gestaltet worden sind, ist in der Sicherheitstechnik heute eine sehr
systematische Analyse von Gefahren und Risiken üblich. Dazu ist eine spezielle
Denkweise im Umgang mit stochastischen Prozessen und Unsicherheiten bei der
Modellierung hilfreich, die der Verfahrenstechniker oder Chemieingenieur ebenso
wenig im Studium erlernt wie ein Maschinenbauer oder Chemiker.
Die Sicherheitstechnik selbst und ihre Sicherheitskonzepte sind über lange Zeiträume
entstanden, beginnen mit Grundlagenforschungen, die anwendungsorientiert zu
speziellen sicherheitstechnischen Apparaten oder Modellen geführt haben. Diese
Apparate und Modelle sind anschließend eingebunden worden in Sicherheitskonzepte
für spezielle Anlagen wie Chemiereaktoren oder Gashochdruckleitungen.
In der vorliegenden Arbeit ist die Breite der Sicherheitstechnik und ihre Entwicklung an
sehr unterschiedlichen Beispielen verdeutlicht worden. Grundlegende Erkenntnisse
aus der Zweiphasenströmung führen zu Modellen wie der Auslegung von klassischen
Notentlastungsleitungen oder zur Entwicklung von Rückhalteeinrichtungen. Diese sind
Bestandteil von sehr unterschiedlichen Anlagensicherheitskonzepten bei Wärmeübertragern,
in der Hochdrucktechnik oder bei Multipurpose-Anlagen. Die Forschung zu
Grundlagen der Zweiphasenströmung führt auch zu neuen Sicherheitskonzepten für
Gashochdruckleitungen.
Am Beispiel von sicherheitsrelevanten Armaturen ist die langjährige Entwicklung von
Modellen zur Bemessung dieser Bauteile aufgezeigt worden. Ausgehend von einem
einfachen Düsenmodell wurden immer mehr Parameter berücksichtigt, um nicht nur
sicherheitsrelevante Ventile und Berstscheiben auszulegen, sondern auch Klappen,
Blenden, Stellventile und andere Armaturen. Durch eine hinreichende Validierung der
Modelle entstehen aus der Forschung neue Erkenntnisse für eine signifikante
Weiterentwicklung des Stands der Sicherheitstechnik.
Die Krankheitslast unter Erwerbstätigen steigt mit der Zunahme physischer Belastungsfaktoren am Arbeitsplatz. Instandhaltungsarbeiten an Schienenfahrzeugen gehen mit starken körperlichen Belastungen einher, aufgrund hoher Arbeitsschwere und potentiell beanspruchenden Umgebungsfaktoren wie Lärm, Staub, schlechten Licht- oder Temperaturverhältnissen und erhöhten Verletzungsrisiken. In einem Betrieb der Schienenfahrzeuginstandhaltung, der unter den Beschäftigten steigende Krankheitszahlen verzeichnet, wurden 34 Handwerker mittels qualitativer Interviews zu ihren Einstellungen und Wahrnehmungen bezüglich Gesundheit am Arbeitsplatz befragt. Das Ziel der Untersuchung war es, gesundheitsbezogene Ressourcen und Risikofaktoren aus Mitarbeitersicht zu identifizieren, zudem Einstellungen zu Gesundheit, Gesundheitsverhalten und Gesundheitsförderung sowie Annahmen zu möglichen Gründen für die Krankenstanderhöhung. Die Befragungen wurden inhaltsanalytisch ausgewertet und zusammenfassend dargestellt. In einem zweiten Schritt erfolgte anhand relevanter Merkmale (Gesundheitsverhalten, Beschwerdewahrnehmung, Zufriedenheit, Stresswahrnehmung und berufliche Perspektiven) die Entwicklung einer empirisch begründeten Typologie. Ergebnisse einer quantitativen Befragung zur Mitarbeitergesundheit unter 156 Mitarbeitern desselben Unternehmens ermöglichten teilweise eine Quantifizierung der qualitativen Ergebnisse. Ausgewählte Skalen wurden zusätzlich einer Clusteranalyse unterzogen mit dem Ziel, Fallgruppen unter den Befragten zu identifizieren. Die Ergebnisse der Untersuchungen geben folgende zentrale Anhaltspunkte:
Auf die physischen Arbeitsbelastungen führen die Handwerker überwiegend Beschwerden des muskuloskeletalen Systems zurück, die mit hoher Prävalenz auftreten (unter mehr als 50% der Befragten häufig oder ständig). Aus Mitarbeitersicht werden die physischen Belastungen und daraus resultierenden Beschwerden weitgehend in Kauf genommen und gelten als nicht oder kaum vermeidbar.
Häufiger als physische Risiken thematisierten die Mitarbeiter psychosoziale Bedingungen der Arbeit. Als Gesundheitsrisiko wird an erster Stelle Zeitdruck genannt. Er erhöht nach Angaben der Mitarbeiter das Unfallrisiko, wirkt sich aber auch auf das Verhalten der Vorgesetzten sowie das Arbeitsklima aus. Die Mitarbeiter nehmen vielfach hohe Anforderungen wahr, bei geringem Entscheidungsspielraum sowie einer als gering wahrgenommenen Wertschätzung und Anerkennung seitens der Vorgesetzten. Auch die Anerkennung von extern, im Sinne eines Berufsprestiges, wird als eher gering wahrgenommen. Als weiterer Grund reduzierten Wohlbefindens wird insbesondere von älteren Mitarbeitern ein geringer Zusammenhalt unter den Kollegen beschrieben, der dem Zeitdruck, dem Betriebsklima und unterschiedlichen Interessen der Generationen zugeschrieben wird. Indirekt geben die Ergebnisse auch Hinweise darauf, dass den Mitarbeitern Möglichkeiten der Identifizierung fehlen. Die berufliche Identität scheint insgesamt eher gering ausgeprägt. Durch (in Teilen) geringen Zusammenhalt und das Fehlen fester Arbeitsgruppen geht den Mitarbeitern ein Zugehörigkeitsgefühl verloren und damit ein Teil sozialer Identität.
Insgesamt bewerten die Befragten Kollegialität und Zusammenarbeit jedoch eher positiv und das Wohlbefinden bzw. die Gesundheit fördernd. Ein weiterer Förderfaktor ist der Stolz auf berufliche Fertigkeiten und Fähigkeiten. Besonders positiv wahrgenommen wird, wenn die Mitarbeiter individuelle Expertise (Verbesserungsvorschläge) einbringen können und diese umgesetzt werden.
Als Gründe für den erhöhten Krankenstand werden aus Mitarbeitersicht überwiegend die psychosozialen Stressoren gesehen, da sie sich unmittelbar auf Gesundheit und Wohlbefinden auswirken. Gleichermaßen beschreiben die Handwerker die Neigung, sich aufgrund der als gering wahrgenommenen Anerkennung bei vergleichsweise „harmlosen“ Gesundheitsbeschwerden krankschreiben zu lassen.
Bisherige Maßnahmen betrieblicher Gesundheitsförderung (Rückenschule, Gesundheitstage u.dgl.) bewerten die Befragten als nicht zielführend. Grundsätzlich wird körperliche Aktivi-tät/Fitness neben der Arbeit als die Gesundheit positiv beeinflussend wahrgenommen. Die Befragten fühlen sich für dafür allerdings weitgehend selbst verantwortlich und möchten autonom über mögliche Gesundheitsaktivitäten entscheiden.
Die Typologie und Clusteranalyse zeigen folgendes Bild:
Die Mitarbeiter unterscheiden sich im Wesentlichen anhand der Ausprägungen muskuloskeletaler Beschwerden, Stresswahrnehmung, Stimmung/Gefühlslage und Zufriedenheit. Anhand der qualitativen Analyse konnten vier Typen differenziert werden, die Clusteranalyse führte zu sechs Gruppen. Grob betrachtet liegen bei der größten Gruppe der Mitarbeiter deutlich muskuloskeletale Beschwerden vor bei neutraler Ausprägung der weiteren Merkmale („Neutrale mit Beschwerden“). Eine weitere Gruppe gibt deutliche muskuloskeletale Beschwerden an, eine hohe Unzufriedenheit sowie hohe Stresswahrnehmung („Unzufrieden-Gestresste mit Beschwerden“). Ebenfalls hohe Beschwerden sowie eine geringe Zufriedenheit zeigen die „Unzufrieden-Unausgeglichenen mit Beschwerden“, die eine nur mittelgradige Stresswahrnehmung zeigen, aber eher negativ gestimmt sind. Die „Zufrieden-Beschwerdefreien“ sind eher zufrieden und zeigen in allen anderen Merkmalen positive Ausprägungen. Korrelationen der Gruppen mit Alter oder körperlicher Aktivität (im Alltag) konnten nicht gefunden werden.
Für die Untersuchung wurden ausschließlich explorative Verfahren eingesetzt. Die Ergebnisse sind entsprechend als empirisch begründete Annahmen zu verstehen, die nur bedingt Implikationen für die Praxis zulassen. Dennoch beschreiben die Handwerker aus ihrer Sicht Phänomene und Zusammenhänge, die in anderen Kontexten bereits gut untersucht sind. In Zusammenschau mit dem aktuellen Forschungsstand lässt sich schlussfolgern, das für Erwerbstätige, die schwere körperliche Arbeit leisten, die Faktoren Anerkennung, Wertschätzung, Zusammenhalt und Identifikation besonders bedeutsam für Gesundheit bzw. Arbeitsfähigkeit sind. Für die Planung von konkreten Maßnahmen der Gesundheitsförderung erscheint eine „gruppenindividuelle“ Betrachtung der Mitarbeiter sinnvoll, um deren Bedürfnisse gezielter zu treffen.
Die Sicherstellung effektiver Gesundheitsdienstleistungen in ländlichen Regionen der Westpfalz erfordert vor dem Hintergrund der demographischen Entwicklung und des fortschreitenden Strukturwandels die Auseinandersetzung mit neuen Konzepten. Im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung – Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung (EB)1,
Teilprojekt „Pflege und Gesundheit“, wurde das Konzept der hochschulisch gebildeten Pflegefachperson im Sinne einer Advanced Nursing Practice (ANP)2 aufgegriffen. Expert_innen in der Westpfalz wurden befragt, um die Relevanz einer Erweiterten
Pflegepraxis im Sinne von ANP für die regionale Gesundheitsversorgung sowie die Bedeutung eines solchen Konzepts für die Personalentwicklung und Aspekte des Lebenslangen
Lernens im Pflegeberuf einschätzen zu können.
Kurzfassung:
Die Arbeit befasst sich mit einem Thema, das an der Schnittstelle zwischen klassischer Rechtsberatung in vornehmlich projektorientierten Bebauungsplanverfahren, Bauleitplanung und Projektsteuerung angesiedelt ist und behandelt den Aspekt, dass sich der Ablauf derartiger Verfahren hin zu ständig steigender Komplexität entwickelt.
Eine in das Thema einführende Analyse stellt dar, dass diese Komplexität nicht nur auf das eigentliche Planaufstellungsverfahren zurück zu führen ist, sondern ihre Ursache auch im zunehmenden Einfluss europarechtlicher Vorgaben, in kontinuierlich stärker ausdifferenzierten Vorgaben der Raumordnung und verschiedener Gegenstände des besonderen Verwaltungsrechts, die bei der Planaufstellung jeweils in unterschiedlicher Weise zu beachten sind, findet.
An diese einführende Analyse schließt sich eine kurze Darstellung der methodischen Ansätze unterschiedlicher Verfahrensbeschleunigungsversuche der Vergangenheit sowie ein kursorischer Überblick über den Ablauf eines Bauleitplan-verfahrens an, bevor die als Reaktion auf die dargestellten Entwicklungen erarbeitete Methode der Verfahrensorganisation und –steuerung (Verfahrensmanagement) komplexer Bauleitplanverfahren aufgezeigt wird.
Die Methodik des Verfahrensmanagements und dessen Stellung in einem Bauleitplanverfahren wird mit Blick auf bestehende gesetzliche Regelungen zum Verfahrensmanagement zum Teil aus jüngster Vergangenheit und unter Verwendung zahlreicher Beispiele aus der Praxis beschrieben. Dabei wird auch aufge-zeigt, wo und in wie weit Anleihen beim klassischen Projektmanagement gemacht und auf die speziellen Erfordernisse öffentlich-rechtlicher Planungs- und Verwaltungsverfahren zugeschnitten wurden. Dieser beschreibende Teil der Arbeit zeigt auf, dass sich die Tätigkeit der Verfahrenssteuerung nicht auf die Verfahrensplanung, -organisation und -kontrolle beschränkt sondern gleichgewichtig die Beratung und Begleitung der formellen und materiell-rechtlichen Inhalte und Abhängigkeiten der jeweiligen Verfahren mit umfasst.
Es werden die Mechanismen und Abhängigkeiten beschrieben, die mit die Führung der unterschiedlichen Beteiligten eines solchen Prozesses in Form eines Verfahrensmanagements angesichts der Heterogenität der Aufgaben, Ausbildung und Berufserfahrung der Mitwirkenden unter Berücksichtigung der Tatsache, dass hierarchische Führungsmethoden nicht zu Gebote stehen, verbunden sind. In diesem Zusammenhang werden die wiederkehrenden Abläufe bei der Bildung von Projektgruppen, die Gesetzmäßigkeiten der Zusammenarbeit in solch heterogenen Gruppen und deren Bedeutung für das Gelingen oder Scheitern solcher Projekte dargestellt.
Die Arbeit enthält ferner einen Exkurs, der die Überschneidungen aber auch die Abgrenzung der Aufgaben des Verfahrensmanagements von der klassischen Mediation aufzeigt und schließt einem Vorschlag zur Standardisierung der Abläufe des Verfahrensmanagements sowie zu möglichen weiteren Anwendungsbereiche dieser Methode. Sie enthält außerdem zwei Mustervorlagen, die den Aufbau eines Verfahrensmanagements erleichtern sollen.
Rationale Entwicklung neuer nachhaltiger Methoden zur Einführung von Fluoralkyl(thio/seleno)gruppen
(2017)
Im Rahmen dieser Arbeit wurden neue nachhaltigere Methoden zur gezielten Einführung fluoralkyl(thio/seleno)lierter Substituenten in komplexe organische Moleküle entwickelt. Dafür wurde insbesondere die Sandmeyer-Reaktion als universelles Werkzeug zur Funktionalisierung breit verfügbarer Aniline genutzt.
Die entscheidenden Vorteile dieser Technologie sind die milden Reaktionsbedingungen, das breite Substratspektrum und die exzellente Toleranz funktioneller Gruppen, weshalb sie sich selbst für komplexe Verbindungen in einem späten Synthesestadium eignet. Außerdem zeichnen sich die in dieser Arbeit entwickelten Prozesse zur direkten Einführungen von SCF3 , SeCF3 und SC2F5-Gruppen dadurch aus, dass sie mit Kupfermengen von nur 10 mol% zu den seltenen Beispielen katalytischer Sandmeyer-Reaktionen gehören.
Unter ebenso vorteilhaften Reaktionsbedingungen und gleicher katalytischer Kupfermengen konnten auch α-Diazoester, die selbst leicht aus Aminosäuren herstellbar sind, zu den entsprechenden Trifluormethylthio- und Trifluormethylselenoethern umgesetzt werden.
In weiteren Projekten gelang es, neue Zugänge zu Di- und Trifluormethylthioethern durch das innovative Reaktionskonzept der Thiocyanierung/Fluoralkylierungskaskade zu etablieren. Breit verfügbare Alkylelektrophile wurden hierbei unter milden Reaktionsbedingungen und preiswerten Schwefel- und Fluoralkyl-Quellen di- und trifluormethylthioliert.
Außerdem konnte die Reaktionskaskade auch für regioselektive elektrophile C–H-Fluoralkylthiolierungen elektronenreicher Aromaten mit NTS als nachhaltige elektrophile Schwefelquelle genutzt werden.
In allen neuen Verfahren wurden konsequent praktische Fluoralkyl(thio/seleno)-Quellen verwendet, die auf dem nachhaltigen Ruppert-Prakash-Reagenz TMSCF3 basieren. Dies ist ein entscheidender Vorteil gegenüber bekannten Verfahren, die häufig präformierte, instabile Metall-Salze oder teure, hochmolekulare Reagenzien verwenden.
Das große synthetische Potential der neu entwickelten Methoden wurde jeweils anhand zahlreicher funktionalisierter Substrate demonstriert. Darüber hinaus lieferten mechanistische Studien einen näheren Einblick in den Ablauf der Reaktionen.
Das Forschungs- und Entwicklungsprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) hat sich zum Ziel gesetzt, die gesellschaftlichen und wirtschaftlichen Wandlungstendenzen der Region in und um Kaiserslautern zu untersuchen und evidenzbasiert Weiterbildungsangebote zu entwickeln. Während die Entwicklung wissenschaftlicher Weiterbildungsangebote bisher zumeist dem Ansatz einer Angebotsorientierung folgt (vgl. Hanft 2014), zielt das Projekt auf den Ansatz der Nachfrageorientierung (vgl. Seitter 2014, Wolter & Banscherus 2016). Dazu wurde ein Prozessmodell evidenzbasierter Angebotsentwicklung erarbeitet, auf dessen Grundlage den einzelnen Angebotsentwicklungsschritten spezifische Bezüge zu empirisch erhobenen Daten zugeordnet werden. Mithilfe dieser Daten soll aufgezeigt werden, wie Angebote im Rahmen des Projektes bedarfsorientiert entwickelt werden. Die einzelnen Prozessschritte von der Planung bis zur Implementierung eines Weiterbildungsangebots werden im vorliegenden Arbeits- und Forschungsbericht am Beispiel des Teilprojekts an der Technischen Universität Kaiserslautern ausgeführt.
Die kollaborative Mobilität, unter der sinngemäß das Teilen von Mobilitätsangeboten („Nutzen statt Besitzen“) mit Unterstützung durch Location-Based-Services verstanden wird, stellt den theoretischen Überbau dieser Arbeit dar. Hierunter fallen auch bereits bekannte Mobilitätskonzepte, z. B. Fahrgemeinschaften, Mitfahrerparkplätze und Carsharing. Der Begriff Location-Based-Services umfasst zeit-räumliche Dienstleistungen auf Basis der Informations- und Kommunikationstechnologie (IKT).
Die Berufspendler mit Wohnort in ländlichen Räumen sind mit zunehmenden Mobilitätsproblemen, z. B. steigenden Mobilitätskosten und einem zunehmend unattraktiveren ÖPNV-Angebot konfrontiert. Gleichwohl sind soziale und berufliche Gründe sowie der Besitz von Immobilien die größten Hemmnisse, den Wohn- oder Arbeitsort zu wechseln. Die Koordination solcher Berufspendler stellt wegen des Wunsches nach Flexibilität und den zeitlich-räumlichen Gegebenheiten eine große Herausforderung dar.
Mit der Verbreitung von Smartphones, dem einhergehenden Mobilitätswandel im Sinne der kollaborativen Mobilität und den hiermit verknüpften Entwicklungen der Sharing-Economy liegen mithilfe von Location-Based-Services technische Rahmenbedingungen vor, mit denen auch eine spontane Koordination von Fahrgemeinschaften möglich ist („Fahrgemeinschaftsbörsen der dritten Generation“).
In der vorliegenden Arbeit werden daher die Potenziale und Ansatzpunkte für eine kollaborative Alltagsmobilität der PKW-Pendler am Beispiel von Mitfahrerparkplätzen, Fahrgemeinschaften und Location-Based-Services sowie die Wirkung der betrachteten Beispiele untersucht (Ziele).
Zur Eingrenzung werden als Untersuchungsgruppe die täglichen, berufsbedingten Autopendler im Bundesland Rheinland-Pfalz, das stark ländlich geprägt ist, herangezogen.
Hierzu werden Datengrundlagen zur Abschätzung eines Fahrgemeinschaftspotenzials der täglichen Autopendler in Rheinland-Pfalz geschaffen, ein zugehöriges Analysewerkzeug auf Basis einer GIS-Datenbank entwickelt und angewendet sowie eine Wirkungsanalyse von Mitfahrerparkplätzen und Location-Based-Services durchgeführt. Dazu werden auch eigene empirische Grundlagen mithilfe einer Internet-Befragung zur Exploration des Themenfeldes Pendlerverkehr sowie durch Pendlerinterviews und Verkehrsmengenerhebungen auf ausgewählten Mitfahrerparkplätzen in Rheinland-Pfalz erarbeitet.
Hiermit wird erstmals die Wirkung von Mitfahrerparkplätzen seit ihrer Einführung in Rheinland-Pfalz untersucht. Im Mittel weisen Mitfahrerparkplätze einen Einzugsbereich von rund 10 km auf, im Median von rund 7,4 km. Fahrgemeinschaften, die Mitfahrerparkplätze in Rheinland-Pfalz benutzen, umfassen im Mittel 3,15 Personen je PKW. Mitfahrerparkplätze und Fahrgemeinschaften werden bei langen Arbeitswegen im Bereich von 50 km (für den einfachen Weg) überdurchschnittlich genutzt. Dabei liegen die Mitfahrerparkplätze in der Regel innerhalb des ersten Fünftels der einfachen Fahrtstrecke.
CpC ist ein metallorganischer Ligand vom Cyclopentadienid-Typ aus einem Cyclopentadienidkern mit zwei anellierten Dibenzocycloheptenen. Er ist durch Deprotonierung der Ligandvorstufe CpCH mit starken Basen, wie n-Butyllithium zugänglich. Aufgrund der verdrillten siebengliedrigen Ringe und daraus resultierenden helicalen Struktur stellt CpC einen neuartigen, intrinsisch chiralen Cyclopentadienidligand dar, bei dem das Chiralitätselement Bestandteil des Cyclopentadienidrings ist. Die Ligandvorstufe CpCH wird ausgehend von Dibenzosuberenon in fünfstufiger Reaktionsfolge synthetisiert. NMR-Spektroskopie sowie DFT-Rechnungen zufolge verläuft der Racemisierungsprozess dieses Liganden bei Raumtemperatur langsam, so dass sein Einsatz in der enantioselektiven Synthese oder Katalyse denkbar ist. Darüberhinaus kann sich das im Vergleich zu 7H-Dibenzo[c,g]fluorenid nicht vollständig konjugierte π-System positiv auf Koordinationsvermögen auswirken. Diese Annahme wurde durch Ergebnisse von Komplexierungsversuchen untermauert.
Durch Umsetzung von zwei Äquivalenten CpCLi, das in situ mit n-Butyllithium generiert wird, sind das homoleptische Ferrocen (η5-CpC)2Fe und der gemischte Sandwichkomplex (η5-CpC)Fe(η5-4Cp) (4Cp = 1,2,3,4-Tetraisopropylcyclopentadienid) zugänglich. Elektrochemische Untersuchungen von (η5-CpC)Fe(η5-4Cp) ergaben, dass diese Verbindung erwartungsgemäß leichter oxidierbar ist als Ferrocen. Weiterhin wurde der Halbsandwichkomplex (η5-CpC)Ti(OiPr)3 synthetisiert und dessen Reaktivität gegenüber Me3SiI, die zur Bildung von (η5-CpC)TiI2(OiPr) führt, untersucht. Beide Komplexe wurden mittels Röntgenstrukturanalyse charakterisiert. Umsetzung von CpCLi mit TiCl4 dagegen führte zur oxidativen Kupplung des Liganden unter Bildung von (CpC)2. Analoge Umsetzungen mit Vorstufen anderer Metalle ergaben Halbsandwichkomplexe des Mangans (η5-CpC)Mn(CO)3, des Rhodiums (η5-CpC)Rh(COD) und Iridiums (η5-CpC)Ir(COD), die ebenfalls strukturell charakterisiert werden konnten. Bei der Synthese des Rutheniumkomplexes (η5-CpC)Ru(C6H6)Cl trat unter bestimmten Reaktionsbedingungen OCpC als Nebenprodukt auf, das sich ebenfalls quantitativ durch Umsetzung von CpCTl mit Luftsauerstoff darstellen lässt.
Im Rahmen dieser Arbeit wurden neue nachhaltige Methoden zur selektiven C−C Bindungsknüpfung ausgehend von Carbonsäuren entwickelt. Dabei wurden die Reaktionskonzepte der decarboxylierenden Biarylsynthese sowie der Carboxylat-dirigierten Arylierung verfolgt.
Geleitet von eingehenden DFT-Studien wurde ein Katalysatorsystem entwickelt, mit dem die Reaktionstemperatur der Kupfer/Palladium-katalysierten decarboxylierenden Kreuzkupplung von ursprünglich über 150 °C auf 100−120 °C abgesenkt werden konnte. Dazu wurden bidentate P,N-Liganden eingesetzt, die die Katalysatormetalle verbrückend koordinieren können und so die geschwindigkeitsbestimmende Transmetallierung erleichtern.
Daneben gelang es, ein bimetallisches Kupfer/Palladium Katalysatorsystem zu entwickeln, welches die Synthese 3-substituierter 2 (Hetero-)Arylpyridine bei nur 130 °C ermöglicht. Dies basierte auf der Entdeckung, dass ein Substituent ortho zur Carboxygruppe der Pyridin-2-carbonsäure ebenso wie im Fall von Benzoesäuren eine Decarboxylierung begünstigt.
Neben den decarboxylierenden ipso-Arylierungen wurden auch neue Protokolle für Carboxylat-dirigierte ortho-Arylierungen von Benzoesäuren entwickelt. So wurde diese erstmals mit Aryldiazoniumsalzen als Kupplungspartner realisiert. Das neue Protokoll unter Verwendung eines Iridium-basierten Katalysatorsystems gewährleistet eine Reaktionsführung unter vergleichsweise milden Bedingungen. Zudem wird eine Orthogonalität zu Kupplungen mit Arylhalogeniden geschaffen.
Daneben wurde ein Protokoll für die ortho-Arylierung von Benzoesäuren mit Arylhalogeniden entwickelt, welches erstmals auf kostengünstigen Ruthenium-Katalysatoren basiert.
Die Überlegenheit der Carboxylatgruppe im Vergleich zu anderen dirigierenden Gruppen konnte demonstriert werden, indem sie im Anschluss an die jeweilige ortho-Arylierung entfernt sowie als Ankerpunkt in weiteren Funktionalisierungen genutzt wurde.
Weiterhin gelang es, eine Kupfer/Palladium-katalysierte decarboxylierende Mizoroki-Heck-Reaktion von Zimtsäuren mit Arylhalogeniden zu entwickeln, welche selektiv 1,1 Diarylalkene zugänglich macht. Dabei agiert die Carboxylatgruppe als abfallende dirigierende Gruppe.
Das synthetische Potential der neu entwickelten Methoden wurde jeweils anhand eines diversen Substratspektrums demonstriert. Darüber hinaus lieferten mechanistische Studien zu den Carboxylat-dirigierten Transformationen Einblicke zum Ablauf der Reaktionen.
Im Kontext des demographischen Wandels, insbesondere des steigenden Anteils älterer Menschen, verweisen Politik und Wissenschaft auf die Zivilgesellschaft, um Versorgungsdefizite auszugleichen. Die Nachbarschaft nimmt dabei eine zentrale Rolle ein. Nachbarschaftliche Beziehungen erscheinen als ideale Instanzen, um Unterstützungsbedarfe Älterer aufzufangen, aber auch als Kontexte, in denen das Engagement von „jungen Alten“ genutzt werden kann. Bislang ist allerdings unklar, wie Beziehungen zu Nachbarn von Älteren interpretiert werden und damit, welche Potenziale für Unterstützung vorliegen.
In der vorliegenden Arbeit wird mittels qualitativer Befragungen das subjektive Verständnis von Nachbarschaft und Nachbarschaftshilfe bei älteren Menschen untersucht, die zur Gruppe der „jungen Alten“ gezählt werden können, d.h. noch ein aktives und unabhängiges Leben führen. Die Konzepte, die es herauszuarbeiten gilt, werden den durch die Befragten berichteten Interaktionen und Formen des Kontakts gegenübergestellt. Dabei werden drei unterschiedliche Wohnkontexte berücksichtigt: Erstens Nachbarschaftsbeziehungen in städtischen Wohnlagen; zweitens in Einfamilienhaussiedlungen, in denen sog. Siedlergemeinschaften bestehen, in denen sich die Bewohnerinnen und Bewohner als Vereine zusammengeschlossen haben; drittens in gemeinschaftlichen Wohnprojekten, bei denen das nachbarschaftliche Miteinander einen Teil des Selbstverständnisses ausmacht.
Es wird der Frage nachgegangen, wie sich die subjektive Interpretationen und Argumentationen älterer Menschen in Wohnkontexten mit unterschiedlichen Formen der Organisation des Zusammenlebens in Bezug auf Nachbarschaftsbeziehungen und die darin stattfindenden Hilfeleistungen darstellen. Die Arbeit soll so zu einem besseren Verständnis von Nachbarschaft älterer Menschen beitragen. Schließlich soll damit ein Beitrag geleistet werden zur Klärung der Frage, ob und unter welchen Bedingungen Nachbarschaft „belastbar“ ist und somit Nachbarschaftshilfe ein Konzept darstellen kann, dass tragfähige Strukturen für gegenseitige Unterstützung bietet. Die Ergebnisse deuten darauf hin, dass Nachbarschaftsbeziehungen ein durchaus hohes Potenzial aufweisen können in Bezug auf kleine, alltagsunterstützende Leistungen. Dauerhafte und intensivere Formen der Unterstützung sind dagegen selten und bedürfen besonderer, individueller und/ oder struktureller Rahmenbedingungen.
Die taktile Rauheitsmesstechnik ist ausgiebig erforscht, genormt und dient für andere Messprinzipien und Messverfahren als Referenz. Allerdings fehlen für eine Rauheitsmessung auf Konturen Grundlagenuntersuchungen, Richtlinien und Normen. Eine Messung und Auswertung der Rauheit und Kontur in einem Schritt bringen der Industrie wertvolle ökonomische Vorteile. Kombinierte Rauheits- und Konturenmessplätze erlauben bereits heute aufgrund ihres vertikalen Messbereiches von mehreren Millimetern und einer vertikalen Auflösung im Nanometerbereich eine kombinierte Rauheits- und Konturenmessung in nur einem Messvorgang. Das Ziel der vorliegenden Dissertation sind Grundlagenuntersuchungen, um starke und schwache Einflüsse bei der taktilen 2D Rauheitsmessung auf Konturen zu ermitteln. Einflussgrößen und Messparameter werden aufgezeigt, analysiert und neue Ansätze für die Messstrategie und die Auswertung präsentiert und untersucht. Die durchgeführten experimentellen Untersuchungen erfolgen an ausgewählten Normalen und technischen Oberflächen mit den vorgestellten Parameterkombinationen. Die Auswertung der Rauheitskennwerte wird mit den erläuterten Auswertemethoden durchgeführt und es erfolgt eine Analyse der Profile. Für ein vollständiges Messergebnis wird die Messunsicherheit bestimmt und diskutiert.
Im Rahmen der Tätigkeit eines selbständigen Unternehmensberaters ergeben sich in der Zusammenarbeit mit seinen Kunden eine Vielzahl von rechtlichen Fragestellungen. Die vorliegende Arbeit betrachtet dabei insbesondere solche Fragen, die im Bereich des Vertragswesens entstehen. Die Erbringung solcher Leistungen im Vertragswesen durch den Unternehmensberater unterliegt dem Rechtsdienstleistungsgesetz. Die vorliegende Arbeit soll dem Unternehmensberater als praxisnahe Hilfestellung bei der Entscheidung unterstützen, welche Tätigkeiten im Vertragswesen er übernehmen darf, und wo er die Grenzen zur unerlaubten Rechtsberatung überschreitet. Es wird zunächst das Rechtdienstleistungsgesetz mit seinen Voraussetzungen vorgestellt und erläutert, um die Grundlage für das Verständnis der Normen zu schaffen. Anschließend wird mit einem beispielhaften Katalog für typische Leistungen im Vertragswesen eine Orientierungshilfe für den Unternehmensberater gegeben. Für den Katalog werden das Rechtsdienstleistungsgesetz und seine bisher in Urteilen und Kommentaren erfolgte Auslegung als Basis herangezogen, zum Teil ergänzt um Entscheidungen zum vorhergehenden Rechtsberatungsgesetz. Ergänzt wird dies um Ausführungen zur Haftung des Unternehmensberaters für seine Rechtsdienstleistungen und zu einer diesbezüglich möglichen Versicherung. Abschließend wird ein kurzer Einblick in die Regelungen anderer europäischer Länder gegeben.
Das Methodenrepertoire der Stadt- und Umweltplanung befindet sich insbesondere durch den zunehmenden Einsatz von Geoweb-Methoden insgesamt in einem Umbruch hin zu einer „Smart urban Crowdsourcing“-Wissensgesellschaft [STREICH 2011: 236 F]. Kontinuierlich nimmt die An-zahl zur Verfügung stehenden Geoweb-Techniken zu, die auf ihren Einsatz in der Stadt- und Umweltplanung warten, sich in planerische Methoden integrieren oder zu solchen weiterentwickeln lassen. Am Beispiel des Verhältnisses von Planern gegenüber Bürgern werden die Veränderungen des planerischen Aufgabengebietes besonders dadurch deutlich, dass es sich hierbei nicht mehr um den reinen Transport von Informationen und gegebenenfalls eine Hilfestellung bei der Übersetzung dieser in einem klassischen Sender-Empfänger-Prinzip handelt. In einer, durch soziale Netzwerke und mobile Endgeräte, zunehmend digitalisierten Welt, ist es theoretisch möglich, dass jedem Bürger zu jeder Zeit an jedem Ort jede beliebige In-formation zum Abruf bereit steht. Auf diese Weise kann sich der Bürger informieren, seine eigene Meinung bilden und diese teilen. Da die ange-sprochenen mobilen Endgeräte zusätzlich mit Verortungstechnik ausgestat-tet sind und die geteilten Informationen um Angaben eines räumlichen Bezuges in Form von Geo-Koordinaten ergänzt werden können, bekommen die auf diesem Wege erstellten Datensätze auch zunehmend Aufmerksamkeit von Seiten der Raumplanung.
Durch die neu verfügbaren Techniken des Geowebs verändert sich auch das Aufgabengebiet von Stadt- und Umweltplanern: Um den jeweiligen „Stand der Technik“ hinsichtlich einer „smarten Planung“ [EXNER 2013] einsetzen zu können, werden sich Planer heute und auch zukünftig kontinuierlich über neue Techniken informieren müssen, diese auf ihre Einsatzpotentiale untersuchen, bestehende Planungsmethoden ergänzen und zum Einsatz bringen. Die Herausforderungen liegen dabei in der Prüfung der Geoweb-Techniken, deren Fortentwicklung sowie Integration in planerische Methoden. Beim Einsatz dieser neuen Methoden steht Generierung eines Mehrwertes für die von einer Planung betroffenen Menschen und die Planer selbst im Mittelpunkt. Mit dem Smartphone steht ein Werkzeug zur Verfügung, welches die Grundlage eines jeden, aktuell in Wissenschaft und Wirtschaft formulierten, „Smart-City“-Ansatzes bilden kann und zu dessen Umsetzung benötigt wird.
Nach einer theoretischen Behandlung des Aufgabengebietes der Stadt- und Umweltplanung und des Planungssystems in Deutschland, geht die vorliegende Arbeit zunächst auf die Genealogie des Internets und dessen Veränderungen der letzten Jahre ein. Neben der Entwicklung des Compu-tereinsatzes in der räumlichen Planung werden die neuen Möglichkeiten durch die Verbreitung von Smartphones behandelt. Außer den Potentialen wie der Erstellung raumbezogener Informationen durch den Einsatz der mobilen Endgeräte werden auch die dadurch verstärkt aufkommenden Themen des Datenschutzes und des Datenbewusstseins betrachtet.
Die Techniken und Methoden lassen sich den klassischen Aufgabenbereichen von Stadt- und Umweltplanern zuordnen. In der vorliegenden Arbeit erfolgt dieser Ansatz anhand der vier Bereiche der Strukturplanung, der Raumsensorik, der Gestaltungsplanung und den Kommunikationsplattformen entsprechend.
Das Kapitel zum Aufgabengebiet der Strukturplanung wird bei der zugehörigen Analyse nach den geometrischen Struktureinheiten punktueller, linien- und flächenhafter Informationen unterteilt. Der Bereich der Raumsensorik behandelt neben punktuell im Raum installierten Sensoren (wie z.B. Klimasensoren), die Ansätze der Humansensorik bzw. des „Menschen als Sensor im Raum“ [GOODCHILD 2007, RESCH ET AL. 2011, EXNER ET AL. 2012] und die Möglichkeiten optischer Sensortechniken, die mit unbemannten Luftfahrtgeräten nun auch als „fliegendes Auge“ zum Monitoring des Stadt- und Umweltraumes zum Einsatz gebracht werden können. Im klassischen Themengebiet der Gestaltungsplanung werden die Potentiale von virtuellen 3D-Welten in den Bereichen 3D-(Stadt-)Modelle, 360-Grad-Videos, Augmented Reality und Virtual Reality behandelt. Das den Hauptteil abschließende Kapitel rückt dagegen die Aspekte Information und Kommunikation noch einmal explizit in den Vordergrund. Hierbei wird unter anderem der Gedanke eines City-Dashboards hinsichtlich des damit zu erzielenden Mehrwertes fokussiert.
Neben der Erweiterungen hinsichtlich des Aufgabengebietes von Planern ändert sich auch dessen Rollenverständnis: In der Wissensgesellschaft befindet sich die Rolle des Planers zunehmend im Wandel und dieser nimmt eher die Rolle eines „Anwaltes in raumbezogenen Fragen“ der Bürger ein, berät diese, hilft bei der Formulierung deren Anliegen (beispielsweise auch durch die Zurverfügungstellung geeigneter Plattformen und Werkzeuge) und bringt deren Belange im Planungsprozess ein [STREICH 2014:167].
Die Auswirkungen auf das Selbstverständnis des Berufsbildes des Planers werden in einem abschließenden Fazit noch einmal aufgegriffen und zukünftige Themen im Ausblick und weiteren Forschungsbedarf thematisiert und skizziert.
Das Ziel der vorgelegten Dissertation bestand darin, eine eigenständige Methode zur Berechnung der Mößbauer Isomerieverschiebung δ und Quadrupolaufspaltung ∆EQ zu entwickeln und Rechenkonditionen zu formulieren, die eine optimale Übereinstimmung berechneter und gemessener Werte eben dieser Mößbauerparameter gewährleisten.
Die dafür eigenständig angefertigten Programme wurden innerhalb einer TURBO-MOLE Version implementiert, welche als Entwicklerversion in der Arbeitsgruppe von Prof. Dr. Christoph van Wüllen genutzt wird. Diese Programme ermöglichen die Anfertigung von quantenchemischen Rechnungen unter Berücksichtigung der Ausdehnung der Atomkerne, indem sie die Ladungsverteilung des Atomkerns über eine Gaußfunktion simulieren.
Auf Grundlage dieser expliziten Berücksichtigung der Kernladungsverteilung lässt sich ein Operator berechnen, der als Produkt mit der Elektronendichte am Atomkern die Berechnung der Isomerieverschiebung zulässt. Des Weiteren lässt sich der Elektrische Feldgradiententensor berechnen, welcher die räumliche Verteilung der Elektronendichte um ein Atom beschreibt und so zur Berechnung der Quadrupolaufspaltung dient.
Mit Hilfe dieser Programme wurden umfassende Rechnungen angefertigt, die sowohl den Einfluss der verwendeten Basis als auch des Funktionals auf die Güte der dichtefunktionaltheoretischen Rechnung ermitteln und bewerten können. Dazu wurde ein Katalog an Molekülen erstellt, der den gesamten möglichen Wertebereich experimenteller Daten abdeckt. Diese Moleküle wurden unter Verwendung einer Referenzbasis berechnet, die sämtliche theoretischen Anforderungen an eine zur optimalen Berechnung der Mößbauerparameter geeigneten Basis erfüllt. Die Ergebnisse dieser Rechnungen dienten als Referenzwerte, welche mittels linearer Regression mit den Ergebnissen verschiedener getesteter Basissätze verglichen wurden. Dieses Verfahren wurde durch den Abgleich der experimentellen Daten der zugehörigen Moleküle vervollständigt.
Das Ergebnis dieser Benchmarkingprozesse zeigt, dass die Beschreibung des Rumpfbereichs des Atoms maßgeblich die Güte der Ergebnisse beeinflusst. Basissätze mit voller Qualität in allen Orbitalen führen zu einer deutlich höheren Übereinstimmung der berechneten Daten mit sowohl den Referenz- als auch den experimentellen Daten. Sie sind solchen Basissätzen vorzuziehen, die nur die Va- lenzorbitale mit der vollen Qualität der Basis beschreiben.
Der Arbeitsbericht stellt die Untersuchung medienpädagogischer Kompetenzen in Kompetenzbeschreibungen der Erwachsenenbildung dar. Dazu werden Kompetenzmodelle, Kompetenzprofile und andere kompetenzorientierte Anforderungsbeschreibungen für Erwachsenenbildner*innen aus Deutschland, Europa, Großbritannien und den USA untersucht.
Medieneinsatz in der Hochschullehre. Akademische Lehr-Lernkonzepte zwischen Zumutung und Zu-Mutung.
(2017)
Das vorliegende systematische Review nimmt – ausgehend vom BMBF-geförderten Verbundforschungsprojekt „You(r) Study“ – Forschungsarbeiten zur Rolle digitaler Medien zur Gestaltung von Lehr-Lernarrangements durch Dozierende in den Blick. Ausgehend von konzeptionellen Beiträgen und empirischen Studien werden neben den Lehr-Lernzielen und den Funktionen, die Lehrende digitalen Medien beimessen auch die Rolle von digitalen Medien in verschiedenen Lehrformaten und Disziplinen in den Blick genommen. Aus diesem Vorgehen ergibt sich ein erstes Bild über die Ziele und Perspektiven der Gestaltung von Lehr-Lernarrangements mit und in Medien in der Hochschullehre.
Als Begleiterscheinungen des rasanten Wirtschaftswachstums und der nicht behutsamen Raumentwicklungen Südkoreas seit Beginn der 60er Jahre kristallisierten sich monotone Stadtstrukturen, regionaler Identitätsverlust und enorme ökologische Belastung als negative Erscheinungsformen der Raumordnung heraus. Erhebliche Umweltbelastungen, Veränderungen des Stadtbilds und die Flächeninanspruchnahme sind vor allem in der Hauptstadt Seoul signifikante Folgen der städtischen Ausdehnung und Verdichtung. Zur planmäßigen Steuerung von Schutz-, Pflege- und Entwicklungsmaßnahmen für die gesamte Umwelt wurde dort das Gesetz zur Landschaftsplanung im Jahr 2007 als Grundgesetz für systematische und wirksame Landschaftsplanung verabschiedet und die rechtskräftige Landschaftsplanung Seouls im Jahr 2009 aufgestellt. Im Vergleich dazu ist die Landschaftsplanung in Deutschland bereits seit 1976 in Form des Bundesnaturschutzgesetzes rechtlich verankert. Sie entwickelte sich zu einem verlässlichen Planungsinstrument des Naturschutzes und der Landschaftspflege und spielt eine wichtige Rolle in der Steuerung eines ausgewogenen städtischen Naturhaushaltes.
Die Zielsetzung dieser Arbeit ist es, die theoretischen Grundlagen und praktischen Anwendungsbeispiele der Landschaftsplanung im städtischen Raum zu untersuchen sowie zukünftige Entwicklungsstrategien der koreanischen Landschaftsplanung im Sinne eines zentralen und vorsorgenden Steuerungsinstruments des Urbanisierungsprozesses zu erarbeiten. Anhand der Beispiele Seoul und Berlin sollen wirksame Steuerungsprozesse und Erfolgsparameter der Landschaftsplanung herausgearbeitet und schlussendlich Verbesserungsvorschläge für die koreanische Landschaftsplanung aufgezeigt werden.
Um Analyse sowie Auswertung der Landschaftsplanung durchzuführen, erfolgt zuerst eine theoretische Untersuchung des Wandels im umweltpolitischen Aufgabenspektrum – es folgen die fachlichen Diskussionen und die Herausarbeitung der raum- und umweltbezogenen Planungsinstrumente.
In dieser Arbeit werden insbesondere die Auslegungen gesetzlicher Grundlagen der Landschaftsplanung und die räumlichen Entwicklungen mit Flächennutzung beider Städte betrachtet. Auf dieser Grundlage werden inhaltliche Struktur, Auswirkungen und praxisbezogene Umsetzungsbeispiele zusammengefasst, um anschließend die Merkmale städtischer Landschaftsplanung zu identifiziert.
Im Ergebnis werden die expliziten Unterschiede der beiden Landschaftsplanungen mit den theoretischen Grundlagen und praxisbezogenen Beispielen vergleichend widergespiegelt sowie die differenzierten Handlungsstrategien für die erfolgreiche Implementierung der koreanischen Landschaftsplanung im Sinne eines zentralen Steuerungsinstruments dargelegt.
In der vorliegenden Arbeit wird die Entwicklung und Beurteilung einer alternativen
kontinuierlichen Preform-Technologie zur Vorstabilisierung von trockenen Kohlenstofffaserhalbzeugen
unter Verwendung der Ultraschall-Schweiß-Technologie für
Kunststoffe präsentiert. Aktuell verwendete Technologien für Großbauteile in der
Luftfahrt sind in der Regel diskontinuierlich und wenig produktiv. Zudem weisen sie
Probleme hinsichtlich des gewünschten Kompaktierungsgrades und der Oberflächenqualität
auf. Diesen Nachteilen soll durch den Einsatz des kontinuierlichen
Ultraschall-Preformens begegnet werden.
Innerhalb der Ausarbeitung wurde eine neue Funktionseinheit, die für die Anforderungen
in einem kontinuierlichen Preform-Prozess geeignet ist, entwickelt und mit
passender Sensorik und Steuerung in einen Versuchsstand integriert. Durch statische
Versuche konnte das halbzeugabhängige Aufheizverhalten untersucht
werden. Es zeigte sich, dass der Erwärmungsprozess durch Reibung zwischen den
Filamenten bestimmt wird und somit einen homogenen Prozess unterstützt.
Untersuchungen der Parameter führten zu diskreten und materialabhängigen Prozessfenstern
und einem tieferen Verständnis für die Einflüsse des Schweiß-Prozesses
auf das Preform-Verhalten. Durch die Betrachtung von Prozessgrenzen
konnten unerwünschte Strukturdefekte ausgeschlossen und das Potenzial für die
Nutzung verschiedener Materialien sowie für den Einsatz an komplexeren Bauteilen
aufgezeigt werden. Weiterhin wurde durch Permeabilitätsuntersuchungen gezeigt,
dass es einen materialabhängigen Einfluss des Prozesses auf die Infusionierbarkeit
gibt, der sich sowohl als eine Verbesserung als auch eine als Verschlechterung
darstellen kann. Durch vibrationsinduzierte Verdichtungsprozesse konnten höhere
Faservolumengehalte bei einer gesteigerten Produktivität erzielt werden. Auch eine
partielle Verbesserung der mechanischen Eigenschaften ist durch die Anwendung
des Ultraschall-Prefom-Verfahrens möglich. Für die Herstellung komplexerer Strukturen
eignet sich das Verfahren ebenso, wie an einem Demonstrator gezeigt werden
konnte. Geometrische Restriktionen grenzen die Anwendbarkeit allerdings ein.
Durch die Entwicklung der Technologie konnte eine vielversprechende Alternative
dargelegt werden, die Kosten sparen und Bauteileigenschaften verbessern kann.
Ziel der Arbeit ist es, auf Basis einer Literaturrecherche mögliche Konsequenzen des Electronic Human Resource Management (E-HRM) in Organisationen darzulegen. Dazu wird zuerst die theoretische Basis geschaffen und die Begriffe HRM und E-HRM definiert. Zusätzlich werden andere synonym verwendete Begriffe (HRIS, web-based HRM, virtual HRM) abgegrenzt und darauf aufbauend ein 3-Stufen-Integrationsmodell des E-HRM entwickelt. Daneben werden vier konkrete Instrumente mit ihren wichtigsten Merkmalen kurz beleuchtet um später darauf aufbauend potentielle Konsequenzen begründen zu können. Die Analyse der Konsequenzen erfolgt schließlich nach der Kategorisierung von Strohmeier (2007) auf der organisationalen und der Individualebene. Die Ergebnisse auf der organisationalen Ebene zeigen dabei vor allem positive Einflüsse in den Bereichen Kosten, Effizienz und Serviceleistung. Auf der Individualebene ist primär mit Veränderungen im Arbeitsalltag, dem Übergang von Verantwortlichkeiten und Bedenken in Bezug auf den Datenschutz zu rechnen.
Ziel der Arbeit ist es, auf Basis einer Literaturrecherche mögliche Konsequenzen des Electronic Human Resource Management (E-HRM) in Organisationen darzulegen. Dazu wird zuerst die theoretische Basis geschaffen und die Begriffe HRM und E-HRM definiert. Zusätzlich werden andere synonym verwendete Begriffe (HRIS, web-based HRM, virtual HRM) abgegrenzt und darauf aufbauend ein 3-Stufen-Integrationsmodell des E-HRM entwickelt. Daneben werden vier konkrete Instrumente mit ihren wichtigsten Merkmalen kurz beleuchtet um später darauf aufbauend potentielle Konsequenzen begründen zu können. Die Analyse der Konsequenzen erfolgt schließlich nach der Kategorisierung von Strohmeier (2007) auf der organisationalen und der Individualebene. Die Ergebnisse auf der organisationalen Ebene zeigen dabei vor allem positive Einflüsse in den Bereichen Kosten, Effizienz und Serviceleistung. Auf der Individualebene ist primär mit Veränderungen im Arbeitsalltag, dem Übergang von Verantwortlichkeiten und Bedenken in Bezug auf den Datenschutz zu rechnen.
Am 30.11.2017 veranstalteten das Fachgebiet Siedlungswasserwirtschaft und tectraa, Zentrum für innovative AbWassertechnologien an der Technischen Universität Kaiserslautern die Fachtagung „Kläranlagen in der Energiewende: Faulung optimieren & Flexibilität wagen“ als gemeinsame Abschlussveranstaltung der Forschungsprojekte arrivee und ZEBRAS.
Das BMBF-Verbundprojekt „Abwasserreinigungsanlagen als Regelbaustein in intelligenten Verteilnetzen mit erneuerbarer Energieerzeugung – arrivee“ wurde vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme ERWAS gefördert. Projektpartner waren neben dem FG Siedlungswasserwirtschaft die Wupperverbandsgesellschaft für integrale Wasserwirtschaft mbH (WiW), der Wupperverband, Becker Büttner Held (BBH), die Bergische Universität Wuppertal, die iGas energy GmbH, die Stadtwerke Radevormwald GmbH sowie die Transferstelle Bingen (TSB).
Das Projekt „Zukunftsorientierte Einbindung der Faulung und Faulgasverwertung in die Verfahrenskette der Abwasserreinigung, Schlammbehandlung und -verwertung in Rheinland-Pfalz – ZEBRAS“ wurde im Auftrag des Ministeriums für Umwelt, Energie, Ernährung und Forsten Rheinland-Pfalz (MUEEF) von FG Siedlungswasserwirtschaft und tectraa gemeinsam mit der Universität Luxemburg und der Ingenieurgesellschaft Dr. Siekmann + Partner mbH bearbeitet.
Keilzinkenverbindungen als Fügetechnik für dünne Bauteile aus mikrobewehrtem Hochleistungsbeton
(2017)
Auf Grundlage von in erster Linie experimentellen Untersuchungen wurden im Rahmen
der Arbeit Keilzinkenverbindungen zum Fügen dünner Bauteile aus mikrobewehrtem
Hochleistungsbeton erforscht. Als Klebstoff kam hierbei ein rein zementgebundener
Hochleistungsmörtel zum Einsatz.
Die Entwicklung von Hochleistungsbetonen und neuartigen Bewehrungsformen, wie
Glas- oder Kohlefasergelegen, ermöglicht die Realisierung von sehr filigranen Konstruktionen.
Aus verschiedenen Gründen, beschränkt sich die Anwendung fast ausschließlich
auf werksmäßig hergestellte Fertigteile. Um daraus größere Strukturen
realisieren zu können, sind geeignete Fügetechniken erforderlich. Einen vielversprechenden
Ansatz stellen hier Klebverbindungen dar. Das Kleben als flächige Fügetechnik
zeichnet sich durch eine kontinuierliche Kraftübertragung und gleichmäßige
Materialauslastung aus.
Der große Vorteil von Zement-Klebstoffen im Vergleich zu Reaktionsharzklebstoffen
ist, dass sie weitestgehend unempfindlich gegenüber Umwelteinflüssen sind. Neben
zwei Hochleistungsmörteln, welche auf einer von Mühlbauer 2012 entwickelten Rezeptur
basieren, wurde ein kommerzieller Hochleistungsmörtel eingesetzt.
In einem ersten Schritt wurden verschiedene Voruntersuchungen durchgeführt. Im
Mittelpunkt standen dabei Tastversuche mit unterschiedlichen Fugenvarianten. Das
Versuchsprogramm sah verschiedene Fugengeometrien und Beanspruchungsarten
vor. Neben Mikrobewehrung kam hierbei auch Stabstahlbewehrung zum Einsatz. Als
besonders vorteilhaft hat sich die Keilgeometrie oder Keilzinkenverbindung, wie aus
dem Holzbau bekannt, herauskristallisiert. Neben einer hohen Traglast weist diese
weitere positive Eigenschaften auf, wie z.B. ein duktiles Tragverhalten.
Auf Grundlage von Kleinteilversuchen wurden in einem nächsten Schritt Bruchkriterien
entwickelt, die die Festigkeit der Klebfuge sowohl für eine kombinierte Schub-
Druck- als auch für eine Schub-Zugbeanspruchung beschreiben.
In einer umfangreichen Versuchsserie wurde schließlich das Tragverhalten von Keilzinkenverbindungen
detailliert untersucht. Neben Zugversuchen wurden dabei auch
Drei- und Vierpunktbiegeversuche durchgeführt. Das Versagen lässt sich vereinfachend
in ein Fugenversagen und ein Bewehrungsversagen unterteilen. Ziel einer
fachgerechten Konstruktion und Ausführung von Keilzinkenverbindungen muss ein
Bewehrungsversagen und damit ein duktiles Tragverhalten sein. Einflussfaktoren auf
das Tragverhalten sind der Flankenneigungswinkel, die Zahnlänge, der Bewehrungsgrad
des Bauteils sowie die Art der Klebflächenvorbereitung und der verwendete
Klebstoff.
Basierend auf den gewonnen Erkenntnissen wurde in einem letzten Schritt ein praxisgerechtes
Bemessungskonzept für zugbeanspruchte, biegebeanspruchte sowie
biege-querkraftbeanspruchte Keilzinkenverbindungen entwickelt.
Gemäß der Ausrichtung des Programms „Aufstieg durch Bildung: offene Hochschulen“ richtet sich das Teilprojekt an beruflich qualifizierte Pflegefachpersonen und entwickelt für diese
sogenannte „nicht-traditionelle“ Zielgruppe ein hochschulisches Weiterbildungsangebot zu erweiterter Pflegepraxis.
Einer der ersten Schritte zur Entwicklung des Bildungsangebotes war die Bestimmung der Ausgangssituation. Im Rahmen einer Ist-Standerhebung wurden neben einer ausgedehnten Literaturrecherche Informationen zum Aus- und Weiterbildungsangebot im Bereich Pflege und Gesundheit gesammelt und eine Analyse zum Fachkräftebedarf durchgeführt.
Die langfristige Integration der rund 1,2 Millionen Asylsuchenden, die laut BAMF 2015 und 2016 nach Deutschland kamen, stellt große Herausforderungen an die aufnehmende deutsche Gesellschaft. Während sich staatliche Organe gerade in der Ankunftsphase überfordert zeigten, hat die Zivilgesellschaft mit großem Engagement die Aufnahme der Geflüchteten ermöglicht und führt dies in zahllosen Integrationsprojekten fort. Dabei leistet sie einen großen Beitrag zu einer nachhaltigen Entwicklung, über den bisher noch wenig debattiert wurde – nämlich zur sozialen Nachhaltigkeit.
Dafür werden zunächst die wesentlichen Problemstellungen der Flüchtlingsintegration und der Stellenwert des zivilgesellschaftlichen Engagements dargestellt (1). Darauf folgt eine theoretische Begründung von Integration im Kontext sozial nachhaltiger Entwicklung (2). Kapitel (3) zeigt auf, wie speziell neue Formen des zivilgesellschaftlichen Engagements, die Aspekte sozialer Nachhaltigkeit beinhalten, zur Integration von Geflüchteten beitragen können. Abschließend werden konkrete ehrenamtliche Einsatzfelder für Geflüchtete in den Blick genommen, ausführlicher das Nürnberger Befragungsprojekt „Nicht mit leeren Händen“(4). Das abschließende Kapitel versucht zu systematisieren, inwiefern ehrenamtliche Projekte zu nachhaltiger Integration beitragen und welche Rolle der kommunalen Politik dabei zukommt (5). Ein Ausblick (6) zeigt Perspektiven für eine nachhaltige Integration auf.
Infobrief FBK 53/17
(2017)
Infobrief FBK 52/17
(2017)