Refine
Year of publication
- 1999 (525)
- 2021 (330)
- 2020 (277)
- 2022 (270)
- 2023 (259)
- 2019 (186)
- 2018 (178)
- 2016 (157)
- 2000 (152)
- 1998 (147)
- 2014 (146)
- 2015 (146)
- 2007 (145)
- 2006 (139)
- 2017 (139)
- 2009 (135)
- 2003 (128)
- 2005 (126)
- 2001 (121)
- 2004 (121)
- 2010 (117)
- 1996 (113)
- 2011 (111)
- 2002 (110)
- 2008 (110)
- 2012 (110)
- 1995 (103)
- 2013 (99)
- 1997 (97)
- 1994 (91)
- 2024 (75)
- 1992 (55)
- 1993 (51)
- 1991 (39)
- 1990 (11)
- 1985 (9)
- 1984 (7)
- 1986 (6)
- 1987 (6)
- 1989 (6)
- 1988 (5)
- 1979 (4)
- 1983 (2)
- 1980 (1)
- 1981 (1)
Document Type
- Doctoral Thesis (1877)
- Preprint (1185)
- Article (726)
- Report (486)
- Periodical Part (296)
- Master's Thesis (255)
- Working Paper (115)
- Conference Proceeding (47)
- Diploma Thesis (35)
- Lecture (25)
Language
- English (3163)
- German (1993)
- Multiple languages (6)
- Spanish (4)
Keywords
- AG-RESY (64)
- PARO (31)
- Stadtplanung (30)
- Erwachsenenbildung (29)
- Organisationsentwicklung (28)
- Schule (26)
- Simulation (25)
- Modellierung (24)
- Mathematische Modellierung (21)
- Visualisierung (21)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (1184)
- Kaiserslautern - Fachbereich Informatik (928)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (585)
- Kaiserslautern - Fachbereich Chemie (431)
- Kaiserslautern - Fachbereich Sozialwissenschaften (351)
- Kaiserslautern - Fachbereich Physik (330)
- Fraunhofer (ITWM) (224)
- Kaiserslautern - Fachbereich Biologie (187)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (171)
- Distance and Independent Studies Center (DISC) (168)
Die vorliegende Masterarbeit belegt, dass ein Innovationsvorhaben mittels „Bottom-up“-Management
zur Entwicklung einer gesamten Organisation führen kann. Dies wird exemplarisch an
der Curriculumentwicklung an einer Pflegeschule in Baden-Württemberg dargestellt. Hierfür
werden zunächst die Besonderheiten des „Bottom-up“-Managements herausgearbeitet und
anschließend unter Einbeziehung aller Rahmenbedingungen ein eigenes Handlungskonzept
für das Projektvorhaben erstellt. Das „Drei-Wege-Modell der Schulentwicklung“ von Rolff, welches
sich mit dem Zusammenhang zwischen der Unterrichtsentwicklung, der Personalentwicklung
und der Organisationsentwicklung befasst (vgl. Rolff 2016, S. 20), stellt in dieser
Arbeit neben der Qualitätssicherung einen wichtigen Orientierungsrahmen dar. Es wird zudem
gezeigt, dass sowohl das Führungsverhalten der Schulleitung als auch die Möglichkeit
zur partizipativen Mitarbeit aller Teilnehmenden der Schlüssel für das Gelingen des Innovationsvorhabens
ist. Damit die Ergebnisse dieser Arbeit auch gewinnbringend für andere Projektvorhaben
und Organisationen genutzt werden können, werden sie abschließend auf ihre
Übertragbarkeit hin geprüft. So können Teilaspekte diese Masterarbeit auch bei der Weiterentwicklung
weiterer Pflegeschulen oder anderer Organisationen eine Hilfe sein.
In Deutschland haben die Familienunternehmen eine lange Tradition. Einige weltberühmte deutsche Unternehmen, wie die Volkswagen AG, BMW Group oder Robert Bosch GmbH, werden von der Gründerfamilie oder deren Nachfolger geführt. Neben Familienunternehmen dieser Größenklasse werden auch viele andere mittelständige, familiengeführte Unternehmen in Deutschland jährlich an die nächste Generation weitergegeben oder vererbt. Ganz gleich ob bereits eine gezielte Nachfolgeplanung vorliegt oder ein plötzlicher Generationswechsel geschieht, soll das Firmenvermögen in aller Regel bei der Familie verbleiben.
Das Nachfolgemanagement gestaltet sich dabei oft schwierig, denn bei dem Thema Nachfolgeplanung müssen nicht nur die strategischen Ziele und die möglichen Akteure der Unternehmensfortführung gefunden werden, sondern es soll ebenfalls die Harmonie der Familie erhalten bleiben. In einigen Fällen ist kein Familienmitglied bereit dazu oder geeignet, das Unternehmen weiterzuführen. In solchen Fällen gibt es die Möglichkeit, die Fortführung in die Hände eines erfahrenen Managers zu legen. Für die Dauer der Fortführung wird i.d.R. eine Beteiligung am Firmenvermögen angeboten, um dem Manager eine intrinsische Motivation an der erfolgreichen Weiterführung des Familienunternehmens und an der Steigerung des Firmenvermögens, mithin auch seiner eigenen Beteiligung, zu geben.
Durch die Übertragung von Gesellschaftsanteilen wird der externe Manager Teil eines familiengeprägten Gesellschafterkreises. Es stellt sich die Frage, wie diese Übertragung so gestaltet werden kann, dass die Familie weiterhin die Kontrolle über die Anteile behält und nicht umgangen werden kann. Darüber hinaus stellt sich die Frage, wie weit solche Kontrollmaßnahmen ihre Reichweite erstrecken und wie sich die Auslegung solcher Klauseln ändern kann, wenn die Gesellschafter nicht mehr nur aus der Familie als homogene Einheit stammen und persönlich in der Gesellschaft nicht mehr mitarbeiten.
Bei der Entscheidung darüber, ob ein Kurzzitat ein Werk im Sinne des § 2 UrhG darstellt und damit urheberrechtlichen Schutz genießt, ziehen Gerichte oftmals ältere Entscheidungen heran. Die bereits in der Literatur aufgeworfene Frage, ob 30 oder gar 80 Jahre alte Urteile heute überhaupt noch – oder möglicherweise gerade heute wieder – herangezogen werden können und ob bei Kurzzitaten urheberrechtlicher Schutz nach der früheren Rechtslage schneller angenommen werden konnte als nach aktueller Rechtslage und insofern „früher tatsächlich mehr Lametta war“, wird im Rahmen dieser Masterarbeit aufgegriffen werden. Ebenso wird die Frage aufgeworfen, unter welchen Voraussetzungen Kurzzitate am Beispiel des Kurzzitates „Früher war mehr Lametta“ unter Berücksichtigung der Entwicklungen in der Rechtsprechung und der Literatur urheberrechtlich überhaupt schutzfähig sein können und wie sich dies, erläutert für verschiedene Erscheinungsformen, zukünftig in der Praxis auswirkt. Daneben wird aufgezeigt, wie die EU-Rechtsprechung Einfluss auf die deutsche Rechtsprechung genommen hat und welche Auswirkungen bezüglich der Schutzuntergrenze dies derzeit hat und zukünftig haben könnte. Auch, inwieweit Freihaltebedürfnisse in Deutschland und in Europa hierbei eine Rolle spielen, wird im Rahmen der Arbeit untersucht.
Das Kyoto-Protokoll, welches die letzten anderthalb Dekaden für Industrieländer erstmalig völkerrechtlich bindende Emissionsreduktionsziele für Treibhausgase festschrieb, läuft in diesem Jahr aus. Die im internationalen Abkommen entwickelten Klimaschutzin-strumente in Form eines Handels mit Emissionszertifikaten, sowie in Form von Emissi-onsreduktionen mittels Klimaschutzprojekten in Drittländern (Joint Implementation und Clean Development Mechanismus), konnten in der Vergangenheit nicht zum angestrebten Rückgang des weltweiten Treibhausgasausstoßes führen.
Das 2015 beschlossene Klimaabkommen von Paris soll die Regelungen des Kyoto-Protokolls nun ablösen und neue ambitionierte Standards im Klimaschutz setzen, um die Klimaerwärmung langfristig auf maximal 2 °C gegenüber des vorindustriellen Ni-veaus zu beschränken. Die grundlegend veränderten Rahmenbedingungen des Pariser Vertrags, sowie die Erfahrungen mit bisherigen flexiblen Instrumenten der Klimarah-menkonvention der Vereinten Nationen, erschweren aufgrund der hohen Komplexität und teils divergierender Interessenlagen der beteiligten Akteure seit 2015 sowohl die Entwicklung als auch die internationale Einigung auf einen neuen Marktmechanismus.
Die vorliegende Arbeit untersucht auf verschiedenen Ebenen, welche Vor- und Nachteile sich aus dem CDM ergeben haben und wie diese in die Ausgestaltung von Artikel 6 des Pariser Klimaschutzabkommens miteinfließen können. Dabei werden auch die Themen Klimakompensation und Klimaneutralität behandelt, welche zuletzt einen enormen Bedeutungszuwachs verzeichnen konnten und im Privatsektor inzwischen ein eminentes Nachfragepotential bergen. Im Zusammenhang mit den Attraktivitätsfaktoren einer Investition in Projekte, die nachhaltige Entwicklung fördern, werden hierzu auch die möglichen Hintergründe des verstärkten Engagements seitens der Unternehmen diskutiert.
Das theoretische Konzept der Arbeit basiert auf dem Free Rider Problem und den öko-logischen Managementregeln. Der Fokus liegt auf ökologischen Aspekten der Nachhaltigkeit, wobei ebenso ökonomische Komponenten ausschlaggebend sind.
Als ergänzendes Klimaschutzinstrument wird der Handel mit Emissionszertifikaten aufgegriffen, da er in der EU bereits etabliert ist.
Eine der größten Herausforderungen scheint es, wirtschaftliches Wachstum und Klimaschutz zu vereinen und Entwicklungsländern den Weg für eine Industrialisierung bzw. anziehende wirtschaftliche Entwicklung zu ebnen, welche keine nachholenden Ansprüche auf Emissionen stellt, sondern sich innovativ und inklusiv gestaltet. Für die Überwindung dieser derzeit bestehenden Kontroverse, die in engem Zu-sammenhang mit der Diskussion um einen neuen umfassenden Klimaschutzmechanismus steht, werden schließlich Empfehlungen ausgesprochen und ein abschließender Ausblick – auch unter Berücksichtigung der aktuellen Klimaschutzentwicklungen in Fol-ge der weltweiten COVID-19-Pandemie gewährt.
Gabriel Szulanski brachte im Jahr 1996 den Begriff „Sticky Knowledge“ in die Diskussion zum Wissenstransfer ein. Je ‚klebriger‘ Wissen ist, umso schwerer lässt es sich von einem Individuum zum anderen weitergeben. Dennoch erfährt die Wissens-Kommunikation sowohl in der Wissenschaft als auch in der Praxis zu geringe Aufmerksamkeit.
Oftmals wird sich auf die Wissensgewinnung und Akkumulation von Wissen fokussiert, ja sogar fixiert. Natürlich sind Gewinnung und Vermehrung von Wissen essenzielle Voraussetzungen, nur könnten diese fast bedeutungslos werden, wenn Wissen nicht in einen reibungslosen, und adressatenorientierten Fluss kommt. Ein herausforderndes, und am meisten unterschätztes Problem im Wissensmanagement ist, das Wissen an die Stellen zu bringen, wo es aktuell gebraucht wird (vgl. Probst et al., 2006).
Die Arbeit durchleuchtet ein bisher wenig erforschtes Teilgebiet des Wissensmanagements. Ursachen und (Aus)Wirkungen des Sticky Knowledge werden fundiert in ihrer jeweiligen Vielfältigkeit betrachtet. In Form von konkreten Handlungsempfehlungen für Organisationen und Individuen wird die Verbindung zwischen Theorie(n) und Praxis hergestellt. Zudem wird eine Begriffs-Definition des Sticky Knowledge hergeleitet.
#Sport #Gesundheit #Digital
(2021)
In ihrem 50. Jubiläumsjahr lud die Technische Universität Kaiserslautern am 26. und 27. November 2020 zu einem Höhepunkt ein: dem Kongress #Sport #Gesundheit #Digital. Für zwei Tage wurden im Rahmen eines Online-Forums gemeinsam die Themenfelder Sport, Gesundheit und Digitalisierung diskutiert. Wir freuen uns sehr, dass die Techniker Krankenkasse die TUK als Ausrichter der Veranstaltung besonders unterstützt hat. #SGD – Der Kongress setzte an der Schnittstelle von Sport, Gesundheit und Digitalisierung an und beleuchtete Chancen und Möglichkeiten, die durch das Zusammenspiel dieser Disziplinen entstehen können. Gleichzeitig wurden Risiken und Herausforderungen der digitalen Entwicklungen in Sport und Gesundheit betrachtet und perspektivisch mit Blick in die Zukunft analysiert. Hochkarätige Beiträge aus Wissenschaft und Praxis aus allen für das Themenspektrum relevanten Fachrichtungen sorgten für ein hohes Maß an Abwechslung und Transfer. Der Kongress richtete sich dabei nicht nur an Personen aus Wissenschaft und Praxis der Bereiche Gesundheitswesen und -management, Medizin und Psychologie. Ebenso angesprochen wurden Übungsleitende und Angehörige aus Hochschulsport und Sportwissenschaft, Studierende und Mitarbeitende aller bezogenen Fachrichtungen sowie alle allgemein interessierten Personen. Der vorliegende Kongressband stellt die Sammlung der Kongressinhalte dar. Neben den schriftlichen Beiträgen lassen sich hier auch Impressionen der Kongresstage und die Vorträge als interaktiv eingebundene Videos finden.
Der Sammelband „(Selbst-)Lernkompetenzen Studierender stärken: Unterstützungsangebote – Beratung – Lernräume“ enthält Beiträge von Akteur:innen an deutschen und österreichischen Hochschulen, die auf der Online-Fachtagung „(Selbst-)Lernunterstützung an Hochschulen – wieso noch mal?“ im Oktober 2020 an der Technischen Universität Kaiserslautern (seit 1.1.2023 Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau) vorgestellt und diskutiert wurden. Ausgerichtet wurde die Tagung vom Projekt „Selbstlernförderung als Grundlage“ (Website: https://www.uni-kl.de/slzprojekt/).
Der Sammelband enthält 26 Beiträge und 18 Poster zu diesen thematischen Schwerpunkten:
I. Übergreifende Überlegungen zur zukunftsfähigen Hochschule
II. (Selbst-)Lernräume – physisch und virtuell
III. Angebote zur Unterstützung von (Selbst-)Lernkompetenzen – fachbezogen oder fächerübergreifend
IV. Beratung – individuell und institutionell.
Didaktische Formate und Unterstützungsstrukturen an deutschen Hochschulen haben sich in den letzten zwei Jahrzehnten vor dem Hintergrund veränderter gesellschaftlicher Bedarfe, neuer Zielgruppen, didaktischer Impulse und politischer Rahmenbedingungen gewandelt. Auf der Fachtagung ebenso wie im vorliegenden Sammelband präsentieren Vertreter:innen unterschiedlicher Hochschulstandorte ihre theoretischen, empirischen und praktischen Erkenntnisse im Hinblick auf Angebotsgestaltung, Wirksamkeit und Akzeptanz von Maßnahmen zur Stärkung der (Selbst-)Lernkompetenzen Studierender.
Die Beiträge geben einen Einblick in die Konzeption und Durchführung von überfachlichen Unterstützungs- und Beratungsangeboten und in die Gestaltung physischer und virtueller Lernräume für Studierende. So werden vielfältige Good Practices vorgestellt, kritisch diskutiert und hinsichtlich der Tragfähigkeit für die Hochschule der Zukunft reflektiert. Hierbei fließen insbesondere die Erfahrungen ein, die im Zuge der Covid-19-Pandemie und der (zeitweisen) Umstellung in den Online- und -Hybrid-Modus an den Hochschulen gemacht wurden. In ihre Ausarbeitung der Beiträge für den vorliegenden Sammelband haben die Autor:innen die neueren Erfahrungswerte aus dem Zeitraum Sommersemester 2020 bis Wintersemester 2021/22 eingearbeitet. Das Zukunftspotenzial der Angebote für Studierende in der Zeit während der Pandemie und in der Zeit des Pandemie-Nachklangs im „New Normal“-Betrieb wird somit kritisch beleuchtet. Dies wird gerahmt durch übergreifende, pädagogische und hochschulstrategische Betrachtungen zum Thema „zukunftsfähige Hochschule“.
Der Sammelband wird herausgegeben von Monika Haberer (Geschäftsführerin des Zentrums für Innovation und Digitalisierung in Studium und Lehre, ZIDiS), Dr. Dorit Günther und Janina Köhler (wissenschaftliche Mitarbeiterinnen des ZIDiS). Website: zidis.rptu.de/
Wissenschaftliche Evidenz zum Thema "(Un-)Wirksamkeit von Strafe" wird in der Öffentlichkeit kontrovers diskutiert. In der vorliegenden Arbeit wird vermutet, dass es bei der Rezeption zu motivierten Verzerrungen, genauer gesagt, zu einer Bedrohung der moralischen Wertvorstellungen kommt, infolgedessen wissenschaftliche Erkenntnisse diskreditiert und abgelehnt werden. Hierfür wurde zunächst die moralische Begründung von persönlichen Strafeinstellungen systematisch untersucht. Dabei zeigte sich, dass eine deliktspezifische (nach Kriminalitätsbereichen aufgeteilte) Betrachtung erforderlich ist. Regressionsanalysen konnten die qualitativen Unterschiede hinsichtlich der zugrundeliegenden Wertvorstellungen belegen. Die Art und Weise der Operationalisierung erwies sich hierbei als entscheidend für den "moralischen Gehalt" der individuellen Strafeinstellung.
Eine Bedrohung moralischer Wertvorstellungen durch einen wissenschaftlichen Artikel, der sich gegen die Wirksamkeit von harten Strafen (deliktspezifisch) ausspricht, konnte nicht nachgewiesen werden. Weitere Moderationsanalysen offenbarten jedoch unabhängig von den persönlichen Wertvorstellungen eine motivierte Verzerrung bei der Rezeption des Artikels: TeilnehmerInnen, die an die Wirksamkeit von Strafe glaubten, bewerteten einen Artikel, der dies widerlegte, schlechter als diejenigen, die einen Artikel lasen, der dies bestätigte. Diese Verzerrungen liegen jedoch nicht in einer moralischen Bedrohung begründet, sondern lassen sich vielmehr als Strategie zur Auflösung von Dissonanz bei Konfrontation mit einstellungsinkonsistenten Inhalten verstehen. Kern des Problems sind offenbar nicht die untersuchten persönlichen Wertvorstellungen und deren Bedrohung, sondern das hohe Ausmaß der Diskrepanz zwischen öffentlicher und wissenschaftlicher Meinung. Diese Erkenntnis ist insofern von Bedeutung, als dass sie ein Bewusstsein für die Gefahren (z.B. eines Bumerang-Effekts) bei der Kommunikation der Inhalte schafft.
Insgesamt betrachtet tragen die Ergebnisse zu einem tieferen Verständnis persönlicher Strafeinstellungen bei und liefern Ansatzpunkte für die Entwicklung von Strategien zur überzeugenden Kommunikation kriminologischer Erkenntnisse bezüglich der Sinnhaftigkeit von Strafe.
III/V semiconductor quantum dots (QD) are in the focus of optoelectronics research for about 25 years now. Most of the work
has been done on InAs QD on GaAs substrate. But, e.g., Ga(As)Sb (antimonide) QD on GaAs substrate/buffer have also gained
attention for the last 12 years.There is a scientific dispute on whether there is a wetting layer before antimonide QD formation, as
commonly expected for Stransky-Krastanov growth, or not. Usually ex situ photoluminescence (PL) and atomic force microscope
(AFM) measurements are performed to resolve similar issues. In this contribution, we show that reflectance anisotropy/difference
spectroscopy (RAS/RDS) can be used for the same purpose as an in situ, real-time monitoring technique. It can be employed not
only to identify QD growth via a distinct RAS spectrum, but also to get information on the existence of a wetting layer and its
thickness. The data suggest that for antimonide QD growth the wetting layer has a thickness of 1 ML (one monolayer) only.
Riesling wird neben seiner mannigfaltigen Variabilität im Aromaprofil, das unter anderem durch die unterschiedliche Bodenbeschaffenheit entsteht, vor allem in Deutschland auch wegen seiner Kältetoleranz und Anpassungsfähigkeit geschätzt. Er gilt zudem auch als alterungsfähiger Wein, allerdings kommt es bei zu starker Sonnenexposition der Rebe und langer bzw. warmer Lagerung vermehrt zur Bildung von 1,1,6-Trimethyl-1,2-dihydronaphthalin (TDN). Dieser von Carotinoiden abstammende Aromastoff verursacht die sogenannte „Petrolnote“, die vor allem in wärmeren Anbauregionen zum sortentypischen Bukett des Rieslings gehört. Deutsche Rieslingweine zeichnen sich dagegen überwiegend durch einen säurebetonten, fruchtigen Charakter aus, bei dem das Auftreten einer Petrolnote vor allem im Fall von Jungweinen als unpassende Fehlnote empfunden wird.
Das Ziel der vorliegenden Arbeit war deswegen, die sensorische Relevanz von TDN zu evaluieren und Maßnahmen zu realisieren, die geeignet sind, die Konzentrationen an freiem und gebundenem TDN zu verringern und dadurch das Auftreten der Petrolnote zu vermeiden.
Dafür wurde zunächst in Kapitel 6.1 die Empfindlichkeit von Verbrauchern und geschulten Prüfern gegenüber TDN sowie die Konzentration bestimmt, ab der die Petrolnote zu einer Ablehnung des Weins durch Verbraucher führt. Während geschulte Prüfer Rieslingweine bereits ab einem TDN-Gehalt von 2,3 µg/L unterscheiden konnten, lag die Wahrnehmungsschwelle von 156 Verbrauchern mit 14,7 µg/L um ein Mehrfaches darüber, und wurde außerdem durch das Geschlecht der Probanden beeinflusst. Die Petrolnote führte ab TDN-Gehalten von 60 µg/L bei einjährigem und 91 µg/L bei achtjährigem Riesling zur Ablehnung des Weins. Die Konzentration an freiem TDN in 261 Rieslingweinen aus drei verschiedenen Weinwettbewerben überstieg bei rund der Hälfte der Weine die Wahrnehmungsschwelle von geschulten Prüfern, während die Wahrnehmungsschwelle von Verbrauchern nur von 15% der Weine überschritten wurde. Gleichzeitig lag bei keinem der Weine der TDN-Gehalt über der Ablehnungsschwelle.
Durch die Evaluierung der instrumentellen Analyseparameter in Kapitel 6.2 wurde für die Untersuchung von freiem TDN und weiteren Aromastoffen eine Methode entwickelt, die es ermöglicht, nicht nur die TDN-Konzentrationen zu erfassen, sondern auch eine umfassende Qualitätsbewertung der Versuchsweine durchzuführen. Parallel dazu wurde eine Schnellmethode zur Erfassung der Gehalte an gebundenem TDN und Vitispiran implementiert, um auch die Effektivität der in dieser Arbeit durchgeführten weinbaulichen und oenologischen Praktiken im Hinblick auf das TDN-Potential zu beurteilen.
Kapitel 6.3 und 6.4 beschreiben weinbauliche Maßnahmen, die in mehrjährigen Studien auf ihre Eignung zur Reduzierung der TDN-Konzentration untersucht wurden. Während bei den Weinen, die aus Beeren unterschiedlicher Größe hergestellt wurden, keine signifikanten Unterschiede über die Jahrgänge hinweg beobachtet wurden, konnte durch die Variation der Rebunterlagen der Gehalt an gebundenem TDN um rund 30% reduziert werden. Ausgangspunkt einer weiteren Versuchsreihe waren acht verschiedene Rieslingklone auf derselben Unterlage, welche anschließend auf ihren TDN Gehalt untersucht wurden. Dabei wurden deutliche Differenzen in der Disposition einiger Klone zu höheren Gehalten an gebundenem TDN festgestellt. Hier ergab sich eine positive Korrelation zwischen der Lockerbeerigkeit der Trauben und der Menge an gebundenem TDN in den produzierten Weinen – je kompakter die Traube, desto weniger gebundenes TDN und gebundenes Vitispiran wurde gebildet. Die höhere Sonnenexposition der Beeren, die diesen Effekt hervorruft, beeinflusste auch die Gehalte an gebundenem TDN und Vitispiran in Weinen, die von Reben geerntet wurden, welche zu unterschiedlichen Zeitpunkten und in variierender Intensität entblättert wurden. Dabei führt sowohl eine maximale Entblätterung in der Traubenzone wie auch die Laubentfernung einen Monat nach der Blüte zu einer Erhöhung der Konzentration an gebundenem TDN und Vitispiran von rund 50%. Entblätterungsmaßnahmen zur Blüte oder zur Véraison, die der Regulierung der Erntemenge und der Traubengesundheit dienen, führten dagegen zu keinem Anstieg im Vergleich zur nicht-entblätterten Kontrolle.
Wie in Kapitel 6.5 ausgeführt wird, resultiert ein hoher Pressdruck beim Keltern sowie ein niedriger Stickstoffgehalt des Mosts in einer Zunahme des gebundenen TDN von 50 100%. Höhere Säuregehalte während der Lagerung verursachten in mehreren Versuchsreihen nicht nur eine höhere Freisetzungsrate von TDN, sondern auch einen verstärkten Abbau anderer Aromastoffe wie Ester, β-Damascenon oder Linalool. Dagegen hatte ein niedriger pH-Wert während der Gärung kaum Einfluss auf den Hefemetabolismus und die dadurch gebildeten Aromastoffe. Die Erhöhung der Gärtemperatur von 12 auf 24 °C hatte jedoch eine Zunahme von honig- oder petrolartigen Noten in den Rieslingweinen zur Folge. Die Verwendung unterschiedlicher Hefestämme führte zu einer Variation der Konzentrationen an gebundenem TDN zwischen 70 und 147 µg/L, abhängig vom Hefestamm und dem Jahrgang. Zwei der untersuchten neun Hefen brachten Weine mit bis zu 40% geringeren Gehalten an gebundenem TDN in Mosten mit hohem Stickstoffgehalt hervor, während drei weitere Hefen besser für den Einsatz in nährstoffarmen Most geeignet waren. Bei der Lagerung der Weine spielte die Lagertemperatur eine entscheidende Rolle in Bezug auf den Gehalt an freiem TDN, gefolgt vom Material des Flaschenverschlusses und der Flaschenorientierung.
Mittels geeigneter Filtermaterialien, die in Kapitel 7 beschrieben sind, wurde der Gehalt an freiem Wein um bis zu 80% reduziert, ohne die meisten der anderen Aromastoffe signifikant zu beeinflussen.
Somit wurde durch diese Arbeit ein vielfältiger Maßnahmenkatalog für die Weinwirtschaft entwickelt, der geeignet ist, den Anforderungen des fortschreitenden Klimawandels entgegenzutreten und die herausragende Position des Rieslings in Deutschland zu sichern.
Der direkte Einstieg in die Phosphorchemie ist durch Reaktion einer Rohlösung von [Cp=Ru(CO)2H] (1) (Cp= = C5H3(SiMe3)2) mit P4 möglich. Dabei erhält man den Komplex [Cp=Ru(CO)2PH2] (6a) mit freier Phosphanidogruppe, der selbst nicht isoliert, dessen Existenz jedoch spektroskopisch und durch Folgereaktionen eindeutig belegt werden kann. Das freie Elektronenpaar des Phosphors kann sowohl durch [M(CO)5(thf)] (M = Cr, Mo, W) (7,8,9) als auch durch [Cp*Re(CO)2(thf)] (14) nach Verlust von deren thf-Liganden komplexiert werden. Das bei der Reaktion mit 14 als Nebenprodukt entstandene [{Cp*(OC)2Re}2(µ-CO)] (17) konnte erstmals röntgenstrukturanalytisch untersucht werden. Die Cothermolyse von [{Cp=Ru(CO)2}2] (4) mit P4 liefert [Cp=Ru(Eta5-P5)] (18) und [{Cp=Ru}2(µ-Eta;2:2-P2)2] (19), die beide röntgenstrukturanalytisch charakterisiert werden konnten. 18 erweist sich als erstes Pentaphosphametallocen, das eine annähernd ideal ekliptische Konformation aufweist. Im Zweikernkomplex 19 konnte ein Komplex der 8. Gruppe mit zwei separaten P2-Brückenliganden eindeutig belegt werden. Die Cothermolyse von 4 mit [Cp*Fe(Eta5-P5)] liefert neben 18 und 19 die Homo- und Heterotrimetallcluster [{Cp=Ru}n{Cp*Fe}3-nP5] (n = 1, 2, 3) mit verzerrt dreiecksdodekaedrischen Gerüststrukturen. Die Röntgenstrukturanalysen von [{Cp=Ru}3P5] (24), [{Cp=Ru}2{Cp*Fe}P5] (25) und [{Cp*Fe}2{Cp=Ru}P5] (26) zeigen, daß die Metallfragmente {Cp*Fe} und {Cp=Ru} nahezu ohne Auswirkungen auf die Gerüststruktur ausgetauscht werden können. Der Vergleich zu den Cp-Derivaten zeigt die annähernde Identität der Verbindungen. Bei 26 bleibt die Stellung des Cp=-Liganden am Ruthenium nach Einbau eines Eisenfragmentes erhalten, während in [{Cp*Fe}2{CpRu}P5] (26a) ein Wechsel in der Stellung des Cp-Liganden stattfindet. Die Photolyse von [Cp=Ru(CO)2H] (1) in THF ergibt die spektroskopisch identifizierten Verbindungen [{Cp=Ru(CO)}2(µ-H)2] (28), [{Cp=Ru(CO)}2{Cp=Ru(CO)H}] (29) und [{Cp=Ru}4(µ3-CO)4] (30). Das in geringen Mengen anfallende 28 konnte als dimere Struktur mit zwei verbrückenden Wasserstoffatomen identifiziert werden. Für Komplex 29 wurde eine Struktur als triangularer Metalldreiring postuliert, der den Verbindungen 33 und 34 sehr ähnlich ist. Bei 29 handelt es sich um einen 46 VE-Komplex mit einer Ru-Ru-Doppelbindung im Dreiring. Verbindung 30 mit tetraedrischem Ru4-Gerüst kann in hoher Ausbeute dargestellt werden. 30 ist luft- und wasserstabil und überaus reaktionsträge. Führt man die Photolyse von 1 in Hexan als nichtkoordinierendem Lösungsmittel durch, so erhält man neben 28 und 29 die Komplexe [{Cp=Ru(µ-CO)}2{Cp=Ru(CO)H}] (33), [{{{Cp=Ru}2(µ-CO)}{Cp=RuH}}(µ3-CO)2] (34) sowie die unbekannte Verbindung 35. Die Röntgenstrukturanalysen von 33 und 34 zeigen zwei mit 46 VE elektronendefiziente, triangulare Ru3-Cluster mit einer M-M-Doppelbindung im Ring, welche beide der Vorgabe der Magischen Zahlen entsprechen. 33 reagiert bereitwillig mit P4 und ergibt [{Cp=Ru}(µ-Eta4:1:1-P4){Ru(CO)Cp=}] (40). Die RSA von 40 zeigt, daß Ru1 um 25,3° aus der Ebene der vier Phosphoratome P1-P4 abgewinkelt und kein planares Tetraphospharuthenol verwirklicht ist. Die Aufsicht auf die P4Ru-Ebene läßt jedoch deutlich das Bestreben erkennen, die Konstitution einer pentagonalen Pyramide auszubilden.
Modern society relies on convenience services and mobile communication. Cloud computing is the current trend to make data and applications available at any time on every device. Data centers concentrate computation and storage at central locations, while they claim themselves green due to their optimized maintenance and increased energy efficiency. The key enabler for this evolution is the microelectronics industry. The trend to power efficient mobile devices has forced this industry to change its design dogma to: ”keep data locally and reduce data communication whenever possible”. Therefore we ask: is cloud computing repeating the aberrations of its enabling industry?
The plasma membrane transporter SOS1 (SALT-OVERLY SENSITIVE1) is vital for plant survival under salt stress. SOS1 activity is tightly regulated, but little is known about the underlying mechanism. SOS1 contains a cytosolic, autoinhibitory C-terminal tail (abbreviated as SOS1 C-term), which is targeted by the protein kinase SOS2 to trigger its transport activity. Here, to identify additional binding proteins that regulate SOS1 activity, we synthesized the SOS1 C-term domain and used it as bait to probe Arabidopsis thaliana cell extracts. Several 14-3-3 proteins, which function in plant salt tolerance, specifically bound to and interacted with the SOS1 C-term. Compared to wild-type plants, when exposed to salt stress, Arabidopsis plants overexpressing SOS1 C-term showed improved salt tolerance, significantly reduced Na+ accumulation in leaves, reduced induction of the salt-responsive gene WRKY25, decreased soluble sugar, starch, and proline levels, less impaired inflorescence formation and increased biomass. It appears that overexpressing SOS1 C-term leads to the sequestration of inhibitory 14-3-3 proteins, allowing SOS1 to be more readily activated and leading to increased salt tolerance. We propose that the SOS1 C-term binds to previously unknown proteins such as 14-3-3 isoforms, thereby regulating salt tolerance. This finding uncovers another regulatory layer of the plant salt tolerance program
In der vorliegenden Masterarbeit wurden Machbarkeit und Vorteile von verschiedenen Aufnahmezeitintervallen, sowie einer quantitativen Analyse von Blutflusswerten für Aktivierungsstudien des auditorischen Systems bei einer kleinen Zahl von CI-Nutzern mit unterschiedlicher Hörperformance/zu erwartender Aktivierung evaluiert. Dafür wurden die PET-Daten sogenannter „good performer“ und „poor performer“ zunächst individuell analysiert. Die Beurteilung der Performance erfolgte über das Sprachverstehen im Störgeräusch (HSM-Satztest), bei dem die Probanden entweder ≥ 70 % oder ≤ 30 % verstehen [13]. Eine Unterscheidung bzw. Auswertung zwischen den Gruppen findet in der vorliegenden Masterarbeit nicht statt. Um den Ergebnissen jedoch eine breitere Gültigkeit zu geben, ist es von Vorteil, ein Spektrum unterschiedlicher CI-Nutzer mit unterschiedlicher Hörperfor-mance zu inkludieren.
Die Analyse des Aufnahmezeitintervalls wurde mittels Statistical Parametric Mapping (SPM) durchgeführt, die Blutflussquantifizierung mittels PMOD Software. Die mit diesen Verfahren individuell ermittelten Werte wurden anschließend weiter statistisch analysiert.
Previously in this journal we have reported on fundamental transversemode selection (TMS#0) of broad area semiconductor lasers
(BALs) with integrated twice-retracted 4f set-up and film-waveguide lens as the Fourier-transform element. Now we choose and
report on a simpler approach for BAL-TMS#0, i.e., the use of a stable confocal longitudinal BAL resonator of length L with a
transverse constriction.The absolute value of the radius R of curvature of both mirror-facets convex in one dimension (1D) is R = L
= 2f with focal length f.The round trip length 2L = 4f againmakes up for a Fourier-optical 4f set-up and the constriction resulting
in a resonator-internal beam waist stands for a Fourier-optical low-pass spatial frequency filter. Good TMS#0 is achieved, as long
as the constriction is tight enough, but filamentation is not completely suppressed.
1. Introduction
Broad area (semiconductor diode) lasers (BALs) are intended
to emit high optical output powers (where “high” is relative
and depending on the material system). As compared to
conventional narrow stripe lasers, the higher power is distributed
over a larger transverse cross-section, thus avoiding
catastrophic optical mirror damage (COMD). Typical BALs
have emitter widths of around 100 ????m.
Thedrawback is the distribution of the high output power
over a large number of transverse modes (in cases without
countermeasures) limiting the portion of the light power in
the fundamental transverse mode (mode #0), which ought to
be maximized for the sake of good light focusability.
Thus techniques have to be used to support, prefer, or
select the fundamental transverse mode (transverse mode
selection TMS#0) by suppression of higher order modes
already upon build-up of the laser oscillation.
In many cases reported in the literature, either a BAL
facet, the
2D quantum dilaton gravitational Hamiltonian, boundary terms and new definition for total energy
(1995)
The ADM and Bondi mass for the RST model have been first discussed from Hawking and Horowitz's argument. Since there is a nonlocal term in the RST model, the RST lagrangian has to be localized so that Hawking and Horowitz's proposal can be carried out. Expressing the localized RST action in terms of the ADM formulation, the RST Hamiltonian can be derived, meanwhile keeping track of all boundary terms. Then the total boundary terms can be taken as the total energy for the RST model. Our result shows that the previous expression for the ADM and Bondi mass actually needs to be modified at quantum level, but at classical level, our mass formula can be reduced to that given by Bilal and Kogan [5] and de Alwis [6]. It has been found that there is a new contribution to the ADM and Bondi mass from the RST boundary due to the existence of the hidden dynamical field. The ADM and Bondi mass with and without the RST boundary for the static and dynamical solutions have been discussed respectively in detail, and some new properties have been found. The thunderpop of the RST model has also been encountered in our new Bondi mass formula.
30 Jahre sind seit Aufnahme der Bibliotheksarbeit an der Universität Kaiserslautern vergangen. Galt es in den ersten Jahren den Literaturversorgungsauftrag für die ersten Fächer der 1970 gegründeten Universität zu erfüllen und eine dafür brauchbare Bibliotheksstruktur zu finden, so wurde die Arbeit in den letzten Jahren durch die tiefgreifende Entwicklung im Informations- und Kommunikationsbereich nachhaltig geprägt. Der technologische Wandel bei Mikroelektronik und Software-Entwicklung beeinflusst die bibliothekarische Arbeit ebenso wie die elektronischen Medien selbst und die stärkere Einbindung in Informations- und Versorgungsnetze die Benutzungsdienstleistungen der Bibliotheken umgestalten. Umstrukturierungsprozesse auf der Anbieterseite verlangen schnelles Reagieren der Bibliotheken auf der Abnehmer- und Vermittlerseite und den zügigen Auf- und Ausbau der lokal erforderlichen Infrastruktur. Der Rückblick auf die Aufbau- und Entwicklungsphase der Universitätsbibliothek Kaiserslautern soll im Rahmen der eit 1972 jährlich erscheinenden Geschäftsberichte (Bericht über das Geschäftsjahr ...) zusammenfassend erfolgen, wobei keine alles umfassende Darstellung beabsichtigt ist, sondern dem Muster früherer Berichte folgend nur partielle Rückblicke gegeben werden. Es sollte keine Festschrift, die oft aus solchen Anlässen erstellt wird, entstehen.
This paper considers the numerical solution of a transmission boundary-value problem for the time-harmonic Maxwell equations with the help of a special finite volume discretization. Applying this technique to several three-dimensional test problems, we obtain large, sparse, complex linear systems, which are solved by using BiCG, CGS, BiCGSTAB resp., GMRES. We combine these methods with suitably chosen preconditioning matrices and compare the speed of convergence.
Destructive diseases of the lung like lung cancer or fibrosis are still often lethal. Also in case of fibrosis in the liver, the only possible cure is transplantation.
In this thesis, we investigate 3D micro computed synchrotron radiation (SR\( \mu \)CT) images of capillary blood vessels in mouse lungs and livers. The specimen show so-called compensatory lung growth as well as different states of pulmonary and hepatic fibrosis.
During compensatory lung growth, after resecting part of the lung, the remaining part compensates for this loss by extending into the empty space. This process is accompanied by an active vessel growing.
In general, the human lung can not compensate for such a loss. Thus, understanding this process in mice is important to improve treatment options in case of diseases like lung cancer.
In case of fibrosis, the formation of scars within the organ's tissue forces the capillary vessels to grow to ensure blood supply.
Thus, the process of fibrosis as well as compensatory lung growth can be accessed by considering the capillary architecture.
As preparation of 2D microscopic images is faster, easier, and cheaper compared to SR\( \mu \)CT images, they currently form the basis of medical investigation. Yet, characteristics like direction and shape of objects can only properly be analyzed using 3D imaging techniques. Hence, analyzing SR\( \mu \)CT data provides valuable additional information.
For the fibrotic specimen, we apply image analysis methods well-known from material science. We measure the vessel diameter using the granulometry distribution function and describe the inter-vessel distance by the spherical contact distribution. Moreover, we estimate the directional distribution of the capillary structure. All features turn out to be useful to characterize fibrosis based on the deformation of capillary vessels.
It is already known that the most efficient mechanism of vessel growing forms small torus-shaped holes within the capillary structure, so-called intussusceptive pillars. Analyzing their location and number strongly contributes to the characterization of vessel growing. Hence, for all three applications, this is of great interest. This thesis provides the first algorithm to detect intussusceptive pillars in SR\( \mu \)CT images. After segmentation of raw image data, our algorithm works automatically and allows for a quantitative evaluation of a large amount of data.
The analysis of SR\( \mu \)CT data using our pillar algorithm as well as the granulometry, spherical contact distribution, and directional analysis extends the current state-of-the-art in medical studies. Although it is not possible to replace certain 3D features by 2D features without losing information, our results could be used to examine 2D features approximating the 3D findings reasonably well.
Vorgestellt wird ein System basierend auf einem 3D-Scanner nach dem Licht- schnitt-Prinzip mit dem es möglich ist, einen Menschen innerhalb von 1,5 Sekun- den dreidimensional zu erfassen. Mit Hilfe von Evolutionären Algorithmen wird über eine modellbasierte Dateninterpretation die Auswertung der Meßdaten betrie- ben, so daß beliebige Körpermaße ermittelt werden können. Das Ergebnis ist ein individualisiertes CAD-Modells der Person im Rechner. Ein derartiges Modell kann als virtuelle Kleiderpuppe zur Produktion von Maßbekleidung dienen.
The various uses of fiber-reinforced composites, for example in the enclosures of planes, boats and cars, generates the demand for a detailed analysis of these materials. The final goal is to optimize fibrous materials by the means of “virtual material design”. New fibrous materials are virtually created as realizations of a stochastic model and evaluated with physical simulations. In that way, materials can be optimized for specific use cases, without constructing expensive prototypes or performing mechanical experiments. In order to design a practically fabricable material, the stochastic model is first adapted to an existing material and then slightly modified. The virtual reconstruction of the existing material requires a precise knowledge of the geometry of its microstructure. The first part of this thesis describes a fiber quantification method by the means of local measurements of the fiber radius and orientation. The combination of a sparse chord length transform and inertia moments leads to an efficient and precise new algorithm. It outperforms existing approaches with the possibility to treat different fiber radii within one sample, with high precision in continuous space and comparably fast computing time. This local quantification method can be directly applied on gray value images by adapting the directional distance transforms on gray values. In this work, several approaches of this kind are developed and evaluated. Further characterization of the fiber system requires a segmentation of each single fiber. Using basic morphological operators with specific structuring elements, it is possible to derive a probability for each pixel describing if the pixel belongs to a fiber core in a region without overlapping fibers. Tracking high probabilities leads to a partly reconstruction of the fiber cores in non crossing regions. These core parts are then reconnected over critical regions, if they fulfill certain conditions ensuring the affiliation to the same fiber. In the second part of this work, we develop a new stochastic model for dense systems of non overlapping fibers with a controllable level of bending. Existing approaches in the literature have at least one weakness in either achieving high volume fractions, producing non overlapping fibers, or controlling the bending or the orientation distribution. This gap can be bridged by our stochastic model, which operates in two steps. Firstly, a random walk with the multivariate von Mises-Fisher orientation distribution defines bent fibers. Secondly, a force-biased packing approach arranges them in a non overlapping configuration. Furthermore, we provide the estimation of all parameters needed for the fitting of this model to a real microstructure. Finally, we simulate the macroscopic behavior of different microstructures to derive their mechanical and thermal properties. This part is mostly supported by existing software and serves as a summary of physical simulation applied to random fiber systems. The application on a glass fiber reinforced polymer proves the quality of the reconstruction by our stochastic model, as the effective properties match for both the real microstructure and the realizations of the fitted model. This thesis includes all steps to successfully perform virtual material design on various data sets. With novel and efficient algorithms it contributes to the science of analysis and modeling of fiber reinforced materials.
We compute three-dimensional displacement vector fields to estimate the deformation of microstructural data sets in mechanical tests. For this, we extend the well-known optical flow by Brox et al. to three dimensions, with special focus on the discretization of nonlinear terms. We evaluate our method first by synthetically deforming foams and comparing against this ground truth and second with data sets of samples that underwent real mechanical tests. Our results are compared to those from state-of-the-art algorithms in materials science and medical image registration. By a thorough evaluation, we show that our proposed method is able to resolve the displacement best among all chosen comparison methods.
In this contribution a phase field model for ductile fracture with linear isotropic hardening is presented. An energy functional consisting of an elastic energy, a plastic dissipation potential and a Griffith type fracture energy constitutes the model. The application of an unaltered radial return algorithm on element level is possible due to the choice of an appropriate coupling between the nodal degrees of freedom, namely the displacement and the crack/fracture fields. The degradation function models the mentioned coupling by reducing the stiffness of the material and the plastic contribution of the energy density in broken material. Furthermore, to solve the global system of differential equations comprising the balance of linear momentum and the quasi-static Ginzburg-Landau type evolution equation, the application of a monolithic iterative solution scheme becomes feasible. The compact model is used to perform 3D simulations of fracture in tension. The computed plastic zones are compared to the dog-bone model that is used to derive validity criteria for KIC measurements.
The fifth-generation (5G) of wireless networks promises to bring new advances, such as a huge increase in mobile data rates, a plunge in communications latency, and an increase in the quality of experience perceived by users that can cope with the ever-increasing demand in Internet traffic. However, the high cost of capital and operational expenditure (CAPEX/OPEX) of the new 5G network and the lack of a killer application hinder its rapid adoption. In this context, Mobile Network Operators (MNOs) have turned their attention to the following idea: opening up their infrastructure so that vertical businesses can leverage the new 5G network to improve their primary businesses and develop new ones. However, deploying multiple isolated vertical applications on top of the same infrastructure poses unique challenges that must be addressed. In this thesis, we provide critical contributions to developing 5G networks to accommodate different vertical applications in an isolated, flexible, and automated manner. This thesis contributions spawn on three main areas: (i) the development of an integrated fronthaul and backhaul network, (ii) the development of a network slicing overbooking algorithm, and (iii) the development of a method to mitigate the noisy neighbors' problem in a vRAN deployment.
Sensing location information in indoor scenes requires a high accuracy and is a challenging task, mainly because of multipath and NLoS (non-line-of-sight) propagation. GNSS signals cannot penetrate well in indoor environment. Satellite-based navigation and positioning systems cannot therefore be used for indoor positioning.. Other technologies have been suggested for indoor usage, among them, Wi-Fi (802.11) and 5G NR (New Radio). The primary aim of this study is to discuss the advantages and drawbacks of 5G and Wi-Fi positioning techniques for indoor localization.
This paper presents a new approach to parallel path planning for industrial robot arms with six degrees of freedom in an on-line given 3D environment. The method is based a best-first search algorithm and needs no essential off-line computations. The algorithm works in an implicitly discrete configuration space. Collisions are detected in the Cartesian workspace by hierarchical distance computation based on polyhedral models of the robot and the obstacles. By decomposing the 6D configuration space into hypercubes and cyclically mapping them onto multiple processing units, a good load distribution can be achieved. We have implemented the parallel path planner on a workstation cluster with 9 PCs and tested the planner for several benchmark environments. With optimal discretisation, the new approach usually shows very good speedups. In on-line provided environments with static obstacles, the parallel planning times are only a few seconds.
Photolysiert man [{Cp R Ru(CO)2}2] (Cp R = Cp", Cp*) (1a,b), in Gegenwart von weißem Phosphor, so können keine phosphorhaltigen Produkte isoliert werden. Setzt man [{Cp"Ru(CO)2}2] (1a) mit weißem Phosphor bei 190 °C in Dekalin um, dann lassen sich als einzige Verbindungen das Pentaphospharuthenocen-Derivat [Cp"Ru(h 5 -P5)] (3a, 6 % Ausbeute) und [Cp"2Ru2P4] (4a, 17 % Ausbeute) säulenchromatographisch abtrennen. Für 4a wird auf Grund seiner spektroskopischen Eigenschaften eine den röntgenstruktur-analytisch charakterisierten pseudo-Tripeldecker-Komplexen [{Cp R Fe}2(micro-h 4:4 -P4)] (Cp R = Cp" [35] , Cp"' [11] ) analoge Struktur mit s-cis-Tetraphosphabutadiendiyl-"Mitteldeck" vorgeschlagen; es sind jedoch auch zwei micro-h 2:2 -P2-Liganden denkbar. Die Cothermolyse von [{Cp"Ru(CO)2}2] (1a) und [Cp*Fe(h 5 -P5)] (2b) ergibt ein breites Produktbild. Während [Cp"Ru(h 5 -P5)] (3a), das chromatographisch nicht von 2b abgetrennt werden konnte, und [Cp"2Ru2P4] (4a, 6 % Ausbeute) in vergleichsweise geringen Mengen entstehen, können [{Cp"Ru}3P5] (6) in 17 % Ausbeute, [{Cp"Ru}2{Cp*Fe}P5] (7) in 7 % Ausbeute, [{Cp*Fe}2{Cp"Ru}P5] (8) in 22 % Ausbeute und [{Cp"Ru}3{Cp*Fe}(P2)2] (9) in 14 % Ausbeute isoliert werden. Für 9 wird, basierend auf den NMR-spektroskopischen Befunden, eine zu [{CpFe}4(P2)2] (10) [24] analoge Struktur mit einem hier verzerrten Dreiecksdodekaedergerüst vorge-schlagen, dessen vier Ecken der Konnektivität fünf von drei Rutheniumatomen und einem Eisenatom besetzt sind und dessen vier Ecken der Konnektivität vier zwei micro-h 2:2:1:1 -P2-Einheiten einnehmen. Es handelt sich bei 9 wie bei 10 um Cluster vom hypercloso-Typ (n+1 = 8 GEP). [30,31] Röntgenstrukturanalysen zeigen, daß 6, 7 und 8 ebenfalls verzerrt dreiecksdodekaedrische Gerüststrukturen besitzen. Damit ist auch die Struktur der bereits früher synthetisierten und spektroskopisch charakterisierten Komplexe [{Cp R Fe}3P5] (Cp R = Cp*, Cp*') (11b,c) [8] geklärt, deren NMR-Daten auf eine enge Verwandtschaft insbesondere mit 6 hinweisen. Gegenüber 9 bzw. 10 [24] mit einem M4P4-Gerüst (M = allgem. Übergangsmetallatom) ist in den Clustern 6, 7, 8 und 11b,c [8] mit M3P5-Gerüst formal ein 13 VE-Metallkomplex-fragment (Konnektivität fünf; 1 GE) durch ein Phosphoratom (3 GE) ersetzt, wodurch der Übergang zum closo-Strukturtyp des Dreiecksdodekaeders (n+1 = 9 GEP) [30,31] vollzogen wird. Die Cluster 6, 7, 8 und 11b,c [8] enthalten eine bisher unbekannte Koordinationsform der P5-Einheit. Bei der thermischen Umsetzung von [{Cp*Ru(CO)2}2] (1b) mit [Cp*Ru(h 5 -P5)] (3b) erhält man als Hauptprodukt den Dreikernkomplex [{Cp*Ru}3(P4)(P)] (17b, 62 % Ausbeute). Als einziges Nebenprodukt kann [Cp*2Ru2P4] (4b, 5 % Ausbeute) säulen-chromatographisch isoliert werden. Die NMR-Daten von 17b lassen in Analogie zum röntgenstrukturanalytisch charakterisierten [{Cp*'Fe}3(P4)(P){Mo(CO)5}] (18c) [8] auf eine cubanartige Struktur schließen, in der die fünf Phosphoratome in Form einer Isotetraphosphid-Einheit und eines einzelnen Phosphoratoms vorliegen. Die Gesamtzahl von 64 Valenzelektronen ist im Einklang mit drei Metall-Metall-Bindungen [31] . Für 4b ist wie für das voranstehend besprochene Cp"-Derivat 4a eine Pseudo- Tripeldecker-Struktur mit s-cis-Tetraphosphabutadiendiyl-"Mitteldeck" oder mit zwei micro-h 2:2 -P2-Liganden zu diskutieren. Thermolysiert man [{Cp* Ru(CO)2}2] (1c) mit 3b, so erhält man die Komplexe [Cp*'nCp*2-nRu2P4] (n = 0,1,2) (4b,d,c) und [{Cp*'Ru}n{Cp*Ru}3-n(P4)(P)] (n = 1,2,3) (17e,d,c) jeweils als nicht auftrennbare Gemische von analog aufgebauten Verbindungen, die sich nur im Zahlenverhältnis der verschiedenen Cyclopentadienyl-Liganden Cp*' und Cp* unterscheiden. In geringem Umfang beobachtet man dabei auch eine cyclo-P5-Übertragung unter Bildung des literaturbekannten [Cp*'Ru(h 5 -P5)] [7,10] , das im Gemisch mit nicht abreagiertem 3b anfällt. Durch Umsetzung mit [W(CO)5(thf)] gelingt die Komplexierung des dreiecks-dodekaedrischen Clusters [{Cp*Fe}2{Cp"Ru}P5] (8) zum Monoaddukt [{Cp*Fe}2{Cp"Ru}P5{W(CO)5}] (19), während beim Komplexierungsversuch des ebenfalls dreiecksdodekaedrischen Clusters [{Cp*'Fe}3P5] (11c) mit [Mo(CO)5(thf)] [8] eine Gerüstumlagerung zur cubanartig aufgebauten Verbindung [{Cp*'Fe}3(P4)(P){Mo(CO)5}] (18c) erfolgt. Der Strukturvorschlag für 19 basiert auf dem 31 P-NMR-Spektrum. Versuche zur Oxidation von 8 mit gelbem Schwefel bei Raumtemperatur führen zu unspezifischer Zersetzung bzw. Folgereaktionen von 8. Orientierende Versuche mit grauem Selen als milderem Oxidationsmittel deuten darauf hin, daß unter geeigneten Reaktionsbedingungen eine einfache Selenierung am endständigen Phosphoratom des P5-Liganden von 8 erfolgt. Bei der Umsetzung von [{Cp"Ru}3{Cp*Fe}(P2)2] (9) mit gelbem Schwefel können je nach Reaktionsbedingungen bis zu drei Phosphoratome oxidiert werden. Vollständige Sulfurierung wie im Falle von [{CpFe}4(P2S2)2] [24] wird nicht beobachtet. Die Sulfurierung ist regioselektiv. Für einen bestimmten Sulfurierungsgrad wird jeweils nur ein Produkt erhalten. Die Strukturvorschläge für die Cluster 21 23 werden anhand ihrer 31 P-NMR-spektroskopischen Daten abgeleitet.
[Halb]- trocken im Unterstockbereich?
„Untersuchungen meteorologisch-hydrologischer Messgrößen im Weinbau als Anpassungsstrategie an den Klimawandel sowie für eine nachhaltige Wassernutzung von Vitis vinifera [cv. Riesling]. “
Christian Ihrig & Sascha Henninger
RPTU Kaiserslautern
Der vom Menschen verursachte Klimawandel beeinflusst sowohl langfristige Klimaprozesse, als auch das aktuelle, kurzfristige Wettergeschehen in allen Regionen der Erde. Er äußert sich in einer Vielzahl an Phänomenen, die sich je nach Klimagebiet unterschiedlich manifestieren lassen oder auch unterschiedliche Auswirkungen mit sich bringen. Diese Forschungsarbeit beschäftigt sich mit dem Wasserhaushalt von Weinreben im Rahmen des rezenten Klimawandels. Ziel dieses Projektes ist es, mittels meteorologisch-hydrologischen Messgrößen eine Anpassungsstrategie zu generieren, die auf alle Weinbauregionen in Rheinland-Pfalz übertragen werden kann, um Winzer*innen die Möglichkeit zu eröffnen, auf natürlicher Art und Weise der Rebe Wasser zugänglich zu machen.
Durch die Zunahme abiotischer Schäden (z.B. Niederschlag) und die Veränderung der Vegetationszeit sowie die Zunahme invasiver Schaderreger ist vermehrt eine Steigerung der Vulnerabilität des Ökosystems „Wingert“ zu erkennen. Winzer*innen werden aufgrund der Zunahme von Extremwetterereignissen (Hitze-/Dürrephasen) zur langfristigen Bewässerung ihrer Weinbauflächen gezwungen. Große Mengen Wasser werden bereits vereinzelt in Weinbergsregionen gepumpt, was langfristig hinsichtlich eines sinkenden Grundwasserspiegels einen fatalen Fehler darstellt. Die ressourcenschonende Gestaltung des Wasserhaushaltes sollte daher in den Mittelpunkt der Weinbauforschung gestellt werden. Weinbauer*innen sind an regional-/ lokalklimatischen Lösungsmöglichkeiten und Anpassungsstrategien interessiert, um Risiken für die Anbaufrucht reduzieren und auf die lokalklimatischen Auswirkungen des Klimawandels reagieren zu können. Um gegen dieses Risiko anzugehen und den Produktionsausfall zu minimieren, muss die Anpassungsfähigkeit in Sachen Wasserhaushalt der Reben bekräftigt werden. Demzufolge wird das Mikroklima in der Weinbauregion Rheinhessen mittels des Einsatzes der Scholander-Druckkammer untersucht. Die Bestimmung des Wasserstatus hinsichtlich der exakten Bewässerungssteuerung von Weinreben hat sich durch das frühmorgendliche Blattwasser- (Ψpd) und mittägliche Stammwasserpotential (Ψstem) bewährt. Physiologische Prozesse, wie die stomatäre Leitfähigkeit der Blattschließzellen sowie das vegetative Wachstum, aber auch die Photosynthese, sind direkt oder indirekt an Ψpd + Ψstem gekoppelt. Darüber hinaus lässt sich der Wasserhaushalt durch ein an Trockenstandorten angepasstes Bodenpflegesystem, wie zum Beispiel einer flächendeckenden Bodenabdeckung mittels Holzhäcksel, deutlich verbessern. Des Weiteren wird das Mikroklima im Weinberg durch die Laubwandstruktur mitbestimmt, was durch eine gesteigerte Photosyntheseleistung der Laubwand, eine optimale Belüftung und Belichtung gewährleistet wird. Im praktischen Weinbau wird dies durch die Höhe der Laubwand realisiert. Um dem Herbizid im Unterstockraum durch das anstehende Glyphosatverbot eine Alternative zu bieten, entwickelt die Landmaschinenbranche bereits heute alternative Arbeitsgeräte, die eine Möglichkeit darstellen, dem Wuchs des Unkrautes im Unterstockbereich entgegenzuwirken.
Daher ist es von gesteigertem Interesse zu analysieren, inwiefern sich eine Bodenabdeckung im Unterstockbereich von einer flächendeckenden bzw. moderaten Tropfbewässerung in Flachlage unterscheidet. Darüber hinaus sollen Möglichkeiten zur Reduzierung des Wasserverbrauchs und zur Reifeverzögerung (Verminderung des Botrytisbefalls, Verlängerung der Reifedauer, Vermeidung eines zu hohen Alkoholgehaltes) durch eine kürzere Laubwandhöhe beim Riesling in Flachlage in diesem Projekt erprobt werden. Als Versuchsvarianten dienen vier Variationen, um abgrenzbare und eindeutige Ergebnisse erzielen zu können (V1: Tropfbewässerung; V2: Unterstockabdeckung Holzhäcksel; V3: Flächendeckende Holzhäcksel; V4: Kontrollvariante).
We have presented here a two-dimensional kinetical scheme for equations governing the motion of a compressible flow of an ideal gas (air) based on the Kaniel method. The basic flux functions are computed analytically and have been used in the organization of the flux computation. The algorithm is implemented and tested for the 1D shock and 2D shock-obstacle interaction problems.
In this paper a three dimensional stochastic model for the lay-down of fibers on a moving conveyor belt in the production process of nonwoven materials is derived. The model is based on stochastic diferential equations describing the resulting position of the fiber on the belt under the influence of turbulent air ows. The model presented here is an extension of an existing surrogate model, see [6, 3].
The World Wide Web is a medium through which a manufacturer may allow Internet visitors to customize or compose his products. Due to missing or rapidly changing standards these applications are often restricted to relatively simple CGI or JAVA based scripts. Usually, results like images or movies are stored in a database and are transferred on demand to the web-user. Viper (Visualisierung parametrisch editierbarer Raumkomponenten) is a Toolkit [VIP96] written in C++ and JAVA which provides 3D-modeling and visualization methodsfor developing complex web-based applications. The Toolkit has been designed to built a prototype, which can be used to construct and visualize prefabricated homes on the Internet. Alternative applications are outlined in this paper. Within Viper, all objects are stored in a scene graph (VSSG ), which is the basic data structure of the Toolkit. To show the concept and structure of the Toolkit, functionality, and implementation of the prototype are described.
The classic approach in robust optimization is to optimize the solution with respect to the worst case scenario. This pessimistic approach yields solutions that perform best if the worst scenario happens, but also usually perform bad on average. A solution that optimizes the average performance on the other hand lacks in worst-case performance guarantee.
In practice it is important to find a good compromise between these two solutions. We propose to deal with this problem by considering it from a bicriteria perspective. The Pareto curve of the bicriteria problem visualizes exactly how costly it is to ensure robustness and helps to choose the solution with the best balance between expected and guaranteed performance.
Building upon a theoretical observation on the structure of Pareto solutions for problems with polyhedral feasible sets, we present a column generation approach that requires no direct solution of the computationally expensive worst-case problem. In computational experiments we demonstrate the effectivity of both the proposed algorithm, and the bicriteria perspective in general.
A branch-and-cut approach and alternative formulations for thetraveling salesman problem with drone
(2020)
In this paper, we are interested in studying thetraveling salesman problem withdrone(TSP-D). Given a set of customers and a truck that is equipped with a singledrone, the TSP-D asks that all customers are served exactly once and minimal deliv-ery time is achieved. We provide two compact mixed integer linear programmingformulations that can be used to address instances with up to 10 customer within afew seconds. Notably, we introduce a third formulation for the TSP-D with an expo-nential number of constraints. The latter formulation is suitable to be solved by abranch-and-cut algorithm. Indeed, this approach can be used to find optimal solu-tions for several instances with up to 20 customers within 1 hour, thus challenging thecurrent state-of-the-art in solving the TSP-D. A detailed numerical study providesan in-depth comparison on the effectiveness of the proposed formulations. More-over, we reveal further details on the operational characteristics of a drone-assisteddelivery system. By using three different sets of benchmark instances, considera-tion is given to various assumptions that affect, for example, technological droneparameters and the impact of distance metrics.
We consider the problem of evacuating a region with the help of buses. For a given set of possible collection points where evacuees gather, and possible shelter locations where evacuees are brought to, we need to determine both collection points and shelters we would like to use, and bus routes that evacuate the region in minimum time.
We model this integrated problem using an integer linear program, and present a branch-cut-and-price algorithm that generates bus tours in its pricing step. In computational experiments we show that our approach is able to solve instances of realistic size in sufficient time for practical application, and considerably outperforms the usage of a generic ILP solver.
A building-block model reveals new insights into the biogenesis of yeast mitochondrial ribosomes
(2020)
Most of the mitochondrial proteins in yeast are encoded in the nuclear genome, get synthesized by cytosolic ribosomes and are imported via TOM and TIM23 into the matrix or other subcompartments of mitochondria. The mitochondrial DNA in yeast however also encodes a small set of 8 proteins from which most are hydrophobic membrane proteins and build core components of the OXPHOS complexes. They get synthesized by mitochondrial ribosomes which are descendants of bacterial ribosomes and still have some similarities to them. On the other hand, mitochondrial ribosomes experienced various structural and functional changes during evolution that specialized them for the synthesis of the mitochondrial encoded membrane proteins. The mitoribosome contains mitochondria-specific ribosomal proteins and replaced the bacterial 5S rRNA by mitochondria-specific proteins and rRNA extensions. Furthermore, the mitoribosome is tethered to the inner mitochondrial membrane to facilitate a co-translational insertion of newly synthesized proteins. Thus, also the assembly process of mitoribosomes differs from that of bacteria and is to date not well understood.
Therefore, the biogenesis of mitochondrial ribosomes in yeast should be investigated. To this end, a strain was generated in which the gene of the mitochondrial RNA-polymerase RPO41 is under control of an inducible GAL10-promoter. Since the scaffold of ribosomes is built by ribosomal RNAs, the depletion of the RNA-polymerase subsequently leads to a loss of mitochondrial ribosomes. Reinduction of Rpo41 initiates the assembly of new mitoribosomes, which makes this strain an attractive model to study mitoribosome biogenesis.
Initially, the effects of Rpo41 depletion on cellular and mitochondrial physiology was investigated. Upon Rpo41 depletion, growth on respiratory glycerol medium was inhibited. Furthermore, mitochondrial ribosomal 21S and 15S rRNA was diminished and mitochondrial translation was almost completely absent. Also, mitochondrial DNA was strongly reduced due to the fact that mtDNA replication requires RNA primers that get synthesized by Rpo41.
Next, the effect of reinduction of Rpo41 on mitochondria was tested. Time course experiments showed that mitochondrial translation can partially recover from 48h Rpo41 depletion within a timeframe of 4.5h. Sucrose gradient sedimentation experiments further showed that the mitoribosomal constitution was comparable to wildtype control samples during the time course of 4.5h of reinduction, suggesting that the ribosome assembly is not fundamentally altered in Gal-Rpo41 mitochondria. In addition, the depletion time was found to be critical for recovery of mitochondrial translation and mitochondrial RNA levels. It was observed that after 36h of Rpo41 depletion, the rRNA levels and mitochondrial translation recovered to almost 100%, but only within a time course of 10h.
Finally, mitochondria from Gal-Rpo41 cells isolated after different timepoints of reinduction were used to perform complexome profiling and the assembly of mitochondrial protein complexes was investigated. First, the steady state conditions and the assembly process of mitochondrial respiratory chain complexes were monitored. The individual respiratory chain complexes and the super-complexes of complex III, complex IV and complex V were observed. Furthermore, it was seen that they recovered from Rpo41 depletion within 4.5h of reinduction. Complexome profiles of the mitoribosomal small and large subunit discovered subcomplexes of mitoribosomal proteins that were assumed to form prior to their incorporation into assembly intermediates. The complexome profiles after reinduction indeed showed the formation of these subcomplexes before formation of the fully assembled subunit. In the mitochondrial LSU one subcomplex builds the membrane facing protuberance and a second subcomplex forms the central protuberance. In contrast to the preassembled subcomplexes, proteins that were involved in early assembly steps were exclusively found in the fully assembled subunit. Proteins that assemble at the periphery of the mitoribosome during intermediate and late assembly steps where found in soluble form suggesting a pool of unassembled proteins that supply assembly intermediates with proteins.
Taken together, the findings of this thesis suggest a so far unknow building-block model for mitoribosome assembly in which characteristic structures of the yeast mitochondrial ribosome form preassembled subcomplexes prior to their incorporation into the mitoribosome.
3D integration of solid-state memories and logic, as demonstrated by the Hybrid Memory Cube (HMC), offers major opportunities for revisiting near-memory computation and gives new hope to mitigate the power and performance losses caused by the “memory wall”. In this paper we present the first exploration steps towards design of the Smart Memory Cube (SMC), a new Processor-in-Memory (PIM) architecture that enhances the capabilities of the logic-base (LoB) in HMC. An accurate simulation environment has been developed, along with a full featured software stack. All offloading and dynamic overheads caused by the operating system, cache coherence, and memory management are considered, as well. Benchmarking results demonstrate up to 2X performance improvement in comparison with the host SoC, and around 1.5X against a similar host-side accelerator. Moreover, by scaling down the voltage and frequency of PIM’s processor it is possible to reduce energy by around 70% and 55% in comparison with the host and the accelerator, respectively.
Contrary to symbolic learning approaches, which represent a learned concept explicitly, case-based approaches describe concepts implicitly by a pair (CB; sim), i.e. by a measure of similarity sim and a set CB of cases. This poses the question if there are any differences concerning the learning power of the two approaches. In this article we will study the relationship between the case base, the measure of similarity, and the target concept of the learning process. To do so, we transform a simple symbolic learning algorithm (the version space algorithm) into an equivalent case- based variant. The achieved results strengthen the hypothesis of the equivalence of the learning power of symbolic and case-based methods and show the interdependency between the measure used by a case-based algorithm and the target concept.
Retrieving multiple cases is supposed to be an adequate retrieval strategy for guiding partial-order planners because of the recognized flexibility of these planners to interleave steps in the plans. Cases are combined by merging them. In this paper, we will examine two different kinds of merging cases in the context of partial-order planning. We will see that merging cases can be very difficult if the cases are merged eagerly. On the other hand, if cases are merged by avoiding redundant steps, the guidance of the additional cases tends to decrease with the number of covered goals and retrieved cases in domains having a certain kind of interactions. Thus, to retrieve a single case covering many of the goals of the problem or to retrieve fewer cases covering many of the goals is at least equally effective as to retrieve several cases covering all goals in these domains.
A Case Study on Specifikation,Detection and Resolution of IN Feature Interactions with Estelle
(1994)
We present an approach for the treatment of Feature Interactions in Intelligent Networks. The approach is based on the formal description technique Estelle and consists of three steps. For the first step, a specification style supporting the integration of additional features into a basic service is introduced . As a result, feature integration is achieved by adding specification text, i.e . on a purely syntactical level. The second step is the detection of feature interactions resulting from the integration of additional features. A formal criterion is given that can be used for the automatic detection of a particular class of feature interactions. In the third step, previously detected feature interactions are resolved. An algorithm has been devised that allows the automatical incorporation of high-level design decisions into the formal specification. The presented approach is applied to the Basic Call Service and several supplementary interacting features.
A large set of criteria to evaluate formal methods for reactive systems is presented. To make this set more comprehensible, it is structured according to a Concept-Model of formal methods. It is made clear that it is necessary to make the catalogue more specific before applying it. Some of the steps needed to do so are explained. As an example the catalogue is applied within the context of the application domain building automation systems to three different formal methods: SDL, statecharts, and a temporallogic.
In this paper we give the definition of a solution concept in multicriteria combinatorial optimization. We show how Pareto, max-ordering and lexicographically optimal solutions can be incorporated in this framework. Furthermore we state some properties of lexicographic max-ordering solutions, which combine features of these three kinds of optimal solutions. Two of these properties, which are desirable from a decision maker" s point of view, are satisfied if and only of the solution concept is that of lexicographic max-ordering.
In this paper we develop a data-driven mixture of vector autoregressive models with exogenous components. The process is assumed to change regimes according to an underlying Markov process. In contrast to the hidden Markov setup, we allow the transition probabilities of the underlying Markov process to depend on past time series values and exogenous variables. Such processes have potential applications to modeling brain signals. For example, brain activity at time t (measured by electroencephalograms) will can be modeled as a function of both its past values as well as exogenous variables (such as visual or somatosensory stimuli). Furthermore, we establish stationarity, geometric ergodicity and the existence of moments for these processes under suitable conditions on the parameters of the model. Such properties are important for understanding the stability properties of the model as well as deriving the asymptotic behavior of various statistics and model parameter estimators.
A new approach for modelling time that does not rely on the concept of a clock is proposed. In order to establish a notion of time, system behaviour is represented as a joint progression of multiple threads of control, which satisfies a certain set of axioms. We show that the clock-independent time model is related to the well-known concept of a global clock and argue that both approaches establish the same notion of time.
Coloring terms (rippling) is a technique developed for inductive theorem proving which uses syntactic differences of terms to guide the proof search. Annotations (colors) to terms are used to maintain this information. This technique has several advantages, e.g. it is highly goal oriented and involves little search. In this paper we give a general formalization of coloring terms in a higher-order setting. We introduce a simply-typed lambda calculus with color annotations and present an appropriate (pre-)unification algorithm. Our work is a formal basis to the implementation of rippling in a higher-order setting which is required e.g. in case of middle-out reasoning. Another application is in the construction of natural language semantics, where the color annotations rule out linguistically invalid readings that are possible using standard higher-order unification.
This paper develops a sound and complete transformation-based algorithm forunification in an extensional order-sorted combinatory logic supporting constantoverloading and a higher-order sort concept. Appropriate notions of order-sortedweak equality and extensionality - reflecting order-sorted fij-equality in thecorresponding lambda calculus given by Johann and Kohlhase - are defined, andthe typed combinator-based higher-order unification techniques of Dougherty aremodified to accommodate unification with respect to the theory they generate. Thealgorithm presented here can thus be viewed as a combinatory logic counterpartto that of Johann and Kohlhase, as well as a refinement of that of Dougherty, andprovides evidence that combinatory logic is well-suited to serve as a framework forincorporating order-sorted higher-order reasoning into deduction systems aimingto capitalize on both the expressiveness of extensional higher-order logic and theefficiency of order-sorted calculi.
In grinding, the crystal grain size of the workpiece material is relatively same range compared to the removal depth. This raises a question if an anisotropic material model, which considers the effect of the crystal grain size and orientations, would better predict the process forces when compared to an isotropic material model. Initially, a simple micro-indentation process is chosen to compare the two models. In this work, a crystal plasticity model and an isotropic Johnson-Cooke plasticity model are employed to simulate micro-identation of a twinning induced plasticity (TWIP) steel. The results of the two models are compared using the force-displacement curves from the micro-indentation experiments. In the future, the study will be extended to describe the material removal process during a single grit scratch test.
In this work, we analyze two important and simple models of short rates, namely Vasicek and CIR models. The models are described and then the sensitivity of the models with respect to changes in the parameters are studied. Finally, we give the results for the estimation of the model parameters by using two different ways.
Let \(a_1,\dots,a_n\) be independent random points in \(\mathbb{R}^d\) spherically symmetrically but not necessarily identically distributed. Let \(X\) be the random polytope generated as the convex hull of \(a_1,\dots,a_n\) and for any \(k\)-dimensional subspace \(L\subseteq \mathbb{R}^d\) let \(Vol_L(X) :=\lambda_k(L\cap X)\) be the volume of \(X\cap L\) with respect to the \(k\)-dimensional Lebesgue measure \(\lambda_k, k=1,\dots,d\). Furthermore, let \(F^{(i)}\)(t):= \(\bf{Pr}\) \(\)(\(\Vert a_i \|_2\leq t\)),
\(t \in \mathbb{R}^+_0\) , be the radial distribution function of \(a_i\). We prove that the expectation
functional \(\Phi_L\)(\(F^{(1)}, F^{(2)},\dots, F^{(n)})\) := \(E(Vol_L(X)\)) is strictly decreasing in
each argument, i.e. if \(F^{(i)}(t) \le G^{(i)}(t)t\), \(t \in {R}^+_0\), but \(F^{(i)} \not\equiv G^{(i)}\), we show \(\Phi\) \((\dots, F^{(i)}, \dots\)) > \(\Phi(\dots,G^{(i)},\dots\)). The proof is clone in the more general framework
of continuous and \(f\)- additive polytope functionals.