Refine
Year of publication
Document Type
- Habilitation (17) (remove)
Has Fulltext
- yes (17)
Keywords
- CDMA (2)
- Mobilfunk (2)
- continuum mechanics (2)
- Batteriemanagement (1)
- Batterien (1)
- Biomechanik (1)
- Design process (1)
- Empfängerorientierung (1)
- Faser-Kunststoff-Verbunde (1)
- Finite-Elemente-Methode (1)
Faculty / Organisational entity
The subject of this thesis is the design of axial flow machines. The type of turbomachine under examination is used to supply energy for high viscous fluid flow, as used in mixing and stirring tasks. The high viscous media treated in these tasks usually have non-Newtonian fluid properties. This kind of fluid flow is frequently associated with the field of energy and process engineering.
In order to narrow down the problem described, the field of turbomachinery is restricted to the consideration of propellers. Propellers are used in a wide range of fluid mechanics tasks. In the form of wind turbines, propellers extract kinetic energy from a control room and thereby slow down the flow. Propeller stirrers, on the other hand, increase the energy level of a flow and accelerate it. Both machines are based on the same principle - only the direction of the energy flow is to be considered as the opposite direction.
The design of new agitators is usually based on experience. Often, agitators are, therefore, not flow-optimised, and cannot be optimally operated. In this thesis, it is investigated whether the design processes of modern wind turbines, which are considered to be mature, can be adapted in order to generate a flow-optimised geometry for this type of turbomachine as well.
This thesis will first examine the basics of wind turbine design processes. Special attention will be paid to the differences caused by the viscous fluid properties under consideration. The highly viscous behaviour of the fluids under consideration means that the theoretical fundamentals have to be extended as a result. Such extensions are identified and supplement the theoretical basis. The thesis will then present and examine an analytically based design process for flow-optimised propeller mixers. The procedure is based on blade element momentum theory.
Application of blade element momentum theory requires detailed knowledge of the aerodynamic behaviour of the profiles used. This behaviour is usually only known for low viscosity and high-Re applications, as is usually the case for wind turbines or propeller engines. Comprehensive profile characteristics are not available for highly viscous and low-Re applications. In this thesis, these basics are generated using numerical methods.
In the next step, the newly introduced design method is combined with the results of the investigations of profile aerodynamics for high viscous low-Re fluid flow. This combination is done using a calculation process which produces the flow-optimised geometry of a propeller mixer. The theoretical principles of the methods are implemented in an algorithm in such a way that the resultant turbomachine can be designed for a previously selected operating point, the design point. In contrast to classical turbomachinery, the design point additionally requires the specification of viscous fluid properties.
However, in practical use, the final selected operating point of a turbomachine is often not the design point. The algorithm is examined for its suitability for inverse power calculation as well in order to compute the complete characteristic curve for a previously generated propeller mixer already in the design process.
Interconnected, autonomously driving cars shall realize the vision of a zero-accident, low energy mobility in spite of a fast increasing traffic volume. Tightly interconnected medical devices and health care systems shall ensure the health of an aging society. And interconnected virtual power plants based on renewable energy sources shall ensure a clean energy supply in a society that consumes more energy than ever before. Such open systems of systems will play an essential role for economy and society.
Open systems of systems dynamically connect to each other in order to collectively provide a superordinate functionality, which could not be provided by a single system alone. The structure as well as the behavior of an open system of system dynamically emerge at runtime leading to very flexible solutions working under various different environmental conditions. This flexibility and adaptivity of systems of systems are a key for realizing the above mentioned scenarios.
On the other hand, however, this leads to uncertainties since the emerging structure and behavior of a system of system can hardly be anticipated at design time. This impedes the indispensable safety assessment of such systems in safety-critical application domains. Existing safety assurance approaches presume that a system is completely specified and configured prior to a safety assessment. Therefore, they cannot be applied to open systems of systems. In consequence, safety assurance of open systems of systems could easily become a bottleneck impeding or even preventing the success of this promising new generation of embedded systems.
For this reason, this thesis introduces an approach for the safety assurance of open systems of systems. To this end, we shift parts of the safety assurance lifecycle into runtime in order to dynamically assess the safety of the emerging system of system. We use so-called safety models at runtime for enabling systems to assess the safety of an emerging system of system themselves. This leads to a very flexible runtime safety assurance framework.
To this end, this thesis describes the fundamental knowledge on safety assurance and model-driven development, which are the indispensable prerequisites for defining safety models at runtime. Based on these fundamentals, we illustrate how we modularized and formalized conventional safety assurance techniques using model-based representations and analyses. Finally, we explain how we advanced these design time safety models to safety models that can be used by the systems themselves at runtime and how we use these safety models at runtime to create an efficient and flexible runtime safety assurance framework for open systems of systems.
Maschinenbetten und -gestelle werden vorwiegend aus Grauguss und als Stahlschweißkonstruktion gefertigt. Aufgrund technischer und wirtschaftlicher Vorteile haben sich seit den 80er Jahren zusätzlich Mineralguss oder epoxidharzgebundener Polymerbeton etabliert. Seit mehreren Jahren wird Ultra High Performance Concrete – UHPC – erfolgreich bei Werkzeugmaschinen eingesetzt. Auf diesen Grundgestellen aus Beton werden neben Gehäusen, Getrieben, Werkzeughaltern, Trafos usw. vor allem die beweglichen Teile der Maschine befestigt. Gängige Praxis hierfür ist die Verwendung von Linearführungsschienen.
Diese Arbeit untersucht die vorgespannte, geschraubte Befestigung der Linearführung auf geschliffenen Betonoberfläche mit Hilfe von speziellen Gewindehülsen. In rechnerischen Voruntersuchungen mittels der FE-Methode wurde der Kraftfluss von der Linearführung über die Befestigungsschraube zur Gewindehülse bis in den Betonuntergrund untersucht und darauf aufbauend ein Versuchsprogramm festgelegt. Probekörper aus hochfestem Beton des Marktführers wurden hergestellt und experimentell untersucht. Nach der Auswertung der Versuche wurde ein Bemessungskonzept entwickelt und in Form einer schrittweisen Anleitung festgehalten. Mehrere Beispiele zeigen die Anwendung des Verfahrens.
Berechnungen, Versuchskonzeption, Durchführung der Versuche, Versuchsauswertung sowie die Entwicklung des Bemessungskonzeptes erfolgten durch den Verfasser. Die Versuche wurden in seiner Anwesenheit in seinem Betrieb, in spezialisierten Unternehmen mit entsprechender Geräteausstattung und zum größten Teil an der TU Kaiserslautern durchgeführt. Die hier betrachteten Untersuchungen und Bemessungsvorschläge betrachten ausschließlich Maschinenbauteile und dürfen nicht auf Situationen im Bauwesen übertragen werden.
Ausgehend von den Batterien nach dem Stand der Technik werden die Einflüsse auf diese untersucht. Es stellt sich heraus, dass vor allem Batterien für den Einsatz in der Traktion und in stationären Anlagen nur mit nicht zu vernachlässigenden Toleranzen gefertigt werden können. Dazu kommt der Einfluss durch den Betrieb, der in Verbindung mit der Fertigungstoleranz und der Lagerbeanspruchung eine Überwachung der Batterie mit einem elektronischen Überwachungs- und Steuergerät, einem sogenannten Batteriemanagementsystem, zwingend notwendig macht. Nur damit kann die aktuelle Qualität einer Batterie erhalten oder verbessert werden. Es folgt eine Klassifizierung von Batteriemanagementsystemen, die ihrerseits in elektrisches Batteriemanagement, thermisches Batteriemanagement und Ladeausgleich aufgeteilt werden. Für diese drei Teileinheiten werden jeweils eine Reihe von Topologien definiert. Das Batteriemanagementsystem mit verteilten Datenerfassungseinheiten und Energiezuführung für den Ladeausgleich wird als Beispiel für eine Geräteentwicklung detailliert beschrieben. Grundlegend für Batteriemanagementsysteme sind deren Algorithmen. Nach der Definition der elektrischen und thermischen Betriebsbereiche verschiedener Batterien werden typische Algorithmen für den Lade- und Entladebetrieb vorgestellt. Weiter werden Verfahren zur Bestimmung des aktuellen Ladezustandes einer Batterie diskutiert. Im Falle eines Betriebes in einem Inselnetz geht in die aktuelle Qualität einer Batterie auch der Isolationswiderstand mit ein. Näher beschrieben wird ein Gerät zur Messung des Isolationswiderstandes. Das Batteriemanagement fordert eine hohe Genauigkeit bei der Datenerfassung. Es werden typische Datenerfassungseinheiten und Sensoren auf ihre Fehlerquellen und die daraus resultierenden Toleranzen untersucht. Weiter werden Kalibrierungsmöglichkeiten diskutiert. Ein weiterer Punkt ist der Test von Batteriemanagementsystemen. Ein Test mit einer realen Batterie nimmt eine längere Zeit in Anspruch. Außerdem besteht dabei die Gefahr einer Schädigung der Batterie. Es wird ein rechnergestütztes System zum Test des elektrischen Batteriemanagements vorgestellt. Abschließend werden integrierte Batteriemanagementsysteme, die im Gerätebereich Anwendung finden, klassifiziert. Es wird gezeigt, dass diese integrierten Lösungen als Ersatz für Datenerfassungseinheiten bei Batterien im Traktions- und Stationärbetrieb eingesetzt werden können. Insgesamt wird nachgewiesen, dass elektronische Überwachungs- und Steuergeräte unabhängig vom Batterietyp und der Einsatzart zum Erhalt oder zur Verbesserung der aktuellen Qualität von Batterien nicht nur sinnvoll sondern für neuere Batterietechnologien unbedingt notwendig sind.
In heutigen Mobilfunksystemen wird ausschließlich senderorientierte Funkkommunikation eingesetzt. Bei senderorientierter Funkkommunikation beginnt der Systementwurf mit dem Sender. Dies bedeutet, daß man a priori die senderseitig verwendeten Algorithmen der Sendesignalerzeugung auswählt und in Abhängigkeit davon a posteriori den im Empfänger zum Datenschätzen verwendeten Algorithmus gegebenenfalls unter Einbeziehen von Kanalzustandsinformation festlegt. Dies ist nötig, um beispielsweise einen möglichst großen Anteil der senderseitig investierten Energie empfängerseitig auszunutzen, das heißt energieeffizient zu sein, und dabei gleichzeitig das Entstehen schädlicher Interferenzsignale zu vermeiden oder zu begrenzen. Im Falle der Senderorientierung kann man senderseitig sehr einfache Algorithmen wählen und implementieren, wobei dieser Vorteil typischerweise durch eine ungleich höher Implementierungskomplexität der a posteriori festzulegenden empfängerseitigen Algorithmen aufgewogen werden muß. Betrachtet man die wirtschaftlich bedeutenden zellularen Mobilfunksysteme, so ist eine derartige Funkkommunikation in der Aufwärtsstrecke vorteilhaft, denn in der Aufwärtsstrecke sind die Endgeräte der mobilen Teilnehmer, die Mobilstationen, die einfachen Sender, wohingegen die ortsfesten Basisstationen die Empfänger sind - und dort kann typischerweise eine größere Komplexität in Kauf genommen werden. In der Abwärtsstrecke derartiger Mobilfunksysteme hingegen, sind die Basisstationen die einfachen Sender, wohingegen die Mobilstationen die aufwendigen Empfänger sind. Dies ist nicht vorteilhaft, da in praktischen Mobilfunksystemen Gewicht, Volumen, Energieverbrauch und Kosten der Endgerätehardware und damit der Mobilstationen mit der Implementierungskomplexität steigen. Wie der Verfasser in der vorliegenden Schrift vorschlägt, läßt sich dieses Problem jedoch umgehen, denn die Funkkommunikation in Mobilfunksystemen kann auch in neuartiger Weise empfängerorientiert gestaltet werden. Empfängerorientierte Funkkommunikation ist dadurch gekennzeichnet, daß der Systementwurf auf der Empfängerseite beginnt. In diesem Fall werden die empfängerseitig verwendeten Algorithmen des Datenschätzens a priori festgelegt, und die senderseitig einzusetzenden Algorithmen der Sendesignalerzeugung ergeben sich dann daraus a posteriori durch Adaption wiederum gegebenenfalls unter Einbeziehen von Kanalzustandsinformation. Durch Empfängerorientierung kann man empfängerseitig sehr einfache Algorithmen wählen und implementieren, muß dafür jedoch eine höhere Implementierungskomplexität auf der Senderseite tolerieren. Angesichts der erwähnten Komplexitätscharakteristika von Sender- beziehungsweise Empfängerorientierung schlägt der Verfasser daher für künftige Mobilfunksysteme vor, Empfängerorientierung in der Abwärtsstrecke und Senderorientierung in der Aufwärtsstrecke einzusetzen. Dies ist insbesondere deshalb vorteilhaft, da Empfängerorientierung in der Abwärtsstrecke neben anderen noch die folgenden weiteren Vorteile gegenüber herkömmlicher Senderorientierung aufweist: 1) Die Leistung der von den Basisstationen abgestrahlten Signale kann reduziert werden. Dies erlaubt performanzhemmende systeminherente Störeinflüsse, die als Interzellinterferenz bezeichnet werden, zu reduzieren und ist im übrigen auch wünschenswert im Hinblick auf die zunehmende Elektrophobie der Bevölkerung. 2) Kanalzustandsinformation wird empfängerseitig nicht benötigt, so daß auf das Senden resourcenbindender Trainingssignale verzichtet und anstelle dessen das Sende von Nutzdaten ermöglicht werden kann. 3) Empfängerseitig ist kein Kanalschätzer vorzusehen, was des weiteren der Implementierungskomplexität des Empfängers zu gute kommt. Mobilfunksysteme lassen sich demzufolge durch Einsetzen des Grundkonzepts der Empfängerorientierung maßgeblich aufwerten. Dieses ist eine klare Motivation die Grundzüge, das Potential und die Ausgestaltungen dieses Grundkonzepts in der Mobilkommunikation in dieser Schrift eingehend zu studieren. Zur Klärung dieser Punkte im Kontext von Mobilkommunikation ist es entscheidend, die Frage der Wahl der Empfänger und die der Adaption der Sender zu beantworten. Die Frage nach der Adaption der Sender ist dabei gleichbedeutend mit der Frage nach der im allgemeinen auf Basis aller Daten erfolgenden gemeinsamen Sendesignalerzeugung. Nach der Einführung eines geeigneten allgemeinen Modells der Abwärtsstreckenübertragung eines zellularen Mobilfunksystems, das auch erst in jüngster Vergangenheit vorgeschlagene Mehrantennenkonfigurationen an den Basisstationen und Mobilstationen einschließt, wird hinsichtlich der A-priori-Wahl der Empfänger herausgestellt, daß, im Hinblick auf die bereits oben angesprochene möglichst geringe Implementierungskomplexität die Ausgestaltung der empfängerseitigen Signalverarbeitung als serielle Verkettung einer linearen Signalverarbeitung und eines nichtlinearen Quantisierers vorteilhaft ist. Die Prinzipien, die bei der Wahl sowohl der linearen Signalverarbeitung als auch des nichtlinearen Quantisierer gelten, werden im folgenden herausgearbeitet. Als Ergebnis dieser Betrachtungen stellt sich heraus, daß ein Gestalten der empfängerseitigen linearen Signalverarbeitung gemäß Codemultiplex hinsichtlich der ausnutzbaren Frequenz-, Zeit- und Raumdiversität vorteilhaft ist, jedoch leistungsfähige Verfahren der gemeinsamen Sendesignalerzeugung voraussetzt, die die Entstehung schädlicher Interferenzsignale verhindern. Des weiteren wird klar, daß sich die nichtlinearen Quantisierer sinnvollerweise in die Klasse der konventionellen und die der unkonventionellen Quantisierer unterteilen lassen; gleiches gilt für die diese Quantisierer verwendenden Empfänger. Konventionelle Quantisierer basieren auf einfach zusammenhängenden Entscheidungsgebieten, wobei jedes Entscheidungsgebiet eindeutig einer möglichen Ausprägung eines übertragenen Nachrichtenelements zugeordnet ist. Demgegenüber weisen unkonventionelle Quantisierer mehrfach zusammenhängende Entscheidungsgebiete auf, die sich jeweils aus mehreren Teilentscheidungsgebieten zusammensetzen. Das Vorhandensein mehrerer Teilentscheidungsgebiete pro Entscheidungsgebiet und damit pro Ausprägung eines übertragenen Nachrichtenelements stellt einen bei unkonventionellen Quantisierern verfügbaren zusätzlichen Freiheitsgrad dar, der bei der gemeinsamen Sendesignalerzeugung vorteilhaft genutzt werden kann, um die angesprochene Leistung der von den Basisstationen abgestrahlten Signale zu reduzieren. Ein Schwerpunkt der vorliegenden Schrift ist das Studium von Verfahren der gemeinsamen Sendesignalerzeugung. Diese werden daher systematisch gegliedert und erarbeitet. Es stellt sich heraus, daß Verfahren der gemeinsamen Sendesignalerzeugung prinzipiell unterteilt werden können in solche Verfahren für konventionelle Empfänger und solche für unkonventionelle Empfänger. Hinsichtlich Verfahren der erstgenannten Art wird herausgearbeitet, wie eine optimale gemeinsame Sendesignalerzeugung zu erfolgen hat, die unter gewissen Nebenbedingungen eine optimale Übertragungsqualität im Sinne minimaler Übertragungsfehlerwahrscheinlichkeit erzielt. Eine derartige gemeinsame Sendesignalerzeugung ist im allgemeinen recht aufwendig, so daß im Folgeverlauf die suboptimalen linearen Verfahren der gemeinsamen Sendesignalerzeugung Transmit Matched Filter (TxMF), Transmit Zero-Forcing (TxZF) und Transmit Minimum-Mean-Square-Error (TxMMSE) vorgeschlagen werden, die jeweils einen mehr oder weniger guten Kompromiß zwischen Implementierungskomplexität, Interferenzunterdrückung und Robustheit hinsichtlich Rauschens aufweisen. Der Verfasser schlägt vor, die Leistungsfähigkeit derartiger suboptimaler Verfahren unter anderem durch die bei gegebener Zeitdauer abgestrahlte totale Energie der Sendesignale, die totale Sendeenergie, - denn diese ist nicht nur im technischen, sondern auch im gesellschaftlichen Sinn ein wichtiger Aspekt, - und das Kriterium der Sendeeffizienz zu bewerten. Sendeeffizienz beurteilt das Zusammenspiel aus Interferenzunterdrückung einerseits und energieeffizienter Übertragung andererseits. Es stellt sich durch analytische und numerische Betrachtungen heraus, daß beide Größen vorrangig von zwei Einflußfaktoren bestimmt werden: der Anzahl der Freiheitsgrade bei der gemeinsamen Sendesignalerzeugung - und das ist die Anzahl der zu bestimmenden Abtastwerte aller Sendesignale - und der Anzahl der dabei einzuhaltenden Restriktionen. Da die Anzahl der Restriktionen bei der Forderung einer möglichst geringen wechselseitigen Interferenz nicht beeinflußbar ist, schlägt der Verfasser daher zum Erhöhen der Leistungsfähigkeit der empfängerorientierten Funkkommunikation vor, die Anzahl der Freiheitsgrade zu erhöhen, was sich vorzugsweise durch Verfolgen des Prinzips der unkonventionellen Empfänger umsetzen läßt. Es wird gezeigt, wie unter gewissen Nebenbedingungen eine hinsichtlich der Übertragungsfehlerwahrscheinlichkeiten optimale gemeinsame Sendesignalerzeugung prinzipiell erfolgen muß, und welche erheblichen Performanzgewinne im Sinne der totalen Sendeenergie und der Sendeeffizienz möglich werden. Diese optimale Vorgehensweise ist sehr aufwendig, so daß darüber hinaus aufwandsgünstige suboptimale hochperformante Alternativen der gemeinsamen Sendesignalerzeugung für unkonventionelle Empfänger vorgeschlagen und betrachtet werden. Die gemeinsame Sendesignalerzeugung setzt senderseitiges Vorliegen von Kanalzustandsinformation voraus. Daher werden die prinzipiellen Möglichkeiten des zur Verfügung Stellens dieser Information behandelt, wobei dabei das Bereitstellen dieser Information auf Basis gegebenenfalls vorliegender Kanalreziprozität im Falle von Duplexübertragung favorisiert wird. Dabei wird die in der Aufwärtsstrecke gewonnene Kanalzustandsinformation zur gemeinsamen Sendesignalerzeugung in der Abwärtsstrecke genutzt. Ist die dabei genutzte Kanalzustandsinformation nicht exakt, so hat dieses prinzipiell eine Degradation der Leistungsfähigkeit der empfängerorientierten Funkkommunikation zur Folge. Analytische und/oder numerische Betrachtungen erlauben, die Degradation zu quantifizieren. Es stellt sich heraus, daß diese Degradation vergleichbar mit der von konventionellen senderorientierten Funkkommunikationssystemen bekannten ist. Eine Betrachtung möglicher Weiterentwicklungen des Grundprinzips der Empfängerorientierung komplettieren die in dieser Schrift angestellten Betrachtungen. Die Ergebnisse dieser Schrift belegen, daß Empfängerorientierung ein interessanter Kandidat für die Organisation der Abwärtsstreckenübertragung künftiger Mobilfunksysteme ist. Darüber hinaus wird klar, welche grundsätzlichen Prinzipien und Effekte bei der empfängerorientierten Funkkommunikation wirksam sind und durch welche Vorgehensweisen bei der Gestaltung derartiger Funkkommunikation die Einflüsse der verschiedenen Effekte gegeneinander ausbalanciert werden können. Für den Systemdesigner morgiger Mobilfunksysteme steht mit dieser Schrift daher ein wertvolles Nachschlagewerk zur Verfügung, daß dabei unterstützt, die genannten prinzipiellen Vorteile von Empfängerorientierung in Funktechnologien der Praxis umzumünzen.
The main goal of this work is to examine various aspects of `inelastic continuum mechanics': first, fundamental aspects of a general finite deformation theory based on a multiplicative decomposition of the deformation gradient with special emphasis on the incompatibility of the so-called intermediate configuration are discussed in detail. Moreover, various balance of linear momentum representations together with the corresponding volume forces are derived in a configurational mechanics context. Subsequent chapters are consequently based on these elaborations so that the applied multiplicative decomposition generally serves as a fundamental modelling concept in this work; after generalised strain measures are introduced, a kinematic hardening model coupled with anisotropic damage, a substructure evolution framework as well as two different growth and remodelling formulations for biological tissues are presented.
Die moderne Reaktions- und Trenntechnik in der chemischen Industrie ist eine Hochtechnologie. Die dort eingesetzten Verfahren zur Reaktionsführung und Auftrennung der Produkte sind weitestgehend optimiert. Zu diesem Stand hat die instrumentelle Analytik – speziell die Prozeßanalytik – wesentlich beigetragen. Das Reaktions- und Prozeßmonitoring ist eine wichtige Hilfe zum Verständnis der komplexen Zusammenhänge. In der vorliegenden Arbeit wird der Einsatz der NMR-Spektroskopie in verfahrenstechnischen Anwendungen wie dem Reaktions- und Prozeß-Monitoring diskutiert und alle dazu notwendigen Grundlagen erläutert. Solche Anwendungen erfordern häufig Techniken, mit denen hochaufgelöste Spektren zerstörungsfrei aufgenommen werden können, oft bei erhöhtem Druck und erhöhter Temperatur. Neben der quantitativen Bestimmung der Zusammensetzung komplexer reagierender Mischungen besteht gleichzeitig die Möglichkeit zur Identifikation von Nebenprodukten. Dieses gelingt insbesondere durch die Nutzung der NMR-Spektroskopie als Online-Methode, die in der Literatur bislang nur in wenigen Einzelfällen beschrieben und trotz ihrer enormen Möglichkeiten noch nicht konsequent angewendet wird. Durch die fortschreitende Entwicklung auf dem Gebiet der NMR-Spektroskopie kann eine Online-Anbindung heute durchgehend mit Hilfe kommerziell erhältlicher Komponenten erfolgen – wie die vorliegende Arbeit zeigt. Fallende Kosten in der Beschaffung und dem Betrieb leistungsfähiger NMR-Spektrometer machen die Methode auch im verfahrenstechnischen Umfeld mittlerweile sehr attraktiv. Die Attraktivität der Methode gewinnt neuerdings insbesondere durch die erweiterten Einsatzmöglichkeiten kompakterer NMR-Magneten mit geringen Streufeldern. Obwohl sich in den Ingenieurwissenschaften damit vielfältige Einsatzmöglichkeiten ergeben, wird die NMR-Spektroskopie dort bislang noch leider kaum genutzt. Besondere Herausforderungen stellen sich u. a. dadurch, daß sich weder deuterierten Komponenten einsetzen lassen noch die Probe in einer geeigneten Weise in einer Probenvorbereitung verändert werden kann. Damit kommen hochkonzentrierte Mischungen zur direkten Untersuchung. Dieses hat signifikante Rückwirkungen auf die einzusetzende NMR-Methodik, die im Rahmen der Arbeit umfassend untersucht wurde. In der Regel lassen sich die Probleme bei entsprechender experimenteller Vorgehensweise umgehen. Zur Garantie quantitativer Meßwerte wurden alle eingesetzten Meß- und Auswertungsstrategien ausführlich untersucht und teilweise erweitert. Um quantitativ aussagekräftige Online-NMR-Spektren mit Hilfe der 1H- und 13C-NMRSpektroskopie von technischen Mischungen zu erhalten, wurden folgende Aufgaben gelöst: Entwicklung und Validierung von Vorgehensweisen zur Messung hochkonzentrierter, technischer Mischungen ohne Probenvorbereitung und ohne Zusatz deuterierter Komponenten; Konstruktion geeigneter Apparaturen zur Untersuchung von Reaktionsgleichgewichten und -kinetiken für verschiedene Druck- und Temperaturbereiche, die sich optimal für die Online-NMR-Spektroskopie einsetzen lassen; Ankopplung der NMR-Spektrometers an die unterschiedlichen Apparate mit Hilfe von NMR-Durchflußzellen; Schaffung einer möglichst noninvasiven Untersuchungsmethode hinsichtlich aller Probenparameter (z. B. Druck, Temperatur); Schaffung und Erprobung von Meß- und Auswertungsstrategien im Hinblick auf quantitative Parameter, Erweiterung des zugänglichen Druck- und Temperaturbereiches der Messungen sowie Verkürzung des Zeitfensters für Messungen durch geeignete Peripherie und konstruktiven Veränderungen am NMR-Probenkopf. Als Beispiel werden Messungen an binären und ternären flüssigen Mischungen aus Formaldehyd, Wasser und Methanol diskutiert. In diesen Systemen ist Formaldehyd fast ausschließlich in Poly(oxymethylen)Glykolen und -hemiformalen chemisch gebunden. Die chemischen Reaktionen in formaldehydhaltigen Mischungen bestimmen deren thermodynamisches Verhalten sowie ihre Trennung mit thermischen Verfahren. Die NMR-Spektroskopie ist das zentrale analytische Verfahren, mit dem sich diese Vorgänge aufklären und quantifizieren lassen. Für die hier vorgestellten Untersuchungen zum Prozeßmonitoring kamen u. a. eine Online-NMRKopplung mit einem Dünnschichtverdampfer sowie mit einem Rührreaktor zum Einsatz. In weiteren Anwendungsbeispielen zum Thema Formaldehyd wird aufgezeigt, daß sich die Online-NMR-Spektroskopie auch zum Studium komplexer Reaktionsnetzwerke, zur Messung von Gaslöslichkeiten oder zur Quantifizierung kleinster Produktmengen unter schwierigen, technischen Reaktionsbedingungen eignet. Ferner werden Arbeiten zur Aufklärung und Quantifizierung der chemischen Prozesse bei der Absorption von Kohlendioxid in wässrigen Aminlösungen bei Drücken bis zu 30 bar und reaktionskinetische Untersuchungen von Veresterungen vorgestellt, bei denen auch ein Vergleich mit einer GC-Analytik durchgeführt wurde. Ebenso wird gezeigt, daß sich die Online-NMR-Spektroskopie zur Beobachtung von Reaktionen in Ionischen Flüssigkeiten eignet. Ein Teil der Arbeit beschäftigt sich mit der Untersuchung fluider Mischungen bei hohen Drücken. Beispielhaft werden Arbeiten zu H-Brückengleichgewichten von Methanol in überkritischem Kohlendioxid vorgestellt, die eine wertvolle, experimentelle Datenbasis zur Überprüfung molekulardynamischer Modelle in der molekularen Simulation liefern. Für die meisten Anwendungsbeispiele werden neue Reaktoren und Meßapparaturen vorgestellt, die sich besonders für den Einsatz in der Durchfluß-NMR-Spektroskopie eignen. Schließlich wird kurz auf die Anwendung der NMR-Spektroskopie zur Bestimmung physikalisch chemischer Größen eingegangen, wie z. B. zur Bestimmung von Diffusuionskoeffizienten in technischen Mischungen. Erstmals wird der Einsatz der Methode in der Taylor-Dispersionstechnik beschrieben und experimentell belegt.
Interferenzreduktion in CDMA-Mobilfunksystemen - ein aktuelles Problem und Wege zu seiner Lösung
(2003)
Eine signifikante Steigerung der Leistungsfähigkeit von Mobilfunksystemen und die damit verbundene Erhöhung des mit begrenzten Frequenzspektrumsressourcen erzielbaren ökonomischen Gewinns erfordert eine Interferenzreduktion. Da der von einem empfangenen Interferenzsignal erzeugte Störeffekt sowohl von der Leistung des Interferenzsignals als auch von der Struktur des Interferenzsignals im Vergleich zur Struktur des Nutzsignals abhängt, ergeben sich zwei prinzipielle Ansätze zur Reduktion der Interferenz. Bei den Interferenzreduktionsverfahren auf der Systemebene wird die Leistung der empfangenen Interferenzsignale zum Beispiel durch geschickte Regelung der Sendeleistungen oder durch Einstellen der Richtcharakteristiken von Antennen reduziert. Interferenzreduktionsverfahren auf der Systemebene sind relativ einfach realisierbar und können bereits in heutigen Mobilfunksystemen erfolgreich eingesetzt werden. Interferenzreduktionsverfahren auf der Verbindungsebene zielen auf eine vorteilhafte Beeinflussung oder Berücksichtigung der Signalstrukturen. Ausgehend von allgemeingültigen Eigenschaften des Mobilfunkkanals wie Linearität kann man Signalstrukturen finden, die a priori zu wenig oder sogar keiner schädlichen Interferenz führen. Solche einfachste, vom aktuellen Zustand des Mobilfunkkanals unabhängigen Interferenzreduktionsverfahren auf der Verbindungsebene sind beispielsweise die Vielfachzugriffsverfahren, die in jedem Mobilfunksystem eingesetzt werden. In letzter Zeit werden auch vermehrt Interferenzreduktionsverfahren auf der Verbindungsebene untersucht, die die Kenntnis des aktuellen Kanalzustands ausnutzen. Solche Interferenzreduktionsverfahren erfordern komplizierte Berechnungen in Sender oder Empfänger, in die die einzelnen Signalabtastwerte und die schnell zeitvarianten Kanalimpulsantworten eingehen. Der daraus resultierende hohe Rechenaufwand verhinderte bis vor kurzem eine Realisierung in kommerziellen Produkten. Interferenzreduktionsverfahren auf der Verbindungsebene kann man in senderseitige Verfahren und empfängerseitige Verfahren unterteilen. Die senderseitigen Verfahren versuchen, durch geschickte Gestaltung der Sendesignale schädliche Interferenzen zu vermeiden. Ein Schwerpunkt der vorliegenden Schrift ist das Untersuchen empfängerseitiger Interferenzreduktionsverfahren auf der Verbindungsebene. Hier interessiert neben der gemeinsamen Kanalschätzung insbesondere die gemeinsame Datenschätzung. Ein wesentliches Problem bei der empfängerseitigen Interferenzreduktion auf der Verbindungsebene ist die erhöhte Anzahl zu berücksichtigender Mobilstationen bei der gemeinsamen Datenschätzung. Im Vergleich zu Empfängern ohne Interferenzreduktion müssen mehr Daten aus einer unveränderten Anzahl an verfügbaren Empfangswerten geschätzt werden, was zu einem verminderten Mehrteilnehmercodierungsgewinn des Datenschätzers führt. Verfahren der gemeinsamen Datenschätzung können nur dann gewinnbringend eingesetzt werden, wenn der negative Effekt des verminderten Mehrteilnehmercodierungsgewinns durch den positiven Effekt der reduzierten Interferenz mindestens kompensiert wird. Diese Forderung ist bei der Interzellinterferenzreduktion besonders kritisch, da die einzelnen Interzellinterferer häufig nur mit geringer Leistung empfangen werden, das heißt der positive Effekt der reduzierten Interferenz bei Berücksichtigen eines Interzellinterferers relativ gering ausfällt. Eine Voraussetzung zur erfolgreichen Interferenzreduktion und insbesondere zur Interzellinterferenzreduktion sind folglich Datenschätzer mit hohem Mehrteilnehmercodierungsgewinn. Die bekannten linearen gemeinsamen Datenschätzer wie der Zero-Forcing-Schätzer können diese Forderung nach hohem Mehrteilnehmercodierungsgewinn bei größeren Anzahlen gemeinsam detektierter Mobilstationen nicht erfüllen. Ein mögliche Lösung zum Erzielen hoher Mehrteilnehmercodierungsgewinne mit moderaten Rechenaufwänden sind die in der vorliegenden Schrift untersuchten, auf dem Turbo-Prinzip basierenden iterativen gemeinsamen Datenschätzer. Prinzipiell handelt es sich bei den hier untersuchten Datenschätzern um iterative Versionen der bekannten linearen gemeinsamen Datenschätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt die Kenntnis des Modulationsalphabets und optional des eingesetzten Fehlerschutzcodes zum Verbessern der Schätzergebnisse. Die vielen vorgestellten Varianten der iterativen gemeinsamen Datenschätzer und die verschiedenen Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für jeden Anwendungsfall einen maßgeschneiderten gemeinsamen Datenschätzer zu konstruieren.
The primary objective of this work is the development of robust, accurate and efficient simulation methods for the optimal control of mechanical systems, in particular of constrained mechanical systems as they appear in the context of multibody dynamics. The focus is on the development of new numerical methods that meet the demand of structure preservation, i.e. the approximate numerical solution inherits certain characteristic properties from the real dynamical process.
This task includes three main challenges. First of all, a kinematic description of multibody systems is required that treats rigid bodies and spatially discretised elastic structures in a uniform way and takes their interconnection by joints into account. This kinematic description must not be subject to singularities when the system performs large nonlinear dynamics. Here, a holonomically constrained formulation that completely circumvents the use of rotational parameters has proved to perform very well. The arising constrained equations of motion are suitable for an easy temporal discretisation in a structure preserving way. In the temporal discrete setting, the equations can be reduced to minimal dimension by elimination of the constraint forces. Structure preserving integration is the second important ingredient. Computational methods that are designed to inherit system specific characteristics – like consistency in energy, momentum maps or symplecticity – often show superior numerical performance regarding stability and accuracy compared to standard methods. In addition to that, they provide a more meaningful picture of the behaviour of the systems they approximate. The third step is to take the previ- ously addressed points into the context of optimal control, where differential equation and inequality constrained optimisation problems with boundary values arise. To obtain meaningful results from optimal control simulations, wherein energy expenditure or the control effort of a motion are often part of the optimisation goal, it is crucial to approxi- mate the underlying dynamics in a structure preserving way, i.e. in a way that does not numerically, thus artificially, dissipate energy and in which momentum maps change only and exactly according to the applied loads.
The excellent numerical performance of the newly developed simulation method for optimal control problems is demonstrated by various examples dealing with robotic systems and a biomotion problem. Furthermore, the method is extended to uncertain systems where the goal is to minimise a probability of failure upper bound and to problems with contacts arising for example in bipedal walking.
Bei der Herstellung von Faser-Kunststoff-Verbunden (FKV) kommen unterschiedlichste Faser-, Kunststoff- sowie Faser/Kunststoff-Halbzeuge zum Einsatz. Diese weisen oft sehr komplexe Verarbeitungseigenschaften auf, die bei der Prozessentwicklung eine besondere Herausforderung darstellen. Ein typisches Beispiel ist die Verfahrensgruppe der Flüssigimprägnierverfahren, bei denen eine endkonturnahe Faserstruktur mit einem Harzsystem imprägniert wird. Eine den Prozessverlauf maßgeblich bestimmende Verarbeitungseigenschaft der Faserstruktur ist hierbei die Permeabilität. Sie quantifiziert die Durchlässigkeit der Faserstruktur für die fluide Strömung und resultiert aus einer Vielzahl an interdependenten Einflüssen, wie z. B. einer inhomogenen Porosität mit extrem variierenden Fließkanaldurchmessern, lokalen Strukturvariationen, einer hohen Deformierbarkeit sowie Kapillarkräften.
Wissensgenerierung durch Grundlagenforschung zu einer einzelnen prozesskritischen Verarbeitungseigenschaft (wie der Permeabilität), stellt eine ideale Grundlage für die ganzheitliche, also sowohl die Prozess- und Anlagentechnik als auch die Materialien umfassende, Prozessentwicklung der jeweils betrachteten Verfahren/Verfahrensgruppe (z. B. Flüssigimprägnierverfahren) dar. Vor diesem Hintergrund wird in der vorliegenden Arbeit eine mehrstufige, in sich geschlossene Forschungsmethodik definiert, die zur kontinuierlichen Weiterentwicklung des betrachteten Herstell-verfahrens sowie der eingesetzten Anlagen, Werkzeuge und Materialien geeignet ist. Anhand von Forschungsarbeiten zum Anwendungsbeispiel der Flüssigimprägnierverfahren bzw. der Permeabilität wird gezeigt, wie die Methodik umgesetzt werden kann: Der erste Schritt besteht in der Entwicklung von Methoden und Technologien, um Einflüsse auf die Permeabilität reproduzierbar zu erzeugen und die Auswirkungen untersuchen zu können. Anschließend folgen Parameterstudien zu Einflüssen auf die Permeabilität und die gewonnenen Erkenntnisse werden dann zu Richtlinien aggregiert. Anhand der Richtlinien können Materialien, Prozesse und Messtechnologien auf einen Anwendungsfall hin optimiert werden. Schließlich, werden über den Erkenntnisgewinn grundlegend neue Technologien entwickelt, woraus sich wiederum neue Aufgaben für die erste Stufe der Methodik ergeben.