Refine
Year of publication
Document Type
- Habilitation (17) (remove)
Has Fulltext
- yes (17)
Keywords
- CDMA (2)
- Mobilfunk (2)
- continuum mechanics (2)
- Batteriemanagement (1)
- Batterien (1)
- Biomechanik (1)
- Design process (1)
- Empfängerorientierung (1)
- Faser-Kunststoff-Verbunde (1)
- Finite-Elemente-Methode (1)
Faculty / Organisational entity
Die Arbeit behandelt neuartige und gängige Methoden der Baugrundertüchtigung. Die Notwendigkeit einer Baugrundertüchtigung ergibt sich, wenn der anstehende Baugrund nicht in der Lage ist, den beabsichtigten Einwirkungen einen ausreichenden Widerstand entgegenzusetzen. Hierbei kann es sich um Einwirkungen einer geplanten Baumaßnahme handeln, wobei diese Lasten statischer oder auch dynamischer Natur sein können. Auch wenn es sich um Hilfsmaßnahmen handelt, beispielsweise an Baustraßen, so müssen diese während der geplanten Bauzeit ihre Funktion sicher erfüllen. Als weiteres Beispiel sei die Verarbeitbarkeit eines Bodens genannt, wenn dieser als Baustoff bei der Errichtung eines Dammbauwerkes verwendet wird. Letztendlich unterliegen Erdbauwerke nicht nur mechanischen Belastungen, sondern können auch durch Erosionsvorgänge einer Beanspruchung ausgesetzt sein. Wird der Baustoff Boden diesen Anforderungen nicht in ausreichendem Maße gerecht, so muss er entweder gegen ein geeignetes Material ausgetauscht werden oder es werden beispielsweise aufwändige Ergänzungsmaßnahmen erforderlich.
Um diese Maßnahmen zu umgehen, bieten sich in geeigneten Situationen die Ertüchtigung der vorgefundenen Böden an. Hierbei handelt es sich nicht nur um eine ressourcenschonende Vorgehensweise, oftmals ist diese Vorgehensweise auch die wirtschaftlichere. Der anstehende Boden muss nicht verfrachtet, möglicherweise deponiert und ein neues Material beigefahren werden. Die in situ Bearbeitung erfordert lediglich die Beistellung entsprechender Bauhilfsstoffe zur Ertüchtigung.
Welche Art an Bauhilfsstoffen zum Einsatz kommt, richtet sich vorrangig nach den vorgefundenen Bodenverhältnissen. Als traditionelles und längst etabliertes Verfahren hat sich die Beimischung geeigneter Bindemittel hervorgetan. Zu nennen sind hier die beiden hydraulischen Bindemittel Kalk und Zement. Für die Anwendung dieser Stoffe existieren Regelwerke, die Prüfungs- und Kontrollmethoden vor und während des Einbaus solcher Boden-Bindemittel-Mischungen beschreiben.
Trotz des seit langer Zeit bewährten Einsatzes, ist auch bei den beiden genannten Bauhilfsstoffen zu berücksichtigen, dass es sich letztendlich um Rohstoffe handelt, obwohl auch hier insbesondere bei den Kompositzementen bereits ein erhebliches Recyclingpotential genutzt wird. Jedoch fällt ins Gewicht, dass bei der Herstellung der Produkte klimaschädliches Kohlendioxid freigesetzt wird. Unter diesen Gesichtspunkten stellt die Verwendung von Industrieabfällen, die in gleichbleibender Güte anfallen, eine interessante Alternative dar. Neben diesen sogenannten by-products können auch recyclingfähige Materialien verwendet werden, sofern deren Eignung nachgewiesen werden kann. Eine gewisse Hürde bei der Verwendung der letztgenannten Alternativen stellen umweltrechtliche Fragestellungen dar. Zum einen handelt es sich um Abfälle und damit um Produkte, die rechtlich einer gänzlich anderen Würdigung und Bewertung unterliegen. Zum anderen müssen entsprechende Wechselwirkungen zwischen den Stoffen und der umgebenden Biosphäre berücksichtigt und bewertet werden.
In der vorliegenden Habilitationsarbeit werden im ersten Kapitel zunächst als Ausgangspunkt die wesentlichen Merkmale und Eigenschaften beim Einsatz traditioneller Kalk- und Zementbeimischungen untersucht. Das Kapitel 2 schließt an mit Betrachtungen zu dem Baustoff Tonbeton. Hierbei handelt es sich um einen ebenfalls schon lange Zeit bekannten Baustoff, der zwar aufgrund seines eng begrenzten Anwendungsspektrums nur wenig verbreitet ist. Aufgrund seiner Ähnlichkeit zu aktuellen Baustoffen, den zeitweise fließfähigen, selbstverdichtenden Verfüllbaustoffen, gewinnt das Produkt jedoch an Bedeutung. Dies gilt umso mehr, als Prüf- und Kontrollmethoden aufgrund des ähnlichen rheologischen Verhaltens im frühen Zustand derzeit nur ansatzweise vorliegen.
Die Kapitel 3 bis 5 umfassen neuartige Methoden der Bodenertüchtigung. Zu allen Verfahren liegen bereits Erfahrungen aus mehr als zwei Jahrzehnten vor. Diese Erfahrung beruht jedoch vorrangig auf exemplarischen Laborstudien.
Zu nennen sind hier zunächst die Epoxidharze in Kapitel 3. Epoxide werden im Konstruktiven Ingenieurbau vermehrt eingesetzt. Auch in der Geotechnik finden sich neben Laboruntersuchungen bereits praktische Anwendungsfälle, die eine wirksame Ertüchtigung von Festgestein dokumentiert. Eigene Untersuchungen bestätigen die Wirksamkeit dieser Methode.
Mit den Untersuchungen zu Boden-Gummi-Mischungen in Kapitel 4 werden Recyclingprodukte in die Ertüchtigungsmethoden mit einbezogen. Recyclinggummi steht in den unterschiedlichsten Formen zur Verfügung. Je nach Aufwand werden entweder komplette Reifen verbaut, zu Paketen verschnürt oder als Schreddergut in unterschiedlichen Siebfraktionen bis hin zu Pulver verbaut. Dementsprechend vielfältig ist auch das Anwendungsspektrum. Während insbesondere in den USA und einigen europäischen Ländern dieser „Baustoff“ bereits eine gewisse Akzeptanz besitzt, führen in Deutschland rechtliche und umwelttechnische Belange dazu, dass dieses Produkt derzeit nicht vermehrt eingesetzt wird.
In dem letzten Kapitel 5 wird als Ertüchtigungsmethode die Verwendung von Enzymen vorgestellt. Die Untersuchungen belegen, dass dieses biologische Verfahren für bestimmte Anwendungen durchaus seine Berechtigung hat und auch konkurrenzfähig zu bestehenden Methoden auftreten kann.
A general framework for the thermodynamics of open systems is developed in the spatial and the material setting. Special emphasis is placed on the balance of mass which is enhanced by additional source and flux terms. Different solution strategies within the finite element technique are derived and compared. A number of numerical examples illustrates the features of the proposed approach.
Die geometrische Produktspezifikation steht - wie viele andere Industriezweige - vor einschneidenden Veränderungen. Durch Digitalisierung und Automatisierung ändern sich viele industrielle Rahmenbedingungen. Ziel dieser Arbeit ist es, die derzeitigen Trends für die industrielle Rauheitsmesstechnik systematisch zusammenzutragen. Basierend auf diesen Veränderungen werden korrespondierende eigene Forschungsarbeiten vorgestellt, welche an die gezogenen Schlussfolgerungen anknüpfen. Dabei wird ein ganzheitlicher Ansatz zur Betrachtung technischer Oberflächen gewählt, welcher zunächst die fertigungstechnische Erzeugung deterministischer Rauheitsstrukturen analysiert. Anschließend werden die Beschreibung der resultierenden Topographiemerkmale mittels mathematischer Modelle und deren messtechnische Erfassung durch typische Topographie-Messgeräte untersucht. Weiterhin wird die hierauf aufbauende Charakterisierung der Oberfläche thematisiert, welche durch die Anwendung der Operationen Einpassung, Interpolation, Filterung und Berechnung von Rauheitskenngrößen gekennzeichnet ist.
Im Rahmen fertigungstechnischer Betrachtungen werden dabei neue Technologien für die Herstellung flächenhafter Kalibriernormale untersucht, welche stellvertretend für deterministische Rauheitsstrukturen dienen, die immer weitere industrielle Verbreitung finden, um funktionelle Bauteileigenschaften mithilfe der Oberflächenbeschaffenheit abzubilden. Als Fertigungsverfahren werden dabei das direkte Laserschreiben sowie das Mikrofräsen betrachtet.
Für die eigentliche Betrachtung dieser Oberflächen werden dabei Ansätze zur Modellierung von Rauheitseigenschaften untersucht, welche auf Methoden aus der Zeitreihenmodellierung basieren.
Die messtechnische Erfassung von Rauheitsstrukturen ist anschließend Gegenstand der Analyse des Übertragungsverhaltens. Dabei werden hier ebenfalls Modelle genutzt, um die Übertragung von Oberflächeneigenschaften durch technische Rauheitsmessgeräte zu modellieren.
Letzte Betrachtungen werden zur Auswertung von Rauheitskenngrößen angestellt. Dabei werden insbesondere die funktionsorientierten Rauheitskenngrößen untersucht, welche aufgrund der zunehmenden Komplexität technischer rauer Oberflächen verstärkt an Bedeutung gewinnen.
Compared to traditional software design, the design of embedded software is even more challenging: In addition to the correct implementation of the systems, one has to consider non-functional constraints such as real-time behavior, reliability, and energy consumption. Moreover, many embedded systems are used in safety-critical applications where errors can lead to enormous damages and even to the loss of human live. For this reason, formal verification is applied in many design flows using different kinds of formal verification methods.
The synchronous model of computation has shown to be well-suited in this context. Its core is the paradigm of perfect synchrony which assumes that the overall system behavior is divided into a sequence of reactions, and all computations within a reaction are completed in zero time. This temporal abstraction simplifies reactive programming in that developers do not have to bother about many low-level details related to timing, synchronization and scheduling. This thesis is dedicated to this design flow, and it presents the author's contributions to it.
Diese Schrift behandelt Spezialanwendungen von Schleifscheiben. Darunter fallen Anwendungen herkömmlicher Schleifscheiben für Spezialanwendungen, die über den üblichen Materialabtrag hinausgehen und auch die Entwicklung von Spezialschleifscheiben. Die Spezialanwendungen werden jeweils vorgestellt, die erzielten Ergebnisse diskutiert und kritisch reflektiert. Vor- und Nachteile sowie eventuelle Hemmnisse für die Erreichung einer Serien-reife werden beleuchtet. Nach der technologischen Bewertung erfolgt eine Betrachtung der Nachhaltigkeit der Spezialanwendungen, um eine abschließende Beurteilung zu ermöglichen, welche Konzepte sowohl technologisch also auch ökologisch und ökonomisch sinnvoll erscheinen und welche nicht. Hintergrund dieser Überlegungen ist die Tatsache, dass ein Spezialverfahren technologisch noch so interessant oder fähig sein mag, so lange es keine Vorteile für den Einsatz der Produkte oder eine Steigerung der Nachhaltigkeit der Produkte mit sich bringt, ist die Verfolgung des Spezialverfahrens nicht zu empfehlen. Daraus ergeben sich Empfehlungen für die Forschung und die Industrie zur Verfolgung bestimmter Spezialanwendungen.
Sicherheitstechnik ist eine sehr breit gefächerte Querschnittsdisziplin mit der Aufgabe
Mensch und Umwelt vor den Gefahren von Maschinen, Prozessen und technischen
Anlagen zu schützen. Während im 19ten Jahrhundert Anlagen durch Erfahrungswissen
sicher gestaltet worden sind, ist in der Sicherheitstechnik heute eine sehr
systematische Analyse von Gefahren und Risiken üblich. Dazu ist eine spezielle
Denkweise im Umgang mit stochastischen Prozessen und Unsicherheiten bei der
Modellierung hilfreich, die der Verfahrenstechniker oder Chemieingenieur ebenso
wenig im Studium erlernt wie ein Maschinenbauer oder Chemiker.
Die Sicherheitstechnik selbst und ihre Sicherheitskonzepte sind über lange Zeiträume
entstanden, beginnen mit Grundlagenforschungen, die anwendungsorientiert zu
speziellen sicherheitstechnischen Apparaten oder Modellen geführt haben. Diese
Apparate und Modelle sind anschließend eingebunden worden in Sicherheitskonzepte
für spezielle Anlagen wie Chemiereaktoren oder Gashochdruckleitungen.
In der vorliegenden Arbeit ist die Breite der Sicherheitstechnik und ihre Entwicklung an
sehr unterschiedlichen Beispielen verdeutlicht worden. Grundlegende Erkenntnisse
aus der Zweiphasenströmung führen zu Modellen wie der Auslegung von klassischen
Notentlastungsleitungen oder zur Entwicklung von Rückhalteeinrichtungen. Diese sind
Bestandteil von sehr unterschiedlichen Anlagensicherheitskonzepten bei Wärmeübertragern,
in der Hochdrucktechnik oder bei Multipurpose-Anlagen. Die Forschung zu
Grundlagen der Zweiphasenströmung führt auch zu neuen Sicherheitskonzepten für
Gashochdruckleitungen.
Am Beispiel von sicherheitsrelevanten Armaturen ist die langjährige Entwicklung von
Modellen zur Bemessung dieser Bauteile aufgezeigt worden. Ausgehend von einem
einfachen Düsenmodell wurden immer mehr Parameter berücksichtigt, um nicht nur
sicherheitsrelevante Ventile und Berstscheiben auszulegen, sondern auch Klappen,
Blenden, Stellventile und andere Armaturen. Durch eine hinreichende Validierung der
Modelle entstehen aus der Forschung neue Erkenntnisse für eine signifikante
Weiterentwicklung des Stands der Sicherheitstechnik.
Die vorliegende Arbeit verfolgt das Ziel, das Aufkommen und die Verteilung von Stoffen im urbanen Wasserkreislauf, insbesondere in den Abwassersystemen in einer umfassenden Gesamtschau zu untersuchen und zu bewerten. Diese ganzheitliche Betrachtungsweise unterscheidet sich von den bisherigen Untersuchungen, die sich in der Regel auf einen Stoff oder auf einzelne Komponenten in diesem Kreislauf beziehen. Das untersuchte Stoffspektrum reicht von den herkömmlichen Abwasserparametern, wie dem Chemischen Sauerstoffbedarf (CSB), bis hin zu „neuen“, vorwiegend organischen Verbindungen, die in der EG-Wasserrahmenrichtlinie als prioritäre Stoffe bzw. prioritäre gefährliche Stoffe aufgelistet sind. Eine Sichtung der verfügbaren Daten zeigt, dass die Kenntnisse über das Aufkommen und die Wirkung dieser Stoffe sehr lückenhaft sind. Es ist deshalb erforderlich und für die siedlungswasserwirtschaftliche Praxis dringlich, sich mit der Problematik der organischen Schadstoffe zu befassen und die wichtigsten Stoffströme im Abwassersystem zu analysieren. In einem ersten Schritt wird das Gesamtsystem des urbanen Wasserkreislaufs mit seinen naturräumlichen (z.B. Grundwasser) und abwassertechnischen Elementen (z.B. Kanalisation und Kläranlage) dargestellt. Um einen ersten Überblick zu gewinnen und eine geeignete Grundlage für die weitere Vorgehensweise zu erhalten, wird zunächst ein breites Spektrum von Stoffen, aufgeteilt nach anorganischen und organischen Substanzen, beschrieben. Als wichtige Folgerung für künftige Erhebungen ist aus dieser pauschalen Betrachtung abzuleiten, die Datenbasis durch weitere Messungen zu verbessern und die Messprogramme besser aufeinander abzustimmen. Darauf aufbauend werden in einer zweiten Stufe ausgewählte Stoffe bzw. Stoffgruppen, die aufgrund ihres Aufkommens und ihrer potenziellen Auswirkungen auf Fließgewässer als relevant einzuordnen sind, sog. Leitparameter, detailliert behandelt. Als Basis für die Auswahl dieser Leitparameter dienen zunächst die rechtlichen Regelungen, vor allem die der EG-Wasserrahmenrichtlinie. Als weitere Kriterien werden die mögliche toxische Wirkung der Stoffe, das signifikante Aufkommen in den Abwassermatrices und die Verfügbarkeit von Daten herangezogen. Eine erste Gruppe der Leitparameter umfasst bisher schon häufig im Abwassersystem untersuchte Stoffe bzw. Stoffgruppen: Feststoffparameter, die Summenparameter CSB und BSB, die Nährstoffe Stickstoff und Phosphor sowie die Schwermetalle Kupfer, Blei, Cadmium und Zink. Als charakteristisches Unterscheidungskriterium wird die Herkunft der Stoffe definiert, die eindeutig die Belastung der verschiedenen Matrices des Abwassersystems bestimmt. Während sich die aus dem Schmutzwasser stammenden („schmutzwasserbürtigen“) Verbindungen (z.B. EDTA) überwiegend im Kläranlagenablauf finden, sind die von der Oberfläche stammenden („oberflächenbürtigen“) Verbindungen (z.B. PAK) vor allem in den niederschlagsbedingten Abflüssen zu erwarten. Um in Erfahrung zu bringen, welche Reduktionssmaßnahmen geeignet sind, werden Überlegungen zur Verteilung dieser Stoffe in den Abwasserentsorgungssystemen angestellt. Mit Hilfe des Instruments der Schmutzfrachtsimulation werden für 32 ausgewählte Stoffe bzw. Sowohl die Zusammenstellung der theoretischen Grundlagen als auch die Ergebnisse der Simulation, die im Anhangsband wiedergegeben sind, zeigen erhebliche Unterschiede im Verhalten der verschiedenen Stoffe im Abwasserentsorgungssystem. Für 19 ausgewählte Stoffe bzw. Stoffgruppen, die als relevant gelten müssen, wird eine abschließende Einordnung und Bewertung vorgenommen. Maßgebend für das Aufkommen und die Verteilung im Abwassersystem sind die Kenngrößen: „vorwiegende Herkunft“, „Anteil des partikulären Transports“ und „Rückhalt in der Kläranlage“. Für jede Stoffgruppe werden Empfehlungen zur Verminderung der Gewässerbelastung ausgesprochen. Ein wesentlicher Aspekt dabei ist, die Schadstoffpotenziale bereits an der Quelle zu verringern, gemäß der Forderung der EG-Wasserrahmenrichtlinie, Einleitungen, Emissionen und Verluste prioritärer gefährlicher Stoffe der EG-WRRL zu beenden oder schrittweise einzustellen. In einigen Szenarien konnte gezeigt werden, dass die wirkungsvollste Maßnahme zur Verminderung der Stoffeinträge in Gewässer die Erhöhung der Rückhalteleistung in der Kläranlage und der Regenentlastung ist, die mit bestimmten Techniken wie Membrananlagen, Aktivkohlefiltern und Bodenfiltern erreicht werden kann. Die Weiterentwicklung und der Einsatz moderner Technologien zur Abwasserreinigung und zur Regenwasserbehandlung bleiben damit wichtige Aufgaben für die Zukunft.
Bei der Herstellung von Faser-Kunststoff-Verbunden (FKV) kommen unterschiedlichste Faser-, Kunststoff- sowie Faser/Kunststoff-Halbzeuge zum Einsatz. Diese weisen oft sehr komplexe Verarbeitungseigenschaften auf, die bei der Prozessentwicklung eine besondere Herausforderung darstellen. Ein typisches Beispiel ist die Verfahrensgruppe der Flüssigimprägnierverfahren, bei denen eine endkonturnahe Faserstruktur mit einem Harzsystem imprägniert wird. Eine den Prozessverlauf maßgeblich bestimmende Verarbeitungseigenschaft der Faserstruktur ist hierbei die Permeabilität. Sie quantifiziert die Durchlässigkeit der Faserstruktur für die fluide Strömung und resultiert aus einer Vielzahl an interdependenten Einflüssen, wie z. B. einer inhomogenen Porosität mit extrem variierenden Fließkanaldurchmessern, lokalen Strukturvariationen, einer hohen Deformierbarkeit sowie Kapillarkräften.
Wissensgenerierung durch Grundlagenforschung zu einer einzelnen prozesskritischen Verarbeitungseigenschaft (wie der Permeabilität), stellt eine ideale Grundlage für die ganzheitliche, also sowohl die Prozess- und Anlagentechnik als auch die Materialien umfassende, Prozessentwicklung der jeweils betrachteten Verfahren/Verfahrensgruppe (z. B. Flüssigimprägnierverfahren) dar. Vor diesem Hintergrund wird in der vorliegenden Arbeit eine mehrstufige, in sich geschlossene Forschungsmethodik definiert, die zur kontinuierlichen Weiterentwicklung des betrachteten Herstell-verfahrens sowie der eingesetzten Anlagen, Werkzeuge und Materialien geeignet ist. Anhand von Forschungsarbeiten zum Anwendungsbeispiel der Flüssigimprägnierverfahren bzw. der Permeabilität wird gezeigt, wie die Methodik umgesetzt werden kann: Der erste Schritt besteht in der Entwicklung von Methoden und Technologien, um Einflüsse auf die Permeabilität reproduzierbar zu erzeugen und die Auswirkungen untersuchen zu können. Anschließend folgen Parameterstudien zu Einflüssen auf die Permeabilität und die gewonnenen Erkenntnisse werden dann zu Richtlinien aggregiert. Anhand der Richtlinien können Materialien, Prozesse und Messtechnologien auf einen Anwendungsfall hin optimiert werden. Schließlich, werden über den Erkenntnisgewinn grundlegend neue Technologien entwickelt, woraus sich wiederum neue Aufgaben für die erste Stufe der Methodik ergeben.
The primary objective of this work is the development of robust, accurate and efficient simulation methods for the optimal control of mechanical systems, in particular of constrained mechanical systems as they appear in the context of multibody dynamics. The focus is on the development of new numerical methods that meet the demand of structure preservation, i.e. the approximate numerical solution inherits certain characteristic properties from the real dynamical process.
This task includes three main challenges. First of all, a kinematic description of multibody systems is required that treats rigid bodies and spatially discretised elastic structures in a uniform way and takes their interconnection by joints into account. This kinematic description must not be subject to singularities when the system performs large nonlinear dynamics. Here, a holonomically constrained formulation that completely circumvents the use of rotational parameters has proved to perform very well. The arising constrained equations of motion are suitable for an easy temporal discretisation in a structure preserving way. In the temporal discrete setting, the equations can be reduced to minimal dimension by elimination of the constraint forces. Structure preserving integration is the second important ingredient. Computational methods that are designed to inherit system specific characteristics – like consistency in energy, momentum maps or symplecticity – often show superior numerical performance regarding stability and accuracy compared to standard methods. In addition to that, they provide a more meaningful picture of the behaviour of the systems they approximate. The third step is to take the previ- ously addressed points into the context of optimal control, where differential equation and inequality constrained optimisation problems with boundary values arise. To obtain meaningful results from optimal control simulations, wherein energy expenditure or the control effort of a motion are often part of the optimisation goal, it is crucial to approxi- mate the underlying dynamics in a structure preserving way, i.e. in a way that does not numerically, thus artificially, dissipate energy and in which momentum maps change only and exactly according to the applied loads.
The excellent numerical performance of the newly developed simulation method for optimal control problems is demonstrated by various examples dealing with robotic systems and a biomotion problem. Furthermore, the method is extended to uncertain systems where the goal is to minimise a probability of failure upper bound and to problems with contacts arising for example in bipedal walking.
Interferenzreduktion in CDMA-Mobilfunksystemen - ein aktuelles Problem und Wege zu seiner Lösung
(2003)
Eine signifikante Steigerung der Leistungsfähigkeit von Mobilfunksystemen und die damit verbundene Erhöhung des mit begrenzten Frequenzspektrumsressourcen erzielbaren ökonomischen Gewinns erfordert eine Interferenzreduktion. Da der von einem empfangenen Interferenzsignal erzeugte Störeffekt sowohl von der Leistung des Interferenzsignals als auch von der Struktur des Interferenzsignals im Vergleich zur Struktur des Nutzsignals abhängt, ergeben sich zwei prinzipielle Ansätze zur Reduktion der Interferenz. Bei den Interferenzreduktionsverfahren auf der Systemebene wird die Leistung der empfangenen Interferenzsignale zum Beispiel durch geschickte Regelung der Sendeleistungen oder durch Einstellen der Richtcharakteristiken von Antennen reduziert. Interferenzreduktionsverfahren auf der Systemebene sind relativ einfach realisierbar und können bereits in heutigen Mobilfunksystemen erfolgreich eingesetzt werden. Interferenzreduktionsverfahren auf der Verbindungsebene zielen auf eine vorteilhafte Beeinflussung oder Berücksichtigung der Signalstrukturen. Ausgehend von allgemeingültigen Eigenschaften des Mobilfunkkanals wie Linearität kann man Signalstrukturen finden, die a priori zu wenig oder sogar keiner schädlichen Interferenz führen. Solche einfachste, vom aktuellen Zustand des Mobilfunkkanals unabhängigen Interferenzreduktionsverfahren auf der Verbindungsebene sind beispielsweise die Vielfachzugriffsverfahren, die in jedem Mobilfunksystem eingesetzt werden. In letzter Zeit werden auch vermehrt Interferenzreduktionsverfahren auf der Verbindungsebene untersucht, die die Kenntnis des aktuellen Kanalzustands ausnutzen. Solche Interferenzreduktionsverfahren erfordern komplizierte Berechnungen in Sender oder Empfänger, in die die einzelnen Signalabtastwerte und die schnell zeitvarianten Kanalimpulsantworten eingehen. Der daraus resultierende hohe Rechenaufwand verhinderte bis vor kurzem eine Realisierung in kommerziellen Produkten. Interferenzreduktionsverfahren auf der Verbindungsebene kann man in senderseitige Verfahren und empfängerseitige Verfahren unterteilen. Die senderseitigen Verfahren versuchen, durch geschickte Gestaltung der Sendesignale schädliche Interferenzen zu vermeiden. Ein Schwerpunkt der vorliegenden Schrift ist das Untersuchen empfängerseitiger Interferenzreduktionsverfahren auf der Verbindungsebene. Hier interessiert neben der gemeinsamen Kanalschätzung insbesondere die gemeinsame Datenschätzung. Ein wesentliches Problem bei der empfängerseitigen Interferenzreduktion auf der Verbindungsebene ist die erhöhte Anzahl zu berücksichtigender Mobilstationen bei der gemeinsamen Datenschätzung. Im Vergleich zu Empfängern ohne Interferenzreduktion müssen mehr Daten aus einer unveränderten Anzahl an verfügbaren Empfangswerten geschätzt werden, was zu einem verminderten Mehrteilnehmercodierungsgewinn des Datenschätzers führt. Verfahren der gemeinsamen Datenschätzung können nur dann gewinnbringend eingesetzt werden, wenn der negative Effekt des verminderten Mehrteilnehmercodierungsgewinns durch den positiven Effekt der reduzierten Interferenz mindestens kompensiert wird. Diese Forderung ist bei der Interzellinterferenzreduktion besonders kritisch, da die einzelnen Interzellinterferer häufig nur mit geringer Leistung empfangen werden, das heißt der positive Effekt der reduzierten Interferenz bei Berücksichtigen eines Interzellinterferers relativ gering ausfällt. Eine Voraussetzung zur erfolgreichen Interferenzreduktion und insbesondere zur Interzellinterferenzreduktion sind folglich Datenschätzer mit hohem Mehrteilnehmercodierungsgewinn. Die bekannten linearen gemeinsamen Datenschätzer wie der Zero-Forcing-Schätzer können diese Forderung nach hohem Mehrteilnehmercodierungsgewinn bei größeren Anzahlen gemeinsam detektierter Mobilstationen nicht erfüllen. Ein mögliche Lösung zum Erzielen hoher Mehrteilnehmercodierungsgewinne mit moderaten Rechenaufwänden sind die in der vorliegenden Schrift untersuchten, auf dem Turbo-Prinzip basierenden iterativen gemeinsamen Datenschätzer. Prinzipiell handelt es sich bei den hier untersuchten Datenschätzern um iterative Versionen der bekannten linearen gemeinsamen Datenschätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt die Kenntnis des Modulationsalphabets und optional des eingesetzten Fehlerschutzcodes zum Verbessern der Schätzergebnisse. Die vielen vorgestellten Varianten der iterativen gemeinsamen Datenschätzer und die verschiedenen Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für jeden Anwendungsfall einen maßgeschneiderten gemeinsamen Datenschätzer zu konstruieren.