Refine
Year of publication
Document Type
- Doctoral Thesis (28)
- Preprint (11)
- Report (6)
- Article (5)
- Habilitation (3)
- Bachelor Thesis (1)
- Conference Proceeding (1)
Language
- German (55) (remove)
Has Fulltext
- yes (55)
Is part of the Bibliography
- no (55)
Keywords
- Mobilfunk (7)
- Ambient Intelligence (5)
- Netzwerk (5)
- Model checking (4)
- mobile radio (4)
- CDMA (3)
- Elektrotechnik (3)
- Networked Automation Systems (3)
- Niederspannungsnetz (3)
- Regelung (3)
Faculty / Organisational entity
- Fachbereich Elektrotechnik und Informationstechnik (55) (remove)
Netzbasierte Automatisierungssysteme (NAS) sind das Ergebnis der zunehmenden Dezentralisierung von Automatisierungssystemen mittels neuerer Netzwerkstrukturen. Eine ganze Fülle von Einflussfaktoren führt jedoch zu einem Spektrum von nicht-deterministischen Verzögerungen, die direkten Einfluss auf Qualität, Sicherheit und Zuverlässigkeit der Automatisierungsanlagen haben. Eine genaue Analyse dieser Einflussfaktoren ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen Fragen der Verlässlichkeit zu klären. In diesem Beitrag wird gezeigt, welchen Einfluss einzelne Komponenten sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) verwendet. Umfangreiche Messungen wurden zur Validierung der Ergebnisse durchgeführt.
Die industrielle Oberflächeninspektion und insbesondere die Defekterkennung ist ein wichtiges Anwendungsgebiet für die automatische Bildverarbeitung (BV). Für den Entwurf und die Konfiguration der entsprechenden Softwaresysteme, in der Regel anwendungsspezifische Einzellösungen, werden im industriellen Umfeld zumeist entweder firmeneigene Bildverarbeitungsbibliotheken, kommerzielle oder freie Toolboxen verwendet. In der Regel beinhalten diese u.a. Standardalgorithmen der Bildverarbeitung in modularer Form, z. B. Filter- oder Schwellwertoperatoren. Die einzelnen BV-Methoden werden in der Regel nach dem Prinzip der visuellen Programmierung in einer grafischen Entwicklungsumgebung ausgewählt und zu einer BV-Kette bzw. einem -Graph zusammengesetzt. Dieses Prinzip ermöglicht es auch einem Programmierunkundigen, BV-Systeme zu erstellen und zu konfigurieren. Eine gewisse Grundkenntnis der Methoden der Bildverarbeitung ist jedoch notwendig. Je nach Aufgabenstellung und Erfahrung des Systementwicklers erfordern manueller Entwurf und Konfiguration eines BV-Systems erheblichen Zeiteinsatz. Diese Arbeit beschäftigt sich mit automatischen Entwurfs-, Konfigurations- und Optimierungsmöglichkeiten dieser modularen BV-Systeme, die es auch einem ungeübten Endnutzer ermöglichen, adäquate Lösungen zu generieren mit dem Ziel, ein effizienteres Entwurfswerkzeug für Bildverarbeitungssysteme mit neuen und verbesserten Eigenschaften zu schaffen. Die Methodenauswahl und Parameteroptimierung reicht von der Bildvorverarbeitung und -verbesserung mittels BV-Algorithmen bis hin zu ggf. eingesetzten Klassifikatoren, wie Nächste-Nachbar-Klassifikator (NNK) und Support-Vektor-Maschinen (SVM) und verschiedenen Bewertungsfunktionen. Der flexible Einsatz verschiedener Klassifikations- und Bewertungsmethoden ermöglicht einen automatischen problemspezifischen Entwurf und die Optimierung des BV-Systems für Aufgaben der Fehlerdetektion und Texturanalyse für 2d-Bilder, sowie die Trennung von Objekten und Hintergrund für 2d- und 3d-Grauwertbilder. Für die Struktur- und Parameteroptimierung des BV-Systems werden Evolutionäre Algorithmen (EA) und Partikelschwarmoptimierung (PSO) verwendet.
Langvorträge: T. Schorr, A. Dittrich, W. Sauer-Greff, R. Urbansky (Lehrstuhl für Nachrichtentechnik, TU Kaiserslautern): Iterative Equalization in Fibre Optical Systems Using High-Rate RCPR, BCH and LDPC Codes A. Doenmez, T. Hehn, J. B. Huber (Lehrstuhl für Informationsübertragung, Universität Erlangen-Nürnberg): Analytical Calculation of Thresholds for LDPC Codes transmitted over Binary Erasure Channels S. Deng, T. Weber (Institut für Nachrichtentechnik und Informationselektronik, Universität Rostock), M. Meurer (Lehrstuhl für hochfrequente Signalübertragung und -verarbeitung, TU Kaiserslautern): Dynamic Resource Allocation in Future OFDM Based Mobile Radio Systems J. Hahn, M. Meurer, T. Weber (Lehrstuhl für hochfrequente Signalübertragung und -verarbeitung, TU Kaiserslautern): Receiver Oriented FEC Coding (RFC) for Selective Channels C. Stierstorfer, R. Fischer (Lehrstuhl für Informationsübertragung, Universität Erlangen-Nürnberg): Comparison of Code Design Requirements for Single- and Multicarrier Transmission over Frequency-Selective MIMO Channels A. Scherb (Arbeitsbereich Nachrichtentechnik, Universität Bremen): Unbiased Semiblind Channel Estimation for Coded Systems T.-J. Liang, W. Rave, G. Fettweis (Vodafone Stiftungslehrstuhl Mobile Nachrichtensysteme, Technische Universität Dresden): Iterative Joint Channel Estimation and Decoding Using Superimposed Pilots in OFDM-WLAN A. Dittrich, T. Schorr, W. Sauer-Greff, R. Urbansky (Lehrstuhl für Nachrichtentechnik, TU Kaiserslautern): DIORAMA - An Iterative Decoding Real-Time MATLAB Receiver for the Multicarrier-Based Digital Radio DRM Kurzvorträge: S. Plass, A. Dammann (German Aerospace Center (DLR)): Radio Resource Management for MC-CDMA over Correlated Rayleigh Fading Channels S. Heilmann, M. Meurer, S. Abdellaoui, T. Weber (Lehrstuhl für hochfrequente Signalübertragung und -verarbeitung, TU Kaiserslautern): Concepts for Accurate Low-Cost Signature Based Localisation of Mobile Terminals M. Siegrist, A. Dittrich, W. Sauer-Greff, R. Urbansky (Lehrstuhl für Nachrichtentechnik, TU Kaiserslautern): SIMO and MIMO Concepts for Fibre Optical Communications C. Bockelmann (Arbeitsbereich Nachrichtentechnik, Universität Bremen): Sender- und Empfängerstrukturen für codierte MIMO-Übertragung
Um die in der Automatisierung zunehmenden Anforderungen an Vorschubachsen hinsichtlich Dynamik, Präzision und Wartungsaufwand bei niedriger Bauhöhe und kleiner werdendem Bauvolumen gerecht zu werden, kommen immer mehr Synchron-Linearmotoren in Zahnspulentechnik mit Permanentmagneterregung in Werkzeugmaschinen zum Einsatz. Als hauptsächlicher Vorteil gegenüber der rotierenden Antriebslösung mit Getriebeübersetzung und Kugelrollspindel wird die direkte Kraftübertragung ohne Bewegungswandler genannt. Der Übergang vom konventionellen linearen Antriebssystem zum Direktantriebssystem eröffnet dem Werkzeugmaschinenherstellern und den Industrieanwendungen eine Vielzahl neuer Möglichkeiten durch beeindruckende Verfahrgeschwindigkeit und hohes Beschleunigungsvermögen sowie Positionier- und Wiederholgenauigkeit und bietet darüber hinaus die Chance zu einer weiteren Produktivitäts- und Qualitätssteigerung. Um alle dieser Vorteile ausnutzen zu können, muss der Antrieb zuerst hinsichtlich der für Linearmotoren typisch Kraftwelligkeit optimiert werden. Die Suche nach wirtschaftlichen und praxistauglichen Gegenmaßnahmen ist ein aktuelles Forschungsthema in der Antriebstechnik. In der vorliegenden Arbeit werden die Kraftschwankungen infolge Nutung, Endeffekt und elektrischer Durchflutung in PM-Synchron-Linearmotor rechnerisch und messtechnisch untersucht. Ursachen und Eigenschaften der Kraftwelligkeit werden beschrieben und Einflussparameter aufgezeigt. Es besteht die Möglichkeit, die Kraftwelligkeit durch bestimmte Maßnahmen zu beeinflussen, z. B. mit Hilfe des Kraftwelligkeitsausgleichs bestehend aus ferromagnetischem Material oder durch gegenseitigen Ausgleich mehrerer zusammengekoppelter Primärteile. Wie die Untersuchungen gezeigt haben, ist eine Abstimmung der Einflussparameter auf analytischem Weg kaum möglich, in der Praxis führt das auf eine experimentell-iterative Optimierung mit FEM-Unterstützung. Die gute Übereinstimmung zwischen Messung und Simulation bietet einen klaren Hinweis, dass die hier vorgestellten Maßnahmen als geeignet angesehen werden können, sie ermöglichen eine Kraftwelligkeitsreduzierung von ursprünglichen 3-5% bis auf 1%, wobei eine leichte Herabsetzung der Kraftdichte in Kauf genommen werden muss. Beim Maschinenentwurf muss rechtzeitig ermittelt werden, welches Kompensationsverfahren günstig ist bezüglich der vorgesehenen Anwendungen.
Umgangssprachlich wurde das Wort Daten schon gebraucht, lange bevor der Computer erfundenwurdeund die AbkürzungEDV für "Elektronische Datenverarbeitung" in die Alltagssprache gelangte.So sagte beispielsweise der Steuerberater zu seinem Klienten: "Bevor ich Ihre Steuererklärung fertigmachen kann, brauche ich von Ihnen noch ein paar Daten." Oder der Straßenbaureferent einer Stadtschrieb an den Oberbürgermeister: "Für die Entscheidung, welche der beiden in Frage stehenden Stra-ßen vorrangig ausgebaut werden soll, müssen wir noch eine Datenerhebung durchführen." Bei diesenDaten ging es zwar oft um Zahlen - Geldbeträge, Anzahl der Kinder, Anzahl der Beschäftigungsmo-nate, gezählte Autos - , aber eine Gleichsetzung von Daten mit Zahlen wäre falsch. Zum einen wärenZahlen ohne mitgelieferte Wörter wie Monatseinkommen, Kinderzahl u.ä. für den Steuerberater nutz-los, zum anderen will das Finanzamt u.a. auch den Arbeitgeber des Steuerpflichtigen wissen, und dazumuß eine Adresse angegeben werden, aber keine Zahl.
Für die Systemtheorie ist der Begriff Zustand ein sehr zentraler Begriff. Das Wort "Zustand" wird um-gangssprachlich recht häufig verwendet, aber wenn man die Leute fragen würde, was sie denn meinen,wenn sie das Wort Zustand benützen, dann würde man sicher nicht die präzise Definition bekommen,die man für die Systemtheorie braucht.
In der Philosophie ist es selbstverständlich, daß Autoren, die Erkenntnisse früherer Philosophen weitergeben oder kommentieren, die Originalliteratur kennen und sich in ihrer Argumentation explizit auf bestimmte Stellen in den Originaldarstellungen beziehen. In der Technik dagegen ist es allgemein akzeptierte Praxis, daß Autoren von Lehrbüchern, in denen Erkenntnisse früherer Forscher dargestellt oder kommentiert werden, nicht die Originaldarstellungen zugrunde legen, sondern sich mit den Darstellungen in der Sekundärliteratur begnügen. Man denke an die Erkenntnisse von Boole oder Maxwell, die in sehr vielen Lehrbüchern der Digitaltechnik bzw. der theoretischen Elektrotechnik vermittelt werden, ohne daß die Autoren dieser Lehrbücher auf die Originalschriften von Boole oder Maxwell Bezug nehmen. Dagegen wird man wohl kaum ein Buch über Erkenntnisse von Aristoteles oder Kant finden, dessen Autor sich nicht explizit auf bestimmte Stellen in den Schriften dieser Philosophen bezieht.
Moderne Mobilfunksysteme, die nach dem zellularen Konzept arbeiten, sind interferenzbegrenzte Systeme. Ein wesentliches Ziel beim Entwurf zukünftiger Mobilfunkkonzepte ist daher die Reduktion der auftretenden Interferenz. Nur so läßt sich die spektrale Effizienz künftiger Mobilfunksysteme noch signifikant gegenüber dem Stand der Technik steigern. Die Elimination der Intrazellinterferenz, das heißt der auftretenden Wechselwirkungen zwischen Signalen mehrerer von der gleichen Zelle bedienter Teilnehmer, durch gemeinsame Detektion (engl. Joint Detection, JD) ist bereits ein wesentliches Merkmal des Luftschnittstellenkonzepts TD-CDMA. Ein bislang noch weitgehend unbeachtetes Potential zum Steigern von spektraler Effizienz und Kapazität hingegen ist die Reduktion der Interzellinterferenz, das heißt der durch Teilnehmer verschiedener Zellen wechselseitig verursachten Interferenz. Insbesondere in Systemen mit niedrigen Clustergrößen verspricht eine Reduktion der in diesem Fall sehr starken Interzellinterferenz erhebliche Gewinne. Die Interzellinterferenzreduktion ist daher der logische nächste Schritt nach der Intrazellinterferenzreduktion. Die vorliegende Arbeit leistet einen Beitrag zum Entwickeln gewinnbringender Verfahren zur Reduktion der Interzellinterferenz in zukünftigen Mobilfunksystemen durch entsprechende Berücksichtigung und Elimination des Einflusses der Interzellinterferenzsignale in der empfängerseitigen Signalverarbeitung. Ziel ist eine verbesserte Schätzung der übertragenen Teilnehmerdaten zu erhalten, dazu werden Signale von Interzellinterferenzquellen beim Datenschätzen berücksichtigt. Die dabei benötigten Informationen werden mit den ebenfalls erläuterten Verfahren zur Identifikation und Selektion starker Interzellinterferenzquellen sowie einer gegenüber dem bisherigen Systementwurf erweiterten Kanalschätzung gewonnen. Es wird gezeigt, daß sich mit einem aufwandsgünstigen Detektor die relevanten Interzellinterferenzquellen zuverlässig identifizieren lassen. Mit einem auf kurze Mobilfunkkanäle, die in Hotspots vermehrt zu erwarten sind, optimierten Kanalschätzverfahren werden die aktuellen Mobilfunkkanalimpulsantworten für alle relevanten Teilnehmer bestimmt. Um die Datenschätzung für viele Teilnehmer durchführen zu können, wird das Schätzverfahren Multi-Step Joint Detection entworfen, das die von der herkömmlichen gemeinsamen Detektion bekannte SNR-Degradation verringert. Die Simulationsergebnisse zeigen die Leistungsfähigkeit des entworfenen Systemkonzeptes. Die Interzellinterferenzreduktionsverfahren können sowohl zum Erhöhen der spektralen Effizienz des Systems, als auch zu einer Verbesserung der Dienstgüte bei gleichbleibender spektraler Effizienz gewinnbringend eingesetzt werden.
In Anbetracht der ständig steigenden Nachfrage nach Mobilkommunikation einerseits und der nur begrenzt zur Verfügung stehenden Ressource Frequenzspektrum andererseits müssen Mobilfunksysteme der dritten Generation (3G) eine hohe Frequenzökonomie haben. Dies trifft insbesondere auf die Abwärtsstrecken dieser Systeme zu, in denen auch paketorientierte Dienste mit hohen Datenraten angeboten werden sollen. Seitens der Basisstationen kann die spektrale Effizienz der Abwärtsstrecke durch das Verwenden mehrelementiger adaptiver Sendeantennen erhöht werden. Hierzu sind leistungsfähige Signalverarbeitungskonzepte erforderlich, die die effektive Kombination der adaptiven Antennen mit der eingesetzten Sendeleistungsregelung ermöglichen. Die wichtigsten Aspekte beim Entwerfen von Signalverarbeitungskonzepten für adaptive Sendeantennen sind das Gewährleisten mobilstationsspezifischer Mindestdatenraten sowie das Reduzieren der aufzuwendenden Sendeleistungen. Die vorliegende Arbeit trägt dazu bei, den Einsatz mehrantennenelementiger adaptiver Sendeantennen in Mobilfunksystemen der dritten Generation voranzutreiben. Existierende Konzepte werden dargestellt, vereinheitlicht, analysiert und durch eigene Ansätze des Autors erweitert. Signalverarbeitungskonzepte für adaptive Antennen benötigen als Wissensbasis zumindest einen gewissen Grad an Kenntnis über die Mobilfunkkanäle der Abwärtsstrecke. Beim für den FDD-Modus angedachten 3G-Teilstandard WCDMA ergibt sich das Problem, daß wegen des Frequenzversatzes zwischen der Auf- und der Abwärtsstrecke die Ergebnisse der Kanalschätzung in der Aufwärtsstrecke nicht direkt zum Einstellen der adaptiven Sendeantennen verwendet werden können. Eine Möglichkeit, in FDD-Systemen an den Basisstationen ein gewisses Maß an Kenntnis über die räumlichen Eigenschaften der Mobilfunkkanäle der Abwärtsstrecke verfügbar zu machen, besteht im Ausnutzen der an den Basisstationen ermittelbaren räumlichen Korrelationsmatrizen der Mobilfunkkanäle der Aufwärtsstrecke. Diese Vorgehensweise ist nur dann sinnvoll, wenn die relevanten Einfallsrichtungen der Aufwärtsstrecke mit den relevanten Abstrahlungsrichtungen der Abwärtsstrecke übereinstimmen. Für diesen Fall wird in der vorliegenden Arbeit ein aufwandsgünstiges Verfahren zum Anpassen der adaptiven Sendeantennen erarbeitet, das nicht auf komplexen Richtungsschätzalgorithmen beruht. Eine verläßlichere Methode, an den Basisstationen ein gewisses Maß an Kenntnis über die räumlichen Eigenschaften der Mobilfunkkanäle der Abwärtsstrecke verfügbar zu machen, ist das Signalisieren von Kanalzustandsinformation, die an den Mobilstationen gewonnen wird, über einen Rückkanal an die versorgende Basisstation. Da dieses Rücksignalisieren zeitkritisch ist und die Übertragungskapazität des Rückkanals begrenzt ist, wird in der vorliegenden Arbeit ein aufwandsgünstiges Verfahren zum Vorverarbeiten und Rücksignalisieren von Kanalzustandsinformation erarbeitet.
Ein Beitrag zur Zustandsschätzung in Niederspannungsnetzen mit niedrigredundanter Messwertaufnahme
(2020)
Durch den wachsenden Anteil an Erzeugungsanlagen und leistungsstarken Verbrauchern aus dem Verkehr- und Wärmesektor kommen Niederspannungsnetze immer näher an ihre Betriebsgrenzen. Da für die Niederspannungsnetze bisher keine Messwerterfassung vorgesehen war, können Netzbetreiber Grenzverletzungen nicht erkennen. Um dieses zu ändern, werden deutsche Anschlussnutzer in Zukunft flächendeckend mit modernen Messeinrichtungen oder intelligenten Messsystemen (auch als Smart Meter bezeichnet) ausgestattet sein. Diese sind in der Lage über eine Kommunikationseinheit, das Smart-Meter-Gateway, Messdaten an die Netzbetreiber zu senden. Werden Messdaten aber als personenbezogene Netzzustandsdaten deklariert, so ist aus Datenschutzgründen eine Erhebung dieser Daten weitgehend untersagt.
Ziel dieser Arbeit ist es eine Zustandsschätzung zu entwickeln, die auch bei niedrigredundanter Messwertaufnahme für den Netzbetrieb von Niederspannungsnetzen anwendbare Ergebnisse liefert. Neben geeigneten Algorithmen zur Zustandsschätzung ist dazu die Generierung von Ersatzwerten im Fokus.
Die Untersuchungen und Erkenntnisse dieser Arbeit tragen dazu bei, den Verteilnetzbetreibern bei den maßgeblichen Entscheidungen in Bezug auf die Zustandsschätzung in Niederspannungsnetzen zu unterstützen. Erst wenn Niederspannungsnetze mit Hilfe der Zustandsschätzung beobachtbar sind, können darauf aufbauende Konzepte zur Regelung entwickelt werden, um die Energiewende zu unterstützen.
Seit Aufkommen der Halbleiter-Technologie existiert ein Trend zur Miniaturisierung elektronischer Systeme. Dies, steigende Anforderungen sowie die zunehmende Integration verschiedener Sensoren zur Interaktion mit der Umgebung lassen solche eingebetteten Systeme, wie sie zum Beispiel in mobilen Geräten oder Fahrzeugen vorkommen, zunehmend komplexer werden. Die Folgen sind ein Anstieg der Entwicklungszeit und ein immer höherer Bauteileaufwand, bei gleichzeitig geforderter Reduktion von Größe und Energiebedarf. Insbesondere der Entwurf von Multi-Sensor-Systemen verlangt für jeden verwendeten Sensortyp jeweils gesondert nach einer spezifischen Sensorelektronik und steht damit den Forderungen nach Miniaturisierung und geringem Leistungsverbrauch entgegen.
In dieser Forschungsarbeit wird das oben beschriebene Problem aufgegriffen und die Entwicklung eines universellen Sensor-Interfaces für eben solche Multi-Sensor-Systeme erörtert. Als ein einzelner integrierter Baustein kann dieses Interface bis zu neun verschiedenen Sensoren unterschiedlichen Typs als Sensorelektronik dienen. Die aufnehmbaren Messgrößen umfassen: Spannung, Strom, Widerstand, Kapazität, Induktivität und Impedanz.
Durch dynamische Rekonfigurierbarkeit und applikationsspezifische Programmierung wird eine variable Konfiguration entsprechend der jeweiligen Anforderungen ermöglicht. Sowohl der Entwicklungs- als auch der Bauteileaufwand können dank dieser Schnittstelle, die zudem einen Energiesparmodus beinhaltet, erheblich reduziert werden.
Die flexible Struktur ermöglicht den Aufbau intelligenter Systeme mit sogenannten Self-x Charakteristiken. Diese betreffen Fähigkeiten zur eigenständigen Systemüberwachung, Kalibrierung oder Reparatur und tragen damit zu einer erhöhten Robustheit und Fehlertoleranz bei. Als weitere Innovation enthält das universelle Interface neuartige Schaltungs- und Sensorkonzepte, beispielsweise zur Messung der Chip-Temperatur oder Kompensation thermischer Einflüsse auf die Sensorik.
Zwei unterschiedliche Anwendungen demonstrieren die Funktionalität der hergestellten Prototypen. Die realisierten Applikationen haben die Lebensmittelanalyse sowie die dreidimensionale magnetische Lokalisierung zum Gegenstand.
Vorgestellt wird ein Verfahren zur Bestimmung der Erdschlussentfernung in hochohmig geerdeten
Netzen. Nach Abklingen der transienten Vorgänge im Fehlerfall stellt sich ein stationärer
Zustand ein, in dem das Netz zunächst weiter betrieben werden kann.
Ausgehend von diesem stationären Fehlerfall wird auf der Basis eines Π-Glieds das Leitungsmodell
des einseitig gespeisten Stichabgangs mit einer Last in der Vier-Leiter-Darstellung
entwickelt. Die Schaltungsanalyse erfolgt mit Hilfe komplexer Rechnung und der Kirchhoffschen
Gesetze. Grundlage der Betrachtungen bildet das Netz mit isoliertem Sternpunkt.
Das entstehende Gleichungssystem ist in seiner Grundform nichtlinear, lässt sich jedoch auf eine
elementar lösbare kubische Gleichung im gesuchten Fehlerentfernungsparameter zurückführen.
Eine weitere Lösungsmöglichkeit bietet das Newton-Raphson-Verfahren.
Durch Verlegen der lastseitigen Leiter-Erd-Kapazitäten an den Abgangsanfang kann das vollständige,
nichtlineare System in ein lineares System überführt werden. Hierbei sind die beiden
Ausprägungen „direkte Lösung mit unsymmetrischer Last“ oder „Ausgleichsrechnung mit
symmetrischer Last“ möglich.
Eine MATLAB®-Implementierung dieser vier Rechenalgorithmen bildet die Basis der weiteren
Analysen.
Alle messtechnischen Untersuchungen erfolgten am Netz-Kraftwerksmodell der TU Kaiserslautern.
Hier wurden verschiedene Fehlerszenarien hinsichtlich Fehlerentfernung, -widerstand und
Größe des gesunden Restnetzes hergestellt, in 480 Einzelmessungen erfasst und mit den Algorithmen
ausgewertet. Dabei wurden auch Messungen an fehlerfreien Abgängen erhoben, um das
Detektionsvermögen der Algorithmen zu testen.
Neben Grundschwingungsbetrachtungen ist die Auswertung aller Datensätze mit der 5. und der
7. Harmonischen ein zentrales Thema. Im Fokus steht die Verwendbarkeit dieser Oberschwingungen
zur Erdschlussentfernungsmessung bzw. -detektion mit den o.g. Algorithmen.
Besondere Bedeutung kommt der Fragestellung zu, inwieweit die für ein Netz mit isoliertem
Sternpunkt konzipierten Algorithmen unter Benutzung der höheren Harmonischen zur Erdschlussentfernungsmessung
in einem gelöschten Netz geeignet sind.
Schließlich wird das Verfahren auf Abgänge mit inhomogenem Leitermaterial erweitert, da auch
diese Konstellation von praktischer Bedeutung ist.
Ausgehend von den Batterien nach dem Stand der Technik werden die Einflüsse auf diese untersucht. Es stellt sich heraus, dass vor allem Batterien für den Einsatz in der Traktion und in stationären Anlagen nur mit nicht zu vernachlässigenden Toleranzen gefertigt werden können. Dazu kommt der Einfluss durch den Betrieb, der in Verbindung mit der Fertigungstoleranz und der Lagerbeanspruchung eine Überwachung der Batterie mit einem elektronischen Überwachungs- und Steuergerät, einem sogenannten Batteriemanagementsystem, zwingend notwendig macht. Nur damit kann die aktuelle Qualität einer Batterie erhalten oder verbessert werden. Es folgt eine Klassifizierung von Batteriemanagementsystemen, die ihrerseits in elektrisches Batteriemanagement, thermisches Batteriemanagement und Ladeausgleich aufgeteilt werden. Für diese drei Teileinheiten werden jeweils eine Reihe von Topologien definiert. Das Batteriemanagementsystem mit verteilten Datenerfassungseinheiten und Energiezuführung für den Ladeausgleich wird als Beispiel für eine Geräteentwicklung detailliert beschrieben. Grundlegend für Batteriemanagementsysteme sind deren Algorithmen. Nach der Definition der elektrischen und thermischen Betriebsbereiche verschiedener Batterien werden typische Algorithmen für den Lade- und Entladebetrieb vorgestellt. Weiter werden Verfahren zur Bestimmung des aktuellen Ladezustandes einer Batterie diskutiert. Im Falle eines Betriebes in einem Inselnetz geht in die aktuelle Qualität einer Batterie auch der Isolationswiderstand mit ein. Näher beschrieben wird ein Gerät zur Messung des Isolationswiderstandes. Das Batteriemanagement fordert eine hohe Genauigkeit bei der Datenerfassung. Es werden typische Datenerfassungseinheiten und Sensoren auf ihre Fehlerquellen und die daraus resultierenden Toleranzen untersucht. Weiter werden Kalibrierungsmöglichkeiten diskutiert. Ein weiterer Punkt ist der Test von Batteriemanagementsystemen. Ein Test mit einer realen Batterie nimmt eine längere Zeit in Anspruch. Außerdem besteht dabei die Gefahr einer Schädigung der Batterie. Es wird ein rechnergestütztes System zum Test des elektrischen Batteriemanagements vorgestellt. Abschließend werden integrierte Batteriemanagementsysteme, die im Gerätebereich Anwendung finden, klassifiziert. Es wird gezeigt, dass diese integrierten Lösungen als Ersatz für Datenerfassungseinheiten bei Batterien im Traktions- und Stationärbetrieb eingesetzt werden können. Insgesamt wird nachgewiesen, dass elektronische Überwachungs- und Steuergeräte unabhängig vom Batterietyp und der Einsatzart zum Erhalt oder zur Verbesserung der aktuellen Qualität von Batterien nicht nur sinnvoll sondern für neuere Batterietechnologien unbedingt notwendig sind.
In heutigen Mobilfunksystemen wird ausschließlich senderorientierte Funkkommunikation eingesetzt. Bei senderorientierter Funkkommunikation beginnt der Systementwurf mit dem Sender. Dies bedeutet, daß man a priori die senderseitig verwendeten Algorithmen der Sendesignalerzeugung auswählt und in Abhängigkeit davon a posteriori den im Empfänger zum Datenschätzen verwendeten Algorithmus gegebenenfalls unter Einbeziehen von Kanalzustandsinformation festlegt. Dies ist nötig, um beispielsweise einen möglichst großen Anteil der senderseitig investierten Energie empfängerseitig auszunutzen, das heißt energieeffizient zu sein, und dabei gleichzeitig das Entstehen schädlicher Interferenzsignale zu vermeiden oder zu begrenzen. Im Falle der Senderorientierung kann man senderseitig sehr einfache Algorithmen wählen und implementieren, wobei dieser Vorteil typischerweise durch eine ungleich höher Implementierungskomplexität der a posteriori festzulegenden empfängerseitigen Algorithmen aufgewogen werden muß. Betrachtet man die wirtschaftlich bedeutenden zellularen Mobilfunksysteme, so ist eine derartige Funkkommunikation in der Aufwärtsstrecke vorteilhaft, denn in der Aufwärtsstrecke sind die Endgeräte der mobilen Teilnehmer, die Mobilstationen, die einfachen Sender, wohingegen die ortsfesten Basisstationen die Empfänger sind - und dort kann typischerweise eine größere Komplexität in Kauf genommen werden. In der Abwärtsstrecke derartiger Mobilfunksysteme hingegen, sind die Basisstationen die einfachen Sender, wohingegen die Mobilstationen die aufwendigen Empfänger sind. Dies ist nicht vorteilhaft, da in praktischen Mobilfunksystemen Gewicht, Volumen, Energieverbrauch und Kosten der Endgerätehardware und damit der Mobilstationen mit der Implementierungskomplexität steigen. Wie der Verfasser in der vorliegenden Schrift vorschlägt, läßt sich dieses Problem jedoch umgehen, denn die Funkkommunikation in Mobilfunksystemen kann auch in neuartiger Weise empfängerorientiert gestaltet werden. Empfängerorientierte Funkkommunikation ist dadurch gekennzeichnet, daß der Systementwurf auf der Empfängerseite beginnt. In diesem Fall werden die empfängerseitig verwendeten Algorithmen des Datenschätzens a priori festgelegt, und die senderseitig einzusetzenden Algorithmen der Sendesignalerzeugung ergeben sich dann daraus a posteriori durch Adaption wiederum gegebenenfalls unter Einbeziehen von Kanalzustandsinformation. Durch Empfängerorientierung kann man empfängerseitig sehr einfache Algorithmen wählen und implementieren, muß dafür jedoch eine höhere Implementierungskomplexität auf der Senderseite tolerieren. Angesichts der erwähnten Komplexitätscharakteristika von Sender- beziehungsweise Empfängerorientierung schlägt der Verfasser daher für künftige Mobilfunksysteme vor, Empfängerorientierung in der Abwärtsstrecke und Senderorientierung in der Aufwärtsstrecke einzusetzen. Dies ist insbesondere deshalb vorteilhaft, da Empfängerorientierung in der Abwärtsstrecke neben anderen noch die folgenden weiteren Vorteile gegenüber herkömmlicher Senderorientierung aufweist: 1) Die Leistung der von den Basisstationen abgestrahlten Signale kann reduziert werden. Dies erlaubt performanzhemmende systeminherente Störeinflüsse, die als Interzellinterferenz bezeichnet werden, zu reduzieren und ist im übrigen auch wünschenswert im Hinblick auf die zunehmende Elektrophobie der Bevölkerung. 2) Kanalzustandsinformation wird empfängerseitig nicht benötigt, so daß auf das Senden resourcenbindender Trainingssignale verzichtet und anstelle dessen das Sende von Nutzdaten ermöglicht werden kann. 3) Empfängerseitig ist kein Kanalschätzer vorzusehen, was des weiteren der Implementierungskomplexität des Empfängers zu gute kommt. Mobilfunksysteme lassen sich demzufolge durch Einsetzen des Grundkonzepts der Empfängerorientierung maßgeblich aufwerten. Dieses ist eine klare Motivation die Grundzüge, das Potential und die Ausgestaltungen dieses Grundkonzepts in der Mobilkommunikation in dieser Schrift eingehend zu studieren. Zur Klärung dieser Punkte im Kontext von Mobilkommunikation ist es entscheidend, die Frage der Wahl der Empfänger und die der Adaption der Sender zu beantworten. Die Frage nach der Adaption der Sender ist dabei gleichbedeutend mit der Frage nach der im allgemeinen auf Basis aller Daten erfolgenden gemeinsamen Sendesignalerzeugung. Nach der Einführung eines geeigneten allgemeinen Modells der Abwärtsstreckenübertragung eines zellularen Mobilfunksystems, das auch erst in jüngster Vergangenheit vorgeschlagene Mehrantennenkonfigurationen an den Basisstationen und Mobilstationen einschließt, wird hinsichtlich der A-priori-Wahl der Empfänger herausgestellt, daß, im Hinblick auf die bereits oben angesprochene möglichst geringe Implementierungskomplexität die Ausgestaltung der empfängerseitigen Signalverarbeitung als serielle Verkettung einer linearen Signalverarbeitung und eines nichtlinearen Quantisierers vorteilhaft ist. Die Prinzipien, die bei der Wahl sowohl der linearen Signalverarbeitung als auch des nichtlinearen Quantisierer gelten, werden im folgenden herausgearbeitet. Als Ergebnis dieser Betrachtungen stellt sich heraus, daß ein Gestalten der empfängerseitigen linearen Signalverarbeitung gemäß Codemultiplex hinsichtlich der ausnutzbaren Frequenz-, Zeit- und Raumdiversität vorteilhaft ist, jedoch leistungsfähige Verfahren der gemeinsamen Sendesignalerzeugung voraussetzt, die die Entstehung schädlicher Interferenzsignale verhindern. Des weiteren wird klar, daß sich die nichtlinearen Quantisierer sinnvollerweise in die Klasse der konventionellen und die der unkonventionellen Quantisierer unterteilen lassen; gleiches gilt für die diese Quantisierer verwendenden Empfänger. Konventionelle Quantisierer basieren auf einfach zusammenhängenden Entscheidungsgebieten, wobei jedes Entscheidungsgebiet eindeutig einer möglichen Ausprägung eines übertragenen Nachrichtenelements zugeordnet ist. Demgegenüber weisen unkonventionelle Quantisierer mehrfach zusammenhängende Entscheidungsgebiete auf, die sich jeweils aus mehreren Teilentscheidungsgebieten zusammensetzen. Das Vorhandensein mehrerer Teilentscheidungsgebiete pro Entscheidungsgebiet und damit pro Ausprägung eines übertragenen Nachrichtenelements stellt einen bei unkonventionellen Quantisierern verfügbaren zusätzlichen Freiheitsgrad dar, der bei der gemeinsamen Sendesignalerzeugung vorteilhaft genutzt werden kann, um die angesprochene Leistung der von den Basisstationen abgestrahlten Signale zu reduzieren. Ein Schwerpunkt der vorliegenden Schrift ist das Studium von Verfahren der gemeinsamen Sendesignalerzeugung. Diese werden daher systematisch gegliedert und erarbeitet. Es stellt sich heraus, daß Verfahren der gemeinsamen Sendesignalerzeugung prinzipiell unterteilt werden können in solche Verfahren für konventionelle Empfänger und solche für unkonventionelle Empfänger. Hinsichtlich Verfahren der erstgenannten Art wird herausgearbeitet, wie eine optimale gemeinsame Sendesignalerzeugung zu erfolgen hat, die unter gewissen Nebenbedingungen eine optimale Übertragungsqualität im Sinne minimaler Übertragungsfehlerwahrscheinlichkeit erzielt. Eine derartige gemeinsame Sendesignalerzeugung ist im allgemeinen recht aufwendig, so daß im Folgeverlauf die suboptimalen linearen Verfahren der gemeinsamen Sendesignalerzeugung Transmit Matched Filter (TxMF), Transmit Zero-Forcing (TxZF) und Transmit Minimum-Mean-Square-Error (TxMMSE) vorgeschlagen werden, die jeweils einen mehr oder weniger guten Kompromiß zwischen Implementierungskomplexität, Interferenzunterdrückung und Robustheit hinsichtlich Rauschens aufweisen. Der Verfasser schlägt vor, die Leistungsfähigkeit derartiger suboptimaler Verfahren unter anderem durch die bei gegebener Zeitdauer abgestrahlte totale Energie der Sendesignale, die totale Sendeenergie, - denn diese ist nicht nur im technischen, sondern auch im gesellschaftlichen Sinn ein wichtiger Aspekt, - und das Kriterium der Sendeeffizienz zu bewerten. Sendeeffizienz beurteilt das Zusammenspiel aus Interferenzunterdrückung einerseits und energieeffizienter Übertragung andererseits. Es stellt sich durch analytische und numerische Betrachtungen heraus, daß beide Größen vorrangig von zwei Einflußfaktoren bestimmt werden: der Anzahl der Freiheitsgrade bei der gemeinsamen Sendesignalerzeugung - und das ist die Anzahl der zu bestimmenden Abtastwerte aller Sendesignale - und der Anzahl der dabei einzuhaltenden Restriktionen. Da die Anzahl der Restriktionen bei der Forderung einer möglichst geringen wechselseitigen Interferenz nicht beeinflußbar ist, schlägt der Verfasser daher zum Erhöhen der Leistungsfähigkeit der empfängerorientierten Funkkommunikation vor, die Anzahl der Freiheitsgrade zu erhöhen, was sich vorzugsweise durch Verfolgen des Prinzips der unkonventionellen Empfänger umsetzen läßt. Es wird gezeigt, wie unter gewissen Nebenbedingungen eine hinsichtlich der Übertragungsfehlerwahrscheinlichkeiten optimale gemeinsame Sendesignalerzeugung prinzipiell erfolgen muß, und welche erheblichen Performanzgewinne im Sinne der totalen Sendeenergie und der Sendeeffizienz möglich werden. Diese optimale Vorgehensweise ist sehr aufwendig, so daß darüber hinaus aufwandsgünstige suboptimale hochperformante Alternativen der gemeinsamen Sendesignalerzeugung für unkonventionelle Empfänger vorgeschlagen und betrachtet werden. Die gemeinsame Sendesignalerzeugung setzt senderseitiges Vorliegen von Kanalzustandsinformation voraus. Daher werden die prinzipiellen Möglichkeiten des zur Verfügung Stellens dieser Information behandelt, wobei dabei das Bereitstellen dieser Information auf Basis gegebenenfalls vorliegender Kanalreziprozität im Falle von Duplexübertragung favorisiert wird. Dabei wird die in der Aufwärtsstrecke gewonnene Kanalzustandsinformation zur gemeinsamen Sendesignalerzeugung in der Abwärtsstrecke genutzt. Ist die dabei genutzte Kanalzustandsinformation nicht exakt, so hat dieses prinzipiell eine Degradation der Leistungsfähigkeit der empfängerorientierten Funkkommunikation zur Folge. Analytische und/oder numerische Betrachtungen erlauben, die Degradation zu quantifizieren. Es stellt sich heraus, daß diese Degradation vergleichbar mit der von konventionellen senderorientierten Funkkommunikationssystemen bekannten ist. Eine Betrachtung möglicher Weiterentwicklungen des Grundprinzips der Empfängerorientierung komplettieren die in dieser Schrift angestellten Betrachtungen. Die Ergebnisse dieser Schrift belegen, daß Empfängerorientierung ein interessanter Kandidat für die Organisation der Abwärtsstreckenübertragung künftiger Mobilfunksysteme ist. Darüber hinaus wird klar, welche grundsätzlichen Prinzipien und Effekte bei der empfängerorientierten Funkkommunikation wirksam sind und durch welche Vorgehensweisen bei der Gestaltung derartiger Funkkommunikation die Einflüsse der verschiedenen Effekte gegeneinander ausbalanciert werden können. Für den Systemdesigner morgiger Mobilfunksysteme steht mit dieser Schrift daher ein wertvolles Nachschlagewerk zur Verfügung, daß dabei unterstützt, die genannten prinzipiellen Vorteile von Empfängerorientierung in Funktechnologien der Praxis umzumünzen.
Empfängerorientierte Übertragungsverfahren sind dadurch gekennzeichnet, daß der im Sender zu verwendende Signalverarbeitungsalgorithmus an den im Empfänger verwendeten Signalverarbeitungsalgorithmus angepaßt ist. Dies geschieht meist mit zusätzlicher Kanalinformation, die nur am Sender und nicht am Empfänger verfügbar ist. In empfängerorientierten Systemen kann man besonders einfache Algorithmen in den Empfängern realisieren, die im Falle einer Abwärtsstreckenübertragung eines Mobilfunksystems, in den Mobilstationen sind. Dies ist mit geringen Produktionskosten und geringem Energieverbrauch der Mobilstationen verbunden. Um dennoch eine gewisse Güte der Datenübertragung zu gewährleisten, wird bei der Empfängerorientierung mehr Aufwand in der Feststation des Mobilfunksystems betrieben. Die derzeit verwendeten und für die dritte Mobilfunkgeneration (UMTS) vorgesehenen Übertragungsverfahren sind senderorientiert. Das bedeutet, daß der Signalverarbeitungsalgorithmus im Empfänger an den Signalverarbeitungsalgorithmus des Senders angepaßt ist. Auch bei der Senderorientierung wird meist die Kanalinformation in den Anpassungsprozeß im Empfänger einbezogen. Zum Gewinnen der Kanalinformation sind Testsignale notwendig, anhand der die Kanalinformation geschätzt werden kann. Solche Testsignale können in der Abwärtsstrecke eines empfängerorientierten Mobilfunksystems entfallen. Anstelle der Testsignale kann man Daten übertragen und somit die Datenrate im Vergleich zu senderorientierten Systemen erhöhen. Um die Performanz von Übertragungsverfahren beurteilen zu können, sind geeignete Kriterien notwendig. Meist werden zur Beurteilung Bitfehlerwahrscheinlichkeiten oder Signal-Stör-Verhältnisse verwendet. Da die Höhe der aufzuwendenden Sendeenergie nicht nur technisch, sondern auch gesellschaftlich ein wichtiger Aspekt zukünftiger Mobilfunksysteme ist, wird vom Verfasser das Kriterium der Energieeffizienz vorgeschlagen. Die Energieeffizienz beurteilt das Zusammenspiel von Signalverarbeitungsalgorithmen des Senders und des Empfängers unter Berücksichtigung der Kanaleigenschaften. Dabei wird die nutzbare Empfangsenergie auf die investierte Sendeenergie bezogen. Anhand der ermittelten energieeffizienzen und analytischen Betrachtungen in der vorliegenden Arbeit kann man den Schluß ziehen, daß empfängerorientierte Übertragungsverfahren für die Abwärtsstreckenübertragung in Mobilfunksystemen den senderorientierten vorzuziehen sind, wenn an der Feststation relativ viele und an den Mobilstationen relativ wenige Antennen zur Verfügung stehen. Dies ist bereits heute der Fall und auch in zukünftigen Mobilfunksystemen zu erwarten. Ferner eröffnet das am Rande untersuchte kanalorientierte Übertragungsverfahren, bei dem die Signalverarbeitungsalgorithmen des Sender und des Empfängers an die Kanalinformation angepaßt werden, ein weites Feld für zukünftige Forschungsvorhaben.
Entwicklung eines Verfahrens zur dreiphasigen Zustandsschätzung in vermaschten Niederspannungsnetzen
(2018)
Betreiber von Niederspannungsnetzen sind im Zuge der Energiewende durch den anhaltenden Ausbau dezentraler Erzeugungsanlagen und dem Aufkommen der Elektromobilität mit steigenden Netzauslastungen konfrontiert. Zukünftig wird ein sicherer Netzbetrieb ohne Leitungsüberlastungen grundsätzlich nur gewährleistet sein, wenn der Netzzustand durch geeignete Systeme ermittelt wird und auf dessen Basis ein intelligentes Netzmanagement mit regelnden Eingriffen erfolgt.
Diese Arbeit befasst sich mit der Entwicklung und dem Test eines Verfahrens zur dreiphasigen Zustandsschätzung in vermaschten Niederspannungsnetzen. Als Eingangsdaten dienen dabei Spannungs- und Strommesswerte, welche im Wesentlichen durch Smart Meter an Hausanschlusspunkten messtechnisch erfasst werden. Das Verfahren zielt darauf ab, Grenzwertverletzungen mit einer hohen Wahrscheinlichkeit zu erkennen.
Schwerpunkte der Betrachtung sind neben der Systemkonzeptionierung zum einen die Vorverarbeitung der Systemeingangsdaten im Rahmen der Generierung von Ersatzmesswerten sowie der Erkennung von Topologiefehlern und zum anderem die Entwicklung eines Schätzalgorithmus mit linearem Messmodell und der Möglichkeit zur Lokalisierung grob falscher Messdaten.
Die typische Aufgabe eines Nahbereichsradarnetzes ist es, Fahrzeuge in einem definierten Überwachungsbereich, beispielsweise dem Rollfeld eines Flughafens, zu detektieren, zu orten und ihre Spur zu verfolgen. Wegen der stark unterschiedlichen Radarrückstreuquerschnitte der Radarziele sind die Anforderungen an den verfügbaren Dynamikbereich der einzelnen eingesetzten Radarempfänger sehr hoch. Bei niedriger Radarsignalleistung ist daher die Verwendung eines Impulskompressionsverfahrens notwendig. Beim Nahbereichsnetz NRN, im Rahmen dessen Entwicklung auch die vorliegende Arbeit entstand, wird zudem ein neuartiges Ortungsprinzip eingesetzt, weshalb die Radarstationen mit feststehenden, d. h. nicht-rotierenden Antennen mit breiter Antennencharakteristik ausgestattet werden können. Radarsignale setzen sich aus den Echosignalen von den Radarsendeimpuls reflektierenden Objekten, sowie dem Rauschen zusammen. Bei den reflektierenden Objekten handelt es nicht nur um die interessierenden Radarziele, d. h. die zu detektierenden Fahrzeuge. Wegen der Bodennähe, in der ein Nahbereichsradarnetz betrieben wird, sowie der zumindest beim NRN breiten Antennencharakteristiken erfaßt der Radastrahl eine Vielzahl weiterer Radarreflektoren, deren Echosignal, Cluttersignal genannt, das eigentliche Nutzsignalüberlagert. Darüberhinaus verursacht der Einsatz eines Impulskompressionsverfahrens i. a. eine künstliche störende Signalkomponente, die sogenannten Impulskompressionsnebenmaxima, die auch Eigenclutter genannt werden. Durch den Einsatz eines erwartungstreuen Impulskompressionsverfahrens beim NRN wird theoretisch keine Eigenclutterkomponente erzeugt. Es existieren jedoch Effekte, die die Eigenclutterfreiheit zerstören. Diese werden im ersten Teil der Arbeit untersucht. Es wird gezeigt, wie die Eigenclutterfreiheit wiederhergestellt werden kann. Im zweiten Teil der Arbeit wird das Cluttersignal von reflektierenden Objekten anhand von mit dem NRN gemessenen Signalzeitreihen analysiert. Ein Modell zur Beschreibung des Cluttersignals wird entwickelt. Mit den Methoden der Detektionstheorie wird ein optimales Filter- und Detektionsverfahren für ein vollständig unbekanntes Nutzsignal in einem durch dieses Modell beschreibbaren Störsignal abgeleitet. Um dieses Verfahren einzusetzen, ist die Kenntnis der Modellparameter erforderlich. Prinzipiell existieren verschiedene Methoden, die sich im Laufe der Zeit verändernden Modellparameter zu schätzen. Das Filter- und Detektionsverfahren kann dann stetig an die aktuellen Schätzungen der Parameter des Cluttersignalmodells adaptiert werden. Die Schätzung liefert jedoch im Falle des Vorhandenseins von Nutzsignalkomponenten verfälschte Parameterwerte. In der vorliegenden Arbeit werden verschiedene Methoden zur Adaptionskontrolle vorgeschlagen, die den Einfluß dieser verfälschten Parameterschätzungen auf die Nutzsignaldetektion minimieren. Damit existiert ein Algorithmus, der adaptiv aus dem Echosignal cluttersignalbeschreibende Parameter bestimmt, die ihrerseits von einem Filter- und Detektionsalgorithmus verwendet werden, um ein eventuell im Echosignal vorhandenes Nutzsignal optimal zu detektieren. Anhand von Radarechosignalen, die mit dem NRN bei Meßkampagnen aufgezeichnet wurden, sowie anhand von Simulationen wurde schließlich die Leistungsfähigkeit des entwickelten adaptiven Filter- und Detektionsverfahrens mit Adaptionskontrolle beim Einsatz in einem Nahbereichsradarnetz gezeigt.
In der Arbeit wurde eine Herzfrequenzregelung für einen Fahrrad-Heimtrainer entworfen und in Matlab/Simulink implementiert. Dabei wird die Herzfrequenz des Fahrers über Funk erfasst und über eine unterlagerte Leistungsregelung eingeregelt. Als Aktuator dient eine Wirbelstrombremse, die das Hinterrad des Fahrrads bremst. Die Arbeit beschreibt den Reglerentwurf, die Modellierung des Menschen, den Systemaufbau und diverse Tests.
Die Architekturen vieler technischer Systeme sind derzeit im Umbruch. Der fortschreitende Einsatz von Netzwerken aus intelligenten rechnenden Knoten führt zu neuen Anforderungen an den Entwurf und die Analyse der resultierenden Systeme. Dabei spielt die Analyse des Zeitverhaltens mit seinen Bezügen zu Sicherheit und Performanz eine zentrale Rolle. Netzbasierte Automatisierungssysteme (NAS) unterscheiden sich hierbei von anderen verteilten Echtzeitsystemen durch ihr zyklisches Komponentenverhalten. Das aus der asynchronen Verknüpfung entstehende Gesamtverhalten ist mit klassischen Methoden kaum analysierbar. Zur Analyse von NAS wird deshalb der Einsatz der wahrscheinlichkeitsbasierten Modellverifikation (PMC) vorgeschlagen. PMC erlaubt detaillierte, quantitative Aussagen über das Systemverhalten. Für die dazu notwendige Modellierung des Systems auf Basis wahrscheinlichkeitsbasierter, zeitbewerteter Automaten wird die Beschreibungssprache DesLaNAS eingeführt. Exemplarisch werden der Einfluss verschiedener Komponenten und Verhaltensmodi auf die Antwortzeit eines NAS untersucht und die Ergebnisse mittels Labormessungen validiert.
Formalismen und Anschauung
(1999)
Mobilfunksysteme sind interferenzbegrenzt. Eine signifikante Steigerung der Leistungsfähigkeit künftiger Mobilfunksysteme kann daher nur durch den Einsatz von Verfahren zum Reduzieren der schädlichen Wirkung von Interferenz erreicht werden. Eine besonders attraktive Klasse von Verfahren, die dieses leisten, sind jene der gemeinsamen Empfangssignalverarbeitung, wobei bisher der systematische Entwurf und die systematische Analyse solcher Verfahren für CDMA-Mobilfunksysteme mit infiniter oder quasi-infiniter Datenübertragung - eine im Hinblick auf die derzeit in Betrieb gehenden zellularen Mobilfunksysteme der dritten Generation besonders interessierende Klasse von künftigen Mobilfunksystemen - noch unklar ist. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs- und Optimierungsprozesses von Verfahren zur gemeinsamen Empfangssignalverarbeitung für Mobilfunksysteme der genannten Art. Zu diesem Zweck wird gezeigt, daß sich die Aufgabe der gemeinsamen Empfangssignalverarbeitung in die fünf Teilaufgaben Blockbilden, Datenzuordnen, Interblock-Signalverarbeitung, Intrablock-Signalverarbeitung und Kombinieren & Entscheiden zerlegen läßt. Nachdem in einem ersten Schritt alle fünf Teilaufgaben klar definiert und gegeneinander abgegrenzt werden, erfolgt in einem zweiten Schritt für jede Teilaufgabe die Entwicklung von Lösungsvorschlägen, die nach gewissen Kriterien optimal bzw. suboptimal sind. Zur Lösung jeder einzelnen Teilaufgabe werden neuartige Vorgehensweisen vorgeschlagen, wobei dabei sowohl die Optimierung der Leistungsfähigkeit der jeweiligen Vorgehensweisen als auch Belange, die für die praktische Realisierbarkeit relevant sind, im Vordergrund stehen. Eine Schlüsselrolle kommt den Verfahren der Intrablock-Signalverarbeitung zu, deren Aufgabe darin besteht, ausgehend von Ausschnitten des Empfangssignals Schätzungen von Daten zu ermitteln, die zu dem jeweiligen Ausschnitt beitragen. Die vorgeschlagenen Verfahren der Intrablock-Signalverarbeitung beruhen im wesentlichen auf iterativen Versionen bekannter linearer Schätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt dabei A-priori-Information, wie z.B. die Kenntnis des Datensymbolalphabetes und der A-priori-Wahrscheinlichkeiten der zu übertragenden Daten, zum Erhöhen der Zuverlässigkeit der zu ermittelnden Datenschätzungen. Die verschiedenen Versionen der iterativ realisierten linearen Schätzer und verschiedene Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für viele Anwendungsfälle ein maßgeschneidertes Verfahren zur Intrablock-Signalverarbeitung zu konstruieren. Aufbauend auf dem entwickelten systematischen Entwurfsprinzip wird abschließend für ein exemplarisches CDMA-Mobilfunksystem mit synchronem Mehrteilnehmerzugriff ein darauf zugeschnittenes Verfahren zur gemeinsamen Empfangssignalverarbeitung vorgeschlagen. Die dargelegten Simulationsergebnisse zeigen, daß ausgehend von derzeit favorisierten nicht dem Prinzip der gemeinsamen Empfangssignalverarbeitung folgenden Verfahren zum Schätzen der übertragenen Daten in typischen Mobilfunkszenarien durch Einsetzen des vorgeschlagenen Verfahrens zur gemeinsamen Empfangssignalverarbeitung die Anzahl der gleichzeitig aktiven CDMA-Codes um nahezu eine Größenordnung erhöht werden kann, ohne dabei die bei einem vorgegebenen Signal-Stör-Verhältnis am Referenzempfänger beobachtbare Zuverlässigkeit der ermittelten Schätzungen zu verschlechtern. Deshalb ist der Einsatz von Verfahren zur gemeinsamen Empfangssignalverarbeitung eine vielversprechende Maßnahme zur Kapazitätssteigerung künftiger Mobilfunksysteme.
Nach einer Einführung in die zur Erfassung inkorporaler Meßgrößen und zur Meßdatenübertragung verwendeten Verfahren wird in dieser Arbeit ein Konzept vorgestellt, das die Entwicklung implantierbarer Meßsysteme in den ersten Entwurfsphasen unterstützt. Im Anschluß wird die mit dem Konzept durchgeführte Entwicklung eines multisensorischen Meß- und Überwachungssystems beschrieben. Zur Ableitung des Entwurfskonzepts werden die an implantierbare Meßsysteme gestellten Anforderungen analysiert. Dabei findet eine Unterteilung in klassenspezifische und applikationsspezifische Anforderungen statt. Aus den klassenspezifischen Anforderungen dieser Aufstellung wird ein für die hier untersuchten Meßsysteme allgemein gültiges, in Funktionsblöcke und Funktionsgruppen untergliedertes, Strukturmodell erstellt. Zum Entwurf der untereinander in Verbindung stehenden Komponenten dieses Strukturmodells wird eine Reihenfolge vorgegeben, die vorhandene Abhängigkeiten zwischen den Funktionseinheiten berücksichtigt. Anschließend werden in der Entwurfsreihenfolge und unter Berücksichtigung der applikationsspezifischen Anforderungen die einzelnen Funktionsblöcke im Detail spezifiziert und für jeden der Funktionsblöcke eine Anforderungsliste erstellt. Unter Verwendung der Anforderungslisten werden die Funktionsgruppen bestimmt. Eine dieser Funktionsgruppen ist die drahtlose Energieversorgung. Zu deren Entwurf wird ein Verfahren vorgestellt, mit dem induktive Übertragungsstrecken berechnet werden können. Mit der Verwendung des beschriebenen Konzepts wird der Entwickler eines implantierbaren Meßsystems insbesondere in der Systemspezifikation und der Systempartitionierung unterstützt. Der aufgestellte Anforderungskatalog erleichtert ihm die Spezifikation des Meßsystems. Zu jedem der Funktionsblöcke des allgemein geltenden Strukturmodells erhält der Entwickler eine applikationsabhängige Detailspezifikation, die ihm die Bestimmung der zum Aufbau der Funktionsblöcke erforderlichen Funktionsgruppen ermöglicht. So entsteht eine detaillierte Aufbaustruktur des zu entwerfenden Meßsystems, in der alle an das System gestellten Anforderungen berücksichtigt sind. Damit steht eine fundierte Ausgangsbasis zur Entwicklung der Funktionsgruppen zur Verfügung. Das Verfahren zum Entwurf induktiver Energieübertragungsstrecken unterstützt die Entwicklung drahtlos gespeister Meßsysteme. Der Entwurf der restlichen Funktionsgruppen wird mit bereits etablierten Methoden und Werkzeugen durchgeführt. Die Verifikation des gesamten Meßsystems erfolgt mit einem aus den Funktionsgruppen aufgebauten Prototypen. Unter Verwendung des Entwurfskonzepts wurde ein implantierbares Meßsystem für eine neue Osteosyntheseplatte entwickelt, die zur Versorgung von Knochenfrakturen verwendet wird. Die Platte verfügt über besondere mechanische Eigenschaften, die eine verbesserte Frakturheilung versprechen. Zur Beobachtung der Knochenheilung werden bislang Röntgenaufnahmen eingesetzt. Das in die neue Osteosyntheseplatte integrierte Meßsystem hingegen ermöglicht die Erfassung mehrerer Meßwerte direkt am Knochen. Damit ergibt sich eine erheblich verbesserte Diagnostik ohne Strahlenbelastung des Patienten. Neben der Erforschung des Verbundes Knochen-Implantat erlauben die verbesserten Diagnosemöglichkeiten die Einleitung gezielterer Rehabilitations-Maßnahmen. In Verbindung mit der verbesserten Frakturheilung sollen so optimale Behandlungsergebnisse erzielt und die Behandlungszeiten verkürzt werden.
Mit dem Vorhandensein elektrischer Energie und moderner Sensorik an elektrisch unterstützten Fahrrädern eröffnen sich neue Möglichkeiten der Entwicklung von Fahrerassistenzsystemen am Pedelec zur Erhöhung der Sicherheit und des Fahrkomforts. Die Leistungsfähigkeit solcher Systeme kann durch die Nutzung von Inertialsensorik weiter gesteigert werden. Jedoch müssen solche Sensoren, vor allem bei sicherheitsrelevanten Assistenzsystemen, zuverlässige, robuste und plausible Sensordaten liefern. Hieraus ergibt sich das Thema dieser Arbeit: die Evaluation von Inertialsensorik für Fahrerassistenzsysteme am Pedelec anhand systematischer Untersuchung der Fahrdynamik.
Durch simulative und experimentelle Untersuchungen der MEMS-Sensorik und der Fahrdynamik, basierend auf Testkatalogen, werden die Anforderungen an Inertialsensorik abgeleitet und die Störbarkeit der Drehrate analysiert. Dabei führt die Betrachtung verschiedener Sensortypen, Fahrszenarien und Anbaupositionen zu der Erkenntnis, dass bspw. die Anbauposition am Sattelrohr und in der Antriebseinheit besonders geeignet sind. Vor allem der betrachtete Automotive-MEMS-Sensor liefert auch bei potentiell kritischen Vibrationen bei einer Fahrt über Kopfsteinpflaster oder über Treppenstufen sowie bei Bremsenquietschen zuverlässig plausible Sensordaten.
Zusätzlich zeigt eine Betrachtung der Auswirkungen von Sensorfehlern auf eine Datenfusion, d.h. der Berechnung der Raumwinkel, dass vor allem die Minimierung des Offset-Fehlers, bspw. durch eine Langzeitkorrektur, sinnvoll erscheint und resultierende Winkelfehler minimieren kann.
Die Untersuchung der Fahrdynamik betrachtet insbesondere das Fahrszenario (kritische) Kurvenfahrt. Anhand der Fahrdaten zahlreicher Pedelec-Nutzer werden eine Methode zur Erkennung von Kurvenfahrten sowie theoretische Ansätze zur Vermeidung einer kritischen Kurvenfahrt durch einen aktiven Lenkeingriff realisiert.
Der Trend zur Verfügbarkeit mehrerer Mobilfunknetze im gleichen Versorgungsgebiet nicht nur unterschiedlicher Operatoren, sondern auch unterschiedlicher Mobilfunkstandards in möglicherweise unterschiedlichen Hierarchieebenen führt zu einer Vielzahl von Koexistenzszenarien, in denen Intersystem- und Interoperator-MAI die einzelnen Mobilfunknetze beeinträchtigen können. In der vorliegenden Arbeit wird ein systematischer Zugang zur Koexistenzproblematik durch die Klassifizierung der MAI erarbeitet. Eine MAI-Art kann dabei mehreren MAI-Klassen angehören. Durch die Einteilung in Klassen wird angestrebt, zum einen die eine MAI-Art beeinflussenden Effekte anhand der Zugehörigkeit zu bestimmten MAI-Klassen besser verstehen zu können. Zum anderen dient die Einteilung der MAI in Klassen zum Abschätzen der Gefährlichkeit einer MAI-Art, über die sich Aussagen machen lassen anhand der Zugehörigkeit zu bestimmten MAI-Klassen. Der Begriff Gefährlichkeit einer MAI-Art schließt neben der mittleren Leistung auch weitere Eigenschaften wie Varianz oder Ursache der MAI ein. Einfache Schlimmstfall-Abschätzungen, wie sie in der Literatur gebräuchlich sind, können leicht zu Fehleinschätzungen der Gefährlichkeit einer MAI-Art führen. Durch die Kenntnis der zugehörigen MAI-Klassen einer MAI-Art wird die Gefahr solcher Fehleinschätzungen erkennbar. Neben den Schlimmstfall-Abschätzungen unter Berücksichtigung der MAI-Klassen werden in der vorliegenden Arbeit auch Simulationen durchgeführt, anhand derer die Abschätzungen verifiziert werden. Dazu werden Werkzeuge in Form von mathematischen Modellen zum Berechnen der Leistung der verschiedenen MAI-Arten unter Einbeziehen der verschiedenen betrachteten Verfahren zum Mindern von MAI erarbeitet. Dabei wird auch ein Konzept zum Vermindern der erforderlichen Rechenleistung vorgestellt. Anhand der Untersuchung der Koexistenz der beispielhaften Mobilfunksysteme WCDMA und TD-CDMA wird gezeigt, daß sich das Auftreten extrem hoher Intersystem- bzw. Interoperator-MAI durch geeignete Wahl der Systemparameter wie Zellradien und Antennenhöhen, sowie durch Verfahren zum Mindern von MAI wie effizienten Leistungsregelungsverfahren und dynamische Kanalzuweisung meist vermeiden läßt. Es ist jedoch essentiell, daß die Koexistenzproblematik bereits in der Phase der Funknetzplanung adäquat berücksichtigt wird. Dabei ist eine Kooperation der beteiligten Operatoren meist nicht notwendig, lediglich besonders kritische Fälle wie Kollokation von BSen verschiedener TDD-Mobilfunknetze z.B. nach dem 3G-Teilstandard TD-CDMA müssen von den Operatoren einvernehmlich vermieden werden. Da bei der Koexistenz von Mobilfunknetzen in Makrozellen aufgrund ihres hohen Zellradius besonders hohe Interoperator-MAI für den Fall der Gleichstrecken-MAI auftreten kann, wird in der vorliegenden Arbeit ein neuartiges Konzept zum Vermindern dieser MAI basierend auf Antennentechniken vorgestellt. Das Konzept zeigt ein vielverspechendes Potential zum Mindern der Interoperator-MAI.
Interferenzreduktion in CDMA-Mobilfunksystemen - ein aktuelles Problem und Wege zu seiner Lösung
(2003)
Eine signifikante Steigerung der Leistungsfähigkeit von Mobilfunksystemen und die damit verbundene Erhöhung des mit begrenzten Frequenzspektrumsressourcen erzielbaren ökonomischen Gewinns erfordert eine Interferenzreduktion. Da der von einem empfangenen Interferenzsignal erzeugte Störeffekt sowohl von der Leistung des Interferenzsignals als auch von der Struktur des Interferenzsignals im Vergleich zur Struktur des Nutzsignals abhängt, ergeben sich zwei prinzipielle Ansätze zur Reduktion der Interferenz. Bei den Interferenzreduktionsverfahren auf der Systemebene wird die Leistung der empfangenen Interferenzsignale zum Beispiel durch geschickte Regelung der Sendeleistungen oder durch Einstellen der Richtcharakteristiken von Antennen reduziert. Interferenzreduktionsverfahren auf der Systemebene sind relativ einfach realisierbar und können bereits in heutigen Mobilfunksystemen erfolgreich eingesetzt werden. Interferenzreduktionsverfahren auf der Verbindungsebene zielen auf eine vorteilhafte Beeinflussung oder Berücksichtigung der Signalstrukturen. Ausgehend von allgemeingültigen Eigenschaften des Mobilfunkkanals wie Linearität kann man Signalstrukturen finden, die a priori zu wenig oder sogar keiner schädlichen Interferenz führen. Solche einfachste, vom aktuellen Zustand des Mobilfunkkanals unabhängigen Interferenzreduktionsverfahren auf der Verbindungsebene sind beispielsweise die Vielfachzugriffsverfahren, die in jedem Mobilfunksystem eingesetzt werden. In letzter Zeit werden auch vermehrt Interferenzreduktionsverfahren auf der Verbindungsebene untersucht, die die Kenntnis des aktuellen Kanalzustands ausnutzen. Solche Interferenzreduktionsverfahren erfordern komplizierte Berechnungen in Sender oder Empfänger, in die die einzelnen Signalabtastwerte und die schnell zeitvarianten Kanalimpulsantworten eingehen. Der daraus resultierende hohe Rechenaufwand verhinderte bis vor kurzem eine Realisierung in kommerziellen Produkten. Interferenzreduktionsverfahren auf der Verbindungsebene kann man in senderseitige Verfahren und empfängerseitige Verfahren unterteilen. Die senderseitigen Verfahren versuchen, durch geschickte Gestaltung der Sendesignale schädliche Interferenzen zu vermeiden. Ein Schwerpunkt der vorliegenden Schrift ist das Untersuchen empfängerseitiger Interferenzreduktionsverfahren auf der Verbindungsebene. Hier interessiert neben der gemeinsamen Kanalschätzung insbesondere die gemeinsame Datenschätzung. Ein wesentliches Problem bei der empfängerseitigen Interferenzreduktion auf der Verbindungsebene ist die erhöhte Anzahl zu berücksichtigender Mobilstationen bei der gemeinsamen Datenschätzung. Im Vergleich zu Empfängern ohne Interferenzreduktion müssen mehr Daten aus einer unveränderten Anzahl an verfügbaren Empfangswerten geschätzt werden, was zu einem verminderten Mehrteilnehmercodierungsgewinn des Datenschätzers führt. Verfahren der gemeinsamen Datenschätzung können nur dann gewinnbringend eingesetzt werden, wenn der negative Effekt des verminderten Mehrteilnehmercodierungsgewinns durch den positiven Effekt der reduzierten Interferenz mindestens kompensiert wird. Diese Forderung ist bei der Interzellinterferenzreduktion besonders kritisch, da die einzelnen Interzellinterferer häufig nur mit geringer Leistung empfangen werden, das heißt der positive Effekt der reduzierten Interferenz bei Berücksichtigen eines Interzellinterferers relativ gering ausfällt. Eine Voraussetzung zur erfolgreichen Interferenzreduktion und insbesondere zur Interzellinterferenzreduktion sind folglich Datenschätzer mit hohem Mehrteilnehmercodierungsgewinn. Die bekannten linearen gemeinsamen Datenschätzer wie der Zero-Forcing-Schätzer können diese Forderung nach hohem Mehrteilnehmercodierungsgewinn bei größeren Anzahlen gemeinsam detektierter Mobilstationen nicht erfüllen. Ein mögliche Lösung zum Erzielen hoher Mehrteilnehmercodierungsgewinne mit moderaten Rechenaufwänden sind die in der vorliegenden Schrift untersuchten, auf dem Turbo-Prinzip basierenden iterativen gemeinsamen Datenschätzer. Prinzipiell handelt es sich bei den hier untersuchten Datenschätzern um iterative Versionen der bekannten linearen gemeinsamen Datenschätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt die Kenntnis des Modulationsalphabets und optional des eingesetzten Fehlerschutzcodes zum Verbessern der Schätzergebnisse. Die vielen vorgestellten Varianten der iterativen gemeinsamen Datenschätzer und die verschiedenen Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für jeden Anwendungsfall einen maßgeschneiderten gemeinsamen Datenschätzer zu konstruieren.
Der zunehmende Ausbau dezentraler Erzeugungsanlagen sowie die steigende Anzahl an Elektrofahrzeugen stellen die Niederspannungsnetze vor neue Herausforderungen. Neben der Einhaltung des zulässigen Spannungsbands führen Erzeugungsanlagen und neue Lasten zu einer zunehmenden thermischen Auslastung der Leitungen. Einfache, konventionelle Maßnahmen wie Topologieänderungen zu vermascht betriebenen Niederspannungsnetzen sind ein erster hilfreicher und kostengünstiger Ansatz, bieten aber keinen grundsätzlichen Schutz vor einer thermischen Überlastung der Betriebsmittel. Diese Arbeit befasst sich mit der Konzeption eines Spannungs- und Wirkleistungsreglers für vermaschte Niederspannungsnetze. Durch den Regler erfolgt eine messtechnische Erfassung der Spannungen und Ströme in einzelnen Messpunkten des Niederspannungsnetzes. Mit Hilfe eines speziellen Kennlinienverfahrens kann eine Leistungsverschiebung in einzelnen Netzmaschen hervorgerufen und vorgegebene Soll- oder Grenzwerte eingehalten werden. In vorliegender Arbeit werden die analytischen Grundlagen des Reglers, seine Hardware sowie das Kennlinienverfahren zusammen mit den realisierbaren Regelkonzepten vorgestellt. Die Ergebnisse aus Simulationsstudien, Labor- und Feldtests stellen die Effektivität des Reglers eindeutig dar und werden diskutiert.
Die Einführung des Internets hat einen stetigen Wandel des täglichen,
sowie beruflichen Alltags verursacht. Hierbei ist eine deutliche Verlagerung
in den virtuellen Raum (Internet) festzustellen. Zusätzlich hat
die Einführung von sozialen Netzwerken, wie beispielsweise Facebook
das Verlangen des Nutzers immer „online“ zu sein, deutlich verstärkt.
Hinzu kommen die kontinuierlich wachsenden Datenmengen, welche beispielsweise
durch Videostreaming (YouTube oder Internet Protocol Television
(IPTV)) oder den Austausch von Bildern verursacht werden.
Zusätzlich verursachen neue Dienste, welche beispielsweise im Rahmen
vom Internet der Dinge und auch Industrie 4.0 eingeführt werden, zusätzliche
Datenmengen. Aktuelle Technologien wie Long Term Evolution
Advanced (LTE-A) im Funkbereich und Very High Speed Digital Subsciber
Line (VDSL) beziehungsweise Glasfaser in kabelgebundenen Netzen,
versuchen diesen Anforderungen gerecht zu werden.
Angesichts der steigenden Anforderungen an die Mobilität des Nutzers,
ist die Verwendung von Funktechnologien unabdingbar. In Verbindung
mit dem stetig wachsenden Datenaufkommen und den ansteigenden
Datenraten ist ein wachsender Bedarf an Spektrum, also freien,
beziehungsweise ungenutzten Frequenzbereichen einhergehend. Für die
Identifikation geeigneter Bereiche müssen allerdings eine Vielzahl von
Parametern und Einflussfaktoren betrachtet werden. Einer der entscheidenden
Parameter ist die entstehende Dämpfung im betrachteten Frequenzbereich,
da diese mit steigender Frequenz größer wird und somit
die resultierende Abdeckung bei gleichbleibender Sendeleistung sinkt.
In aktuellen Funksystemen werden Frequenzen < 6 GHz verwendet, da
diese von den Ausbreitungseigenschaften geeignete Eigenschaften aufweisen.
Des Weiteren müssen vorhandene Nutzungsrechte, Inhaber des
Spektrums, Nutzungsbedingungen und so weiter im Vorfeld abgeklärt
werden. In Deutschland wird die Koordination von der Bundesnetzagentur
vorgenommen.
Aufgrund der Vielfalt der vorhandenen Dienste und Anwendungen ist
es leicht ersichtlich, dass der Frequenzbereich < 6 GHz stark ausgelastet
ist. Neben den kontinuierlich ausgelasteten Diensten wie zum Beispiel
Long Term Evolution (LTE) oder Digital Video Broadcast (DVB), gibt
es spektrale Bereiche, die nur eine geringe zeitliche Auslastung aufweisen.
Markant hierfür sind Frequenzbereiche, welche beispielsweise ausschließlich
für militärische Nutzung reserviert sind. Bei genauerer Betrachtung
fällt auf, dass sich dies nicht ausschließlich auf den zeitlichen Bereich
beschränkt, vielmehr ergibt sich eine Kombination aus zeitlicher und
räumlicher Beschränkung, da die Nutzung meist auf einen räumlichen
Bereich eingrenzbar ist. Eine weitere Einschränkung resultiert aus der
derzeit starren Vergabe von Frequenzbereichen. Die Zuteilung basiert
auf langwierigen Antragsverfahren und macht somit eine kurzfristige variable
Zuteilung unmöglich.
Um diesem Problem gerecht zu werden, erfolgt im Rahmen dieser Arbeit
die Entwicklung eines generischen Spektrum-Management-Systems
(SMSs) zur dynamischen Zuteilung vorhandener Ressourcen. Eine Anforderung
an das System ist die Unterstützung von bereits bekannten
Spektrum Sharing Verfahren, wie beispielsweise Licensed Shared Access
(LSA) beziehungsweise Authorized Shared Access (ASA) oder Spectrum
Load Smoothing (SLS). Hierfür wird eine Analyse der derzeit bekannten
Sharing Verfahren vorgenommen und diese bezüglich ihrer Anwendbarkeit
charakterisiert. DesWeiteren werden die Frequenzbereiche unterhalb
6 GHz hinsichtlich ihrer Verwendbarkeiten und regulatorischen Anforderungen
betrachtet. Zusätzlich wird ein erweiterter Anforderungskatalog
an das Spektrum-Management-System (SMS) entwickelt, welcher
als Grundlage für das Systemdesign verwendet wird. Essentiell ist hierbei,
dass alle (potentiellen) Nutzer beziehungsweise Inhaber eines spektralen
Bereiches die Funktionalität eines derartigen Systems verwenden
können. Hieraus ergibt sich bereits die Anforderung der Skalierbarkeit
des Systems. Zur Entwicklung einer geeigneten Systemarchitektur werden
bereits vorhandene Lösungsansätze zur Verwaltung und Speicherung
von Daten hinsichtlich ihrer Anwendbarkeit verglichen und bewertet.
Des Weiteren erfolgt die Einbeziehung der geografischen Position.
Um dies adäquat gewährleisten zu können, werden hierarchische Strukturen
in Netzwerken untersucht und auf ihre Verwendbarkeit geprüft.
Das Ziel dieser Arbeit ist die Entwicklung eines Spektrum-Management-
Systems (SMSs) durch Adaption bereits vorhandener Technologien und
Verfahren, sowie der Berücksichtigung aller definierten Anforderungen.
Es hat sich gezeigt, dass die Verwendung einer zentralisierten Broker-
Lösung nicht geeignet ist, da die Verzögerungszeit einen exponentiellförmigen
Verlauf bezüglich der Anzahl der Anfragen aufweist und somit
nicht skaliert. Dies kann mittels einer Distributed Hash Table (DHT)-
basierten Erweiterung überwunden werden ohne dabei die Funktionalität
der Broker-Lösung einzuschränken. Für die Einbringung der Geoinformation
hat sich die hierarchische Struktur, vergleichbar zum Domain
Naming Service (DNS) als geeignet erwiesen.
Als Parameter für die Evaluierung hat sich die resultierende Zugriffszeit,
das heißt die Zeit welche das System benötigt um Anfragen zu
bearbeiten, sowie die resultierende Anzahl der versorgbaren Nutzer herausgestellt.
Für die Simulation wird ein urbanes Areal mit fünf Gebäuden
betrachtet. In der Mitte befindet sich ein sechsstöckiges Firmengebäude,
welches in jedem Stockwerk mit einem Wireless Local Area Network Access
Point (WLAN-AP) ausgestattet ist. Umliegend befinden sich vier
Privathäuser, welche jeweils mit einem WLAN-AP ausgestattet sind.
Das komplette Areal wird von drei Mobilfunkbetreibern mit je einer
Basisstation (BS) versorgt. Als Ausgangspunkt für die Evaluierung erfolgt
der Betrieb ohne SMS. Aus den Ergebnissen wird deutlich, dass
eine Überlastung der Long Term Evolution Basisstationen (LTE-BSen)
vorliegt (im Speziellen bei Betreiber A und B). Im zweiten Durchlauf
wird das Szenario mit einem SMS betrachtet. Zusätzlich kommen in diesem
Fall noch Mikro Basisstationen (Mikro-BSen) zum Einsatz, welche
von der Spezifikation vergleichbar zu einem Wireless Local Area Network
(WLAN) sind. Hier zeigt sich ein deutlich ausgewogeneres Systemverhalten.
Alle BSen und Access Points (APs) befinden sich deutlich
unterhalb der Volllastgrenze.
Die Untersuchungen im Rahmen dieser Arbeit belegen, dass ein heterogenes,
zeitweise überlastetes Funksystem, vollständig harmonisiert
werden kann. Des Weiteren ermöglicht der Einsatz eines SMSs die effiziente
Verwendung von temporär ungenutzten Frequenzbereichen (sogenannte
White- und Gray-spaces).
Durch den zunehmenden Anteil erneuerbarer Erzeugung und die voranschreitende Elektrifizierung von Verkehrs- und Wärmesektor gewinnt die Möglichkeit, den Netzzustand im Verteilnetz zu kennen und steuern zu können, für die Netzbetreiber immer mehr an Bedeutung. Im Forschungsprojekt "SmartAPO" wurde ein Netzautomatisierungssystem entwickelt, das den Zustand im Niederspannungsnetz auf Basis von Smart-Meter-Daten schätzen und regeln kann.
Ziel dieser Arbeit ist die Analyse und Bewertung des Systems im Vorlauf eines Feldtests durch die Implementierung im Labor. Die Untersuchungen leisten einen Beitrag zu den Forschungsaktivitäten im Bereich intelligenter Verteilnetze.
Nach der Darstellung der im Netzautomatisierungssystem verwendeten Funktionen werden für die Laboruntersuchungen geeignete Anwendungsfälle entwickelt und qualitative Bewertungskriterien formuliert. Die Anwendungsfälle orientieren sich an realistischen Begebenheiten und beinhalten Tages- und Echtzeitprofile. Neben Haushaltslasten wird die Last durch Ladevorgänge von Elektrofahrzeugen und durch Wärmepumpen einbezogen. Es kommen verschiedene Konfigurationen der Netznachbildung zum Einsatz, um die Regelung in unterschiedlichen Netztopologien zu testen. Auch der Umgang mit Störeinflüssen, wie langen Messzyklen und fehlenden Messdaten, wird betrachtet.
Durch die Auswertung der durchgeführten Untersuchungen und die Anwendung der angesetzten Kriterien wird die Spannungsregelung mit einem regelbaren Ortsnetztransformator und die Stromregelung mit einem Maschenstromregler validiert. Die betrachteten internen Funktionen werden verifiziert. Die Verifizierung des Umgangs mit Störeinflüssen erfolgt mit Einschränkungen, die den Bedarf an weiteren Untersuchungen aufzeigen.
Die gemachte Arbeit ist wichtiger Bestandteil des Forschungsprojektes und trägt dazu bei, die Netzautomatisierung im Niederspannungsnetz, die für die erfolgreiche Umsetzung der Energiewende in Deutschland erforderlich ist, voranzubringen.
Mit zunehmender Integration von immermehr Funktionalität in zukünftigen SoC-Designs erhöht sich die Bedeutung der funktionalen Verifikation auf der Blockebene. Nur Blockentwürfe mit extrem niedriger Fehlerrate erlauben eine schnelle Integration in einen SoC-Entwurf. Diese hohen Qualitätsansprüche können durch simulationsbasierte Verifikation nicht erreicht werden. Aus diesem Grund rücken Methoden zur formalen Entwurfsverifikation in den Fokus. Auf der Blockebene hat sich die Eigenschaftsprüfung basierend auf dem iterativen Schaltungsmodell als erfolgreiche Technologie herausgestellt. Trotzdem gibt es immer noch einige Design-Klassen, die für BIMC schwer zu handhaben sind. Hierzu gehören Schaltungen mit hoher sequentieller Tiefe sowie arithmetische Blöcke. Die fortlaufende Verbesserung der verwendeten Beweismethoden, z.B. der verwendeten SAT-Solver, wird der zunehmenden Komplexität immer größer werdender Blöcke alleine nicht gewachsen sein. Aus diesem Grund zeigt diese Arbeit auf, wie bereits in der Problemaufbereitung des Front-Ends eines Werkzeugs zur formalen Verifikation Maßnahmen zur Vereinfachung der entstehenden Beweisprobleme ergriffen werden können. In den beiden angesprochenen Problemfeldern werden dazu exemplarisch geeignete Freiheitsgrade bei der Modellgenerierung im Front-End identifiziert und zur Vereinfachung der Beweisaufgaben für das Back-End ausgenutzt.
Die fortschreitende Verbreitung von Ethernet-basierten Strukturen mit dezentralen und verteilten Anwendungen in der Automatisierung führt zu den so genannten netzbasier-ten Automatisierungssystemen (NAS). Diese sind zwar in Anschaffung und Betrieb kostengünstiger, moderner und flexibler als herkömmliche Strukturen, weisen jedoch nicht-deterministische Verzögerungen auf. Die genaue Analyse der resultierenden Antwortzeiten ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen, Fragen der Verlässlichkeit zu klären. In diesem ersten von zwei Beiträgen wird hierfür zunächst die für die speziellen Bedürfnisse der Strukturbeschreibung von netzbasierten Automatisierungssystemen entwickelte Modellierungssprache DesLaNAS vorgestellt und auf ein einführendes Beispiel angewendet. Im zweiten Beitrag wird darauf aufbauend gezeigt, welchen Einfluss die einzelnen System-komponenten (SPS, Netzwerk, I/O-Karten) sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse selbst wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) angewendet.
Zur Entwicklung und Planung energiesparender Gebäude, zum Entwurf geeigneter Regelungsalgorithmen benötigt man detailliertes Wissen über das thermische und energetische Verhalten eines Gebäudes, das in Wechselwirkung mit seiner Umgebung und seinen Bewohnern steht. Dies leistet ein mathematisches Modell. Die Beschreibung großer, komplexer technischer Systeme führt zu hoch komplexen, umfangreichen mathematischen Modellen, die - zur Simulation implementiert - große Softwaresysteme ergeben. Es liegt daher nahe, Konzepte der Informatik auch in der mathematischen Modellbildung zu nutzen. Neben der Dekomposition in Teilsysteme, den Strukturierungskonzepten zur Beherrschung der Komplexität ist hier ein aktueller Forschungsgegenstand der Informatik von besonderem Interesse. Es handelt sich um die Nutzung der Wiederverwendung als methodisches Element des Softwareentwicklungsprozesses großer Systeme. Es wurde eine Modellbibliothek zur Simulation thermischen Gebäudeverhaltens in Modelica erstellt. Sie untergliedert sich in die Abschnitte Gebäude-, Thermohydraulik-, Umgebungs- und Algorithmenbibliothek. Die objektorientiert implementierten, nicht berechnungskausalen Modellkomponenten sind hierarchisch strukturiert. Ihre Implementierung orientiert sich am intuitiven physikalischen Verständnis des zu beschreibenden technischen Prozesses. So aggregiert ein Gebäude einzelne Räume, Fenster, Wände und diese wiederum einzelne Wandschichten.
Die systemtheoretische Begründung für die Einführung des Zustandsbegriffs findet man im Mosaik-stein "Der Zustandsbegriff in der Systemtheorie". Während sich die dortige Betrachtung sowohl mitkontinuierlichen als auch mit diskreten Systemen befaßt, wird hier die Betrachtung auf diskrete Sy-steme beschränkt.
Dieses Szenario ist eine Erweiterung eines Teilszenarios von Human Centered Manufacturing. Dabei geht es um die Montage der Energieelektrik für industrielle Anlagen. Im Jahr 2015 enthält die Ausrüstung eines Elektromonteurs bei der Verdrahtung von Schaltschränken u.a. einen Schutzhelm mit integrierter Farbkamera, integriertem Mikrofon und einem Lautsprecher im Ohrbereich sowie einen automatisch gesteuerten Laserpointer. Auf der Baustelle sind keine Pläne mehr erforderlich. Der Monteur benötigt keinen Plan während der Montage.
Die Versorgungsaufgaben für Niederspannungsnetze werden sich in den kommenden Jahrzehnten durch die weitere Verbreitung von Photovoltaikanlagen, Wärmepumpenheizungen und Elektroautomobilen gegenüber denen des Jahres 2018 voraussichtlich stark ändern. In der Praxis verbreitete Planungsgrundsätze für den Neubau von Niederspannungsnetzen sind veraltet, denn sie stammen vielfach in ihren Grundzügen aus Zeiten, in denen die neuen Lasten und Einspeisungen nicht erwartet und dementsprechend nicht berücksichtigt wurden. Der Bedarf für neue Planungsgrundsätze fällt zeitlich mit der Verfügbarkeit regelbarer Ortsnetztransformatoren (rONT) zusammen, die zur Verbesserung der Spannungsverhältnisse im Netz eingesetzt werden können. Die hier entwickelten neuen Planungsgrundsätze erfordern für ländliche und vorstädtische Versorgungsaufgaben (nicht jedoch für städtische Versorgungsaufgaben) den rONT-Einsatz, um die hohen erwarteten Leistungen des Jahres 2040 zu geringen Kosten beherrschen zu können. Eine geeignete rONT-Standardregelkennlinie wird angegeben. In allen Fällen werden abschnittsweise parallelverlegte Kabel mit dem Querschnitt 240 mm² empfohlen.
In dieser Arbeit wird ein formales Modell zur Beschreibung von hardwarenaher Software
vorgestellt: Die Programmnetzliste.
Die Programmnetzliste (PN) besteht aus Instruktionszellen
die in einem gerichteten azyklischen Graph verbunden sind und dabei
alle Ausführungspfade des betrachteten Programms beinhaltet. Die einzelnen Instruktionszellen
repräsentieren eine Instruktion oder eine Instruktionssequenz. Die PN verfügt
über eine explizite Darstellung des Programmablaufs und eine implizite Modellierung des
Datenpfads und ist als Modell für die Verifikation von Software nutzbar. Die Software
wird dabei auf Maschinencode-Level betrachtet.
Die Modellgenerierung besteht aus wenigen und gut automatisierbaren Schritten. Als
Grundlage dient ein – ggf. unvollständiger – Kontrollfluss Graph (CFG), der aus der Software
generiert werden kann. Die Modellgenerierung besteht aus zwei Schritten.
Der erste Schritt ist die Erzeugung des expliziten Programmablaufs, indem der CFG
abgerollt wird. Dabei wird ein sogenannter Execution-Graph (EXG) erzeugt, der alle
möglichen Ausführungspfade des betrachteten Programms beinhaltet. Um dieses Modell
so kompakt wie möglich zu halten, werden unterschiedliche Techniken verwendet – wie
das Zusammenführen gemeinsamer Pfade und das Erkennen von “toten” Verzweigungen
im Programm, die an der entsprechenden Stelle niemals ausgeführt werden.
Im Anschluss wird im zweiten Schritt der Execution-Graph in die Programmnetzliste
(PN) übersetzt. Dabei werden alle Knoten im EXG durch eine entsprechende Instruktionszelle
ersetzt. Die Kanten des Graphen entsprechen dabei dem Programmzustand. Der
Programmzustand setzt sich aus den Variablen im Speicher wie auch dem Architekturzustand
des unterliegenden Prozessors zusammen.
Ergänzt wird der Programmzustand in der Programmnetzliste um ein sogenanntes
Active-Bit, welches es ermöglicht den aktiven Pfad in der Netzliste zu markieren. Das
ist notwendig, da die Software immer nur einen Pfad gleichzeitig ausführen kann, aber
die PN alle möglichen Pfade beinhaltet. Auf der Programmnetzliste können dann mit Hilfe
von Hardware Property Checkern basierend auf BMC oder IPC diverse Eigenschaften
bewiesen werden.
Zusätzlich wird die Programmnetzliste um die Fähigkeit zur Interruptmodellierung
erweitert.
In diesem Aufsatz geht es um eine Klassifikation von Programmen nach zwei orthogonalen Kriterien.Programm und Software werden dabei nicht als Synonyme angesehen; Programm sein wird hiergleichgesetzt mit ausführbar sein, d.h. etwas ist dann und nur dann ein Programm, wenn man die Fragebeantworten kann, was es denn heißen solle, dieses Etwas werde ausgeführt. Es gibt durchaus Softwa-regebilde, bezüglich derer diese Frage keinen Sinn hat und die demzufolge auch keine Programme sind - beispielsweise eine Funktions - oder eine Klassenbibliothek.Klassifikation ist von Nutzen, wenn sie Vielfalt überschaubarer macht - die Vielfalt der Schüler einergroßen Schule wird überschaubarer, wenn die Schüler "klassifiziert" sind, d.h. wenn sie in ihren Klas-senzimmern sitzen. Die im folgenden vorgestellte Klassifikation soll die Vielfalt von Programmenüberschaubarer machen.
Das moderne Wohngebäude zeichnet sich durch einen niedrigen Heizwärmebedarf aus. Mit Zunahme der Sensitivität des Wohngebäudes bezüglich der Solarstrahlung aufgrund neuartiger Systeme wie transparenter Wärmedämmung, Phasenwechselmaterialien oder großer Fensterflächen, erweitert sich der herkömmliche Regelungsansatz zur Einhaltung des behaglichen Raumklimas. Das thermische Gebäudeverhalten definiert sich weitaus komplexer. Es kommen neben der notwendigen Heizung weitere Aktoren (Sonnenschutzeinrichtung, Lüftung) ins Spiel. Die Zunahme der realisierbaren, solaren Erträge bewirken im Winter fossile Energieeinsparungen. Im Sommer sind jedoch ohne geeignete Maßnahmen Überhitzungen die Folge. Mit Hilfe moderner und vernetzter Regelungstechnik können Wirtschaftlichkeit des Systems und Komfort optimiert werden. Hierzu wurden bewährte Simulationswerkzeuge erweitert. Moderne Komponenten wie Phasenwechselmaterialien, transparente Wärmedämmung und Verschattungssysteme auf Basis einer schaltenden Schicht im Glasverbund erfahren eine Modellbildung. Umfangreiche Validierungen zu den Teilmodellen und zum Gesamtmodell zeigen, dass eine realitätsnahe Abbildung erreicht wird. Grundlage dieser Validierungssequenzen waren Feldtestmessungen an bewohnten Gebäuden, sowie Ergebnisse von Systemtestständen. Die Aussagesicherheit des gesamten Gebäudemodells wurde durch eine sogenannte "Cross-Validation" mit anderen etablierten Simulationsprogrammen hergestellt. Mit der Schaffung der realitätsnahen Abbildung eines solaroptimierten Wohngebäudes, welches an eine heizungsunterstützende, solarthermische Anlage gekoppelt ist, wurde die Grundlage zur Entwicklung einer prädiktiven Wärmeflussregelung in Wohngebäuden mit erweitertem thermischen Verhalten gelegt. Eine Untersuchung zum dynamischen Verhalten auf periodische Anregung von Einflussgrößen, zeigt die dominanten Zeitkonstanten des Gebäudesystems auf. Einfallende Solarstrahlung durch Fenster wirkt sich am schnellsten auf die empfundene Raumtemperatur aus. Dies hat Auswirkung auf die prädiktive Regelung. Während im Winter die Solarstrahlung zur Heizungsunterstützung herangezogen werden soll, gilt es, im Sommer die Bewohner vor Überhitzung zu schützen. Damit die Regelung in der Heizperiode an sonnigen Tagen nicht unnötig vorheizt (d. h. frühzeitig abgeschalten wird, da der zukünftige Heizbedarf von der Sonne gedeckt werden kann) und damit Überhitzungen(vor allem im Sommer) vermieden werden können, wurde für das untersuchte Gebäudemodell ein Prognosehorizont für den Prädiktor bestimmt. Mit dem modellbasierten Regelungskonzept wurde ein übergreifendes Wärmemanagementsystem entwickelt, welches mit der Information einer lokalen Wettervorhersage den thermischen Zustand des Gebäudes vorhersagt. Aufgrund des im Regler implementierten, reduzierten Modells, berücksichtigt die Prädiktion die besonderen Eigenschaften der eingesetzten Fassadenkomponenten. Umfangreiche, simulationsgestützte Untersuchungen bewerten das Regelungskonzept. Als Referenzsystem dient ein Gebäude mit herkömmlichem Regelungskonzept.
Der Einsatz von Freisprecheinrichtungen bei der Sprachkommunikation in Fahrzeugen erfor- dert die Reduktion der mit dem Sprachsignal erfaßten Umgebungsgeräusche. Die akustischen Störungen beeinträchtigen in der Regel die Verständlichkeit des zu übertragenden Sprachsi- gnals. In der Literatur wurden zahlreiche Verfahren und Ansätze zur Geräuschreduktion vor- geschlagen und beschrieben. Prinzipiell können diese Ansätze in drei Kategorien unterteilt werden: Einkanalige Geräuschreduktionssysteme, wie zum Beispiel das Verfahren der Spek- tralen Subtraktion, mehrkanalige Geräuschkompensationsverfahren, die mindestens ein Stör- geräusch-Referenzsignal benötigen, und adaptive Mikrophonarrays, die zur Erfassung des Sprachsignals ein richtungsselektives Reduktionsverfahren (beam forming) einsetzen. Diese Arbeit fokussiert ausschließlich auf das Problem der einkanaligen Geräuschreduktions- systeme, wie sie häufig in Kraftfahrzeugen oder Telefonen aus Kosten- und konstruktiven Gründen zu finden sind. Mehrkanalige Verfahren werden nur der Vollständigkeit halber am Rande behandelt. Einkanalige Verfahren sind durch den Kompromiß zwischen der Dämpfung der störenden Geräusche und den unvermeidbaren Verzerrungen des Sprachsignals und der verbleibenden Reststörungen gekennzeichnet. Diese Verzerrungen sind als sporadisch auftretende tonartige Reststörungen (musical tones) bzw. als Verfärbungen des Sprachsignals wahrnehmbar. Solche Fehler im Ausgangssignal werden wegen ihrer tonalen Struktur als äußerst störend empfunden und verschlechtern den subjektiven Höreindruck. In letzter Zeit sind deshalb Verfahren mit dem Ziel entwickelt worden, möglichst alle auftre- tenden Verzerrungen zu unterdrücken. So wurden zum Beispiel nichtlineare Methoden, bekannt aus der Bildverarbeitung, oder spezielle Detektionsalgorithmen entworfen, um das Problem geschlossen zu lösen. Besonders neu sind Verfahren, die psychoakustische Eigenschaften des menschlichen Gehörs nutzen, um wenigstens einen Teil der auftretenden Verzerrungen zu verdecken. So kommen hier Methoden zum Einsatz, die durch Formulierung einer psychoakustischen Gewichtungsregel versuchen, einen optimalen Kompromiß zwischen Höhe der Geräuschdämpfung, der Reststörungen und der resultierenden Sprachverständlichkeit zu finden. In der vorliegenden Arbeit diente ein klassisches einkanaliges Geräuschreduktionsverfahren als Ausgangsbasis für die Entwicklung eines neuen psychoakustisch-parametrischen Verfah- rens. Dabei wurde von Modellen der Spracherzeugung und Wahrnehmung der menschlichen Sprache ausgegangen, um geeignete Methoden für die psychoakustische Geräuschreduktion und Signalverbesserung zu finden. Das Ergebnis sind drei neue Verfahren, die sich je nach Eingangssignal adaptiv auf die Charakteristik des Gehörs einstellen und dabei Verzerrungen des Sprachsignals und der Reststörung unterhalb der psychoakustischen Wahrnehmbarkeits- schwelle, der sogenannten Mithörschwelle, halten. Das führt zu einer spürbaren Verbesserung des subjektiven Höreindrucks und hat positiven Einfluß auf die Sprachverständlichkeit. In wesentlichen Bestandteilen dieser Arbeit werden Aspekte der psychologischen Wahrnehmung akustischer Signale und bekannte psychoakustische Eigenschaften des menschlichen Gehörs für die auditive Signalverbesserung, Geräuschreduktion und die Identifikation akustischer Systeme ausgenutzt. Dementsprechend wird im ersten Teil eine kurze Einführung in die Theorie der Signalverarbeitung und Psychoakustik gegeben. Daran anschließend folgt die Vorstellung eines Verfahrens zur auditiven Signalverbesserung und Geräuschreduktion unter Ausnutzung psychoakustischer Verdeckungseffekte. Dieser Abschnitt ist besonders ausführlich gestaltet, da er den Hauptbestandteil dieser Arbeit bildet. Der dritte Teil erläutert experimentelle Untersuchungen und die Bewertung der verschiedenen Verfahren. Abschließend folgen Zusammenfassung und ein wissenschaftlicher Ausblick.
Regelkonzept für eine Niederspannungsnetzautomatisierung unter Verwendung des Merit-Order-Prinzips
(2022)
Durch die zunehmende Erzeugungsleistung auf Niederspannungsnetzebene (NS-Netzebene) durch Photovoltaikanlagen, sowie die Elektrifizierung des Wärme- und des Verkehrssektors sind Investitionen in die NS-Netze notwendig. Ein höherer Digitalisierungsgrad im NS-Netz birgt das Potential, die notwendigen Investitionen genauer zu identifizieren, und damit ggf. zu reduzieren oder zeitlich zu verschieben. Hierbei stellt die Markteinführung intelligenter Messsysteme, sog. Smart Meter, eine neue Möglichkeit dar, Messwerte aus dem NS-Netz zu erhalten und auf deren Grundlage die Stellgrößen verfügbarer Aktoren zu optimieren. Dazu stellt sich die Frage, wie Messdaten unterschiedlicher Messzyklen in einem Netzautomatisierungssystem genutzt werden können und wie sich das nicht-lineare ganzzahlige Optimierungsproblem der Stellgrößenoptimierung effizient lösen lässt. Diese Arbeit befasst sich mit der Lösung des Optimierungsproblems. Dazu kommt eine Stellgrößenoptimierung nach dem Merit-Order-Prinzip zur Anwendung.
Sowohl die gesteigerte Komplexität der Signalverarbeitungsalgorithmen und das umfangreichere Diensteangebot als auch die zum Erzielen der hohen erforderlichen Rechenleistungen erforderliche Parallelverarbeitung führen künftig zu einer stark ansteigenden Komplexität der digitalen Signalverarbeitung in Mobilfunksystemen. Diese Komplexität ist nur mit einem hierarchischen Modellierungs- und Entwurfsprozeß beherrschbar. Während die niedrigeren Hierarchieebenen der Programmierung und des Hardwareentwurfs bereits heute gut beherrscht werden, besteht noch Unklarheit bei den Entwurfsverfahren auf der höheren Systemebene. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs auf höheren Hierarchieebenen. Hierzu wird der Entwurf eines Experimentalsystems für das JD-CDMA-Mobilfunkkonzept auf der Systemebene betrachtet. Es wird gezeigt, daß das Steuerkreismodell ein angemessenes Modell für die digitale Signalverarbeitung in einem Mobilfunksystem auf der Systemebene ist. Das Steuerkreismodell läßt sich einerseits direkt auf die in zukünftigen Mobilfunksystemen einzusetzenden Multiprozessorsysteme abbilden und entspricht andererseits auch der nachrichtentechnischen Sichtweise der Aufgabenstellung, in der das Mobilfunksystem durch die auszuführenden Algorithmen beschrieben wird. Das Steuerkreismodell ist somit ein geeignetes Bindeglied, um von der Aufgabenstellung zu einer Implementierung zu gelangen. Weiterhin wird gezeigt, daß das Steuerkreismodell sehr modellierungsmächtig ist, und sein Einsatz im Gegensatz zu vielen bereits bekannten Entwurfsverfahren nicht auf mittels Datenflußmodellen beschreibbare Systeme begrenzt ist. Die klassischen, aus der von Datenflußmodellen ausgehenden Systemsynthese bekannten Entwurfsschritte Allokierung, Ablaufplanung und Bindung können im Kontext der Steuerkreismodellierung als Verfahren zur Konstruktion der Steuerwerksaufgabe verstanden werden. Speziell für das Experimentalsystem werden zwei verschiedene Ablaufsteuerungsstrategien modelliert und untersucht. Die volldynamische Ablaufsteuerung wird zur Laufzeit durchgeführt und ist daher nicht darauf angewiesen, daß die auszuführenden Abläufe a priori bekannt sind. Bei der selbsttaktenden Ablaufsteuerung werden die hier a priori bekannten Abläufe zum Zeitpunkt der Systemkonstruktion fest geplant, und zur Laufzeit wird dieser Plan nur noch ausgeführt. Schließlich werden noch die Auswirkungen der paketvermittelten burstförmigen Nachrichtenübertragung auf die digitale Signalverarbeitung in zukünftigen Mobilfunksystemen untersucht. Es wird gezeigt, daß es durch Datenpufferung sehr gut möglich ist, die Rechenlast in einem Mobilfunksystem zu mitteln.
Sokrates und das Nichtwissen
(1997)
Die Paarungsstörung mit Pheromonen ist ein etabliertes Verfahren der ökologischen Schädlingsbekämpfung in vielen Bereichen der Landwirtschaft. Um dieses Verfahren zu optimieren, ist es erforderlich, genauere Erkenntnisse über die Verteilung des Pheromons über den behandelten Agrarflächen zu erhalten. Die Messung dieser Duftstoffe mit dem EAG-System ist eine Methode, mit der man schnell und zuverlässig Pheromonkonzentrationen im Freiland bestimmen kann. Diese Arbeit beschreibt Beiträge, die zur Weiterentwicklung des Systems von großer Bedeutung sind. Die Steuerung des Messablaufs durch eine Ablaufdatei, die erst zur Laufzeit ins Programm geladen wird, ermöglicht eine zeitgenaue und flexible Steuerung des Messsystems. Die Auswertung der Messergebnisse wird durch Methoden der Gesamtdarstellung der Konzentrationsberechnung und durch rigorose Fehlerbetrachtung auf eine solide Grundlage gestellt. Die für die Konzentrationsberechnung erforderlichen Grundvoraussetzungen werden anhand experimenteller Beispiele ausführlich erläutert und verfiziert. Zusätzlich wird durch ein iteratives Verfahren die Konzentrationsberechnung von der mathematischen oder empirischen Darstellung der Dosis-Wirkungskurve unabhängig gemacht. Zur Nutzung einer erweiterten EAG-Apparatur zur Messung komplexer Duftstoffgemische wurde das Messsystem im Bereich der Steuerung und der Auswertung tiefgreifend umgestaltet und vollständig einsatztauglich gemacht. Dazu wurde das Steuerungssystem erweitert, das Programm für die Messwerterfassung neu strukturiert, eine Methode zur Konzentrationsberechnung für Duftstoffgemische entwickelt und in einer entsprechenden Auswertesoftware implementiert. Das wichtigste experimentelle Ergebnis besteht in der Durchführung und Auswertung einer speziellen Messung, bei der das EAG-System parallel mit einer klassischen Gaschromatograph-Methode eingesetzt wurde. Die Ergebnisse ermöglichen erstmals eine absolute Festlegung der Konzentrations-Messergebnisse des EAG-Messsystems für das Pheromon des Apfelwicklers. Bisher konnten nur Ergebnisse in Relativen Einheiten angegeben werden.
Im Gegensatz zum Übertragungsnetz, dessen Struktur hinreichend genau bekannt ist, sind passende Netzmodelle
für Mittelspannungsnetze (MS-Netze) wegen der hohen Anzahlen der MS-Netze und Verteilnetzbetreiber (VNB)
nur schwer abzubilden. Des Weiteren ist eine detaillierte Darstellung realer MS-Netze in wissenschaftlichen Publikationen
aus datenschutzrechtlichen Gründen meist nicht erwünscht. In dieser Arbeit werden MS-Netzmodelle
sowie ihre Entwicklung im Detail erklärt. Damit stehen erstmals für die Öffentlichkeit nachvollziehbare MS-Netzmodelle
für den deutschsprachigen Raum zur Verfügung. Sie können als Benchmark für wissenschaftliche Untersuchungen
sowie zur Methodenentwicklung verwendet werden.
Durch die stetige Zunahme von dezentralen Erzeugungsanlagen, den anstehenden Smart-Meter Rollout sowie die zu erwartende Elektrifizierung des Verkehrssektors (E-Mobilität) steht die Netzplanung und Netzbetriebsführung von Niederspannungsnetzen (NS-Netzen) in Deutschland vor großen Herausforderungen. In den letzten Jahren wurden daher viele Studien, Forschungs- und Demonstrationsprojekte zu den oben genannten Themen durchge-führt und die Ergebnisse sowie die entwickelten Methoden publiziert. Jedoch lassen sich die publizierten Methoden meist nicht nachbilden bzw. validieren, da die Untersuchungsmodelle oder die angesetzten Szenarien für Dritte nicht nachvollziehbar sind. Es fehlen einheitliche Netzmodelle, die die deutschen NS-Netze abbilden und für Ver-gleichsuntersuchungen herangezogen werden können, ähnlich dem Beispiel der nordamerikanischen Verteilnetzmodelle des IEEE.
Im Gegensatz zum Übertragungsnetz, dessen Struktur hinreichend genau bekannt ist, sind passende Netzmodelle für NS-Netze wegen der hohen Anzahlen der NS-Netze und Verteilnetzbetreiber (VNB) nur schwer abzubilden. Des Weiteren ist eine detaillierte Darstellung realer NS-Netze in wissenschaftlichen Publikationen aus daten-schutzrechtlichen Gründen meist nicht erwünscht. Für Untersuchungen im Rahmen eines Forschungsprojekts wurden darum möglichst charakteristische synthetische NS-Netzmodelle erstellt, die sich an gängigen deutschen Siedlungsstrukturen und üblichen Netzplanungsgrundsätzen orientieren. In dieser Arbeit werden diese NS-Netzmodelle sowie ihre Entwicklung im Detail erklärt. Damit stehen erstmals für die Öffentlichkeit nachvollziehbare NS-Netzmodelle für den deutschsprachigen Raum zur Verfügung. Sie können als Benchmark für wissenschaftliche Untersuchungen sowie zur Methodenentwicklung verwendet werden.
Unter Ambient Intelligence (AmI) wird die Integration verschiedener Technologien zu einer den Menschen umgebenden, (nahezu) unsichtbaren Gesamtheit verstanden. Diese Intelligente Umgebung wird möglich durch die Miniaturisierung hochintegrierter Bauteile (Sensoren, Aktuatoren und Rechnern), deren zunehmende Intelligenz und vor allem deren lokale und globale zunehmend drahtlose Vernetzung. Unter dem Titel Man-u-Faktur 2012 (man and factoring in 2012) wurde an der Technischen Universität Kaiserslautern im Rahmen des Forschungsschwerpunkts Ambient Intelligence ein Szenario entwickelt, das ein beeindruckendes Gesamtbild einer Technik, die den Menschen in den Mittelpunkt rückt, beschreibt. Man-u-Faktur 2012 steht dabei für ein Weiterdrehen des Rads der Industrialisierung von der heute üblichen variantenreichen, technologiezentrierten Massenfertigung hin zu einer kundenindividuellen, mitarbeiterzentrierten Maßfertigung. Im Speziellen wird hierunter der Aufbau massiv verteiler kunden- aber auch mitarbeiterfreundlicher Produktionsanlagen verstanden, die sich im hochdynamischen Umfeld entsprechend der jeweiligen Gegebenheiten anzupassen wissen. Der Mensch ist überall dort präsent, wo flexibles Arbeiten oder flexible Entscheidungen im Vordergrund stehen. In diesem Bericht wird der Einfluss von Ambient Intelligence beispielhaft auf die Vision einer Fahrradproduktion in der Man-u-Faktur 2012 angewandt. Aus diesem Szenario werden anschließend sowohl die zu entwickelnden Schlüsseltechnologien als auch die Einflüsse auf Wirtschaft und Gesellschaft abgeleitet.
In der Arbeit geht es um die Untersuchung von Mechanismen zur Energiegewinnung in Ambient Intelligence Systemen. Zunächst wird ein Überblick über die existierenden Möglichkeiten und deren zu grunde liegenden physikalischen Effekte gegeben. Dann wird die Energiegewinnung mittels Thermogeneratoren näher untersucht.