Martin Werner
Nachrichtentechnik
sUppLex
Aus dem Programm Nachrichtentechnik / Kommunikationstechnik
Telekommunika...
96 downloads
1329 Views
4MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Martin Werner
Nachrichtentechnik
sUppLex
Aus dem Programm Nachrichtentechnik / Kommunikationstechnik
Telekommunikation von D. Conrads Operationsverstärker von J. Federau Kommunikationstechnik von M. Meyer Signalverarbeitung von M. Meyer Digitale Kommunikationssysteme 1 und 2 von R. Nocker Digitale Signalverarbeitung mit MATLAB von M. Werner Nachrichten-Übertragungstechnik von M. Werner Netze, Protokolle, Schnittstellen und Nachrichtenverkehr von M. Werner Signale und Systeme von M. Werner
vieweg
sUppLex
Martin Werner
Nachrichtentechnik Eine Einführung für alle Studiengänge 5., vollständig überarbeitete und erweiterte Auflage
Mit 235 Abbildungen und 40 Tabellen
Studium Technik
sUppLex
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
1. Auflage 1998 2., überarbeitete und erweiterte Auflage November 1999 3., vollständig überarbeitete und erweiterte Auflage Februar 2002 4., überarbeitete und erweiterte Auflage August 2003 5., vollständig überarbeitete und erweiterte Auflage Juli 2006 Alle Rechte vorbehalten © Friedr. Vieweg & Sohn Verlag | GWV Fachverlage GmbH, Wiesbaden, 2006 Lektorat: Reinhard Dapper Der Vieweg Verlag ist ein Unternehmen von Springer Science+Business Media. www.vieweg.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Umschlaggestaltung: Ulrike Weigel, www.CorporateDesignGroup.de Technische Redaktion: Andreas Meißner Druck und buchbinderische Verarbeitung: Wilhelm & Adam, Heusenstamm Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier. Printed in Germany ISBN-10 3-8348-0132-1 ISBN-13 978-3-8348-0132-6
sUppLex
V
Vorwort In der Informationsgesellschaft kommt der (elektrischen) Nachrichtentechnik mit ihren Aufgabenfeldern der Darstellung, der Übertragung, der Vermittlung und der Verarbeitung von Information in elektronischer Form eine Schlüsselrolle zu. Dieses Buch will an wichtige Aufgaben, Prinzipien und Methoden der Nachrichtentechnik heranführen. Es eignet sich besonders für Studierende technischer Studiengänge, der Informatik und des Wirtschaftsingenieurwesens, die zum Ende des Grundstudiums einen Einstieg in die Nachrichtentechnik gewinnen wollen – weil sie noch vor der Entscheidung der Wahl ihrer Studienrichtung stehen, oder weil sie für das „Nebenfach“ Nachrichtentechnik eine kompakte Einführung in Grundlagen und Anwendungen suchen. Bei der Auswahl und Darstellung der Themen wurde besonders darauf geachtet, deren Umfang und Schwierigkeitsgrad an die Situation der Studierenden im Grundstudium anzupassen. In diesem Sinne sind die Aufgaben zu den Abschnitten ohne lange Rechnungen zu lösen. Falls damit auch eine solide Grundlage für ein vertiefendes Fachstudium gelegt wird, hat dieses Buch sein Ziel erreicht. zur 5. Auflage War das Buch zunächst als Ergänzung zu einer zweistündigen Lehrveranstaltung im dritten Semester gedacht, so haben zahlreiche Kommentare von Fachkollegen, viele Fragen von Studierenden und nicht zuletzt die Entwicklungen in der Nachrichtentechnik das Buch von Auflage zu Auflage wachsen lassen. Die 5. Auflage gab Gelegenheit viele kleinere Ergänzungen und kurze aktuelle Hinweise anzubringen und die Themen teils neu zu ordnen. Dabei wurde wieder besonders darauf geachtet, Umfang und Schwierigkeitsgrad den Anforderungen des Grundstudiums anzupassen und den Nutzen für die Leserinnen und Leser über die Lehrveranstaltungsbegleitung hinaus zu steigern. In diesem Sinne sind drei Neuerungen besonders hervorzuheben: Der neue Abschnitt zur digitalen Signalverarbeitung gibt Einblicke in die digitalen Filter und die Anwendung der schnellen Fourier-Transformation. Exemplarisch wird die MP3Audio-Codierung vorgestellt. Das Thema Kanalcodierung wird mit dem neuen Abschnitt zu den in der Datenkommunikation praktisch allgegenwärtigen CRC-Codes abgerundet. Aktuelle Schwerpunkte zur Mobilkommunikation setzen die neuen Abschnitten zu GPRS, UMTS und WLAN. Allen, die das Buch durch ihr Interesse und ihre Anregungen begleitet haben, herzlichen Dank. Vielen Dank an den Verlag für die gute Zusammenarbeit und stete Bereitschaft die Entwicklungen des Buches mit zu tragen.
Fulda, im Mai 2006
Martin Werner
sUppLex
VI
Inhaltsverzeichnis
Inhaltsverzeichnis 1
Aufgaben und Grundbegriffe der Nachrichtentechnik.......................... 1 1.1 1.2 1.3 1.4 1.5 1.6
2
Entwicklung der Nachrichtentechnik ......................................................................... 1 Nachrichtentechnik und Informationstechnik............................................................. 3 Nachrichtenübertragung ............................................................................................. 5 Telekommunikationsnetze.......................................................................................... 8 Digitale Signalverarbeitung...................................................................................... 10 Wiederholungsfragen zu Abschnitt 1 ....................................................................... 11
Signale und Systeme ................................................................................. 12 2.1 Einführung................................................................................................................ 12 2.2 Klassifizierung von Signalen.................................................................................... 13 2.2.1 Zeitkontinuierliche und zeitdiskrete Signale ................................................. 13 2.2.2 Wertkontinuierliche, wertdiskrete, analoge und digitale Signale .................. 14 2.2.3 Periodische und aperiodische Signale ........................................................... 15 2.2.4 Deterministische und stochastische Signale .................................................. 16 2.2.5 Energie- und Leistungssignale ...................................................................... 17 2.3 Lineare zeitinvariante Systeme................................................................................. 18 2.4 Fourier-Reihen.......................................................................................................... 19 2.5 Periodische Quellen in RLC-Netzwerken................................................................. 23 2.6 Spektrum periodischer Signale ................................................................................. 26 2.7 Übertragungsfunktion und Frequenzgang ................................................................ 28 2.7.1 Übertragungsfunktion.................................................................................... 28 2.7.2 Frequenzgang, Dämpfung und Phase ............................................................ 30 2.7.3 Tiefpass, Bandpass, Hochpass und Bandsperre............................................. 32 2.7.4 Rechnen mit komplexer Fourier-Reihe und Frequenzgang........................... 36 2.7.5 RC-Hochpass................................................................................................. 37 2.8 Fourier-Transformation ............................................................................................ 40 2.9 Filterung ................................................................................................................... 42 2.10 Verzerrungsfreie Übertragung .................................................................................. 45 2.11 Bandbreite und Zeitdauer-Bandbreite-Produkt......................................................... 47 2.12 Charakterisierung von LTI-Systemen....................................................................... 50 2.12.1 Impulsfunktion und Impulsantwort ............................................................... 50 2.12.2 Faltung .......................................................................................................... 55 2.13 Zusammenfassung .................................................................................................... 61 2.14 Aufgaben zu Abschnitt 2 .......................................................................................... 63
3
Pulse-Code-Modulation, digitale Signalverarbeitung und AudioCodierung .................................................................................................. 67 3.1 3.2 3.3 3.4
Einführung................................................................................................................ 67 Digitalisierung analoger Signale............................................................................... 67 Abtasttheorem........................................................................................................... 68 Quantisierung ........................................................................................................... 69
sUppLex
Inhaltsverzeichnis
VII
3.5 Quantisierungsgeräusch............................................................................................ 72 3.6 PCM in der Telefonie ............................................................................................... 74 3.6.1 Abschätzung der Wortlänge .......................................................................... 74 3.6.2 Kompandierung............................................................................................. 75 3.6.3 13-Segment-Kennlinie .................................................................................. 76 3.7 Digitale Signalverarbeitung...................................................................................... 79 3.7.1 Einführung..................................................................................................... 79 3.7.2 Schnelle Fourier-Transformation .................................................................. 80 3.7.3 Digitale Filter ................................................................................................ 83 3.7.3.1 Simulation mit digitalen Filtern ...................................................... 83 3.7.3.2 FIR-Filter ........................................................................................ 84 3.7.3.3 IIR-Filter ......................................................................................... 87 3.8 Audio-Codierung...................................................................................................... 90 3.8.1 Psychoakustische Effekte .............................................................................. 90 3.8.2 Audio-Codierung für MPEG-1 Layer III ...................................................... 92 3.9 Zusammenfassung .................................................................................................... 93 3.10 Aufgaben zu Abschnitt 3 .......................................................................................... 94
4
Modulation eines sinusförmigen Trägers ............................................... 97 4.1 Einführung................................................................................................................ 97 4.2 Trägermodulation ..................................................................................................... 98 4.3 Amplitudenmodulation............................................................................................. 99 4.3.1 Prinzip der Amplitudenmodulation ............................................................. 100 4.3.2 Modulationssatz .......................................................................................... 101 4.3.3 Gewöhnliche Amplitudenmodulation ......................................................... 101 4.3.4 Kohärente AM-Demodulation..................................................................... 103 4.3.5 Inkohärente AM-Demodulation mit dem Hüllkurvendetektor .................... 104 4.3.6 Quadraturamplitudenmodulation................................................................. 104 4.3.7 Trägerfreqeunztechnik in der Telefonie ...................................................... 105 4.4 Frequenzmodulation ............................................................................................... 107 4.4.1 Modulation der Momentanfrequenz des Trägers......................................... 107 4.4.2 Spektrum und Bandbreite von FM-Signalen ............................................... 109 4.4.2 Demodulation von FM-Signalen ................................................................. 112 4.5 Digitale Modulationsverfahren............................................................................... 114 4.6 Zusammenfassung .................................................................................................. 120 4.7 Aufgaben zu Abschnitt 4 ........................................................................................ 120
5
Digitale Übertragung im Basisband ...................................................... 122 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8
Einführung.............................................................................................................. 122 RS-232-Schnittstelle............................................................................................... 124 Digitale Basisbandübertragung............................................................................... 127 Leitungscodierung .................................................................................................. 130 Störung durch Rauschen......................................................................................... 132 Übertragung im Tiefpass-Kanal ............................................................................. 136 Matched-Filterempfänger ....................................................................................... 140 Nyquist-Bandbreite und Impulsformung ................................................................ 144
sUppLex
VIII
Inhaltsverzeichnis 5.9 Kanalkapazität ........................................................................................................ 148 5.10 Zusammenfassung .................................................................................................. 152 5.11 Aufgaben zu Abschnitt 5 ........................................................................................ 153
6
Telekommunikationsnetze ..................................................................... 154 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 6.10
7
Einführung.............................................................................................................. 154 Zeitmultiplex, PDH und SDH ................................................................................ 154 Nachrichtenübermittlung ........................................................................................ 157 OSI-Referenzmodell............................................................................................... 160 HDLC- und LAP-Protokoll .................................................................................... 164 ATM und Breitband-ISDN..................................................................................... 169 Lokale Netze........................................................................................................... 171 Protokollfamilie TCP/IP ......................................................................................... 173 Zusammenfassung .................................................................................................. 177 Wiederholungsfragen zu Abschnitt 6 ..................................................................... 178
Grundbegriffe der Informationstheorie und der Kanalcodierung ....................................................................................... 180 7.1 Information, Entropie und Redundanz ................................................................... 180 7.2 Huffman-Codierung ............................................................................................... 184 7.3 Kanalcodierung....................................................................................................... 187 7.3.1 Paritätscodes................................................................................................ 187 7.3.2 Kanalcodierung zum Schutz gegen Übertragungsfehler ............................. 191 7.3.3 Lineare Blockcodes ..................................................................................... 193 7.3.4 Syndrom-Decodierung ................................................................................ 195 7.3.5 Hamming-Distanz und Fehlerkorrekturvermögen....................................... 199 7.3.6 Perfekte Codes und Hamming-Grenze........................................................ 200 7.3.7 Restfehlerwahrscheinlichkeit ...................................................................... 201 7.3.8 Eigenschaften und Konstruktion der Hamming-Codes ............................... 204 7.3.9 CRC-Codes ................................................................................................. 205 7.4 Zusammenfassung .................................................................................................. 212 7.5 Aufgaben zu Abschnitt 7 ........................................................................................ 213
8
Mobilkommunikation............................................................................. 216 8.1 Einführung.............................................................................................................. 216 8.2 Global System for Mobile Communications (GSM) .............................................. 217 8.2.1 Einführung................................................................................................... 217 8.2.2 GSM-Netzarchitektur .................................................................................. 220 8.2.3 GSM-Funkschnittstelle................................................................................ 222 8.2.3.1 Funkzellen und Frequenzkanäle.................................................... 223 8.2.3.2 Mobilfunkübertragung .................................................................. 226 8.2.3.3 Logische Kanäle und Burst-Arten................................................. 230 8.2.4 High Speed Circuit Switched Data (HSCSD) ............................................. 233 8.2.5 GSM-Sicherheitsmerkmale ......................................................................... 233
sUppLex
Inhaltsverzeichnis
IX
8.3 General Packet Radio Service (GPRS)................................................................... 236 8.3.1 Einführung................................................................................................... 236 8.3.2 Paketübertragung mit Dienstmerkmalen ..................................................... 237 8.3.2.1 GPRS-Dienstgüte .......................................................................... 237 8.3.2.2 Zugriff auf die GSM-Luftschnittstelle .......................................... 239 8.3.3 GPRS-Systemarchitektur ............................................................................ 242 8.4 Enhanced Data Rates for GSM Evolution (EDGE)................................................ 243 8.5 Universal Mobile Telecommunication System (UMTS) ........................................ 245 8.5.1 Einführung................................................................................................... 245 8.5.2 UMTS-Dienste ............................................................................................ 246 8.5.3 UMTS-Systemarchitektur ........................................................................... 247 8.5.4 UMTS-Luftschnittstelle .............................................................................. 249 8.5.4.1 Spreizbandtechnik mit RAKE-Empfänger .................................... 249 8.5.4.2 CDMA-Vielfachzugriff................................................................. 251 8.5.4.3 Nah-Fern-Effekt, Leistungsregelung und Zellatmung................... 254 8.5.4.4 Zellulare Funkkapazität................................................................. 256 8.5.4.5 Handover....................................................................................... 257 8.5.4.6 Protokollstapel der UMTS-Luftschnittstelle ................................. 259 8.6 Wireless Local Area Network (WLAN)................................................................. 261 8.6.1 Einführung................................................................................................... 261 8.6.2 Mediumzugriff und Netzstrukturen............................................................. 264 8.6.3 Übertragung mit OFDM.............................................................................. 269 8.7 Zusammenfassung .................................................................................................. 271 8.8 Wiederholungsfragen und Aufgaben zu Abschnitt 8.............................................. 272
Lösungen zu den Aufgaben ........................................................................... 274 Abkürzungen .................................................................................................. 294 Literaturverzeichnis....................................................................................... 300 Sachwortverzeichnis ...................................................................................... 306
sUppLex
1
1
Aufgaben und Grundbegriffe der Nachrichtentechnik
1.1
Entwicklung der Nachrichtentechnik
Die Anfänge der Nachrichtentechnik reichen weit in das Altertum zurück. Mit der Erfindung der Schrift und der Zahlenzeichen ab etwa 4000 v. Chr. wird die Grundlage zur digitalen Nachrichtentechnik gelegt. Um 180 v. Chr. schlägt der Grieche Polybios eine optische Telegraphie mit einer Codierung der 24 Buchstaben des griechischen Alphabets durch Fackeln vor. Für viele Jahre bleibt die optische Übertragung, z. B. durch Signalfeuer, die einzige Form, Nachrichten über größere Strecken blitzschnell zu übermitteln. Ihren Höhepunkt erlebt sie Anfang des 19. Jahrhunderts mit dem Aufbau weitreichender Zeigertelegraphie-Verbindungen in Europa; angespornt durch die erfolgreiche Inbetriebnahme der von C. Chappe aufgebauten, 210 km langen Verbindung von Paris nach Lille im Jahre 1794. Ein Beispiel in Deutschland ist die 1834 eröffnete 600 km lange Strecke von Berlin nach Koblenz. 61 mit einem Signalmast mit einstellbaren Flügeln ausgerüstete Stationen werden im Abstand von jeweils ca. 15 km aufgebaut. Bei günstiger Witterung können in nur 15 Minuten Nachrichten von Berlin nach Koblenz übertragen werden. Beachtenswert ist, dass mit der Zeigertelegraphie neben den Fragen zur Kommunikation, wie dem Code-Alphabet, dem Verbindungsaufbau, der Quittierung und dem Verbindungsabbau, auch die organisatorischen Fragen zur Infrastruktur gelöst werden. Anmerkungen: Die Zeigertelegraphen, insbesondere zur Flaggensignalisierung auf Schiffen, werden auch Semaphoren genannt, ein Begriff der heute in der Informatik bei der Steuerung paralleler Prozesse verwendet wird.
In die erste Hälfte des 19. Jahrhunderts fallen wichtige Entdeckungen über das Wesen der Elektrizität. Schon früh werden Experimente zur Telegraphie durchgeführt. Um 1850 löst die elektrische Telegraphie, die auch nachts und bei Nebel funktioniert, die optische Telegraphie ab. Die Nachrichtenübertragung bleibt zunächst digital. Buchstaben und Ziffern werden als Folge von Punkten und Strichen codiert übertragen. Da diese über einen Taster von Hand eingegeben werden müssen, werden von A. Vail 1837 und F. C. Gerke 1844 handgerechte, schnelle Codes entwickelt. Als Vater der Telegraphie gilt S. F. B. Morse. Zu seinen Ehren spricht man heute noch von der Morse-Taste und dem Morse-Alphabet. Geübte Operatoren senden damit bis zu 45 Wörter pro Minute. Eine Sternstunde erlebt die elektrische Telegraphie mit der Eröffnung der von Siemens erbauten Indo-Europäischen Telegraphielinie London-Teheran-Kalkutta 1870. Ende des 19. Jahrhunderts existiert ein weltweites Telegraphienetz mit über 1,7 Millionen Verbindungen und einer Leitungslänge von fast 5 Millionen Kilometern. Nachdem J. Ph. Reis das Prinzip der elektrischen Schallübertragung 1863 in Frankfurt demonstrierte, wird mit der Entwicklung eines gebrauchsfähigen Telefons durch A. G. Bell (US-Patent, 1876) die Nachrichtentechnik analog. Die Druckschwankungen des Schalls werden als Spannungsschwankungen eines Mikrofons übertragen. Mit der raschen Zunahme der Telefone findet die Handvermittelung durch das Fräulein vom Amt seine Grenzen. Bereits 1892 wird das erste, von A. B. Strowger entwickelte automatische Vermittlungssystem eingesetzt. Mit dem Ende des 19. Jahrhunderts rasch zunehmenden physikalisch-technischen Wissen erobert sich die analoge Nachrichtentechnik neue Anwendungsgebiete. Meilensteine sind die Übertragung von Morse-Zeichen von England nach Amerika durch G. Marconi 1901 und die
sUppLex
2
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
Entwicklung elektronischer Verstärker durch J. A. Fleming, Lee de Forest und R. v. Lieben zwischen etwa 1904-06. Damit sind wichtige Voraussetzungen für den Rundfunk um 1920 und das Fernsehen um 1950 geschaffen. Anfang des 20. Jahrhunderts beginnt ein tief greifender Wandel. In der Physik setzen sich statistische Methoden und Vorstellungen der Wahrscheinlichkeitstheorie durch. Diese werden in der Nachrichtentechnik aufgegriffen und wesentliche Konzepte der modernen Nachrichtentechnik entwickelt. In Anlehnung an die Thermodynamik wird von C. E. Shannon 1948 der mittlere Informationsgehalt einer Nachrichtenquelle als Entropie eingeführt. In der zweiten Hälfte des 20. Jahrhunderts wird dieser Wandel für die breite Öffentlichkeit sichtbar: der Übergang von der analogen zur digitalen Nachrichtentechnik, der Informationstechnik. Die Erfindung des Transistors 1947 durch J. Bardeen, W. H. Brattain und W. Shockley und der erste Mikroprozessor auf dem Markt 1970 sind wichtige Grundlagen. Das durch die Praxis bis heute bestätigte mooresche Gesetz beschreibt die Dynamik des Wandels. G. Moore sagte 1964 voraus, dass sich etwa alle zwei Jahre die Komplexität, d. h. entsprechend auch die Leistungsfähigkeit, mikroelektronischer Schaltungen verdoppeln wird. Durch den Fortschritt in der Mikroelektronik ist es heute möglich, die seit der ersten Hälfte des 20. Jahrhunderts gefundenen theoretischen Ansätze der Nachrichtentechnik in technisch machbare und bezahlbare Geräte umzusetzen. Beispiele für die Leistungen der digitalen Nachrichtentechnik finden sich im digitalen Mobilfunk, im digitalen Rundfunk und Fernsehen, im modernen Telekommunikationsnetz mit Internet-Diensten und Multimedia-Anwendungen; und überall dort, wo Information digital erfasst und ausgewertet wird, wie in der Regelungs- und Steuerungstechnik, der Medizintechnik, der Telematik, usw. Weniger öffentlich bekannt sind die Fortschritte der faseroptischen Nachrichtentechnik. Nachdem um 1975 die industrielle Produktion von Lichtwellenleitern begann, wird 1988 das erste transatlantische Glasfaserkabel (TAT8) in Betrieb genommen. 1997 verbindet FLAG (Fiberoptic Link Around the Glob) von Japan bis London 12 Stationen durch zwei Lichtwellenleiter mit optischen Verstärkern. Die Übertragungskapazität entspricht 120.000 Telefonkanälen. Neue Bauelemente und besonders die Entwicklung optischer Verstärker lassen einen stark zunehmenden Aufbau von Telekommunikationsnetzen mit optischer Übertragung und Vermittlung, so genannte photonische Netze, in den nächsten Jahren erwarten. Heute sind zahlreiche Fernübertragungsstrecken mit Datenraten von 10 ... 40 Gbit/s pro Faser im kommerziellen Betrieb, das entspricht einer gleichzeitigen Übertragung von mehr als 78.000 Telefongesprächen oder über 2.500 Videosignalen. Nachdem im Jahr 2000 an Versuchsstrecken bereits Datenraten über 1000 Gbit/s (1 Tbit/s) demonstriert wurden, werden in naher Zukunft entsprechende Datenraten wirtschaftlich verfügbar sein. Anmerkungen: (i) Mehr über die Geschichte der Nachrichtentechnik ist z. B. in [Ash87] [EcSc86] [Huu03][Obe82] zu finden. Eine kurze Darstellung der Entwicklung in Deutschland findet man in der Festschrift zum 50-jährigen Bestehen der NTG/ITG [GiKa04]. (ii) In [Gla01] wird ein Einblick in die Prinzipien und Anwendungen der modernen Nachrichtentechnik ohne Formeln gegeben, der die hier gewählte kompakte Darstellung gut ergänzt. (iii) Die optische Nachrichtentechnik wird aus Platzgründen im Weiteren nicht behandelt. Eine kurze Einführung in die optische Nachrichtentechnik findet man z. B. in [BuHi03] [HeLö00].
Ein herausragender Aspekt der Informationstechnik ist die internationale Zusammenarbeit. Bereits 1865 wird der internationale Telegraphenverein in Paris von 20 Staaten gegründet. Über mehrere Zwischenschritte entsteht daraus die International Telecommunication Union (ITU) als Unterorganisation der UNO mit Sitz in Genf. Daneben existiert ein dichtes Netz von Organisationen, die unterschiedliche Interessen vertreten und miteinander verbunden sind. Industriekonsortien, wie die Bluetooth Special Interest Group (SIG), nehmen dabei an Bedeutung zu. Einige Organisationen, deren Abkürzungen häufig auftreten, sind:
sUppLex
1.2 Nachrichtentechnik und Informationstechnik
3
ANSI CCITT CCIR CEPT DIN ETSI FCC
American National Standards Institute ) ISO Comité Consultatif International Télégraphique et Téléphonique ) ITU-T Comité Consultatif International des Radiocommunication (1929) ) ITU-R Conférence des Administrations Européennes des Postes et Télécommunications ) ETSI Deutsches Institut für Normung (1917) European Telecommunication Standards Institute (1988) Federal Communication Commission (USA)
IAB IEEE IETF ISO ITU
Internet Architecture Board (1983/89) Institute of Electrical and Electronics Engineers (1884/1963) Internet Engineering Task Force (1989) International Organization for Standardization (1947) International Telecommunication Union (1865/1938/1947/1993) mit Radiocommunication Sector (-R), Telecommunication Sector (-T) und Development Sector (-D) Verband der Elektrotechnik, Elektronik und Informationstechnik (1893)
VDE
1.2
Nachrichtentechnik und Informationstechnik
Unter der (elektrischen) Nachrichtentechnik werden historisch im weiteren Sinne alle Teilgebiete der Elektrotechnik zusammengefasst, die sich nicht der Energietechnik zuordnen lassen. Die Nachrichtentechnik bedient sich üblicherweise elektronischer Mittel zur Darstellung, Verarbeitung, Übertragung und Vermittlung von Nachrichten. Synonym zu Nachricht wird der Begriff Information verwendet. Die Nachrichtentechnik steht in enger Verbindung mit der Steuer- und Regelungstechnik sowie der Informatik. Die zunehmende Digitalisierung in der Technik, die Darstellung der Information durch Binärzeichen und deren Verarbeitung mit Hilfe der Digitaltechnik, hat dazu geführt, dass die genannten Fachgebiete heute zur modernen Informationstechnik zusammengewachsen sind. Anmerkung: 1954 wurde in Deutschland die Nachrichtentechnische Gesellschaft im VDE (NTG), heute Verband der Elektrotechnik Elektronik Informationstechnik e.V. (VDE), gegründet. Die in der zweiten Hälfte des letzten Jahrhunderts einsetzende Erweiterung der Nachrichtentechnik führte 1985 zur Umbenennung in die Informationstechnische Gesellschaft im VDE (ITG) [GiKa04].
Die Nachrichtentechnik befasst sich mit der Darstellung, der Verarbeitung, der Übertragung und der Vermittlung von Nachrichten.
Der Begriff Nachricht, obwohl oder weil im Alltag vertraut, ist im technischen Sinne schwierig zu fassen. Die Nachrichtentechnik stellt ihm deshalb den Begriff Signal zur Seite. Während der Nachricht – eigentlich eine Mitteilung um sich danach zu richten – eine Bedeutung zukommt, ist das Signal der physikalische Repräsentant der Nachricht, der mit physikalisch-technischen Mitteln verarbeitet werden kann. Ein Signal ist der physikalische Repräsentant einer Nachricht.
sUppLex
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
4
interdisziplinäre Anwendungen
Die Nachrichtentechnik war im Laufe ihrer Geschichte starken Wandlungen unterworfen und erschloss sich neue Aufgabenfelder. Anhand von Bild 1-1 sollen Aufgabenfelder und Zusammenhänge aufgezeigt werden.
Telekommunikation Telekommunikationsnetz Nachrichtenübermittlung
Signalverarbeitung Signal
Nachrichtenübertragung
Nachrichtenvermittlung
O&M (Gebühren, Sicherheit, …)
gesellschaftliche, rechtliche und wirtschaftliche Aspekte
Bild 1-1 Aufgabenfelder der Nachrichtentechnik
Grundlage der Nachrichtentechnik ist die Darstellung der Nachricht als Signal. Dazu gehört der klassische Bereich der elektroakustischen Umsetzer (Mikrofone und Lautsprecher) und elektrooptischen Umsetzer (Bildaufnehmer und Bildschirme). Hinzu gekommen sind alle Formen der Umsetzung physikalischer Größen in elektrische bzw. in elektronisch zu verarbeitende Daten. Beispiele sind einfache Sensoren für Druck, Temperatur, Beschleunigung und komplexe Apparate wie Computer- und Kernspintomographen. Letztere können ohne Eingriff dreidimensionale Bilddaten aus dem menschlichen Körper erzeugen. Die Signalverarbeitung war stets ein wichtiges Kerngebiet der Nachrichtentechnik. Zu den klassischen Aufgaben, wie die Filterung, Verbesserung, Verstärkung und Modulation von Signalen, sind neue hinzugekommen. Angetrieben durch fallende Preise und höhere Leistungen in der Mikroelektronik, hat sich die digitale Signalverarbeitung in der Nachrichtenübertragung und in vielen interdisziplinären Anwendungsgebieten etabliert. Beispiele aus der Nachrichtentechnik im engeren Sinne sind die modernen Audio- und Videocodierverfahren nach dem MPEG-Standard (Motion Picture Expert Group), die Mobilfunkübertragung nach dem GSMStandard (Global System for Mobile Communication), der digitale Teilnehmeranschluss (Digital Subscriber Line, DSL). Die Nachrichtenübertragung befasst sich mit der räumlichen und zeitlichen Übertragung von Nachrichten; also der Übertragung von A nach B, wie bei einem Telefongespräch, aber auch der Kommunikation zwischen der Computermaus und dem Notebook oder dem Marsfahrzeug Pathfinder und der Bodenstation. In den Übertragungsstrecken treten elektrische Leitungen (Zweidrahtleitung, Koaxialkabel,…), optische Leitungen (Lichtwellenleiter) oder der freie Raum (Rundfunk, Mobilfunk, Infrarotlicht,…) auf. Auch die Speicherung und Wiedergabe von Signalen und Daten ist eine Form der Nachrichtenübertragung. Typische Beispiele sind die Magnetbandaufzeichnung (Tonbandgerät, Kassettenrecorder, Videorecorder, Diskettenlaufwerk), die optische Aufzeichnung bzw. Wiedergabe (CD-ROM/DVD) und der Einsatz einer Festplatte. So vielfältig die Anwendungen, so vielfältig sind die Lösungen. Ist die Kommunikation wahlfrei zwischen mehreren Teilnehmern möglich, wie im bekannten Telefonnetz, so tritt die Nachrichtenvermittlung hinzu. Ihre Aufgabe ist es, den Zugang zum gewünschten Teilnehmer zu finden und eine geeignete Verbindung herzustellen. In den analogen Telefonnetzen geschieht dies mit Hilfe des Teilnehmer-Nummernsystems und der automatischen Leitungsdurchschaltung in den Vermittlungsstellen. Moderne Telekommunikationsnet-
sUppLex
1.3 Nachrichtenübertragung
5
ze bieten unterschiedliche Dienste mit unterschiedlichen Leistungsmerkmalen an und optimieren bedarfsabhängig die Auslastung der Netze. Die Nachrichtenübertragung und die Nachrichtenvermittlung werden zur Nachrichtenübermittlung zusammengefasst. Sie bildet die technische Grundlage des Telekommunikationsnetzes (TK-Netz). Zu einem öffentlichen TK-Netz gehören weitere Aspekte, wie die Organisation und das Management (O&M) des TK-Netzes, die Gebührenerfassung und -abrechnung, die Netzzugangskontrolle und Sicherheit im Sinne des Datenschutzgesetztes. Der Begriff Telekommunikation umfasst schließlich alle denkbaren Aspekte und tritt auch in verschiedenen Zusammensetzungen auf, wie die Telekommunikationswirtschaft oder das Telekommunikationsgesetz. Ein alternativer Zugang zum Begriff Nachrichtentechnik ergibt sich aus den Arbeitsgebieten der Informationstechnischen Gesellschaft im VDE (ITG) [GiKa04]. Mit etwa 11.000 persönlichen Mitgliedern und ihren Fachverstand spielt die ITG eine wichtige Rolle in der Informationstechnik in Deutschland. Die Arbeit der ITG gliedert sich in neun Fachbereiche mit insgesamt 38 Fachausschüssen: 1 Informationstechnik und Fokusgebiete; 2 Dienste und Anwendungen; 3 Fernsehen, Film und elektronische Medien; 4 Audiokommunikation; 5 Kommunikationstechnik; 6 Technische Informatik; 7 Hochfrequenztechnik; 8 Mikroelektronik; 9 Übergreifende Gebiete. Im Zusammenhang mit der Informationstechnik wird in den Medien häufig der Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e.V. (BITKOM) genannt. Nach Selbstaussage im Internet 2006, vertritt er mehr als 1.000 Unternehmen, die im deutschen Informations- und Kommunikationstechnik (ITK) -Markt ca. 120 Milliarden Euro Umsatz erwirtschaften und damit fast 90 Prozent des Markts repräsentieren. Der enge Zusammenhang zwischen Informationstechnik und Informatik führt dazu, dass sich die Arbeitsgebiete des Ingenieurs der Informationstechnik und des Informatikers oft überdecken bzw. eine strikte Trennung nicht möglich ist. Der Begriff Informatik wird zuerst in Frankreich verwendet und 1967 durch die Académie Française definiert [Des01]. Übersetz steht Informatik für: Wissenschaft der rationellen Verarbeitung von Informationen, insbesondere durch automatische Maschinen, zur Unterstützung des menschlichen Wissens und der Kommunikation in technischen, wirtschaftlichen und sozialen Bereichen. Im englischsprachigen akademischen Raum ist die Trennung in Informationstechnik und Informatik weniger verbreitet. Dort trifft man eher die Begriffe Computer Engineering und Communications Engineering bzw. Computer Science an.
1.3
Nachrichtenübertragung
Die Nachrichtenübertragungstechnik befasst sich mit der Darstellung und der Übertragung von Nachrichten. Hierzu gehört im weiteren Sinne die physikalische Umsetzung von Signalen, wie z. B. von Schallwellen in elektrische Spannungen in Mikrofonen. Im engeren Sinne beginnt und endet die Nachrichtenübertragung mit dem elektrischen Signal bzw. der elektronischen Darstellung der zu übertragenden Daten.
sUppLex
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
6
Eine generische Darstellung der Nachrichtenübertragung liefert das shannonsche Kommunikationsmodell 1 mit der Informationsquelle (Information Source), der Nachricht (Message), dem Sender (Transmitter) mit dem Sendesignal (Signal), dem Kanal mit seiner Störgeräuschquelle (Noise Source), dem Empfangssignal (Received Signal), dem Empfänger (Receiver), der empfangenen Nachricht (Received Message) und schließlich der Informationssenke (Destination). Je nach Anwendung werden die einzelnen Blöcke spezialisiert und in weitere Komponenten zerlegt. INFORMATION SOURCE
TRANSMITTER
SIGNAL MESSAGE
RECEIVER
DESTINATION
RECEIVED SIGNAL MESSAGE
NOISE SOURCE
Bild 1-2 Schema der Nachrichtenübertragung nach Shannon ([Sha48], Fig. 1)
Die wichtigsten Komponenten der Nachrichtenübertragung und ihre Funktionen sind in Bild 1-3 zusammengestellt. Man beachte, dass in realen Übertragungssystemen nicht immer alle Komponenten verwendet bzw. scharf getrennt werden. Die Einbeziehung des Menschen als Nachrichtenempfänger erfordert die Berücksichtigung physiologischer und psychologischer Aspekte. Die Fernseh- und Rundfunkübertragung und insbesondere die modernen Codierverfahren zur Sprach-, Audio- und Videoübertragung sind auf die menschliche Wahrnehmungsfähigkeit abgestellt. Um den Übertragungsaufwand klein zu halten, werden Signalanteile weggelassen, die vom Menschen nicht wahrgenommen werden können. Man bezeichnet diesen Vorgang als Irrelevanzreduktion. Die inneren Bindungen im verbleibenden Signal, die Redundanz, wird zur weiteren Datenreduktion benutzt. Je nachdem ob nach der Datenreduktion das ursprüngliche Signal prinzipiell wiederhergestellt werden kann, unterscheidet man verlustlose und verlustbehaftete Verfahren. Anwendungen finden sich im digitalen Rundfunk (Digital Audio Broadcasting, DAB), im digitalen Fernsehen (Digital Video Broadcasting, DVB) mit der Audio- und Videocodierung nach dem MPEGStandard (Motion Picture Expert Group) und in der Mobilkommunikation. Anmerkungen: (i) In Abschnitt 3.8 wird eine Einführung in die Grundlagen der modernen AudioCodierung gegeben. (ii) Zum Einstieg ins Thema Audio- und Videocodierung bzw. dem digitalem Tonund Fernsehrundfunk eigenen sich z. B. [Fre97a][Fre97b][Mäu03][Sch02]. Tiefergehende Darstellungen findet man z. B. in [Ohm04][Rei05][Sch00][Str05].
Die Nachrichtenübertragung ist eine Dienstleistung, die bestimmten nachprüfbaren Qualitätsanforderungen genügen muss. Man spricht in diesem Zusammenhang auch von Quality of Service. Es lassen sich grob zwei wichtige Anwendungen unterscheiden: die Sprachtelephonie und die Datenkommunikation. In Abschnitt 6 wird darauf näher eingegangen.
1 Claude E. Shannon: *1916/+2001, US-amerikanischer Ingenieur und Mathematiker, grundlegende
Arbeiten zur Informationstheorie.
sUppLex
1.3 Nachrichtenübertragung
Nachrichtenquelle
Quellencodierung
Kanalcodierung
Leitungscodierung/ Modulation
Kanal
Leitungsdecodierung/ Demodulation
Kanaldecodierung
Quellendecodierung
7
Erzeugung eines elektrischen Signals als Träger der Nachricht ) z. B. durch Umwandlung der Schalldruckschwankungen oder der Lichtintensität in eine elektrische Spannung in einem Mikrophon oder einer Fernsehkamera; allgemeine Umsetzung physikalischer Größen in elektrische Signale in Sensoren; zunehmend digitale Quellen die Bitströme erzeugen Darstellung der Nachricht in einer für die Übertragung geeigneten Form ) z. B. Digitalisierung durch A/D-Umsetzung; wird meist mit Reduzierung des Übertragungsaufwandes verbunden, wie eine Entropiecodierung mit dem Huffman-Code oder Weglassen von für den Empfänger irrelevanter Signalanteile durch eine Bandbegrenzung in der Telephonie und der Fernsehtechnik oder durch psychoakustische Audiocodierung nach dem MPEG-Standard Schutz der Nachricht gegen Übertragungsfehler ) z. B. durch zusätzliche Prüfzeichen des Hamming-Codes oder des Cyclic-Redundancy-Check (CRC)-Codes Anpassung des Signals an den physikalischen Kanal ) z. B. durch Pulsformung oder Trägermodulation (AM, FM, GMSK,…)
Übertragungsstrecke ) in der Regel wird das Signal auf der Übertragungsstrecke verzerrt (z. B. durch reale Filter) und gestört (z. B. durch thermisches Rauschen als additives Störsignal); meist als Modell das unterschiedliche Einflüsse zusammengefasst Rückgewinnung des gesendeten Signals bzw. der Nachricht ) Verfahren zur Unterdrückung der Störung, wie signalangepasste Filter, Echoentzerrung, … Inverses zur Kanalcodierung mit Erkennung und/oder Korrektur bestimmter Fehlermuster ) gegebenenfalls auch eine Sendewiederholungsanforderung Inverses zur Quellencodierung ) bietet der Senke geeignete Signalform an
Nachrichtensenke
Bild 1-3 Wichtige Komponenten von Nachrichtenübertragungssystemen und deren Aufgaben
sUppLex
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
8
1.4
Telekommunikationsnetze
Als eine typische Anwendung der Nachrichtentechnik wird nachfolgend ein Telefongespräch über das öffentliche Telekommunikationsnetz (TK-Netz) betrachtet. Damit der rufende Teilnehmer A mit dem gerufenen Teilnehmer B sprechen kann, muss zunächst über das TK-Netz eine physikalische Verbindung zwischen den Teilnehmerendgeräten von A und B aufgebaut werden, s. Bild 1-4. Wir gehen davon aus, dass beide Teilnehmer über einen ISDN-Basisanschluss verfügen. Anmerkungen: (i) Integrated-services Digital Network (ISDN); in Deutschland ab 1989 eingeführt. Für den ökonomischen Netzbetrieb sind diensteintegrierende digitale Netze vorteilhaft, in denen die unterschiedlichen Signale (Sprache, Telefax, Daten, usw.) in einheitlicher digitaler Form vorliegen. Man beachte jedoch, dass beispielsweise bezüglich der Verzögerungszeiten und Bitfehlerraten unterschiedliche Anforderungen für die Dienste gestellt werden können (QoS).
Teilnehmer A
FAX
2B+D
2B+D
NT S0-Schnittstelle TA
DIV UK0-Schnittstelle
4-Drahtleitung (S0-Bus) 2-Drahtleitung (a/b)
TK-Netz DECT
DIV
PC
FP
2B+D
2B+D
NT Teilnehmer B
S0-Schnittstelle
Zentraler Zeichenkanal (SS7)
PC
DIV UK0-Schnittstelle
4-Drahtleitung (S0-Bus) 2-Drahtleitung (a/b)
Bild 1-4 Telekommunikationsnetz und Schnittstellen zum Teilnehmer
Nach Abnehmen des Hörers wählt A auf seinem Fernsprechapparat die Rufnummer von B. Diese wird als elektrisches Datensignal im D-Kanal, dem Steuerkanal, über die Sammelleitung (S0-Schnittstelle) an den Netzabschluss (NT, Network Termination) übertragen. Der NT bildet den Abschluss des TK-Netzes zum Teilnehmer hin und steht über die Teilnehmeranschlussleitung (UK0-Schnittstelle) mit der digitalen Vermittlungsstelle (DIV) in Verbindung. Hierzu ist es notwendig, dass sowohl das Teilnehmerendgerät (Terminal Equipment, TE) und der NT sowie der NT und die DIV dieselbe Sprache sprechen; technisch ausgedrückt, jeweils eine gemeinsame Schnittstelle haben. Im Beispiel wird eine S0-Schnittstelle bzw. eine Uk0Schnittstelle verwendet. Beide unterstützen pro Teilnehmer im Duplexbetrieb, d. h. gleichzeitig
sUppLex
1.4 Telekommunikationsnetze
9
in Hin- und Rückrichtung, je zwei Basiskanäle (B-Kanal) mit einer Bitrate von jeweils 64 kbit/s und einen Zeichengabekanal (D-Kanal) mit einer Bitrate von 16 kbit/s. Anmerkung: Die Bitrate gibt die Anzahl der pro Zeit übertragenen Bits an. Die Bitrate des B-Kanals spiegelt den Stand der PCM-Technik der 1960er Jahre wieder. Für die Übertragung eines Telefonsprachkanals schienen damals 64 kbit/s notwendig. Neue Verfahren der Quellencodierung ermöglichen es heute, Stereo-Musikübertragung mit 64 kbit/s (Simplexbetrieb) und Bildtelephonie mit 64 bis 384 kbit/s in akzeptabler Qualität durchzuführen. Eine der üblichen Telephonie entsprechende Sprachqualität kann mit einem Sprachcodierer und -decodierer nach ITU-Empfehlung G.729 bereits mit einer Bitrate von 8 kbit/s erreicht werden.
Der Begriff der Schnittstelle ist in der Nachrichtentechnik von zentraler Bedeutung. Er findet seine Anwendung überall da, wo komplexe Systeme (Netze, Geräte, Programme, usw.) in einfachere Teilsysteme (Vermittlungsstellen, Baugruppen, Softwaremodule, usw.) zerlegt werden können. Für den wirtschaftlichen Erfolg ist wichtig, dass es erst durch die Definition von offenen Schnittstellen möglich wird, Geräte verschiedener konkurrierender Hersteller miteinander zu koppeln bzw. gegeneinander auszutauschen. Offene Schnittstellen sind die Voraussetzung für einen echten Wettbewerb im TK-Sektor. Die Schnittstellen eines TK-Netzes definieren die x physikalischen Eigenschaften, wie z. B. Spannungspegel, Pulsform, Frequenzlage, Modulation, usw., der ausgetauschten Signale, sowie ihre x Bedeutung und den zeitlichen Ablauf und die Orte, an denen die Schnittstellenleitungen auf einfache Art mechanisch oder elektrisch unterbrochen werden können, wie z. B. bei einer Steckverbindung. Die digitale Vermittlungsstelle und gegebenenfalls weitere Vermittlungseinrichtungen des TK-Netzes werten die Dienstanforderung aus und bereiten den Verbindungsaufbau zwischen den Teilnehmern vor, indem sie einen günstigen Verkehrsweg durch das TK-Netz suchen. Man spricht von der Verkehrslenkung (Routing). Die notwendige Signalisierung wird in einem zentralen Zeichengabekanal (Signaling System Number 7, SS7) durchgeführt. Erst nachdem der Teilnehmer B das Gespräch angenommen hat, wird ein Gesprächskanal zwischen den Teilnehmern aufgebaut. Aus Kostengründen werden im Fernverkehr die Gesprächskanäle unterschiedlicher Teilnehmer in der DIV mit Hilfe der Multiplextechnik gebündelt und auf speziellen Verbindungskanälen gemeinsam übertragen. Anmerkung: Mit dem Vordringen der paketorientierten Vermittlung wird die Idee eines zentralen Zeichenkanals wieder aufgegeben. Stattdessen wird eine Inband-Signalisierung durch in den Datenstrom eingefügte Steuer- und Meldepakete vorgenommen.
Die Bündelung der Signale geschieht so, dass die einzelnen Gespräche (Signale) am Ende der Übertragungsstrecke wieder störungsfrei getrennt werden können. Je nachdem ob die Signale anhand ihrer Frequenzlagen, Wellenlängen, Zeitlagen und der modulierenden Codes unterschieden werden, spricht man von Frequenzmultiplex, Wellenlängenmultiplex, Zeitmultiplex bzw. Codemultiplex. Bei Störungen kann es zur Überlagerung mehrerer Gespräche, dem Übersprechen, kommen. Auf zwei Besonderheiten in Bild 1-4 wird noch hingewiesen. Teilnehmer A und B betreiben jeweils mehrere Endgeräte am S0-Bus. Die S0-Schnittstelle unterstützt bis zu 8 Teilnehmerendgeräte. Sollen nicht-S0-fähige Geräte benutzt werden, so ist ein geeigneter Terminaladapter (TA) erforderlich.
sUppLex
10
1 Aufgaben und Grundbegriffe der Nachrichtentechnik
Teilnehmer B betreibt ein digitales schnurloses Telefon (PP, Portable Part) mit einer „Luftschnittstelle“ oder Funkschnittstelle nach dem DECT-Standard mit einer Basisstation (FP, Fixed Part) am S0-Bus. Obgleich hier nicht auf die technischen Einzelheiten eingegangen werden kann, macht das Beispiel doch die in der Nachrichtentechnik typische Denkweise deutlich: Komplexe nachrichtentechnische Systeme werden in quasi unabhängige, überschaubarere Teilsysteme zerlegt. Für ein einwandfreies Zusammenwirken der Teile sorgt die Anpassung an die Schnittstelle. Wie in Bild 1-4 skizziert, findet der Nachrichtenaustausch von Endgerät zu Endgerät über verschiedene Schnittstellen statt. Daneben existiert eine Vielzahl weiterer Schnittstellen im TKNetz, die für ein geordnetes Zusammenspiel der einzelnen Systemkomponenten sorgen. Wichtiger Bestandteil der Schnittstellen zum Datenaustausch ist das Protokoll, wie in Abschnitt 6 noch genauer erläutert wird. Die Regeln für den Datenaustausch an einer Schnittstelle werden durch das Protokoll festgelegt. Es definiert die Datenformate, die möglichen Kommandos und Reaktionen und die zugehörigen Zeitvorgaben.
In Bild 1-4 ist bereits die Evolution des Telefonnetzes zu einem universellen TK-Netz angedeutet, einem so genannten Intelligenten Netz (IN) angedeutet. Während in der herkömmlichen Telephonie anhand der gerufenen Nummer stets eine Gesprächsverbindung aufgebaut wird, nimmt der ISDN-Teilnehmer über den Zeichengabekanal direkt Verbindung mit der Dienststeuerung des TK-Netzes auf und kann so verschiedene Dienste abrufen, wie die Sprachübertragung, die Bildtelephonie, die Datenübertragung, den Telefax-Dienst, die Anrufumlenkung, usw. Telekommunikationsnetze ermöglichen die Übermittlung, d. h. Übertragung und Vermittlung, von Nachrichten zwischen bestimmten Netzzugangspunkten. Sie stellen dazu Dienste mit bestimmten Dienstmerkmalen zur Verfügung
1.5
Digitale Signalverarbeitung
Auf einer Nachrichtenübertragungsstrecke werden Signale auf vielfältige Art und Weise verarbeitet, vgl. Bild 1-3. Die modernen Verfahren zur Sprach-, Audio- und Video-Codierung sind eindrucksvolle Beispiele für die Leistungsfähigkeit der digitalen Signalverarbeitung. Die Signalverarbeitung beschränkt sich nicht nur auf die Nachrichtenübertragungstechnik. Als digitale Signalverarbeitung hat sich zu einer Grundlagendisziplin in vielen naturwissenschaftlich-technischen Anwendungsfeldern entwickelt. Signale können an unterschiedlichsten Stellen entstehen. Beispielsweise ein Musiksignal am Mikrofon, ein Bildsignal an der Videokamera, ein Sensorsignal am Drehzahlmesser einer Maschine, ein Bildsignal bei der Computertomographie usw. Heute werden diese Signale meist am Entstehungsort digitalisiert und in einer für Computer bzw. Mikrocontroller brauchbaren Form dargestellt. Oft sind die Signale bei ihrer Entstehung oder Übertragung von Störungen überlagert, die vor einer Weiterverarbeitung zunächst reduziert werden müssen. Dazu werden spezielle an Signale und Störungen angepasste Verfahren, wie z. B. Filterung und Entzerrung, eingesetzt.
sUppLex
1.6 Wiederholungsfragen zu Abschnitt 1
11
Daneben spielt die Mustererkennung eine wichtige Rolle. Typische kommerzielle Beispiele sind die automatischen Sprach- und Schrifterkennungssysteme, die Bildverarbeitungssysteme in der Qualitätskontrolle oder Biologie und automatische Patientenüberwachungssysteme in der Medizintechnik Seit der rasanten Verbesserung des Preis-Leistungsverhältnisses in der Mikroelektronik, ist die digitale Signalverarbeitung aus vielen Anwendungsfeldern nicht mehr wegzudenken. Speziell dafür entwickelte Mikrocontroller, digitale Signalprozessoren genannt, ermöglichen den kostengünstigen Einsatz anspruchsvoller Verfahren. Durch den programmgesteuerten Ablauf lassen sich insbesondere adaptive Verfahren realisieren, die sich automatisch an veränderte Bedingungen anpassen. Als Maß für die Komplexität moderner Algorithmen 1 der digitalen Signalverarbeitung wird häufig die Anzahl der Rechenoperationen in MOPS (Mega Operations per Second) angegeben. Wie enorm die Anforderungen sein können, zeigen die Kennzahlen digitaler Sprachcodierverfahren. Für den 1991 in den ersten GSM-Mobiltelefonen eingesetzten Full-Rate Sprachcoder werden 3,5 MOPS benötigt. Der heute in GSM-Handys gebräuchliche Enhanced Full-Rate Sprachcoder und der verwandte ITU-Sprachcoder G.729 verbrauchen bereits 18 MOPS [VHH98]. Anmerkung: Einen Einstieg in die weiterführende Literatur oder zusätzliche Literaturangaben zum Thema digitale Signalverarbeitung findet man beispielsweise in [Grü04][MeHo04][OSB04][Wer05b][Wer06b]
1.6
Wiederholungsfragen zu Abschnitt 1
Im ersten Abschnitt stehen Grundbegriffe und Konzepte der Nachrichtentechnik im Mittelpunkt. Beantworten Sie hierzu folgende Fragen: A1.1 Was sind die Aufgaben der Nachrichtentechnik? A1.2 Erklären Sie die Begriffe: Signal, Schnittstelle und Protokoll. A1.3 Was sind die Aufgaben der Quellencodierung, der Kanalcodierung und der Leitungscodierung bzw. Modulation? A1.4 Skizzieren Sie das shannonsche Kommunikationsmodell. A1.5 Was sind die Aufgaben eines Telekommunikationsnetzes? A1.6 Nennen Sie drei Anwendungsgebiete der digitalen Signalverarbeitung.
1 Chwarismi, Mohammed (mittellateinisch Algorismi): * um 780/+846, persischer Mathematiker und
Astronom. Von seinem Namen leitet sich der Ausdruck Algorithmus ab.
sUppLex
12
2
Signale und Systeme
2.1
Einführung
Dem Mitbegründer der modernen Informationstheorie Norbert Wiener 1 wird die Feststellung zugeschrieben: „Information is information, not matter or energy“. Der Ausspruch macht die Schwierigkeit deutlich, Information im technischen Sinne greifbar zu machen. Die Nachrichtentechnik unterscheidet deshalb zwischen der Information im Sinne einer Nachricht und ihrer physikalischen Darstellung, dem Signal, dessen Eigenschaften gemessen werden können, s. Abschnitt 7. Die Untersuchung von Nachrichtensignalen und deren Veränderungen durch elektrische Netzwerke ist seit langem Gegenstand der Nachrichtentechnik. Deren Ergebnisse und Erkenntnisse aus anderen Wissenschaftsgebieten führten zur fachübergreifenden Theorie der Signale und Systeme, der Systemtheorie. y Die Systemtheorie beschreibt Signale als mathematische Funktionen und macht sie der mathematischen Analyse und Synthese zugänglich. Reale physikalische Signale werden durch Modelle in Form mathematischer Idealisierungen angenähert. y Die Systemtheorie beschreibt Systeme und deren Reaktionen auf Signale. Reale physikalische Systeme werden durch Modelle angenähert, die in einem eingeschränkten Arbeitsbereich das Systemverhalten wiedergeben. Dieser Abschnitt gibt eine kurze Einführung in den Themenkreis Signale und Systeme aus nachrichtentechnischer Sicht. Zunächst werden die grundlegenden Signalarten vorgestellt. Danach werden beispielhaft einfache elektrische Netzwerke als lineare zeitinvariante Systeme betrachtet und es wird aufgezeigt, wie das Ausgangssignal für ein beliebiges Eingangssignal berechnet werden kann. Ausgehend von der komplexen Wechselstromrechnung, die hier als bekannt vorausgesetzt wird, wird mit den Fourier-Reihen das Lösungsverfahren auf periodische Signale erweitert. Mit der Fourier-Transformation wird schließlich die Betrachtung auf aperiodische Signale ausgedehnt. Durch die Fourier-Reihen bzw. Fourier-Transformation wird das Spektrum als die Signalbeschreibung im Frequenzbereich eingeführt und die Bandbreite als wichtige Kenngröße definiert. Der fundamentale reziproke Zusammenhang zwischen Impulsdauer und Bandbreite wird erläutert und seine Bedeutung für die Übertragungstechnik aufgezeigt. Passend zur Charakterisierung der Signale im Frequenzbereich werden die Systeme durch den Frequenzgang beschrieben und die in der Nachrichtentechnik wichtigen Tiefpass-, Hochpass- und BandpassFilter vorgestellt. Mit der Definition der Impulsfunktion als mathematische Idealisierung eines „sehr kurzen und energiereichen“ Signals wird die Impulsantwort als die wesentliche Systemfunktion eingeführt. An ihr lassen sich die wichtigen Systemeigenschaften erkennen. Darüber hinaus können Impulsantwort und Frequenzgang mit Hilfe der Fourier-Transformation ineinander umgerechnet 1 Norbert Wiener: *1884/+1964, US-amerikanischer Mathematiker, grundlegende Arbeiten zur
Kybernetik [Wie48].
sUppLex
2.2 Klassifizierung von Signalen
13
werden. So schließt sich der Kreis zwischen den Systembeschreibungen im Frequenzbereich und im Zeitbereich. Anmerkung: Zu einem tiefer gehenden Einstieg in das Thema Signale und Systeme eignen sich beispielsweise [GRS03][OpWi89][OWN97][Sch88][Sch91][Wer05b]. In [Unb98][Unb02] findet sich eine kompakte Zusammenstellung von Grundlagen und Anwendungen für Leser mit fortgeschrittenen Kenntnissen.
2.2
Klassifizierung von Signalen
Ein Signal ist eine mathematische Funktion von mindestens einer unabhängigen Variablen. Je nach ihren Eigenschaften unterscheidet man verschiedene Arten von Signalen.
2.2.1
Zeitkontinuierliche und zeitdiskrete Signale
Wir schreiben für ein Signal allgemein x(t) oder u(t) und i(t), falls es sich um eine elektrische Spannung bzw. einen elektrischen Strom handelt. Die Variable t steht für die Zeit. Ist t kontinuierlich, so liegt ein zeitkontinuierliches Signal vor. Ist die Zeitvariable nur für diskrete Werte definiert, so spricht man von einem zeitdiskreten Signal und schreibt x[n]. Der Laufindex n wird normierte Zeitvariable genannt. Anmerkung: Für zeitdiskrete Signale sind in der Literatur auch die Schreibweisen x(n) bzw. x(k) verbreitet.
Im Beispiel der Telephonie liefert das Mikrofon eine sich zeitlich ändernde elektrische Spannung. Deren prinzipieller Verlauf könnte wie in Bild 2-1 aussehen, einer Aufnahme des Wortes „Ful-da“. u (t ) u0
0,4
0
0,8
t/s
-0,4 Bild 2-1 Mikrofonspannung als Funktion der Zeit
Ein zeitdiskretes Signal entsteht häufig durch gleichförmige zeitliche Diskretisierung, auch Abtastung genannt, eines zeitkontinuierlichen Signals, s. Bild 2-2. Man spricht von einer Abtastfolge x[n] = x(t = nTa)
(2.1)
mit dem Abtastintervall Ta. Der Übergang vom zeitkontinuierlichen zum zeitdiskreten Signal wird in Abschnitt 3 ausführlich behandelt. Es sind jedoch auch viele Signale von Natur aus zeitdiskret, wie z. B. der tägliche Börsenschlusswert einer Aktie.
sUppLex
14
2 Signale und Systeme x[n]
x(t)
t
n
Ta
0
5
10
Bild 2-2 Zeitkontinuierliches und zeitdiskretes Signal mit dem Abtastintervall Ta
2.2.2
Wertkontinuierliche, wertdiskrete, analoge und digitale Signale
Startbit
Kann ein Signal nur zwei Werte annehmen, wie beispielsweise in Bild 2-3, so spricht man von einem binären Signal.
u(t) 12V
Solche Signale treten häufig in der Digitaltechnik auf und werden dort, abweichend von der Sprechweise der Systemtheorie, auch als digitale Signale bezeichnet.
Paritätsbit Stoppbit
Betrachtet man den Funktionswert, so spricht man von wertkontinuierlichen bzw. wertdiskreten Signalen. Bei der Signalverarbeitung an Digitalrechnern liegen aufgrund der endlichen Wortlänge der Zahlendarstellung stets wertdiskrete Signale vor. Sie werden taktgesteuert verarbeitet. Man nennt derartige wert- und zeitdiskrete Signale digitale Signale im Gegensatz zu analogen Signalen, die wert- und zeitkontinuierlich sind.
Bit
0
1
2
3
4
5
6
7
„0“
t „1“
-12V Anmerkung: Bild 2-3 zeigt ein Signal der RS-2328,33 ms Schnittstelle am PC. Es wird das Zeichen „Y“ in 0 3 4 6 der ASCII-Darstellung 89 = 2 + 2 + 2 + 2 übertragen, s. Abschnitt 5. Das Akronym ASCII steht für American Standard Code for Information Bild 2-3 Binäres zeitkontinuierliches Signal zur Übertragung eines ASCII-Zeichens Y Interchange, der von der ITU als Internationales (10011010) Alphabet Nr. 5 (IA5) eingeführt ist. Die Schrittgeschwindigkeit im Beispiel beträgt 1200 Baud 1 pro Sekunde.
Als Beispiel eines digitalen Signals betrachte man ein Thermometer, welches zur Prozessüberwachung einmal pro Minute abgelesen wird. Das Thermometer habe eine AbleseTemperatur in °C genauigkeit von 1°C. Ein Messprotokoll 10 könnte Bild 2-4 enthalten. Es liegt ein digitales Signal vor, das sich für n = 0, 1, 2, ..., 10 in der üblichen Mengenschreibweise so darstellt:
5
0
x[n] = {2, 2, 3, 4, 6, 9, 9, 8, 6, 3, 5} (2.2)
0
2
4
6
8
10
Zeit in Minuten
Bild 2-4 Temperaturmesswerte als Beispiel eines digitalen Signals 1 Jean Maurice Emilie Baudot: *1845/+1903, französischer Entwickler eines Schnelltelegraphen und
Schöpfer des Fernschreibcode Nr. 1.
sUppLex
2.2 Klassifizierung von Signalen
15
Das Konzept der Signale und Systeme kann überall da angewandt werden, wo geordnete Zahlenfolgen anfallen. Derartige Signale werden, insbesondere in den Wirtschaftswissenschaften, oft Zeitreihen genannt. Ihre Auswertung, wie beispielsweise erkennen periodischer Vorgänge zur Vorhersage von Entwicklungen in Rohstoff-, Waren- oder Aktienmärkten oder das Entfernen rauschartiger Einflüsse in der Messtechnik, ist Gegenstand der Systemtheorie. Anmerkung: Man beachte den prinzipiellen Unterschied zwischen den durch einen Laufindex geordneten gleichartigen Daten, den Signalen der Nachrichtentechnik, und den in Datenbanken verknüpften Daten der Datenverarbeitung in der Informatik, wie Adressen, Kontonummern, bestellte Artikel, usw.
2.2.3
Periodische und aperiodische Signale
In der Fourier-Analyse ist die Unterscheidung der Signale in periodische und aperiodische wichtig. Gilt x(t + T0 ) = x (t )
für alle t
bzw. x[n + N 0 ] = x[n]
für alle n
(2.3)
so liegt ein periodisches Signal vor. Die kleinste positive Zahl T0 bzw. N0 für die (2.3) gilt heißt Periode. Ist das Signal nicht periodisch, so spricht man von einem aperiodischen Signal. Bild 2-5 (a) zeigt einen Rechteckimpuls der Pulsdauer T als Beispiel eines aperiodischen Signals. In (b) wird der Rechteckimpuls periodisch im Abstand T0 wiederholt. Man erhält einen periodischen Rechteckimpulszug mit dem Tastverhältnis T/T0.
a)
t
T b)
Eine wichtige Anwendung periodischer Signale ist die komplexe Wechselstromrechnung. Dort werden sinusförmige bzw. exponentielle Signale vorausgesetzt. Die eulersche Formel1 liefert für die (allgemein) Exponentielle den Zusammenhang
xT(t)
xp(t)
T0
t
Bild 2-5 Rechteckimpuls (a) und periodischer Rechteckimpulszug (b)
x(t ) = e st = eσ t ⋅ ¬ªcos (ω t ) + j sin (ω t ) ¼º
(2.4)
s = σ + jω
(2.5)
mit der komplexen Frequenz
Man unterscheidet drei Fälle für den Parameter σ : die angefachte Exponentielle mit σ > 0, die harmonische Exponentielle mit σ = 0 und die gedämpfte Exponentielle mit σ < 0. Die zugehörigen Signalverläufe sind in Bild 2-6 veranschaulicht. Das Bild links oben zeigt einen Ausschnitt des Realteils von x(t) im gedämpften Fall mit σ = –1. Zusätzlich ist der Verlauf der Einhüllenden eσt eingezeichnet. Die Einhüllende und ihr Negatives begrenzen das Signal von oben bzw. unten. Mit σ = 0 erhält man den harmonischen Fall im oberen rechten Bildausschnitt. Schließlich ist links unten der Signalverlauf des Realteils für σ = 1 zu sehen. Man erkennt das schnelle exponentielle Wachstum der Einhüllenden. 1 Leonhard Euler: *1707/+1783, schweizer Mathematiker.
sUppLex
16
2 Signale und Systeme
Das letzte Teilbild zeigt einen Ausschnitt der Ortskurve der allgemein Exponentiellen in der komplexen Ebene in Polardarstellung. Im gedämpften Fall beginnt die Ortskurve außen und läuft mit wachsender Zeit spiralförmig in den Ursprung. Derselbe spiralförmige Verlauf ergibt sich im angefachten Fall. Jedoch beginnt dann die Ortskurve im Ursprung und läuft mit wachsender Zeit nach außen. Anmerkung: Die Signale wurden – wie auch die in den nachfolgenden Bildern – numerisch am PC berechnet.
Re{x(t)} für V < 0
Re{x(t)} für V = 0
Einhüllende
t
0
t
0
Im{x(t)}
Re{x(t)} für V > 0
90
Einhüllende 0
10
5
t
0
180
270
Re{x(t)}
Polardarstellung
Bild 2-6 Beispiele zur zeitkontinuierlichen allgemeinen Exponentiellen
2.2.4
Deterministische und stochastische Signale
Bei der bisherigen Unterscheidung der Signale wurde ihre Form, ihr Funktionstyp, zugrunde gelegt. Eine weitere sehr wichtige Unterscheidung ergibt sich aus der Art ihrer Entstehung und demzufolge ihrer Beschreibung. Genauer gesagt, ob das Signal prinzipiell exakt vorhergesagt werden kann oder nicht. Im ersten Fall handelt es sich um ein deterministisches Signal. Lassen sich für das Signal nur statistische Kenngrößen, wie Mittelwert, Varianz und Korrelation angeben, so spricht man von einem stochastischen Signal oder Zufallssignal. Anmerkung: Einführungen in die Wahrscheinlichkeitsrechnung und ihre Anwendung auf stochastische Prozesse in der Nachrichtentechnik sind in den meisten Lehrbüchern zu Signale und Systeme, beispielsweise in [GRS03] und [Wer05b], zu finden. Als Einführung in die elementare Wahrscheinlichkeitsrechnung eignen sich so genannte Abiturhilfen bekannter Schul- und Lehrmittelverlage. In [Tar98] findet sich eine interessante Darstellung über das Wesen der Wahrscheinlichkeit aus dem Blickwinkel des Naturforschers.
Typische Beispiele für ein stochastisches Signal sind die thermische Rauschspannung eines Widerstands oder die elektrische Spannung am Mikrofonausgang eines Fernsprechapparats ähnlich dem in Bild 2-1 gezeigten Verlauf. Das charakteristische Verhalten eines regellosen stochastischen Signals zeigt das linke Teilbild in Bild 2-7, wohingegen das stochastische Signal rechts im Bild neben einem An- und Abklin-
sUppLex
2.2 Klassifizierung von Signalen
17
gen eine gewisse periodische Grundstruktur aufweist. Stochastische Signale spielen in der Nachrichtentechnik eine herausragende Rolle. Alle informationstragenden Signale sind stochastischer Natur. Andernfalls wäre die Nachricht bereits bekannt und eine Mitteilung könnte unterbleiben. x[n] 4 xˆ
0,8
x(t ) xˆ
2
0,4
0
0
-2
-0,4
-4 0
200
400
600
n
-0,8
1000
1
0
t/s
2
Bild 2-7 Stochastische Signale (links Rauschsignal und rechts ein Tonsignal)
2.2.5
Energie- und Leistungssignale
Für die Analyse von Signalen und Systemen ist die Unterscheidung von Energie- und Leistungssignalen wichtig. Betrachtet man zunächst die Spannung u(t) und den Strom i(t) an einem Widerstand R, so erhält man die Momentanleistung p(t ) = u (t ) ⋅ i (t ) = R ⋅ i 2 (t )
(2.6)
Die Energie E und die mittlere Leistung P sind dann +∞
E = R⋅
∫ i 2 (t ) dt
(2.7)
−∞
und 1 T →∞T
+T / 2
∫
P = R ⋅ lim
i 2 (t ) dt
(2.8)
−T / 2
Betrachtet man – gegebenenfalls nach geeigneter Normierung der zugrunde liegenden physikalischen Größen, z. B. durch Bezug auf einen Referenzwiderstand von 1 : – dimensionslose Signale, so definiert man die normierte Energie +∞
E=
∫
x(t ) 2 dt
(2.9)
−∞
bzw. die normierte Leistung 1 T T →∞
P = lim
+T / 2
∫
2
x(t ) dt
(2.10)
−T / 2
sUppLex
18
2 Signale und Systeme
Man spricht von Energiesignalen und Leistungssignalen, wenn E bzw. P als nichtnegative endliche Werte existieren. Energiesignale sind alle zeit- und amplitudenbegrenzte Signale, wie z. B. der Rechteckimpuls in Bild 2-5. Leistungssignale sind periodische Signale wie die Sinusund Kosinusfunktion oder der periodische Rechteckimpulszug in Bild 2-5. Insbesondere sind alle später noch betrachteten stochastischen Signale ebenfalls Leistungssignale.
2.3
Lineare zeitinvariante Systeme
Die komplexe Wechselstromrechnung liefert ein gutes Beispiel für einen Einstieg in das Konzept von Signalen und Systemen. Darüber hinaus führt ihre Verallgemeinerung direkt zu der in der Nachrichtentechnik und anderen Wissenschaftsgebieten häufig benutzten Theorie der linearen zeitinvarianten Systeme. In den folgenden Abschnitten werden elektrische Netzwerke betrachtet, die sich aus den idealen Bauelementen Widerstand R, Induktivität L und Kapazität C und den idealen Quellen zusammensetzen. Trotz der Idealisierung haben derartige Netze in der Nachrichtentechnik eine hohe praktische Bedeutung, weil sie oft reale Systeme im Arbeitsbereich gut beschreiben. So lassen sich reale Widerstände, Spulen und Kondensatoren meist durch RLC-Ersatzschaltungen modellieren [Unb93]. Die erste wesentliche Eigenschaft solcher RLC-Netzwerke ist die Linearität. Sie entspricht physikalisch dem Superpositionsprinzip und garantiert eine relativ einfache mathematische Beschreibung. In der Praxis wird deshalb angestrebt, komplizierte Schaltungen durch RLC-Netzwerke zu modellieren; man spricht von der Linearisierung der Schaltung. Die zweite wichtige Eigenschaft wird meist stillschweigend vorausgesetzt – die Zeitinvarianz. D. h., die Bauelemente ändern ihre Eigenschaften im betrachteten Zeitraum nicht. Beides führt unmittelbar zu dem Begriff des linearen zeitinvarianten Systems (LTI-System, Linear Time Invariant). Hierzu betrachte man in Bild 2-8 den passiven elektrischen Vierpol in seiner Darstellung als System mit je einem Ein- und Ausgang und beispielsweise den Signalen x(t) = u1(t) und y(t) = u2(t). i2(t)
i1(t) u1(t)
RLCNetzwerk
u2(t)
Eingang
Ausgang
x(t)
y(t) System
Bild 2-8 RLC-Netzwerk als Zweitor (links) bzw. als System mit einem Ein- und Ausgang (rechts)
Zwei Eingangssignalen x1(t) und x2(t) seien die Ausgangssignale y1(t) bzw. y2(t) zugeordnet. Das System ist dann linear, wenn für eine beliebige Linearkombination der Eingangssignale mit den Konstanten D1 und D2 stets die entsprechende Linearkombination der Ausgangssignale y1(t) und y2(t) zu beobachten ist, s. Bild 2-9. Diese Bedingung muss streng genommen für die Überlagerung beliebig vieler, in Summe leistungs- bzw. energiebegrenzter Signale gelten, wie sie sich beispielsweise durch die harmonische Analyse im nächsten Unterabschnitt ergibt.
sUppLex
2.4 Fourier-Reihen
19
Eingang x1 (t ) = xˆ1 cos(ω1t + ϕ11 ) x2 (t ) = xˆ 2 cos(ω 2t + ϕ 21 )
¦
α1 ⋅ x1 (t ) + α 2 ⋅ x2 (t )
Ausgang y1 (t ) = yˆ1 cos(ω1t + ϕ12 ) y2 (t ) = yˆ 2 cos(ω 2t + ϕ 22 )
LTISystem ¦
α1 ⋅ y1 (t ) + α 2 ⋅ y2 (t )
Bild 2-9 Zur Linearität eines LTI-Systems
Für RLC-Netzwerke kann die Linearität direkt aus den Definitionsgleichungen für Strom und Spannung an den Bauelementen abgelesen werden. Da diese lineare mathematische Operationen sind, muss jede Linearkombination solcher Operationen, also Verschaltung der Bauelemente, wieder linear sein. Allgemein gilt: Beschränken sich die mathematischen Operationen auf die Addition von Signalen, die Multiplikation der Signale mit Konstanten und die Differentiation oder Integration der Signale nach der Zeit, so resultiert ein LTI-Systeme. Die Linearität ist deshalb so wichtig, weil dadurch das weitere Vorgehen festgelegt wird. Will man die Reaktion eines LTI-Systems auf ein beliebiges Eingangssignal bestimmen, so bietet sich an, das Eingangssignal in sinusförmige Signalkomponenten zu zerlegen. Für diese kann die Wirkung, z. B. mit den Methoden der komplexen Wechselstromrechnung, gefunden werden. Die Systemreaktion ergibt sich dann aus der Überlagerung der Wirkungen der einzelnen Signalkomponenten. Das Werkzeug hierzu liefert die Mathematik mit der Fourier-Reihe und ihrer Verallgemeinerung, der Fourier-Transformation.
2.4
Fourier-Reihen
Die Entwicklung einer Funktion in ihre Fourier-Reihe 1 bzw. Fourier-Transformierte bezeichnet man als harmonische Analyse. Die Funktion wird dabei als Überlagerung von sinusförmigen Schwingungen oder allgemein Exponentiellen dargestellt. Ist die Funktion ein Eingangssignal eines LTI-Systems, kann das Ausgangssignal relativ einfach berechnet werden. Die harmonische Analyse ist deshalb ein wichtiges mathematisches Werkzeug in der Nachrichtentechnik und spielt auch in anderen Gebieten eine große Rolle. In diesem Abschnitt werden periodische reelle Signale betrachtet, wie der Rechteckimpulszug in Bild 2-5. Ein periodisches Signal x(t) kann stets durch eine Fourier-Reihe dargestellt werden, wenn es den Dirichlet-Bedingungen 2 genügt [BSMM99]: (a) Innerhalb einer Periode T0 ist x(t) in endlich viele Intervalle zerlegbar, in denen x(t) stetig und monoton ist. (b) An jeder Unstetigkeitsstelle (Sprungstelle) sind die Werte x(t+0) und x(t-0) definiert. Die in der Nachrichtentechnik wichtigen periodischen Signale erfüllen die beiden Bedingungen. Je nach Bedarf kann eine der drei nachfolgenden äquivalenten Formen der Fourier-Reihe benutzt werden.
1 [Jean-Baptiste] Joseph Baron de Fourier: *1768/+1830, franz. Mathematiker und Physiker. 2 [Lejeune] Peter Dirichlet: *1805/+1859, deut.-franz. Mathematiker.
sUppLex
20
2 Signale und Systeme
Trigonometrische Form der Fourier-Reihe Die trigonometrische Form der Fourier-Reihe stellt das mit T0 periodische Signal x(t) als Überlagerung von Sinus- und Kosinusschwingungen dar ∞
x(t ) =
a0 + ∑( ak cos k ω0t + bk sin k ω0t ) 2
(2.11)
2π T0
(2.12)
k=1
mit der Grundkreisfrequenz
ω0 = und den Fourier-Koeffizienten a0 =
2 ak = T0 2 bk = T0
t0 +T0
∫
2 T0
t0 +T0
∫
x(t ) dt
t0
x(t ) ⋅ cos ( k ω 0t ) dt
für k = 1, 2,3,!
x (t ) ⋅ sin ( k ω0t ) dt
für k = 1, 2,3,!
(2.13)
t0
t 0 +T0
∫ t0
Harmonische Form der Fourier-Reihe
Mit den trigonometrischen Formeln können die Sinus- und Kosinusterme gleicher Frequenz zu einer Harmonischen zusammengefasst werden. ∞
x(t ) = C0 + ∑ Ck cos ( k ω0t + θ k )
(2.14)
k=1
mit den Amplituden C0 =
a0 , Ck = ak2 + bk2 2
⎛b ⎞ und den Phasen θ k = arctan⎜ k ⎟ ⎝ ak ⎠
für k = 1, 2,3!
(2.15) für k = 1, 2,3!
Das konstante Glied C0 entspricht dem Gleichanteil des Signals. Also im Falle eines elektrischen Signals dem Gleichstrom- bzw. Gleichspannungsanteil. Der Anteil für k = 1 wird Grundschwingung oder 1. Harmonische und die Anteile zu k = 2, 3, ... werden 1. Oberschwingung oder 2. Harmonische usw. genannt.
sUppLex
2.4 Fourier-Reihen
21
Komplexe Form der Fourier-Reihe Alternativ können die Sinus- und Kosinusterme mit der eulerschen Formel als Linearkombinationen von Exponentialfunktionen geschrieben werden ∞
x(t ) =
∑
ck e jk ω0t
(2.16)
x(t ) ⋅ e− jk ω0t dt
(2.17)
k=−∞
mit den komplexen Fourier-Koeffizienten ck =
1 T0
t0 +T0
∫ t0
Dabei wird ohne Unterschied mit positiven (k > 0) und negativen (k < 0) Kreisfrequenzen gerechnet. Für die üblichen reellen Signale gilt die Symmetrie c−k = ck*
(2.18)
und der Zusammenhang mit den Koeffizienten der trigonometrischen Form a c0 = 0 2
1 und ck = ( ak − jbk ) 2
für k = 1, 2,3,!
(2.19)
Parsevalsche Gleichung
Die Sinus- und Kosinusfunktionen der Fourier-Reihenentwicklung bilden ein vollständiges Orthogonalsystem, das den mittleren quadratischen Fehler minimiert. Diese wichtige Eigenschaft drückt sich in der parsevalschen Gleichung1 aus [BSMM99]. 1 T0
T0
³ 0
2
x(t ) dt =
∞
¦
ck
2
(2.20)
k =−∞
Sie verknüpft die mittlere Signalleistung in einer Periode mit den Fourier-Koeffizienten. Damit kann auch die Approximationsgüte einer abgebrochenen Fourier-Reihe abgeschätzt werden. Beispiel Fourier-Reihe des periodischen Rechteckimpulszuges
In der Nachrichtenübertragungstechnik werden Rechteckimpulse zur binären Datenübertragung verwendet, s. Bild 2-3. Dazu passend wird als Beispiel der periodische Rechteckimpulszug xp(t) in Bild 2-5 mit der Periode T0, dem Tastverhältnis T/T0 und der Amplitude A betrachtet. xp(t) wird in eine trigonometrische Fourier-Reihe entwickelt. Als Integrationsintervall über eine Periode wird t ∈ [-T0/2, T0/2] gewählt. Für die Fourier-Koeffizienten (2.13) erhält man
1 August von Parseval: *1861/+1942, deutscher Ingenieur.
sUppLex
22
2 Signale und Systeme
2 a0 = T0 2 ak = T0
T /2
∫
−T / 2
T0 / 2
∫
x p (t ) dt = 2 A ⋅
−T0 / 2
T T0
(2.21)
−k ω 0T ⎤ 2 A 1 ⎡ k ω 0T ⋅ ⋅⎢ sin − sin A cos ( k ω 0t ) dt = ⎦ T0 k 0 ⎣ 2 2 ⎥
Da die Sinusfunktion ungerade ist, wird das Minuszeichen aus dem Argument vorgezogen. Nach Zusammenfassen der beiden Sinusterme ergeben sich nach kurzer Umformung die Fourier-Koeffizienten ak = 2 A
T T sin ( k ω 0T / 2) ⋅ = 2 A ⋅ si(k ω 0T / 2) T0 T0 k ω 0T / 2
für k = 0,1, 2,!
(2.22)
wobei die si-Funktion si( x) =
sin x x
(2.23)
benutzt wurde. Anmerkung: In der Literatur wird ebenfalls die Kurzschreibweise sinc(x) = si(S x) verwendet.
Mit der Regel von L'Hospital 1 lässt sich zeigen, dass für die si-Funktion an der Stelle null gilt si(0) = lim
x→0
sin x =1 x
(2.24)
Für die Fourier-Koeffizienten zu den Sinusfunktionen (2.13) resultiert bk = 0 für k = 1, 2, 3, ..., da xp(t) eine gerade Funktion ist. Ersetzt man schließlich noch in (2.22) Z0 durch 2S/T0, so hängen die Fourier-Koeffizienten nur vom Tastverhältnis ab. Die Fourier-Reihe des periodischen Rechteckimpulszuges nimmt damit die endgültige Form an. x p (t ) = 2 A
∞ ⎛ ⎛ T ⎡ 1 T⎞ t ⎞⎤ ⋅⎢ + si⎜ π k ⎟⋅ cos⎜ 2 π k ⎟⎥ T0 ⎢ T0 ⎠⎥ ⎝ T0 ⎠ ⎝ ⎣2 ⎦
∑
(2.25)
k =1
In vielen Anwendungen ist es oft ausreichend, Signale nur durch eine endliche Zahl von Gliedern der Fourier-Reihe anzunähern. In Bild 2-10 wird der entstehende Approximationsfehler veranschaulicht. Man erkennt deutlich die Annäherung an den Rechteckimpulszug bei wachsender Zahl von berücksichtigten Harmonischen. An den Sprungstellen zeigt sich das als gibbsches Phänomen 2 bekannte Über- bzw. Unterschwingen der Approximation. Erhöht man die Zahl der berücksichtigten Harmonischen weiter, so ist das Über- bzw. Unterschwingen von ca. 9 % der Sprunghöhe der Unstetigkeitsstelle weiter zu beobachten. Die maximalen Abweichungen rücken dabei immer näher an die Sprungstelle. Erst im Grenzfall k o f fallen sie zusammen und kompensieren sich. 1 Guillaume-Francois-Antonine de, Marquis de Sainte-Mesme, Compte d’Entremont (L’Hospital):
*1661/+1704, franz. Mathematiker. 2 Josiah Willard Gibbs: *1839/+1903, US-amerikanischer Physiker und Mathematiker.
sUppLex
2.5 Periodische Quellen in RLC-Netzwerken
23
Anmerkung: Eine quantitative Behandlung des Approximationsfehlers ist mit der parsevalschen Gleichung möglich. Sie stellt auch sicher, dass mit jedem zusätzlich berücksichtigten Glied der Approximationsfehler im quadratischen Mittel abnimmt. 1
1
~ p1(t )
~ p3(t )
t/T0
0 -1
0
1
-1
1
0
1
1
~ p7 (t )
0 -1
t/T0
0
~ p13 (t )
t/T0 0
1
0 -1
t/T0 0
1
Bild 2-10 Approximation des periodischen Rechteckimpulszuges (grau) mit dem Tastverhältnis T/T0 = 0,2 durch den Gleichanteil und den K Harmonischen p K (t )
2.5
Periodische Quellen in RLC-Netzwerken
Die Darstellung als Fourier-Reihe ermöglicht es, die Reaktion auf periodische Spannungs- und Stromquellen in RLC-Netzwerken mit der komplexen Wechselstromrechnung zu bestimmen. Grundlage hierzu ist, dass für aus RLC-Netzwerken aufgebaute Systeme das für LTI-Systeme typische Superpositionsprinzip gilt und die Harmonischen Eigenfunktionen des Systems sind. D. h. es darf die Wirkung jeder einzelnen Harmonischen getrennt berechnet werden. Die Teillösungen werden zur Gesamtlösung additiv überlagert. Ein ausführliches Beispiel stellt das Verfahren vor. Beispiel Periodischer Rechteckimpulszug am RC-Glied
Wir modellieren ein Datensignal durch einen periodischen Rechteckimpulszug. Nehmen wir an, es wird für jede logische „1“ ein Rechteckimpuls gesendet und ansonsten das Signal ausgetastet. Dann entspricht der Datenfolge ...01010101... ein Rechteckimpulszug mit dem Tastverhältnis T/T0 = 0,5. Nehmen wir weiter an, die Übertragungsstrecke lasse sich – zumindest näherungsweise – durch das in Bild 2-11 gezeigte RC-Glied beschreiben, so kann das Signal am Ausgang berechnet werden. Die Aufgabe des Empfängers wäre dann, die gesendete Nachricht, die Datenfolge, aus dem Ausgangssignal zu rekonstruieren. Anmerkung: Im Beispiel einer einfachen Zweidrahtleitung werden mit dem Widerstand R der Spannungsabfall entlang der Leitung und mit der Kapazität C die Querkapazitäten zwischen den Leitern modelliert.
In einem ersten Schritt bestimmen wir die Ersatzspannungsquellen. Danach geben wir im zweiten Schritt mit Hilfe der komplexen Wechselstromrechnung die zugehörigen Spannungen an der Kapazität an. Deren Überlagerung im dritten Schritt liefert schließlich das Ausgangssignal.
sUppLex
24
2 Signale und Systeme
ue(t)
1V
t -T0
Ausgang
Eingang
Eingangssignal
-T/2
ue(t)
RC-Glied
T0
T/2
R
ua(t) C
Bild 2-11 Periodischer Rechteckimpulszug als Eingangssignal am RC-Glied
1. Schritt Ersatzspannungsquellen
Entsprechend der Fourier-Reihe des Rechteckimpulszuges (2.25) fassen wir die Eingangsspannung ue (t ) = 2V ⋅
∞ ⎛ ⎛ T ⎡ 1 T⎞ t ⎞⎤ ⋅⎢ + si⎜ π k ⎟⋅ cos⎜ 2 π k ⎟⎥ T0 ⎢ T0 ⎠⎥ ⎝ T0 ⎠ ⎝ ⎣2 ⎦
∑
(2.26)
k =1
als Überlagerung der Spannungsquellen ∞
⎛ t ⎞ ue (t ) = U e,0 + ∑ uˆe,k ⋅ cos⎜ 2π k ⎟ T0 ⎠ ⎝
(2.27)
k=1
mit der Gleichspannungsquelle U e,0 =
T V T0
(2.28)
und den Wechselspannungsquellen für k = 1, 2, 3, ... ue,k (t ) = uˆe,k cos (ωk t )
(2.29)
mit den Scheitelwerten uˆe,k = 2
T ⎛ T⎞ ⋅ si⎜ π k ⎟V T0 ⎝ T0 ⎠
(2.30)
2π T0
(2.31)
und den Kreisfrequenzen
ωk = k ⋅
auf. Die Zerlegung in die Ersatzspannungsquellen veranschaulichen wir in Bild 2-12.
sUppLex
2.5 Periodische Quellen in RLC-Netzwerken
25
Ue,0
G
ue(t)
≅
Gleichanteil
u e,1(t)
1. Harmonische
u e,2(t)
2. Harmonische
Bild 2-12 Ersatzspannungsquellen für den periodischen Rechteckimpulszug
2. Schritt Komplexe Wechselstromrechnung Aus der erweiterten Spannungsteilerregel der komplexen Wechselstromrechnung folgt mit den komplexen Amplituden am Eingang Ue,k für die komplexen Amplituden am Ausgang des RCGliedes, der Kapazität, U a , k = U e, k ⋅
1 jω k C 1 = U e, k ⋅ R + 1 jω k C 1 + jω k RC
für
k = 1, 2,3,!
(2.32)
Mit der Zeitkonstanten des RC-Gliedes
τ = RC
(2.33)
erhalten wir aus (2.32) für k = 1,2,3,... die zugehörigen Spannungsfunktionen. ⎧ U e, k ⎫ uˆe,k ⋅ e+ jω k t ⎬ = ⋅ cos⎡ u a ,k (t ) = Re ⎨ ⎣ ω k t − arctan (ω k τ )⎤ ⎦ 2 ⎩1 + jω k τ ⎭ 1+ (ω k τ )
(2.34)
Anmerkung: Die Zeitkonstante τ ist ein Maß für die Dauer des Lade- bzw. Entladevorgangs an der Kapazität mit in Reihe geschaltetem Widerstand. Je größer R und/oder C, umso länger dauert der Lade- bzw. Entladevorgang. Beim Entladen eines Kondensators mit der Anfangsspannung U0 beträgt die Spannung am Kondensator nach der Zeit t = τ genau U0 ⋅ e-1 ≈ U0 ⋅ 0,368.
3. Schritt Überlagerung der Teilspannungen (Superposition) zur Ausgangsspannung Die Überlagerung der Teilspannungen (2.34) liefert uns mit (2.28) und (2.29) die gesuchte Spannung an der Kapazität. ∞
ua (t ) = U e,0 + ∑
k =1
uˆe,k 1+ (ωk τ )
2
⋅ cos ( ω k t − arctan (ω k τ )) =
⎡ ⎤ ∞ ⎛ ⎛ si ( π kT T0 ) T ⎢1 t τ ⎞⎞⎥ = 2V ⋅ ⋅⎢ + ⋅ cos⎜ 2 π k − arctan⎜ 2 π k ⎟⎟⎥ 2 T0 2 T0 T0 ⎠⎠ ⎝ ⎝ k =1 1 + ( 2 π k τ T0 ) ⎣ ⎦
(2.35)
∑
sUppLex
26
2 Signale und Systeme
Der Spannungsverlauf ist für verschiedene Werte der Zeitkonstanten in Bild 2-13 zu sehen. Im linken oberen Teilbild ist die Zeitkonstante relativ groß. Es wird bereits die Amplitude der ersten Harmonischen stark gedämpft, so dass das Ausgangssignal im Wesentlichen einem unvollständigen Lade- bzw. Entladevorgang an der Kapazität entspricht. Wählt man, wie im oberen rechten Teilbild, die Zeitkonstante gleich der Inversen der Grundkreisfrequenz, so wird die Kapazität während der Impulsdauer fast vollständig geladen bzw. entladen. Bei noch kleiner werdenden Zeitkonstanten nähert sich die Spannung an der Kapazität dem periodischen Rechteckimpuls immer mehr an. Anmerkung: Die daraus entstehenden Konsequenzen für die Datenübertragung werden in Abschnitt 5.3 ausführlicher behandelt.
Das Beispiel lässt sich verallgemeinern. Es führt uns in den nächsten Abschnitten auf die wichtigen Begriffe: Spektrum, Bandbreite, Frequenzgang und Filterung.
WZ0 = 2
WZ0 = 1
1
1
u a (t ) V
u a (t ) V
0
0 -1
0
1
t / T0
-1
0
1
t / T0
Bild 2-13 Übertragung eines periodischen Rechteckimpulszuges (grau) mit Tastverhältnis T / T0 = 0,5 und Z0 = 2S / T0 durch ein RC-Glied mit Zeitkonstante W = RC
2.6
Spektrum periodischer Signale
Betrachtet man nochmals die Definition der Fourier-Reihe, so unterscheiden sich die Signale bei gleicher Periode nur durch die Gewichtung der Harmonischen, den Fourier-Koeffizienten. Im Beispiel des letzten Abschnittes entsprechen die Fourier-Koeffizienten den Amplituden der Ersatzspannungsquellen und haben somit eine physikalische Bedeutung. Das in Bild 2-12 illustrierte Konzept der Ersatzspannungsquellen entspricht der Verteilung der Signalleistung auf die Ersatzspannungsquellen. Da jeder Ersatzspannungsquelle eine bestimmte Kreisfrequenz zugeordnet ist, kann auch von Signalanteilen bzw. Leistungsanteilen bei diskreten Frequenzen gesprochen werden. Hierzu stellen wir zunächst den Zusammenhang zwischen den komplexen Fourier-Koeffizienten und den bekannten Größen der Wechselstromrechnung her. Aus der harmonischen Form der Fourier-Reihe (2.14) folgt mit (2.15) und (2.19) für die Amplitude des Gleichanteils U 0 = c0
(2.36)
und die Amplitude der k-ten Harmonischen uˆ k = Ck = 2 ⋅ ck
für k = 1,2,3,...
(2.37)
Damit sind auch die mittleren Leistungsanteile an einem Widerstand R bekannt.
sUppLex
2.6 Spektrum periodischer Signale
2 U eff ,k
R
27
2c = k R
2
für k = 1,2,3,...
(2.38)
Der Betrag des k-ten komplexen Fourier-Koeffizienten ist proportional zur Amplitude der k-ten Harmonischen und das Betragsquadrat ist proportional zur am Referenzwiderstand R umgesetzten Leistung. Da dem k-ten Fourier-Koeffizienten die diskrete Frequenz k ⋅ f 0 zugeordnet ist, spricht man von einem Amplitudenspektrum bzw. Leistungsspektrum eines periodischen Signals und nennt die zugeordneten Signalanteile Spektral- oder Frequenzkomponenten. Der Einfachheit halber wird kurz vom Spektrum gesprochen. Die verschiedenen Formen der Fourier-Reihe lassen es zu, dass man je nach Zweckmäßigkeit einseitige Spektren mit nur positiven (physikalischen) Frequenzen und zweiseitige Spektren mit positiven und negativen Frequenzen verwendet. Letzteres bietet rechentechnische Vorteile und ist darum in der Nachrichtentechnik gebräuchlicher. Im Beispiel des periodischen Rechteckimpulszuges (2.25) resultieren die in Bild 2-14 gezeigten Amplituden- bzw. Leistungsspektren. Darin sind die Fourier-Koeffizienten ck bzw. die (normierten) Leistungen |ck|2 der Signalanteile über den Index k aufgetragen. Jedem Index k ist die Frequenz fk = kf0 eineindeutig zugeordnet. Deshalb kann Bild 2-14 als Frequenzbereichsdarstellung interpretiert werden. Es resultieren Linienspektren mit äquidistant im Abstand f0 verteilten Frequenzkomponenten. Gemäß (2.22) interpoliert die si-Funktion die Fourier-Koeffizienten im oberen Teilbild. Man beachte auch die Symmetrie der Fourier-Koeffizienten für reelle Signale (2.18). Für die Beträge der Fourier-Koeffizienten ergibt sich eine gerade Symmetrie um die Ordinate. Betragsspektrum und Leistungsspektrum werden deshalb oft nur für positive Frequenzen f angegeben. Bemerkenswert, wie wir später noch sehen werden, ist der Zusammenhang zwischen dem Tastverhältnis und der ersten Nullstelle im Spektrum für positive Frequenzen. Mit ⎛ T⎞ si⎜ π k ⎟= 0 T ⎝ 0⎠
nur für
k⋅
T =±1,± 2,± 3,! T0
(2.39)
ergeben sich mit dem Tastverhältnis T/T0 = 1/5 Nullstellen bei k = r 5, r 10, r 15, ... . Der periodische Rechteckimpulszug besitzt keine Harmonischen mit diesen Frequenzen. Aus der Verteilung der Leistungen auf die Frequenzkomponenten im unteren Teilbild wird deutlich, dass die wesentlichen Anteile auf Frequenzen bis zur ersten Nullstelle k = r 5 des Spektrums beschränkt sind. Man spricht deshalb von der Bandbreite des Signals und gibt je nach Anwendung einen geeigneten Eckwert an, siehe Abschnitt 2.11. In vielen Fällen genügt es, die Übertragung oder Weiterverarbeitung der Signale auf die Frequenzkomponenten innerhalb der so definierten Bandbreite zu beschränken. Der dabei vernachlässigte Leistungsanteil kann mit der parsevalschen Gleichung bestimmt werden.
sUppLex
28
2 Signale und Systeme
ck
c0
0,2
⎛ f T⎞ si⎜ ⎟ ⎝ f 0 T0 ⎠
0,1
c-5
c15
c5
0 -0,1 -20 -15 zugeordnete
k
c10 -10
-5
0
5
10
15
20
f / f0
Frequenzen
|ck|2
|c0|2
0,04
0,02
|c5|2 0
-20
-15
-10
-5
0
5
10
15
20
k
Bild 2-14 Amplituden- (oben) und Leistungsspektrum (unten) des periodischen Rechteckimpulszuges mit dem Tastverhältnis T/T0 = 1/5 und f0 = 1/T0
2.7
Übertragungsfunktion und Frequenzgang
Dieser Abschnitt knüpft an die Überlegungen zu den Ersatzspannungsquellen und den LTISystemen an und stellt die allgemeinen Zusammenhänge vor. Anhand des RC-Gliedes werden die Ergebnisse veranschaulicht.
2.7.1
Übertragungsfunktion
In Bild 2-11 ist das RC-Glied als Zweitor dargestellt. Das RC-Gleid sei so hochohmig abgeschlossen, z. B. als hochohmiger Eingang eines Operationsverstärkers, dass näherungsweise ein Leerlauf vorliegt. Mit Hilfe der komplexen Amplituden am Eingang U1 = uˆ1 ⋅ e jϕ1 und Ausgang U 2 = uˆ 2 ⋅ e j ϕ 2 kann für jede beliebige, fest vorgegebene Kreisfrequenz Z ein Übertragungsverhältnis angegeben werden. U 2 uˆ 2 j ( ϕ 2 −ϕ1 ) = e U1 uˆ1 ω
(2.40) fix
Die Verallgemeinerung des Übertragungsverhältnisses, mit der komplexen Frequenz s = V + jZ als freien Parameter, führt auf die Übertragungsfunktion.
sUppLex
2.7 Übertragungsfunktion und Frequenzgang
29
H ( s) =
U 2 ( s) U1 ( s )
(2.41)
Für jede fest vorgegebene komplexe Frequenz resultiert daraus wieder das Übertragungsverhältnis für die zugehörigen komplexen Amplituden. Anmerkung: Die komplexe Frequenz s deutet hier den Zusammenhang mit der Laplace-Transformation an. Um den Rahmen einer Einführung nicht zu sprengen, wird dies hier nicht weiter vertieft [Wer05b].
Aus der Physik ist bekannt, dass reale elektrische Netzwerke mit Widerständen, Spulen und Kondensatoren gut durch die idealen Bauelemente R, L und C und den zugehörigen Beziehungen zwischen Strömen und Spannungen beschrieben werden können. Will man den Zusammenhang zwischen den Strömen und Spannungen in einem RLC-Netzwerk berechnen, so resultieren lineare Differentialgleichungen mit konstanten Koeffizienten. Lässt man jedoch als Erregung nur sinusförmige Spannungs- oder Stromquellen zu, vereinfachen sich die Differentialgleichungen mit dem Exponentialansatzes der Operatormethode zu algebraischen Gleichungen. Man erhält Gleichungen mit Polynomen in s die dann relativ einfach gelöst werden können. Im Sonderfall V = 0 ergibt sich die bekannte komplexe Wechselstromrechnung. Die Übertragungsfunktion eines RLC-Netzwerkes resultiert stets in der rationalen Form M
Z ( s) H ( s) = = N (s)
M
∑bl
sl
∑ ak
sk
l=0 N
b = M⋅ aN
k=0
∏ ( s − s 0l ) l=1 N
(2.42)
∏ ( s − s∞k ) k =1
mit dem Zählerpolynom Z(s) und dem Nennerpolynom N(s). Man spricht von den Zählerkoeffizienten bl (bM z 0) und den Nennerkoeffizienten ak (aN z 0) der Übertragungsfunktion. Im Falle von RLC-Netzwerken sind die Zähler- und Nennerkoeffizienten stets reell. Die Übertragungsfunktion kann äquivalent durch die komplexen Nullstellen s0l und die komplexen Polen sfk (Nullstellen des Nennerpolynoms) dargestellt werden. Diese Darstellung wird besonders zur Analyse und Synthese von RLC-Netzwerken benutzt, wie beispielsweise Filterschaltungen in der Nachrichtenübertragungstechnik [Unb93]. Anmerkungen: (i) Die Definition der Übertragungsfunktion geschieht in der Systemtheorie mit der Laplace- bzw. Fourier-Transformation. Die Darstellung (2.42) gilt für alle Systeme, die sich durch lineare Differentialgleichungen mit konstanten Koeffizienten beschreiben lassen. (ii) Der Grad des Nennerpolynoms bestimmt die Filterordnung. (iii) In der Regel wird eine normierte Darstellung mit aN = 1 verwendet. Die Systemtheorie erklärt auch, wann die Gleichsetzung H( jZ) = H(s = jZ) zulässig ist. Für die hier betrachteten RLC-Netzwerke ist sie stets erlaubt.
Beispiel Übertragungsfunktion des RC-Gliedes
Im Beispiel des RC-Gliedes aus Bild 2-11 ergibt sich aus der erweiterten Spannungsteilerregel für die komplexen Amplituden (2.32) U2 1 = U1 1 + jω RC
(2.43)
und daraus für die Übertragungsfunktion.
sUppLex
30
2 Signale und Systeme
H ( s) =
1 1 + sRC
(2.44)
Der Vergleich mit (2.42) zeigt, dass im Beispiel ein System mit nur einem Pol und keiner (endlichen) Nullstelle vorliegt. Man spricht von einem System 1. Ordnung. H (s) =
2.7.2
b b0 1 = 0 = 1 + sRC s + a0 s − s∞1
(2.45)
Frequenzgang, Dämpfung und Phase
In der Nachrichtentechnik interessiert besonders das Übertragungsverhalten der Systeme in Abhängigkeit von der Frequenz, der Frequenzgang. H ( jω ) = H ( s = jω )
(2.46)
Für die komplexen Amplituden zu einer beliebigen aber festen Kreisfrequenz ω0 gilt mit (2.40) U2 ω
0 fix
= H ( j ω 0 ) ⋅U 1 ω
0 fix
(2.47)
Die Auswertung des Frequenzgangs nach Betrag und Phase (Argument) H ( jω ) = H ( jω ) ⋅ e jb (ω )
(2.48)
liefert den Betragsfrequenzgang |H(jω)| und den Phasenfrequenzgang. b(ω ) = arctan
Im {H ( jω )} Re {H ( jω )}
(2.49)
Der Phasenfrequenzgang kann, wie in Abschnitt 2.10 noch gezeigt wird, mit der Signalverzögerung der Frequenzkomponenten durch das System in Verbindung gebracht werden. Anmerkungen: (i) Der Phasenfrequenzgang wird in der Nachrichtentechnik manchmal mit negativem Vorzeichen festgelegt. Er gibt dann die negative Phasenverschiebung der Frequenzkomponenten des Ausgangssignals bezogen auf den Systemeingang wieder. (ii) Man beachte, dass die Phase in 2π mehrdeutig ist. Für nicht-sinusfömige Eingangssignale ist der Einfluss des Phasenfrequenzganges nicht mehr so einfach zu beurteilen.
Der Betragsfrequenzgang gibt an, wie stark ein sinusförmiges Signal bzw. eine Frequenzkomponente bei der Übertragung verstärkt oder gedämpft wird. Da er über mehrere Größenordnungen variieren kann, wird er häufig im logarithmischen Maß als Dämpfungsfrequenzgang angegeben
a(ω ) dB =−20log10 H ( jω ) dB
(2.50)
Zur Unterscheidung wird die Pseudoeinheit Dezibel1 (dB) angehängt.
1 Zusammensetzung von „Dezi“ für den Zehnerlogarithmus und „bel“ vom Namen Bell. Alexander
Graham Bell: *1847/+1922, US-amerik. Physiologe, Erfinder und Unternehmer schottischer Abstammung; erhält 1876 in den U.S.A. ein Patent für das Telefon.
sUppLex
2.7 Übertragungsfunktion und Frequenzgang
31
Anmerkung: Wird die Dämpfung in dB angegeben, spricht man auch vom Dämpfungsmaß.
Beispiel Frequenzgang des RC-Gliedes
Die Bedeutung der Frequenzgänge des Betrages bzw. der Dämpfung wird am Beispiel des RCGliedes erläutert. Nach Einsetzen von s = jZ in (2.44) und kurzer Zwischenrechnung ergibt sich
H ( jω ) =
1
(2.51)
1 + ω 2 R 2C 2
und a (ω ) dB = −20log10
1 1+ω 2 R 2C 2
dB =10log10 (1+ω 2 R 2C 2 ) dB
(2.52)
Zur graphischen Darstellung der Frequenzgänge ist die Frequenznormierung : = ZRC günstig. Sie hängt nur noch von der normierten Kreisfrequenz : ab und ist unabhängig von der konkreten Wahl der Bauelemente. Da der Betragsfrequenzgang eines RLC-Netzwerkes stets eine gerade Funktion ist, genügt die Darstellung für positive Frequenzen. Der Betragsfrequenzgang des RC-Gliedes in Bild 2-15 besitzt bei : = 0 sein Maximum mit dem Wert eins und fällt mit wachsender Frequenz monoton. D. h., eine Gleichspannung am Eingang wird ohne Änderung übertragen, während sinusförmige Eingangsspannungen mit wachsender Frequenz immer schwächer am Systemausgang, an der Kapazität, erscheinen. Im Grenzfall : gegen unendlich wirkt die Kapazität wie ein Kurzschluss und die Ausgangsspannung geht gegen null. 1 |H( j:)|
1
a(Ω ) dB
3dB-Punkt
2
50 40 0
0,5
20 10
0 1/16 1/4
1
4
16
64 256
:
3dB-Punkt
0 1/16 1/4
1
6dB Anstieg /Oktave 4
16
64 256
:
Bild 2-15 Frequenzgang des Betrags (links) und der Dämpfung (rechts) des RC-Tiefpasses über der normierten Kreisfrequenz : = ZRC
Der Frequenzgang der Dämpfung beginnt für : = 0 (Gleichspannung) mit dem Wert null und wächst monoton gegen unendlich (Kurzschluss). Für größere Frequenzen nimmt die Dämpfung bei jeder Frequenzverdoppelung um 6 dB zu. Dies entspricht in Bild 2-15 einem linearen Dämpfungsverlauf mit einem Anstieg von 6 dB pro Oktave. Anmerkung: Eine systematische Methode zur näherungsweisen Darstellung des Frequenzganges der Dämpfung durch Geradenstücke liefert das Bode-Diagramm, z. B. [Sch88][Wer05b].
sUppLex
32
2 Signale und Systeme
Der Dämpfungsfrequenzgang zeigt insgesamt ein für einen Tiefpass charakteristisches Verhalten. Sinusförmige Signale (Frequenzkomponenten) bei tiefen Frequenzen passieren nahezu ungeschwächt das System, während solche bei hohen Frequenzen so stark gedämpft (heraus gefiltert) werden, dass sie am Systemausgang keine Rolle mehr spielen. Man spricht in diesem Zusammenhang auch von einem (elektrischen) Filter oder auch einer Siebschaltung. Zur groben Abschätzung des selektiven Verhaltens elektrischer Filter wird oft die 3dB-Grenzfrequenz angegeben a (ω3dB ) dB = −20log10
H ( jω3dB ) dB = 3 dB H max
(2.53)
mit dem Maximalwert des Betragsfrequenzganges H max
max H ( jZ ) Z
(2.54)
Sie gibt die Frequenz an, bei der die Leistung eines sinusförmigen Signals nur noch zur Hälfte übertragen wird. Die Amplitude wird in diesem Fall vom System mit dem Faktor 1/2 bewertet.
H ( jω3dB ) =
1 H max 2
(2.55)
Im Beispiel des RC-Gliedes liegt der 3dB-Punkt bei der normierte Kreisfrequenz : = 1. Die 3dB-Grenzfrequenz ergibt sich demnach zu f 3dB =
1 1 = 2π ⋅ RC 2π ⋅ τ
(2.56)
Die 3dB-Grenzfrequenz und die Zeitkonstante stehen in reziprokem Zusammenhang. Wie in Abschnitt 2.11 gezeigt wird, ist der reziproke Zusammenhang zwischen der Zeitdauer eines Vorgangs und seiner Bandbreite von grundlegender Natur.
2.7.3
Tiefpass, Bandpass, Hochpass und Bandsperre
Ein wichtiger Anwendungsbereich elektrischer Filter ist die Frequenzmultiplextechnik, wie in Abschnitt 4 noch näher erläutert wird. Es werden verschiedene Signale in jeweils nicht überlappenden Frequenzbändern (Kanälen) gleichzeitig übertragen. Ein Beispiel hierfür ist der Kabelanschluss für Rundfunk und Fernsehen mit seinen verschiedenen Programmen. Um eine hohe Auslastung der Übertragungsmedien zu erreichen, werden die Frequenzbänder möglichst nahe aneinander gelegt, so dass zu ihrer Trennung im Empfänger besondere Filter eingesetzt werden müssen. Diese werden mit speziellen mathematischen Methoden, Standardapproximationsverfahren genannt, entworfen. Die Butterworth 1 -, Chebyshev 2 - und Cauer 3-Filter sind typische Beispiele. Ihre Behandlung ist Gegenstand der Netzwerk und Filtersynthese [Unb93]. Wir
1 S. Butteworth: britischer Ingenieur (1930) 2 Pafnuti Lwowitsch Tschebyschow (engl. Chebyshev): *1821/+1894, russischer Mathematiker, bedeutende Beiträge zur Approximations-, Integrations- und Wahrscheinlichkeitstheorie. 3 Wilhelm Cauer: *1900/+1945, deut. Physiker, bedeutende Arbeiten zur theoretischen Nachrichtentechnik.
sUppLex
2.7 Übertragungsfunktion und Frequenzgang
33
beschränken uns hier darauf, die den Entwürfen zugrunde gelegten charakteristischen Frequenzgänge und die Frage nach der prinzipiellen Realisierbarkeit anzusprechen, s. a. Bild 2-16. Anmerkungen: Zum Filterentwurf stehen heute auf Rechnern leistungsfähige Programme zur Verfügung. Butterworth- und Cauerfilter werden auch Potenz-Filter bzw. elliptische Filter genannt.
Tiefpass (TP)
Hochpass (HP)
Bandpass (BP)
Bandsperre (BS)
Bild 2-16 Schaltsymbole für elektrische Filter
Der ideale Tiefpass in Bild 2-17 verkörpert die Wunschvorstellung eines Tiefpasses. Sein Betragsfrequenzgang entspricht einem Rechteckimpuls und sein Phasenfrequenzgang ist linear. Bis zur Grenzkreisfrequenz ZD (Durchlass-Kreisfrequenz) passieren alle sinusförmigen Signale bzw. Frequenzkomponenten das System unverändert bis auf eine in der Frequenz linearen Phasenverschiebung. Alle Signale bzw. Frequenzkomponenten bei höheren Frequenzen werden gesperrt. Der lineare Phasenverlauf folgt aus der Forderung der verzerrungsfreien Übertragung in Abschnitt 2.9. Betrag |HTP( jZ)|
Z -ZD
0
ZD
Phase bTP(Z) = –Zt0
Bild 2-17 Frequenzgang des Betrages und der Phase des idealen Tiefpasses
Die Aufgabe Filterentwurf besteht darin, ein RLC-Netzwerk so anzugeben, dass die zugehörigen Frequenzgänge des Betrages und der Phase denen in Bild 2-17 entsprechen. Aus der Polynomdarstellung der Übertragungsfunktion (2.42) folgt jedoch, dass ein abschnittsweise konstanter Betragsfrequenzgang nicht realisierbar ist. Der Frequenzgang des idealen Tiefpasses kann durch ein reales System nur angenähert werden. Eine sinnvolle Entwurfsaufgabe muss deshalb anders gestellt werden. Für den Filterentwurf ist festzulegen, welche Abweichungen in der konkreten Anwendung tolerierbar sind. Dies geschieht typischerweise mit Hilfe des Toleranzschemas in Bild 2-18. Im Toleranzschema wird die Frequenz bis zu der die Signalanteile durchgelassen werden sollen, die Durchlassfrequenz, und die Frequenz ab der sie gesperrt werden sollen, die Sperrfrequenz, festgelegt. Dazwischen liegt der Übergangsbereich für den keine weiteren Vorgaben als eventuell ein monotoner Übergang gemacht werden. Wichtig sind auch die zulässigen Abweichungen vom idealen Betragsfrequenzgang, die Durchlasstoleranz und die Sperrtoleranz. Der Realisierungsaufwand eines elektrischen Filters steigt, je kleiner die Durchlass- und die Sperrtoleranz und je schmaler der Übergangsbereich vorgegeben werden. Anmerkungen: (i) In der Netzwerk- und Filtersynthese wird der Filterentwurf häufig nur bezüglich des Betragsfrequenzganges vorgenommen und vorausgesetzt, dass das resultierende Filter einen tolerierbaren
sUppLex
34
2 Signale und Systeme
Phasenverlauf aufweist. (ii) In der Frequenzmultiplextechnik entspricht der Übergangsbereich den Frequenzabständen zweier benachbarter Signale. Je schmaler der Übergangsbereich, desto mehr Signale (Kanäle) lassen sich gleichzeitig übertragen.
Durchlassbereich
GD Übergangsbereich
|HTP( jZ)| 1
0
ZD
Sperrbereich
GS
Z
ZS
Bild 2-18 Toleranzschema des Betragsfrequenzganges zum Tiefpassentwurf (zulässiger Bereich grau hinterlegt) mit der Durchlasskreisfrequenz ZD, der Durchlasstoleranz GD, der Sperrkreisfrequenz ZS und der Sperrtoleranz GS
Entsprechend definiert man in Bild 2-19 den Hochpass und den Bandpass. Durch geeignete Kombination von Tief- und Hochpass ergeben sich Bandsperren, die ein bestimmtes Frequenzband ausblenden. |HHP( jZ)| 1
0
|HBP( jZ)|
Hochpass
GD
Bandpass
GD 1
GS
GS2
G S1 ZS ZD
Z
0
ZS1 ZD
ZD ZS2
Z
Bild 2-19 Toleranzschemata der Betragsfrequenzgänge für einen Hochpass- und einen Bandpass (zulässiger Bereich grau hinterlegt)
Abschließend werden in Bild 2-20 die Betragsfrequenzgänge einfacher Beispiele für Butterworth-, Chebyshev- und Cauer-Tiefpässe vorgestellt. Um einen aussagekräftigen Vergleich zu ermöglichen, sind die Durchlass- und Sperrtoleranzen und die Filterordnung (Grad des Nennerpolynoms der Übertragungsfunktion (2.42)) für die drei Beispiele identisch. Als Filterordnung wurde 5 vorgegeben. Die Frequenzachsen sind mit der Durchlasskreisfrequenz normiert. Der augenfälligste Unterschied zeigt sich in den Breiten der Übergangsbereiche. Betrachtet man zunächst den Butterworth-Tiefpass, so erkennt man einen flachen Verlauf aus H(0) = 1 heraus. Diesem Verhalten liegt ein mathematischer Zusammenhang zugrunde. ButterworthTiefpässe werden deshalb auch maximal flach genannt. Der Betragsfrequenzgang biegt schließlich nach unten ab, berührt (idealer weise) die untere Toleranzgrenze bei der Durchlassfrequenz und fällt weiter monoton. Dabei erreicht er (idealer weise) die Sperrtoleranz bei der Sperrfrequenz. Dieses (Wunsch-)Verhalten bildet die Grundlage zur Dimensionierung der Butterworth-Tiefpässe [Wer05b]. Der Butterworth-Tiefpass mit kleinster Filterordnung ist der RC-Tiefpass.
sUppLex
2.7 Übertragungsfunktion und Frequenzgang Im Gegensatz dazu schöpft der Chebyshev-Tiefpass die zulässige Toleranz im Durchlassbereich voll aus. Der Betragsfrequenzgang alterniert zwischen den Toleranzgrenzen. Dabei ist die Zahl der Extrema im Durchlassbereich stets gleich der Filterordnung. Das Ausschöpfen der Durchlasstoleranz wird durch einen im Vergleich zum Butterworth-Tiefpass schmaleren Übergangsbereich belohnt. Alternativ zu Bild 2-20 (mitte) kann auch ein Ausschöpfen des Toleranzintervalls im Sperrbereich gewählt werden. Zur Unterscheidung spricht man dann von einem Chebyshev-II-Tiefpass oder inversem Chebyshev-Verhalten. Im Falle des Cauer-Tiefpasses werden die Toleranzen im Durchlass- und im Sperrbereich voll genutzt. Man erhält den schmalsten Übergangsbereich mit der steilsten Filterflanke. In Bild 2-21 sind die Schaltungen der Tiefpässe angegeben. Butterworth- und Chebyshev-Tiefpässe 5. Ordnung erfordern je 5 Bauelemente und unterscheiden sich nur in deren Dimensionierungen. Für den entsprechenden Cauer-Tiefpass sind 7 Bauelemente erforderlich. Für eine weitergehende Diskussion und insbesondere für eine Darstellung der Phasenfrequenzgänge wird auf [Sch88] verwiesen.
35
|H( jZ)|
0,133
Butterworth
1 0,1 0 0
|H( jZ)|
Z /ZD
1 0,133
Chebyshev
1 0,1 0 0
|H( jZ)|
1
Z /ZD
0,133
Cauer
1 0,1 0 0
1
Z /ZD
Anmerkung: Dem Cauer-Filterentwurf liegen elliptische Polynome zugrunde, weshalb derartige Filter auch ellipti- Bild 2-20 Standardapproximationen für Tiefpässe (Toleranzbereiche sche Tiefpässe genannt werden. In [Sch88] findet man grau unterlegt) auch zwei Beispiele für Tiefpässe, die nach Vorschriften bzgl. der Phase, d. h. im Durchlassbereich möglichst konstante Gruppenlaufzeit, entworfen wurden, einen BesselTiefpass und ein Chebyshev-Laufzeitfilter.
Butterworth- bzw. ChebyshevTiefpass 5. Ordnung
Cauer-Tiefpass 5. Ordnung
Bild 2-21 LC-Schaltungen für Tiefpässe
sUppLex
36
2.7.4
2 Signale und Systeme
Rechnen mit komplexer Fourier-Reihe und Frequenzgang
Alternativ zur trigonometrischen Form der Fourier-Reihe kann mit der komplexen Form gerechnet werden. Im Falle der komplexen Fourier-Reihe wird jede Frequenzkomponente mit der Übertragungsfunktion gewichtet, s. Bild 2-22. Eingang
Ausgang
x(t)
RLC-Netzwerk
y(t)
periodisch
Frequenzgang H( jZ)
periodisch
+∞
x(t ) =
∑
+∞
∑
ck ⋅ e jk ω0t
k =−∞
H ( jk ω 0 ) ⋅ ck ⋅ e jk ω0t = y (t )
k =−∞
Bild 2-22 Berechnung des Ausgangssignals von RLC-Netzwerken bei periodischem Eingangssignal mit der Fourier-Reihe
Dabei wird ohne Unterschied formal mit positiven und negativen Frequenzen gerechnet. Das Signal am Ausgang bestimmt sich aus der Eingangs-Ausgangsgleichung für Fourier-Reihen. +∞
y (t ) =
∑
H ( jk ω0 ) ⋅ ck e jk ω0t
(2.57)
k =−∞
Anders als bei der komplexen Wechselstromrechnung erübrigt sich hier die Realteilbildung. Diese ist schon in der Symmetrie der Fourier-Koeffizienten (2.18) und des Frequenzganges der RLC-Netzwerke enthalten. Für reellwertige Systeme, wie den RLC-Netzwerken, gilt für den konjugiert komplexen Frequenzgang H * ( jω ) = H (− jω )
(2.58)
Letzteres folgt aus (2.42) nach Einsetzen von s = jZ, da Zähler- und Nennerkoeffizienten reell sind. Der Betragsfrequenzgang ist demzufolge eine gerade
H ( jω ) = H (− jω)
(2.59)
und der Phasenfrequenzgang eine ungerade Funktion. b(ω ) = −b(−ω )
(2.60)
Fasst man in (2.57) die Terme zu k und -k, also für positive und negative Frequenzen, paarweise zusammen +∞
y (t ) = H (0) ⋅ c0 +
∑( H (− jk ω0 ) ⋅ c−k e− jkω t + H ( jk ω0 ) ⋅ ck e jkω t ) 0
0
(2.61)
k=1
sUppLex
2.7 Übertragungsfunktion und Frequenzgang
37
und benützt die Symmetrieeigenschaften der Fourier-Koeffizienten (2.18) und der Übertragungsfunktion reellwertiger Systeme (2.58), so treffen jeweils zwei konjugiert komplexe Summanden aufeinander. +∞
y (t ) = H (0) ⋅ c0 +
∑( H * ( jk ω0 ) ⋅ ck* ⋅ e− jkω t + H ( jk ω0 ) ⋅ ck ⋅ e jkω t ) 0
(2.62)
0
k =1
Es resultiert jeweils das Zweifache des Realteils, wobei H(0) und c0 für reelle Systeme bzw. reelle Signale stets reell sind. +∞
y (t ) = H (0) ⋅ c0 + 2
∑ Re{H ( jk ω0 ) ck e jkω t }
(2.63)
0
k =1
Beispiel Periodischer Rechteckimpulszug am RC-Tiefpass
Im Beispiel des periodischen Rechteckimpulszuges bestimmt man die komplexen FourierKoeffizienten mit der Umrechnungsformeln (2.19) aus (2.21) und (2.22). c0 = A
T T0
und ck = A
⎛ω T ⎞ T ⋅ si⎜ 0 k ⎟ T0 ⎝ 2 ⎠
k = 1, 2,3,...
(2.64)
1 1 = ⋅ e− j arctan ( k ω0 RC ) 2 1 + jk ω0 RC 1 + ( k ω 0 RC )
(2.65)
für
Für den Frequenzgang des RC-Tiefpasses gilt H ( jk ω 0 )=
Im Beispiel erhält man aus (2.63) nach kurzer Zwischenrechnung wieder (2.35).
2.7.5
RC-Hochpass
Das RC-Glied in Bild 2-23 stellt einen Hochpass dar, wie man anhand von physikalischen Überlegungen schnell nachprüft. Für niedrige Frequenzen (im Grenzfall für eine Gleichspannung) wirkt die Kapazität wie ein Leerlauf. Die Spannung am Ausgang ist somit näherungsweise null. Für hohe Frequenzen kann die Kapazität wie ein Kurzschluss angesehen werden. Die Eingangsspannung fällt fast vollständig an R ab, und die Ausgangsspannung ist näherungsweise gleich der Eingangsspannung.
Eingang
Ausgang C
ue(t)
R
ua(t)
Bild 2-23 RC-Hochpass
Der Frequenzgang des RC-Hochpasses bestimmt sich aus der erweiterten Spannungsteilerregel. H ( jω ) =
jω RC R = R + 1/ jωC 1 + jω RC
(2.66)
sUppLex
38
2 Signale und Systeme
Für die weitere Rechnung ist es günstig, den Frequenzgang nach Betrag und Phase darzustellen. H ( jω ) =
ω RC 1 + (ω RC )
(2.67)
2
und b(ω ) = arctan
1 ω RC
(2.68)
Die Hochpasseigenschaft erschließt sich schnell aus (2.67), wenn man die Grenzfälle Z o 0 und Z o f betrachtet und berücksichtigt, dass der Betragsfrequenzgang monoton ist. Im ersten Fall ist H(0) = 0 und im zweiten Fall gilt H(f) = 1. Beispiel Periodischer Rechteckimpulszug am RC-Hochpass und RC-Tiefpass
Wir verwenden wieder den periodischen Rechteckimpulszug aus dem vorhergehenden Beispiel, s. Bild 2-11. Im Falle der komplexen Fourier-Reihe wird jede Frequenzkomponente mit dem Frequenzgang gewichtet, wobei zu beachten ist, dass hier der Gleichanteil nicht übertragen wird. Ganz entsprechend zu (2.63) berechnet sich das Signal am Ausgang des RCHochpasses. y (t )
2 AT T0
f
§ § 1 ·· kZ0 RC § kZ0T · cos ¨ kZ 0t arctan ¨ ¸ ¸¸ ¸ ¨ 2 2 ¹ 1 kZ RC © kZ 0 RC ¹ ¹ © 0
¦ si ©¨
k 1
(2.69)
Abschließend werden graphisch Resultate für den RC-Tiefpass und den RC-Hochpass verglichen. Zunächst ist das Eingangssignal in Bild 2-24 dargestellt. Zu sehen sind links zwei Perioden des Eingangssignals. Für die numerische Berechnung wurde die Fourier-Reihe des periodischen Rechteckimpulszuges bei k = 199 abgebrochen, weshalb das gibbsche Phänomen deutlich zu erkennen ist. Rechts sind der Gleichanteil und die ersten sieben Harmonischen abgebildet. Man beachte auch, dass wegen des Tastverhältnisses T/T0 = 1/2 alle Harmonischen geradzahliger Ordnung verschwinden. 0,8
ue (t ) u0
1
ue,k (t )
1
u0
3
5
k=0
0 7
0 -1
0
t/T0 1
-0,8 -0,5
0
t/T0 0,5
Bild 2-24 Eingangssignal: abgebrochene Fourier-Reihe des periodischen Rechteckimpulszuges mit dem Tastverhältnis T/T0 = 0,5 (links) und der Gleichanteil und die ersten sieben Harmonischen (rechts)
sUppLex
2.7 Übertragungsfunktion und Frequenzgang
39
Das Ausgangssignal des RC-Tiefpasses ist in Bild 2-25 zu sehen. Es ergibt sich der bekannte exponentielle Verlauf der Spannung an der Kapazität während des Lade- und Entladevorgangs. Mit der gewählten Zeitkonstanten W = T0/(2S) ist die 3dB-Grenzfrequenz des Tiefpasses gleich der Frequenz der ersten Harmonischen. Im rechten Teilbild werden wieder die ersten sieben Glieder der Fourier-Reihe dargestellt. Der Gleichanteil wird unverändert übertragen. Man erkennt deutlich wie unterschiedlich die Harmonischen durch den Tiefpass gedämpft und in ihren Phasen verschoben werden. Die Amplituden der Harmonischen werden mit wachsendem k stärker gedämpft. Dadurch wird das Signal insgesamt geglättet, da die Signalkomponenten, die die schnellen Änderungen bewirken, unterdrückt werden. Im Ausgangssignal treten keine Sprünge mehr auf. Die glättende Wirkung ist typisch für Tiefpässe. 1
0,5
uaTP (t )
k=0
uaTP,k (t )
u0
1
u0
5
3
0 7
-0,5 -0,5
0 -1
0
t/T0
1
0
t/T0 0,5
Bild 2-25 Ausgangssignal des RC-Tiefpasses mit der Zeitkonstante W = T0/(2S) (links) und der Gleichanteil und die ersten sieben Harmonischen (rechts)
Das Ausgangssignal des RC-Hochpasses wird in Bild 2-26 gezeigt. Mit der gewählten Zeitkonstanten W = T0/(2S) ist die 3dB-Grenzfrequenz des Hochpasses gleich der Frequenz der ersten Harmonischen. Im rechten Teilbild werden wieder die ersten sieben Glieder der Fourier-Reihe dargestellt. Insbesondere wird der Gleichanteil vollständig unterdrückt. Man erkennt deutlich die unterschiedlichen Dämpfungen und Phasenverschiebungen der Harmonischen durch den Hochpass. Die Amplituden der 3., 5. und 7. Harmonischen werden durch den Hochpass weniger stark gedämpft als beim Tiefpass in Bild 2-25. Dies gilt erst recht für die Spektralkomponenten bei höheren Frequenzen. Insgesamt wird durch den Hochpass der Einfluss der Harmonischen bei höheren Frequenzen auf den Signalverlauf stärker. Signaländerungen werden relativ betont, wie sich deutlich im linken Teilbild zeigt. Da beim RC-Hochpass am Ausgang der Spannungsabfall am Widerstand abgegriffen wird, ist das Ausgangssignal proportional zum bekannten Verlauf des Lade- bzw. Entladestromes der Kapazität und wechselt insbesondere das Vorzeichen. Man beachte auch hier wieder das gibbsche Phänomen an den Sprungstellen des Signals aufgrund der numerischen Berechnung mit der abgebrochenen Fourier-Reihe. u aHP (t ) u0
0,5 uaHP , k (t )
1
u0
0
k=1 3
75 0
-1 -1
0
t/T0 1
-0,5 -0,5
0
t/T0
Bild 2-26 Ausgangssignal des RC-Hochpasses mit Zeitkonstante W = T0/(2S) (links) und die ersten sieben Harmonischen (rechts)
0,5
sUppLex
40
2.8
2 Signale und Systeme
Fourier-Transformation
In den vorhergehenden Abschnitten wurde gezeigt, wie die Fourier-Reihe vorteilhaft benutzt wird, die Reaktion von RLC-Netzwerken auf periodische Signale zu bestimmen. Periodische Signale spielen zwar in der Nachrichtentechnik eine wichtige Rolle, beinhalten jedoch als deterministische Signale keine Information. Deshalb wird im Folgenden die Analyse auf aperiodische Signale erweitert. Hierzu betrachte man zunächst nochmals den periodischen Rechteckimpulszug und sein Spektrum in Bild 2-5 bzw. Bild 2-14. Letzteres zeigt das für periodische Signale typische Linienspektrum mit dem Frequenzabstand f0 = 1/T0. Man stelle sich nun vor, die Periode T0 würde immer größer, so dass die Periodizität immer weniger ins Gewicht fällt. Da für die Abstände der Spektrallinien f0 = 1/T0 gilt, rücken die Spektrallinien immer dichter aneinander. Für T0 o f ergibt sich mit f0 o 0 ein kontinuierliches Spektrum für einen einzelnen Rechteckimpuls. Mathematisch gesehen, findet der Übergang von der Fourier-Reihe auf das Fourier-Integral statt [Wer05b]. Um den Rahmen einer Einführung nicht zu überschreiten, wird hier auf die Herleitung verzichtet und nur die wichtigsten Zusammenhänge werden vorgestellt. Durch die Fourier-Transformation werden zwei Funktionen miteinander verbunden. Man spricht von einem Fourier-Paar x(t ) ↔ X ( jω )
(2.70)
mit der Fourier-Transformierten, auch kurz Spektrum genannt, X ( jω ) =
+∞
∫ x(t ) ⋅ e− jωt dt
(2.71)
−∞
und der inversen Fourier-Transformierten, hier auch Zeitfunktion genannt. 1 x(t ) = 2π
+∞
∫ X ( jω) ⋅ e jωt d ω
(2.72)
−∞
Anmerkungen: (i) Eine Funktion, die in jedem endlichen Teilintervall die Dirichlet-Bedingungen erfüllt und die absolut integrierbar ist, besitzt eine Fourier-Transformierte [BSMM99]. Eine ausführliche Antwort auf die Frage nach der Existenz und den Eigenschaften der Fourier-Transformation geht über den hier gesetzten Rahmen hinaus. (ii) Ist x(t) eine Funktion der elektrischen Spannung, d. h. [x(t)] = V, so hat die Fourier-Transformierte die Dimension [X(jZ)] = Vs = V/Hz. In der Systemtheorie wird für gewöhnlich mit dimensionslosen Größen gerechnet, indem alle Größen auf die üblichen Einheiten, wie beispielsweise V, A, :, W, m, s, usw., normiert werden. (iii) In der Literatur wird die Fourier-Transformation manchmal in leicht modifizierten Schreibweisen angegeben. Die hier gewählte Form betont den Zusammenhang mit der Laplace-Transformation und ist in der deutsch- und englischsprachigen Literatur weit verbreitet. (iv) Die Fourier-Reihe kann als Sonderfall der Fourier-Transformation aufgefasst werden.
Anhand des Rechteckimpulses lassen sich Ähnlichkeiten und Unterschiede der Fourier-Transformation und der Fourier-Reihe gut verdeutlichen.
sUppLex
2.8 Fourier-Transformation
41
Beispiel Fourier-Transformation des Rechteckimpulses
Die Fourier-Transformation des Rechteckimpulses xT(t) mit Amplitude eins in Bild 2-5 liefert +∞
∫ xT
(t ) ⋅ e− jωt
+T / 2
dt =
−∞
∫
e− jωt dt =
−T / 2
1 ⋅⎡ ⎣ e− jωT / 2 − e jωT / 2 ⎤ ⎦ − jω
(2.73)
Der Ausdruck in der eckigen Klammer führt auf die Sinusfunktion und kann mit der siFunktion (2.23) kompakter geschrieben werden. ⎛ T⎞ 1 −2 j sin (ωT / 2) ⋅⎡ = T ⋅ si⎜ ω ⎟ ⎣ e− jωT / 2 − e jωT / 2 ⎤ ⎦= ⎝ 2⎠
− jω − jω
(2.74)
−2 j sin(ωT / 2)
Der Rechteckimpuls und die si-Funktion bilden ein Fourier-Paar. ⎛ T⎞ xT (t ) ↔ T si⎜ ω ⎟ ⎝ 2⎠
(2.75)
Die inverse Fourier-Transformation übernimmt die Rolle der Fourier-Reihe (2.25). xT (t ) =
1 2π
+∞
⎛ T⎞
∫ T si⎜⎝ω 2 ⎟⎠⋅ e jωt d ω
(2.76)
−∞
Vergleicht man das Ergebnis mit der Fourier-Reihe des periodischen Rechteckimpulszuges, erkennt man einen ähnlichen Verlauf. Die Impulsdauer T nimmt jetzt die Stelle des Tastverhältnisses T/T0 ein, und statt der diskreten Kreisfrequenzen kZ0 tritt die kontinuierliche Kreisfrequenz Z auf. Abgesehen von einem Skalierungsfaktor interpoliert die Fourier-Transformierte des Rechteckimpulses in Bild 2-27 das Linienspektrum der Fourier-Koeffizienten in Bild 2-14. Damit lässt sich der Grenzübergang vom periodischen zum aperiodischen Fall anschaulich deuten. Mit wachsender Periode T0 nimmt der Abstand der Spektrallinien, die Frequenzschrittweite, f0 = 1/T0 immer mehr ab. Im Grenzfall T0 o f entsteht schließlich ein Frequenzkontinuum. Man beachte auch den Einfluss der Impulsbreite T auf das Spektrum. Die erste positive Nullstelle des Spektrums liegt bei f0 = 1/T. Anmerkung: Setzt man hier das Tastverhältnis T/T0 = 0,2 ein, so resultiert f0 wie in Bild 2-14. ________________________________________________________________________________ Ende des Beispiels
Ganz entsprechend zur Fourier-Reihe erhält man die parsevalsche Formel für ein Fourier-Paar [BSMM99] +∞
∫
−∞
2
x(t ) dt =
1 2π
+∞
∫
2
X ( jω ) d ω
(2.77)
−∞
Die parsevalsche Formel gibt an, wie die Signalenergie auch im Frequenzbereich bestimmt werden kann. Insbesondere kann das Betragsquadrat des Spektrums als Energiebelegung auf der Frequenzachse angesehen werden. Man spricht von der Energiedichte des Signals.
sUppLex
42
2 Signale und Systeme 1 xT(t)
⎛ ωT ⎞ X T ( jω ) = si⎜ ⎟ ⎝ 2 ⎠ T
1 T
0,4
0 -0,2 -10
ZT / (2S) -5
0
5
10
Bild 2-27 Spektrum des Rechteckimpulses xT (t)
Integriert man die Energiedichte |X(jZ)|2 über ein bestimmtes Frequenzintervall, so erhält man die Gesamtenergie der darin enthaltenen Frequenzkomponenten. Ganz entsprechendes gilt für Leistungssignale, wobei man dann vom Leistungsdichtespektrum spricht, also der Verteilung der mittleren Leistung auf die Frequenzkomponenten. Die Fourier-Transformation ist in der Nachrichtentechnik und der Steuerungs- und Regelungstechnik von großer Bedeutung. Meist werden wenige Standardsignale benutzt, deren FourierTransformierten bekannt und in Tabellen zu finden sind, z. B. in [BSMM99] Abschnitt 21.12, oder in den einschlägigen Lehrbüchern der Systemtheorie. Die Bedeutung der Fourier-Transformation in der Nachrichtentechnik gründet sich auf die Tatsache, dass viele grundlegenden Beziehungen und Konzepte mit ihrer Hilfe hergeleitet und einfach formuliert werden. Damit wird es möglich, Zusammenhänge zu verstehen und qualitative Aussagen ohne lange Rechnung zu treffen. In den beiden folgenden Abschnitten werden – ohne mathematische Herleitungen – einige dieser wichtigen Zusammenhänge vorgestellt. Anmerkungen: (i) In manchen Tabellenwerken wird die Fourier-Transformation in die Kosinus- und Sinustransformation zerlegt. Mit der Euler-Formel e jx = cos x + j sin x lässt sich die komplexe Form bestimmen. (ii) In der modernen Nachrichtentechnik (Messtechnik, Mustererkennung, Spracherkennung, usw.) ist die besonders für Digitalrechner geeignete numerische Fourier-Transformation, die schnelle FourierTransformation (Fast Fourier Transform, FFT) nicht mehr wegzudenken [Wer05b][Wer06b].
2.9
Filterung
In Abschnitt 2.5 wurde die Methode der Ersatzspannungquellen mit der Fourier-Reihe zur Berechnung des Ausgangssignals von RLC-Netzwerken vorgestellt. Mit der Fourier-Transformation kann die Methode direkt auf aperiodische Signale erweitert werden. Das allgemeine Verfahren ist in Bild 2-28 zusammengestellt. Zunächst wird das Spektrum des Eingangssignals durch Fourier-Transformation bestimmt. Dann wird es mit dem Frequenzgang multipliziert. Man erhält das Spektrum des Ausgangssignals aus der Eingangs-Ausgangsgleichung im Frequenzbereich. Y ( j ω ) = H ( jω ) ⋅ X ( jω )
(2.78)
Durch inverse Fourier-Transformation resultiert das gesuchte Ausgangssignal im Zeitbereich.
sUppLex
2.9 Filterung
43
Der Vorteil der Methode ist offensichtlich: Der Einfluss des Systems wird durch einfache Multiplikation im Frequenzbereich berücksichtigt. Die Berechnung der Fourier-Transformation und ihrer Inversen kann jedoch im Einzelfall schwierig sein. In der Regel greift man auf Korrespondenztafeln für Fourier-Paare zurück. Auch eine numerische Lösung kann für eine konkrete Aufgabe hinreichend sein. Da in den Anwendungen der Frequenzgang meist ein selektives Verhalten aufweist, spricht man von einer (linearen) Filterung des (Eingangs-) Signals.
Eingang
Ausgang
RLC-
x(t)
y(t)
Netzwerk
F
Frequenzgang
X( jZ)
H( jZ)
F-1 Y( jZ) = H( jZ)X( jZ)
Bild 2-28 Berechnung des Ausgangssignals von RLC-Netzwerken im Frequenzbereich
Entsprechendes gilt auch für die im Zusammenhang mit stochastischen Signalen besonders wichtige Verteilung der mittleren Leistung auf die Frequenzkomponenten, dem Leistungsdichtespektrum. Liegt am Filtereingang ein Signal mit einem bestimmten Leistungsdichtespektrum an, so werden die Amplituden der Frequenzkomponenten durch das Filter jeweils mit |H( jZ)| gewichtet. In das Leistungsdichtespektrum am Ausgang geht der Betragsfrequenzgang deshalb 2
quadratisch ein. Man bezeichnet demzufolge die Funktion H ( jω ) auch als Leistungsübertragungsfunktion. Beispiel Preemphase und Deemphase für den UKW-Rundfunk
Im Beispiel betrachten wir eine praktische Anwendung einfacher elektrischer Schaltungen als Filter im UKW-Rundfunk. Der technische Hintergrund wird in Abschnitt 4.3 noch genauer erläutert. Hier ist wichtig, dass im UKW-Rundfunk die Frequenzmodulation (FM) eingesetzt wird. Bei der FM-Übertragung steigt die Leistung des zusätzlichen Rauschens mit wachsender Frequenz an. Die Frequenzanteile des Nachrichtensignals werden mit zunehmender Frequenz stärker gestört. Hier setzt die Kombination aus Preemphase- und Deemphase-System an, s. Bild 2-29. Die Preemphase hat die Aufgabe, die höherfrequenten Spektralanteile des Nachrichtensignals vor der FM-Modulation leistungsmäßig anzuheben. Die Deemphase senkt sie nach der FM-Demodulation wieder so ab, dass beide Systeme sich in ihren Wirkungen aufheben. Da das bei der FM-Übertragung hinzukommende Rauschsignal durch die Deemphaseschaltung nur gedämpft wird, verringert sich die Störung. Modellrechnungen für den UKW-Rundfunk im Mono-Betrieb zeigen, dass die Anwendung der hier vorgestellten Preemphase- und Deemphase-Systeme auf eine Absenkung der Rauschleistung auf etwa 1/6 führt. Anmerkung: Die Preemphase und Deemphase wird auch bei der Magnetbandaufzeichung und in der Fernsehtechnik eingesetzt. Dort werden jedoch aufwändigere Schaltungen als die hier gezeigten verwendet. Rauschstörung zu übertragendes Signal
Preemphase
HP( jZ)
FMÜbertragung
Deemphase
HD( jZ)
FM-demoduliertes Signal nach Deemphase
Bild 2-29 Anwendung der Preemphase und Deemphase im UKW-Rundfunk mit FM-Übertragung
sUppLex
44
2 Signale und Systeme
Im UKW-Rundfunk werden relativ einfache elektrische Preemphase- und Deemphase-Schaltungen eingesetzt. Bild 2-30 zeigt den verwendeten Hochpass und den Tiefpass. Deren Frequenzgänge werden mit den aus der komplexen Wechselstromrechung bekannten Regeln bestimmt. H P ( jω ) =
R1 (1 + jω R2C ) R1 + R2 + jω R1R2C
R2
und H D ( jω ) =
1 1 + jω R2C
(2.79)
R2 R1
C
C
Preemphase
Deemphase
Bild 2-30 Preemphase- und Deemphase-Schaltungen für den UKW-Rundfunk
In der Rundfunktechnik ist es üblich, die Frequenzgänge in normierter Form anzugeben. Mit r=
R1 R1 + R2
; Ω = ω R2C
H P ( jΩ ) = r ⋅
1 + jΩ 1 + jrΩ
und H D ( jΩ ) =
(2.80)
erhält man 1 1 + jΩ
(2.81)
Es werden die Parameter r=
1 16
, Ω 3dB = 1 und R2C = 50s
(2.82)
verwendet. Daraus resultiert mit (2.80) die 3dB-Grenzfrequenz des Deemphase-Tiefpasses f 3dB =
1 = 3,18 kHz 2π R2C
(2.83)
Das ist ungefähr ein Fünftel der Grenzfrequenz des UKW-Audiosignals von 15 kHz. Die zugehörigen Frequenzgänge sind in Bild 2-31 in Form von Bode-Diagrammen skizziert. Dabei werden die Beträge der Frequenzgänge stückweise durch Geraden angenähert, s. a. Bild 2-15.
sUppLex
2.10 Verzerrungsfreie Übertragung
45
Audioband
20lg
H P ( jΩ ) r
24 [dB]
12 0
1/2
1
# 3,18 kHz 1
20lg H D ( jΩ )
4
2
8
16
8
16
:
# 15 kHz 2
[dB] 0
4
:
-12 -24
Bild 2-31 Betragsfrequenzgänge (Bode-Diagramme) für die Preemphase- (P) und Deemphase- (D) Schaltungen für den UKW-Rundfunk
2.10
Verzerrungsfreie Übertragung
In der Nachrichtenübertragungstechnik soll das informationstragende Signal möglichst unverzerrt übertragen werden. Die Übertragung ist dann verzerrungsfrei, wenn das Ausgangssignal bis auf einen positiven reellen Amplitudenfaktor a und einer tolerierbaren zeitlichen Verschiebung t0 dem Eingangssignal gleicht. y (t ) = a ⋅ x(t − t0 )
(2.84)
Der Amplitudenfaktor a entspricht einer Dämpfung und die zeitliche Verschiebung t0 einer Laufzeit beim Durchgang des Signals durch das System. Der Frequenzgang eines verzerrungsfreien Systems hat somit eine konstante Amplitude und einen linearen Phasenverlauf. H ( jω ) = a ⋅ e− jωt0
(2.85)
Soll das Übertragungssystem ein RLC-Netzwerk sein, so folgt aus der Polynomdarstellung der Übertragungsfunktion, dass eine verzerrungsfreie Übertragung nicht realisiert werden kann. Wird die Forderung auf den interessierenden Frequenzbereich eingeschränkt, wird bei geeigneter Dimensionierung eine verzerrungsfreie Übertragung näherungsweise möglich. In der Nachrichtenübertragungstechnik bezeichnet man die Verzerrungen die durch ein LTISystem entstehen können als lineare Verzerrungen. Man spricht von Dämpfungsverzerrungen und Phasenverzerrungen je nachdem, ob die Amplituden oder die Phasen der Frequenzkomponenten des Nachrichtensignals betroffen sind. Da die Wirkungen von Phasenverzerrungen nicht so offensichtlich sind, werden sie nachfolgend anhand eines einfachen Beispiels sichtbar gemacht. Beispiel Phasenverzerrungen
Wir betrachten der Anschauung halber den Gleichanteil und die ersten sieben Harmonischen des periodischen Rechteckimpulszuges (2.25) als Eingangssignal eines LTI-Systems mit dem Frequenzgang mit konstantem Betrag und linearer Phase.
sUppLex
46
2 Signale und Systeme H1 ( jω ) = e− jωt0
(2.86)
Für das Signal am Ausgang ergibt sich entsprechend (2.57) 7 ⎡1 ⎛ ⎞⎤ T ⎢ T ⎞ ⎛ 2π k y1 (t ) = 2 A ⋅ ⋅ + ∑ si⎜ π k ⎟ cos⎜ [t − t0 ]⎟⎥ T0 ⎢ ⎝ T0 ⎠ ⎝ T0 ⎠⎥ ⎣2 ⎦
(2.87)
k =1
Das Signal wird unverzerrt übertragen, wie Bild 2-32 augenfällig zeigt. Grund dafür ist, dass sich die Phasenverschiebungen der Frequenzkomponenten durch das System linear mit der Kreisfrequenz ändern, so dass sich nach Ausklammern für alle Komponenten die gleiche Signalverzögerung t0 einstellt. p 7 (t )
1
t/T0
0
-1
y1(t)
0
1
1
t/T0
0
t0 /T0 -1
y2(t)
0
1
1
t/T0
0
-1
0
1
Bild 2-32 Eingangssignal p 7 (t ) , Ausgangssignal des Systems mit linearer Phase y1(t) und Ausgangssignal des Systems mit quadratischer Phase y2(t)
Als Beispiel für die störende Wirkung von Phasenverzerrungen wählen wir ein System mit quadratischem Phasenterm. H 2 ( jω ) = exp (− j sgn(ω ) ⋅ ω 2t02 )
(2.88)
Man beachte die Signumfunktion sgn(Z), die dafür sorgt, dass der Phasenfrequenzgang wie in (2.60) gefordert eine ungerade Funktion ist. In diesem Fall ergibt sich das Ausgangssignal 7 ⎛ T ⎡ 1 T ⎞ ⎛ 2π k⎡ 2π k 2 ⎤⎞⎤ ⎢ y2 (t ) = 2 A ⋅ ⋅ + ∑ si⎜ π k ⎟ cos⎜ t ⎥⎟⎥ ⎢t − T0 ⎣ T0 0 ⎦⎠⎥ ⎢2 ⎝ T0 ⎠ ⎝ T0 ⎣ ⎦
(2.89)
k=1
sUppLex
2.11 Bandbreite und Zeitdauer-Bandbreite-Produkt
47
Die Laufzeiten wachsen jetzt linear mit steigender Frequenz. Damit erfahren die Frequenzkomponenten Phasenverschiebungen, die – obwohl alle Frequenzkomponenten noch mit gleicher Amplitude vorhanden sind – das ursprüngliche Signal in Bild 2-32 nicht mehr erkennen lassen. In der Nachrichtentechnik wird zur Beurteilung der Phasenverzerrungen durch LTI-Systeme die Gruppenlaufzeit als Ableitung der Phase herangezogen
τ g (ω) =−
d b( ω ) dω
(2.90)
Anmerkung: Man beachte die Definition der Gruppenlaufzeit mit negativem Vorzeichen. In der Literatur wird manchmal das negative Vorzeichen bereits in der Phase (2.49) eingeführt.
Ein phasenverzerrungsfreies System hat dann eine konstante Gruppenlaufzeit. Phasenverzerrungen machen sich besonders bei Audio- und Bildsignalen störend bemerkbar Bei Bildern führen Phasenverzerrungen zu räumlichen Verschiebungen der Bildinhalte. Telefonsprache zeigt sich relativ unempfindlich gegen Phasenverzerrungen, da es hierbei vor allem auf die Verständlichkeit ankommt. Bei der Nachrichtenübertragung werden meist auch nichtlineare Komponenten eingesetzt, wie beispielsweise Verstärker oder Modulatoren. In diesem Fall treten nichtlineare Verzerrungen auf, die im Gegensatz zu den linearen Verzerrungen neue Frequenzkomponenten verursachen. Ein besonders in der Audiotechnik verbreitetes Maß zur Beurteilung von nichtlinearen Verzerrungen ist der Klirrfaktor d (engl. Distortion). Er ist gleich dem Quotienten aus der Wurzel der Summe der Leistungen der störenden Oberschwingungen (Effektivwert der Oberschwingungen) durch die Wurzel aus der Gesamtleistung (Effektivwert des Gesamtsignals).
d=
Effektivwert der Oberschwingungen Effektivwert des Gesamtsignals
(2.91)
In der Audiotechnik wird der Klirrfaktor meist anhand des Eintonsignals mit der Frequenz von 1 kHz gemessen. In der Übertragungstechnik können bei Vorhandensein von mehreren frequenzmäßig getrennten Signalen, z. B. Rundfunksignale verschiedener Frequenzkanäle, nichtlineare Kennlinien zur Intermodulation und im Sonderfall auch zur Kreuzmodulation führen [VlHa93]. In der Telephonie kommt es zum Übersprechen, d. h. unbeabsichtigtes Mithören fremder Telefonate.
2.11
Bandbreite und Zeitdauer-Bandbreite-Produkt
Unter der Bandbreite eines Signals versteht man den Bereich im Spektrum, in dem die wesentlichen Frequenzkomponenten liegen. Was unter wesentlich zu verstehen ist, wird durch die konkrete Anwendung bestimmt. Zwei gebräuchliche Definitionen sind die absolute und die 3-dB-Bandbreite. Oft wird die Bandbreite auch mit der ersten Nullstelle im Spektrum (für positive Frequenzen) abgeschätzt. Da der Betragsfrequenzgang der üblichen reellen Signale eine gerade Funktion ist, ist besonders bei graphischen Darstellungen die Beschränkung auf positive Frequenzen und die verkürzte Schreibweise | X( f ) | statt | X(2Sf ) | oder | X( jZ ) | verbreitet. Anmerkung: Bei den eher seltenen, maßstäblichen Zeichnungen werden die Amplituden der Betragsfrequenzgänge bzgl. f in der Literatur gelegentlich mit dem Faktor 2S normiert [Lük95].
sUppLex
48
2 Signale und Systeme
x Absolute Bandbreite Ist | X( f ) | = 0 für f t fg, so ist außerhalb der Bandbreite B das Spektrum null. Man spricht von einer strikten Bandbegrenzung. Im Falle des Tiefpass-Spektrums in Bild 2-33 gilt B = fg. Liegt ein Bandpass-Spektrum vor, so ist B = fg2 – fg1. Tiefpass-Spektrum
B
|XTP( f )| 1
Bandpass-Spektrum
f
0
B
|XBP( f )| 1
fg
0
fg1
fg2
f
Bild 2-33 Absolute Bandbreite von Tiefpass- und Bandpass-Spektren (schematische Darstellung)
x 3dB-Bandbreite Im Beispiel des RC-Tiefpass-Spektrums in Bild 2-15 oder des Spektrums des Rechteckimpulses in Bild 2-27 liegt keine strikte Bandbegrenzung vor. Die Bandbreite kann aber wie in Bild 2-34 durch die 3dB-Grenzfrequenz abgeschätzt werden. Im Beispiel des RC-Tiefpasses ist die 3dB-Grenzfrequenz nach (2.56) B = f3dB = 1/(2SRC). Die 3dB-Grenzfrequenz der si-Funktion ist B = f3dB | 0,44/T. Tiefpass-Spektrum
|XTP( f )| 1 1/2
B
Bandpass-Spektrum
B
|XBP( f )| 1 1/2
3dB-Punkt
f3dB
f
f
f3dB,1
f3dB,2
Bild 2-34 3dB-Bandbreite von Tiefpass- und Bandpass-Spektren (schematische Darstellung)
Einige typische Signalbandbreiten in der Nachrichtentechnik sind in Tabelle 2-1 zusammengestellt.
x Zeitdauer-Bandbreite-Produkt Eine wichtige physikalische Grundtatsache ist der Zusammenhang zwischen der Dauer und der Bandbreite eines Signals. Wir veranschaulichen uns den Zusammenhang anhand des Rechteckimpulses und seines Spektrums in Bild 2-35. Mit der Impulsdauer T und der Bandbreite B = f0, d. h. der erste Nullstelle im Spektrum für f > 0, erhält man das konstante Zeitdauer-BandbreiteProdukt B ⋅T = 1
(2.92)
Demzufolge stehen die Zeitdauer eines Vorganges und die Breite des Spektrums in reziprokem Zusammenhang. Halbiert man wie in Bild 2-35 die Impulsdauer, so verdoppelt sich die Bandbreite.
sUppLex
2.11 Bandbreite und Zeitdauer-Bandbreite-Produkt
49
Tabelle 2-1 Bandbreiten verschiedener Nachrichtenübertragungskanäle Kanal
ungefähre Bandbreite
Fernsprechen (analog) UKW-Rundfunk (Audio) UKW-Rundfunk (Stereo-Multiplex-Signal) Audio (Compact Disc) UKW-Rundfunk GSM Frequenzkanal1 Digitaler Teilnehmeranschluss (ADSL) DECT Frequenzkanal2 UMTS Frequenzkanal3 Fernseh-Rundfunk (analog) WLAN4 GPS5
3,1 kHz 15 kHz 53 kHz 20 kHz 180 kHz 200 kHz 1,1 MHz 1,8 MHz 5 MHz 5,5 … 7 MHz 20 MHz 2 MHz / 20 MHz
1)
für die gleichzeitige Übertragung von 8/16 Full/Half-Rate-Telefongesprächen (unidirektional) für die gleichzeitige Übertragung von 12 Telefongesprächen (bidirektional) 3) Frequenzkanal des Universal Mobile Telecommunication Systems (UMTS) im Codemultiplex 4) Wireless Local Area Network (IEEE 802.11a, HIPERLAN/2) 5) Satellitensignale des Global Position System (GPS) für L1- bzw. L2-Träger 2)
Zeitbereich
F
Frequenzbereich si-Funktion
Rechteckimpuls
T1
xT1(t)
XT1( jZ)
1
Z /2S
t T1
2B1
xT2(t)
T2
1
t T2
XT2( jZ)
2B2
Z /2S
Bild 2-35 Zeitdauer-Bandbreite-Produkt BT am Beispiel des Rechteckimpulses
Bei der Datenübertragung mit binären Rechteckimpulsen bedeutet das: verdoppelt man die pro Zeiteinheit gesendeten Impulse (Bitrate), so wird die doppelte Bandbreite belegt bzw. muss zur Verfügung gestellt werden. Die Zeitdauer eines Vorgangs und die Breite des Spektrums stehen in reziprokem Zusammenhang. Anmerkung: Definitionen des Zeitdauer-Bandbreite-Produktes für nicht zeit- bzw. bandbegrenzte Signale findet man z. B. in [Sch91].
sUppLex
50
2.12
2 Signale und Systeme
Charakterisierung von LTI-Systemen
In diesem Abschnitt wird der Kreis vom Frequenzbereich zurück in den Zeitbereich geschlossen. Wurde bisher direkter Bezug auf die physikalisch realisierbaren RLC-Netzwerke genommen, so soll in diesem Abschnitt mit Blick auf die grundlegenden Eigenschaften von zeitkontinuierlichen LTI-Systemen, die Linearität und die Zeitinvarianz, ein allgemeiner Standpunkt eingenommen werden. Die theoretischen Zusammenhänge werden durch ausführliche Rechenbeispiele anschaulich gemacht. Bei den Beispielen ist zu beachten, dass die nachfolgenden Definitionen für dimensionslose Größen gelten. Physikalische Größen sind deshalb vorab geeignet zu normieren, wie beispielsweise Spannungen in Volt, die Zeit in Sekunden, usw.
2.12.1 Impulsfunktion und Impulsantwort Ein strikt bandbegrenztes LTI-System mit der Grenzfrequenz fg soll mit einem Signal so erregt werden, dass am Ausgang der Frequenzgang direkt beobachtet werden kann. Aus der Eingangs-Ausgangsgleichung im Frequenzbereich in (2.78) schließen wir, dass das Spektrum des erregenden Signals im interessierenden Frequenzbereich konstant sein muss. Wie könnte das Signal x(t) aussehen? Beispielsweise wie ein Rechteckimpuls in Bild 2-35 mit entsprechend kurzer Dauer T. Wählt man nämlich T so, dass für die Bandbreite gilt B = 1/T >> fg, dann ist das Spektrum am Systemausgang näherungsweise proportional der gesuchten Übertragungsfunktion. Betrachtet man nun ein System mit doppelter Grenzfrequenz, ist für die Messung die Dauer des Rechteckimpulses zu halbieren. Ist das System nicht strikt bandbegrenzt, müsste die Signalbandbreite B gegen unendlich und damit die Dauer des Rechteckimpulses gegen null gehen. Wie in Bild 2-35 zu sehen, geht jedoch ebenso die Amplitude des Spektrums gegen null. Das kleine Gedankenexperiment zeigt das Problem auf und deutet die Lösung an. Mit Blick auf die parsevalsche Formel (2.77) ist festzustellen: ein Signal, dessen Spektrum ungleich null und konstant für alle Frequenzen ist, würde unendliche Energie aufweisen und kann deshalb nicht physikalisch existieren. Es ist jedoch möglich, im Sinne eines Grenzüberganges, ein derartiges Signal als mathematische Idealisierung zu konstruieren.
x Impulsfunktion Dazu betrachten wir in Bild 2-36 (links) die endliche Folge von gewichteten Rechteckimpulsen nx1/n(t) für n = 1, 2, 3, ..., N, die bei konstanter eingeschlossener Fläche +∞
∫ n ⋅ x1/ n (t )dt = 1
für n = 1, 2,3,! , N
(2.93)
−∞
für wachsendes n immer schmaler und höher werden. Die zugehörigen Spektren (2.75) sind ebenfalls in Bild 2-36 (rechts) skizziert.
sUppLex
2.12 Charakterisierung von LTI-Systemen nx1/n(t)
51 nX1/n( jZ)
n=4 3
nof
2 3
1 -1/2
0
1/2
1 2
t
Z
Bild 2-36 Folge von flächennormierten Rechteckimpulsen (links) und ihre Spektren (rechts)
Im Grenzfall N o f streben die Spektren für alle Kreisfrequenzen gegen den Wert eins, da die erste positive und negative Nullstelle sich nach +f bzw. –f verschieben. Jedoch streben zugleich die Integrationsgrenzen in (2.93) gegen null und der Integrand gegen unendlich. Es ist offensichtlich, dass im Grenzfall das Integral im herkömmlichen Sinne nicht mehr existiert. Anmerkung: Die Flächennormierung bedeutet, dass die Energie der Rechteckimpulse gleich n ist, und somit ebenfalls gegen unendlich strebt.
Das mathematische Problem des Grenzübergangs in (2.93) ist für sich genommen jedoch nicht relevant. Gesucht werden ein Signal und seine Wirkung auf ein System. Es interessiert die Anwendung auf eine weitere Funktion x(t), die später den Einfluss des zu untersuchenden Systems widerspiegeln wird. Wir machen uns das durch eine kurze Überlegung deutlich. Ist x(t) um t = 0 stetig und beschränkt, so erwarten wir gemäß dem Mittelwertsatz der Integralrechnung für n genügend groß aber endlich f
³ x(t ) n x1 / n (t ) dt | x(0)
(2.94)
f
Es ist deshalb vorteilhaft, den Grenzübergang N o f im Sinne einer Abbildung aufzufassen, die der Funktion x(t) ihren Funktionswert an der Stelle t = 0 zuweist. Wir schreiben formal +∞
∫ x(t ) ⋅ δ (t )
dt = x(0)
(2.95)
−∞
mit der Impulsfunktion oder diracschen 1 Delta-Funktion G(t). Die Impulsfunktion ist keine Funktion im herkömmlichen Sinne sondern eine verallgemeinerte Funktion, auch Distribution genannt. Sie und das Integral (2.95) werden im Rahmen der Distributionentheorie mathematisch erklärt. Mit anderen Worten: das Integral wird nicht durch Einsetzen der Funktionen und herkömmlichem Integrieren gelöst, sondern ist als Definitionsgleichung der Impulsfunktion aufzufassen. Man spricht bei (2.95) von der Ausblendeigenschaft der Impulsfunktion, da sie den gesamten Funktionsverlauf bis auf den Wert an der Stelle null ausblendet. Anmerkungen: In der Literatur wird die Impulsfunktion auch als Diracstoss, Diracimpuls oder DeltaFunktion bezeichnet. Eine kurze Einführung in die Distributionentheorie und weiterführende Literaturhinweise findet man beispielsweise in [Bri97] [Sch91]. Es sei noch angemerkt, dass in der Distributionentheorie der Grenzübergang nicht mit einem Rechteckimpuls sondern mit einer unbegrenzt oft differenzierbaren Funktion, z. B. der gaußschen Glockenkurve, gearbeitet wird. Dadurch wird es möglich, auch Ableitungen, so genannte Derivierte, der Impulsfunktion sinnvoll zu definieren und die Impulsfunktion zur Lösung von Differentialgleichungen heranzuziehen. 1 Paul Adrien Maurice Dirac: *1902/+1984, britischer Physiker, Nobelpreis 1933.
sUppLex
52
2 Signale und Systeme
Die Impulsfunktion wird, wie in Bild 2-37 gezeigt, als nadelförmiger Impuls graphisch dargestellt. Falls notwendig wird ihr Gewicht (Impulsstärke) an die Spitze geschrieben. Ihre Fourier-Transformierte ist eine Konstante, wie man durch Einsetzen in das Fourier-Integral (2.71) und Anwenden der Ausblendeigenschaft (2.95) schnell zeigt.
Impulsfunktion
F
δ (t )
1 0
In Anlehnung an die additive Farbmischung in der Optik wird ein konstantes Spektrum auch weißes Spektrum genannt.
„weißes“ Spektrum
t
ω
0
Bild 2-37 Impulsfunktion und weißes Spektrum
Anmerkung: Der Ausdruck weißes Spektrum wird insbesondere im Zusammenhang mit konstanten Leistungsdichtespektren gebraucht.
In der Technik und Physik nützt man die formale Übereinstimmung mit den gewohnten Rechenregeln. Häufig verwendete Eigenschaften (Rechenregeln) sind in Tabelle 2-2 zusammengestellt. Tabelle 2-2 Eigenschaftender Impulsfunktion - Rechenregeln +∞
Verschiebung
∫
x(t )δ (t − t0 )dt =
−∞
Zeitskalierung Symmetrie Ausblendeigenschaft - für x(t) stetig in t = 0 - bzw. t = t0 Fourier-Paare
+∞
∫ x(t + t0 )δ(t )dt = x(t0 )
(2.96)
−∞
G ( at )
G (t ) a
für
az0
δ (−t ) = δ(t ) x(t ) δ (t ) = x(0) δ (t ) x(t ) (t − t0 ) = x(t0 ) (t − t0 )
G (t ) l 1 Z 1 ∀ t ↔ 2 π ⋅δ ( ω )
(2.97) (2.98) (2.99)
(2.100)
x Impulsantwort Mit der Impulsfunktion als mathematische Idealisierung für ein Signal mit hoher Energie und kurzer Dauer lassen sich zur Systembeschreibung wichtige Zusammenhänge ableiten. Erregt man das zunächst energiefreie LTI-System mit der Impulsfunktion, so ist das Spektrum am Ausgang gleich dem Frequenzgang des LTI-Systems (2.78). Im Zeitbereich erhält man, wie der Name sagt, die Impulsantwort h(t). Die Impulsantwort und der Frequenzgang bilden ein Fourier-Paar. Beide Systemfunktionen liefern gleich viel Information über das LTI-System, da sie mit der Fourier-Transformation ineinander umgerechnet werden können. h(t ) ↔ H ( jω )
(2.101)
Anmerkung: Hierbei wird die Existenz des Frequenzgangs als Fourier-Transformierte der Impulsantwort vorausgesetzt. Ein hinreichendes Kriterium dafür ist, wie später gezeigt wird, die absolute Integrierbarkeit der Impulsantwort (2.121).
sUppLex
2.12 Charakterisierung von LTI-Systemen
53
Beispiel Impulsantwort des RC-Tiefpasses
Am Beispiel des RC-Tiefpasses lassen sich die bisherigen Überlegungen anhand bekannter Ergebnisse aus der Physik überprüfen und veranschaulichen. Wir betrachten dazu den RC-Tiefpass in Bild 2-38 mit der Zeitkonstanten W = RC und setzen ohne Beschränkung der Allgemeinheit im Folgenden stets voraus, dass die Kapazität sich anfangs im ungeladenen Zustand befindet, d. h. zu Beginn energiefrei ist.
Ausgang
Eingang
R
ue(t)
ua(t) C
Bild 2-38 RC-Tiefpass
Wir starten mit dem Übergang des Eingangssignals vom Rechteckimpuls zur Impulsfunktion. Zunächst wird die Ausgangsspannung ua(t) bei Erregung mit einem Rechteckimpuls bestimmt. ue (t ) = U q ⋅ xT (t )
(2.102)
Aus der kirchhoffschen Maschenregel und dem Zusammenhang zwischen Strom und Spannung an der Kapazität resultiert für die Ausgangsspannung die inhomogene lineare Differentialgleichung 1. Ordnung mit konstanten Koeffizienten d 1 1 u a (t ) + u a (t ) = ue (t ) dt τ τ
(2.103)
Die Lösung der Differentialgleichung für eine rechteckförmige Eingangsspannung mit dem Einschaltzeitpunkt t = 0 ist aus der Physik bekannt oder kann mit Hilfe der Variation der Konstanten, z. B. in [Sch88], berechnet oder durch einfache Überlegungen erraten werden, s. a. Bild 2-13. ⎧0 ⎪ ⎪ ua (t ) = ⎨U q ⋅ (1 − e−t / τ ) ⎪ −T / τ ) ⋅ e−(t−T ) / τ ⎪ ⎩U q ⋅ (1 − e
für t < 0 für 0 ≤ t < T
(2.104)
für t ≥ T
In Bild 2-39 rechts wird die Ausgangsspannung für verschiedene Rechteckimpulse (links) als Eingangsspannung dargestellt. Man erkennt deutlich die zuerst wachsende Spannung an der Kapazität im Ladevorgang und anschließend deren exponentiell fallenden Verlauf beim Entladen. Betrachtet man die Folge von Rechteckimpulsen (2.93), so erkennt man für wachsendes n, dass sich der Ladevorgang immer mehr verkürzt und sich der Endwert der Spannung im Ladevorgang dem Wert Uq annähert. Im Grenzfall n → ∞ , d. h. bei Erregung mit der Impulsfunktion, scheint die Spannung an der Kapazität sofort auf den Wert Uq zu springen und es beginnt der Entladevorgang. Anmerkung: Selbstredend ist für n → ∞ eine derartige physikalisch Spannungsquelle nicht realisierbar, jedoch ist die mathematische Idealisierung von großem praktischen Wert. Bei jedem physikalischen Experiment ist man auf Beobachtungen, hier die Messungen der Zeit und der Spannung, angewiesen. Die Messgenauigkeiten sind durch reale Messverfahren und Messgeräte stets beschränkt. Unterschreitet man die Messauflösung, so ist der Unterschied zwischen Experiment und Idealisierung nicht mehr festzustellen.
sUppLex
54
2 Signale und Systeme
ue (t ) U q
nof 8 4
ue (t ) = n ⋅ xτ / n (t ) Uq
2 1
n=8 4 2 1 -1/2
0
t/W
1/2
-1/2
0
1/2
1
2
t/W
Bild 2-39 Reaktion des RC-Tiefpasses mit der Zeitkonstanten W = RC auf flächennormierte Rechteckimpulse der Dauer T = W / n
In Einklang mit den physikalischen Überlegungen ist die Impulsantwort des RC-Tiefpasses
⎧1 ⎛ t ⎞ ⎪ exp⎜− ⎟ für t > 0 ⎝ τ⎠ hRC−TP (t ) = ⎨τ ⎪ für t < 0 ⎩0
(2.105)
Abschließend verifizieren wir die Impulsantwort (2.105) und die zugrunde liegenden theoretischen Zusammenhänge: (a) Die Impulsantwort und der Frequenzgang bilden ein Fourier-Paar. (b) Man erhält die Impulsantwort, wenn in der systembeschreibenden Differentialgleichung die Impulsfunktion als Erregung eingesetzt wird. Zu (a): Zunächst wird die Impulsantwort (2.105) transformiert und mit dem früher bestimmten Frequenzgang des RC-Tiefpasses (2.44) verglichen. +∞
∫ hRC−TP
(t ) ⋅ e− jωt dt
+∞
=
−∞
1
1
∫ τ e−t / τ ⋅ e− jωt dt = 0
(2.106)
+∞
1/ 1 = ∫ e−[1/ τ+ jω ] t dt = = = H RC−TP ( jω) 1/ + jω 1+ jωτ τ 0
Zu (b): Nun wird die Impulsantwort als Lösungsansatz in die Differentialgleichung (2.103) für t t 0 mit Impulserregung eingesetzt Uq d a −t / τ a ⋅e + 2 ⋅ e−t / τ = ⋅ δ (t ) τ dt τ τ
(2.107)
mit der positiven reellen Konstanten a. Die Integration vereinfacht die Gleichung. a
τ
⋅ e−t / τ +
a
τ
⋅ 2
t
∫ e−x / τ dx =
− 0
−τ [ exp(−t / τ )−1]
Uq
τ
t
⋅ ∫ δ ( x)dx
(2.108)
− 0
1
sUppLex
2.12 Charakterisierung von LTI-Systemen
55
Anmerkung: Die untere Integrationsgrenze –0 soll den Grenzübergang von links an 0 symbolisieren, so dass die Ausblendeigenschaft (2.95) angewendet werden kann. In der Literatur sind auch Definitionen für den „Grenzübergang“ mit rechtsseitigen Rechteckimpulsen zur Impulsfunktion zu finden, die jedoch an anderer Stelle eine entsprechende Interpretation verlangen, s. a. (2.98).
Wie zu zeigen war, erhält man mit a = Uq aus (2.108) für das Ausgangssignal ua (t ) = U q ⋅ hRC−TP (t ) =
Uq
τ
e−t / τ für t > 0
(2.109)
Anmerkung: Man beachte, dass hier eine einfache Dimensionskontrolle nicht zulässig ist, da mit dimensionslosen Größen gerechnet wird. Würde man mit Dimensionen rechnen, so wäre die Ausblendeigenschaft der Impulsfunktion in (2.95) zu modifizieren. Da eine Integration über der Zeit vorliegt, müsste das Resultat die Dimension der Zeit aufweisen.
2.12.2 Faltung Mit der Impulsantwort kann die Eingangs-Ausgangsgleichung eines LTI-Systems im Zeitbereich angegeben werden. Die Impulsantwort ist darüber hinaus die zentrale Systemfunktion, die die Systemeigenschaften festlegt. Die grundsätzliche Idee der Beschreibung von LTI-Systemen besteht darin, zunächst die Systemreaktion auf die Impulsfunktion, die Impulsantwort, zu bestimmen. Lässt sich das Eingangssignal als Linearkombination von gewichteten und verzögerten Impulsfunktionen darstellen, so folgt aufgrund der Linearität und der Zeitinvarianz des LTI-Systems, dass das Ausgangssignal eine Linearkombination von ebenso gewichteten und verzögerten Impulsantworten sein muss. Diesen grundsätzlichen Zusammenhang wollen wir jetzt formelmäßig erfassen. Anmerkung: Die nachfolgend verwendeten mathematischen Interpretationen von Linearität und Zeitinvarianz können auch im Sinne einer Definition verstanden werden.
Im ersten Schritt wird mit Hilfe des Systemoperators T{.} die Impulsantwort formal definiert und ihre Existenz vorausgesetzt. h(t ) = T {δ (t )}
(2.110)
Anmerkung: Der Systemoperator bedeutet nichts weiter, als dass die Funktion in der geschweiften Klammer das Eingangssignal ist und das Ausgangssignal als Ergebnis der Abbildung (Transformation) durch das System zugewiesen wird. Wie diese Abbildung wirklich aussieht hängt von dem jeweils betrachteten System ab. Voraussetzung ist hier nur, dass die Funktionen sinnvoll existieren und die Abbildung linear und zeitinvariant ist.
Im zweiten Schritt wird das Eingangssignal als Überlagerung von Impulsfunktionen dargestellt. +∞
∫ x(τ )
−∞
(t − τ )d τ = x(t )⋅
+∞
∫
(t − τ )d τ = x (t )
−∞
(2.111)
1
Anmerkung: Da, wegen der Ausblendeigenschaft der Impulsfunktion, das linke Integral nur dann einen von null verschiedenen Wert liefert, wenn t = W, darf auch x(t) geschrieben werden. x(t) ist unabhängig von der Integrationsvariablen W, weshalb x(t) vor das Integral gestellt wird. Es verbleibt die Integration über die Impulsfunktion, die definitionsgemäß den Wert 1 hat.
sUppLex
56
2 Signale und Systeme
Mit dieser Vorbereitung ergibt sich die Eingangs-Ausgangsgleichung eines Systems auf ein weitgehend beliebiges Eingangssignal ⎧ ⎫ ⎪+∞ ⎪ y (t ) = T ⎨ ∫ x(τ )δ (t − τ )d τ ⎬ ⎪ ⎪ ⎩−∞ ⎭
(2.112)
Nun wird die Linearität benutzt, indem die lineare Abbildung des Signals bezüglich der Zeitvariablen t durch das System mit der linearen Abbildung durch das Integral bezüglich der Integrationsvariablen τ vertauscht wird. +∞
y (t ) =
∫ x(τ ) ⋅ T {δ (t − τ )} d τ
(2.113)
−∞
Ist das System zeitinvariant, so hängt das Ausgangssignal, die Reaktion, bis auf eine zeitliche Verschiebung aufgrund des Einschaltzeitpunktes, hier τ, nicht vom Zeitpunkt der Erregung ab. Man erhält die zeitlich um τ verschobene Impulsantwort. +∞
y (t ) =
∫ x(τ ) ⋅ h(t − τ )
dτ
(2.114)
−∞
Damit ist die gesuchte Eingangs-Ausgangsgleichung für den Zeitbereich gefunden. Man bezeichnet das Integral kurz als Faltung, oder Faltungsintegral, und schreibt mit dem Faltungsstern „*“ ebenso kurz x(t ) ∗ h(t ) =
+∞
+∞
−∞
−∞
∫ x(τ )h(t − τ )d τ = ∫ x(t − τ )h(τ )d τ
(2.115)
Die Faltung erhält ihren Namen daher, dass eine der Funktionen im Integranden mit negativer Integrationsvariablen vorkommt. Das entspricht einem „Umfalten“ (Spiegelung) der Funktion an der Ordinate. Die Faltung ist kommutativ, wie noch gezeigt wird. Zunächst verifizieren wir (2.115) durch Fourier-Transformation und Vergleichen des Ergebnisses mit der Eingangs-Ausgangsgleichung im Frequenzbereich (2.78). Anmerkung: Die folgende Herleitung stellt ein typisches Beispiel für die Anwendung der Fourier-Transformation und der Impulsfunktion in der Nachrichtentechnik dar. Die Anwendung beruht – abgesehen von einem gewissen Vertrautwerden mit den Zusammenhängen – auf einfachen Rechenregeln. Die Gültigkeit der Regeln wird stillschweigend vorausgesetzt, was durch die physikalischen Randbedingungen in den technischen Anwendungen motiviert (und durch die Distributionentheorie abgesichert) wird.
Vertauschen der Integrationsreihefolge zwischen der Zeitvariablen t der Fourier-Transformation und der Faltungsvariablen τ liefert nach einfacher Substitution der Variablen den Frequenzgang und den Faktor e− jωτ x(t ) ∗ h(t ) ↔
+∞⎡+∞
+∞ ⎤ ⎡+∞ ⎤ − jωt dt = ⎢ ⎥ ⎢ ∫ h(t − τ ) ⋅e− jωt dt ⎥ d τ − ⋅ x ( τ ) h ( t τ ) d τ e x ( τ ) ∫⎢ ∫ ∫ ⎥ ⎢ ⎥ (2.116) ⎦ ⎣−∞ ⎦ −∞⎣−∞ −∞
H ( jω )⋅exp(− jωτ )
Anmerkung: Dieser Zusammenhang wird auch als Zeitverschiebungssatz der Fourier-Transformation bezeichnet.
sUppLex
2.12 Charakterisierung von LTI-Systemen
57
Da der Frequenzgang bezüglich der Integration nach W als konstant anzusehen ist, darf er vor das Integral gezogen werden und es verbleibt die Fourier-Transformation des Eingangssignals. Damit ist gezeigt, dass die Fourier-Transformation die Faltung zweier Funktionen im Zeitbereich im Frequenzbereich in das Produkt ihrer Fourier-Transformierten überführt. Aus der Faltung des Eingangssignals mit der Impulsantwort wird das Produkt des Eingangsspektrums mit dem Frequenzgang. x(t ) ∗ h(t ) ↔ X ( jω )⋅ H ( jω)
(2.117)
Aus der Kommutativität des Produktes im Frequenzbereich darf auf die Kommutativität der Faltung im Zeitbereich geschlossen werden. Bild 2-40 stellt die Ergebnisse für die EingangsAusgangsgleichungen von LTI-Systemen im Zeit- und im Frequenzbereich zusammen.
Zeitbereich x(t) Fourier-Transformation
h(t)
y(t) = x(t) h(t)
LTI-System X( jZ)
H( jZ)
X( jZ) = X( jZ) H( jZ)
Frequenzbereich Bild 2-40 Eingangs-Ausgangsgleichungen für LTI-Systeme im Zeit- und im Frequenzbereich mit der Impulsantwort h(t) und dem Frequenzgang H( jZ) des LTI-Systems
Wichtige Eigenschaften von LTI-Systemen werden nachfolgend nochmals zusammengestellt. Die sinnvolle Wahl von Funktionen und Konstanten in den Definitionen wird vorausgesetzt.
x
Linearität
Sind zwei beliebigen Eingangssignalen x1(t) und x2(t) die Ausgangssignale y1(t) und y2(t) zugeordnet, so folgt für lineare Systeme für jede Linearkombination mit beliebigen Konstanten c1 und c2 T { c1 x1 (t )+ c2 x (t )
} = c1 y1 (t ) + c2 y2 (t )
(2.118)
Diese Eigenschaft muss im erweiterten Sinne auch für konvergente Funktionenfolgen, wie Fourier-Reihen und Integrale, wie (2.112), gelten.
x
Zeitinvarianz
Ein System ist zeitinvariant, wenn für einen beliebigen Einschaltzeitpunkt t0 gilt T { x (t )} = y (t ) und T { x (t − t0 )} = y (t − t0 )
(2.119)
sUppLex
58
x
2 Signale und Systeme Kausalität
Man beachte im Beispiel der Impulsantwort des RC-Tiefpasses, dass die Impulsantwort für t < 0 gleich null ist. Signale mit dieser Eigenschaft werden als rechtsseitige Signale bezeichnet. Ist die Impulsantwort eines Systems rechtsseitig, spricht man von einem kausalen System. In diesem Fall erfolgt die Reaktion zeitgleich mit oder erst nach der Erregung und steht somit im Einklang mit der physikalischen Erfahrung von Ursache und Wirkung. Ist das System kausal, so kann die Rechtsseitigkeit der Impulsantwort in den Grenzen des Faltungsintegrals berücksichtigt werden. t
y (t ) =
∫
x(τ ) ⋅ h(t − τ )d τ =
+∞
−∞
x
∫ h(τ ) ⋅ x(t − τ )d τ
(2.120)
0
BIBO-Stabiliät
Ein System mit absolut integrierbarer Impulsantwort +∞
∫ h(t ) dt < ∞
(2.121)
−∞
bezeichnet man als BIBO-stabil. BIBO steht für „Bounded Input – Bounded Output“ und bedeutet, dass für jedes amplitudenbeschränkte Eingangssignal | x(t) | d M auch das Ausgangssignal in seiner Amplitude beschränkt bleibt. +∞
y (t ) =
∫ x(
−∞
≤
) ⋅ h(t − )d τ ≤
+∞
∫
x( ) ⋅ h(t − τ ) d τ ≤
−∞
+∞
+∞
−∞ ≤M
−∞
x(τ ) ⋅ h(t − τ ) d τ ≤ M ∫ ∫N
(2.122) h(t − τ ) d τ < ∞ <∞
Ist die Impulsantwort absolut integrierbar, existiert der Frequenzgang. Beispiel Faltung eines rechtsseitigen Rechteckimpulses mit sich selbst
In vielen Fällen lässt sich die Faltung auf graphischem Wege veranschaulichen. Hierzu betrachten wir das Beispiel zweier rechtsseitiger Rechteckimpulse x (t ) = xT (t − T / 2)
(2.123)
Anmerkung: In der Nachrichtenübertragungstechnik werden im Empfänger oft auf das Sendesignal angepasste Filter, so genannte Matched-Filter, verwendet, um das Signale bei additiver Rauschstörung gut detektieren zu können. In Abschnitt 5 wird gezeigt, dass dann eine ähnliche Situation vorliegt wie hier im Beispiel.
sUppLex
2.12 Charakterisierung von LTI-Systemen
59
Die Faltung +∞
y (t ) = x(t ) ∗ x(t ) =
∫ x(τ ) ⋅ x(t − τ )d τ
(2.124)
−∞
lässt sich wie in Bild 2-41 gezeigt bestimmen: Für einen beliebigen aber fest vorgegebenen Wert t ist im Integranden das Produkt aus x(W)xT(t–W) zu bilden. Hierzu ist in Bild 2-41 das Signal x(W) und x(t–W) für die Werte t = 0, T/2, T, 3T/2 und 2T gezeigt. Für t = 0 erhält man für x(-W) wegen des Minuszeichens im Argument den an der Ordinate gespiegelten (umgefalteten) Rechteckimpuls. Die Spiegelung wird im Bild durch ein kleines Dreieck angedeutet. Für t = T/2 verschiebt sich der Rechteckimpuls um T/2 nach rechts, usw. x(W) 1
t=0
x(t ) x(t )
0 T/2 T W x(t-W)
-T
td0 0 T/2 T
W
t = T/2
t
t d T/2 t
W t dT
t=T
t
W t d 3T/2
t = 3T/2
t
W
t = 2T
t d 2T 0
T
W
T 0
T
2T t
Bild 2-41 Faltung eines kausalen Rechteckimpulses mit sich selbst
Im Integranden ist das Produkt aus dem Rechteckimpuls und seiner gespiegelten und verschobenen Replik zu bilden. Da im Beispiel x(W) = 0 für W < 0 oder W > T gilt, werden vier Fälle unterschieden: (i)
t<0
Der Integrand ist für t < 0 identisch null, da sich x(W) und x(t–W) nicht überlappen Demzufolge liefert die Faltung den Wert null, wie in der rechte Hälfte von Bild 2-41 gezeigt wird.
sUppLex
60 (ii)
2 Signale und Systeme 0≤t
Für wachsendes t schiebt sich der Rechteckimpuls x(t–τ) mehr und mehr unter den Rechteckimpuls x(τ). Da es sich um Rechteckimpulse handelt nimmt die vom Produkt der beiden Rechteckimpulse eingeschlossene Fläche linear zu. (iii)
T ≤ t < 2T
Für t = T decken sich die Rechteckimpulse vollständig. Die Faltung liefert den Maximalwert. Anmerkung: Die Faltung eines reellen spiegelsymmetrischen Signals x(t) mit sich selbst liefert als Maximum die Energie des Signals (2.9).
Mit wachsendem t schiebt sich x(t-τ) aus dem Abszissenbereich des Rechteckimpulses x(τ). Die von den beiden Rechteckimpulsen gemeinsam eingeschlossene Fläche nimmt linear ab. (iv)
2T ≤ t
Für t ≥ 2T ist der Integrand und damit das Ergebnis der Faltung identisch null. Das gesuchte Faltungsergebnis ist in Bild 2-41 unten rechts gezeigt. Es resultiert ein Dreieckimpuls mit der Breite 2T und der Höhe T. Beispiel Rechteckimpuls am RC-Tiefpass Beispielhaft berechnen wir die Reaktion eines zunächst energiefreien RC-Tiefpasses bei Erregung mit einem rechteckförmigen Spannungsimpuls. Wegen der Kausalität der Impulsantwort (2.105) kann die Faltung in der Form (2.120) verwendet werden. Uq t ⎛ T⎞ ⎛ T⎞ ⋅ ∫ xT ⎜ α − ⎟⋅ e−(t−α ) / τ d α u a (t ) = U q ⋅ xT ⎜t − ⎟∗ hRC−TP (t ) = ⎝ ⎝ 2⎠ τ 2⎠
(2.125)
−∞
Da auch das Eingangssignal kausal ist, kann die Systemantwort erst für t ≥ 0 erfolgen.
⎛ T⎞ t < 0 ⇒ α < 0 ⇒ xT ⎜ α − ⎟= 0 ⇒ ua (t ) = 0 ⎝ 2⎠
(2.126)
Das Integral (2.125) ist nur noch für t > 0 zu lösen. Wegen des Rechteckimpulses ist eine Fallunterscheidung notwendig. Für 0 < t < T liegt die Spannung Uq an und man erhält die Spannung an der Kapazität im Ladevorgang u a (t ) =
Uq
τ
t
⋅
∫ e−(t−α ) / τ d α
−∞
= U q ⋅ (1 − e−t / τ ) für 0 < t < T
(2.127)
t τ⋅exp(−t / τ )⋅exp(α / τ ) 0
Für t > T ist die Eingangsspannung null; die Kapazität entlädt sich. Aus (2.125) wird u a (t ) =
Uq
τ
T
⋅
∫ e−(t−α ) / τ d α
−∞
= U q ⋅ ( eT / τ − 1) ⋅ e−t / τ für t > T
(2.128)
T τ⋅exp(−t / τ )⋅exp(α / τ ) 0
Ausklammern der Exponentialfunktion liefert das bekannte Ergebnis (2.104).
sUppLex
2.13 Zusammenfassung
61
Man beachte auch die Stetigkeit der Spannung an der Kapazität für t = 0 und t = T. Da Kapazitäten und Induktivitäten Energiespeicher sind, können sich ihre Spannungen bzw. Ströme aus physikalischen Gründen nicht sprunghaft ändern. Die Ausnahme von dieser Regel ist die mathematische Idealisierung der impulsförmigen Erregung.
2.13
Zusammenfassung
In Tabelle 2-3 sind die wesentlichen Schritte von der Gleichstromrechnung zur Theorie der linearen zeitinvarianten Systeme zusammengestellt. Den Ausgangspunkt bilden die Gleichströme bzw. -spannungen als Signale in Widerstandsnetzen, s. unten in der Tabelle. Die interessierenden Zweigströme und Zweigspannungen werden mit dem ohmschen Gesetzes und den kirchhoffschen Regeln berechnet. Durch Hinzunehmen von Kapazitäten und Induktivitäten wird die Betrachtung auf die RLCNetze erweitert. Mit der komplexen Wechselstromrechnung lassen sich die Zweigströme und Zweigspannungen für sinusförmige Quellen angeben. RLC-Netzwerke sind ein Beispiel für lineare zeitinvariante Systeme. Deren Übertragungsverhalten kann vorteilhaft im Frequenzbereich durch den Frequenzgang beschrieben werden. Damit lassen sich insbesondere in Verbindung mit der Fourier-Transformation die Systemreaktionen auch für nichtperiodische Signale bestimmen. Die Beschreibung der Signale und Systeme im Frequenzbereich liefert wichtige neue Einblicke, Konzepte und Kenngrößen, wie das Spektrum, das Filter, die Bandbreite und das Zeitdauer-Bandbreite-Produkt. Mit der Definition der Impulsfunktion als mathematische Idealisierung eines „sehr kurzen und energiereichen Signals“ und der allgemeinen Betrachtung der LTI-Eigenschaften Linearität und Zeitinvarianz wird die Impulsantwort als die wesentliche Systemfunktion eingeführt. Wichtige Systemeigenschaften, wie die Kausalität und die Stabilität, lassen sich an ihr ablesen. Mit der Faltung der Impulsantwort mit dem Eingangssignal erhält man die Eingangs-Ausgangsgleichung im Zeitbereich. Impulsantwort und Frequenzgang bilden ein Fourier-Paar. Anmerkungen: (i) Die für die zeitkontinuierlichen Signale und Systeme am Beispiel der RLC-Netzwerke vorgestellten Begriffe und Zusammenhänge lassen sich in ihren Bedeutungen unverändert in das Zeitdiskrete übertragen. Für zeitdiskrete Signale kann ebenfalls die harmonische Analyse mit der Fourier-Transformation vorgenommen werden. Die Begriffe Frequenzkomponenten, Spektrum, Bandbreite und Zeitdauer-Bandbreite-Produkt finden ihre zeitdiskreten Entsprechungen. An die Stelle der Systembeschreibung mit Differentialgleichungen treten Differenzengleichungen bei zeitdiskreten LTI-Systemen, die nur aus Addierern und Verzögerungsgliedern aufgebaut sind. Es existieren Impulsantworten und Frequenzgängen mit Eingangs-Ausgangsgleichungen im Zeit- und im Frequenzbereich, die denen in Tabelle 2-3 entsprechen. Die digitale Signalverarbeitung macht von diesen Analogien ausgiebig Gebrauch und hat die analoge Signalverarbeitung in vielen Anwendungen verdrängt. (ii) In Abschnitt 3 wird ein kurzer Blick auf die digitale Signalverarbeitung geworfen. Beispielhaft werden digitale FIR- und IIR-Filter und die Kurzzeit-Spektralanalyse mit der FFT vorgestellt. (iii) Mit den hier und in Abschnitt 3 vorgestellten Begriffen und Zusammenhängen, wird die Grundlage für eine zügige Einarbeitung in die digitale Signalverarbeitung bereitgestellt.
sUppLex
62
2 Signale und Systeme Tabelle 2-3 Signale und Systeme Signale
Systeme
aperiodische Quelle x(t) mit dem Spektrum
X ( jω ) =
+∞
∫ x(t )e− jωt dt
−∞
und inverser FourierTransformation
x(t ) =
1 2π
+∞
∫ X ( jω)e+ jωt d ω
−∞
Methoden
LTI-System mit Impulsantwort h(t) mit der Kausalität
h(t ) = 0 ∀ t < 0
Eingangs-Ausgangsgleichung
und der BIBO-Stabilität
im Zeitbereich mit der Impulsantwort
+∞
y (t ) = h(t ) ∗ x(t )
−∞
und im Frequenzbereich mit dem Frequenzgang
∫ h(t ) dt <∞
Frequenzgang
H ( jω ) =
+∞
∫ h(t )e− jωt dt
Y ( jω) = H ( jω )⋅ X ( jω )
−∞
Eingangs-Ausgangsgleichung mit dem Frequenzgang und den Fourier-Reihen
periodische Quelle x(t) mit der Grundkreisfrequenz ω0
x(t)
∞
x(t ) =
∑
ck
e jk ω0t
LTI- y(t) System
∑
H ( jk ω0 ) ⋅ ck e jk ω0t
k=−∞
k =−∞
Wechselspannungsquelle
∞
y (t ) =
RLC-Netzwerk
u q (t ) = uˆ ⋅ cos(ωt + ϕ )
– Widerstand R
Wechselstromquelle
– Induktivität L
iq (t ) = iˆ ⋅ cos( ωt + ϕ )
– Kapazität C
Gleichspannungsquelle U
Widerstandsnetzwerk
und Gleichstromquelle I
Widerstand R
komplexe Wechselstromrechnung mit erweitertem ohmschen Gesetz und den kirchhoffschen Regeln für komplexe Amplituden Gleichstromrechnung mit dem ohmschen Gesetz und den kirchhoffschen Regeln
sUppLex
2.14 Aufgaben zu Abschnitt 2
63
2.14 Aufgaben zu Abschnitt 2 Aufgabe 2.1
Ordnen Sie durch Ankreuzen in der Tabelle A2.1-1 richtig zu. Tabelle A2.1-1
wertdiskret
wertkontinuierlich
zeitdiskret
zeitkontinuierlich
analoges Signal digitales Signal Abtastfolge binäres Basisbandsignal der RS-232Schnittstelle (Bild 2-3)
Aufgabe 2.2
a) Frequenzgang analytisch an. Hinweis: Verwenden Sie die Zeitkonstante W = RC/2 und stellen Sie den Frequenzgang in der üblichen Form dar.
Ausgang
Eingang
Geben Sie zur RC-Schaltung in Bild A2.2-1 mit R = 50 : und C = 796 nF den
R
ue(t)
ua(t)
R
C
Bild A2.2-1 RC-Schaltung
b) Geben Sie den Frequenzgang der Dämpfung in dB an.
c) Skizzieren Sie den Frequenzgang der Dämpfung in dB und tragen Sie in die Graphik die Dämpfung bei der 3dB-Grenzfrequenz ein. Hinweis: Wählen Sie eine geeignete Einteilung der Frequenzachse. d) Um welche Art von Frequenzgang handelt es sich? e) Berechnen Sie die 3dB-Grenzfrequenz. Aufgabe 2.3
Skizzieren Sie das Amplitudenspektrum, d. h. den Betrag der Fourier-Koeffizienten in einseitiger Form, der in Bild A2.3-1 gezeigten periodischen Sägezahnschwingung mit der Fourier-Reihe
x(t) 1 t 0
T0
Bild A2.3-1 Periodische Sägezahnschwingung
∞
sin ( k ω0t ) 1 1 x(t ) = − ⋅ ∑ 2 π k k=1
Hinweise: ck = (ak – jbk) / 2 ; c-k = ck* und 1/S | 0,32
sUppLex
64
2 Signale und Systeme
Aufgabe 2.4 BP
x(t)
Die periodische Sägezahnschwingung in Bild A2.3-1 erregt das System mit idealen Bandpassverhalten in Bild A2.4-1. Die Periode des Signals ist T0 = 1 ms.
y(t)
fg1 = 300 Hz fg2 = 4,3 kHz Bild A2.4-1 Bandpass
a) Geben Sie die Reaktion am Ausgang des Systems im eingeschwungenen Zustand an.
b) Skizzieren sie das Amplitudenspektrum (einseitiges Betragsspektrum) des Ausgangssignals. Aufgabe 2.5
a) Erklären Sie den Begriff des Spektrums. b) Warum ist die harmonische Analyse im Zusammenhang mit elektrischen RLC-Netzwerken wichtig? c) Welche Bedeutung hat die parsevalsche Gleichung? d) Erklären Sie den Begriff der Bandbreite. e) Welche Eigenschaft muss ein Signal haben, damit ein Linienspektrum entsteht? f) In welchem Zusammenhang stehen die Bandbreite und die zeitliche Dauer eines Signals? Aufgabe 2.6
Skizzieren Sie das Toleranzschema zum Entwurf eines Tiefpasses. Tragen Sie alle relevanten Parameter ein und benennen Sie die Parameter und die Bereiche des Toleranzschemas. Aufgabe 2.7
Eine Signalanalyse ergibt die Darstellung u(t) = 2V cos(Z0t) + 0,1V cos(2Z0t) – 0,04V cos(3Z0t) Berechnen Sie den Klirrfaktor. Geben Sie den Wert in Prozent an. Aufgabe 2.8 Ausgang
Eingang
Geben Sie zur RC-Schaltung in Bild A2.8-1 mit R = 100 : und C = 796 nF den a) Frequenzgang analytisch an. Hinweis: Verwenden Sie die Zeitkonstante W = 2RC und stellen Sie den Frequenzgang in der üblichen Form dar. b) Geben Sie den Frequenzgang der Dämpfung in dB an.
ue(t)
R
C
ua(t)
R
Bild A2.8-1 RC-Schaltung
sUppLex
2.14 Aufgaben zu Abschnitt 2
65
c) Skizzieren Sie den Frequenzgang der Dämpfung in dB und tragen Sie in die Graphik den Wert der Dämpfung bei der 3dB-Grenzfrequenz ein. Hinweis: Wählen Sie eine geeignete Einteilung der Frequenzachse. d) Um welche Art von Frequenzgang handelt es sich? e) Berechnen Sie die 3dB-Grenzfrequenz. Aufgabe 2.9
a) Skizzieren Sie einen Rechteckimpuls x(t) = A für t [–T, T] und null sonst. b) Geben Sie die Fourier-Transformierte zu x(t) analytisch an. c) Skizzieren Sie das Spektrum zu x(t). Aufgabe 2.10
Berechnen Sie zu dem in Bild A2.10-1 gezeigten Schaltung a) den Frequenzgang
L
ue(t)
R
ua(t)
b) und den Frequenzgang der Dämpfung in dB. c) Skizzieren Sie den Frequenzgang der Dämpfung in dB und tragen Sie den 3dB-Punkt ein.
Bild A2.10-1 LR-Schaltung
Hinweis: Wählen Sie eine geeignete Einteilung der Frequenzachse. d) Um welche Art von Frequenzgang handelt es sich? e) Dimensionieren Sie für R = 50 : die Induktivität derart, dass die 3dB-Grenzfrequenz 10 kHz beträgt. Aufgabe 2.11
Ergänzen Sie in Bild A2.11-1 für T1 = 2T2 die beiden fehlenden Teilbilder. Beachten Sie die Achsenskalierungen. Frequenzbereich
Zeitbereich
1/T1 t
f
A t
f
T2 Bild A2.11-1 Veranschaulichung zum Zeitdauer-Bandbreite-Produkt
sUppLex
66
2 Signale und Systeme
Aufgabe 2.12
a) Welche grundlegenden Eigenschaften hat ein LTI-System? b) Was bedeutet es, wenn ein System linear ist? c) Nennen Sie die beiden (System-)Funktionen mit denen das Übertragungsverhalten eines LTI-System beschrieben wird. In welchem Zusammenhang stehen die beiden Funktionen? d) Wie wird bei einem LTI-System das Eingangssignal auf das Ausgangssignal abgebildet? e) Wie wird bei einem LTI-System das Eingangsspektrum auf das Ausgangsspektrum abgebildet? f) Welche Bedeutung hat der Frequenzgang bei sinusförmiger Erregung eines LTI-Systems? g) Wann ist eine Übertragung verzerrungsfrei? Aufgabe 2.13
a) Was versteht man unter der Impulsfunktion? Wie kann man sich ihre Wirkung anschaulich erklären? b) Was versteht man unter der Ausblendeigenschaft der Impulsfunktion? c) Welche Funktion ergibt sich aus der Faltung zweier identischer Rechteckimpulse? Aufgabe 2.14
In Bild A2.14-1 wird das Basisbandsignal x(t) auf das System mit der Impulsantwort h(t) gegeben. Skizzieren Sie das Ausgangssignal y(t). Hinweise: keine Rechnung! x(t) 1 0 -1
x(t) 3
6
1
t/T
y(t)
h(t) 0
t T
Bild A2.14-1 Filterung eines Basisbandsignals
sUppLex
67
3
Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
3.1
Einführung
Die Pulse-Code-Modulation (PCM) ist das Standardverfahren zur Digitalisierung von Sprachsignalen in der Telefonie. Die Grundlagen liefern Überlegungen zum Abtasttheorem und zur Quantisierung. Die wirtschaftlichen Voraussetzungen für den Einsatz von PCM in der Telefonie ist das ISDN (Integrated Services Digital Network) und umgekehrt. Durch die Digitalisierung fügt sich die Sprachübertragung ins ISDN ein. Früher nach Daten- und Sprachkommunikation getrennte Netze können kostengünstiger auf einer gemeinsamen Systemplattform realisiert werden. Als logischer nächster Schritt folgt heute die Telefonie über das Internet, Voice over Internet Protocol (VoIP) genannt. Zu Beginn dieses Abschnitts werden die Schritte vom analogen zum digitalen Signal im Überblick vorgestellt. Das Abtasttheorem und die Quantisierung werden behandelt. Von besonderem Interesse ist die Digitalisierung der Sprache in der Telefonie. Es wird die Frage gestellt und beantwortet, welche Bitrate zur Übertragung eines Telefonsprachsignals notwendig ist. Die Digitalisierung von Sprach- und Audiosignalen und von Bildern ermöglicht im Verbund mit den heute verfügbaren, leistungsfähigen Mikroprozessoren Anwendungen der digitalen Signalverarbeitung, die mit dem Begriff Multimedia umschrieben werden. Eine Darstellung der Multimediatechnik würde den hier abgesteckten Rahmen sprengen, jedoch sollen mit einer kurzen Vorstellung der schnelle Fourier-Transformation und der digitalen Filter Grundlagen gelegt werden. Abgerundet wird das Thema durch einen Blick auf die Audio-Codierung nach dem Standard MPEG-1 Layer III. Anmerkung: Weiterführende Literatur zum Thema Quantisierung und A/D- und D/A-Umsetzer z. B. [TiSc99] [VHH98] [Zöl04], und zur digitalen Signalverarbeitung z. B. [Kam04] [MeHo04] [Wer05b] [Wer06b].
3.2
Digitalisierung analoger Signale
Die prinzipiellen Verarbeitungsschritte zur Digitalisierung eines analogen Basisbandsignals zeigt Bild 3-1. Der erste Schritt, die Tiefpassfilterung mit der Grenzfrequenz fg, kann unterbleiben, wenn das Eingangssignal bereits passend bandbegrenzt ist. Die Digitalisierung geschieht in drei Schritten: der zeitlichen und der wertmäßigen Diskretisierung und der Codierung. Zunächst werden bei der zeitlichen Diskretisierung, auch (ideale) Abtastung genannt, jeweils alle Abtastintervalle Ta Abtastwerte x[n] = x(nTa) als Momentanwerte aus dem analogen Signal entnommen. Die zeitdiskrete Abtastfolge x[n] besitzt wertkontinuierliche Amplituden. Bei der Quantisierung werden den Amplituden über die Quantisierungskennlinie Werte aus einem diskreten Zeichenvorrat zugewiesen, so dass das digitale Signal [x[n]]Q entsteht. Im Encoder wird das digitale Signal gemäß einer Codetabelle für die diskreten Amplituden in die Bitfolge bn, auch Bitstrom genannt, umgesetzt.
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
68
analoger
x(t)
x[n] Abtastung
Quantisierung
[ x[n] ]Q
bn
Encoder
Tiefpass bandbegrenztes
zeitdiskretes digitales Bitfolge Signal Signal QuantisierungsCodetabelle fa kennlinie Abtastfrequenz
analoges Signal
fg Grenzfrequenz
Bild 3-1 Vom analogen Signal zum Bitstrom
3.3
Abtasttheorem
Eine sinnvolle zeitliche Diskretisierung liegt vor, wenn das zeitkontinuierliche Signal durch die Abtastfolge gut wiedergegeben wird. Bild 3-2 veranschaulicht beispielhaft, dass ein Signal ausreichend dicht abgetastet werden muss, damit es aus der Abtastfolge durch eine – im Beispiel lineare – Interpolation hinreichend genau wieder gewonnen werden kann. Diese grundsätzlichen Überlegungen werden im Abtasttheorem präzisiert.
Abtastwert
x(t)
0
1
x(t)
lineare Interpolation Original
2
3
t / Ta1
Abtastwert
0 Anmerkung: Der mathematische Grundgedanke 2 4 6 8 10 12 t / Ta2 des Abtasttheorems lässt sich auf J. L. Lagrange zurückführen. Wichtige Beiträge zu technischen Anwendungen der Abtastung stammen aus der ersten Hälfte des 20. Jahrhunderts: H. Nyquist Bild 3-2 Abtastung und (lineare) Interpolation (1928), V. A. Kotelnikov (1933), A. Raabe (1939) [Bro04] [Lük99]. In der englischsprachigen Literatur wird häufig von der Nyquist-Abtastung (Nyquist Sampling) und der Nyquist-Abtastrate (Nyquist (sampling) rate) gesprochen. Durch C. E. Shannon wurde 1948 das Abtasttheorem einem größeren Kreis bekannt, weshalb gelegentlich auch die Bezeichnung Shannon-Abtasttheorem zu finden ist.
Abtasttheorem Eine Funktion x(t), deren Spektrum für | f | t fg null ist, wird durch die Abtastwerte x(t = nTa) vollständig beschrieben, wenn das Abtastintervall Ta bzw. die Abtastfrequenz fa so gewählt wird, dass Ta =
1 1 ≤ fa 2 f g
(3.1)
Die Funktion kann dann durch die si-Interpolation fehlerfrei rekonstruiert werden. f
x(t )
¦
n f
x(nTa ) si f aS >t nTa @
(3.2)
Anmerkungen: (i) Man beachte die Definition der Grenzfrequenz fg, die eine Spektralkomponente bei eben dieser Frequenz im abgetasteten Signal ausschließt. (ii) Mathematisch gesehen handelt es sich bei
sUppLex
69
3.4 Quantisierung
der si-Interpolation in (3.2) um eine orthogonale Reihendarstellung ähnlich der Fourier-Reihe in (2.29), wobei die Abtastwerte die Rolle der Entwicklungskoeffizienten übernehmen.
Die Wirkung der si-Interpolation zeigt Bild 3-4. Die zur Interpolation verwendeten si-Impulse entsprechen im Frequenzbereich einem idealen Tiefpass mit der Grenzfrequenz fg. Eine Interpolation mit einem idealen Tiefpass liefert wieder das ursprüngliche zeitkontinuierliche Signal. Die praktische Anwendung des Abtasttheorems geschieht in AnalogDigital- bzw. Digital-Analog-Umsetzern.
x[i] x[i+1]
Abtastwerte x(t)
si-Funktion
t / Ta
i i+1 Die Forderung nach strikter Bandbegrenzung (3.1) wird in Bild 3-4 anhand zweier Kosinussignale mit Bild 3-3 si-Interpolation den Frequenzen f1 = 1 kHz und f2 = 7 kHz veranschaulicht. Bei der Abtastfrequenz fa = 8 kHz erhält man in beiden Fällen die gleichen Abtastwerte. Offensichtlich tritt eine Mehrdeutigkeit auf, die nur durch die Bandbegrenzung des zeitkontinuierlichen Signals aufgelöst werden kann.
x(t)
x[0]
x2(t)
x[8]
1
x[2]
x[10]
0
-1 0
t / Ta
x[6]
2
x[4] 4 x1(t)
6
8
10
Bild 3-4 Abtastung zweier Kosinussignale x1(t) und x2(t) mit den Frequenzen f1 = 1 kHz bzw. f2 = 7 kHz bei einer Abtastfrequenz von fa = 8 kHz
Eine wichtige Anwendung der Abtastung findet sich in der Telefonie mit der auf 300 Hz bis 3,4 kHz bandbegrenzten Telefonsprache. Nach (3.1) ist eine Abtastfrequenz von mindestens 6,8 kHz erforderlich. Tatsächlich wird mit 8 kHz das Signal überabgetastet, um bei der Übertragung mit der Trägerfrequenz-Technik einfachere Filter mit geringerer Flankensteilheit verwenden zu können. Aufnahmen für die Audio-CD erfassen den Frequenzbereich von 20 Hz bis 20 kHz bei einer Abtastfrequenz von 44,1 kHz.
3.4
Quantisierung
Das Prinzip der Digitalisierung wird anhand des Beispiels in Bild 3-5 erläutert. Das analoge Signal x(t) sei auf den Quantisierungsbereich [-1,1] begrenzt. Falls nicht, wird das Signal mit seinem Betragsmaximum normiert. Im Weiteren wird stets von einem Quantisierungsbereich von -1 bis +1 ausgegangen. Die Amplituden der Abtastwerte sollen mit je 3 Bits dargestellt werden. Man spricht dann von einer Wortlänge von 3 Bits und schreibt kurz w = 3. Mit 3 Bits können genau 23 = 8 Quantisierungsintervalle oder Quantisierungsstufen unterschieden werden. Bei der gleichförmigen Quantisierung teilt man den Quantisierungsbereich in 2w Intervalle mit der Quantisierungsintervallbreite oder Quantisierungsstufenhöhe.
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
70
Q = 2−(w−1)
(3.3)
Im Beispiel ergibt sich Q = 1/4. Dementsprechend ist die Ordinate in Bild 3-5 in acht gleichgroße Intervalle eingeteilt. Den Quantisierungsintervallen werden eindeutige Codenummer zugewiesen. Im Beispiel sind das die Nummern 0 bis 7. 1
7 6 5 4 3 2 1 0
x(t) 1/2
x[n] 0 -1/2 -1
Ta
0
111 110 101 100 011 010 001 000
8 t/T a
5
Bild 3-5 Gleichförmige Quantisierung mit 3 Bit Wortlänge: Analoges Signal x(t), Abtastwerte x[n], Codenummern 0 bis 7 und Codetabelle 000 bis 111
Jetzt kann die Quantisierung für jeden Abtastwert durchgeführt werden. Im Bild sind dazu entsprechend dem vorgegebenen Abtastintervall Ta die Abtastwerte als Kreise markiert. Zu jedem Abtastwert bestimmt man das Quantisierungsintervall und ordnet die entsprechende Codenummer zu. Im Beispiel des Abtastwertes für t = 8Ta ist das die Codenummer 6. Jeder Codenummer wird bei der späteren Digital-Analog-Umsetzung genau ein diskreter Amplitudenwert, der Repräsentant, zugeordnet. Bei der gleichförmigen Quantisierung liegt dieser in der Intervallmitte, so dass der Abstand zwischen Abtastwert und Repräsentant die halbe Quantisierungsintervallbreite nicht überschreitet, s. Bild 3-6. Die Repräsentanten sind im Bild als Quadrate kenntlich gemacht. Es ergibt sich eine interpolierende Treppenkurve die meist durch einen nachfolgenden Tiefpass noch geglättet wird.
111 110 101 100 011 010 001 000
7 6 5 4 3 2 1 0
1 Repräsentanten
x(t)
1/2
x[n] 0 -1/2 -1 0
interpolierende Treppenkurve
Ta
5
8 t/T a
Bild 3-6 Rekonstruktion eines analogen Signals durch interpolierende Treppenkurve
Entsprechend der Codetabelle werden die Codenummern zur binären Übertragung in ein Codewort umgewertet. Im Beispiel werden die Codenummern von 0 bis 7 nach dem BCD-Code
sUppLex
71
3.4 Quantisierung
(Binary Coded Decimal) durch die Codeworte 000 bis 111 ersetzt. Es kann der zugehörige Bitstrom abgelesen werden. bn = {011,100,100,011,011,100,101,110,110,110,101,…} Die exakte Beschreibung der Quantisierung geschieht mit der Quantisierungskennlinie. Sie definiert die Abbildung der kontinuierlichen Abtastwerte auf die zur Signalrekonstruktion verwendeten Repräsentanten. Die dem Beispiel zugrunde liegende Quantisierungskennlinie ist in Bild 3-7 links angegeben. [x]Q
[x]Q Sättigungskennlinie
7/8
3/4
Repräsentant 5/8
1/2
3/8 1/8 -1
1/4 0
x -1/8 -3/8
1
Q
x
-1
1 -1/4 Q -1/2
-5/8 -3/4 -7/8 -1 Bild 3-7 Quantisierungskennlinie der gleichförmigen Quantisierung mit w = 3 (links mit Sprung bei null und rechts mit der Darstellung von null)
An der linken Quantisierungskennlinie lassen sich die zwei grundsätzlichen Probleme der Quantisierung erkennen: ) Eine Übersteuerung tritt auf, wenn das Eingangssignal außerhalb des vorgesehenen Aussteuerungsbereichs liegt. In der Regel tritt dann die Sättigung ein und es wird der Maximalwert bzw. der Minimalwert ausgegeben (Sättigungskennlinie). ) Eine Untersteuerung liegt vor, wenn das Eingangssignal (fast) immer viel kleiner als der Aussteuerungsbereich ist. Im Extremfall entsteht granulares Rauschen bei dem das quantisierte Signal scheinbar regellos zwischen den beiden Repräsentanten um die Null herum wechselt. Bei der Quantisierung ist auf die richtige Aussteuerung des Eingangssignals zu achten. Übersteuerungen und Untersteuerungen sind zu vermeiden.
In der digitalen Signalverarbeitung sind auch andere Quantisierungskennlinien gebräuchlich. Bild 3-7 rechts zeigt die Kennlinie der Quantisierung im 2er-Komplement-Format. Der Wert null wird explizit dargestellt. Beim Einsatz von Festkomma-Signalprozessoren wird meist das 2er-Komplement-Format bei einer Wortlänge von 16 oder 32 Bits verwendet. Es werden die Zahlen im Bereich von -1 bis +1 dargestellt.
sUppLex
72
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung w−1
x = −a0 20 + ∑ ai 2−i
mit ai{0,1} und -1d x d 1- 2-w+1
(3.4)
i=1
Die negativen Zahlen berechnen sich vorteilhaft durch Komplementbildung und Addition eines Bits mit geringster Wertigkeit, dem LSB (Least Significant Bit). w−1
−x = −a0
20 +
∑ ai 2−i + 2−w+1
mit ai{0,1} und -1d x d 1- 2-w+1
(3.5)
i=1
Beispiel Zahlendarstellung im 2er-Komplement-Format mit der Wortlänge von 8 Bits 2-2 + 2-4 + 2-6 = 0,328125d = 0010 10102c -0,328125d = 1101 01102c Anmerkungen: (i) Das 2er-Komplement-Format beinhaltet die Zahl -1. Oft wird jedoch auf sie verzichtet. (ii) Das 2er-Komplement-Format ermöglicht relativ einfache Schaltungen zur Addition von positiven und negativen Zahlen. (iii) Bei aufwändigeren Signalprozessoren und auf PCs kommt häufig das GleitkommaFormat nach IEEE 754-1985 zum Einsatz. Das Gleitkomma-Format besteht aus Exponent und Mantisse, so dass ein größerer Zahlenbereich dargestellt werden kann [Wer06b].
3.5
Quantisierungsgeräusch
Aus den Repräsentanten kann das ursprüngliche Signal bis auf künstliche Spezialfälle nicht mehr fehlerfrei rekonstruiert werden. Wie im Beispiel deutlich wurde, wird der Quantisierungsfehler durch die Wortlänge kontrolliert. Je größer die Wortlänge, desto kleiner ist der Quantisierungsfehler. Mit wachsender Wortlänge nimmt jedoch auch die Zahl der zu übertragenden bzw. zu speichernden Bits zu. Je nach Anwendung ist zwischen der Qualität und dem Aufwand abzuwägen. Für die PCM in der Telefonie wird dies im Folgenden getan. Konkret soll die Frage beantwortet werden: Wie viele Bits werden zur Darstellung eines Abtastwertes benötigt? Um die Frage zu beantworten, muss zunächst die Qualität quantitativ messbar sein. Dazu verwendet man das Modell der additiven Störung mit dem Quantisierungsgeräusch in Bild 3-8. Anmerkung: Der Einfachheit halber werden zeitkontinuierliche Signale betrachtet, da die entsprechenden Zusammenhänge der digitalen Signalverarbeitung nicht als bekannt vorausgesetzt werden. Dies ist auch ohne Komplikationen möglich, weil die Quantisierung für jeden Momentanwert und damit auch für jeden Abtastwert unabhängig von der Zeit gilt.
Eingangssignal
x(t)
Quantisierung
quantisiertes Signal
[x(t)]Q
Fehlersignal '(t) > x(t)@Q x(t) Ein übersichtliches Beispiel liefert die Quantisierung des periodischen dreieckförmigen Signals x(t) in Bild 3-9. Im unteren Bild 3-8 Ersatzmodell für die gleichförmige Quantisierung mit Fehlersignal '(t) Bild ist das entstehende Fehlersignal '(t), das Quantisierungsgeräusch, aufgetragen.
sUppLex
73
3.5 Quantisierungsgeräusch Betrachtet man den Zeitpunkt t = 0, so ist x(0) = 0 und [x(0)]Q = Q / 2. Mit wachsender Zeit steigt das Eingangssignal zunächst linear an und nähert sich dem Wert des Repräsentanten. Der Fehler wird kleiner und ist für t = T0 / 16 gleich null. Danach ist das Eingangssignal größer als der zugewiesene Repräsentant. Das Fehlersignal ist negativ, bis das Quantisierungsintervall wechselt. Beim Übergang in das neue Quantisierungsintervall springt das Fehlersignal von -Q / 2 auf Q / 2. Entsprechendes kann für die anderen Signalabschnitte überlegt werden.
1
[x(t)]Q -1/2 1/2
S
T0
³ 0
2
x(t ) dt
t/T0
-1
'(t) = [x(t)]Q - x(t)
Q/2
1/
Das vorgestellte einfache Modell ermöglicht, die Qualität der Quantisierung quantitativ zu erfassen. Als Qualitätsmaß wird das Verhältnis der Leistungen des Eingangssignals und des Quantisierungsgeräusches, das SignalQuantisierungsgeräusch-Verhältnis, kurz SNR, zugrunde gelegt. Im Beispiel ergibt sich für das normierte Signal bei Vollaussteuerung die mittlere Signalleistung (2.9) 1 T0
x(t)
-1/2
t/T0
-Q/2 Bild 3-9 Quantisierung eines periodischen dreieckförmigen Signals (oben) und das dabei entstehende Fehlersignal '(t) (unten)
2 T0
T0 / 2
³ 0
2
§ t · ¨ ¸ dt © T0 / 2 ¹
1 3
(3.6)
Die mittlere Leistung des Quantisierungsgeräusches kann ebenso berechnet werden. Das Fehlersignal ist wie das Eingangssignal abschnittsweise linear, s. Bild 3-9. Nur die Werte sind jetzt auf das Intervall [-Q/2,Q/2[ beschränkt. Die mittlere Leistung ist demnach 1 Q2 Q2 N= ⋅ = 3 4 12
(3.7)
S 1/ 3 = = 22w N Q 2 /12
(3.8)
Für das SNR im Beispiel folgt
wobei die Quantisierungsintervallbreite durch die Wortlänge (3.3) ersetzt wurde. Im logarithmischen Maß resultiert das SNR S = 10 ⋅ log10 2 2 w dB = 20 ⋅ w ⋅ log10 2 dB ≈ 6 ⋅ w dB N dB
(3.9)
Das SNR verbessert sich um 6 dB pro Bit Wortlänge. Im Allgemeinen hängt das SNR von der Art des Signals ab. Ein periodischer Rechteckimpulszug der zwischen zwei Repräsentanten wechselt, wird fehlerfrei quantisiert. Einem Sinussignal wird wiederum ein anderes Fehlersignal zugeordnet. Während das SNR für derartige deterministische Signale prinzipiell wie oben berechnet werden kann, wird für stochastische Signale,
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
74
wie die Telefonsprache, die Verteilung der Signalamplituden zur Berechnung des SNR benötigt. Anmerkung: Eine einfache Approximation für die Verteilung der Sprachsignalamplituden liefert die zweiseitige Exponentialverteilung. Bei vorgegebener Verteilung, z. B. durch eine Messung bestimmt, und Wortlänge kann die Lage der Quantisierungsintervalle und Repräsentanten so bestimmt werden, dass das SNR maximiert wird. Derartige Quantisierer sind in der Literatur unter den Bezeichnungen OptimalQuantisierer und Max-Lloyd-Quantisierer zu finden [Pro01].
Das für spezielle Modellannahmen gefundene Ergebnis liefert jedoch eine brauchbare Näherung für die weiteren Überlegungen. 6dB-pro-Bit-Regel Für eine symmetrische gleichförmige Quantisierung mit hinreichender Wortlänge w in Bits und Vollaussteuerung gilt
S ≈ 6 ⋅ w dB N dB
(3.10)
Eine hinreichende Wortlänge liegt erfahrungsgemäß vor, wenn das Signal mehrere Quantisierungsintervalle durchläuft. Den Einfluss einer ungenügenden Aussteuerung schätzt man schnell ab. Halbiert man die Aussteuerung, reduziert sich die Signalleistung um 6 dB und die effektive Wortlänge um 1 Bit. Nur noch die Hälfte der Quantisierungsintervalle wird tatsächlich benützt. Anmerkung: Die Frage der Genauigkeit der Quantisierung relativiert sich vor dem Hintergrund der prinzipiell begrenzten Messgenauigkeit physikalischer Größen, wie bei der Spannungsmessung mit einem Voltmeter einer bestimmten Güteklasse. Geht man weiter davon aus, dass dem zu quantisierenden Signal eine - wenn auch kleine - Störungen überlagert ist, so ist auch nur eine entsprechend begrenzte Darstellung der Abtastwerte erforderlich.
3.6
PCM in der Telefonie
Nachdem der Einfluss der Quantisierung auf die Übertragungsqualität durch Berechnen und Messen des Signal-Quantisierungsgeräusch-Verhältnisses abgeschätzt werden kann, wird die ursprüngliche Frage wieder aufgegriffen: Wie viele Bits werden in der Telefonie zur Darstellung eines Abtastwertes benötigt? Anmerkung: Alec H. Reeves: *1902/+1971, britischer Ingenieur, 1938 Patent auf die digitale Übertragung von Sprache.
3.6.1
Abschätzung der Wortlänge
Zunächst ist der Zusammenhang zwischen der Rechen- und Messgröße SNR und der Qualität des Höreindrucks herzustellen. Dazu wurden im Rahmen der weltweiten Standardisierung umfangreiche Hörtests vorgenommen. Wesentlich für die Qualität bei üblicher Nutzung sind das SNR und die Dynamik:
) SNR Das Verhältnis von Störsignalamplitude zu Nutzsignalamplitude soll 5 % nicht überschreiten. Für das SNR heißt das
sUppLex
75
3.6 PCM in der Telefonie
⎛ 1 ⎞2 S ≥ 10 ⋅ log10⎜ ⎟ dB ≈ 26 dB N dB ⎝ 0,05⎠
(3.11)
) Dynamik Die Übertragungsqualität von 26 dB soll auch bei „leisen Sprechern“ gewährleistet sein. Insbesondere ist die Signaldämpfung auf bis zu einigen Kilometern langen Teilnehmeranschlussleitungen zu berücksichtigen. Eine Dynamikreserve von 40 dB ist deshalb vorzusehen. Anmerkung: Findet die Digitalisierung erst in der Ortsvermittlungsstelle statt, z. B. bei der analogen Anschlusstechnik, so werden den A/D-Umsetzern je nach Zuleitungslänge stark unterschiedlich ausgesteuerte Signale angeboten. Die Dynamikreserve von 40 dB entspricht einer Anschlusslänge von 4,2 km bei einer Leitung mit Aderndurchmesser von 0,4 mm und 8 bis 10,2 km bei 0,6 mm [KaKö99] [Loch02].
Die Überlegungen zum SNR und der Dynamik sind in Bild 3-10 zusammengefasst. Aufgetragen ist das SNR in dB über der Signalleistung S in dB. An der unteren Grenze des Aussteuerungsbereiches, bei -40 dB, wird ein SNR von 26 dB gefordert. Am oberen Rand der Aussteuerung, bei 0 dB, d. h. Vollaussteuerung, ist die Signalleistung um 40 dB größer. Da im Sinne der Abschätzung (3.10) die Leistung des Quantisierungsgeräusches nur von der Quantisierungsintervallbreite abhängt, ändert sich diese nicht. Die 40 dB mehr an Signalleistung gehen vollständig in das SNR ein. Man erhält 66 dB bei Vollaussteuerung. Mit der 6dB-pro-Bit-Regel (3.10) findet man als notwendige Wortlänge 11 Bits.
66 SNR in dB
w = 11
26 Dynamikbereich -50
-40
-30
-20
-10 S/dB
0
Bild 3-10 SNR in Abhängigkeit von der Signalleistung S bei der Wortlänge von 11 Bits
In der Telefonie mit der Abtastfrequenz 8 kHz resultiert aus der Wortlänge 11 Bits eine Bitrate von 88 kbit/s. Tatsächlich verwendet werden 64 kbit/s. Um dies ohne hörbaren Qualitätsverlust zu bewerkstelligen, wird in der Telefonie die gleichfömige Quantisierung durch eine Kompandierung ergänzt.
3.6.2
Kompandierung
Den Anstoß zur Kompandierung liefert die Erfahrung, dass die Qualität des Höreindrucks von der relativen Lautstärke der Störung abhängt. Je größer die Lautstärke des Nachrichtensignals, umso größer darf die Lautstärke der Störung sein. Anmerkung: Dieser Effekt wird Verdeckungseffekt genannt. Er bildet eine wichtige Grundlage der modernen Audio-Codierverfahren wie beispielsweise die MPEG Audio-Codierung, s. Abschnitt 3.8
Diese Erfahrung und die Beobachtung in Bild 3-10, dass das SNR bei der Quantisierung mit 11 Bits bei guter Aussteuerung die geforderten 26 dB weit übersteigt, motivieren dazu, eine ungleichförmige Quantisierung vorzunehmen: Betragsmäßig große Signalwerte werden mit relativ großen Quantisierungsintervallen gröber dargestellt als betragsmäßig kleine Signalwerte. Eine solche ungleichförmige Quantisierung lässt sich mit der in Bild 3-11 gezeigten Kombination aus einer nichtlinearen Abbildung und einer gleichförmigen Quantisierung erreichen. Vor die eigentliche Quantisierung im Sender wird der Kompressor geschaltet. Er schwächt die betragsmäßig großen Signalwerte ab und verstärkt die betragsmäßig kleinen. Danach schließt sich
sUppLex
76
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
eine gleichförmige Quantisierung, eine Codierung mit fester Wortlänge an. Bei der DigitalAnalog-Umsetzung, der Decodierung im Empfänger, wird das gleichförmig quantisierte Signal rekonstruiert. Dabei entsteht zusätzlich das analoge Fehlersignal '(t). Zum Schluss wird im Expander die Kompression rückgängig gemacht. Da die Expander-Kennlinie invers zur Kompressor-Kennlinie ist, wird das Nutzsignal durch die Kompandierung nicht verändert. Dies gilt nicht für das Fehlersignal. Im besonders kritischen Bereich betragsmäßig kleiner Nutzsignalanteile wird das Fehlersignal abgeschwächt. Im Bereich betragsmäßig großer Nutzsignalanteile wird es zwar mit verstärkt, aber nicht als störend empfunden. Die Anwendung der Kombination aus Kompressor und Expander wird Kompandierung genannt. A/D- und D/A-Umsetzung mit gleichförmiger Quantisierung Kompressor
Cod.
Decod. xK(t)+'(t)
xK(t)
x(t)
Expander
x(t)+'E(t)
Bild 3-11 Kompandierung
Die Kompandierung ist durch die ITU (G.711) standardisiert. Als Kompressor-Kennlinie wird in Europa die A-Kennlinie und in Nordamerika und Japan die P-Kennlinie verwendet. Die Kennlinien sind so festgelegt, dass das SNR in einem weiten Aussteuerungsbereich konstant bleibt. Beide Kompressor-Kennlinien orientieren sich an der Logarithmusfunktion, s. z. B. [MäGö02][VHH98]. Man spricht deshalb auch von einer linearen bzw. logarithmischen PCM. Anmerkung: Die Kompandierung ist vergleichbar mit der Preemphase und der Deemphase bei der FMÜbertragung im Rundfunk oder der Magnetbandaufzeichnung.
3.6.3
13-Segment-Kennlinie
Eine mögliche Realisierung der Kompandierung geschieht mit der 13-Segment-Kennlinie in Bild 3-12. Das Bild zeigt den positiven Ast der symmetrischen Kompressor-Kennlinie mit 7 Segmenten. Anmerkung: Die 13 Segmente ergeben sich aus den 7 Segmenten mit verschiedenen Steigungen im Bild und den 6 Segmenten im negativen Ast. Der linear durch die Null gehende Abschnitt wird nur einmal gezählt. 1 A
[x]Q
B C D
1/2
E F
1/4
G1 G2
0
1/8
1/4
1/2
x
1
Bild 3-12 13-Segment-Kennlinie (positiver Ast für normierte Eingangsamplituden)
sUppLex
77
3.6 PCM in der Telefonie
Der Aussteuerungsbereich des Signals wird wieder auf [-1,+1[ normiert angenommen. Der Quantisierungsbereich von 0 bis 1 wird in die acht Segmente A bis G2 unterteilt. Die Einteilung geschieht folgendermaßen: Beginnend bei A für große Signalwerte mit der Segmentbreite von 1/2 wird die Breite für die nachfolgenden Segmente jeweils halbiert. Nur die Breiten der beiden G-Segmente sind mit 1/128 gleich. In jedem Segment wird mit 16 gleich großen Quantisierungsintervallen, d. h. mit 4 Bits, gleichförmig quantisiert. Dies hat den praktischen Vorteil, dass nur ein A/D-Umsetzer benötigt wird. Das Eingangssignal wird durch einen Verstärker an den Aussteuerungsbereich des A/DUmsetzers angepasst. Der verwendete Verstärkungsfaktor ist charakteristisch für das Segment und liefert mit dem Vorzeichen die restlichen 4 Bits zum Codewort. Da die Segmente unterschiedlich breit sind, unterscheiden sich auch die Quantisierungsintervallbreiten von Segment zu Segment. Die Werte sind für die einzelnen Segmente in Tabelle 3-1 zusammengestellt. Eine Modellrechnung für das SNR nach der 6dB-pro-Bit-Regel zeigt den Gewinn durch die ungleichmäßige Quantisierung auf. Zunächst wird in Tabelle 3-1 über den Zusammenhang zwischen der Quantisierungsintervallbreite und der Wortlänge bei gleichförmiger Quantisierung (3.3) jedem Segment eine effektive Wortlänge weff zugeordnet. Betrachtet man beispielsweise das A-Segment mit weff = 6, so resultiert aus der 6dB-pro-Bit-Regel die SNR-Abschätzung mit 36 dB in Tabelle 3-1. Da beim Wechsel zum nächsten Segment jeweils sowohl der Aussteuerungsbereich als auch die Quantisierungsintervallbreite halbiert werden, liefert die SNRAbschätzung stets einen Wert zwischen 30...36 dB. Nur bei sehr kleiner Aussteuerung - außerhalb des zulässigen Dynamikbereiches - ist die Abschätzung nicht mehr gültig.
Tabelle 3-1 Quantisierungsintervallbreiten Q der 13-Segment-Kennlinie, effektive Wortlänge weff (3.3) und SNR-Abschätzung mit der 6dB-pro-Bit-Regel Segment
A
B
C
D
E
F
G1
G2
Q
2-5
2-6
2-7
2-8
2-9
2-10
2-11
2-11
6
7
8
9
10
11
12
12
weff (Bits) SNR in dB
Das Ergebnis der Modellrechnung veranschaulicht Bild 3-13 veranschaulicht. Darin ist wieder das SNR über der Signalleistung aufgetragen. Diesmal als Kurvenschar in Abhängigkeit von der (effektiven) Wortlänge. Bei der Quantisierung mit der 13-Segment-Kennlinie wird aussteuerungsabhängig die effektive Wortlänge gewechselt, so dass die Qualitätsanforderung von mindestens 26 dB im gesamten Dynamikbereich erfüllt wird. Die insgesamt benötigte Wortlänge bestimmt sich aus der binären Codierung der Zahl der Quantisierungsintervalle pro Segment (hier 16) mal der Zahl der Segmente
30 ... 36
66 w = 12
10
SNR in dB 36
8
26
30 Dynamikbereich
-50
-40
-30
-20
-10 S/dB
0
Bild 3-13 SNR in Abhängigkeit von der Signalleistung S im Dynamikbereich von 0 bis -40 dB bei verschiedenen Wortlängen (w) von 6 bis 12 Bits
sUppLex
78
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
pro Ast (hier 8) mal der Zahl der Äste (hier 2) zu
w = log 2 (16 ⋅ 8 ⋅ 2) = 8
(3.12)
Die benötigte Wortlänge kann durch den Einsatz der 13-Segment-Kennlinie ohne Qualitätseinbuße auf 8 Bits reduziert werden. Die durch die Modellrechnung gefundene Abschätzung des SNR wird durch experimentelle Untersuchungen bestätigt. Die Messergebnisse zeigen sogar, dass mit der 13-Segment-Kennlinie die Anforderungen übererfüllt werden. In Bild 3-14 sind die Ergebnisse einer Simulation für Sinussignale eingetragen. Im Vergleich mit Bild 3-13 erkennt man, wie gut die vereinfachte Modellrechnung mit den tatsächlich gemessenen SNR harmoniert. Im Dynamikbereich von -40 dB bis 0 dB bleibt das SNR der Quantisierung deutlich über 30 dB, weitgehend sogar über den 36 dB der theoretischen Abschätzung mit dem gleichverteilten Signal.
in dB
40
Übersteuerung
SNR
35 30
Dynamikbereich
20 15
-50
Untersteuerung
25
-40
-30
-20
-10
0
10
S in dB
Bild 3-14 SNR der Quantisierung in Abhängigkeit von der Signalleistung S bei Quantisierung von Sinussignalen mit der 13-Segment-Kennlinie
Waren A/D-Umsetzer bei der Einführung der PCM-Technik in den 1960er Jahren relativ teuer, so sind heute im Audiobereich A/D-Umsetzer mit 12 Bit Wortlänge preiswerte Massenprodukte. Es werden deshalb für die Kompandierung 12-Bit-A/D-Umsetzer verwendet und die Wortlänge durch Codeumsetzung reduziert. Tabelle 3-2 verdeutlicht die Codierungsvorschrift. Im PCM-Format werden mit einem Bit das Vorzeichen V und mit 3 Bits das Segment angezeigt. Die führenden 4 relevanten Bits der gleichförmigen Quantisierung werden übernommen. Anmerkung: In Tabelle 3-2 wird deutlich, dass die logarithmischen PCM als eine Quantisierung im Gleitkomma-Format gedeutet werden kann. Die Segmentanzeige übernimmt dabei die Rolle des Exponenten [Zöl04].
Zum Schluss wird die Bandbreite bei der PCM-Übertragung und der herkömmlichen analogen Übertragung verglichen. Während bei letzterer nur ca. 4 kHz benötigt werden, w = 8 (Bits) Wortlänge erfordert die binäre Übertragung des PCMBitrate Rb = 64 kbit/s Bitstroms im Basisband nach (4.20) eine (Nyquist-) Bandbreite von ca. 32... kHz. Die größere Bandbreite wird durch eine größere Störfestigkeit belohnt [Kam04]. PCM-Sprachübertragung in der Telefonie Abtastfrequenz fa = 8 kHz
sUppLex
79
3.7 Digitale Signalverarbeitung
Die PCM-Sprachübertragung wurde in den 1960er Jahren zunächst im Telefonfernverkehr eingeführt und war Grundlage für die Wahl der Datenrate der ISDN-Basiskanäle. Moderne Sprachcodierverfahren berücksichtigen zusätzlich die statistischen Bindungen im Sprachsignal, sowie psychoakustische Modelle des menschlichen Hörens. Der Sprachcodierer nach dem ITU G.729 Standard von 1996 ermöglicht, Telefonsprache bei der PCM-üblichen Hörqualität mit einer Datenrate von 8 kbit/s zu übertragen [VHH98]. Es lassen sich so theoretisch bis zu acht Telefongespräche gleichzeitig auf einem ISDN-Basiskanal übertragen. Tabelle 3-2 PCM-Codierung Segment
Wertebereich
gleichförmige Quantisierung mit w = 12 und Vorzeichen V
PCM-Format mit Vorzeichen V und Segmentanzeige
A (7)
2-1 d | x | < 1
V 1XXX X--- ----
V 111 XXXX
B (6)
-1
2 d|x|<2
V 01XX XX-- ----
V 110 XXXX
C (5)
2-3 d | x | < 2-2
V 001X XXX- ----
V 101 XXXX
D (4)
2 d|x|<2
V 0001 XXXX ----
V 100 XXXX
E (3)
-4
2 d|x|<2
V 0000 1XX XX--
V 011 XXXX
F (2)
2-6 d | x | < 2-5
V 0000 01X XXX-
V 010 XXXX
G1 (1)
2-7 d | x | < 2-6
V 0000 0001 XXXX
V 001 XXXX
G2 (0)
0d|x|<2
V 0000 0000 XXXX
V 000 XXXX
-2
-4
-3
-5
-7
3.7
Digitale Signalverarbeitung
3.7.1
Einführung
Die Digitalisierung von Signalen liefert geordnete Zahlenfolgen, die in natürlicher Weise für die elektronische Verarbeitung geeignet sind. Es bietet sich an, analoge Komponenten durch mikroelektronische Systeme zu ersetzen. Die Vorteile sind u. a. ) die Langzeit- und Temperaturbeständigkeit ) die Reproduzierbarkeit ) die hohe Zuverlässigkeit ) die geringe Störempfindlichkeit
Für die digitale Signalverarbeitung kommen weitere Vorteile hinzu ) die, über die Wortlänge, skalierbare Genauigkeit ) die Flexibilität durch Programmierbarkeit ) die Adaptivität durch signalabhängige Parameter und selbst lernende Algorithmen
Ging es zunächst darum, bestehende analoge Systeme durch digitale zu ersetzen, hat sich die digitale Signalverarbeitung heute zu einem interdisziplinären Fachgebiet entwickelt. Sie bildet die Grundlage für viele naturwissenschaftlich-technische Anwendungen. Einer Einführung angemessen, werden in den folgenden Unterabschnitten die wahrscheinlich wichtigsten zwei An-
sUppLex
80
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
wendung der digitalen Signalverarbeitung vorgestellt: die schnelle Fourier-Transformation und die digitalen Filter.
3.7.2
Schnelle Fourier-Transformation
Die schnelle Fourier-Transformation (FFT, Fast Fourier Transform) hat sich zum Standardverfahren für die Messung von Fourier-Spektren analoger Signale entwickelt. Sie ist ein effizienter Algorithmus zur Berechnung der diskreten Fourier-Transformation (DFT, Discretetime Fourier Transform), deren Prinzip und Anwendung im Folgenden vorgestellt wird [Wer05b][Wer06b]. Bild 3-15 zeigt das Prinzip: Ein analoges Signal x(t) wird, gegebenenfalls nach Tiefpassfilterung, digitalisiert. Eine ausreichende Wortlänge wird vorausgesetzt, so dass die Quantisierung im Weiteren vernachlässigt werden kann. Für die Berechnung der FFT wird ein Block der Länge N aus dem Signal geschnitten, man spricht von einer Fensterung. Die FFT des Blockes liefert die DFT-Koeffizienten X[k], die angezeigt und weiter verarbeitet werden können. Anzeige
Fensterung
TP
x(t)
A/D
x[n]
FFT
X[k]
Bild 3-15 Spektralanalyse mit der schnellen Fourier-Transformation (FFT)
Wird das Abtasttheorem eingehalten, so gilt für die Spektren der Abtastfolge und des abgetasteten Signals der Zusammenhang X (e jΩ ) =
1 ⋅ X ( jω ) ωT =Ω für : = [-S,+S] und Ta d 1/(2fg) a Ta
Das Spektrum des analogen Signals mit der Kreisfrequenz Z wird eineindeutig in das Spektrum des zeitdiskreten Signals mit der normierten Kreisfrequenz : abgebildet, s. Bild 3-16. Dabei gilt
Ω = ω ⋅Ta = 2π ⋅
f fa
X( jZ)
Z 0 X( ej:) Zg Za/2
(3.14)
Der halben Abtastfrequenz wird stets die normierte Kreisfrequenz S zugeordnet. Ist beispielsweise die Abtastfrequenz 20 kHz, so entspricht der normierten Kreisfrequenz :0 = 0,4S die Frequenz f0 = 4 kHz.
(3.13)
:
-S
0
:g
S
Bild 3-16 Zusammenhang zwischen dem Spektrum eines zeitkontinuierlichen Signals und dem seiner Abtastfolge (schematische Darstellung)
Bei Beachtung des Abtasttheorems geht keine Information über das Signal oder äquivalent sein Spektrum verloren; anders beim Beschneiden des Signals durch Fensterung. Man spricht dann von der Kurzzeit-Spektralanalyse bzw. vom Kurzzeit-Spektrum. Dem Nachteil der Signalverkürzung steht der Vorteil der einfachen Verarbeitung im Rechner gegenüber. Darüber
sUppLex
81
3.7 Digitale Signalverarbeitung
hinaus ist in den Anwendungen oft die Veränderung des Kurzzeit-Spektrums von Block zu Block von Interesse. Die Kurzzeit-Spektralanalyse basiert auf der diskreten Fourier-Transformation (DFT). Sie bildet N Signalwerte x[n] eineindeutig in die N DFT-Koeffizienten X[k] des DFT-Spektrums ab und umgekehrt. Die DFT steht in engem Zusammenhang mit der Fourier-Reihe. Die Inverse DFT, die Synthesegleichung, stellt die Folge x[n] als Überlagerung von Kosinus- und Sinusfolgen dar. 1 x[n] = N
N −1
+j
∑ X [k ]⋅ e
k =0
2π ⋅kn N
1 = N
N −1
⎛
⎤⎞
∑ X [k ]⋅⎜⎝cos⎢⎣ 2Nπ ⋅ kn ⎥⎦+ j sin⎢⎣ 2Nπ ⋅ kn ⎥⎦⎟⎠ ⎡
⎤
⎡
(3.15)
k =0
Der Betrag der DFT-Koeffizienten ist proportional zur Amplitude der Harmonischen im Block. Anmerkungen: (i) Man beachte die Beschränkung auf N / 2 Harmonische wegen der Symmetrien der Sinus- und Kosinusfolgen. (ii) Bei bandbegrenzten periodischen Signalen, werden mit der DFT (FFT) die Fourier-Koeffizienten bestimmt. Die DFT kommt darum bei der Messung von Klirrfaktoren zum Einsatz.
Beispiel Diskrete Fourier-Transformation
Ein anschauliches Beispiel liefert die Signalsynthese. Wir gehen von einem DFT-Spektrum der Länge N = 16 aus mit den DFT-Koeffizienten X [k ] = {0,8,−8,−8,16,0,0,0,0,0,0,0,16,−8,−8,8}
(3.16)
Der Einfachheit halber ist das DFT-Spektrum reell und gerade, d. h. X[k] = X[N–k] und k = 0, 1, 2, …, N / 2. Es ist in Bild 3-17 oben zu sehen. Darunter wird das Zeitsignal x[n] gezeigt. Wegen der geraden Symmetrie ist das Zeitsignal reell und enthält nur kosinusförmige Anteile. Sie sind als 1. bis 4. Harmonische ebenfalls in Bild 3-17 dargestellt. Die 1. Harmonische ist eine Kosinusfolge mit Periode N, die 2. Harmonische eine Kosinusfolge mit Periode N / 2, usw. Die Periode 1 entspricht dem Gleichanteil, dessen Amplitude durch X[0] bestimmt wird. Im Beispiel ist der Gleichanteil null. Addiert man die Harmonischen entsteht das Zeitsignal, x1[n] + x2[n] + x3[n] + x4[n] = x[n]. Anmerkung: Es gilt Entsprechendes zur Fourier-Reihe. Bei reellen Zeitsignalen setzt sich die n-te Harmonische aus dem Kosinus- und dem Sinusanteil bei der normierten Kreisfrequenz :k = 2Sk / N zusammen. Gelten bestimmte Symmetrien im Signal, ergeben sich Sonderfälle für die DFT-Koeffizienten und umgekehrt. Im Beispiel besitzt das Signal – ohne x[0] – eine gerade Symmetrie bzgl. n = N / 2 ________________________________________________________________________________Ende des Beispiels
Die DFT liefert die harmonische Analyse. Sie zerlegt den Signalblock in Sinus- und Kosinusfolgen mit den normierten Kreisfrequenzen :k = k 2S / N für k = 0, 1, 2, …, N/2. Die DFT einer Folge der Länge N ist definiert als N −1
X [k ] =
−j
∑ x[n]⋅ e
2π ⋅kn N
(3.17)
n=0
Ist die Abtastfolge periodisch mit N einem ganzzahligen Vielfachen der Periode, so sind die DFT-Koeffizienten gleich den Werten des Spektrums bei den normierten Kreisfrequenzen :k = k2S / N mit k = 0, 1 , 2,…, N-1.
sUppLex
82
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung 20
X[k] DFT-Spektrum
k
0 0
5
-20
x[n] Zeitsignal
n
0
x1[n]
0
5
15
1
n
0 -1
x2[n] 2. Harmonische
0
5
10
15
1
n
0 5
-1
x3[n] 3. Harmonische
10
15
1
n
0 5
-1
x4[n] 4. Harmonische
15
4
-4
1. Harmonische
10
10
15
1
n
0 -1
0
5
15
Bild 3-17 DFT-Spektrum und zugehöriges Zeitsignal mit den harmonischen Anteilen
Meist ist das nicht der Fall. Dann liefern die DFT-Koeffizienten Approximationswerte des Spektrums. Die Approximation ist umso besser, je größer die Blocklänge N ist. Ein einfaches Beispiel wird im Unterabschnitt zur FIR-Filtern vorgestellt. Eine angemessen Diskussion der Eigenschaften des DFT-Spektrums würde den Rahmen einer Einführung sprengen, weshalb auf die Literatur zur digitalen Signalverarbeitung verwiesen wird. Anmerkung: Der Approximationsfehler kann durch die Form des Fensters beeinflusst werden. In der digitalen Signalverarbeitung werden je nach Randbedingungen verschiedene Fenster eingesetzt, wie z. B. das Hamming-Fenster, das Gauß-Fenster und einige mehr.
Eine wichtige Kenngröße der Spektralanalyse ist die spektrale Auflösung. Aus dem Abstand zweier Stützstellen im Spektrum der Folge 2π / N folgt aus (3.14) die spektrale Auflösung bzgl. des abgetasteten Signals Δf = f a N
(3.18)
sUppLex
3.7 Digitale Signalverarbeitung
83
Wird beispielsweise bei einer Messung mit einer Abtastfrequenz von 20 kHz und einer DFTLänge von N = 1024 gearbeitet, so sind Frequenzkomponenten mit kleinerem Abstand als 19,5 Hz nicht zu unterscheiden. In vielen Anwendungen ist deshalb eine große Blocklänge N erwünscht oder erforderlich. Andererseits steigt mit der Blocklänge der Rechenaufwand der DFT (3.17) quadratisch. Hier kommt die schnelle Fourier-Transformation (FFT, Fast Fourier Transform) zum Zuge. Sie ist ein Algorithmus zur effizienten Berechnung der DFT. Der Rechenaufwand steigt bei der FFT nur linear mit der Blocklänge. Ist die Blocklänge eine Zweierpotenz, so ergibt sich die besonders effiziente Radix-2-FFT. Aus diesem Grund werden in den Anwendungen meist solche Blocklängen verwendet. Abschätzungen der Zahl der erforderlichen Rechenoperationen (FLOP, Floating Point Operation) liefern für N = 1024 für die DFT mit der Summenformel (3.17) 8,4 Mio. FLOPs und für die Radix-2-FFT 0,082 Mio. FLOPs. Also eine Ersparnis um zwei Größenordnungen [Wer06b]. In der Telefonie wird die diskrete Fourier-Transformation zur Erkennung der Töne beim Mehrfrequenzwahlverfahren verwendet. Jeder Telefontaste ist ein Tonpaar mit bestimmten Frequenzen zugeordnet. Wird eine Taste gedrückt, wird das zugehörige Tonpaar für etwa 65 ms übertragen. Aufgabe der Gegenstation ist es, die gedrückte Taste anhand des empfangen Signals zu erkennen. Anmerkungen: (i) Das Verfahren ist von der ITU als DTMF-Verfahren (Dial-Tone Multi Frequency) standardisiert. Z. B. ist für die Taste „1“ das Frequenzpaar 697 Hz und 1209 Hz festgelegt. (ii) Aus Aufwandsgründen wird der Goertzel-Algorithmus bevorzugt, da nur wenige DFT-Koeffizienten bestimmt werden müssen [Wer06b].
Für viele Anwendungen aus dem Bereich der Mustererkennung interessieren die Änderungen im Kurzzeit-Spektrum. So treten beispielsweise an Maschinen aufgrund von Abnutzungen bei beweglichen Teilen Eigenschwingungen auf, die auf eine baldige Störung hinweisen. Liefert die FFT einen oder mehrere DFT-Koeffizienten in einem gewissen Frequenzbereich, deren Beträge gewisse Schwellen überschreiten, so kann eine Wartung angefordert oder gegebenenfalls sogar abgeschaltet und Alarm ausgelöst werden. Die Interpretation des DFT-Spektrums hängt von der jeweiligen Anwendung ab. Sie ergibt sich entweder aus Modellüberlegungen oder empirischen Befunden.
3.7.3
Digitale Filter
3.7.3.1
Simulation mit digitalen Filtern
Ein wichtiges Einsatzgebiet der digitalen Signalverarbeitung ist die Filterung bandbegrenzter analoger Signale, s. Bild 3-18. Man spricht in diesem Zusammenhang auch von einer Simulation. Dabei soll das Signal am Ausgang des D/A-Umsetzers in seinen wesentlichen Merkmalen gleich dem Ausgangssignal des zu ersetzenden analogen Filters sein. Anmerkungen: (i) In der Systemtheorie werden ideale A/D- und D/A-Umsetzern für die mathematische Herleitungen des Simulationstheorems verwendet und die Ausgangssignale dazu gleichgesetzt [Unb02]. Für die Praxis kommt es darauf an, dass gewisse Anforderungen erfüllt werden, vgl. Toleranzschema zum Filterentwurf. (ii) Entsprechend dem engen Zusammenhang zwischen analogen Signalen und ihren Abtastfolgen ergibt sich die Beschreibung der digitalen Filter als LTI-Systeme entsprechend der Beschreibung analoger Filter.
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
84
x(t)
x(t)
y(t)
analoges Filter
x[n]
A/D
digitales Filter
y[n]
D/A
y(t)
Bild 3-18 Digitale Filterung analoger Signale (Simulation)
Digitale Filter, die Realisierungen lineare zeitinvariante Systeme darstellen, bestehen aus Addieren, Multiplizieren und Verzögerern. Bild 3-19 zeigt zwei gebräuchliche Strukturen digitaler Filter: die transversale Struktur für FIR-Filter (Finite Impulse Response) N-ter Ordnung und einen Block 2. Ordnung wie er in IIR-Filtern (Infinite Impulse Response) verwendet wird. IIRFilter höhere Ordnung können durch entsprechende Kaskadierung von Blöcken 2. Ordnung (und gegebenenfalls 1. Ordnung) aufgebaut werden. Selbstredend ist auch eine Software-Realisierung auf einem Mikroprozessor möglich. Addierer, Multiplizierer und Verzögerer werden beispielsweise durch die Assembler-Befehle Addition (ADD), Multiplikation (MUL) und Speicherzugriff (LOAD bzw. STORE) mit passender Adressierung ersetzt. x[n] x[n]
D
b0
D
b1
D
b1
b2 bN-1
D -a2
b0 D
-a1
y[n]
a0 = 1
y[n] Bild 3-19 Digitales Filter in transversaler Struktur (links) und als rekursiver Block 2. Ordnung (rechts)
3.7.3.2
FIR-Filter
FIR-Filter in der transversalen Struktur werden von digitalen Signalprozessoren besonders unterstützt. Digitale Signalprozessoren verfügen meist über einen MAC-Befehl (Multiply and Accumulate), so dass ein Signalzweig des Transversalfilters in einem Zyklus berechnet werden kann. Dabei werden die Multiplikationsergebnisse in einen Akkumulator geschrieben, der über Reservebits mit Schutz gegen Überlauf verfügt. Die Software-Realsierung in einer höheren Programmiersprache geschieht durch eine Schleife, z. B. in MATLAB 1 for k=0:N-1 y[n] = b(1+k)*x(1+n-k); end 1 MATLAB® ist eingetragenes Markenzeichen der Fa. The MathWorks, Inc., U.S.A. Der Feldindex 0 ist
in MATLAB nicht möglich.
sUppLex
85
3.7 Digitale Signalverarbeitung Das FIR-System realisiert die Faltung des Eingangssignals x[n] mit der Impulsantwort h[n], N −1
y[n] =
∑ h[k ]⋅ x[n − k ] = h[n] ∗ x[n]
(3.19)
k=0
wobei die Filterkoeffizienten bn gleich der Impulsantwort sind mit h[n] = bn für n = 0, 1, …, N-1 und null sonst
(3.20)
Im Frequenzbereich wird aus der Faltung der Zeitfunktionen das Produkt der Spektren. Das Spektrum um Filterausgang ist Y ( e jΩ ) = H (e jΩ ) ⋅ X ( e jΩ )
(3.21)
mit der Fourier-Transformierten des zeitdiskreten Eingangssignals +∞
X ( e jΩ ) =
∑
x[n]⋅ e− jΩ n
(3.22)
n=−∞
und dem Frequenzgang des FIR-Filters H ( e jΩ ) =
N −1
∑ h[n]⋅ e− jΩ n
(3.23)
n=0
Anmerkungen: (i) (3.19) und (3.21) geben die Eingangs-Ausgangsgleichungen eines zeitdiskreten LTISystems im Zeit- bzw. im Frequenzbereich wider. An die Stelle des Faltungsintegrals und des Integrals für die Fourier-Transformation treten hier in natürlicher Weise die Summen. (ii) Die Beschreibung der zeitdiskreten FIR- und IIR-Filter geschieht wie für die zeitkontinuierlichen LTI-Systeme in Abschnitt 2.12 durch die Impulsantwort und den Frequenzgang [Wer05b].
Beispiel FIR-Filter
Die Wirkungsweise des FIR-Filters veranschaulichen wir am Besten durch ein Beispiel. Dazu wählen wir einen Tiefpass mit der normierten Durchlasskreisfrequenz :D = 0,3S, der Durchlasstoleranz GD = 0,05, der normierten Sperrkreisfrequenz :S = 0,5S und der Sperrtoleranz GS = 0,001. Der Filterentwurf, z. B. mit MATLAB nach dem Parks-McClellan-Verfahren für linearphasige FIR-Filter, liefert die Impulsantwort in Bild 3-20. Man erkennt die für den Tiefpass typische, dem si-Impuls ähnliche Form der Einhüllenden, vgl. Bild 2-27. Die Filterordnung N beträgt 20. Den Betrag des Frequenzganges in linearer und logarithmischer Darstellung zeigt Bild 3-21 links bzw. rechts. Der Frequenzgang entspricht im Wesentlichen den Vorgaben. Anmerkung: Im Sperrbereich ist deutlich zu erkennen, dass die Sperrtoleranz von -60 dB nicht eingehalten wird. Für das Beispiel ist das jedoch nicht wichtig, weshalb auf einen erneuten Filterentwurf mit etwas höherer Filterordnung verzichtet wird.
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
86
h[n] 0,3 0,2 0,1
n
0 -0,1 0
20
10
Bild 3-20 Impulsantwort des FIR-Tiefpasses
|H( ej: )|
20lg |H( ej: )| 0
1
-20 [dB] -40 -60 0 0
0,3 :D
0,5 :S
:/S
1
0
0,3 :D
0,5 :S
:/S
1
Bild 3-21 Betragsfrequenzgang des FIR-Tiefpasses
Die Wirkung des Tiefpasses soll an einem Signalbeispiel erprobt werden. Dazu nehmen wir als Eingangssignal ein normalverteiltes, unkorreliertes Rauschsignal. Bild 3-22 oben zeigt einen Ausschnitt des Eingangssignals x[n]. Die Werte springen unkorreliert auf und ab. Zur besseren Anschaulichkeit sind sie durch eine gestrichelte Linie verbunden. Rechts daneben sind die Beträge der DFT-Koeffizienten für die Blocklänge N = 100 zu sehen; also für den Bereich der normierten Kreisfrequenz von 0 bis S. Das Kurzzeit-Spektrum schwankt ebenso quasi zufällig. Alle Spektralkomponenten scheinen im Signal vorhanden. Anmerkungen: (i) Weil das Signal x[n] reell ist, ist der Betrag des DFT-Spektrums eine gerade Funktion, weshalb sich die graphische Darstellung auf die DFT-Koeffizienten bis N/2 ohne Informationsverlust beschränkt werden kann, s. a. Beispiel (3.16). (ii) Die DFT eines Blocks unkorrelierter normalverteilter Zufallsvariablen liefert selbst wieder einen Block unkorrelierter normalverteilter Zufallsvariablen.
Am Ausgang des Tiefpass liegt das Signal y[n] vor. Bild 3-22 unten zeigt den zum oberen Teilbild passenden Signalausschnitt. Im Vergleich mit dem Eingangssignal lässt sich eine Glättung des Signals erkennen, wie sie für die Tiefpassfilterung typisch ist. Besonders deutlich wird die Tiefpassfilterung im DFT-Betragsspektrum rechts im Bild. Ab k = 25, d. h. dem Beginn des Sperrbereichs des Tiefpasses, :k = :S, sind die DFT-Koeffizienten näherungsweise null. Im Durchlassbereich, d. h. von k = 0 bis ca. 15, stimmen die Beträge der DFT-Koeffizienten vor und nach der Filterung im Rahmen der Ablesegenauigkeit überein.
sUppLex
87
3.7 Digitale Signalverarbeitung
Anmerkung: Mit der Sperrkreisfrequenz von :S = 0,5S ist der Glättungseffekt deutlich, aber noch nicht stark ausgeprägt. Bei einer kleinere Durchlass- und Sperrkreisfrequenz wäre er deutlicher – allerdings mit entsprechend gestiegener Ordnung des Filters. 4
20
x[n]
| X [k] |
2
n
0
10
-2 -4
0
50
0
100
k 0
10
20
30
40
50
10
20
30
40
50
20
2
y[n]
| Y [k] |
1
n
0
10
-1 -2
0
50
100
0
k 0
Bild 3-22 Eingangssignal x[n] und Ausgangssignal y[n] des FIR-Tiefpasses
3.7.3.3
IIR-Filter
Für IIR-Filter gelten die gleichen Eingangs-Ausgangsgleichungen wie für die FIR-Filter (3.19) und (3.21); allerdings ist die Impulsantwort zeitlich nicht beschränkt. Der Unterschied liegt in der inneren Struktur der Filter und damit bei dem Entwurf, den Eigenschaften und der praktischen Realisierung der Filter. Durch die Signalrückführung, s. Bild 3-19, entsteht eine Rückkopplung – einem Regelkreis vergleichbar – die zur Instabilität durch Fehler beim Entwurf oder unzulängliche Implementierung führen kann. Andererseits ermöglicht die Signalrückführung selektive Filter mit schmalen Übergangsbereichen bei niedrigen Filterordnungen. Die Standardapproximationen analoge Filter, wie Butterworth-, Chebyshev- und Cauer-Filter, sind auf digitale IIR-Filter übertragbar. Beispiel IIR-Filter
Wir knüpfen an das Beispiel des FIR-Filters an und übernehmen die Anforderungen im Frequenzbereich. Als Filtertyp wählen wird einen Cauer-Tiefpass und wenden ein Filterentwurfsprogramm an, wie z. B. MATLAB. Als Entwurfsergebnis erhalten wird die Filterkoeffizienten für die Kaskadenform in Blöcken 1. und 2. Ordnung in Tabelle 3-3. Die Filterkoeffizienten bestimmen die rationale Übertragungsfunktion entsprechend zu (2.43) für analoge LTI-Systeme.
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
88
H ( z ) = H1 ( z ) ⋅ H 2 ( z ) ⋅ H 3 ( z ) = =
b0,1 + b1,1z−1 b0,2 + b1,2 z−1 + b2,2 z−2 b0,3 + b1,3 z−1 + b2,3 z−2 ⋅ ⋅ a0,1 + a1,1z−1 a0,2 + a1,2 z−1 + a2,2 z−2 a0,3 + a1,3 z−1 + a2,3 z−2
(3.24)
Aus Tabelle 3-3 kann unmittelbar das Blockdiagramm in Bild 3-23 abgeleitet werden. Anmerkung: Der Einfachheit halber wird auf die Skalierung mit dem Verstärkungsfaktor G und speziellen Aspekten der Implementierung, wie die Darstellung der Filterkoeffizienten im 2er-Kompleme nt-Format, 2er-Komplement-Format, verzichtet [Wer06b].
Tabelle 3-3
Filterkoeffizienten für den Cauer-Tiefpass mit den Entwurfsvorgaben: norm. Durchlasskreisfrequenz :D = 0,3S, Durchlasstoleranz GD = 0,05, norm. Sperrkreisfrequenz :S = 0,5S und Sperrtoleranz GS = 0,001 Zählerkoeffizienten
Nennerkoeffizienten
b0
b1
b2
a0
a1
a2
Block 1
1
1
–
1
–0,6458
–
Block 2
1
0,7415
1
1
–1,1780
0,5741
Block 3
1
-0,0847
1
1
–1,0638
0,8562
Verstärkungsfaktor G = 0,0106
x[n]
Block 1
Block 2 D 0,7415
0,6458 a0 = 1
s2[n] D -0,5741
Block 3
s1[n] D
-0,0847
1,1780 a0 = 1
y[n] D
D
-0,8562
1,0638 a0 = 1
Bild 3-23 Blockdiagramm des digitalen Filters in Kaskadenform für den Cauer-Tiefpass 5. Ordnung
Die Software-Implementierung in einer höheren Programmiersprache, wie z. B. MATLAB, lässt sich aus dem Blockdiagramm schnell ableiten. Hierzu betrachten wir den Block 2 in Bild 3-23. Zusätzlich eingetragen sind dort die zwei inneren Größen s1[n] und s2[n], auch Zustands-
sUppLex
89
3.7 Digitale Signalverarbeitung
größen genannt. Sie beschreiben die Signale an den Ausgängen der Verzögerer. Im Programm dienen sie als Speichervariablen. Demzufolge sind für einen Block 2. Ordnung drei Schritte in der angegebenen Reihenfolge durchzuführen: Berechnung des Ausgangswertes y[n], aktualisieren der Zustandsgröße s1[n] und aktualisieren der Zustandsgröße s2[n]. y(n) = b(1)*x(n) - s(1); s(1) = b(2)*x(n) - a(2)*y(n) + s(2); s(2) = b(3)*x(n) - a(3)*y(n); Anmerkung: (i) b(k) = bk-1 und a(k) = ak-1 (ii) Die Zustandsgrößen müssen jeweils gemerkt werden.
Wir überprüfen den Frequenzgang des Cauer-Tiefpasses. Er ergibt sich aus der Übertragungsfunktion (3.24) für z = ej:. Sein Betrag ist in Bild 3-24 dargestellt. Die Entwurfsvorgaben werden eingehalten. Wie bei dem Betragsfrequenzgang des FIR-Tiefpassfilters in Bild 3-21 liegt eine Chebyshev-Approximation mit Equiripple-Verhalten in Durchlass- und Sperrbereich vor. |H( ej: )| 0
1 0,8
20lg |H( ej: )|
-20
[dB]
0,6
-40 0,4 0,2 0
-60
0
0,2 :D 0,4 : S 0,6
0,8
:/S
1
0,2 :D 0,4 : 0,6 S
0
0,8
:/S
1
Bild 3-24 Betragsfrequenzgang des Cauer-Tiefpasses 5. Ordnung
Abschließend wird die Impulsantwort des Cauer-Tiefpasses in Bild 3-25 vorgestellt. Sie beschreibt das Übertragungsverhalten des Systems vollständig. Für eine weitergehende Diskussion wird der Kürze halber auf die digitale Signalverarbeitung verweisen, z. B. [Wer05b] [Wer06b] 0,3
h[n] 0,2
0,1
n
0 20
40
60
-0,1 0
Bild 3-25 Impulsantwort des Cauer-Tiefpasses 5. Ordnung
sUppLex
90
3.8
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
Audio-Codierung
Am Beispiel des MP3-Players ist, wie vielleicht kein zweites Mal, der Fortschritt der Informationstechnik für die breite Öffentlichkeit sichtbar geworden. Die moderne Audio-Codierung verbindet fortschrittliche Methoden der digitalen Signalverarbeitung mit bezahlbarer, leistungsfähiger Mikroelektronik. Audiosignale werden bei vorgegebener Qualität so dargestellen, dass sie mit möglichst geringem Umfang gespeichert und übertragen werden können. Man spricht von einer Datenkompression. Erst sie macht Anwendungen wie die tragbaren MP3-Player oder das Internet-Radio über ISDN-Teilnehmeranschlüsse möglich. Je nach Anwendung werden Kompressionsfaktoren von etwa 10 bis 20 erzielt. In vielen Fällen kann ohne hörbare Qualitätseinbusen der Audio-Bitstrom einer Compact-Disc (CD) von 1411,2 kbit/s auf 64 kbit/s reduziert werden. Im Folgenden werden die grundlegenden psychoakustischen Effekte der Audio-Codierung aufgezeigt und beispielhaft die Audio-Codierung nach MPEG-1 Layer III, bekannt auch als MP3, vorgestellt. MPEG-1 steht für das 1992 standardisierte Verfahren ISO/IEC 11172-3 der International Standard Organization (ISO) und International Electrotechnical Commission (IEC). Grundlage sind die Arbeiten zum Filmton der Motion Picture Experts Group (MPEG). Weiterentwicklungen sind MPEG-2 (1994) und MPEG-4 (1999). Neben der Anpassung an neue Anwendungsfelder (Mehrkanalsysteme, Mobilkommunikation, usw.), sind zwei Innovationen hervorzuheben: das Advanced Audio Coding (AAC, 1997) und die Spectral Band Replication (SBR, 2002). Beide erlauben zu MP3 nochmals eine deutliche Datenkompression bei etwa gleicher Qualität. Anmerkung: Die Audio-Codierung liefert auch ein interessantes Beispiel der wechselseitigen Abhängigkeit von technologischem Fortschritt und wirtschaftlichen Interessen. Die Entwicklung der Audio-Codierung wird wesentlich Beeinflusst von den im Konsumentenmarkt erzielbaren Preisen. Letztere setzen der Komplexität der digitalen Signalverarbeitung enge Grenzen, die aber, entsprechend dem moorschen Gesetz, rasch expandieren. Während im Konsumbereich stets neue Geräte abgesetzt werden sollen, ist das in der professionellen Audio-Technik anders. In Ton- und Filmaufnahmestudios für Rundfunk und Fernsehen und im Kino findet man den Wunsch nach der Sicherung der Investitionen, nach Abwärtskompatibilität und Beständigkeit. Nicht zu unterschätzen ist ferner der Einfluss von Firmen und Konsortien, die nach einer marktbeherrschenden Position streben.
3.8.1
Psychoakustische Effekte
Grundlage der Datenkompression durch die Audio-Codierverfahren ist die Orientierung am Nachrichtenempfänger, dem Menschen, genauer seinem Gehör. Statt das mit dem Mikrofon aufgenommene Audio-Signal möglichst genau wiederherzustellen, wird nur der Anteil codiert, der einen Einfluss auf den Höreindruck hat. Man spricht von verlustloser bzw. verlustbehafteter Codierung. Das menschliche Gehör nimmt nur Geräusche war, die in einem Frequenzbereich von etwa 20 Hz bis 20 kHz liegen und einen bestimmten Schalldruckpegel aufweisen. Man spricht vom Hörbereich des Menschen. Bild 3-26 fasst hierzu experimentelle Ergebnisse zusammen. Erst wenn der Schalldruckpegel des Eintonsignals die Hörschwelle überschreitet, wird der Ton wahrgenommen. Die Hörschwelle ist frequenzabhängig. Am besten werden Töne zwischen 1 und 4 kHz wahrgenommen. Untersuchungen mit Mehrton-Signalen zeigen, dass unter bestimmten Umständen auch Töne über der Hörschwelle in Bild 3-26 nicht wahrgenommen werden [Zwi82]. Man spricht von vom Verdeckungs- oder Maskierungseffekt. Der Maskierungseffekt ist sowohl frequenz- als auch zeitabhängig.
sUppLex
91
3.8 Audio-Codierung
Den Maskierungseffekt im Frequenzbereich verdeutlicht Bild 3-27 anhand dreier schmalbandiger Rauschsignale und ihrer Mithörschwellen. Tritt beispielsweise ein schmalbandiges Rauschsignal um die Frequenz von 1 kHz auf, dann werden weitere Töne mit Lautstärken unterhalb der Mithörschwelle verdeckt; in Bild 3-27 im grau hinterlegten Bereich. Bei der Audio-Codierung können die entsprechenden Signalanteile weggelassen werden. Eine Irrelevanzreduktion wird durchgeführt.
120
120
100 80
100
Musik
60
80 40
60
Sprache
Lautstärke in dB
Schalldruckpegel in dB
Schmerzgrenze
20
40 0
20 0 Hörschwelle 20
50
100
200
500
1000
2000
5000
10000
20000
Frequenz in Hz Bild 3-26 Hörbereich des Menschen – Schalldruck und Lautstärke über der Frequenz nach [Bro04]
Schalldruckpegel in dB
80
f1 = 0,25
60
f2 = 1 kHz
f3 = 4 kHz Mithörschwelle
40
20
0
Ruhehörschwelle 50
100
200
500
1000 2000
5000 10000 20000
Frequenz in Hz Bild 3-27 Maskierung im Frequenzbereich: Ruhehörschwelle und Mithörschwelle bei Anregung mit Schmalbandrauschen nach [Rei05][Zwi82]
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
92
Schalldruckpegel in dB
Eine zeitliche Maskierung tritt nach einem lauten Geräusch auf. Erst nach einiger Zeit können nachfolgende, leisere Geräusche wahrgenommen werden. Man spricht von der Nach-Maskierung. Sie nimmt mit der Zeit schnell ab und dauert etwa 150 bis 200 ms. Bild 3-28 stellt den Effekt schematisch dar. Zunächst überraschend gibt es auch eine Vor-Maskierung. Sie erklärt sich aus den Signallaufzeiten im Gehörorgan und der verzögerten Verarbeitung im Gehirn. Dadurch können Signalanteil scheinbar andere überholen. Vor- und Nach-Maskierung führen zu Irrelevanzen die zur Datenreduktion weggelassen werden können.
gleichzeitige Maskierung
VorMaskierung
NachMaskierung
40
20
0 -50
0
50
100
150
Zeit in ms 0
50
100
150
Bild 3-28 Maskierung im Zeitbereich nach [Rei05][Zwi82]
3.8.2
Audio-Codierung für MPEG-1 Layer III
Die digitale Signalverarbeitung ermöglicht die besonderen Eigenschaften des menschlichen Gehörs zur Datenreduktion zu nutzen. Die Maskierungseffekte im Frequenz- und im Zeitbereich legen eine blockorientierte Signalverarbeitung im Frequenzbereich nahe; ähnlich der Kurzzeit-Spektralanalyse mit der FFT in Abschnitt 3.7.2. Die Anleitung zur Codierung der Blöcke liefert ein psychoakustisches Modell, das den Einfluss der Codierung auf den Höreindruck beschreibt. Damit wird der Empfänger in die Codierung im Encoder einbezogen. Man spricht von einer Analyse durch Synthese. Bild 3-29 zeigt das vereinfachte Blockdiagramm des Encoders. Den Ausgangspunkt bildet ein digitales Audiosignal in Mono, das üblicherweise bei einer Abtastfrequenz von 48 kHz mit 16 Bits PCM-codiert ist. Also eine Bitrate von 768 kbit/s aufweist. Im ersten Codierungsschritt wird das Audiosignal mit einer Filterbank in 32 Teilbänder zerlegt. Die Filterbank liefert an ihrem Ausgang 32 Signale, je ein Signal für ein Teilband im Frequenzspektrum. Im nachfolgenden Block MDCT wird die spektrale Aufteilung weiter verfeinert. Jedes Teilsignal wird in 18 Subbänder zerlegt, so dass insgesamt 576 Subbänder entstehen. Zur Anwendung kommt die Modifizierte diskrete Kosinus-Transformation (MDCT, Modified Discrete Cosine Transform), die mit der DFT eng verwandt ist. Parallel wird zum Audio-Signal mit einer FFT der Länge 1024 das Kurzzeit-Spektrum in relativ hoher Frequenzauflösung berechnet. Das Kurzzeit-Spektrum beschreibt den momentanen Zustand des Audio-Signals, wie er für die psychoakustische Bewertung, die Berechnung der Mithörschwellen, benötigt wird. Die Codierung mit Datenkompression wird im Block Quantisierung mit dynamischer Bitzuweisung vorgenommen. Die Datenkompression beruht im Prinzip darauf, dass jedem Teilsignal der 576 Subbänder zu seiner Darstellung so wenige Bits wie möglich zugeteilt werden, so dass die Quantisierungsfehler noch unterhalb der Mithörschwellen bleiben. Dabei werden auch zeitliche Verdeckungseffekte berücksichtigt.
sUppLex
93
3.9 Zusammenfassung
Die Bitratenanpassung beachtet äußere Vorgaben, wie die Zielbitrate des codierten AudioBitstromes.
768 kbit/s
Filterbank mit 32 Teilbändern
FFT N = 1024
32 Teilbänder
digitales Audiosignal
576 Subbänder
Nach der Irrelevanzreduktion schließt sich eine Huffman-Codierung an. Dabei werden Redundanzen im Signal zur weiteren Datenkompression genutzt. Man spricht auch von einer Entropie-Codierung, s. Abschnitt 7.2. Die Seiteninformation, d. h. Daten die zur Steuerung der Decodierung im Empfänger benötigt werden, werden gesondert behandelt.
MDCT
Bitratenanpassung
Quantisierung mit dynamischer Bitzuweisung
psychoakustisches Modell codierter Audio-Bitstrom
Huffman Codierung
Codierung von Seiteninform.
Rahmenbildung und Fehlerschutz
32… 192 kbit/s Bild 3-29 Blockdiagramm des Encoders für die Audio-Codierung nach MPEG-1 Layer III (Mono)
Abschließend werden alle Daten in standardgemäße Rahmen gepackt und zusätzlich mit 16 Redundanzbits eines CRC-Codes (Cyclic Redundancy Check) zur Erkennung von Übertragungsfehlern versehen, s. Abschnitt 7.3. Je nach gewünschter Qualität (Zielbitrate) entsteht so ein genormter Audio-Bitstrom mit einer Bitrate von 32 bis 196 kbit/s. In Erweiterung des vorgestellten Verfahrens wird nach MPEG-1 Layer III die Quantisierung mit dynamischer Bitzuweisung iterativ vorgenommen. Darüber hinaus wird eine BitreservoirTechnik zur Codierung schwieriger Passagen eingesetzt. D. h., bei einfach zu codierenden Blöcken werden nicht alle verfügbaren Bits benutzt, sondern Bits für schwierig zu codierenden Blöcke angespart. Eine Intensitäts- und Stereo-Codierung ist vorgesehen.
3.9
Zusammenfassung
Die Digitalisierung analoger Signale durch Abtastung und Quantisierung ermöglicht es, Informationen aus unserer Umwelt mit Hilfe der Digitaltechnik darzustellen, zu übertragen, zu speichern und zu verarbeiten. Während bei der Abtastung unter Beachtung des Abtasttheorems das Originalsignal prinzipiell durch die si-Interpolation fehlerfrei rekonstruiert werden kann, ist die Quantisierung in der Regel nicht reversibel. Der entstehende Quantisierungsfehler kann jedoch durch die Wortlänge der gewählten Zahlendarstellung eingestellt werden, so dass mit entsprechendem Aufwand eine hinreichende Genauigkeit in den praktischen Anwendungen erreicht werden kann.
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
94
Ein interessanter Fall ergibt sich bei der Digitalisierung von Telefonsprache. Wegen der subjektiven Bewertung des Quantisierungsgeräusches durch das menschliche Gehör bietet es sich an, eine von der Signalaussteuerung abhängige ungleichförmige Quantisierung durch Kompandierung anzuwenden. Damit lässt sich die Wortlänge – und damit der Aufwand – bei gleicher Hörqualität von 12 Bits auf 8 Bits reduzieren. Die heute weit verbreiteten Methoden zur Datenkompression für Audio- und Videosignalen machen sich ähnliche Überlegungen zunutze, indem sie die physiologischen Voraussetzungen des menschlichen Hörens und Sehens berücksichtigen. Bei der Codierung von Audio- und Videosignalen wird zwischen den verlustbehafteten und verlustlosen Verfahren, zwischen Irrelevanzreduktion bzw. Redundanzreduktion unterschieden. Die heute erzielbaren Kompressionsfaktoren, bis ca. 20 im Audiobereich und bis ca. 50 für Standbilder (Joint Picture Experts Group, JPEG 2000) und drüber hinaus im Videobereich, werden durch die digitale Signalverarbeitung erzielt, wie beispielsweise die digitale Filterung und Kurzzeit-Spektralanalyse mit der FFT.
3.10
Aufgaben zu Abschnitt 3
Aufgabe 3.1
Das Audiosignal eines Stereokanals für die Übertragung mit dem neuen digitalen Hörrundfunk (Digital Audio Broadcasting, DAB) wird mit einer Abtastfrequenz von fa = 48 kHz und einer Wortlänge von 16 Bits digitalisiert. (a) Wie groß darf die Frequenz eines Tones im Audiosignals höchstens sein, damit zumindest theoretisch und ohne Berücksichtigung der Quantisierung eine fehlerfreie Rekonstruktion anhand der Abtastwerte möglich ist? (b) Schätzen Sie das Signal-Quantisierungsgeräusch-Verhältnis in dB ab. Aufgabe 3.2
Geben Sie die Abtastfrequenz fa, die Wortlänge w und die Bitrate Rb der PCM-Sprachübertragung in der Telefonie an. Aufgabe 3.3
In Bild A3.3-1 ist ein Ausschnitt eines Signals u(t) gezeigt. Es gelte max |u(t)| = 1. Das Signal soll beginnend bei t = 0 mit der Abtastfrequenz fa = 1 kHz und der Wortlänge 3 Bits bzgl. des gesamten Aussteuerungsbereiches digitalisiert werden. a) Markieren Sie die Abtastwerte in Bild A3.3-1. b) Tragen Sie die Quantisierungsintervalle ein und nummerieren Sie diese geeignet durch, so dass eine BCD-Codierung vorgenommen werden kann. c) Geben Sie die BCD-Codewörter zu den entsprechenden Quantisierungsintervallen an. d) Geben Sie den Bitstrom zu den Abtastwerten an. e) Geben Sie die zugehörige quantisierte Signalfolge (Repräsentanten) an. f) Zeichnen Sie die sich aus den Repräsentanten ergebende interpolierende Treppenfunktion zu u(t).
sUppLex
95
3.10 Aufgaben zu Abschnitt 3
CodewortNr.
BCDCodewort
Repräsentant
1
u(t)
0 0
5
t / ms 10
-1
Bild A3.3-1 Digitalisierung eines Signals
Aufgabe 3.4
a) Nennen Sie zwei grundsätzliche Probleme, die bei der A/D-Umsetzung auftreten können. b) Wie können die beiden Probleme in (a) beseitigt bzw. abgemildert werden? Aufgabe 3.5
Die Sound-Card eines Multimedia-PC bietet drei Optionen für die Audio-Aufnahme an: Telefonqualität ( fa = 11,025 kHz, PCM 8 Bits, Mono), Rundfunkqualität ( fa = 22,05 kHz, PCM 8 Bits, Mono) und CD-Qualität ( fa = 44,1 kHz, PCM 16 Bits, Stereo). a) Wie groß darf in den drei Fällen die maximale Frequenz fmax im Audiosignal sein, damit das Abtasttheorem nicht verletzt wird? b) Schätzen Sie das Signal-Quantisierungsgeräusch-Verhältnis S/N in dB für die drei Optionen ab. Hinweis: Gehen Sie von einer gleichförmigen Quantisierung und optimalen Aussteuerung aus. c) Welche Bitraten besitzen die von der Sound-Card für die drei Optionen erzeugten Bitströme? d) Zur Speicherung der Aufnahmedaten steht eine Hard-Disk mit 1 GByte freiem Speicher bereit. Wie viele Sekunden des Audiosignals können je nach ausgewählter Option aufgezeichnet werden?
sUppLex
3 Pulse-Code-Modulation, digitale Signalverarbeitung und Audio-Codierung
96 Aufgabe 3.6
Stellen Sie die Zahlenwerte in Tab. A3-1 in den angegebenen Festkomma-Formaten dar.
Tabelle A3-1 PCM-Codierung xd
gleichförmige Quantisierung mit w = 12 und Vorzeichen V
PCM-Format (w = 8)
0,8 –0,4 0,25 0,001
V = 1 für x t 0 Aufgabe 3.7
a) Ein Signal wird mit der Abtastfrequenz 48 kHz abgetastet und einer Kurzzeit-Spektralanalyse mit der FFT der Länge 1024 unterworfen. Wie groß ist die Frequenzauflösung bzgl. des zeitkontinuierlichen Signals? b) Wodurch unterscheiden sich die Spektren der DFT und FFT? Aufgabe 3.8
a) Was versteht man unter der Simulation durch ein digitales Filter? b) Welche Voraussetzungen müssen erfüllt sein? c) Was versteht man unter einem FIR-Filter? d) Was versteht man unter einem IIR-Filter? Aufgabe 3.9
a) Erklären Sie die Begriffe: verlustlose Codierung, verlustbehaftete Codierung, Irrelevanzreduktion und Redundanzreduktion. b) Was versteht man in der Audio-Codierung unter der Maskierung. Erläutern Sie ihre Bedeutung für die Audio-Codierung.
sUppLex
97
4
Modulation eines sinusförmigen Trägers
4.1
Einführung
Das von einer Nachrichtenquelle erzeugte Signal kann meist nicht direkt übertragen werden. Eine Anpassung an das physikalische Übertragungsmedium, z. B. Koaxialkabel, Funkkanal, Lichtwellenleiter, usw., ist notwendig. Hinzu kommt aus technischen und wirtschaftlichen Gründen häufig eine Bündelung verschiedener Signale, man spricht von einem Multiplex. Die Übertragung der Nachrichten in elektrischer Form unterliegt den Gesetzen der Physik. Mit der Wellengleichung beschreibt die Elektrodynamik die physikalischen Grundtatsachen. Als Sonderfall ergibt sich die Telegraphengleichung, die zeitliche Änderung der Spannung auf der Leitung in Form einer Differentialgleichung nach Ort und Zeit. Als Lösung erhält man eine gedämpfte Welle, eine Sinusfunktion mit orts- und zeitabhängiger Amplitude und Phase [Wer06]. Für die Nachrichtenübertragung kommen somit als Träger sinusförmige Signale in Frage, denen in den Amplituden, Phasen und/oder Frequenzen die Nachrichten aufgeprägt werden. Bild 4-1 gibt einen Überblick über die für die Träger nutzbaren Frequenzlagen verschiedener Übertragungsmedien. LW MW KW UKW Hörrundfunk ADSL
GPS
IV I III V
up
VI
down
sichtbares Licht 400 ... 700 nm LWL
Richtfunk
sym. TF-Kabel Koaxial-Kabel 103 1 kHz
I, …, VI
DAB
sym. NF-Kabel
100 1 Hz
Fernsehrundfunk
Hohlleiter 106 1 MHz
Mobilfunk, schnurlose Telephonie GSM–900 890–915 u. 935–960 MHz GSM–1800 1710–1785 u. 1805–1880 MHz DECT 1880–1900 MHz UMTS 1885–2025 u. 2110–2200 MHz Wireless LAN, Nahfunksystem IEEE 802.11/11b, Bluetooth | 2,4 GHz (ISM-Band) IEEE 802.11a, HIPERLAN 1/2 | 5 GHz
109 1 GHz
1012 1015 1 THz Frequenz 1 PHz
optische Fenster der Lichtwellenleiter (LWL) I 0,33 ... 0,375 PHz 800 ... 900 nm II 0,23 ... 0,3 PHz 1000 ... 1300 nm III 0,176 ... 0,32 PHz 1500 ... 1700 nm Infrarot IrDA Tonübertragung
850 ... 900 nm 950 nm
Bild 4-1 Nutzbare Frequenzlagen verschiedener Übertragungsmedien
Angefangen mit der einfachen Zweidrahtleitung für den Teilnehmeranschluss hat die Nachrichtentechnik mit der optischen Übertragung mit Lichtwellenleitern den Frequenzbereich bis hin zum sichtbaren Licht erschlossen. Dabei ging der technologische Fortschritt von der Patentanmeldung des Telefons durch Bell 1876 bis zur ersten industriellen Produktion von Lichtwellenleitern 1975 stets einher mit einem wachsenden Verkehrsbedarf. Ein Stopp dieses Trends ist
sUppLex
98
4 Modulation eines sinusförmigen Trägers
bis heute nicht zu erkennen. Die heute diskutierte Einführung des hochauflösenden Fernsehens (HDTV, High Definition TV) und seine Verteilung über Kabel stellt eine neue übertragungstechnische Herausforderung dar. Die Signalausbreitung ist in den physikalischen Medien stark unterschiedlich, so dass verschiedene Technologien und Übertragungsverfahren zum Einsatz kommen. Um den Rahmen einer Einführung nicht zu sprengen, beschränkt sich dieser Abschnitt auf einfache Beispiele. Exemplarisch werden die in der Nachrichtentechnik grundlegenden Prinzipien der Amplitudenmodulation, der Frequenzmodulation und des Frequenzmultiplex vorgestellt. Zum Schluss wird ein Ausblick auf die zunehmend wichtiger werdenden digitalen Modulationsverfahren gegeben. Anmerkung: Einen Einstieg in die weiterführende Literatur findet man beispielsweise in [Klo01] [MäGö02] [OhLü02]. In [Kam04] und [PrSa94] wird die Nachrichtenübertragung mehr aus theoretischer Sicht behandelt. Grundlagen aus der Hochfrequenztechnik werden in [VlHa93] und [VlHa95] ausführlich dargestellt.
4.2
Trägermodulation
Liegt ein Signal im Basisband vor, wird es in der Regel zur Übertragung über größere Entfernungen in den Bereich hoher Frequenzen verschoben. Ein Beispiel liefert die Übertragung mit Trägermodulation in der Rundfunk- und Fernsprechtechnik. Bei der Trägermodulation in Bild 4-2 wird im Modulator des Senders die Amplitude, Frequenz oder Phase eines sinusförmigen Trägers entsprechend dem modulierenden Signal variiert. modulierendes Signal
Sender
u1(t)
Modulator
Modulationsprodukt uM(t)
Empfangsdemoduliertes signal Empfänger Signal
Kanal
Demodulator
ud(t)
uT(t)
Träger
Träger
Bild 4-2 Blockschaltbild einer Übertragung mit Trägermodulation
Je nach Verfahren spricht man von Amplitudenmodulation (AM), Frequenzmodulation (FM) oder Phasenmodulation (PM). In Bild 4-3 sind die Modulationsprodukte für ein Kosinussignal zu finden. Bei der gewöhnlichen AM wird das modulierende Signal der Amplitude des Trägers aufgeprägt. u AM (t ) = [u1 (t ) + U 0 ] ⋅ uT (t )
(4.1)
uT (t ) = uˆT ⋅ cos(ωT t + ϕT )
(4.2)
mit dem Träger
mit der Trägerkreisfrequenz ωT und der Trägeranfangsphase ϕT . Dagegen besitzt das FM-Signal eine konstante Amplitude. Die Nachricht wird der Phase des Trägers, genauer der Momentanfrequenz, aufgeprägt.
sUppLex
4.2 Trägermodulation
99
Eintonsignal
AM-Signal mit U0 = 0 uAM(t )
u1(t)
t
t
FM-Signal
Träger uT(t)
uFM(t ) t
t
Bild 4-3 AM- und FM-Modulation eines Sinusträgers mit einem Eintonsignal t ⎡ ⎤ u FM (t ) = uˆT ⋅ cos⎢ ωT t + 2 πΔ F ⋅ ∫ u1 (τ )d τ ⎥ ⎢ ⎥ ⎣ ⎦ 0
(4.3)
Bei der FM ist das modulierende Signal in den Abständen der Nulldurchgänge oder äquivalent in der Momentanfrequenz des Trägers enthalten. Das PM-Signal ist dem FM-Signal prinzipiell ähnlich. Beide Modulationsverfahren sind eng miteinander verwandt und werden unter dem Begriff Winkelmodulation zusammengefasst. Im Unterschied zur einfacheren AM sind die FM und die PM nichtlineare Modulationsverfahren, deren Beschreibungen und insbesondere Demodulationsverfahren deutlich aufwändiger sind. Wegen der traditionell größeren Bedeutung der FM in der Nachrichtentechnik wird im Weiteren auf die Darstellung der PM verzichtet. Das Gegenstück zum Modulator bildet im Empfänger der Demodulator, s. Bild 4-2. Er hat die Aufgabe, das Empfangssignal so aufzubereiten, dass die Sinke die für sie bestimmte Nachricht erhält. Der Demodulator stellt das kritische Element in der Übertragungskette dar, in dem der größte Aufwand getrieben werden muss. Dies gilt insbesondere, wenn das Signal im Kanal verzerrt und/oder durch Rauschen gestört wird. Wird im Empfänger die Nachbildung des Trägers zur Demodulation benutzt, spricht man von kohärenter ansonsten von inkohärenter Demodulation. Anmerkungen: (i) Allgemein lässt sich sagen, dass die kohärente Demodulation – da sie Vorwissen über das Empfangssignal benutzt – bei kleiner Störung eine bessere Empfangsqualität liefert als die inkohärente. Sie ist jedoch aufwändiger, denn sie benötigt zur Trägernachbildung eine Synchronisationseinrichtung. Und sie ist weniger robust, da größere Störungen zum Verlust der Synchronisation führen können. (ii) Eine Baugruppe mit Modulator und Demodulator für eine Zweiwegekommunikation wird Modem genannt. (iii) In der Übertragungstechnik werden auch andere Träger eingesetzt, wie z. B. Impulse bei der optischen Übertragung oder der Basisbandübertragung in Abschnitt 5. Zur Unterscheidung spricht man von Sinusträgermodulation bzw. Pulsträgermodulation. (iv) Eine Neuentwicklung ist die Impulsübertragung mit UWB (Ultra-Wide Band), s. IEEE 802.15.3. Mit besonders kurzen Impulsen wird ein leistungsschwaches, breitbandiges Funksignal zur Datenübertragung über wenige Meter erzeugt.
sUppLex
100
4.3
4 Modulation eines sinusförmigen Trägers
Amplitudenmodulation
Der Beginn des öffentlichen Rundfunks Anfang der 1920er Jahre ist mit der Amplitudenmodulation verknüpft. Sie war damals für Audiosignale praktisch einsetzbar und erlaubte Rundfunkempfänger mit einfachen Hüllkurvendetektoren. Im Folgenden wird das Prinzip der AM und ihre Anwendung in der Trägerfrequenztechnik kurz eingeführt. Hierbei wird auch der Nutzen der Signalbeschreibung im Frequenzbereich deutlich.
4.3.1
Prinzip der Amplitudenmodulation
Bei der AM wird ein in der Regel niederfrequentes Signal, z. B. ein Audiosignal, mit Hilfe eines hochfrequenten sinusförmigen Trägers, z. B. im Mittelwellenbereich bei etwa 1 MHz, übertragen. Das Grundprinzip lässt sich gut anhand zweier Kosinussignale erläutern: Dem modulierenden Signal u1 (t )
uˆ1 cos(Z1t )
(4.4)
uT (t )
uˆT cos(ZT t )
(4.5)
und dem Träger
mit der Trägerkreisfrequenz ZT mit
ωT ω1
(4.6)
Der Einfachheit halber werden hier die Anfangsphasen zu null angenommen. Trägersignal und modulierendes Signal werden im Modulator miteinander multipliziert. Der Modulator (Mischer) besteht aus einem uM(t) = u1(t) nichtlinearen Bauelement, wie z. B. einer Diode, und einem u1(t)uT(t) Filter zur Abtrennung der unerwünschten Spektralanteile aus dem im nichtlinearen Bauelement entstehenden SignaluT(t) gemisch. Bild 4-4 veranschaulicht das Konzept unter VerBild 4-4 Trägermultiplikation wendung eines idealen Multiplizierers. Das Modulationsprodukt ergibt sich nach trigonometrischer Umformung uˆ uˆ ⎡ ⎤ u M (t ) = 1 T ⋅⎣ cos (( ωT − ω1 ) t ) + cos ((ωT + ω1 ) t ) ⎦ 2
(4.7)
Darin treten als neue Kreisfrequenzen die Differenz- und Summenkreisfrequenzen ZT r Z1 auf. In Bild 4-5 sind die (zweiseitigen) Spektren der Signale dargestellt. Im Zusammenhang mit der Fourier-Transformation ist es üblich, diskrete Frequenzkomponenten durch die Impulsfunktion anzugeben, s. Abschnitt 2.12.1. Die zugehörigen Amplituden werden meist an die Impulse geschrieben oder durch die Impulshöhe symbolisiert. Der Faktor S ergibt sich aus den Rechenregeln der Fourier-Transformation. ⎤ cos ( ω 0t ) ↔ π⎡ ⎣ δ (ω − ω0 ) + δ (ω + ω0 )⎦
(4.8)
sUppLex
4.3 Amplitudenmodulation
101
Anmerkung: Die Korrespondenz (4.8) überprüft man durch Einsetzen der rechten Seite in die Definitionsgleichung der inversen Fourier-Transformation (2.72) und Anwenden der Rechenregeln für die Impulsfunktion in Tabelle 2-4 und der eulerschen Formel (2.4).
Im unteren Teilbild ist das Spektrum des Modulationsproduktes (4.7) abgebildet. Es treten Frequenzkomponenten links und rechts von der Trägerkreisfrequenz ZT im Abstand Z1 auf. U1( jZ), UT ( jZ)
π uˆT
π uˆ1 -ZT
-Z1
Z1
Z ZT
UM ( jZ)
π
uˆ1uˆT 2
Z -ZT - Z1 -ZT + Z1
ZT - Z1
ZT + Z1
Bild 4-5 Spektrum des modulierenden Signals U1( jZ), des Trägersignals UT ( jZ) und des Modulationsproduktes UM ( jZ)
4.3.2
Modulationssatz
Das Beispiel mit modulierendem Kosinussignal lässt sich verallgemeinern. Den analytischen Zusammenhang liefert der Modulationssatz der Fourier-Transformation x(t ) ⋅ e jω0t ↔ X ( j [ ω − ω 0 ])
(4.9)
und seine Anwendung auf die Kosinusfunktion 1⎡ ⎤ x(t ) ⋅ cos(ω 0t ) ↔ ⎣ X ( j [ ω − ω 0 ]) + X ( j [ ω + ω 0 ]) ⎦ 2
(4.10)
mit X( jZ) der Fourier-Transformierten von x(t). Anmerkung: Den Modulationssatz verifiziert man durch Einsetzen in die Definitionsgleichung der Fourier-Transformation (2.71). Die Anwendung auf die Kosinusfunktion erschließt sich aus der eulerschen Formel (2-4).
Die Multiplikation mit der Kosinusfunktion verschiebt in Bild 4-6 das Spektrum des modulierenden Signals aus dem Basisband symmetrisch um die Trägerkreisfrequenz. Man erhält ein oberes Seitenband (oS) in der Regellage, wie beim modulierenden Signal, und ein unteres Seitenband (uS) in der Kehrlage, d. h. frequenzmäßig gespiegelt. Wegen den beiden Seitenbändern wird die AM nach (4.10) auch Zweiseitenband-AM genannt. Man beachte auch die Gewichtung des Spektrums mit dem Amplitudenfaktor 1/2. Anmerkungen: (i) Die Nachrichtentechnik bedient sich einer vereinfachenden Darstellung der im allgemeinen komplexwertigen Spektren durch Dreiecke, wobei die Dreiecke mit zunehmender Frequenz ansteigen. (ii) Der Spiegelungseffekt ergibt sich nicht nur rein formal, sondern ist auch messtechnisch nachzuweisen. In der Funkkommunikation wurden früher gespiegelte Frequenzbänder übertragen, um das Abhören zu erschweren. Das Verfahren wird Sprachverschleierung, engl. Scrambling, genannt.
sUppLex
102
4.3.3
4 Modulation eines sinusförmigen Trägers
Gewöhnliche Amplitudenmodulation
Ein einfaches Beispiel erklärt das Prinzip der AM-Übertragung und der nachfolgenden kohärenten Demodulation bzw. inkohärenten Demodulation mit dem Hüllkurvendemodulator. In Bild 4-7 ist das Blockschaltbild des Senders dargestellt. Das modulierende Signal wird dem AM-Modulator zugeführt. Zunächst wird durch Addieren der Gleichspannung U0 der Arbeitspunkt eingestellt. Im nachfolgenden Mischer geschieht die Frequenzumsetzung mit dem Träger zum AM-Signal |U1( jZ)| A
-Zg
Z
Zg
Multiplikation mit dem Kosinusträger
|UM ( jZ)| A/2
-ZT -Zg -ZT -ZT +Zg
uS
ZT - Zg ZT
oS
Z
ZT + Zg
Bild 4-6 Betragsspektrum des modulierenden Signals U1( jZ) und des Modulationsproduktes UM ( jZ)
⎡ u1 (t ) ⎤ u AM (t ) = [u1 (t ) + U 0 ] ⋅ uT (t ) = U 0 ⋅ uˆT ⋅⎢1 + m ⎥⋅ cos(ωT t ) max u1 (t ) ⎦ ⎣
(4.11)
mit dem Modulationsgrad m=
max u1 (t ) U0
(4.12)
Anmerkung: In Bild 4-7 wurde die Addition mit der Gleichspannung gesondert gezeichnet. Oft wird nur das Symbol des Mischers zur Darstellung der AM-Modulation benutzt.
Im Modulationsprodukt ist der Träger mit der Amplitude U0 enthalten. Man spricht deshalb hier von einer AM mit Träger. Aus historischen Gründen ist auch die Bezeichnung gewöhnliche AM gebräuchlich. Für ein sinusförmiges Eingangssignal, ein Eintonsignal, mit Amplitude uˆ1 1 , der Trägeramplitude uˆT = 1 und den normierten Gleichspannungen U0 = 0,5 und 1,5 ergeben sich die AM-Signale in Bild 4-8. Wie im linken Teilbild gezeigt wird, stellt die Gleichspannung U0 den Modulationsgrad m ein.
Gleichspannung U0 modulierendes Signal u1(t)
AM-Signal
AM-Mod.
uAM(t)
Träger uT(t)
G Bild 4-7 AM-Modulation mit Träger (Sender)
Ist der Modulationsgrad m kleiner eins, so bewegt sich die Einhüllende des modulierten Trägers im grau unterlegten Streifen. Ist der Modulationsgrad größer eins, so tritt die rechts sicht-
sUppLex
4.3 Amplitudenmodulation
103
bare Übermodulation auf. Wie noch gezeigt wird, führt die Übermodulation zu Signalverzerrungen bei der Hüllkurvendemodulation. Der Modulationsgrad eins stellt den Grenzfall dar. Die tatsächliche Wahl des Modulationsgrades hängt von den praktischen Randbedingungen ab. Ein zu kleiner Modulationsgrad macht das AM-Signal anfälliger gegen Störungen durch Rauschen, da die Amplitude des demodulierten Signals proportional zum Modulationsindex ist. AM-Signal
AM-Signal
u1(t) + U0
1+m
1+m 1
Einhüllende m
1–m
1 m
t
t
1–m
U0 = 1,5
U0 = 0,5
Bild 4-8 AM-Signal zu einem modulierenden Eintonsignal bei verschiedenen Modulationsgraden (normierte Darstellung, uˆ1 = 1 )
Das Spektrum des Modulationsproduktes der gewöhnlichen AM ist in Bild 4-9 skizziert. Man erkennt insbesondere den Trägeranteil und die beiden Seitenbänder oberhalb bzw. unterhalb des Trägers. Dementsprechend wird die AM nach Bild 4-7 auch Zweiseitenband-AM mit Träger genannt. |UAM ( jω)| Träger π⋅U 0
A/2
-ωT - ω1 -ωT + ω1
ωT - ω1
ωT + ω1
ω
Bild 4-9 Spektrum des modulierten Signals der Zweiseitenband-AM mit Träger
4.3.4
Kohärente AM-Demodulation
Für die kohärente Demodulation, die Synchrondemodulation, wird das Trägersignal im Empfänger frequenz- und phasenrichtig benötigt. Hierzu ist im Empfänger eine aufwendige Synchronisationseinrichtung erforderlich. Steht eine Nachbildung des Trägers zur Verfügung, kann die Demodulation ebenso wie die Modulation erfolgen, s. Bild 4-10. AM-Signal
u2(t
u3(t)
demod. Signal
uAM(t)
ud(t)
Träger uT(t)
Tiefpass
G
ωg,TP
-U0/2 Gleichspannung
Bild 4-10 Kohärenter AM-Demodulator
Multipliziert man das AM-Signal mit dem Träger
1 u2 (t ) = u AM (t ) ⋅ cos(ωT t ) = [u1 (t ) + U 0 ] ⋅ cos 2 (ωT t ) = [u1 (t ) + U 0 ] ⋅ [1 + cos(2ωT t ) ] 2
(4.13)
sUppLex
104
4 Modulation eines sinusförmigen Trägers
schiebt sich das Spektrum ins Basisband, wie in Bild 4-11 illustriert. Dabei entstehen auch Spektralanteile bei r 2ZT. Diese können durch einen Tiefpass mit der Grenzkreisfrequenz Zg vom gewünschten Signal abgetrennt werden. Zieht man noch den Gleichanteil U0/2 ab, so ist das demodulierte Signal proportional zum modulierenden Signal. Tiefpass
|U2( jZ)|
SU0 Gleichanteil
A/2
-2ZT
1100
Zg Zg,TP
2ZT
Z
Bild 4-11 Frequenzbereichsdarstellung der kohärente AM-Demodulation nach Bild 4-9 und Bild 4-10
4.3.5
Inkohärente AM-Demodulation mit Hüllkurvendetektor
Sind gewisse Abstriche an der Übertragungsqualität tolerierbar, wie beispielsweise beim AMRundfunk, stellt die inkohärente Demodulation mit einem Hüllkurvendetektor eine preiswerte Alternative dar. Bei der inkohärenten AM-Demodulation wird die Einhüllende des Empfangssignals gebildet. Eine Nachbildung des Trägers im Empfänger ist nicht notwendig. Bild 4-12 zeigt das Prinzipschaltbild des Hüllkurvendetektors. Das demodulierte Signal wird im Wesentlichen an der Kapazität C1 abgegriffen. Durch den Gleichrichter werden die negativen Halbwellen des AM-Signals abgeschnitten. Es entsteht im Prinzip das in Bild 4-12 grau unterlegte Signal. Während der positiven Halbwelle lädt sich die Kapazität C1. In der nachfolgenden negativen Halbwelle kann sich die Kapazität über den Widerstand R1 teilweise entladen. Die Dimensionierung von C1 und R1 geschieht so, dass einerseits die hochfrequente Schwingung des Trägers geglättet wird und andererseits die Spannung an der Kapazität der zum Träger vergleichsweise sehr langsamen Variation der Einhüllenden folgen kann. Die nachfolgende Kapazität hat die Aufgabe, den Gleichanteil U0 abzutrennen. Bild 4-12 illustriert den typischen Verlauf eines Signalausschnittes am Ausgang des Hüllkurvendetektors. Kapazität zur Gleichspannungsunterdrückung
Gleichrichter
uAM(t) u2(t)
CR
uAM(t) C1
u2(t)
t
R1
Bild 4-12 Glättende Wirkung des Hüllkurvendetektors (links) in schematischer Darstellung (rechts)
4.3.6
Quadraturamplitudenmodulation
Bei der Übertragung von Daten über Telefonkabel und Richtfunkstrecken steht eine hohe spektrale Effizienz im Vordergrund. Häufig wird die Quadaraturamplitudenmodulation (QAM) eingesetzt. Die QAM ist eine direkte Erweiterung der bisherigen Überlegungen. Sie erschließt sich am schnellsten aus dem Blockschaltbild des Modulators und des Demodulators in Bild 4-13.
sUppLex
4.3 Amplitudenmodulation
105
Der QAM-Modulator besitzt zwei Signalzweige für die so genannten Quadraturkomponenten. Einen Zweig für die Normalkomponente mit der Modulation des Trägers (Kosinusfunktion) und einen für die Quadraturkomponente mit der Modulation des um S/2-phasenverschobenen Trägers (Sinusfunktion). Beide Signalzweige werden getrennt AM-moduliert. Am Ausgang des Modulators wird das Signal gesendet s (t ) = u1 (t ) ⋅ cos(ωT t ) − u 2 (t ) ⋅ sin(ωT t )
(4.14)
Für die Analyse wird angenommen, dass das Sendesignal ungestört zum Demodulator gelangt, r(t) = s(t). Der Demodulator arbeitet kohärent; die Trägernachbildung ist synchron zum Träger im Empfangssignal. Normal- und Quadraturkomponente werden getrennt auf zwei Signalwegen demoduliert. Normalkomponenten
u1(t) +
S/2 u2(t)
Sendesignal s(t)
Träger
y1(t)
2cos(ZTt)
Quadraturkomponenten
r(t) Empfangssignal
TrägerSynchronisation
Träger
S/2 2sin(ZTt)
y2(t)
Bild 4-13 QAM-Modulator und -Demodulator
Mit den bekannten Produktformeln von Sinus- und Kosinusfunktionen und wegen der anschließenden idealen Tiefpassfilterung gibt es kein Übersprechen zwischen den Komponenten. TP
⎡1 + cos ( 2ωT t ) ⎤ 2cos ( ωT t ) ⋅ u1 (t )cos ( ωT t ) = u1 (t ) ⋅⎣ ⎦ → u1 (t ) 2cos ( ωT t ) ⋅ sin (ωT t ) =⎡ ⎣ sin (0) + sin ( 2ωT t )⎤ ⎦
TP
→ 0
(4.15)
TP
2sin (ωT t ) ⋅ u 2 (t )sin ( ωT t ) = u 2 (t ) ⋅⎡ ⎣1 − cos ( 2ωT t ) ⎤ ⎦ → u2 (t )
Man spricht deshalb auch von einer Übertragung mit orthogonalen Trägern. Im ungestörten Fall sind die demodulierten Quadraturkomponenten gleich den gesendeten. Damit ist es prinzipiell möglich zwei Nachrichtensignale gleichzeitig im selben Frequenzband störungsfrei zu übertragen.
4.3.7
Trägerfrequenztechnik in der Telefonie
Die Trägerfrequenztechnik (TF-Technik) ermöglicht es, verschiedene Signale gleichzeitig über ein Medium, z. B. Koaxialkabel, zu übertragen. Hierbei werden die Signale im Spektrum nebeneinander im Frequenzmultiplex angeordnet. Eine wichtige Anwendung findet die TFTechnik in der Telefonie, bei der gemäß internationaler Normen bis zu 10800 Gesprächskanäle in einem Koaxialkabel gemeinsam übertragen werden. Dadurch teilen sich auch 10800 Teilnehmer die Übertragungskosten. Erst durch die Multiplextechnik wird Telekommunikation über größere Entfernungen erschwinglich. Das Prinzip der TF-Technik wird am Beispiel einer Vorgruppe vorgestellt. In einer Vorgruppe werden drei Gesprächskanäle zusammengefasst, s. Bild 4-14. Dabei werden die Basisband-
sUppLex
106
4 Modulation eines sinusförmigen Trägers
signale mit Spektralkomponenten im Bereich von 300 Hz bis 3400 Hz mit den Trägern bei fT1 = 12 kHz, fT2 = 16 kHz und fT3 = 20 kHz multipliziert. Daran schließen sich Bandpassfilter an, die jeweils nur das obere Seitenband passieren lassen. Die zugehörigen Spektren sind in Bild 4-16 schematisch dargestellt. Das oberste Teilbild zeigt das Spektrum des Basisbandsignals mit der unteren Grenzfrequenz fu = 300 Hz und der oberen Grenzfrequenz fo = 3400 Hz. Das mittlere Teilbild gehört zu den Bandpass-Signalen nach der Multiplikation mit dem Träger. Zuletzt zeigt das untere Teilbild das Spektrum nach der Filterung.
(a)
(b)
(c)
c
cos(2 SfT1t)
Bandpass 1
Vorgruppe
d
cos(2 SfT2t)
Bandpass 2
Nur das obere Seitenband wird übertragen. Dies e geschieht ohne Informationsverlust, da die SpektBandpass 3 cos(2 SfT3t) ren reeller Signale symmetrisch sind. Oberes und unteres Seitenband enthalten jeweils dieselbe Information. Durch die Einseitenbandübertragung Bild 4-14 Trägerfrequenztechnik in der Tele(Einseitenbandmodulation, ESB-AM) wird die fonie - Vorgruppenbildung Übertragungskapazität verdoppelt. Bild 4-15 zeigt das resultierende Spektrum der Vorgruppe (a) TP-Spektrum in der für den Frequenzmultiplex typischen Anordnung der Teilbänder (Kanäle). Die Spektralanf 0 fu fo teile bei negativen Frequenzen wurden in den (b) BP-Spektrum fT1 Zeichnungen weggelassen. 1
In Tabelle 4-1 ist die Hierarchie der TF-Systeme f 0 zusammengestellt. Vier Vorgruppen werden zu (c) ESB-Spektrum einer Gruppe des Z12-Systems zusammengefasst, |HBP( f )| usw. Der Vorteil der hierarchischen Gruppenbildung liegt darin, dass die Modulation und Demof dulation für das nächst höhere TF-System für die 0 gesamte Gruppe gemeinsam vorgenommen werden kann. Der Nachteil besteht in der mangelnden Bild 4-16 Spektren zur VorgruppenbilFlexibilität. Damit ist gemeint, dass wenn auch dung in Bild 4-14 nur ein Gesprächskanal mehr übertragen werden soll als die Gruppe fasst, so ist eine ganze neue Gruppe zu übertragen und gegebenenfalls auf die nächste Hierarchieebene zu wechseln. Dies kann zu einer unbefriedigenden Auslastung der Übertragungseinrichtungen führen. In Tabelle 4-1 sind zusätzlich die typischen Entfernungen zwischen zwei Verstärkern eingetragen. c d e Je mehr Gespräche gleichzeitig übertragen werden, fT1 fT2 fT3 desto höhere Frequenzen werden benutzt. Da die f Leitungsdämpfung mit zunehmender Frequenz ansteigt, müssen Verstärker in immer kürzeren Abfu1 fo1 fu2 fo2 fu3 fo3 ständen eingesetzt werden. Die TF-Technik stellt hohe Qualitätsansprüche an die analogen Übertra- Bild 4-15 Bandpass-Spektrum der Vorgungseinsrichtungen, wie Verstärker, Filter und gruppe im Frequenzmultiplex Leitungen. Heute ist sie in vielen Ländern deshalb durch die robustere und flexiblere digitale Übertragungstechnik abgelöst.
sUppLex
4.4 Frequenzmodulation
107
Tabelle 4-1 Trägerfrequenzsysteme in der analogen Telefonie Trägerfrequenzsystem
Kabelleitung
Bandbreite
Verstärkerabstand
Z 12
symmetrisch
6 kHz ... 54 kHz 60 kHz ... 108 kHz
32 km
V 60
symmetrisch
12 kHz ... 252 kHz
18 km
V 120
symmetrisch
12 kHz ... 552 kHz
18 km
V 300
Koaxialkabel
60 kHz ... 1300 kHz
8 km
V 960
Koaxialkabel
60 kHz ... 4028 kHz
9 km
V 2700 *
Koaxialkabel
316 kHz ... 12388 kHz
4,5 km
V 10800 *
Koaxialkabel
4332 kHz ... 59684 kHz
1,5 km
Z: Zweidrahtsystem mit getrennter Frequenzlage der Gesprächsrichtungen V: Vierdrahtsystem mit Frequenzgleichlage der Gesprächsrichtungen * Ein bzw. bis zu sechs analoge TV-Kanäle möglich
4.4
Frequenzmodulation
4.4.1
Modulation der Momentanfrequenz des Trägers
Die Frequenzmodulation, kurz FM genannt, stellt einen wichtigen Meilenstein in der Entwicklung zur modernen Kommunikationsgesellschaft dar. 1935 demonstrierte Armstrong1 in den USA die überlegene Qualität der FM-Übertragung. Konsequenterweise wurde die FM-Übertragung zum Standard in der mobilen Kommunikation im 2. Weltkrieg. Ihre überzeugende Klangqualität verschaffte der FM nach dem 2. Weltkrieg raschen Einzug in die Rundfunktechnik. Seit 1948 wird sie im UKW-Hörrundfunk in Mitteleuropa eingesetzt. Weitere Anwendungen finden sich in der Magnetbandaufzeichnung, der Mobilkommunikation, der Tonübertragung im Fernsehrundfunk und der drahtlosen Tonübertragung mit Infrarot-Licht für Kopfhörer. Bei der Frequenzmodulation wird die Nachricht der Phase des Sinusträgers aufgeprägt. t ⎡ ⎤ u FM (t ) = uˆT cos ψ FM (t ) = uˆT cos⎢ ωT t + 2 πΔF u (τ )d τ ⎥ ⎢ ⎥ ⎣ ⎦ 0
∫
(4.16)
Da die Nachricht in das Argument der Kosinusfunktion eingebracht wird, handelt es sich um eine nichtlineare Modulation. Es wird direkt die Momentankreisfrequenz moduliert.
ω FM (t ) =
d ψ FM (t ) = ωT + 2πΔF ⋅ u (t ) dt
(4.17)
Das modulierende Signal wird üblicherweise auf seinen Maximalwert normiert, max |u(t)| = 1. Zur Parametrisierung der FM wird der Frequenzhub ΔF verwendet. Er ist gleich der maxima1 Edwin Howard Armstrong: *1890/+1954, US-amerikanischer Elektrotechniker, Pionier der Nachrichtentechnik.
sUppLex
108
4 Modulation eines sinusförmigen Trägers
len Abweichung der Momentanfrequenz von der Trägerfrequenz. Der Frequenzhub ist jedoch nicht mit der Bandbreite des FM-Signals gleichzusetzen, obwohl er einen wichtigen Einfluss auf sie ausübt. Bezieht man den maximalen Frequenzhub auf die Grenzfrequenz fg des modulierenden Signals, so erhält man den Modulationsindex.
η=
ΔF fg
(4.18)
Zur praktischen Realisierung der FM-Modulation stehen verschiedene Möglichkeiten zur Verfügung. Beispielsweise kann die Kapazität einer Varaktordiode in einem Schwingkreis durch das modulierende Signal gesteuert werden. Oder es wird ein spannungsgesteuerter Oszillator, ein Voltage Controlled Oscillator (VCO), mit einem Schwingquarz verwendet. Beispiel FM-Signal für eine Eintonmodulation Das Prinzip der FM-Modulation kann am Beispiel eines Eintonsignals gut veranschaulicht werden. u (t ) = cos(ω1t )
(4.19)
Es folgt für die Phase des FM-Signals t
ψ FM (t ) = ωT t + 2πΔF ∫ cos(ω1τ )d τ = ωT t + 0
ΔF sin(ω1t ) = ωT t + η sin(ω1t ) f1
(4.20)
Die Phase und das zugehörige FM-Signal sind in Bild 4-17 zusehen. Für eine übersichtliche Darstellung wurden folgende Zahlenwerte gewählt. Der Zeitausschnitt ist auf eine Periode des modulierenden Signals begrenzt. Der Frequenzhub und die Frequenz des Trägers sind ΔF = 4 f1 bzw. ΔF = 8 f1.
ψFM(t) 40
FM 20
uT 0
0
0,2
0,4
uT
1
0,6
0,8
t⋅f1
1
0,8
t⋅f1
1
FM
uFM(t) 0
-1
0
0,2
0,4
0,6
Bild 4-17 Phase und Signal zur Frequenzmodulation (FM) für ein modulierendes Eintonsignal im Vergleich zum unmodulierten Träger (uT)
sUppLex
4.4 Frequenzmodulation
109
Für den Zeitausschnitt t = 1 / f1 ergibt sich insgesamt der Phasenzuwachs von 2π ⋅ 8 ≈ 50, 2 im oberen Bild. Zum Vergleich wird im Bild die Gerade zur Phase des unmodulierten Trägers ebenfalls gezeigt. Zunächst wird durch das modulierende Signal (4.19) die Momentanfrequenz, die Steigung der Phase, erhöht. Damit wächst die Phase (4.20) schneller als die des unmodulierten Trägers. Bei t f1 = 0,25 wechselt das Vorzeichen des modulierenden Signals. Der Phasenzuwachs verlangsamt sich. Nach t f1 = 0,5 ist die Phase des FM-Signals gleich der des unmodulierten Trägers, da das Integral in (4.20) über die erste halbe Periode der Kosinusfunktion den Wert null liefert. Den letzten Überlegungen entsprechend, entwickelt sich die Phase weiter. Jeweils nach einer halben Periode, gemäß der Nullstellen der Sinusfunktion in (4.20), stimmen die Phasen des modulierten und des unmodulierten Trägers überein. Im unteren Bild ist das FM-Signal zu sehen. Da die Momentanfrequenz zunächst größer ist als die des unmodulierten Trägers, ändert sich das FM-Signal schneller. Die Abstände der Nulldurchgänge sind kürzer. Dann jedoch nimmt die Steigung der Phase des FM-Signals ab. Die Abstände der Nulldurchgänge verlängern sich. Bei t f1 = 0,5 ist die Momentanfrequenz am geringsten. Die Nulldurchgänge des FM-Signals haben dort den größten Abstand voneinander. Danach nimmt die Momentanfrequenz wieder zu und die Abstände der Nulldurchgänge ab. Bei der FM-Modulation ist die Nachricht in den Abständen der Nulldurchgänge enthalten.
4.4.2
Spektrum und Bandbreite von FM-Signalen
Das Spektrum von FM-Signalen kann nicht so einfach angegeben werden wie bei der AMModulation, da ein nichtlineares Modulationsverfahren vorliegt. Im Falle eines modulierenden Eintonsignals kann es jedoch berechnet werden. Wichtig dabei ist, dass das Eintonsignal (4.19) periodisch ist, und sich die Periodizität über die Phase (4.20) auf das FM-Signal überträgt. Also das FM-Signal wiederum periodisch ist und damit durch eine Fourier-Reihe dargestellt werden kann. Um den geplanten Rahmen einer Einführung nicht zu sprengen, wird direkt das Ergebnis vorgestellt. Man erhält +∞
u FM (t ) = uˆT ⋅
∑
J n (η ) ⋅ cos [ (ωT + nω1 )t ]
(4.21)
n=−∞
mit den Fourier-Koeffizienten Jn(K), den Bessel- oder Zylinderfunktionen n-ter Ordnung erster Gattung [BSMM99]. Einige Besselfunktionen sind beispielhaft in Bild 4-18 dargestellt. Für das Spektrum von FM-Signalen sind darin zwei Beobachtungen wichtig: (i)
(ii)
Die Besselfunktionen kommen mit wachsender Ordnung immer flacher aus dem Ursprung heraus. Deswegen nehmen die Fourier-Koeffizienten ab einer gewissen Ordnung n mit wachsendem n rasch ab. Damit ist der größte Teil der Signalleistung auf relativ wenige Koeffizienten um die Trägerfrequenz konzentriert. Die Besselfunktionen besitzen Nulldurchgänge, so dass für bestimmte Werte des Modulationsindex gewisse Frequenzkomponenten null sind, wie z. B. J0(2,4048) = 0.
Wie in Abschnitt 2.6 diskutiert, besitzen periodische Signale Linienspektren, wobei die Amplituden der Spektrallinien proportional zu den Fourier-Koeffizienten sind. Beispiele für die Betragsspektren von FM-Signalen sind in Bild 4-19 zu sehen. Die Trägerfrequenz und die Frequenz des modulierenden Eintonsignals wurden so gewählt, dass die oben angesprochenen Effekte deutlich erkennbar sind.
sUppLex
110
4 Modulation eines sinusförmigen Trägers
Jn(K)
1 n=0 1
0,5
2 3
4
K
0 -0,5
2,40 3,83 5
0
10
15
20
Bild 4-18 Besselfunktionen n-ter Ordnung erster Gattung
In allen vier Beispielen ist das Aussterben der Spektrallinien für größere Frequenzabstände vom Träger, d. h. für größere Werte von n, zu sehen. Ebenso deutlich ist die Verbreiterung der Spektren mit wachsendem Modulationsindex K zu erkennen. Jedoch bleibt der größte Anteil der Leistung auf wenige Spektrallinien symmetrisch um die Trägerfrequenz begrenzt. 0,5
|UFM ( f )|
Bc
20 π
K=1
|UFM ( f )|
0,25
Bc
0,25
0 0
10
[kHz] 20
f
K = 2,40
0 0
10
[kHz] 20
f
0,5
0,5
K = 3,83
|UFM ( f )|
|UFM ( f )|
Bc
0,25
0,25
f
0 0
10
[kHz] 20
0 0
K=5 Bc
f 10
[kHz] 20
Bild 4-19 Berechnete Betragsspektren von FM-Signalen bei modulierendem Eintonsignal mit fS = 1 kHz und der Trägerfrequenz fT = 10 kHz
Eine Abschätzung der Bandbreite liefert die Carson-Formel mit der Carson-Bandbreite BC. Mit der parsevalschen Gleichung (2.20) kann im Beispiel der Eintonmodulation die Zahl der Spektrallinien um die Trägerfrequenz bestimmt werden, so dass 98 % der Leistung des FMSignals erfasst werden. BC = 2(η + 1) ⋅ f g
(4.22)
Die resultierenden Carson-Bandbreiten sind in Bild 4-19 eingetragen. Messungen an FMSignalen im UKW-Rundfunk zeigen, dass die Carson-Bandbreite auch bei modulierenden
sUppLex
4.4 Frequenzmodulation
111
Audiosignalen zur Abschätzung der Bandbreite verwendet werden darf. Es ergeben sich keine Linienspektren mehr, jedoch bleibt die Energie des FM-Signals im Wesentlichen auf den Bereich der Carson-Bandbreite konzentriert. In Bild 4-19 erkennt man weiter, dass für K = 2,4048 der Träger im FM-Signal unterdrückt wird. Für K = 3,8317 fehlen die Spektralanteile bei fT r f1. Anmerkung: J. R. Carson zeigte in den 1920er Jahren in den USA theoretisch, dass die FM-Modulation stets eine höhere Bandbreite als die Einseitenbandmodulation benötigt. Die überlegene Qualität wurde jedoch nicht erkannt, so dass die FM-Modulation zunächst nicht beachtet wurde.
Die Carson-Formel bietet die Gelegenheit, eine nachrichtentechnische Grundtatsache anzusprechen. Wir vergleichen dazu die Bandbreite des FM-Signals mit der Bandbreite des Signals bei Einseitenbandmodulation (ESB), d. h. der Bandbreite des modulierenden Signals. 2(η + 1) f g BC = = 2(η + 1) BESB fg
(4.23)
Es ergibt sich eine Bandaufweitung, die durch die Wahl des Modulationsindex K eingestellt werden kann. In technischen Übertragungssystemen kann die Bandbreite in gewissen Grenzen gegen die Übertragungsqualität und die Informationsrate ausgetauscht werden, s. a. Kanalkapazität nach Shannon in Abschnitt 5.7. Daher rührt auch die überlegene Qualität der FM im Vergleich zur AM. Man spricht von einem Modulationsgewinn. Zu Definition des Modulationsgewinnes wird das Verhältnis der Leistung des Nachrichtensignals zu der des Störsignals (Geräusch) herangezogen. Man spricht kurz vom Signal-Geräuschverhältnis oder SNR (Signal-to-Noise Ratio). Der Modulationsgewinn ist definiert als der Quotient aus dem SNR nach der Demodulation (Empfängerausgang) durch das SNR vor der Demodulation (Empfängereingang). Eine Modellrechnung zeigt, dass bei üblichen Übertragungsbedingungen der Modulationsgewinn bei FM proportional zu K 2(K +1) ist. Eine beliebige Steigerung des Modulationsgewinnes ist jedoch nicht möglich, da mit wachsendem Modulationsindex K auch die Bandbreite (4.22) und damit die Leistung der empfangenen Rauschstörung ansteigt. Bei vorgegebener Sendeleistung nimmt dann das SNR am Empfängereingang ab und es zeigt sich die FM-Schwelle. Theoretische Überlegungen und experimentelle Untersuchungen belegen, dass bei unterschreiten des SNR-Wertes am Demodulatoreingang von etwa 10 die demodulierte Nachricht stark gestört ist. Die FM-Schwelle hängt von der Bauart des Empfängers ab. Der SNR-Wert 10 gilt für den konventionellen FM-Empfänger. Durch den Einsatz eines Phasenregelkreises kann die FM-Schwelle deutlich gesenkt werden. Beide Empfängertypen werden im nächsten Abschnitt kurz vorgestellt. Beispiel UKW-Rundfunk
Im UKW-Rundfunk (Ultrakurzwelle) wird der Frequenzhub 75 kHz verwendet. Mit der Grenzfrequenz des Audiosignals von 15 kHz erhalten wir ⎛ 75kHz ⎞ BC = 2 ⋅⎜ + 1⎟⋅15kHz = 180 kHz ⎝15kHz ⎠
(4.24)
Ein Vergleich mit der Einseitenbandmodulation, deren Bandbreite ja gleich der Bandbreite des modulierenden Signals ist, ergibt eine Bandaufweitung um den Faktor 12.
sUppLex
112
4 Modulation eines sinusförmigen Trägers
BC 180kHz = = 12 BESB− AM 15kHz
(4.25)
In dem für den UKW-Rundfunk vorgegebenen Frequenzspektrum werden somit weniger Programme ausgestrahlt als prinzipiell möglich wären. Für die überlegene Klangqualität wird dies jedoch in Kauf genommen.
4.4.3
Demodulation von FM-Signalen
FM-Signale zu demodulieren heißt, die der Momentankreisfrequenz aufgeprägte Nachricht zurück zu gewinnen. Zwei Empfängertypen werden kurz vorgestellt: der konventionelle FMEmpfänger und der FM-Empfänger mit Phasenregelkreis. Der konventionelle FM-Empfänger wird manchmal auch Modulationswandler genannt, da er den AM-Hüllkurvendetektor benutzt. Die Verarbeitungsschritte sind im Blockdiagramm in Bild 4-20 zusammengestellt. Zentrales Element ist der Differentiator. Er bewirkt eine Differentiation des sinusförmigen Trägers (4.16). Gemäß der Kettenregel der Ableitung tritt dann die Momentankreisfrequenz in der Amplitude des sinusförmigen Trägers auf und der Hüllkurvendetektor kann wie bei der gewöhnlichen AM verwendet werden. Die ersten beiden Blöcke sind für die Unterdrückung von Amplitudenschwankungen notwendig. Da die Nachricht in den Nulldurchgängen des FM-Signals enthalten ist, rühren Amplitudenschwankungen von Störungen auf dem Übertragungsweg her. Wird das FM-Signal differenziert, wird die störende Wirkung der Amplitudenschwankungen verstärkt. Aus diesem Grund werden die Amplitudenschwankungen zunächst durch eine harte Amplitudenbegrenzung mit nachfolgender Bandpassfilterung beseitigt. Der Differentiator wird, entsprechend dem Differentiationssatz der Fourier-Transformation, durch ein System mit linearem Frequenzgang im Übertragungsband realisiert. Ein derartiges Verhalten liefert beispielsweise der Gegentakt-Flankendiskriminator, der die Frequenzgänge zweier Reihenschwingkreise gegensinnig so kombiniert, dass im Übertragungsband und bezogen auf die Trägerkreisfrequenz der Frequenzgang proportional zu jZ ist. Hüllkurvendetektor für AM
uFM(t)
HD( jZ)
Amplituden begrenzer Bandpas
Differentiator Gleichrichter Tiefpass
ud(t) Abtrennung des Gleichanteils
Bild 4-20 Konventioneller FM-Empfänger
Der FM-Empfänger mit Phasenregelkreis, Phase-Locked Loop (PLL), ist im Prinzip ein FMModulator, der zum empfangenen FM-Signal ein Referenzsignal erzeugt. Seine Arbeitsweise wird anhand des PLL in Bild 4-21 erläutert. Am Eingang wird das FM-Signal eingespeist. Im Phasendiskriminator (PD) wird die Phase des FM-Signals mit der Phase des Referenzsignals verglichen. Der Phasendiskriminator erzeugt eine zur Phasendifferenz proportionale Spannung, die Phasendifferenzspannung ud(t). Letztere wird im Schleifenfilter mit Tiefpasscharakteristik vom Rauschen befreit und geglättet. Es resultiert die Nachstimmspannung uf(t), die einem
sUppLex
4.4 Frequenzmodulation
113
spannungsgesteuerten Oszillator, Voltage Controlled Oscillator (VCO), zugeführt wird. Der VCO ist bereits durch die Spannung U0 auf die Trägerkreisfrequenz eingestellt. Durch die Nachstimmspannung wird der Referenzspannung die Änderung ihrer Momentankreisfrequenz vorgegeben, also eine FM-Modulation durchgeführt. Sind gewisse Bedingungen erfüllt, so versucht der PLL die Phasendifferenz zwischen der Eingangsspannung, dem FM-Signal, und der Referenzspannung, der Nachbildung des FM-Signals, zu null zu regeln. Man spricht auch von einer Nachlaufsynchronisation. Im Idealfall sind die beiden Phasen gleich und die Nachstimmspannung ist gleich dem modulierenden Signal. Sie kann als demodulierte Nachricht ausgegeben werden. Anmerkungen: Der Regelkreis im Allgemeinen spielt in der Nachrichtentechnik und insbesondere in der Regelungstechnik eine herausragende Rolle. In der Nachrichtentechnik findet der PLL wichtige Anwendungen bei der Trägerrückgewinnung. Eine tiefer gehende Analyse des PLL ist aufwändig. Mit den Mitteln der digitalen Signalverarbeitung kann der PLL auch vollständig digital realisiert werden.
Eingangsspannung FM-Signal
Phasendiskriminator
ue(t) PD
Schleifen- Nachstimmfilter spannung
ud(t)
uf (t)
demoduliertes FM-Signal
LF
ur(t) Referenzspannung
VCO
U0
spannungsgesteuerter Oszillator
Bild 4-21 Blockschaltbild des Phasenregelkreises (PLL) zur FM-Demodulation
Eine Modellrechnung zum konventionellen FM-Empfänger zeigt, dass nach der Demodulation die Leistung der Störung mit wachsender Frequenz quadratisch zunimmt. Dies ist auf die Bewertung der Frequenzkomponenten durch den Frequenzgang des Differentiators zurückzuführen. Wegen der ungleichmäßigen Verteilung der Störleistung im Frequenzbereich bietet es sich an, die Störung durch eine Vor- und Nachverarbeitung gezielt zu bekämpfen, s. Bild 4-22. Durch das Preemphase-System werden die „höherfrequenten“ Spektralanteile des modulierenden Signals leistungsmäßig angehoben. Nach der FM-Übertragung werden diese im Deemphase-System auf das ursprüngliche Niveau abgesenkt. Da das Deemphase-System einen Tiefpasscharakter aufweist, wird die Störung deutlich reduziert. Im UKW-Rundfunk kann durch einfache elektrische Schaltungen, s. Abschnitt 2.9, das SNR um den Faktor 6 verbessert werden.
modulierendes Signal
Preemphase
H P ( jZ )
Kanal FMModulator
FMDemod.
Deemphase demoduliertes Signal H D ( jZ )
Rauschen
Bild 4-22 Anwendung der Preemphase und Deemphase bei der FM-Übertragung
sUppLex
114
4.5
4 Modulation eines sinusförmigen Trägers
Digitale Modulationsverfahren
Mit der zunehmenden Digitalisierung der Nachrichten haben sich die Anforderungen an die Übertragungstechnik stark verändert. Neue Anwendungen finden sich im digitalen Audio- und Fernsehrundfunk, im digitalen Mobilfunk, in den drahtlosen lokalen Rechnernetzen, usw. Die Übertragung selbst unterliegt den physikalischen Randbedingungen, so dass das bekannte Wissen über die analogen Modulationsverfahren und die Übertragung elektromagnetischer Wellen nutzbringend angewendet werden kann. Eine tiefgehende Darstellung der digitalen Modulationsverfahren, ihrer spezifischen Vor- und Nachteile sowie ihre Anwendungen würde, auch wegen der historisch gewachsen Vielzahl von Varianten, den Rahmen einer Einführung sprengen. In den folgenden Unterabschnitten werden an Beispielen grundlegende Überlegungen vorgestellt. Kennzeichnend für die digitale Modulation mit sinusförmigem Träger ist, dass die modulierende Nachricht in digitaler Form, d. h. zeit- und wertdiskret, vorliegt. In Bild 4-23 wird das Prinzip an einfachen Beispielen vorgestellt. Den Ausgangspunkt liefert ein Bitstrom der in das binäre Basisbandsignal mit der Bitdauer Tb abgebildet wird. Die binäre Information kann dann beispielsweise durch Austasten eines Trägers übertragen werden. Diese einfache Form der digitalen Trägermodulation durch Amplitudentastung (Amplitude-Shift Keying, ASK) wird OnOff Keying (OOK) genannt. Alternativ kann die Nachricht auch durch Umtasten der Frequenz (Frequenzumtastung, Frequency-Shift Keying, FSK) oder der Phase (Phasenumtastung, PhaseShift Keying, PSK) codiert werden. Anmerkung: Die binäre PSK mit Phasensprüngen um S entspricht einer Amplitudenmodulation des Trägers mit +1 und –1 jeweils entsprechend dem zu übertragenden Bit.
Bitstrom
0
1
0
0
1
1
0
Basisbandsignal
t Tb
OOK
t
FSK
t
PSK
t Bild 4-23 Beispiele binärer Übertragung mit Sinusträger
Der Vorteil der digitalen Übertragung liegt besonders in ihrer Störfestigkeit. Der Empfänger braucht nicht wie bei der analogen AM und FM das modulierende Signal möglichst rauschund verzerrungsfrei zu demodulieren, sondern es genügt die diskreten Datenniveaus, die Amplituden-, Frequenz- bzw. Phasenstufen, zu erkennen. Damit wirken sich Rauschstörungen und Signalverzerrungen – so lange ein gewisses Maß nicht überschritten wird – nicht auf die empfangene Nachricht aus. Die Detektion der Nachricht geschieht in der Regel anhand des demo-
sUppLex
4.5 Digitale Modulationsverfahren
115
dulierten Basisbandsignals. Der Einfluss des Rauschens auf die Detektion wird in Abschnitt 5 genauer diskutiert. Der Nachteil der digitalen Übertragung liegt in der höheren Bandbreite, d. h. geringeren spektralen Effizienz. Wie im digitalen Mobilfunk oder im digitalen Teilnehmeranschluss, wird dieser jedoch oft durch die höhere Störfestigkeit mehr als ausgeglichen, die erst eine effiziente Übertragung ermöglicht. Beispiel Binäre Frequenzumtastung (BFSK)
Einen graphisch einfach darstellbaren Sonderfall der digitalen FM liefert die BFSK-Modulation, die beispielsweise Anwendung bei Telefonmodems findet. Wir skizzieren in Bild 4-24 anhand eines kleinen Beispiels das modulierende (Basisband-)Signal, die Momentanphase und das FM-Signal. Zur besseren graphischen Darstellung wählen wir das Intervall zwischen den Umtastungen, das Bitintervall T = 2 / fT, also zwei Trägerperioden, und den Frequenzhub 'F = fT / 2. ________________________________________________________________________________ Ende des Beispiels
u(t)
1
t/T -1
\FM
1
2
20 π
3
4
5
Tt
1100
t/T
0
uFM(t
uˆT
t/T −uˆT Momentanfrequenz 3fT/2
fT/2
fT/2
3fT/2
fT/2
Bild 4-24 Binäre Frequenzumtastung (BFSK) als Beispiel für die Frequenzmodulation
Die Verteilung der Leistung des Sendesignals im Frequenzbereich bestimmt sich im Wesentlichen aus der Form des Basisbandsignals. Liegen keine Abhängigkeiten zwischen den modulierenden Bits vor, so ist das Spektrum des Sendegrundimpulses, in Bild 4-23 der Rechteckimpuls des Basisbandsignals, ausschlaggebend. Aus den Überlegungen in Abschnitt 2 folgt, dass Umtasten des Trägers mit Rechteckimpulsen als Betragsspektrum den um die Trägerfrequenz zentrierten Betragsverlauf der si-Funktion liefert. In sind auf die jeweiligen Maximalwerte normierte Betragsspektren im logarithmischem Maß dargestellt. Als Parameter tritt die Bitdauer Tb auf. Man erkennt, dass im Fall der harten Umtastung mit rechteckförmigen Sendegrundimpulsen (REC) das Betragsspektrum (Nebenmaxima) mit wachsendem Abstand von der Trägerfrequenz relativ langsam abfällt.
sUppLex
116
4 Modulation eines sinusförmigen Trägers
Ein für Frequenzmultiplexsysteme wünschenswertes kompakteres Spektrum lässt sich durch eine weiche Umtastung mit stetigen Sendegrundimpulsen erzielen. In Bild 4-25 ist als Beispiele der Kosinusimpuls eingetragen, wie er auch bei der MSK-Modulation (Minimum-Shift Keying) verwendet wird. Im Vergleich zur harten Umtastung verbreitert sich zwar der Hauptbereich, jedoch konzentriert sich die Leistung wesentlich stärker auf ihn. Praktisch wird dadurch eine engere Anordnung von Trägerfrequenzen in einem Frequenzmultiplexsystem möglich. g(t)
REC
A
MSK t/Tb
0 1
0
G( f ) G (0)
0 MSK
REC
2
fTb
-20 -40 [dB] -60 -4
-3
-2
-1
0
1
4
Bild 4-25 Betragsspektren der Sendegrundimpulse Rechteckimpuls (REC) und Kosinusimpuls (MSK)
Anmerkungen: (i) Die normierte Darstellung der Frequenzachse kann wie im folgenden Beispiel interpretiert werden. Angenommen ein Bitstrom mit der Bitrate von 10 kbit/s wird binär bei einer Trägerfrequenz von 800 MHz übertragen. Die Bitdauer Tb ist 0,1ms. Der im Bild beispielsweise angegebene normierte Wert fTb = 4 entspricht im Basisband der Frequenz 40 kHz und nach Trägermodulation 800,04 MHz. Für den normierten Wert fTb = –2 folgt entsprechend nach Trägermodulation 799,98 MHz. (ii) Durch die Wahl von stetig differenzierbaren Sendegrundimpulsen kann das Spektrum weiter konzentriert werden. Darüber hinaus können durch Codierung und Vorfilterung Abhängigkeiten zwischen den Bits, bzw. im Basisbandsignal eingebracht werden, um das Sendesignalspektrums gezielt einzustellen. Die geschieht beispielsweise beim AMI-Code in Abschnitt 5. Ein Beispiel für die Tiefpassfilterung (Glättung) des Basisbandsignals ist die GMSK-Modulation für den Mobilfunk.
Um größere Bitraten bei moderater Bandbreite zu übertragen, werden mehrstufige Verfahren verwendet. Ein einfaches Beispiel ist die vierstufige Pulsamplitudenmodulation (4-PAM) in Bild 4-26. Jeweils 2 Bits werden zu einem Symbol zusammengefasst und als ein Amplitudenwert codiert. Die Zuordnung der Symbole zu den Datenniveaus geschieht so, dass sich die Symbole benachbarter Datenniveaus in nur einem Bit unterscheiden. Da typischerweise Übertragungsfehler zur Verwechslung benachbarter Datenniveaus führen, erhält man im Mittel weniger Bitfehler. Eine derartige Codierung wird Gray-Code genannt. Es resultiert ein digitales Basisbandsignal mit vier Datenniveaus. Die Dauer eines Symbols ist hier doppelt so lang wie die eines Bits. Wegen des reziproken Zusammenhangs zwischen der Zeitdauer und der Bandbreite, wird jetzt nur die halbe Bandbreite wie bei der binären ASK bzw. PSK benötigt. Oder umgekehrt, bei gleicher Bandbreite kann die doppelte Bitrate übertragen werden. Die Bitrate kann jedoch nicht beliebig gesteigert werden. Wie im Abschnitt 4.6 noch ausgeführt wird, wird die maximal erzielbare Bitrate, d. h. Anzahl der übertragenen Bit pro Zeit, durch die beschränkte Sendeleistung und die unvermeidliche Rauschstörung begrenzt. Mit dem 4-PAM-Basisbandsignal wird schließlich der Sinusträger multipliziert, so dass das Signal im unteren Teilbild entsteht.
sUppLex
4.5 Digitale Modulationsverfahren
117
Ts Tb Bitstrom Symbole
0
0
Datenniveaus
„11“
3
„10“
1
„00“
-1
„01“
-3
0
1
1
1
1
0
Basisbandsignal
t
4-PAM mit Träger
uˆ t
0 uˆ Bild 4-26 4-PAM im Basisband und mit Sinusträger
Anmerkung: Auch bei der digitalen Modulation spielt die Frage nach kohärentem oder inkohärentem Empfang eine Rolle. Beschränkt man sich beispielsweise bei der PAM auf positive Datenniveaus, so ist eine einfache inkohärente Demodulation mit dem Hüllkurvendetektor möglich.
Bei der Datenübertragung steht eine hohe spektrale Effizienz im Vordergrund. Deshalb wird häufig die digitale Quadaraturamplitudenmodulation (QAM) eingesetzt. Die digitale QAM ist eine direkte Erweiterung der Überlegungen in Abschnitt 4.3.6. Sie fußt darauf, dass prinzipiell alle zu übertragenden Bandpass-Signale wie in (4.14) als Überlagerung einer Normal- und einer Quadraturkomponente dargestellt werden können. Bei der digitalen QAM sind die Quadraturkomponenten digitale Basisbandsignale, die durch Abbildung des Bitstromes entstehen, s. Bild 4-27. Das tatsächlich verwendete Modulationsverfahren wird durch die Art der Abbildung des Bitstromes auf die Quadraturkomponenten festgelegt.
Bitstrom
Abbildung auf die Quadraturkomponenten
u1(t)
QAMMod.
u2(t) Basisbandsignale detektierter Bitstrom
Abbildung auf den Bitstrom (Detektion)
uˆ1 (t )
Kanal
QAMDemod.
uˆ 2 (t )
Bild 4-27 Modulator und Demodulator für die digitale Quadraturamplitudenmodulation (QAM)
sUppLex
118
4 Modulation eines sinusförmigen Trägers
Im Beispiel der 4-PAM in den Quadraturkomponenten wird in jedem Symboltakt ein Symbol von 16 möglichen übertragen, s. Bild 4-26 und Bild 4-28. Man bezeichnet die Modulation deshalb kurz als 16QAM. In der Richtfunktechnik und für die Übertragung des zukünftigen digitalen Fernsehens wird die QAM mit bis zu 256 Stufen verwendet. Die Detektion höherstufiger digitaler QAM-Signale ist besonders anfällig gegen Phasenfehler und Dämpfungsverzerrungen.
Quadraturkomponente 1000 1010
0010 0000
1001 1011
0011 0001
Normalkomponente 1101 1111
0111 0101
1100 1110
0110 0100
Wie in Bild 4-29 veranschaulicht ist, werden die ge- Bild 4-28 Symbolraum für die 16-QAM sendeten Signale (Symbole) zunächst mit einer mit Gray-Code Rauschstörung überlagert. Dadurch weichen die empfangenen, für die Entscheidungen relevanten Signalwerte, die Detektionsvariablen, zufällig von den Sendesymbolen ab, s. Abschnitt 5.2. Solange die Abweichungen die Grenzen der Entscheidungsgebiete der jeweiligen Sendesymbole nicht überschreiten, wird richtig detektiert. Empfangssymbole und Sendesymbole sind jeweils gleich: Detektionsfehler treten nicht auf. Quadraturkomponente Sendesymbole Symbol 0011
Entscheidungsfehler
Normalkomponente
Detektionsvariablen zum Symbol 0011 mit Rauschstörung Entscheidungsgebiet zum Symbol 0011
Bild 4-29 Ausschnitt aus der Signalraumkonstellation der rechteckförmigen 16-QAM im Empfänger mit Rauschstörung und Beispiele für Werte der Detektionsvariablen zu Symbol 0011
Durch Phasenfehler und Dämpfungsverzerrungen kommt es zu einer Drehung bzw. einer Stauchung des Symbolraums im Empfänger. Tritt noch das unvermeidliche Rauschen hinzu, so können die Detektionsvariablen leicht außerhalb der Entscheidungsgebiete der Symbole liegen. Deshalb werden in praktischen Anwendungen zu Beginn der Kommunikation und gegebenenfalls auch danach immer wieder bekannte Bitmuster gesendet, so dass der Empfänger eine Phasenverschiebung und eine Amplitudendämpfung erkennen und kompensieren kann. Anmerkungen: (i) Die Quadraturdarstellung ist für alle Bandpass-Signale möglich. Es ergibt sich eine einheitliche Darstellung, unabhängig davon ob die Trägeramplitude, die Trägerphase oder beides moduliert werden. Die Unterschiede zwischen den digitalen Modulationsverfahren mit Träger bestehen in der Abbildung des Bitstromes auf die Quadraturkomponenten. (ii) Die Erzeugung der modulierenden Basisbandsignale kann, wie zum Beispiel in den GSM-Telefonen, durch einen digitalen Signalprozessor mit nachfolgender Digital-Analog-Umsetzung erfolgen. Das Modulationsverfahren wird dann nur durch die verwendete Software bestimmt. Für die Mobilkommunikation der Zukunft wird am breitbandigen „SoftwareRadio“ gearbeitet, das sich an die jeweiligen Gegebenheiten vor Ort (Netzparameter, Verkehrslast, gewünschter Dienst, usw.) durch Laden der Modulator- und Demodulator-Software über eine universelle Schnittstelle des Mobilfunknetzes bzw. des lokalen Funknetzes anpasst.
sUppLex
4.5 Digitale Modulationsverfahren
119
Quadraturkomponente Sendesymbole
Symbol 0011
Entscheidungsfehler
Normalkomponente
Empfangssymbole (verzerrt) Detektionsvariablen Entscheidungsgebiet zu Symbol 0011 (unkompensiert) Entscheidungsgebiet zu Symbol 0011 (kompensiert)
Bild 4-30 Signalraumkonstellation der rechteckförmigen 16-QAM im Empfänger mit Dämpfungs- und Phasenverzerrungen und Beispiele für Werte der Detektionsvariablen zu Symbol „0011“
Das Problem der Dämpfungsverzerrungen kann bei der Detektion reduziert werden, wenn die Nachricht nur in der Trägerphase codiert wird. Bild 4-31 zeigt die Signalraumkonstellation für die 8-PSK-Modulation. Alle Symbole liegen auf einem Kreis um den Ursprung und haben so den gleichen Betrag. Die Codierung geQuadraturkomponente schieht je nach zu übertragendem Symbol durch Amplitudenumtastung der Normal011 001 und Quadraturkomponenten. Für die Dekodierung ist die Phasenlage wichtig, wie die Entscheidungsgebiete in Bild 4-31, die radialen Sektoren, zeigen. Amplitudenschwankungen im Empfangssignal spielen im Vergleich zur 16-QAM deshalb keine so große Rolle.
010
110
000
A
Normalkomponente
100
Die mehrstufige PSK-Modulation, die M111 101 PSK, ist deshalb im Mobilfunk von besonderem Interesse. Anwendungen der 8-PSK Bild 4-31 Signalraum-Konstellation der 8-PSKModulation mit Entscheidungsgebieten findet man beispielsweise im der Erweiteund Gray-Code rung von GSM, Enhanced Data Rates for GSM Evolution (EDGE) genannt. Wegen ihrer relativen Einfachheit hat die 4-PSK, die quaternäre PSK (Q-PSK), viele Anwendungen gefunden. Sie kann als „gleichzeitige“ binäre Amplitudenumtastung, also BPSK-Modulation, in den Quadraturkomponenten aufgefasst werden. Anwendungsgebiete reichen von Telefonmodems, z. B. der V.22 Empfehlung für die Übertragung mit 1200 kbit/s, bis zur Mobilkommunikation, wie beispielsweise dem US-amerikanischen Mobilfunkstandard der 2. Generation U.S. Digital Cellular (USDC). Die QPSK-Modulation ist auch Teil von modernen Übertragungskonzepten für drahtlose lokale Netze.
sUppLex
120
4.6
4 Modulation eines sinusförmigen Trägers
Zusammenfassung
Durch Modulation von sinusförmigen Trägersignalen werden Sprachtelefonsignale, Audiound Fernsehsignale im Frequenzmultiplex gebündelt und gemeinsam über Weitverkehrsstrecken, Richtfunkstrecken oder im Rundfunk übertragen. Im Rundfunk wurde in den 1920er Jahren die technologisch einfacher zu beherrschende Amplitudenmodulation eingeführt. Sie zeichnet sich – besonders als Einseitenbandmodulation – durch eine hohe spektrale Effizienz aus. Die Amplitudenmodulation ist aber vergleichsweise anfällig gegen Störungen, so dass sie in der Funktechnik Ende der 1930 Jahre durch die Frequenzmodulation abgelöst wurde. Letztere ist ein nichtlineares Modulationsverfahren, bei dem Bandbreite gegen Störfestigkeit getauscht werden kann. Bei der leitungsgebundenen Übertragung wurde mit dem analogen Trägerfrequenzsystem für öffentliche Telefonnetze eine relativ leistungsfähige aber sehr aufwändige Technik auf der Basis der Einseitenbandmodulation weltweit eingeführt. Wegen der in der Rundfunktechnik bei technischen Neuerungen, wie dem Stereo-Tonrundfunk oder das Farbfernsehen, wichtigen Kompatibilität zu den bereits millionenfach vorhandenen Empfängern basiert der heutige analoge Ton- und Fernsehrundfunk auf dem Stand der Technik der 1950er Jahre. Spätestens in den 1960er Jahren wurden die Grenzen der analogen Übertragungstechnik in der Fachwelt allgemein erkannt. In modernen Telekommunikationsnetzen sind heute die analogen Trägerfrequenzsysteme durch digitale Übertragungssysteme abgelöst. FM-Richtfunkstrecken werden durch Systeme mit digitalen Modulationsverfahren ersetzt. Weitere Beispiele sind der digitale Mobilfunk oder die terrestrische Ausstrahlung des digitalen Fernsehens. Digitale Modulationsverfahren, wie die digitale Quadraturamplitudenmodulation, verbinden die Bandbreiteneffizienz der Amplitudenmodulation mit der Störfestigkeit der digitalen Übertragung. Insbesondere ermöglichen die Forschritte der Mikroelektronik zunehmend komplexere Verfahren der digitalen Signalverarbeitung und aufwändigere Fehlerkorrekturverfahren anzuwenden, so dass das Potential der digitalen Übertragungstechnik heute bei weitem noch nicht ausgeschöpft ist. Dies gilt besonders für alle Arten der Funkkommunikation, wie die drahtlosen lokalen Netze oder die Mobilkommunikation, für die heute breitbandige digitale Übertragungsverfahren bereitstehen, s. Abschnitt 8.
4.7
Aufgaben zu Abschnitt 4
Aufgabe 4.1
a) Wodurch unterscheiden sich die kohärente und die inkohärente Demodulation? b) Worin liegt der Vorteil der kohärenten Demodulation und worin ihr Nachteil? Aufgabe 4.2
In Bild A4.2-1 sind ein Ausschnitt des Signals u(t) dargestellt. Das Signal hat die Grenzfrequenz fg und wird gemäß dem Blockschaltbild im Bild A4.2-3 moduliert. a) Um welches Modulationsverfahren handelt es sich hierbei? b) Was muss für die Trägerfrequenz fT sinnvoller weise gelten? c) Skizzieren Sie den prinzipiellen Verlauf des Modulationsproduktes.
sUppLex
4.7 Aufgaben zu Abschnitt 4
121
u(t) U0
uM(t)
u(t) t1
t2
t
cos(ZTt)
U0 Bild A4.2-1 Signalausschnitt
Bild A4.2-3 Blockdiagramm des Modulators
Aufgabe 4.3
In Bild A3.3-1 ist das Spektrum U( jZ) eines Telefonsprachsignals u(t) schematisch dargestellt. Das Signal wird mit einem Träger mit der Frequenz von 12 kHz moduliert, s. Bild A4.3-2.
A -3,4
u(t)
Das Signal wird nun gemäß dem Blockdiagramm in Bild A4.3-3 demoduliert.
Ein FM-Trägersignal bei 1 MHz wird mit einem Eintonsignal mit der Signalfrequenz 10 kHz frequenzmoduliert. Der Frequenzhub ist 24,048 kHz.
ω
3,4 2 π [kHz]
uM(t)
cos(Zt)
b) Skizzieren Sie den prinzipiellen Verlauf des resultierenden Betragspektrums von ud(t).
Aufgabe 4.4
-0,3 0,3
Bild A4.3-1 Betragsspektrum (schem.)
a) Skizzieren Sie das Betragsspektrum des Modulationsproduktes uM(t).
c) Welche Grenzfrequenz fg muss der ideale Tiefpass (TP) haben, damit das Signal u(t) fehlerfrei zurück gewonnen werden kann?
U( jZ)
Bild A4.3-2 Modulator
ud(t)
uM(t)
id. TP ud,TP(t) fg
cos(Zt) Bild A4.3-3 Demodulator
a) Welche prinzipielle Form hat das Betragspektrum des FM-Signals? b) Wie groß ist die Bandbreite des FM-Signals? Begründen Sie Ihre Antwort. c) Ist die Trägerfrequenz im FM-Spektrum enthalten? Begründen Sie Ihre Antwort. Aufgabe 4.5
Vergleichen Sie die analoge AM und die digitale ASK-Modulation bezüglich der Signalbandbreite und der Störfestigkeit. Aufgabe 4.6
a) Skizzieren Sie den Symbolraum der QPSK-Modulation, die als BPSK in den Quadraturkomponenten erzeugt wird. b) Tragen Sie im Bild die Zuordnung der Symbole zu den Bitkombinationen der Nachricht ein. Verwenden Sie einen Gray-Code. c) Welchen Vorteil bietet die Gray-Codierung und auf welche Annahme gründet sich dieser? d) Wodurch unterscheidet sich die M-PSK-Modulation gegenüber einer rechteckförmigen M-QAM im Symbolraum? e) Welcher Vorteil und Nachteil ergibt sich daraus für die M-PSK?
sUppLex
122
5
Digitale Übertragung im Basisband
5.1
Einführung
Der Begriff digitale Übertragung im Basisband fasst eine Vielzahl von Anwendungen und entsprechend unterschiedliche, technische Lösungen zusammen, bei denen keine Frequenzumsetzung mit einem sinusförmigen Trägersignal wie in Abschnitt 4 geschieht. Die folgende Darstellung beschränkt sich auf die grundlegenden Prinzipen und wichtigsten Begriffe. Zunächst wird am Beispiel des ASCII-Codes und der weit verbreiteten RS-232-Schnittstelle eine Einführung in den Themenkreis gegeben. Danach werden die beiden wesentlichen Störeinflüsse, das Rauschen und die Bandbegrenzung, anhand einfacher Modellüberlegungen behandelt. Schließlich wird der Zusammenhang zwischen der Datenrate, der Bandbreite und dem Signal-Geräuschverhältnis aufgezeigt. Anmerkung: Weiterführende Literatur [Che98] [Con04] [Loc02] [Pro01] [SCS00] [SSCS03] [Sta00] [Wer05a] [Wer06a] [Wit02].
Typische Beispiele einer digitalen Übertragung im Basisband liefern die S0- und UK0-Schnittstellen des ISDN-Netzes in Bild 1-4 und die Datenkommunikation in lokalen Rechnernetzen. Hinzu kommt die leitungsgebundene Datenübertragung zwischen PCs, Druckern, speicherprogrammierbaren Steuerungen, Mikrocontrollern usw. Bei der Kommunikation von Maschine zu Maschine ergeben sich Anforderungen, die sich von den Bedingungen der bekannten Sprachtelefonie unterscheiden. So werden an die Fehlerrobustheit hohe bis höchste Anforderungen gestellt, bis hin zur fast fehlerfreien Übertragung. Typisch sind Wahrscheinlichkeiten kleiner 10-6 für einzelne quasizufällige Bitfehler, engl. Bit Error Rate (BER) genannt. Ebenso wichtig ist, dass die Daten in der richtigen Reihenfolge, vollständig und ohne Wiederholung, sowie ohne zusätzliche fremde Daten empfangen werden. Anders als in der Sprachtelefonie sind die zeitlichen Anforderungen in der Regel eher gering. Allerdings existieren auch Anwendungen, bei der es auf eine schnelle bzw. gleichmäßige Übertragung ankommt. Anmerkung: (i) In der Steuerungs- und Regelungstechnik ist die Echtzeitfähigkeit der Datenübertragung eine wichtige und u. U. sogar sicherheitsrelevante Frage. Darunter versteht man die Übertragung von Steuerinformationen innerhalb der von den Prozessen vorgegeben Zeit. (ii) Bei Videobetrachtung ist eine gleichmäßige Übertragung der Daten erwünscht, damit beispielsweise das Bild nicht plötzlich einfriert.
Mehr als bei der Verständigung zwischen Menschen, die zur Not improvisieren können, sind für die Datenkommunikation gemeinsame Protokolle und Schnittstellen erforderlich. Um eine länderübergreifende Telegraphie zu ermöglichen, wurde bereits 1865 in Paris der internationale Telegraphenverein gegründet. Aus ihm ist die heute für den TK-Sektor maßgebliche International Telecommunication Union (ITU) hervorgegangen. Eine wichtige Rolle spielt auch die International Standardization Organization (ISO), u. a. mit dem bekannten Open-SystemInterconnect (OSI) –Referenzmodell, das in Abschnitt 6 behandelt wird. Ein bekanntes Beispiel für die Standardisierung ist der American Standard Code for Information Interchange, kurz ASCII-Code genannt. Er hat als Internationales Alphabet Nr. 5 (IA5) der ITU-Empfehlung V3 von 1968 oder ISO-Standard ISO R 646 weltweite Bedeutung. Es existieren auch verschiedene lokale Anpassungen wie die deutsche Version DIN 66003, die 8 in der deutschen Schriftsprache gebräuchliche Zeichen einführt, s. Tabelle 5-1 u. Tabelle 5-2.
sUppLex
5.1 Einführung
123
Anmerkung: DIN steht für das Deutsche Institute für Normung e.V., dem Nachfolger des 1917 gegründeten Nomenausschusses der Deutschen Industrie e.V., Berlin.
Beim ASCII-Code werden sieben binäre Zeichen, die Bits (Binary Digit), benutzt um 27 = 128 Zeichen, Meldungen und Befehle darzustellen. Die ersten beiden grau unterlegten Spalten in Tabelle 5-1 beinhalten Sonderzeichen für Meldungen und Befehle zur Kommunikationssteuerung, wie die positive Empfangsbestätigung ACK (Acknowledgement) oder wie dem (Schreibmaschinen-) Wagenrücklauf CR (Carriage Return) der Fernschreibtechnik. Eine Aufstellung der Bedeutungen der Sonderzeichen findet sich z. B. in [Wer05a]. Die Zeichen werden als Bitmuster, i. d. R. beginnend mit dem Bit b1, übertragen. Zusätzlich kann zur Einzelfehlererkennung ein Paritätsbit hinzugestellt werden, s. a. Abschnitt 7. Dann sind pro ASCII-Zeichen acht Bits, also ein Oktett oder Byte, zu senden. Tabelle 5-1 ASCII-Code nach DIN 66003 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 b4
0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 b3
0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 b2
0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 b1
Tabelle 5-2 DIN 66003 ISO R 646
NUL SOH STX ETX EOT ENQ ACK BEL BS HT LF VT FF CR SO SI
0 0 1
0 1 0
DLE Space DC1 ! DC2 ’’ DC3 # DC4 $ NAK % SYN & ETB ´ CAN ( EM ) SUB * ESC + FS , GS RS . US /
0 1 1
1 0 0
1 0 1
1 1 0
1 1 1
0 1 2 3 4 5 6 7 8 9 : ; < = > ?
§ A B C D E F G H I J K L M N O
P Q R S T U V W X Y Z Ä Ö Ü ^ _
` a b c d e f g h i j k l m n o
p q r s t u v w x y z ä ö ü ß DEL
b7 b6 b5
Deutsche Norm DIN 66003 und ISO-Standard § @
Ä [
Ö \
Ü ]
ä {
ö |
ü }
ß ~
Beispiel ASCII-Code-Darstellung mit gerader Parität Als Beispiel wählen wir die Initialen E.T. und stellen sie mit gerader Parität dar. Dazu entnehmen wir Tabelle 5-1 die Bitmuster für die Buchstaben „E“ und „T“ sowie das Satzzeichen „.“. Gerade Parität liegt vor, wenn die Zahl der Einsen im Codewort einschließlich des Paritätsbits gerade ist. Entsprechend wir das Paritätsbit jeweils gesetzt. Wir erhalten die Bitfolge „1010 0011 0111 0100 0010 1011 0111 0100“. ________________________________________________________________________________Ende des Beispiels
sUppLex
5 Digitale Übertragung im Basisband
124
Grundsätzlich unterscheidet man bei der Datenübertragung zwischen asynchron und synchron. Bei der Asynchronübertragung liegt während der gesamten Übertragungszeit kein einheitliches Zeitraster, wie der Schritttakt, zugrunde. Die Übertragung geschieht mit einzelnen Datenwörtern oder kurzen Rahmen, z. B. den ASCII-Zeichen, die mit einer Synchronisationsphase beginnen und dazwischen unterschiedlich lange Pausen zulassen. Man spricht auch von einem Start-Stopp-Verfahren. Ein wichtiges Beispiel ist die auf PCs oft noch vorhandene RS-232Schnittstelle. Sie wird im nächsten Unterabschnitt beschrieben. Bei der Synchronübertragung wird ein Takt im Sender erzeugt und dem Empfänger zur Verfügung gestellt. Es liegt der Übertragung eines Rahmens ein einheitliches Zeitraster zwischen Sender und Empfänger zugrunde, was den Datenempfang erleichtert. Dadurch können lange Rahmen und deutlich höhere Datenraten als bei der asynchronen Übertragung realisiert werden, allerdings mit höherem Aufwand. Ferner wird zwischen serieller und paralleler Übertragung unterschieden. Werden die Bits eines Datenwortes oder Rahmens nacheinander über eine Leitung gesendet, spricht man von serieller Übertragung. Eine höhere Bitrate erreicht man bei paralleler Übertragung durch gleichzeitiges Versenden mehrerer Bits, meist ein Datenwort mit acht Byte oder ganzzahlige Vielfache davon, über entsprechend viele Leitungen. Die logische Einbettung der Datenübertragung in komplexere Kommunikationssysteme ist in Bild 5-1 dargestellt. Die Anbindung an das TK-System, z. B. das öffentliche TK-Netz, geschieht mit der Datenübertragungseinrichtung (DÜE) als Leitungsabschluss, engl. Data Circuit-terminating Equipment (DCE). Den Informationsaustausch zwischen DÜE und der Datenendeinrichtung (DEE), engl. Data Terminal Equipment (DTE), regelt die Datenschnittstelle DSS. Man unterscheidet je nachdem ob die Kommunikation nur in eine Richtung, abwechselnd in beide Richtungen oder gleichzeitig in beide Richtungen erfolgt, zwischen der Simplex-, Halb-Duplex bzw. Duplex-Übertragung.
DEE
DÜE
TK-System
DSS
DÜE
DEE DSS
Bild 5-1
Einbettung der Datenübertragung mit Datenendeinrichtung DEE, Datenschnittstelle DSS und Datenübertragungseinrichtung DÜE
5.2
RS-232-Schnittstelle
In diesem Abschnitt werden einige für die Datenübertragung im Basisband wichtige Zusammenhänge am Beispiel der RS-232-Schnittstelle aufgezeigt. 1962 wurde von der Electronic Industries Alliance (EIA) in den USA die Schnittstelle RS-232 als Recommended Standard zur seriellen Datenkommunikation eingeführt. Damit begann eine wahre Erfolgsgeschichte. Seit 1997 liegt die Schnittstellenbeschreibung in sechster Überarbeitung als EIA-232-F Standard vor. Anmerkung: Die EIA-232-F entspricht funktional der V24- und elektrisch der V28-Schnittstelle der ITU, die sich selbst bei ihrer Standardisierung an der damals aktuellen Version der RS-232-Schnittstelle orientierte. Die V24/V28-Schnittstelle regelt die Anbindung von Modems an öffentliche TK-Netze und wurde 1996 bzw. 1993 definiert. Der mechanische Aufbau folgt dem Standard ISO 2110. V24, V28 und ISO 2110 wurden in die deutsche Normen DIN 66020, DIN 66259 bzw. DIN 41652 übertragen.
sUppLex
5.2 RS-232-Schnittstelle
125
Die RS-232-Schnittstelle sieht eine 25-polige Steckverbindung vor. Von den 25 Verbindungsleitungen werden nur zwei zur eigentlichen Datenübertragung verwendet. Zwei weitere stellen gemeinsame elektrische Bezugspotentiale her. Die anderen dienen zur Steuerung und Meldung, stellen Taktsignale und Hilfskanäle zur Verfügung, und unterstützen Tests bzw. sind nicht belegt. Häufig wird zur Realisierung einer Datenübertragung, zum Beispiel zum Anschluss an die analoge a/b-Schnittstelle der Telefonleitung, nur ein Teil der Leitungen benutzt. Typischer Weise werden 9 Leitungen plus Schutzerde verwendet [TiSc99]. Der Anschluss eines PC geschieht oft mit einer 9-poligen SUB-D-Steckverbindung. Die Umsetzung des 25-poligen Anschlusses auf einen 9-poligen zeigt Bild 5-2. 1 2 3 4 5 6 7 8 9 . . . 19 DTR 20 21 RI 22 23 24 25
1 2 3 4 5 6 7 8 9
TxD RxD RTS CTS DSR SG DCD
DCD RxD TxD DTR GND DSR RTS CTS RI
DCD
zeigt der DEE an, ob DÜE ausreichenden Signalpegel empfängt RxD Empfangsdaten von der DÜE zur DEE TxD Sendedaten von der DEE an die DÜE DTR zeigt der DÜE die Betriebsbereitschaft der DEE an GND Betriebserde DSR zeigt der DEE die Betriebsbereitschaft der DÜE an RTS zeigt der DÜE an, dass Sendebetrieb gefordert wird CTS zeigt der DEE die Sendebereitschaft der DÜE an (Quittung RTS) RI meldet ankommenden Ruf
Stift 1 2 3 4 5
6 7
8 9
Bild 5-2 Umsetzung der 25-poligen RS-232-Schnittstelle auf eine 9-polige Steckverbindung (SUB-D)
Wenn keine Steuerleitungen benutzt werden können, spricht man von einem X-On/X-OffHandshake-Betrieb, s. Bild 5-3. Hierbei wird das ASCII-Sonderzeichen DC1 zum einschalten bzw. Wiedereinschalten des Senders über die Datenleitungen TxD bzw. RxD verwendet. Mit dem ASCII-Sonderzeichen DC3 wird der Sender gestoppt. Handshaking heißt hier, dass die Übertragung durch Sendeaufforderung angestoßen und durch Quittierung abgeschlossen wird. Die elektrische Nachrichtenübertragung auf den Schnittstellenleitungen RxD und TxD wird am Beispiel der Übertragung des ASCII-Zeichens „E“ erläutert. In Bild 5-4 ist der Signalverlauf schematisch dargestellt. Zugelassen ist der Spannungsbereich von –25V bis +25V, wobei Werte kleiner –3V dem logischen Zustand „1“ und über 3V dem logischen Zustand „0“ entsprechen. Der grau markierte Bereich dazwischen ist nicht definiert. Vor der Übertragung liegt die Spannung auf dem typischen Wert von – 12V. Die Übertragung beginnt mit einem positiven Rechteckimpuls, dem Startbit, der Dauer eines Taktintervalls T. Daran schließen sich die sieben Bits des ASCII-Zeichens und das Paritätsbit, hier für gerade Parität, an.
sUppLex
5 Digitale Übertragung im Basisband
126
Zum Schluss werden ein oder wie im Beispiel zwei Stoppbits eingefügt. Damit wird sichergestellt, dass der Beginn der nächsten Zeichenübertragung stets durch einen positiven Spannungs1 DCD DCD 1 sprung gekennzeichnet wird. 2 RxD RxD 2 Das Einfügen von Start-, Paritäts- und Stoppbits reduziert die effektive Bitrate. Ein Zahlenwertbeispiel soll die in der Übertragungstechnik eingeführten unterschiedlichen Größen und ihre Zusammenhänge erläutern.
TxD DTR GND DSR RTS CTS RI
3 4 5 6 7 8 9
3 4 5 6 7 8 9
TxD DTR GND DSR RTS CTS RI
7 Datenbits
Paritätsbit Stoppbit Stoppbit
Startbit
Bei einer typischen Übertragungsrate von 9600 Baud 1 , d. h. einer Schrittgeschwindigkeit von Bild 5-3 Umsetzung zweier RS-2329600 Schritten pro Sekunde, beträgt das TaktSchnittstellen mit 9-poligen intervall T ca. 0,104 ms. Im Beispiel Bild 5-4 Steckverbindung (SUB-D) für werden 11 Taktintervalle benötigt um ein Symbol den X-On/ X-Off-Handshake(Zeichen) zu übertragen. Damit ergibt sich eine Betrieb Symboldauer Ts von ca. 1,15 ms. Die maximale Symbolrate beträgt dann 872 symbol/s, wobei die Übertragung von Steuerinformation und Meldungen diese aus der Sicht des Nutzers nochmals reduziert. Da pro Symbol sieben Informationsbits übertragen werden ist die (effektive) Bitrate Rb ca. 6,109 kbit/s. Die Übertragung besitzt eine Effizienz von 7/11 = 0,636.
Spannung in V
0 1 0 1 0 0 0 1 1 1 1 12
logisch „0“ 3
logisch unbestimmt Zeit
-3
logisch „1“ -12
Taktintervall T gesamte Übertragungsdauer Bild 5-4
Signal zur Übertragung des ASCII-Zeichens „E“ mit gerader Parität und einem Start- und zwei Stoppbits
Die RS-232-Schnittstelle ist auf Übertragungsraten von 20 kBaud bei einer Leitungslänge von bis zu 15 m ausgelegt. Die Verwendung nur einer gemeinsamen Masseleitung (Betriebserde) macht sich einschränkend bemerkbar. Höhere Übertragungsraten können durch spezielle Maßnahmen erreicht werden [TiSc99][Wit02]. Heute weit verbreitete Realisierungen der asynchronen Kommunikation auf dem Prinzip der RS-232-Schnittstelle benutzen einen integrierten programmierbaren Baustein, den UARTController (Universal Asynchronous Receiver/Transmitter). In manchen Mikrocontrollern ist ein UART-Controller bereits integriert. UART-Controller zeichnen sich im Allgemeinen durch 1 Mit der Pseudoeinheit „Baud“ wird der französische Ingenieur und Telegrafiepionier Jean Maurice Emile Baudot, geehrt: *1845, †1903.
sUppLex
5.3 Digitale Basisbandübertragung
127
eine große Flexibilität aus. Die Parameter der Übertragung sind per Software einstellbar. So werden typischer Weise die Schrittgeschwindigkeit 300, 600, 1200, 2400, 4800, 9600, 19200, 38400, 57600 und 115200 Baud unterstützt. In speziellen Anwendungen sind auch höhere Übertragungsgeschwindigkeiten anzutreffen. Es können jeweils 5, 6, 7 oder 8 Datenbits verwendet werden. Es kann in der Regel keine Parität, eine gerade oder eine ungerade Parität und die Zahl der Stoppbits 1, 1½ oder 2 eingestellt werden. Auch die Spannungspegel können variieren. So existieren Bausteine, die mit den elektrischen Werten 0V und 5V arbeiten. Speziell im PC-Multimedia-Bereich sind zunehmend zwei neue serielle Bus-Systeme im Einsatz. Mit dem Universal Seriell Bus (USB) sind in der Version USB 2.0 Bitraten bis zu 480 Mbit/s und Hot Plag and Play, also Verbinden und Trennen der Geräte im eingeschalteten Zustand und automatischer Erkennung, möglich. Dazu konkurriert der IEEE-1394-Bus mit Bitraten von bis zu 800 Mbit/s, der auch unter den Namen Fire Wire oder i.Link vermarktet wird [Wit02]. Schließlich sei auch auf den Kabelersatz durch Nachfunksysteme wie Bluetooth, ZigBee oder WLAN hingewiesen, s. Abschnitt 8.
5.3
Digitale Basisbandübertragung
In diesem und den folgenden Unterabschnitten wenden wir uns den Übertragungstechnischen Grundlagen zu. Wir gehen vom shannonsche Übertragungsmodell aus und ergänzen darin die Leitungscodierung und Impulsformung im Sender und Synchronisation und Detektion im Empfänger, s. Bild 5-5. Die Funktionen der Komponenten werden anhand eines einfachen Beispiels vorgestellt. Bitstrom Quelle
bn
Sender Leitungscodierung
Impulsformung
u(t)
Basisbandsignal
Kanal Bitstrom Sinke
Empfänger
bˆn
y(t) Detektion
Takt Synchronisation
Bild 5-5 Modell der digitalen Basisbandübertragung
x Quelle Wir nehmen an, dass die Quelle unabhängige gleichwahrscheinliche Binärzeichen bn {0,1} an den Sender abgibt. Eine Quelle mit binärem Zeichenvorrat wird Binärquelle genannt und die Zeichen kurz Bits, s. a. Abschnitt 7.1. Die Unabhängigkeit und die Gleichverteilung der zu übertragenden Zeichen werden in der Informationstechnik in der Regel vorausgesetzt. Gegebenenfalls werden beide Eigenschaften durch geeignete Maßnahmen wie der (Daten-)Verwürfelung, auch Scrambling genannt, in der Zeichenfolge angenähert.
sUppLex
5 Digitale Übertragung im Basisband
128
x Sender Der Sender besteht im Wesentlichen aus zwei Komponenten: der Leitungscodierung und der Impulsformung. Sie haben die Aufgabe, das Signal für eine effektive Übertragung an die physikalischen Eigenschaften des Kanals anzupassen. Dabei sind meist folgende Anforderungen zu berücksichtigen: x Das Signal soll gleichstromfrei sein. Also keine Spektralanteile um die Frequenz null aufweisen, damit eine galvanische Kopplung mit Hilfe von Übertragern (magnetisch gekoppelte Spulen) ohne Signalstörung möglich wird. x Das Signal soll eine hohe spektrale Effizienz besitzen, um bei begrenzter Bandbreite eine hohe Bitrate zu erreichen. x Das Signal soll mit einem hohen Taktgehalt die Synchronisation erleichtern. x Das Signal soll eine geringe Störempfindlichkeit besitzen, so dass die Detektion zuverlässig gelingt. x Sender und Empfänger sollen eine geringe Komplexität besitzen, um Kosten, Baugröße, Energieaufnahme usw. klein zu halten. Der Hintergrund und die Konsequenzen dieser Forderungen werden im Verlauf dieses Abschnittes noch genauer erläutert. Bitstrom 1 Basisbandsignal
Im Beispiel wird der Bitstrom in ein binäres Signal mit zwei entgegen gesetzten Amplituden, ein bipolares Signal, umgesetzt. Das Sendesignal u(t) ist für die Bitfolge (Bitstrom) bn = {1, 0, 1, 1, 0, 1, ...} in Bild 5-6 veranschaulicht, vgl. a. Bild 5-4. Jedem Bit wird ein Rechteckimpuls als Sendegrundimpuls zugeordnet. Seine Amplitude ist positiv falls eine „1“ gesendet wird, andernfalls negativ.
0 Tb
1
1
0
1
1
-1
0
T/Tb
3
Bild 5-6 Bipolares Signal (normiert)
Damit sind bereits zwei wichtige Parameter der Datenübertragung festgelegt: die Bitdauer Tb, auch Bitintervall genannt, und die Bitrate R = 1bit/Tb. Anmerkungen: (i) Im Folgenden werden die Basisbandsignale meist in normierter Darstellung skizziert, d. h. mit den Amplituden -1, 0 und 1. (ii) In der digitalen Basisbandübertragung werden auch die Begriffe Schrittdauer und Schrittgeschwindigkeit verwendet. 5,73Ps Diese Begriffe stammen aus der Telegrafie, s. a. 5,21Ps Pseudoeinheit Baud auf S. 126. Eine Schrittge- 110% schwindigkeit von 50 Baud entspricht 50 elementa- 100% ren Schritten pro Sekunde. Wird, wie in Bild 5-6 bi90% när übertragen, so entspricht ein elementarer Schritt einem Rechteckimpuls. Dann stimmen Schrittge0,75V 50% 4,69 Ps schwindigkeit und (Brutto-) Bitrate gegebenenfalls überein.
Die Annahme idealer Rechteckimpulse ist für die weiteren Überlegungen ausreichend. In der Übertragungstechnik werden die tatsächlichen Impulsformen durch die Angabe von Toleranzbereichen, den Sendeimpulsmasken, vorgegeben. Die Sendeimpulsmaske für die ISDN
5% 6,25 Ps 10,42Ps
Bild 5-7 Sendeimpulsmaske (positiver Impuls) für die ISDN S0-Schnittstelle
sUppLex
5.3 Digitale Basisbandübertragung
129
S0-Schnittstelle ist in Bild 5-7 zu sehen. Aus der zu übertragenden Bitrate von R = 192 kbit/s resultiert die Bitdauer Tb | 5,21 Ps. Anmerkung: Die Datenrate auf der S0-Schnittstelle bestimmt sich aus den Anteilen für die beiden BKanäle (2 x 64 kbit/s), dem D-Kanal (16 kbit/s) und weitere Bits für die Organisation der Übertragung (48 kbit/s). Zur einfacheren Taktableitung wurde R als ganzzahliges Vielfaches der Datenrate eines BKanals gewählt.
x Kanal Der physikalische Übertragungskanal wird meist durch vereinfachte Modelle beschrieben. Im Falle eines idealen Kanals erhält der Empfänger das gesendete Signal, y(t) = u(t). In der Realität treten zwei zusätzliche Effekte auf. Zum ersten ist das Empfangssignal mit einer rauschartigen Störung beaufschlagt. Zum zweiten resultiert durch den Kanal und/oder durch eine Filterung zur Unterdrückung des Rauschens im Empfänger eine Bandbegrenzung des Empfangssignals. Zur Veranschaulichung ist in Bild 5-8 ein Ausschnitt aus dem gemessenen Signal eines ISDN-S0-Busses zu sehen. Die Leitungslänge war etwa 150 m, so dass der Einfluss des Kanals und damit die Abweichung von der Wunschform in der Sendeimpulsmaske Bild 5-7 deutlich wird. Die Bandbegrenzung und das Rauschen werden in den Unterabschnitten 4.5 und 4.6 in die Überlegungen einbezogen. 10Ps
Spannung
0,5V
Zeit Bild 5-8 Basisbandsignal des ISDN-S0-Busses (gemessen)
x Empfänger Die Aufgabe des Empfängers ist es, aus y(t) die gesendete Bitfolge der Quelle zu rekonstruieren. Er führt dazu folgende drei Schritte durch, s. Bild 5-9: Synchronisation o Rückgewinnung der Zeitlage der Rechteckimpulse. Abtastung
o Das Empfangssignal y(t) wird bei idealer Synchronisation in der Mitte der Rechteckimpulse abgetastet.
Detektion
o Der Detektion liegt eine Schwellwertentscheidung zugrunde. Ist der Abtastwert, die Detektionsvariable y[n], größer oder gleich null, so entscheidet der Empfänger auf das Zeichen „1“, andernfalls wird das Zeichen zu „0“ gesetzt.
Anmerkung: Die Entscheidung für den Wert „0“ kann beliebig gewählt werden, da sie die Fehlerwahrscheinlichkeit insgesamt nicht beeinflusst.
Häufig werden auch speziell an den Sendegrundimpuls angepasste Filter, so genannte Matched-Filter, verwendet die unter gewissen Randbedingungen das Verhältnis von Nutzsignallei-
sUppLex
5 Digitale Übertragung im Basisband
130
stung und Störsignalleistung im Detektor maximieren. Der Einsatz eines Matched-Filters erhöht die Zuverlässigkeit der Detektion und wird im Abschnitt 5.7 vorgestellt. Als eine Anwendung sei die asynchrone serielle Schnittstelle eines Mikrocontrollers für das Signal in Bild 5-4 genannt, z. B. der HC-11 der Fa. Motorola [Mot91]. Im Empfangsteil des Mikrocontrollers wird das Signal 16-fach höher abgetastet als die vorab eingestellte Übertragungsrate angibt. Eine spezielle Logik mit Fehlerbehandlung detektiert den Beginn der Datenwörter. Wird ein Startbit erkannt, werden von den 16 Abtastwerten innerhalb jedes der folgenden Datenbits die jeweils innersten drei Abtastwerte durch eine Schwellwertentscheidung ausgewertet und eine Mehrheitsentscheidung durchgeführt. Synchronisation des Bittakts
y(t) Empfangssignal
y(t) 1 AbtastzeitEntscheider punkte b nTb y[n] 1 0 y 0
t/Tb -1 0 1 2 3 4 5
bˆn
y[n] 1
detektierter Bitstrom
n -1 0 1 2 3 4 5 bˆn = {1, 0, 1, 1, 0,1 , …}
Bild 5-9 Vereinfachtes Blockschaltbild des Empfängers und der zugehörigen Signale (normiert)
5.4
Leitungscodierung
Die Aufgaben der Leitungscodierung wurden in Abschnitt 5.3 bereits mit dem Sender vorgestellt. In der Datenübertragungstechnik haben sich historisch verschiedene Formen binärer Leitungscodes als firmenspezifische Lösungen entwickelt. Man unterscheidet grundsätzlich zwei Arten von binären Leitungscodes: Codes bei denen innerhalb eines Bitintervalls die Signalamplitude nicht auf null zurückkehrt, die NRZ-Codes (Nonreturn-to-Zero), und Codes bei denen dies geschieht, die RZ-Codes (Return-to-Zero).
Bei der unipolaren RZ-Übertragung ist die Dauer der elektrischen Impulse im Vergleich mit dem unipolaren NRZ-Signal halbiert. Das Spektrum wird also um den Faktor zwei verbreitert. Dem Nachteil des breiteren Spektrums steht der Vorteil gegenüber, dass das RZ-Signal den doppelten
1 0
Mark Space Mark Mark Space Space Mark Space
Bitstrom 1 0 1 1 0 0 1 0
Basisbandsignale (norm.)
In Bild 5-10 sind typische Beispiele abgebildet. Die Übertragung der Bits durch das unipolare NRZ-Signal, auch On-off Keying (OOK) genannt, und das bipolare NRZSignal unterscheiden sich nur durch eine Gleichspannungskomponente. OOK ist für den Übergang auf eine optische Übertragung von Interesse, da beispielsweise damit Leuchtdioden (Light Emitting Diode, LED) für eine Infrarot-Strecke angesteuert werden können.
unipolar NRZ (On-off Keying) Zeit
1 bipolar NRZ -1 1 0 1 -1
unipolar RZ
Biphase-Code (Manchester)
Bild 5-10 Beispiele für binäre Leitungscodes
sUppLex
5.4 Leitungscodierung
131
Takt enthält, d. h. die doppelte Anzahl von Flanken anhand derer die Synchronisationseinrichtung den Bittakt erkennt. Ein in lokalen Rechnernetzen häufig verwendeter Leitungscode ist der Manchester-Code. Er wird beispielsweise bei der 10BaseT-Ethernet-Übertragung über ein verdrilltes Kabelpaar (Twisted Pair, TP) oder bei der Übertragung mit Koaxialkabel nach IEEE 802.3 eingesetzt. Bei einer Gleichverteilung der Bits ist er gleichstromfrei. Der Manchester-Code wird auch Biphase-Code genannt, da das Signal innerhalb eines Bitintervalls Tb zwischen den beiden Phasen „1“ (0) und „–1“ (S) wechselt. Durch den Phasenwechsel in jedem Bitintervall besitzt er einen hohen Taktgehalt. Selbst bei langen Null- oder Eins-Folgen kann die Synchronisation im Empfänger aufrechterhalten werden. Dies ist bei den anderen Beispielen in Bild 5-10 nicht immer der Fall. Space
Mark
Space
Mark
Space
Space
Mark
Mark
Space
Mark
Eine weitere in den Anwendungen bedeutende Klasse von Leitungscodes bilden die ternären Leitungscodes. Ein wichtiger Vertreter ist der Bitstrom 1 0 1 1 0 0 1 0 1 0 AMI-Code. Das Akronym AMI steht 1 für „Alternate Mark Inversion“ und 0 beschreibt die alternierende Codie-1 Zeit rung der logischen Eins als positiven und negativen Impuls. Die Null wird Bild 5-11 Basisbandsignal (norm.) zum AMI-Code ausgetastet. Ein Codierungsbeispiel ist in Bild 5-11 angegeben. Es werden zwar drei Symbole, gekennzeichnet durch die Amplitudenstufen –1, 0 und +1, verwendet, jedoch wird pro Symbolintervall nur je ein Bit übertragen. Man spricht deshalb von einem pseudoternären Code. Seine Effizienz im Sinne der im dreistufigen Codealphabet enthaltenen Redundanz, s. Abschnitt 7.1, ist 1/ ld3 | 0, 63 . Der AMI-Code besitzt ausreichenden Taktgehalt, wenn lange Nullfolgen vermieden werden. Er wird deshalb häufig zusammen mit einem Scrambler eingesetzt oder mit einer speziellen Coderegel für den Fall dass n Nullen aufeinander folgen als High Density Bipolar Code, kurz HDBn-Code, implementiert. Abschließend sind zum Vergleich die Verteilungen der Sendeleistungen im Frequenzbereich, die Leistungsdichtespektren bei der bipolaren NRZ-Übertragung, der Übertragung mit dem Manchester-Code und dem AMI-Code in Bild 5-12 gegenübergestellt. Für die NRZ-Übertragung folgt das Leistungsdichtespektrum dem Quadrat der si-Funktion, wegen der direkten Zuordnung der Bits zu den Rechteckimpulsen. Der Manchester-Code und der AMI-Code sind gleichstromfrei. Obwohl die Basisbandsignale zu den beiden Codes ebenfalls aus Rechteckimpulsen zusammengesetzt sind, ergibt sich insbesondere eine Nullstelle des Spektrums an der Frequenzstelle null. Beim Manchester-Code ist der Signalmittelwert in jedem Bitintervall selbst null, so dass unabhängig von den zu sendenden Bits im Mittel kein Gleichanteil auftreten kann. Beim AMI-Code ist die Gleichstromfreiheit auf die Codierungsregel zurückzuführen, die eine Abhängigkeit vom Signalverlauf einführt. Man spricht von einer Codierung mit Gedächtnis. Im Gegensatz dazu sind der bipolare NRZ- und der Manchester-Code gedächtnislos. Die Code-Regel mit Gedächtnis des AMI-Codes kann aus Bild 5-11 herausgelesen werden. Die Bits mit dem logischen Wert „1“ werden alternierend positiven und negativen Rechteckimpulsen zugeordnet. Damit ist die Codierung von der jeweils letzten Zuordnung abhängig. Wie in Bild 5-12 zu sehen ist, konzentriert sich bei der AMI-Codierung die Leistung im Spektrum um f | 1/(2T). Das gilt besondere, wenn man eine zusätzliche Impulsformung, z. B. durch
sUppLex
5 Digitale Übertragung im Basisband
132
einen Sendetiefpass mit fg = 1/T, berücksichtigt. Der Manchester-Code belegt dazu im Vergleich ein etwas breiteres Band. Anmerkung: Die Codierung mit Gedächtnis eröffnet die Möglichkeit gezielt Leitungscodes für Anwendungen zu entwickeln. 1
NRZ-Code
Sendeleistung
0,8 AMICode 0,6
ManchesterCode
0,4 0,2 0
0
1
2
f T
Bild 5-12 Verteilung der Sendeleistung der Basisbandsignale im Frequenzbereich
5.5
Störung durch Rauschen
Ein physikalisches Phänomen der elektrischen Nachrichtenübertragung ist die Störung durch Rauschen. Durch die thermische Bewegung der Elektronen überlagern sich den elektrischen Signalen additive regellose Störkomponenten, die sich nur mit statistischen Größen im Mittel beschreiben lassen. Messungen sowie theoretische Überlegungen führen auf das in Bild 5-13 gezeigte Modell des additiven weißen gaußschen Rauschens (AWGN, Additive White Gaussian Noise). Der Begriff weißes Rauschen leitet sich aus der Betrachtung im Frequenzbereich ab. Da alle Frequenzkomponenten des Rauschsignals im Mittel gleiche Leistung haben, d. h., ein konstantes Leistungsdichtespektrum vorliegt, wird in Anlehnung an die additive Farbmischung in der Optik das Rauschen als weiß bezeichnet, s. a. Abschnitt 2.12.1, Bild 2-37. Man beachte, die parsevalschen Formel (2.77) liefert für ein konstantes Leistungsdichtespektrum eine unendliche Leistung. Weißes Rauschen stellt eine Idealisierung ähnlich der Impulsfunktion in Abschnitt 2.12.1 dar. Weißes Rauschen ist stets in Verbindung mit einer Bandbegrenzung, wie die Bandpass- oder Tiefpassfilterung, zu sehen. Wir verzichten hier auf theoretische Herleitungen und heben nur die im Weiteren wichtigen Eigenschaften des AWGN-Kanals hervor. Die Überlegungen werden durch das Modell der digitalen Übertragung in Bild 5-13 unterstützt. z
Dem bipolaren Sendesignal mit der Amplitude uˆ wird im Kanal ein Rauschsignal additiv überlagert. Am Kanalausgang tritt die Summe aus Sendesignal und Rauschsignal auf.
z
Die Amplituden der Rauschstörung sind zu jedem Zeitpunkt t normalverteilt (gaußverteilt) mit Mittelwert P = 0 und Varianz V 2. Als Wahrscheinlichkeitsdichtefunktion erhält man demzufolge die gaußsche Glockenkurve1 in Bild 5-14 [BSMM99].
1 Carl Friedrich Gauß: *1777/+1855, dt. Mathematiker, Astronom und Physiker.
sUppLex
5.5 Störung durch Rauschen
133
f ( x) = z
⎛ x2 ⎞ 1 exp⎜− 2 ⎟ σ 2π ⎝ 2σ ⎠
(5.1)
Die Amplituden der Rauschstörung zu zwei beliebigen verschiedenen Zeitpunkten t1 und t2 sind voneinander unabhängig. Die Schwellwertentscheidung im Empfänger darf deshalb für jedes Bit unabhängig von früheren oder späteren Entscheidungen betrachtet werden. Man spricht in diesem Fall auch von einem gedächtnislosen Kanal. Sendesignal
Empfangssignal Kanal
1 0 -1
Zeit
1 0 -1
Zeit
Rauschsignal 0
Zeit
Bild 5-13 Vereinfachtes Modell der digitalen Übertragung im Basisband mit additiver Rauschstörung
Der Einfluss des AWGN-Kanals auf das Empfangssignal ist in Bild 5-13 deutlich zu erkennen. Die gesendeten Rechteckimpulse (grau) liefern für jedes Bitintervall den Mittelwert um den das Empfangssignal zufällig schwankt. Die Größe der Schwankungen hängt von der Va0,4 rianz der Rauschstörung ab. Im Bild liegt, f(x) um das Rauschen sichtbar hervorzuheben, ein Verhältnis von Standardabweichung des V=1 normalverteilten Rauschens zu der Amplitu0,2 de des Sendesignals V uˆ 1 2 vor. Die Wahrscheinlichkeit, dass die RauschP(X >2) amplitude betragsmäßig den Wert der Sendeamplitude uˆ übersteigt, kann deshalb der 0 -4 -2 0 2 x 4 2V-Regel der Normalverteilung entnommen werden. Um innerhalb eines RechteckimpulBild 5-14 Gaußsche Glockenkurve: Wahrses einen Nulldurchgang im Empfangssignal scheinlichkeitsdichtefunktion der zu erzeugen, muss die Rauschamplitude der Normalverteilung mit Mittelwert Sendesignalamplitude entgegen gerichtet P = 0 und Standardabweichung V = 1 sein. Die Wahrscheinlichkeit für einen Nulldurchgang innerhalb eines Rechteckimpulses ist dann etwa 0,023, was der grau hinterlegten Fläche in Bild 5-14 entspricht. Tatsächlich sind in Bild 5-13 nur wenige derartige Nulldurchgänge zu beobachten. Nach der Vorüberlegung zur Rauschamplitude wird nun die Wahrscheinlichkeit für ein falsch detektiertes Bit berechnet. Wegen der additiven Rauschstörung sind jeweils für ein Bit die kontinuierlich verteilten Detektionsvariablen y ruˆ n auszuwerten. Bei der Detektion liegt die in Bild 5-15 dargestellte Situation vor. Wird das Zeichen „1“ übertragen (b = 1), resultiert als bedingte Wahrscheinlichkeitsdichtefunktion die rechte Kurve, andernfalls die linke (b = 0).
sUppLex
5 Digitale Übertragung im Basisband
134
Für die bedingte Wahrscheinlichkeitsdichtefunktion zum Zeichen „1“ ergibt sich aus dem AWGN-Modell fY /1 ( y ) =
⎛ ( y − uˆ ) 2 ⎞ 1 exp⎜− ⎟ 2σ 2 ⎠ σ 2π ⎝
Sie entspricht einer Normalverteilung mit Mittelwert μ
(5.2)
uˆ und Varianz V 2.
Der Schwellwertdetektor entscheidet auf den Wert „1“, wenn die Detektionsvariable nichtnegativ ist, d. h. y t 0. Wird für das Bit der Wert „1“, d. h. uˆ , übertragen und nimmt die Rauschamplitude einen Wert kleiner als uˆ an, so ist die Detektionsvariable negativ und der Detektor trifft eine Fehlentscheidung. Ein Bitfehler tritt auf.
fY/0(y)
0,8
fY/1(y)
Anmerkung: Da beide Bits „1“ und „0“ gleichwahrscheinlich auftreten und sich die bedingten Wahrscheinlichkeitsdichtefunktionen für y = 0 schneiden, wird die Entscheidungsschwelle auf den Wert 0 gelegt. Dadurch wird die Fehlerwahrscheinlichkeit minimiert. Der Wert y = 0 kann ohne Einfluss auf die Fehlerwahry uˆ 0 uˆ scheinlichkeit als „1“ oder „0“ entschieden werden, da er nur mit der Wahrscheinlichkeit null („so gut wie nie“) auftritt. Bild 5-15 Bedingte Wahrscheinlichkeitsdichtefunktionen der Die Wahrscheinlichkeit mit der ein Bitfehler auftritt, die Detektionsvariablen Bitfehlerwahrscheinlichkeit P , wird nach Bild 5-15 und b
der Wahrscheinlichkeitsdichtefunktion (5.2) bestimmt. Die Wahrscheinlichkeit für den geschilderten Übertragungsfehler entspricht der grau unterlegten Fläche in Bild 5-15. 0
P (Y < 0 | b = 1) =
∫
f Y /1 ( y )dy
(5.3)
−∞
Die Symmetrie der gaußschen Glockenkurve führt auf eine Form, die mit einer Substitution der Variablen und wenigen Zwischenschritten in die komplementäre Fehlerfunktion (erfc) überführt werden kann [BSMM99]. 1 p(Y < 0 | b = 1) = − 2
uˆ
∫σ 0
1 1 = − ⋅ 2 π
⎛ y2 ⎞ 1 exp⎜− 2 ⎟dy = 2π ⎝ 2σ ⎠
uˆ (σ 2 )
∫ 0
(5.4) −x 2
e
⎛ uˆ ⎞ 1 dx = ⋅ erfc⎜ ⎟ 2 ⎝σ 2⎠
Anmerkungen: (i) erfc(.) steht für Complementary Error Function; s. a. Error Function erf(.) mit erfc(x) = 1-erf(x) und gaußsches Fehlerintegral oder Fehlerfunktion [BSMM99]. (ii) Für nichtnegative Argumente startet die komplementären Fehlerfunktion bei eins, erfc(0) = 1, und nimmt für wachsende Argumente schnell monoton ab, wobei sie asymptotisch gegen null geht.
Um die Bitfehlerwahrscheinlichkeit zu bestimmen, muss auch die Übertragung des Bits „0“ berücksichtigt werden. Da vorausgesetzt wird, dass beide Zeichen gleichwahrscheinlich auftreten, P(b=1) = P(b=0) = 1/2, und die bedingten Wahrscheinlichkeitsdichtefunktionen bzgl. der Entscheidungsschwelle symmetrisch liegen, erhält man für beide Zeichen die gleiche Beiträge, so dass sich insgesamt die Bitfehlerwahrscheinlichkeit einstellt
sUppLex
5.5 Störung durch Rauschen
135 ⎛ uˆ ⎞ 1 Pb = erfc⎜ ⎟ ⎝σ 2⎠ 2
(5.5)
In der Nachrichtentechnik ist es üblich, die Bitfehlerwahrscheinlichkeit auf das Verhältnis der Nutzsignalleistung S zu der Rauschsignalleistung N, dem Signal-Geräuschverhältnis zu beziehen. Man spricht kurz vom SNR (Signal-to-Noise Ratio). Weiter ist es üblich, das SNR im logarithmischen Maß anzugeben. Man beachte, dass bei Leistungsgrößen der Vorfaktor 10 zu nehmen ist. ⎛S⎞ S = 10 ⋅ log10⎜ ⎟ dB ⎝N ⎠ N dB
(5.6)
Anmerkungen: (i) Bei Amplituden, wie z. B. der Dämpfung, wird der Vorfaktor 20 verwendet. Da die Signalleistung proportional zum Quadrat der Amplitude ist, liefern beide Ansätze den gleichen dB-Wert. (ii) Das Signal-Rauschverhältnis ist erfahrungsgemäß ein gutes Maß, um den benötigten technischen Aufwand bzw. die Qualität der Nachrichtenübertragung abzuschätzen. Insbesondere wird oft die Leistungsfähigkeit verschiedener digitaler Übertragungsverfahren auf der Basis der Bitfehlerwahrscheinlichkeit und des dazu notwendigen minimalen SNR verglichen.
Im Beispiel ergibt sich mit S N uˆ 2 σ 2 für die Bitfehlerwahrscheinlichkeit Pb
1 S erfc 2 2N
(5.7)
Die Abhängigkeit der Bitfehlerwahrscheinlichkeit vom SNR zeigt Bild 5-16. Denkt man sich die Rauschleistung als konstant, so wird das SNR durch die Signalaussteuerung bestimmt. Sind die Signalleistung und die Rauschleistung im Mittel gleich, so liegt ein SNR von 0 dB vor. In diesem Fall ist der Einfluss des Rauschens relativ stark und die Bitfehlerwahrscheinlichkeit mit 0,16 dementsprechend hoch. Mit zunehmender Signalamplitude vergrößert sich das SNR. Bei dem in Bild 5-13 vorliegenden Verhältnis V uˆ 1 2 resultiert ein Signal-Geräuschverhältnis von 6 dB. Die zugehörige Bitfehlerwahrscheinlichkeit ist in Bild 5-16 markiert und entspricht dem vorher abgeschätzten Wert für einen Nulldurchgang des Empfangssignals innerhalb eines Rechteckimpulses. Wächst das Signal-Geräuschverhältnis wieter, so nimmt die Bitfehlerwahrscheinlichkeit rasch ab. 10
0
Pb 10
10
10
10
S 1 erfc 2 2N
0,023
-2
6 -4
-6
-8
0
5
10
S/N in dB
15
Bild 5-16 Bitfehlerwahrscheinlichkeit Pb bei bipolarer Basisbandübertragung im AWGN-Kanal in Abhängigkeit vom Signal-Rauschverhältnis
sUppLex
5 Digitale Übertragung im Basisband
136
Ein in realen Datenübertragungssystemen typischer Wert für die Bitfehlerwahrscheinlichkeit ist 10-6. Durch Kanalcodierverfahren lässt sich dieser, wie z. B. im Datex-P Netz, weiter senken. Dort wird durch eine Kanalcodierung mit Fehlererkennung und Wiederholungsanforderung eine Bitfehlerwahrscheinlichkeit von 10-9 erreicht. Einfache Verfahren zum Schutz gegen Übertragungsfehler werden in Abschnitten 7 vorgestellt.
5.6
Übertragung im Tiefpass-Kanal
Im Falle eines tiefpassbegrenzten Kanals, z. B. durch die frequenzabhängige Leitungsdämpfung, die Bandbegrenzung am Empfängereingang oder den Matched-Filterempfang, entsteht das Empfangssignal aus dem gesendeten Signal durch Tiefpassfilterung. Anmerkung: Die Berechnung der Dämpfung einer homogener Leitungen (ideale Zweidrahtleitung) zeigt, dass die Dämpfung ab 1 kHz mit etwa f wächst [VlHa95].
Basisbandsignal
Ein Tiefpass schneidet die Spektralkomponenten bei hohen Frequenzen ab. Da diese für die schnellen Änderungen im Zeitsignal verantwortlich sind, tritt eine Glättung des Signals ein. Für das bipolare Signal bedeutet das: die senkrechten Flanken der Rechteckimpulse werden verschliffen und benachbarte Impulse überlagern sich. Man spricht von der Impulsverbreiterung und der sich daraus ergebenden Nachbarzeicheninterferenz (ISI, Intersymbol Interference). Die Impulsverbreiterung lässt sich auch im Zeitbereich anhand der Faltung des gesendeten Signals mit der Impulsantwort des Tiefpasses nachvollziehen, vgl. Bild 2-39. Im Falle eines RC-Tiefpasses werden die Rechteckimpulse wie in Bild 5-17 verzerrt. Aus der Bitfolge bn = {1,0,1,1,0,1,0,0,1,0} resultiert als Sendesignal zunächst die grau hinterlegte Folge von Rechteckimpulsen. Am Ausgang des RC-Tiefpasses sind die Lade- und Entladevorgänge an der Kapazität sichtbar, s. a. Bild 2-13 u. 2-25. Die beiden Graphen unterscheiden sich im Verhältnis der Zeitkonstanten W = RC zur Bitdauer Tb. 1
0
t/Tb
-1
W = 2Tb /S W = Tb /S
0
1
2
3
4
5
6
7
8
9
10
Bild 5-17 Rechteckimpulsfolge vor (grau) und Signal nach der Tiefpassfilterung mit dem RC-Glied mit Zeitkonstante W und Bitdauer Tb (normierte Darstellung)
Im Fall W = Tb /S und damit für die 3dB-Grenzfrequenz aus (2.56) f3dB =1/(2Tb) wird die Kapazität bei jedem Vorzeichenwechsel des Signals fast vollständig umgeladen. Tastet der Empfänger das Signal jeweils am Ende des Bitintervalls ab, y[n] = yTP(t = nTb) und n = 1, 2, ... , so resultiert im Wesentlichen die Amplitude des Sendesignals y[n] ≈ uˆ . Der Einfluss der Tiefpassfilterung auf die Detektion ist gering. Halbiert man jedoch wie im punktierten Graphen die Bandbreite, d. h. f3dB = 1/(4Tb), hängen die Amplituden der Abtastwerte deutlich von der Bitfolge ab. Insbesondere bleiben die Ladeund Entladevorgänge sichtbar unvollständig, wenn das Vorzeichen des Sendesignals schnell wechselt, wie bei der Bitkombination {1,0,1,0} zu erkennen ist.
sUppLex
5.6 Übertragung im Tiefpass-Kanal
137
Die Nachbarzeicheninterferenzen lassen sich am Oszilloskop sichtbar machen. Dazu zeichnet man durch geeignete Triggerung die empfangenen Impulse übereinander. Das Augendiagramm entsteht. Aus dem punktierten Signalverlauf in Bild 5-17 resultiert das Augendiagramm in Bild 5-18. Es zeigt zwei Bitintervalle. Die möglichen Abtastwerte in den optimalen Detektionszeitpunkten sind durch weiße Kreise markiert. Anmerkung: Das Augendiagramm wurde durch Simulation aus einer zufälligen Bitfolge der Länge 100 bestimmt. Optimaler Detektionszeitpunkt
Basisbandsignal
1
Rauschreserve 0
Auge
Entscheidungsschwelle Augenöffnung
-1 Bitdauer
Zeit
Bild 5-18 Augendiagramm zu Bild 5-17 mit W = 2Tb /S (normierte Darstellung)
Je nachdem welche Vorzeichen benachbarte Impulse tragen, ergeben sich aufgrund der Impulsverbreiterungen verschiedene Signalübergänge. Der ungünstigste Fall ergibt sich bei wechselnden Vorzeichen. Dann löschen sich die benachbarten Impulse teilweise gegenseitig aus. Der dort abgetastete Signalwert liegt demzufolge näher an der Entscheidungsschwelle. Entscheidend für die Robustheit der Übertragung gegenüber additivem Rauschen ist die vertikale Augenöffnung. Der minimale Abstand zur Entscheidungsschwelle im Detektionszeitpunkt gibt die Rauschreserve an, d. h. um wie viel der Abtastwert durch die additive Rauschkomponente entgegen seinem Vorzeichen verfälscht werden darf, ohne dass eine Fehlentscheidung eintritt. In Bild 5-18 ist dabei eine ideale Synchronisation vorausgesetzt. Dann wird das Detektionssignal in der maximalen Augenöffnung abgetastet. Tritt jedoch ein Synchronisationsfehler wie in Bild 5-19 auf, so nimmt die Rauschreserve merklich ab und die Zahl der Übertragungsfehler spürbar zu. Reale Datenübertragungsstrecken können oft in guter Näherung als tiefpassbegrenzte Kanäle modelliert werden, wobei dem Empfangssignal zusätzlich ein Rauschsignal n(t) überlagert wird. y (t ) = yTP (t ) + n(t )
(5.8)
In Bild 5-20 ist das zugehörige Übertragungsmodell dargestellt. Der prinzipielle Verlauf des Empfangssignals ist in Bild 5-21 skizziert. Durch die Nachbarzeicheninterferenzen und die Überlagerung mit dem Rauschsignal weichen die Abtastwerte y[n] (weiße Kreise) mehr oder weniger von den beiden ursprünglich gesendeten Amplitudenwerten ruˆ ab. Im Beispiel ist ein SNR von 20 dB vorgegeben. Demzufolge fallen im Bild die Rauschamplituden relativ klein aus.
sUppLex
5 Digitale Übertragung im Basisband
138
Detektionszeitpunkt
Basisbandsignal
1
effektive Rauschreserve 0
Auge
Entscheidungsschwelle effektive Augenöffnung
-1 Bitdauer
Zeit
Bild 5-19 Augendiagramm zu Bild 5-17 mit Synchronisationsfehler im Detektor (W = 2Tb /S) (normierte Darstellung)
Die Bitfehlerwahrscheinlichkeit kann wie folgt abgeschätzt werden: Zunächst wird die Augenöffnung bestimmt. Aus Bild 5-18 ergibt sich eine relative Augenöffnung von ca. 58%. Da die Fehler vor allem dann auftreten, wenn die Nachbarzeicheninterferenzen die Abtastwerte nahe an die Entscheidungsschwelle heranführen, legen wir der Rechnung den ungünstigsten Fall zugrunde. Die Augenöffnung von 58% entspricht einem um den Faktor (0,58)2 reduzierten effektiven SNR von nunmehr 15,26 dB. Aus Bild 5-16 kann nun die BER zu Pb | 10-8 abgeschätzt werden. Die BER ist relativ klein - was dem Eindruck aus Bild 5-21 entspricht. Kanal n(t) Anmerkungen: (i) Die BER ist hier klein in dem Sinne, dass im yTP(t y(t) u(t) Mittel nur ein Bitfehler pro 100.000.000 übertragenen Bits beobachtet wird. Groß aber in dem Sinne, dass in manchen Anwendungen Bitfehlerwahrscheinlichkeiten kleiner 10-9 gefordert werden. (ii) Ein Vergleich mit den Verhältnissen in Bild 5-13 zeigt, dass die zusätzliche Berücksichtigung der Bild 5-20 Digitale BasisbandüberNachbarzeichenstörungen dort ein effektives SNR von 1,26 dB tragung mit Bandbegrenergibt. Die in Bild 5-16 eingetragene Bitfehlerwahrscheinlichzung und additivem keit erhöht sich dann von 2,3% auf über 10%. Rauschen
Basisbandsignal
1
t/Tb
0
-1 0
2
4
6
8
10
Bild 5-21 Empfangssignal nach TP- Filterung und additiver Rauschstörung, vgl. Bild 5-17 und Bild 5-18 (W = 2Tb /S, S/N = 20 dB, normierte Darstellung)
sUppLex
5.6 Übertragung im Tiefpass-Kanal
139
Die geringe Bitfehlerwahrscheinlichkeit spiegelt auch das simulierte Augendiagramm in Bild 5-22 wider. Durch die Rauschstörung verschmieren sich die Signalübergänge zwar zu breiten Bändern, aber das Auge bleibt in der Simulation deutlich geöffnet. Keines der 100 übertragenen Bits wurde falsch detektiert. Detektionszeitpunkt
Basisbandsignal
1
0
-1 -1
-0,5
0 Bitdauer
0,5
Zeit
1
Bild 5-22 Augendiagramm nach TP- Filterung und additiver Rauschstörung, vgl. Bild 5-17 und Bild 5-18 (W = 2Tb /S, S/N = 20 dB)
An dieser Stelle bietet es sich an, die bisherigen Überlegungen zur digitalen Übertragung im Basisband zusammenzufassen. Die Aufgabe des Empfängers ist es, die gesendeten Daten anhand des Empfangssignals zu rekonstruieren. Je flacher der Augenverlauf in der maDazu tastet er im Bittakt das Empfangssignal ximalen Öffnung, umso robuster ist die ab und führt eine Schwellwertdetektion durch. Datenübertragung gegen SynchroniIst im Falle der bipolaren Übertragung die sationsfehler. Amplitude des Abtastwertes größer gleich null, so wird auf das Bit auf „1“ entschieden, andernfalls auf „0“. Durch die Bandbegrenzung auf dem Übertragungsweg entstehen Nachbarzeicheninterferenzen, deren Einfluss auf die Detektion anhand des Augendiagramms beurteilt werden kann. Je weiter die vertikale Augenöffnung, desto robuster ist die Datenübertragung gegen additive Rauschstörungen.
Die am Beispiel von Rechteckimpulsen und RC-Tiefpassfilterung vorgestellten Effekte sind typisch für die digitale Übertragung im Basisband. Hier wird ein wesentlicher Vorteil der digitalen Übertragungstechnik gegenüber der analogen deutlich. Solange die Rauschkomponente die Rauschreserve nicht überschreitet, kann im Empfänger die gesendete Nachricht (Bitfolge) fehlerfrei rekonstruiert werden. Dies ist insbesondere dann von Interesse, wenn Signale zum Transport über weite Strecken in Zwischenverstärkern mehrmals verstärkt werden müssen, vgl. Tabelle 4-1. Im Gegensatz zur digitalen Übertragung werden bei der analogen Übertragung der Rauschanteil jedes Mal mit verstärkt und zusätzlich das Rauschen des Verstärkers hinzugefügt, so das SNR nach jedem Zwischenverstärker kleiner wird. Das begrenzt die Reichweite und setzt eine teuere rauscharme Übertragungstechnik voraus. Bei der digitalen Übertragung kann, solange kein Detektionsfehler auftritt, die gesendete Nachricht im Empfänger fehlerfrei rekonstruiert werden.
sUppLex
5 Digitale Übertragung im Basisband
140
5.7
Matched-Filterempfänger
Wie im letzten Abschnitt gezeigt wird, kann die Rauschstörung untolerierbar viele Übertragungsfehler verursachen. Eine Rauschunterdrückung ist deshalb wünschenswert bzw. notwendig. Dies leistet das Matched-Filter. Wir nähern uns der Idee des Matched-Filters zunächst auf anschaulichem – und historischem – Weg. Ein in der Luftfahrttechnik wichtiges Problem ist die Detektion von Flugzeugen durch zurückgestrahlte Radarsignalechos im unvermeidlichen Hintergrundrauschen. Gehen wir von einem gesendeten und unverzerrt empfangenen Rechteckimpuls aus, so erhält man für die Energie- bzw. Leistungsbetrachtung im Frequenzbereich die Überlagerung des si2-Energiespektrums, s. a. Bild 2-27, für den Nutzanteil und des konstanten Rauschleistungsdichtespektrum der Rauschstörung in Bild 5-23. Das Rauschleistungsdichtespektrum sei näherungsweise konstant im betrachteten Frequenzbereich, so dass der Einfachheit halber das Modell des weißen Spektrums verwendet werden darf. Anmerkung: Da es sich im Beispiel des Radarsignals um ein gepulstes Trägersignal handelt, s. OOK in Abschnitt 4.5, liegt nach dem Modulationssatz das si2-Spektrum symmetrisch um die Trägerfrequenz fT. Im Falle der Basisbandübertragung ist fT gleich null zu setzen.
Überall dort, wo das Rauschleistungsdichtespektrum größer als das Energiespektrum des Nutzsignals ist, dominiert das Rauschen. Es ist naheliegend, all diese Frequenzkomponenten durch Filterung zu unterdrücken und so das Signal-Geräuschverhältnis zu verbessern. Im Beispiel wäre ein einfaches Bandpass- bzw. Tiefpass-Filter mit passender Sperrfrequenz geeignet, s. Abschnitt 2.7-3. Dabei wird allerdings auch dem Nutzsignal Energie entzogen und das Signal verzerrt. Hier kommt -5 die besondere Fragestellung der Detektion, wie sie auch bei der digitalen Übertragung auftritt, zum Bild 5-23 tragen. Eine formtreue Signalrekonstruktion ist nicht notwendig, sondern nur das Auftreten des Echos soll möglichst zuverlässig detektiert werden.
| XT ( f ) |2 Rauschleistungsdichtespektrum -3
-1 0
1
( f-fT )T 5
Energiedichte des Nutzsignals und Leistungsdichte des Rauschsignals im Frequenzbereich
Wir gehen nun das Problem in Bild 5-24 systematisch an. Es soll ein lineares Empfangsfilter – das spätere Matched-Filter – so entworfen werden, dass das Signal-Rauschverhältnis im Detektionszeitpunkt für ein Signal x(t) der endlichen Dauer T bei additiver weißer Rauschstörung maximal wird. weißes Rauschen
n(t) Nutzsignal
x(t)
optimaler Detektionszeitpunkt t0
Empfangsfilter
h(t)
y(t)
y(t0)
Dauer T Bild 5-24 Empfangsfilter zur Rauschunterdrückung
sUppLex
5.7 Matched-Filterempfänger
141
Am Filterausgang ergibt sich die Nutzsignalleistung im – zunächst noch nicht bestimmten – optimalen Detektionszeitpunkt t0 mit dem Frequenzgang des Filters durch inverse FourierTransformation der Eingangs-Ausgangsgleichung im Frequenzbereich (2.78) mit (2.72) S=
y 2 (t
⎛ 1 +∞ ⎞2 j ω t ⎜ X ( j ω ) ⋅ H ( jω ) e 0 d ω ⎟ 0 ) =⎜ ⎟ ⎝ 2 π −∞ ⎠
∫
(5.9)
Für die Störleistung gilt mit der Leistungsübertragungsfunktion des Filters bei konstantem Rauschleistungsdichtespektrum N0 N = N0 ⋅
1 2π
+∞
∫ H ( jω ) 2
dω
(5.10)
−∞
Das zu maximierende SNR ist dann
∫ X ( j ω ) ⋅ H ( jω )
S 1 1 −∞ = ⋅ ⋅ N N 0 2π
(5.11)
2
+∞
+∞
∫ H ( jω ) 2
e jωt0 d ω dω
−∞
wobei für das Quadrat des reellen Wertes y(t0) auch das Betragsquadrat eingesetzt werden darf. Wir lösen die Aufgabe mit der schwarzschen Ungleichung, z. B. [Unb02], indem wir den Zähler abschätzen. +∞
∫
−∞
2
X ( j ) ⋅ H ( jω )e jωt0 d ω ≤
+∞
∫
−∞
+∞
X ( jω) d ω ⋅ ∫ H ( jω )e jωt0 d ω 2
2
(5.12)
−∞
Wichtig ist, dass die Gleichheit in der Abschätzung nur gilt, wenn X ∗ ( jω) und H ( jω )e jωt0 zueinander proportional sind. Mit anderen Worten, das Empfangsfilter auf das Sendesignal angepasst ist, d. h. ein Matched-Filter vorliegt. H MF ( jω ) X * ( jω ) ⋅ e jωt0
(5.13)
Die Proportionalitätskonstante wird eins gewählt. Die Rücktransformation in den Zeitbereich geschieht durch Anwenden der Sätze der FourierTransformation. Die Bildung des konjugiert komplexen Spektrums bedeutet für die Zeitfunktion eine Spiegelung der Zeitachse. Für ein gesendetes rechtsseitiges Signal x(t) ergibt sich dann zunächst formal ein linksseitiges Zwischenergebnis. Der Faktor exp( jZ0t) bedeutet eine Zeitverschiebung um t0 nach rechts. Wählt man t0 gleich der Zeitdauer des Nutzsignals T resultiert schließlich die rechtsseitige Impulsantwort des reellwertigen Matched-Filters hMF (t ) = x(−t + T )
(5.14)
Für das SNR im optimalen Detektionszeitpunkt am Ausgang des Matched-Filters gilt
sUppLex
5 Digitale Übertragung im Basisband
142
S N
=
1 2π
+∞
∫
X ( jω )
2
−∞
=
N0
MF
dω
(5.15)
Ex N0
Damit ist das SNR mit der parsevalschen Formel (2.77) gleich dem Verhältnis aus der Energie des Sendesignals (2.9) zur Rauschleistungsdichte. Man beachte auch, dass das SNR nicht von der speziellen Form des Sendegrundimpulses abhängt. Nachdem das Konzept und die Dimensionierungsvorschrift für das Matched-Filter vorgestellt wurde, wird noch auf drei für die Anwendung wichtige Punkte hingewiesen:
x Betrachtet man rückblickend nur den Betrag des Frequenzganges (5.13), dann wird die Überlegung der Rauschunterdrückung durch eine einfache Bandpass- bzw. Tiefpassfilterung in Bild 5-24 bestätigt und präzisiert. Modellrechnungen wie z. B. in [Wer05b] zeigen, dass sich bei rechteckförmigen Sendegrundimpulsen bereits mit dem einfachen RC-Tiefpass ein SNR erreichen lässt, das nur etwa 1 dB unterhalb des mit dem Matched-Filter erzielbaren Wertes (5.15) liegt. x Im Falle der AWGN-Störung kann gezeigt werden, dass beim Matched-Filter-Empfänger auch die Wahrscheinlichkeit für eine Fehlentscheidung minimal wird. Man spricht in diesem Fall von einer Maximum-Likelihood-Detektion und in der Radartechnik von einem optimalen Suchfilter. x Die Herleitung des Matched-Filters kann unmittelbar auf stationäres farbiges Rauschen, d. h. Rauschen mit nicht konstantem Rauschleistungsdichtespektrum, erweitert werden [Unb02]. Man erhält dann als Matched-Filter das so genannte Wiener-Filter, in dessen Frequenzgang die Form des Leistungsdichtespektrums der Störung mit eingeht. Beispiel Bipolare Basisbandübertragung im AWGN-Kanal mit Matched-Filter-Empfang
Wird die Datenübertragung durch additives Rauschen stark gestört, so bietet sich der Einsatz eines Matched-Filter-Empfängers an. Dessen Empfangsfilter ist speziell an den Sendegrundimpuls angepasst, so dass in den Detektionszeitpunkten ein größtmögliches Signal-Geräuschverhältnis erreicht wird. Bild 5-25 stellt das zugrunde liegende Übertragungsmodell vor. Die linearen Verzerrungen werden als vernachlässigbar vorausgesetzt. Der zu übertragende Bitstrom bn {0,1} wird im Impulsformer in das bipolare zeitkontinuierliche Sendesignal umgesetzt u (t ) =
∑ An ⋅ g (t − nTb )
(5.16)
n
Impulsformer
bn
g(t)
MatchedFilter
Kanal
u(t)
r(t)
hMF(t)
Abtastzeitpunkte
nTb y(t)
y[n]
Bitstrom AWGN n(t)
Abtaster
Bild 5-25 Basisbandübertragung im AWGN-Kanal
sUppLex
5.7 Matched-Filterempfänger
143
mit den Amplituden An = 2bn - 1 (= r1) und dem auf das Bitintervall [0,Tb[ zeitbegrenzten rechteckförmigen Sendegrundimpuls g(t), s. a. Bild 5-6. Das Empfangsfilter wird als Matched-Filter an den Sendegrundimpuls angepasst. Die Impulsantwort des Matched-Filters wird gleich dem zeitlich gespiegelten und um eine Bitdauer verschobenen Sendegrundimpuls gesetzt. Die Impulsantwort des Matched-Filters ist hier wegen der Symmetrie des Sendegrundimpulses dazu identisch. hMF (t ) = g (Tb − t ) = g (t )
(5.17)
Nach Bild 2-41 liefert die Faltung von g(t) mit hMF(t) als Detektionsgrundimpuls einen Dreieckimpuls der Breite 2Tb. Dessen Höhe ist gleich der Energie des Sendegrundimpulses Eg. Demgemäß ergibt sich der Nutzanteil am Abtastereingang als Überlagerung von um ganzzahlig Vielfache der Bitdauer verzögerten Dreieckimpulsen der Höhe Eg, die entsprechend dem jeweilig korrespondierenden Bit noch mit +1 bzw. -1 gewichtet sind. In Bild 5-26 werden das Empfangssignal (oben) und das Detektionssignal (unten) gezeigt. Die Übertragung wurde am PC simuliert. Um den Effekt der Störung deutlich zu machen, wurde bei der Simulation ein relativ großer Rauschanteil vorgegeben. Man erkennt im Empfangssignal ein typisches regelloses Rauschsignal, dem in den Bitintervallen die Sendesignalamplituden uˆ bzw. −uˆ als Mittelwerte aufgeprägt sind. Das Detektionssignal ist darunter gezeigt. Zusätzlich ist das Detektionssignal im unverrauschten Fall als grau schattiert angedeutet. Man kann erkennen, wie sich im ungestörten Fall (Nutzsignal) das Detektionssignal aus der Überlagerung der Empfangsimpulse zusammensetzt. Deutlich zeigt sich, wie die Rauschstörung durch die Filterung reduziert („herausgemittelt“) wird. Anhand des Bildes lassen sich zwei wichtige Eigenschaften erkennen:
x Die zu den Abtastzeitpunkten t = nTb gewonnenen Detektionsvariablen y[n] liefern nach der Schwellwertdetektion die gesendeten Bits. x Zu den Abtastzeitpunkten ist jeweils nur ein Empfangsimpuls wirksam, so dass in den Detektionsvariablen keine Interferenzen benachbarter Zeichen auftreten. r(t) 1
t /Tb -1 0
y(t) 1
2 y[1] y[3]
4
6
8
y[4]
y[6] y[9]
t /Tb -1 y[2]
y[5]
y[7]
y[8]
Bild 5-26 Durch AWGN gestörtes Empfangssignal r(t) und Detektionssignal y(t) mit den Detektionsvariablen y[n] (normierte Darstellung)
sUppLex
5 Digitale Übertragung im Basisband
144
5.8
Nyquist-Bandbreite und Impulsformung
Im Abschnitt 5.6 wird deutlich, dass die Bandbegrenzung des Kanals wegen der Nachbarzeichenstörungen die Bitfehlerwahrscheinlichkeit stark erhöhen kann. Es stellt sich die wichtige Frage: Wie viele Bits lassen sich in einem Kanal mit vorgegebener Bandbreite übertragen? Eine erste Antwort kann dem Spektrum der Rechteckimpulse entnommen werden. Unter der Annahme der Unabhängigkeit der Quellensymbole ist das Leistungsdichtespektrum des bipolaren Signals durch das Spektrum des Rechteckimpulses (2.75) vorgegeben. (5.18)
§ T · S (Z ) Tb2 si 2 ¨ Z b ¸ © 2¹
Es liegt keine strikte Bandbegrenzung vor, s. Bild 2.27. Eine grobe Abschätzung für die benötigte Bandbreite liefert die erste Nullstelle im Leistungsdichtespektrum f0 = 1/Tb. Bei einer Bitrate von 64 kbit/s entspricht das einer Bandbreite von 64 kHz. Anmerkungen: Für stochastische Signale wird die Verteilung der mittleren Signalleistung im Frequenzbereich durch das Leistungsdichtespektrum beschrieben, s. a. parsevalsche Formel. Da Leistungen betrachtet werden, ist das Betragsspektrum des Rechteckimpulses zu quadrieren. Sind die Symbole der Quelle korreliert, wie z. B. bei einer Codierung mit Gedächtnis, gilt die einfache Beziehung nicht mehr. Das wird in der Leitungscodierung gezielt benutzt um beispielsweise gleichstromfreie Basisbandsignale wie den AMI-Code zu erzeugen, s. Bild 5-12.
Basisbandsignal
Eine zweite, anschaulichere Antwort liefert die folgende Überlegung zur Nyquist-Bandbreite 1 . Wir betrachten ein bipolares Signal bei dem abwechselnd „0“ und „1“ gesendet werden. Zum ersten ergibt sich dann ein Signal mit größter Variation und damit größter Bandbreite. Zum zweiten erhält man das periodische Signal in Bild 5-27, welches in eine Fourier-Reihe entwickelt werden kann. Periode 2Tb
1
Grundschwingung
0 0
2
4
t/Tb
-1
Bild 5-27 Bipolares Signal zur alternierenden Bitfolge {1,0,1,0,1,0,...} (normierte Darstellung)
Es ist offensichtlich, dass der in Bild 5-9 beschriebene Empfänger aus der Grundschwingung in Bild 5-27 die zum bipolaren Signal identischen Abtastwerte entnimmt. Der Kanal muss also mindestens die Grundschwingung übertragen. Wir schätzen die notwendige Bandbreite mit der Nyquist-Frequenz ab.
1
Harry Nyquist: *1889/+1976, US-amerikanischer Physiker und Ingenieur schwedischer Abstammung. In den 1920er und 1930er Jahren grundlegende Arbeiten zum Abtasttheorem und Rauschvorgängen.
sUppLex
5.8 Nyquist-Bandbreite und Impulsformung
145
fN =
1 2Tb
(5.19)
Im Vergleich zur ersten Abschätzung wird hier nur noch die halbe Bandbreite benötigt. Bild 5-17 zeigt, dass im Falle des RC-Tiefpasses, dessen 3dB-Grenzfrequenz der NyquistBandbreite entspricht, die Nachbarzeichenstörungen tatsächlich sehr gering sind. Zur binären Übertragung mit der Bitrate Rb wird eine Kanalbandbreite benötigt, die mindestens gleich der Nyquist-Bandbreite ist. BN =
1 Rb ⋅ 2 bit
(5.20)
Anmerkung: Die Ausdrücke Nyquist-Frequenz und Nyquist-Bandbreite werden oft synonym gebraucht.
Die bisherigen Überlegungen gingen von einem bipolaren Signal aus. Die verwendeten Rechteckimpulse führen zu Sprungstellen im Signal und damit zu einem relativ langsam abklingenden Spektrum. Es stellt sich hier die Frage: Würde eine andere Impulsform eine bandbreiteneffizientere Übertragung ermöglichen? Zur Beantwortung der Frage gehen wir von einem Tiefpasskanal aus, dessen Grenzfrequenz gleich der Nyquist-Bandbreite ist. Dazu wählen wir für den Sendegrundimpuls ein ideales Tiefpass-Spektrum, das den Kanal vollständig ausfüllt. Mit Hilfe der inversen Fourier-Transformation kann das Zeitsignal, der Sendeimpuls, bestimmt werden. Aufgrund der Symmetrie zwischen der Fourier-Transformation (2.71) und ihrer Inversen (2.72) erhält man zu einem Rechteckimpuls im Frequenzbereich, dem idealen Tiefpass-Spektrum, einen si-Impuls im Zeitbereich, s. Bild 5-28. ⎛ t ⎞ ⎧2Tb si⎜ π ⎟ ↔ ⎨ ⎝ Tb ⎠ ⎩0
f ≤ f N = 1/ 2Tb
für
(5.21)
sonst
Anmerkung: Diese fundamentale Symmetrieeigenschaft der Fourier-Transformation wird Dualität zwischen Zeit- und Frequenzbereich genannt, s. a. Bild 2-27.
x(t)
X( f ) F
t/Tb -6
-4
-2
0
2
4
6
fTb -1/2
0
1/2
Bild 5-28 si-Impuls und Spektrum des idealen Tiefpasses als Fourier-Paar (normierte Darstellung)
Man beachte die Nullstellen des si-Impulses. Sie liegen äquidistant im Abstand Tb. Benützt man si-Impulse zur Datenübertragung, so überlagern sich zwar die Impulse; sie liefern aber in den optimalen Detektionszeitpunkten keine Interferenzen, s. Bild 5-29. Impulse mit dieser Eigenschaft erfüllen das 1. Nyquist-Kriterium. Damit ist gezeigt, dass eine interferenzfreie Datenübertragung bei der Nyquist-Bandbreite prinzipiell möglich ist.
sUppLex
5 Digitale Übertragung im Basisband
146 Bei der realen Nachrichtenübertragung ist jedoch weder ein ideales Tiefpass-Spektrum gegeben noch liegt exakte Synchronität vor. Letzteres führt dazu, dass der optimale Abtastzeitpunkt nicht genau getroffen wird. In der Nachrichtentechnik werden deshalb je nach Anwendung verschiedene Impulsformen eingesetzt, wobei ein guter Kompromiss zwischen Realisierungsaufwand, Bandbreite und Robustheit gegen Störungen angestrebt wird.
Abtastzeitpunkte 1 Abtastwert si-Impuls
t / Tb
-1 Bild 5-29 Digitale Übertragung mit interferenzfreien siImpulsen
Mit si-Impulsen als Sendegrundimpulse ist eine digitale Übertragung mit der NyquistBandbreite im Basisband ohne störende Nachbarzeicheninterferenzen prinzipiell möglich.
Eine häufig verwendete Familie von Impulsen sind die Impulse mit Raised-Cosine-Spektrum, kurz RC-Spektrum [PrSa94]. ⎧ f für ≤ 1− α ⎪A f N ⎪ ⎪ ⎡ ⎞⎤ ⎛ π ⎪ f A X RC ( f ) = ⎨ ⋅⎢1 + cos⎜ ( f − (1 − α ) f N )⎟⎥ für 1 − α < ≤ 1+ α α f 2 2 f ⎝ ⎠⎦ ⎣ ⎪ N N ⎪ sonst 0 ⎪ ⎪ ⎩
(5.22)
Zwei Beispiele für RC-Spektren sind in Bild 5-30 rechts zu sehen. Sie sind strikt bandbegrenzt mit der Grenzfrequenz fg = (1+D)fN. Der Parameter D, mit 0 d D d 1, bestimmt die Flankenbreite und damit das Abrollen der Flanke. Er wird deshalb Roll-off-Faktor genannt. Ist D gleich null, so liegt ein ideales Tiefpass-Spektrum vor. Ist D gleich eins, so erhält man eine nach oben verschobene Kosinus-Halbwelle. Ein in den Anwendungen üblicher Wert ist D = 1/2. Die tatsächlich benötigte Bandbreite für die Datenübertragung ist dann 1,5fN. Die dazu gehörenden Impulse haben die Form ⎛ t ⎞ cos⎜ πα ⎟ ⎛ t ⎞ ⎝ Tb ⎠ x RC (t ) = A ⋅si⎜ π ⎟⋅ 2 ⎝ Tb ⎠ ⎛ t ⎞ 1 −⎜ 2α ⎟ ⎝ Tb ⎠
(5.23)
sUppLex
5.8 Nyquist-Bandbreite und Impulsformung
147
Es lassen sich zwei wichtige Eigenschaften ablesen. Zum Ersten sorgt die si-Funktion wie in Bild 5-28 für äquidistante Nullstellen, so dass wieder wie in Bild 5-29 theoretisch ohne Nachbarzeicheninterferenzen abgetastet werden kann. Zum Zweiten bewirkt der Nenner einen zusätzlichen quadratischen Abfall der Impulse mit wachsender Zeit t. In der linken Hälfte von Bild 5-30 sind die Impulse für die Roll-off-Faktoren D = 0,5 und D = 0,2 zu sehen. Es bestätigen sich die gemachten Aussagen. 1
1
D = 0,5
xRC(t)
1-D
1 1+D NyquistFlanke
XRC( f )
0,5
D = 0,5
0,5 0 -0,5 -5
0
1
t/Tb
5
0
f/fN
2
1
1
D = 0,2
xRC(t)
0 -2
NyquistFlanke
XRC( f )
0,5
D = 0,2
0,5 0 -0,5 -5
0
t/Tb
5
0 -2
0
f/fN
2
Bild 5-30 Raised-Cosine-Spektren X( f ) und zugehörige Impulse x(t) für die Roll-off-Faktoren D = 0,5 und 0,2
In der Anwendung, s. Bild 5-25, wird die Übertragungsfunktion XRC( jZ) gleichmäßig auf den Impulsformer und das Empfangsfilter aufgeteilt mit G ( jω ) = X RC ( jω ) . Man bezeichnet den Sendegrundimpuls deshalb auch als Root-RC-Impuls. Anmerkung: Bei dieser Wahl ist die Autokorrelationsfunktion des Rauschanteils des Detektionssignals gleich dem Detektionsgrundimpuls. Die abgetasteten Detektionsvariablen sind dann unkorreliert (weißes Rauschen) bzw. im gaußschen Fall sogar unabhängig, so dass ein optimaler Matched-Filter-Empfänger vorliegt.
In Bild 5-31 ist das zugehörige simulierte Augendiagramm für die Übertragung mit RootRC-Impulsen gezeigt. Ohne Bandbegrenzung ergibt sich die maximale Augenöffnung in der Bildmitte. Bei einer Bandbegrenzung durch einen RC-Tiefpass mit W = 2Tb/S erhält man das rechte Teilbild. Im Vergleich zur Übertragung mit Rechteckimpulsen in Bild 5-19 resultiert mit 0,69 eine deutlich größere Augenöffnung. Die SNR-Degradation beträgt hier 3,2 dB, also 1,5 dB weniger als bei der Übertragung mit Rechteckimpulsen. Durch spezielle Impulsformen, wie z. B. solche mit Raised-Cosine-Spektren, kann eine binäre Datenübertragung im Basisband mit einer Bandbreite von ca. 1,5 fN verwirklicht werden.
sUppLex
5 Digitale Übertragung im Basisband
Basisbandsignal
Basisbandsignal
148
1 0 -1
1 0 -1
Bitdauer
Bitdauer Zeit
Zeit
Bild 5-31 Augendiagramme für die Übertragung mit Root-RC-Impulsen in Kanälen ohne (links) und mit Bandbegrenzung durch einen RC-Tiefpass (rechts) (normierte Darstellung)
5.9
Kanalkapazität
Die bisherigen Überlegungen zeigen, wie die Kanalbandbreite die maximale Bitrate beschränkt. Für die Datenübertragung in Telefonkanälen mit der Bandbreite von 4 kHz liefert die Nyquist-Bandbreite (5.20) eine maximale Bitrate von 8 kbit/s. Heutige Modems für analoge Telefonanschlüsse stellen Bitraten bis zu 56 kbit/s bereit. Wie ist das möglich?
Datenniveaus
Die Steigerung der Bitrate wird durch die Verwendung mehrstufiger Modulationsverfahren erreicht. Statt wie bei der bipolaren Symbole Übertragung nur die Amplituden uˆ und −uˆ zuzulassen, werden 11 1 beispielsweise bei der Pulsamplitudenmodulation (PAM) mehrere Amplitudenstufen, so genannte Datenniveaus, verwendet, s. a. 10 1/3 Abschnitt 4-5. Ein einfaches Beispiel macht dies deutlich: Fasst man zwei Bits zu einem Symbol zusammen, so ergeben sich vier 00 -1/3 mögliche Symbole die mit vier unterschiedlichen Amplitudenwerten dargestellt werden können. Ist die maximale Sendeampli01 -1 tude auf uˆ beschränkt, so bieten sich die Amplituden uˆ , uˆ / 3 , uˆ / 3 und uˆ an. Der Schwellwertdetektor legt dann die Entscheidungsschwellen genau zwischen diese Werte. Dadurch wird er- Bild 5-32 Amplitudenstufen für die 4-PAM reicht, dass der Abstand zwischen den Datenniveaus und den Ent(normiert) ˆ scheidungsschwellen mit u / 3 jeweils gleich sind. Entsprechend zu Bild 5-15 ist dann die Wahrscheinlichkeit für eine Fehlentscheidung zwischen benachbarten Symbolen identisch. Es ist offensichtlich, dass hier bei Rauschstörung die Zahl der Bitfehler deutlich ansteigt, da im Vergleich zur bipolaren Übertragung bereits um 1/3 geringere Rauschamplituden eine Fehlentscheidung herbeiführen können. Bei fester Bandbreite und Anwendung von mehrstufigen Modulationsverfahren begrenzt das Signal-Geräuschverhältnis die maximale Bitrate. Diese grundsätzlichen Überlegungen finden in der Informationstheorie als shannonsche Kanalkapazität ihre mathematische Formulierung. Mit C der Kanalkapazität in bit/s, B der Bandbreite des Kanals in Hz, und S der Signalleistung und N der Störleistung des AWGN gilt [Sha48]. ⎛ C S⎞ = B ⋅ log 2⎜1 + ⎟ ⎝ bit N⎠
(5.24)
Anmerkung: Man beachte den Zweierlogarithmus (binärer Logarithmus, Logarithmus dualis), der in Verbindung mit der Pseudoeinheit „bit“ in der Informationstheorie üblich ist, s. Abschnitt 7.
sUppLex
5.9 Kanalkapazität
149
Die Bedeutung der shannonschen Kanalkapazität liegt vor allem darin, dass sie den grundlegenden Zusammenhang von der zur Verfügung stehenden Bandbreite, dem SNR und der theoretisch fehlerfrei übertragbaren maximalen Bitrate auf mathematischem Wege herstellt. Damit objektiviert sie die Erfahrungen aus der Praxis und liefert einen wichtigen Vergleichsmaßstab zur Beurteilung neuer Übertragungskonzepte in der Forschung. Nicht zuletzt rechtfertigt sie die axiomatische Begründung der Informationstheorie in Abschnitt 7. Die maximal übertragbare Bitrate wird durch die Bandbreite und das SignalGeräuschverhältnis begrenzt. Bitrate, Bandbreite und Signal-Geräuschverhältnis sind in gewissen Grenzen gegeneinander austauschbar.
Auf praktische nachrichtentechnische Systeme ist die Formel (5.24) mit Vorsicht anzuwenden, da ihr spezielle Modellannahmen zugrunde liegen (AWGN-Kanal, Bandbegrenzung im Kanal wie beim idealen Tiefpass oder Bandpass, normalverteiltes Nutzsignal), die in der Realität so nicht gegeben sind bzw. reale Effekte unberücksichtigt lassen. Beispiel Modemübertragung im Teilnehmeranschluss
Wir zeigen die Anwendung anhand eines vereinfachten Beispiels. Im Zusammenhang mit der TF-Technik der Telefonie wird einem Teilnehmer für die transparente Übertragung ein Kanal mit etwa 4 kHz Bandbreite zur Verfügung gestellt. Für das SNR im Empfänger kann ein Wert von 60 dB in der Nähe der Endvermittlungsstelle bzw. 20 dB im Abstand von 4,2 km (40 dB Kabeldämpfung bei Aderdurchmesser 0,4mm) angenommen werden [KaKö99] [Loc02]. Wie groß ist die maximale theoretisch fehlerfreie übertragbare Bitrate? Wir schätzen mit (5.24) die Kanalkapazität ab C60dB
C20 dB
kbit / s | 79, 7 kbit / s 4 log 2 1 1020 /10 kbit / s | 26, 6 kbit / s
4 log 2 1 1060 /10
(5.25)
Wir schließen daraus, dass dem Teilnehmer nahe der Endvermittlungsstelle theoretisch eine Bitrate von deutlich mehr als der üblichen 56 kbit/s angeboten werden könnte. Der weiter entfernte Teilnehmer wird trotz seines neuen Modems die Bitrate von 56 kbit/s nicht erreichen. ________________________________________________________________________________Ende des Beispiels
Bietet der Netzbetreiber einen digitalen Netzzugang an, ist die Bandbegrenzung auf 4 kHz bedeutungslos. Die herkömmliche Teilnehmeranschlussleitung für die Sprachtelefonie wird mit aufeinander abgestimmten Modems in der Endvermittlungsstelle und beim Teilnehmer breitbandig genutzt. Die neuen digitalen Übertragungsverfahren – zum Teil in verschiedenen Varianten noch im Erprobungsbetrieb – werden unter dem Begriff xDSL (Digital Subscriber Line) zusammengefasst, s. Tabelle 5-3. Sie ermöglichen die Übertragung von hohen Bitraten für Multimedia-Anwendungen mit Audio- und Videokomponenten [Che98] [SCS00] [SSCS03]. Anmerkungen: Eine weitere Steigerung der effektiven Datenrate ist u. U. durch Datenkompression möglich, s. Abschnitt 7. Moderne Telefonmodems vermessen vor Beginn der Datenübertragung den Übertragungskanal. Sie passen die Bitrate/Symbolrate auf den Kanal an und entzerren das Empfangssignal vor der Detektion. Darüber hinaus wenden sie Datenkompressionsverfahren und Kanalcodierverfahren an und benutzen fehlertolerante Übertragungsprotokolle.
sUppLex
5 Digitale Übertragung im Basisband
150 Tabelle 5-3
Digitale Anschlusstechniken für das herkömmliche Kupferkabel als Teilnehmeranschlussleitung (Digital Subscriber Line, DSL)
DSL-Technik
Bitraten und Bemerkungen
DSL
herkömmlicher ISDN-Anschluss mit 2 x 64 kbit/s (B-Kanäle) und 16 kbit/s (D-Kanal) im Duplex (1986*)
ADSL (Asymmetric)
1,2,3 x 1,544 Mbit/s (T1) bzw. 2,048 Mbit/s (E1) im hochratigen Übertragungskanal (zum Teilnehmer) und 64 (128) ... 768 kbit/s ( ...1Mbit/s) im Steuerkanal (zum Netz) (1995) ADSL2 mit …8,192 Mbit/s und …1,024 Mbit/s (2002, ITU G.992.3) ADSL2+ mit …24,576 Mbit/s und …1,024 Mbit/s (2003, ITU G.992.5)
HDSL (High bit-rate)
1,544 Mbit/s (T1) oder 2,048 Mbit/s (E1) im Duplex (Vierdrahtleitung, 1992) HDSL2, Bitrate wie HDSL über Zweidrahtleitung (1998/2000) HDSL4, Bitrate wie HDSL mit vergrößerter Reichweite über Vierdrahtleitung
SHDSL (Symmetric)
wie HDSL, aber herkömmliche Telefone können weiter benutzt werden (Zweidrahtleitung, 2000)
VDSL (Very high-rate)
kurze Anschlusslänge (…300m), sehr hohe Bitrate (… 52 Mbit/s) (2001)
T1-System: in Nordamerika um 1960 entwickeltes PCM-System E1-System: Weiterentwicklung von T1 für Europa (ITU-Standard), s. a. Abschnitt 6. * Die Jahreszahlen beziehen sich auf die Veröffentlichung relevanter Standards bzw. die Markteinführung
Ein Beispiel liefert die digitale ADSL-Übertragung (Asymmetric Digital Subscriber Line) über eine verdrillte Zweidrahtleitung als Teilnehmeranschluss. In Bild 5-33 ist die Frequenzbelegung schematisch dargestellt. Zur Kompatibilität wird der Frequenzbereich unterhalb 4 kHz für die herkömmliche analoge Telephonie (Plain Old Telephone Service, POTS) frei gehalten. Bei einer ISDN-Übertragung im Basisanschluss wird der Bereich bis ca. 120 kHz belegt. Werden eine ISDN-Anlage und ein ADSL-Modem gleichzeitig betrieben, ergibt sich eine frequenzmäßige Überlappung mit dem ADSL-Signal in Upstream-Richtung, d. h. vom Teilnehmer zum TK-Netz, da die spektrale Leistung des Upstream-Signals hauptsächlich im Frequenzband von ca. 25 bis 140 kHz liegt. In diesem Fall kann vorgesehen werden, die Bitrate zu reduzieren, um eine mögliche ISDN-Sprachübertragung nicht zu stören. Durch das Downstream-Signal wird hauptsächlich das Frequenzband von etwa 25 bis 1100 kHz belegt. Wegen des in DownstreamRichtung breiteren Frequenzbandes lassen sich entsprechend höhere Bitraten als in UpstreamRichtung realisieren. So sind in den verschiedenen Varianten der ADSL-Anschlusstechnik in Upstream-Richtung (16) 64...768 (1024) kbit/s und in Downstream-Richtung ...6 (...10) Mbit/s vorgesehen. Die tatsächlich erreichbaren Bitraten hängen von den örtlichen Gegebenheiten (Aderdurchmesser, Anschlusslänge, usw.) und Störungen (Funkrauschen, Impulsgeräusche, Nebensprechen, usw.) ab. Zum Schluss sei angemerkt, dass die angegebenen Frequenzen nur Richtwerte darstellen, auf die die Signale nicht streng bandbegrenzt sind. Bild 5-34 gibt einen anschaulichen Überblick über die Leistungsfähigkeit modernen DSL-Verfahren. Beeindruckend ist die rasante Entwicklung in den letzten zwanzig Jahren. Seit der Einführung von ISDN 1986 bis heute hat sich die verfügbare Bitrate von 144 kbit/s auf 52 Mbit/s gesteigert.
sUppLex
5.9 Kanalkapazität
151
ISDN
ADSL up
POTS
Sendeleistung
Anmerkung: Ein Preisvergleich pro Bit zwischen ISDN vor 20 Jahren und VDSL heute, würde wahrscheinlich noch eindrucksvoller Zahlen liefert.
ADSL down
4 25
Frequenz in kHz
120 140
1100
Bitrate im Downstream in bit/s
Bild 5-33 Frequenzbelegung auf der Zweidraht-Teilnehmeranschlussleitung mit ADSL-Übertragung (schematische Darstellung)
50M
0,3 km
VDSL 25M
1 km 0,3 km
1 km 1 km
ADSL2+
1,3 km
2 km
12M 10M
ADSL2
6M
3 km
ADSL SDSL o 2 km SHDSL o 2,6 km
2M 1,5M
4 km
SDSL o 2,3 km SHDSL/HDSL2 o 3km
1M 768k
SDSL o 3 km SHDSL o 4km
400k
SDSL o 4,3 km SHDSL o 5km 5 km
144k
ISDN o 5km 144k
400k
768k 1M 1,5M
2M
12M
6M 10M
Bitrate im Upstream in bit/s Bild 5-34 DSL-Datenraten und Reichweiten nach [SSCS03] (Die Angaben zu den Reichweiten beziehen sich jeweils auf bestimmte Leitungstypen)
sUppLex
5 Digitale Übertragung im Basisband
152
5.10
Zusammenfassung
Die digitale Basisbandübertragung ist überall dort anzutreffen, wo es gilt digitale Information über kurze Entfernungen auszutauschen. Je nach Anwendung existieren sehr unterschiedliche Anforderungen bzgl. Komplexität, Störfestigkeit und Bitrate. Als wichtigste Komponenten der Übertragungskette sind die Leitungscodierung und die Impulsformung im Sender, der Kanal und der Empfänger mit Synchronisations- und Detektionseinrichtung hervorzuheben. x Die Leitungscodierung und Impulsformung hat die Aufgabe, den Bitstrom in ein an den Kanal angepasstes Signal umzusetzen. Spezielle Anforderungen, wie ein kompaktes Spektrum oder Gleichstromfreiheit, können durch die Wahl des Leitungscodes und der Form des Sendegrundimpulses erfüllt werden. Als wichtige Beispiele sind hier Codes mit Gedächtnis, wie der AMI-Code, und interferenzfreie Impulsformen, wie der RC-Impuls, zu nennen. x Die Übertragungsstrecken lassen sich oft näherungsweise als Tiefpässe modellieren, an deren Ausgängen den Nachrichtensignalen Störgeräusche überlagert werden. Durch die Bandbegrenzung im Tiefpass-Kanal treten Dämpfungs- und Phasenverzerrungen auf, die die gesendeten Impulse verbreitern, so dass sie sich gegenseitig stören. Die Nachbarzeicheninterferenzen machen die Übertragung anfällig gegen Störung durch Rauschen. Wie stark die Übertragungsqualität jeweils degradiert, kann an der Augenöffnung im Augendiagramm abgelesen werden. x Der erfolgreiche Empfang der Nachricht setzt das Erkennen des Bittaktes im Empfangssignal voraus. Dazu dient die Synchronisationseinrichtung. Sie wird durch einen hohen Taktgehalt im Sendesignal unterstützt. Halten sich die Störungen in normalen Grenzen, arbeiten die üblicherweise eingesetzten Synchronisationseinrichtungen zuverlässig. Ein Verlust der Synchronisation macht den Nachrichtenempfang meist unmöglich. Für die digitale Übertragung ist deshalb typisch, dass sie entweder zuverlässig funktioniert oder gar nicht. Um die Wirkung der Rauschstörung zu verringern, kann ein Matched-Filterempfänger eingesetzt werden. Er maximiert das Signal-Geräuschverhältnis und verringert demzufolge die Wahrscheinlichkeit für Übertragungsfehler. Im Falle eines AWGN-Kanals wird die Fehlerwahrscheinlichkeit sogar minimiert. Als wichtige allgemeine Zusammenhänge sind die Nyquist-Frequenz (Nyquist-Bandbreite) und die shannonsche Kanalkapazität zu nennen: x Die Nyquist-Frequenz liefert eine Abschätzung der für die binäre Basisbandübertragung erforderlichen Bandbreite. Sie ist gleich dem Kehrwert der zweifachen Bitdauer, bzw. Symboldauer bei mehrstufiger Übertragung. In praktischen Anwendungen ist mit einem etwa 1,5-fachen Wert zu rechnen. x Die shannonsche Kanalkapazität beschreibt den grundlegenden Zusammenhang zwischen dem für die Übertragung notwendigen Aufwand in Form von Bandbreite und Signalleistung und dem erzielbaren Gewinn in Form der Bitrate bei vorgegebener Rauschleistung. Moderne Standards zur digitalen Basisbandübertragung bedienen sich komplexer Methoden der digitalen Signalverarbeitung, die sich dynamisch an die Übertragungsbedingungen anpassen, wie die adaptive Entzerrung des Empfangssignals, die Berücksichtigung der Nachbarzeicheninterferenzen durch Detektion ganzer Bitfolgen, den Einsatz aufwändiger Kanalcodierverfahren, usw. Die Darstellung dieser Verfahren würde den Rahmen einer Einführung sprengen, weshalb darauf verzichtet wird. Es sind jedoch diese anspruchsvollen Methoden die zusammen mit den Fortschritten der Mikroelektronik erst die moderne Informationstechnik ermöglichen.
sUppLex
5.11 Aufgaben zu Abschnitt 5
153
Anmerkung: Ergänzt werden die hier vorgestellten Methoden durch die drahtlose Kommunikation, sei es durch die Infrarotübertragung, z. B. nach dem IrDA-Standard (Infrared Data Association), oder durch die Funkübertragung, z. B. entsprechend dem Bluetooth, WLAN nach IEEE 802.11, Hiperlan 1 u. 2 (High Performance LAN) - Standard. Vergessen werden sollte auch nicht, dass die physikalische Übertragung sowie die damit unterstützten Dienste die Existenz eines leistungsfähigen an die jeweilige Aufgabe angepassten Protokolls voraussetzen.
5.11
Aufgaben zu Abschnitt 5
Aufgabe 5.1
a) Geben Sie das Bitmuster nach ASCII-Code für das Zeichenpaar „NT“ an. b) Skizzieren Sie für das Zeichenpaar in a) das Basisbandsignal entsprechend der RS-232Schnittstelle. Verwenden Sie eine Codierung mit ungerade Parität und 1,5 Stoppbits. Aufgabe 5.2
a) Was versteht man unter einem Leitungscode mit Gedächtnis und wozu werden sie verwendet? b) Skizzieren Sie das Basisbandsignal der Bitfolge bn = {0,1,0,1,1,1,0,...} bei AMI-Codierung Aufgabe 5.3
a) Geben Sie die drei prinzipiellen Verarbeitungsschritte im Empfänger bei der digitalen Übertragung im Basisband an. b) Mit welchen Störeinflüssen ist bei der digitalen Übertragung im Basisband zu rechnen? c) Was versteht man unter Nachbarzeichenstörungen? d) Welche Bedeutung hat die Augenöffnung? e) Wie wirkt sich ein Synchronisationsfehler bei der Detektion aus? f) Welchen Zweck dient die Impulsformung bei der digitalen Basisbandübertragung. Nennen Sie eine häufig verwendete Impulsform. Aufgabe 5.4
a) Es soll ein Datenstrom von 64 kbit/s im Basisband binär übertragen werden. Wie groß muss die Bandbreite B des zugehörigen Übertragungskanals theoretisch mindestens sein und wie nennt man diese minimale Bandbreite? Wie groß ist die in den Anwendungen tatsächlich benötigte Bandbreite typischer Weise? b) In welchem Verhältnis stehen bei der Nachrichtenübertragung die Bitrate, die Bandbreite und das Signal-Geräuschverhältnis zueinander? c) Wie kann die Bitrate einer Datenübertragung bei fester Bandbreite gesteigert werden? Mit welchem Nachteil wird dies erkauft? d) Nennen Sie einen wichtigen Vorteil der digitalen Nachrichtenfernübertragung gegenüber der analogen. Aufgabe 5.5
a) Welches Problem soll das Matched-Filter in der Datenübertragungstechnik lösen? b) Worauf ist das Matched-Filter anzupassen? c) Was bedeutet optimal im Zusammenhang mit dem Matched-Filter?
sUppLex
154
6
Telekommunikationsnetze
6.1
Einführung
Moderne Telekommunikationsnetzen, wie das Netz der Deutschen Telekom, bestehen aus einer Vielzahl unterschiedlicher Netzkomponenten und ermöglichen unterschiedliche Dienste. Da es den Teilnehmern frei gestellt ist, welchen Dienst sie zu welcher Zeit von welchem Ort aus in Anspruch nehmen möchten, kann der Telekommunikationsverkehr nicht im einzelnen vorhergeplant werden. Endgeräte und Netzkomponenten müssen situationsbedingt untereinander Nachrichten austauschen und Übertragungswege gesucht werden. In diesem Abschnitt wird zunächst das Zeitmultiplex zur Bündelung digitaler Nachrichtenströme vorgestellt. Danach werden Grundbegriffe der Nachrichtenübermittlung behandelt und mit dem OSI-Referenzmodell das Protokoll als Grundlage des geregelten Nachrichtenaustausches eingeführt. Als Beispiel wird das historisch wichtigste und heute noch aktuelle High-level Data Link Control (HDLC) Protokoll vorgestellt. Die darauf folgenden Abschnitte stellen Anwendungen, wie ATM, Breitband-ISDN, Lokale Netze“ und die Protokollfamilie TCP/IP vor. Anmerkung: Einen Einstieg in die weiterführende Literatur zum Thema Telekommunikationsnetze und Datenkommunikation findet man beispielsweise in [Con04][Haa97][JuWa98][KaKö99][Loc02][Noc05] [RaWa97][Sie99][Sta00][Tan03][Wer05a].
6.2
Zeitmultiplex, PDH und SHD
Für die Übertragung analoger Sprachkanäle wurden Systeme zur Vielfachnutzung von Übertragungsmitteln, wie Koaxialkabel und Richtfunkstrecken, eingeführt, s. Abschnitt 4.2. Bei den herkömmlichen Trägerfrequenzsystemen werden die Sprachkanäle im Frequenzmultiplex, also jeder Sprachkanal spektral getrennt, übertragen. Ebenso wie bei der analogen Sprachübertragung wäre es unwirtschaftlich, wollte man jeden PCM-Kanal über eine eigene Leitung übertragen. Zur Bündelung der digitalen Gesprächskanäle wurde Ende der 1960er Jahre die PDH-Hierarchie, die Plesiochronous Digital Hierarchy, eingeführt. Nachfolgend wird ein kurzer Überblick über das PDH-System gegeben. An ihm lassen sich grundlegende Tatsachen erkennen und bis heute gültige Festlegungen verstehen. Die Grundstufe des PDH-Systems ist das PCM-30-System, bei dem 30 PCM-Kanäle zum Primärmultiplexsignal zusammengefasst werden. Die PCM-Kanäle werden oktettweise zeitlich ineinander verschränkt. Man spricht von einer Zeitmultiplex-Übertragung. Den 30 Gesprächskanälen werden zusätzlich zwei Organisationskanäle beigefügt. Es werden aufeinander folgende Rahmen gebildet, die je Kanal ein Oktett (= 8 Bits = 1 Byte) tragen. Daraus ergeben sich 328 Bits = 256 Bits pro Rahmen. Bei einer Abtastfrequenz von 8 kHz stehen für den Rahmen 125 Ps zur Verfügung. Der Rahmenaufbau wird in Bild 6-1 gezeigt. Das 1. Oktett im Rahmen ist abwechselnd entweder ein Rahmenkennungswort (R) oder ein Meldewort (M). Das 2. bis 16. Oktett gehört zu den ersten 15 Gesprächskanälen mit jeweils einer Bitrate von 64 kbit/s für PCM-Sprache. Das 17. Oktett dient zur Zeichengabe, wie der Zielinformation. Danach schließen sich die Oktette der restlichen 15 Gesprächskanäle an.
sUppLex
155
6.2 Zeitmultiplex, PDH und SHD PCM-30-Zeitmultiplexrahmen 256 Bits in 125 Ps
29 30 R 1 2 3
15 Z 16
28 29 30 M 1
X 0 0 1 1 0 1 1
1 2 3 4 5 6 7 8
X 1 D N Y Y Y Y
Rahmenkennung
Zeichengabe
Meldung
Bild 6-1 PCM-30-Zeitmultiplexrahmen
Rahmenkennungswort und Meldewort sind typisch für die digitale Übertragung. Da die Zuordnung der Oktette zu den Gesprächskanälen sowie den Funktionen Zeichengabe und Meldung von der Lage im Rahmen abhängt, ist die Erkennung des Rahmenanfangs für die Kommunikation unerlässig. Mit dem Meldewort besteht die Möglichkeit der Inbandsignalisierung, d. h. der Übertragung für die Steuerung der Verbindung wichtiger Informationen während laufender Gespräche. Der Aufbau des Rahmenerkennungs- und des Meldeworts und die Bedeutung der einzelnen Bits werden im Schnittstellenprotokoll festgelegt. Im Meldewort ist das Bit X für die internationale Verwendung reserviert; das Bit D dient als Meldebit für dringenden Alarm und Bit N als Meldebit für nichtdringenden Alarm. Die vier Bits Y sind für die nationale Verwendung reserviert. Man beachte, obwohl pro Meldewort nur ein D- und ein N-Bit zur Verfügung stehen, entspricht das einer Datenverbindung mit der Bitrate von je 4 kbit/s, da alle 250 Ps ein D- und ein N-Bit übertragen wird. PCM-30-Systeme wurden in Deutschland ab 1971 eingesetzt Man beachte den Unterschied zu ISDN, dass erst Ende der 1980 Jahre eingeführt wurde. Aus Kompatibilitätsgründen wurden für die ISDN-Basiskanäle ebenfalls 64 kbit/s festgelegt. Bei der Übertragung von ISDN-Verbindungen im PCM-30-System müssen die zugehörigen ISDN-D-Kanäle auf das Z-Oktett abgebildet werden. Dies ist jedoch nur eingeschränkt möglich. Aus PCM-30-Systemen wird die PDH-Hierarchie in Bild 6-2 aufgebaut. Jeweils vier Untersysteme werden in einem Multiplexer zusammengeführt bis schließlich im PCM-7680System 7680 Gesprächskanäle gebündelt werden. Durch Hinzufügen von weiteren Organisationszeichen bzw. eventuellen Stopfbits zur Taktanpassung wird die Bitrate jeweils etwas mehr als vervierfacht. Wegen der nicht strikten Synchronität zwischen den Datenströmen spricht man hier von einem plesiochronen (annähernd synchronen) digitalen Multiplexsystem. PCM 7680 PCM 1920 PCM 480 PCM 120
565 Mbit/s
PCM 30
140 Mbit/s 34 Mbit/s 8 Mbit/s 2 Mbit/s
64 kbit/s Bild 6-2 PCM-Zeitmultiplexsysteme (PDH, Bitraten gerundet)
sUppLex
6 Telekommunikationsnetze
156
In Tabelle 6-1 sind einige weitere interessante Details zusammengestellt. Insbesondere die Verwendung von Lichtwellenleitern macht eine wirtschaftliche Übertragung bei hohen Bitraten über weite Strecken möglich, vgl. Tabelle 4-1. In den USA, Kanada und Japan werden jeweils 24 PCM-Kanäle im T1-System (DS-1 Format mit 1,544 Mbit/s) zusammengefasst, und ein eigenes PDH-System aufgebaut.
Tabelle 6-1 PCM-Zeitmultiplexsysteme [BFH95] System Zahl der Nutzkanäle Bitrate in Mbit/s Leitung Regeneratorabstand in km
PCM 30
PCM 120
PCM 480
PCM 1920
PCM 7680
30
120
480
1920
7680
2,048
8,448
34,368
139,264
564,992
sym. Kabel (verdrilltes Adernpaar)
sym. Kabel / Koaxialkabel
2
6,5
Koaxialkabel (Koax.) / Lichtwellenleiter (LWL) 4 (Koax.) 40 (LWL)
4 (Koax.) 40 (LWL)
1,5 (Koax.) 35 (LWL)
Das PDH-Konzept in Bild 6-2 spiegelt den Stand der Technik Anfang der 1980er Jahre wider, d. h. insbesondere den Stand der Mikroelektronik und der Übertragungstechnik für Koaxialkabel. Es besitzt einen grundsätzlichen Nachteil. Wie fädelt man einen einfachen Gesprächskanal, in dem Hierarchiesystem ein und aus? - Indem man alle Hierarchiestufen von unten bis oben bzw. oben bis unten durchläuft. Es ist klar, dass ein derartig aufwändiges und unflexibles Verfahren wirtschaftlich nicht optimal sein kann. 1987 wurde deshalb von der ITU-T, vormals CCITT, die synchrone digitale Hierarchie, die Synchronous Digital Hierarchy (SDH), vorgeschlagen. Bei der Ausarbeitung der Details wurde berücksichtigt, die bisher inkompatiblen Multiplexsysteme in Europa, Japan und Nordamerika zu harmonisieren und die sich abzeichnenden neuen Möglichkeiten der optischen Übertragung zu nutzen. Anmerkung: In Nordamerika wird das zur ITU-T kompatible System SONET genannt, von Synchronous Optical Network, da zur Übertragung optische Systeme eingesetzt werden. Die Grenzen der optischen Übertragungstechnik sind heute noch nicht ausgereizt. Bereits 1996 wurden in Japan und den USA Übertragungsversuche mit über 1 Tbit/s (1012 bit/s) über 40 ... 150 km erfolgreich durchgeführt. Zurzeit werden typisch faseroptische Fernübertragungsstrecken mit 10 Gbit/s pro Wellenlänge und 16 unterschiedliche Wellenlängen pro Faser kommerziell eingesetzt. Durch den Wellenlängenmultiplex stehen so 160 Gbit/s zur Verfügung.
Als Grundelement wird das STM-1 Transport-Modul mit einer Bitrate von 155,52 Mbit/s verwendet, das die bisherigen PCM-Multiplexsysteme niedrigerer Bitrate zusammenführt. Möglich wird dies durch die moderne Mikroelektronik, die schnellen Zugriff und Auswertung der übertragenen Oktette erlaubt. Bild 6-3 zeigt den prinzipiellen Aufbau des STM-1 TransportModuls. Innerhalb eines Rahmens von 125 Ps Dauer werden 2430 Oktette (Bytes) übertragen. Die Oktette sind in Form einer Matrix angeordnet, die 9 Zeilen und 270 Spalten aufweist. Die ersten 9 Oktette einer Zeile haben jeweils organisatorische Aufgaben. Dazu gehören die Bits der Verkehrslenkung und der Qualitätsüberwachung des SDH-Netzes im Feld SOH (Section Overhead) und die Zeiger im Feld PTR (Pointer). Die Zeiger verweisen auf die im STM-1 Transport-Modul eingebetteten niederratigeren Multiplex-Systeme, den Transportgruppen und virtuellen Containern. Transportgruppen und virtuelle Container besitzen wiederum jeweils
sUppLex
157
6.3 Nachrichtenübermittlung
Kopffelder, die POH-Bits (Path Overhead), die die Information über den inneren Aufbau enthalten. So können mehrerer Container bzw. Transportgruppen ineinander verschachtelt werden. Die Verschachtelung der Bits unterschiedlicher Containern und Transportgruppen geschieht oktettweise. Es werden jeweils acht Bits eines niederratigen Systems zusammengefasst. Oktette
9
3
SOH
1
PTR
5
260
Transportgruppen und virtuelle Container
SOH
Bild 6-3 Aufbau des STM-1 Transport-Moduls (schematische Darstellung)
STM-1 Transport-Module erlaubt eine relativ flexible Gestaltung des Kommunikationsnetzes. Durch den Einsatz von leistungsfähigen Netzknoten, SDH-Cross-Connect genannt, und einfacheren Add/Dropp-Multiplexern wird der Zugriff auf Signale bestimmter Bitraten ermöglicht. Allerdings entsteht ein zusätzlicher Aufwand durch die notwendige Übertragung der Kopffelder. Hinzu kommt, dass Transportgruppen und Container feste Größen besitzen, so dass gegebenenfalls Stopfbits eingefügt werden müssen und so die effektive Bitrate etwas gemindert wird. Beginnend mit den STM-1 Transport-Modulen wird die SDH-Hierarchie mit den STM-4, STM-16 und STM-64 Transport-Modulen aufgebaut. Ein STM-64 Transport-Modul kann über LWL mit 10 Gbit/s (SONET OC192) transportiert werden.
6.3
Nachrichtenübermittlung
Der Begriff Nachrichtenübermittlung setzt sich zusammen aus den Begriffen Nachrichtenübertragung, der Übertragung von Nachrichten zwischen zwei Geräten oder Netzknoten, und der Nachrichtenvermittlung, der zielgerichteten Organisation des Nachrichtenflusses in einem Telekommunikationsnetz zwischen bestimmten Teilnehmern. Das Telekommunikationsnetz, kurz TK-Netz genannt, ermöglicht dabei den Nachrichtenaustausch zwischen zwei Netzzugangspunkten an denen die Teilnehmer mit dem TK-Netz verbunden sind, s. Bild 6-4. Das TK-Netzes hat die Aufgabe, den Teilnehmern Dienste zur Verfügung zu stellen. Darunter versteht man die Fähigkeit des TK-Netzes Nachrichten einer bestimmten Art mit bestimmten Merkmalen, wie zeitlichen Vorgaben und Qualitätsindikatoren, zu übertragen. Aus der Sicht der Teilnehmer stellt sich die Nachrichtenübermittlung wie in Bild 6-5 dar. Über allem steht die Anwendung, die über die Benutzerschnittstelle auf die jeweilige Endeinrichtung zugreifen kann. Die Endeinrichtungen wiederum nutzen über die Netzschnittstelle an den Netzzugangspunkten den benötigten Dienst des TK-Netzes.
sUppLex
6 Telekommunikationsnetze
158
Die dazu notwendige Kopplung der Geräte untereinander wird Nachrichtenverbindung genannt. Meist wird der Begriff in Zusammenhang mit den Endeinrichtungen gebraucht. Man spricht dann von der Nachrichtenverbindung zwischen den Teilnehmern, Einrichtungen oder Stationen A und B. Sie kann z. B. mittels einer fest geschalteten und exklusiv zu nutzenden Leitung oder einer virtuellen Verbindung geschehen.
Teilnehmer/ Benutzer
TK-Netz
A
Verbindungsleitung
Quelle/ Ziel Netzknoten/ Vermittlungsstelle
Übertragungsweg Teilnehmer/ Benutzer B NetzzugangsQuelle/ punkt Ziel
Bild 6-4 Telekommunikationsnetz
Anwendung Nachrichtenübermittlung Quelle/ Ziel
TK-Netz
Endeinrichtung
Endeinrichtung
Quelle/ Ziel B
A Benutzerschnittstelle
Netzschnittstelle
Netzschnittstelle
Benutzerschnittstelle
Bild 6-5 Kommunikationsmodell
Ein weiterer wichtiger Begriff ist der Kanal (Channel). Damit ist die kleinste logisch einem Dienst zuordbare physikalische Einheit des Übertragungsmediums gemeint, wie z. B. dem DBit im Meldewort des PCM-30-Zeitmultiplexrahmens, ein Frequenzband bei der GSMFunkübertragung, eine Wellenlänge bei der optischen Übertragung in einem Lichtwellenleiter, oder ein Code bei der UMTS- Funkübertragung. In der Nachrichtenvermittlung werden verschiedene Vermittlungsarten eingesetzt. Es werden die Leitungsvermittlung und die Paketvermittlung unterschieden. Tabelle 6-2 enthält eine kurze Gegenüberstellung.
sUppLex
159
6.3 Nachrichtenübermittlung Tabelle 6-2 Arten der Vermittlung Leitungsvermittlung
Paketvermittlung
Durchschaltevermittlung (Circuit Switching)
Speichervermittlung (Packet Switching, Storeand-forward Switching)
Der physikalisch fest zugeteilte Kanal wird zu Beginn der Kommunikation aufgebaut (Verbindungsaufbau, Circuit Establishment) und erst am Ende der Übertragung wieder abgebaut (Verbindungsabbau, Circuit Disconnect)
Die Nachricht wird in (Daten-)Pakete zerlegt. Die Übertragung geschieht entweder verbindungsorientiert (connection-oriented) oder verbindungslos (connection-less)
herkömmliche analoge öffentliche Fernsprechnetze (Plain Old Telephony, POT), digitale Netze auf PCM-Basis mit plesiochroner digitalen Hierarchie (PDH), GSM-Sprachübertragung im Mobilfunknetz
Datex-P, LAN (Ethernet), synchrone digitale Hierarchie (SDH), ATM Backbone, GPRSDatenübertragung im Mobilfunknetz, Internet
- zuverlässige schnelle Übermittlung der Nachricht wenn Verbindung aufgebaut / Verbindungsaufbau erfordert freien Kanal von A nach B / Verbindung belegt den Kanal auch wenn keine Daten ausgetauscht werden (Sprechpause, Lesen und Editieren am Bildschirm)
- Kanal wird nicht während der gesamten Verbindungszeit belegt - Kanäle können von mehreren Teilnehmern quasi gleichzeitig genutzt werden - optimierte Netzauslastung durch dynamische Kanalzuteilung möglich (unsymmetrischer Verkehr) / Zwischenspeichern der Pakete erfordert ausreichenden Speicher in den Netzknoten / Zustellzeit ist eine Zufallsgröße
kritisches Qualitätsmerkmal: Blockierwahrscheinlichkeit (Blocking Probability)
kritische Qualitätsmerkmale: Paketverlust (Packet Loss) und schwankende Zustellverzögerung (Cell-delay, Jitter)
Die Paketvermittlung wird entweder als verbindungsorientiert oder verbindungslos bezeichnet. Die verbindungsorientierte Paketübertragung (im Virtual-circuit – Packet Network) zeichnet sich wie die Leitungsvermittlung durch die drei Phasen Verbindungsaufbau (Call Establishment), Nachrichtenaustausch (Data Transfer) und Verbindungsabbau (Call Disconnect) aus. Entsprechend der Zielinformation und Dienstmerkmale wird zunächst ein geeigneter Pfad durch das Netz gesucht (Routing). Dem gefundenen Pfad zwischen zwei Netzknoten wird eine Verbindungsnummer VCN (Virtual-circuit Number, Logical Channel Number) zugeordnet und in die entsprechenden Wegwahl-Tabellen (Routing-Table) eingetragen. Bild 6-6 veranschaulicht das Prinzip. In den Netzknoten werden die VCN gemäß den Wegwahl-Tabellen umgewertet und die Datenpakete weitergeleitet. Der Vorteil der verbindungsorientierten Übermittlung liegt auf der Hand. Durch die vorbereitende Wegsuche und die kurzen VCN-Nummern wird die Vermittlung der Pakete stark vereinfacht. Bei der verbindungslosen Paketvermittlung, auch Zellenvermittlung genannt (im Connectionless Packet Network, Message Switching) geschieht kein Verbindungsaufbau und –abbau. Jedes Paket trägt die zur Zustellung notwendige Information. Man spricht von einem Datagramm (Datagram) mit dem Absender (Source), der Zieladresse (Destination) einer eventuellen
sUppLex
6 Telekommunikationsnetze
160
Steuerinformation (Control) und der eigentlichen Nachricht. Ein typisches Beispiel ist die ATM-Zelle, die später noch vorgestellt wird. Wegwahl-Tabelle Knoten C ein aus
Pakete nach E
Port VCN Port Pfad 1 3
A
3
Pfad 2 7
7
3 7
VCN
A
3
D
3
B
7
D
4
C 4 3
B
Pakete nach F
3 4
Pfad 1 und 2
1
Wegwahl-Tabelle Knoten D ein aus Port
E 3
1
1
D 3
VCN Port VCN
C
3
E
1
C
4
F
3
3 3
F
Bild 6-6 Verbindungsorientierte Paketvermittlung
6.4
OSI-Referenzmodell
Um die Entwicklung offener Telekommunikationssysteme voranzutreiben, hat die International Standards Organization (ISO) 1984 ein Referenzmodell, das OSI-Referenzmodell (Open Systems Interconnection, ISO-Norm 7489) eingeführt. Die ursprüngliche Absicht der ISO, ein einheitliches Protokoll für alle Telekommunikationsanwendungen zu schaffen, hat sich nicht verwirklicht. Durch die unterschiedlichen Anforderungen in verschiedenen Anwendungsbereichen, wie z. B. der Datenübertragung in lokalen Rechnernetzen und der Funkübertragung in der Mobilkommunikation, kommen heute unterschiedliche Protokolle, wie das TCP/IP (Transmission Control Protocol/Internet Protocol) oder das Protokoll RLC/MAC (Radio Link Control/Medium Access Control) für GSM, zum Einsatz. Trotzdem ist der Erfolg des OSI-Referenzmodells unbestritten. Er beruht auf dem hierarchischen Architekturmodell, das auch heute noch Vorbildcharakter hat. Die Kommunikationsfunktionen werden in sieben überschaubare, klar abgegrenzte Funktionseinheiten geschichtet, wobei benachbarte Schichten (Layer) über definierte Aufrufe und Antworten, den Dienstelementen (Service Primitives), miteinander verknüpft sind. In Bild 6-7 ist das OSI-Rferenzmodell für eine Nachrichtenübertragung vom Endsystem A über ein Transitsystem, z. B. dem öffentlichen TK-Netz, zum Endsystem B gezeigt. Die Kommunikation läuft prinzipiell beim sendenden Endsystem von oben nach unten und beim empfangenden Endsystem von unten nach oben. Gleiche Schichten verschiedener Systeme sind über logische Kanäle verbunden. Das sind Kanäle, die in der Regel physikalisch so nicht vorhanden
sUppLex
161
6.4 OSI-Referenzmodell
sind, aber von den Protokoll-Instanzen wie solche behandelt werden dürfen. Sie werden durch geeignete Dienstelemente unterstützt. Die Datenübertragung zwischen den Systemen erfolgt über die physikalischen Übertragungseinrichtungen, die jeweils aus der Bitübertragungsschicht gesteuert werden. Nach ihren Aufgaben lassen sich die Schichten in Bild 6-7 in vier Gruppen einteilen: x Die oberen drei Schichten stellen primär den Bezug zur Anwendung her. x Zusammen mit der Transportschicht werden die obersten vier Schichten meist im Endgerät implementiert. x Die unteren vier Schichten regeln den Transport der Daten von A nach B. x Die Vermittlungsschicht, Datensicherungsschicht und Bitübertragungsschicht entsprechen den üblichen Funktionen eines TK-Netzes. Nachfolgend werden die einzelnen Schichten kurz vorgestellt. Endsystem B
Endsystem A
7
Application Layer
6
Presentation Layer
Anwendung
Darstellung
Kommunika- 5 tionssteuerung
anwendungsorientierte Schichten
Session Layer
4 Transport Layer
Transport
Ende-zu-EndeVerbindung
Transitsystem
3 Vermittlung
Vermittlung
Network Layer
Sicherung
Data Link L.
Bitübertragung
Physical Layer
2 Sicherung
netzorientierte Schichten
1 Bitübertragung
physikalische Übertragungseinrichtungen
Bild 6-7 OSI-Referenzmodell für Telekommunikationsprotokolle
sUppLex
162
6 Telekommunikationsnetze
Schicht 7 Die Anwendungsschicht stellt die kommunikationsbezogenen Funktionen der Anwendung bereit. Hierzu gehören beispielsweise die Funktionen eines Anwendungsprogramms zum gemeinsamen Erstellen eines Dokumentes eine Text-Übertragung und eine Bildtelephonie aus einem Textverarbeitungsprogramm heraus zu starten. Dafür ist beispielsweise auch die Nachfrage notwendig ob eine Bildübertragung zum Partner verfügbar ist. Schicht 6 Die Darstellungsschicht befasst sich mit der Darstellung (Syntax und Semantik) der Information soweit sie für das Verstehen der Kommunikationspartner notwendig ist. Im Beispiel der gemeinsamen Dokumentbearbeitung sorgt die Darstellungsschicht dafür, dass den Teilnehmer gleichwertige Text- und Graphikdarstellungen angeboten werden, obwohl sie Hard- und Software von unterschiedlichen Herstellern mit unterschiedlichen Graphikauflösungen benutzen. Schicht 5 Die Kommunikationssteuerschicht dient zur Koordinierung der Kommunikation. Sie legt fest, ob die Verbindung einseitig oder wechselseitig (nacheinander oder gleichzeitig) stattfinden soll. Die Kommunikationsschicht verwaltet die Wiederaufsatzpunkte (Checkpoints), die einen bestehenden Zustand solange konservieren bis der Datentransfer gültig abgeschlossen ist. Sie sorgt dafür, dass bei einer Störung der Dialog bei einem definierten Wiederaufsatzpunkt fortgesetzt werden kann. Auch Berechtigungsprüfungen (Passwörter) sind ihr zugeordnet. Beispielsweise könnte die Übertragung eines umfangreichen Textabschnittes durch Zerlegen in kleinere Abschnitte und wieder richtiges Zusammenfügen durchgeführt werden. Schicht 4 Die Transportschicht verbindet die Endsysteme unabhängig von den tatsächlichen Eigenschaften des benutzten TK-Netzes. Sie übernimmt aus der Schicht 5 die geforderten Diensteigenschaften (z. B. Datenrate, Laufzeit, zulässige Bitfehlerrate). Sie wählt gegebenenfalls das TK-Netz entsprechend den dort verfügbaren Diensten aus und fordert von dessen Vermittlungsschicht den geeigneten Dienst an. Sie ist auch für eine Ende-zu-Ende-Fehlersicherung der Übertragung zuständig, d. h. dass die Daten fehlerfrei, in der richtigen Reihenfolge, ohne Verlust oder Duplikationen zur Verfügung stehen. Im Beispiel einer gemeinsamen Dokumentbearbeitung könnte die Textübertragung und die Bildtelephonie wegen der unterschiedlichen Dienstanforderungen in verschiedene Netzverbindungen aufgeteilt werden. Schicht 3 Die Vermittlungsschicht legt anhand der Dienstanforderung und der verfügbaren logischen Kanäle die notwendigen Verbindungen zwischen den Netzzugangspunkten der Teilnehmer fest (Verkehrslenkung, Routing). Sie organisiert den Verbindungsaufbau und Verbindungsabbau zwischen den Netzzugangspunkten. Gegebenenfalls kann die Verbindung über mehrere Teilstrecken (Transitsysteme) erfolgen. Schicht 2 Die Datensicherungsschicht ist für die Integrität der empfangenen Bits auf den Teilstrecken zwischen zwei Netzknoten zuständig. Bei der Datenübertragung werden in der Regel mehrere Bits zu einem Übertragungsblock (Rahmen) zusammengefasst und es wird ein bekanntes Synchronisationswort eingefügt, um im Empfänger den Anfang und das Ende der Rahmen sicher zu detektieren. Durch gezieltes Hinzufügen von Prüfbits im Sender kann im Empfänger eine Fehlererkennung und/oder Fehlerkorrektur durchgeführt werden. Wird ein nicht korrigierbarer Übertragungsfehler erkannt, so wird in der Regel die Wiederholung des Rahmens angefordert (Automatic Repeat Request).
sUppLex
163
6.4 OSI-Referenzmodell
Schicht 1 Die Bitübertragungsschicht stellt alle logischen Funktionen für die Steuerung der physikalischen Übertragung der Bits zur Verfügung. Sie passt den zu übertragenden Bitstrom an das physikalische Übertragungsmedium an und erzeugt aus den ankommenden Signalen einen Bitstrom. Die Schichten der Endsysteme A und B sind in Bild 6-7 über logische Kanäle miteinander verbunden. Sie ermöglichen den Nachrichtenaustausch zwischen den Instanzen, den aktiven Elementen, der jeweiligen Schichten nach im Protokoll vorab festgelegten Regeln. In Bild 6-8 wird die logische Abfolge der elementaren Nachrichten, Dienstelemente (Service Primitives) genannt, zwischen den Partner-Instanzen (Peer Entities) der Protokollschichten dargestellt, wobei ein Dienst mit Bestätigung (Confirmed Service) angenommen wird. Im System A ruft die Instanz der Schicht N mit dem Dienstelement Request eine Instanz der nachfolgenden Schicht N-1 auf und übergibt die notwendigen Parameter. Die Instanz der Schicht N-1 stellt ein passendes Protokolldatenelement (Protocol Data Unit, PDU) für die Übertragung zu einer Partner-Instanz des Systems B zusammen. In den eventuell weiteren darunter liegenden Schichten wird ganz entsprechend verfahren. Logisch gesehen kommunizieren die Partnerinstanzen der Schicht N direkt miteinander, weshalb von einem Peer-to-peer-Protokoll gesprochen wird. Deshalb werden die tiefer liegenden Schichten in Bild 6-8 nicht dargestellt. Die Partner-Instanz des B-Systems übergibt die Daten im Dienstelement Indication an die adressierte Instanz der Schicht N im System B. Da ein Dienst mit Bestätigung aktiviert wurde, sendet die Instanz mit dem Dienstelement Response eine Nachricht über eine PDU der Schicht N-1 zurück. Diese wird schließlich als Dienstelement Confirm der den Dienst auslösenden Instanz übergeben.
Layer N
System A
System B
Source Entity
Destination Entity
c Request Layer
h Confirm
Serving Entity
e Indication
f Response
Serving Entity
N-1 d (N-1)-PDU
g (N-1)-PDU Peer-to-peer Protocol (Layer N-1)
Bild 6-8
Abfolge der Dienstelemente zur Kommunikation zwischen den Partnerinstanzen einer Protokollschicht
Eine für den Nachrichtenaustausch gängige Methode ist in Bild 6-9 dargestellt. Die Darstellungsschicht des sendenden Systems packt die zu übertragende Nachricht als Daten in die PDU. Sie stellt die der Darstellungsschicht im empfangendem System zugedachte Nachricht als Kopf (Header, H) voran und reicht das Paket an die Kommunikationssteuerungsschicht weiter. Die Schichten 5 bis 2 verfahren im Prinzip ebenso. Die Sicherungsschicht stellt die Daten in einer für die Bitübertragung geeigneten Form zusammen.
sUppLex
6 Telekommunikationsnetze
164
Ein häufig verwendetes Übertragungsprotokoll der Schicht 2 ist das HDLC-Protokoll (Highlevel Data Link Control). In diesem Fall werden die Rahmen wie in Bild 6-9 zusammengestellt. Anfang und Ende eines Rahmens werden jeweils mit 8 Flagbits (F) „01111110“ angezeigt. Es schließen sich ein Oktett (Byte) für die Adresse (A) und ein oder zwei Oktette für die Steuerung (Control, C) des Rahmenflusses an. Hinter dem Datenfeld werden 16 Paritätsbits als Rahmenprüfsumme (Frame Check Sequence, FCS) angehängt, die eine Fehlerüberwachung durch Fehlererkennung im Empfangssystem erlauben. Das empfangende System nimmt die Bits in der untersten Schicht entgegen und rekonstruiert die Rahmen. Die jeweiligen PDUs werden von unten zur obersten Schicht hin aufgeschnürt. Jede Schicht entnimmt den für sie bestimmten Anteil, den Kopf, und reicht den Rest nach oben weiter.
Daten
Anwendung
DH PDU
Darstellung
PDU
KH TH VH F A C
PDU PDU PDU Bits
FCS F
Empfangsrichtung
Senderichtung
Es ist offensichtlich, dass durch das Protokoll ein zusätzlicher Übertragungsaufwand entsteht, der sich bei manchen Anwendungen als Übertragungsverzögerung störend bemerkbar machen kann. Andererseits wird es durch die Kommunikationssteuerung möglich, nicht nur die Nachrichtenübertragung zwischen den Teilnehmern zu organisieren, z. B. das Nummerieren der Pakete damit sie in der richtigen Reihenfolge zugestellt werden können, sondern auch den Netzbetrieb zu optimieren. Pakete und Rahmen können als reine Steuernachrichten markiert werden. Betriebsinformationen, wie die Komponentenauslastung oder eine Fehlermeldung, lassen sich so in den normalen Nachrichtenverkehr einschleusen. Moderne digitale TK-Netze werden zentral in einer OAM-Einrichtung (Operation Administration and Maintenance) überwacht und ihr Betrieb nach aktuellem Verkehrsbedarf optimiert.
Kommunikationssteuerung Transport Vermittlung Sicherung Bitübertragung
Bild 6-9 Nachrichtenaustausch zwischen den Protokollschichten des Sende- und Empfangssystems
6.5
HDLC- und LAP-Protokoll
Anfang der 1970er Jahre wurde von der Firma International Business Machines (IBM) das bitorientierte Protokoll Synchronous Data Link Control (SDLC) entwickelt. Es entspricht der Sicherungsschicht, der Schicht 2 im OSI-Referenzmodell. Daran angelehnt hat 1976 die OSI das Protokoll High-Level Data Link Control (HDLC) als ISO-Norm verabschiedet. Im gleichen Jahr wurde von der CCITT, heute ITU, das Protokoll unter dem Namen Link Access Protocol (LAP) für die Schicht 2 des weit verbreiteten X.25-Protokolls für Paketdatennetze adaptiert. Eine Erweiterung zu einem symmetrischen Duplex-Protokoll, bei dem beide Seiten gleichberechtigt Steuerfunktionen wahrnehmen, wurde 1980 von der CCITT als Link Access Protocol in Balanced Mode (LAPB) festgelegt.
sUppLex
165
6.5 HDLC- und LAP-Protokoll
Modifikationen des HDLC-Protokolls finden sich heute beispielsweise im ISDN-Teilnehmeranschluss als LAPD-Protokoll (Link Access Procedure on D-Channel) oder in GSM als RLPProtokoll (Radio Link Protokoll). Weitere Beispiele finden sich auf der Infrarot-Schnittstelle der Infrared Data Association (IrDA) oder im Bluetooth-Standard für Kleinzellen-Funknetze (Personal Area Network, PAN). Das HDLC-Protokoll hat beispielgebenden Charakter. Es löst die elementaren Aufgaben einer Schicht-2-Verbindung in effizienter Weise. Je nach Ausprägung, z. B. durch Auswahl einer Untermenge der möglichen Steuerbefehle und Meldungen, können unterschiedliche Anwendungen realisiert werden. Die Steuerung und Nutzdatenübertragung wird bitorientiert mit Rahmen durchgeführt. Bild 6-10 zeigt den Aufbau. Jeder Rahmen beginnt mit einem Kopffeld aus einem Oktett (Byte), dem Header, und endet mit einem Nachspann aus einem Oktett, dem Trailer. Der Header fungiert als Rahmenerkennungswort und besitzt deshalb ein eindeutiges Bitmuster, das Flag genannt wird. Das Flag wird ebenfalls im Trailer übertragen und schließt so jeden Rahmen ab. Es darf deshalb nicht anderswo im Rahmen vorkommen. Durch systematisches Einfügen von Nullen, dem Zero Insertion, wird die Bittransparenz gewährleistet. Anmerkung: Bittransparenz bedeutet, dass jede beliebige Kombination von Bits als Information zugelassen ist. Sollen sechs oder mehr aufeinander folgende Einsen übertragen werden, so wird jeweils nach fünf Einsen eine Null eingefügt, Zero Insertion oder allgemeiner Bit Stuffing genannt. Im Empfänger werden die eingefügten Nullen erkannt und entfernt.
Header
Address
Control
Information
FCS
Trailer
1 Octet 01111110
1 Octet
1 or 2 Octets
t0
2 Octets
1 Octet 01111110
Bild 6-10 Rahmenaufbau des HDLC-Protokolls
Als zweites Oktett wird das Adressfeld mit der Zieladresse übermittelt. Daran schließen sich ein oder zwei Oktette mit Steuerinformation, das Steuerfeld, an. Anmerkung: Durch die Verwendung von Adressen wird die Kommunikation zwischen mehreren Stationen, wie die Punkt-zu-Mehrpunkt-Verbindung im Normal-Response Mode (NRM), möglich.
Das optionale Informationsfeld, auch Datenfeld (Data oder Information Field) oder Nutzlast (Payload) genannt, besitzt eine variable Länge mit bis zu 128 Oktetten. Die Bitfehlererkennung im Adressfeld, Steuerfeld und Datenfeld wird durch die Prüfzeichen im Feld Frame Check Sequence (FCS) unterstützt. Üblicherweise wird der zyklische Code CRC-16 (CCITT), Cyclic Redundancy Check Code, eingesetzt [Wer05a]. Man unterscheidet zwischen Rahmen mit Daten, Information Frames genannt, Rahmen mit Meldungen zur Flusskontrolle, so genannte Supervisory Frames, und nicht nummerierten Rahmen mit Steuersignalen, den Unnumbered Frames. Man spricht kurz vom I-, S- bzw. U-Format. Anmerkung: Die Flusskontrolle regelt den zeitlichen Ablauf der Übertragung der Rahmen, wie Reihenfolge und Wiederholungen. Durch die Flusskontrolle und die spezialisierten Formate wird eine effektive Kommunikation im Sinne einer schnellen, möglichst fehlerfreien Übertragung der Nutzinformation unterstützt.
Die unterschiedlichen Formate sind an den Steuerfeldern wie in Bild 6-11 zu erkennen. Bit 1 unterscheidet zwischen dem I-Format und den Steuernachrichten. Mit dem Bit 2 werden das Sund das U-Format auseinander gehalten.
sUppLex
6 Telekommunikationsnetze
166
Bit
1
Information (I)
0
Supervisory (S)
1
Unnumbered (U)
1
2
3
4
5
6
7
N(S)
P/F
N(R)
0
S
P/F
N(R)
1
M
P/F
M
8
Bild 6-11 Control Field der Steuermeldungen im HDLC-Rahmen
Im I-Format wird in Bit 2 bis 4 die Sendenummer N(S) übertragen, so dass ein korrekter Empfang von der Gegenstation mit der Empfangsnummer N(R) = N(S)+1 im I-Format und SFormat quittiert werden kann. Anmerkungen: Mit drei Bits für die Sende- bzw. Empfangsnummer werden zur Flusskontrolle 23 = 8 aufeinander folgende Rahmen durchnummeriert. Es wird modulo-8 durchgezählt, so dass nach der Nummer sieben mit null wieder von vorne begonnen wird. In der Extended Version des Protokolls, der Version mit einem Steuerfeld aus zwei Oktetten, werden die Sende- und Empfangsnummern auf jeweils 7 Bits erweitert. Damit lassen sich 128 Rahmen fortlaufend nummerieren. Die Nummerierung der Rahmen erlaubt eine effizientere Übertragen als beim einfachen Stop-and-WaitARQ-Verfahren (Automatik Repeat Request, ARQ) möglich ist. Bei letzterem wird ein neuer Rahmen erst übertragen, wenn sein Vorgänger quittiert wurde. Dadurch entstehen u. U. lange Wartezeiten, die den Datendurchsatz stark reduzieren. Mit den nummerierten Rahmen des HDLC-Protokolls ist der Einsatz des Go-back-n-ARQ-Verfahren mit Slective Repeat möglich. Dabei werden auch ohne Quittierung zunächst weitere Rahmen übertragen, so dass etwas verspätete Quittierungen die Übertragung nicht unterbrechen. Darüber hinaus werden mit einer Quittierung auch vorherige Rahmen mit quittiert [Wer05a].
Das Bit 5 im Control Field dient in Befehlen als Poll-Bit. P gleich „1“ fordert die Gegenstation zum sofortigen Senden einer Meldung auf. Die Gegenstation antwortet in ihrer Meldung mit Bit 5 als Final-Bit mit F gleich „1“. Die mit S und M gekennzeichneten Bitpositionen in den S- bzw. U-Formaten kennzeichnen unterschiedliche Steuernachrichten. In Tabelle 6-3 wird die Codierung für einige wichtige Steuernachrichten vorgestellt.
Tabelle 6-3 Beispiele der Codierung von Befehlen (B) und Meldungen (M) der I-, S- und U-Formate im Steuerfeld des HDLC-Rahmens Format
Nachricht
Funktion
I S S S S U U U U U U
I RR RNR REJ SREJ SABM SABME DISC UA DM FRMR
B/M B/M B/M B B B B M M M
1 0 1 1 1 1 1 1 1 1 1 1
2 0 0 0 0 1 1 1 1 1 1
3 N(S) 0 1 0 1 1 1 0 0 1 1
Bitmuster 4 5 P/F 0 P/F 0 P/F 1 P/F 1 P/F 1 P 1 P 0 P 0 F 1 F 0 F
6
1 1 0 1 0 0
7 N(R) N(R) N(R) N(R) N(R) 0 1 1 1 0 0
8
0 0 0 0 0 1
sUppLex
167
6.5 HDLC- und LAP-Protokoll
Die Steuernachrichten im S-Format dienen der Steuerung und Überwachung der Datenübertragung. Mit den zwei Bits 3 und 4 können vier Nachrichten dargestellt werden. Die Nachricht Receive Ready (RR) zeigt die Empfangsbereitschaft für einen weiteren bzw. weitere Rahmen an. Mit Receive Not Ready (RNR) wird der Gegenstation signalisiert, dass keine weiteren Daten empfangen werden können. Reject (REJ) weist auf einen fehlerhaft erkannten Rahmen hin. In Verbindung mit einer Quittierung jedes Rahmens, bedeutet REJ, dass der Rahmen mit der Empfangsnummer N(R) als fehlerhaft erkannt wurde. Werden mehrere Rahmen quittiert, so müssen alle Rahmen mit N(S) t N(R) wiederholt werden. Mit Selective Reject (SREJ) wird der Empfang eines bestimmten Rahmens als fehlerhaft zurückgemeldet und eine erneute Übertragung angefordert. Steuernachrichten im U-Format signalisieren keine Empfangsnummern. Sie dienen zum Aufbau und Abbau der Verbindung und der Übertragung von Mitteilungen innerhalb der Sicherungsschicht zwischen den Stationen. Die Befehle Set Asynchronous Balanced Mode (SABM) und SABM Extended (SABME) initialisieren die Schicht-2-Verbindung. Im ersten Fall wird die Rahmennummerierung modulo-8 und im zweiten, der Extended Version, modulo-128 vorgenommen. Mit Disconnect (DISC) wird der Verbindungsabbau ausgelöst. Die Meldung Unnumbered Acknowledgement (UA) bestätigt den Empfang eines Rahmens ohne Folgennummer. Die Meldung Disconnect Mode (DM) zeigt an, dass Befehle der Schicht-2-Verbindung nicht ausgeführt werden können. Mit Frame Reject (FRMR) wird ein Fehlerzustand angezeigt, der nicht durch Rahmenwiederholung beseitigt werden kann. Im Datenfeld wird eine Fehlerbeschreibung mitgeliefert. Abschließend sei daran erinnert, dass in den Anwendungen nicht alle Steuerbefehle und Meldungen realisiert sein müssen. Die Anwendung des HDLC-Protokolls in typischen Verbindungssituationen wird in Bild 6-12 skizziert. A
B SABM
A
B I(0,0)
Timeout
I(0,1)
A
B I(3,0)
I(1,1)
RNR(4)
SABM
I(2,1)
RR(0,P)
UA
I(1,3)
RNR(4,F)
I(3,2)
RR(0,P)
I(2,4)
RR(4,F)
DISC
I(3,4)
I(4,0)
UA
RR(4)
Verbindungsaufbau und Verbindungsabbau
Datenaustausch I(N(S),N(R))
Überlastsituation I(N(S),N(R))
Bild 6-12 Kommunikationsabläufe mit HDLC-Protokoll [Sta00]
sUppLex
6 Telekommunikationsnetze
168
Das linke Bild zeigt den Verbindungsaufbau und -abbau in der zeitlichen Reihenfolge von oben nach unten. Dabei wird auch eine Zeitüberwachung verwendet. Da die Bestätigung des Befehls SABM durch die Meldung UA nicht innerhalb der vorgesehenen Zeit eintrifft, wird der Befehl wiederholt. Anmerkung: Der Verbindung liegt ein Zustandsmodell mit Zeitüberwachung und Fehlerbehandlung zugrunde, dessen Darstellung den hier abgesteckten Rahmen sprengen würde.
In der Bildmitte wird ein typischer Datenaustausch dargestellt. Rechts ist die Situation einer Überlastung der Station A zu sehen. Nach dem Empfang von Daten (I-Format) mit Sendenummer N(S) = 3 ist beispielsweise der Empfangspuffer für Daten voll. Die Station A kann keine neuen Daten (I-Format) aufnehmen. Sie signalisiert dies mit der Meldung RNR, wobei sie gleichzeitig den Empfang des letzten Rahmens quittiert. Die Station B stellt die Übertragung von Daten (I-Format) ein. Sie signalisiert in gewissen Zeitabständen der Station A, dass sie empfangsbereit ist und fordert dabei die Station mit dem Poll-Bit, P = 1, auf sich zu melden. Die Station A antwortet solange sie nicht Empfangsbereit für Daten ist mit der Meldung RNR, wobei sie mit dem Final-Bit, F = 1, den Polling-Aufruf quittiert. Schließlich ist die Station A wieder empfangsbereit und die Datenübertragung wird fortgesetzt. Zwei typische Fehlerbehandlungen sind in Bild 6-13 dargestellt. Links wird die Reihenfolge der Rahmen verletzt. B erkennt den Fehler und sendet die Meldung REJ, wobei der Rahmen 3 quittiert wird. Die Sation A wiederholt die Übertragung beginnend mit Rahmen 4. Rechts in Bild 6-13 wird eine ähnliche Situation vorgestellt. Allerdings wird nun der Fehler durch Ablaufen eines Timers erkannt; B quittiert nicht rechtzeitig den Empfang. Station A signalisiert Empfangsbereitschaft verbunden mit einen Polling-Aufruf. Die Station B antwortet mit der Meldung „Empfangsbereitschaft“ und quittiert den Polling-Aufruf sowie den letzten „richtig“ empfangenen Rahmen mit Daten.
A
B
A
I(3,0)
RR(4) Timeout
I(4,0) I(5,0)
B I(3,0)
I(4,0)
REJ(4)
RR(0,P)
I(4,0)
RR(4,F)
I(5,0) I(6,0)
Fehlerbehandlung (Reject Recovery)
I(4,0) RR(5)
Fehlerbehandlung (Timeout Recovery)
Bild 6-13 Kommunikationsabläufe mit Fehlerbehandlung im HDLC-Protokoll [Sta00]
sUppLex
169
6.6 ATM und Breitband-ISDN
6.6
ATM und Breitband-ISDN
Vom ITU ATM-Forum wurde 1988 ein weltweites, diensteintegrierendes und breitbandiges digitales Telekommunikationsnetz, das Breitband-ISDN, mit ATM-Übertragungstechnik vorgeschlagen. ATM steht für Asynchronous Transfer Mode und bedeutet einen Strom von Paketen, wobei die Synchronisation Paket-für-Paket erfolgt. Die Nachrichten, wie digitalisierte Sprache, Facsimile-Daten, Videodaten, usw., werden in kurze Abschnitte zerlegt und in Paketen übertragen, s. Bild 6-14. Motivation für die Ausgestaltung des Paketformats war die Herausforderung sehr unterschiedliche Dienste, wie die zeitkritische Sprachtelefonie, mit jeweils relativ geringem Datenvolumen, und der zeitunkritische Filetransfer, mit relativ großem Datenvolumen, in einer gemeinsamen TK-Infrastruktur effizient zu bedienen.
SpracheAudio Fax Daten Video
Zur Lösung wurden zwei Prinzipien herangezogen: x Atomisierung: Da kein einheitliches Paketformat für alle Dienste optimal sein kann, werden die Datenströme in sehr kurze Abschnitte zerlegt und so die notwendige Flexibilität auch für zukünftige Anforderungen geschaffen. x Verkehrsvertrag: Um den Anforderungen der unterschiedlichen Dienste gerecht zu werden und insbesondere auch von deren Mix im Multiplex profitieren zu können, werden an den Netzzugangspunkten die Dienstparameter ausgehandelt und eine verbindungsorientierte Paketübertragung mit Verbindungsauf- und -abbau durchgeführt.
B-ISDN
Bild 6-14 Einheitliches Übertragungsformat für das BreitbandISDN
Die Pakete tragen - wie Postpakete - eine vollständige Zieladresse, so dass jedes einzelne für sich zugestellt werden kann. Derartige Pakete werden in der Übertragungstechnik als Datagramme bezeichnet. Im Zusammenhang mit ATM spricht man von ATM-Zellen. Bild 6-15 zeigt das Format einer ATM-Zelle. Am Anfang stehen 5 Oktette im Zellenkopf (Header) mit der für die Zellenlenkung notwendigen Information. Danach folgen 48 Oktette mit der eigentlich zu übertragenden Information (Information Field, Payload). Ein Blick auf die Struktur des Header lässt die Vorteile der ATM-Technik erahnen. Zunächst steht mit 28 Bits zur Adressierung prinzipiell die enorme Zahl von über 268 Millionen Adressen innerhalb des Netzwerks zur Verfügung. Anders als beispielsweise beim Internet-Protokoll unterstützt das Adressfeld die Kanalbündelung durch die Oktette VPI (Virtual Path Identifier) und VCI (Virtual Channel Identifier). ATM-Zellenströme lassen sich somit logisch zusammenfassen, so dass in ATM-Netzen eine Netzebene mit VP-Vermittlungsknoten aufgebaut werden kann, die nur auf der Basis des VPI eine vereinfachte Vermittlung wie in Bild 6-6 vornehmen kann. Durch die drei Bits des PT-Feldes (Payload Type) wird der Nachrichtentyp angegeben. Es kann zwischen Sprachkommunikation, Datenkommunikation oder internen Nachrichten zur Netzsteuerung unterschieden werden. Von den 23 = 8 Möglichkeiten ist die Bitkombination „111“ für etwaige spätere Spezifikationen reserviert. Das Bit „CLP“ (Cell Loss Priority) erlaubt die Deklarierung der Nachrichtenpriorität und damit eine dynamische Anpassung des Datenver-
sUppLex
6 Telekommunikationsnetze
170
kehrs an die Netzbelastung. Eine denkbare Anwendung ist, Pakete mit geringer Nachrichtenpriorität bei Netzüberlastung zu verwerfen, aber ansonsten zu günstigen Sondertarifen zu befördern.
Anmerkung: Da die für die Ende-zu-Ende-Verbindung zuständige Transportschicht üblicherweise eine Fehlerkontrolle durchführt und Bitfehler bei der Übertragung zwischen den Netzknoten sehr selten sind, wird mit dem Verzicht auf eine Fehlerprüfung in den Netzknoten der Aufwand reduziert.
Die Übertragung mit ATM-Zellen bietet grundsätzlich die Möglichkeit im so genannten ATM-Cross-Connect einzelne Zellen nach Bedarf in den Bitstrom einzufädeln, zu entnehmen bzw. umzuleiten. Damit wird es prinzipiell möglich, die „Infobahn mit Auf- und Abfahrten für Jedermann“ zu realisieren. Darüber hinaus lassen sich flexible Netze mit zentralen Überwachungs- und Steuerungseinrichtungen realisieren.
1 2 3 4 5 CLP GFC HEC PT VCI VPI
GFC
VPI
VPI
VCI
Address
Man beachte auch, dass in der ATM-Zelle auf einen zusätzlichen Schutz der Information gegen Bitfehler verzichtet wird.
Octets
Schließlich enthält das HEC-Oktett (Header Error Control) die Prüfsumme eines zyklischen Blockcodes (Cyclic Redundancy Check, CRC), so dass Fehler im Kopffeld erkannt werden können, s. Abschnitt 7. Darüber hinaus erlaubt das HEC-Oktett auch das Erkennen eines 1 Octet 5 6 53 ATM-Header im Bitstrom, da Bitfehler übliInformation Field Header cherweise sehr selten auftreten, und der CRCCode fast alle Fehlermuster erkennt. 1 4 5 8 Bits
VCI PT
VCI
CLP
HEC Cell Loss Priority Generic Flow Control Header Error Control Payload Type Virtual Channel Identifier Virtual Path Identifier
Bild 6-15 Aufbau einer ATM-Zelle
Der Aufbau eines Breitband-ISDN mit ATM-Technik stellt auch heute noch eine große technische Herausforderung dar. Anders als bei der leitungsorientierten Übertragung, bei der beim Verbindungsaufbau ein Übertragungsweg fest zugeschaltet wird, muss bei der ATM-Übertragung in der Vermittlungsstelle der Kopf jeder ankommenden Zelle gelesen und ausgewertet werden. Der damit verbundene Aufwand ist enorm. Im Beispiel einer STM-4-Verbindung mit der Bitrate von 622,08 Mbit/s sind pro Sekunde ca. 1,467 Mio. Zellen zu verarbeiten. In den 1990er Jahre wurden ATM-Feldversuche im internationalen Maßstab erfolgreich durchgeführt. Seit 1997 ist ATM bei der deutschen Telekom im Regelbetrieb. Heute werden zunehmend ATM-Verbindungen verfügbar. Insbesondere so genannte Backbone-Netze verbinden die Verkehrszentren mit flexibler und leistungsfähiger Hochgeschwindigkeits-ATM-Technik auf Glasfaserstrecken. Eine spezielle AAL-Protokollanpassung (ATM Adaption Layer) sorgt in verschiedenen Varianten für die Zusammenarbeit mit bestehenden Diensten, wie auch dem TCP/IP-Protokoll des Internets. Wegen seiner guten Skalierbarkeit ist ATM auch für den Bereich der lokalen Netze als Transportmittel interessant. Heute kann festgestellt werden: ATM hat sich als solches nicht durchgesetzt, die grundsätzlichen Lösungen, der Verkehrsvertrag mit Dienstegütevereinbarungen und die verbindungsorientierte Paketvermittlung, werden übernommen, angepasst oder weiterentwickelt, s. All-IPNetze.
sUppLex
171
6.7 Lokale Netze
6.7
Lokale Netze
In den letzten Jahren hat die Verbreitung von lokalen Netzen (Local Area Network, LAN) und Internet-Zugängen stark zugenommen. Dazu beigetragen hat die Verfügbarkeit preiswerter Netztechnologien und die Etablierung des TCP/IP-Protokolls (Transmission Control Protocol/ Internet Protocol). Unter einem LAN versteht man ein örtlich begrenztes Netz mit hoher Übertragungsrate zwischen den Arbeitsstationen (Client) und zentralen Diensterbringern (Server), s. Bild 6-16. Dabei können die Rollen für verschiedene Dienste (Email-Server, Datenbank-Server, Programm-Server, usw.) unter den Stationen getauscht werden.
Local Area Network
Die Kommunikation innerhalb eines LAN erfolgt mit Hilfe von Rahmen ohne Aufund Abbau der Verbindung, also verbindungslos. Somit sind nur die beiden untersten Schichten des OSI-Referenzmodells betroffen: die Bitübertragungs- und die Datensicherungsschicht.
Bild 6-16 Lokales Rechnernetz (LAN)
Je nach LAN können verschiedene Übertragungsverfahren und -medien sowie Protokolle zum Einsatz kommen. Die physikalischen Übertragungsmedien wie ungeschirmte, verdrillte Zweidrahtleitungen (Unshielded Twisted Pair), Koaxialkabel (Baseband Coaxial Cable) oder Lichtwellenleiter (Optical Fiber) sowie die physikalische bzw. logische LAN-Architektur als Bus-, Ring-, Baum- oder Stern-Struktur haben einen großen Einfluss auf die Leistungsfähigkeit des LAN. Deshalb werden jeweils maßgeschneiderte Verfahren und Protokolle verwendet. Von besonderer Bedeutung ist dabei die Art des Zugriffs der Stationen auf das physikalisch gemeinsam benutzte Übertragungsmedium. In Anlehnung an das OSI-Referenzmodell hat das IEEE (Institute of Electrical and Electronic Engineers) das IEEE-802-Referenzmodell in Bild 6-17 entwickelt. Es ermöglicht die Integration der verschiedenen LAN-Technologien in den Anwendungen. Da im LAN keine Vermittlungsfunktion anfällt, korrespondiert das Modell mit den beiden untersten Schichten des OSIReferenzmodells: Physical Layer und Data Link Layer. Weil der Zugriff auf ein geteiltes Übertragungsmedium nicht im üblichen Data Link Layer geregelt wird, werden die für den Zugriff auf das Übertragungsmedium logischen Funktionen in einer eigenen Zwischenschicht, Medium Access Control (MAC) genannt, zusammengefasst. Upper Layer Data Link Layer
802.2 Logical Link Control (LLC) MAC
Physical Layer
802.3
802.4
802.5
CSMA/CD Token Bus Token Ring
802.6
802.11
802.15
802.16
DQDB
WLAN
WPAN
WMAN
Bild 6-17 IEEE-802-Referenzmodell für LAN Protokolle mit Medium Access Control (MAC) (vereinfacht)
sUppLex
6 Telekommunikationsnetze
172
Im Folgenden werden kurz die Ideen skizziert, die hinter den unterschiedlichen MAC-Formen stehen. x Der Name CSMA/CD (Carrier Sense Multiple Access/Collision Detection) bezieht sich auf das quasi wahlfreie Zugriffsverfahren durch die Stationen (IEEE 1985). Beim gleichzeitigen Zugriff mehrerer Stationen auf den gemeinsamen Bus kollidieren die gesendeten Rahmen der unterschiedlichen Stationen. Die Rahmen sind verloren und müssen neu übertragen werden. Um dies zu vermeiden, beobachten die Stationen den Bus, und senden erst dann, wenn der Bus nicht belegt ist (CSMA). Bei zwei oder mehr wartenden Stationen sind Kollisionen nicht ausgeschlossen. Kollisionen werden jedoch entdeckt (CD) und planmäßig aufgelöst. Realisierungen sind gemeinhin als Ethernet bekannt. Je nach Bitrate spricht man von Ethernet, Fast Ethernet (802.3u, 1995) und Gigabit Ethernet (802.3z, 1998) für 10 Mbit/s, 100 Mbit/s bzw. 1 Gbit/s. Die IEEE-802.3-Empfehlung verwendet die Bezeichnungen 10BASE, 100BASE und 1000BASE. Je nach Übertragungsmedium werden Erläuterungen angehängt, wie 10BASE-T für die Verwendung von ungeschirmten, verdrillten Zweidrahtleitungen (Unshielded Twisted Pair). In Bild 6-18 ist das zugehörige Rahmenformat zu sehen. Die alternierende Folge von Nullen und Einsen der Preamble unterstützt die Synchronisation der Empfangsstation. Der Start Frame Delimiter zeigt den Beginn der Zielinformation (Destination Address, DA) an. Der Absender steht in der Source Address (SA). Mit den folgenden beiden Oktetten wird die Zahl der Oktette der Information, der LLC-Daten, angegeben. Damit ist eine bedarfsabhängige Rahmenlänge möglich. Um die vorgeschrieben Mindestlänge einzuhalten, können „Füll-Oktette“ angehängt (Padding) werden. Den Schluss bilden die 32 Prüfbits des CRC-Codes. Sein Schutz erstreckt sich über alle Felder ausgenommen die Preamble. Octets
7
1
Preamble SFD
6
6
2
46 to 1500
t0
4
DA
SA
L
LLC data
Pad
FCS
Start Frame Delimiter “10101011”
Length of LLC data field in octets
Bild 6-18 Rahmenaufbau nach IEEE 802.3
x Token Bus und Token Ring sind Zugriffsverfahren die mit Zuteilung der Sendeberechtigung arbeiten (IEEE 1985). Bei den Token-Verfahren sind die Stationen in einem logische (Token Bus) oder physikalischen Ring (Token Ring) angeordnet. Im Ring wird eine Sendeberechtigung, das Token, zwischen den Stationen herumgereicht. Ein Reservierungssystem mit Prioritätssteuerung sorgt für eine faire, bedarfsgerechte Zuteilung der Sendeberechtigung an die Stationen. Eine Station übernimmt als Monitor die Überwachung der Token. x DQDB steht für Distributed Queue Dual Bus, der aus zwei Glasfaserringen (DB) besteht und einen Duplexbetrieb unterstützt (IEEE 1991). Das Zugriffsverfahren fußt auf der Akquisition von Zeitschlitzen mit Hilfe eines verteilten Anmelde- und Wartesystems (DQ) und ist besonders für hohe Bitraten geeignet, wie sie in MAN (Metropolitan Area Network) benötigt werden. x FDDI, für Fiber Distributed Data Interface, ist ein speziell auf die Übertragung mit Lichtwellenleitern zugeschnittenes Token-Ring-Verfahren, das dem IEEE-802.5-Verfahren sehr ähnlich ist. x WLAN steht für drahtlose (Wireless) LAN auf Funkbasis bzw. seltener mit Infrarotübertragung. Neben verschiedenen, teilweise noch in der Entwicklung befindlichen Varianten
sUppLex
173
6.8 Protokollfamilie TCP/IP
IEEE 802.11x spielen in Europa auch die ETSI Empfehlungen HIPERLAN (High Performance LAN) eine Rolle. WPAN (Wireless Personal Area Network) und WMAN (Wireless Metropolitan Area Network) sind ebenso wie WLAN funkbasierte Systeme, s Abschnitt 8.
6.8
Protokollfamilie TCP/IP
In den meisten LAN stehen Internet-Dienste zur Verfügung. Bekannte Beispiele sind die Übertragung von Dateien und Programmen (File Transfer Protocol, FTP), die elektronische Post (Simple Mail Transfer Protocol, SMTP), der Informationsaustausch zwischen Hypertext-Informationssystemen, wie das World Wide Web, (Hypertext Transfer Protocol, HTTP) und der Dialog zwischen Stationen via virtuellem Terminal (TELNET). Die Realisierung dieser Anwendungen im LAN erfordert zusätzliche Funktionalitäten, die im OSI-Referenzmodell in den Schichten Network Layer, Transport Layer und Session Layer anzusiedeln sind. Heute hat sich hierfür die TCP/IP-Protokollfamilie (TCP/IP Protocol Suite) durchgesetzt. Bild 6-19 zeigt eine Übersicht [JuWa98][Sta00]. Den Schichten des OSI-Referenzmodells 3 bis 7 entsprechen die drei Schichten der Protokollfamilie TCP/IP. Protokollfamilie TCP/IP
OSI
WWW
DNS
FTP
TELNET
HTTP
6
MIME SMTP
7
Others
4
5 4 3 2
ARP DNS FTP HTTP ICMP IP IPSec MIME
TCP IP Ethernet
UDP
NVP
ICMP ARP HDLC
ATM
Token Ring
Address Resolution Protocol Domain Name Service File Transfer Protocol HyperText Transfer Protocol Internet Control Message Protocol Internet Protocol IP Security Multi-Purpose Internet Mail Extension
FDDI NVC RARP SIP SMTP TCP TELNET UDP WWW
DQDB
RARP
3 2
Others
Network Voice Protocol Reverse ARP Session Initiation Protocol Simple Mail Transfer Protocol Transmission Control Protocol Telecommunications Network P. User Datagram Protocol World Wide Web
Bild 6-19 Beispiele aus der Protokollfamilie TCP/IP
Die Struktur der TCP/IP-Protokollfamilie erschließt sich aus der Entstehungsgeschichte des Internet. Am Anfang, Ende der 1960er Jahren, stand der simple Austausch von Datagrammen zwischen Arbeitsstationen, die über Modem und öffentliche Telefonleitungen Verbindung aufnehmen konnten. Die Protokollfamilie um TCP/IP ist schrittweise entstanden. Neue technische Möglichkeiten, Probleme und Anwendungen haben zu Lösungen geführt, die unter eigenem Namen als Protokolle in die Familie aufgenommen wurden. Beispiele sind WWW als Anwendung und IPSec als Ergänzung zur Verschlüsselung auf der Netzschicht.
sUppLex
6 Telekommunikationsnetze
174
TCP (Transport Control Protocol) realisiert einen verbindungsorientierten, gesicherten Übertragungsdienst. Es übernimmt die Ende-zu-Ende-Sicherung, die Flusskontrolle und die Adressierung der Anwendung. Die Funktionalität entspricht etwa den OSI-Schichten Session Layer und Transport Layer. Die TCP-Schicht nimmt von der Anwendungsschicht Nachrichten entgegen und reicht sie in Form von Segmenten an die IP-Schicht weiter. Das Internet-Protokoll (Internet Protocol, IP) löst die Aufgaben der OSI-Schicht Network Layer. Es stellt eine verbindungslose, ungesicherte paketorientierte Übertragung zur Verfügung. Man beachte das IP-Protokoll stellt nicht sicher, dass alle Pakte in der richtigen Reihenfolge oder überhaupt zugestellt werden. Das IP-Protokoll wurde entwickelt um den Datenverkehr zwischen und über Netze unterschiedlicher Art zu ermöglichen. Weshalb im IP-Protokoll nur geringe Anforderungen an die Fähigkeiten der beteiligten Netze gestellt werden. Anmerkung: Eine ausführliche Darstellung der Protokollfamilie TCP/IP würde den Rahmen dieses Buches sprengen, weshalb hier nur ein erster Eindruck vermittelt werden soll. Für eine Vertiefung siehe z. B. [Sta00][Tan03][Wer05a].
Das TCP/IP-Protokoll bildet das Bindeglied zwischen der Anwendung und der LLC-Schicht, s. Bild 6-20. Die Übertragung der Nachrichten geschieht wie in Bild 6-9 bereits skizziert. Jede Protokollschicht fügt ihre, der jeweiligen Partnerinstanz zugedachte Nachricht in einem eigenen Kopffeld hinzu. Gegebenenfalls können Protokolldatenelemente (PDU) der höheren Schicht für die Übertragung in kleinere Elemente zerlegt und in den Empfangsstation wieder zusammengesetzt werden (Fragmentation and Reassembly). Die der physikalischen Übertragung nahe MAC-Schicht ergänzt üblicherweise einen Nachspann (Trailer), beispielsweise wie in Bild 6-18 die Prüfzeichen der FCS. MAC Header
LLC IP Header Header
TCP Header
APDU
MAC Trailer
TCP Segment IP Datagram LLC Protocol Data Unit MAC Frame Bild 6-20 Rahmenaufbau des LAN-Protokolls mit TCP/IP-Anwendung [Sta00] (AP – Application Layer, TCP – Transmission Control Protocol Layer, IP – Internet Protocol Layer, LLC – Logical Link Control Layer, MAC – Medium Access Control Layer)
Für das Verständnis des Transports der Daten im Internet sind die zwei Konzepte Port und Socket wichtig. In Bild 6-21 wird die Definition der Dienstzugangspunkte Service Access Points (SAPs) an den Schnittstellen der Netzwerk- und Transport-Schichten, NSAP bzw. TSAP, vorgestellt. Die Adressierung der Zugangspunkte übernimmt auf der Netzwerk-Schicht die IP-Adresse. Die Zugangspunkte der Transportschicht werden mit 16 Bits durchnummeriert und Ports genannt. Es lassen sich 216 = 65536 mögliche Ports einrichten. Im Internet sind manchen Portnummern gewisse Dienste fest zugeordnet. Es wird dabei zwischen den „wellknown“, d. h. verbindlichen Portnummern 0…1023, und den „registered“ Portnummern ab 1024 unterschieden. Beispielsweise steht 21 für den Dienst File Transfer (FTP), 25 für Simple Mail Transfer Protocol (SMTP) oder 80 für Hyper Text Transfer Protocol (HTTP, World Wide Web). Die Angabe einer IP-Adresse und eines Ports aktiviert einen bestimmten Dienst am Ziel-Host. Ist der Dienst/Rechner nicht abgesichert, kann er leicht missbraucht werden. So kann über Port 49, dem Login Host Protocol, eine Anmeldung als aktiver Nutzer oder gar Systemadministrator am Host erfolgen.
sUppLex
175
6.8 Protokollfamilie TCP/IP
TSAPs “Ports”
Application 3
Application 2
TPDU Transport Layer
NSAPs “IP address”
Application 1
Host 2
Application 3
Application 2
Host 1
Application 1
Unter einem Socket, engl. für Steckdose, versteht man eine Programmschnittstelle, einen Aufruf (Dienstelement) der einen neuen Kommunikationsendpunkt erzeugt. Dieser kann danach im Programm, vergleichbar dem Bildschirm, der Tastatur, der Festplatte, usw., über eine Device Number als Ein- und Ausgabemedium angesprochen werden.
Network Layer
Transport Layer NPDU
Network Layer
Bild 6-21 Dienstzugangspunkte (SAP, Service Access Point) in der Netzschicht (NSAP, Network ASP) und in der Transportschicht (TSAP, Transport SAP)
Das Internetprotokoll hat die Aufgabe die Verbindungen zwischen den höheren Schichten, wie TCP und UDP, und den unteren Schichten des LLC bereitzustellen. Dafür gibt es zwei Dienstelemente (Service Primitive). Das Sendeelement und das Empfangselement mit den Adressen von Absender und Ziel sowie Steuerinformationen. Die Übertragung geschieht in Form von Protocol Data Units (PDU), im Folgenden kurz IPv6Octets Pakete genannt. Anmerkung: Die Entwicklung der Version 6 des Internetprotokolls wurde bereits 1992 angestoßen. 1995 wurde mit „The Recommendation for the IP Next Generation Protocol“ (RCF 1752) die Grundlage für die heute aktuelle Version 6 gelegt.
IPv6 Header
40
Hop-by-Hop Options Header
variable
IP-Pakete der Version 6, s. Bild 6-22, können durch Erweiterungs-Kopffelder (Extension Header) variabler Länge sehr flexibel zusammengestellt werden. Auch für zukünftige Entwicklungen ist somit Platz geschaffen. Durch die Zusatzinformationen lassen sich Dienste und Nachrichtenverkehr bedarfsgerecht steuern. Als Kopffelder sind vorgesehen:
Routing Header
x IPv6 Header – notwendige Angaben, s. u.
variable
Fragment Header
8
Destination Options Header TCP Header
variable
Application Data
variable
x Hop-by-Hop Header – enthält Zusatzinformationen für die Netzkonten; muss von jedem vermittelnden Netzknoten (Router) im Übertragungsweg ausgewertet werden Bild 6-22 x Routing Header – enthält Liste mit den Netzknoten des Übertragungsweges, wobei erst der letzte Eintrag die Zieladresse enthält. Die Übertragung geschieht entsprechend der Liste, wobei jeweils der nächste Netzknoten als Adresse in den IPv6 Header eingetragen wird
20
Next Header Field Beispiel eines IPv6-Pakets mit Erweiterungs-Kopffeldern und TCP-Segment [Sta00]
sUppLex
6 Telekommunikationsnetze
176
x Fragment Header – liefert Informationen zur Optimierung der Paketlängen durch die Netzknoten mit Sendefunktionalität (Source Nodes) entsprechend der Übertragungsbedingungen x Authentication Header – unterstützt die Integrität und Authentifikation des Paketes (nicht im Bild) x Encapsulation Security Payload Header – unterstützt Maßnahmen zur Sicherung der Vertraulichkeit der Nachricht (nicht im Bild) x Destination Options Header – enthält Zusatzinformation für den letzten Zielknoten Die Extension Header sind optional, jedoch in der Reihenfolge der Aufzählung zu platzieren. Sie beginnen mit dem Oktett „Next Header“, das auf das nächste Kopffeld verweist, und falls erforderlich schließt sich das Oktett „Header Extension Length“ an, das die Länge des jeweiligen Kopffeldes angibt. Damit ist es in den empfangenden Netzknoten möglich, nicht relevante Kopffelder zu überspringen und schnell nach Steuerinformationen zu suchen, und so insgesamt die Belastung der Netzknoten zu reduzieren. Der Aufbau des Kopfes des IPv6-Paketes ist in zu Bild 6-23 sehen. Neben der Versionsnummer (Vers) des Protokolls, hier 6, sind 8 Bits für Angaben der Art des Verkehrs (Traffic Class) vorgesehen. Es könnten z. B. die Sprachtelefonie für eine schnellere Übertragung ausgewiesen werden. Anmerkung: Da wegen der gewünschten Zusammenarbeit mit Netzen unterschiedlicher Leistungsfähigkeiten nur geringe Anforderungen an die Netze gestellt werden, ist nicht festgelegt, dass das empfangene Paket die gleichen Traffic-Class-Bits enthält wie das ursprünglich gesendete. Hier wird auch das Qualitätsproblem der Internet-Telefonie (Voice over IP, VoIP) deutlich. Erst wenn alle verwendeten Netze durchgehend soweit ausgebaut sind, also die für die Telefonie geforderten Leistungsmerkmale (Quality of Service) unterstützen, ist Telefonieren in der gewohnten Qualität möglich.
0
4
12
Vers Traffic Class Payload Length
Bits 31 Flow Control Next Header Hop Limit
Source Address
Destination Address
0 Octets 1 2 3 4 5 6 7 8 9
Bild 6-23 Kopffeld des IPv6-Pakets [Sta00]
Die folgenden 20 Bits der Flusskontrolle (Flow Control) sollen den effektiven Transport, d. h. insbesondere die Weglenkung, der Pakete einer Anwendung im Netz unterstützten. Ihre Funktion ist vergleichbar mit den virtuellen Kanal- und Wegangeben VCI bzw. VPI der ATM-Zellen. Anmerkung: Auch hiervon kann erst nutzbringend Gebrauch gemacht werden, wenn die Netzknoten die Flow-Control-Bits tatsächlich zur Verkehrslenkung auswerten.
Für die Angabe der Zahl der dem Kopffeld folgenden Oktette des Paketes (Payload Length) sind 16 Bits vorgesehen. Das entspricht einer maximalen Länge von 65536 Oktetten. Anmerkung: Die Länge, die von allen Netzen mindestens unterstützt werden muss, beträgt 1280 Oktette.
Das Feld Next Header verweist auf den eventuell folgenden Extension Header. Schließlich gibt das Hop Limit die maximale Zahl der Netzknoten an, die das Paket jeweils weiterleiten. Jeder Knoten reduziert den Wert des Feldes um eins. Ist das Hop Limit null wird das Paket verworfen. Für die Adresse des Absenders sowie des Zieles stehen jeweils 128 Bits zur Verfügung. Ein wesentlicher Anstoß zur Einführung der Version 6 war der Wunsch die Längen der Adressen
sUppLex
6.9 Zusammenfassung
177
von 32 Bits der Version 4 auf nunmehr 128 Bits zu vergrößern. Damit stehen theoretisch etwa 6·1023 Adressen pro Quadratmeter der Erdoberfläche zur Verfügung. Wegen der beabsichtigten hierarchischen Vergabe der Adresse, z. B. nach Regionen, Dienstanbietern, usw. und Vergabe mehrerer Adressen pro Gerät besteht ein noch nicht absehbarer Bedarf. Beabsichtigt ist auch, dass durch die hierarchische Vergabe der Adressen die Verkehrslenkung der Pakete verbessert und damit die Netzbelastung insgesamt reduziert werden kann. Mit der Version 6 werden drei Arten von Adressen eingeführt: x Unicast-Adresse – adressiert einen speziellen Übergabepunkt, das IPv6-Paket wird genau zu diesem gesendet x Anycast-Adresse – adressiert eine Gruppe von Übergabepunkten, das IPv6-Paket wird an den „nächsten“ Übergabepunkt gesendet x Multicast-Adresse – adressiert eine Gruppe von Übergabepunkten, das IPv6-Paket wird an alle zugehörigen Übergabepunkten gesendet Mit der Multicast-Adresse sollen neue Internet-Anwendungen unterstützt werden, wie beispielsweise die Verteilung von Audio- und Video-Signalen ähnlich dem heutigen Rundfunk. Weitere Beispiele sind Telekonferenzen mit mehreren Teilnehmerinnen und verteiltes Rechnen, bei dem mehrere Computer an einer Aufgabe arbeiten und Zwischenergebnisse austauschen. Damit derartige Multimedia-Dienste für viele Anwender praktisch umgesetzt werden können, muss überflüssiges mehrfaches Versenden der Pakete und damit eine Überlastung der Netze vermieden werden. Hierfür ist es notwendig, dass die Netzknoten die „kürzesten“ Wege zu den Teilnehmerinnen und Teilnehmern kennen und die Pakete so spät wie möglich vervielfältigt werden. Man beachte, dass hierfür eine „Revolution“ des Internets erforderlich ist. Wurde die Internet TCP/IP-Protokollfamilie ursprünglich zum Datenaustausch zwischen unterschiedlichen Netzen konzipiert, wobei die Netzknoten zum Transport der Pakete nicht viel mehr als den nächsten Netzknoten wissen mussten, so erfordert die breite Anwendung von MulticastDiensten eine Gruppenverwaltung mit dynamischer An- und Abmeldung der Teilnehmer (Internet Group Management Protocol, IGMP) sowie eine gezielte Verkehrslenkung auf der Basis bekannter Netzstrukturen.
6.9
Zusammenfassung
Telekommunikationsnetze (TK-Netze) werden nach verschiedenen Kriterien eingeteilt: öffentliche und private Netze; lokale Netze (LAN), regionale Stadtnetze (MAN) und Weitverkehrsnetze (WAN); Festnetze und Mobilfunknetze. Hinzu kommen drahtlose lokale Netze (WLAN) und sich spontan bildende und wieder auflösende Kleinzellenfunknetze (Personal Area Networks, PAN). Eine scharfe Trennung von TK-Netzen nach diesen Kategorien wird zukünftig schwieriger, da die Netze immer mehr zusammenwachsen und Dienste unter Beteiligung verschiedener Netze und Zugriffstechnologien angeboten werden. Ein Beispiel könnte das Abrufen des persönlichen Adressenverzeichnisses auf dem LAN-Server einer Firma in Fulda durch einen Außendienstmitarbeiter in Barcelona sein. Dazu benutzt der Außendienstmitarbeiter möglicherweise seinen Personal Digital Assistant (PDA), um über den Umweg eines WLAN des gerade besuchten Kaufhauses schließlich in ein öffentliches TK-Netz zu gelangen. Auch wenn die moderne Nachrichtenübertragungstechnik die einzelnen Verbindungen prinzipiell zur Verfügung stellen kann, so sind derartige Dienste – sollen sie für die Teilnehmer attraktiv sein - heute noch eine große Herausforderung.
sUppLex
6 Telekommunikationsnetze
178
Ebenso wichtig sind die technischen Voraussetzungen in Form von effizienten Protokollen. Wertvolle Hilfe bei der Suche nach den angemessenen Protokollen leisten die in Abschnitt 6 vorgestellten Prinzipien und Beispiele. Das OSI-Referenzmodell zeigt mit der klaren Trennung von Funktionalitäten und dem hierarchischen Aufbau wie ein brauchbares Protokoll grundsätzlich auszusehen hat. Beim IEEE-802-Referenzmodell ist die MAC-Schicht besonders erwähnenswert. Sie vermittelt zwischen der LLC-Schicht, die eine einheitliche Verbindung zu den höheren Schichten herstellt und den speziellen Anforderungen der physikalischen Übertragungstechnik. Durch neue MAC-Varianten wird es möglich neue Netzzugangstechnologien wie z. B. die Funktechnik in bestehende TK-Strukturen einzubinden. Das IPv6-Paket des TCP/IP-Protokolls trägt der Forderung nach potentieller Erweiterbarkeit durch die optionalen Erweiterungs-Kopffelder Rechnung. Zukünftige Dienste mit noch nicht absehbaren Parametern und Anforderungen lassen sich somit in bestehende Netze einführen. Besonders beachtenswert ist der geplante Paradigmawechsel im Internet, den die MulticastDienste der Version 6 erfordern. Die neuen Möglichkeiten haben allerdings auch ihren Preis. Mit Zunahme der Steuerinformation werden nicht nur die zu übertragenden Daten mehr, sondern diese Informationen müssen in den Netzknoten gelesen, auf Fehler geprüft und schließlich in Aktionen umgesetzt werden. Trotz der Fortschritte in der Digitaltechnik bleibt es auch zukünftig wichtig die Netzbelastung durch die Protokolle in vernünftigen Grenzen zu halten, da mit einem weiter stark anwachsenden Datenverkehrsvolumen zu rechnen ist. Vor diesem Hintergrund ist auch das ATM-Konzept mit der kurzen Paketlänge und der Unterstützung von virtuellen Kanälen mit einfacherer Vermittlung interessant. Damit eignet sich ATM insbesondere für zeitkritische Anwendungen wie die Sprachübertragung. Um eine ATMZelle vor dem Versenden zu füllen werden 48 Oktette benötigt. Das entspricht bei PCM-Codierung einem Sprachsignalausschnitt der Dauer 6 ms. Um ein IP-Paket mit der Länge von ca. 1200 Oktetten zu füllen wird schon eine Wartezeit von 150 Millisekunden benötigt. Dieses Beispiel deutet an, welch großen Einfluss das Protokoll auf die Leistungsfähigkeit des TKNetzes bzw. des unterstützten Dienstes haben kann.
6.10
Wiederholungsfragen zu Abschnitt 6
A6.1 In der PCM-Multiplexhierarchie werden 64 kbit/s-Kanäle zur gemeinsamen Übertragung zusammengefasst. Wie nennt man das System der Grundstufe und wie wird diese Art der gemeinsamen Übertragung bezeichnet? A6.2 Im PCM-30-System werden 30 Teilnehmerkanäle mit je 64 kbit/s zu einem Datenstrom der Bitrate 3264 kbit/s = 2,048 Mbit/s zusammengefasst. Erklären Sie die höhere Datenrate. A6.3 Im PCM-30-Zeitmultiplexrahmen sind im Meldewort vier Bits für die nationale Verwendung reserviert. Diese lassen sich als Kanal für netzinterne Meldungen nutzen. Welche Bitrate hat der Kanal? A6.4 Was ist die Aufgabe eines TK-Netzes? A6.5 Was versteht man unter der Nachrichtenübermittlung? A6.6 Was ist ein Dienst in einem TK-Netz? A6.7 Nennen Sie die beiden grundsätzlichen Vermittlungsprinzipien.
sUppLex
179
6.10 Wiederholungsfragen zu Abschnitt 6 A6.8 Nennen Sie die drei Phasen der verbindungsorientierten Kommunikation.
A6.9 Was ist eine verbindungslose Nachrichtenübermittlung? Welche Art der Übertragung setzt sie voraus? A6.10 Nennen Sie die 7 Schichten des OSI-Referenzmodells. Welche Schichten sind anwendungsorientiert und welche netzorientiert? Welche besondere Rolle spielt die TransportSchicht? Hinweis: in alphabetischer Reihenfolge: Anwendung, Bitübertragung, Darstellung, Kommunikationssteuerung, Sicherung, Transport, Vermittlung A6.11 Erklären Sie, wie die Kommunikation zwischen den Partner-Instanzen einer Protokollschicht logisch erfolgt. A6.12 Was bedeuten die Akronyme HDLC und LAP? A6.13 Geben Sie den Rahmenaufbau des HDLC-Protokolls an und erklären Sie die Funktion der einzelnen Abschnitte. A6.14 Welche Rahmenformate gibt es im HDLC-Protokoll? Geben Sie die zugehörigen Steuerfelder an. A6.15 Wodurch unterscheiden sich I- und S-Format besonders vom U-Format? A6.16 Was sind die Aufgaben des Poll- und Final-Bits? A6.17 Wozu dienen die Sende- und Empfangsnummern? A6.18 Was versteht man unter Bittransparenz? Wie wird sie im HDLC-Protokoll sichergestellt? A6.19 Was versteht man unter einer gesicherten Übertragung? A6.20 Was bedeuten das Akronyme ATM? A6.21 Worin besteht der Vorteil der ATM-Übertragung? A6.22 Welche Schichten des OSI-Referenzmodells finden sich im LAN? A6.23 Wofür steht MAC und welche Funktion hat es? A6.24 Was bedeuten die Akronyme TCP und IP? A6.25 Warum spricht man von einer Protokollfamilie TCP/IP? A6.26 Welche Funktion hat die Protokollschicht TCP? Wie ist sie im OSI-Referenzmodell einzuordnen? A6.27 Welche Funktion hat die Protokollschicht IP? Wie ist sie im OSI-Referenzmodell einzuordnen? A6.28 Was versteht man unter einem Extension Header? A6.29 Welche Arten von Adressen kennt das IP-Protokoll Version 6? Erklären Sie Funktionen. A6.30 Welche Konsequenzen hat die Einführung von „Rundverteilungs“-Diensten im Internet ähnlich dem heutigen Hör- und Fernsehrundfunk. Welche Art von Adressen unterstützt derartige Dienste im IP-Protokoll?
sUppLex
180
7
Grundbegriffe der Informationstheorie und der Kanalcodierung
Die Informationstheorie liefert eine mathematisch-physikalische Definition der Information und macht sie so zu einer messbaren Größe wie Spannung, Temperatur, usw. Damit wird es möglich Information in technischen Systemen quantitativ zu bestimmen und ihren Fluss zu optimieren. Ein wichtiges Anwendungsfeld der Informationstheorie ist die redundanzmindernde Quellencodierung. Als Beispiel wird in Abschnitt 7.2 die Huffman-Codierung vorgestellt. Die Kanalcodierung hingegen fügt der Nachricht gezielt Redundanz hinzu, so dass der Empfänger Übertragungsfehler erkennen oder sogar korrigieren kann. Dies kann in einfacher Wiese, wie in Abschnitt 7.3 gezeigt wird, durch die zusätzlichen Prüfzeichen des Hamming-Codes geschehen. Als CRC-Codes (Cyclic Rdundancy Check) sind sie heute aus der Datenkommunikation nicht mehr wegzudenken. Anmerkung: Die über eine Einführung hinausgehende Fachliteratur zur Informationstheorie und Kanalcodierung ist meist mathematisch anspruchsvoll. Die im Folgenden behandelten Themen werden z. B. in [Fri95][LiCo04][Sch98][Wer02] vertieft und ergänzt.
7.1
Information, Entropie und Redundanz
Aus der täglichen Erfahrung wissen wir: Eine Information (Nachricht) hat einen Neuigkeitswert - sie ist überraschend. Tatsachen, die wir bereits kennen, stellen für uns keine Information dar. Diese Überlegung führt zur Wahrscheinlichkeit, denn Ereignisse die man erwartet, haben eine hohe Wahrscheinlichkeit. Umgekehrt haben unerwartete, überraschende Ereignisse eine kleine Wahrscheinlichkeit. Informationsgehalt und Wahrscheinlichkeit stehen somit in gegenläufigem Zusammenhang. Aus der Vorstellung eines grundsätzlichen Zusammenhangs von Zufallsexperiment und Information entwickelte Claude E. Shannon den mathematisch-technischen Informationsbegriff: Wenn es das Wesen der Information ist, Ungewissheit auf zu lösen, dann stellt jedes Zufallsexperiment eine Informationsquelle dar. Das Wissen um den Versuchsausgang beseitigt die dem Experiment innewohnende Ungewissheit. Ebenso wie das Experiment mit Hilfe der Wahrscheinlichkeitsrechnung „im Mittel“ beschrieben werden kann, sollte auch Information „im Mittel“ beschreibbar sein. Hierzu führte Shannon den mittleren Informationsgehalt, die Entropie, ein [Sha48]. Die Gründung des Informationsbegriffes auf Experimente und die sie beschreibenden Wahrscheinlichkeiten macht die Information zu einer mit statistischen Mitteln empirisch zugänglichen Größe. Aus didaktischen Gründen und der Kürze halber wird im Folgenden der Informationsbegriff anhand X x1,x3, x1,x2, x2,x3,… des Informationsgehaltes eines Zeichens eingeQ führt. Ausgangspunkt ist eine einfache Informationsquelle, die pro Zeittakt ein Zeichen absetzt, s. Bild 7-1. Es soll die typische Fragestellung beant- Bild 7-1 Diskrete Informationsquelle mit Zeichenvorrat X {x1, x2, x3, x4} wortet werden:
sUppLex
181
7.1 Information, Entropie und Redundanz
Eine diskrete (Nachrichten-) Quelle X mit dem Zeichenvorrat (Alphabet) X = {x1, x2, ..., xN} sendet pro Zeitschritt ein Zeichen. Die Wahrscheinlichkeit (Probability) des i-ten Zeichens xi ist pi. Welchen Informationsgehalt hat das i-te Zeichen? Der zur Beantwortung der Frage benötigte Informationsbegriff kann auf den folgenden drei Axiomen aufgebaut werden: Axiom 1 Der Informationsgehalt I eines Zeichens xi X mit der Wahrscheinlichkeit pi ist ein nichtnegatives Maß. I ( pi ) ≥ 0
(7.1)
Axiom 2 Die Informationsgehalte unabhängiger Zeichen (xi, xl) mit der Verbundwahrscheinlichkeit pi,l = pi pl addieren sich.
I ( pi,l ) = I ( pi ) + I ( pl )
(7.2)
Axiom 3 Der Informationsgehalt ist eine stetige Funktion der Wahrscheinlichkeiten der Zeichen.
Axiom 1 und 2 stellen sicher, dass sich Information nicht gegenseitig auslöscht. Andernfalls würde der Grundsatz, Information löst stets Ungewissheit auf, verletzt. Axiom 3 drückt den Wunsch aus, dass eine kleine Änderung der Auftrittswahrscheinlichkeit nur zu einer kleinen Änderung des Informationsgehaltes führen soll. Im zweiten Axiom wird aus dem Produkt der Wahrscheinlichkeiten die Addition der Informationsgehalte. Dies führt zur Logarithmusfunktion, die die Multiplikation in die Addition abbildet. Man definiert: Der Informationsgehalt eines Zeichens mit der Wahrscheinlichkeit p ist I(p) = - ld p mit [ I ] = bit
(7.3)
Es wird meist der Zweier-Logarithmus in Verbindung mit der Pseudoeinheit bit verwendet. Übliche Schreibweisen sind log2(x) = ld(x) = lb(x) für den Logarithmus dualis bzw. binary logarithm. Anmerkung: Die Umrechnung der log-Funktion zu verschiedenen Basen erfolgt mit: loga(x) = logb(x) / logb(a) = logb(x) loga(b).
10
I ( p) bit
unmögliches Ereignis
5 Bild 7-2 zeigt den Funktionsverlauf zu (7.3). Der Insicheres formationsgehalt des sicheren Ereignisses (p = 1) ist Ereignis null. Mit wachsender Unsicherheit nimmt der Informationsgehalt stetig zu, bis schließlich im Grenzfall 0 des unmöglichen Ereignisses (p = 0) der Informati0 0,5 1 p onsgehalt gegen unendlich strebt. Die Definition des Informationsgehalts (7.3) spiegelt die eingangs ge- Bild 7-2 Informationsgehalt I(p) eines machten grundsätzlichen Überlegungen wieder und Zeichens mit der Auftrittswahrscheinlichkeit p erfüllt offensichtlich die Axiome 1 und 3.
sUppLex
182
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
Der Informationsgehalt einer diskreten Quelle kann nun als Erwartungswert der Informationsgehalte aller Zeichen bestimmt werden. Man spricht vom mittleren Informationsgehalt oder in Anlehnung an die Thermodynamik von der Entropie der Quelle. Anmerkung: Shannon verwendet, den grundsätzlichen Überlegungen folgend, eine axiomatische Definition der Entropie, woraus der Informationsgehalt eines Zeichens wie in (7.3) folgt [Sha48]. Er führt als Beispiel die damals weit verbreiteten Lochkarten an. Eine Lochkarte mit N möglichen Positionen für ein bzw. kein Loch kann genau eine aus 2N verschiedenen Nachrichten aufnehmen. Nimmt man zwei Lochkarten, so ergeben sich bereits 22N verschiedene Möglichkeiten. Die Zahl der möglichen Nachrichten steigt quadratisch. Andererseits sollte erwartet werden, dass zwei Lochkarten zusammen doppelt soviel Information speichern können als eine. Es drängt sich die Logarithmusfunktion zur Beschreibung des Informationsgehaltes auf. Mit log 2N = N log 2 und log 22N = 2N log 2 ergibt sich die erwartete Verdopplung. Man beachte, dass 2-N und 2-2N genau die Wahrscheinlichkeiten der Nachrichten widerspiegeln, wenn alle Nachrichten gleichwahrscheinlich sind, so dass die Definition des Informationsgehaltes gemäß -log 2-N sinnvoll ist.
Für den einfachsten Fall einer (endlichen) diskreten gedächtnislosen Quelle, bei der die Wahrscheinlichkeiten der einzelnen Zeichen nicht von den vorhergehenden Zeichen abhängen, definiert man: Eine diskrete, gedächtnislose Quelle X mit dem Zeichenvorrat (Alphabet) X = {x1, x2,…, xN} und den zugehörigen Wahrscheinlichkeiten p1, p2, ..., pN besitzt die Entropie N
∑ pi ⋅ ld pi
H (X ) =−
bit
(7.4)
i=1
Das einfachste Beispiel einer diskreten gedächtnislosen Quelle ist die Binärquelle mit dem Zeichenvorrat X = {0, 1} und den Wahrscheinlichkeiten p0 = p und p1 = 1-p. Ihre Entropie Hb(p), auch shannonsche Funktion genannt, ist H b ( p) = − p ⋅ ld p − (1 − p ) ⋅ ld (1 − p) bit
(7.5)
Der Funktionsverlauf ist in Bild 7-3 zu sehen. Setzt die Quelle stets das Zeichen „1“ ab, p = 0, so ist die Entropie gleich null. Da man in diesem Fall weiß, dass die Quelle stets die „1“ sendet, gibt sie keine Information ab. Sind beide Zeichen gleichwahrscheinlich, p = 1/2, so wird die Entropie 1 maximal. Ein Beobachter, der die Aufgabe hätte, jeweils das nächste Zeichen vorherzusagen, würde im H b ( p) maximale Mittel genauso häufig richtig wie falsch raten. bit Die Entropie der Binärquelle nimmt im Maximum den Wert 1 bit an. Dies entspricht genau einer Ja/Nein-Entscheidung (Antwort) um das aktuelle Zeichen zu erfragen: ist das Zeichen „0“? Die Entropie gibt Antwort auf die zwei Fragen: x Wie viele Ja/Nein-Entscheidungen sind mindestens notwendig, um das aktuelle Zeichen zu erfragen?
Ungewissheit
0,5
0
Gewissheit „1“ 0
Gewissheit „0“ 0,5
p
1
Bild 7-3 Entropie der Binärquelle
x Wie viele Bits benötigt man mindestens, um die Zeichen der Quelle zu codieren?
sUppLex
183
7.1 Information, Entropie und Redundanz
Um die Bedeutung der Entropie aufzuzeigen, betrachten wir das Zahlenwertbeispiel in Tabelle 7-1. Die Entropie der diskreten, gedächtnislosen Quelle mit sechs Zeichen ist ca. 2,25 bit.
Tabelle 7-1 Diskrete gedächtnislose Quelle mit dem Zeichenvorrat X = {a,b,c,d,e,f}, den Wahrscheinlichkeiten pi, den Informationsgehalten I(pi) und der Entropie H(X)
xi
a
b
c
d
e
f
pi
0,05
0,15
0,05
0,4
0,2
0,15
I(pi)
4,32 bit
2,74 bit
4,32 bit
1,32 bit
2,32 bit
2,74 bit
| 2,25 bit
H(X)
Zunächst betrachten wir in Tabelle 7-2 die einfache BCD-Codierung anhand des Zeichen-Index. Der BCD-Code ist ein Blockcode mit gleichlangen Codewörtern. Da sechs Zeichen vorliegen, müssen je Codewort drei Bits verwendet werden.
BCD-Codierung der Zeichen nach ihren Indizes
Tabelle 7-2
Zeichen
a
Codewort 001
b
c
d
e
f
010
011
100
101
110
Andererseits kann überlegt werden, wie groß die Entropie einer Quelle mit sechs Zeichen maximal sein kann.
Die Entropie einer diskreten gedächtnislosen Quelle mit N Symbolen wird maximal, wenn alle Symbole gleichwahrscheinlich sind, also maximale Ungewissheit vorliegt. Dieses Maximum ist der Entscheidungsgehalt (des Zeichenvorrats) der Quelle. H 0 = ld N bit
(7.6)
Der Entscheidungsgehalt einer diskreten gedächtnislosen Quelle mit sechs Symbolen ist 2,58 bit. Dem steht im Beispiel die Entropie von 2,25 bit gegenüber.
Die Differenz aus dem Entscheidungsgehalt einer Quelle und ihrer Entropie wird Redundanz genannt. R = H0 − H ( X )
(7.7)
Die Entropie besagt im Beispiel, dass im Mittel 2,25 Ja/Nein-Entscheidungen notwendig sind und deshalb die Zeichen der Quelle im Mittel mit 2,25 Bits codiert werden können. Ein Verfahren, das einen in diesem Sinne aufwandsgünstigen Code liefert, ist die Huffman-Codierung im nächsten Abschnitt.
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
184
7.2
Huffman-Codierung
Die Huffman-Codierung 1 gehört zur Familie der Codierungen mit variabler Codelänge. Ein bekanntes Beispiel ist das Morsealphabet 2 . Die zugrunde liegende Idee ist, häufige Zeichen möglichst mit kurzen Codewörtern zu belegen, um so den mittleren Aufwand klein zu halten. Derartige Codierverfahren bezeichnet man auch als redundanzmindernde Codierung oder Entropiecodierung. Im Beispiel des Morsealphabetes in Tabelle 7-3 wird der häufige Buchstabe „E“ mit dem einzigen Zeichen „ . “ und der seltene Buchstabe „X“ mit den vier Zeichen „ - . . - “ codiert.
Tabelle 7-3 Buchstaben, Morsezeichen [Obe82] und relative Häufigkeiten in der deutschen Schriftsprache [Küp54]
Buchstabe
Morsezeichen
A B C D E F G H I
.-... -.-. -.. . ..-. --. .... ..
rel. Häufigkeiten 0,0651 0,0257 0,0284 0,0541 0,1669 0,0204 0,0365 0,0406 0,0782
Buchstabe
Morsezeichen
J K L M N O P Q R
.---..-.. --. --.--. --..-.
rel. Häufigkeiten 0,0019 0,0188 0,0283 0,0301 0,0992 0,0229 0,0094 0,0007 0,0654
Buchstabe
Morsezeichen
S T U V W X Y Z
... ......--..-.---..
rel. Häufigkeiten 0,0678 0,0674 0,0370 0,0107 0,0140 0,0002 0,0003 0,0100
Anmerkung: Die Ziffern 0 bis 9 werden mit je 5 Zeichen codiert. Für Sonderzeichen, Satzzeichen und Meldungen stehen weitere Codewörter zur Verfügung [Bro04].
Huffman hat für diskrete gedächtnislose Quellen gezeigt, dass die von ihm angegebene Codierung mit variabler Wortlänge einen optimalen Präfixcode liefert [Huf52]. D. h. der HuffmanCode liefert die kleinste mittlere Codewortlänge. Er ist außerdem ohne Komma-Zeichen zur Trennung der Codewörter eindeutig decodierbar.
Bei einem Präfixcode ist kein Codewort Anfang eines anderen Codeworts.
Anmerkung: Die Huffman-Codierung spielt in der Bildcodierung eine wichtige Rolle. Sie ist Bestandteil des JPEG-, MPEGund H.261-Standards. Auch zur Codierung von digitalen Audio-Signalen, wie bei MP3, wird die Huffman-Codierung eingesetzt.
Die Huffman-Codierung geschieht in drei Schritten, s. Kasten auf der nächsten Seite. Am Beispiel der Quelle in Tabelle 7-1 wird die Codierung vorgeführt. Dabei vereinfachen wir das Verfahren etwas, indem wir auf das Umordnen verzichten. Anmerkung: Bei den von Hand durchgeführten Beispielen kann man auf das explizite Sortieren verzichten. Man erhält ein einfacheres Verfahren, dessen Code allerdings nicht mehr bitkompatibel zu dem Code mit Umsortieren sein muss. 1 David Huffman: *1925/+1999, US-amerikanischer Ingenieur. 2 Samuel F. B. Morse: *1791/+1872, US-amerikanischer Maler und Erfinder („Vater der Telegraphie“)
sUppLex
185
7.2 Huffman-Codierung Huffman-Codierung 1. Ordnen Ordne die Zeichen nach fallenden Wahrscheinlichkeiten.
2. Reduzieren Kombiniere* die beiden Zeichen mit den kleinsten Wahrscheinlichkeiten zu einem neuen zusammengesetzten Zeichen. Ordne die Liste neu wie in Schritt 1 und fahre fort, bis alle Zeichen zusammengefasst sind. 3. Codieren Beginne bei der letzten Zusammenfassung; ordne jeder ersten Ziffer des Codeworts eines Zeichens der ersten Komponente des zusammengesetzten Zeichens eine „0“ und der zweiten Komponente eine „1“ zu.
Fahre sinngemäß fort, bis alle Zeichen codiert sind. * Im Falle mehrerer Zeichen mit derselben Wahrscheinlichkeit werden die Zeichen kombiniert, die am wenigsten bereits zusammengefasste Zeichen beinhalten. Damit erreicht man bei gleicher mittlerer Codewortlänge eine in der Übertragungstechnik günstigere, weil gleichmäßigere Verteilung der Codewortlängen. Im Beispiel erhält man im ersten Schritt die in Bild 7-4 angegebene Reihenfolge der Zeichen in der ersten Spalte mit den Wahrscheinlichkeiten pi in der zweiten Spalte. Im zweiten Schritt werden die beiden Zeichen mit den kleinsten Wahrscheinlichkeiten „c“ und „a“ kombiniert. Die neuen beiden „Zeichen“ mit den kleinsten Wahrscheinlichkeiten, „ca“ und „e“ werden jetzt zusammengefasst. Für das zusammengesetzte Zeichen erhält man die Wahrscheinlichkeit 0,25. Damit ist sie größer als die Wahrscheinlichkeiten für „b“ und „f“. Letztere sind nun die beiden kleinsten Wahrscheinlichkeiten. Es werden „b“ und „f“ zusammengefasst. Die zugehörige Wahrscheinlichkeit hat den Wert 0,35. Die nunmehr beiden kleinsten Wahrscheinlichkeiten, für „bf“ und „cae“, ergeben zusammen die Wahrscheinlichkeit 0,6. Die beiden verbleibenden Wahrscheinlichkeit für „d“ und „caebf“ müssen zusammen den Wert eins ergeben. Im dritten Schritt werden den Zeichen die Codewörter zugewiesen. Hierbei beginnt man ganz rechts und schreitet nach links fort. Bei jeder Weggabelung (Zusammenfassung von Zeichen) wird dem Pfad nach oben die „0“ und dem Pfad nach unten die „1“ (oder jeweils umgekehrt) zugewiesen. Der Pfad für die Codezuteilung für das Zeichen „a“ ist in Bild 7-4 fett gedruckt. Man erhält schließlich den Huffman-Code in Tabelle 7-4. Zeichen
pi
d
0,4
f
0,2
b
0,15
e
0,15
a
0,05
c
0 0
0,35 1
0,6
0 0
0,25 0,1
1,0
0
1
1
1
0,05 1
Bild 7-4 Huffman-Codierung
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
186
Tabelle 7-4 Huffman-Code zu Bild 7-4
Zeichen xi
d
f
b
e
a
c
0,4
0,2
0,15
0,15
0,05
0,05
Codewort
0
100
101
110
1110
1111
Codewortlänge Li in bit
1
3
3
3
4
4
Wahrscheinlichkeit pi
Ein Code ist umso effizienter, je kürzer seine mittlere Codewortlänge ist. Die mittlere Codewortlänge bestimmt sich aus der Länge der einzelnen Codewörter Li gewichtet mit der Wahrscheinlichkeit der jeweiligen Codewörter (Zeichen) pi. N
L = ∑ pi Li
(7.8)
i=1
Im Beispiel ist die mittlere Codewortlänge mit L | 2,3 bit nahe an der Entropie H(X) | 2,25 bit. Eine wichtige Kenngröße der Codierung ist das Verhältnis von Entropie zu mittlerer Codewortlänge, die Effizienz des Codes oder auch Datenkompressionsfaktor genannt. Sie erreicht im Beispiel den Wert K | 0,976. Effizienz des Codes, Datenkompressionsfaktor
η=
H (X ) L
(7.9)
Aus dem Beispiel wird deutlich: Je größer der Unterschied zwischen den Wahrscheinlichkeiten der Zeichen ist, desto größer ist die Ersparnis an mittlerer Wortlänge durch die HuffmannCodierung. Für die Anwendung ist die Frage wichtig: Wie effizient kann der Code bestenfalls sein? Die Antwort gibt das Quellencodierungstheorem von Shannon für diskrete gedächtnislose Quellen. Quellencodierungstheorem
Es existiert ein binärer Code, so dass die mittlere Codewortlänge beliebig nahe an die Entropie herankommt. Die Informationstheorie zeigt aber auch, dass dabei durch Kombination der Zeichen unter Umständen sehr lange Codewörter entstehen, die einer praktischen Umsetzung des Quellencodierungstheorems entgegenstehen. Für den Empfänger ist die Umkehrung der Codierung wichtig. Die Decodiervorschrift des Huffman-Codes folgt unmittelbar aus Bild 7-4. Durch den Verzicht auf das Umordnen, kann der Codebaum in Bild 7-5 direkt aus dem Bild 7-4 abgelesen werden. Er liefert die anschauliche Interpretation der Codiervorschrift. Für jedes neue Codewort beginnt die Decodierung an der Wurzel. Wird eine „0“ empfangen, so schreitet man auf dem mit „0“ gewichteten Zweig, auch Kante genannt, nach oben. Im Beispiel erreicht man das Blatt „d“. Das gesendete Symbol ist demzufolge „d“ und man beginnt mit dem nächsten Bit von neuem an der Wurzel.
sUppLex
187
7.3 Kanalcodierung Wird eine „1“ empfangen, wählt man den Zweig nach unten. Man erreicht im Beispiel einen Verzweigungsknoten. Das nächste Bit wählt einen der beiden folgenden Zweige aus. So verfährt man, bis man ein Blatt erreicht. Danach beginnt die Decodierung für das nächste Zeichen wieder an der Wurzel.
Wurzel (Anfangsknoten)
0
1
1 (Kante)
So einfach die Huffman-Codierung und Decodierung ist, sie besitzt drei Nachteile: x Die unterschiedlichen Codewortlängen führen zu einer ungleichmäßigen Bitrate und Decodierverzögerung.
0
Ast
Anmerkung: Man spricht von einem gerichteten Baum: von der Wurzel über die Äste zu den Blättern.
Blatt (Endknoten) d f 0
0
1 1
Verzweigungsknoten
b e 0
a
1
c
Bild 7-5 Codebaum zum HuffmanCode in Bild 7-4
x Datenkompressionsverfahren reduzieren die Redundanz und erhöhen deshalb die Fehleranfälligkeit. Im Falle der Huffman-Codierung bedeutet das, dass durch ein falsch erkanntes Bit gegebenenfalls alle nachfolgenden Zeichen falsch detektiert werden können. x Die Huffman-Codierung setzt die Kenntnis der Wahrscheinlichkeiten der Zeichen oder zumindest geeigneter Schätzwerte voraus. Diese sind jedoch oft nicht bekannt bzw. ihre Schätzung ist relativ aufwendig.
Für die Komprimierung von großen Dateien werden deshalb oft universelle Codierverfahren wie der Lempel-Ziv-Welch- (LZW-) Algorithmus eingesetzt, die die Komprimierung ohne a priori Wissen über die Statistik der Daten beginnen, siehe z. B. [Loc02][Str05]. Bei der Datenkompression in der Audio- und der Video-Codierung unterscheidet man zwischen Redundanz und Irrelevanz. Man spricht daher von Redundanz - bzw. Irrelevanzreduktion, s. Abschnitt 3.8
7.3
Kanalcodierung
7.3.1
Paritätscodes
Bei der Übertragung und Speicherung von Information existieren zahlreiche Fehlermöglichkeiten. Um wichtige Daten gegen Fehler zu schützen werden jeweils passende Verfahren der Kanalcodierung eingesetzt. Zur Einführung in die Aufgabenstellung der Kanalcodierung betrachten wir beispielhaft die weit verbreiteten Paritätscodes. Anmerkung: Eine Einführung in deren die mathematischen Grundlagen gibt z. B. [BeZs02].
x Binäre Paritätscodes
Ein wichtiges Beispiel von Paritätscodes wird in Abschnitt 4 anhand der RS-232-Schnittstelle vorgestellt. Dort werden die sieben Bits des Nachrichtenwortes durch ein Paritätsbit so zum Codewort ergänzt, dass die Exor-Verknüpfung „“ (Modulo-2-Addition, s. Tabelle 7-5) aller Bits entweder „0“ oder „1“ ist. Man spricht von gerader bzw. ungerader Parität.
Tabelle 7-5 Wahrheitstafel der Exor-Verknüpfung 0 1
0 0 1
1 1 0
sUppLex
188
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
Im Beispiel ergänzen wir die sieben Bits der ASCII-Codewörter der Zeichen „M“ und „W“ zur geraden bzw. ungeraden Parität. Wir erhalten aus Abschnitt 4.1, Tabelle 4.1, die ASCII-Codewörter und ergänzen sie in Tabelle 7-6 zum Codewort.
Tabelle 7-6 Codewörter mit Paritätsbits
Zeichen M W
ASCII-Code 1101 001 0111 101
Parität ungerade gerade 0 1 1 0
Wir überprüfen das Ergebnis anhand des Zahlenwertbeispiel für M und gerader Parität. 1⊕1⊕ 0 ⊕1⊕ 0 ⊕ 0 ⊕1⊕ 0 = 0
(7.10)
Anmerkung: Die Exor-Verknüpfung ist assoziativ und kommutativ.
Mit dem Paritätscode werden durch die Prüfsumme (7.10) einfache Fehler im Codewort erkannt. Eine Reparatur des fehlerhaften Bits ist nicht möglich, da die Fehlerstelle unbekannt ist. Treten zwei Fehler auf, so ist das nicht erkennbar, wie man durch ein Beispiel schnell zeigen kann. Bei binären Paritätscodes sind alle n-fachen Fehler mit n gerade nicht erkennbar. Man spricht dann von einem Restfehler. Anmerkung: In Anwendungen können Restfehler ein Problem bereiten. Tritt beispielsweise bei einer Softwareaktualisierung ein unerkannter Fehler auf, entsteht ein ungewollter Programmabschnitt der sporadisch zu Fehlern führen kann. Erst durch den Einsatz geeigneter Fehlerschutzmaßnahmen werden Geschäftsmodelle mit Online-Upgrade-Diensten möglich.
x Paritätscode mit Kreuzsicherung
Tritt beispielsweise ein Doppelfehler in einer Querspalte des Lochstreifens (erweitertes Zeichen) auf, dann ist dies zwar anhand der Querparität nicht zu erkennen, jedoch werden durch die Längsparität zwei Spuren als fehlerhaft erkannt. Da der Paritätscode für jede Zeile und jede Spalte n Fehler mit n ungerade erkennt, sind alle einfachen, doppelten und dreifachen Fehler erkennbar. Für einen Restfehler müssen mindestens vier Fehler in bestimmten Mustern auftreten, wie z. B. in zwei benachbarten Zeilen und Spalten.
Blockparität (Längsparität) Zeichenparität (Querparität)
Sollen Doppelfehler erkennbar sein, ist ein zusätzlicher Fehlerschutz erforderlich. Dies ermöglicht der zweidimensionale Paritätscode mit Kreuzsicherung. Die Idee lässt sich anhand eines Lochstreifens erklären, s. Bild 7-6.
Paritätszeichen der Längsparität Transportrichtung Vorschublöcher Paritätszeichen der Querparität
Bild 7-6 8-Spur-Lochstreifen mit Kreuzparität (ungerade Parität mit „Stanzloch“ für die logische „1“)
Anmerkungen: (i) Für Lochstreifen existieren unterschiedliche Formate, wie 5-Spur, 7-Spur und 8-SpurLochstreifen mit herstellerspezifischen Codes [MLS89]. Für das Beispiel wurde der Einfachheit halber der ASCII-Code und ungerade Parität gewählt. Die logische Eins wird durch ein Stanzloch repräsentiert. (ii) Bei der Fehlererkennung werden die Zeilen und Spalten einschließlich der Paritätsbits betrachtet. Durch die zusätzlichen Paritätsbits entstehen zusätzliche Fehlermöglichkeiten.
sUppLex
189
7.3 Kanalcodierung x Paritätscodes mit Erkennung von Vertauschungsfehlern
Die Idee des Paritätscodes kann allgemein formuliert und auf den praktisch wichtigen Fall der Erkennung von Vertauschungsfehlern erweitert werden. Bei der Eingabe von Daten, wie Kontonummern, Bestellnummern, usw., durch Menschen treten als Fehler meist „Zahlendreher“ auf. Statt der Ziffernfolge „3 4“ wird „4 3“ eingetippt. Es ist deshalb von besonderem Interesse derartige Fehler anhand von Prüfzeichen erkennen zu können. Wir stellen das Konzept anhand der Codierung der International Standard Book Number (ISBN) vor. Dazu führen wir schrittweise die notwendigen Begriffe und Zusammenhänge ein. Wir gehen von einem Alphabet (Zeichenvorrat) mit den Ziffern 0, 1, …, q-1 aus der Menge der ganzen Zahlen aus. Ein Code der Länge n zur Basis q ist dann eine beliebige Menge von Folgen a1, a2, …, an mit Elementen aus dem Alphabet. Die Folgen werden Codewörter genannt. Ein Paritätscode liegt vor, wenn für jedes Codewort gilt (a1 + a2 +" + an ) mod q = 0
(7.11)
also die Summe a1 + … + an ein Vielfaches von q ist. Jeder Paritätscode erkennt Einzelfehler
Durch elementare Überlegungen kann gezeigt werden, dass durch Auswerten der Prüfgleichung (7.11) alle Einzelfehler erkannt werden. Dazu behaupten wir die Fehlerprüfung erkennt den Fehler nicht und zeigen den Widerspruch.
Wir gehen von einem Codewort aus und nehmen an, dass das i-te Element fehlerhaft sei. Ein unerkannter Fehler tritt auf, wenn die Prüfgleichung (7.11) mit dem Fehler ai ergibt ?
(a1 + a2 +" + ai +" + an ) mod q =0
(7.12)
Wegen der Modulo-q-Operation und weil ursprünglich ein Codewort vorlag, dürfen wir auch schreiben ?
0 =(a1 +" + ai +" + an ) mod q − (a1 +" + ai +" + an ) mod q =
0
= (a1 − a1 +" + ai − ai +" + an − an ) mod q =
(7.13)
= (ai − ai ) mod q
Damit die Gleichung erfüllt wird, muss die Zahl ai − ai durch q teilbar sein. Anmerkung: Eine natürliche Zahl a ist durch eine andere natürliche Zahl b teilbar, wenn sie ein Vielfaches von b ist. Beispielsweise ist 8 durch 4 teilbar, 9 nicht. 4 ist nicht durch 8 teilbar.
Da jedoch für alle Ziffern des Zeichenvorrats gilt 0 ≤ ai < q
(7.14)
0 ≤ ai − ai < q
(7.15)
gilt insbesondere auch für die Differenz
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
190
Somit ist die Differenz in (7.13) nicht durch q teilbar und die Prüfsumme kann nicht wie gefordert null ergeben. Der Fehler wird erkannt. Um zusätzlich Vertauschungen zu erkennen, führen wir die ganzzahligen Gewichte w1, w2, …, wn-1 so ein, dass für den Paritätscode mit Gewichten gilt ( w1a1 + w2 a2 +" + wn−1an−1 + an ) mod q = 0
(7.16)
also die Summe w1a1 + … + wn-1an-1 + an ein Vielfaches von q ist. Anmerkung: Es kann auch ein zusätzliches Gewicht wn eingeführt werden, das jedoch teilerfremd zu q sein muss. Zwei Zahlen sind teilerfremd, wenn ihr größter gemeinsamer Teiler 1 ist. Beispielsweise sind zwei Primzahlen, z. B. 3 und 5, teilerfremd. Die Zahlen 6 und 8 sind nicht teilerfremd, da sie den gemeinsamen Teiler 2 besitzen.
Bei der Wahl der Gewichte ist zu beachten, dass alle Gewichte wi und q teilerfremd sind. Dies kann wie in (7.13) gezeigt werden. Damit Einzelfehler nicht erkannt werden muss gelten ?
[ wi ⋅ (ai − ai )] mod q =0
(7.17)
Und da die Differenz der Ziffern teilerfremd ist, kann die Prüfgleichung nicht null ergeben wenn das Gewicht wi teilerfremd zu q ist. Der Code erkennt Einzelfehler. Nun zeigen wir, dass bei geeigneter Wahl der Gewichte Vertauschungsfehler an den beliebigen Stellen i und j erkannt werden. Dazu gehen wir wieder wie in (7.13) vor. Damit der Vertauschungsfehler nicht erkannt wird muss gelten ?
⎡ ( wi ai + w j a j ) − ( w j ai + wi a j ) ⎦ ⎤mod q =⎡ 0=⎣ ⎣ ( wi − w j )(ai − a j ) ⎤ ⎦mod q
(7.18)
Wie oben erhalten wir den Widerspruch für (wi-wj) teilerfremd zu q, da die Zahl (ai-aj) stets teilerfremd zu q ist. Ein Paritätscode der Länge n zur Basis q mit den Gewichten w1, w2, …, wn erkennt die Vertauschung an den Stellen i und j, falls die Zahl wi – wj teilerfremd zu q ist
Nachdem die Konstruktionsvorschriften für Paritätscodes mit Erkennung von Vertauschungsfehlern vorgestellt wurden, wenden wir uns dem Beispiel des ISBN-Codes zu.
Beispiel ISBN-Code
Für den ISBN-Code ist es praktisch für die Ziffern des Codes die üblichen, auf Schreibmaschinen, Tastaturen, usw. vorhandenen Ziffern 0, 1, …, 9 zu wählen. Damit kommt als Basis q eine Zahl größer gleich 10 in Frage. Die Forderung nach teilerfremden Gewichten legt die Wahl der Basis als Primzahl nahe, so dass als Basis die kleinste mögliche Primzahl 11 gewählt wird. Mit der Basis 11 ist im Code die Zahl 10 als Ziffer aufzunehmen. Um Verwechslungen vorzubeugen, wird für die Zahl 10 die römische Ziffer X verwendet. Mit diesen Vorüberlegungen kann der ISBN-Code definiert werden: Der ISBN-Code ist ein Paritätscode der Länge n = 10 zur Basis q = 11 mit dem Alphabet {0, 1, …, 9, 10 = X} und den Gewichten g1 = 10, g2 = 9, …, g10 = 1. Der ISBN-Code erkennt einen Einzelfehler und eine Vertauschung zweier Elemente. Seine Prüfziffer a10 berechnet sich aus
sUppLex
191
7.3 Kanalcodierung
(10a1 + 9a2 + 8a3 +" + 2a9 + a10 ) mod11 = 0
(7.19)
Als Beispiel wählen wir das Buch des Verfassers „Digitale Signalverarbeitung mit MATLAB, 2. Aufl.“ im VIEWEG Verlag mit der ISBN 3-528-13930-7. Darin steht 3 für Deutschland, 528 für den VIEWEG Verlag und 13930 für das Buch im Verlagsprogramm. Für die letzte Ziffer, die Prüfziffer, folgt ⎛ ⎞ ⎜10 ⋅ 3 + 9 ⋅ 5 + 8 ⋅ 2 + 7 ⋅ 8 + 6 ⋅1 + 5 ⋅ 3 + 4 ⋅ 9 + 3 ⋅ 3 + 2 ⋅ 0 + a ⎟mod = 0 10 ⎟ 11
N ⎜ ⎝ 213=19⋅11+4 7 ⎠
(7.20)
Wir verifizieren die Aussagen zur Fehlererkennung, indem wir den Ländercode für die U.S.A. als erste Ziffer in die Prüfgleichung eingeben. ⎛ ⎞ ⎜10 ⋅ 0 + 9 ⋅ 5 + 8 ⋅ 2 + 7 ⋅ 8 + 6 ⋅1 + 5 ⋅ 3 + 4 ⋅ 9 + 3 ⋅ 3 + 2 ⋅ 0 + 7 ⎟mod11 = 3
⎜ ⎟ ⎝ ⎠ 190=17⋅11+3
(7.21)
Vertauschen der 5. und 6. Ziffern wird ebenfalls erkannt. ⎛ ⎞ ⎜10 ⋅ 3 + 9 ⋅ 5 + 8 ⋅ 2 + 7 ⋅ 8 + 6 ⋅ 3 + 5 ⋅ 1 + 4 ⋅ 9 + 3 ⋅ 3 + 2 ⋅ 0 + 7 ⎟mod = 3 11
⎟ ⎜ ⎝ ⎠ 223=20⋅11+3
7.3.2
(7.22)
Kanalcodierung zum Schutz gegen Übertragungsfehler
Das Beispiel der digitalen Übertragung in Abschnitt 5 zeigt: reale Übertragungssysteme sind nicht perfekt. In vielen Anwendungen der Informationstechnik muss mit Fehlern bei der Übertragung und Speicherung von Daten gerechnet werden, insbesondere bei x Speichermedien hoher Dichte (Compact Disc, Magnetspeicher); x der Nachrichtenübertragung bei begrenzter Signalleistung (Satellitenkommunikation); x der Nachrichtenübertragung über stark gestörte Kanäle (Funk, Stromleitungen) x und bei extremen Zuverlässigkeitsanforderungen (CAD-Daten, Programmcode, nach Datenkompression).
In all diesen Fällen wird die Kanalcodierung zur Fehlerkontrolle eingesetzt. Die Codierungstheorie stellt auf die jeweilige Anwendung bezogene Verfahren zur Verfügung. Es lassen sich zwei grundsätzliche Fälle unterscheiden: x Fehlerkorrigierende Codes – der Empfänger erkennt und korrigiert einen Fehler; x Fehlererkennende Codes – der Empfänger erkennt einen Fehler und fordert gegebenenfalls die nochmalige Übertragung der Nachricht an.
Die letzte Methode setzt einen Rückkanal voraus und findet vor allem in der Datenübertragung ihre Anwendung, wenn die Fehlerwahrscheinlichkeit ohne Codierung bereits klein ist und es auf eine hohe Zuverlässigkeit ankommt. Ein typischer Wert für die Bitfehlerwahrscheinlichkeit ohne Codierung in Datennetzen ist 10-6. Durch zusätzliche Kanalcodierung auf der Übertragungsstrecke kann in der Netzschicht eine Bitfehlerwahrscheinlichkeit von 10-9 und darunter
sUppLex
192
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
erreicht werden. Durch weitere Fehlerschutzmaßnahmen der Transportschicht bzw. höherer Schichten können Restfehler quasi ausgeschlossen werden. Anmerkung: Die Probleme oder gar Gefahren durch Restfehler können nur anwendungsbezogen diskutiert werden. Sie sind Gegenstand des Qualitäts- und Risikomanagements, z. B. [Gra01].
Die Darstellung der verschiedenen Kanalcodierverfahren würde den Rahmen einer Einführung bei weitem sprengen. In den folgenden Unterabschnitten wird deshalb die Idee der Kanalcodierung exemplarisch anhand einfacher linearen Blockcodes vorgestellt. Den Abschluss bildet die Vorstellung der in der Datenkommunikation am weitesten verbreiteten Fehlerprüfung, die Anwendung zyklischer Codes, s. a. Abschnitt 6. Zur Einführung betrachte man das Übertragungsmodell mit Kanalcodierung in Bild 7-7. Es wird von einer blockorientierten Übertragung ausgegangen. Die Quellencodierung liefert ein binäres Nachrichtenwort fester Länge, z. B. u = (1010). Die Kanalcodierung ordnet im Encoder dem Nachrichtenwort ein binäres Codewort entsprechend der Codetabelle, Tabelle 7-7, zu. Im Beispiel ist das Codewort v = (0011010). Dort wird ein Hamming-Code 1 verwendet, dessen Besonderheiten später noch genauer erläutert werden. Quelle
Sinke
Quellencodierung
Quellendecodierung
Nachrichtenwort u Encoder
uˆ Kanalcodierung
Codewort v Sender
Decoder
decodiertes Nachrichtenwort (Schätzwert)
r Empfangswort
Kanal
Empfänger
Bild 7-7 Übertragungsmodell mit Kanalcodierung
Der Sender generiert ein dem Codewort entsprechendes Signal, das über den Kanal an den Empfänger gesandt wird. Im Empfänger wird das ankommende Signal ausgewertet und ein binäres Empfangswort r erzeugt. Der Decoder vergleicht das Empfangswort mit den Codewörtern. Stimmt das Empfangswort mit einem Codewort überein, so wird das zugehörige Nachrichtenwort ausgegeben. Stimmt das Empfangswort mit keinem Codewort überein, so wird ein Übertragungsfehler erkannt. Soll eine Fehlerkorrektur stattfinden, müssen dazu geeignete Regeln existieren. Aus diesen einfachen Überlegungen folgen bereits zwei wichtige Aussagen: x Restfehler - wird ein Codewort durch die Kanalstörung in ein anderes Codewort abgebildet, kann die Störung nicht erkannt werden. x „Gute Codes“ besitzen eine mathematische Struktur, die die Fehlererkennung und gegebenenfalls die Fehlerkorrektur unterstützen.
Im Beispiel des (7,4)-Hamming-Codes werden die 24 = 16 möglichen Nachrichtenwörter auf 16 Codewörter der Länge 7, d. h. auf 16 von 27 = 128 möglichen binären Vektoren der Länge 7 1 Richard W. Hamming: *1915/1998, US-amerikan. Mathematiker und Computerwissenschaftler.
sUppLex
193
7.3 Kanalcodierung
abgebildet. Die Auswahl der Codewörter erfolgt so, dass sie sich in möglichst vielen Komponenten unterscheiden. Wie in Tabelle 7-7 nachzuprüfen ist, unterscheiden sich alle Codewörter in mindestens drei Komponenten.
Tabelle 7-7 Codetabelle des (7,4)-Hamming-Codes
7.3.3
Nachrichtenwort
Codewort
Nachrichtenwort
Codewort
0000 1000 0100 1100 0010 1010 0110 1110
000 0000 110 1000 011 0100 101 1100 111 0010 001 1010 100 0110 010 1110
0001 1001 0101 1101 0011 1011 0111 1111
101 0001 011 1001 110 0101 000 1101 010 0011 100 1011 001 0111 111 1111
Lineare Blockcodes
Eine wichtige Familie von Codes sind die linearen binären Blockcodes. Sie sind dadurch gekennzeichnet, dass die Nachrichten- und Codewörter als Vektoren aufgefasst und der Codier- und Decodiervorgang mit Hilfe der linearen Algebra beschrieben werden kann. Die Komponenten der auftretenden Vektoren und Matrizen sind Tabelle 7-8 Verknüpfungstafeln der „0“ oder „1“. Mit ihnen wird im Weiteren unter BeModulo-2-Arithmetik achtung der Modulo-2-Arithmetik in Tabelle 7-8 in geAddition Multiplikation wohnter Weise gerechnet. 0 1 0 1 : Wegen der Vektoreigenschaft der Codewörter wird auch von Codevektoren, Empfangsvektoren, usw. gesprochen.
0 1
0 1
1 0
0 1
0 0
0 1
Anmerkung: Mathematisch gesehen liegt ein binärer Körper oder Galois-Körper (Galois Field) der Ordnung 2 vor. Erwähnt sei hier eine wichtige Erweiterungsmöglichkeit der Codierung durch den Übergang auf Galois-Körper höherer Ordnung. Eine Familie derartiger Codes sind die Reed-Solomon-Codes, die beispielsweise bei Audio-CDs verwendet werden.
Der Encoder eines (n,k)-Blockcodes bildet die 2k möglichen Nachrichtenwörter bijektiv auf 2k n-dimensionale Codewörter ab, s. Bild 7-8. Nachrichtenwort
Codewort Encoder
u = (u0, u1, …, uk-1)
v = (v0, v1, …, vn-1)
Bild 7-8 Encoder eines (n,k)-Blockcodes
Statt der k Bits des Nachrichtenwortes sind nun die n Bits des Codewortes zu übertragen. Man spricht von einer redundanten Codierung mit der Coderate R=
k n
(7.23)
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
194
Je kleiner die Coderate, desto mehr Redundanz besitzt die Codierung. Desto größer ist allerdings auch der Übertragungsaufwand. Die Codierung linearer (n,k)-Blockcodes wird durch die Generatormatrix Gkun und die Codiervorschrift v
u:G
(7.24)
festgelegt. Es wird das Nachrichtenwort als Zeilenvektor von links mit der Generatormatrix multipliziert. Im Beispiel des (7,4)-Hamming-Codes ist die Generatormatrix eine Matrix mit vier Zeilen und sieben Spalten. ⎛1 ⎜ ⎜0 G 4×7 =⎜ 1 ⎜ ⎝1
1 0 1 0 0 0⎞ ⎟ 1 1 0 1 0 0⎟ 1 1 0 0 1 0⎟ ⎟ 0 1 0 0 0 1⎠
(7.25)
Anwenden der Codiervorschrift liefert alle Codewörter der Tabelle 7-7. Für das Nachrichtenwort u = (1 0 1 0) erhält man beispielsweise das Codewort
v
§1 ¨ 0 1 0 1 0 : ¨¨ 1 ¨¨ 1 ©
1 0 1 0 0 0· ¸ 1 1 0 1 0 0¸ 1 1 0 0 1 0¸ ¸ 0 1 0 0 0 1 ¸¹
0
0 1 1 0 1 0
(7.26)
In Tabelle 7-7 fällt auf, dass in allen Codewörtern das jeweilige Nachrichtenwort im hinteren Teil direkt abgelesen werden kann. Einen solchen Code bezeichnet man als systematisch. In einem systematischen Code kann die Nachricht direkt aus dem Codewort abgelesen werden. Dass ein systematischer Code vorliegt, ist an der Generatormatrix festzustellen. Es tritt die Einheitsmatrix Ik als Untermatrix auf. G k×n = ( Pk×n−k
Ik )
(7.27)
Anmerkungen: Ik steht für Identity Matrix. Der Index k gibt die Dimension der Matrix an. In der Literatur wird die Einheitsmatrix auch oft an den Anfang gestellt. Damit vertauschen sich nur die Plätze der Komponenten im Codewort. An den Eigenschaften des Codes ändert sich nichts.
Demgemäß spricht man im Codewort von Nachrichtenzeichen und - wie später deutlich wird von Prüfzeichen. ⎛ ⎜ v =⎜ v0 " vn−k−1
⎜ ⎝ n−k Prüfzeichen
⎞ ⎟ vn−k " vn−1 ⎟
⎟ k Nachrichtenzeichen ⎠
(7.28)
sUppLex
195
7.3 Kanalcodierung
7.3.4
Syndrom-Decodierung
Die Aufgabe des Decoders ist es, anhand des Empfangswortes r und dem Wissen über die Codierung die gesendete Nachricht zu rekonstruieren. Im Beispiel des systematischen (7,4)-Hamming-Codes kann eine Fehlerprüfung folgendermaßen durchgeführt werden. Da ein systematischer Code vorliegt, können die Nachrichtenzeichen des Empfangsworts unmittelbar neu codiert werden. Stimmen die so erzeugten Prüfzeichen nicht mit den empfangenen überein, liegt ein Fehler vor. Die Idee wird mathematisch als Prüfgleichungen formuliert. Für den (7,4)-Hamming-Code ergeben sich aus der Codiervorschrift und der angenommenen Nachricht uˆ = (r3 , r4 , r5 , r6 ) die drei Prüfgleichungen entsprechend den ersten drei Spalten der Generatormatrix. r0
⊕ r1 ⊕ r2
⊕
Prüfzeichen
r3
⊕
r3
⊕ r4
r5
⊕ r6 = s0
⊕ r5
= s1
⊕ r5
⊕ r6 = s2
r4
(7.29)
Codierungsvorschrift
Liefert eine Prüfsumme nicht den Wert „0“, so liegt ein Übertragungsfehler vor. Denn durch die Addition des jeweiligen Prüfzeichens r0, r1 bzw. rv3 liefern die Prüfgleichungen unter Beachtung der Modulo-2-Arithmetik bei Übereinstimmung den Wert „0“. Die Prüfgleichungen eines systematischen linearen Blockcodes lassen sich unmittelbar aus der Generatormatrix ablesen und in Matrixform angeben. Mit der Prüfmatrix H n−k×n = ( I n−k
PkT×n−k )
(7.30)
erhält man die Prüfvorschrift der Syndrom-Decodierung ⎛ I n−k ⎞ s = r : H T = r :⎜ ⎟ ⎝ Pk×n−k ⎠
(7.31)
mit dem Syndrom s. Ein Fehler wird erkannt, wenn mindestens eine Komponente des Syndroms ungleich null ist. Im Beispiel des (7,4)-Hamming-Codes erhält man für den Fall einer ungestörten Übertragung r = v = (0011010). ⎛1 ⎜ ⎜0 ⎜0 ⎜ s = ( 0 0 1 1 0 1 0) : ⎜1 ⎜0 ⎜ ⎜1 ⎜ ⎝1
0 1 0 1 1 1 0
0⎞ ⎟ 0⎟ 1⎟ ⎟ 0⎟= ( 0 0 0) 1⎟ ⎟ 1⎟ ⎟ 1⎠
(7.32)
Tritt ein Übertragungsfehler auf, z. B. in der vierten Komponente, d. h. r = (0010010), zeigt das Syndrom den Fehler an.
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
196
s
§1 ¨ ¨0 ¨0 ¨ 0 0 1 0 0 1 0 : ¨ 1 ¨0 ¨ ¨1 ¨1 ©
0 0· ¸ 1 0¸ 0 1¸ ¸ 1 0¸ 1 1¸ ¸ 1 1¸ 0 1 ¸¹
1
1 0
(7.33)
Probiert man alle möglichen Fehlerstellen einzeln durch, erhält man die Syndrom-Tabelle für Einzelfehler in der Tabelle 7-9. Man erkennt, dass der i-ten Fehlerstelle die i-te Spalte der Prüfmatrix als Syndrom zugeordnet ist. Deshalb kann die Fehlerstelle eindeutig erkannt und korrigiert werden. Man beachte auch: Mit n-k = 3 stehen genau drei Prüfstellen und somit drei Komponenten für das Syndrom zur Verfügung. Damit lassen sich genau 23 = 8 verschiedene Syndrome darstellen. Das Syndrom mit nur null in den Komponenten zeigt den Empfang eines Codeworts an. Die restlichen sieben sind genau einer der n = 7 möglichen Fehlerstellen im Empfangswort zugeordnet.
Tabelle 7-9 Syndrom-Tabelle des (7,4)-Hamming Codes für Einzelfehler
Fehlerstelle im Empfangswort r Syndrom s
r0
r1
r2
r3
r4
r5
r6
100
010
001
110
011
111
101
Die am Beispiel des (7,4)-Hamming-Codes eingeführten Größen und Beziehungen für lineare Blockcodes werden nachfolgend mit Hilfe der linearen Algebra zusammengefasst. Den Ausgangspunkt bildet der n-dimensionale binäre Vektorraum mit Modulo-2-Arithmetik. In ihm ist der k-dimensionale Unterraum C mit 2k Codewörtern eingebettet, s. Bild 7-9. Der Code C wird durch k linear unabhängige Basisvektoren g1, ..., gk aufgespannt. Sie bilden die Zeilen der Generatormatrix des Codes.
G k×n
⎛ g1 ⎞ ⎜ ⎟ =⎜ # ⎟= ( Pk×n−k ⎜ ⎟ ⎝g k ⎠
Ik )
(7.34)
Im Falle eines systematischen Codes kann die Generatormatrix in die Matrix P und die Einheitsmatrix I zerlegt werden. Zu C existiert ein dualer Unterraum Cd so, dass das Skalarprodukt zweier Vektoren aus C und Cd stets null ergibt, d. h. dass alle Vektoren aus C zu allen Vektoren aus Cd orthogonal und alle Vektoren mit dieser Eigenschaft in den beiden Unterräumen enthalten sind. Der duale Vektorraum wird durch die n-k linear unabhängigen Basisvektoren h1, ..., hn-k aufgespannt. Sie liefern die Prüfmatrix
sUppLex
197
7.3 Kanalcodierung
H n−k×n
⎛ h1 ⎞ ⎜ ⎟ =⎜ # ⎟= ( I n−k ⎜ ⎟ ⎝h n−k ⎠
PkT×n−k )
(7.35)
wobei der rechte Teil der Gleichung für systematische Codes gilt.
n-dim. binärer Vektorraum mit Modulo-2-Arithmetik Code C
Code Cd
k-dim. Unterraum
(n-k)-dim. Unterraum
Nullvektor 0
Bild 7-9 Vektorraumstruktur des Codes
Bei der Syndrom-Decodierung benutzt der Empfänger die Eigenschaft der Orthogonalität des Codes. G : HT = 0
(7.36)
Für jedes Codewort v C liefert die Syndromberechnung den Nullvektor. s = v : HT = 0
(7.37)
Jedes Empfangswort, das nicht im Code enthalten ist, führt zu einem vom Nullvektor verschiedenen Syndrom. s
r : HT z 0
für r C
(7.38)
Für die Analyse der Syndrom-Decodierung kann die Übertragung wie in Bild 7-10 auf der Bitebene modelliert werden. Der Kanal stellt sich als Modulo-2-Addition (Exor-Verküpfung) des zu übertragenden Codewortes v mit dem Fehlerwort e (Error) dar. Ist die i-te Komponente des Fehlerwortes „1“ so ist die i-te Komponente des Empfangswortes gestört. Das Fehlerereignis im letzten Beispiel, die Störung der vierten Komponente im Empfangswort in (7.33), wird mit dem Fehlerwort e = (0 0 0 1 0 0 0) ausgedrückt. Die Syndrom-Decodierung liefert wegen der Linearität und der Orthogonalität s = r : HT = ( v ⊕ e) : HT = e : H T
(7.39)
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
198
Kanal Nachrichtenwort u
Codewort Encoder
v
Empfangswort EXOR
r=v e
Decoder
decodiertes Nachrichtenwort
e Fehlerwort
Bild 7-10 Übertragungsmodell auf der Bitebene
Die Gleichung bildet die Grundlage für das Verständnis der Fehlererkennungs- und Fehlerkorrektureigenschaften der Syndrom-Decodierung. Es lassen sich die folgenden Fälle unterscheiden: x Fall 1: s = 0 e C
Fall 1.1: e = 0
o fehlerfreie Übertragung
Fall 1.2: e z 0
o Restfehler (nicht erkennbar!)
x Fall 2: s z 0 e C
o ein Fehler wird detektiert
Für den Decodierprozess bedeutet das x im Fall 1: Der Decoder gibt das decodierte Nachrichtenwort aus. Ein Fehler wird nicht erkannt. x im Fall 2: Der Decoder stellt eine Störung fest. Er kann nun eine Fehlermeldung ausgeben und einen Korrekturversuch durchführen.
Am Beispiel des (7,4)-Hamming-Codes kann das Fehlerkorrekturvermögen verdeutlicht werden. Die Syndrom-Tabelle zeigt, dass jeder Einzelfehler eindeutig erkannt wird. In diesem Fall ist es möglich, die Fehlerstelle zu korrigieren. Tritt jedoch ein Doppelfehler auf, wie beispielsweise bei u = (1 0 1 0), v = (0 0 1 1 0 1 0) und r = (1 1 1 1 0 1 0), so kann er am Syndrom nicht eindeutig erkannt werden. Im Beispiel erhält man als Syndrom die vierte Spalte der Prüfmatrix s = (1 1 0). Der Korrekturversuch würde einen Fehler im detektierten Nachrichtenwort uˆ = (0 0 1 0) erzeugen. Das Beispiel macht deutlich, dass der Einsatz der Kanalcodierung auf die konkrete Anwendung und Der Decoder kann ein falsches insbesondere auf den Kanal bezogen werden muss. Nachrichtenwort ausgeben, wenn Liegt ein AWGN-Kanal wie in Abschnitt 5 vor, sind ein nicht erkennbarer Restfehler die Übertragungsfehler unabhängig. Die Wahrscheinauftritt oder ein fehlerhafter Korlichkeit für einen Doppelfehler ist demzufolge viel rekturversuch durchgeführt wird. kleiner als für einen Einfachfehler. Der Korrekturversuch wird dann in den meisten Fällen erfolgreich sein. Liegt ein Kanal mit nur Fehlerpaaren vor, z. B. durch Übersteuerungseffekte denkbar, ist die Korrektur von Einzelfehlern sinnlos. Ebenso wichtig für die praktische Auswahl des Kanalcodierverfahren sind die Einbeziehung der Eigenschaften der Sinke und die Frage nach den Randbedingungen der technischen Realisierung.
sUppLex
199
7.3 Kanalcodierung
7.3.5
Hamming-Distanz und Fehlerkorrekturvermögen
Im vorhergehenden Abschnitten werden die grundsätzlichen Eigenschaften linearer binärer Blockcodes und der Syndrom-Decodierung vorgestellt und am Beispiel des (7,4)-HammingCodes veranschaulicht. Offen bleibt dort jedoch die Fragen: Was unterscheidet „gute Codes“ von schlechten und wie findet man gute Codes? Im Folgenden wird auf diese Fragen eine kurze einführende Antwort gegeben. Zum leichteren Verständnis des Decodiervorgangs benützt man die geometrische Vorstellung des Vektorraums. Bild 7-11 veranschaulicht einen Ausschnitt des n-dimensionalen binären Vektorraums mit den Codewörtern und den restlichen Vektoren. Der Nullvektor ist gesondert markiert. Der Encoder sende ein Codewort v1. Die Übertragung sei gestört. Es können die im letzten Abschnitt diskutierten drei Fälle auftreten: x Im ersten Fall sei die Störung durch den Fehlervektor e1 beschrieben. Man erhält das Empfangswort r1 innerhalb der grau unterlegten Korrigierkugel zu v1. Die Korrigierkugel eines Codeworts ist dadurch gekennzeichnet, dass alle Empfangswörter in der Korrigierkugel bei der Decodierung auf das Codewort abgebildet werden. Im Beispiel wird ein Fehler erkannt und das richtige Codewort v1 decodiert. x Im zweiten Fall sei e2 wirksam. Das Empfangswort r2 liegt in der Korrigierkugel von v2, so dass die Detektion das falsche Codewort v2 ergibt. Da das Empfangswort kein Codewort ist, wird ein Fehler erkannt. x Im dritten Fall wird das Codewort durch e3 in das Codewort v2 verfälscht und ein nicht erkennbarer Restfehler tritt auf.
Aus dem Bild wird deutlich, dass für das Fehlerkorrekturvermögen des Codes die Abstände zwischen den Codewörtern wichtig sind. Da es sich um binäre Vektoren handelt, muss der Abstand geeignet gemessen werden. Man definiert den Abstand zweier binärer Vektoren als die Zahl ihrer unterschiedlichen Komponenten und nennt ihn Hamming-Distanz d ( vi , v j ) =
n−1
∑ vi,l ⊕ v j,l
(7.40)
l=0
Äquivalent zu (7.40) ist die Formulierung mit Hilfe des Hamming-Gewichts, der Zahl der von „0“ verschiedenen Komponenten eines Vektors. d ( v i , v j ) = wH ( v i ⊕ v j )
(7.41)
Ein kleines Beispiel mit den Codewörtern v1 = (1101000) und v 2 = (0110100) aus Tabelle 7-7 veranschaulicht die letzten beiden Definitionen. Die Hamming-Distanz der beiden Codewörter beträgt d ( v1, v 2 ) = (1 ⊕ 0) + (1 ⊕ 1) + (0 ⊕ 1) + (1 ⊕ 1) + (0 ⊕ 1) + (0 ⊕ 0) + (0 ⊕ 0) = 3
(7.42)
und für das Hamming-Gewicht der Exor-Verknüpfung der beiden Codewörter gilt ⎡(1010100)⎦ ⎤= 3 d ( v1, v 2 ) = wH ( v1 ⊕ v 2 ) = wH ⎣
(7.43)
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
200 Fall 1
Fall 2
Fall 3
erkennbarer und korrigierbarer Fehler
erkennbarer Fehler
Restfehler
e1 v2
r1
e3
e2
v1
v2
r2
v1
v1 r3 = v2
Korrigierkugel zu v1 0
0
0
Bild 7-11 Vektorraum mit Codewörtern v und Empfangswörtern r
Will man den für das Fehlerkorrekturvermögen entscheidenden minimalen Abstand zwischen den Codewörtern bestimmen, so ist die Hamming-Distanz für alle Codewort-Paare zu betrachten. Da wegen der Abgeschlossenheit des Vektorraumes jede Linearkombination von Codewörtern wieder ein Codewort ergibt, ist die minimale Hamming-Distanz zweier Codewörter gleich dem minimalen Hamming-Gewicht im Code ohne Nullvektor. d min = min wH ( v)
(7.44)
v∈C \{0}
Im Beispiel des (7,4)-Hamming-Codes ergibt sich aus Tabelle 7-7 die minimale HammingDistanz dmin = 3. Für das Fehlerkorrekturvermögen folgt aus den bisherigen Überlegungen und Beispielen: Ein linearer binärer (n,k)-Blockcode mit minimaler Hamming-Distanz dmin t 2t + 1 kann dmin – 1 Fehler erkennen und bis zu t Fehler korrigieren.
7.3.6
Perfekte Codes und Hamming-Grenze
In Bild 7-11 wird der Fall ausgeklammert, dass ein Empfangswort keiner Korrigierkugel eindeutig zuzuordnen ist. Man spricht von perfekten oder dichtgepackten Codes wenn alle Empfangswörter innerhalb der Korrigierkugeln liegen und somit auch bei Übertragungsfehlern eindeutig decodiert werden können. Nur wenige bekannte Codes sind wie die Hamming-Codes perfekt. Ein Code ist perfekt oder dichtgepackt, wenn alle Empfangswörter innerhalb der Korrigierkugeln liegen.
Aus den Überlegungen zu perfekten Codes kann die Anzahl der Prüfstellen abgeleitet werden, die notwendig sind, um t Fehler korrigieren zu können.
Geht man von einem dichtgepackten linearen binären (n,k)-Blockcode mit minimaler Hamming-Distanz dmin = 2t+1 aus, so existieren genau 2k Codewörter und damit 2k Korrigierkugeln. In jeder Korrigierkugel sind alle Empfangsvektoren mit Hamming-Distanz d d t vom jeweiligen Codevektor enthalten. Dann ist die Zahl der Empfangswörter in jeder Korrigierkugel
sUppLex
201
7.3 Kanalcodierung
⎛ n⎞ ⎛ n⎞ t ⎛ n⎞ 1 + n +⎜ ⎟+" +⎜ ⎟= ∑⎜ ⎟ ⎝ 2⎠ ⎝t ⎠ ⎝l ⎠
(7.45)
l=0
Da die Anzahl der korrigierbaren Empfangswörter nicht größer als die Gesamtzahl aller Elemente im n-dim. binären Vektorraum sein kann, folgt t
⎛n⎞
∑⎜⎝ l ⎟⎠
(7.46)
t ⎛n⎞ 2 n−k ≥ ∑⎜ ⎟ ⎝l ⎠
(7.47)
2n
≥ 2k
l=0
und
l=0
Die Gleichheit gilt nur bei perfekten Codes. Die Gleichung (7.47) wird die Hamming-Grenze genannt. Sie verknüpft die Anzahl der Prüfstellen n-k mit dem Fehlerkorrekturvermögen t des Codes. Am Beispiel des (7,4)-Hamming-Codes mit t = 1 verifiziert man (7.47) schnell. 1 ⎛7⎞ ⎛7⎞ ⎛7⎞ 27−4 = 8 ≥ ∑⎜ ⎟=⎜ ⎟+⎜ ⎟= 1 + 7 = 8 ⎝ l ⎠ ⎝ 0⎠ ⎝1⎠
(7.48)
l=0
7.3.7
Restfehlerwahrscheinlichkeit
Ausgehend von den bisherigen Überlegungen kann die Wahrscheinlichkeit für einen nicht erkannten Übertragungsfehler bestimmt werden. Ein Übertragungsfehler wird nicht erkannt, wenn das gesendete Codewort in ein anderes Codewort verfälscht wird. Aus der Abgeschlossenheit des Codes (Vektorraums) C folgt, dass das Fehlerwort selbst ein Codewort sein muss. Damit sind alle Fehlermöglichkeiten bestimmt und die Summe ihrer Wahrscheinlichkeiten Unabhängigkeit vorausgesetzt - liefert die Restfehlerwahrscheinlichkeit. Hierzu gehen wir von unabhängigen Übertragungsfehlern mit der Wahrscheinlichkeit Pe für jede Komponente (Bitfehlerwahrscheinlichkeit) aus. Damit beispielsweise das Fehlerwort e = (0011010) resultiert, müssen genau drei fehlerhafte und vier fehlerfreie Bits auftreten. Die Wahrscheinlichkeit hierfür ist (Pe)3(1-Pe)4. Man erkennt: für die Wahrscheinlichkeit eines Fehlerwortes ist das Hamming-Gewicht von e entscheidend. Für die Restfehlerwahrscheinlichkeit sind alle möglichen Fehlerwörter in Betracht zu ziehen. Demzufolge kommt es auf die Häufigkeiten der Hamming-Gewichte im Code, die Gewichtsverteilung des Codes, an. Mit Ai gleich der Anzahl der Codewörter mit Hamming-Gewicht i erhält man die Restfehlerwahrscheinlichkeit n
PR =
∑
Ai Pei (1 − Pe ) n−i
(7.49)
i=d min
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
202
Für den (7,4)-Hamming-Code mit der minimalen Hamming-Distanz des Codes dmin = 3 kann die Gewichtsverteilung aus Tabelle 7-7 entnommen werden. Man erhält A0 = 1, A1 = A2 = 0, A3 = 7, A4 = 7, A5 = 0, A6 = 0 und A7 = 1. Ist die Fehlerwahrscheinlichkeit Pe bekannt, liefert (7.49) die Restfehlerwahrscheinlichkeit, s. Tabelle 7-10. Die Bestimmung der Gewichtsverteilung kann bei längeren Codes aufwändig sein. Deshalb ist es wünschenswert, die Restfehlerwahrscheinlichkeit ohne Kenntnis der Gewichtsverteilung abzuschätzen. Eine Abschätzung von oben liefert n
d min
PR = Pe
⋅
∑
Tabelle 7-10
Restfehlerwahrscheinlichkeit PR des (7,4)Hamming-Codes für die Bitfehlerwahrscheinlichkeit Pe
Pe
10-3
10-4
10-5
10-6
PR
7,010-9
7,010-12
7,010-15
7,010-17
i−d min d (1 − Pe ) n−i < (2 k − 1) ⋅ Pe min
Ai Pe
i=d min
(7.50)
<1
Beispiel (7,4)-Hamming-Code
Bei einer binären Datenübertragung im Basisband werde ein (7,4)-Hamming-Code eingesetzt. Die Übertragung sei hinreichend genau durch das Modell eines AWGN-Kanals mit einem SNR von 6 dB und einer Bitrate von 16 kbit/s beschrieben. Wird ein Übertragungsfehler detektiert, so wird ein nochmaliges Senden des Codeworts veranlasst. a) Wie groß ist die Wahrscheinlichkeit, dass das Codewort ungestört übertragen wird? b) Wie groß ist die Wahrscheinlichkeit, dass ein Übertragungsfehler nicht detektiert wird? c) Welche effektive Netto-Bitrate (tatsächlich im Mittel übertragene Nachrichtenbits) stellt sich bei der Übertragung ein? Lösungen a) Ein Codewort wird dann fehlerfrei übertragen, wenn jedes einzelne Bit des Codeworts fehlerfrei detektiert wird. Da bei der Übertragung im AWGN die Detektion der Bits unabhängig ist, gilt mit Pe, der Wahrscheinlichkeit für einen Bitfehler, für die gesuchte Wahrscheinlichkeit P0 = (1 − Pe )
7
(7.51)
Die Bitfehlerwahrscheinlichkeit kann Bild 5-16 entnommen werden Pe ≈ 0,023
(7.52)
Es resultiert die gesuchte Wahrscheinlichkeit für ein fehlerfrei übertragenes Codewort P0 = (1 − 0,023) ≈ 0,85 7
(7.53)
b) Die Wahrscheinlichkeit für einen unerkannten Übertragungsfehler, die Restfehlerwahrscheinlichkeit, ergibt sich nach (7.49)
sUppLex
203
7.3 Kanalcodierung
PR = 7 ⋅ 0,0233 ⋅ 0,977 4 + 7 ⋅ 0,0234 ⋅ 0,9773 + 0,0237 ≈ 7,9 ⋅10−5
(7.54)
Die obere Schranke (7.50) liefert die gleiche Größenordnung d min
(2 k − 1) ⋅Pe
≈ 15 ⋅ 0,0233 ≈ 18 ⋅10−5
(7.55)
c) Die effektive Bitrate des Kanals verringert sich durch das Nachsenden fehlerhaft erkannter Empfangswörter. Im Mittel werden nur etwa 85% der Codewörter richtig empfangen. Der Fall des mehrmaligen Nachsendens wird der Einfachheit halber weggelassen. Der Fall der unerkannten Fehler kann hier wegen der kleinen Restfehlerwahrscheinlichkeit vernachlässigt werden. Die Zahl der tatsächlich pro Zeiteinheit übertragenen Nachrichtenbits, ist nochmals kleiner, da die übertragenen Prüfbits abzuziehen sind. Man erhält insgesamt eine effektive Bitrate k 4 ⋅ 0,85 ⋅16 kbit/s ≈ 7,77 kbit/s Rb,eff = ⋅ P0 ⋅ Rb ≈ n 7
(7.56)
Anmerkung: Das im Beispiel gewählte SNR von 6 dB liefert für eine Bitübertragung eine ungewöhnlich große Bitfehlerwahrscheinlichkeit. Dementsprechend ungewöhnlich groß ist auch der Verlust an effektiver Bitrate.
_______________________________________________________________ Ende des Beispiels Im Beispiel wird die Abhängigkeit der Bitfehlerwahrscheinlichkeit von dem SNR im Übertragungsmodell des AWGN-Kanals angesprochen. Hier ergibt sich ein Aspekt der digitalen Übertragung, der nicht übersehen werden darf. Der Einfachheit halber gehen wir von einer binären Übertragung mit konstanter „Nutz“-Bitrate und gleichbleibender mittlerer Sendeleistung aus. Weiter sei das typische Modell des AWGNKanals mit Matched-Filterempfänger aus Abschnitt 5.5 zugrunde gelegt. Dann ist das SNR (5.15) proportional zur Dauer des Sendegrundimpulses. Der Übergang von den Nachrichtenwörtern mit vier Komponenten auf die Codewörter mit sieben Komponenten bewirkt, dass statt vier jetzt sieben Sendegrundimpulse im gleichen Zeitintervall zu übertragen sind. Folglich verkürzen sich die Sendegrundimpulse auf 4/7 der Dauer im uncodierten Fall. Die Energie der Sendegrundimpulse nimmt ebenfalls um den Faktor 4/7 ab, so dass sich das SNR um ca. 2,4 dB verschlechtert. Oder umgekehrt, im uncodierten Fall läge ein SNR von 8,4 dB vor, was die Bitfehlerwahrscheinlichkeit (4-7) von Pb = 0,0043 ergibt. Im uncodierten Fall ist die Wahrscheinlichkeit für eine fehlerfreie Übertragung der vier Informationsbits wesentlich größer als in (7.53). P0 = (1 − 0,0043) ≈ 0,98 4
(7.57)
Zusammenfassend ist festzustellen: Durch die Codierung nimmt zunächst die Bitfehlerwahrscheinlichkeit wegen des reduzierten SNR bei der Übertragung zu. Dieser SNR-Verlust ist bei der Decodierung mehr als wettzumachen. Man spricht dann von einem Codierungsgewinn. Eine genauere Betrachtung des Problems führt auf ein Schwellenverhalten. Zunächst muss die Bitfehlerwahrscheinlichkeit durch konventionelle Mittel auf einen gewissen Wert reduziert werden, dann kann mit Hilfe der Kanalcodierung die Bitfehlerwahrscheinlichkeit im Rahmen des Übertragungsmodells weitgehend beliebig klein gehalten werden.
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
204
7.3.8
Eigenschaften und Konstruktion der Hamming-Codes
Eine wichtige Familie von einfachen linearen Blockcodes bilden die Hamming-Codes. Für jede natürliche Zahl m t 3 existiert ein Hamming-Code mit folgenden fünf Eigenschaften: Hamming-Codes
Codewortlänge
n = 2m −1
Anzahl der Nachrichtenstellen
k = n−m
Anzahl der Prüfstellen
m = n−k
Fehlerkorrekturvermögen
t = 1 , d min = 3
perfekter Code
;
Anmerkung: Anwendungen der Hamming-Codes finden sich beispielsweise im Kleinzellenfunkstandard Bluetooth und dem Mobilfunk nach GSM.
Die Konstruktion der Hamming-Codes erfolgt vorteilhaft anhand der Prüfmatrix (7.35). Folgende Überlegungen liefern die Konstruktionsvorschrift. c Entsprechend den früheren Ergebnissen zur Syndrom-Decodierung kann jeder Einzelfehler nur dann eindeutig erkannt werden, wenn alle Spalten der Prüfmatrix paarweise verschieden sind. d Damit die Bedingung für die minimale Hamming-Distanz, dmin = 3, erfüllt ist, muss jede Zeile der Generatormatrix G mindestens dreimal eine „1“ enthalten, weil jede Zeile von G selbst ein Codewort ist. Aus (7.34) folgt, dass dann jede Zeile der Matrix P bzw. jede Spalte der transponierten Matrix PT mindestens zweimal eine „1“ aufweist. T
e Die transponierte Matrix PT liefert k unabhängige Spalten mit je m Zeilen zur Prüfmatrix. Da die Zeilenelemente der Spalten nur mit „0“ oder „1“ belegt werden können, existieren zunächst 2m Möglichkeiten verschiedene Spalten anzugeben. Weil in jeder Spalte mindestens zweimal eine „1“ vorkommen muss, sind die Spalten mit nur null (1 Möglichkeit) und nur einer eins (m Möglichkeiten) nicht zugelassen. Es verbleiben genau 2m-m-1 = k Möglichkeiten unterschiedliche Spalten anzugeben. T
Daraus folgt: Die Spalten der transponierten Matrix PT werden durch alle m-Tupel mit Hamming-Gewicht t 2 gebildet. T
Beispiel (15,11)-Hamming-Code
Das Beispiel des (15,11)-Hamming-Codes verdeutlicht den Zusammenhang. ⎛ ⎜ ⎜ 1 0 0 0 ⎜ 0 1 0 0 H 4×15 =⎜ ⎜ 0 0 1 0 ⎜ 0 0 0 1
⎜ I4 ⎝
1 1 0 0
0 1 1 0
0 0 1 1
1 0 1 0
0 1 0 1
1 0 0 1
Hamming−Gewicht
wH =2
1 1 1 0
0 1 1 1
1 0 1 1
1 1 0 1
wH =3
⎞ ⎟ 1 ⎟ 1 ⎟ ⎟ 1 ⎟ 1 ⎟ N ⎟ wH =4 ⎠
Aus der Prüfmatrix kann mit (7.35) und (7.34) die Generatormatrix bestimmt werden.
(7.58)
sUppLex
7.3 Kanalcodierung
⎛ ⎞ ⎜ ⎟ 1 1 0 0 1 0 0 0 0 0 0 0 0 0 0 ⎜ ⎟ ⎜ 0 1 1 0 0 1 0 0 0 0 0 0 0 0 0 ⎟ ⎜ ⎟ 0 0 1 0 0 0 0 0 0 0 0 ⎟ ⎜ 0 0 1 1 ⎜ 1 0 1 0 0 0 0 1 0 0 0 0 0 0 0 ⎟ ⎜ ⎟ 0 0 0 0 1 0 0 0 0 0 0 ⎟ ⎜ 0 1 0 1 0 0 0 0 0 1 0 0 0 0 0 ⎟ G11×15 =⎜ ⎜ 1 0 0 1 ⎟ ⎜ 1 1 1 0 0 0 0 0 0 0 1 0 0 0 0 ⎟ ⎜ ⎟ 0 0 0 0 0 0 0 1 0 0 0 ⎟ ⎜ 0 1 1 1 ⎜ 1 0 1 1 0 0 0 0 0 0 0 0 1 0 0 ⎟ ⎜ ⎟ 0 0 0 0 0 0 0 0 0 1 0 ⎟ ⎜ 1 1 0 1 ⎜ 1 1 1 1 0 0 0 0 0 0 0 0 0 0 1 ⎟
⎟ ⎜ P11×4 I11 ⎝ ⎠
7.3.9
205
(7.59)
CRC-Codes
Sollen Daten, z. B. beim Online-Aktualisieren der Betriebssystem-Software, über das Internet oder LAN übertragen werden, so ist eine zuverlässige Erkennung von Bitfehlern in den Übertragungsrahmen unverzichtbar. Als wichtigstes Hilfsmittel hierfür haben sich Cyclic Redundancy Check (CRC) Codes etabliert. In den einschlägigen Protokollen, s. Abschnitt 6, werden ihre Prüfsummen in den Rahmenfeldern CRC, FCS (Frame Check Sequence), kurz auch Checksum, und HEC (Header Error Control) sichtbar. Für CRC-Codes sprechen die herausragenden Fehlererkennungseigenschaften und die flexible und effiziente Implementierung. Eine Fehlerkorrektur ist in gewissen Grenzen möglich. Auf sie wird jedoch i. d. R. zu Gunsten einer zuverlässigeren Fehlererkennung verzichtet. Bild 7-12 zeigt das Prinzip der Fehlerprüfung. Die Berechnung der binären Prüfsumme FCS aus dem binären Nachrichtenwort u ist allgemein eine Funktion f (u). Das binäre Codewort v der Länge n liegt in systematischer Form vor, d. h. in k Nachrichtenstellen und (n-k) Prüfstellen getrennt. Bei der Übertragung können im gesamten Codewort Bitfehler auftreten. Dabei wird angenommen, dass einzelne Bitfehler (Bit Error) oder Gruppen von Bitfehlern, Fehlerbündel (Error Burst) genannt, quasi zufällig im binären Empfangswort r auftauchen. Im Empfänger wird aus r der empfangene Nachrichtenanteil ur entnommen und eine Berechnung der Prüfsumme FCSr vorgenommen. Sind die empfangene Prüfsumme FCSr und die vor Ort berechnete Prüfsumme FCSc verschieden, so liegt ein Übertragungsfehler im Nachrichtenteil und/oder der Prüfsumme vor. Man beachte: Die umgekehrte Aussage ist nicht richtig! Trotz identischer Prüfsummen kann eine Verfälschung eines Codewortes in ein anderes Codewort, ein so genannter Restfehler, vorliegen. Die Wahrscheinlichkeit für einen Restfehler ist allerdings bei den üblichen CRC-Codes gering, wie noch gezeigt wird. Die Fehlerprüfung durch CRC-Codes beruht darauf, dass alle Codewörter als Produkt aus dem zugehörigen Nachrichtwort und einem, den Code erzeugenden Generatorwort dargestellt werden können. Mathematisch geschieht das mit Hilfe der Polynomdarstellung der binären Nachrichten-, Code- und Generatorwörter. Man spricht von Polynomen über dem Galois-Körper GF(2). D. h., die Bits der Wörter bilden entsprechend ihrem Platz im Wort die Koeffizienten
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
206
der zugeordneten Polynome. Den eineindeutigen Zusammenhang zwischen der Vektordarstellung (Blockdarstellung) und der Polynomdarstellung zeigt das Zahlenwertbeispiel. u = (u0 , u1, u 2 ) = (0,1,1) ↔ u ( X ) = u0 ⋅ X 0 + u1 ⋅ X 1 + u 2 ⋅ X 2 = X + X 2
(7.60)
In der Polynomdarstellung spielt die Variable X selbst keine Rolle, außer dass der zugehörige Exponent die Position des Koeffizienten im Vektor anzeigt. Gerechnet wird mit den Polynomen wie gewohnt. Nur die Rechenoperationen der binären Koeffizienten werden nach der bekannten Modulo-2-Arithmetik durchgeführt. Encoder
Sender
Rahmenprüfsumme
FCS = f (u)
Nachrichtenwort
Codewort
u
u
FCS
v
Kanal Empfänger
Decoder FCSr
Fehler entdeckt
ur
r
Empfangswort
nein FCSr = FCSc ? ja
FCSc = f (ur)
kein Fehler entdeckt Bild 7-12 Prinzip der Fehlerprüfung
CRC-Codes stellen eine Erweiterung der Hamming-Codes dar. Um auch Nachrichtenwörter, die mehrer tausend Bits umfassen, effektiv codieren und decodieren zu können, sich die Codier- und Decodiervorschrift mit der Generatormatrix bzw. Prüfmatrix nicht geeignet. Hier sind effektive Algorithmen notwendig, die nur von zusätzlichen Strukturen im Code abgeleitet werden können. Eine wichtige Familie derartiger Codes sind die zyklischen linearer (n,k)Blockcodes. Sie kennzeichnet zusätzlich, dass jede zyklische Vertauschung eines Codewortes stets wieder ein Codewort liefert. Diese zunächst wenig auffällige Eigenschaft liefert die Grundlage der CRC-Codes. Um den hier abgesteckten Rahmen nicht zu sprengen, wird auf die mathematische Herleitung zugunsten einer ausführlicheren Vorstellung der Anwendung verzichtet. Die mathematische Herleitung und weitere Literaturhinweise findet man z. B. in [Fri95][LiCo04][Wer02]. Ausgehend von einem primitiven Polynom p(x) mit einem Grad m eines zyklischen HammingCodes, wird das den Code erzeugende Generatorpolynom als Produkt definiert g ( X ) = (1 + X ) ⋅ p( x)
(7.61)
Ein derartiger Code wird auch Abramson-Code genannt. In Tabelle 7-11 sind einige wichtige meist von der ITU empfohlene Beispiele zusammengestellt.
sUppLex
207
7.3 Kanalcodierung
Es ergibt sich ein binärer zyklischer (n,k)-Code mit der Codewortlänge n, der Zahl der Prüfstellen r, gleich dem Grad des Generatorpolynoms, und der Zahl der Nachrichtenstellen k n = 2 m − 1; r = m + 1; k = n − r
(7.62)
Anmerkungen: (i) Der aus dem zyklischen (n,m)-Hamming-Code entstandene (n,k)-CRC-Code hat die gleiche Codewortlänge wie der Hamming-Code. Durch die Code-Erweiterung ist die zu codierende Nachricht um eine Stelle verkürzt. Aus dem zyklischen (7,4)-Hamming-Code (m = 3) wird durch die Code-Erweiterung der (7,3)-CRC-Code (r = 4) (ii) Ein Polynom p(x) vom Grad m über GF(2) wird primitiv genannt, wenn es (a) irreduzibel ist, d. h. durch kein anderes Polynom mit Grad größer null und kleiner m ohne Rest geteilt werden kann, und (b), wenn die kleinste Zahl n für die p(x) das Polynom X n + 1 ohne Rest teilt, n = 2m - 1 ist. (iii) Primitive Polynome findet man durch gezieltes Probieren mit dem Computer oder entnimmt sie aus Tabellen in der Literatur. (iv) Eine Erweiterung der Theorie auf nichtbinäre Codes liefert die in der Informationstechnik häufig verwendeten Reed-Solomon- (RS-) und die Bose-Chaudhuri-Hoquenhem (BCH-) Codes. (v) Man beachte, der Begriff CRC wird in der Literatur auch verwendet, wenn ein zyklischer Code eingesetzt wird, z. B. bei GSM in der Sprachübertragung oder bei der ISDN S2M-Schnittstelle. Im Folgenden wird die obige, engere Definition benutzt.
Tabelle 7-11 Generatorpolynome einiger wichtiger CRC-Codes (Abramson-Codes)
Code CRC-81
Generatorpolynom g(X) 1+X+X2+X8
Header Error Control (HEC) bei ATM
1 + X + X 2 + X 5+ X 7 + X 8 3
1+X+X +X
4+
Anwendung
7
X +X
8
HEC bei Bluetooth UMTS2
CRC-121
1 + X + X 2 + X 3 + X 11 + X 12
UMTS
CRC-16 (IBM3)
1 + X 2 + X 15 + X 16
firmenspezifische Lösung
CRC-161
1 + X 5 + X 12 + X 16
HDLC,LAPD, PPP, Bluetooth, UMTS, u. a.
CRC-24
1 + X + X 5 + X 6 + X 23 + X 24
UMTS
CRC-321
1 + X + X2 + X4 + X5 + X7 + X8 + X10 + + X12 + X16 + X22 + X23 + X26 + X32
HDLC, PPP, ATM AAL-Typ 5, u. a.
1) Comite Consultatif International des Télégraphes et Téléphones (CCITT), 1956 aus der International Telephone Consultative Committee (CCIF, 1924) und International Telegraph Consultative Committee (CCIT, 1925) entstanden. 1993 in der International Telecommunication Union (ITU) aufgegangen. 2) Universal Mobile Telecommunications System (UMTS) 3) International Business Machines (IBM), in den USA häufiger verwendet
Die durch ein Generatorpolynom nach (7.61) definierten CRC-Codes haben bzgl. der Fehlererkennung besondere Eigenschaften: Â Alle Fehlermuster bis zum Hamming-Gewicht drei, d. h. bis zu drei fehlerhaften Bits im Empfangswort, werden erkannt. Â Alle Fehlermuster mit ungeradem Gewicht werden erkannt, also 1, 3, 5, 7, 9, … Bitfehler. Â Alle Fehlerbündel1 bis zur Länge m + 1 werden erkannt. Â Von allen möglichen Fehlerbündeln1 der Länge m + 2 wird nur eine Quote von 2-m nicht erkannt.
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
208
 Von allen möglichen Fehlerbündeln1 mit größerer Länge als m + 2 wird nur eine Quote von 2-(m+1) nicht erkannt. 1)
einschließlich der End-Around-Fehlerbündel, s. Bild 7-13.
Anmerkung: Zyklische Codes mit Generatorpolynomen mit Grad r, haben das gleiche Fehlererkennungsvermögen bzgl. der Fehlerbündel wie die CRC-Codes, wenn oben r statt m + 1 gesetzt wird.
0 ... 0 1001 0 … 0 0 ... 0 1101 0 … 0 0 ... 0 1011 0 … 0 0 ... 0 1111 0 … 0
0 ... 0 10001 0 … 0 0 ... 0 10111 0 … 0 0 ... 0 11111 0 … 0 0 ... 0 11001 0 … 0
Fehlerbündel der Länge 4
Fehlerbündel der Länge 5
11 0 ... 0 101 End-AroundFehlerbündel der Länge 5
Bild 7-13 Beispiele für Codewörter mit Fehlerbündel mit „1“ für einen Bitfehler und „0“ für keinen Bitfehler
Beispiel CRC-16-Codes
Der CRC-16-Code in Tabelle 7-11 besitzt ein Generatorpolynom mit Grad r = m + 1 = 16. Den Nachrichten werden in den Codewörtern je 16 Prüfzeichen beigestellt. Die Länge der Codewörter beträgt n = 2m-1 = 215 = 32768. Davon sind k = 32752 Nachrichtenstellen. Damit lassen sich binäre Nachrichten mit bis zu 212 = 2048 Oktette codieren. Anmerkungen: (i) Kürzere Nachrichten können gedanklich durch vorangestellte Bits mit den Werten null passend verlängert werden. Praktischerweise lässt man sie weg, so dass kein zusätzlicher Aufwand entsteht. Man spricht dann von verkürzten Codes. (ii) Verkürzte Codes haben weniger Bits und damit weniger mögliche Positionen für Bitfehler. Die Fehlerwahrscheinlichkeit, d. h. insbesondere auch die Restfehlerwahrscheinlichkeit, wird dadurch kleiner.
Durch den CRC-16-Code werden alle Fehlerbündel der Länge r = 16 erkannt. Sind im gesicherten Teil des Rahmens maximal zwei benachbarte Oktette von Bitfehlern betroffen, so wird ein Fehler angezeigt. Von Fehlerbündeln der Länge 17 werden 1-2-15, d. h. mehr als 99,996 %, erkannt. Bei allen längeren Fehlerbündeln ist die Erkennungsquote größer als 99,9998 %. Bei den berechneten Quoten ist noch nicht berücksichtigt, dass alle Fehlerereignisse mit drei oder weniger Bitfehlern und alle ungeraden Anzahlen von Bitfehlern durch die Fehlerprüfung erkannt werden. _______________________________________________________________________________ Ende des Beispiels
Bevor tatsächlich ein praktisches Zahlenwertbeispiel zur Fehlerprüfung vorgestellt werden kann, ist noch eine Modifikation des Algorithmus einzuführen. Die theoretischen Überlegungen gehen von der Produktdarstellung der Codewörter mit dem Generatorpolynom (7.61) aus. Dies führt allerdings zu nicht systematischen Codes. Mit einer relativ einfachen Modifikation kann ein äquivalenter systematischer Code angegeben werden. Es ergibt sich ein systematischer CRC-Code mit gleichen Eigenschaften, wenn die um r Positionen verschobenen Nachrichtenwörter mit ihren Divisionsresten zu Codewörtern ergänzt werden. In der Polynomdarstellung v ( X ) = X r ⋅ u ( X ) + b( X )
(7.63)
sUppLex
209
7.3 Kanalcodierung
Darin ist b(X) der Rest, der sich nach Division von X r⋅u(X) mit dem Generatorpolynom ergibt b( X ) = ( X r ⋅ u ( X ) ) mod g ( X )
(7.64)
Das Verfahren ermöglicht unmittelbar die Fehlerprüfung nach Bild 7-12. Es wird nachfolgend an einem Beispiel erläutert. Beispiel CRC-4-Code - Codierung und Fehlerprüfung Für ein „handliches“ Beispiel wählen wir den CRC-4-Code mit dem Generatorpolynom mit Grad r = 4 g ( X ) = (1 + X ) ⋅ p( x) = (1 + X ) ⋅ (1 + X + X 3 ) = 1 + X 2 + X 3 + X 4
(7.65)
Anmerkungen: (i) Man beachte die Modulo-2-Arithmetik in den Polynomkoeffizienten mit 1⊕1 = 0. (ii) p(x) = 1+X+X 3 ist das primitive Polynom zum zyklischen (7,4)-Hamming-Code.
Es resultiert ein (7,3)-CRC-Code mit der Codewortlänge n = 7 und k = 3 Nachrichtenstellen. Die Codierung stellen wir beispielhaft für das Nachrichtenwort u = (1,0,1) vor. Hierfür dividieren wir X 4 ⋅ u(X) durch das Generatorpolynom g(X) mit dem euklidischen Divisionsalgorithmus in Tabelle 7-12. Wir erhalten das Codepolynom v(X) = X 6 + X 4 + X + 1 bzw. den Codevektor v = (1,1,0,0,1,0,1). Tabelle 7-12 Euklidischer Divisionsalgorithmus für die Codierung des CRC-4-Codes verschobene Nachricht X6
+X
X6
+X 5
-
X5
Generatorpolynom
4
:
+X 4
X4
+
X3
+
X2
+1
Faktor =
X 2+X+1
+X 2 +X 2
X5
+X 4
+X 3
-
+X 4
+X 3
+X 2
+X 4
+X 3
+X 2
-
-
-
+X +X +1 X
+1
= b(X) Rest
Das Empfangswort wird auf die Zugehörigkeit zum Code geprüft. Dazu führen wir erneut die Division mit dem Generatorpolynom durch, s. Tabelle 7-13. Wie gefordert ergibt sich das Nullpolynom 0(X) als Rest. Bei der Decodierung spricht man von dem Syndrom s(X), da im Falle s(X) ≠ 0(X) ein Fehler sicher erkannt wird. Tabelle 7-13
X6 X6 -
+X 5 X5 X5 -
Euklidischer Divisionsalgorithmus für die Syndromberechnung (Fehlerprüfung) mit dem Empfangswort r = v = (1,1,0,0,1,0,1) Empfangspolynom
Generatorpolynom
+X 4
X4
+X 4 +X 4 +X 4 +X 4 -
+X 2 +X 2 +X 3 +X 3 +X 3 -
+X 2 +X 2 -
+X
+1
+X +X
+1
-
+1 +1 0
:
+
X3
+
X2
+1
Faktor =
X2
+X+1
= 0(X) = s(X) Syndrom
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
210
Anmerkungen: (i) Syndrom, griechisch für das Symptom in der Medizin, an dem eine Krankheit erkannt werden kann. (ii) Der systematische Aufbau der Tabelle 7-12 und Tabelle 7-13 und ihrer Einträge verifiziert die allgemeine Gültigkeit des Codierverfahrens. Dass die guten Eigenschaften der Fehlererkennung des CRC-Codes zu g(X) tatsächlich vorliegen, d. h. der Code äquivalent ist, kann allgemein gezeigt werden.
Die Fehlererkennung demonstrieren wir an zwei Beispielen. Im ersten bringen wir einen Bitfehler in der ersten Nachrichtenstelle im Codewort ein und berechnen das Syndrom in Tabelle 7-14.
Tabelle 7-14
Euklidischer Divisionsalgorithmus für die Syndromberechnung (Fehlerprüfung) mit dem Empfangswort r = (1,1,0,0,0,0,1), also Fehler bei r4
Empfangspolynom mit Fehler X6 X6 -
+X 5 X5 X5 -
+X 4 +X 4 +X 4 -
Generatorpolynom
+X
+1
+X +X
+1
:
X4+X3+X2+1
Faktor =
X2 + X
+X 2 +X 3 +X 3
= s(X) ≠ 0(X) Syndrom zeigt Fehler an!
+1
Im zweiten Beispiel verifizieren wir die Behauptung, dass eine ungerade Anzahl von Bitfehlern stets erkannt wird. Dazu nehmen wir alle sieben Bits als gestört an und berechnen das Syndrom in Tabelle 7-15. Das Syndrom zeigt wie erwartet den Fehler an.
Tabelle 7-15
Euklidischer Divisionsalgorithmus für die Syndromberechnung (Fehlerprüfung) mit dem Empfangswort r = (0,0,1,1,0,1,0) Empfangspolynom
-
+X 5 +X 5 -
+X 3 +X 4 +X 4 +X 4 -
+X 3 +X 3 +X 3
Generatorpolynom
+X 2 +X 2 +X 2
:
X4
+
X3
+
X2
+1
Faktor =
X+1
+X +X +X
+1 +1
Syndrom zeigt Fehler an!
________________________________________________________________________________Ende des Beispiels
Die Codier- und Decodier-Algorithmen auf der Basis des euklidischen Divisionsalgorithmus sind oben in Form von systematischen Bearbeitungen von Tabellen realisiert. Eine Umsetzung in eine relativ einfache Hardware ist deshalb möglich. Es wird im Coder und Decoder jeweils ein linear rückgekoppeltes Schieberegister benötigt. Die prinzipiellen Schaltungen erklären sich am einfachsten anhand eines übersichtlichen Beispiels. Beispiel CRC-4-Code - Schaltungen zur Syndromberechnung Wir beginnen der Einfachheit halber mit der Schaltung zur Syndromberechnung. Sie führt die Polynomdivision entsprechend dem euklidischen Divisionsalgorithmus wie in Tabelle 7-13
sUppLex
211
7.3 Kanalcodierung
durch. Die Schaltung und ihre Funktion werden in Bild 7-14 gezeigt. Sie besteht aus einer Kette von sieben (n) 1-Bit-Registern. Die vier (r) letzten Register, s0 bis s3 (sr), sind die Syndromregister. Sie enthalten nach drei (k) Takten den Divisionsrest, das Syndrom. Dabei wird in zwei Phasen vorgegangen. Anmerkungen: (i) Die Ergänzungen in Klammern beziehen sich auf den allgemeinen Fall eines (n,k)CRC-Codes. (ii) Im Fall eines verkürzten Codes werden die nicht übertragenen Bits übersprungen.
Im ersten Schritt, der Ladephase, wird das Empfangswort rechtsbündig in die Registerschaltung geladen, d. h. s3 (sr) enthält v6 (vn-1), s2 (sr-1) enthält v5 (vn-2), usw. In Bild 7-14 sind für v=(u0, u1, u2, u3, u4, u5, u6)=(1,1,0,0,1,0,1) die Werte in der Zeile für den Takt „0“ eingetragen. Mit dem zweiten Schritt beginnt die Rückführungsphase. Das ganz rechte Syndromregister s3 (sr) koppeln wir entsprechend dem Generatorpolynom g(X) = (g0, g1, g2, g3) = (1,0,1,1) zurück. Dabei wird jeweils eine Modulo-2-Addition eingesetzt. Nach dem ersten Takt erhalten wir in Bild 7-14 die zweite Zeile der Tabelle, nach dem zweiten Takt die dritte, usw. Nach drei (k) Takten resultiert der Divisionsrest in den Syndromregistern. Im Beispiel ist das Empfangswort ein Codewort. Das Syndrom ist demzufolge das Nullpolynom. _______________________________________________________________________________ Ende des Beispiels
g0 Empfangswort
g1 = 0 s0
Takt 0 1 2 3
g2 s1
g3 s2
s3
Syndromregister 1
1
0
0
1
0
1
1
1
1
0
0
1
1
0
1
1
1
0
0
0
0
Bild 7-14 Schieberegister-Schaltung zur Syndromberechnung für den CRC-4-Code mit Generatorpolynom g(X) = 1 + X 2 + X 3 + X 4
Anmerkung: Unter Berücksichtigung der Eigenschaften des Galois-Körper GF(2) handelt es sich bei der Schaltung um ein rekursives lineares zeitinvariantes System. Man spricht deshalb auch von einem linear rückgekoppelten Schieberegister.
Die Codierung mit einer Schieberegister-Schaltung, d. h. Ergänzen der Nachricht durch den Divisionsrest, geschieht ähnlich wie die Syndromberechnung. Durch eine leichte Modifikation ergibt sich eine besonders effiziente Schaltung. Zur Codierung ist die verschobene Nachricht, allgemein X r u(X), durch das Generatorpolynom zu dividieren. Die Verschiebung des Nachrichtenwortes um r Positionen nach rechts vor der Division ist äquivalent zu einer Einspeisung des Nachrichtenwortes nach dem Syndromregister sr. Beispiel CRC-4-Code - Schaltungen zur Codierung
Die Schaltung zur Codierung des CRC-4-Codes ist in Bild 7-15 zu sehen. Sie arbeitet in zwei Phasen, gekennzeichnet durch die Schalterstellungen c und d. In der ersten Phase wird unten die Nachricht in drei (k) Takten in das Codewortregister geschoben und gleichzeitig oben in
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
212
den b-Registern der Divisionsrest berechnet. Danach wird in der zweiten Phase in vier (r) Takten der Divisionsrest als Prüfstellen b0 bis b3 unten in das Codewortregister geschoben. Damit es dabei zu keiner Neuberechnung in den b-Registern kommt, wird oben die Rückführung aufgetrennt. Es ergibt sich schließlich das systematische Codewort, das nun übertragen werden kann. Das Zahlenwertbeispiel in Tabelle 7-12 kann in Bild 7-15 ganz entsprechend zu Bild 7-14 nachvollzogen werden. d Schalter g0
g2 b0
b1
Nachrichtenwort
g3 b2
u0
u1
b3
u2
S2
c
Schalter d S1 v0
v1
v2
v4
v5
v6
b0
b1
b2 b3 u0
u1
u2
c
Codewort v3
Bild 7-15 Schieberegister-Schaltung zur Codierung für den CRC-4-Code mit Generatorpolynom g(X) = 1 + X2 + X3 + X4
7.4
Zusammenfassung
Information ist in unserer alltäglichen Vorstellung subjektiv und kontextbezogen. Formulierungen wie „wichtige Information“ oder „irreführende Information“ machen das deutlich. Will man Information im physikalisch-technischen Sinne erfassen, so ist eine Definition als messbare Größe notwendig. Hier hat sich die axiomatische Definition durch Shannon bewährt. Zu deren Verständnis geht man von der Vorstellung aus, dass Information Ungewissheit auflöst. Ungewissheit herrscht überall da, wo ein Zufallsexperiment stattfindet. Ist der Versuchsausgang bekannt, so ist die Ungewissheit beseitigt. Jedes Ereignis eines Zufallsexperimentes besitzt demzufolge einen Informationsgehalt. Shannon weist den Ereignissen eines Zufallsexperimentes nach ihren Auftrittswahrscheinlichkeiten einen Informationsgehalt zu. Dabei erweist es sich als nützlich, das Negative der Logarithmusfunktion der Auftrittswahrscheinlichkeit zu verwenden. Im Falle des Zweierlogarithmus wird die Pseudoeinheit „bit“ gesetzt. Sie spiegelt die praktische Anwendung wider. So kann eine Informationsquelle mit mittlerem Informationsgehalt, Entropie genannt, von x bit nach dem Quellencodierungstheorem auch prinzipiell durch einen binären Code dargestellt werden, dessen mittlere Codewortlänge in Binärzeichen beliebig nahe an die Entropie herankommt. Ein praktisches Verfahren hierzu ist die redundanzmindernde HuffmanCodierung. Zu der Frage „Was ist Information?“ kommt in der Nachrichtentechnik eine zweite wichtige Frage hinzu: wie kann die Information gegen technische Fehler bei der Übertragung und Speicherung geschützt werden? Die Antwort darauf liefert die Kanalcodierung. Durch gezieltes hinzufügen von Prüfzeichen können Fehler erkannt und gegebenenfalls korrigiert werden. In einfacher Form geschieht dies bei Paritätscodes. Eine wichtige Familie von Kanalcodierverfahren sind die linearen Blockcodes, wie z. B. die Hamming-Codes. Die Codewörter linearer Blockcodes werden als binäre Vektoren aufgefasst. Codierung und Fehlerdetektion durch die Syndromdecodierung fußen auf den Eigenschaften des zugrunde liegenden Vektorraums. Wichtig ist der minimale Hamming-
sUppLex
213
7.5 Aufgaben zu Abschnitt 7
Abstand. Er gibt an, an wie vielen Stellen sich die Codewörter mindestens unterscheiden und damit, wie robust der Code gegen Übertragungsfehler ist. Als in der Praxis besonders nützlich hat sich eine spezielle Art der linearen Blockcodes erwiesen, die CRC-Codes. Fordert man, dass jede zyklische Vertauschung eines Codeworts eines linearen Blockcodes wieder ein Codewort liefert, entsteht die Familie der zyklischen Codes. CRC-Codes besitzen neue mathematische Eigenschaften die besonders nützlich sind für effektive Konstruktion der Codes, effiziente Codierung- und Decodierschaltungen mit Schieberegistern und nicht zuletzt hervorragende Fehlererkennungseigenschaften. Letzteres macht sich besonders Interessant für alle Arten der gesicherten, rahmenorientierten Datenübertragung mit Fehlerüberwachung und Wiederholungsanforderung.
7.5
Aufgaben zu Abschnitt 7
Aufgabe 7.1
Eine diskrete gedächtnislose Quelle habe den Zeichenvorrat X = {x1, x2, ..., x8} mit den in Tabelle A7.1 zugeordneten Wahrscheinlichkeiten pi.
Tabelle A7.1 Wahrscheinlichkeiten der Zeichen xi
i
1
2
3
4
5
6
7
8
pi
1/2
1/4
1/8
1/16
1/32
1/64
1/128
1/128
Berechnen Sie den Entscheidungsgehalt, die Entropie und die Redundanz der Quelle. Aufgabe 7.2
Eine diskrete gedächtnislose Quelle habe den Zeichenvorrat X = {x1, x2,..., x6} mit den in Tabelle A7.2 zugeordneten Wahrscheinlichkeiten pi. Tabelle A7.2 Wahrscheinlichkeiten der Zeichen xi
a) Berechnen Sie den Entscheidungsgehalt, die Entropie und die Redundanz der Quelle.
i
1
2
3
4
5
6
pi
0,08
0,20
0,05
0,12
0,30
0,25
b) Führen Sie eine Huffman-Codierung durch und geben Sie die resultierende Effizienz des Codes an. c) Skizzieren Sie den Codebaum zum Huffman-Code. Aufgabe 7.3
Eine diskrete gedächtnislose Quelle habe das Alphabet X = {x1, x2, ..., x4} mit den in Tabelle A7.3 zugeordneten Wahrscheinlichkeiten pi.
Tabelle A7.3 Wahrscheinlichkeiten der Zeichen xi
i
1
2
3
4
a) Führen Sie eine Huffman-Codierung durch.
pi
0,4
0,2
0,2
0,2
b) Führen Sie erneut eine Huffman-Codierung durch, wobei Sie x1 beim Zusammenfassen zuletzt mit einbeziehen. Welcher der beiden Codes ist zur Datenübertragung besser geeignet und warum?
sUppLex
7 Grundbegriffe der Informationstheorie und der Kanalcodierung
214 Aufgabe 7.4
Eine diskrete gedächtnislose Quelle habe den Zeichenvorrat X = {x1, x2, ..., x6} mit den in Tabelle A7.4 zugeordneten Wahrscheinlichkeiten pi. a) Berechnen Sie den Entscheidungsgehalt, die Entropie und die Redundanz der Quelle. b) Führen Sie eine für die Datenübertragung günstige Huffman-Codierung durch und geben Sie die resultierende Effizienz des Codes an. c) Skizzieren Sie den Codebaum zum Huffman-Code. Aufgabe 7.5
Tabelle A7.4 Wahrscheinlichkeiten der Zeichen xi
i
1
2
3
4
5
6
pi
0,4
0,2
0,2
0,1
0,05
0,05
a) Überprüfen Sie die Richtigkeit der ISBN-Nummer 3-528-03951-5. b) Bestimmen Sie die ISBN-Nummer für ein Buch des Verlages Mc Graw-Hill, U.S.A., mit der Verlagskennung „07“ und der internen Nummer „085971“. Aufgabe 7.6
Zu einem linearen, binären und systematischen (6,3)-Blockcode sind die Gleichungen zur Berechnung der Prüfzeichen gegeben. v1 = u1 ⊕ u 2 v2 = u1 ⊕ u2 ⊕ u3 v3 = u1 ⊕ u3
a) Geben Sie die Generatormatrix an. b) Stellen Sie die Codetabelle auf. c) Geben Sie die minimale Hamming-Distanz des Codes an. d) Es wird r = (110110) empfangen. Geben Sie die zugehörige Nachricht an. Führen Sie gegebenenfalls eine Fehlerkorrektur durch. Aufgabe 7.7
Zur Fehlererkennung werden die 7 Bits der ASCII-Zeichen (American Standard Code for Information Interchange) oft durch ein Paritätsbit zu einem Datenwort ergänzt. Tatsächlich war dieser Gedanke der Grund dafür, dass man sich beim ASCII-Code auf 27 = 128 Symbole beschränkte, um mit dem Paritätsbit die typische Wortlänge von 8 Bit = 1 Byte zu erreichen. Man unterscheidet zwischen gerader und ungerader Parität. Bei gerader Parität werden die 7 Bits des ASCII-Zeichens durch das Paritätsbit so ergänzt, dass die Modulo-2-Addition aller 8 Bits, die Prüfsumme, „0“ ergibt. Bei ungerader Parität liefert die Prüfsumme den Wert „1“. Für die folgenden Überlegungen wird eine Störung entsprechend dem AWGN-Kanalmodell mit der Bitfehlerwahrscheinlichkeit Pe angenommen. a) Bestimmen Sie die Wahrscheinlichkeit für ein fehlerfreies Datenwort. b) Bestimmen Sie die Wahrscheinlichkeit für einen erkennbaren Wortfehler. c) Bestimmen Sie die Wahrscheinlichkeit für einen nicht erkennbaren Wortfehler. d) Schätzen Sie die Größen in a), b) und c) für Pe = 10-3, 10-6 und 10-9 ab.
sUppLex
215
7.5 Aufgaben zu Abschnitt 7 Aufgabe 7.8
Bei einer binären Datenübertragung im Basisband wird ein (7,4)-Hamming-Code eingesetzt. Die Übertragung kann hinreichend genau durch das Modell eines AWGN-Kanals mit einer Bitfehlerwahrscheinlichkeit Pe = 10-6 und einer Bitrate von 16 kbit/s beschrieben werden. Wird ein Übertragungsfehler detektiert, so wird ein nochmaliges Senden des Codeworts veranlasst. a) Wie groß ist die Wahrscheinlichkeit, dass das Codewort ungestört übertragen wird? b) Schätzen Sie die Wahrscheinlichkeit ab, dass ein nicht erkennbarer Übertragungsfehler auftritt. c) Welche effektive Netto-Bitrate (tatsächlich im Mittel übertragene Nachrichtenbits) stellt sich bei der Übertragung näherungsweise ein? Aufgabe 7.9
Nennen Sie die Vor- und Nachteile der Huffman-Codierung. Aufgabe 7.10
Erklären Sie den Begriff „Restfehlerwahrscheinlichkeit“ im Zusammenhang mit der SyndromDecodierung. Aufgabe 7.11
Was versteht man unter einem CRC-Code? Warum werden CRC-Codes häufig in der Datenübertragung häufig eingesetzt? Begründen Sie Ihre Antwort. Aufgabe 7.12
Erklären Sie das Prinzip der Fehlerprüfung mit Prüfsummen. Werden bei der mit CRC-Code geschützten Datenübertragung alle Fehler erkannt? Begründen Sie Ihre Antwort. Aufgabe 7.13
Bei der Übertragung von ATM-Zellen wird des HEC-Feld mit der CRC-8-Prüfsumme nach Tabelle 7-11 gesetzt. a) Welche Codewortlänge besitzt der CRC-8-Code? Wie groß ist der Nachrichtenanteil? b) Nimmt die Fehlerwahrscheinlichkeit bei Code-Verkürzung zu, bleibt gleich oder nimmt an? Begründen Sie Ihre Antwort. c) Codieren Sie die Nachricht u = (1,0,1,0,…,0) d) Ist im Empfangswort r = (0,0,1,1,0,0,0,1,0,…,0) ein Fehler enthalten? Begründen Sie Ihre Antwort.
sUppLex
216
8
Mobilkommunikation
8.1
Einführung
Im 19. Jahrhundert begann mit der Telegraphie und später dem Telefon der Siegeszug der elektrischen Nachrichtentechnik. 1832 sagte Michael Faraday die Existenz elektromagnetischer Wellen voraus. 1864 stellte James C. Maxwell die grundlegende mathematische Theorie bereit und beschrieb die Wellenausbreitung 1873. Und als 1888 Heinrich R. Herz die experimentelle Bestätigung der maxwellschen Theorie gelang, war die Zeit reif für die drahtlose Telegraphie. Bereits 1895 führten Guglielmo M. Marconi in Bologna, Alexander St. Popov in Sankt Petersburg und Ferdinand Schneider in Fulda die drahtlose Telegraphie vor. 1899 gelang Marconi die Funkübertragung von Morsezeichen über den Ärmelkanal (52 km) und 1901 von England nach Neufundland (3600 km). Anmerkung: In Deutschland unternahmen zunächst A. K. H. Slaby und G. W. A. H. v. Arco Funkexperimente in größerem Maßstab, wobei militärische Anwendungen im Blickpunkt lagen.
Vor 1900 wurde die drahtlose Telegraphie bereits für die Seenotrettung eingesetzt. Schon 1901 experimentierte Marconi mit einer Funkanlage in einem Autobus. Zunächst waren jedoch die Funkgeräte und die benötigten Generatoren bzw. Batterien groß und schwer. Und weil bei den anfänglich niedrigen Frequenzen Antennen großer Abmessungen eingesetzt werden mussten, wurden die Funkgeräte zunächst in Schiffen und erst später in Flugzeugen und Kraftfahrzeugen eingebaut. Erst die Miniaturisierung durch die Mikroelektronik, die mit der Erfindung des Transistor 1947 durch J. Bardeen, W. H. Brattain und W. Shockley eingeleitet wurde, machte Funkgeräte „tragbar“. Heute ermöglicht die Mikroelektronik komplexe Algorithmen der modernen Nachrichtentechnik in handliche und bezahlbare Geräte zu integrieren. Im Folgenden werden wichtige technische Grundlagen der modernen Mobilkommunikation mit Blick auf die Systemlösungen vorgestellt. Zunächst wird mit GSM (Global System for Mobile Communication) ein öffentliches, zellulares, digitales Mobilfunknetz erläutert. Es wurde primär für die leitungsvermittelte Sprachtelefonie entwickelt und wird darum als Mobilfunknetz der 2. Generation bezeichnet. Die ersten GSM-Netze gingen 1991/92 in den kommerziellen Betrieb. Anmerkungen: (i) Als Netze der 1. Generation, werden die früheren analogen Netze wie das A-, B- und C-Netz in Deutschland bezeichnet. (ii) Das C-Netz benutzte bereits eine digitale Signalisierung, die Sprachübertragung war jedoch analog.
Danach wird die Ergänzung von GSM zu einem paketvermittelten Datennetz vorgestellt: GPRS (General Packet Radio Service) genannt und 2001 kommerziell eingeführt. Man bezeichnet GPRS als ein Netz der 2,5. Generation, einen Zwischenschritt zur 3. Generation. Mit UMTS (Universal Mobile Telcommunication System) wird die 3. Generation von öffentlichen Mobilfunknetzen behandelt. Erstmals steht damit ein System zur Verfügung, das primär für paketorientierte Datenübertragungen und Multimedia-Anwendungen konzipiert wurde. Dementsprechend werden an UMTS besondere Anforderungen an Flexibilität und Übertragungskapazität gestellt.
sUppLex
8.2 Global System for Mobile Communication (GSM)
217
Neben den öffentlichen, zellularen Mobilfunknetzen kommen heute neue Möglichkeiten der drahtlosen Vernetzung von Notebooks, Personal Digital Assistants (PDAs), usw. zum Einsatz. Eine Einführung in das Thema WLAN (Wireless Local Area Network) rundet das Thema Mobilkommunikation ab.
8.2
Global System for Mobile Communication (GSM)
8.2.1
Einführung
Anfang der 1990er Jahre ist in Deutschland die Mobilkommunikation durch die digitalen Mobilfunknetze D1 und D2 erstmals für die breite Öffentlichkeit erschwinglich geworden. Der heute erreichte Ausbau mit vier Netzbetreibern ermöglicht einen Zugang praktisch „überall und jederzeit“, s. Bild 8-1. Darüber hinaus werden bereits Merkmale zur Verfügung gestellt, die unter dem Schlagwort intelligente Netze die öffentlichen Telekommunikationsnetze in Zukunft prägen werden. Darunter versteht man Telekommunikationsnetze die durch den massiven Einsatz von Mikrocomputern zur Informationsverarbeitung die nötige Flexibilität und „Intelligenz“ besitzen, um die Teilnehmermobilität und die kundenspezifische Dienstanforderung zu ermöglichen. Das Angebot an mobilen Telekommunikationsdiensten, kurz Teledienste genannt, ist bei GSM noch eingeschränkt. Mobilfunknetze der 2. Generation sind primär auf die leitungsvermittelte Sprachübertragung und „schmalbandige“ Teledienste, wie die Übermittlung von Kurznachrichten, ausgelegt.
Durchdringung
100 % 80 % 64,8 56,1
60 %
59,1
48,2 40 % 23,5 13,9
20 % 1
1,8
2,5
1992
1993
1994
3,8
5,6
8,3
1995
1996
1997
1998
1999
2000
2001
2002
2003
Bild 8-1 GSM-Teilnehmer in Deutschland in Millionen [Quelle: Der Spiegel 12/04] bei ca. 82,5 Millionen Einwohnern in Deutschland 2003 und prozentualer Anteil an der Bevölkerung (Durchdringung)
Die Erwartungen der Konsumenten stellen an Mobilfunknetze hohe Anforderungen bei schwierigen physikalischen Ausbreitungsbedingungen der die Information tragenden elektromagnetischen Wellen. Dieser Abschnitt will einen Einblick in die Mobilkommunikation am Beispiel des weltweit am meisten verbreiteten Mobilfunksystems GSM geben und so auch eine Vorstellung vermitteln, welch enormer technischer und organisatorischer Aufwand für die moderne Mobilkommunikation erforderlich ist.
sUppLex
218
8 Mobilkommunikation
Die technische Grundlage bildet der GSM-Standard, eine umfassende Empfehlung für den Aufbau und Betrieb eines kompletten Mobilfunksystems. Die Geschichte von GSM beginnt etwa 1979. Einige wichtige Stationen der Entwicklung sind: 1979 Freigabe des Frequenzspektrums für die öffentliche Mobilkommunikation durch die World Administrativ Radio Conference (WARC). 1982 Einsetzen der Studiengruppe Groupe Spéciale Mobile durch die Conférence Européen des Administrations des Postes et des Télécommunications (CEPT). 1987 Vorlage des Systemkonzepts. Wesentliche europäische Netzbetreiber verpflichten sich zur Einführung von GSM-Netzen ab 1991/92. 1988 Spezifizierung von GSM durch das European Telecommunications Standards Institute (ETSI) beginnt. 1992 In Deutschland werden unter den Namen D1 (T-Mobile Deutschland) und D2 (Vodafone D2) Mobilfunknetze nach dem GSM-Standard in Betrieb genommen; 1994 folgt E-Plus (E-Plus Mobilfunk) und 1998 E2 (O2 Germany). 1993 Die GSM-Netze erreichen weltweit über 1 Million Teilnehmer. 1995 Die GSM Phase 2 mit Zusatzdiensten, wie FAX-Daten und Short Message Service (SMS), wird verabschiedet und 1996 eingeführt. Das verbesserte Sprachcodierverfahren Enhanced Full Rate Codec (EFR) wird eingesetzt. Das erste GSM-Netz in den USA geht in den kommerziellen Betrieb. 1997 ETSI standardisiert General Packet Radio Service (GPRS) für GSM 1999 ETSI standardisiert Universal Mobile Telecommunication System (UMTS, Release 3) 2000 Die Datenübertragung High Speed Circuit-Switched Data (HSCSD) wird verfügbar. Auf der CeBIT 2000 wird GPRS mit der Datenrate von 53,6 kbit/s vorgeführt. Die Versteigerung der UMTS-Lizenzen in Deutschland erbringt ca. 50 Milliarden Euro. 2001 Die GSM Phase 2+ geht mit dem General Packet Radio Service (GPRS) Phase 1 in den kommerziellen Betrieb. Die Einführung eines neuen Kanalkodierverfahrens ermöglicht in einem Verkehrskanal eine maximale Datenrate von 14,4 kbit/s statt bisher 9,6 kbit/s. Erste umfangreichere Feldversuche mit dem UMTS auf der Isle of Man. 2002 GPRS Phase 2 mit Bitraten bis 112 kbit/s geplant; Datenübertragung mit Enhanced Data Rates for GSM Evolution (EDGE). In Österreich geht UMTS-Netz in den kommerziellen Betrieb. UMTS Release 5 festgelegt. 2003 GSM ist der weltweit führende Mobilfunkstandard. In 172 Ländern gibt es über 474 GSM-Netze mit ca. 821 Millionen Teilnehmern. 2004 UMTS-Netze in Deutschland im kommerziellen Betrieb. Der überwältigende Erfolg von GSM beruht letzten Endes auf nichttechnischen Faktoren. GSM ist von der ETSI als offener Standard so konzipiert, dass ein Wettbewerb zwischen den Herstellern von Netzkomponenten, den Netzbetreibern und den Anbietern von Zusatzdiensten jeweils möglich wird. GSM ist ein gelungenes Beispiel dafür, wie konkurrierende Wettbewerber durch Zusammenarbeit einen neuen Markt zum Nutzen der Kunden erschließen können. Für den Teilnehmer bedeutet GSM statt der bis Anfang der 1990er Jahren herkömmlichen apparatbezogenen Telefonie eine am Teilnehmer orientierte Telekommunikationsinfrastruktur, s. Tabelle 8-1. GSM unterstützt die Mobilität der Teilnehmer und der Mobilgeräte.
sUppLex
8.2 Global System for Mobile Communication (GSM)
219
Tabelle 8-1 Mobilkommunikation mit GSM Zugang und Sicherheit
Mobilitätsmanagement für Teilnehmer und Mobilgeräte, Geräteidentifizierung, Zugangskontrolle, Nachrichtenverschlüsselung Anonymität der Teilnehmer
Dienste
digitale Übertragung in unterschiedlichen Formaten: x Sprache in normaler (13 kbit/s, „full rate“) und etwas reduzierter Qualität (ca. 5,6 kbit/s, „half rate“) x leitungsorientierte Datenübertragung mit bis zu 9,6 kbit/s (14,4 kbit/s) und mit HSCSD bis zu 57,6 kbit/s x paketorientierte Datenübertragung mit GPRS mit mittleren Bitraten von ca. 1 bit/s bis 112 kbit/s x EDGE mit Bitraten bis 384 kbit/s x viele Zusatz- und Mehrwertdienste
Anbieter
offener Standard mit internationaler GSM-Gerätezulassung, Wettbewerb der Netzbetreiber
Die Teilnehmermobilität wird – ähnlich wie bei Geldausgabeautomaten – durch die geräteunabhängige SIM-Card (Subscriber Identity Module) und die PIN (Personal Identification Number) ermöglicht. Die SIM-Card unterstützt das temporäre Wechseln zwischen den GSMNetzen in In- und Ausland, das Roaming. Damit kann ein GSM-Teilnehmer jedes SIM-Cardfähige Mobilgerät „wie sein eigenes“ benutzen. Bei den Mobilgeräten werden zwei Betriebsarten unterschieden: der aktive Betrieb und der Betrieb im „Idle Mode“. Im aktiven Betrieb wird durch den Handover, d. h. dem „Weiterreichen“ von einer Funkstation zur nächsten, dafür gesorgt, dass eine laufende Sprach- oder Datenverbindung auch dann aufrecht erhalten bleibt, wenn der Teilnehmer sich bewegt. Ein Beispiel ist das Telefonieren im fahrenden Auto. Im Idle Mode tauschen Mobilgerät und Netz in gewissen Abständen Nachrichten über die Qualität der Funkverbindung (Messprotokolle) aus. Dadurch ist es möglich, die Aufenthaltsorte der erreichbaren Teilnehmer zu verfolgen und die Teilnehmer gezielt zu rufen. Erst durch Abschalten des Mobilgeräts wird der Kontakt zum Netz beendet. Die international anerkannte Zulassung des Mobilgeräts erlaubt den Betrieb in jedem Land mit GSM-Netz. Die Mobilität setzt einen Netzzugang voraus, egal wo im Funkbereich des Netzes ein Teilnehmer sein Mobilgerät einschaltet. Dieser physikalisch offene Netzzugang „über die Luft“ muss gegen Missbrauch besonders geschützt werden. GSM-Netze verfügen dazu über vier Sicherheitsmerkmale: x Endgeräteidentifizierung durch das Netz anhand der eindeutigen Gerätekennung x Zugangsberechtigung nur nach Teilnehmeridentifizierung x Vertraulichkeit der Daten auf dem Funkübertragungsweg durch Verschlüsselung x Anonymität der Teilnehmer u. ihrer Aufenthaltsorte durch temporäre Teilnehmerkennungen Zu den Sicherheitsmerkmalen tritt der Aspekt der elektromagnetischen Verträglichkeit der Funkwellen hinzu. Durch die Einführung von Geräteklassen und Sicherheitsabständen für Sendeanlagen, einer aufwändigen Planung der Senderstandorte und einer adaptiven Steuerung, bei der die Sender mit möglichst niedriger Ausgangsleistung arbeiten, werden die gesetzlichen Vorsorgewerte für die erlaubte elektromagnetische Abstrahlung meist deutlich unterschritten.
sUppLex
220
8 Mobilkommunikation
Hinzu kommt, dass die Leistungsflussdichte elektromagnetischer Wellen bei Freiraumausbreitung quadratisch mit dem Abstand zum Sender abnimmt, also pro Verdopplung des Abstandes um den Faktor 4 (6dB), s. Tabelle 8-2. Modellrechnungen für die Ausbreitung über einer ebenen Fläche ergeben sogar eine Abnahme um den Faktor 16 (12dB) bei Verdopplung des Abstandes. Tabelle 8-2 Abnahme der Leistungsflussdichte mit wachsendem Abstand vom Sender Abstand relative Leistung bei Freiraumausbreitung
1m
2m
4m
8m
16 m
32 m
1
0,25
0,0625
0,0156
3,9110-3
0,9810-3
In der modernen, öffentlichen Mobilkommunikation treten neben die klassische Sprachübertragung weiterer Dienste. Da es sich hierbei letzten Endes um Datenübertragungen handelt, bleibt es der Phantasie der Dienstanbieter und Teilnehmer überlassen, welchen Nutzen sie daraus ziehen. Ein typisches Beispiel ist die Übermittlung von Kurznachrichten (SMS) an eine einzelne Person oder als Rundruf an eine Benutzergruppe. SMS-Dienste finden auch zunehmend bei der automatischen Fernüberwachung Anwendung. Die bei GSM anfänglich verfügbaren Datenübertragungsraten bis 9,6 kbit/s reichen jedoch nicht aus, um typische Internetseiten oder gar Audio- oder Videosequenzen in annehmbarer Zeit zu übertragen. Hinzu kommt, dass die einfachen Mobiltelefone nicht zur Darstellung von Web- und Multimediainhalten geeignet sind. Der Versuch der speziellen Anpassungen von Internetinhalten durch das Wireless Application Protocol (WAP) und die Wireless Markup Language (WML) an die Möglichkeiten von GSM hat sich zunächst nicht durchgesetzt. Eine für die meisten Teilnehmer akzeptable einfache Internetfähigkeit von GSM ist erst in Verbindung mit den neuen Datendiensten GPRS und EDGE möglich. Anmerkung: Zusätzliche Informationen zum Thema GSM findet man bei der GSM Association, der Vereinigung von GSM-Netzbetreibern und Herstellern, im Internet unter www.gsmworld.com und zur Entwicklung von GSM und UMTS www.umtsworld.com/umts/history.
8.2.2
GSM-Netzarchitektur
Moderne öffentliche Mobilkommunikationsnetze zeichnen sich durch die Teilnehmermobilität, die Sicherheitsmerkmale und eine hohe Teilnehmerzahl aus. Die GSM-Netzarchitektur in Bild 8-2 trägt dem Rechnung. Sie besteht aus einem zellularen Netzaufbau mit den Betriebs- und Wartungszentren, den Operation and Maintenance Center (OMC), und den Vermittlungsstellen, den Mobile Switching Center (MSC). Ein Einblick in die Funktionen der Netzkomponenten und ihres Zusammenwirkens lässt sich am einfachsten am Beispiel des Verbindungsaufbaus zwischen einer Mobilstation, der Mobile Station (MS), und dem GSM-Festnetz gewinnen: Befindet sich die MS nach dem Einschalten im Funkbereich eines GSM-Netzes, so passt sie sich den lokalen Funkparametern (Trägerfrequenz, Sendezeitpunkte und Sendeleistung) einer geeigneten Basisstation, der Base Transceiver Station (BTS), an und nimmt mit ihr Funkverbindung auf. In der BTS wird das Funksignal umgesetzt und über die Steuereinrichtung der Basisstation, dem Base Station Controler (BSC), an die MSC weitergeleitet. Dabei wird die Mobilgerätenummer, die International Mobile Station Equipment Identity (IMEI), der MS mit übertragen und anhand des Mobilgeräteregisters, dem Equipment Identification Register (EIR), überprüft. Ist das Mobilgerät nicht gesperrt, wird von der MSC die Teilnehmeridentifizierung angestoßen.
sUppLex
8.2 Global System for Mobile Communication (GSM)
221
Befindet sich die MS in ihrem Heimatbereich, wird sie in der MSC im Heimatregister, dem Home Location Register (HLR), geführt und die Teilnehmeridentifizierung kann mit der lokalen Identifizierungseinrichtung, dem Authentification Center (AUC), durchgeführt werden. Danach ist die MS im Netz als erreichbar gemeldet und kann selbst einen Dienst anfordern oder gerufen werden. Befindet sich der Teilnehmer nicht in seinem Heimatbereich, sucht die MSC zunächst im Besucherregister, dem Visitors Location Register (VLR), ob er bereits gemeldet ist. Ist das der Fall, wird die Teilnehmeridentifizierung mit den bereits vorliegenden Daten durchgeführt. Andernfalls nimmt die besuchte MSC Verbindung mit der Heimat-MSC auf und trägt nach der Identifizierung den Teilnehmer in das VLR ein. Die Heimat-MSC wird über den neuen Aufenthalt des Teilnehmers informiert. Für den Teilnehmer ankommende Anrufe werden anhand der Rufnummer zur Heimat-MSC geleitet und dann von dort zur besuchten MSC weitervermittelt.
RSS
NSS
BSS
OSS
SSS
HLR BTS
VLR B
BSC
C MSC
MS
OMC
E A interface
Abis interface
BTS
Um (air) interface AUC BSC BSS BTS EIR GMSC HLR MS
EIR
F
O interface
MS
AUC
GMSC
other networks
BSC
BTS
Authentification Center Base Station Controller Base Station Subsystem Base Transceiver Station Equipment Identity Register Gateway MSC Home Location Register Mobile Station
MSC NSS OMC OSS RSS SSS VLR
Mobile Switching Center Network and Switching Subsystem Operation and Maintenance Center Operation and Maintenance Subsystem Radio Subsystem Switching Subsystem Visitor Location Register
Bild 8-2 GSM-Netzarchitektur der Phase 1
sUppLex
222
8 Mobilkommunikation
Die Kommunikation zwischen den Teilnehmern innerhalb eines GSM-Netzes wird intern abgewickelt. Die Vermittlungsfunktionen werden in den MSCen durchgeführt. Ist ein Teilnehmer außerhalb des GSM-Netzes, z. B. im normalen Telefonnetz, so wird über eine geeignete Gateway-MSC die Verbindung nach außen hergestellt. Der Aufwand, der für den Aufbau und den Betrieb der in Deutschland nahezu flächendeckenden GSM-Netze notwendig ist, wird anhand der folgenden Zahlen (Stand 1997) deutlich. Im E-Plus-Netz wurden mit seinen bis dahin etwa 750.000 Teilnehmern an den elf Standorten in Bild 8-3 vierzehn MSCen mit insgesamt 230 BSCen und 5500 BTSen eingesetzt. Für den Netzaufbau wurden ca. 2,5 Mrd. EUR investiert und damit etwa 3500 neue Arbeitsplätze geschaffen.
Hamburg(2)
Hannover Dortmund
Berlin(2)
Düsseldorf Leipzig(2) Frankfurt a.M.
Nürnberg Karlsruhe
Air Inter München
Der Aufbau der bestehenden vier digitalen Mobilfunknetze ist noch nicht abgeschlossen. Bild 8-3 MSC Standorte im Netz von E-Plus Stand früher die flächendeckende Versorgung (Mitte 1997) im Vordergrund, so geht es heute um den bedarfsgerechten Ausbau und die Einführung neuer Dienste. Mit den später noch beschriebenen GSM-Erweiterungen GPRS und EDGE steht ein Migrationspfad zu einem Netz der 3. Generation offen.
8.2.3
GSM-Funkschnittstelle
Das Beispiel des Verbindungsaufbaus macht deutlich, dass zum ordnungsgemäßen Betrieb des GSM-Netzes ständig eine Vielzahl unterschiedlicher Nachrichten zwischen den Netzkomponenten ausgetauscht werden muss. Damit ein solcher Informationsaustausch stattfinden kann, muss vereinbart sein wer, was, wann, wo und wie senden darf. Das geschieht durch die Schnittstellen und ihre Protokolle. Das Nadelöhr eines jeden Mobilfunksystems ist die Funkschnittstelle zwischen den Mobilstationen und den Basisstationen, die auch Luftschnittstelle genannt wird. Über sie werden sowohl die von den Teilnehmern angeforderten Teledienste durchgeführt als auch für den Netzbetrieb notwendige Nachrichten ausgetauscht. Der Vergleich mit einem Nadelöhr trifft zu, weil das zur Verfügung stehende Frequenzspektrum aus physikalischen Gründen begrenzt ist und die benötigte Bandbreite mit der zu übertragenen Informationsmenge in der Regel wächst. Für den wirtschaftlichen Aufbau und Betrieb eines öffentlichen Mobilfunknetzes ist eine hohe spektrale Effizienz gefordert, um bei vorgegebenem Frequenzspektrum möglichst viele Teilnehmer bedienen zu können.
sUppLex
8.2 Global System for Mobile Communication (GSM)
8.2.3.1
223
Funkzellen und Frequenzkanäle
Auf der Basis des Ende der 1980er Jahre freigegebenen Frequenzspektrums und der damals verfügbaren Technologie, wurde für GSM eine digitale Übertragung für schmalbandige Teledienste konzipiert. Die gewählte Frequenz- und Kanalaufteilung im 900-MHz-Bereich (GSM 900) ist in Bild 8-4 zusammengestellt. Das verfügbare Frequenzspektrum teilt sich in ein unteres Band (890-915 MHz) für die Kommunikation von den Mobilstationen (MSen) zu den Basisstationen (BTSen) und in ein oberes Band (935-960 MHz) für die Kommunikation in umgekehrter Richtung. Das Frequenzspektrum von 2 u 25 MHz ist in 2 u 125 Frequenzkanäle a 200 kHz Bandbreite aufgeteilt. Zwei Frequenzkanäle im Abstand von 45 MHz bilden jeweils ein Duplexpaar für die wechselseitige Kommunikation. Die Duplexfrequenzkanäle 0 und 125 werden als Schutzabstände zu den Nachbarbändern freigehalten. In Deutschland teilen sich D1 und D2 das Frequenzspektrum. Dem D1-Netz sind die Duplexfrequenzkanäle 14 bis 49 sowie 82 bis 102 zugeordnet. Für das D2-Netz stehen die Duplexfrequenzkanäle 1 bis 12, 51 bis 80 und 105 bis 119 zur Verfügung. Zusätzlich zur Aufteilung in die Frequenzkanäle tritt bei GSM eine Time-Division-MultipleAccess (TDMA) -Komponente hinzu, s. Bild 8-4. Jeder Frequenzkanal wird durch zeitlich aufeinander folgende TDMA-Rahmen belegt. Jeder TDMA-Rahmen beinhaltet acht Zeitschlitze der Dauer von etwa 0,57 ms. 960 MHz
BTSÖMS
Frequenzkanäle 125 100 99 98
Sendeband Mobilstationen (MS) Basisstationen (BTS) Duplex-Abstand Duplex-Frequenzkanalbandbreite Teilnehmer pro Frequenzkanal
890-915 MHz 935-960 MHz 45 MHz 2 x 200 kHz 8 / 16 (Full/Half Rate)
0 935 MHz
Frequenz
Duplex-Abstand 45 MHz 915 MHz
MSÖBTS
Time Division Multiple Access (TDMA) -Rahmen
125 100 99 98
0
4,615 ms Frequenzkanal 200 kHz
7 0 1 2 3 4 5 6 7 0 1 Zeit
576,9 Ps Zeitschlitz
890 MHz
Bild 8-4 GSM-900-Frequenzbänder und TDMA-Kanalaufteilung
sUppLex
224
8 Mobilkommunikation
Fordert ein Teilnehmer eine Full-Rate-Sprachübertragung an, wird ihm – falls verfügbar – vom Netz ein Frequenzkanal und Zeitschlitz zugewiesen. Das Mobilgerät nutzt den zugewiesenen Zeitschlitz in jedem folgenden TDMA-Rahmen bis die Sprachübermittlung beendet wird. Im Fall der Half-Rate-Sprachübertragung teilen sich zwei Teilnehmer einen Zeitschlitz. Dadurch können doppelt so viele Gespräche gleichzeitig abgewickelt werden. Die digitale Übertragung innerhalb eines Zeitschlitzes wird im nächsten Abschnitt genauer erläutert. Hier sollen zunächst die Überlegungen zur spektralen Effizienz und den Frequenzkanälen weitergeführt werden. Mit der Anzahl der Frequenzkanäle und der Zeitschlitze ist die Funkkapazität der ursprünglichen GSM-900-Netze von D1 und D2 ungefähr 8 u 124 = 992 Sprachkanäle für die Full-RateSprachübertragung. Eine BTS könnte über maximal 992 Full-Rate-Sprachkanäle gleichzeitig verfügen. Die Zahl der Sprachkanäle pro BTS ist jedoch weiter eingeschränkt, da sich die Funksignale benachbarter BTSen stören können. Die Aufteilung der Frequenzkanäle auf die BTSen, die Frequenzplanung, ist für die Kapazität von GSM-Netzen von entscheidender Bedeutung. Bild 8-5 zeigt das Prinzip eines Frequenzplans mit regelmäßiger Frequenzwiederholung. Im Bild werden vier bzw. sieben Funkzellen zu je einem Cluster zusammengefasst. Deren Frequenzbelegungen wiederholen sich im Funknetz. Aus geometrischen Gründen können die Cluster-Größen nur die Werte 1, 3, 4, 7, 9, 12, 13, usw. annehmen. Anmerkung: Die Ähnlichkeit der Funkzellen mit Bienenwaben im Modell ist nicht zufällig. Nur mit gleichseitigen Dreiecken, Quadraten bzw. Hexagonen kann die Ebene überlappungsfrei und vollständig abgedeckt werden, s. a. Parkettierung. 2 4 2 4 3 1 2
3 1
2
4
3
3 2 3 1
2
2
1 4 1
1
1 3
1
3 2
4
4
4 1
2 2
6
3 1 2
3
4
4 5
4 1
1
3
7
2 1
2
5 6
3 5 2 4
5 1 3
1
6
4 1
7 2
5 1 6
7 4
3 5
7
6 3
2 5
2
2 7
6 4
3 4
7
3
1
6
2
3
4 5
1
N=7 6
7 3
4 5
3 2
2
3
4
4
1 6
7
3
2
5 6
2
1 3
2 1
1 2
3
2
4
3
4 1
1
1
3
4 2
2
5 2
7
4
3
3 2
6
4 1
2
3 4
2
4
4
4
1
4
1
N=4
2 1
1
Bild 8-5
3 4
1
6 4
1
3
7
3 5
Frequenzplan mit Gruppenbildung für die Funkzellen (4er- und 7er-Cluster links bzw. rechts in schematischer Darstellung)
Dem rechten Teilbild liegt der GSM-typische Wert eines Frequenzwiederholungsfaktors von 7 zugrunde. Damit ergibt sich die zellulare Funkkapazität von 992 / 7 = 142 Full-Rate-Sprachkanälen pro Funkzelle. Bei der Funkzellenplanung ist die Funkzellengröße entsprechend dem erwarteten Verkehrsaufkommen in einem Gebiet so zu wählen, dass die Funkzelle gut ausgelastet wird, aber auch keine für die Teilnehmer störende Überlast auftritt. Des Weiteren ist zu beachten, dass mindestens ein Kanal pro BTS für die Übertragung von Funkparametern und Signalisierung zu reservieren ist.
sUppLex
8.2 Global System for Mobile Communication (GSM)
225
Die tatsächliche Funkkapazität eines Mobilfunknetzes hängt von den Verhältnissen vor Ort, der Topologie und der Morphologie, und der Robustheit des Funkübertragungsverfahrens gegen Störungen ab. Dabei spielt nicht zuletzt das erwartete Verkehrsaufkommen eine Rolle. In GSM ist – ohne weitere Maßnahmen – der Funkzellenradius außerdem durch eine systembedingte Begrenzung der zulässigen Laufzeiten der empfangbaren Funksignale auf maximal 35 km beschränkt. Die Frequenzplanung mit Standortwahl wird mit speziell dafür entwickelten Planungswerkzeugen an Rechnern vorgenommen. Typische Abmessungen der Funkzellen variieren von etwa hundert Meter in Innenstädten, wie z. B. in Bahnhofs-, Flughafen- oder Messehallen, bis einige Kilometer auf dem Land. Das Mobilfunknetz von E-Plus und E2 basiert auf einem für den Frequenzbereich um 1800 MHz modifizierten GSM, dem GSM-1800-Standard, früher DCS 1800 genannt. Für die GSM1800-Netze sind die Frequenzbänder von 1710–1785 MHz für die Kommunikation von MS zur BTS bzw. 1805-1880 MHz für die umgekehrte Richtung vorgesehen. E-Plus sind davon die 75 Frequenzkanäle im Bereich 1760,2–1775 MHz bzw. 1855,2-1870 MHz zugeteilt. Da sich die Funksignale bei den Frequenzen um 1800 MHz etwas schlechter ausbreiten als bei 900 MHz, ist das Netz für kleinere Funkzellen ausgelegt als bei D1 und D2. Der Nachteil der höheren Anzahl der erforderlichen BTSen wird durch eine größere Teilnehmerkapazität und eine geringere Sendeleistung wettgemacht. Die Kapazität der GSM-Netze in Deutschland wurde ursprünglich auf zusammen annähernd 30 Millionen Teilnehmer geschätzt (vorausgesetzt höchstens 10% der Teilnehmer telefonieren gleichzeitig). Tatsächlich wurde in Deutschland im Jahr 2003 die Zahl von 64 Millionen Teilnehmern überschritten. Die große Nachfrage nach GSM-Diensten und die weltweit teilweise unterschiedlich verfügbaren Frequenzbänder haben bis heute zu den GSM-Frequenzbändern in Tabelle 8-3 geführt. Die Frequenzbereiche 880-890 bzw. 925-935 werden als GSM-Erweiterungsbänder, Extension Bands, bezeichnet. Die Frequenzen um 1900 MHz werden z. B. in den USA verwendet. In Skandinavien sollen bisher analoge Mobilfunksysteme durch GSM 400 ersetzt werden. Mit RGSM (Railway) wurde eine spezielle Anpassung für den Betriebsfunk bei Eisbahngesellschaften geschaffen. Tabelle 8-3 GSM Frequenzbänder (nicht überall verfügbar) Frequenzband im Uplink GSM 400 GSM 850
1) 2)
Frequenzband im Downlink
450,4 – 457,6 MHz
460,4 – 467,6 MHz
478,8 – 486 MHz
488,8 – 496 MHz
824 – 849 MHz
869 – 894 MHz
GSM 900
890 – 915 MHz
925 – 960 MHz
E-GSM1
880 – 915 MHz
925 – 960 MHz
R-GSM2
876 – 915 MHz
921 – 960 MHz
GSM 1800
1710 – 1785 MHz
1805 – 1880 MHz
GSM 1900
1850 – 1910 MHz
1830 – 1990 MHz
E-GSM wie GSM 900 mit je 10 MHz Erweiterungsbändern (Extended) R-GSM für Eisenbahnanwendungen (Railway)
sUppLex
226
8.2.3.2
8 Mobilkommunikation
Mobilfunkübertragung
Die Sprachsignale werden in den MSen bzw. im GSM-Festnetz fortlaufend digitalisiert und als Folge von Binärzeichen (Bits) dargestellt. Die Bits werden in Blöcken zusammengefasst und – ähnlich wie ein Strom von Paketen auf einem Fließband – Block für Block in den zugeordneten Zeitschlitzen der kontinuierlich aufeinander folgenden TDMA-Rahmen übertragen. Die digitale Übertragung innerhalb eines Zeitschlitzes geschieht mit so genannten Bursts. Bild 8-6 zeigt den logischen Aufbau des für die Full-Rate-Sprachübertragung verwendeten Normal Burst. Ohne tief in die Einzelheiten zu gehen fällt auf, dass von den 148 (+8,25) Bits nur 114 für die eigentlichen Teledienste zur Verfügung stehen. Bis auf die beiden Stealing Flag zur Kennzeichnung einer bei dringendem Bedarf eingefügten Signalisierungsnachricht ist der Rest für die reine Funkübertragung notwendig. Hinzu kommt, dass die 114 Informationsbits nicht uneingeschränkt für die Nutzinformation des Teledienstes zur Verfügung stehen. Bei der Full-Rate-Sprachübertragung ist zum Schutz gegen Übertragungsfehler eine redundante Kanalcodierung erforderlichen. Tatsächlich werden nur 65 „Sprachbits“ pro Burst effektiv übertragen. Damit wird pro Normal Burst mehr als die Hälfte der Funkübertragungskapazität für den Fehlerschutz und die Signalisierung aufgewendet. Diese Überlegungen lassen sich anhand der Bitraten nochmals nachvollziehen. Aus der Dauer eines TDMA-Rahmens mit acht Zeitschlitzen mit je ca. 156 Bits ergibt sich theoretisch eine maximale Bitrate pro Frequenzkanal von etwa 8 u 156 bit / 4,615 ms = 270 kbit/s; also je Zeitschlitz rund 33,8 kbit/s. Für die eigentliche Nachricht pro Zeitschlitz reduziert sich die Bitrate auf 22,8 kbit/s, wovon für die Full-Rate-Sprachübertragung schließlich nur noch ca. 13 kbit/s übrig bleiben. In den letzten beiden Bitraten ist ferner berücksichtigt, dass jede 13. Wiederholung eines Zeitschlitzes für die Signalisierung, z. B. zur Übertragung von Messprotokollen, freizuhalten ist. TDMA-Rahmen Zeit 4,615 ms 012345670123456701234567 Zeitschlitz
Stealing Flag
0,577ms 3 Anzahl der Bits 57
1
26
1
57
Information
Information
(Sprache,Daten)
(Sprache,Daten)
Flankenformungsbits „000“
3 8,25
Flankenformungsbits „000“
Trainingsfolge „00100 10111 000001 00100 10111“
Schutzabstand
Bild 8-6 Struktur des Normal Burst
Der geringe Anteil an effektiv zur Verfügung stehender Bitrate ist typisch für die Mobilkommunikation. Grund dafür sind im Wesentlichen die in Bild 8-7 veranschaulichten Störeinflüsse durch den Mehrwegeempfang und die im Netz selbst erzeugte Störung, die Gleichkanalstörung.
sUppLex
8.2 Global System for Mobile Communication (GSM)
227
Funkfeldhindernis Umwegpfad
BTS Beugung
Streuung Reflexion Gleichkanalstörung
direkter Pfad
MS
BTS
Bild 8-7 Mobilfunkübertragung mit Mehrwegeempfang und Gleichkanalstörung
x Das von der BTS als elektromagnetische Welle ausgesandte Funksignal wird in der Umgebung der MS am Boden, Bäumen, Häusern, usw. reflektiert und gestreut, so dass sich viele Teilwellen an der Empfangsantenne überlagern. Es treten die für die Mobilkommunikation typischen kurzzeitigen starken Einbrüche in der Empfangsfeldstärke aufgrund gegenseitiger Auslöschungen auf. x Große Funkfeldhindernisse, wie Berge oder Hochhäuser, können das Funksignal abschatten, so dass die Empfangsfeldstärke stark abnimmt. Man spricht dann anschaulich auch von einem „Funkloch“. x Große Funkfeldhindernisse können durch Reflexionen starke Signalechos mit großen Laufzeitdifferenzen hervorrufen. Umwege von ca. 1100 m führen bereits zu einer Laufzeitverschiebung um etwa die Dauer eines Bits und damit zur gegenseitigen Störung der Bits, Nachbarzeichenstörung bzw. engl. Intersymbol Interference genannt. x Wegen der Frequenzwiederholung im Netz können sich die Funksignale der MSen bzw. der BTSen gegenseitig stören, was als Gleichkanalstörung bezeichnet wird. Die Bewegung der MS führt zu veränderlichen Übertragungsbedingungen. Die genannten Störeinflüsse treten meist gleichzeitig auf und können die Mobilfunkübertragung unmöglich machen. Bei GSM werden deshalb in Verbindung mit der digitalen Übertragung verschiedene Maßnahmen zur Verbesserung der Übertragungsqualität durchgeführt: x Leistungsregelung ) Die Empfangsqualität wird bezüglich der Empfangsleistung sowie der erkannten Bitfehler in der BTS und MS fortlaufend überwacht und die Sendeleistung so eingestellt, dass die geforderte Übertragungsqualität mit möglichst niedriger Sendeleistung eingehalten wird. x Handover ) Da die MS nur jeweils während zweier Zeitschlitze sendet bzw. empfängt, kann sie auch im aktiven Betrieb regelmäßig die Empfangsleistungen von bis zu sechs benachbarten BTSen messen. Die Messprotokolle werden von der MS zur BTS übertragen. Ist die Funkversorgung durch eine andere BTS besser, so wird vom Netz ein unterbrechungsfreier Wechsel, Handover genannt, zur besser empfangbaren BTS durchgeführt. Ein Wechsel kann auch entfernungsabhängig durchgeführt werden. Man unterscheidet wie in Bild 8-8 zwischen internem und externem Handover. Im letzteren Fall wird beim Funkzellenwechsel der Bereich einer MSC überschritten. Eine aufwändige Gesprächsumleitung im Netz wird dann notwendig. Da der Handover für den Teilnehmer während eines Gespräches unterbrechungsfrei erfolgt, spricht man bei GSM von einem Seamless Handover.
sUppLex
228
8 Mobilkommunikation
AnchorMSC BSC BTS
MSC-A
BTS MSC-B BTS BSC
Interner Handover
BTS Externer Handover
Bild 8-8 Funkzellenwechsel (Handover) während eines laufenden Gesprächs
x Frequenzsprungverfahren ) um Störungen aus anderen Funkzellen zu verringern, kann optional im GSM-Netz die starre Frequenzkanalzuordnung aufgegeben werden. Nach im Netz fest vereinbarten Regeln wird je Zeitschlitz ein anderer Frequenzkanal benutzt. Sich gegenseitig störende BTSen bzw. MSen werden entkoppelt, da sie die Frequenzkanäle nach verschiedenen Mustern variieren. In GSM spricht man von einem Slow Frequency Hopping im Gegensatz zu Fast Frequency Hopping bei dem etwa für jedes Bit oder noch häufiger ein Frequenzsprung durchgeführt wird. x Diskontinuierliche Übertragung von Sprache ) Während der vom Sprachcodierer erkannten Sprechpausen werden (fast) keine Bursts gesendet. Damit werden nur etwa 2/3 der Rahmen benutzt und so die Gleichkanalstörungen reduziert. Da ein völliges Abschalten in den Sprechpausen durch die Teilnehmer als störend empfunden wird, werden sie im Empfänger durch angepasste Pausengeräusche, dem Comfort Noise, gefüllt. x Ungleichmäßige Kanalcodierung für Sprache ) Bei der Kanalcodierung werden zusätzliche Prüfbits erzeugt, mit denen sich Übertragungsfehler erkennen bzw. korrigieren lassen. GSM verwendet für die Sprachübertragung ein gestuftes Verfahren. Die Digitalisierung der Sprache geschieht für die Full-Rate-Übertragung nach dem RELP-Verfahren (Residual Excitation Linear Prediction). Der Sprach-Encoder erzeugt aus je 20 ms langen Ausschnitten des Sprachsignals einen Block mit 260 „Sprachbits“. Die Bits werden nach ihrer Bedeutung für den Höreindruck in weniger wichtige, wichtige und sehr wichtige Bits eingeteilt, s. Bild 8-9. Die 50 sehr wichtigen Bits werden mit 3 Prüfzeichen eines CRC-Codes (Cyclic Redundancy Check) zur Fehlererkennung ergänzt und danach gemeinsam mit den 132 wichtigen Bits durch einen Faltungscode der Rate ½ codiert, d. h. pro Bit wird ein zusätzliches Prüfbit erzeugt. Zusätzlich entstehen bei der Faltungscodierung acht Bits, da die zu codierenden Bits mit vier Bits, auch Tailbits genannt, definiert abgeschlossen werden. Die 78 weniger wichtigen Bits bleiben ungeschützt. Aus einem Block von 260 „Sprachbits“ werden so insgesamt 456 Bits für die Übertragung. Werden weniger wichtige Bits bei der Übertragung gestört, mindert das den Höreindruck kaum. Störungen der wichtigen Bits werden durch die Decodierung meist repariert. Erkennt der Empfänger an den Prüfbits der sehr wichtigen „Sprachbits“, trotz des vorhergehenden Reparaturversuches, einen Fehler, so wird der gesamte Block verworfen und durch eine Sprachextrapolation, dem Error Concealment, ersetzt. So kann die Störung von bis zu 16 aufeinander folgenden Sprachrahmen verschleiert werden.
sUppLex
8.2 Global System for Mobile Communication (GSM)
229
Anmerkung: Das Sprachcodierverfahren RELP für die Full-Rate-Übertragung beruht auf dem Stand der Technik Anfang der 90er Jahre. Mit der damals verfügbaren Komplexität der Mikroelektronik sollte die Bitrate bei noch akzeptabler Qualität möglichst klein werden. Für eine kurze Darstellung des RELP-Verfahrens siehe z. B. [VHH98]. CRC-Codes und Faltungscodes werden in [Wer02] kurz behandelt. Sprachcoder
260 Bits
alle 20ms
Umsortieren nach Fehlerempfindlichkeit höchste 0 Ia49 50 0 49 53
niedrigste Empfindlichkeit
Ib
Blockcode
Ia 0
181 184
182 378
II 188
378
455
Bit
kein Fehlerschutz
Faltungscode R = 1/2 Ia+Ib 0
259
455 Bit
Tail
Ib 52 53
II
II 377 378
455
Bit
Bild 8-9 Aufbau eines Sprachbit-Rahmens (Full-Rate)
x Interleaving (Bitverschachtelung) ) Da die Übertragungsqualität von Zeitschlitz zu Zeitschlitz stark schwanken kann, was besonders bei der Anwendung des Frequenzsprungverfahrens gilt, werden die Sprachbit-Rahmen ineinander verschränkt übertragen. Die Hälfte der Informationsbits eines Zeitschlitzes ist von je einem Sprachbit-Rahmen. Die 456 Bits werden auf 8 u 57 Bits, also auf acht Bursts (ca. 37 ms), aufgeteilt. Fällt ein Zeitschlitz wegen einer Übertragungsstörung oder einer mit Hilfe des Stealing-Flag eingeschobenen Signalisierungsmeldung aus, so kann der Fehler durch die Kanalcodierung korrigiert werden. Die Bitverschachtelung ist bei der Datenübertragung besonders wirksam, da dort die Verschachtelungstiefe ohne Rücksicht auf die Verarbeitungszeit besonders groß gewählt werden kann. Bei GSM Phase 2 beträgt die Bitverschachtelungstiefe für Datendienste bis zu 19 Bursts (ca. 87 ms). x Kanalentzerrung ) Durch die in der Mitte der Bursts übertragene bekannte Trainingsfolge, die Midamble, kann im Empfänger die bei der Übertragung erfolgte Verzerrung des Signals gemessen und zur Rekonstruktion der Nachricht berücksichtigt werden. Bei GSM können Laufzeitunterschiede über etwa 4 Bits ausgeglichen werden, was einer Umweglänge von ca. 4,8 km entspricht. Die zum Teil aufwändigen Maßnahmen zur Verbesserung der Übertragungsqualität sind die Voraussetzung für die im Vergleich zur bisherigen Analogtechnik hohe „Sprachqualität“. Ebenso wichtig sind die nicht unmittelbar hörbaren Vorteile. Die Maßnahmen reduzieren die Störungen in den anderen Funkzellen und sorgen insgesamt für eine höhere spektrale Effizienz. Für den Teilnehmer bedeuten sie einen sparsamen Energieverbrauch in den Mobilgeräten, und nicht zuletzt eine möglichst geringe elektromagnetische Exposition. Aus den letztge-
sUppLex
230
8 Mobilkommunikation
nannten Gründen empfiehlt es sich beispielsweise nicht, bei schlechtem Empfang in abgeschirmten Räumen oder im Auto ohne Außenantenne mit einem Handgerät zu telefonieren. Ein Nachteil der digitalen Übertragungstechnik ist der abrupte Zusammenbruch der Übertragung bei zu starker Störung. Während bei der analogen Sprachübertragung eine zunehmende Störung als solche hörbar ist, wird sie bei der digitalen Übertragung durch die Kanalcodierung zunächst unterdrückt. Ist die Störung jedoch so stark, dass nicht mehr ausreichend viele Bits richtig erkannt werden, ist die Nachricht verloren. Das Gespräch bricht unvermittelt ab. Die ungünstigen Übertragungseigenschaften im Mobilfunk sind für die Datenübertragung besonders kritisch. Bleibt die Sprache auch bei einer Störung von einigen Prozent der übertragenen Bits noch verständlich, so sollte bei einer Datenübertragung, z. B. einem Software-Download, zum Schluss jedes einzelne Bit korrekt sein. Aus diesem Grund sieht der GSM-Standard Datenübertragungsdienste mit stärkerem Fehlerschutz als bei der Sprachübertragung vor. Wenn es die physikalische Mobilfunkübertragung erlaubt, sind in GSM Phase 2 seit 1996 transparente Datenübertragungsdienste bis zu 9,6 kbit/s möglich. Mit den später noch vorgestellten, Datenübertragungsdiensten bzw. -verfahren HSCSD, GPRS und EDGE sind in GSMNetzen heute wesentlich höhere Bitraten möglich.
8.2.3.3
Logische Kanäle und Burst-Arten
Der Betrieb der Funkschnittstelle eines öffentlichen Mobilfunknetzes erfordert einen hohen organisatorischen Aufwand. Deshalb stellt GSM maßgeschneiderte Steuer- (Signalisierungs-) und Verkehrskanäle als logische Kanäle bereit, deren Nachrichten innerhalb der beschriebenen Frequenzkanäle und Zeitschlitze übertragen werden. Bild 8-10 zeigt die Struktur der Verkehrskanäle, die Traffic Channel (TCH). Sie werden je nach dem, ob sie den Zeitschlitz mit einem anderen Teledienst teilen, in zwei Gruppen unterschieden, die nochmals in Sprach- und Datenkanäle untergliedert werden. Etwas aus der Rolle fällt der Rundfunkkanal CBCH, der Cell Broadcast Channel, der beispielsweise dazu benutzt wird, Kurznachrichten an alle Mobilgeräte in einer Funkzelle zu senden. Für die Organisation der Funkübertragung werden die Steuerkanäle, die Control Channel (CCH), in Bild 8-11 verwendet. Sie erfüllen jeweils ganz spezielle Aufgaben. Ihre genaue Beschreibung würde den vorgesehenen Rahmen sprengen, weshalb hier nur beispielhaft das Einbuchen einer MS vorgestellt wird. Da nach dem Einschalten der MS vor dem eigentlichen Einbuchen erst die Funkzellenparameter bestimmt werden müssen, kommen dabei spezielle Bursts zur Anwendung. Bild 8-12 fasst den Vorgang nach dem Einschalten der MS zusammen und Bild 8-13 zeigt eine Übersicht über die fünf verschiedenen GSM-Burst-Arten. Nach dem Einschalten durchsucht die MS die GSM-Bänder nach einem empfangbaren Broadcast Control Channel (BCCH) mit Frequency Correction Burst (FCB). Der FCB zeichnet sich durch ein festes Bitmuster aus lauter Nullen aus.
sUppLex
8.2 Global System for Mobile Communication (GSM)
231
TCH/FS Mobile B-Channel 22.8 kbit/s Traffic Channel
Full-rate Speech 11.4 kbit/s Data
TCH/F9.6 9.6 kbit/s
Bm Data
TCH/F4.8 4.8 kbit/s
TCH
TCH/F2.4 Data
d 2.4 kbit/s
Lower-rate Mobile Channel 11.4 kbit/s Cell Broadcast Channel
Lm
TCH/HS
Half-rate Speech 6.5 kbit/s Data
TCH/H4.8 4.8 kbit/s Data
TCH/H2.4 d 2.4 kbit/s
CBCH
Bild 8-10 GSM-Verkehrskanäle
Broadcast Control Channel Group
BCCH
Broadcast Control Channel : 782 bit/s
BCCH
FCCH
Frequency Correction Channel
BS
Control Channel
CCH Dm
MS MS MS
Common Control Channel Group
CCCH
Dedicated Control Channel Group
DCCH BS
MS
SCH
Synchronization Channel
PCH
Paging Channel : 782 bit/s BS
MS
RACH
Random Access Channel : 34 bit/s BS MS
AGCH
Access Grant Channel : 782 bit/s BS MS
SDCCH
Stand-alone Dedicated Control Channel : 782 bit/s
SACCH
Slow Associated Control Channel T : 382 bit/s; C : 391 bit/s
FACCH
Fast Associated Control Channel FR : 9200 bit/s; HR : 4600 bit/s
Bild 8-11 GSM-Steuerkanäle
sUppLex
232
8 Mobilkommunikation
Zusammen mit dem Modulationsverfahren, dem Gaussian Minimum Shift Keying (GMSK), resultiert daraus ein relativ schmalbandiges Signal, das mit 67 kHz über der Bandmitte des Frequenzkanals liegt. Nach erfolgreichem Empfang des FCB kennt die MS den Frequenzkanal und grob das Zeitschlitz-Raster für den Empfang der BTS. Als nächstes versucht die MS im Synchronization Channel (SCH) den Synchronization Burst (SB) zu detektieren. Weil die MS noch nicht richtig synchronisiert ist, wird die Detektion der Nachricht im SB durch eine 64 Bit lange Trainingsfolge unterstützt. Nach der erfolgreichen Detektion des SB ist die MS zeitlich synchronisiert und kennt die für das Anklopfen wesentlichen Netzparameter. Sie sendet dazu im Random Access Channel (RACH) den Access Burst (AB). Der AB ist deutlich kürzer als der Normal Burst. Da die MS die Entfernung und damit die Laufzeit zur BTS nicht kennt, muss verhindert werden, dass der AB außerhalb des für den RACH vorgesehenen Zeitschlitzes bei der BTS eintrifft. Mit der verkürzten Länge des AB ist dies für Funkzellenradien bis etwa 35 km gegeben. Anmerkung: Wird der darauf folgende Zeitschlitz vom Verkehr ausgeschlossen, also der Schutzabstand de facto um einen Zeitschlitz verlängert, so können auch größere Funkzellen unterstützt werden. Dies kann beispielsweise zur Anbindung küstennahen Schiffverkehrs sinnvoll sein.
Empfängt die BS einen AB, so antwortet sie im Access Grant Channel (AGCH) mit einer Bestätigung und weist der Mobilstation für die weitere Signalisierung einen exklusiven Steuerkanal, den Dedicated Control Channel (DCCH), für Senden im Uplink (U) und Empfangen im Downlink (D) zu. Abschließend sei angemerkt, dass SMS-Nachrichten über die SDCCH- bzw. SACCH-Kanäle zugestellt werden. Die Verwendung des SDCCH ermöglicht die Übertragung während eines laufenden Telefongespräches. Über den SDCCH werden auch die Messprotokolle zur Unterstützung der Handover-Steuerung (Mobile Assisted Handover) gesendet.
Mobilstation (MS) 1. Frequenzsynchronisation Frequenzkanal der BCCH-Gruppe in der Funkzelle suchen und grobes Zeitraster feststellen 2. Zeitsynchronisation
Basisstation (BTS)
FCCH
SCH
Zeitstruktur der Funkzelle feststellen und Daten über die Funkzelle detektieren 3. Anklopfen mit dem Access Burst über den RACH 4. weitere Signalisierung über den zugewiesenen Steuerkanal
RACH
FCCH mit Frequency Correction Burst (FB) regelmäßig senden
SCH mit Syncronization Burst (SB) regelmäßig senden
regelmäßig horchen
DCCH (D) Bestätigung und Zuteilung eines Steuerkanals für die weitere Signalisierung DCCH (U)
Bild 8-12 Verbindungsaufbau MS – BTS
sUppLex
8.2 Global System for Mobile Communication (GSM)
Legend:
Tail Bits
Midamble
233
Stealing Flag
Data
Guard Period
Normal Burst Training Sequence - 26 bits
Encrypted Data 57 bits
3
Encrypted Data 57 bits
3 8.25
Frequency Correction Burst 3
Fixed Bitpattern - 142 bits
3 8.25
Synchronization Burst 3
Extended Training Sequence 64 bits
Data - 39 bits
Data - 39 bits
3 8.25
Fixed Bitpattern - 58 bits
3 8.25
Dummy Burst 3
Fixed Bitpattern - 58 bits
Training Sequence - 26 bits
Access Burst 8
Syncronization Sequence - 41 bits
Data - 36 bits
3
68.25
576.9Ps Bild 8-13 Bursts für die GSM-Übertragung
8.2.4
High Speed Circuit Switched Data (HSCSD)
Mit der weiten Verbreitung des Internet mit seinen Multimedia-Inhalten sind die Ansprüche an die Geschwindigkeit der Datenübertragung gestiegen. Hier blieb GSM Phase 2 mit den im günstigsten Fall erreichbaren 9,6 kbit/s hinter dem aus dem Festnetz als Standard bekannten 56 kbit/s für analoge Modems bzw. 64 kbit/s für ISDN-B-Kanal-Modems weit zurück. Aus diesem Grund wurden in GSM die Bündelung von Verkehrskanälen eingeführt. Als High Speed Circuit Switched Data (HSCSD) ist der entsprechende Dienst seit dem Jahr 2000 für HSCSDfähige MSen in Deutschland verfügbar. Durch Zusammenfassen von bis zu vier Verkehrskanälen für einen Teilnehmer, Half-Rate sowie Full-Rate-Kanäle (mit modifizierter Kanalkodierung mit 14,4 kbit/s), lassen sich Datenraten bis 57,6 kbit/s realisieren. Die HSCSD hat jedoch für den Teilnehmer den Nachteil, dass ihm die gebündelten Verkehrskanäle exklusiv zugeordnet und somit verrechnet werden, auch wenn z. B. beim Editieren am Notebook oder beim Betrachten einer Web-Seite, keine Daten zur Übertragung anstehen. Man spricht von leitungsvermittelter oder leitungsorientierter Datenübertragung (Circuit Switched Data). Eine denkbare Anwendung ist beispielsweise der kurzzeitige Download „großer“ Datenmengen in verkehrsschwachen Zeiten und bei guter Verbindung zur Basisstation. Durch die Einführung von GPRS und UMTS hat die Attraktivität von HSCSD abgenommen. HSCDS ist nicht in allen GSM-Netz in Deutschland verfügbar.
8.2.5
GSM-Sicherheitsmerkmale
Die Grundvoraussetzung für die Akzeptanz eines öffentlichen Mobilfunknetzes ist der Schutz vor missbräuchlichem Netzzugang, die Vertraulichkeit der Nachrichten und die Anonymität der Teilnehmer und ihres Aufenthaltsortes. In GSM-Netzen haben deshalb die Sicherheitsmerkmale einen sehr hohen Stellenwert. Besonders angreifbar ist die Funkübertragung, da sie
sUppLex
234
8 Mobilkommunikation
für jedermann „ungestört“ zugänglich ist. Auf sie konzentrieren sich die Sicherheitsvorkehrungen. Für die leitungsgebundene Übertragung sind keine besonderen Maßnahmen vorgesehen, da die Telefonate meist in das öffentliche Telekommunikationsnetz gehen und ein höherer Sicherheitsstandard als dort demzufolge auch nicht garantiert werden kann. Anmerkung: Letzteres ist heute mit zunehmendem Datenverkehr über das Internet überholt. Zukünftige Mobilkommunikationssysteme sollen Ende-zu-Ende-Verschlüsselung unterstützen, wie z. B. bei UMTS vorgesehen.
Die Prüfung der Netzzugangsberechtigung nach Teilnehmeridentifizierung geschieht in zwei Schritten. Im ersten Schritt identifiziert sich der Teilnehmer durch die PIN bei der SIM-Card im Mobilgerät. Dadurch wird das Übertragen der PIN über die angreifbare Luftschnittstelle vermieden. Im zweiten Schritt wird die SIM-Card durch das Netz überprüft. Dies geschieht vereinfachend gesprochen durch eine zufällig ausgewählte Frage an die SIM-Card, die nur sie anhand ihres eingebauten Sicherheitsalgorithmus richtig beantworten kann. Nach dem Einschalten des Mobilgerätes ist als erstes - falls nicht bereits als Plug-In fest eingebaut - die SIM-Card einzuführen. Die SIM-Card ist eine Plastikkarte, in die ein Chip mit Mikrocontroller und Speicher eingesetzt ist, s. Bild 8-14. Mit der vier- bis achtstelligen Geheimzahl (PIN) identifiziert sich der Teilnehmer gegenüber der SIM-Card. Wird die PIN dreimal hintereinander falsch eingegeben, wird die Karte gesperrt und kann nur mit der separaten achtstelligen Geheimzahl PUK (PIN Unblocking Key) wieder freigegeben werden. Zehnmaliges falsches Eingeben der PUK macht die SIM-Card unbrauchbar. Als einziger Dienst ohne SIM-Card ist der Notruf zugelassen. Anmerkung: Die SIM-Card hat sich mittlerweile mehr und mehr zu einem Mittel des elektronischen Bezahlens entwickelt. Heute lassen sich beispielsweise über Mobiltelefone Fahrkarten für den öffentlichen Nahverkehr lösen, Parktickets lösen und Internetzugänge über WLAN-Hotspots freischalten.
1…5 (10) MHz
CPU 8/16 bit
I/O
EPROM 16…64 KByte
Data
ME
RAM 1…3 KByte
Address
Clock
CPU Central Processing Unit EPROM Erasable Programmable ROM I/O Input/Output
ROM 40…100 KByte
ME ROM RAM
Mobile Equipment Read Only Memory Random Access Memory
Bild 8-14 Funktionsblöcke einer SIM-Card (nach [Sau04])
Die Teilnehmeridentifizierung durch das Netz erfolgt auf der Basis der SIM-Card nach dem Challenge-Response-Verfahren in Bild 8-1. Dabei wird wieder weder Schlüssel noch Geheimzahl über die angreifbare Luftschnittstelle übertragen. Stattdessen generiert das AUC nach dem Zufallsprinzip eine 128 Bit lange Zahl RAND, von Random Number. Bei der Länge von 128 Bits gibt es etwa 3,41038 verschiedene Möglichkeiten, sodass ein zweimaliges Auftreten
sUppLex
8.2 Global System for Mobile Communication (GSM)
235
der gleichen Zahl – hier der gleichen Frage an den gleichen Teilnehmer – sehr unwahrscheinlich ist. Die Zahl RAND wird an die MS übertragen. Dort wird in der SIM-Card die Zahl RAND zusammen mit einem geheimen, teilnehmerspezifischen Schlüssel Ki aus 128 Bits in dem ebenfalls geheimen Algorithmus A3 verarbeitet. Das Ergebnis, der 32 Bit lange Wert SRES, von Signed Response, wird ans Netz zurückgegeben. Im AUC wird der Wert SRES ebenfalls berechnet. Das Netz vergleicht die beiden Werte und nur wenn sie übereinstimmen wird der MS die Zugangsberechtigung erteilt. Ki
MS
Funkstrecke
Ki
Netz RAND
RAND A3 -Algorithmus
c d
SRES MS
c SRES MS
A3-Algorithmus
d
SRES =? Nein
SRES MS Ja
Bild 8-15 Teilnehmeridentifizierung mit dem Challenge-Response-Verfahren
Die Einzelheiten des Verfahrens und die Teilnehmerschlüssel sind geheim und werden bei den jeweiligen Netzbetreibern unter besonderen Sicherheitsvorkehrungen verwaltet. Die notwendige Geheimhaltung des Verfahrens wird von Experten kritisiert, da sie ein zusätzliches Sicherheitsrisiko darstellt. Im Gegensatz dazu kennt die Kryptologie Verfahren, bei denen die Algorithmen öffentlich bekannt sein dürfen. Bei der Verschlüsselung der Nachrichten zeigt sich ein weiterer Vorteil der digitalen Übertragung. Durch eine einfache Exor-Verknüpfung der Bits mit der Verschlüsselungssequenz wird die Nachricht für den, der die Verschlüsselungssequenz nicht kennt, unkenntlich gemacht, s. Bild 8-16. Verschlüsselungssequenz ...1101 0001 Nachricht ...0100 1101
verschlüsselt ...1001 1100 EXOR
Funkübertragung
Verschlüsselungssequenz ...1101 0001 verschlüsselt ...1001 1100
entschlüsselt ...0100 1101 EXOR
Bild 8-16 Verschlüsselung der binären Nachrichten durch Exor-Verknüpfung
Die Verschlüsselungssequenzen werden in GSM mit speziellen Verfahren in der MS und im Festnetz erzeugt. Das Prinzip ist in Bild 8-17 skizziert. Um die angreifbare Luftschnittstelle zu umgehen, wird der Schlüssel Kc für die Verschlüsselungssequenz nicht übertragen. Der Schlüssel Kc umfasst 64 Bits und wird anhand des Schlüssels Ki, der Zufallszahl RAND und dem netzbetreiberspezifischen geheimen Algorithmus A8 ebenfalls auf der SIM-Card berechnet. Mit Hilfe von Kc, der auf der Luftschnittstelle signalisierten TDMA-Rahmennummer (RNr.) und dem geheimen, in der MS befindlichen Algorithmus A5 werden dann die Verschlüsselungssequenzen S1 und S2 fortlaufend berechnet.
sUppLex
236
8 Mobilkommunikation
Die Verschlüsselung wird bereits bei der Teilnehmeridentifizierung durch das Prüfwort CKSN getestet. Während der Kommunikation im Normal Burst werden jeweils die 114 Nachrichtenbits der Teilnehmer verschlüsselt. Ki
MS
RAND
Netz RAND
A8-Algorithmus RNr.
A8-Algorithmus RNr.
Kc
Kc A5-Algorithmus S1
Ki
A5-Algorithmus
Funkübertragung
S2
S1
c
d
d
c
S2
Bild 8-17 Verschlüsselung und Entschlüsselung der Nachrichten
Bei der Signalisierung zwischen dem Netz und der MS, wie beispielsweise das Rufen des Teilnehmers, muss eine unverschlüsselte Teilnehmerkennung übertragen werden. Um das Erstellen von Teilnehmer-Bewegungsprofilen auszuschließen, wird in GSM dem Teilnehmer bereits bei seiner Identifizierung eine temporäre Mobilteilnehmerkennung, die Temporary Mobile Subscriber Identity (TMSI), verschlüsselt zugewiesen. Die TMSI ist im gesamten Bereich der MSC gültig und wird auch im Netz verwendet. Wechselt die MS in den Bereich einer anderen MSC, wird von der aufnehmenden MSC eine neue TMSI zugeteilt.
8.3
General Packet Radio Service (GPRS)
8.3.1
Einführung
Eine üblicherweise kostspielige, leitungsorientierte Übertragung ist für eine typische InternetAnwendung mit stoßweisem Nachrichtenverkehr wenig geeignet. Beim Blättern in Web-Seiten mit abwechselnden Pausen für das Betrachten und Laden der Seiten ist nur kurzzeitig eine hohe Übertragungskapazität erforderlich. Hierfür eignet sich die aus dem Internet bekannte paketorientierte Übertragung besser. Ein weiteres Beispiel ist die häppchenweise Übertragung kleiner bis mittlerer Datenvolumina in verkehrsschwachen Zeiten. So könnten Außendienstmitarbeiter via Mobiltelefon über Nacht ihre Bestellungen übermitteln und Kataloge und Preislisten aktualisieren. Der Bedarf an paketorientierten Diensten mit entsprechend attraktiven Tarifmodellen wurde von den GSM-Netzbetreibern so hoch eingeschätzt, dass GSM um einen paketorientierten Teledienst, dem General Packet Radio Service (GPRS), ergänzt wurde. Bedingung war, die 100%ige Kompatibilität mit der GSM-Luftschnittstelle. Die Frequenzkanäle und die Zeitschlitze musste beibehalten werden. Neu gestaltet wurde die Verwaltung und Zugriffssteuerung der Funkressourcen sowie die Architektur auf Seiten des Festnetzes. GPRS ist seit dem Jahr 2001 in Deutschland verfügbar.
sUppLex
8.3 General Packet Radio Service (GPRS)
8.3.2
237
Paketübertragung mit Dienstmerkmalen
Die leitungsvermittelte Sprachtelefonie fußt auf dem Prinzip Geht-oder-geht-nicht und erfolgt in den drei Phasen: Verbindungsaufbau, Nachrichtenaustausch und Verbindungsabbau. Ganz anders ist das bei der Paketübertragung konkurrierender MSen auf der Luftschnittstelle. Die paketorientierte Datenübertragung in GPRS bringt neue Dienstanforderungen mit sich. Sie werden durch Dienstgüteprofile (QoS-Profile, Quality of Service) festgelegt. Während die Übertragung von Sprachrahmen den Sprachfluss nicht unterbrechen darf, liegen bei der Datenübertragung in der Regel keine eng begrenzenden Zeitanforderungen vor. Dafür sollen die empfangenen Daten fehlerfrei sein. Ist ein Sprachrahmen gestört oder gar verloren, so ist ein Nachsenden wegen der damit verbundenen unzulässigen Verzögerung überflüssig. Ist hingegen ein Datenrahmen gestört oder geht gar verloren, sollte er erneut übertragen werden. Für die Paketübertragung ist deshalb in der Regel eine gesicherte Übertragung erwünscht. Fehlererkennende Codes, Flusskontrolle, Quittierung und Übertragungswiederholung sind in den entsprechenden Protokollschichten vorzusehen. Der Vorteil der Paketübertragung, die bessere Systemauslastung, erschließt sich für GPRS erst, wenn die Übertragungskapazitäten der Luftschnittstelle flexibel genutzt werden können (Capacity on Demand). Hierfür sind der Vielfachzugriff durch die MSen und die Verteilung der Frequenzkanäle und Zeitschlitze effektiv zu lösen (Radio Ressource Management). Da eine ausführlich Darstellung der Komplexität von GRPS den geplanten Umfang sprengen würde, werden im Folgenden grundsätzliche Konzepte und Anforderungen der Paketübertragung und die Umsetzung bei GPRS kurz vorgestellt.
8.3.2.1
GPRS-Dienstgüte
Mit GPRS werden paketorientierte Teledienste eingeführt, die sich durch die Dienstgüte, die Geräteklasse und/oder Benutzerklasse, wie z. B. die gleichzeitige Benutzung unterschiedlicher Dienste, unterscheiden können. Die Einbeziehung der Dienstgüte (QoS, Quality of Service) spielt in Datennetzen eine zunehmend wichtigere Rolle. In GPRS sind die fünf Merkmale Dringlichkeit, Verzögerung, Verlässlichkeit, Spitzendurchsatz und mittlerer Durchsatz festgelegt. Die Dienstgüteeigenschaften sind definiert oder können durch Messungen statistisch erfasst und im Betrieb überprüft werden. GPRS kennt drei Dringlichkeitsklassen. Klasse 1 steht für hohe, Klasse 2 für normale und Klasse 3 für niedrige Priorität. Beispielsweise können bei hohem Verkehrsaufkommen Datenpakete der Klasse 1 übertragen werden, während andere Datenpakete zurückgestellt werden. Die zulässigen Verzögerungen bei der Übertragung zwischen zwei GPRS-Dienstzugangspunkten werden in die vier Verzögerungsklassen in Tabelle 8-4 eingeteilt. Es wird zwischen kurzen und langen Paketen unterschieden. Angegeben wird jeweils die mittlere Verzögerung und der Wert der bei 95 % der Pakete nicht überschritten wird. Die Werte schwanken zwischen etwa einer Sekunde und sechs Minuten. Mit den relativ langen Verzögerungen wird den typischen Störungen der Mobilfunkübertragung Rechnung getragen. Bei der Klasse 4 werden vom Netz keine Werte garantiert. Hierfür hat sich der englische Begriff „best effort“ eingebürgert. Die Verlässlichkeit der zugestellten Datenpakete wird über die Art der Übertragungssicherung charakterisiert. Dabei wird zwischen fünf Fehlerarten unterschieden: ein verloren gegangenes Paket, ein dupliziertes Paket, ein Paket in falscher Reihenfolge oder ein verfälschtes Paket. Die ersten vier Fehlerarten können durch eine Flusskontrolle und das verfälschte Paket durch eine Kanalcodierung bekämpft werden.
sUppLex
238
8 Mobilkommunikation
Tabelle 8-4 GPRS-Verzögerungsklassen 128-Byte-Paket QoS 1
1024-Byte-Paket
Mittelwert
95%-Wert
Mittelwert
95%-Wert
0,5 s
1,5 s
2
7
2
5s
25 s
15
75
3
50 s
250 s
75
375
4
Best Effort
Es existieren fünf Verlässlichkeitsklassen. In Tabelle 8-5 sind in der ersten Spalte die Klassen genannt. Von Klasse 1 nach Klasse 5 nimmt die Verlässlichkeit ab. Die zweite bis fünfte Spalte bezieht sich jeweils auf den GPRS-Protokollstapel. Er wird im nächsten Unterabschnitt vorgestellt. In Tabelle 8-5 bewegt man sich von links nach rechts logisch gesehen von oben nach unten im Protokollstapel. Man nähert sich quasi der Luftschnittstelle an. GTP steht für das GPRS Tunnel Protocol mit dem die Daten im Festnetzteil übertragen werden. Die Protokollschicht Logical Link Control (LLC) ist für den Austausch der Datenpakete zwischen Vermittlungsschicht und Mobilstation in Form von LLC-Rahmen zuständig. Für die LLC-Rahmen kann optional eine Flusskontrolle mit Quittierung (ACK, Acknowledgement) und ein fehlererkennender Code (Frame Check Sequence) (PR, Protected) eingesetzt werden. Die Segmentierung der LLC-Rahmen in zu den Zeitschlitzen der Luftschnittstelle passende Blöcke, s. Bild 8-6, wird in der Schicht Radio Link Control (RLC) durchgeführt. Dabei kann optional ein Faltungscode verwendet werden, mit dem Fehler erkannt und korrigiert werden können. Je nachdem welche Sicherungsverfahren eingesetzt werden, können Paketverluste oder gestörte Pakete erkannt werden. Klasse 1 stellt mit der Flusskontrolle und der fehlererkennenden Codierung einen verlustsensitiven und fehlersensitiven Übertragungsmodus zur Verfügung. Bei der Klasse 3 wird keine Flusskontrolle und kein fehlererkennder Code in der LLC-Schicht verwendet. Jedoch werden die RLC-Blöcke mit dem Faltungscode geschützt, so dass viele Fehler erkannt werden können. Bezüglich der Zeitanforderungen sind zwei Modi vorgesehen: Echzeit- (Real-Time-, RT-) und Nicht-Echzeit- (Non-Real-Time-, NRT-)-Übertragung. Im Falle des nicht zeitkritischen NRTVerkehrs können zuverlässige Verfahren zur Flusskontrolle (ACK) und Fehlersicherung (PR) auf den höheren Protokollschichten eingesetzt werden. Damit lassen sich im üblichen Rahmen der Restfehlerwahrscheinlichkeiten verlässliche Dienste konfigurieren. Wird, wie in den Klassen 4 und 5, RT-Verkehr gewählt, also eine harte Zeitanforderung gestellt, wird auf die Flusskontrolle und die Fehlersicherung auf GTP- und LLC-Ebene verzichtet. Damit lassen sich der Verlust von LLC-Rahmen und RLC-Blöcken nicht mehr erkennen. Die Übertragung ist nicht verlustsensitiv. Wird auch noch, wie bei der Klasse 5, auf die Kanalcodierung in der RLC-Schicht verzichtet, so sind auch Bitfehler nicht mehr erkennbar. Die Übertragung ist nicht fehlersensitiv. Anmerkung: Die Anwendung der Klasse 5 muss nicht bedeuten, dass die Daten überhaupt nicht geschützt sind. Hier wird nur seitens des GPRS-Netzes kein Schutz vorgesehen. Es bleibt den Anwendern überlassen, die Daten vor dem (Sende-) GPRS-Zugangspunkt mit der gewünschten Redundanz zu versehen und nach Übernahme am (Empfangs-) GPRS-Zugangspunkt zu kontrollieren. Unter Umständen ist es nützlicher auf den zusätzlichen Fehlerschutz durch GPRS zu verzichten.
sUppLex
8.3 General Packet Radio Service (GPRS)
239
Tabelle 8-5 GPRS-Verlässlichkeitsklassen Klasse
GTP1
LLCRahmen2
LLCDaten
RLCBlock3
Verkehrsart
1
ACK4
ACK
PR5
ACK
NRT
2
UACK4
ACK
PR
ACK
NRT
3
UACK
UACK
UPR5
ACK
NRT
4
UACK
UACK
UPR
UACK
RT
5
UACK
UACK
UPR
UACK
RT
1) GTP 2) LLC 3) RLC
GPRS Tunnel Protocol Logical Link Control Radio Link Control
4) ACK / UACK 5) PR / UPR 6) RT / NRT
Sicherheit verlustsensitiv fehlersensitiv gering verlustsensitiv fehlersensitiv nicht verlustsensitiv fehlersensitiv nicht verlustsensitiv fehlersensitiv nicht verlustsensitiv nicht fehlersensitiv
Acknowledged / Unacknowledged Protected / Unprotected Real Time / Non Real Time
Explizite Werte für die Fehlerwahrscheinlichkeiten findet man in [EVB01] Tabelle 11.2. Sie geben einen Eindruck von der geplanten Zuverlässigkeit der GPRS-Datenübertragung. Für die Klasse 1 wird die Wahrscheinlichkeit für ein verloren gegangenes Paket, ein dupliziertes Paket, ein Paket in falscher Reihenfolge oder ein verfälschtes Paket jeweils mit 10-9 angegeben. Und in der Klasse 3 sind die entsprechenden Wahrscheinlichkeiten 10-2, 10-5, 10-5 und 10-2. Als letztes Dienstgütemerkmal wird der Durchsatz betrachtet. Für GPRS sind Klassen für den Spitzendurchsatz und den mittleren Durchsatz festgelegt. Für den mittleren Durchsatz ist eine weite Spanne mit 19 Klassen vorgegeben. Sie beginnt mit Klasse 1 für „best effort“, Klasse 2 für ≈0,22 bit/s, Klasse 3 für ≈0,44 bit/s, Klasse 4 für ≈1,11 bit/s und endet mit Klasse 19 mit ≈111 000 bit/s (112 kbit/s). Anmerkung Die Werte für die anderen Klassen erhält man, wenn man die Werte der Klassen 2 bis 4 jeweils um den Faktor 10 erhöht.
8.3.2.2
Zugriff auf die GSM-Luftschnittstelle
Endgeräte mit der Fähigkeit zur Multislot-Operation, d. h. auf mehreren Zeitschlitzen eines TDMA-Rahmens zu übertragen, kommen den Wünschen der Teilnehmer nach leistungsfähigen mobilen Internet-Anwendungen entgegen. Die Multislot-Fähigkeit von GPRS verbindet den Vorteil der Kanalbündelung von HSCSD ohne den Nachteil der exklusiven Kanalbelegung. Kurzzeitig können freie Ressourcen aus dem Pool der GSM-Frequenzkanäle und ihrer Zeitschlitze zu einem schnellen Download genutzt und wieder frei gegeben werden. Die dynamische Kanalzuteilung ermöglicht eine verbesserte Systemauslastung. Die Kunden profitieren von meist schnellen Datenübertragungen mit attraktiveren Abrechnungsmodellen nach Datenvolumen. Aber auch Anwendungen mit eher sporadischem Verkehr profitieren von der dynamischen Kanalzuteilung, da ihre gelegentlichen Datenpakete aufwandsgünstig eingeschoben werden können. Anmerkung: Die dynamische Kanalzuteilung und die nachfolgend beschriebene Codeumschaltung sind zwei Beispiele, wie durch den Einsatz von Mikrocontrollern und Software nachrichtentechnische Systeme adaptiv werden. Die Leistungsfähigkeit der modernen Mobilkommunikation, speziell bei UMTS und WLAN, beruht auf der Anpassungsfähigkeit der Übertragungsverfahren - allerdings für den Preis größerer Komplexität in Hard- und Software.
sUppLex
240
8 Mobilkommunikation
Für das Verständnis des Zugriffs auf die GSM-Luftschnittstelle Um in Bild 8-2 ist ein kurzer Blick auf die GPRS-Protokollarchitektur notwendig. Bild 8-18 zeigt die Protokollschichten für die Datenübertragung (Transmission Plane). Für die logische Steuerung der Verbindung zwischen MS und BSS ist die Radio-Link-Control- (RLC-) Schicht zuständig. Sie verbindet die Logical-Link-Control- (LLC-) Schicht mit der Medium-Access-Control- (MAC-) Schicht. BSS
MS
Data Link Layer Physical
BSS BSSGP RFL LLC MAC
SNDCP LLC RLC MAC PLL RFL
SGSN
Relay
Um
Base Station Subsystem BSS GPRS application protocol physical Radio Frequency Layer Logical Link Control Medium Access Protocol
RLC MAC PLL RFL
NSP PLL RLC SGSN SNDCP
BSSGP NSP Physical Layer
Gb
SNDCP LLC RLC MAC Physical Layer
Network Service Protocol Physical Link Layer Radio Link Control Serving GPRS Support Node SubNetwork Dependent Convergence Protocol
Bild 8-18 GPRS-Protokollarchitektur für die Datenübertragung auf der Luftschnittstelle (Transmission Plane)
Die LLC-Schicht stellt für die Übertragung LLC-Rahmen, wie in Bild 8-19 gezeigt, bereit. Sie bestehen in der Regel aus Rahmenkopf (FH, Frame Header), z. B. für Steuerinformation für die Flusskontrolle, dem Informationsfeld mit den zu übertragenden Daten (Information, Payload) und der Fehlerprüfsumme (FCS, Frame Check Sequence). Die RLC-Schicht nimmt die LLC-Rahmen entgegen, segmentiert sie auf geeignete Länge und fügt eigene Steuerinformation und Redundanz hinzu. Bild 8-19 zeigt das Prinzip für die BSS. Die Zahlenwerte beziehen sich beispielhaft auf das Codierschema CS3 (Coding Scheme), was später noch erläutert wird. Eine besondere Rolle spielen die Bits im Feld USF. Sie helfen beim Lösen des Vielfachzugriffproblems. Um Kollisionen von Datenpaketen der MSen, d. h. gegenseitige Zerstörung der Nachrichten auf der Luftschnittstelle, zu vermeiden, wird in GPRS das Master-Slave-Konzept umgesetzt. Das BSS (Master) zeigt im Feld USF an, welche Kanäle im Uplink frei sind und welche MSen (Slave) sie jeweils nutzen dürfen. Man bezeichnet die Signalisierungsbits deshalb als Uplink State Flags (USF). Ihrer Wichtigkeit entsprechend, werden die USF-Bits vorab durch zusätzliche Codierung geschützt. Aus je einem RLC-Block wird für die Funkübertragung ein Radio Block mit der festen Länge von 456 Bits erzeugt. Dazu wird ein Faltungscode eingesetzt. Im Beispiel des CS3 wird der RLC-Block unter Hinzunahme von vier Schlussbits (Tailbits) mit der Rate 1/2 codiert. Aus den 338 Bits des RLC-Blocks entsteht ein Codewort der Länge 676 Bits. Um die für die GSMBurststruktur geforderte Länge von 456 Bits zu erhalten, werden nach einem bestimmten Muster etwa 1/3 der Bits entfernt. Man spricht von Punktieren, bzw. punktiertem Faltungscode. Die resultierende Coderate ist ca. 1/(2 2/3) = 3/4. Anmerkung: Die punktierten Stellen in den Codewörtern sind auch im Empfänger bekannt. Bei der Decodierung werden die punktierten Bits entsprechend berücksichtigt, so dass die Punktierung selbst keine
sUppLex
8.3 General Packet Radio Service (GPRS)
241
Fehler induziert. Allerdings verringern sich die Coderaten und damit die Robustheit der Codierungen gegen Übertragungsfehler.
Die Bits des Radio-Blocks werden verschachtelt und in vier Segmente a 114 Bits aufgeteilt, entsprechend den 114 Informationsbits eines Normal-Burst. Die weitere Übertragung kann nun von der physikalischen Schicht übernommen werden. LLC-Rahmen
FH
Information
FCS
Segmentierung Segment
RLC-Block (CS3) Bits
USF
H
6
19
Segment
Segment
Faltungscodierung mit Rate 1/2
Codewort
Segment
Information
BCS
293
16
334 Bits + 4 Tailbits
676 Bits Punktierung
Radio Block
456 Bits Interleaving und Segmentierung Burst-Segment Burst-Segment Burst-Segment Burst-Segment Bits
114
114
114
114
Bild 8-19 Rahmenverarbeitung der Radio-Link-Control-Schicht (RLC) für das Codierschema CS3 in der BSS
In der RLC-Schicht ist je nach Übertragungsverhältnissen bzw. Dienstanforderungen pro Zeitschlitz eine der vier Kanalcodierungsschemata CS1 bis CS4 vorgesehen, so dass sich die Datenraten 9,05, 13,4, 15,6 oder 21,4 kbit/s ergeben. Erreicht wird das durch Punktierung eines Faltungscodes. Dabei wird der Anteil der Bits zum Fehlerschutz bei guten bis sehr guten Übertragungsbedingungen von 50 % auf |33 %, |25 % oder null reduziert, was den Coderaten 1/2, |2/3, |3/4 und 1 (keine Redundanz) entspricht. Steuernachrichten werden mit CS1 bestmöglich geschützt. Bei Bündelung von acht Zeitschlitzen, entsprechend multimodefähige MS und BTS vorausgesetzt, und CS4-Codierung bei störungsfreier Übertragung ergibt sich ein theoretischer Maximalwert der Datenrate von 171,2 kbit/s. Vor der Codierung werden auch einige Signalisierungsbits (z. B. USF, Header, BCS) hinzu gegeben, s. Bild 8-19. Aus der Sicht der Teilnehmer reduziert sich die effektive Bitrate ohne Kanalbündelung deshalb auf 8, 12, 14,4 oder 20 kbit/s. Durch zusätzliche Kanalbündelung sind im praktischen Einsatz Nettobitraten, vergleichbar zu einfachen Telefonmodems, von ca. 56 kbit/s darstellbar.
sUppLex
242
8 Mobilkommunikation
8.3.3
GPRS-Systemarchitektur
Die GSM-Netzarchitektur in Bild 8-2 wurde primär für die mobile Sprachtelefonie konzipiert. Für die Realisierung der paketorientierter Übertragungsdienste von GPRS muss eine neue Systemarchitektur eingesetzt werden. Sie wird in wie Bild 8-20 gezeigt, parallel zum ursprünglichen Network Subsystem (NSS) in Bild 8-2 aufgebaut, das GPRS Switching Subsystem (GSS).
NSS
RSS
OSS
BSS HLR
AUC
GR MS
BTS
MSC VLR
BSC
Gr MS
EIR
D
OMC
Gs
Gf
BTS SGSN
Gb BSC BTS
GGSN SGSN GR GSS Gx
Gateway GPRS Support Node Serving GPRS Support Node GPRS Register GPRS Switching Subsystem GSS Interfaces
GGSN
Gn
Gd SMS-GMSC SMS-IWMSC
GMSC IWMSC MSC PDN SMS
PDN
Gi Gp
GPRS PLMN
Gateway MSC Interworking MSC Mobile Switching Center Packet Data Network Short Message Service
Bild 8-20 GSM-Systemarchitektur für GPRS
Der externe Netzzugang geschieht über den Gateway GPRS Support Node (GGSN). Er dient als Verbindung zu externen paketorientierten Netzen (Packet Data Network) und ist für die Protokollumsetzung zuständig, wie z. B. das Zuordnen von Internetpaketen zu den GPRS-Teilnehmern. Der Serving GPRS Support Node (SGSN) unterstützt die Funktionalitäten der GPRSDienste, -Geräte und -Teilnehmer. Er hat Zugriff zu den dafür notwendigen Datenbankerweiterungen im HLR und im EIR. Für das Mobilitätsmanagement der GPRS-Teilnehmer steht im das VLR zur Verfügung. Die Übertragung der Datenpakete vom SGSN geschieht direkt auf die BSC und dann über die Luftschnittstelle, wo Frequenzkanäle und Zeitschlitze je nach Verkehrsbedarf dynamisch zwischen Sprachübertragung, leitungsorientierter (HSCSD) und paketorientierter (GPRS) Datenübertragung aufgeteilt werden.
sUppLex
8.4 Enhanced Data Rates for GSM Evolution (EDGE)
243
Da grundsätzlich auch MSen vorgesehen sind, die nur GPRS unterstützen, muss GPRS die bereits aus GSM bekannten Aufgaben eines Mobilfunksystems ebenfalls lösen. Dazu gehören beispielsweise das Einbuchen von Teilnehmern, die Unterstützung von Sicherheitsmerkmale, das Bereitstellen eines Mobilitätsmanagement, usw. Konsequenterweise besitzt GPRS dafür auf der Luftschnittstelle eine Struktur logischer Kanäle wie GSM mit Verkehrskanälen, z. B. den Packet Data Traffic Channel (PDTCH) und maßgeschneiderten Steuerkanälen, wie den Packet Random Access Channel (PRACH). Eine Übersicht über die logischen Kanäle gibt Bild 8-21.
PRACH Packet Random Access Channel Packet Common Control Channel
BS
PPCH
PCCCH
Packet Data Channel
PDCH
MS
Packet Paging Channel BS
MS
PAGCH
Packet Access Grant Channel BS MS
PNCH
Packet Notification Channel BS MS
PBCCH Packet Broadcast Control Channel BS Packet Traffic Channel
MS MS MS
PDTCH Packet Data Traffic Channel
PTCH PACCH BS
Packet Associated Control Channel
MS Bild 8-21 Logische GPRS-Kanäle
8.4
Enhanced Data Rates for GSM Evolution (EDGE)
Zu den betriebswirtschaftlichen Gründen treten zwei wichtige technische Impulse für die Weiterentwicklung der GSM-Netze. Zum ersten hat der zunehmende Ausbau der GSM-Netze in Ballungsräumen zu Funkzellen mit Abmessungen von wenigen hundert Metern und darunter geführt. Deren momentane Zustände sind den Steuerrechnern im Mobilfunknetz durch die ständigen, automatischen Erhebungen von Verbindungs- und Funkparametern bekannt. Zum zweiten ermöglicht der Fortschritt der Digitaltechnik heute leistungsfähige Mikroprozessoren in den Endgeräten. Damit lassen sich anspruchsvolle Algorithmen der digitalen Signalverarbeitung softwaregesteuert einsetzen. Beide Impulse münden in die Idee des „Software Radio“; also eines Endgeräts, welches die Funkschnittstelle in Absprache mit dem Netz je nach gewünschtem Dienst und den speziellen Bedingungen in der Funkzelle einstellt. Mit Enhanced Data Rates for GSM Evolution (EDGE) gehen die GSM-Netze einen weiteren Schritt in Richtung „Software Radio“. EDGE wurde 1997 als Weiterentwicklung der HSCSDund GPRS-Datendienste von der ETSI vorgeschlagen. Um den gleichzeitigen Betrieb von
sUppLex
244
8 Mobilkommunikation
herkömmlichen Endgeräten und neuen EDGE-Geräten zu ermöglichen, werden die Frequenzkanäle und das TDMA-Raster beibehalten. Durch ein Bündel von Maßnahmen können – falls die Situation in der Funkzelle es erlaubt – auf der Funkschnittstelle höhere Bitraten zur Verfügung gestellt werden. EDGE ersetzt das bisherige Modulationsverfahren GMSK durch die 8-PSK-Modulation (Phase Shift Keying, Phasenumtastung). Statt wie bei GMSK ein Bit pro Zeitschritt, werden gleichzeitig 3 Bits übertragen, wie Bild 8-22 veranschaulicht. Die 8-PSK-Modulation besitzt acht Symbole, die gleichmäßig auf einem Kreis angeordnet sind. Hier kann pro Zeitschritt beliebig gewechselt werden, so dass mit jedem Symbol drei Bit (23 = 8) angezeigt werden. Anmerkung: Die GMSK-Modulation von GSM kann im Wesentlichen als modifizierte MSK-Modulation auf die Offset-QPSK mit Impulsformung zurückgeführt werden. Pro Zeitschritt, d. h. Bitintervall Tb = 576,9 Ps / 156,25 | 3,69 Ps, wird ein Bit übertragen, da ein Symbolwechsel nur zu einem der beiden Nachbarsymbole möglich ist.
Im
Im 000
„1“ „0“
Re
010
011 Re
001
111 101
110
MSK
100 8-PSK
Übertragung eines Bits pro Zeitschritt (Übergangsmöglichkeiten beschränkt)
Übertragung dreier Bits pro Zeitschritt (alle Übergänge möglich)
Bild 8-22 Symbole der MSK-Modulation (| GSM) und 8-PSK-Modulation (EDGE) Warum wurde nicht gleich die 8-PSK-Modulation bei GSM eingesetzt? Die Antwort findet man in den Besonderheiten der Mobilfunkübertragung, s. Abschnitt 2.3.2. Die GMSK-Modulation stellt einen guten Kompromiss zwischen hoher Bandbreiteneffizienz und großer Robustheit gegen Störungen dar. Für GSM-Empfänger ist die Zielgröße des Quotienten aus der Leistung des Nutzsignals (Carrier) durch die Leistung der Störsignal (Interferer), C/I-Verhältnis genannt, 15 bis 20 dB (30…100). Für die 8-PSK-Modulation ist ein etwa 20 dB größeres C/IVerhältnis, also etwa der Faktor 100, erforderlich. Da die Funkübertragung mit der 8-PSK-Modulation störanfälliger als das bisherige Verfahren ist, werden, eine neue Sendeleistungsregelung (Link Quality Control, LQC) und eine von aktuellen Messdaten abhängige dynamische Anpassung der Modulation und der Codierung nach einem neuen Enhanced Coding Scheme (ECS) eingesetzt. Pro Zeitschlitz sind Bruttobitraten von 29, 32 und 43 kbit/s vorgesehen. Mit Kanalbündelung sind – bei ausreichender Kanalqualität – bis zu 384 kbit/s möglich. EDGE kann prinzipiell für GPRS und HSCSD eingesetzt werden. Man spricht dann von Enhanced GPRS (EGPRS) oder Enhanced CSD (ECSD). Anmerkungen: (i) Da die EDGE-Übertragung bei höheren Datenraten anfälliger ist, ist abhängig von der jeweiligen Situation mit Abstrichen im tatsächlich erzielten Datendurchsatz zu rechnen. (ii) Als Mindestkriterium für Mobilfunknetze der 3. Generation hat die ITU die Datenrate von 384 kbit/s festgelegt. Für Betreiber von GSM/GRPS-Netzen eröffnet EDGE somit einen Migrationspfad zu einem Netz der 3. Generation, was im Zusammenhang mit Verlängerungen von Betriebsgenehmigungen und Frequenzvergaben noch eine wichtige Rolle spielen kann.
sUppLex
8.5 Universal Mobile Telecommunication System
245
8.5
Universal Mobile Telecommunication System
8.5.1
Einführung
Beflügelt von GSM, Internet und den Erfolgen der New Economy setzte sich bei den in Wirtschaft und Politik Verantwortlichen die Meinung durch, nur durch eine rasche Einführung eines neuen multimediafähigen Mobilfunknetzes mit neuen Frequenzbändern könne der Bedarf an neuen Diensten und Übertragungskapazitäten in naher Zukunft gedeckt werden. Internationale Forschungsprojekte wurden aufgelegt und in Koordinierungsgremien und Standardisierungsorganisationen weltweit die Arbeit intensiviert. So sollte um das Jahr 2000 ein möglichst global harmonisiertes Mobilfunksystem der 3. Generation eingeführt werden. Die Arbeiten in China, Europa, Korea, Japan und den USA führten schließlich nicht zu einem einheitlichen System, jedoch entstand ein hohes Maß an gegenseitiger Abstimmung im 3rd Generation Partnership Project (3GPP und 3GPP2). Anmerkungen: (i) Die weltweite Einführung der digitalen Mobilfunksysteme der 2. Generation geschah uneinheitlich. Wichtig waren neben den aktuellen technischen Entwicklungen und den wirtschaftlichen Überlegungen der Betreiber auch industriepolitische Entscheidungen in den jeweiligen Ländern. Es haben sich zwei Systeme durchgesetzt: GSM/GPRS und cdmaONE, ein in den USA entwickeltes System mit CDMA-basierter Luftschnittstelle. (ii) Für die wirtschaftlich erfolgreiche Einführung der 3. Generation ist wichtig, die in die 2. Generation getätigten Investitionen weiter nutzen zu können. Man spricht von einer Migration der Systeme. Dementsprechend haben sich zur Standardisierung durch die ITU, dort IMT 2000 (International Mobile Telecommunications) genannt, zwei Partnerschaften gebildet. In der Projektgruppe 3GPP schlossen sich zur Unterstützung von UMTS zusammen: ANSI T1 (ANSI Standards Committee T1, USA), ARIB (Association of Radio Industries and Businesses, Japan), CWTS (China Wireless Telecommunication Standard Organization, China), ETSI (European Telecommunications Standards Institute, Europa), TTA (Telecommunication Technology Association, Korea) und TTC (Telecommunication Technology Committee, Japan). Die Weiterentwicklung des Systems cdmaONE zu CDMA 2000 hat sich die Projektgruppe 3GGP2 vorgenommen. Mitglieder sind: ANSI T1, ARIB, CWTS, TIA, TTA und TTC. Beide Projektgruppen arbeiten zusammen, was auch durch die Mehrfachmitgliedschaften zum Ausdruck kommt.
In Europa definierte ETSI 1999 mit dem Release 3 wesentliche Eckdaten für die erste Phase des Universal Mobile Telecommunication System (UMTS). UMTS stützt sich auf die bei der WARC 1992 zugewiesenen Frequenzbänder für den öffentlichen Mobilfunk von 1885 – 2025 MHz und 2110 – 2200 MHz. Diese sind nicht ausschließlich für terrestrische Systeme der 3. Generation bestimmt und werden in manchen Ländern teilweise auch anderweitig genutzt. Für UMTS steht in Europa das Frequenzband von 1900 – 1980 MHz und 2110 – 2170 MHz exklusiv zur Verfügung. Man beachte die unterschiedlichen Breiten der beiden Bänder. Zweimal 60 MHz sind für den Frequenzduplex-Modus (FDD, Frequency Division Duplex) mit dem Duplexabstand 190 MHz reserviert. Im unteren Band findet der Abschnitt von 1900 – 1920 MHz keine Entsprechung. Deshalb wurde u. a. auch eine ein Zeitduplex-Modus (TDD, Time Division Duplex) standardisiert. Für ihn steht zusätzlich der Bereich von 2010 – 2025 MHz zur Verfügung. Im Jahr 2000 versteigerte die Bundesrepublik Deutschland öffentlich Frequenzbänder mit je 5 MHz Breite. Den Zuschlag erhielten sechs Unternehmen für zusammen etwa 50 Milliarden €. In den Informationstechnik- u. Kommunikationstechnik- (ITK-) Sektor wurden große Erwartungen gesetzt. Sie haben sich nicht erfüllt. Die Börsennotierungen vieler Dotcom- und ITK-Firmen sind weltweit stark gefallen und manche Unternehmen mussten ganz aufgeben. Zwei der Firmen mit ersteigerten UMTS-Lizenzen haben inzwischen ihre Pläne fallen
sUppLex
246
8 Mobilkommunikation
gelassen. Die Einführung von UMTS wird neben der allgemein gedämpften wirtschaftlichen Lage auch dadurch gehemmt, dass – aus heutiger Sicht – das Potential von GPRS nicht ausgeschöpft wurde; d. h., der Markt an Datendiensten nicht ausreichend entwickelt wurde und der Branche dadurch die für die UMTS-Investitionen erforderliche Wertschöpfung versagt blieb. Auch wenn die Einführung von UMTS bis heute nicht in der erhofften Geschwindigkeit erfolgte, die Geschäftspläne von Herstellern und Netzbetreiber bzw. die politischen Vorgaben zu optimistisch waren, sind die UMTS-Netze in ihren Möglichkeiten GSM/GPRS-Netzen so weit überlegen, dass sich UMTS durchsetzen wird. Als 3. Generation kann UMTS auf GSM und GPRS aufbauen. Mit GSM wurde ein Mobilitätsmangement für Teilnehmer und Mobilstationen mit einem bewährten Sicherheitskonzept eingeführt. GPRS erweiterte das leitungsorientierte GSM um die Paketübertragung mit effektivem Dienst-Management. Die bei GSM und GPRS implementierten Lösungen findet man entsprechend bei UMTS wieder. Deshalb – und weil eine ausführliche Darstellung den abgesteckten Rahmen sprengen müsste – werden im Folgenden nur drei wichtige Innovationen bei UMTS kurz vorgestellt: das Dienstspektrum, die Systemarchitektur und die Luftschnittstelle.
8.5.2
UMTS-Dienste
Am Anfang der technischen Planungen für UMTS standen u. a. die Fragen nach dem verfügbaren und benötigten Frequenzspektrum. Dazu wurden ein Dienstmodell eingeführt und die Fragen spezifischer gestellt: Welche heutigen und zukünftigen Teledienste in Festnetzen sollen in UMTS unterstützt werden? Welche Teledienste sollen für UMTS hinzukommen? Welche Parameter haben die Dienste? Welche Vorgaben an Nettobitraten, Dienstsymmetrien, Nutzungsgraden, Codierfaktoren, Bitfehlerquoten und Übertragungszeiten sind zu beachten? Nimmt man noch die Betriebsumgebungen, wie Wohngegend, Geschäftsgebäude, usw. mit typischen Zahlen an Benutzern und Verkehrsverhalten hinzu, resultieren Modelle mit denen sich für bekannte Übertragungsverfahren Schätzwerte für den zukünftigen Bandbreitenbedarf bestimmen. Eine Betrachtung der Modelle würde hier zu weit gehen. In [Wal01] wird eine Schätzung der Bandbreitenbedarf von ca. 400 MHz für das Jahr 2005 und 580 MHz für 2010 geschätzt. Anmerkung: Bei der Abschätzung des Verkehrsbedarfes in der (Vor-) Planungsphase spielen wirtschaftspolitische Überlegungen eine große Rolle. Geht es doch darum, in internationalen Gremien kostbare Frequenzbänder für die Mobilkommunikation zu akquirieren und in den Firmen Investitionsentscheidungen in beträchtlichen Höhen vorzubereiten.
Aus den Überlegungen zum Dienstmodell ergeben sich drei besondere Anforderungen für UMTS: x Kundenzufriedenheit ) effiziente Unterstützung des Dienste-Mix mit hoher Dienstgüte wie im Festnetz x Dienstangebot ) Datenraten für Multimedia-Anwendungen auf der Luftschnittstelle von bis zu 384 kbit/s in der Fläche und bis zu 2 Mbit/s in geschlossenen Räumen x Frequenzressourcen ) effiziente Nutzung durch dynamische Bitratenzuteilung auf der Luftschnittstelle nach Dienstanforderungen und Kanaleigenschaften
sUppLex
8.5 Universal Mobile Telecommunication System
8.5.3
247
UMTS-Systemarchitektur
Die Systemarchitektur von UMTS fußt auf GSM/GPRS und der von ETSI vorgeschlagenen globalen Multimedia-Transportplattform für Mobilität, Global-Multimedia-Mobility (GMM)Architektur genannt. Sie unterstützt die Migration bestehender Systeme der 2. Generation zu UMTS und die zukünftige Weiterentwicklung durch Trennung in physikalische Bereiche. Die physikalischen Bereiche werden Domänen genannt und UMTS wird wie in Bild 8-23 gegliedert. Auf der Teilnehmerseite der Luftschnittstelle Uu wird vom Mobile Equipment (ME) gesprochen. Es enthält die logischen Funktionen für die Funkübertragung und Bedienung der Teilnehmerschnittstelle. Die entsprechenden Teile werden Mobile Termination (MT) bzw. Terminal Equipment (TE) bezeichnet. Eine besondere Rolle spielt das Subscriber Identification Module, kurz USIM für UMTS SIM oder Universal SIM genannt. Das Sicherheitskonzept von UMTS wurde verglichen mit GSM erweitert und die USIM-Card selbst wesentlich leistungsfähiger. Die Luftschnittstelle verbindet das ME in der User Equipment Domain (UED) mit dem Funkzugangsnetz (Radio Access Network, RAN) in der Access Network Domain (AND). Das Funkzugangsnetz kann ein UMTS Terrestrial Radio Access Network (UTRAN) oder ein GSM/ EDGE (GERAN) basiertes Base Station Subsystem (BSS) sein. Das Funkzugangsnetz stellt die Träger zur drahtlosen Nachrichtenübertragung bereit. Ihm obliegen das Management der Funkressourcen und die Unterstützung der Gerätemobilität, wie Handover und Makrodiversity. Das Funkzugangsnetz stellt über die Schnittstelle Iu den Zugang zum Kernnetz (Core Network, CN) in der Core Network Domain (CND) her. Um eine möglichst große Flexibilität und das Zusammenwirken unterschiedlicher Netze bzw. Technologien zu ermöglichen, wird die CND in drei Teilbereiche durch die Schnittstellen Yu und Zu getrennt: der Serving Network Domain (SND), der Transport Network Domain (TND) und der Home Network Domain (HND). Beispielsweise könnte, die SIM-Card-Kompatibilität und ein Roaming-Abkommen vorausgesetzt, ein UMTS-Kunde aus Österreich seine USIM in den USA in einem cdma2000-Gerät benutzten. Vom jeweiligen Ort des Teilnehmers unabhängige Dienste, wie die Authentifizierung oder das Freischalten zusätzlicher Diensten durch den Teilnehmer, würden im Teilnehmernetz (HDN) in Österreich vorgenommen werden. Als Transportnetz könnte eine B-ISDN-Netz oder ein TCP/IP-Netz auftreten. Das benutzte Mobilfunknetz in den USA entspricht dem SND. Es erbringt die ortsbezogenen Funktionen im Kernnetz.
Cu
Mobile Equipment Domain
User Equipment Domain
Uu Air Interface
USIM Domain
Access Network Domain
Iu
Serving Network Domain
Yu Transport Zu Network Domain
Home Network Domain
Core Network Domain Infrastructure Domain
Bild 8-23 Beschreibung der UMTS-Systemarchitektur mit Domänen
Eine weitere Sichtweise auf die Systemarchitektur von UMTS liefert der Blick auf die Zugangsebene in Bild 8-24. Die Systemarchitektur unterstützt die Migration von GSM und GPRS auf UMTS. Sie orientiert sich im Kernnetz (CN) an GSM und GPRS. Entsprechend GSM und
sUppLex
248
8 Mobilkommunikation
GPRS besitzt sie einen leitungsvermittelten Teil (Circuit Switching Domain, CSD) und einen paketvermittelten Teil (Packet Switching Domain, PSD). Über die Schnittstellen IuCS und IuPD werden die Verbindungen zum Funkzugangsnetz UTRAN hergestellt. Anmerkung: Parallel dazu können übergangsweise an MSCen im CSD und SGSNs im PSD BSSen weiter betrieben werden.
Die Schnittstelle Iu ist von besonderer Bedeutung. Sie ermöglicht eine Abtrennung der die Funktechnologien, und die Funkressourcenverwaltung betreffenden Funktionen vom Kernnetz. Dahinter steht der Wunsch, die GSM/GPRS-Systemarchitektur im Kernnetz schrittweise zu ersetzen. Geplant sind neben neuen Funktionalitäten, z. B. für Multimediadienste, den Nachrichtentransport und die Signalisierung neu zu organisieren. Eine verbindungsorientierte ATM-Paketübertragung von Nachrichten und Signalisierung, ähnlich dem B-ISDN, ist geplant. Ein Umstieg auf ein All-IP-Network mit einem IP Multimedia Subsystem (IMS) auf der Grundlage der Protokolle RTP/TCP/IP ist in den Standardpaketen 4 und 5 vorgesehen. Anmerkungen: ATM – Asynchronous Transfer Mode, B-ISDN – Broadband Integrated Services Digital Network, IP – Internet Protocol, RTP – Real Time Protocol, TCP – Transport Control Protocol [Wer05].
Bild 8-24 zeigt eine mögliche zukünftige Systemarchitektur. Die Schnittstellen im Kernnetz – im Bild der Übersichtlichkeit halber nicht eingetragen – basieren auf einer Internetprotokollversion mit Dienstgütesteuerung. Die teilnehmerspezifischen Daten werden im Home Subscriber Server (HSS) bereitgestellt, ähnlich dem HLR und AuC in GSM. Die Domäne Packet Switching Domain wird durch ein IP Multimedia Subsystem (IMS) ergänzt. Es ist für die Steuerung und den Paketzugriff auf Multimediadienste mit bestimmten Dienstgüteparametern zuständig. Die Dienste selbst werden über das Service Subsystem angeboten. Sie können von den Netzbetreibern oder externen Dienstanbietern zur Verfügung gestellt werden. Mit der UMTS-Systemarchitektur wird in mehrerlei Hinsicht Neuland betreten. Die wirtschaftliche Verbindung von Multimedia und Dienstgüte mit Internetprotokoll und Mobilfunk stellt eine große technische und organisatorische Herausforderung dar. Über Erfolg und Misserfolg der Konzepte wird die praktische Erfahrung in der Zukunft entscheiden.
Radio Access Network
IuCS
Uu
Network Operator Circuit Switching Domain (4)
(3) Air Interface
Service Subsystem (5) Home Subscriber Server (5)
UTRAN
User Equipment
Service Provider
Core Network
IuPS
Packet Switching Domain (3)
IP Multimedia Subsystem (5)
Bild 8-24 UMTS-Systemarchitektur nach den Standardpaketen 3 (1999), 4 und 5 [BGT04]
sUppLex
8.5 Universal Mobile Telecommunication System
8.5.4
249
UMTS-Luftschnittstelle
Für GSM wurden in den 1980er Jahren bereits breitbandigere Konzepte erörtert, als das schließlicht ausgewählte GMSK-Verfahren mit Frequenzkanälen je 200 kHz Bandbreite. 1995 wurde in den USA ein Übertragungsverfahren mit 1,25 MHz Bandbreite vorzuschlagen. Der Systemvorschlag wurde als TIA/IS-95 (Telecommunication Industry Association Interim Standard 1995) bekannt und zu cdmaONE weiterentwickelt. Der Name weist auf die Funktechnologie Code Division Multiple Access (CDMA) hin. Es handelt sich um eine Spreizbandtechnik, bei der die informationstragenden Signale, z. B. Telefonsprache, über die Luftschnittstelle mit einer wesentlich größeren Bandbreite übertragen werden. Die Vorteile von CDMA werden jedoch bei der Bandbreite von 1,25 MHz meist nicht ausreichend genutzt. Das Übertragungsverfahren von cdmaOne wird deshalb als Schmalband-CDMA bezeichnet. Für UMTS wurde die Bandbreite 5 MHz gewählt. Man spricht vom Breitband-CDMA oder WCDMA (Wideband). Anmerkung: Bei den Bandbreiten handelt es sich um Frequenzkanalabstände. Die tatsächlich genutzten Bandbreiten sind etwas geringer. Bei UMTS ca. 4,6 MHz.
8.5.4.1
Spreizbandtechnik mit RAKE-Empfänger
Charakteristisch für die Mobilfunkübertragung ist der Mehrwegeempfang. An der Empfangsantenne überlagern sich unterschiedlich verzögerte, phasenverschobene und gedämpfte Kopien des Sendesignals. Die Überlagerung führt zu Interferenzen, die Verzerrungen bis hin zur Signalauslöschung bewirken können. In GSM wird deshalb eine aufwändige Kanalschätzung und Entzerrung eingesetzt. Der Mehrwegeempfang kann jedoch durch die Spreizbandtechnik in Verbindung mit einem RAKE-Empfänger genutzt werden. Der RAKE-Empfänger sammelt die Teilsignale ein, wie ein Rechen (Harke, engl. Rake) mit seinen „Fingern“ Laub einsammelt. Man spricht von der Mehrwegediversität (Multipath Diversity). Bild 8-25 veranschaulicht das Prinzip. In der Sendestation (S) wird ein Spreizcode ausgesandt. Der Spreizcode besteht aus einer binären Folge von Rechteckimpulsen, den Chips mit der Chipdauer Tc. Das Sendesignal gelangt als elektromagnetische Wellen auf verschiedenen Pfaden zur Empfangsstation (E). Im Bild sind vereinfachend drei Pfade eingezeichnet, darunter die kürzeste möglich Verbindung, die Sichtverbindung (LOS, Line of Sight). Je nach Länge der Pfade ergeben sich die Laufzeiten W0, W1 und W2. An der Empfangsantenne überlagern sich die elektromagnetischen Wellen und somit die Signale zu den Pfaden. Die Signale weisen zu den Laufzeiten unterschiedliche Phasenverschiebungen und Dämpfungen auf. Der RAKE-Empfängers soll die Signale der Pfade konstruktiv kombinieren. Seine Realisierung greift auf die digitale Signalverarbeitung zurück. Das von der Antenne kommende Signal wird zunächst gemäß der Chipdauer Tc abgetastet. Bei UMTS ist die Chiprate von 3,84 Mchip/s vorgegeben. Die Chipdauer Tc beträgt somit ca. 0,2604 Ps. Das abgetastete Signal wird in eine Kette von Verzögerern eingespeist. Hinter jedem Verzögerer befindet sich ein Abzweig, RAKE-Finger genannt. Jede Verzögerung um Tc entspricht mit der (Vakuum-) Lichtgeschwindigkeit von ungefähr 3108 m/s einer Pfadlängendifferenz von ca. 78 m. Bei L RAKE-Fingern können so Signalechos in einem Zeitfenster von LTc erfasst werden. Da für UMTS überwiegend kleine Zellen mit Radien von einigen hundert Meter vorgesehen sind, reichen wenige RAKE-Finger aus. Innerhalb des Echofensters ist der linke RAKE-Finger für das Signale mit der längsten Pfad-
sUppLex
250
8 Mobilkommunikation
laufzeit im Mobilfunkkanal und der rechte RAKE-Finger für das Signal mit der kürzesten Pfadlaufzeit zuständig. Zur Detektion wird in jedem RAKE-Finger das Signal mit der Spreizfolge multipliziert (u) und über die Dauer der Spreizfolge summiert (6). Die Operation entspricht einem signalangepassten Filter, einem Matched-Filter, oder äquivalent einem Korrelator. Es resultiert prinzipiell die Autokorrelationsfunktion des Spreizcodes gewichtet mit einer vom Mobilfunkkanal herrührenden Phasenverschiebung und Dämpfung. Das Maximum der Autokorrelationsfunktion ist gleich der Energie der Spreizfolge. Wegen des Mehrwegeempfanges liegt jedoch ein Gemisch aus verschoben und gewichteten Kopien der Spreizfolge an. Darum liefert jeder RAKE-Finger entsprechend verschobene und gewichtete Kopien der Autokorrelationsfunktion. Zur späteren konstruktiven Kombination darf jedoch nur das dem RAKE-Finger zugedachte Teilsignal mit der passenden Pfadverzögerung beitragen. Deshalb muss die Autokorrelationsfunktion bis auf die Stelle null, die gleich der Signalenergie ist, näherungsweise verschwinden. Dies muss vorab durch die Auswahl der Spreizfolge sichergestellt werden. Funkfeldhindernisse Spreizcode
Tc
2. Echo 1. Echo
W2 Laufzeiten
W1
t
W0
LOS S
E
RAKE-Empfänger
Abtaster
Matched-Filter / Korrelator
nTc
Spreizcode {1,-1,1,1,-1,1,-1,-1}
Kombinierer
Signalgemisch von der Antenne
Kanalkoeffizienten
Verzögerungskette
Tc
Summen über die Länge des Spreizcodes
6
Tc
6
Tc
6
c0
c1
c2
KanalkoeffizientenKA0 adaption
KA1
KA2
6 cL-1 KAL-1
Entscheider Bild 8-25 Spreizbandtechnik mit RAKE-Empfänger in der Mobilfunkübertragung
sUppLex
8.5 Universal Mobile Telecommunication System
251
Anmerkung: Zur Vereinfachung der weiteren Verarbeitung kann am Ausgang des Match-Filters die Abtastfrequenz entsprechend der Zahl der Chips der Spreizfolge reduziert werden.
Die Mehrwegediverstiät wird in einer Kombinationsschaltung, kurz Combiner, durch konstruktives Addieren der Ausgangssignale der Machtched-Filter realisiert. Es wird das Prinzip des Maximum-Ratio-Combiner angewandt, der das Verhältnis der Leistungen von Nutzsignal und Rauschen maximiert. Im idealen Fall resultiert als Nutzanteil die Summe der Energien der empfangenen Spreizcodes aller RAKE-Finger. Dazu werden in den RAKE-Fingern die Phasenunterschiede durch Multiplikation mit den komplexen Kanalkoeffizienten c0, c1, … ausgeglichen. Die Teilsignale überlagern sich phasenrichtig und addieren sich konstruktiv. Die Beträge der Koeffizienten berücksichtigen die Dämpfung der Signale. D. h., ein Pfad mit relativ großer Ausbreitungsdämpfung wird vor dem Zusammenführen relativ gesehen nochmals abgeschwächt, da er vergleichsweise wenig Signal und viel Rauschen beiträgt. Ein RAKE-Finger ohne Nutzanteil erhöht nur das Rauschen. Er sollte erkannt und abgeschaltet werden. Der Combiner verwendet Schätzwerte für die Phasenverschiebungen und Dämpfungen im Mobilfunkkanal. Sie werden von speziellen Einrichtungen zur Kanalkoeffizientenadaption (KA) bereitgestellt. Die Güte der Schätzungen beeinflusst die Qualität der Detektion im Entscheider. Anmerkungen: Im realen Betrieb ändern sich die Kanalkoeffizienten mit der Zeit und müssen fortlaufend geschätzt werden. Zur Kanalschätzung werden, wie in der Midamble bei GSM, im Empfänger bekannte Bitmuster (Pilot Bits) gesendet.
Die Chipdauer ist ausschlaggebend für die Fähigkeit des Empfängers, die Mehrwegeausbreitung zu nutzen. Die für UMTS gewählte Chipdauer stellt einen Kompromiss zwischen den Gegebenheiten des Mobilfunkkanals und der Komplexität des Übertragungsverfahrens dar. Nimmt man, wie in Bild 8-25 zu sehen, vereinfachend Rechteckimpulse für die Spreizfolge an, ergibt eine Bandbreite des Funksignals von etwa 1/Tc. Durch eine Impulsformung wird bei UMTS eine Bandbreite von ca. 4,6 MHz eingestellt.
8.5.4.2
CDMA-Vielfachzugriff
Im Sender werden die Nachrichten auf die Bandbreite von ca. 4,6 MHz gespreizt. Der Vorteil der Bandspreizung liegt nicht nur in der gesteigerten Robustheit der Übertragung (Mehrwegediversität), sondern auch in der effizienten Lösung des vielfachen Zugriffs auf die Funkressourcen durch die Teilnehmer und der flexiblen Dienstabwicklung. Bild 8-26 illustriert das Prinzip des Vielfachzugriffs durch Codespreizung. Die Funkübertragung in UMTS basiert auf dem Prinzip des Code Division Multiple Access (CDMA). CDMA bedeutet: Es werden Daten für mehrere Teilnehmer und/oder Dienste gleichzeitig und im gleichen Frequenzband übertragen. Die Signale unterscheiden sich durch spezifischer Codes. Dabei werden die Bandbreiten der Nachrichtensignale für die Übertragung typischerweise um Faktoren von 10 bis 1000 aufgeweitet. Daher der Name Spreizbandtechnik. In Bild 8-26 wird das Basisbandsignal (Bitstrom) der Nachricht des Teilnehmers A fortlaufend mit dem Codesignal A multipliziert. Das Codesignal besteht aus einer bestimmten Folge von kurzen Rechteckimpulsen, den Chips, mit positiven oder negativen Vorzeichen. Im Beispiel treffen auf ein Bit der Nachricht acht Chips des Codesignals. Wegen dem reziproken Zusammenhang von Zeitdauer und Bandbreite wird das Spektrum des Nachrichtensignals um den Faktor acht gespreizt. Man spricht vom Spreizfaktor oder Prozessgewinn, engl. Processing Gain Gp, wie später noch erläutert wird. Und es gilt Gp = Tb / Tc.
sUppLex
252
8 Mobilkommunikation
Im Empfänger A wird synchron nochmals mit dem Code A multipliziert. Dadurch heben sich die im Sender durch den Code eingeprägten Vorzeichenwechsel auf. Das Nachrichtensignal wird wiederhergestellt. Im Empfänger B wird der Code des Teilnehmers B verwendet. Die Bandspreizung bleibt im Wesentlichen bestehen. Eine anschließende Tiefpassfilterung unterdrückt die unerwünschten Signale weitgehend. Die Wirkung der Spreizung im Frequenzbereich veranschaulicht Bild 8-27. Die Nachrichtensignale werden zur Übertragung gespreizt und überlagern sich auf dem Übertragungsweg. Durch das codespezifische Bündeln (Entspreizen) werden die jeweiligen Nachrichtensignale wieder hergestellt. Die unerwünschten, überlagerten Signale bleiben breitbandig, so dass sie nach Tiefpassfilterung nur wenig stören. Die Störung wird um so kleiner, desto größer der Prozessgewinn ist. Empfänger für A
Sender A Code A
Code A
+ -+ + - + - -
t Nachricht A
codierte Nachricht A
t
„Bit“ Tb
decodierte Nachricht A
codierte Nachricht A t
„Chip“ Tc
t
t
Empfänger für B Code B ++-+--+-
t
codierte Nachricht A
t
Bild 8-26 Prinzip des Code Division Multiple Access (CDMA) im Zeitbereich
Im Übertragungsband ist zusätzlich das Spektrum eines schmalbandigen Störers eingezeichnet. Das Entspreizen wirkt für fremde Signale wie Spreizen. Schmalbandige Störsignale werden über eine größere Bandbreite verschmiert, so dass nur ein kleiner Teil als Störung nach dem Entspreizen und der Tiefpass-Filterung wirksam wird.
zu Nachricht A
Tiefpass schmalbandiger Störer
f
zu Nachricht A
f
zu Nachricht A Bündeln
Spreizen
f f
zu Nachricht B
f
zu Nachricht B Bild 8-27 Prinzip des Code Division Multiple Access (CDMA) im Frequenzbereich
sUppLex
8.5 Universal Mobile Telecommunication System
253
Die für die CDMA-Übertragung notwendigen Operationen entsprechen der Signalverarbeitung in den Matched-Filtern des RAKE-Empfängers. Zu den Interferenzen aufgrund des Mehrwegeempfangs (Multipath Interference) kommen nun jedoch Interferenzen durch die Signale der anderen Teilnehmer bzw. Dienste, die Vielfachzugriffsinterferenzen (Multiuser Interference) hinzu. Am Ausgang des Matched-Filters treten zusätzlich die Kreuzkorrelationen zwischen den Spreizcodes als Störungen auf. Sie sollten null sein. Dies wird vorab durch die Auswahl der Spreizcodes näherungsweise erreicht. Es verbleibt jedoch ein gewisser Störanteil. Je größer der Prozessgewinn ist, umso kleiner ist die Störung. Demzufolge wird die mögliche Zahl der Teilnehmer durch den Prozessgewinn beschränkt. Man spricht von einem interferenzbegrenzten Übertragungssystem. Die sich aus dem CDMA-Verfahren ergebenden Möglichkeiten lassen sich am Beispiel der Abwärtsstrecke des UMTS-FDD-Modus anschaulich erläutern. Bild 8-28 zeigt den prinzipiellen Aufbau der Nachrichtenaufbereitung in der Basisstation (Node B). Den Ausgangspunkt bilden die zu erbringenden Dienste, wie z. B. die Sprachtelefonie mit einer Nettobitrate von 12,2 kbit/s, die leitungsvermittelte Übertragung eines ISDN-B-Kanals mit 64 kbit/s oder die leitungsvermittelte Übertragung mit der Bitrate 384 kbit/s. Die zugehörigen Bitströme werden entsprechend ihren Bitraten auf die Chiprate 3,84 Mchip/s gespreizt. Anmerkung: In UMTS werden obige Basisdienste CS64 und CS384 (CS, Carrier Switched) genannt.
Als Spreizfaktoren können die Werte von 4 bis 256 in Tabelle 8-6 gewählt werden. Damit ist es möglich, Dienste mit sehr unterschiedlichen Bitraten mit einem einheitlichen Übertragungsverfahren zu realisieren. Wichtig für den praktischen Betrieb ist, dass die Wirkungen der wechselseitigen Störungen direkt von den Spreizfaktoren abhängen. Eine Übertragung mit kleinem Spreizfaktor und hoher Bitrate, z. B. das schnelle Laden eines Videos aus dem Internet, verdrängt entsprechend viele Übertragungen mit großen Spreizfaktoren und kleinen Bitraten, wie z. B. Sprachtelephonie-Kanäle, und umgekehrt. Die gespreizten Signale der Teilnehmer bzw. Dienste, die Chipströme, werden zur Übertragung zusammengeführt. Vor der eigentlichen Funkübertragung wird ein Verwürfelungscode (Scrambling Code) eingesetzt. Es handelt sich um einen pseudozufälligen Code (Pseudo-noise Sequence) mit günstigen Korrelationseigenschaften. Da benachbarten Sendern unterschiedliche Verwürfelungscodes zugeordnet werden, wird die Störung bei Interferenz stark reduziert. Ebenso wichtig ist, dass dadurch eine Identifikation der Node B möglich wird und die Spreizcodes in jedem Node B und UE unabhängig vergeben werden können. Man beachte auch, dass durch das Verwürfeln keine Spreizung erfolgt, da der Verwürfelungscode ebenfalls im Chiptakt Tc generiert wird. Anmerkung: UMTS macht sich die gleiche Idee wie EDGE zunutze. Steht eine gute Funkverbindung zur Verfügung und kann auf ein höherstufiges Modulationsverfahren (16-QAM) umgeschaltet werden. Damit lassen sich stoßartig hohe Datenmengen mit Bitraten bis zu 10 Mbit/s übertragen. Das Verfahren ist als HSDPA (High Speed Downlink Packet Access) Teil des UMTS Release 5. Test zeigen, dass unter günstigen Bedingungen im UMTS-Band auch bis zu 20 Mbit/s übertragen werden können. Ein Vorschlag für den Uplink ist in Entwicklung.
sUppLex
254
8 Mobilkommunikation
Spreizcode 1 Chipstrom 1 Bitstrom 1
Verwürfelungscode
Spreizcode 2 Chipstrom 2
zur Sendeantenne
Bitstrom 2 Spreizcode n Chipstrom n Bitstrom n
Bild 8-28 Spreizen und Verwürfeln im Node B für die Abwärtsstrecke Tabelle 8-6 Konfigurationen der Datenübertragung in UMTS im Dedicated Physical Data Channel (DPDCH) Formate (Brutto-)Bitraten in kbit/s Spreizfaktoren
8.5.4.3
0 15 256
1 30 128
2 60 64
3 120 32
4 240 16
5 480 8
6 960 4
Nah-Fern-Effekt, Leistungsregelung und Zellatmung
Der CDMA-Vielfachzugriff zur gleichen Zeit im gleichen Frequenzband setzt voraus, dass sich die Signale der Teilnehmergeräte (UE) mit etwa gleicher Leistung an der Basisstation (Node B) überlagern. Bild 8-29 veranschaulicht die Situation. UE 1 befindet sich relativ nah am Node B und UE 2 relativ fern. Durch den größeren Abstand erfährt das Funksignal von UE 2 eine größere Dämpfung als das von UE 1. Würden beide Teilnehmergeräte mit gleicher Leistung senden, könnten die durch UE 1 verursachten Interferenzen den Empfang des Signals von UE 2 übermäßig stören. Der Effekt der unterschiedlichen Empfangsleistungen aufgrund der entfernungsabhängigen Funkfelddämpfungen wird Nah-Fern-Effekt bezeichnet.
UE 3 Node B
UE 1 UE 2
UE k Bild 8-29 Varianz der mittleren Empfangsleistung (Nah-Fern-Effekt)
In realen Funkfeldern ist die Situation komplizierter als in Bild 8-29 dargestellt. Unabhängig von den tatsächlichen Entfernungen der Stationen können beispielsweise Unterführungen und Häuserzeilen mit Straßenkreuzungen zu kurzzeitig starken Schwankungen der Empfangsleistung führen. Um nachhaltige Störungen durch den Nah-Fern-Effekt zu vermeiden ist bei CDMA-Mobilfunksystemen eine schnelle Leistungssteuerung in den Funksendern besonders wichtig.
sUppLex
8.5 Universal Mobile Telecommunication System
255
Zur Einstellung der Sendeleistungen werden im UMTS FDD-Modus zwei Regelkreise verwendet. Als Regelgröße tritt das Verhältnis der Leistungen von Nutzsignal und Störsignal im Empfänger, das C/I-Verhältnis (Carrier-to-Interference Ratio), auf. Der Sollwert wird dynamisch im jeweils zugeordneten Steuerungsmodul des Funkzugangsnetzes (RAN), dem Radio Network Controller (RNC), bestimmt. Wichtige Einflussgrößen sind die Bitfehlerquote und Übertragungsparameter, wie der Spreizfaktor und die Art der Kanalcodierung. Die Dynamik der Regelung ergibt sich aus der zeitlichen Organisation der Luftschnittstelle bzw. beeinflusst deren Spezifikation. Die Übertragung im FDD-Modus ist in Rahmen und Zeitschlitzen strukturiert, deren Dauern Vielfache des Chipintervalls sind. Ein Funkrahmen dauert 10 ms und umfasst 38400 Chips. Die Funkrahmen werden in je 15 Zeitschlitze unterteilt. Folglich ist die Dauer eines Zeitschlitzes 2/3 ms und entspricht 2560 Chips, s. Bild 8-30. 10 ms Funkrahmen n-1
Funkrahmen n
Funkrahmen n+1
38400 Chips 2/3 ms Zeitschlitz 0
Zeitschlitz 1
Zeitschlitz 2
Zeitschlitz 14
2560 Chips Bild 8-30 Zeitstruktur der Luftschnittstelle mit Chipintervall TC = 1/3,84 Ps
Die beiden Regelkreise werden innerer und äußerer Regelkreis genannt. Der innere Regelkreis ermöglicht eine schnelle Anpassung auf Basis der Zeitschlitze in typischen Schritten von 1 dB, d. h. 25% mehr oder weniger Sendeleistung. Es werden 1500 Steuerbefehle pro Sekunde übertragen. Der äußere Regelkreis stellt den C/I-Sollwert für den inneren Regelkreis zur Verfügung. Seine Zeitbasis liefern die Funkrahmen. Gegebenenfalls wird alle 10 ms ein neuer C/ISollwert generiert. Die beiden Regelungen setzen eine wechselseitige Kommunikation zwischen Teilnehmergerät und Funknetz voraus. Ist dies nicht der Fall, wie z. B. beim Verbindungsaufbau, wird die Leistung des Senders zunächst aufgrund der im Empfänger gemessenen Leistung der Gegenstation eingestellt. Aus der CDMA-typischen Kapazitätsbegrenzung durch die Vielfachzugriffsinterferenzen ergibt sich ein weiterer wichtiger Effekt: die verkehrsabhängige Vergrößerung und Verkleinerung des Versorgungsgebietes einer Funkzellen, anschaulich Zellatmung genannt. Bild 8-31 stellt den Effekt vor. In Bild 8-31 links ist eine Funkzelle bei geringer Verkehrslast dargestellt. Der Teilnehmer (UE k) kann mit der Basisstation (Node B) nur verbunden sein, wenn das C/I-Verhältnis den minimal zulässigen Wert nicht unterschreitet. Dabei ist näherungsweise die Störleistung (I) durch die Vielfachzugriffsinterferenzen proportional der Zahl der aktiven Teilnehmer. Die Empfangsleistung (C) wird über den Sollwert für das C/I-Verhältnis eingestellt. Dazu wird die Sendeleistung so geregelt, dass die mit zunehmender Entfernung wachsende Ausbreitungsdämpfung kompensiert wird. Ist die maximal zulässige Sendeleistung erreicht, kann eine weitere Zunahme der Funkfelddämpfung nicht mehr ausgeregelt werden. Die Verbindung wird beendet. Sind, wie in Bild 8-31 rechts veranschaulicht, beispielsweise doppelt soviel Teilnehmer aktiv, so wird zur Erreichung des C/I-Sollwertes entsprechend mehr Sendeleistung benötigt, um die
sUppLex
256
8 Mobilkommunikation
etwa verdoppelte Vielfachzugriffsinterferenz auszugleichen. Zur Kompensation der Funkfelddämpfung steht dann weniger Leistungsreserve im Sender zur Verfügung. Mit der Vereinfachung, dass im Funkfeld die Empfangsleistung proportional zum Quadrat der Entfernung gedämpft wird (Freiraumausbreitung), reduziert sich der maximale Abstand im Beispiel um etwa den Faktor 2 . Anmerkung: Im realen Betrieb unterliegt die Funkzellengröße zufälligen Schwankungen. Dies erschwert die Funkzellenplanung erheblich.
UE k UE 3
UE k
R1
UE 3 R2
nicht versorgtes Gebiet
Node B UE 1
Node B UE 1 UE 2
UE 2 versorgtes Gebiet geringe Verkehrslast
hohe Verkehrslast
Bild 8-31 Funkzellengröße in Abhängigkeit von der Verkehrslast (Zellatmung, R1 > R2)
8.5.4.4
Zellulare Funkkapazität
Im Regelbetrieb begrenzt die Vielfachzugriffsinterferenzen die Anzahl der aktiven Teilnehmer und Dienste. Mit den vereinfachenden Annahmen kann die zellulare Funkkapazität grob abgeschätzt werden [Vit95][Wer06a]. Wir gehen von gleichem Dienst, z. B. nur Sprachtelefonie, und optimaler Leistungsregelung für alle Teilnehmer aus. Die maximale Zahl an aktiven Teilnehmern Kmax, die an einer Basisstation empfangen werden können, hängt wesentlich ab vom Spreizfaktor (Spreizgewinn) Gp und der Robustheit des Modulationsverfahrens gegen Störungen ab. Letzteres wird durch das für einen Empfang mindestens notwendige Verhältnis von empfangener Energie pro Bit Eb und effektiver Rauschleistungsdichte N0,eff erfasst. Dabei berücksichtigt die effektive Rauschleistungsdichte berücksichtigt die Vielfachzugriffsinterferenz. Es resultiert die Abschätzung K max ≤ 1 +
( Eb
Gp N 0,eff
)min
Anmerkungen: (i) Eine Verdoppelung des Spreizfaktors Gp bei gleicher Netto-Bitrate führt im Wesentlichen auf die doppelte zellulare Funkkapazität Kmax. Allerdings zieht sie auch die doppelte Funksignalbandbreite nach sich. (ii) Eine Verdoppelung des Spreizfaktors bei halber Netto-Bitrate führt ebenfalls auf die doppelte zellulare Funkkapazität. Dabei bleibt die Funksignalbandbreite gleich. Allerdings steht dann pro Teilnehmer / Dienst nur noch die halbe Netto-Bitrate zur Verfügung. Dies ist bei UMTS beispielsweise durch Umschalten des Sprachcoders zwischen 4,75 bis 12,2 kbit/s möglich (AMR-Codec, Adaptiv Multi-Rate), s. a. GSM Full- und Half-Rate-Codec.
Der in die Formel einzusetzende minimale Verhältnis Eb / N0,eff wird durch das gewählte Modulationsverfahren bestimmt. Typische Werte liegen zwischen 6 und 10 dB. Der Spreizfaktor
sUppLex
8.5 Universal Mobile Telecommunication System
257
orientiert sich am gewünschten Dienst. Für die Sprachtelefonie sind Netto-Bitraten von 4,75 bis 12,2 kbit/s vorgesehen. Berücksichtigt man noch eine Codierung mit der Coderate von typisch 1/3, so folgen für die Spreizfaktoren aus Tabelle 8-6 die Werte von 128 bzw. 64. Mit den beiden Spreizfaktoren und dem optimistischen Wert von 6 dB ergibt sich die zellulare Funkkapazität für (nur) Sprachtelefonie von 33 bzw. 17 gleichzeitig aktiven Teilnehmern. Soll eine hohe Teilnehmerdichte bedient werden, wie z. B. in Fußgängerzonen, Sportstadien, usw., sind viele kleine Funkzellen erforderlich. Der Aufwand wird dadurch gemildert, dass bei der Sprachübertragung häufig Mikropausen auftreten. Diese können im Sprachcoder erkannt (VAD, Voice Activity Detection) und Sprachrahmen durch SID-Rahmen (Silence Descriptor) mit einer Netto-Datenrate von 1,8 kbit/s ersetzt werden. Die Funkkapazität bei reinem Sprachnetzbetrieb verdoppelt sich dadurch in etwa. Werden an den Basisstationen zusätzlich Richtantennen eingesetzt, typischer Weise drei Antennen mit je 120° Hauptkeulenbreite, entstehen kleinere Funkzellen, Sektoren genannt. Damit lassen sich ca. 102… 198 aktive Gespräche an einer Basisstation bedienen. Anmerkungen: (i) Die vorgestellte Abschätzung der Funkkapazität ist stark vereinfacht und lässt weitere positive und negative Einflussfaktoren des realen Betriebes außer Acht. Sie gibt eine grobe Orientierung. Die tatsächlich erreichbare Kapazität von UMTS wird sich erst in der Praxis bei den ausgebauten Netzen zeigen. (ii) Für ein flächendeckendes UMTS-Netz werden kleineren Funkzellen und damit mehr Basisstationen als für GSM/GPRS benötigt. Diesem Nachteil steht der Vorteil kleinere Sendeleistungen gegenüber. So ist die maximale Sendeleistung typischer Teilnehmergeräte auf 1W statt 2W bei GSM begrenzt. (iii) Weltweit wird daran geforscht die Mehrfachzugriffsinterferenzen zu senken. Anordnungen mit mehreren Antennen (MIMO, Multiple Input Multiple Output) und fortschrittliche Verfahren der digitale Signalverarbeitung ermöglichen es die jeweiligen Funksignale auf die einzelnen Teilnehmer zu richten (Adaptive Beam-forming) sowie Interferenzen rechnerisch zu reduzieren (Multi-user Interference Cancellation).
8.5.4.5
Handover
Die Mobilität der Teilnehmer erfordert in UMTS-Funknetzen ein Mobilitätsmanagement ähnlich dem in GSM/GPRS-Netzen um beispielsweise Teilnehmern einzubuchen oder zu rufen. Für bestehende leitungsorientierte Verbindungen, z. B. Telefongesprächen, ist ein unterbrechungsfreier Wechsel zwischen den Funkzellen, ein Handover, zu realisieren. Bei GSM wird dazu hart vom Frequenzkanal der aktuellen Basisstation (BTS) zum Frequenzkanal der neuen umgeschaltet. Anders beim UMTS FDD-Modus. Da benachbarte Basisstationen (Node B) im gleichen Frequenzband empfangen und senden, kann die Nachricht prinzipiell von mehreren Basisstationen empfangen bzw. gesendet werden. Bild 8-32 veranschaulicht die drei Arten des Handover. Beim Hard Handover ist die Mobilstation jeweils nur mit einer Basisstation verbunden. Der Hard Handover eignet sich besonders für die zeitschlitzbasierenden TDD-Verfahren wie bei GSM und dem TDD-Modus des UMTS. Beim Soft Handover im FDD-Modus kann eine Verbindung mit bis zu drei Basisstationen gleichzeitig bestehen. Die den Teilnehmern zugeordneten Nachrichten werden netzseitig im RNC auf die jeweiligen Basisstationen aufgeteilt bzw. von diesen kommend kombiniert (Selection Combining - Auswahl des zuverlässigeren Bitstroms). Dabei gibt es keinen festen Umschaltzeitpunkt zwischen den Basisstationen, deshalb der Name Soft Handover. Die Verbindung zur alten Station wird entsprechend der Signalqualität schließlich abgebaut.
sUppLex
258
8 Mobilkommunikation
Soft Handover FDD-Modus
Hard Handover GSM, TDD-Modus
Sektor 1 Softer Handover
Sektor 2
FDD-Modus Node B Sektor 3 Echo
Bild 8-32 Arten des Handover
Der Soft Handover bietet drei entscheidende Vorteile für das Funknetz: x Da sich die Funkstrecken zu den Basisstationen unterscheiden, werden Abschattungen unwahrscheinlicher. x Ebenso ergeben sich unkorrelierte schnelle Schwundprozessen, so dass kurzzeitige Signalauslöschungen unwahrscheinlicher werden. x Der Nah-Fern-Effekt wird reduziert. Insgesamt ermöglicht der Soft Handover das Funknetz mit geringeren Sendeleistungen und damit Interferenzen zu betreiben und dadurch seine Kapazität zu erhöhen. Nachteilig ist die zu seiner Realisierung notwendige höhere Komplexität im Funknetz. Anmerkungen: (i) Man spricht auch von Macro-Diversität oder Base-Station-Diversität. (ii) Anders als bei GSM, wo die BSC nicht direkt verbunden sind, existiert bei UMTS die Schnittstelle Iur zwischen benachbarten RNC. (iii) Wegen der spezifischen Verwürfelungscodes der Basisstationen (Node B) müssen beim Soft Handover die Signal der Basisstationen als unterschiedliche Datenströme im Teilnehmergerät (UE) detektiert werden, was den Aufwand in den Geräten enorm erhöht.
Der Softer Handover ist ein Sonderfall des Soft Handover. Wird an einer Basisstation eine Sektorisierung mit Richtantennen vorgenommen, so können die Sende- und Empfangssignale der Antennen getrennt verarbeitet werden. Da die Funksignale an einem Ort vorliegen, sind zur gemeinsamen Verarbeitung aufwändige Verfahrend er digitalen Signalverarbeitung (z. B. Maximum Ratio Combining) einsetzbar.
sUppLex
8.5 Universal Mobile Telecommunication System
8.5.4.6
259
Protokollstapel für die UMTS-Luftschnittstelle
GSM und GPRS weisen bereits die grundlegenden Funktionen eines modernen öffentlichen Mobilfunksystems auf: die Verwaltung der Mobilität von Teilnehmern und Geräten (Mobility Management) und die Bereitstellung von Dienste durch Zuteilung geeigneter Betriebsmittel (Radio Resource Management) wie Funkzellen, Frequenzkanäle und Zeitschlitze. UMTS knüpft an GSM/GPRS an, unterstützt jedoch Dienste mit einem weiten Bereich an Dienstmerkmalen sowie die schnelle dynamische Anpassung der Funkübertragung an den wechselnden Verkehrsbedarf im Dienstemix. Die damit verbundene Komplexität im Detail wird durch den Protokollstapel für den Zugriff und die Steuerung der Luftschnittstelle in Bild 8-33 in eine übersichtlichere Darstellung gebracht. Bild 8-33 illustriert beispielhaft die Kommunikation von TCP/IP-Datagrammen (Transport Control Protocol / Internet Protocol) über die Luftschnittstelle. Das TCP/IP-Szenario ist auch deshalb interessant, weil UMTS-Netze zukünftig als All-IPNetze Signalisierungsnachrichten und Nutzdaten mit IP-Datagrammen austauschen werden. Anmerkung: vgl. GPRS-Protokollarchitektur in Bild 8-18.
Im Folgenden werden exemplarisch einige wichtige Begriffe und Zusammenhänge vorgestellt. Die Abbildung der IP-Datagramme auf die Luftschnittstelle geschieht in vier Schritten: in der PDCP-Schicht (Packet Data Convergence Protocol), der RLC-Schicht (Radio Link Control), der MAC-Schicht (Medium Access Control) und der PHY-Schicht (Physical Layer). Die PDCP-Schicht stellt die Brücke zum IP-Protokoll her. Im Beispiel nimmt sie IP-Datagramme entgegen bzw. stellt sie zu. Von besonderer Bedeutung ist sie bei der Internet-Telefonie VoIP (Voice over IP). Es werden typisch kurze IP-Datagramme übertragen, bei denen das Kopffeld mit 20 Oktetten (IPv4) ebenso lang wie die Sprachinformation ist. Dabei sind viele Kopffeldinformationen statisch bzw. bei der Funkübertragung impliziert, wie z. B. die Teilnehmeradresse. Weglassen redundanter Kopffeldinformationen (Header Compression) reduziert die Belastung der Luftschnittstelle deutlich und erhöht so die zellulare Funkkapazität. Anmerkungen: Bei einer Punkt-zu-Multipunkt-Übertragungen wird die BMC-Schicht (Broadcast and Multicast Control) vor der RLC-Schicht durchlaufen. In Bild 8-33 ist sie der Einfachheit halber weggelassen.
RLC-Schicht und MAC-Schicht übernehmen die Aufgaben der Datensicherungsschicht (Data Link Layer) im OSI-Referenzmodell. Der Schutz gegen Übertragungsfehler obliegt der RLCSchicht und die Anpassung an das Übertragungsmedium geschieht in der MAC-Schicht. Die RLC-Schicht bietet (gegebenenfalls via PDCP) der Netzschicht Trägerdienste (Radio Bearer) an, wobei sie die speziellen Eigenschaften des Funknetzes verbirgt. Die IP-Datagramme werden in der RLC-Schicht gegebenenfalls segmentiert bzw. assembliert. Mit der MACSchicht tauscht sie Datenblöcke bestimmter Längen aus und vereinfacht somit die Organisation von Warteschlangen und Sendezeitpunkten. Die typischen Aufgaben der Datensicherungsschicht erfüllt sie durch die drei möglichen Übertragungsmodi: x Gesicherte Übertragung mit Wiederholung (Acknowledged Mode): Datenblöcke mit Flusskontrolle und Fehlererkennung mit gegebenenfalls Anforderung einer Übertragungswiederholung (ARQ, Automatic Repeat Request), Verschlüsselung (Ciphering) x Gesicherte Übertragung ohne Wiederholung (Unacknowledged Mode): als fehlerhaft erkannte Datenblöcke werden verworfen, Verschlüsselung x Ungesicherte Übertragung (Transparent Mode): Übertragung ohne Zusatzinformationen (Kopffeld) durch RLC-Schicht, keine Verschlüsselung
sUppLex
260
8 Mobilkommunikation
Radio Resource Control
UE
RAN
TCP/ UDP
TCP/ UDP
Transport Layer
IP
IP
Network Layer
PDCP
PDCP
Packet Data Convergence Protocol
RLC
RLC
Radio Link Control
MAC
Medium Access Control
RRC
IP Datagrams
Logical Channels MAC
Data Link Layer
Radio Bearers
Transport Channels PHY
PHY
Physical Layer
Uu Air Interface Bild 8-33 Protokollstapel für die Luftschnittstelle am Beispiel einer TCP/IP-Übertragung für den UMTS FDD-Modus
Die MAC-Schicht stellt logische Kanäle zur Verfügung. Die Art der transportierten Information, ob Verkehrskanäle oder Steuerkanäle, steht im Vordergrund. Beispiele sind die Nutzdaten (DTCH, Dedicated Traffic Channel), Signalisierung bei bestehender Verkehrsverbindung (DCCH, Dedicated Control Channel) oder außerhalb (CCCH, Common Control Channel) und Systeminformation für alle (BCCH, Broadcast Control Channel). Mit den logischen Kanälen verbunden sind gewisse Anforderungen wie Bitraten, Zustellzeiten, usw. Die MAC-Schicht bildet die logischen Kanäle auf die Transportkanäle der Bitübertragungsschicht (PHY) ab. Aus den Datenblöcken der logischen Kanäle werden Transportblöcke (TB) der Transportkanäle und umgekehrt. Dabei kommt die für den Dienstemix notwendige Flexibilität aber auch Komplexität der Funkübertragung im UMTS FDD-Modus zum Vorschein. Um die möglichen Kombinationen von Diensten mit ihren spezifischen Merkmalen effizient zu unterstützen, werden Transportformate (TF) definiert. Sie legen genau fest, wie Transportblöcke in der physikalischen Schicht zu behandeln sind. Beispielsweise wie groß der TB ist. Welche Art des Fehlerschutzes verwendet wird. Und wie groß die zulässige Übertragungszeit (TTI, Transmission Time Interval) in Vielfachen der Dauer eines Funkrahmens, also 10, 20, 40 oder 80 ms, ist. Die TB werden zu Transport Block Sets (TBS) gruppiert und so der Aufwand verringert. Ähnlich werden Transport Format Sets (TFS) mit kompatiblen Transportformaten gebildet. TBS und TFS bilden die Basis für die Abbildung der logischen Kanäle durch die MACSchicht. Anmerkung: Nachrichten unterschiedlicher Teilnehmer können im Multiplex übertragen werden, da sie unabhängig verschlüsselt sind. Für den Fall des transparenten Modus in der RLC-Schicht wird die Verschlüsselung in der MAC-Schicht vorgenommen.
Die Bitübertragungsschicht (PHY) ist für die unmittelbare Funkübertragung der Daten zuständig. Sie stellt die Transportkanäle bereit und unterstützt die Funktionen, die direkt für die Funkübertragung relevant sind, wie Handover, Synchronisation, Leistungsregelung, und Mess-
sUppLex
8.6 Wireless Local Area Network (WLAN)
261
protokolle. Die PHY-Schicht ist im Funkzugangsnetz (RAN) in den Node B angesiedelt. Dort wird auch die Kanalcodierung und -decodierung vorgenommen. Im Beispiel einer Coderate von 1/3 wird dadurch aufwändiger Datenverkehr im RAN vermieden. Anmerkung: s. a. Soft Handover im Radio Network Controller (RNC) und Softer Handover im Node B.
Der reibungslose und effiziente Betrieb der Luftschnittstelle erfordert eine schnelle und umfassende Steuerung auf der Grundlage aktueller Daten über die Funkbedingungen und die Dienste. Hierfür dient die Funkbetriebsmittelsteuerung (RRC, Radio Resource Control) in der Netzwerkschicht. In der RRC-Schicht werden Daten aus den RLC-, MAC- und PHY-Schichten gesammelt, verarbeitet und die genannten Schichten gesteuert. Auch wenn in der hier gebotenen Kürze die Einzelheiten nicht vorgestellt werden konnten, so ist doch ersichtlich, dass der technischen Umsetzung (Hard- und Software) der Funktionen in den Protokollschichten durch die Hersteller entscheidende Bedeutung für die Leistungsfähigkeit des RAN zukommt.
8.6
Wireless Local Area Network (WLAN)
8.6.1
Einführung
Seit etwa dem Jahr 2000 finden WLAN-Technologien (Wireless Local Area Network) schnell wachsende Verbreitung. Der positive Rückkopplungseffekt zwischen den technischen Innovationen und den sinkenden Preisen des entstandenen Massenmarktes setzte diese Entwicklung in Gang. Mobiltelefone, Notebooks und PDAs (Personal Digital Assistant) sind heute oft ab Fabrik WLAN-fähig. Die Geräte können spontan verbunden werden (Ad-hoc Connectivity). Die WLAN-Technologien spielen ihre Stärken besonders im Heim- und Bürobereich aus: Über kurze Strecken können in Wohnungen bequem drahtlos Verbindungen zu DSL-Modems mit hohen Bitraten bereitgestellt werden. Der Vernetzungen von Unterhaltungsgeräten wie Fernseher, Projektoren, Audioanlagen und Heim-PCs als Medienserver wird wachsende Bedeutung vorhergesagt. In Büros ersetzt WLAN die Verkabelung von Rechnern und Peripherie. WLAN vereinfacht die Anpassung der IT-Infrastruktur an sich wandelnde Organisationsstrukturen. Mit Blick auf die zellularen Mobilfunknetze GSM und UMTS sind WLAN-Angebote in öffentlichen Orten, wie Restaurants, Flughäfen, Hotels, usw., von besonderem Interesse. Hotspots genannte Zugangspunkte zu WLANs ermöglichen mobilen Menschen den Zugang zum Internet. Sie treten damit in direkte Konkurrenz zu den Datendiensten in UMTS-Netzen. Die marktbeherrschenden WLAN-Technologien fußen auf der LAN-Standardisierung durch den weltweiten Ingenieursverband Institute for Electrical and Electronics Engineers (IEEE). Im Februar 1980 wurde die IEEE Arbeitsgruppe 802 gegründet. Zunächst aufbauend auf existierende Firmenlösungen, wie Ethernet, wurde ein Protokollmodell, die Serie 802, entwickelt. Es ersetzt die Datensicherungsschicht (Data Link Layer) des OSI-Referenzmodells, s. Bild 8-34. Unterschiedliche physikalische Bedingungen (Busleitung, Koaxialkabel, Lichtwellenleiter) und Architekturen (Linienbus, Ring) werden in einem einheitlichen Modell integriert. Hierfür wird die Datensicherungsschicht in zwei Teilschichten gespalten: der LLC-Schicht (Logical Link Control) und der MAC-Schicht (Medium Access Control). Die LLC-Schicht fasst die von der physikalischen Übertragung unabhängigen Funktionen zusammen und stellt die Verbindung zu den übergeordneten Schichten her. Die Funktionen der MAC-Schicht realisieren den Zugriff auf die physikalische Übertragung. Insbesondere regelt sie den Vielfachzugriff auf das Übertragungsmedium durch die konkurrierenden Stationen.
sUppLex
262
8 Mobilkommunikation
Transport Control Protocol (TCP) / User Datagram Protocol (UDP)
Transport Layer
Internet Protocol (IP)
Network Layer
802.2 Logical Link Control (LLC) 802.3
802.11
802.15
802.16
“Ethernet“
WLAN
WPAN
WMAN
Physical Layer (PHY)
Medium Access Control (MAC)
Data Link Layer
Physical Layer
Bild 8-34 IEEE-Referenzmodell für LAN- und MAN-Protokolle, im Beispiel mit TCP/IP-Anbindung
Ein verbreitetes Beispiel ist die unter dem Begriff „Ethernet“ bekannte Empfehlung 802.3 aus dem Jahr 1985. Die Stationen des LAN sind über ein Kommunikationskabel verbunden auf das alle Stationen Zugriff haben. Es liegt ein Mehrfachzugriffskanal mit Konkurrenz vor, dessen Gebrauch durch das CSMA/CD-Zugriffsverfahren (Carrier Sense Multiple Access/ Collision Detection) geregelt wird. Dazu beobachten die Stationen den Kanal und senden nur, wenn er als frei erkannt wird. Beginnen zwei Stationen zur gleichen Zeit zu senden, tritt ein Konflikt (Kollision) auf. Konflikte werden erkannt und nach bestimmten Regeln abgebaut. Ersetzt man die Übertragung über eine gemeinsame Leitung durch die Funkübertragung über die gemeinsame Luftschnittstelle, so liegt ein im Prinzip ähnliches Zugriffsproblem vor. Es ist deshalb nicht verwunderlich, dass - sobald preiswerte Technologien für lizenzfreie Frequenzbänder verfügbar waren - das IEEE-Referenzmodell als Vorlage verwendet und um entsprechende Funkvarianten erweitert wurde: 802.11 für WLAN, 802.15 für WPAN (Wireless Personal Area Network) und 802.16 für WMAN (Wireless Metropolitan Area Network). Eine Auswahl von IEEE-802-Empfehlungen stellt Tabelle 8-7 vor. Bemerkenswert ist der technische Wandel in wenigen Jahren, der sich in der Tabelle an den verfügbaren Brutto-Bitraten ablesen lässt. Die Frequenzangaben beziehen sich auf die beiden ISM-Bänder (Industrial, Scientific and Medical) von 2,40 … 2,4835 GHz und 5,15 ... 5,35 GHz. Sie können in vielen Ländern ohne Zulassung oder Anmeldung benutzt werden. Anmerkungen: (i) Der Funkbetrieb in den ISM-Bändern ist lizenz- aber nicht regulierungsfrei. Er ist an die Einhaltung technischer Spezifikationen gebunden. Dazu gehört die Begrenzung der gesendeten Strahlungsleistung (EIRP, Equivalent Isotropic Radiated Power). Überschreiten des Grenzwertes durch nachträgliches Anbringen einer Sende-Antennen mit Richtwirkung ist unzulässig. Steigerung der Reichweite durch eine Empfangs-Antenne mit hohem Gewinn ist selbstverständlich möglich. (ii) Spielt die Reichweite eine wichtige Rolle, sind Verfahren mit kleiner Bitrate aber robusterer Übertragung vorteilhafter. Zum Teil ist bei ungenügender Übertragungsqualität ein automatisches Umschalten zu niedrigeren Bitraten in den Geräten vorgesehen. (iii) Die angegebenen Bitraten beinhalten Steuerinformation und Redundanz zur Fehlerbeherrschung. Faustregel: Für Nutzerdaten stehen unter günstigen Bedingungen etwa 50 % der Brutto-Bitrate zur Verfügung. In vielen praktischen Fällen bleibt die Netto-Bitrate sogar deutlich darunter. Sie muss darüber hinaus zwischen allen Stationen geteilt werden.
sUppLex
8.6 Wireless Local Area Network (WLAN)
263
Tabelle 8-7 Auswahl von Empfehlungen für drahtlose Netze nach IEEE 802 Empfehlung
Jahr
Bitraten
802.11
1997
1 oder 2 Mbit/s
Kommentar drei alternativen Übertragungsverfahren: – diffuse Infrarot-Übertragung bei den Wellenlängen 0,85 oder 0,95 Pm – Frequency Hopping Spread Spectrum (FHSS) mit Frequenzspringen zwischen 79 Frequenzträgern im Abstand von 1 MHz im 2,4-GHz-ISM-Band – Direct Sequence Spread Spectrum (DSSS) mit Bandspreizung durch Barker-Code der Länge 11 im 2,4-GHzISM-Band
802.11a
1999
6…54 Mbit/s
Orthogonal Frequency Division Multiplexing (OFDM) im 5-GHz-ISM-Band
802.11b
1999
5,5 oder 11 Mbit/s
Erweiterung von 802.11 mit HR (High Rate) -DSSS-Übertragung, 2,4-GHz-ISM-Band
802.11g
2003
… 54 Mbit/s
802.11b mit OFDM für höhere Bitraten, Koexistenz
802.11h
2003
802.15.1
2002
Ergänzungen für 802.11a für internationale Zulassung (Europa), dynamische Kanalauswahl und Sendeleistungsregelung bis 1 Mbit/s
Bluetooth V1.1 (Bluetooth SIG) im 2,4-GHz-ISM-Band*
802.15.3
11, 22, 33, 44 u. 55 Mbit/s …
High Rate WPAN (low power, low cost)
802.15.4
20, 40 oder 250 kbit/s
Low Rate WPAN (ZigBee Alliance, 2002), besonders für 868/915-MHz-Bänder (868-868,6 MHz in Europa, 902-928 MHz in USA)
802.16
… 260 Mbit/s
drahtloser Breitbandzugang mit hoher Bitrate für stationäre Teilnehmer bei Sichtverbindung (2-11GHz, 10-66 GHz), Worldwide Interoperability for Microwave Access (WiMAX) mit QoS-Unterstützung * Weiterentwicklungen für Bluetooth V1.2 (2003) und V2.0+EDR (Enhanced Data Rate mit 2 oder 3 Mbit/s, 2004)
Die Arbeitsgruppe 802.11 versucht auch externe Entwicklungen zu integrieren. Dazu gehören die Ergebnisse der HIPERLAN- (High Performance LAN-) Aktivitäten der ETSI (European Telecommunication Standards Institute) und die Empfehlungen verschiedener Konsortien wie der Bluetooth SIG (Special Interest Group) und der ZigBee-Alliance. Um die WLAN-Technologie im Umfeld der Mobilkommunikation einordnen zu können, wird im Folgenden der Medienzugriff der WLAN-Technologie vorgestellt. Zunächst wird im Abschnitt Medienzugriff und Netzstrukturen das Problem des Vielfachzugriffs und seiner Lösung in der MAC-Schicht erörtert. Danach richtet sich der Blick auf die physikalische Übertragung. Beispielhaft wird die zunehmend wichtiger werdende Übertragung mit OFDM (Orthogonal Frequency Division Multiplexing) behandelt. Weitere, für den praktischen Einsatz ebenso wichtige Fragen, wie z. B. die nach der Sicherheit, werden der Kürze halber hier nicht vertieft. Obwohl Prozeduren der Authentifizierung, Verschlüsselung (WEP, Wired Equivalent Privacy), u. ä. für die Anwendung von entscheidender Bedeutung sein können.
sUppLex
264
8.6.2
8 Mobilkommunikation
Mediumzugriff und Netzstrukturen
Während in GSM- und UMTS-Netzen die Funkübertragungen von den Basisstationen zu den Mobilstationen und umgekehrt frequenzmäßig unterschieden werden, konkurrieren im WLAN alle Stationen um das gleiche Frequenzband. Der Zugriff auf die Luftschnittstelle ist nur erfolgreich, wenn jeweils nur eine Station ihren Rahmen sendet (TDD, Time Division Duplex). Andernfalls treten Kollisionen auf, ähnlich wie im Ethernet-LAN beim CDMA/CD-Verfahren. Anders als bei der Übertragung mit Leitung können die Stationen über die Funkantenne entweder nur senden oder empfangen. Eine Kollision ist damit für die sendenden Stationen nicht erkennbar. Die Stationen senden ihre Rahmen weiter und belegen so nutzlos den Funkkanal. In WLANs ist es deshalb noch wichtiger Kollisionen zu vermeiden. Anmerkung: (i) Für ein TDD-Verfahren sprechen auch die relativ kurzen Signallaufzeiten in WLANs, die große Schutzabstände zwischen den Rahmen erübrigen. Die kurzen Signallaufzeiten resultieren aus den geringen Sendeleistungen und damit verbunden eingeschränkten Funkreichweiten von bis zu einigen hundert Metern, typisch einigen zehn Metern bzw. innerhalb eines geschlossenen Raumes. (ii) In GSMund UMTS werden die Funkressourcen über die Basisstationen zentral zugeteilt. Nur beim Einbuchen stehen die Mobilstation kurz im Wettbewerb um den Access-Channel.
Wie Kollisionen vermieden werden können, wird im Folgenden am Beispiel der 802.11-Empfehlung aufgezeigt Der Aufbau der Kommunikation im WLAN basiert auf dem Prinzip des „Ist-da-Jemand?“. Eine Station mit Verbindungswunsch horcht zunächst in das vorgesehene Frequenzband ob sie eine andere Station empfangen kann. Ist keine andere Station aktiv, sendet sie ein BeaconSignal (Leuchtfeuer) mit allen für den Beginn des Verbindungsaufbaus notwendigen Informationen. Gegebenenfalls wird das Beacon-Signal regelmäßig wiederholt. Beim Ad-hoc-Betrieb mehrerer Stationen ohne zentrale Steuerung können zwei Fälle den Durchsatz der WLAN-Verbindungen stark vermindern: verborgende Stationen (Hidden-Station-Problem) und herausgehobene Stationen (Exposed-Station-Problem). Anmerkungen: (i) Durchsatz: pro Zeit übertragenes Datenvolumen. (ii) Hierin unterscheiden sich ad-hoc gebildete WLAN von zentral organisierten zellularen Mobilfunknetzen. Sie bieten nur Best-EffortDienste ohne garantierte Dienstgüten, wie maximale Zustellzeiten, an.
Bild 8-35 oben illustriert das Hidden-Station-Problem. Station A möchte an B senden. Sie kann wegen der begrenzten Funkreichweite nicht erkennen, dass B von C (Hidden Station) empfängt. Von A gesendete Rahmen kollidieren bei B mit denen von C. Während beim Hidden-Station-Problem der Durchsatz durch Wiederholungen reduziert wird, geschieht dies beim Exposed-Station-Problem indem mögliche Sendezeit ungenutzt verstreicht. Bild 8-35 unten macht die Situation deutlicht. Es besteht eine Verbindung von Station B (Exposed Station) nach A. C möchte an D senden. Da aber bereits B aktiv ist, sendet C nicht obwohl ein kollisionsfreier Empfang durch D möglich wäre.
sUppLex
8.6 Wireless Local Area Network (WLAN)
265
Hidden-Station-Problem: A sendet an B, da A nicht erkennen kann, dass B von C empfängt
A
) B empfängt nicht (Kollision)
B
Funkzone A
C Funkzone C
Exposed-Station-Problem: B sendet an A; C kann nicht erkennen kann, dass D ohne Kollision erreichbar ist
A
B
C
D
) C sendet nicht
Bild 8-35 Situationen im WLAN die den Durchsatz vermindern
Die Empfehlung 802.11 sieht für den Betrieb ohne zentralen Steuerung (DCF, Distributed Coordination Function) das CSMA/CA-Zugriffsverfahren (Carrier Sense Multiple Access with Collision Avoidance) vor. Zwei Modi sind möglich. Der erste entspricht dem vom Ethernet bekannten Wettbewerb um den Zugriff auf das freie Medium (CAA, Clear Cannel Assessment) mit einer Kollisionsauflösungsstrategie nach dem Backoff-Algorithmus. Hierbei ist eine gewisse Wartezeit, DIFS (DCF Inter-frame Spacing) genannt, bis zum Zugriff mindestens einzuhalten. Ist sie im Vergleich zur typischen Rahmendauer relativ klein, so ist der durch die Wartezeit resultierende Verlust an Durchsatz ebenso klein und tolerierbar. Diese Betriebsart eignet sich bei kleiner Verkehrslast, so dass Kollisionen selten auftreten. Anmerkung: Grundlage des Zugriffsverfahrens bildet das Slotted-Aloha-Verfahren mit Zeitschlitzen der Dauer von 20 Ps für die DSSS- und 50 Ps für die FHSS-Übertragungen.
Mit zunehmender Verkehrslast nimmt die Kollisionswahrscheinlichkeit zu. Der Durchsatz nimmt also genau dann ab, wenn ein hoher Durchsatz gebraucht wird. Kollisionen von wiederholt übertragenen Rahmen führen schließlich zur Blockierung des WLAN. Die Stationen reagieren indem sie die Übertragungswiederholungen einstellen und eine Fehlermeldung generieren. Um die Wahrscheinlichkeit für solche Blockaden zu reduzieren und insbesondere das HiddenStation-Problem zu vermeiden, wird optional ein Verfahren mit virtuellen Reservierungen eingesetzt Anmerkung: Die Anwendung ist optional, die technischen Voraussetzungen in den Geräten sind jedoch im Standard verpflichtend.
Stationen die senden wollen, kündigen dies zunächst an und die Zielstationen bestätigen die Empfangsbereitschaft. Bild 8-36 veranschaulicht das Prinzip anhand von vier Stationen, wobei sich die jeweils benachbarten Stationen in Funkreichweite befinden, s. a. Bild 8-35. Mit dem RTS-Rahmen (Request To Send) kündigt C die Übertragung und die geplante Dauer der Station B an. B ist empfangsbereit und bestätigt das mit dem CTS-Rahmen (Clear To Send), der die aktualisierte geplante Dauer enthält. Die Station D empfängt ebenfalls den RTS-Rahmen und sperrt ihren Sender für die angegebene Übertragungszeit. Die für C verborgene Station A emp-
sUppLex
266
8 Mobilkommunikation
fängt den CTS-Rahmen und sperrt ebenfalls ihren Sender für die dort angegebene Übertragungszeit. Das Verfahren wird deshalb auch RTS/CTS-Erweiterung genannt. Die Stationen A und D reagieren so, als ob der CCA-Test einen belegten Kanal ergäbe. Daher die Bezeichnung virtuelle Reservierung. Die Reservierungsdauer wird im Protokoll-Parameter NAV (Network Allocation Vector) gespeichert. Der Parameter schließt die Zeit für die Quittung, die Übertragung des ACK-Rahmens (Acknowledgement), ein. Die RTS/CTS-Erweiterung reduziert das Hidden-Station-Problem, indem es die beiden Funkzonen von Sender C und Empfänger B berücksichtigt und das Zeitfenster für mögliche Kollisionen auf die relativ kurze Dauer der Signalisierung einschränkt. Stationen NAV
A CTS
B
ACK
RTS
Datenrahmen
C NAV D Zeit ACK CTS
Acknowledgement Clear To Send
NAV Network Allocation Vector RTS Request To Send
Bild 8-36 Virtuelle Reservierung
Im Vergleich mit drahtgebunden LANs steigt wegen der relativ hohen Bitfehlerwahrscheinlichkeit der Funkübertragung die Wahrscheinlichkeit für Rahmenfehler mit wachsender Rahmenlänge stark an. Deshalb gibt es eine Erweiterung bei der Datenrahmen in Teilen übertragen werden, das Fragment-Burst-Verfahren. Die vorgestellten Zugriffsmodi gelten für Konfigurationen ohne zentrale Steuerung (DCFModus). Wird beispielsweise eine Anbindung an das Internet (E-Mail, WWW) gewünscht, ist ein leitungsgebundener Zugangspunkt (AP, Access Point) erforderlich, der in der Regel die zentralen Steuerfunktionen übernimmt. Darüber hinaus verspricht eine zentrale Steuerung einen fairen Zugriff auf die Luftschnittstelle und kollisionsfreiem Betrieb mit hohem Durchsatz. Eine mögliche Betriebsmittelreservierung unterstützt Dienstgütemerkmale. Eine Konfiguration mit AP wird Infra-structure Configuration genannt und der Zugriffsmodus Point Coordination Function (PCF) bezeichnet. Die Empfehlung 802.11 sieht zwei derartige Betriebsarten für WLANs vor. Bild 8-37 zeigt links die Grundanordnung (BSS, Basic Service Set) mit einem AP zur fixen Infrastruktur und über Funk angebundene Stationen. Rechts ist eine erweiterte Anordnung (ESS, Extended Service Set) zu sehen. Hier werden mehrere BSS über eine gemeinsame feste Infrastruktur verbunden. Ein quasi unterbrechungsfreies weiterreichen mobiler Stationen, z. B. ein Teilnehmer mit PDA wird möglich. Hierzu wird die Funkversorgung so ausgelegt, dass sich benachbarte BSS-Zellen teilweise überlappen. Eine Frequenzplanung ist in diesem Fall erforderlich. Die folgenden Angaben beziehen sich auf das DSSS-Verfahren. Die Signalbandbreite des DSSS-Verfahrens beträgt 22 MHz. Beginnend mit der Mittenfrequenz 2,412 GHz für den Kanal 1 stehen in USA 11 und Europa 13 Frequenzkanäle mit jeweiligem Trägerabstand von 5 MHz zur Verfügung. Ein Kanalabstand von
sUppLex
8.6 Wireless Local Area Network (WLAN)
267
mindestens fünf Ordnungszahlen (25 MHz) vermeidet Interferenzen. Es empfiehlt sich deshalb für das ESS in Bild 8-37 die Kanalwahl von 1 (2,412 GHz), 6 (2,437 GHz) und 11 (2,462 GHz). In Europa sind beispielsweise auch die Kanäle 1, 7 und 13 möglich. Anmerkung: Die Ad-hoc-Kommunikation zwischen zwei Stationen innerhalb einer BSS wird optional durch 802.11e mit der Erweiterung Direct Link Protocol (DLP) unterstützt. Basic Service Set (BSS)
Extended Service Set (ESS)
BSS1
BSS2 A1
A B C
BSS3 A2
B1
C2
C1 AP
Fixed Access
A3 B2 B3
C3 AP1
AP2
AP3
Fixed Access Bild 8-37 Netzstrukturen für WLAN mit Zugangspunkten (AP)
Ein WLAN mit AP verfügt über eine ausgezeichnete Station, die zentrale Steuerungsaufgaben übernehmen kann. Insbesondere kann sie in als Taktgeber fungieren, der alle Stationen im Funkbereich folgen. Damit wird ein Zugriffsverfahren mit Prioritäten möglich, die sogar den gleichzeitigen PCF- und DCF-Betrieb zulassen. Die Grundlage bildet der ca. 10- bis 100-mal pro Sekunde gesendete Beacon-Rahmen des AP (Basisstation) auf das sich die Stationen im BSS synchronisieren. Nach Abschluss einer Übertragung durch den Quittungsrahmen ACK erfolgt der Medienzugriff jetzt prioritätsgesteuert durch die Stationen. Bild 8-38 veranschaulicht das Verfahren mit unterschiedlichen Rahmenabständen. Nur die Stationen in aktiver Verbindung, z. B. im Fragment-Burst-Verfahren, können nach dem kürzesten Rahmenabstand SIFS (Short Inter-frame Spacing) die Übertragung mit einem RTS- bzw. CTS-Rahmen fortsetzen. Geschieht dies nicht, kann nach der Zeit PIFS (PCF Inter-frame Spacing) der zentral gesteuerte Verkehr des PCF-Modus abgewickelt werden. Falls keine Station zum Senden aufgefordert ist, kann der AP einen Beacon- oder Polling-Rahmen senden. Beim Polling-Verfahren werden die Stationen abgefragt und gegebenenfalls Sendeberechtigungen durch den AP gegeben. Der Medienzugriff nach den Rahmenabständen SIFS und PFIS erfolgt ohne Wettbewerb, da das Protokoll den Zugriff eindeutig einschränkt. Verstreicht die Zeit DIFS (DCF Inter-frame Spacing) ohne Zugriff, beginnt die Wettbewerbsphase des DCF-Modus. Durch den eingesetzten Backoff-Algorithmus mit zufälligen Verzögerungen ist die Wahrscheinlichkeit klein, dass mehrere sendewillige Stationen gleichzeitig zugreifen. Nach der zugriffsfreien Zeit EIFS (Extended Inter-frame Spacing) kann von einer Station der empfang eines fehlerhaften Rahmens gemeldete werden. Dieses Ereignis hat die geringste Priorität, da die Kommunikation von der Zielstationen durch Quittungen gesichert wird.
sUppLex
268
8 Mobilkommunikation
Anmerkung: Man beachte: Wegen dem Hidden-Station-Problem können die Stationen nicht eindeutig entscheiden ob ein Rahmen tatsächlich gesendet wird oder nicht.
EIFS DIFS PIFS SIFS ACK
Zeit
*
*
*
Steuerrahmen oder nächstes Fragment kann ab hier gesendet werden
DCF-Rahmen kann ab hier gesendet werden, wenn frei
PCF-Rahmen kann ab hier gesendet werden, wenn zugeteilt ACK Acknowledgement DCF Distributed Coordination Function DIFS DCF Inter-frame Spacing
EIFS PIFS SIFS
Extended Inter-frame Spacing PCF Inter-frame Spacing Short Inter-frame Spacing
Bild 8-38 Prioritätsgesteuerter Medienzugriff
Wie beschrieben wurde, unterstützt die IEEE-802.11-Empfehlung den quasi wahlfreien Zugriff auf das Übertragungsmedium im Wettbewerb durch den DCF-Modus sowie den zentral gesteuerten Betrieb im PCF-Modus. Beides sogar in Koexistenz. Der PCF-Modus ermöglicht die Stationen eines BSS mit dem Polling-Verfahren durch den AP (Basisstation) zentral zu steuern. Die Stationen senden dann nur nach Aufforderung durch den AP. Zwei Stationen können im BSS nur über den AP miteinander kommunizieren. Darüber hinaus ist es möglich Stationen für gewisse Zeiten in einen Ruhezustand (Power-Save-Betrieb) zu versetzen. Anmeldungen neuer Stationen und Übertragungen unvorhergesehener Meldungen durch die Stationen können regelmäßig durch den DCF-Modus ermöglicht werden. Der PCF-Modus erlaubt die Reservierung und Zuteilung von Übertragungszeiten, so dass Stationen bzw. Dienste bevorzugt werden können. Damit ist eine Unterstützung von Dienstmerkmalen, wie Bitraten und maximalen Zustellzeiten in gewissen Grenzen möglich. Die Qualität der WLAN-Funkübertragung kann zufällig schwanken, da die Konfiguration eines WLAN in der Regel nicht genau geplant ist. Im Büro beispielsweise kann es eine Rolle spielen wo Mitarbeiter und Gäste gerade ihre Notebooks abstellen. Dazu kommt, dass das ISM-Band für das WLAN nicht exklusiv reserviert ist. Reale Netto-Bitraten liegen meist deutlich unter 50 % der in Tabelle 8-7 angegebenen BruttoWerte, die auch noch zwischen den Stationen geteilt werden muss. So ergab sich in einer Testinstallation eines Audio-Video-Heimnetzwerkes mit 802.11g (54 Mbit/s) eine Netto-Bitrate für Punkt-zu-Punkt-Übertragungen von nur 2 bis 16 Mbit/s [HaZo05]. In [CDG05] werden Ergebnisse aus der Literatur zusammengestellt, die den erreichbaren Datendurchsatz in Abhängigkeit von der Netzkonfiguration beschreiben. Abhängig von der Zahl und räumlichen Anordnung der Stationen ergeben sich für die Stationen Datendurchsätze von etwa 10 bis 90%. Unter Umständen kann die RTS/CTS-Erweiterung zu einer substantiellen Abnahme des Durchsatzes führen.
sUppLex
8.6 Wireless Local Area Network (WLAN)
269
In vielen WLANs für den Internetzugang wird die Übertragungskapazität durch den Festnetzanschluss begrenzt. Stehen nur zwei ISDN-B-Kanäle zur Verfügung, so sind insgesamt nicht mehr als 128 kbit/s nutzbar. In diesem Fall sind bereits Bluetooth-Geräte mehr als ausreichend.
8.6.3
Übertragung mit OFDM
Das Orthogonal Frequency Division Multiplexing (OFDM)-Verfahren kann sowohl als Multiträger- wie auch als Frequenzmultiplex-Verfahren interpretiert werden. Im Gegensatz zum traditionellem Frequenzmultiplex mit für jeden Frequenzkanal eigener Sende- und Empfangseinrichtung und relativ großem Trägerfrequenzabstand, wird beim OFDM die digitale Signalverarbeitung eingesetzt, um den Datenstrom gezielt auf viele Unterträger aufzuteilen und bei der Detektion die Signale der verschiedenen Unterträger gemeinsam auszuwerten. Die Idee des OFDM wurde bereits 1957 angewendet und 1966 ein relevantes U.S.-Patent eingereicht. Heute kann OFDM mit digitalen Signalprozessoren sehr effizient implementiert werden. Als software-basiertes Verfahren ist im laufenden Betrieb eine Anpassung an veränderte Funkfeldbedingungen und Dienstcharakteristika möglich. OFDM wird deshalb in der Empfehlung IEEE 802.11a und von der ETSI als Hiperlan/2 vorgeschlagen. Beide Empfehlungen sind bezüglich der physikalischen Übertragung sehr ähnlich. Im Frequenzbereich um 5 GHz werden Bitraten von 6 Mbit/s bis 54 Mbit/s unterstützt. Dabei werden je nach Bedarf und Funkfeldbedingungen für die Unterträger die Modulationsverfahren BPSK, QPSK, 16-QAM und 64-QAM eingesetzt und die Fehlerschutzcodierung angepasst. Die tatsächlich erzielbare Bitrate ist entfernungsabhängig. Tests im Freien zeigen, dass sich Bitraten von 6 und 54 Mbit/s über Funkstrecken von etwa 200…300 m bzw. 20…30 m übertragen lassen. Anmerkung: Eine Variante des OFDM wird für die terrestrische Übertragung des digitalen Fernsehrundfunk, dem Terrestrial Digital Video Broadcasting (T-DVB), verwendet. Auf der Teilnehmeranschlussleitung (DSL, Digital Subscriber Line) findet das Prinzip der OFDM als Discrete-Multitone(DMT-) Modulation ebenfalls seine Anwendung.
Für WLAN-Anwendungen wurden in Europa ursprünglich die Frequenzbänder von 5,15 bis 5,35 GHz und 5,47 bis 5,725 GHz vorgesehen. Eine Erweiterung für das ISM-Band bei 2,4 GHz wurde 2003 mit der Empfehlung 802.11g eingeführt. Anmerkung: USA: 5,15 bis 5,35 GHz und 5,725 bis 5,825 GHz ; Japan: 5,15 bis 5,25 GHz.
Im vorgesehenen Frequenzbereich sind 20 MHz breite Teilbänder jeweils für eine OFDMÜbertragung mit theoretisch 64 Unterträgern reserviert. Benachbarte Unterträger besitzen gleiche Frequenzabstände, so dass sich der Unterträgerabstand 'F = 20 MHz / 64 = 0,3125 MHz ergibt. Um Störungen in den Nachbarbändern zu vermeiden, werden jeweils die sechs Unterträger am Rand nicht verwendet. Weitere vier Unterträger sind für die Synchronisation belegt, weshalb für die eigentliche Datenübertragung nur 48 Unterträger zur Verfügung stehen, s. Bild 20 MHz 1 6 7 8 n-1 n n+1 56 57 58 64 8-39. Die Bandbreiteneffzienz des OFDM-Verfahrens beruht auf der „starken“ Überlappung der Spektren der Unterkanäle. Diese scheint fn-1 fn fn+1 Frequenz zunächst der Erfahrung aus der Frequenzmultiplextechnik zu widersprechen. Es kann jedoch gezeigt werden, dass bei Orthogona- Bild 8-39 Frequenzlagen der 64 Unterträger in einem Teilband lität der Unterträger, eine Signaltrennung
sUppLex
270
8 Mobilkommunikation
möglich ist, s. z. B. [Wer05c]. Damit sind der Unterträgerabstand 'F und die Symboldauer der Unterträgermodulation T fest miteinander verkoppelt. T=
1
ΔF
= 3, 2s
Mit dem Rechteckimpuls als Sendegrundimpuls ergibt sich im Spektrum die Überlagerung von sin(x)/x-Funktionen (si-Funktion) in Bild 8-40. Durch die Verkopplung der Symboldauer und des Frequenzabstandes liegen die Frequenzen der Unterträger im äquidistanten Raster der Nullstellen der si-Funktionen. Betrachtet man die Signale der Unterträger gemeinsam, so stellt sich die Erzeugung des OFDM-Sendesignals als Kombination aus Harmonischen der Fourier-Reihe dar. Darin ist die Teilnachricht in den komplexwertigen Fourier-Koeffizienten zu den Unterträgern codiert. Entsprechend den Teilnachrichten werden die Fourier-Koeffizienten den jeweilig gültigen Signalräumen für BPSK, QPSK, 16-QAM oder 64-QAM entnommen.
'F = 1 / T Spektrum zum Unterträger n-1
Frequenz fn-1 fn
fn+1
Die OFDM lässt sich als Fourier-Transformation aus dem Frequenzbereich in den Bild 8-40 Überlagerung der Spektren zu den UnZeitbereich deuten, wobei die Zeitfunktion terträgern (schematische Darstellung) periodisch ist. Man erhält genau eine Periode. Die digitale Signalverarbeitung stellt hierfür einen effizienten Algorithmus, die inverse schnelle Fouriertransformation, Inverse Fast Fourier Transform (IFFT), bereit [Wer05b]. Damit erhält man die in Bild 8-41 gezeigte vereinfachte Struktur des Modulators mit Codierung der Symbole und Seriell-parallel- (S/P-) Umsetzung vor der IFFT.
S
Bitstrom
P
Codierer
IFFT P
Symbole
S
QAM f0
Sendesignal
Basisbandsignale
Bild 8-41 Struktur des OFDM-Modulators mit Inverse Fast Fourier Transform (IFFT)
Ähnliche Überlegungen für den Empfang von OFDM-Signalen liefern eine entsprechende Struktur. Statt der IFFT wird im Empfänger die fast identische FFT verwendet. Abschließend wird eine kurze Überlegung zur Bitrate in der WLAN-Anwendung vorgestellt und ein wichtiger Hinweis zur praktischen Realisierung gegeben. Mit dem Frequenzabstand 'F der 48 Unterträgern und der 64-QAM-Modulation der Unterträger ergibt sich die geschätzte Bitrate Rˆb = 6 bit ⋅ 48 ⋅ 0,3125MHz = 90 Mbit/s
sUppLex
8.7 Zusammenfassung
271
Tatsächlich werden in den Empfehlungen IEEE 802.11a und Hiperlan/2 nur 54 Mbit/s realisiert. Dies hat zwei Gründe. Zum ersten werden zusätzliche Prüfbits mit übertragen, so dass nur 3/4 der codierten Bits tatsächlich zu den Nachrichten gehören. Zum zweiten wird aus praktischen Gründen eine so genannte zyklische Sequenzerweiterung vorgenommen. Überträgt man nämlich, wie in den bisherigen Überlegungen, nur eine Periode des Basisbandsignals, so resultieren strikte Forderungen an die Genauigkeit der Synchronisation im Empfänger. Insbesondere machen sich dann die im Funkfeld typischen Mehrwegeübertragungen mit unterschiedlichen Laufzeiten störend bemerkbar. Aus diesem Grund wird das Basisbandsignal periodisch etwas fortgesetzt, also zyklisch erweitert. Man spricht auch von einem Schutzabstand, Guard Period genannt. Der Empfänger kann dann aus dem „verlängerten“ Signal leichter eine Periode für die Detektion entnehmen. Es wird ein Schutzabstand Tg von 800 ns vorgeschlagen. Damit verlängert sich die effektive Symboldauer
Ts = T + Tg = 3, 2s + 0,8s = 4s Die Bitrate beträgt einschließlich der Kanalcodierung deshalb 3 6 bit ⋅ 48 3 6 bit ⋅ 48 Rb = ⋅ = ⋅ = 54 Mbit/s 4 4 4s Ts
8.7
Zusammenfassung
Mobilkommunikationsnetze nach dem GSM-Standard integrieren seit Anfang der 1990er Jahre die Fortschritte der modernen digitalen Nachrichtentechnik in ein sicheres, zuverlässiges und preiswertes Kommunikationssystem für weltweit hunderte Millionen von Teilnehmern. GSM war von Anfang an als „lebender“ Standard konzipiert, der sich mit den wachsenden Kundenanforderungen und technischen Fortschritten weiterentwickeln sollte. Dass dies nach etwa 15 Jahren der ersten Netzeinführung gelungen ist, beweist die überwältigende Zahl von weltweit über 820 Millionen Teilnehmern. Architektur und Sicherheitsmerkmale von GSM sind auch heute noch beispielhaft. Seit dem Beginn der 1990er-Jahre haben sich die Telekommunikation und ihr Umfeld stark gewandelt. An der Abschaffung des Monopols für Sprachdienste 1998 und der Verbreitung des paketorientierten Internet ist dies besonders erkennbar. Hinzu kommt zunehmend der Wunsch nach Multimedia-Inhalten, was Zugänge mit hohen Datenraten erfordert. Dementsprechend haben sich auch die Erwartungen an die Mobilkommunikation verändert. Als Reaktion darauf sind die GSM-Netzerweiterungen GPRS, HDSCD und EDGE zu nennen. Die technologischen Grenzen von GSM als Mobilfunkstandard der 2. Generation sind offensichtlich. Aus diesem Grund wird bereits seit Anfang der 1990er-Jahre weltweit unter der Koordination der International Telecommunication Union (ITU) und in Europa des European Telecommunications Standards Institut (ETSI) an der 3. Generation gearbeitet. Parallel wurden neue Frequenzbänder um 2000 MHz für die Mobilkommunikation reserviert. Daher auch der von der ITU gewählte Projektname International Mobile Telephony 2000 (IMT2000). In Europa werden diese Aktivitäten unter dem Namen Universal Mobile Telecommunication Services (UMTS) zusammengefasst. Im Jahr 2000 wurden in Deutschland die für UMTS-Netze vorgesehenen Frequenzbänder für etwa 50 Milliarden € versteigert. UMTS-Dienste werden in Deutschland seit dem Jahr 2004 zunächst zur Probe mit wenigen Pilotanwendungen angeboten. Erst 2005 begann zögerlich die Vermarktung. UMTS tritt in eine schwierige Konkurrenz mit der Qualität von Festnetzan-
sUppLex
272
8 Mobilkommunikation
schlüssen, wie z. B. ADSL und Breitbandkoaxialkabel, und den Preisen etablierter GSM/ GPRS-Netze. Dazu kommt die in den letzten Jahren zunehmende Verbreitung von WLANs, die Brutto-Bitraten bis zu 54 Mbit/s bei einer Reichweite von 50 bis 300 m bieten. Leistungsfähige WLANFunkschnittstellen gehören heute zur Serienausstattung von Notebooks und PDAs. WLANTechnologien werden immer häufiger in öffentlichen Zugangspunkten (Hotspots) für das Internet verwendet. Hinzu kommen ad-hoc um eine „Person“ herum aufgebaute Funknetze, so genannte Personal Area Networks (PAN). Seit 2001 steht für PAN-Anwendungen mit der Bluetooth-Empfehlung V1.1 ein breit unterstützter Standard zur Verfügung. Bluetooth ermöglicht, je nach lokalen Bedingungen, Datenraten bis zu 721 kbit/s über Entfernungen von 10 bis 100 m. Seit Ende 2004 werden mit der Weiterentwicklung V2.0+EDR Bitraten bis zu 3 Mbit/s angeboten. An all diesen Standards wird weiter gearbeitet. Varianten mit verbesserten Leistungsmerkmalen sind in der Entwicklung. Die Existenz unterschiedlicher Standards ist im Rückblick teilweise auf die historische Entwicklung der Technik und der Märkte zurückzuführen. Um das Frequenzspektrum möglichst effizient zu nutzen und preisgünstige Geräte anbieten zu können, werden spezifische Lösungen bevorzugt. Anwender wünschen sich jedoch einfach zu bedienende, preiswerte Geräte die alles können. Es zeichnet sich deshalb eine Entwicklung zu Multimodegeräten ab, die die jeweils geeignete Luftschnittstelle vor Ort unterstützen. Multimodegeräte geben den Anwendern die Freiheit zu entscheiden, ob beispielsweise ein Zugriff auf das Internet über ein Mobilfunknetz oder über einen WLAN-Hotspot geschieht. Die Geschäftsmodelle der Netzbetreiber und Dienstanbieter werden sich darauf einzustellen haben. Für spezielle Aufgaben, z. B. zur Prozess-Steuerung, Gebäudeüberwachung, usw., werden leistungs- und kostenoptimierte Funkmodule auch in Zukunft den Vorzug erhalten. Ihre breite Anwendung steht erst noch bevor. Von besonderem Interesse ist dabei auch die Entwicklung auf dem Gebiet der so genannten Funketiketten (RFID, Radio Frequency Identification), die mit zunehmender Komplexität Eigenschaften von Kommunikationsendgeräten aufweisen.
8.8
Aufgaben zu Abschnitt 8
A8.1 Nennen Sie die drei Sicherheitsmerkmale von GSM aus der Anwendersicht. Wie werden Sie umgesetzt? A8.2 Es wird zwischen Teilnehmermobilität und Endgerätemobilität unterschieden. Geben Sie je ein Beispiel an. Wie werden beide durch GSM unterstützt? A8.3 Welches Vielfachzugriffsverfahren wird bei GSM eingesetzt. Geben Sie wesentliche Parameter an. A8.4 Was versteht man unter einem zellularen Funknetz bei GSM? A8.5 Nennen Sie drei Maßnahmen in GSM, um die Funkübertragung robuster gegen Fehler zu machen. A8.6 Wofür steht das Akronym GPRS? Welche Art von Dienst wird durch GPRS bereitgestellt? A8.7 Was heißt EDGE? Was soll mit EDGE erreicht werden? Wie wird EDGE umgesetzt?
sUppLex
8.8 Aufgaben zu Abschnitt 8
273
A8.8 Wofür steht das Akronym UMTS? Auf welchem Prinzip fußt die Funkübertragung im FDD-Modus und warum wurde es ausgewählt? A8.9 Erklären Sie den Nah-Fern-Effekt. Welche negative Auswirkung hat er? Wie wird ihm entgegen gewirkt? A8.10 Was ist die zellulare Funkkapazität? Wodurch wird sie bei UMTS begrenzt? A8.11 Erklären Sie das Hidden Station Problem und das Exposed Station Problem. A8.12 Wie kann das Hidden Station Problem und das Exposed Station Problem bekämpft werden? A8.13 Wofür steht das Akronym OFDM? Aufgabe 8.14
a) Wieso kann die OFDM-Übertragung sowohl als Frequenzmultiplex-Verfahren als auch als Modulationsverfahren gedeutet werden? b) Welche zwei Parameter des OFDM-Verfahrens sind wie zu wählen? c) Wodurch wird die „theoretische“ Übertragungskapazität aus b) vermindert? d) Nennen Sie ein typisches Anwendungsgebiet der OFDM-Übertragung. Aufgabe 8.15
a) Welcher Art von Übertragungstechniken wird CDMA zugeordnet? b) Erklären Sie anhand einer Skizze die Wirkungsweise des CDMA-Modulators. c) Wenn die Chiprate 3,84 Mchip/s und die Bitrate 60 kbit/s beträgt, wie groß ist der Spreizfaktor? d) Erklären Sie anhand einer Skizze die Wirkungsweise des CDMA im Frequenzbereich. e) Was versteht man bei CDMA unter Prozessgewinn und warum ist der Prozessgewinn wichtig?
sUppLex
274
Lösungen zu den Aufgaben Lösungen zu Abschnitt 1 A1.1 Die (elektrische) Nachrichtentechnik befasst sich mit der Darstellung und Übertragung, der Vermittlung und der Verarbeitung von Nachrichten (in elektronischer Form). A1.2 Ein Signal ist der physikalische Repräsentant einer Nachricht. Eine Schnittstelle definiert die Bedeutung und Reihenfolge und die physikalischen Eigenschaften der ausgetauschten Signale, sowie die Orte an denen die Schnittstellenleitungen auf einfache Weise unterbrochen werden können. Die Regeln für den Datenaustausch an einer Schnittstelle werden durch das Protokoll festgelegt. Es definiert die Datenformate, die möglichen Kommandos und Reaktionen und die zugehörigen Zeitvorgaben. A1.3 Die Quellencodierung stellt die Nachricht in einer Form dar, die für eine aufwandsgünstige Übertragung geeignet ist. Oft wird dabei eine Datenkompression durch Beseitigung von redundanten und irrelevanten Anteilen vorgenommen. Die Kanalcodierung sichert die Nachricht gegen Übertragungsfehler durch zusätzliche Prüfzeichen, sodass im Empfänger Fehler erkennbar und/oder reparierbar werden. Die Leitungscodierung bzw. Modulation passt das Signal an die physikalischen Eigenschaften des Kanals an. A1.4 Shannonsches Kommunikationsmodell: Quelle -> Sender -> Kanal (+Störung) -> Empfänger -> Sinke A1.5 TK-Netze ermöglichen die Übermittlung (Vermittlung + Übertragung) von Nachrichten zwischen zwei Netzzugangspunkten. Sie stellen Dienste mit bestimmten Dienstmerkmalen zur Verfügung. A1.6 Anwendungsgebiete der digitalen Signalverarbeitung: die Mobilkommunikation (z. B. der Sprachcodec im Mobilgerät), die Medizintechnik (z. B. die Computertomographie, bei der aus Röntgenschichtaufnahmen räumliche Bilder erstellt werden) und die Kommunikationstechnik (z. B. xDSL-Modems für die schnelle Datenübertragung auf der Teilnehmeranschlussleitung).
sUppLex
Lösungen zu den Aufgaben
275
Lösungen zu Abschnitt 2 Aufgabe 2.1 Tabelle A2.1-1
wertdiskret
analoges Signal digitales Signal Abtastfolge binäres Basisbandsignal der RS-232Schnittstelle (Bild 2-3)
wertkontinuierlich x
zeitdiskret
x
zeitkontinuierlich x
x x
x x
x
Aufgabe 2.2 1 1 1 1 1 1 jωC + 1 R a) Frequenzgang H ( jω ) = = = ⋅ = ⋅ 1 2 + jωCR 2 1 + jω CR 2 2 1 + jωτ R+ jωC + 1 R
b) Frequenzgang der Dämpfung a (ω ) dB = −20lg H ( jω ) dB = 10lg (1 + ω 2τ 2 ) dB + 6 dB c) Skizze des Frequenzgangs der Dämpfung (s. a. Bild 2-16) mit der 3dBGrenzkreisfrequenz Z3dB = 1/W Hinweis: Die 3dB-Grenzfrequenz bezieht sich auf das Maximum des Betragsfrequenzganges, s. (2.53)
a(ω) 24 dB 18
12
d) Tiefpass
9 6 1/4
e) 3dB-Grenzfrequenz f 3dB =
1 1 ⋅ ≈ 8 kHz 2 π RC 2
Aufgabe 2.3
6dB Steigung pro Oktave
1/2
1
2
ω / ω3dB 8
Amplitudenspektrum (Betrag der Fourier-Koeffizienten) zur periodischen Sägezahnschwingung 0,5
|ck| ~1/k 0
k -4
0
4
sUppLex
276
Lösungen zu den Aufgaben
Aufgabe 2.4 a) Reaktion am Ausgang des Bandpasses mit Z0 = 2S 1kHz
y (t ) =
1
π
4
⋅
∑
k=1
sin ( k ω0t ) 1 ⎡ ⎤ 1 1 1 = ⋅⎢ sin (ω0t ) + sin ( 2ω0t ) + sin (3ω0t ) + sin ( 4ω0t ) ⎥ ⎦ k π ⎣ 2 3 4
b) Skizze des Amplitudenspektrums 0,2
|ck| 0,1 0
k 0
4
Ergänzung: Reaktion des BP y(t) 1/2 0
t
0
T0
Aufgabe 2.5
a) Die Fourier-Transfomierte eines Signals bezeichnet man als (Signal-)Spektrum. Das Betragsquadrat des Spektrums gibt die Verteilung der (Signal-)Leistung über der Frequenz an. Ist das Signal periodisch mit der Periode T, so erhält man aus der harmonischen Analyse eine Fourier-Reihe mit Gleichanteil bei der Frequenz null und Harmonischen bei ganzzahligen Vielfachen der Grundkreisfrequenz Z0 = 2S / T. b) In elektrischen RLC-Netzwerken lassen sich bei sinusförmigen Quellenströmen und Quellenspannungen Zweigströme und Zweigspannung im eingeschwungenen Zustand mit der komplexen Wechselstromrechnung bestimmen. Die harmonische Analyse liefert eine mathematische Darstellung periodischer Ströme und Spannungen, sodass die bekannten Beziehungen der komplexen Wechselstromrechnung angewendet werden können. c) Die parsevalsche Gleichung stellt die Verbindung zwischen der Leistung des Zeitsignals und dem Betragsquadrat seines Spektrums her. Damit können Leistungsbetrachtungen äquivalent im Frequenzbereich durchgeführt werden. d) Unter der Bandbreite eines Signals versteht man den Bereich im Spektrum, in dem sich die wesentlichen Frequenzkomponenten des Signals befinden. Liegt eine strikte Bandbegrenzung vor, so besitzt das Signal keine Frequenzkomponente außerhalb der Bandbreite.
sUppLex
Lösungen zu den Aufgaben
277
e) Einem periodischen Signal mit der Periode T ist eine Fourier-Reihe und damit ein Linienspektrum zugeordnet. Die Frequenzkomponenten finden sich bei der Frequenz null (für den Gleichanteil) und ganzzahligen Vielfachen der jeweiligen Grundkreisfrequenz Z0 = 2S / T (für die Harmonischen). f) Die zeitliche Dauer eines Signals und dessen Bandbreite stehen in reziprokem Zusammenhang. Je schneller sich ein Signal ändert, umso größer ist seien Bandbreite. Aufgabe 2.6
siehe Bild 2-18
Aufgabe 2.7
Klirrfaktor d =
0,12 + 0,04 2 2 2 + 0,12 + 0,04 2
≈ 0,054 5, 4%
Aufgabe 2.8
a) Frequenzgang H ( jω ) =
R jωCR 1 jωτ = = ⋅ 1 1 + jωC ⋅ 2 R 2 1 + jωτ +R R+ jωC
b) Frequenzgang der Dämpfung ⎛1 ω 2τ 2 ⎞ ⎟ a(ω) dB = −20lg H ( jω ) dB =−20lg⎜ ⎜ 2 1 + ω 2τ 2 ⎟dB= ⎝ ⎠ ⎛1 + ω 2τ 2 ⎞ =10lg⎜ ⎟dB + 6 dB ⎝ ω 2τ 2 ⎠
c) Skizze des Frequenzganges der Dämpfung mit der 3dB-Grenzkreisfrequenz Z3dB = 1/(2RC) a(ω ) 24 dB 18
12 9 6 1/8
6dB Steigung pro Oktave
1/4
1/2
1
ω / ω3dB 4
d) Hochpass e) 3dB-Grenzfrequenz
f 3dB =
1 1 ⋅ ≈ 1 kHz 2π 2 RC
Aufgabe 2.8
a) siehe c) b) x(t ) ↔ X ( jω ) = 2 AT ⋅ si (ωT )
sUppLex
278
Lösungen zu den Aufgaben
c) Rechteckimpuls der Dauer 2T und sein Spektrum x(t)
X( jZ)
2AT
A
Z
t -T
0
0
T
S/T
Aufgabe 2.10
a) Frequenzgang H ( jω ) =
R 1 = jω L + R 1 + jω L / R
(
b) Frequenzgang d. Dämpfung a(ω) dB = −20lg H ( jω) dB = 10lg 1 + ω 2 ( L R ) c) s. a. Lösung zu Aufgabe 2.2 mit der 3dBGrenzkreisfrequenz Z3dB = R/L d) Tiefpass e) Induktivität zur 3dB-Grenzfrequenz R L= ≈ 0,8 mH 2 π f 3dB
2
) dB
a(ω ) 18 dB 12
6 3 0 1/4
6dB Steigung pro Oktave
1/2
1
2
ω / ω3dB 8
Aufgabe 2.11 Frequenzbereich
Zeitbereich
AT1 A
1/T1 t
f
T1 AT2
A
1/T2
t
f
T2 Aufgabe 2.12
a) LTI-Systeme sind linear (Linear) und zeitinvariant (Time-invariant).
sUppLex
Lösungen zu den Aufgaben
279
b) Ist ein System linear, so erhält man bei einer Linearkombination von Eingangssignalen (Erregungen) am Systemeingang die gleiche Linearkombination der zugehörigen Ausgangssignale (Reaktionen) am Systemausgang. c) Das Übertragungsverhalten eines LTI-Systems wird durch die Impulsantwort und den Frequenzgang (Übertragungsfunktion) beschrieben. Impulsantwort und Frequenzgang bilden ein Fourier-Paar. d) Das Eingangssignal wird mit der Impulsantwort gefaltet. e) Das Eingangsspektrum wird mit dem Frequenzgang multipliziert. f) Der Frequenzgang charakterisiert die Übertragungseigenschaften des LTI-Systems im Frequenzbereich. Stellt man, wie in der komplexen Wechselstromrechnung, das sinusförmige Eingangssignal als komplexe Amplitude dar, so ergibt sich die komplexe Amplitude des Ausgangssignals aus der komplexen Amplitude am Eingang mal dem Wert des Frequenzgangs bei der entsprechenden Kreisfrequenz. Damit ist die Amplitude des sinusförmigen Ausgangssignals proportional zum Betrag des Frequenzgangs bei der entsprechenden Kreisfrequenz. Die Phase des Frequenzgangs bei der entsprechenden Kreisfrequenz tritt im Ausgangssignal als Phasenverschiebung in Erscheinung. g) Eine Übertragung ist verzerrungsfrei, wenn das Empfangssignal dem Sendesignal bis auf einen konstanten Amplitudenfaktor und einer konstanten Zeitverschiebung gleicht. Aufgabe 2.13
a) Die Impulsfunktion stellt die mathematische Idealisierung eines sehr kurzen und energiereichen Signals dar. Am Beispiel der Aufladung der Kapazität eines RC-Glieds kann man sich die Impulsfunktion als Spannungsimpuls vorstellen, der die Kapazität so schnell lädt, dass im Rahmen der Messgenauigkeit der Ladevorgang selbst nicht beobachtet werden kann. b) Die Ausblendeigenschaft der Impulsfunktion ist unmittelbar mit der Definition der Impulsfunktion verknüpft. Wird die Impulsfunktion auf ein (im Ursprung t = 0 stetiges) Signal angewendet, so erhält man den Signalwert im Ursprung. Der restliche Signalverlauf wird ausgeblendet. c) Die Faltung zweier identischer Rechteckimpulse ergibt einen dreieckförmigen Impuls mit der doppelten Dauer der Rechteckimpulse. Die maximale Höhe ist gleich der Energie der Rechteckimpulse. Aufgabe 2.14
y(t) T
Das Signal x(t) kann in eine Folge von Rechteckimpulsen der Dauer T zerlegt 0 1 werden. Wegen der Linearität der Fal-T tung, darf jeder einzelne Rechteckimpuls für sich mit h(t) gefaltet werden. Es ergeben sich jeweils Dreieckimpulse der Dauer 2T und Höhe T, s. Bild 2-41. Das Ergebnis y(t) = x(t)*h(t) setzt sich aus deren Überlagerung zusammen.
t/T 7
sUppLex
280
Lösungen zu den Aufgaben
Lösungen zu Abschnitt 3 Aufgabe 3.1
fg < 24 kHz
S/N|dB | 96 dB
Aufgabe 3.2
fa = 8 kHz
w = 8 (bit)
Rb = 64 kbit/s
Aufgabe 3.3
a) Signalausschnitt von u(t), b) Codenummern, c) Codewörter CodewortNr.
BCDCodewort
Repräsentant
7
111
7/8
6
110
5/8
5
101
3/8
4
100
1/8
3
011
-1/8
2
010
-3/8
1
001
-5/8
0
000
-7/8
1
u(t)
0 0
5
t / ms 10
-1
d) Bitstrom
{110, 100, 010, 001, 011, 101, 101, 100, 100, 100, 101}
e) Repräsentanten
{5/8 , 1/8 , -3/8 , -5/8 , -1/8 , 3/8, 3/8, 1/8, 1/8, 1/8, 3/8}
f) Interpolierende Treppenfunktion Bild oben Aufgabe 3.4
a) Übersteuerung und granulares Rauschen b) Sättigungskennlinie bzw. Quantisierung mit expliziter Darstellung der Null
Aufgabe 3.5
Sound-Card
a) max. Signalfrequenz fmax b) S/N c) Bitrate Rb d) Aufnahmezeit
Telefonqualität
Rundfunkqualität
CD-Qualität
< 5,5125 kHz
< 11,025 kHz
< 22,05 kHz
48 dB
48 dB
96 dB
88,2 kbit/s
176,4 kbit/s
1411,2 kbit/s *
| 25,1 h
| 12,5 h
| 1,57 h
* stereo, 1Gbyte = 8 109 bit
sUppLex
Lösungen zu den Aufgaben Aufgabe 3.6
281
PCM-Codierung
xd
gleichförmige Quantisierung mit w = 12 und Vorzeichen V
PCM-Format (w = 8)
0,8
1 110 0110 0110
1 111 1001
-0,4
0 011 0011 0011
0 110 1001
0,25
1 010 0000 0000
1 110 0000
0,001
1 000 0000 0010
1 000 0010
V = 1 für |x| t 0 Aufgabe 3.7
a) Frequenzauflösung
'f = 48 kHz / 1024 | 46,9 Hz
b) Kein Unterschied! FFT ist nur ein besonders effizienter Algorithmus zur Berechnung des DFT-Spektrums. Aufgabe 3.8
a) Ersetzen eines analogen Filters durch ein digitales Filter nach A/D-Umsetzung mit anschließender D/A-Umsetzung, so dass die gewünschte Funktion des analogen Filters erfüllt wird. b) Es ist das Abtasttheorem zu beachten und eine ausreichende Wortlänge bei der digitalen Signalverarbeitung bereitzustellen. Ferner sind die Eigenschaften realer A/D- und D/AUmsetzer zu berücksichtigen. c) Ein FIR-Filter ist ein zeitdiskretes Filter mit einer Impulsantwort von endlicher Dauer. Für gewöhnlich wird darunter ein digitales Filter in transversaler Struktur verstanden. d) Ein IIR-Filter ist ein zeitdiskretes Filter mit einer Impulsantwort von unendlicher Dauer. In der Regel wird damit ein digitales Filter mit rekursiver Struktur gemeint. Aufgabe 3.9
a) verlustlose Codierung ) Aus dem codierten Signal kann im Prinzip das ursprüngliche Signal fehlerfrei wieder gewonnen werden o nur Redundanzminderung. verlustbehaftete Codierung ) Aus dem codierten Signal kann das ursprüngliche Signal nicht mehr original wieder gewonnen werden o auch Irrelevanzreduktion und/oder bewusste Inkaufnahme von Fehlern Irrelevanzreduktion ) Signalanteile die für den eigentlichen Zweck nicht benötigt werden, werden weggelassen o s. z. B. Maskierungseffekte beim Hören Redundanzreduktion ) Die im Signal mehrfach vorhandene Information (Redundanz) wird benutzt um überflüssige Signalanteile zu entfernen o s. z. B. Huffman-Codierung
sUppLex
282
Lösungen zu den Aufgaben
b) Unter der Maskierung versteht man in der Audio-Codierung den Effekt, dass bei Mehrtonsignalen gewisse Signalanteile vom menschlichen Gehör nicht wahrgenommen werden. Es gibt sowohl eine Maskierung im Frequenzbereich als auch im Zeitbereich. In der Audio-Codierung wird die Maskierung zur Datenkompression durch Irrelevanzreduktion benutzt. Die hohen Kompressionsgrade moderner Audio-Codierverfahren sind im Wesentlichen auf die Ausnutzung des Maskierungseffektes zurückzuführen.
Lösungen zu Abschnitt 4 Aufgabe 4.1
Bei der kohärenten Demodulation muss im Empfänger das Trägersignal frequenz- und phasenrichtig bereitgestellt werden. Bei der inkohärenten Demodulation entfällt die Trägernachbildung. u(t)
Aufgabe 4.2
U0
a) Es handelt sich um eine Zweiseitenband-AM mit Träger.
t t1
b) fT >> fg
t2
c) Modulationsprodukt s. rechts
Aufgabe 4.3
Betragsspektrum des Modulationsprodukts (a) und des demodulierten Signals (b) (schematische Darstellungen)
|UM( jZ)|
A (a) -24
c) Grenzfrequenz des Tiefpasses: 3,4 kHz < fg < 20,6 kHz
-16
-8
0
8
16
24
16
24
Z/2S in kHz
|Ud( jZ)|
A (b) -24
-16
-8
0
8
Z/2S in kHz
Aufgabe 4.4
a) Da es sich um eine Eintonmodulation handelt, erhält man ein Linienspektrum mit Frequenzanteilen bei ωT ± n ⋅ ω1 = 2 π ⋅ (1 ± n ⋅ 0,01) MHz . ⎛ 24,048kHz ⎞ b) Carson-Bandbreite: BC = 2(η + 1) f g = 2⎜ + 1⎟⋅10 kHz = 68,1 kHz ⎝ 10 kHz ⎠
c) Die Trägerfrequenz ist nicht im FM-Spektrum enthalten, da die Besselfunktion J0(K) für den Modulationsindex K = 2,4048 gleich null ist.
sUppLex
Lösungen zu den Aufgaben
283
Aufgabe 4.5 x
Die analoge AM benötigt für das ESB-Signal dieselbe Bandbreite wie das modulierende Signal selbst. Störungen bei der Übertragung (Rauschen und Verzerrungen) wirken sich auch auf das demodulierte Signal aus.
x
Die ASK-Modulation besitzt wegen dem harten Umtasten Sprünge im Signal und damit ein relativ breites Spektrum. Solange die Störungen und Verzerrungen bei der Übertragung eine fehlerfrei Detektion der digitalen Nachricht zulassen, ist die empfangene Nachricht gleich der gesendeten.
Aufgabe 4.6
a,b) Symbolraum der QPSK-Modulation mit Gray-Codierung c) Die Graycodierung ordnet im Symbolraum benachbarten Symbolen binäre Codewörter mit möglichst wenig unterschiedlichen Stellen zu. Wird ein Symbol bei der Übertragung durch Rauschen gestört, treten meist Verfälschungen in Nachbarsymbole auf. Somit wird insgesamt die mittlere Bitfehlerquote möglichst klein gehalten.
Quadraturkomponente 01 00 Normalkomponente
11
10
d) Bei der M-PSK-Modulation liegen die Symbole auf einem Kreis um den Ursprung der komplexen Symbolebene und haben somit gleichen Betrag. Bei der rechteckförmigen MQAM sind die Symbole auf einem rechteckförmigen Gitter um den Ursprung, ähnlich kariertem Papier, angeordnet. e) Durch die Anordnung der Symbole auf einem Kreis, spielt der Betrag der empfangenen Symbole für die Detektion eine untergeordnete Rolle. Die Detektion kann vorteilhaft allein aufgrund der Phaseninformation durchgeführt werden, so dass die Übertragung relativ robust gegen Dämpfungsverzerrungen ist. (s. a. differentielle M-PSK) Nachteilig ist, dass bei wachsender Anzahl von Symbolen, die Phasenunterschiede kleiner werden, sodass die Detektion störanfälliger wird.
Lösungen zu Abschnitt 5 Aufgabe 5.1
„N”
Spannung in V
0 1 1 1 0 0 1 1
„T” 0 0 1 0 1 0
1 0
12 3 -3
Zeit t
-12
sUppLex
284
Lösungen zu den Aufgaben
Aufgabe 5.2
a) Bei einem Leitungscode mit Gedächtnis wird durch die Codierungsregel eine Korrelation zwischen den Bits des übertragenen Bitstroms bzw. der Sendegrundimpulse herbeigeführt. Dadurch lässt sich die Verteilung der Leistung im Frequenzbereich formen. Insbesondere lassen sich gleichstromfreie Signale erzeugen, wie z. B. beim AMI- und Manchester Code. b) Basisbandsignal mit AMI-Codierung für bn = {0,1,0,1,1,1,0,…} Aufgabe 5.3
a) Synchronisation, Abtastung, Detektion b) Nachbarzeicheninterferenz und Rauschen
Basisband- 1 0 signal -1
0 1
2
3
4
5
t/T
c) Durch die Bandbegrenzung im Kanal werden die Sendegrundimpulse verbreitert, sodass sich benachbarte Impulse überlagern (Interferenz). Kommt es zur gegenseitigen (teilweisen) Auslöschung, so treten in der Detektion mit erhöhter Wahrscheinlichkeit Fehler auf. d) Je weiter die Augenöffnung, desto robuster ist die Übertragung gegen Störungen durch additives Rauschen und Synchronisationsfehler (Jitter). e) Ein Synchronisationsfehler bewirkt, dass die Detektionsvariable nicht mehr im optimalen Detektionszeitpunkt gewonnen wird und deshalb nicht mehr die volle Rauschreserve des Augendiagramms zur Verfügung steht. f) Durch die Pulsformung wird das Datensignal an den physikalischen Kanal angepasst. Eine geeignete Pulsformung reduziert die benötigte Bandbreite und/oder erhöht die Störsicherheit. Häufig werden Pulse mit Raised-cosine-Spektrum verwendet. Aufgabe 5.4
a) Die Bandbreite muss mindestens gleich der Nyquist-Bandbreite fN = 32 kHz sein. Typisch für die Anwendung ist eine Bandbreite von ca. 1,5fN. b) Bitrate, Bandbreite und Signal-Geräuschverhältnis sind im Sinne der Kanalkapazität in gewissen Grenzen gegenseitig austauschbar. Je größer die Bandbreite und das Signal-Geräuschverhältnis sind, umso größer ist die maximale, theoretisch fehlerfrei übertragbare Bitrate. c) Durch die Verwendung einer mehrstufigen Modulation. Nachteilig dabei ist die mit wachsender Stufenzahl ebenfalls zunehmende Störempfindlichkeit. d) Bei der digitalen Übertragung wird in den Zwischenverstärkern das Sendesignal - solange kein Detektionsfehler auftritt - ohne Rauschen und unverzerrt regeneriert. Aufgabe 5.5
a) Durch Verwenden eines Matched-Filterempfängers wird die Detektion robuster gegen additvem Rauschen. b) Das Matched-Filter ist auf den Sendegrundimpuls anzupassen. c) Für einen gegebene Sendegrundimpuls und additiver Rauschstörung maximiert das Matched-Filter das Signal-Rauschverhältnis im optimalen Detektionszeitpunkt.
sUppLex
Lösungen zu den Aufgaben
285
Lösungen zu Abschnitt 6 A6.1 Primärmultiplexsignal (PCM-30-System), Zeitmultiplex A6.2 Das Primärmultiplexsignal enthält pro Zeitrahmen zu den 30 Oktetten für die Teilnehmerkanäle zwei zusätzliche Oktette. Davon dient ein Oktett zur Rahmenerkennung bzw. für Meldungen und das zweite für die Zeichengabe. A6.3 Das Meldewort wird in jedem zweiten PCM-30-Multiplexrahmen gesendet, also alle 250 Ps. Pro Sekunde sind das 4000 Meldewörter à 4 Bits. Somit ist die Bitrate des Melde-Kanals 4 kbit/s. A6.4 Die Aufgabe eines TK-Netzes ist es, den Nachrichtenaustausch zwischen den Netzzugangspunkten zu ermöglichen, also Nachrichten zu übermitteln. A6.5 Der Begriff Nachrichtenübermittlung fasst die Aufgaben der TK-Netze, das Übertragen und Vermitteln von Nachrichten, in einem Wort zusammen. A6.6 Unter einem Dienst eines TK-Netzes versteht man die Fähigkeit Nachrichten unter Beachtung bestimmten Merkmalen, wie z. B. die Datenrate, Zeitvorgaben, usw., zu übertragen. A6.7 Leitungsvermittlung und Paketvermittlung A6.8 Verbindungsaufbau, Nachrichtenaustausch und Verbindungsabbau A6.9 Bei der verbindungslosen Nachrichtenübermittlung werden die Nachrichten in Form von Datenpaketen übertragen. Die Datenpakete enthalten Ursprungs- und Zieladresse. A6.10 Die netzorientierten Schichten des OSI-Modells sind: (1) Bitübertragung, (2) Sicherung, (3) Vermittlung. Die anwendungsorientierten Schichten des OSI-Modells sind: (4) Transport, (5) Kommunikationssteuerung, (6) Darstellung, (7) Anwendung. A6.11 Die Kommunikation zwischen den Partnerinstanzen einer Protokollschicht erfolgt nach dem Modell der Dienstanforderung und Diensterbringung. Dabei fordert die Instanz der Schicht N mit einem vordefinierten Dienstelement einen Dienst von einer Instanz der Schicht N-1 an. Für die Partnerinstanzen scheint es so, als ob zwischen ihnen ein (virtueller) Kanal bestünde. A6.12 High Level Data Link Control (HDLC), Link Access Protocol (LAP) A6.13 s. Bild 6-9 und zugehörige Erklärung A6.14 s. Bild 6-10 A6.15 Das U-Format kann keine Empfangsnummer N(R) übertragen und somit den Empfang von Rahmen nicht quittieren. Das U-Format ist für den Auf- und Abbau der Verbindungen und zur Übertragung von reiner Steuernachrichten vorgesehen. A6.16 Mit dem Poll Bit (=1) wird die Gegenstation zum sofortigen Senden einer Meldung, am Final Bit (=1) erkenntlich, aufgefordert. A6.17 Sende- und Empfangsnummern dienen zur gesicherten Übertragung mittels Flusskontrolle. Durch Sende- und Empfangsnummern werden empfangene Rahmen quittiert bzw. die Gegenstation zum Senden des nächsten Rahmens aufgefordert. A6.18 Bittransparenz bedeutet, dass das Bitmuster der zu sendende Bitfolge beliebig sein darf. Im HDLC-Protokoll wird nach fünf Einsen eine Null eingefügt (Zero Insertion), die im Empfänger wieder entfernt wird.
sUppLex
286
Lösungen zu den Aufgaben
A6.19 Bei einer gesicherten Übertragung wird der „richtige“ Empfang eines Rahmens durch die Gegenstation quittiert. A6.20 Asynchronous Transfer Mode (ATM); Übertragung von Datagrammen (ATM-Zellen) mit Paketvermittlung. A6.21 Der besondere Vorteil der ATM-Übertragung besteht in den relativ kleinen ATM-Zellen mit nur 53 Oktetten, so dass lange Wartezeiten zum Füllen der Zellen vermieden werden. Der Header unterstützt die Bündelung von logischen Kanälen und die verbindungsorientierte Paketvermittlung. A6.22 Nur die beiden untersten Schichten Bitübertragung und Sicherung. A6.23 Medium Access Control (MAC); die MAC-Schicht regelt den Zugriff der Stationen auf das gemeinsame Übertragungsmedium (Leitung, Glasfaser, Funk, usw.). Sie ist der Sicherungsschicht zugeordnet und verbindet die Bitübertragungsschicht mit der ebenfalls der Sicherungsschicht zugeordneten Schicht Logical Link Control, s. Bild 6-17. A6.24 Transport Control Protocol (TCP), Internet Protocol (IP) A6.25 Durch die Bezeichnung Protokollfamilie TCP/IP wird ausgedrückt, dass es sich hierbei um eine Gruppe von Protokollen handelt, die verschieden Kommunikationsdienste auf der Basis des TCP und IP (oder verwandter Protokolle) realisieren, s. Bild 6-19. Gemeinsam sind die Verwendung von TCP (verbindungsorientiert, gesichert) und IP (verbindungslos, ungesichert) als Transportschicht- bzw. Vermittlungsschicht-Protokolle. A6.26 Die Protokollschicht Transport Control Protocol (TCP) entspricht der Transportschicht im OSI-Referenzmodell. Sie stellt eine verbindungsorientierte und gesicherte Übertragung bereit. Es werden die drei Phasen Verbindungsaufbau, Nachrichtenaustausch und Verbindungsabbau umgesetzt. Die Übertragung wird durch eine Ende-zu-Ende-Flusskontrolle mit Quittiert und gegebenenfalls Übertragungswiederholung gesichert. A6.27 Die Protokollschicht Interent Protocol (IP) entspricht der Vermittlungsschicht im OSIReferenzmodell. Die IP-Schicht unterstützt die verbindungslose und ungesicherte Übertragung von Datagrammen (IP-Pakete). A6.28 Unter einem Extension Header versteht man die Möglichkeit im IPv6-Protokoll optional zusätzliche Header-Abschnitte zu verwenden. Durch das Konzept der Extension Header konnte der obligatorische IPv6-Header vereinfacht und die Flexibilität des Protokolls verbessert werden A6.29 IPv6 kennt drei Arten von Adressen: Unicast-, Anycast- und Multicast-Adressen, s. Abschnitt 6.8. A6.30 Rundfunkdienste erfordern wegen der Vielzahl von Teilnehmern eine effektive Verkehrslenkung, die unnötiges Duplizieren von Paketen vermeidet. Dazu ist jeweils eine zentrale Planung auf Kenntnis der aktuellen Netzstruktur vom zentralen Server (Rundfunkstation) zu den Clients (Hörer) erforderlich. Dies steht im Widerspruch zum ursprünglichen Konzept des dezentralen „nicht“ organisierten Netzes. Für Rundfunkdienste sind die Multicast-Adressen vorgesehen.
sUppLex
Lösungen zu den Aufgaben
287
Lösungen zu Abschnitt 7 Aufgabe 7.1
a) Entscheidungsgehalt H0
ld 6 bit | 2,58 bit
und Entropie
H ( X ) ≈ 2,36 bit
bzw.
r | 1
Redundanz (relative) R | 2,58 2,36 bit
0, 22
2,36 | 0, 085 2,58
b) Huffman-Codierung Zeichen
pi
x5
0,30
x6
0,25
x2
0,20
x4
0,12
x1
0,08
x3
0,05
0 1
0,13
0 1
0,45
0 1
0,25
0 1
0,55 0 1
Tabelle Huffman-Code Zeichen xi x5 x6 x2 x4 x1 x3
Wahrscheinlichkeit pi 0,30 0,25 0,20 0,12 0,08 0,05 ¦=1
Codewort
Codewortlänge Li in bit 2 2 2 3 4 4
00 10 11 010 0110 0111
mittlere Codewortlänge
L = 2,38 bit
und Effizienz des Codes
η ≈ 0,99 x5 0
x4
c) Codebaum
x1
x3
0
0 1
1
0
x6
0
1
x2
1
1
sUppLex
288
Lösungen zu den Aufgaben
Aufgabe 7.2
(a) Huffman-Codierung (1) links und (b) „Huffman-Codierung“ (2) rechts i
pi
Codewort Li / bit
i
pi
Codewort Li / bit
1
0,4
00
2
1
0,4
0
1
2
0,2
01
2
2
0,2
10
2
3
0,2
10
2
3
0,2
110
3
4
0,2
11
2
4
0,2
111
4
Obwohl beide Codes die minimale mittlere Wortlänge liefern, ist Code (1) vorzuziehen, da die unterschiedlichen Codewortlängen bei Code (2) zusätzliche Anforderungen an den Empfänger stellen (unterschiedliche Decodierzeiten, zusätzlicher Datenspeicher). Aufgabe 7.3 H 0 = ld 6 bit ≈ 2,58 bit und Entropie H ( X ) ≈ 2, 22 bit
a) Entscheidungsgehalt
R ≈ 2,58 − 2, 22 = 0,36 bit
Redundanz b) Huffman-Codierung
Zeichen
pi
x1
0,40
x2
0,20
x3
0,20
x4
0,10
x5
0,05 0 0,10 1
x6
0,05 1
0 1
0,40 0 1
0
0,60
0 1
0,20
Tabelle Huffman-Code Zeichen xi x1 x2 x3 x4 x5 x6
Wahrscheinlichkeit pi 0,40 0,20 0,20 0,10 0,05 0,05 Summe = 1
Codewort 10 00 01 110 1110 1111
Codewortlänge Li in bit 2 2 2 3 4 4
sUppLex
Lösungen zu den Aufgaben
289
mittlere Codewortlänge
L = 2,3 bit
und Effizienz des Codes
η ≈ 0,965
0
x2 x3
0
1
x1 0
c) Codebaum
1
0
x4
1
x5
0 1
Aufgabe 7.4
x6
1
a) ISBN-Code, da ohne Rest durch 11 teilbar 103+95+82+78+60+53+49+35+21+5 = 220 b) 0-07-085971- X 100+90+87+70+68+55+49+37+21 + ? = 188 + ? = 198 = 18 11 Aufgabe 7.5
a) Generatormatrix
⎛1 1 1 1 0 0⎞ ⎜ ⎟ G =⎜1 1 0 0 1 0⎟ ⎜ ⎟ ⎝0 1 1 0 0 1⎠
b) Codetabelle und Hamming-Gewichte Nachricht 000 100 010 110 001 101 011 111
Codewort 000 000 111 100 110 010 001 110 011 001 100 101 101 011 010 111
Hamming-Gew. 0 4 3 3 3 3 4 4
c) minimale Hamming-Distanz: dmin = 3 d) Syndrom-Decodierung mit Prüfmatrix Da das Syndrom gleich der vierten Spalte der Prüfmatrix ist, wird unter der Annahme, dass ein Einfachfehler vorliegt, die vierte Komponente des Empfangswortes korrigiert und die Nachricht u = (0 1 0) detektiert.
Aufgabe 7.6
s
r : HT
§1 ¨ ¨0 ¨0 1 1 0 1 1 0 : ¨ ¨1 ¨1 ¨¨ ©0
0 0· ¸ 1 0¸ 0 1¸ ¸ 1 1¸ 1 0¸ ¸ 1 1 ¸¹
1
1 1
sUppLex
290
Lösungen zu den Aufgaben
a) Ein fehlerfreies Datenwort liegt vor, wenn kein Bit im Wort gestört ist P0 = (1-Pe)8 b) Ein erkennbarer Wortfehler tritt auf, wenn die Zahl der gestörten Bits im Wort ungeradzahlig ist. Dabei sind alle möglichen Fehlermuster (Kombinationen) zu berücksichtigen. ⎛8 ⎞ ⎛8 ⎞ ⎛8 ⎞ ⎛8⎞ 7 5 3 Pw,erk =⎜ ⎟⋅ (1 − Pe ) ⋅ Pe +⎜ ⎟⋅ (1 − Pe ) ⋅ Pe3 +⎜ ⎟⋅ (1 − Pe ) ⋅ Pe5 +⎜ ⎟⋅ (1 − Pe ) ⋅ Pe7 ⎝1 ⎠ ⎝3⎠ ⎝ 5⎠ ⎝7⎠
c) Ein nicht erkennbarer Wortfehler tritt auf, wenn die Zahl der gestörten Bits im Wort geradzahlig ist. Dabei sind alle möglichen Fehlermuster (Kombinationen) zu berücksichtigen. ⎛8⎞ ⎛8⎞ ⎛8 ⎞ 6 4 2 Pw,unerk =⎜ ⎟⋅ (1 − Pe ) ⋅ Pe2 +⎜ ⎟⋅ (1 − Pe ) ⋅ Pe4 +⎜ ⎟⋅ (1 − Pe ) ⋅ Pe6 + Pe8 ⎝ 2⎠ ⎝ 4⎠ ⎝ 6⎠
d) Für hinreichend kleine Bitfehlerwahrscheinlichkeit (Pe<<1) gilt Pw,erk | 8Pe und Pw,unerk | 28Pe2
Pe
10-3
10-6
10-9
P0
0,992
0,999 992
0,999 999 992
Pw,erk
|
810-3
Pw,unerk | 2,810-5
|
810-6
| 2,810-11
| 810-9 | 2,810-17
Aufgabe 7.7
a) Wahrscheinlichkeit für eine fehlerfreie Übertragung P0 = (1-Pe)7 | 0,999 993 mit Pe = 10-6 b) Restfehlerwahrscheinlichkeit PR | (2k-1)Pe3 = 1,510-17 c) Effektive mittlere uncodierte (Netto-)Bitrate k 4 ⋅ 0,999993 ⋅16 kbit/s Rb,eff = ⋅ P0 ⋅ Rb ≈ ≈ 9,14 kbit/s n 7
Aufgabe 7.8
Vorteile: Die Huffman-Codierung liefert einen optimalen präfixfreien Code im Sinne der redundanzmindernden Codierung. Nachteile: Unterschiedliche Codewortlängen führen zu ungleichmäßigen Bitraten und Decodierverzögerungen; erhöhte Fehleranfälligkeit der codierten Nachricht; Kenntnis der Wahrscheinlichkeitsverteilung der zu codierenden Zeichen wird vorausgesetzt.
sUppLex
Lösungen zu den Aufgaben
291
Aufgabe 7.9
Die Restfehlerwahrscheinlichkeit gibt die Wahrscheinlichkeit an, mit der ein gestörtes Empfangswort nicht als solches erkannt wird. Restfehler entstehen bei der Syndrom-Decodierung, wenn das gestörte Empfangswort ein Codewort ist, da die Syndrom-Decodierung nur prüft ob ein Codewort empfangen wurde oder nicht. Aufgabe 7.10
CRC-Codes sind slineare (n,k)-Blockcodes, die durch Erweiterung von zyklische HammingCodes mit dem Faktor (1+X) im Generatorpolynom entstehen. Sie zeichnen sich durch relativ einfache Codier- und Decodierschaltungen mit rückgekoppelten Schieberegistern und besonders vorteilhafte Fehlererkennungseigenschaften aus. Sie eignen sich besonders gut für die Datenübertragung mit Rahmen und Fehlererkennung mit Wiederholungsanforderung aus. Aufgabe 7.11
Üblicherweise werden in der Datenübertragung systematische Codes mit Prüfsummen eingesetzt, so dass im Empfänger zu der erhaltenen Nachricht die Prüfsumme berechnet werden kann. Stimmen die berechnete Prüfsumme und die empfangene Prüfsumme nicht überein, wird ein Fehler erkannt. Da nur der Empfang eines Codeworts geprüft wird, nicht aber ob ein Codewort in ein anders verfälscht wurde, ist ein Restfehler nicht ausgeschlossen. Aufgabe 7.12
a) n = 27–1 = 127, k = 127 – 8 = 119, in der ATM-Zelle tatsächlich benützt werden 4 Oktette, d. h. 32 Bits b) Die Fehlerwahrscheinlichkeit, insbesondere auch die Restfehlerwahrscheinlichkeit nimmt bei Codeverkürzung ab, da bei weniger Bits die Fehlermöglichkeiten in Empfangswort entsprechend abnehmen. c) b(X) = [X 8 (1 + X 2)] mod g(X) = X 4 + X 3 v(X) = X 8 (1 + X 2) + X 4 + X 3 = X 3 + X 4 + X 8 + X 10 v = (0, 0, 0, 1, 1, 0, 0, 0, 1, 0, 1, 0, …, 0) Codewort
d) Das Empfangspolynom, r(X) = X 2 + X 3 + X 7, ist vom Grad kleiner als das Generatorpolynom, d. h. grad r(X) = 7 < 8 = grad g(X). Somit ist das Empfangspolynom gleich dem Divisionsrest, also dem Syndrom s(X) = X 2 + X 3 + X 7 z 0. Da das Syndrom ungleich null ist, wird ein Fehler erkannt.
sUppLex
292
Lösungen zu den Aufgaben
Lösungen zu Abschnitt 8 A8.1 Zugangsberechtigung durch Teilnehmeridentifizierung (SIM-Card), Vertraulichkeit durch Verschlüsselung, Anonymität durch temporäre Teilnehmerkennung A8.2 Unter Teilnehmermobilität versteht man die Möglichkeit der Teilnehmer überall im Mobilfunknetz die gebuchten Dienste in Anspruch nehmen zu können, wie z. B. Roaming in ausländischen Netzen. Die Gerätemobilität betrifft die Bewegung der Geräte im Netz, wie z. B. den Funkzellenwechsel während eines bestehenden Gespräches.
Die Mobilität der Teilnehmer und Endgeräte wird in GSM durch Datenbanken (HLR/ VLR/ EIR) und Sicherheitseinrichtungen (AUC) unterstützt, die aktuelle Informationen über den Zugang, die gebuchten Dienste und den Aufenthaltsorte enthalten. A8.3 Frequenz- und Zeitmultiplex (FDMA bzw. TDMA). Die Frequenzkanäle haben die Bandbreite 200 kHz. Im Frequenzkanal sind bis zu 8 (FR) bzw. 16 (HR) Gesprächskanäle möglich. A8.4 Das GSM-Funknetz besteht aus Funkzellen. Benachbarte Funkzellen unterscheiden sich durch die verwendeten Frequenzbänder um Gleichkanalstörungen zu vermeiden. Bei genügendem Abstand der Funkzellen können die Frequenzbänder wiederholt werden, um die Kapazität des Funknetzes zu vergrößern. A8.5 Antennendiversity, Diskontinuierliche (Sprach-)Übertragung, Frequenzspringen, Handover, Interleaving (Bitverschachtelung), Leistungsregelung, (Kanal-)Entzerrung (Kanalschätzung mit Trainingsfolge), ungleichmäßiger Fehlerschutz durch Codierung. A8.6 General Packet Radio Service. Paketübertragung mit Dienstmerkmalen (Dienstgüte, Verlässlichkeitsklassen) A8.7 Enhanced Data Rates for GSM Evolution. EDGE soll eine im Vergleich zu GPRS höherer Datenrate ermöglichen. Hierfür ist ein Umschalten des Modulationsverfahrens auf 8PSK bei ausreichender Signalqualität (LQC) und des Codierungsschemas (ECS) auf eine größere Coderate (geringerer Fehlerschutz) vorgesehen. A8.8 Universal Mobile Telecommunication System. Im FDD-Modus wird durch einen Spreizcode das ursprüngliche Frequenzband für die Funkübertragung aufgeweitet (Code Division Multiple Access, CDMA). Durch die im Vergleich zu GSM (200 kHz) größere Bandbreite (5 MHz) wird die Übertragung robuster. Darüber hinaus lassen sich mit unterschiedlichen Spreizfaktoren Dienste unterschiedlicher Bitraten/Dienstmerkmalen relativ einfach realisieren. A8.9 Der Nah-Fern-Effekt beschreibt die Tatsache, dass an der Basisstation (Node B) die Signale der Mobilstationen (UE) aufgrund der unterschiedlichen Funkfelddämpfungen mit verschiedenen Leistungspegeln empfangen werden.
Leistungsstarke Signale überdecken leistungsschwache, so dass letztere nicht mehr ausreichend detektiert werden können. Eine schnelle Leistungsregelung hilft den Nah-Fern-Effekt abzumildern. A8.10 Die zellulare Funkkapazität ist eine Maßzahl die angibt, wie oft ein Dienst (i. d. R. die Sprachtelefonie) in einer Funkzelle unabhängig angeboten werden kann. Bei UMTS (CDMA) wird die Funkkapazität durch interferierende Funksignale (Vielfachzugriffsinterferenz) begrenzt.
sUppLex
Lösungen zu den Aufgaben
293
A8.11 Das Hidden Station Problem treten bei der Station B Kollisionen auf, da die für den Sender A verborgene Station C ebenfalls an B sendet. Wegen der notwendigen Übertragungswiederholung sinkt der Durchsatz.
Beim Exposed Station Problem sendet die Station A nicht an B, da A von C ein Signal beobachtet, das aber B nicht stören würde. Wegen der unterlassenen Übertragung sinkt der Durchsatz. A8.12 Durch die Methode der virtuellen Reservierung. A8.13 Orthogonal Frequency Division Multiplexing, einem speziellen MehrträgerÜbertragungsverfahren. Aufgabe 8.14
a) Der Modulator für die OFDM-Übertragung, s. Bild 8-41, entspricht einem QAM-Modulator mit speziell geformten Signalen für die Normal- und Quadraturzweige, also einer speziellen Form der QAM. Betrachtet man das Sendesignal genauer, so liegt eine Multiplexübertragung vor. Die Nachricht wird verteilt auf viele Unterträger übertragen. b) Bei der OFDM-Übertragung stehen die Symboldauer T und der Frequenzabstand der Unterträger 'F im reziproken Zusammenhang, T = 1/'F. c) Die theoretische Übertragungskapazität wird dadurch verringert, dass in den Anwendungen die Symbole während eines gewissen Schutzabstandes periodisch fortgesetzt werden. d) Ein wichtiges Anwendungsgebiet ist die Datenübertragung in lokalen Funknetzen (WLAN) nach dem IEEE-802.11a- und HIPERLAN/2-Empfehlungen. Aufgabe 8.15
a) Bei der CDMA-Übertragung handelt es sich um eine Spreizbandtechnik, da die Bandbreite des CDMA-Signals im Vergleich zur Bandbreite des originären Nachrichtensignals stark aufgeweitet ist. b) s. Bild 8-26. c) Der Spreizfaktor ist Gp = Tb /Tc = 3,84106 / 60103 = 64 d) s. Bild 8-27. e) Der Prozessgewinn (Processing Gain, Gp) gibt den Vorteil im SNR durch die Spreizung an, der sich gegenüber einem schmalbandigen Störsignal ergibt, s. Bild 8-27.
sUppLex
294
Abkürzungen 3GGP AAC AB ACK A/D ADSL AGCH AM AMI AMR AND ANSI AP ARP ARQ ASCII ASK ATM AUC AWGN BCCH BCS BFSK BIBO BP BS BSC BSS BTS CBCH CCCH CCH CCIR CCITT CD CDMA CEPT CLP CLP CND CRC CS CSD CSMA/CD CSMA/CA CTS dB
3rd Generation Partnership Project Advanced Audio Coding Access Burst Acknowledged Analog/Digital Asynchronous DSL Access Grant Channel Amplituden-Modulation Alternate Mark Inversion Adaptive Multi-Rate Access Network Domain American National Standards Institute Access Point Address Resolution Protocol Automatic Repeat Request American Standard Code for Information Interchange Amplitude-Shift Keying Asynchronous Transfer Mode Authentification Center Additive White Gaussian Noise Broadcast Control Channel Block Check Sequence Binary FSK Bounded Input Bounded Output Bandpass Bandsperre Base Station Controller Basic Service Set, Base Station Subsystem Base Transceiver Station Cell Broadcast Channel Common Control Channel Control Channel Comité Consultatif International des Radiocommunication Comité Consultatif International Télégraphique et Téléphonique Compact Disc Code Division Multiple Access Conférence des Administrations Européennes des Postes et Télécommunications Cell Loss Priority Cell Loss Priority Core Network Domain Cyclic Redundancy Check Coding Scheme Circuit Switching Domain, Circuit Switched Data Carrier Sense Multiple Access / Collision Detection Carrier Sense Multiple Access / Collision Avoidance Clear To Send Dezibel
sUppLex
Abkürzungen D/A DAB DCCH DCE DCF DECT DEE DFT DIFS DIN DISC DIV DLP DM DNS DQDB DSL DSS DTCH DTE DÜE DVB DVD ECS ECSD EDGE EGPRS E-GSM EIA EIFS EIR ESB ESS ETSI FCB FCC FCCH FCS FDD FDDI FFT FLAG FIR FM FP FRMR FSK FTP GERAN GFC GGSN
295 Digital/Analog Digital Audio Broadcast Dedicated Control Channel Data Circuit-terminating Equipment Distributed Coordination Function Digital Enhanced Cordless Telephony Datenendeinrichtung Diskrete Fourier-Transformation, Discrete-time Fourier Transform DCF Inter-frame Spacing Deutsches Institut für Normung Disconnect Digitale Vermittlungsstelle Direct Link Protocol Disconnect Mode Domain Name Service Distributed Queue Dual Bus Digital Subscriber Line Datenschnittstelle Dedicated Traffic Channel Data Terminal Equipment Datenübertragungseinrichtung Digital Video Broadcast Digital Versatile Disc Enhanced Coding Scheme Enhanced CSD Enhanced Data Rates for GSM Evolution Enhanced GPRS Extended GSM Electronic Industries Alliance Extended Inter-frame Spacing Equipment Identity Register Einseitenband Extended Service Set European Telecommunication Standards Institute Frequency Correction Burst Federal Communication Commission Frequency Correction Channel Frame Check Sequence Frequency Division Duplex Fiber Distributed Data Interface Fast Fourier Transform Fiber-optic Link around the Globe Finite Impulse Response Frequenz-Modulation Fixed Part Frame Reject Frequency-Shift Keying File Transfer Protocol GSM/EDGE RAN Generic Flow Control Gateway GSN
sUppLex
296 GMM GMSK GPRS GPS GR GSM GSN GSS HEC HP HDBC HDLC HDSL HIPERLAN HLR HSCSD HTTP IA IAB ICMP IEC IEEE IETF IIR IMEI IMS IMT-2000 IN IP, IPv6 IPSec IrDA ISBN ISDN ISI ISM ISO ITG ITK ITU IWMSC JPEG KW LAP /B LAPD LAN LLC LOS LQC LSB LTI LW
Abkürzungen Global Multimedia Mobility Gaussian Minimum Shift Keying General Packet Radio Service Global Positioning System GPRS Register Global System for Mobile Telecommunication GPRS Support Node GPRS Switching Subsystem Header Error Control Hochpass High Density Bipolar Code High-level Data Link Control High bit-rate DSL High Performance LAN Home Location Register High Speed Circuit Switched Data HyperText Transfer Protocol International Alphabet Internet Architecture Board Internet Control Message Protocol International Electrotechnical Commission Institute of Electrical and Electronics Engineers Internet Engineering Task Force Infinite Impulse Response International Mobile Equipment Identity IP Multimedia Subsystem International Mobile Telecommunication 2000 Intelligentes Netz Internet Protocol, IP Version 6 IP Security Infra-red Data Association International Standard Book Number Integrated-services Digital Network Intersymbol Interference Industrial Scientific Medical International Organization for Standardization Informationstechnische Gesellschaft im VDE Informations- und Kommunikationstechnik International Telecommunication Union Interworking MSC Joint Picture Experts Group Kurzwelle Link Access Protocol / in Balanced Mode Link Access Procedure on D-Channel Local Area Network Logical Link Control Line of Sight Link Quality Control Least Significant Bit Linear Time-Invariant Langwelle
sUppLex
Abkürzungen LWL MAC MAN MDCT ME MF MIME MIMO MOPS MPEG MS MSC MSK MT MW NAV NRT NRZ NSP NT NVC O&M QAM QoS OFDM OMC OOK OSI PAM PAN PCF PCM PDCH PDA PDCP PDH PDN PDU PDTCH PIFS PIN PLL PM POH POT PP PR PRACH PSD PSK PT
297 Lichtwellenleiter Medium Access Control / Multiply and Accumulate Metropolitan Area Network Modified Discrete Cosine Transform Mobile Equipment Matched Filter Multi-Purpose Internet Mail Extension Multiple Input Multiple Output Mega Operations per Second Motion Picture Experts Group Mobile Station Mobile Switching Center Minimum Shift Keying Mobile Termination Mittelwelle Network Allocation Vector Not Real Time Nonreturn-to-Zero Network Service Protocol Network Termination Network Voice Protocol Operation and Maintenance Quadraturamplitudenmodulation Quality of Service Orthogonal Frequency Division Multiplexing Operation and Maintenance Center On-Off Keying Open System Interconnection Pulsamplitudenmodulation Personal Area Network Point Coordination Function Pulse-Code-Modulation Packet Data Channel Personal Digital Assistant Packet Data Convergence Protocol Plesiochrone Digitale Hierarchie Packet Data Network Protocol Data Unit Packet Data Traffic Channel PCF Inter-frame Spacing Personal Identity Number Phase-Locked Loop, Physical Link Control Phasenmodulation Path Overhead Plain Old Telephony Portable Part Protected Packet Random Access Channel Packet Switching Domain Phase-Shift Keying Payload Type
sUppLex
298 PTR PUK QPSK QoS RACH RAN RAND RARP RC REC REJ RFL R-GSM RLC RNC RNR ROM RR RRC RT RTS RZ SABM SAP SBR SCB SCH SDH SGSN SHDSL SID SIFS SIP SMS SMTP SNR SOH SREJ SRES STM TA TAT TB TBS TCH TCP TDD TDMA TE TELNET TF
Abkürzungen Pointer Pin Unblocking Key Quaternary PSK Quality of Service Random Access Channel Radio Access Network Domain Random Number Reverse ARP Raised-Cosine Rectangular Reject physical Radio Frequency Layer Railway GSM Radio Link Control Radio Network Controller Receive Not Ready Read Only Memory Receive Ready Radio Resource Control Real Time Request To Send Return-to-Zero Set Asynchronous Balanced Mode Service Access Point Spectral Band Replication Synchronization Burst Synchronization Channel Synchronous Digital Hierarchy Serving GSN Symmetric HDSL Silence Descriptor Short Inter-frame Spacing Session Initiation Protocol Short Message Service Simple Mail Transfer Protocol Signal-to-Noise Ratio Section Overhead Selective REJ Signed Response SDH Transport Module Terminal Adapter Transatlantic Trunk Transport Block Transport Block Set Traffic Channel Transport Control Protocol Time Division Duplex Time Division Multiple Access Terminal Equipment Telecommunications Network Protocol Trägerfrequenz, Transport Format
sUppLex
Abkürzungen TFS TIA/IS-95 TK TMSI TND TP TTI UA UACK UART UDP UE UED UKW UMTS UPR USB USF USIM UTRAN VAD VCI VCN VCO VDE VDSL VLR VPI WAP WARC WCDMA WEP WLAN WML WWW ZSB
299 Transport Format Set Telecommunication Industry Association Interim Standard 95 Telekommunikation Temporary Mobile Subscriber Identity Transport Network Domain Tiefpass Transmission Time Interval Unnumbered Acknowledgement Unacknowledged Universal Asynchronous Receiver/ Transmitter User Datagram Protocol User Equipment User Equipment Domain Ultra-Kurzwelle Universal Mobile Telecommunication System Unprotected Universal Serial Bus Uplink State Flag UMTS SIM UMTS Terrestrial Radio Access Network Voice Activity Detection Virtual Channel Identifier Virtual-circuit Number Voltage Controlled Oscillator Verband der Elektrotechnik, Elektronik und Informationstechnik Very high-bit-rate Visitor Location Register Virtual Path Identifier Wireless Application Protocol World Administrative Radio Conference Wideband CDMA Wired Equivalent Privacy Wireless LAN Wireless Markup Language World Wide Web Zweiseitenband
sUppLex
300
Literaturverzeichnis V. Aschoff: Geschichte der Nachrichtentechnik. Band 1: Beiträge zur Geschichte der Nachrichtentechnik von ihren Anfängen bis zum Ende des 18. Jahrhunderts. 2. Aufl. Berlin: Springer Verlag, 1989 Band 2: Nachrichtentechnische Entwicklungen in der 1. Hälfte des 19. Jahrhunderts. Berlin: Springer Verlag, 1987 [BeSt02] Th. Benkner, Ch. Stepping: UMTS. Universal Mobile Telecommunications System. Weil der Stadt: J. Schlembach Fachverlag, 2002 [BeZs02] A. Beutelspacher, M.-A. Zschiegner: Diskrete Mathematik für Einsteiger. Mit Anwendungen in Technik und Informatik. Braunschweig/Wiesbaden: Verlag Vieweg, 2002 [BFH00] K.-D. Bach, u. a.: Tabellenbuch Kommunikationselektronik. 5. Aufl.: Verlag Europa-Lehrmittel, 2000 [BGT04] F.-J. Banet, A. Gärtner, G. Teßmar: UMTS. Netztechnik, Dienstarchitektur, Evolution. Bonn: Hüthig Telekommunikation, 2004 [Bri97] R. Brigola: Fourieranalysis, Distributionen und Anwendungen. Braunschweig / Wiesbaden: Verlag Vieweg, 1997 [Bro00] Brockhaus-Redaktion (Hrsg.): Technologien für das 21. Jahrhundert. Leipzig / Mannheim: Brockhaus, 2000 [BSMM99] I. N. Bronstein, K. A. Semendjajew, G. Musiol, H. Mühlig: Taschenbuch der Mathematik. 4. Aufl. Frankfurt a. Main: Verlag Harri Deutsch, 1999 [BuHi03] B. Bundschuh, J. Himmel: Optische Informationsübertragung. München: Oldenbourg, 2003 [Cas01] J. P. Castro : The UMTS Network and Radio Access Technology. Air Interface Techniques for Future Mobile Systems. New York: John Wiley & Sons, 2001 [CDG05] C. Chaudet, D. Dhoutaut, I. G. Lassous: „Performance Issues with IEEE 802.11 in Ad Hoc Networking.“ IEEE Communications Magazine, Vol. 43, No. 7, 2005, S. 110-116 [Che98] W. Y. Chen: DSL Simulation Techniques and Standards Development for Digital Subscriber Line Systems. Indianapolis, IN: Macmillan Techn. Publ., 1998 [Con04] Dieter Conrads: Datenkommunikation: Verfahren – Netze – Dienste. 5. Aufl. Braunschweig/ Wiesbaden: Verlag Vieweg, 2004 [DaBe01] K. David, T. Benkner: Digitale Mobilfunksysteme. 2. Aufl. Stuttgart: B. G. Teubner Verlag, 2001 [Dam97] P. Dambacher: Digitale Technik für den Fernsehrundfunk. Systemtechnik des DVB-T vom Studio bis zum Empfänger. Berlin: Springer-Verlag, 1997 [Des01] J. Desel [Hrsg.]: Das ist Informatik. Berlin: Springer Verlag, 2001 [DHM57] M. L. Doelz, E. T. Heald, D. L. Martin: „Binary Data Transmission Techniques for Linear Systems.“ Proc. of the IRE, Bd. 45 (1957), Nr. 5, S. 656-661. [Duq02] M. Duque-Anton: Mobilfunknetze. Grundlagen. Dienste und Protokolle. Wiesbaden: Vieweg Verlag, 2002 [Asc87]
sUppLex
Literaturverzeichnis
301
J. Eberspächer, H.-J. Vögel, C. Bettstettert: GSM Global System for Mobile Communication: Vermittlung, Dienste und Protokolle in digitalen Mobilfunksystemen. 3. Aufl. Stuttgart: B. G. Teubner Verlag, 2001 [EcSc86] M. Eckert, H. Schubert: Kristalle, Elektronen, Transistoren: Von der Gelehrtenstube zur Industrieforschung. Reinbeck bei Hamburg : Rowohlt Taschenbuch Verlag, 1986 [FaKa05] F. Fazel, S. Kaiser: Multi-Carrier and Spread Spectrum Systems. Chichester, West Sussex, UK: John Wiley & Sons, 2005 [Fre97a] U.G.P. Freyer: DAB - Digitaler Hörfunk. Berlin: Verlag Technik, 1997 [Fre97b] U.G.P. Freyer: DVB - Digitales Fernsehen. Berlin: Verlag Technik, 1997 [Fri95] B. Friedrichs: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin: Springer Verlag, 1995 [Gap99] W. Gappmair: Claude E. Shannon: “The 50th Ainniversary of Inforamtion Theory.“ IEEE Communications Magazin, Vol. 37, No. 4, 1999, S. 102-105 [GiKa04] N. Gilson, W. Kaiser: „Von der Nachrichtentechnik zur Informationstechnik. Zum 50-jährigem Bestehen der NTG / ITG“. Erschienen in Tagungsband der Jubiläumsfachtagung der ITG im VDE, Frankfurt a. M., 26/27. April, 2004 [Gla01] W. Glaser: Von Handy, Glasfaser und Internet: So funktioniert moderne Kommunikation: Braunschweig/Wiesbaden: Verlag Vieweg, 2001 [GRS03] B. Girod, R. Rabenstein, A. Stenger: Einführung in die Systemtheorie. 2. Aufl. Stuttgart: B.G. Teubner Verlag, 2003 [Gra86] T. Grams: Codierungsverfahren. Mannheim: Bibliographisches Institut, 1986 [Gra01] T. Grams: Grundlagen des Qualitäts- und Risikomanagements. Zuverlässigkeit, Sicherheit, Bedienbarkeit. Braunschweig/ Wiesbaden: Verlag Vieweg, 2001 [Grü04] D. Ch. v. Grünigen: Digitale Signalverarbeitung. 3. Aufl. München: Fachbuchverlag Leipzig, 2004 [Haa97] W.-D. Haaß: Handbuch der Kommunikationsnetze. Berlin: Springer-Verlag, 1997 [HaMo05] S. Haykin, M. Moher: Modern Wireless Communications. Upper Saddle River, NJ: Pearson Education, 2005 [HaZo05] S. Hansen, V. Zota: „Mediale Grundversorgung. Audio-Video-Heimnetz in der Praxis.“ Magazin für Computertechnik. c’t 18/05, S. 92-95 [HHK96] G. Häberle u.a.: Fachkunde Radio, Fernseh- und Funkelektronik. 3. Aufl.: Verlag Europa-Lehrmittel, 1996. [HeGr94] E. Herter, M. Graf: Optische Nachrichtentechnik. München: Hanser Verlag, 1994 [HeLö00] E. Herter, W. Lörcher: Nachrichtentechnik: Übertragung, Vermittlung und Verarbeitung. 8. Aufl. München: Hanser Verlag, 2000 [Hof00] W. Hoffmann: Nachrichtenmesstechnik. Berlin: Verlag Technik, 2000 [HoTo00] H. Holma, A. Toskala (Hrsg.): WCDMA for UMTS. Radio Access for Third Generation Mobile Communications. New York: John Wiley & Sons, 2000 [Huf52] D. A. Huffman: „A method for the construction of minimum redundancy codes“ Proc. IRE, vol. 40, 1952, S. 1098-1101 [Huu03] A. A. Huurdeman: The Worldwide History of Telecommunications. Hoboken, NJ: John Wiley & Sons, 2003 [JaRö02] H. Jansen u. H. Rötter (Hrsg): Informationstechnik und Telekommunikationstechnik. 2. Aufl. Verlag Europa-Lehrmittel, 2002 [EVB01]
sUppLex
302 [JuWa98] [Kad91] [Kad95]
[Kah90] [KaKö99] [Kam04] [Klo01] [KoSc95] [Küp54] [LiCo04] [Loc02] [Lüd01] [Lük95] [Lük99] [MäGö02] [Mäu03] [MeHo04] [Mit98] [MLS88] [Mot91] [NMG01] [Noc04]
Literaturverzeichnis V. Jung, H.-J. Warnke (Hrsg.): Handbuch für die Telekommunikation. Berlin: Springer Verlag, 1998 F. Kaderali: Digitale Kommunikationstechnik I: Netze – Dienste – Informationstheorie – Codierung. Braunschweig/Wiesbaden: Verlag Vieweg, 1991 F. Kaderali: Digitale Kommunikationstechnik II: Übertragungstechnik – Vermittlungstechnik – Datenkommunikation – ISDN. Braunschweig/ Wiesbaden: Verlag Vieweg, 1995 P. Kahl (Hrsg.): ISDN: Das neue Fernmeldenetz der Deutschen Bundespost TELEKOM. 3. Aufl. Heidelberg: R. v. Decker's Verlag, 1990 A. Kanbach, A. Körber: ISDN – Die Technik. 3. Aufl. Heidelberg: Hüthing Buch Verlag, 1999 K. D. Kammeyer: Nachrichtenübertragung. 3. Aufl. Stuttgart: B. G. Teubner Verlag, 2004 R. Klostermeyer: Digitale Modulation: Grundlagen, Verfahren, Anwendungen. Braunschweig/Wiesbaden: Verlag Vieweg, 2001 R. Kories, H. Schmidt-Walter: Taschenbuch der Elektrotechnik. 2. Aufl. Frankfurt a. Main: Verlag Harri Deutsch, 1995 K. Küpfmüller: „Die Entropie der deutschen Sprache.“ Fernmeldetechnische Zeitschrift (FTZ), Bd. 7, 1954, S. 265 - 272 S. Lin, D. J. Costello: Error Control Coding. 2. Aufl. Upper Saddle River, NJ: Pearson Prentice Hall, 2004 D. Lochmann: Digitale Nachrichtentechnik: Signale, Codierung, Übertragungssysteme, Netze. 3. Aufl. Berlin: Verlag Technik, 2002 Ch. Lüders: Mobilfunksysteme. Grundlagen, Funktionsweisen. Planungsaspekte. Würzburg: Vogel Buchverlag, 2001 H. D. Lüke: Signalübertragung. Grundlagen der digitalen und analogen Nachrichtenübertragungssysteme. 6. Aufl. Berlin: Springer Verlag, 1995 H. D. Lüke: “The Origins of the Sampling Theorem.” IEEE Communications Magazin, Vol. 37, No. 4, 1999, S. 106-108 R. Mäusl, J. Göbel: Analoge und digitale Modulationsverfahren. Basisband und Trägermodulation. Heidelberg: Hüthig Buch Verlag, 2002 R. Mäusl: Fernsehtechnik. Vom Studiosignal zum DVB-Sendesignal. 3. Aufl. Heidelberg: Hüthig Buch Verlag, 2003 B. Meffert, O. Hochmuth: Werkzeuge der Signalverarbeitung. Grundlagen, Anwendungsbeispiele, Übungsaufgaben. München: Pearson Studium, 2004 S. K. Mitra: Digital Signal Processing. A Computer-Based Approach. New York, NY: McGraw-Hill, 1998 P. Müller, G. Löbel, H. Schmid: Lexikon der Datenverarbeitung. 10. Aufl. Landsberg am Lech : Verlag Moderne Industrie, 1988 Motorola INC: Handbuch zum HCMOS Single-Chip Microcontroller MC68HC11A8, 1991 E. Nett, M. Mock, M. Gergleit: Das drahtlose Ethernet. Der IEEE 802.11 Standard: Grundlagen und Anwendung. München: Addision-Wesley, 2001 R. Nocker: Digitale Kommunikationssysteme 1. Grundlagen der Basisband-Übertragungstechnik. Wiesbaden: Verlag Vieweg, 2004
sUppLex
Literaturverzeichnis [Noc05] [Obe82] [OhLü02] [Ohm04] [OpWi89] [OSB98] [OSB04] [OWN97] [Pre94] [Pro01] [PrSa94] [PrMa96] [Rap96] [RaWa97] [Rei05] [Rhe98] [Sau04]
[Sch88] [Sch91] [Sch97] [Sch98]
303
R. Nocker: Digitale Kommunikationssysteme 2. Grundlagen der Vermittlungstechnik. Wiesbaden: Verlag Vieweg, 2005 R. Oberliesen: Information, Daten und Signale: Geschichte technischer Informationsverarbeitung. Reinbeck bei Hamburg: Rowohlt Taschenbuch Verlag, 1982 J.-R. Ohm, H. D. Lüke: Signalübertragung: Grundlagen der digitalen und analogen Nachrichtenübertragungssysteme. 8. Aufl. Berlin: Springer Verlag 2002 J.-R. Ohm: Multimedia Communication Technology. Representation, Transmission and Identification of Multimedia Signals. Berlin: Springer Verlag, 2004 A. V. Oppenheim, A. S. Willsky: Signale und Systeme: Lehrbuch. Weinheim: VCH Verlagsgesellschaft, 1989 A. V. Oppenheim, R. W. Schafer, J. R. Buck: Discrete-Time Signal Processing. 2nd Ed. Upper Saddle River, NJ: Prentice-Hall, 1998 A. V. Oppenheim, R. W. Schafer, J. R. Buck: Zeitdiskrete Signalverarbeitung. 2. Aufl. München: Pearson Studium, 2004 A. V. Oppenheim, A. S. Willsky, H. Newab: Signals and Systems. 2. Aufl. Upper Saddle River, NJ: Prentice-Hall, 1997 H. Preibisch (Hrsg.): GSM-Mobilfunk-Übertragungstechnik. Berlin: Schiele & Schön, 1994 J. G. Proakis: Digital Communications. 4. Aufl. New York, NY: McGraw-Hill, 2001 J. G. Proakis, M. Salehi: Communication Systems Engineering. 3. Aufl. Englewood Cliffs, NJ: Prentice-Hall, 1994 J. G. Proakis, D. G. Manolakis: Digital Signal Processing. Principles, Algorithms, and Applications. 3rd Ed. Upper Saddle River, NJ: Prentice Hall, 1996 Th. S. Rappaport: Wireless Communications: Principles and Practice. Upper Saddle River, NJ: Prentice-Hall, 1996 E. Rathgeb, E. Wallmeier: ATM - Infrastruktur für Hochleistungskommunikation. Berlin: Springer Verlag, 1997 U. Reimers (Hrsg.): DVB. The Family of International Standards for Digital Video Broadcasting. 2. Aufl. Berlin: Springer Verlag, 2005 M. Y. Rhee: CDMA Cellular Mobile Communications and Network Security. Upper Saddle River, NJ: Prentice-Hall, 1998 M. Sauter: Grundkurs: Mobile Kommunikationssysteme. Von UMTS, GSM und GPRS zu Wireless LAN und Bluetooth Piconetzen. Wiesbaden: Vieweg Verlag, 2004 H. W. Schüßler: Netzwerke, Signale und Systeme, Band I: Systemtheorie linearer elektrischer Netzwerke. 2. Aufl. Berlin: Springer Verlag, 1988 H. W. Schüßler: Netzwerke, Signale und Systeme, Band II: Theorie kontinuierlicher und diskreter Signale und Systeme. 3. Aufl. Berlin: Springer Verlag, 1991 H. Schwetlick: PC-Meßtechnik: Grundlagen und Anwendungen der rechnergestützten Meßtechnik. Braunschweig / Wiesbaden: Verlag Vieweg, 1997 H. Schneider-Obermann: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Braunschweig / Wiesbaden: Verlag Vieweg, 1998
sUppLex
304
Literaturverzeichnis
U. Schmidt: Professionelle Videotechnik. Analoge und digitale Grundlagen, Signalformen, Videoaufnahmen, Wiedergabe, Speicherung, Signalverarbeitung und Studiotechnik. 2. Aufl. Berlin: Springer-Verlag, 2000 [Sch02] U. Schmidt: Digitale Film- und Videotechnik. München: Fachbuchverlag Leipzig, 2002 [Sch03] J. Schiller: Mobilkommunikation. 2. Aufl. München: Pearson Studium, 2003 [Sch05] Mischa Schwartz: Mobile Wireless Communications. Cambridge: Cambridge University Press, 2005 [Sch06] J. Scherff: Grundkurs Computernetze. Eine kompakte Einführung in die Rechnerkommunikation. Wiesbaden: Vieweg Verlag, 2006 [SCS00] T. Starr, J. M. Cioffi, P. J. Silverman: xDSL: Eine Einführung: ISDN, HDSL, ADSL und VDSL. München: Addison-Wesley Verlag, 2000 [Sha48] C. E. Shannon: “A mathematical theory of communication“ Bell Sys. Tech. J., Vol. 27, 1948, S. 379-423 u. 623-656 [Sie99] G. Siegmund: Technik der Netze. 4. Aufl. Heidelberg: R. v. Decker’s Verlag, 1999 [SöTr84] G. Söder, K. Tröndle: Digitale Übertragungssysteme. Berlin: Springer Verlag, 1984 [Spe99] The Institute of Electrical and Electronics Engineers (IEEE): „Technology 1999: Analysis & Forcast Issue“ in IEEE Spectrum, Januar 1999 [SSCS03] T. Starr, M. Sorbara, J. M. Cioffi, P. J. Silverman: DSL Advances. Upper Saddle River, NJ: Prentice-Hall, 2003 [Sta00] W. Stallings: Data and Computer Communications. 6. Aufl. Upper Saddle River, NJ: Prentice-Hall, 2000 [Ste05] Ch. Stepping: Drahtlose Netze. Wilburgstetten: J. Schlembach Fachverlag, 2005 [Str05] T. Strutz: Bilddatenkompression. Grundlagen, Codierung, Wavelets, JPEG, MPEG, H.264. 3. Aufl. Wiesbaden: Verlag Vieweg, 2005 [Tan03] A. S. Tanenbaum: Computernetzwerke. 4. Aufl. München, Pearson Studium, 2003 [Tar98] L. Tarassow: Wie der Zufall will? Vom Wesen der Wahrscheinlichkeit. Heidelberg, Berlin: Spektrum, Akad. Verlag, 1998 [TiSc99] U. Tietze, Ch. Schenk: Halbleiter-Schaltungstechnik. 11. Aufl. Berlin: Springer Verlag, 1999 [Unb93] R. Unbehauen: Netzwerk- und Filtersynthese: Grundlagen und Anwendungen. 4. Aufl. München: Oldenbourg Verlag, 1993 [Unb98] R. Unbehauen: Systemtheorie 2: Mehrdimensionale, adaptive und nichtlineare Systeme. 7. Aufl. München: Oldenbourg Verlag, 1998 [Unb02] R. Unbehauen: Systemtheorie 1: Allgemeine Grundlagen, Signale und lineare Systeme im Zeit- und Frequenzbereich. 8. Aufl. München: Oldenbourg Verlag, 2002 [VHH98] P. Vary, U. Heute, W. Hess: Digitale Sprachsignalverarbeitung. Stuttgart: B. G. Teubner, 1998 [Vit95] A. J. Viterbi: CDMA. Principles of Spread Spectrum Communication. Reading, Mass.: Addision-Wessley [VlHa93] A. Vlcek, H. L. Hartnagel (Hrsg.): O. Zinke, H. Brunswick: Hochfrequenztechnik 2: Elektronik und Signalverarbeitung. 4. Aufl. Berlin: Springer Verlag, 1993 [VlHa95] A. Vlcek, H. L. Hartnagel (Hrsg.): O. Zinke, H. Brunswick: Hochfrequenztechnik 1: Hochfrequenzfilter, Leitungen, Antennen. 5. Aufl. Berlin: Springer Verlag, 1995 [Sch00]
sUppLex
Literaturverzeichnis [Vog95] [Wal00]
[Wal01]
[WAS02] [WSA03] [Web92] [Wer02] [Wer05a] [Wer05b] [Wer06a] [Wer06b] [Wie48]
[Wit02] [Zöl04]
305
H. Vogel: Gerthsen Physik. 18. Aufl. Berlin: Springer Verlag, 1995 B. Walke: Mobilfunknetze und ihre Protokolle: Bd. 2 Bündelfunk, Schnurlose Telefonsysteme, W-ATM, HIPERLAN, Satellitenfunk, UPT. 2. Aufl. Stuttgart, B. G. Teubner Verlag, 2000 B. Walke: Mobilfunknetze und ihre Protokolle: Bd. 1 Grundlagen, GSM, UMTS und andere zellulare Mobilfunknetze. 3. Aufl. Stuttgart, B. G. Teubner Verlag, 2001 B. Walke, M. P. Althoff, P. Seidenberg: UMTS - Ein Kurs. Universal Mobile Telecommunications System. 2. Aufl. Weil der Statt: J. Schlembach Fachverlag, 2002 B. Walke, P. Seidenberg, M. P. Althoff: UMTS. The Fundamentals. Chichester, West Sussex, UK: John Wiley & Sons, 2003 H. Weber: Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure. Stuttgart: B.G. Teubner Verlag, 1992 M. Werner: Information und Codierung. Braunschweig / Wiesbaden: Verlag Vieweg, 2002 M. Werner: Netze, Protokolle, Schnittstellen und Nachrichtenverkehr. Grundlagen und Anwendungen. Wiesbaden: Verlag Vieweg, 2005 M. Werner: Signale und Systeme. Ein Lehr- und Arbeitsbuch. 2. Aufl. Wiesbaden: Verlag Vieweg, 2005 M. Werner: Nachrichtenübertragungstechnik. Analoge und digitale Verfahren mit modernen Anwendungen. Wiesbaden: Verlag Vieweg, 2006 M. Werner: Digitale Signalverarbeitung mit MATLAB. Grundkurs mit 16 ausführlichen Versuchen. 3. Aufl. Wiesbaden: Verlag Vieweg, 2006 N. Wiener: Cybernetics or Control and Communication in the Animal and the Machine. Paris: Hermann, 1948 N. Wiener: Regelung und Nachrichtenübertragung in Lebewesen und in der Maschine. Düsseldorf / Wien: Econ Verlag, 1963 F. Wittgruber: Digitale Schnittstellen und Bussysteme. Einführung für das technische Studium. 2. Aufl. Braunschweig / Wiesbaden: Verlag Vieweg, 2002 U. Zölzer: Digitale Audiosignalverarbeitung. 3. Aufl. Stuttgart: B. G. Teubner Verlag, 2004
sUppLex
306
Sachwortverzeichnis
P-Kennlinie o Kompandierung 76 1. Nyquist-Kriterium 145 2er-Komplement-Format 71 3dB-Bandbreite 48 3dB-Grenzfrequenz 32, 48 3rd Generation Partnership Project 245 4-PAM 116 6dB-pro-Bit-Regel 74 8-PSK 119, 244 13-Segment-Kennlinie o Kompandierung 76 16-QAM 118 802.11, 802.15, 802.16 262 A Abramson-Code 206 absolute Bandbreite 48 Abtastfolge /-intervall 13, 68 Abtastfrequenz 68 Abtasttheorem 68 Abtastung (ideale) 67, 129 Access Burst (AB) 232 Access Grant Channel (AGCH) 232 Access Network Domain (AND) 247 Access Point (AP) 266 Acknowledged Mode 259 Add/Dropp-Multiplexer 157 Additives weißes gaußsches Rauschen (Additive White Gaussian Noise, AWGN) 132 Ad-hoc Connectivity 261 Adressfeld (Address) 165 ADSL (Asymmetric o DSL) 150 Advanced Audio Coding (AAC) 90 A-Kennlinie o Kompandierung 76 Alphabet 181, 189 Alternate Mark Inversion (AMI-) Code 131 American Standard Code for Information Interchange (ASCII) 14, 122 Amplitudenmodulation (AM) 98 Amplitudenmodulation mit Träger 102 Amplitudentastung (ASK, Amplitude-shift Keying) 114 Amplitudenspektrum 27 AMR-Codec 256 analoges Signal 14 Analog-Digital-Umsetzer (A/D-) 69 Analyse durch Synthese 92 angefachte o Exponentielle Anonymität 219, 233
Anwendungsschicht (Application Layer) o OSIReferenzmodell 161 Anycast-Adresse 177 aperiodisches Signal o periodisches Signal Approximationsfehler o gibbsches Phänomen Asynchronous Balanced Mode / Extended (ABM/E) 167 Asynchronous Transfer Mode (ATM) 169 Asynchronübertragung 123 ATM-Cross-Connect 170 ATM-Zelle 169 Atomisierung 169 Audio-Codierung 90 Augendiagramm /-öffnung 137 Ausblendeigenschaft 51 äußerer Regelkreis 255 Authentification Center (AUC) 221 Authenification Header 176 AWGN-Kanal 132, 202 B Bandaufweitung 111 Bandbreite 27, 47, 251, 266 Bandpass 33, 34 Bandpass-Spektrum 48 Bandsperre o Bandpass Base Station Controler (BSC) 220 Base Station Subsystem (BSS) 221 Base Transceiver Station (BTS) 220 Basic Service Set (BSS) 266 Basisband 122, 252 Basiskanal (B-Kanal) o ISDN Best Effort 237 Binary Coded Decimal (BCD-) Code 70 Besselfunktion 109 Betragsfrequenzgang 30 BIBO-Stabilität, BIBO-stabiles System 58 binäre Frequenzumtastung (BFSK) 115 binärer Leitungscode 130 binäres Signal 14, 130 Binärquelle 127, 182 Binärzeichen (Bit) 74, 122 bipolares Signal 128 bit o Informationsgehalt eines Zeichens Bitdauer /-rate 114, 126, 128 Bitfehler /-quote /-wahrscheinlichkeit (BER, Bit Error Rate) 122, 134, 135, 197, 205 Bitfolge /-strom 67, 128 Bitratenanpassung 93
sUppLex
Sachwortverzeichnis Bitübertragungsschicht (Physical Layer) o OSIReferenzmodell 161 Bitverschachtelung o Interleaving B-Kanal o ISDN Blockcode (linearer, binärer) 193 Bluetooth / - SIG 263 Bode-Diagramm 44 Breitband-ISDN 169 Broadcast Control Channel (BCCH) 230, 260 Bündeln 252 Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e. V. (BITKOM) 5 Burst 226 Butterworth-Tiefpass 34, 87 Byte 123 C Capacity on Demand 237 Carson-Bandbreite 110 Cauer-Tiefpass 35, 87 CCITT o ITU Carrier Sense Multiple Access / Collision Detection (CSMA/CD) 171, 264 Carrier Sense Multiple Access / Collision Avoidance (CSMA/CA) 265 cdmaOne 249 Cell Broadcast Channel (CBCH) 230 Cell Loss Priority (CLP) 169 Challenge-Response-Verfahren 234 Chebyshev-Tiefpass 35, 87 Chip /-dauer /-rate 249, 251 Circuit Switching Domain (CSD) 248 C/I-Verhältnis 255 Clear Channel Assessment 265 Cluster 224 Code 189, 251 Codebaum 186 Code Division Multiple Access (CDMA) 249, 251 Codemultiplex 9 Codenummer 70 Coderate 193 Codetabelle 67, 70, 192 Codewort 184, 187, 192 Codierung mit Gedächtnis 131 Codierungsgewinn 203 Codiervorschrift 188, 189, 190, 194 Coding Scheme (CS) 240 Combiner 251 Comfort Noise 228 CommonControl Channel (CCCH) 259 Confirm 163 Container (virtueller) 156 Control Channel (CCH) 230 Core Network / - Domain 247
307 CRC-Codepolynome 207 CTS-Rahmen (Clear To Send) 265 Cyclic Redundancy Check (CRC) Code 93, 165, 170, 205, 228 D D1/D2-Netz 223 Dämpfungsfrequenzgang o Frequenzgang Dämpfungsverzerrungen 45, 118 Darstellungsschicht o OSI-Referenzmodell Datagramm 159, 169 Datenendeinrichtung (DEE) /-schnittstelle /übertragungseinrichtung (DÜE) 124 Datenkompression 90, 186 Datenkompressionsfaktor o Effizienz des Codes Datenniveau 116 Datensicherungsschicht (Presentation Layer) o OSI-Referenzmodell 161 Datenübertragung im Basisband 122 Datenübertragungseinrichtung (DÜE) /endeinrichtung (DEE) 124 DCF Inter-frame Spacing (DIFS) 265 DCS-1800 225 Decoder 198, 210 Dedicated Control Channel (DCCH) 232, 260 Dedicated Traffic Channel (DTCH) 260 Deemphase 43, 113 Deltafunktion (diracsche) o Impulsfunktion Demodulator 99 Destination Options Header 176 deterministisches Signal 16 Detektion 129 Detektionsgrundimpuls 143 Detektionsvariable 118, 129, 143 Deutsche Intsitut für Normung (DIN) 122 Dezibel 30 dichtgepakter Code 200 Dienst 10, 157, 220 Dienstgüte (QoS) 237 Dienstelement (Service Primitive) 160 Dienstmodell 246 Dienstzugangspunkt 174 Digital-Analog-Umsetzer (D/A-) 69 digitale Basisbandübertragung 122 digitale Modulation mit sinusförmigem Träger 114, 269 digitale QAM 117 digitale Signalverarbeitung 4, 10, 79 digitales Signal 14 Digitalisierung o PCM 67 digitale Übertragung im Basisband 122 Digital Subscriber Line (DSL) 149 DIN 66003 122 Dirac-Impuls o Impulsfunktion Direct Link Protocol (DLP) 267 Dirichlet-Bedingungen o Fourier-Reihe
sUppLex
308 Dringlichkeitsklasse 237 Disconect (DISC) 167 Disconect Mode (DM) 167 diskontinuierliche Übertragung 228 diskrete gedächtnislose Quelle o Quelle diskrete Fourier-Transformation (DFT) 80 Distributed Coordination Function (DCF) 265 Distributed Queue Dual Bus (DQDB) 171 D-Kanal o ISDN Domäne (Domain) 247 Downlink 232 DSL (Digital Subscriber Line) 150 dualer Code (Unterraum) 196 Duplex-Übertragung 124 Durchlassfrequenz /-toleranz 33 Durchsatz 238 Dynamik /-bereich 75 dynamische Kanalzuteilung 238 E Echtzeit (RT, Real-Time) 237 effektive Wortlänge 77 Effizienz der Codierung 126, 186 Effizienz, spektrale 128 Electronic Industries Alliance (EIA), EIA-232-F 124 elektromagnetische Verträglichkeit 219 Eingangs-Ausgangsgleichung im Frequenzbereich 42, 85 Eingangs-Ausgangsgleichung im Zeitbereich 56, 85 Eingangs-Ausgangsgleichung für Fourier-Reihen 36 Einhüllende 15 Einseitenbandmodulation (ESB) 106 elektromagnetische Verträglichkeit 219 elliptischer Tiefpass o Cauer-Tiefpass Empfänger 6, 112, 127, 140 Empfangsnummer 166 Empfangswort 192 Encapsulation Security Payload Header 176 Encoder 67, 193, 211 Energie /-signal 17, 18 Energiedichte 41 Enhanced Coding Scheme (ECS) 244 Enhanced Data Rates for GSM Evolution (EDGE) 119, 218, 243 Enhanced Full Rate Codec 218 Entropie 2, 182 Entropiecodierung 184 Entscheidungsgehalt 183 Entspreizen o Bündeln 252 E-Plus Netz 222 Equipment Identification Register (EIR) 220 Error Concealment 228 Ersatzspannungsquelle 24
Sachwortverzeichnis Erweiterungs-Kopffeld (Extention Header) 175 Ethernet 172 euklidischer Divisionsalgorithmus 209 European Telecommunication Standards Institute (ETSI) 3, 218, 245, 263 Exor 187 Expander o Kompandierung 76 Exposed Station Problem 264 Exponentielle 15 Extended Inter-frame Spacing (EIFS) 267 Extended Service Set (ESS) 266 F Faltung /-sintegral 56, 59 Faltungscode 228 Fast Fourier Transform (FFT) 80, 92 Fehlerbündel (Error Burst) 205 Fehlerkorrekturvermögen 198, 200 Fehlerfunktion 134 Fehlerprüfung 205, 208 Fehlersignal 72 Fehlerwort /-muster 197 Fernsehen 2 Fiber Ditributed Data Interface (FDDI) 172 File Transfer Protocol (FTP) 173 Filterentwurf 33 Filterung (lineare) 43 Final-Bit 166 Finite Impulse Response (FIR-) Filter 84 Flag /-bits 164 Floating Point Operation (FLOP) 83 FM-Empfänger (konventionell) 112 FM-Schwelle 111 Fourier-Koeffizient /-Reihe 19 Fourier-Paar / -Transformation 40, 85 Fragment Header 176 Frame Check Sequence (FCS) 164, 205, 240 Frame Reject (FRMR) 167 Frequency Correction Burst (FCB) 230 Frequency Correction Channel (FCCH) 230 Frequency Division Duplex (FDD) Frequency Shift Keying o Frequenzumtastung Frequenzbereich o Spektrum Frequenzgang (Dämpfung, Phase) 30, 52, 85 Frequenzhub 108 Frequenzkanal 223 Frequenzkomponente 27 Freqeunzlagen /-bänder 97 Frequenzmodulation (FM) 98, 107 Frequenzmultiplex 9, 105 Frequenzplanung 224, 266 Frequenzsprungverfahren (Frequency Hopping) 228 Frequenzumtastung (FSK, Frequency-shift Keying) 114 Full-Rate 224
sUppLex
Sachwortverzeichnis Funkschnittstelle 222 Funkzugangsnetz (RAN, Radio Access Network) 247 G Galois-Körper (binärer) 193, 206 Gateway GPRS Support Node (GGSN) 242 Gateway o MSC 222 Gausian Minimum Shift Keying (GMSK) 232 gaußsche Glockenkurve 132 gedächtnisloser Kanal 133 gedämpfte o Exponentielle General Packet Radio Service (GPRS) 216, 218, 236 Generatormatrix 194, 196 Generatorpolynom Generic Flow Control (GFC) 169 GERAN 247 Gerätekennung 219 Gewichtsverteilung eines Codes 201 gewöhnliche AM o AM mit Träger gibbsches Phänomen 22, 38 Gleichanteil o Fourier-Reihe gleichförmige o Quantisierung 69 Gleichkanalstörung 226 gleichstromfrei 128 Global Multimedia Mobility (GMM) 247 GPRS Switching Subsystem (GSS) 242 granulares Rauschen 71 Gray-Code 116, 118 Grundkreisfrequenz o Fourier-Reihe Grundschwingung o Fourier-Reihe Gruppenlaufzeit 47 Global System for Mobile Communication (GSM) 216 H Halb-Duplex-Übertragung 124 Half-Rate 224 Hamming-Code 202, 204 Hamming-Distanz (-Abstand) /-Gewicht 199 Hamming-Grenze 201 Handover (external, internal, seamless) 219, 227 Handover (hard, soft, softer) 257, 258 harmonische Form der o Fourier-Reihe harmonische Analyse o Fourier-Reihe /Transformation /DFT harmonische o Exponentielle harmonische Form der o Fourier-Reihe Harmonische o Fourier-Reihe Header (Kopffeld) 165 Header Compression 259 Heimatnetz-Domäne (HND) 247 Hidden Station Problem 264 High Density Bipolar Code (HDBC) 131
309 High-level Data Link Control (HDCL) -Protokoll 164 HDSL ( High-bit rate o DSL) 150 Header Error Control (HEC) 170 High Performance LAN (HIPERLAN) 263 High Speed Circuit Switched Data (HSCSD) 218, 233 High Speed Downlink Packet Access (HSDPA) 253 Hochpass 33, 34, 37 Home Location Register (HLR) 221 Home Network Domain 247 Hop Limit 176 Hop-by-Hop Header 175 Hörbereich /-schwelle 90 Hotspot 261 Huffman-Codierung 93, 184 Hüllkurvendetektor 104 Hypertext Transfer Protocol (HTTP) 173 I idealer Tiefpass 33 IEEE-802-Referenzmodell 171 IEEE-1394-Bus 127 Impulsantwort 52, 85 Impulsformer 142 Impulsfunktion 51 Impulsverbreiterung 136 Inbandsignalisierung 155 Indication 163 Infinite Impulse Response (IIR-) Filter 84 Informatik 5 Information o Nachricht Information Frame (I-Format) 165 Informationsfeld (Information) 165 Informationsgehalt eines Zeichens 181 Informationstechnik 2, 3 Informationstechnische Gesellschaft im VDE (ITG) 5 Informations- und Kommunikationstechnik (ITK) 5 Infra-structure Configuration 266 inkohärenter o Demodulator inkohärente AM-Demodulation 104 innerer Regelkreis 255 Institute of Electrical and Electronics Engineers (IEEE) 3, 261 Instanz 163 intelligentes (TK-) Netz (IN) 10, 217 Integrated-services Digital Network (ISDN) 8 interferenzbegrenzt 253 Interleaving 229 Internationaler Telegraphenverein 2, 122 internationales Alphabet 122 International Mobile Station Equipment Identity (IMEI) 220
sUppLex
310 International Standard Book Number (ISBN) 189 International Standards Organization (ISO) 122 International Telecommunication Union (ITU) 2, 122 Internet Protocol (IP) 173 Interpolation 68 Intersymbol Interference (ISI) 227 inverse o Fourier-Transformation inverse schnelle Fourier-Transformation (IFFT) 270 IP Multimedia Subsystem (IMS) 248 IPv6-Header 175 Irrelevanzreduktion 6, 91 ISBN-Code 190 ISDN-Basisanschluss 8 ISM-Bänder 262 K Kanal (Channel) 6, 7, 98, 129, 133, 138, 158 Kanalkapazität (Shannon) 148 Kanal(de)codierung 7, 191 Kanalentzerrung 229 Kaskadenform 87 Kausalität, kausales System 58 Kernnetz-Domäne (CND) 247 Klirrfaktor 47 kohärenter o Demodulator kohärente AM-Demodulation 103 Kombinationsschaltung (Combiner) 251 Kommunikationsmodel 158 Kommunikationsablaufdiagramm 167 Kommunikationssteuerschicht (Session Layer) o OSI-Referenzmodell 161 Kompandierung 75 komplementäre Fehlerfunktion (erfc) 134 komplexe Form der o Fourier-Reihe komplexe Frequenz 15 komplexe Wechselstromrechnung 18, 25 Komplexität 83, 128 Kompressionsfaktor (Daten-) 90 Kompressor o Kompandierung 75 Kontrollmatrix o Prüfmatrix konventioneller FM-Empfänger 112 Kopffeld (Header) 165 Korrelator 250 Korrigierkugel 199 Kosinusimpuls 116 Kreuzsicherung 188 Kurzzeit-Spektrum /-Spektralanalyse 80 L Layer (Protokollschicht) 160 Least Significant Bit (LSB) 72 Leistung /-ssignal 17 Leistungsspektrum 27 Leistungsregelung /-steuerung 227
Sachwortverzeichnis Leistungsübertragungsfunktion 43 Leitungs(de)codierung 7, 130 Leistungsdichtespektrum 42 Leitungsvermittlung 158 lineare Blockcodes 193 lineare zeitinvariante Systeme (LTI) 18, 50 Linearität, lineares System 57 lineare o Verzerrungen Linienspektrum 27, 110 Link Access Procedure on D-Channel (LAPD) 165 Link Access Protocol / in Balanced Mode (LAP/B) 164 Link Quality Control (LQC) 244 Lochstreifen 188 Logical Link Control (LLC) 171, 238, 261 logischer Kanal 161 lokales Netz (Local Area Network, LAN) 171 Line of Sight (LOS) 249 Luftschnittstelle 222 M MAC-Befehl 84 Manchester-Code 131 Mark 130 Maskierungseffekt 90 Master-Slave-Konzept 240 Matched-Filter 58, 129, 141, 250 Maximum-Likelihood-Detektion 142 Medium Access Control (MAC) 171, 240, 259, 261 Mega Operations per Second (MOPS) 11 Mehrfrequenzwahlverfahren 83 Mehrewegediversität 249 Mehrwegeempfang 226 Mehrwegeinterferenz (Multipath Interference) 253 Meldewort (PCM-30-System) 154 minimale Hamming-Distanz 200 Minimum Shift Keying (MSK-) Modulation 116, 244 Mischer 102 Mittelwert 132 Mithörschwelle 91 mittlere Codewortlänge 186 mittlerer Durchsatz 239 Mobile Equipment 247 Mobile Station (MS) 220 Mobile Switching Center (MSC) 220 Mobilität 218 Modem (Sprachtelefonie-) 149 Modifizierte diskrete Kosinustransformation (MDCT, Modified Discrete Cosine Transform) 92 Modulation 97 Modulationsgewinn 111
sUppLex
Sachwortverzeichnis Modulationsgrad 102 Modulationsindex 108 Modulationsprodukt 100 Modulationssatz 101 Modulator 98, 100 modulierendes Signal 100 Modulo-2-Arithmetik 193 Momentankreisfrequenz 107 mooresches Gesetz 2 Morse-Alphabet 184 M-PSK 119 MPEG-1 Layer III 90 Multicast-Adresse 177 Multipath Interference 253 Multiplex 9 Multiplexer (digitaler) 155 Multiuser Interference 253 N Nachbarzeicheninterferenz (ISI, Intersymbol Interference) 136, 227 Nachlaufsynchronisation 113 Nach-Maskierung 92 Nachrichtenquelle / -senke 6, 7 Nachricht /Nachrichtentechnik 3 Nachrichtenvermittlung /-übermittlung /übertragung 4, 5, 157 Nachrichtenverbindung 158 Nachrichtenwort 187, 192 Nachrichtenzeichen 194 Nachspann (Trailer) 165 Nah-Fern-Effekt 254 Nennerkoeffizienten / -polynom o Übertragungsfunktion 29 Network Allocation Vector (NAV) 266 Network and Switching Subsystem (NSS) 221 Netzabschluss o ISDN Netzknoten 158 Netzzugangspunkt 158 nichtlineare Modulation 107 nichtlineare o Verzerrungen Node B 253 Nonreturn-to-Zero (NRZ) -Code 130 Normal Burst 226 Normalkomponente 105 normierte Zeitvariable 13 Notruf 234 Nullstelle o Übertragungsfunktion 29 Nutzsignalleistung 135 Nyquist-Bandbreite /-Frequenz /-Kriterium (1.) 144, 145 O oberes Seitenband (oS) 101 Oberschwingung o Fourier-Reihe Oktett (Octet) 123, 164
311 On-off Keying (OOK) 114, 130 Operation Administration and Management (OAM) 164 Operation and Maintenance Center (OMC) 220 Operation and Maintenance Subsystem (OSS) 220 optimaler Detektionszeitpunkt 137 optimales Suchfilter o Matched-Filter Orthogonalität (Code) 197 Orthogonal Frequency Division Multiplexing (OFDM) 269 Ortskurve 16 OSI-Referenzmodell 160 P Packet Data Convergence Protocol (PDCP) 259 Packet Data Traffic Channel (PDTCH) 243 Packet Random Access Channel (PRACH) 243 Packet Switching Domain (PSD) 248 Paket /-vermittlung 158 parallele Übertragung 124 Paritätsbit 123 Paritätscode 187, 189 Paritätscode mit Gewichten 190 Paritätsmatrix o Prüfmatrix parsevalsche Gleichung 21 parsevalsche Formel 41, 142 Path Overhead (POH) 157 Payload Type (PT) 169 PCF Inter-frame Spacing (PIFS9 267 PCM-Codierung /-Sprachübertragung 78 PCM-30-System 154 PCM-30-Zeitmultiplexrahmen 155 Peer-to-Peer-Protokoll 163 perfekter Code 200 periodischer o Rechteckimpulszug periodisches Signal 15 Personal Identification Number (PIN) 219, 234 Phasenfrequenzgang o Frequenzgang Phasenmodulation (PM) 98 Phasenregelkreis (PLL, Phase-Locked Loop) 112 Phasenumtastung (PSK, Phase-Shift Keying) 114, 244 Phasenverzerrungen 45, 118 Phase Shift Keying (PSK) 244 photonisches Netz 2 Physical Layer 259 PIN Unblocking Key (PUK) 234 Plesiochrone Digitale Hierarchie (PDH) 154 Point Coordination Function (PCF) 266 Pointer (PTR) 156 Poll-Bit 166 Pol /-stelle o Übertragungsfunktion 29 Polynomdarstellung 206 Port 174 Potenz-Tiefpass o Butterworth-Tiefpass
sUppLex
312 Präfixcode 184 Preemphase 43, 113 Primärmultiplexsignal o PCM-30-System Protokoll 10, 160 Protokolldatenelement (Protocol Data Unit, PDU) 163 Prozessgewinn 251 Prüfgleichung /-matrix /-zeichen 194, 195, 196 pseudoternärer Code 131 pseudozufälliger Code (Pseudo-noise Sequence) 253 Prozessgewinn 251 Pulsamplitudenmodulation (PAM) 116, 148 Pulsdauer 15 Pulse-Code-Modulation (PCM) 67, 154 Q QPSK 119 Quadraturamplitudenmodulation (QAM) 105, 117 Quadraturkomponente(n) 106 Quality of Service (QoS) 6, 237 Quantisierung /-sbereich /-sintervall 67, 69 Quantisierungskennlinie 67, 71 Quantisierungsgeräusch 72 Quelle 6, 127, 180 Quellen(de)codierung 7 Quellencodierungstheorem 186 R Radio Access Network (RAN) 247 Radio Bearer 259 Radio Block 240 Radio Link Control (RLC) 237, 259 Radio Link Protocol (RLP) 165 Radio Network Controller (RNC) 255 Radio Network Subsysteme (RNS) 248 Radio Ressource Control (RRC) 261 Radio Ressource Management 237 Radio Subsystem (RSS) 221 Radix-2-FFT 83 Rahmen 154 Rahmenkennung /-swort (PCM-30-System) 154 Rahmenprüfsumme (Frame Check Sequnce, FCS) 164 Raised-cosine- (RC-) Impuls /Spektrum 146 RAKE-Empfänger 249 Random Access Channel (RACH) 232 Random Number (RAND) 234 Rauschreserve (Augendiagramm) 137 Rauschsignal /-leistung 132, 135 RC-Glied 23, 29, 31, 37, 38, 53, 60, 136 RC-Hochpass /-Tiefpass o RC-Glied Rechteckimpuls 15, 41, 49, 59, 128, 144 Rechteckimpulszug 15, 21, 23, 38
Sachwortverzeichnis Recive Ready (RR) / Receive Not Ready (RNR) 167 redundante Codierung 193 Redundanz 6, 183 redundanzmindernde Codierung 184 Reject (REJ) 166 RELP-Codierung Repräsentant 70 Request 163 Response 163 Restfehler /-wahrscheinlichkeit 188, 192, 201, 205 Return-to-Zero (RZ) -Code 130 RLC-Netzwerk 18 Roaming 219 Routing Header 175 Routing-Table 159 Roll-off-Faktor 146 Root-RC-Impuls 147 RS-232-Schnittstelle 14, 124 RTS-Rahmen (Request To Send) 265 Ruhehörschwelle 91 Rundfunk 2 S S0-Schnittstelle /Bus o ISDN 8, 129 Sättigung /-skennlinie 71 Schicht (Layer) 160 Schieberegister (linear rückgekoppeltes) 210 Schlüssel 235 schnelle Fourier-Transformation (FFT) 80, 83 Schnittstelle 9 Schrittgeschwindigkeit 126 Schwellwertentscheidung 129 Scrambling Code 253 SHDSL (Symmetric high bit rate o DSL) 150 Seamless Handover 227 Section Overhead (SOH) 156 Seitenband 101 Selective Reject (SREJ) 167 Sendenummer 166 Sendegrundimpuls 115, 128, 143 Sende(grund)impulsmaske 128 Sender 6, 128 serielle Übertragung 124 Service Access Point (SAP) 174 Serving GPRS Support Node (SGSN) 242 Serving Network Domain 247 Set Asynchronous Balanced Mode (SABM) 167 SABM Extended (SABME) 167 shannonsche Funktion 182 shannonsche Kanalkapazität 148 shannonsches Kommunikationsmodell 6 Short Inter-frame Spacing (SIFS) 267 Short Message Service (SMS) 218 Sicherheitsmerkmale 219
sUppLex
Sachwortverzeichnis Sicherungsschicht (Data Link Layer) o OSIReferenzmodell 161 si-Funktion 22, 41, 49 Signal 3, 12 Signalaussteuerung 71 Signal-Quantisierungsgeräusch-Verhältnis, Signal-Geräuschverhältnis (SNR, S/N) 73, 74, 111, 135 Signalrückführung 87 Signalverzögerung 46 Signed Response (SRES) 235 si-Impuls 145 si-Interpolation 68 SIM-Card 219, 234 Simple Mail Transfer Protocol (SMTP) 173 Simplex-Übertragung 124 Simulation 83 sinusförmiger Träger 98 Slow Frequency Hopping (SFH) 228 Socket 175 Space 123, 131 Spannungsgesteuerter Oszillator (VCO, Voltage Controlled Oscilator) 113 Spectral Band Replication (SBR) 90 spektrale Auflösung 82 spektrale Effizienz 128, 222 Spektralkomponente o Frequenzkomponente Spektrum 27, 40 Sperrfrequenz /-toleranz o Toleranzschema 33 Sprachübertragung o Audio-Codierung, GSM, PCM Spreizcode 249, 251 Spreizbandtechnik 249, 251 Spreizfaktor 251 Standardabweichung 132 Start-Stopp-Verfahren 124 Stealing Flag 226 Steuerfeld (Control) 165 Steuerkanal (Signalisierungskanal) 8, 231, 243, 260 STM-1 Transport-Modul 156 Störabstand (SNR) 74 stochastisches Signal 16 Subscriber Identity Module (SIM-Card) 219 Superpositionsprinzip 18, 23 Supervisory Frame (S-Format) 165 Switching Sybsystem (SSS) 221 Symboldauer /-rate 126, 270 Synchrone Digitale Hierarchie (SDH) 156 Synchronisation 129 Synchronization Burst / Channel (SB/SC) 232 Synchronisationsfehler (Augendiagramm) 137 Sychronübertragung 124 Syndrom /-decodierung /-tabelle 195, 196, 209 Syndromregister 209 System /-theorie 12
313 System 1. Ordnung 30 systematischer Code 194, 208 T T1-System 156 Taktintervall 126 Taktgehalt 128 Tastverhältnis 15 TCP/IP-Protokollfamilie 173 TCP/IP Datagram 259 TDMA-Rahmen 223 Teilnehmerendgerät (TE) o ISDN 8 Teilnehmeridentifizierung 234 Telefon 1 Telegraphie 1 Telekommunikation /-snetz (TK-Netz) 5, 8, 10, 158, 217, 236, 245 Temporary Mobile Subscriber Identity (TMSI) 236 ternärer Leitungscode 131 TIA/IS-95 249 Tiefpass (idealer) 32 (33) Tiefpass-Kanal 136 Tiefpass-Spektrum 48 Time Division Duplex (TDD) 245 Time Division Multiple Access (TDMA) 223 Token Bus / Ring 171 Toleranzschema 33 Traffic Channel (TCH) 230 Träger /-signal 98, 100 Trägerfrequenztechnik (TF) / -systeme 105 Trägerkreisfrequenz 99, 100 Trägermodulation 98 Trailer (Nachspann) 165 Transmission Time Interval (TTI) 259 Transparent Mode 259 Transportblock (TB)/ -Set (TBS) 260 Transport Control Protocol (TCP) 173 Transportformat (TF) /-Set (TFS) 260 Transportgruppe /-Modul 156 Transportnetz-Domäne (TND) 247 Transportschicht (Transport Layer) o OSIReferenzmodell 161 trigonometrische Form der o Fourier-Reihe Tschebyschow o Chebyshev U UART-Controller 126 Übermittlung 10 Übermodulation 103 Übersteuerung 71 Übertragungsfunktion 28, 87 Übertragungsgeschwindigkeit /-rate 126 Übertragungsmodell (Basisband) 127 Übertragungsweg 158 Uk0-Schnittstelle o ISDN 8
sUppLex
314 UKW-Rundfunk 43, 111 Umtatstung (hart, weich) 115, 116 UMTS Terrestrial Radio Access Network (UTRAN) 247 Unacknowledged Mode 259 ungleichmäßige Kanalcodierung 228 Unicast-Adresse 177 Universal Mobile Telecommunication System (UMTS) 216, 245 Universal Serial Bus (USB) 127 universelle Codierverfahren 187 ungleichmäßige Kanalcodierung 228 Unnumbered Acknowledgement (UA) 167 Unnumbered Frames (U-Format) 165 unteres Seitenband (uS) 101 Untersteuerung 71 Unterträgerabstand 269 Uplink 232 Uplink State Flag (USF) 240 User Equipment Domain (UED) 247 USIM (UMTS SIM) 247 V Varianz 132 VDSL (Very high speed o DSL) 150 Vektorraum (binärer) 196 Verbindungsleitung 158 verbindungslose /-orientierte Vermittlung 159 Verkehrskanal 231, 243 Verkehrslenkung 9 Verkehrsvertrag 169 Verlässichkeitsklasse 238 verlustbehaftete /-lose Codierung 6, 90 Vermittlungssystem 1 Vermittlungsstelle 158 Vermittlungsschicht (Network Layer) o OSIReferenzmodell 161 Verschlüsselung 235 Vertraulichkeit 219, 233 Verwürfelungscode 253 Verzerrung, verzerrungsfreie Übertragung 45 Verzögerungsklasse 237 Vielfachzuchgriffsinterferenz (Multiuser Interference) 253 Vierpol 18 Virtual Channel Identifier (VCI) 169 Virtual-circuit Number (VCN) 159 Virtual Path Identifier (VPI) 169 Visitor Location Register (VLR) 221 Voltage Controlled Oscillator (VCO) 113 Vorgruppe o Trägerfrequenztechnik 105
Sachwortverzeichnis Vor-Maskierung 92 W Wahrscheinlichkeit /-sdichtefunktion 132, 133 WCDMA (Wideband CDMA) 249 Wegwahl-Tabelle (Routing Table) 159 weißes Spektrum 52 Wellenlängenmultiplex 9 wertdiskretes /-kontinuierliches Signal 14 Wiener-Filter 142 Winkelmodulation 99 Wireless Application Protocol (WAP) 220 Wireless LAN (WLAN) 171, 217, 261 Wireless MAN (WMAN) 171, 262 Wireless Markup Language (WML) 220 Wireless PAN (WPAN) 171, 262 World Wide Web (WWW) 173 Wortlänge 69 X xDSL o Digital Subscriber Line 149 X-ON/X-Off-Handshake 125 Z Zählerkoeffizienten /-polynm o Übertragungsfunktion 29 Zeichengabekanal (D-Kanal) 9 Zeichengabe /-wort (PCM-30-System) 154 Zeigertelegraphie 1 Zeitdauer-Bandbreite-Produkt 48 zeitdiskretes /-kontinuierliches Signal 13 Zeitinvarianz 57 Zeitkonstante 25, 32, 136 Zeitmultiplex 9, 154 Zeitreihe 15 Zeitschlitz 223 Zellatmung 255 Zellenvermittlung 159 zellulare Funkkapazität 224, 256 Zero Instertion 165 ZigBee / - Alliance 263 Zufallssignal o stochastisches Signal Zugangsberechtigung 219 Zweiseitenband-AM 101 Zweiseitenband-AM mit Träger 103 Zweitor 28 zyklischer Code 206 zyklische Sequenzerweiterung 271 Zylinderfunktion 109
sUppLex