Herbert Schneider-Obermann
Basiswissen der Elektro-, Digital- und Informationstechnik
Aus dem Programm Literatur für ...
104 downloads
1626 Views
4MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Herbert Schneider-Obermann
Basiswissen der Elektro-, Digital- und Informationstechnik
Aus dem Programm Literatur für das Grundstudium
Vieweg Handbuch Elektrotechnik herausgegeben von W. Böge und W. Plaßmann Elemente der angewandten Elektronik von E. Böhmer Elemente der Elektronik – Repetitorium und Prüfungstrainer von E. Böhmer Aufgabensammlung Elektrotechnik 1 und 2 von M. Vömel und D. Zastrow Elektrotechnik für Ingenieure in 3 Bänden von W. Weißgerber Elektrotechnik für Ingenieure – Klausurenrechnen von W. Weißgerber Elektrotechnik für Ingenieure – Formelsammlung von W. Weißgerber Elektrotechnik von D. Zastrow Elektronik von D. Zastrow
vieweg
Herbert Schneider-Obermann
Basiswissen der Elektro-, Digital- und Informationstechnik Für Informatiker, Elektrotechniker und Maschinenbauer herausgegeben von Otto Mildenberger Mit 104 Abbildungen und 16 Tabellen
Studium Technik
Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
1. Auflage Oktober 2006 Alle Rechte vorbehalten © Friedr. Vieweg & Sohn Verlag | GWV Fachverlage GmbH, Wiesbaden 2006 Lektorat: Reinhard Dapper Der Vieweg Verlag ist ein Unternehmen von Springer Science+Business Media. www.vieweg.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Umschlaggestaltung: Ulrike Weigel, www.CorporateDesignGroup.de Druck und buchbinderische Verarbeitung: Wilhelm & Adam, Heusenstamm Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier. Printed in Germany ISBN-10 3-528-03979-5 ISBN-13 978-3-528-03979-0
V
Vorwort Aus vielen Bereichen des naturwissenschaftlich technischen Studiums ist heute das Basiswissen der modernen Informationstechnik nicht mehr wegzudenken. Ingenieure der Informationstechnik, der Informatik, des Maschinenbaus sowie Studierende artverwandter Studieng¨ange ben¨otigen Grundkenntnisse dieses Wissensgebietes. Es gliedert sich in Elektro- und Digitaltechnik und in System-, Informations- und Codierungstheorie. Ein Buch, das unterschiedlichen Zielgruppen gerecht wird, ist aus verschiedenen Gr u¨ nden nicht einfach zu konzipieren. Eine sehr gr¨undliche Behandlung des Lehrstoffes ist f¨ur die Studierenden oft nicht motivierend, weil dabei kaum Zeit fu¨ r die Behandlung von Anwendungen u¨ brigbleibt. Umgekehrt setzt aber die Behandlung von Anwendungen ausreichende Kenntnisse der Grundlagen voraus. Dieses Buch w¨ahlt einen Weg, bei dem Grundkenntnisse der Mathematik und der Physik nicht behandelt und somit vorausgesetzt werden. Beispielsweise werden das elektrische und das magnetische Feld nur kurz besprochen. Weiterhin wird in der Regel auf Beweise verzichtet. Statt dessen werden die Verfahren anhand einfacher Beispiele veranschaulicht. Jedes Kapitel schließt mit einer kleinen Aufgabensammlung ab, die auch Lo¨ sungen beinhaltet. Die Gegen¨uberstellung von Aufgaben und L¨osungen in zwei Spalten erm¨oglicht den Leserinnen und Lesern eigene L¨osungsversuche mit abgedeckten L¨osungen und, im Erfolgsfall, ein rasches R¨uckversichern ohne langes Umbl¨attern. Das Buch enth¨alt f¨unf Kapitel, die eine inhaltlich begr¨undete, leicht unterschiedliche Gestaltung aufweisen. Im 1. Kapitel werden die Grundlagen der Elektrotechnik vom Gleichstrom- und Wechselstromkreis bis hin zu einfachen Transistorschaltungen ausf u¨ hrlich behandelt. Die wichtigsten Analyseverfahren von Netzwerken wie Knoten- und Maschenanalyse fehlen ebenso wenig wie ¨ grundlegende Schaltungen von Vierpolen, Ubertragern, Leitungen und Halbleiterbauelementen. ¨ Der Ubergang zur Digitaltechnik wird mit den letzten Abschnitten zur UND- und ODER-Logik und der D/A- und A/D-Wandlung eingeleitet. Anschließend folgt ein etwas k¨urzeres Kapitel zur Digitaltechnik, das ausgehend von der Schaltalgebra h¨aufig ben¨otigte digitale Schaltungen und Schaltwerke beinhaltet. Die Grundfunktionen: UND, ODER und NICHT, die Normal- und Minimalformen und die KV-Tafeln werden zur Schaltungssynthese verwendet. Es werden einfache Rechenschaltungen wie Addierer, Multiplizierer, Multiplexer und Demultiplexer ebenso wie Z¨ahler und Automaten entwickelt.
VI Die Systemtheorie, die das 3. Kapitel bildet, vermittelt im Stile eines Arbeitsbuches die notwendigen praktischen F¨ahigkeiten, um anwendungsbezogene Aufgaben lo¨ sen zu k¨onnen. Besonderer Wert wird hierbei auf die wechselweise Behandlung von zeitkontinuierlichen und zeitdiskreten Signalen und Systemen gelegt, so dass die Gemeinsamkeiten des theoretischen Konzeptes hervorgehoben werden. Einen breiten Raum nehmen die Transformationen ein, die f u¨ r ein grunglegendes ¨ Verst¨andnis der spektralen Zusammensetzung von Zeitsignalen und deren verzerrungsfreier Uber¨ tragung wichtig sind. Die notwendigen Kriterien fu¨ r eine zuverl¨assige Ubertragung zeitdiskreter Signale schließen diesen Abschnitt ab. Information geh¨ort zu den zentralen Begriffen moderner Kommunikation. Dieser Begriff wird in der Informationstheorie im 4. Kapitel erl¨autert. Der Abschnitt startet mit einer kleinen Einfu¨ hrung in die Wahrscheinlichkeitsrechnung, die h¨aufig nicht Bestandteil der studienplanm¨aßigen Mathematik ist. Im Vordergrund steht hierbei der Zusammenhang des Informationsgehaltes von Informationsquellen mit der m¨oglichen Optimierung des Informationsflusses von der Quelle zur Senke. Zentrale Begriffe dieses Abschnitts sind Entropie, Redundanz, Kanalkapazit¨at und Quellencodierung. An zahlreichen Beispielen werden die Methoden von Shannon, Fano und Huffman zur Quellcodierung erl¨autert. Das letzte Kapitel behandelt Methoden der Kanalcodierung, die die Information durch Hinzuf u¨ gen ¨ von gezielter Redundanz gegen Ubertragungsfehler unempfindlich macht. Ausgehend von einfachen Beispielen werden die wichtigen Eigenschaften fehlerkorrigierender Codes wie Distanz, Gewicht, Codeerzeugung und Fehlerkorrektur eingefu¨ hrt. Einen Schwerpunkt in diesem Abschnitt bilden die zyklischen Codes, die durch ru¨ ckgekoppelte Schieberegister codiert und decodiert werden k¨onnen. Auf die Darstellung der diskreten Mathematik auf endlichen Zahlenk o¨ rpern wird in diesem Abschnitt zugunsten von vielen Beispielen verzichtet. So wird versucht, den Schwierigkeiten, die den Studierenden durch die ungewohnte Art des Lehrstoffes entstehen ko¨ nnen, zu begegnen. Der Autor bedankt sich ganz herzlich beim Herausgeber, Otto Mildenberger, f u¨ r die inhaltliche Unterst¨utzung und konstruktive Begleitung dieses Buchprojektes und wu¨ nscht allen Leserinnen und Lesern viel Freude, Erfolg und das Entdecken neuer Zusammenh¨ange beim Studium des Basiswissens der Informationstechnik.
Wiesbaden, Juli 2006
Herbert Schneider-Obermann
Inhaltsverzeichnis
VII
Inhaltsverzeichnis 1 Grundlagen der Elektrotechnik und Elektronik 1.1
1.2
1.3
1.4
1
Physikalische Gr¨oßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.1
Die Schreibweise von Gleichungen . . . . . . . . . . . . . . . . . . . .
2
1.1.2
Ursachen und Wirkungen der Elektrizit¨at . . . . . . . . . . . . . . . . .
3
1.1.3
Wirkungen der Elektrizit¨at . . . . . . . . . . . . . . . . . . . . . . . . .
5
Grundlagen der Gleichstromtechnik . . . . . . . . . . . . . . . . . . . . . . . .
5
1.2.1
Der elektrische Stromkreis . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.2.2
Spannung und Potential . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.2.3
Elektrischer Widerstand und Leitwert . . . . . . . . . . . . . . . . . . .
6
1.2.4
Die Kirchhoff’schen S¨atze . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.2.5
Die Zusammenschaltung von Widerst¨anden . . . . . . . . . . . . . . . .
10
1.2.6
Zweipolquellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
Leistung und Arbeit bei Gleichstrom . . . . . . . . . . . . . . . . . . . . . . . .
13
1.3.1
Der Wirkungsgrad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.3.2
Die Leistungsanpassung . . . . . . . . . . . . . . . . . . . . . . . . . .
14
Die Berechnung einfacher Gleichstromkreise . . . . . . . . . . . . . . . . . . .
15
1.4.1
Messung von Strom und Spannung . . . . . . . . . . . . . . . . . . . .
15
1.4.2
Der Spannungsteiler . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.4.3
Die Stromteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
1.4.4
Die Wheatstone’sche Br¨ucke . . . . . . . . . . . . . . . . . . . . . . . .
18
1.4.5
Die Stern-Dreieck-Transformation . . . . . . . . . . . . . . . . . . . . .
18
1.4.6
Analysemethoden f¨ur Gleichstromnetzwerke . . . . . . . . . . . . . . .
20
1.4.7
Einfache nichtlineare Netzwerke . . . . . . . . . . . . . . . . . . . . . .
26
VIII 1.5
Inhaltsverzeichnis Grundlagen der Wechselstromtechnik . . . . . . . . . . . . . . . . . . . . . . .
27
1.5.1
Einf¨uhrung in die Wechselgr¨oßen . . . . . . . . . . . . . . . . . . . . .
27
1.5.2
Das Bauelement Kondensator . . . . . . . . . . . . . . . . . . . . . . .
28
1.5.3
Das Bauelement Spule . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
Die komplexe Rechnung in der Wechselstromtechnik . . . . . . . . . . . . . . .
34
1.6.1
Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
1.6.2
Effektivwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
1.6.3
Komplexe Wechselstromgr¨oßen . . . . . . . . . . . . . . . . . . . . . .
37
1.6.4
Der komplexe Widerstand . . . . . . . . . . . . . . . . . . . . . . . . .
40
Schaltungen in der Wechselstromtechnik . . . . . . . . . . . . . . . . . . . . . .
41
1.7.1
Zusammenschaltungen komplexer Widerst¨ande . . . . . . . . . . . . . .
41
1.7.2
¨ Ubertragungsfunktion und D¨ampfung von Filterschaltungen . . . . . . .
46
Die Leistung bei Wechselstrom . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
1.8.1
Wirk- Blind- und Scheinleistung . . . . . . . . . . . . . . . . . . . . . .
52
1.8.2
Leistungsanpassung bei Wechselstrom . . . . . . . . . . . . . . . . . . .
55
Zweitorschaltungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
1.9.1
Das Zweitor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
1.9.2
Die Impedanzmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
1.9.3
Die Kettenmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
1.10 Beispiele wichtiger Zweitore . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
¨ 1.10.1 Der Ubertrager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
1.10.2 Die Leitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
1.10.3 Schaltungen mit Verst¨arkern . . . . . . . . . . . . . . . . . . . . . . . .
68
1.11 Elektronische Bauelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
1.11.1 Halbleiter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
1.11.2 Die Diode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
1.11.3 Der Transistor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
1.12 Elektronische Schaltungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
1.12.1 Kleinsignal-Transistorverst¨arker . . . . . . . . . . . . . . . . . . . . . .
80
1.12.2 UND-Schaltung bei positiver Logik . . . . . . . . . . . . . . . . . . . .
83
1.12.3 ODER-Schaltung bei positiver Logik . . . . . . . . . . . . . . . . . . .
84
1.6
1.7
1.8
1.9
Inhaltsverzeichnis
IX
1.12.4 Addierschaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
1.12.5 D/A-Umsetzer mit gestaffelten Widerst¨anden . . . . . . . . . . . . . . .
85
1.12.6 D/A-Umsetzer mit einem R/2R Abzweignetzwerk . . . . . . . . . . . .
86
1.13 Aufgaben und L¨osungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
1.13.1 Aufgaben und L¨osungen zur Gleichstromtechnik . . . . . . . . . . . . .
88
1.13.2 Aufgaben und L¨osungen zur Wechselstromtechnik . . . . . . . . . . . .
91
2 Grundlagen der Digitaltechnik 2.1
2.2
Analoge und digitale Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . .
99 99
2.1.1
Zahlensysteme und Zahlencodes . . . . . . . . . . . . . . . . . . . . . . 100
2.1.2
Polyadische Zahlensysteme . . . . . . . . . . . . . . . . . . . . . . . . 101
2.1.3
Umwandlung von Zahlen bei unterschiedlichen Basen . . . . . . . . . . 102
2.1.4
Rechnen im Dualsystem . . . . . . . . . . . . . . . . . . . . . . . . . . 104
2.1.5
Darstellung negativer Zahlen im Dualsystem . . . . . . . . . . . . . . . 105
2.1.6
Bin¨are Codes zur Zahlendarstellung . . . . . . . . . . . . . . . . . . . . 106
2.1.7
Der ASCII-Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Schaltalgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 2.2.1
Grundfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.2.2
Das De Morgan’sche Theorem . . . . . . . . . . . . . . . . . . . . . . . 110
2.2.3
Vereinfachungsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
2.2.4
Verkn¨upfungstabellen und Schaltsymbole der Grundfunktionen . . . . . 111
2.2.5
Kaskadieren der Grundfunktionen . . . . . . . . . . . . . . . . . . . . . 112
2.2.6
Vorrangregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2.2.7
Normal- und Minimalformen . . . . . . . . . . . . . . . . . . . . . . . . 114
2.2.8
Minimierung der Schaltfunktion – KV-Tafeln fu¨ r DMF . . . . . . . . . . 116
2.2.9
KV-Tafeln mit mehreren Variablen . . . . . . . . . . . . . . . . . . . . . 117
2.2.10 Redundanzen und Schaltungen mit Multioutput . . . . . . . . . . . . . . 120 2.3
H¨aufig ben¨otigte Schaltwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 2.3.1
Komparatoren ⇐⇒ A = B, A < B, A > B . . . . . . . . . . . . 123
2.3.2
Code-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
2.3.3
Multiplexer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
2.3.4
Demultiplexer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
X
Inhaltsverzeichnis
2.4
2.5
2.3.5
Der Halbaddierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.3.6
Der Volladdierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Schaltungssynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 2.4.1
Multiplexer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
2.4.2
Read Only Memorys . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
2.4.3
Schaltnetze und Schaltwerke . . . . . . . . . . . . . . . . . . . . . . . . 133
Die Flipflops . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 2.5.1
Das Basis-Flipflop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.5.2
RS-Flipflop mit Setzvorrang . . . . . . . . . . . . . . . . . . . . . . . . 139
2.5.3
Taktzustandsgesteuerte Einspeicherflipflops . . . . . . . . . . . . . . . . 140
2.5.4
D-Flipflops . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2.5.5
Taktzustandsgesteuerte Zweispeicher-FF . . . . . . . . . . . . . . . . . 142
2.5.6
JK-Flipflops . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
2.5.7
Taktflankengesteuerte Flipflops . . . . . . . . . . . . . . . . . . . . . . 143
2.5.8
Tabelle der wichtigsten Flipflops . . . . . . . . . . . . . . . . . . . . . . 145
2.5.9
Anwendungen von Flipflops – Synchrone Z¨ahler . . . . . . . . . . . . . 146
2.5.10 Puffer- und Schieberegister
. . . . . . . . . . . . . . . . . . . . . . . . 150
2.5.11 R¨uckgekoppelte Schieberegister . . . . . . . . . . . . . . . . . . . . . . 153 2.6
Abh¨angigkeitsnotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 2.6.1
G-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
2.6.2
V-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
2.6.3
N-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
2.6.4
Z-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
2.6.5
C-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
2.6.6
S- und R-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2.6.7
EN-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2.6.8
A-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
2.6.9
M-Abh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 ¨ 2.6.10 Ubersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 2.7
Aufgaben zur Digitaltechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 2.7.1
Grundlagen - Zahlensysteme - Schaltalgebra . . . . . . . . . . . . . . . 159
2.7.2
Analyse von Schaltnetzen und Minimierung . . . . . . . . . . . . . . . . 163
2.7.3
Synthese von Schaltungen . . . . . . . . . . . . . . . . . . . . . . . . . 165
2.7.4
Flipflops und synchrone Z¨ahler . . . . . . . . . . . . . . . . . . . . . . 170
2.7.5
Register und Schieberegister . . . . . . . . . . . . . . . . . . . . . . . . 175
Inhaltsverzeichnis ¨ 3 Einfuhrung in die Systemtheorie
XI 177
3.1
Klassifizierung von Signalen im Zeitbereich . . . . . . . . . . . . . . . . . . . . 177
3.2
Die Einteilung der Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
3.3
3.4
3.5
3.6
3.7
3.8
3.2.1
Zeitkontinuierliche und zeitdiskrete Signale . . . . . . . . . . . . . . . . 179
3.2.2
Signale mit endlicher Energie . . . . . . . . . . . . . . . . . . . . . . . 180
3.2.3
Signale mit endlicher Leistung . . . . . . . . . . . . . . . . . . . . . . . 183
Elementarsignale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 3.3.1
Dirac- und Einheitsimpuls . . . . . . . . . . . . . . . . . . . . . . . . . 185
3.3.2
Die Sprungfunktion und die Sprungfolge . . . . . . . . . . . . . . . . . 187
3.3.3
Sinusf¨ormige Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
Grundlagen zeitkontinuierlicher Systeme . . . . . . . . . . . . . . . . . . . . . . 191 3.4.1
Systemeigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
3.4.2
Das Faltungsintegral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
3.4.3
Beispiele zur Auswertung des Faltungsintegrals . . . . . . . . . . . . . . 194
3.4.4
¨ Die Ubertragungsund Systemfunktion . . . . . . . . . . . . . . . . . . 197
Grundlagen zeitdiskreter Systeme . . . . . . . . . . . . . . . . . . . . . . . . . 199 3.5.1
Systemeigenschaften und die Faltungssumme . . . . . . . . . . . . . . . 200
3.5.2
¨ Die Ubertragungsund die Systemfunktion . . . . . . . . . . . . . . . . 201
3.5.3
Die Beschreibung zeitdiskreter Systeme durch Differenzengleichungen . 204
Beschreibung von Signalen im Frequenzbereich . . . . . . . . . . . . . . . . . . 206 3.6.1
Die Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . 206
3.6.2
Die Grundgleichungen der Fourier-Transformation . . . . . . . . . . . . 207
3.6.3
Darstellungsarten f¨ur Fourier-Transformierte . . . . . . . . . . . . . . . 208
3.6.4
Wichtige Eigenschaften der Fourier-Transformation . . . . . . . . . . . . 209
Fourier-Transformierte einiger Leistungs- und Energiesignale . . . . . . . . . . . 212 3.7.1
Der Dirac-Impuls und das Gleichsignal . . . . . . . . . . . . . . . . . . 213
3.7.2
Der Zusammenhang von Fourier-Reihen und dem Spektrum . . . . . . . 214
3.7.3
Rechteck- und die Spaltfunktion . . . . . . . . . . . . . . . . . . . . . . 217
3.7.4
Der Gaußimpuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
Bandbegrenzte Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 3.8.1
Impuls- und Bandbreite . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
XII
Inhaltsverzeichnis 3.8.2 3.9
Abtasttheorem f¨ur bandbegrenzte Signale . . . . . . . . . . . . . . . . . 220
Die Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 3.9.1
Die Grundgleichungen und einf¨uhrende Beispiele . . . . . . . . . . . . . 223
3.9.2
Zusammenstellung von Eigenschaften der Laplace-Transformation . . . . 225
3.9.3
Rationale Laplace-Transformierte . . . . . . . . . . . . . . . . . . . . . 226
3.9.4
Die R¨ucktransformation bei einfachen Polstellen . . . . . . . . . . . . . 226
3.9.5
Die R¨ucktransformation bei mehrfachen Polen . . . . . . . . . . . . . . 227
3.10 Diskrete Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 3.10.1 Die Grundgleichungen der zeitdiskreten Fourier-Transformation . . . . . 229 3.10.2 Der Zusammenhang zu den Spektren kontinuierlicher Signale . . . . . . 231 3.10.3 Eigenschaften der zeitdiskreten Fourier-Transformation . . . . . . . . . . 233 3.10.4 Grundgleichungen der diskreten Fourier-Transformation (DFT) . . . . . 234 3.10.5 Einige Eigenschaften der diskreten Fourier-Transformation . . . . . . . . 236 3.10.6 Die Grundgleichungen der z-Transformation . . . . . . . . . . . . . . . 237 3.10.7 Zusammenstellung von Eigenschaften der z-Transformation . . . . . . . 238 3.10.8 Rationale z-Transformierte . . . . . . . . . . . . . . . . . . . . . . . . . 239 3.11 Die Beschreibung der Systeme im Frequenzbereich . . . . . . . . . . . . . . . . 240 3.11.1 Berechnung von Systemreaktionen im Frequenzbereich . . . . . . . . . . 240 ¨ 3.11.2 Die Ubertragungsund die Systemfunktion zeitdiskreter Systeme . . . . 243 3.11.3 Berechnung der Systemreaktion mit der z-Transformation . . . . . . . . 244 ¨ 3.11.4 Verzerrungsfreie Ubertragung . . . . . . . . . . . . . . . . . . . . . . . 245 3.11.5 Der ideale Tiefpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 3.11.6 Der ideale Bandpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 3.11.7 Gruppen- und Phasenlaufzeit . . . . . . . . . . . . . . . . . . . . . . . . 251 3.11.8 Allgemeine Bandpasssysteme . . . . . . . . . . . . . . . . . . . . . . . 253 3.11.9 Bandpassreaktionen auf amplitudenmodulierte Eingangssignale . . . . . 257 3.11.10 Das a¨ quivalente Tiefpasssystem . . . . . . . . . . . . . . . . . . . . . . 258 ¨ 3.12 Die Ubertragung zeitdiskreter Signale . . . . . . . . . . . . . . . . . . . . . . . 259 ¨ 3.12.1 Die Ubertragungsbedingungen . . . . . . . . . . . . . . . . . . . . . . . 259 3.12.2 Die 1. Nyquistbedingung im Zeitbereich . . . . . . . . . . . . . . . . . . 261 3.12.3 Augendiagramme und das 2. Nyquistkriterium . . . . . . . . . . . . . . 263
Inhaltsverzeichnis
XIII
3.13 Aufgaben zur Systemtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 3.13.1 Einf¨uhrende Aufgaben in die Systemtheorie . . . . . . . . . . . . . . . . 266 3.13.2 Elementare Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268 3.13.3 Zeitkontinuierliche Systeme . . . . . . . . . . . . . . . . . . . . . . . . 269 3.13.4 Zeitdiskrete Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 3.13.5 Tiefpasssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 3.14 Korrespondenzen der Transformationen . . . . . . . . . . . . . . . . . . . . . . 276 4 Informationstheorie und Quellencodierung 4.1
4.2
4.3
4.4
4.5
279
Grundbegriffe der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . . . . 281 4.1.1
Annahmen und Voraussetzungen . . . . . . . . . . . . . . . . . . . . . . 281
4.1.2
Die axiomatische Definition der Wahrscheinlichkeit . . . . . . . . . . . . 282
4.1.3
Relative H¨aufigkeit und Wahrscheinlichkeit . . . . . . . . . . . . . . . . 283
4.1.4
Das Additionsgesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
4.1.5
Das Multiplikationsgesetz . . . . . . . . . . . . . . . . . . . . . . . . . 286
4.1.6
Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . 286
4.1.7
Verteilungs- und Dichtefunktion diskreter Zufallsgr o¨ ßen . . . . . . . . . 288
4.1.8
Verteilungs- und Dichtefunktion kontinuierlicher Zufallsgro¨ ßen . . . . . 290
4.1.9
Erwartungswerte – Mittelwert und Streuung . . . . . . . . . . . . . . . . 292
Grundmodell einer Informations¨ubertragung
. . . . . . . . . . . . . . . . . . . 293
4.2.1
Diskrete Informationsquellen . . . . . . . . . . . . . . . . . . . . . . . . 294
4.2.2
Der Entscheidungsgehalt . . . . . . . . . . . . . . . . . . . . . . . . . . 295
4.2.3
Der mittlere Informationsgehalt – die Entropie . . . . . . . . . . . . . . 298
4.2.4
Eigenschaften der Entropie . . . . . . . . . . . . . . . . . . . . . . . . . 300
Verbundquellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 4.3.1
Bedingte Entropien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
4.3.2
Die Markhoff’sche Entropie . . . . . . . . . . . . . . . . . . . . . . . . 305
Diskretes Informations¨ubertragungsmodell . . . . . . . . . . . . . . . . . . . . . 308 4.4.1
¨ Entropien diskreter Ubertragungskan¨ ale . . . . . . . . . . . . . . . . . . 309
4.4.2
Transinformation und Informationsfluss . . . . . . . . . . . . . . . . . . 310
4.4.3
Die Kanalkapazit¨at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
¨ Ubertragungskan¨ ale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
XIV
4.6
4.7
Inhaltsverzeichnis 4.5.1
Der symmetrische Bin¨arkanal . . . . . . . . . . . . . . . . . . . . . . . 313
4.5.2
Der symmetrische Kanal mit n Zeichen . . . . . . . . . . . . . . . . . . 315
4.5.3
Die Transinformation bei unsymmetrischer Sto¨ rung . . . . . . . . . . . . 318
4.5.4
¨ Beispiele von Ubertragungskan¨ alen . . . . . . . . . . . . . . . . . . . . 319
Quellcodierung mit Optimalcodes . . . . . . . . . . . . . . . . . . . . . . . . . 323 4.6.1
Problematik der Codierverfahren . . . . . . . . . . . . . . . . . . . . . . 323
4.6.2
Konstruktionsverfahren f¨ur Optimalcodes . . . . . . . . . . . . . . . . . 326
4.6.3
Quellcodierung nach Shannon . . . . . . . . . . . . . . . . . . . . . . . 327
4.6.4
Quellcodierung nach der Methode von Fano . . . . . . . . . . . . . . . . 329
4.6.5
Quellcodierung nach Huffman . . . . . . . . . . . . . . . . . . . . . . . 332
Aufgaben zur Informationstheorie und Quellencodierung . . . . . . . . . . . . . 335 4.7.1
Diskrete Informationsquellen . . . . . . . . . . . . . . . . . . . . . . . . 335
4.7.2
¨ Diskrete Ubertragungskan¨ ale . . . . . . . . . . . . . . . . . . . . . . . . 339
4.7.3
Quellcodierung und Optimalcodes . . . . . . . . . . . . . . . . . . . . . 343
¨ ¨ zuverl¨assige digitale Ubertragung 5 Codierung fur 5.1
5.2
347
Grundbegriffe und Codebeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . 348 5.1.1
Aufbau eines Codewortes . . . . . . . . . . . . . . . . . . . . . . . . . 349
5.1.2
Fehlervektor und Empfangsvektor . . . . . . . . . . . . . . . . . . . . . 349
5.1.3
Der Repetition Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
5.1.4
Ein Parity-Check Bit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
5.1.5
Pr¨ufsummencodes – ein einfacher Blockcode . . . . . . . . . . . . . . . 351
5.1.6
Generatormatrix und Pr¨ufmatrix . . . . . . . . . . . . . . . . . . . . . . 355
5.1.7
Korrekturf¨ahigkeit linearer Blockcodes . . . . . . . . . . . . . . . . . . 356
5.1.8
Berechnung der Fehlerwahrscheinlichkeit . . . . . . . . . . . . . . . . . 357
Lineare Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360 5.2.1
Mindestdistanz und Mindestgewicht eines Codes . . . . . . . . . . . . . 360
5.2.2
Fehlererkennnungs- und Fehlerkorrekturf¨ahigkeit . . . . . . . . . . . . . 363
5.2.3
Gewichtsverteilung linearer Codes . . . . . . . . . . . . . . . . . . . . . 364
5.2.4
Schranken f¨ur lineare Codes . . . . . . . . . . . . . . . . . . . . . . . . 366
5.2.5
Perfekte Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
5.2.6
Der Duale Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368
Inhaltsverzeichnis
XV
5.2.7
L¨angen¨anderungen linearer Codes . . . . . . . . . . . . . . . . . . . . . 369
5.2.8
Syndrom und Fehlerkorrektur . . . . . . . . . . . . . . . . . . . . . . . 370
5.2.9
Hamming-Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
5.2.10 Pr¨ufmatrix und Generatormatrix . . . . . . . . . . . . . . . . . . . . . . 373 5.2.11 Der Simplex-Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 5.2.12 MacWilliams-Identit¨at . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 5.3
5.4
5.5
Zyklische Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 5.3.1
Das Generatorpolynom zyklischer Codes . . . . . . . . . . . . . . . . . 381
5.3.2
Unsystematische Codierung . . . . . . . . . . . . . . . . . . . . . . . . 382
5.3.3
Systematische Codierung . . . . . . . . . . . . . . . . . . . . . . . . . . 383
5.3.4
Generatormatrix und Pr¨ufmatrix zyklischer Codes . . . . . . . . . . . . 384
5.3.5
Distanz in Generatormatrix und Pru¨ fmatrix . . . . . . . . . . . . . . . . 388
5.3.6
Rechenoperationen mit Schieberegistern . . . . . . . . . . . . . . . . . . 389
Codierung und Decodierung von zyklischen Codes . . . . . . . . . . . . . . . . 393 5.4.1
Syndromberechnung bei zyklischen Codes . . . . . . . . . . . . . . . . 394
5.4.2
Decodierung von zyklischen Codes . . . . . . . . . . . . . . . . . . . . 396
5.4.3
Decodierung eines zweifehlerkorrigierenden Codes . . . . . . . . . . . . 399
5.4.4
K¨urzen von zyklischen Codes . . . . . . . . . . . . . . . . . . . . . . . 401
5.4.5
Generatormatrix und Pr¨ufmatrix verk¨urzter Codes . . . . . . . . . . . . 402
5.4.6
Decodierung verk¨urzter Codes . . . . . . . . . . . . . . . . . . . . . . . 403
5.4.7
Decodierung durch Error Trapping . . . . . . . . . . . . . . . . . . . . . 406
5.4.8
Die Golay Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
Aufgaben und L¨osungen zur Kanalcodierung . . . . . . . . . . . . . . . . . . . 414 5.5.1
Einf¨uhrende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
5.5.2
Lineare und zyklische Codes . . . . . . . . . . . . . . . . . . . . . . . . 422
Literaturverzeichnis
427
Sachwortverzeichnis
429
1
Kapitel 1
Grundlagen der Elektrotechnik und Elektronik Dieses Kapitel besteht aus insgesamt vier unterschiedlich umfangreichen Abschnitten. Im 1. Abschnitt wird auf physikalische Gr¨oßen und deren Einheiten sowie die Schreibweise von Gleichungen eingegangen. Strom und Spannung werden auf elementare Weise physikalisch erkl¨art. Der zweite Abschnitt befasst sich mit der Gleichstromtechnik. Die hier behandelten Analyseverfahren sind deshalb von großer Wichtigkeit, weil sie formal in der Wechselstromtechnik u¨ bernommen werden k¨onnen. In dem umfangreichen dritten Abschnitt folgt eine Einfu¨ hrung in die Wechselstromtechnik. Bearbeitet werden auch Filter, Leitungen und Verst¨arkerschaltungen. Der Abschnitt vier enth¨alt eine kurze Einf¨uhrung in die Elektronik. Danach werden einige wichtige Schaltungen aus der Analog- und Digitaltechnik besprochen. Den Abschluss bildet eine Aufgabensammlung, die Kurzl¨osungen beinhaltet.
1.1 Physikalische Gr¨oßen Eine physikalische Gr¨oße wird durch einen Zahlenwert und eine Einheit beschrieben. Gelingt es beispielsweise einem L¨aufer, die Strecke von 5000 Metern (m) in 1000 Sekunden (s) zu durchlaufen, so muss er eine mittlere Geschwindigkeit von 5 m/s einhalten. Alle drei Angaben sind physikalische Gr¨oßen. Die u¨ bliche Schreibweise einer physikalischen Gro¨ ße x: x = {x} · [x],
(1.1)
ist durch das Produkt des Zahlenwertes {x} und der Einheit [x] gegeben. Erweist sich ein Zahlenwert als unpraktisch, weil er zu groß oder zu klein ist, so sind Abk u¨ rzungen (Vorsatzzeichen) u¨ blich, z.B. 5 km statt 5000 m.
Tera (T): Giga (G): Mega (M):
1012 109 106
Tabelle der Vorsatzzeichen Kilo (K): 103 Pico (p): 10−12 Hekto (H): 102 Nano (n): 10−9 1 Deka (D): 10 Mikro (μ): 10−6
Milli (m): Zenti (c): Dezi (d):
10−3 10−2 10−1
2
1 Grundlagen der Elektrotechnik und Elektronik
Im Allgemeinen werden Einheiten in Grundeinheiten und abgeleitete Einheiten unterschieden. Die Einheiten m und s sind Grundeinheiten, die Einheit der Geschwindigkeit (m/s). Das MKSASystem besitzt folgende Grundeinheiten:
L¨ange 1 Meter (1 m)
Tabelle der Grundeinheiten im MKSA-System Masse Zeit Stromst¨arke Temperatur 1 Kilogramm 1 Sekunde 1 Ampere 1 Kelvin (1 kg) (1 s) (1 A) (1 K)
Die Bezeichnung MKSA-System weist auf eine Rechnung mit diesen Grundeinheiten hin. Alle anderen Einheiten sind von diesen Grundeinheiten abgeleitete Einheiten. So z.B.: mkg s2
ist die Kraft, die eine Masse von 1 kg auf 1 m/s2 beschleu-
Kraft:
1 Newton, 1 N = 1 nigt.
Arbeit:
1 Joule, 1 J =1 Nm ist die Arbeit, die zur Verschiebung eines Ko¨ rpers mit der Masse von 1 kg bei einer Kraftaufwendung von 1 N erforderlich ist.
Leistung:
1 Watt, 1 W = 1 Nm/s = 1 J/s liegt vor, wenn die Arbeit von 1 Joule in einer Sekunde erbracht wird.
Spannung:
1 Volt, 1 V = 1W/A ist die an einem Leiter anliegende Spannung, durch den ein Strom von 1 A fließt und in dem eine Leistung von 1 W umgesetzt wird.
Widerstand: 1 Ohm, 1 Ω= 1 V/A ist der Widerstand eines Leiters, wenn an ihm die Spannung von 1 V liegt und ein Strom von 1 A fließt.
1.1.1 Die Schreibweise von Gleichungen Grunds¨atzlich wird zwischen Gr¨oßengleichungen und Zahlenwertgleichungen unterschieden. Die physikalischen Gr¨oßen werden in Gr¨oßengleichungen als Produkt ihres Zahlenwertes mit ihrer Einheit dargestellt (s. Gl. 1.1). Sie besitzen den Vorteil, dass sie fu¨ r beliebige Einheiten richtig sind. Werden nur Einheiten aus dem MKSA-System verwendet, so hat das Ergebnis ebenfalls eine Einheit aus dem MKSA-System zur Folge. In der beru¨ hmten Gleichung: m2 2 kg · 2 = [Joule] , (1.2) E =m·c ; s erh¨alt man die einer Masse a¨ quivalente Energie automatisch in der Einheit Joule. In Zahlenwertgleichungen bedeuten die Formelzeichen einheitenlose Zahlen. Das Ergebnis ist nur richtig, wenn die eingesetzten Werte zuvor festgelegte Einheiten besitzen: F = 1000 · m · a [N ]
wenn m in g und a in m/s2 eingesetzt wird,
(1.3)
erh¨alt man die Kraft in Newton. Eine normierte Gr¨oße erh¨alt man, wenn die betrachtete Gr¨oße durch eine gleichartige Bezugsgr¨oße dividiert wird. Werden z.B. Signale im Frequenzbereich von 10 kHz bis 50 kHz untersucht,
1.1 Physikalische Gr¨oßen
3
so kann es sinnvoll sein, alle Frequenzen auf die Bezugsfrequenz fb = 10 kHz zu normieren. Dann gilt fn = f /fb . Die normierten Frequenzwerte liegen jetzt im Bereich: 1 ≤ fn ≤ 5. Normierte Gr¨oßen sind dimensionslos, so dass in Gleichungen mit normierten Gro¨ ßen keine Einheitenkontrolle m¨oglich ist. Die Rechnung mit normierten Gro¨ ßen ist besonders in der Systemtheorie und auch der Netzwerktheorie ausgepr¨agt.
1.1.2 Ursachen und Wirkungen der Elektrizita¨ t Wer kennt nicht den Effekt beim Aussteigen aus dem Auto, wenn es im Moment des T u¨ ranfassens zu einer unangenehmen und deutlich vernehmbaren Entladung, einem kleinen Funken u¨ berschlag, kommt? Die Physik beschreibt den Vorgang anhand eines Experimentes so: Reibt man zwei St¨abe aus Kunststoff mit einem Tuch, so stellt man fest, dass sich danach die beiden St¨abe abstoßen. Zwischen den St¨aben tritt also eine Kraftwirkung auf. Ursache ist die elektrische Ladungstrennung durch das Reiben. Diese Ladungen erzeugen in ihrer Umgebung ein elektrisches Feld. Elektrische Ladungen k¨onnen sich abstoßen (gleichartige positive oder negative Ladungen) oder sich anziehen (ungleichartige Ladungen). Ein Stab kann mehr oder weniger stark aufgeladen sein, d.h. die auf ihm befindliche Ladung Q kann groß oder klein sein. Es l¨asst sich aber nachweisen, dass Q nicht beliebig klein werden kann. Die kleinstm¨ogliche Ladung ist die Elementarladung e = 1, 6 10−19 As (1 Coulomb). Alle Stoffe bestehen aus Atomen und sind elektrisch neutral, da gleichviele positive wie negative Ladungen vorhanden sind. Man unterscheidet grob zwischen leitenden und nichtleitenden Stoffen. Nichtleiter besitzen eine feste Bindung der Elektronen an die Atomkerne. Dies f u¨ hrt zur starren Atomgittern wie sie von Kristallen bekannt sind. Freie Elektronen zur Elektrizit¨atsleitung sind nicht vorhanden. Ein idealer (nichtstofflicher) Nichtleiter ist das Vakuum. Bei Metallen ist die Bindungsenergie der Elektronen der a¨ ußeren Elektronenschalen relativ gering, so dass diese sich von ihren Atomen l¨osen k¨onnen. Man spricht von freien Elektronen der Leiter. Bei Metallen kommt es dadurch zur Stromleitung, dass sich die freien Elektronen zwischen den systematisch angeordneten Atomen hindurchbewegen k¨onnen. Man rechnet bei Metallen mit 1023 freien Elektronen je cm3 . Die F¨ahigkeit eines Werkstoffes zur Leitung von Elektronen wird durch seinen spezifischen Widerstand bzw. durch seinen spezifischen Leitwert gekennzeichnet. Der spezifische Widerstand ρ hat die Einheit [ρ] = Ω mm2 /m. Der Wert von ρ ist der Widerstand eines 1 m langen ”Drahtes” von 1 mm2 Querschnitt. Kupfer hat beispielsweise einen sehr geringen spezifischen Widerstand von ρ ≈ 0, 017 Ω mm2 /m, f¨ur destilliertes Wasser gilt ρ ≈ 1011 Ω mm2 /m und f¨ur Papier ρ ≈ 1021 Ω mm2 /m. Der spezifische Widerstand ist i.A. von der Temperatur des Stoffes abh¨angig. Bei Metallen nimmt der Widerstand mit der Temperatur zu. Die Temperaturabh¨angigkeit wird durch einen Temperaturkoeffizienten α beschrieben. Innerhalb nicht zu großer Temperaturbereiche gilt der Zusammenhang1 : ρ = ρ20 [1 + α20 (ϑ − 20 C)].
(1.4)
1 Dies ist eine Zahlenwertgleichung, die Temperatur ϑ muss in C eingesetzt werden. Die Indizes ( ) bedeuten die bei 20 20 C geltenden Werte.
4
1 Grundlagen der Elektrotechnik und Elektronik
Wie oben angegeben hat Kupfer bei 20 C den spezifischen Widerstand ρ20 = 0, 017Ω mm2 /m, der bei 20 C g¨ultige Temperaturkoeffizient hat bei Kupfer den Wert α20 = 0, 0039K −1 . Dann betr¨agt der spezifische Widerstand bei 80 ◦ C nach der oben angegebenen Beziehung: ρ = 0, 017 · [1 + 0, 0039 · (80 − 20)] = 0, 02098 Ωmm2 /m = ρ80 . Der Strom bedeutet somit eine Bewegung oder Stro¨ mung von Ladungen. Man ordnet dem Strom eine Richtung zu, die die Technische Stromrichtung genannt wird. Der Strom hat die Richtung, in der sich die positiven Ladungen bewegen. Bei Metallen kommt der Strom durch die Bewegung von Elektronen zustande, die Stromrichtung ist also hier umgekehrt zur Bewegungsrichtung der Ladungstr¨ager. Zur Erzeugung eines Stromes ist es erforderlich, dass positive und negative Ladungstr¨ager getrennt vorliegen, so dass ein Ausgleich stattfinden kann. Elektrizit¨atserzeugung bedeutet daher die Trennung von positiven und negativen Ladungen. Im dem nachstehenden Bild ist die Entstehung eines Stromes angedeutet. Auf den K¨orpern befinden sich positive und negative Ladungen. Durch einen die K¨orper verbindenen Metalleiter fließt ein Strom i: .......................... ............................... ....... ..... ...... ..... ..... .... ..... ... .... ... ... ... ... ... ... ... . .... . ... . ... . . ... . . ................................................................................................................................................... ... . . . . ... ... . ... . .. . . ... ... .. ... . . . . . ... .... . . . . ..... . . . . . . . ...... . .. ...... ......... .............. ............................... ...........
(Metall-Leiter) i
+
−
(Elektronenmangel)
Ist Δ Q die Ladungsmenge, die in der Zeit Δ t durch den Leiter fließt, so ist: i≈
(Elektronenu¨ berschuss)
dQ ΔQ , bzw. i(t) = . Δt dt
(1.5)
Aus der Beziehung i = dQ/dt erh¨alt man umgekehrt die innerhalb eines Zeitbereiches von t1 bis t2 ”transportierte” Ladung: t2 Q12 = i(t) dt. (1.6) t1
Beispiel 1.1 1. Das Bild zeigt den zeitlichen Verlauf eines Stromes. Zu berechnen ist die insgesamt ”transportierte” Ladung. Nach der oben angegebenen Gleichung erh¨alt man:
Imax ...........
i(t) =
0 I
f¨ur t < 0 f¨ur t > 0
. .... ..... −t/T ... ... max ... .. ... ... .... .... ... .... ... ..... ..... ... ...... ... ...... ........ .... .......... .. ............. ................... .... ...................................... .......................................................... .......
e
→t
0
∞
∞ i(t) dt = Imax
Q= 0
∞ e−t/T dt = −Imax T e−t/T = Imax · T.
0
0
F¨ur z.B. Imax = 1A und T = 1ms wird Q = 10−3 As. Dies entspricht einer Anzahl von n = Q/e = 10−3 /1, 9 · 10−19 ≈ 5, 3 · 1015 Elektronen. 2. Wieviele Elektronen m¨ussen je Sekunde durch einen Leiter fließen, damit ein Strom von 1 A fließt? I=
n·e ΔQ = , Δt Δt
n=I
Δt 1s = 1A = 6, 25 · 1018 . e 1, 6 · 10−19 As
1.2 Grundlagen der Gleichstromtechnik
5
1.1.3 Wirkungen der Elektrizit¨at Es werden grob vier unterscheidbare Wirkungen erl¨autert:
1. Elektrostatische Wirkungen beruhen darauf, dass elektrisch aufgeladene K o¨ rper Kr¨afte aufeinander auswirken. Eine Anwendung ist z.B. die Abgasreinigung durch Elektrofilter. 2. Thermische Wirkungen entstehen, wenn ein Leiter vom Strom durchflossen wird. Ursache hierf¨ur ist das ”Anstoßen” der Elektronen, die den Stromfluss bilden, an die Atome. Es entstehen Schwingungen der Atome, die zu einer h¨aufig unerw¨unschten Erw¨armung f¨uhrt. Anwendungen hingegen sind z.B. die Elektrische Heizung und Glu¨ hlampen. 3. Magnetische Wirkungen treten immer in der Umgebung von bewegten Ladungen auf. Anwendung hierf¨ur sind alle Arten elektrischer Maschinen. 4. Chemische Wirkungen ver¨andern fl¨ussige Stoffe beim Stromdurchgang. Anwendung findet diese Wirkung bei Akkumulatoren und beim Veredeln von metallischen Oberfl¨achen.
1.2 Grundlagen der Gleichstromtechnik 1.2.1 Der elektrische Stromkreis Der Strom ist nach Gl. (1.5) zu i(t) = d Q/d t definiert. Wenn i(t) = I = konstant ist, so spricht man von Gleichstrom. Beispiel 1.2 Die u¨ ber eine Leitung transportierte Ladung nimmt, wie rechts dargestellt, linear mit der Zeit zu: Q = Q0 + k · t, k = tan(α). Dann ist: i(t) = I =
dQ = k = tan(α). dt
Fließt ein Strom durch einen Leiter mit dem Querschitt A, dann ist: I S= A die Stromdichte. In der Energietechnik sind Werte von 1 A/mm2 bis 100 A/mm2 u¨ blich. Die Nachrichtentechnik verwendet in der Regel sehr viel kleinere Werte.
↑ Q(t) ! !! α ! !
!!
! !!
Q0 !! ! !!
→ t
0 ↑ i(t) k = tan(α) = I
0
→ t
6
1 Grundlagen der Elektrotechnik und Elektronik -I
•
+ R
−
Stromquelle (Generator)
Verbraucher
Man ordnet dem Strom eine Z¨ahlrichtung zu, die der Bewegungsrichtung positiver Ladungstr¨ager entsprechen w¨urde. Diese Z¨ahlrichtung wird durch einen Pfeil gekennzeichnet. Der Strom fließt nur, wenn der Schalter geschlossen ist und dadurch ein geschlossener Stromkreis entsteht.
1.2.2 Spannung und Potential 1 •
I -
+ −
U ? • 2
R
Innerhalb einer Strom- oder Spannungsquelle sind getrennte Ladungen vorhanden, so dass beim Anschluss eines Verbrauchers ein Strom fließen kann. Durch den Stromfluss wird im Verbraucher Energie umgesetzt (z.B. Erw¨armung eines Heizofens). Die Leistung (Energie/Zeiteinheit) ist proportional zur Gro¨ ße des Stromes. Es gilt:
Verbraucher mit nicht bekannten Eigenschaften
P = U · I.
(1.7)
Die Proportionalit¨atskonstante U ist die Spannung zwischen den Klemmen 1-2. Ihr wird ebenfalls eine Richtung von + nach − bei einer Strom- oder Spannungsquelle zugeordnet. Den Str¨omen und Spannungen werden generell Richtungen zugeordnet. Bei dem Verbraucher R hat U und I stets die gleiche Richtung (Verbraucherpfeilsystem). Fu¨ r eine bestimmte Quelle ist P nat¨urlich nicht beliebig groß. Es zeigt sich, dass bei technischen Quellen der Strom I nicht beliebig groß werden kann, ohne dass gleichzeitig die Spannung U kleiner wird. Es ist auch u¨ blich, Punkten in einem Stromkreis (z.B. den Punkten 1 und 2 im Bild oben) Potentiale zuzuordnen. Bei den Potentialen handelt es sich um Spannungen, die so festgelegt werden, dass die Potentialdifferenz der Spannung zwischen den Punkten entspricht.
1.2.3 Elektrischer Widerstand und Leitwert ◦ Um einen Strom durch einen Leiter fließen zu lassen, ist eine gewisse Energie aufzubringen. Diese l¨asst sich physikalisch durch das Vorhandensein eines elektrischen Widerstandes erkl¨aren, den ein Leiter unter normalen Verh¨altnissen dem Stromfluss entgegensetzt.
U ? ◦
I R
1.2 Grundlagen der Gleichstromtechnik
7
Es gilt: I=
1 · U = G · U. R
(1.8)
Hierbei ist R der elektrische Widerstand und G = 1/R der Leitwert. Die Gleichung (1.8) wird in der Elektrotechnik als Ohm’sches Gesetz bezeichnet. Hat ein Verbraucher zwei Klemmen, so spricht man von einem Zweipol oder bisweilen auch von einem Eintor. Der Widerstand wird als ein Zweipolelement bezeichnet. ... ... .. .. . . .. ... ........ ... ........ ... ........ ... . ........ . ........ .. . . . . . . . . . . ........ ... ............................ ........ ... ......... ........ ........ ........ ..... ..... ........ .... ........ ........ . ... . . . . . . . . . . . . .. .. .. .... ............. ... ..... ........ .......... .... ...... .... ........ .... ...... ............ ......... ...... .... . . . . . . . . . . .. ...... ... ............. ...... ................... . ... ...... . . . . . . . . ...... ..... ......... .. . . . . . . ....... . . . ..... ........... .. . ........ . . . . . . . . ..... ........... ..... ............ . . . ... . ....................... . . . . . .. ................................ . . .. ........................
↑i
b
i ........................ ◦..→ ... .
a
. ................... ... ... ... ... ... ... . ... .................. .... . . ........................
u↓
◦
Kurve a: Linearer Zusammenhang von i und u: i = k · u, k = G, I = G · U. Die Steigung der Geraden entspricht dem Leitwert.
c
→u
Abbildung 1.1: Zusammenhang Strom–Spannung
Kurven b und c: Kein linearer Zusammenhang zwischen Strom und Spannung.
In den F¨allen b und c kann man einen differentiellen Leitwert bzw. differentiellen Widerstand definieren: Δi du di ≈ , r= . (1.9) g= du Δu di Bei dem Zusammenhang nach Kurve b ist der differentielle Leitwert stets positiv. Beim Verlauf nach Kurve c gibt es auch Bereiche mit g = d i/d u < 0 (negativer Leitwert, Widerstand). Leitwert und Widerstand von Leitungen (Dra¨ hten): ρ: spezifischer Widerstand in Ω mm2 /m, κ = 1/ρ: spezifischer Leitwert. Dann hat ein Draht mit dem Querschnitt A und der L¨ange l einen Widerstand: R=ρ·
1 l l = · . A κ A
(1.10)
Beispiel 1.3 Ein 100 m langer Kupferdraht mit einem Querschnitt von 1, 5 mm2 , einem spezifischen Widerstand ρ = 0, 017 Ω mm2 /m hat gem¨aß der oben angegebenen Gleichung einen Widerstand von R = 0, 017 · 100/1, 5 = 1, 133 Ω. Wie in Gleichung (1.4) ausgef u¨ hrt wurde, ist der Widerstand temperaturabh¨angig und nimmt mit steigender Temperatur zu.
1.2.4 Die Kirchhoff’schen S¨atze Die Knotengleichung Das 1. Gesetz von Kirchhoff ist die Knotengleichung:
8
1 Grundlagen der Elektrotechnik und Elektronik abfließende ] JJ Str¨ome 3 I3 J J J h k 3Q Q Q I1 Q Q I2 zufließende Str¨ome I4
Die Summe der auf einen Knoten zufließenden Stro¨ me ist gleich der Summe der abfließenden Str¨ome:
Izu =
Iab , oder
n
Iν = 0.
(1.11)
ν=1
hier: I1 + I2 = I3 + I4 oder +I1 + I2 − I3 − I4 = 0.
Bei Beachtung der Vorzeichen der Stro¨ me, ist die Summe aller auf einen Knoten zufließenden (oder auch aller abfließenden) Str¨ome Null. Im obigen Beispiel wurden die zufließenden Stro¨ me I1 und I2 positiv und die abfließenden I3 und I4 negativ angenommen. Man kann aber auch die abfließenden Str¨ome positiv und die zufließenden negativ ansetzen. Dies bedeutet lediglich eine Multiplikation auf beiden Seiten der Knotengleichung mit dem Faktor −1. Beispiel 1.4 Das nachstehende Bild zeigt links ein Netzwerk mit insgesamt vier Knoten K 1 bis K4 . Im rechten Bildteil ist der sogenannte Graph des Netzwerkes, mit allen eingetragenen Str o¨ men und Knoten skizziert. Aus einem Netzwerk erh¨alt man den Graphen, wenn die Knoten markiert werden und zwischen den Knoten, die im Netzwerk bestehenden Verbindungsstrecken eingetragen werden. K1 R7 R1
R3
? I3
R4
I5
K2 •
• K3
R2
U0
+
?
& I2
•
K4
Knoten 1: Knoten 2: Knoten 3: Knoten 4:
• K3
I 6
I4 6
−
R6
Zur Aufstellung der vier Knotengleichungen nach Gl. (1.11) werden die auf Knoten zufließenden Str¨ome positiv und abfließende negativ angesetzt. Dann erh¨alt man die nebenstehenden Knotengleichungen.
$
•
R
R5 K2 •
K1
' I1
•
+I
−I
−I1 +I1
%
•
K4
−I3 +I2 −I2
+I3
+I4 −I4
−I5 +I5
=0 =0 =0 =0
In den Spalten des Gleichungssystems tritt jeder Strom einmal positiv und einmal negativ auf. Daher kann die Gleichung f¨ur den Knoten vier ohne Kenntnis des Netzwerkes ermittelt werden. Die 4. Knotengleichung ergibt sich aus den drei anderen durch Addition und ist somit linear von den anderen abh¨angig.
1.2 Grundlagen der Gleichstromtechnik
9
Das Ergebnis l¨asst sich zu der folgenden Aussage verallgemeinern: Satz: Bei einem Netzwerk mit k Knoten gibt es nur k−1 linear unabh¨angige Knotengleichungen. Die k-te Gleichung liefert keine neue Aussage, sie kann aus den anderen Gleichungen berechnet werden. K1
Beispiel 1.5
K1 : I1 − I2 + I3 = 0,
$
•
Gesucht ist der Graph eines Netzwerkes mit seinen Stro¨ men. Das Netzwerk hat die Knoten K1 , K2 und K3 . Gegeben sind die beiden Gleichungen:
I3
I2 ?
I1 6
K2 : − I3 + I4 − I5 = 0.
Damit jeder Strom genau einmal zufließend und abfließend auftritt, muss die 3. Gleichung −I1 + I2 − I4 + I5 = 0 lauten. Der sich ergebende Graph ist rechts dargestellt.
I4
K2 •
& I5
•
K3
%
%
Die Maschengleichung Das 2. Kirchhoff’sche Gesetz ist die Maschengleichung. Als Masche bezeichnet man einen geschlossenen Weg in einem Netzwerk (siehe das folgende Beispiel). Einer Masche wird eine (beliebige) Z¨ahlrichtung zugeordnet. Die Summe aller in einer Masche wirkenden Quellenspannungen ist gleich der Summe der verursachten Spannungsabf¨alle an den Verbrauchern: n
Uν = 0
Vorzeichen beachten!
(1.12)
ν=1
Beispiel 1.6 F¨ur die rechtsstehende Schaltung gilt die Maschengleichung: −U0 − Ui + U3 + U4 = 0. Die Richtungen f¨ur die Spannungen an den Widerst¨anden kann man beliebig w¨ahlen. Bei der hier gew¨ahlten Richtung f¨ur z.B. die Spannung Ui ergibt sich f¨ur Ui ein negativer Zahlenwert, weil der Strom I in genau umgekehrter Richtung durch den Widerstand fließt. In einem Netzwerk kann es unter Umst¨anden eine sehr große Anzahl von Maschen geben, mindestens aber eine Masche.
K1 aa • R3 K3
U ?3 •
R4 • !! K4
Ri U ?i I 6 6
U U ?4 − ?0
10
1 Grundlagen der Elektrotechnik und Elektronik
1.2.5 Die Zusammenschaltung von Widersta¨ nden Die Reihenschaltung In der rechtsstehenden Schaltung gilt die Maschengleichung:
U1 -
U2 -
U3 -
R1
R2
R3
I +
U1 + U2 + U3 − U0 = 0. Wird Ui durch das Ohm’sche Gesetz Ui = Ri · I ersetzt, so erh¨alt man: I · (R1 + R2 + R3 ) = U0 . Ein Vergleich mit I · Rges = U0 zeigt, dass gilt: Rges = R1 + R2 + R3 .
−
Rges − I + U0
Allgemein gilt f¨ur die Reihenschaltung Rges = R1 + R2 + R3 + . . . Rn .
U0 -
(1.13)
Die Parallelschaltung In der rechtsstehenden Schaltung gilt die Knotengleichung: I1 + I2 + I3 − I = 0, Wird Ii durch das Ohm’sche Gesetz Ii = Gi · U0 , ersetzt, so erh¨alt man: U0 · (G1 + G2 + G3 ) = I. Ein Vergleich mit: U0 · Gges = I, zeigt, dass gilt: Gges = G1 + G2 + G3 .
1 1 + = R1 R2 1 R1 + R 2 = . (1.15) R1 · R 2 Rges
= G1 + G2 = =
G2 G3
Q Q
Q Q•
U0 −
(1.14)
F¨ur zwei parallele Widerst¨ande gilt:
Gges
I -2 • Q Q Q I3 Q-
G1
I +
Allgemein gilt f¨ur die Parallelschaltung: Gges = G1 + G2 + G3 + . . . Gn .
I -1
Gges − I + U0
Die Parallelschaltung hat entgegen der Reihenschaltung die Eigenschaft, dass alle Widerst¨ande an der gleichen Spannung liegen. Einzelne, parallelgeschaltete Widerst¨ande k¨onnen zu- oder angeschaltet werden, ohne dass sich an den anderen etwas a¨ ndert. Bei der Reihenschaltung ist dies ¨ anders. Die Uberbr¨ uckung eines Widerstandes ver¨andert den Strom und die Spannungsabf¨alle an allen anderen Widerst¨anden in der Reihenschaltung. Verbraucher sind daher meistens fu¨ r eine feste Betriebsspannung dimensioniert und werden parallel geschaltet.
1.2 Grundlagen der Gleichstromtechnik
11
1.2.6 Zweipolquellen
Die Leerlaufspannung ist die im nicht belasteten Zustand gemessenen Spannung. Belastet man eine Spannungsquelle mit einem variablen Widerstand R, so stellt man fest, dass die Klemmenspannung mit zunehmendem Strom abnimmt.
+ −
Wie rechts dargestellt, wird die reale Spannungsquelle in eine ideale Spannungsquelle mit der belastungsunabh¨angigen Spannung U0 und einen Innenwiderstand Ri aufgeteilt. Der Innenwiderstand bewirkt eine Abnahme der Klemmenspannung U bei einer Belastung der Spannungsquelle: U0 , R + Ri
U = I · R = U0 ·
Fall R = 0: U = 0, I = Imax = Ik = U0 /Ri ist der maximale Strom, der Kurzschlussstrom. Fall R = ∞: I = 0, U = U0 ist die maximale Spannung, die Leerlaufspannung. Diese Zusammenh¨ange sind rechts im Bild dargestellt.
R , R + Ri
* R
U ? •
Dieses Verhalten l¨asst sich so erkl¨aren, dass die Spannungsquelle einen inneren Widerstand Ri hat.
I=
I -
•
Die Spannungsquelle
U 0 ?
I •-
Ri
> U R ? •
U = U0 − I · R i .
(1.16)
↑U (R=∞)
U0 H
H
6 IRi (innerer Spannungsabfall) H? H 6 HH HH HH U HH HH (R=0) H ? I IK → I
HH
0
Eine Spannungsquelle heißt linear, wenn U0 und Ri konstant sind, so dass zwischen der Klemmenspannung und dem Strom der im obigen Bild dargestellte lineare Zusammenhang besteht: U = U0 − I · R i .
(1.17)
Dieser lineare Zusammenhang besteht bei realen Spannungsquellen allenfalls innerhalb eines zul¨assigen Belastungsbereiches. Ein Versuch, den Kurzschlussstrom Ik durch Kurzschließen der Klemmen zu erzeugen, wird in den meisten F¨allen zur Zerst¨orung der Energiequelle f¨uhren. Die Stromquelle
•
Eine Energiequelle kann auch als Stromquelle aufgefasst werden, zu der parallel ein innerer Leitwert Gi geschaltet ist. Die Stromquelle liefert einen belastungsunabh¨angigen Urstrom I0 . Knotengleichung: I = I0 − Ii , Ohm’sches Gesetz: Ii = Gi · U , I = I0 − Gi · U , U=
I0 I − = I0 · Ri − I · R i Gi Gi
mit Ri =
1 . Gi
(1.18)
Ii ? I0 6 G i
•
-I
U
3 ? G
12
1 Grundlagen der Elektrotechnik und Elektronik
Ein Vergleich mit der oben abgeleiteten Beziehung (1.17): U = U0 −IRi bei der Spannungsquelle zeigt, dass sich beide ineinander umrechnen lassen, es gilt: U0 = I0 · Ri ,
Gi =
1 . Ri
(1.19)
Zusammenfassung: Eine Energiequelle kann intern als Spannungs- oder Stromquelle aufgefasst werden. Die Wirkungen an den Klemmen sind identisch. Beschreibungsgro¨ ßen sind der Kurzschlussstrom, die Leerlaufspannung und der Innenwiderstand. Physikalisch ist oft die Beschreibung als Spannungsquelle sinnvoller, denn beim Modell als Stromquelle wird im belastungsfreien Fall intern st¨andig die Leistung Pi = I02 · Ri verbraucht, damit die Leerlaufspannung U0 = I0 · Ri aufrecht erhalten werden kann. F¨ur einen Akkumulator w¨are dies ein ungeeignetes physikalisches Modell, da er sich ”intern” st¨andig entladen w¨urde. Beispiel 1.7 Zuerst wird eine Spannungsquelle mit: U0 = 5V und Ri = 2Ω in eine Stromquelle mittels (1.19) umgerechnet. Danach wird eine Stromquelle mit: I0 = 100A und Ri = 0.2Ω in eine Spannungsquelle umgerechnet. •
2Ω
•
2,5A
6
5V ?
U ⇔ ?
100A 6
2Ω
U
0,2 Ω
? •
0, 2 Ω 20 V U ⇔ ? ?
U ?
•
U0 = 5 V, IK = I0 = 2, 5 A
IK = I0 = 100 A, U0 = 20 V
Zusammenschaltung von Energiequellen Zun¨achst wird die Reihenschaltung von Spannungsquellen behandelt. U 01
U0 =U01 +U02
U02
Ri1
Ri =Ri
Ri2
1
U0 = U01 + U02 + . . . + U0n ,
+Ri2
Ri = Ri1 + Ri2 + . . . + Rin .
(1.20)
Die Leerlaufspannungen und die Innenwiderst¨ande addieren sich. Bei Reihenschaltungen von Energiequellen w¨ahlt man stets das Modell mit den Spannungsquellen! Fu¨ r die Parallelschaltung von zwei Stromquellen gilt: •
I0 Gi
= I 01 = Gi1
+ I 02 , + Gi2 .
I 601 n
•
•
I 602 n Gi1 •
I0 = I01 + I02 + . . . + I0n ,
U Gi2
•
•
•
?
I0 6 n
U Gi
?
•
Gi = Gi1 + Gi2 + . . . + Gin .
(1.21)
1.3 Leistung und Arbeit bei Gleichstrom
13
Die Gleichung (1.21) beschreibt den allgemeinen Zusammenhang f u¨ r n Quellen. Die Kurzschlussstr¨ome und die Innenleitwerte addieren sich. Bei Parallelschaltungen von Energiequellen w¨ahlt man stets das Modell mit den Stromquellen. Beispiel 1.8 Das nachstehende Bild zeigt links die Zusammenschaltung von drei Energiequellen. Gesucht wird eine Ersatzspannungsquelle mit ihrer Leerlaufspannung und ihrem Innenwiderstand. •
U01 R1 U02 R2
•
U01 +U02 R1 +R2
U03 R3 •
U03 R3
U0 =I0 ·Rges Rges
•
Zun¨achst, siehe Bild Mitte, werden die beiden in Reihe geschalteten Quellen zu einer Quelle mit der Leerlaufspannung U01 +U02 und dem Innenwiderstand R1 +R2 zusammengefasst. Die beiden nun parallelgeschalteten Quellen werden durch Stromquellen mit den Kenngr o¨ ßen: I01,2 =
U01 + U02 , R1 + R 2
G1,2 =
1 R1 + R 2
und I03 =
U03 , R3
G3 =
1 , R3
beschrieben. Die Gesamtquelle hat die Werte: Gges = G1,2 + G3 =
1 1 + , R1 + R 2 R3
I0ges = I01,2 + I03 =
Rges =
U01 + U02 U0 + 3, R1 + R 2 R3
1 (R1 + R2 ) · R3 = , Gges R1 + R 2 + R 3 U0ges = I0ges · Rges .
1.3 Leistung und Arbeit bei Gleichstrom Elektrische Leistung bei Gleichstrom ist definiert als: P = U · I = I2 · R =
U2 [Watt]. R
-I (1.22)
Bei einem Verbraucher ist PV ≥ 0, wenn das Verbraucherpfeilsystem angewandt wird. Bei einem Energieerzeuger (Quelle) ist entsprechend PQ ≤ 0, hier haben U0 = −U und I eine unterschiedliche Richtung. Die w¨ahrend einer Zeit T umgesetzte Energie ist: W = P · T = U · I · T [WS], [Joule].
+ U0
R U ? I
I 6
?−
PQ = U0 · I < 0,
R
U ?
PV = U · I > 0
Das Joul’sche Gesetz sagt aus, dass die in einem Widerstand verbrauchte Leistung restlos in W¨arme umgesetzt wird. Die fr¨uhere Einheit der Energie ist: cal (1 kWh = 860 kcal, 1 Ws =0,24 cal).
14
1 Grundlagen der Elektrotechnik und Elektronik
Beispiel 1.9 Eine nicht fest eingeschraubte Sicherung hat einen Widerstand von 1 Ohm. St u¨ ndlich entsteht dann bei einem Strom von 20 A eine Wa¨ rmemenge: P = I 2 · R, W = I 2 · R · T = 400 A2 · 1 Ω · 3600 s = 1, 44 · 106 W s = 0, 4 kW h. Die leistungsm¨aßige Belastbarkeit eines Widerstandes von 1 kΩ betra¨ gt 12 W. Damit ist der maximal zul¨assige Strom durch diesen Widerstand begrenzt: P 12W 2 P = I R, = = 109, 5 mA. I= R 1000Ω
1.3.1 Der Wirkungsgrad Die in einem Widerstand verbrauchte Leistung wird vollst¨andig in W¨arme umgesetzt. Bei einem Heizofen ist dies erw¨unscht, es erfolgt eine 100%-tige Ausnutzung der zugefu¨ hrten Energie. Ganz andere Verh¨altnisse liegen bei einem Motor vor. Die elektrische Energie kann nicht vollst¨andig in mechanische Energie umgesetzt werden. Gru¨ nde hierf¨ur sind W¨armeentwicklung in den Wicklungen und auch mechanische Reibungsverluste. Der Wirkungsgrad ist wie folgt definiert: η=
Pab Pab = , Pauf Pab + Pv
Pv ist die Verlustleistung.
(1.23)
Ein Wirkungsgrad η = 0, 9 bedeutet, dass 90% der aufgenommenen Leistung in der gew u¨ nschten Form abgegeben wird, 10% sind Verlust. In der Energietechnik kommt es darauf an, η m o¨ glichst groß zu machen. Bei einem Transformator mit 10 MW und einem Wirkungsgrad von 0,99 entstehen immerhin noch 0,1 MW = 100 kW Verlustleistung. In der Nachrichtentechnik ist der Wirkungsgrad meist weniger wichtig, da hier die Informations¨ubertragung im Vordergrund steht und oft auch nur mit kleinen Leistungen gearbeitet wird.
1.3.2 Die Leistungsanpassung Dieser Abschnitt versucht, die nachstehenden Fragen zu beantworten. Welche Leistung wird in dem Verbraucherwiderstand R verbraucht? Wie groß ist der Wirkungsgrad? Welche maximale Leistung kann in R verbraucht werden? Zuerst werden einige Sonderf¨alle betrachtet:
U 0 ?
Ri
1. Sonderfall: R = 0 Dies f¨uhrt zu U = 0, Pab = 0 und dem Wirkungsgrad η = 0. 2. Sonderfall: R Ri I=
U0 U0 , ≈ R + Ri R
Pab = I 2 R =
U02 U2 ·R≈ 0. 2 (R + Ri ) R
I •> U R ? •
1.4 Die Berechnung einfacher Gleichstromkreise
15
Verlustleistung:
Pv
= I 2 Ri
≈
Gesamtleistung:
Pauf
= Pab + Pv
≈
η
=
Pab Pauf
≈
Wirkungsgrad:
U02 Ri , R2
2 U2 U0 U2 Ri + 02 Ri = 0 1 + , R R R R 1 → 1, wenn Ri R. 1 + Ri /R
Dieser Fall Ri R ist in der Energietechnik wichtig. 3. Sonderfall: R = Ri U02 U02 , Pv = I 2 · R i = , 4Ri 4Ri 2 U η = 0, 5. Pauf = Pab + Pv = 2 0 , 4Ri Bei welchem Wert von R tritt ein Maximalwert der abgegebenen Leistung auf? Es gilt: I =
U0 , 2Ri
Pab
= I 2 · Ri
I=
U0 , R + Ri
=
P = I 2R =
U02 R . (R + Ri )2
Ableitung nach R mit der Quotientenregel ((u/v) = (u v − uv )/v 2 ): dP (R + Ri )2 − R · 2(R + Ri ) (R + Ri ) − 2R = U02 · = U02 · . dR (R + Ri )4 (R + Ri )3 dP U2 = 0 bei R = Ri , Pmax = 0 . dR 4Ri Die Quelle liefert eine maximale Leistung im Fall R = Ri , man spricht von einer Leistungsanpassung. ↑P
Dieser Fall ist in der Nachrichtentechnik sehr bedeutend. Der kleine Wirkungsgrad η = 0, 5 ist nicht so wichtig, es kommt darauf an, m¨oglichst viel Leistung zu u¨ bertragen. In dem nebenstehenden Bild ist der Verlauf der abgegebenen Leistung in Abh¨angigkeit von dem Verbraucherwiderstand aufgetragen.
U02 .... .... ............... .. . .. 4Ri .... .... ........... ...... .. .. ...... ... .... ....... . ....... ........ ... ... ......... .. .. ........... .. ............. ... .. ............... .. ... .................. .. ....................... .. ........ .. ... .. .. .. .. .. . ... .. .. ..
0 Ri
→R
1.4 Die Berechnung einfacher Gleichstromkreise 1.4.1 Messung von Strom und Spannung Eine h¨aufige Aufgabe besteht darin, Strom und Spannung an einem Widerstand R zu messen, um entsprechend dem Ohm’schen Gesetz, den Wert des Widerstandes R = U/I zu bestimmen. Grunds¨atzlich wird zwischen strom- und spannungsgenauer Messung unterschieden.
16
1 Grundlagen der Elektrotechnik und Elektronik
Spannungsgenaue Messanordnung: -I • A R
U ?
-I
RA
RA ˜ R R
V
•
-I
•
U ?
RV
U
?
˜ R
•
Aus dem linken Bild ist die Anordnung der Messger¨ate erkennbar. Das rechte Bild zeigt die Schaltung, wenn die Messger¨ate durch ihre Widerst¨ande RA und RV ersetzt werden. Innnenwiderst¨ande von Strommessern sind i.A. sehr klein, Innenwiderst¨ande von Spannungsmessern hingegen sehr groß. Man erkennt, dass die Spannung mit der vorliegenden Messschaltung korrekt gemessen wird. Der Strom I ist aber fehlerhaft. I ist n¨amlich nicht der eigentlich gesuchte Strom durch den Widerstand R, hinzu kommt ein (kleiner) Strom IV durch das Spannungsmessger¨at. Diese Messung des Widerstandes liefert: ˜ = U = R RV , R I R + RV
˜ ≈ R, wenn RV >> R. R
(1.24)
Wie erw¨ahnt, ist bei Spannungsmessger¨aten der Innenwiderstand RV i.A. sehr groß, dies gilt insbesonders f¨ur digital anzeigende elektronische Messger¨ate. Stromgenaue Messanordnung: I •A U V ?
R
•
•
U
-I RV
?
•
RA ˜ R
R
U
•
-I RV
?
˜ R
•
Bei dieser Messanordnung wird der Strom I genau gemessen, w¨ahrend die Spannung um den Anteil des Spannungsanteils am Strommesser falsch ermittelt wird. Die Messung liefert: ˜ = U = R + RA , R I
˜ = R, wenn RA . R
Besonders bei elektronischen Strommessern ist der Innenwiderstand RA außerordentlich klein.
1.4.2 Der Spannungsteiler
Wird eine kleinere als die vorhandenen Spannung beno¨ tigt, so kann ein Spannungsteiler verwendet werden.
1.4 Die Berechnung einfacher Gleichstromkreise
17
Die Anordnung rechts hat die Funktion eines Spannungsteilers. Man erh¨alt die Beziehungen:
U1
R1 . (1.25) R1 + R 2
R1
I=
U , R1 + R 2
U1 = R 1 · I = U
Die Beziehung ganz rechts wird Spannungsteilerregel genannt. Die abgeteilte Spannung U1 ist proportional dem Verh¨altnis von R1 zum Gesamtwiderstand R = R1 + R 2 .
R2
?
•
R U
I 6
Die oben angegebene Spannungsteilerregel gilt nur im unbelasteten Zustand. Rechts sind die Verh¨altnisse an einem mit einem variablen Widerstand Rx belasteten Spannungsteiler dargestellt. Die Schal¨ tung des Spannungsteilers entspricht im Ubrigen (bis auf den Belastungswiderstand) der Schaltung oben. Die am Spannungsteiler abgegriffene Spannung ist belastungsabh¨angig, d.h. abh¨angig vom Wert Rx . F¨ur Rx → ∞ erh¨alt man aus dem rechten Ausdruck, die oben abgeleitete Beziehung f¨ur den unbelasteten Spannungsteiler.
-
R2 U
•
* U1 R x ?
R1 ? •
U1 = U
R1 Rx R1 +Rx Rx R2 + (RR11+R x)
= U
R1 Rx R1 = U . R1 Rx + R 2 Rx + R 1 R2 (R1 + R2 ) + R1 R2 /Rx
Beispiel 1.10 Ein Spannungsteiler mit den beiden gleichen Widersta¨ nden R1 = R2 = 40 kΩ liegt an einer Spannung von 400 V. Wie groß ist die Spannung U1 im unbelasteten Fall, bei einem Lastwiderstand von Rx = 1 M Ω und einem Lastwiderstand von Rx = 10 kΩ? Mit der oben angegebenen Gleichung erh¨alt man im unbelasteten Fall (Rx = ∞) die Spannung U1 = 200 V, bei Rx = 1 M Ω die Spannung U1 = 40/81, 6 · 400 = 196, 1 V und bei Rx = 10 kΩ die Spannung U1 = 1/6 · 400 = 66, 7 V.
1.4.3 Die Stromteilung Zur einer notwendigen Aufteilung eines Stromes verwendet man eine Parallelschaltung von Leitwerten bzw. Widerst¨anden. Es gilt: I -1 U · G1 = I1 , U · G2 = I2 , U · (G1 + G2 ) = I1 + I2 = I, A U = I/(G1 +G2 ). Aus diesen Gleichungen erh¨alt man: G1 A -I • A• U G1 R2 A I1 = I = I , G2 A I G1 + G2 R1 + R 2 A-2 G2 R1 I2 = I = I . G1 + G2 R1 + R 2 Diese Beziehungen lassen sich auch auf eine Parallelschaltung von n Leitwerten erweitern, dann gilt: Gν . (1.26) Iν = I · G1 + G2 + . . . Gn
18
1 Grundlagen der Elektrotechnik und Elektronik
Beispiel 1.11 Ein Strom von 1 A soll in zwei Str¨ome von 1/3 A und 2/3 A aufgeteilt werden. Die Widerst¨ande in der Stromteilerschaltung sollen m¨oglichst groß werden, allerdings darf die maximal auftretende Spannung nur 10 V betragen. Aus I = U · G = I(G1 + G2 ) = 1 A erh¨alt man bei U = 10 V einen Gesamtleitwert von = 0, 1 Ω−1 . Aus der geforderten Stromteilung folgt G1 /G = 1/3, also G1 = 1/30 Ω−1 und entsprechend G2 = 2/30 Ω−1 . Es m¨ussen also die Widerst¨ande R1 = 30 Ω und R2 = 15 Ω parallelgeschaltet werden.
¨ 1.4.4 Die Wheatstone’sche Brucke Br¨uckenschaltungen kommen in der Elektrotechnik in vielfacher Art vor. Die Wheatstonebr u¨ cke ist die Grundform. Man nennt die Br¨ucke abgeglichen, wenn der ”Br¨uckenstrom” I0 = 0 ist. In diesem Fall tritt zwischen den Punkten 1 und 2 keine Spannung auf, so dass dann an die Stelle von R0 eine Kurzschlussverbindung treten kann. Bei I0 = 0 k¨onnen folgende Maschengleichungen aufgestellt werden. I1 · R1 − I3 · R3 = 0, I2 · R2 − I4 · R4 = 0. Da I0 = 0 ist, gilt außerdem I1 = I2 und I3 = I4 . Aus diesen Beziehungen folgt I3 /I1 = R1 /R3 und I3 /I1 = R2 /R4 und schließlich die Br¨uckengleichung:
I1
1 •-
R1 -
I2 ? I0
R2 -
R0
R1 R2 R1 R3 = , oder = . R3 R4 R2 R4
Ist diese Widerstandsbedingung erf¨ullt, dann ist die Br¨ucke abgeglichen und durch den ”Br¨uckenzweig R0 ” fließt kein Strom. Eine wichtige Anwendung der Wheatstone’schen Br¨ucke ist die genaue Messung von Widerst¨anden.
•-
I3
R3 I
•2 I 4
•
R4
U-
Wenn z.B. der Widerstandswert von R1 = Rx nicht bekannt ist und der Widerstand R3 durch einen einstellbaren Pr¨azisionswiderstand ersetzt wird, so kann Rx ermittelt werden. Die Widerst¨ande R2 und R4 haben feste bekannte Werte. An die Stelle von R0 tritt ein empfindliches Strom- oder Spannungsmessger¨at. Der Widerstand R3 wird solange ver¨andert, bis die Br¨ucke abgeglichen ist, also das Messger¨at nichts mehr anzeigt. Dann erh¨alt man aus der oben angegebenen Br¨uckengleichung den unbekannten Widerstandswert: Rx =
R2 · R3 R4
.
1.4.5 Die Stern-Dreieck-Transformation Die unten links skizzierte Schaltung mit den Widerst¨anden R12 , R13 und R23 wird gem¨aß ihrer Geometrie als Dreiecksschaltung bezeichnet. Die Schaltung rechts mit den Widerst¨anden R1 , R2 und R3 heißt Sternschaltung.
1.4 Die Berechnung einfacher Gleichstromkreise
19
1. .... ..• ... ... ..... ..... ... ... ... . ... ... ............ ............. ... ... ... ... ... ... R12 ....... ..... R13 ................. . ... .... .. ... . ... ... ... ..... ... ... R ... 23 ... ............................ .... . 2 •.................................................................................................................• 3
Wenn die Widerst¨ande der Sternschaltung gegeben sind, kann man die Widerst¨ande der Dreieckschaltung so festlegen, dass zwischen den a¨ ußeren Klemmen 1-2-3 jeweils gleichgroße Widerst¨ande gemessen werden.
1 •... ... .. ............... ... .... .. .. R 1 . . ............. .. ... . ..... . ...... ...... R2 ............................... ...............................R 3 ... ...... ....... ..... ..... ....... .............. ....... ........ 2 • • 3
Man spricht von einer Stern-Dreieck-Umwandlung. Bei gegebenen Widerstandswerten der Dreieckschaltung lassen sich die Widerst¨ande der Sternschaltung ebenfalls so ermitteln, dass zwischen den Punkten 1-2-3 gleiche Widerstandswerte gemessen werden. Dies w¨are dann die DreieckStern-Umwandlung. Ausgangspunkt zur Ermittlung der Umwandlungsgleichungen sind die drei Beziehungen: R1 + R 2 =
R12 (R13 + R23 ) R13 (R12 + R23 ) R23 (R12 + R13 ) , R1 + R 3 = , R2 + R 3 = . R12 + R13 + R23 R12 + R13 + R23 R12 + R13 + R23
Die 1. Gleichung gibt f¨ur beide Schaltungen die Widerstandswerte zwischen den Punkten 1 und 2 an, die 2. Gleichung die zwischen den Punkten 1 und 3 und schließlich die 3. Gleichung die Widerstandswerte zwischen den Klemmen 2 und 3. Nach einigen Umformungen erh¨alt man schließlich die Umwandlungsbeziehungen: R1 = R12 =
R12 R13 R12 +R13 +R23 ,
R1 R2 +R1 R3 +R2 R3 , R3
R2 =
R13 =
R12 R23 R12 +R13 +R23 ,
R3 =
R1 R2 +R1 R3 +R2 R3 , R2
R13 R23 R12 +R13 +R23 ,
R23 =
R1 R2 +R1 R3 +R2 R3 . R1
Beispiel 1.12 Der Eingangswiderstand R bei der Schaltung ganz links im Bild soll berechnet werden. 1
2
• R1 (1 Ω)
R2 (2 Ω)
1 B B
•
R0 (5 Ω)
R12 (17/5 Ω)
B R13 B
(17/2 Ω)
•
2•
R23 (17 Ω) •
•
R3 (3 Ω)
3 R 6
• R4 (4 Ω)
•
•
R3 (3 Ω)
3 R 6
17/5 Ω 17/2 Ω •
17 Ω • •
•
•
• R4 (4 Ω)
3Ω
4 Ω)
R 6
Zun¨achst wird festgestellt, dass die Br¨ucke (Br¨uckenwiderstand R0 = 5 Ω) nicht abgeglichen ist. Damit kann R0 nicht u¨ berbr¨uckt werden und die Berechnung des Eingangswiderstandes R ist mit den bisher behandelten Methoden (Reihen- und Parallelschaltung) nicht m o¨ glich. Die Umwandlung der zwischen den Punkten 1-2-3 aufgespannten Sternschaltung in eine Dreieckschaltung ergibt die Schaltung in der Bildmitte bzw. die ganz rechts gezeichnete Schaltung mit dem Eingangswiderstand R = 2, 095 Ω.
20
1 Grundlagen der Elektrotechnik und Elektronik
¨ Gleichstromnetzwerke 1.4.6 Analysemethoden fur Unter der Analyse eines Netzwerkes versteht man die Berechnung aller im Netzwerk vorkommenden Spannungen und Str¨ome. Grundlage f¨ur die Analyse sind die Kirchhoff’schen Gleichungen und das Ohm’sche Gesetz. Das Problem bei der Analyse liegt nicht so sehr darin, Knoten- und Maschengleichungen aufzustellen, sondern vielmehr darin ein Gleichungssystem mit linear unabh¨angigen Gleichungen zu gewinnen. Zur Aufstellung solcher Gleichungssysteme existieren im Wesentlichen zwei Verfahren. Die Knotenpunktanalyse beno¨ tigt bei einem Netzwerk mit k Knoten genau k − 1 Gleichungen. Daneben gibt es noch die sogenannte Maschenanalyse, die von Maschengleichungen ausgeht. Im Rahmen dieses Buches werden die allgemeinen Verfahren nicht ¨ besprochen. Wir beschr¨anken uns hier auf die Behandlung des Uberlagerungssatzes und des Satzes von der Ersatzspannungsquelle.
¨ Der Uberlagerungssatz Bei Netzwerken mit mehr als einer Energiequelle (Strom- oder Spannungsquelle) vereinfacht sich ¨ die Berechnung von Str¨omen und Spannungen in dem Netzwerk, wenn der Uberlagerungssatz an¨ gewandt wird. Die Anwendbarkeit des Uberlagerungssatzes begr¨undet sich durch die Linearit¨at ¨ der Netzwerke. Auf eine genauere Begr¨undung wird allerdings verzichtet. Wir wollen den Uberlagerungssatz an einem Beispiel kennenlernen. Gegeben ist das rechts skizzierte Netzwerk mit einer Spannungs- und einer Stromquelle. Gesucht wird der in der Schaltung eingezeichnete Strom: I = I 1 + I2 , ¨ durch Uberlagerung von I1 und I2 .
•
R n U0 ?
I
•
R
R
R
•
I 60 n
•
1. Schritt: Die Stromquelle in dem Netzwerk wird entfernt, d.h. es wird I0 = 0 gesetzt. Wenn eine Stromquelle den Strom I0 = 0 liefert, kann sie offensichtlich auch weggelassen werden. Im 1. Schritt erhalten wir damit die unten dargestellte einfachere Schaltung, die nur noch eine Spannungsquelle enth¨alt. Der zu berechnende Strom wird nun mit I1 bezeichnet. Mit dem von der Spannungsquelle aus gesehenen Gesamtwiderstand: Rges
5 R · 2R = R, =R+ R + 2R 3
erh¨alt man nach dem Stromteilungssatz: I1 = Iges
1 U0 R U0 = . = 3R 3 Rges 5R
R
Iges
•
n U0 ?
I1 R
R R
•
2. Schritt: Die Spannungsquelle in dem Netzwerk wird kurzgeschlossen, d.h. es wird U 0 = 0 gesetzt. Wenn eine Spannungsquelle die Spannung U0 = 0 hat, dann bedeutet dies ein Kurzschluss zwischen den Anschlussklemmen der Spannungsquelle. Im 2. Schritt erhalten wir damit die unten rechts dargestellte einfachere Schaltung mit nur noch der Stromquelle. Der zu berechnende Strom wird jetzt mit I2 bezeichnet.
1.4 Die Berechnung einfacher Gleichstromkreise
21 •
Nach dem Stromteilungssatz erh¨alt man, wenn die Stromrichtung von I2 beachtet wird I2 = −I0
R
I2
•
R
2 R = − I0 . R + 1, 5R 5
I 60 n
R R
•
•
Gesamtl¨osung: I = I 1 + I2 =
2 U0 − I0 . 5R 5
Schlussfolgerung und Verallgemeinerung: Wird ein Netzwerk durch mehrere Energiequellen gespeist, so kann die Berechnung eines Stromes oder einer Spannung in dem Netzwerk folgendermaßen erfolgen: 1. Nacheinander werden alle Quellen - bis auf eine - ”weggenommen”. Der Strom oder die Spannung, die die verbleibende Quelle hervoruft, wird berechnet. 2. Die nach Punkt 1 berechneten Str¨ome bzw. Spannungen werden addiert (¨uberlagert). Bei den Energiequellen soll es sich um Zweipolquellen handeln, wie sie im Abschnitt 1.2.6 eingef¨uhrt worden sind. Die Wegnahme von Energiequellen bedeutet den Kurzschluss der Spannungsquellen oder die Entfernung der Stromquellen. ¨ Die Anwendung des Uberlagerungssatzes kann bei Netzwerken, die von mehreren Energiequellen gespeist werden, zu einer einfacheren Berechnung fu¨ hren.
¨ Beispiel 1.13 Bei der unten links skizzierten Schaltung soll der Strom I mit Hilfe des Uberlagerungssatzes berechnet werden. R3 •
•
•
I ? U U U 01 02 03 ? ? ? U R R2
R1 •
R3 •
?
•
U03
R1 •
•
I3 ? ? R U
R2
R
R3
?
Iges 6 U 03 ?
R1
? I3 •
R2
•
Das Bild in der Mitte zeigt die Anordnung, wenn die 1. und 2. Spannungsquelle kurzgeschlossen ist. Der Strom durch R wird nun mit I3 bezeichnet. Die Schaltung in der Bildmitte kann in die ganz rechts skizzierte Form umgezeichnet werden. Wir erhalten dann (Stromteilersatz): I3 = Iges
G R1 R2 , = Iges G + G 1 + G2 R1 R2 + R 1 R + R 2 R
Rges = R3 +
Iges =
U03 Rges
1 R1 R2 R3 + R1 RR3 + R2 RR3 + R1 R2 R . = G + G 1 + G2 R1 R2 + R 1 R + R 2 R
22
1 Grundlagen der Elektrotechnik und Elektronik
Daraus folgt: I3
R1 R2 R1 R2 + R 1 R + R 2 R · = R1 R2 R3 + R1 RR3 + R2 RR3 + R1 R2 R R1 R2 + R1 R + R2 R R1 R2 R1 R2 = U 03 . = U 03 R1 R2 R3 + R1 RR3 + R2 RR3 + R1 R2 R N
= U 03
Durch Symmetrie¨uberlegungen erh¨alt man beim Kurzschluss der Spannungsquellen 1 und 3: I2 = U02
R1 R3 N
und I1 = U01
R2 R3 . N
¨ Nach der Uberlagerung lautet das Gesamtergebnis: I = I 1 + I2 + I3 =
U01 R2 R3 + U02 R1 R3 + U03 R1 R2 , R1 R2 R3 + R1 RR3 + R2 RR3 + R1 R2 R
U = I · R.
Eine alternative L¨osungsmethode: Schneller und einfacher kommt man zu demselben Ergebnis, wenn man dem Rat im Abschnitt 1.2.6 folgt und bei der Parallschaltung von Energiequellen das Modell der Stromquellen w¨ahlt. Im nachfolgenden Bild ist links die oben gegebene Schaltung mit Stromquellen dargestellt, rechts eine Gesamtschaltung mit nur noch einer einzigen Stromquelle. Man erh¨alt dann die Gleichungen: U01 G1 + U02 G2 + U03 G3 , G + G 1 + G2 + G3
U =
I = G·U = G·
U01 G1 + U02 G2 + U03 G3 . G + G 1 + G2 + G3
Wenn man diesen Ausdruck mit dem Produkt RR1 R2 R3 erweitert, findet man die vorne ermittelte Beziehung. •
•
U 01 G 1
•
•
U 02 G 2
6
6 G1
•
? I
6 G2
•
• U 03 G 3
•
G3
•
G
U ?
U0 G1 +U02 G2 +U03 G3
61
G+G1 +G2 +G3
U ?
•
Die Ersatzspannungsquelle Die Erkl¨arung erfolgt anhand eines einfachen Beispiels. Danach wird die Vorgehensweise allgemeiner beschrieben. Auf Beweise soll auch hier verzichtet werden. UBei der nebenstehenden Schaltung soll der Strom • •• 1 I 2 durch Widerstand Rv zwischen den Klemmen 1 R RV 2 berechnet werden. Von der Quelle her wird ein Widerstand Rges gemessen: U R R 0 ? R(R + Rv ) 3R + 2Rv Rges = R + = R . 2R + Rv 2R + Rv • Unter der Anwendung des Stromteilersatzes folgt dann: I = Iges ·
R U0 R U0 = · =⇒ I = . 2R + Rv Rges 2R + Rv 3R + 2Rv
1.4 Die Berechnung einfacher Gleichstromkreise
23
Diese Beziehung kann man folgendermaßen umstellen: I =
Ri =1,5·R
U˜0 0, 5 · U0 = . 1, 5 · R + Rv Ri + R v
1 I •-
(1.27)
˜ =U0 /2 U
0 ?
U
RV
Das Ergebnis kann so interpretiert werden, dass eine neue Span? nungsquelle mit der Spannung U˜0 = U0 /2 und einem Innenwi• 2 derstand Ri = 1, 5 R vorliegt, an den der Verbraucherwiderstand angeschlossen ist. Ergebnis: Will man den Strom in einem Widerstand (oder die Spannung an einem Widerstand) berechnen, so kann das gesamte u¨ brige Netzwerk durch eine Ersatzspannungsquelle mit einer Urspannung ˜0 und einem Innenwiderstand Ri ersetzt werden. In der gleichen Weise ist auch der Ersatz des U Netzwerkes durch eine Ersatzstromquelle mo¨ glich. ˜0 der Ersatzspannungsquelle? Wie erh¨alt man die Urspannung U ˜0 dann auf, wenn Wie aus der Schaltung unten links im Bild erkennbar ist, tritt die Urspannung U kein Stom fließt. Dies bedeutet, dass der Widerstand Rv aus dem Netzwerk entfernt werden muss. Die dann an den Klemmen 1 - 2 auftretende Spannung ist die gesuchte Urspannung. Rechts im ¨ Bild sind diese Uberlegungen f¨ur das im obigen Beispiel behandelte Netzwerk durchgefu¨ hrt. Nach ˜0 = U0 /2. dem Spannungsteilersatz erh¨alt man U ˜0 U - • • • •1 1 2 Ri R nU ˜0 ?
˜0 U ?
nU0 ?
˜0 = U ?
R
•2
U0 2
R U =0 ?
•
Wie erh¨alt man den Innenwiderstand Ri der Ersatzspannungsquelle? Aus dem Bild unten links ist erkennbar, dass Ri an den Klemmen 1 - 2 gemessen wird, wenn die Spannungsquelle kurzgeschlossen wird. Der rechte Bildteil bezieht sich wieder auf unser Beispiel. Wir erhalten Ri = R + R/2 = 1, 5 · R. •1 Ri
•
R Ri
• 1
? Ri
• 2
R
•2 Beispiel 1.14 Bei der rechts skizzierten Schaltung soll der Strom I3 mit Hilfe des Satzes von der Ersatzspannungsquelle berechnet werden. Die einzelnen Schritte sind unten dargestellt. Nachdem R3 entfernt wurde, kann die eingezeichnete Ur˜0 = U0 R2 /(R1 + R2 ) berechnet werden. spannung U Aus der rechten Schaltung folgt Ri = R1 R2 /(R1 + R2 ).
R •
I3 •
U0 ?
R3
R1 R2
•
24
1 Grundlagen der Elektrotechnik und Elektronik
•
U0 ?
•1
˜0 U - • 2
•
•1
•
R1
? • Ri 2
•
R1 R2
R2
Aus der rechts skizzierten Ersatzspannungsquelle folgt dann: I3 =
• 1
Ri
2 ˜0 U0 R1R+R U R2 2 = = U0 . R R2 R3 + R i R1 R2 + R 1 R3 + R 2 R3 R3 + R11+R 2
˜0 U ?
U3
? I3
?
R3
2 •
Beispiel 1.15 Der Strom I in dem Widerstand von 15 Ω (Schaltung links) soll mit dem Satz von der Ersatzspannungsquelle berechnet werden. I1
•
10 Ω
•1 ? I
30 Ω
•
10 Ω
15 Ω
•2
•
•
20 Ω
• 50 Ω
•I2 20 Ω
•1
•
30 Ω
•1
10 Ω
30 Ω
Ri
˜0 U ? •2 •
• 50 Ω
25 V
25 V
•2
•
•
20 Ω
• 50 Ω
˜0 der Ersatzspannungsquelle In der Bildmitte ist die Schaltung zur Ermittlung der Urspannung U ˜0 −I2 ·20 Ω = skizziert (Wegnahme des Widerstandes!). Die Maschengleichung liefert I1 ·10 Ω + U ˜0 = 0, 8929 V. 0. Mit I1 = 25 V /40 Ω und I2 = 25 V /70 Ω erh¨alt man U
Oben rechts ist die Schaltung zur Berechnung des Innenwiderstandes der Ersatzspannungsquelle dargestellt (Kurzschluss der Spannungsquelle). Durch Umzeichnen findet man die nebenstehende Anordnung und daraus Ri = 21, 79 Ω.
10 Ω •
20 Ω •
30 Ω
•
•
50 Ω
1.4 Die Berechnung einfacher Gleichstromkreise
25 •
Rechts ist die Ersatzspannungsquelle mit den berechneten Werten dargestellt, Wir erhalten den gesuchten Strom zu
? I
21,79 Ω
0,8929 V
15 Ω
?
U0 0, 8929 = 0, 0243 A. I= = R + Ri 15 + 21, 79
•
Beispiel 1.16 Die Spannung U in der unten links skizzierten Schaltung soll mit dem Satz von der Ersatzspannungsquelle berechnet werden. Rechts im Bild ist die Ersatzspannungsquelle dargestellt.
•
R U 0 ?
•1 I
U R
• 2
•
I 60
R
R
•
•
R
• 1
U
- • ˜ 2 U 0
? I R
? 2 •
•
•
? •2 Ri
1
R R
R •
•
R R
•
˜0 U ?
•
Rechts ist die Schaltung zur Ermittlung von Ri skizziert. Die Spannungsquelle ist kurzzuschließen, die Stromquelle zu entfernen. Man erh¨alt Ri = 1, 5R. Da die Schaltung zwei Energiequellen enth¨alt, wird die Ur˜0 der Ersatzspannungsquelle mit dem Uberlage¨ spannung U rungssatz berechnet.
R U 0 ?
• 1
Ri
• 1
˜ U 0
• 2
•
I 60
R •
R
•
˜ = U0 /2. Beim Kurzschluss der SpannungsBeim Weglassen der Stromquelle (linkes Bild) wird U 0 ˜0 = U0 /2 − I0 R. Gem¨aß ˜ = −I0 R. Damit wird U quelle (rechtes Bild) entsteht eine Spannung U 0 der ganz oben rechts dargestellten Ersatzspannungsquelle erha¨ lt man schließlich den gesuchten Strom zu: ˜0 0.5 · U0 − I0 · R U0 2 U = = − I0 . I = Ri + R 1, 5 · R + R 5R 5 Vergleiche hierzu auch das Ergebnis bei dem einfu¨ hrenden Beispiel im Abschnitt 1.4.6
26
1 Grundlagen der Elektrotechnik und Elektronik
1.4.7 Einfache nichtlineare Netzwerke
Rechts ist die Grundschaltung mit einem nichtlinearen Widerstand skizziert. Die Spannung U ergibt sich einmal aus der Beziehung U = U0 − I · Ri und zum anderen durch den nichtlinearen Zusammenhang U = f (I).
U 0 ?
I •-
Ri
U ? •
Als Beispiel betrachten wir einen nichtlinearen Widerstand mit einer quadratischen Kennlinie U = k · I 2 . Dann gilt: U0 Ri − = 0. I2 + I k · I 2 = U0 − I · R i , k k Diese Gleichung hat die L¨osungen: Ri2 Ri U0 ± . I1,2 = − + 2k 4k 2 k F¨ur I kann nur der positive Wert, wie aus der Schaltung ersichtlich gelten: Ri2 Ri U0 + . I = − + 2k 4k 2 k Die Konstante k hat hierbei die Dimension V /A2 . Im Bild rechts ist eine zeichnerische L¨osung dargestellt. Dort sind die Funktionen U0 − I · Ri und U = k · I 2 aufgetragen. Der Schnittpunkt beider Kurven legt die Werte U und I (den Arbeitspunkt) fest.
U0 ........................... U
. ... k
· I2
......... ... ......... .... ......... ......... .... . ......... . . ......... ... ......... ....... ..... .... .... .... .... .... .... .... .... .... .... .... .... .... ......................... . .. .............. . . . . ......... 0 i ... .. ......... ......... .... ... ......... .... ......... ... ......... ..... . . . . . . . . . . ......... ......... ... ....... ......... ......... ........... ... ......... ............. ... ........ .............................
•
0
U −I ·R
→I
IK =U0 /Ri
I
Ein einfaches Anwendungsbeispiel Im Bildteil links unten ist eine Schaltung mit einer sogenannten Zenerdiode (siehe auch Abschnitt 1.11.2) skizziert. Rechts sind einige Punkte der nichtlinearen Kennlinie der Zenerdiode angegeben. Der lineare Schaltungsteil kann durch eine Ersatzspannungsquelle ersetzt werden, wie dies rechts dargestellt ist. •
• ˜ i =250 Ω R
Ri =500 Ω
U 0 ?
A •
U
?
RL 500 Ω
˜ = U0 U 0 2 ?
U ?
? I A
U/V: I/mA:
6,5 1
7 4
7,25 11
7,5 18
8 32
•
˜0 = U0 /2 und den Innenwiderstand Ri = 250 Ω. Die Ersatzspannungsquelle hat die Urspannung U Im dem Bild unten ist die Kennlinie der Zenerdiode dargestellt und die beiden Arbeitspunkte, die
1.5 Grundlagen der Wechselstromtechnik
27
˜0 = 8 V) und U0 = 24 V (U ˜0 = 12 V) einstellen. Bei U ˜0 = 8 V w¨urde sich bei U0 = 16 V (U ˜0 = 12 V entsteht man den Kurzschlussstrom IK = 8/250 = 32 mA (siehe Bild) erhalten. Bei U ein Kurzschlussstrom von 48 mA. ↑ U/V 14 12 10 8 6 4 2 0
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ................................. ........... ............. .................................................................................................................... ............. ................................................................................................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ............. ........................................................... . . . . . . . . . . . . . . . . . ............. . . . . . . ............. ..... ............. ............. ....... ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. .....
•
•
→ I/mA
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 Man erkennt, dass sich die Spannung an der Zenerdiode, und damit auch die an dem Lastwiderstand RL nur von 7 V auf etwa 7,5 V (ca. 7%) a¨ ndert, wenn die Quellenspannung U0 im Bereich von 16 bis 24 V (50%) liegt. Diese Schaltung wird in der Praxis als Spannungskonstanthalter verwendet.
1.5 Grundlagen der Wechselstromtechnik ¨ 1.5.1 Einfuhrung in die Wechselgr¨oßen In der Elektrotechnik sind die vorkommenden Stro¨ me und Spannungen vorwiegend zeitlich ver¨anderlich. In der Informationstechnik sind diese zeitlich ver¨anderlichen Gr¨oßen die Tr¨ager der Informationen. Die klassische Wechselstromtechnik beschr¨ankt sich auf den Sonderfall periodisch verlaufender Signale, in der Regel sogar auf rein sinusfo¨ rmige Str¨ome und Spannungen. Ist x(t) entweder eine Spannung oder ein Strom mit sinusfo¨ rmigen Verlauf, dann gilt: x(t) = x ˆ · cos(ωt + ϕ).
(1.28)
• x ˆ ist die Amplitude der Wechselgr¨oße in V oder A, • ω = 2πf die Kreisfrequenz in s−1 , • f die Frequenz in s−1 oder Hz (Hertz), • T = 1/f die Periodendauer der sinusf¨ormigen Wechselgr¨oße, • ϕ nennt man den Nullphasenwinkel oder auch kurz die Phase. Der Name Nullphasenwinkel kommt daher, dass durch ϕ der Signalwert x(t = 0) = x ˆ · cos(ϕ) festgelegt wird.
28
1 Grundlagen der Elektrotechnik und Elektronik
In dem nebenstehenden Bild ist ein sinusf¨ormiges Signal mit den zuvor besprochenen Gr¨oßen dargestellt. Mit ϕ = 0 erh¨alt man eine reine Kosinusschwingung: x(t) = x ˆ · cos(ωt). Der Fall ϕ = −π/2 f¨uhrt zu einer Sinusschwingung: x(t) = x ˆ · cos(ωt − π/2) = x ˆ · sin(ωt).
... ... .. 2π 1 ... .. .. . .. .. ω f ...... ......... ......... . ... .... ...... ... .... ...... . .... . . . . ... . .. .. . . . ... . .... .. ... ... ... ... .. ... .. ... ... .. ... ... . ....... .. . .. .. x ˆ cos(ϕ) .. . ... . ... ... . . . ....... . ... ... . ... .. .. ... .. . . . ... ... ..... . ... ... . . . . . ... .. ... ... . . . . . . . .................................................................................................................................................................................................................................. ... . ϕ .... . ... . ... . ... . ω ... ... .. ... .. .. ... .. ... . ... ... ... .. .. ... .. ... ... .. . ... . ... ............ ... ... .
x ˆ
0
↑ x(t) ←−−− T =
=
−−−→
→t
−
Abbildung 1.2: Sinusf¨ormiges Signal Die beiden Kirchhoff’schen Gesetze (Knotenpunkt- und Maschengleichung), siehe Gl. (1.11) und (1.12), sind auch f¨ur Wechselstromgr¨oßen, ja sogar f¨ur ganz beliebig zeitlich verlaufende Signale g¨ultig: iμ (t) = 0, uν (t) = 0, f¨ur alle t. (1.29) μ
ν
Ebenfalls gilt f¨ur einen Widerstand das Ohm’sche Gesetz: u(t) = R · i(t),
i(t) = G · u(t),
G = 1/R.
(1.30)
Bei Netzwerken, die nur aus Widerst¨anden aufgebaut sind, k¨onnen die Ergebnisse der Gleichstromtechnik ohne jede Einschr¨ankung u¨ bernommen werden. Dort sind lediglich die konstanten Spannungen Uν durch die zeitabh¨angigen Spannungen uν (t) und die Gleichstr¨ome Iμ durch die zeitabh¨angigen Str¨ome iμ (t) zu ersetzen. Neben dem elektrischen (ohmschen) Widerstand spielen in der Wechselstromtechnik zwei weitere Bauelemente, der Kondensator und die Spule eine wichtige Rolle. Diese beiden Bauelemente werden nun in kurzer Form eingef¨uhrt. Grundkenntnisse u¨ ber das elektrische und magnetische Feld werden dabei vorausgesetzt.
1.5.2 Das Bauelement Kondensator Bei einem Kondensator mit der Kapazit¨at C besteht zwischen Spannung und Strom der Zusammenhang: i(t) C t 1 d u(t) u(t) = . (1.31) i(τ ) dτ, bzw. i(t) = C C dt −∞ u(t) Links ist das Schaltungssymbol f¨ur den Kondensator dargestellt. Aus der Beziehung i = C · du/dt erkennt man, dass C die Einheit As/V hat. Diese Einheit wird oft auch mit 1 As/V = 1 F (Farad) bezeichnet. In der Praxis arbeitet man mit Vorsatzzeichen, z.B. 1 nF , 1 μF . Aus der Eigenschaft, dass der durch einen Kondensator fließende Strom (bis auf den Faktor C) die Ableitung der am Kondensator anliegenden Spannung ist, folgt die sehr wichtige Erkenntnis:
1.5 Grundlagen der Wechselstromtechnik
29
Die Kondensatorspannung muss stetig verlaufen, sie kann sich nicht sprungf o¨ rmig a¨ ndern. Eine Kondensatorspannung, die sich z.B. bei t = 0 von u = 0 ”sprungfo¨ rmig” auf u = 1 V a¨ ndern w¨urde, h¨atte einen unendlich großen Strom zur Folge. Physikalisch wu¨ rde dies zu einer Zerst¨orung der Schaltung f¨uhren. Selbstverst¨andlich muss, genauer formuliert, u(t) nicht nur stetig, sondern differenzierbar sein. Darf angenommen werden, dass beim Aufladevorgang des Kondensators der Strom i(t) ausreichend schnell abnimmt, d.h. i(t) → 0 fu¨ r t → ∞, dann l¨ad sich der Kondensator auf eine Spannung auf: u(t → ∞) = U =
1 C
∞ i(τ ) dτ = −∞
Q . C
(1.32)
Das Integral kann als eine Ladung Q interpretiert werden. Zwischen der Ladung Q und der Kondensatorspannung U besteht nach Beendigung des Aufladevorganges (i(t) = 0!) der wichtige Zusammenhang: Q = C · U. (1.33) Die einfachste Bauform eines Kondensators ist der Plattenkondensator (rechtes Bild). Er besteht aus zwei ”Platten” der Fl¨ache A in einem i.A. sehr kleinen Abstand d. Zwischen den Platten befindet sich ein nichtleitendes Material. Die Kapazit¨at C einer solchen Anordnung berechnet sich nach der nebenstehenden Beziehung.
U - −Q A·ε . C = -A d (i=0) E=U/d - d Q
(1.34)
ε ist die Dielektrizit¨atskonstante. F¨ur das Vakuum gilt: ε = ε0 = 8, 85 · 10−12 VAs ur andere m . F¨ Stoffe setzt man ε = εr · ε0 mit der relativen Dielektrizit¨atskonstanten εr . F¨ur das Vakuum ist nat¨urlich εr = 1, f¨ur Papier gilt: 2 ≤ εr ≤ 5. Beispiel 1.17 Nach der oben angegebenen Beziehung (1.34) hat ein Plattenkondensator mit der Plattenfl¨ache A = 1 m2 , dem Plattenabstand d = 0, 1 mm und ε = ε0 die Kapazit¨at 88, 5 · 10−9 F = 88,5 nF. Bei dem auf die Spannung U aufgeladenen Kondensator befindet sich auf den Platten die Ladung Q = C · U . Diese Ladung ist die Ursache fu¨ r das zwischen den Platten vorhandene elektrische Feld mit der Feldst¨arke E = U/d. Der Kondensator ist ein Energiespeicher fu¨ r elektrische Energie (ohne Beweis: W = 0, 5 · C · U 2 ). Ein einmal auf die Spannung U aufgeladener Kondensator wu¨ rde seine Spannung unendlich lange behalten, wenn das Dielektrikum, das Material zwischen den Platten, ein idealer Nichtleiter w¨are. Bei realen Kondensatoren ist dies nat¨urlich nicht der Fall. Zwischen den Platten befindet sich kein idealer Nichtleiter, so dass ein Ladungsausgleich mo¨ glich wird und sich der Kondensator (langsam) entl¨ad. Ein realer Kondensator wird daher durch die rechts skizzierte Ersatzschaltung dargestellt. Parallel zu dem als ideal angenommenen Kondensator befindet sich ein sehr kleiner Leitwert, durch den ein Ladungsausgleich erfolgt.
• C G •
30
1 Grundlagen der Elektrotechnik und Elektronik
Der Lade- und der Entladevorgang Im Folgenden soll untersucht werden, wie und in welcher Zeit ein Kondensator aufgeladen werden kann und wie der Entladevorgang vor sich geht. Dazu betrachten wir zun¨achst die unten links skizzierte Schaltung. Der Aufladevorgang i(t) -
• (1)
(0) •
Ladevorgang: Schalterstellung 1
nU ?
Entladevorgang: Schalterstellung 2
• (1)
@ @•
• (2)
•
(0) •
R u(t)
C
nU ?
? i(t) ?
•
• (2)
R C ? i(t) ?
u(t)
•
Abbildung 1.3: Ausgleichsvorgang beim Kondensator Ein zun¨achst nicht geladener Kondensator, wie in Abb. 1.3, wird bei t = 0 u¨ ber einen Widerstand R an eine Spannungsquelle mit der Gleichspannung U angeschlossen (Schalterstellung 1). Dann lautet die Maschengleichung: U = i(t) · R + u(t) . Der Strom i(t) fließt durch den Kondensator, also gilt: i(t) = C ddtu und wir erhalten die Differentialgleichung: RC ·
d u(t) + u(t) = U. dt
(1.35)
Die L¨osung der Differentialgleichung setzt sich aus einer homogenen Lo¨ sung uh (t) und einer station¨aren L¨osung ust (t) zusammen. Homogene L¨osung: RC ·
d uh (t) + uh (t) = 0, dt
Ansatz: uh (t) = K · ept .
Mit d uh (t)/dt = Kp · ept erh¨alt man: RC · pKept + Kept = 0, ; RCp + 1 = 0, p = −
1 , RC
uh (t) = K · e−t/(RC) .
Station¨are L¨osung: RC
d ust (t) + ust (t) = U, dt
Ansatz und L¨osung: ust (t) = u(t → ∞) = U.
Gesamtl¨osung der Differentialgleichung (1.35) lautet somit: u(t) = uh (t) + ust (t) = K · e−t/(RC) + U. Zur Festlegung der Konstanten K ist zu beachten, dass der Kondensator bis zum Zeitpunkt t = 0 ungeladen war. Dies bedeutet u(0) = 0 = K + U , also K = −U und somit gilt im Zeitbereich t ≥ 0: (1.36) u(t) = U · 1 − e−t/(RC) = U · 1 − e−t/τ , Zeitkonstante: τ = RC.
1.5 Grundlagen der Wechselstromtechnik
31
Das Produkt τ = RC nennt man die Zeitkonstante. Links unten in Abb. 1.4 ist der Verlauf der Spannung am Kondensator beim Ladevorgang aufgetragen. ↑ u(t) Entladung (Schalterstellung 2) U ........
↑ u(t) Aufladung (Schalterstellung 1) U . . . . . ........ . . . . ....................................................................................................................................... .. ........ .. . ......... ........ .. . ........ ... ......... .. .. .... . ......... . . ..... . ........ . .. ...... . .... . . . . ... .
0
→ t .. 5τ
τ
.... ..... ... ...... ...... . ......... .. ..... .. ... ......... ...... .. ....... ......... ... ........... .. ............... ........................ ... ..................................................................... ................ .
0
→t 5τ
τ
Abbildung 1.4: Spannungsverlauf beim Ladungsausgleich Aus dem Funktionsverlauf in Abb. 1.4 kann man die Gro¨ ße der Zeitkonstanten τ auf einfache Weise erkennen. Die Funktion u(t) hat bei t = 0 die Steigung u (0) = U/τ . Dies ist aber auch die Steigung der in dem Bild gestrichelt eingetragenen Geraden. Diese Gerade (Tangente an u(t) bei t = 0) erreicht zum Zeitpunkt t = τ den Wert U . Theoretisch dauert es unendlich lange, bis der Kondensator voll auf die Spannung u(∞) = U aufgeladen ist. Nach der Dauer von einer Zeitkonstanten ist der Kondensator auf u(τ ) = U (1 − e−1 ) ≈ 0, 63 · U aufgeladen. Nach drei Zeitkonstanten wird der Wert u(3τ ) = U (1 − e −3 ) ≈ 0, 95 · U erreicht und nach einer Dauer von fu¨ nf Zeitkonstanten betr¨agt der Spannungswert am Kondensator u(5τ ) = U (1 − e−5 ) ≈ 0, 993 · U . In der Praxis sagt man, dass ein Kondensator nach etwa 5 Zeitkonstanten aufgeladen ist. Der Ladestrom i(t) wird w¨ahrend des Aufladevorganges immer kleiner: i(t) = C
d u(t) d C −t/τ U −t/τ = C U (1 − e−t/τ ) = Ue e = . dt dt τ R
Der Anfangswert betr¨agt i(0) = 0, 0067 · i(0) abgeklungen.
U R,
nach 5 Zeitkonstanten ist der Ladestrom auf i(5τ ) =
(1.37) U −5 Re
≈
Nach einiger Zeit ist der Kondensator auf die Spannung U aufgeladen, es fließt kein Strom mehr. Ein v¨ollig verlustfreier Kondensator w¨urde diese Spannung U auch ohne anliegende Quelle (Schalter in die Stellung ”0”) unbegrenzt lange behalten. Der Entladevorgang Nachdem der Kondensator auf die Spannung U aufgeladen worden ist, wird der Schalter in die untere Stellung ”2” gebracht. Dabei entsteht die Anordnung im rechten Bildteil der Abb. 1.3. Wir nehmen der Einfachheit halber an, dass der Entladevorgang bei t = 0 beginnt. Im Zeitbereich t ≥ 0 fließt dann durch den Widerstand ein Entladestrom. Die Maschengleichung lautet R · i(t) + u(t) = alt man die den Entladevorgang beschreibende Differentialgleichung: 0. Mit i(t) = C du dt erh¨ RC ·
d u(t) + u(t) = 0. dt
(1.38)
Mit dem L¨osungsansatz u(t) = Kept erh¨alt man: RC · pKept + Kept = 0,
p=−
1 1 =− , RC τ
u(t) = Ke−t/τ .
32
1 Grundlagen der Elektrotechnik und Elektronik
Mit der Anfangsbedingung u(0) = U erh¨alt man K = U und damit im Zeitbereich t ≥ 0: u(t) = U · e−t/τ ,
τ = RC.
(1.39)
Im rechten Bildteil (oben) ist der Verlauf der Entladespannung skizziert. Aus dem Verlauf kann ebenfalls die Gr¨oße der Zeitkonstanten τ entnommen werden. Dazu wird bei t = 0 eine Tangente an u(t) gelegt. Die Tangente schneidet bei t = τ die Zeitachse. Nach etwa 5 Zeitkonstanten ist der Kondensator weitgehend entladen u(5τ ) ≈ 0, 0067 · U .
Die Zusammenschaltung von Kondensatoren Zuerst soll die Parallelschaltung von Kondensatoren behandelt werdern. Die Kondensatoren im linken Bildteil sind, aufgrund der Parallelschaltung, auf die gleiche Spannung U aufgeladen. Sie C1 tragen die Ladungen: Q1 = C1 · U und Q2 = C2 · U . Die Cges =C1 +C2 Gesamtladung ist somit Q = Q1 + Q2 = U · (C1 + C2 ). Daraus folgt, dass die parallelgeschalteten Kondensato• ⇔ U • ren durch einen Kondensator mit der Kapazit¨at Cges = U C1 + C2 ersetzt werden k¨onnen (rechter Bildteil). C2 Allgemein gilt f¨ur die Parallelschaltung von n Kondensatoren: Cges = C1 + C2 + . . . Cn .
(1.40)
Die Reihenschaltung von Kondensatoren bedingt durch die Verbindung zwischen den Kondensatoren, dass die Ladung Q auf beiden Kondensatoren gleich groß sein muss. Im anderen Fall w¨urde in der Verbindungsleitung zwischen den Kondensatoren solange ein Ausgleichsstrom fließen, bis die Ladungen gleich sind. Es gilt also: Q = C 1 · U1 = C 2 · U2 .
C ·C
Cges = C 1+C2 1
C1 U1
C2 U2
⇔
2
-
U =U1 +U2
Die Gesamtspannung hat dann den Wert: U = U 1 + U2 =
Q Q Q + = . C1 C2 Cges
Aus dieser Beziehung folgt f¨ur die Reihenschaltung von zwei Kondensatoren: 1 Cges
=
1 1 + , C1 C2
⇐⇒
Cges =
C1 · C2 . C1 + C2
(1.41)
Allgemein gilt f¨ur die Reihenschaltung von n Kondensatoren: 1 1 1 1 = + + ... + . Cges C1 C2 Cn
(1.42)
1.5 Grundlagen der Wechselstromtechnik
33
1.5.3 Das Bauelement Spule Bei einer Spule mit der Induktivit¨at L besteht zwischen Strom und Spannung der folgende Zusammenhang: t u(t) 1 d i(t) i(t) . (1.43) i(t) = u(τ ) dτ, bzw. u(t) = L L L dt −∞
Links ist das Schaltungssymbol f¨ur die Spule dargestellt. Aus der Beziehung u = L · di/dt erkennt man, dass L die Einheit V s/A hat. Diese Einheit wird oft auch mit 1 V s/A = 1 H (Henry) bezeichnet. Aus der Eigenschaft, dass die an einer Spule auftretende Spannung (bis auf den Faktor L) die Ableitung des Stromes durch die Spule ist, folgt eine sehr wichtige Erkenntnis: Der Strom in einer Spule muss stetig verlaufen, er kann sich nicht sprungf o¨ rmig a¨ ndern. Ein Spulenstrom, der sich z.B. bei t = 0 von i = 0 sprungfo¨ rmig auf i = 1 A a¨ ndern w¨urde, h¨atte eine unendlich große Spannung zur Folge. Physikalisch wu¨ rde dies zu einer Zerst¨orung der Schaltung f¨uhren. Selbstverst¨andlich muss, genauer formuliert, i(t) nicht nur stetig, sondern differenzierbar sein. Bei einer idealen Spule bewirkt ein konstanter Spulenstrom I nach der Beziehung u = L di/dt keinen Spannungsabfall an der Spule, also U = 0. Dieser Strom erzeugt in der Spule ein magnetisches Feld mit dem magnetischen Fluss Φ = L · I. Die Spule ist ein Energiespeicher f¨ur magnetische Energie (ohne Beweis: W = 0.5 · LI 2 ) Eine reale Spule kann oft n¨aherungsweise durch eine ReihenR L schaltung einer idealen Spule und einem Verlustwiderstand R angen¨ahert werden. Dieser Widerstand ist bei hochwertigen Spulen sehr klein. F¨ur eine Zylinderspule der L¨ange l, dem Durchmesser d und w Windungen berechnet sich die Induktivit¨at nach der Formel: πd2 . (1.44) L = μ · w2 · 4·l Darin ist μ die Permeabilit¨atskonstante. F¨ur das Vakuum gilt μ = μ0 = 4π · 10−7 Vs/Am. F¨ur andere Stoffe setzt man μ = μr · μ0 . Die relative Permeabilit¨atskonstante μr hat f¨ur das Vakuum den Wert 1, ansonsten kann μr sehr groß werden, z.B. 102 bis 105 bei ferromagnetischen Stoffen. Beispiel 1.18 Mit der oben angegebenen Beziehung (1.44) erha¨ lt man f¨ur eine Spule von 4 cm L¨ange, einem Durchmesser von 5 mm und 1000 Windungen bei μr = 1 (Luftspule) eine Induktivit¨at von L = 61, 67 · 10−5 H = 0,6167 mH. Bei einem Eisenkern mit μr = 103 erh¨alt man eine Induktivit¨at L = 0, 6167 H. Auf ganz a¨ hnliche Weise wie bei den Kondensatoren kann man ableiten, dass sich die Induktivit¨aten bei einer Reihenschaltung addieren: Lges = L1 + L2 + . . . + Ln ,
bei Reihenschaltung.
(1.45)
1 1 1 1 = + + ... + , bei Parallelschaltung. Lges L1 L2 Ln
(1.46)
Bei parallelgeschalteten Induktivit¨aten gilt:
34
1 Grundlagen der Elektrotechnik und Elektronik
Im Sonderfall von zwei parallelgeschalteten Induktivit¨aten erh¨alt man aus dieser Gleichung die Gesamtinduktivit¨at: L1 · L2 Lges = . (1.47) L1 + L2
1.6 Die komplexe Rechnung in der Wechselstromtechnik 1.6.1 Komplexe Zahlen Komplexe Zahlen k¨onnen durch komplexe Zeiger in der Gauß’schen Zahlenebene √ dargestellt werden. Die Maßeinheit an der reellen Achse ist 1, an der imagin¨aren Achse j = −1. Dabei gilt: √ j 2 = ( −1)2 = −1,
1·j 1 = = −j, j j·j
j 3 = −j,
j 4 = 1,
j 5 = j usw. Im
6
Eine komplexe Zahl hat die Form z = x + j y, x = Re{z} ist der Realteil der komplexen Zahl und y = Im{z} der Imagin¨arteil. Neben der Form von Real- und Imagin¨arteil ist die Darstellung: y z = |z| · ejϕ mit |z| = x2 + y 2 , ϕ = arctan x
•z
jy |z| ϕ
mit Betrag und Phase m¨oglich. Bei dem Phasenwinkel ϕ, ist wegen der Vieldeutigkeit der Funktion arctan (ϕ), darauf zu achten, in welchem Quadranten die komplexe Zahl liegt.
x
Re -
•z∗
−j y
Eine konjugiert komplexe Zahl z ∗ entsteht aus einer komplexen Zahl z, wenn das Vorzeichen des Imagin¨arteiles ge¨andert wird. Es gilt: z = x + j y,
z ∗ = x − j y,
(1.48)
1 1 z + z ∗ , y = Im{z} = z − z ∗ , |z|2 = z · z ∗ = x2 + y 2 . 2 2j Bei der Addition komplexer Zahlen geht man am besten von der Darstellung in der Form von Real- und Imagin¨arteil aus. x = Re{z} =
Beispiel 1.19 z1 = 4 + j 3, z2 = −3 + j, z = z1 + z2 = 1 + j 4. Die Addition kann in der Gauß’schen Zahlenebene als Vektoraddition interpetiert werden, wie dies rechts im Bild dargestellt ist. Zur Vorbereitung f¨ur die Multiplikation stellen wir z1 und z2 noch nach√Betrag und Phase dar. Es gilt z1 = |z1 | · ejϕ1 mit |z1 | = 42 + 32 = 5, ϕ1 = arctan 3/4 = 0, 6435, dies ist ein Winkel von 36, 87 o . Entsprechend wird z2 = jϕ2 mit |z2 | = (−3)2 + 12 = 3, 1623. Bei der |z2 | · e Berechnung von ϕ2 muss man aufpassen. Die Beziehung:
Re
4j j3
z2 • −3
j
6
i P P z2 PPP •z z > 1 z 1 Im 1
4
1.6 Die komplexe Rechnung in der Wechselstromtechnik
35
arctan (y/x) liefert hier den Winkel arctan (−1/3) = −0, 322, dies sind −18, 43 o . Wie zu erkennen ist, liegt z2 im 2. Quadranten der komplexen Ebene, der tats¨achliche Winkel ist also 180 o − 18, 43 o = 161, 6 0 . Im Bogenmaß wird ϕ2 = 2, 82 und damit wird z2 = 3, 1623 · ej 2,82 . Bei der Multiplikation und Division empfiehlt sich die Darstellung in Form von Betrag und Phase. Beispiel 1.20 z1 = 4 + 3 j = 5 · ej0,6435 und z2 = −3 + j = 3, 162 · ej 2,82 sind gegeben: z = z1 · z2 = 5 · 3, 162 · ej(0,6435+2,82) = 15, 81 · ej 3,463 . Die Betr¨age werden multipliziert, die Winkel addiert. Bei der Division: z =
z1 5 ej(0,6435−2,82) = 1, 58 · e−j 2,176 = z2 3, 162
werden die Betr¨age dividiert und die Winkel voneinander subtrahiert. H¨aufig treten Ausdr¨ucke der folgenden Form auf: z =
a + jb . c + jd
Es werden von z der Real- und Imagin¨arteil sowie der Betrag und Phasenwinkel von z gesucht. Zur Bestimmung des Real- und Imagin¨arteiles wird z zun¨achst mit dem konjugiert komplexen Nenner c − jd erweitert: z =
a + jb c − jd (ac + bd) + j(bc − ad) a + jb = · = . c + jd c + jd c − jd c2 + d2
Daraus findet man den Real- und Imagin¨arteil: Re{z} =
ac + bd , c2 + d2
Im{z} =
bc − ad . c2 + d2
Zur Bestimmung des Betrags und Phasenwinkels schreibt man am besten: √ z1 = a + jb = a2 + b2 · ejϕ1 , ϕ1 = arctan (b/a), √ z2 = c + jd = c2 + d2 · ejϕ2 , ϕ2 = arctan (d/c). Dann wird:
√ a2 + b2 ejϕ1 a2 + b2 j(ϕ1 −ϕ2 ) z1 z = = √ = e , 2 2 jϕ 2 z2 c2 + d2 c +d e
und daraus folgt:
a2 + b2 , ϕ = ϕ 1 − ϕ2 . c2 + d2 Bei der Ermittlung der Winkel ϕ1 und ϕ2 ist zu beachten, in welchen Quadranten der Gauß’schen Zahlenebene die Zahlen z1 und z2 liegen (Vieldeutigkeit der Funktion arctan (x) !). |z| =
Von großer Bedeutung in der Elektrotechnik ist die Euler’sche Gleichung: ejϕ = cos(ϕ) + j sin(ϕ),
e−jϕ = cos(ϕ) − j sin(ϕ),
(1.49)
36
1 Grundlagen der Elektrotechnik und Elektronik
Eine Folgerung aus Gleichung (1.49) ist: cos(ϕ) =
ejϕ + e−jϕ , 2
sin(ϕ) =
ejϕ − e−jϕ , 2·j
|ejϕ | =
cos2 (ϕ) + sin2 (ϕ) = 1.
Zum Beweis dieser Gleichung kann man von der Taylorreihenentwicklung der Funktion: ex = 1 + x +
x3 x4 x2 + + + ... 2! 3! 4!
ausgehen. Man erh¨alt dann: j(ϕ)3 (jϕ)4 (jϕ)2 ejϕ = 1 + (jϕ) + + + + ···+ = 2! 3! 4! 2 4 6 3 5 7 ϕ ϕ ϕ ϕ ϕ ϕ 1− + − + ··· + j· ϕ− + − + · · · = cos(ϕ) + j sin(ϕ). 2! 4! 6! 3! 5! 7! Die linke geschweifte Klammer in der 2. Gleichungszeile ist die Taylorreihe f u¨ r die Kosinusfunktion, und die rechte Klammer ist Reihe die f¨ur die Sinusfunktion. Bei der Rechnung ist zu beachten, dass gilt: j 2 = −1, j 3 = −j usw.
1.6.2 Effektivwerte Durch einen ohmschen Widerstand R fließt ein sinusfo¨ rmiger Strom: i(t) -
i(t) = ˆi cos(ωt + ϕ).
u(t) R
Dann gilt nach dem Ohm’schen Gesetz (1.8): u(t) = R · i(t) = R ˆi cos(ωt + ϕ) und die Augenblicksleistung betr¨agt: p(t) = i(t) · u(t) = R · ˆi2 cos2 (ωt + ϕ) = Dieser Verlauf der Augenblicksleistung p(t) ist rechts (im Fall ϕ = 0) skizziert und gestrichelt zus¨atzlich der Verlauf von i(t). Man erkennt, dass p(t) die doppelte Frequenz 2ω wie der Strom i(t) hat. Die Augenblicksleistung schwankt in dem Bereich von 0 bis ˆi2 R. In den meisten F¨allen interessiert nur der zeitliche Mittelwert P dieser Leistung. Aus dem Bild, aber auch aus der rechten Form der oben angegebenen Beziehung f¨ur p(t), erkennt man, dass die mittlere Leistung den Wert hat: P =
1 ˆ2 1 ˆ2 Ri + R i cos(2ωt + 2ϕ). 2 2
↑ p(t) ˆi2 R ........ ..
...... ...... ... ....... .. ... .. .. .. .. .. .. .. .. .. ... .. .. ... ... .. .. .. ... ... .. .. .. ... .. .... .. .... .. . . . . . . . . . .. .. ... .. ... ... ... ... ... ... . . ..... ... ... .. . . . .... . .. ... . ... ... .. .. . .. ... .. .... ... ... .. ..... .. ... .. .. .. . .. . ... . . . . . . . ....... .......... .......... ....... ......... ....... ........ ....... ......... ....... .......... ........... ....... ......... ....... .. .. .. .. . . . .. .... .... .. ... .. .. .... .... ... ... ... ... ..... ... .... ..... ... .. .... .. ... ... ..... .. .. .. .... .. ... . . . . . . . . . .. .. .. .. . .. .. ... .. .. .... ... ... . ... . ... ... .... ... ... ... .. .... ... .... .. .. .. ... .. ... ....... ........ ........ ........ .. . .. . . . . . . 2π . . . . . T . . . . . . . . . . . . . . . . . . . . . . . . . .. . ..
i(t)
1 ˆ2 2i R
1 ˆ2 · i R. 2
0
→t
1.6 Die komplexe Rechnung in der Wechselstromtechnik
37
Diesen Mittelwert kann man nat¨urlich auch formal berechnen, indem man die Fl¨ache unter p(t) im Bereich einer Periode ermittelt und durch die Periodendauer dividiert: P =
1 T
T p(t) dt = 0
1 T
T
R ˆi2 cos2 (ωt + ϕ) dt =
0
1 ˆ2 · i R. 2
(1.50)
Die Auswertung des Integrals soll dem Leser u¨ berlassen werden, dabei ist der Zusammenhang T = 2π/ω zu beachten. Man definiert nun den Effektivwert des Stromes: ˆi 1√ ˆ Ief f = √ = 2 i, 2 2
(1.51)
und erh¨alt mit diesem Effektivwert die mittlere Leistung P =
1 ˆ2 2 i R = Ief f R. 2
(1.52)
Dies bedeutet, dass der Effektivwert des Stromes so definiert wurde, dass ein Wechselstrom mit dem Effektivwert Ief f eine gleich große Leistung wie ein Gleichstrom der Gro¨ ße I = Ief f zur Folge hat. Effektivwerte definiert man nicht nur bei Str¨omen, sondern auch bei Spannungen. Es gilt: Ief f =
1√ ˆ 2 i, 2
Uef f =
1√ 2u ˆ. 2
Bei dem Widerstand war√u(t) = R ·√i(t) = R · ˆi cos(ωt + ϕ) = u ˆ cos(ωt + ϕ) mit u ˆ = Rˆi. Dies ˆ = R 12 2 ˆi. F¨ur die mittlere Leistung erh¨alt man damit auch: bedeutet hier Uef f = 12 2 u P =
1 ˆ2 i R = Ief f · Uef f , 2
also eine Beziehung wie beim Gleichstrom, wenn dort der Strom und die Spannung durch die Effektivwerte der Wechselgr¨oßen ersetzt werden. Die Effektivwerte von Strom und Spannung k¨onnen auch wie folgt definiert werden: T T 1 1 2 Ief f = i (t) dt, Uef f = u2 (t) dt. (1.53) T T 0
0
Darin ist T = 2π/ω die Periodendauer.
1.6.3 Komplexe Wechselstromgr¨oßen Zur Erkl¨arung gehen wir von einem sinusf¨ormigen Strom bzw. einer sinusf¨ormigen Spannung aus: i(t) = ˆi cos(ωt + ϕi ),
u(t) = u ˆ cos(ωt + ϕu ).
Der Strom und die Spannung haben die Effektivwerte: Ief f =
1√ ˆ 2 i, 2
Uef f =
1√ 2u ˆ. 2
38
1 Grundlagen der Elektrotechnik und Elektronik
Mit Hilfe der Euler’schen Gleichung (1.49) cos(x) = 12 ejx + 12 e−jx k¨onnen wir auch schreiben: i(t)
1 1 = ˆi cos(ωt + ϕi ) = ˆiej(ωt+ϕi ) + ˆie−j(ωt+ϕi ) = 2 2 1 ˆ jϕi jωt 1 ˆ −jϕi −jωt = ·e . ie · e + ie 2 2
Wir f¨uhren nun die komplexe Amplitude2 ein: Iˆ = ˆi · ejϕi
(1.54)
Diese komplexe Amplitude Iˆ fasst die Amplitude ˆi von i(t) und den Nullphasenwinkel ϕi zu einer ˆ = ˆi. Bei einem verschwindenden Nullphaeinzigen (komplexen) Zahl zusammen. Dabei gilt |I| senwinkel ϕi = 0 stimmt die komplexe mit der wirklichen Amplitude u¨ berein, Iˆ = ˆi. Mit dieser so eingef¨uhrten komplexen Amplitude erh¨alt man: i(t) =
1 ˆ jωt 1 ˆ∗ −jωt I ·e + I ·e = Re{Iˆ · ejωt }. 2 2
(1.55)
Die Richtigkeit der Gleichung (1.55) wird weiter unten bewiesen. Ganz entsprechend kann man ˆ =u auch f¨ur die Spannung u(t) eine komplexe Amplitude U ˆ ejϕu definieren und dann gilt: u(t) =
1 ˆ jωt 1 ˆ ∗ −jωt ˆ · ejωt }. U ·e + U ·e = Re{U 2 2
(1.56)
Eine sinusf¨ormige Wechselgr¨oße mit bekannter Kreisfrequenz ω kann offensichtlich durch die zugeh¨orende komplexe Amplitude vollst¨andig beschrieben werden. Wenn z.B. Iˆ bekannt ist, multipliziert man diese komplexe Amplitude mit ejωt und der Realteil dieses komplexen Ausdruckes ist der zugrundeliegende reelle Strom: i(t)
= Re{Iˆ · ejωt } = Re{ˆiejϕi · ejωt } = Re{ˆiej(ωt+ϕi ) } = = Re{ˆi cos(ωt + ϕi ) + j ˆi sin(ωt + ϕi )} = ˆi cos(ωt + ϕi ).
Beispiel 1.21 Gegeben ist die komplexe Amplitude: Iˆ = 2ejπ/2 i(t) = Re{2ejπ/2 · ejωt } = Re{2ej(ωt+π/2) } = 2 cos(ωt + π/2) = −2 sin(ωt). √ ˆ = 1 + j = 2ejπ/4 Gegeben ist die komplexe Amplitude: U u(t) = Re{(1 + j) · ejωt } = Re{(1 + j) · [cos(ωt) + j sin(ωt)]} = = Re{[cos(ωt) − sin(ωt)] + j[cos(ωt) + sin(ωt)]} = cos(ωt) − sin(ωt). √ √ √ u(t) = Re{ 2 ejπ/4 · ejωt } = Re{ 2 ej(ωt+π/4) } = 2 cos(ωt + π/4). Die 3. Gleichungszeile zeigt einen einfacheren Lo¨ sungsweg. Der zuerst ermittelte Ausdruck fu¨ r u(t) l¨asst sich mit Hilfe der Beziehung cos(α + β) = cos(α) cos(β) − sin(α) sin(β) in den unten ermittelten umformen. 2 Komplexe Amplituden und auch die sp¨ ater eingef¨uhrten komplexen Str¨ome und Spannungen werden in der Elektroˆ anstatt wie hier I. ˆ Im Interesse einer einfacheren Schreibweise wird hier auf solche Untertechnik unterstrichen, also I, streichungen verzichtet.
1.6 Die komplexe Rechnung in der Wechselstromtechnik
39
Es stellt sich die Frage, welchen Vorteil kann es haben, einen physikalisch anschaulichen Strom i(t) = ˆi cos(ωt + ϕi ) durch eine abstrakte komplexe Amplitude Iˆ = ˆiejϕi zu beschreiben? Der Grund ist der, dass auf diese Weise die Berechnung von Wechselstromnetzwerken sehr viel einfacher wird. Um einen Eindruck u¨ ber die Hintergr¨unde f¨ur diese Aussage zu vermitteln, betrachten wir einmal die Knotenpunktgleichung (1.11) (1. Kirchhoff’sches Gesetz) fu¨ r sinusf¨ormige Str¨ome. Dann gilt: n n ˆiν cos(ωt + ϕν ) = 0 f¨ur alle t. iν (t) = ν=1
ν=1
Mit iν (t) = 0, 5Iˆν · ejωt + 0, 5Iˆν∗ · e−jωt , Iˆν = ˆiν ejϕν folgt dann: n 1 ν=1
n n 1 1 1 Iˆν + e−jωt Iˆν∗ = 0. Iˆν ejωt + Iˆν∗ e−jωt = ejωt 2 2 2 2 ν=1 ν=1
Diese Gleichungen sind offenbar f¨ur alle t erf¨ullt, wenn die Beziehung gilt: n
Iˆν = 0.
(1.57)
ν=1
Die Gleichung (1.57) ist strukturgleich mit der Knotengleichung (1.11) bei Gleichstrom. Die Gleichstr¨ome Iν werden lediglich durch die komplexen Amplituden Iˆν ersetzt. Zusammenfassung: Die komplexen Amplituden erf¨ullen die Kirchhoff’schen Regeln. Damit ko¨ nnen alle f¨ur die Gleichstromnetzwerke abgeleiteten Analyseverfahren in der Wechselstromtechnik u¨ bernommen werden, wenn die Gleichgr¨oßen durch die komplexen Amplituden ersetzt werden. In der Praxis arbeitet man nicht mit den komplexen Strom- oder Spannungsamplituden, sondern mit dazu proportionalen komplexen Str¨omen und komplexen Spannungen. Diese sind folgendermaßen definiert: 1√ ˆ 1√ ˆ 2 · I, U = 2 · U. (1.58) I = 2 2 √ Der Faktor 12 2 hat zur Folge, dass die Betr¨age der komplexen Str¨ome und Spannungen mit den Effektivwerten u¨ bereinstimmen: |I| =
1√ ˆ 1√ ˆ 2|I| = 2 i = Ief f , 2 2
|U | =
1√ ˆ 1√ 2|U | = 2u ˆ = Uef f . 2 2
(1.59)
Dann gilt: i(t) = Re{Iˆ · ejωt } =
√
2 · Re{I · ejωt },
ˆ · ejωt } = u(t) = Re{U
√
2 · Re{U · ejωt }.
Wie erw¨ahnt, ist es in der Elektrotechnik oft u¨ blich, komplexe Gr¨oßen zu unterstreichen. Im Interesse einer einfacheren Schreibweise wird allerdings auf diese Unterstreichungen verzichtet. Abschließend wird noch auf eine M¨oglichkeit zur anschaulichen Erkl¨arung der Zusammenh¨ange im komplexen und im realen physikalischen Bereich hingewiesen.
40
1 Grundlagen der Elektrotechnik und Elektronik Im↑
Wir nehmen an, dass eine komplexe Spannungsamplituˆ =u de U ˆejϕ mit ϕ = π/6 gegeben ist. Diese komplexe Amplitude ist in dem Bild als Zeiger in der Gauß’schen Zahlenebene eingetragen. Die Multiplikation der komˆ · ejωt kann so interplexen Amplitude mit ejωt , also U ˆ mit der Kreisfrepetriert werden, dass sich der Zeiger U quenz ω im mathematisch positiven Sinne dreht. Die Projektion des Zeigers auf die reelle Achse der Gauß’schen ˆ ejωt } = Re{ˆ uej(ωt+ϕ) } = Zahlenebene ergibt Re{U u ˆ · cos(ωt + ϕ), also die zugrundeliegende pysikalische Spannung.
. . . . . . . . . . . jωt . . . . .... . ............. . . . ......... .... ... . . . ...... . . . . ... . . .. ... . . ... . . . ... . ........ . . . . .. .......... . . . . . . . . . . . . ......... ........ . . . . . . . . .......... ... .. ....... . . . . . . ... ... ...... . . . ...... ... ... . ... ... ....... ... . ... ............ . . . . . . . . ... .. .......... . . . . . . ... ... .......... . . . .. . . →Re ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
ˆ ·e U
t
ˆ U ϕ
ωt
0 ←− −→ u(t)
1.6.4 Der komplexe Widerstand Ist U die an einem Zweipolelement anliegende komplexe Spannung und I der komplexe Strom durch diesen Zweipol, dann nennt man die Quotienten: Z =
U , I
Y =
I 1 = , U Z
(1.60)
den komplexen Widerstand bzw. den komplexen Leitwert dieses Zweipolelementes. F u¨ r den komplexen Widerstand Z ist auch die Bezeichnung Impedanz und fu¨ r den komplexen Leitwert Y die Bezeichnung Admittanz u¨ blich. Die Impedanz des Ohm’schen Widerstandes Bei einem ohmschen Widerstand gilt nach Gl. (1.30) der Zusammenhang: u(t) = R · i(t). Wenn: i(t) = ˆi cos(ωt + ϕi ) ist, wird u(t) = Rˆi cos(ωt + ϕi ). Dann gilt:
U-
I -
R
1 √ ˆ jϕi 1 √ ˆ jϕi U = R. (1.61) 2 ie , U = 2 iRe und Z = 2 2 I Bei einem ohmschen Widerstand stimmt also der Gleichstrom-Widerstand mit dem komplexen Widerstand u¨ berein. I=
Die Impedanz eines Kondensators Bei einem Kondensator gilt nach Gl. (1.31) der Zusammenhang: i(t) = C
d u(t) . dt
C
I -
U
Wenn u(t) = u ˆ cos(ωt + ϕu ) ist, wird: ˆωC cos(ωt + ϕu + π/2) = ˆi cos(ωt + ϕi ), i(t) = −ˆ uωC sin(ωt + ϕu ) = u mit ˆi = u ˆ ωC und ϕi = ϕu + π/2. Dann wird: U=
1√ 2u ˆejϕu , 2
I=
1 √ ˆ jϕi 1√ 1√ 2 ie = 2u ˆ ωCej(ϕu +π/2) = 2u ˆ ωCejϕu ejπ/2 . 2 2 2
1.7 Schaltungen in der Wechselstromtechnik Mit ejπ/2 = cos(π/2) + j sin(π/2) = j folgt: I = Z=
1 U = , I jωC
41 1 2
√
2u ˆjωCejϕu und dann:
Y =
1 = jωC. Z
(1.62)
Aus den oben angegebenen und abgeleiteten Beziehungen u(t) = u ˆ cos(ωt + ϕ u ) und i(t) = ˆi cos(ωt + ϕu + π/2) erkennt man, dass der Strom und die Spannung an einem Kondensator um den Phasenwinkel π/2, (1/4 Periodendauer) gegeneinander verschoben sind. Der Strom eilt der Spannung am Kondensator um ϕ = π/2 voraus. Die Impedanz einer Spule Bei der Spule besteht nach Gl. (1.43) der Zusammenhang:
I -
d i(t) u(t) = L . dt
U
-
L
bei dem Kondensator Mit i(t) = ˆi cos(ωt + ϕi ) enth¨alt man entsprechend √ den Rechenschritten √ u(t) = ˆi ωL cos(ωt + ϕi + π/2) und dann I = 12 2 ˆiejϕi , U = 12 2 ˆijωLejϕi , Z=
U = jωL, I
Y =
1 1 = . Z jωL
(1.63)
Auch bei einer Induktivit¨at besteht zwischen dem Strom und der Spannung eine Phasendifferenz vonπ/2. Der Strom eilt der Spannung an der Spule um ϕ = π/2 nach.
1.7 Schaltungen in der Wechselstromtechnik 1.7.1 Zusammenschaltungen komplexer Widersta¨ nde Weil die komplexen Str¨ome und Spannungen die Kirchhoff’schen Gesetze erfu¨ llen, gelten die Zusammenschaltungsregeln (siehe Gln. 1.13 und 1.14) fu¨ r Widerst¨ande aus der Gleichstromtechnik in gleicher Weise f¨ur komplexe Impedanzen. Die verlustbehaftete Spule Wie im Abschnitt 1.5.3 erkl¨art wurde, kann eine reale Spule in erster N¨aherung durch die rechts stehende Schaltung beschrieben werden. Der Verlustwiderstand R ist bei guten Spulen sehr klein. Wegen der Reihenschaltung k¨onnen die Impedanzen addiert werden:
U I
R
L
Z = R + jωL.
(1.64)
Zur graphischen Darstellung der komplexen Funktion Z ko¨ nnte man beispielsweise den Betrag und Phasenwinkel auftragen: ZL = |Z|ejϕ ,
|Z| =
R2 + ω 2 L2 ,
ϕ = arctan (ωL/R).
(1.65)
42
1 Grundlagen der Elektrotechnik und Elektronik Im
Rechts ist eine weitere Darstellungsart f¨ur die Impedanz Z angegeben. Die komplexe Gr¨oße Z = R + jωL wird als Zeiger in der Gauß’schen Zahlenebene dargestellt. Wenn man ω erh¨oht, dann bewegt sich die Spitze des Zeigers entlang der senkrechten Linie nach oben. Diese Linie, auf der sich die Zeigerspitze in Abh¨angigkeit von der Frequenz bewegt, nennt man Ortskurve. Weil im vorliegenden Fall der Imagin¨arteil von Z nur positive Werte annehmen kann, spricht man hier auch von einem induktiven Verhalten.
6 jωL
Ortskurve
>Z |Z| ϕ Re R
Die Qualit¨at einer Spule wird durch ihre sogenannte Gu¨ te beschrieben: Q =
ωL . R
(1.66)
Die Spule ist bei einer gegebenen Frequenz umso besser, je gro¨ ßer das Verh¨altnis von ωL zu dem Verlustwiderstand R ist. In der Praxis sind Spulengu¨ ten bis zu Werten von ca. 500 erreichbar. Der verlustbehaftete Kondensator Aus der rechts skizzierten Ersatzschaltung fu¨ r einen verlustbehafteten Kondensator (siehe Abschnitt 1.5.2) erh¨alt man den komplexen Leitwert, die Admittanz Y . Die Beziehung (1.67) entspricht formal vollkommen der Beziehung f¨ur die Impedanz bei der verlustbehafteten Spule. Nach einigen Umrechnungsschritten und mit R = 1/G erh¨alt man die Impedanz ZC der Schaltung.
ZC =
-I
•
C U ?
G •
Yc = G + jωC. (1.67)
1 R R 1 − jωRC R − jωR2 C 1 = = = · = , Y G + jωC 1 + jωRC 1 + jωRC 1 − jωRC 1 + ω 2 R2 C 2 ZC =
R ωR2 C − j . 1 + ω 2 R2 C 2 1 + ω 2 R2 C 2
Im Gegensatz zur verlustbehafteten Spule ist der Imagin¨arteil von ZC stets negativ, man spricht dann von einem kapazitiven Verhalten. Genau so wie bei Spulen, kann auch bei Kapazit¨aten eine G¨ute Q = ωC/G definiert werden. Das G¨utemaß ist bei Kondensatoren aber nicht so wichtig wie bei Spulen, weil Kondensatoren oft sehr große G¨utewerte aufweisen und die Rechnung daher mit idealen Kondensatoren erfolgen kann. U
Der Reihenschwingkreis Die Reihenschaltung eines ohmschen Widerstandes, einer Spule und eines Kondensators wird als Reihenschwingkreis bezeichnet. Der Widerstand R kann als Verlustwiderstand der Spule aufgefasst werden.
I
UR R
UL -
UC -
L C U0 Bei einer verlustfreien Spule ist R = 0, dann liegt ein verlustfreier Reihenschwingkreis vor. In dem Bild oben rechts ist der Reihenschwingkreis an eine Spannungsquelle angeschlossen.
1.7 Schaltungen in der Wechselstromtechnik
43
Zuerst berechnen wir die Impedanz des Reihenschwingkreises und erhalten:
1 1 = R+j ωL − Z = R+jωL+ = R+jX. jωC ωC
↑Im
1 jωC
jωL 6 1 =−j ωC
:? Z R →Re
Das Bild zeigt Z als Vektor in der Gauß’schen Zahlenebene. Z ist die Summe der drei Vektoren R, jωL 1 . Offenkundig bewegt sich die Zeigerspitze des und jωC Summenvektors Z l¨angs der gestrichelten Linie (Ortskurve). Bei großen ω-Werten u¨ berwiegt der induktive Anteil: 1 > 0. Die Schaltung verh¨alt sich dann X = ωL − ωC 1 , dann ist induktiv. Bei kleinen ω-Werten ist ωL < ωC X < 0, man spricht von einem kapazitiven Verhalten.
Ortskurve
Aus dem Bild erkennt man unmittelbar, dass der Betrag |Z| der Impedanz genau dann minimal wird, wenn: 1 =0 X = ωL − ωC wird. Dieser Fall tritt bei der Frequenz ω = 1/(LC) auf. Man bezeichnet sie als die Resonanzfrequenz (genauer: Resonanzkreisfrequenz ωr ) des Schwingkreises. Es gilt: ωr = √
1 . LC
Bei ωr wird Z = R und bei einem verlustfreien Reihenschwingkreis (R = 0) wird Z = 0. Ein verlustfreier Reihenresonanzkreis hat bei sei√ ner Resonanzfrequenz ωr = 1/ LC den Widerstand Z = 0. Das Bild zeigt den prinzipiellen Verlauf von X = 1 . Bei niedrigen Frequenzen (ω < ωr ) verh¨alt ωL− ωC sich die Schaltung kapazitiv und bei gr¨oßeren Frequenzen (ω > ωr ) induktiv. Bei ganz niedrigen Fre1 , die Schaltung kann quenzen gilt sogar X ≈ − ωC durch die Kapazit¨at ersetzt werden. Bei sehr großen Frequenzen wird X ≈ ωL, die Schaltung kann durch die Induktivit¨at ersetzt werden.
(1.68) ↑ X = ωL −
1 ωC
. . .......... kapaziti- . induktives ................... ................... . ................... ................... . . ves Ver- . Verhalten . . . . . . . . . . . . . . . . ............ .................. halten .. .................. ................. ................. . ................ . . . . . . . . . . . . . . . ... . ............... . ........................ ...... .......... ....... . . . . √1 .... r .... LC .... ... . ... .. . ... ... ... .... .. ... ... .... .. ... ... .... . ..
ω =
→ω
Wir untersuchen nun das Verhalten des an die Spannungsquelle angeschlossenen Reihenschwingkreises. Dann fließt der Strom: I =
U0 U0 = Z R + jωL +
1 jωC
.
Zun¨achst interessiert die Spannung UC an der Kapazit¨at: UC = I ·
U0 U0 1 = = . jωC 1 + jωRC + (jω)2 LC 1 − ω 2 LC + jωRC
44
1 Grundlagen der Elektrotechnik und Elektronik
Aus dieser Gleichung erhalten wir den folgenden Betrag: UC 1 U0 = (1 − ω 2 LC)2 + ω 2 R2 C 2 . Im verlustfreien Fall (R = 0) ergibt sich aus Gl. (1.69): UC 1 . = U0 |1 − ω 2 LC|
(1.69)
(1.70)
ω =ωr
Dies √ bedeutet, dass beim verlustfreien Reihenschwingkreis bei der Resonanzfrequenz ω = ω r = 1/ LC an der Kapazit¨at eine unendlich große Spannung UC auftritt. Im Fall R = 0 erh¨alt man aus Gl. (1.69) bei ωr : UC ωr ωr 1 ωr L = 2 = 1 = Q. (1.71) = = U0 ω RC ω RC R RC r r ω=ωr LC Q wurde oben als G¨ute der Spule eingef¨uhrt. Die Qualit¨at einer Spule ist umso besser, je gr¨oßer die Impedanz ωr L (hier ω = ωr ) im Vergleich zu dem Verlustwiderstand R ist. Man kann zeigen, dass bei Spuleng¨uten von Q > 4 . . . 5 die Funktion |UC /U0 | in der N¨ahe von ωr ihr Maximum aufweist, und dass dann am Kondensator eine (maximale) Spannung |UC | ≈ Q · |U0 | auftritt. ↑ UUC0 Als Beispiel untersuchen wir einen Reihen. ..... schwingkreis mit den Bauelementewerten R = 10 . . . . . . . . . . . . . ........ .......... ... ..... . 1 Ω, L = 10 mH und C = 100 μF. Dieser .. . .... .. .. ... . ... Reihenschwingkreis hat eine Resonanzkreisfre.... . .... ... . .... . . .. . .... quenz von ωr = 1000 s−1 . Die Spuleng¨ute .. . ... ... . .... .... . .... hat bei der Resonanzfrequenz den Wert Q = . .. . .... .. .. . .... .. ωr L/R = 10. Dies bedeutet, dass bei der Re... . .... ... . .... . . .. sonanzfrequenz an der Kapazit¨at eine Spannung . ... .... ... . ... .. . .. .. von ca. 10·|U0 | auftritt. Das nebenstehende Bild ... .. . . .. .. . ... . .. . zeigt den Verlauf von |UC /U0 |. Man erkennt, .. . .. .. . .. . . . ... . ... .. . . dass das Maximum in der unmittelbaren N¨ahe . .. .. . . . .. . . .... ... . . . −1 . . . . ... ..... . . . . von ωr = 1000 s liegt und der Maximalwert . . . . . . . .... . .... . ..... 1 .......................... ....... . .......... etwa 10 ist. ................... . ............................................................................. ...... . →ω 1000 Wie oben schon erw¨ahnt wurde, sind Spulen mit G¨uten von bis zu 500 realisierbar. Das bedeutet, dass bei einer Spannungsquelle mit |U0 | = U0ef f = 1V, Spannungen am Kondensator von bis zu 500 V (Effektivwert) m¨oglich sind. Man spricht in diesem Fall von einer Resonanzu¨ berh¨ohung. In der Praxis ist dieser Effekt auch deshalb von Bedeutung, weil auch in Schaltungen mit niedrigen Betriebsspannungen unter Umst¨anden Kondensatoren mit sehr hohen Durchschlagsspannungen eingebaut werden m¨ussen. F¨ur die Spannungen an dem Widerstand und der Induktivit¨at erh¨alt man mit UR = I · R und I = U0 /Z: UR ωRC UR R = = , . (1.72) 1 2 U0 U0 R + jωL + (1 − ω LC)2 + ω 2 R2 C 2 jωC
Bei√ausreichend großen Spuleng¨uten (Q > 5) tritt auch hier bei der Resonanzfrequenz ωr = 1/ LC ein Maximum auf: UR = 1. U0 ω=ωr
1.7 Schaltungen in der Wechselstromtechnik F¨ur die Spannung an der Induktivit¨at erh¨alt man: UL ω 2 LC jωL UL = = , . 1 2 U0 U0 R + jωL + jωC (1 − ω LC)2 + ω 2 R2 C 2
45
(1.73)
Bei der Resonanzfrequenz wird: UL ωr L = Q. = U0 R ω=ωr Bei der Spule tritt bei der Resonanzfrequenz die gleiche Spannungsu¨ berh¨ohung wie am dem Kondensator auf. Zum Abschluss dieses Beispiels folgt noch eine Ru¨ ckbesinnung auf den physikalischen Hintergrund. Es sei u0 (t) = u ˆ0 cos(ωt) die Spannung an einem Reihenschwingkreis mit der Gu¨ te Q = 10. Gesucht sind die Spannungen uR (t), uL (t) und uC (t) an Widerstand, Spule und Kondensator bei der Resonanzfrequenz des Reihenschwingkreises. √ Aus u0 (t) = u ˆo cos(ωt) folgt U0 = 12 2ˆ u0 . Bei der Resonanzfrequenz wird UR = U0 und ˆ0 cos(ωt). Dies ist ein sehr einleuchtendes Ergebnis. Bei der Resonanzfrequenz damit uR (t) = u hat die Reihenschaltung die Impedanz Z = R, die gesamte Spannung muss an R abfallen, also uR (t) = u0 (t). F¨ur die Induktivit¨at gilt bei der Resonanzfrequenz UL = jQU0 = QU0 ejπ/2 . u0 cos(ωt + π/2). Die Spannung hat die Q-fache Amplitude wie die der Daraus folgt uL (t) = Qˆ Spannungsquelle und ist gegen¨uber dieser um π/2 verschoben. Bei der Kapazit¨at erh¨alt man aus u0 cos(ωt − π/2). den obigen Beziehungen UC = U0 Q/j = QU0 e−jπ/2 . Damit wird uC (t) = Qˆ Auch hier tritt eine um π/2 verschobene Spannung mit der Q-fachen Amplitude auf: u C (t) = −uL (t). Der Parallelschwingkreis • • Eine Parallelschaltung eines Widerstandes, einer Spule und ei? ? IC ? I I G L nes Kondensators nennt man Parallelschwingkreis. Rechts ist ein solcher Parallelschwingkreis skizziert, der durch eine Strom- I0 6 quelle gespeist wird. Der Gesamtleitwert der Parallelschaltung L C G ergibt sich zu:
1 1 Y = G + jωC + = G + j ωC − . (1.74) • • jωL ωL Die Beziehung (1.74) entspricht derjenigen fu¨ r die Impedanz des Reihenschwingkreises, wenn 1 1 → jωL . dort die Widerst¨ande durch Leitwerte ersetzt werden: R → G, jωL → jωC, jωC √ Der Betrag |Y | des Gesamtleitwertes wird bei der Resonanzfrequenz ωr = 1/ LC minimal, |Y |min = G. Im Fall G = 0 wird Y = 0. √ Ein verlustfreier Parallelschwingkreis hat bei seiner Resonanzfrequenz ωr = 1/ LC den Leitwert 0 oder einen unendlich großen Widerstand. Alle f¨ur den Reihenschwingkreis abgeleiteten Ergebnisse ko¨ nnen f¨ur den an eine Stromquelle angeschlossenen Parallelschwingkreis u¨ bernommen werden, wenn an die Stelle der Impedanzen
46
1 Grundlagen der Elektrotechnik und Elektronik
die Admittanzen und an die Stelle von Spannungen Stro¨ me treten. So erh¨alt man beispielsweise f¨ur den Strom durch den Kondensator nach dem Stromteilungssatz (1.26): IC = I0
jωC G + jωC +
1 jωL
.
Das Verh¨altnis von IC /I0 entspricht dem Spannungsverh¨altnis UL /U0 des Reihenschwingkreises (s. Gl. 1.73).
1.7.2
¨ Ubertragungsfunktion und D¨ampfung von Filterschaltungen
Die rechts skizzierte Anordnung zeigt eine Schaltung, die an eine Spannungsquelle mit der Spannung U0 angeschlossen ist. Von Interesse ist der Verlauf der Ausgangsspannung U2 in Abh¨angigkeit von der Frequenz ω. ¨ Zur Beschreibung dieser Abh¨angigkeit wird die Ubertragungsfunktion G(jω) definiert:
•
lU0 ?
•
Schaltung •
U2
?
•
G(jω) =
U2 . U0
(1.75)
Bei Kenntnis von G(jω) erh¨alt man die gesuchte Ausgangsspannung: U2 = G(jω) · U0 . Das Argument jω bei G(jω) soll auf die in der Regel vorhandene und oft auch erw u¨ nschte ¨ ¨ Abh¨angigkeit der Ubertragungsfunktion von der Frequenz hinweisen. Die i.A. komplexe Ubertragungsfunktion G(jω) kann auch in der Form: G(jω) = |G(jω)| · ejϕ(ω) , mit dem Betrag |G(jω)| und dem Phasenwinkel ϕ(ω) dargestellt werden. In der Informationstechnik verwendet man oft ein logarithmisches Maß der Betragsfunktion: A(ω) = −20 · lg |G(jω)|.
(1.76)
A(ω) wird als D¨ampfung bezeichnet und hat die (Pseudo-) Einheit Dezibel (dB). G(jω) = 1 entspricht der D¨ampfung A = 0. Wenn |G(jω)| < 1 ist, wird A > 0 und bei |G(jω)| √ > 1 erh¨alt man eine negative D¨ampfung. Von einiger Wichtigkeit ist der Wert |G(jω)| = 21 2. Dann √ wird A(ω) = −20 · lg ( 12 2) = 10 · lg 2 = 3, 01 ≈ 3 dB. In der unten stehenden Tabelle sind die D¨ampfungswerte f¨ur einige Werte von |G(jω)| zusammengestellt. Bei einer gegebenen D¨ampfung in dB erh¨alt man durch Umstellung der angegebenen Gleichung (1.76) den Betrag der 3 ¨ Ubertragungsfunktion: |G(jω)| = 10−A(ω)/20 . Zusammenstellung einiger D¨ampfungswerte: |G(jω)|: A(ω) [dB]:
1 1000
1 100
1 10
1 2
1√ 2 2
1
√2 2
2
10
100
1000
60
40
20
6
3
0
−3
−6
−20
−40
−60
3 Bei dieser Gleichung handelt es sich um eine Zahlenwertgleichung. Die D¨ ampfung muss hier in Dezibel eingesetzt werden.
1.7 Schaltungen in der Wechselstromtechnik
47
Der Tiefpass Rechts ist die einfachste Realisierungsschaltung fu¨ r einen Tief¨ pass dargestellt. Die Ubertragungsfunktion kann unmittelbar mit der Spannungsteilerregel berechnet werden: 1
1 U2 1 jωC = . G(jω) = = = 1 U1 1 + jωRC 1 + jωτ R + jωC
•
R U0 = U1 ?
U2
C
? •
Darin ist τ = RC die im Abschnitt 1.5.2 eingefu¨ hrte Zeitkonstante. Aus dieser Beziehung erh¨alt man den Betrag und Phasenwinkel: 1 , |G(jω)| = √ 1 + ω2τ 2
ϕ(ω) = − arctan (ωτ ).
Hinweis zur Berechnung des Betrages und des Phasenwinkels: ¨ Ubertragungsfunktionen von Netzwerken sind gebrochen rationale Funktionen in jω und haben damit stets die Form G(jω) = P1 (jω)/P2 (jω). P1 und P2 sind dabei Polynome in jω. Im vorliegenden Fall lautet das Z¨ahlerpolynom P1 (jω) = 1 und das Nennerpolynom P2 (jω) = 1 + jωτ . Mit P1 (jω) = |P1 | · ejα , P2 (jω) = |P2 | · ejβ erh¨alt man dann: |P1 | · ejα |P1 | j(α−β) P1 e = , |G(jω)| = , ϕ = α − β. |P2 | · ejβ |P2 | P2 √ Im vorliegenden Fall ist |P1 | = 1, |P2 | = 1 + ω 2 τ 2 , α = 0 und β = arctan (ωτ ). Der Betrag ¨ und der Phasenwinkel der Ubertragungsfunktion sind unten aufgetragen. G(jω) = |G(jω)|ejϕ =
1 .......↑.. |G(jω)|
.. .. .. .. .. √ . 1 . . 2 . ...... 2 .. . .... . .... ... . ... .... . .... ..... . ...... . ....... ......... . ........... ............... . ..................... ................................ . ................... . .
ω = τ1
→ω
↑ ϕ(ω) ω =. τ1
.. .. . .. .. . .. .. .. . ... . ... . ... .. . .. . . −π/4 . . . ...... ... ... .... ..... ...... ........ .......... ............... ........................ ............................................. ........................ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . −π/2
→ω
Bei der speziellen Kreisfrequenz ω = 1/τ wird offenbar 1√ 1 |G(j/τ )| = √ = 2, 2 2
A(1/τ ) = −20 · lg(
1√ 2) = 3 dB. 2
Die Kreisfrequenz, bei der die √ D¨ampfung den Wert von 3 dB erreicht, bzw. bei der der Betrag ¨ der Ubertragungsfunktion auf 12 2 abgeklungen ist, wird oft als Grenzfrequenz ωg des Tiefpasses bezeichnet. Der Bereich bis zu der Grenzfrequenz ist der Durchlassbereich, der Bereich oberhalb ωg der Sperrbereich des Tiefpasses. Bei kleinen Frequenzen ist |G(jω)| ≈ 1, d.h. niedrigfrequente Signale werden kaum ged¨ampft. Umgekehrt werden Signale mit großen Frequenzen stark ged¨ampft. Die Phase hat bei ω = 0 den Wert 0, bei der Grenzkreisfrequenz den Wert ϕ(1/τ ) = −π/4 und f¨ur ω → ∞ wird ϕ = −π/2.
48
1 Grundlagen der Elektrotechnik und Elektronik
Mit der Grenzfrequenz ωg = Form dargestellt werden:
1 τ
=
|G(jω)| =
1 RC
kann der Betrag und der Phasenwinkel auch in folgender
1 , 1 + (ω/ωg )2
ϕ(ω) = −arctan(ω/ωg ).
Zus¨atzliche Bemerkungen: Bei dem beschriebenen Tiefpass handelt es sich um die einfachste mo¨ gliche Realisierungsstruktur. In der Praxis verwendet man aufw¨andigere Schaltungen (s. Abschnitt 1.10.3 Beispiel 1.39). Als ¨ idealen Tiefpass bezeichnet man ein System mit einem Betrag der Ubertragungsfunktion: k f¨ur ω < ωg . (1.77) |G(jω)| = 0 f¨ur ω > ωg Der Phasenwinkel eines idealen Tiefpasses nimmt im Durchlassbereich linear mit der Frequenz ab. In dem Abschnitt Systemtheorie dieses Buches wird der ideale Tiefpass ausf u¨ hrlich besprochen. Beispiel 1.22 Gegeben ist ein RC-Tiefpass mit einer Grenzfrequenz fg = 1000 Hz. Gesucht sind ¨ die Betr¨age der Ubertragungsfunktion, die D¨ampfungen und die Phasenwinkel bei den Frequenzen 0 Hz, 500 Hz, 1000 Hz, 5000 Hz und 10000 Hz. Außerdem ist das Ausgangssignal u 2 (t) bei dem ˆ0 cos(ωt) bei f = 1000 Hz zu ermitteln. Aus den oben abgeleiteten Eingangssignal u0 (t) = u Beziehungen findet man mit ω/ωg = f /fg : |G(j2πf )| =
1 , 1 + (f /fg )2
A = 10 · lg [1 + (f /fg )2 ],
Mit diesen Beziehungen erhalten wir die nebenstehenden Ergebnisse.
ϕ = − arctan (f /fg ).
f [Hz]: 0 500 1000 Bei u (t) = u ˆ cos(ωt) wird U = 0 0 |G| : 1 0,894 0,707 √ 0 1 uo , U2 = G(jω) · U0 . Aus der 2 2ˆ 3 Tabelle entnimmt man f¨ur √ f = 1000 A [dB] : 0 0,969 1 o Hz die Werte |G(jω)| = 2 2, ϕ : 0 −26, 6 −45o 0 ϕ = −45 = −π/4, damit wird: 1√ 1 ˆ0 e−jπ/4 . U2 = 2u ˆ0 |G(jω)|ejϕ = u 2 2 Damit folgt schließlich: u2 (t) =
√
2 · |U2 | · cos(ωt + ϕ) =
1√ 2u ˆ0 cos(ωt − π/4), 2
5000
10000
0,196
0,0995
14,15 −78, 7
20 o
−84, 3o
ω = 2π · 1000 s−1 .
Beispiel 1.23 Noch einmal wird der RC-Tiefpass mit der Grenzfrequenz fg = 1000 Hz untersucht. Das Eingangssignal ist: ˆ01 cos(ω1 t) + u ˆ02 cos(ω2 t) mit f1 = 500 Hz, f2 = 5000 Hz. u0 (t) = u Das Ausgangssignal des Tiefpasses soll berechnet werden. Die besprochenen Berechnungsverfahren sind nur f¨ur sinusf¨ormige Vorg¨ange anwendbar, nicht jedoch f¨ur die Summe sinusf¨ormiger
1.7 Schaltungen in der Wechselstromtechnik
49
Teilsignale mit unterschiedlichen Frequenzen. Trotzdem k¨onnen wir das vorliegende Problem mit unseren Kenntnissen l¨osen. Dazu betrachten wir die rechts mu01 (t) R skizzierte Schaltung. Die Spannung u0 (t) entsteht durch ? C die Reihenschaltung zweier Spannungsquellen mit den u0 (t) mu0 (t) ? Teilspannungen: ?2 ˆ01 cos(ω1 t) und u02 (t) = u ˆ02 cos(ω2 t). u01 (t) = u
•
u2 (t) ? •
¨ Die weitere Berechnung erfolgt mit dem Uberlagerungssatz. Zun¨achst wird die untere Spannungsquelle kurzgeschlossen (u02 (t) = 0). Dann liegt ein l¨osbares Problem vor: 1√ U21 = G(jω1 ) · U01 = 2u ˆ01 · 0, 894 · e−j0,4636 (siehe Tabelle bei Beispiel 1.22), 2 u21 (t) = u ˆ01 · 0, 894 · cos(ω1 t − 0, 4636). Bei Kurzschluss der oberen Quelle (u01 (t) = 0) erh¨alt man entsprechend: 1√ U22 = G(jω2 ) · U02 = 2u ˆ02 · 0, 196 · e−j1,37 (siehe Tabelle bei Beispiel 1.22), 2 u22 (t) = u ˆ02 · 0, 196 · cos(ω2 t − 1, 37). Das Gesamtergebnis lautet: ˆ01 · 0, 894 · cos(ω1 t − 0, 4636) + u ˆ02 · 0, 196 · cos(ω2 t − 1, 37). u2 (t) = u21 (t) + u22 (t) = u Bemerkungen: 1. Bekanntlich k¨onnen beliebige periodische Funktionen in Form von Fourier-Reihen (s. Gl. 1.78) dargestellt werden. Wenn u0 (t) eine periodisch verlaufende Spannung ist, gilt: u0 (t) = c0 +
∞
cν · cos(νω0 t − ϕν ).
(1.78)
ν=1
Darin ist ω0 = 2π/T die Grundkreisfrequenz der mit der Periodendauer T periodischen Spannung u0 (t). Daraus folgt, dass u0 (t) als Summe sinusf¨ormiger Signale dargestellt werden kann. F¨ur jede der Teilschwingungen kann die Reaktion des Netzwerkes mit der komplexen Rechnung ermittelt ¨ werden. Die Uberlagerung der so ermittelten Teilergebnisse ergibt die gesuchte Netzwerkreaktion auf das periodische Eingangssignal u0 (t). 2. Im vorliegenden Fall bestand das Einganssignal fu¨ r den Tiefpass aus der Summe von zwei sinusf¨ormigen Signalen mit den Amplituden u ˆ01 und u ˆ02 . Oft ist die Spannung u01 (t) die erw¨unschte Spannung (das Nutzsignal) und die h¨oherfrequente Spannung u02 (t) eine nicht erw¨unschte St¨orspannung. Zur qualitativen Beurteilung der Sto¨ rung f¨uhrt man Klirrfaktoren: k1 =
u ˆ 02 |U02 | , = u ˆ 01 |U01 |
k2 =
u ˆ 22 |U22 | = u ˆ 21 |U21 |
k1 am Eingang des Tiefpasses und k2 am Tiefpassausgang ein. Im vorliegenden Fall wird: k2 =
0, 196 · k1 = 0, 219 · k1 . 0, 894
Der Klirrfaktor am Ausgang des Tiefpasses ist wesentlich kleiner als der am Eingang. Durch den Tiefpass k¨onnen St¨orungen reduziert oder sogar vollst¨andig unterdr¨uckt werden.
50
1 Grundlagen der Elektrotechnik und Elektronik
Der Hochpass
Rechts ist die einfachste Realisierungsstruktur fu¨ r einen Hoch¨ pass skizziert. Die Ubertragungsfunktion lautet:
•
C U1 ?
R jωRC U2 . = = G(jω) = 1 U1 1 + jωRC R + jωC
U2
R
? •
F¨ur den Betrag und den Phasenwinkel erh¨alt man: ωRC , |G(jω)| = √ 1 + ω 2 R2 C 2
ϕ(ω) =
π − arctan (ωRC). 2
Zur Ermittlung der Formel f¨ur den Phasenwinkel wird auf die Bemerkungen im vorausgegangenen Abschnitt u¨ ber den Tiefpass hingewiesen. Der Verlauf von Betrag und Phasenwinkel sind unten dargestellt. ............................................................................................................. 1 ↑ |G(jω)| ..................... ..........
... ..... .... ... .. √ . . 1 2. . . ...... 2 . ... . .. .. . ... . .. .. . .. .. . .... . . . .. .. . .. .. . ... . .. . ...
→ω
ω = τ1
π/2 ....
↑ ϕ(ω)
.. .. .. .. .. ... .. ... ... .. .. . π/4 . . . ....... .. . ...... .... . ..... ...... . ........ .......... . ............... ....................... . ........................................ ...................................... . .
→ω
ω = τ1
1 ¨ ωg = RC = τ1 ist die Grenzkreisfrequenz, bei der der Betrag der Ubertragungsfunktion auf den √ 1 Wert 2 2 (3 dB Punkt) angestiegen ist. Der Hochpass d¨ampft Signale mit niedrigen Frequenzen, hochfrequente Signale werden hingegen mit geringer D¨ampfung durchgelassen.
Der Bandpass
Ein Bandpass hat die Aufgabe, Signale in einem bestimmten Frequenzbereich durchzulassen und Signale mit Frequenzen außerhalb des Durchlassbereiches, zu sperren. Die einfachste m¨ogliche Realisierungsstruktur f¨ur einen Bandpass ist rechts skizziert.
• •
R U1 ?
L • •
C U2 ?
¨ Die Ubertragungsfunktion kann auch hier mit der Spannungsteilerregel berechnet werden: jωL/(jωC)
G(jω) =
jωL/R U2 jωL+1/(jωC) . = = jωL/(jωC) U1 1 + jωL/R + (jω)2 LC R + jωL+1/(jωC)
1.7 Schaltungen in der Wechselstromtechnik
51 ↑ |G(jω)|
¨ Daraus erh¨alt man den Betrag der Ubertragungsfunktion: |G(jω)| =
1...
ωL/R (1 − ω 2 LC)2 + ω 2 L2 /R2
.
Aus dieser Beziehung und auch aus dem rechts skizzierten ¨ Verlauf von |G(jω)| erkennt man, dass der Betrag der Uber√ tragungsfunktion bei der Resonanzfrequenz ωr = 1/ LC des Parallelschwingkreises im Querzweig der Schaltung den Wert |G(jω)| = 1 hat.
...... ... ... .. .. .. .... ... .. .. .. .. √ .. 1 . . ..... . . . .... 2 . 2 ..... .... . .... .... . . .... .. . ... . . ....... .... ... . . ..... ... . ...... . ....... ... ........ . .. . .......... ............. . ... . ................. ....................... ... . . ...................... ... . . ... . . ... . .. . . √1 LC
→ω
Dies ist auch physikalisch leicht nachzuvollziehen. Bei seiner Resonanzfrequenz hat der (verlustfreie) Parallelschwingkreis einen unendlich großen Widerstand. Damit fließt bei der Frequenz ω r kein Strom durch den Widerstand R und damit wird U2 = U1 . √ Die Frequenz ω = 1/ LC, bei der |G| = 1 ist, ist die Mittenfrequenz des Bandpasses. Der Durch¨ lassbereich ist hier der (im√Bild angedeutete) Bereich, in dem der Betrag der Ubertragungsfunkti1 on mindestens den Wert 2 2 hat (D¨ampfung max. 3 dB). Bandpassschaltungen in der Praxis sind aufw¨andiger und haben einen viel st¨arker ausgepr¨agten Durchlass- und Sperrbereich. Bei einem idealen Bandpass ist im Durchlassbereich |G(jω)| = 1 und im Sperrbereich |G(jω)| = 0.
Die Bandsperre Bei der rechts skizzierten Schaltung handelt es sich um eine ¨ einfache Bandsperre. Die Ubertragungsfunktion lautet G(jω) =
jωL +
1 jωC
R + jωL +
1 jωC
R U1 ?
1 + (jω)2 LC . = 1 + jωRC + (jω)2 LC
¨ Daraus erh¨alt man den rechts skizzierten Betrag der Ubertragungsfunktion |G(jω)| =
•
|1 − ω 2 LC| (1 − ω 2 LC)2 + ω 2 R2 C 2
Eine Bandsperre unterdr¨uckt Signale in einem schmalen Frequenzbereich und l¨asst Signale außerhalb des Sperrbereiches weitgehend unged¨ampft durch. √
U2
L
? •
↑ |G(jω)| ........................................................................ 1............ ........................... ............ √ 1 2. 2
.
C
... ..... .. ...... ... .... ... .. .. ... . . .... . . . ... ..... ... .. .... .. . .. ..... .. . . . . . ... .. . . .... .... . . .... ... . . .... .... . . .... ... . . ... .... . . ....... . . ........ . . ..... . √1 LC
→ω
Im vorliegenden Fall wird ein Signal mit der Frequenz 1/ LC vollst¨andig gesperrt. Physikalisch ist das leicht zu erkl¨aren, weil dies die Resonanzfrequenz des Reihenschwingkreises im Querzweig der√Schaltung ist. Ein (verlustfreier) Reihenschwingkreis hat bei seiner Resonanzfrequenz ω r = 1/ LC den Widerstand 0. Damit wird der Ausgang bei dieser Frequenz kurzgeschlossen. Bei dem Bild ist der Sperrbereich des Bandpasses markiert. Es ist der Bereich, bei dem der Betrag √ ¨ der Ubertragungsfunktion max. den Wert 21 2 hat (D¨ampfung mindestens 3 dB).
52
1 Grundlagen der Elektrotechnik und Elektronik
1.8 Die Leistung bei Wechselstrom 1.8.1 Wirk- Blind- und Scheinleistung i(t) = ˆi cos(ωt + ϕi ) sei ein Strom durch ein Zweipolelement. Die an diesem Zweipolelement ˆ cos(ωt + ϕi + ϕ) sein. ϕ ist also die Phaabfallende Spannung soll u(t) = u ˆ cos(ωt + ϕu ) = u senverschiebung zwischen dem Strom und der Spannung. Der komplexe Strom und die komplexe Spannung lauten: I=
1 √ ˆ jϕi 2ie , 2
U=
1√ 1√ 2u ˆ ej(ϕi +ϕ) = 2u ˆ ejϕi eϕ . 2 2
Wie im Abschnitt 1.6.3 erkl¨art wurde (s. Gl. 1.59), sind die Betr¨age dieser komplexen Gr¨oßen die Effektivwerte: 1√ ˆ 1√ Ief f = |I| = 2 i, Uef f = |U | = 2u ˆ. 2 2 Die in dem betrachteten Zweipolelement auftretende Augenblicksleistung lautet: p(t)
= u(t) · i(t) = u ˆ ˆi cos(ωt + ϕi + ϕ) cos(ωt + ϕi ) = 1 ˆ 1 ˆ u ˆ i · cos(ϕ) + u ˆ i cos(2ωt + 2ϕi + ϕ) = = 2 2 = Uef f Ief f · cos(ϕ) + Uef f Ief f · cos(2ωt + 2ϕi + ϕ).
(1.79)
In den allermeisten F¨allen ist nur der zeitliche Mittelwert der Augenblicksleistung von Interesse. Dieser kann wegen der Periodizit¨at durch eine Mittelung u¨ ber eine Periodendauer T = 2π/ω gewonnen werden: T 1 p(t) dt. P = T 0
Setzt man f¨ur p(t) den oben berechneten Ausdruck ein, dann erh¨alt man nach elementarer Rech¨ nung (Gute Ubung f¨ur die Studierenden!): P = Uef f Ief f · cos(ϕ).
(1.80)
ϕ ist darin die Phasenverschiebung zwischen Strom und Spannung. Den Faktor cos(ϕ) wird auch Leistungsfaktor genannt. Das Maximum von P wird natu¨ rlich f¨ur ϕ = 0 erreicht. Es wird nun die komplexe Leistung4 eingef¨uhrt: S = U · I ∗.
(1.81)
Darin ist U = Uef f ej(ϕi +ϕ) , I = Ief f ejϕi und I ∗ = Ief f e−jϕi der konjugiert komplexe Strom. Mit diesen Ausdr¨ucken lautet die komplexe Leistung: S = Uef f Ief f ejϕ = Uef f Ief f · cos(ϕ) + jUef f Ief f sin(ϕ). 4 Wie ganz zu Anfang erw¨ ahnt, wird auf Unterstreichungen komplexer Gro¨ ßen in diesem Manuskript verzichtet. Hier wird eine Ausnahme gemacht, weil das Formelzeichen S sp¨ater f¨ur die Scheinleistung verwendet wird.
1.8 Die Leistung bei Wechselstrom
53
¨ Der Realteil der komplexen Leistung ist offenbar die vorne berechnete mittlere Leistung P . Ublicherweise werden die entstandenen Ausdru¨ cke wie folgt eingef¨uhrt. Die mittlere Leistung wird auch als Wirkleistung bezeichnet: P = Uef f Ief f · cos(ϕ).
(1.82)
Der Imagin¨arteil der komplexen Leistung wird Blindleistung genannt: Q = Uef f Ief f · sin(ϕ).
(1.83)
Schließlich wird die Scheinleistung5 definiert: S = Uef f Ief f =
P 2 + Q2 .
(1.84)
Die nachstehende Tabelle enth¨alt f¨ur die wichtigen elementaren Bauelemente Widerstand, Kondensator und Spule die soeben eingef¨uhrten Leistungen, mit ihren wichtigsten Beziehungen.
Widerstand R Strom und
U =I ·R
U =I·
1 jωC
=
1 −jπ/2 = I ωC e
Spannung Effektivwerte,
Kapazit¨at C
Uef f = R · Ief f ,
Uef f =
1 ωC
· Ief f ,
Induktivit¨at L U = I · jωL = = IωLejπ/2 Uef f = ωL · Ief f ,
ϕ=0
ϕ = − π2
Wirkleistung
2 P = Uef f Ief f = Ief fR
P =0
P =0
Blindleistung
Q=0
Q = −Uef f Ief f =
Q = Uef f Ief f =
1 2 = −Ief f ωC
2 = Ief f ωL
S=P
S=Q
S=Q
Uef f Ief f +
Uef f Ief f ×
Uef f Ief f ×
+Uef f Ief f cos(2ωt+2ϕi )
× cos(2ωt+2ϕi −π/2)
× cos(2ωt+2ϕi +π/2)
Phase
Scheinleistung Augenblicksleistung
ϕ=
π 2
Im Zweipolelement Widerstand wird nur Wirkleistung umgesetzt. Bei dem Kondensator und bei der Spule wird keine Wirkleistung verbraucht. Die Augenblicksleistung hat hier den Mittelwert 0. Die Leistung pendelt bei diesen Zweipolelementen zwischen dem Kondensator bzw. der Spule und dem Generator. Beim Kondensator wird Leistung zum Aufbau des elektrischen Feldes ben o¨ tigt. Bei einem Vorzeichenwechsel der Spannung wird die im elektrischen Feld gespeicherte Energie wieder in den Generator zur¨uckgespeist. Bei der Spule wird Energie zum Aufbau des magnetischen Feldes ben¨otigt und wieder an den Generator zur¨uckgeliefert. 5 Wirk-, Blind- und Scheinleistung haben die Einheit [V A]. Die Einheit Watt (1 W = 1 V A) darf nur f u ¨ r die Wirkleistung verwendet werden.
54
1 Grundlagen der Elektrotechnik und Elektronik
Beispiel 1.24 Ein Zweipol besteht aus einer Reihenschaltung eines Widerstandes von 1000 Ω und einer Induktivit¨at von 0,5 H. Die Schaltung liegt an einer Spannung von 220 V, die Frequenz ist 50 Hz. Zu berechnen sind die Wirk-, Blind- und Scheinleistung. Mit der Impedanz: Z = R + jωL = 1000 + j · 2π50 · 0, 5 = 1000 + j157, 08 = 1012, 26 ej0,156 , erhalten wir den Strom: I=
U 220 = = 0, 2173e−j0,156 . Z 1012, 26 ej0,156
Die komplexe Leistung wird dann S = U · I ∗ = 220 · 0, 2173 ej0,156 = 47, 814ej0,156 = 47, 22 + j7, 427 = P + jQ. Damit wird die Wirkleistung P = 47, 22 W, die Blindleistung Q = 7, 427 VA und die Scheinleistung S = 47, 81 VA. Die Berechnung der Wirkleistung kann auch noch auf andere Art erfolgen. Wirkleistung wird nur in dem Widerstand umgesetzt. Dann gilt P = |I|2 · R = 0, 21732 · 1000 = 47, 22 W.
Beispiel 1.25 Dieses Beispiel behandelt die sogenannte Blindstromkompensation. Ein induktiver Verbraucher ist an eine Spannungsquelle mit einem Innenwiderstand Ri angeschlossen. Parallel zu dem Verbraucher wird eine Kapazit¨at geschaltet. Der Wert von C soll so festgelegt werden, dass die Verluste Pv = |I|2 Ri innerhalb der Energiequelle minimal werden.
Ri U0
?
I • -
•
R ≈ U0
IR ? IL
? Energiequelle
I -C
•
C
L •
Verbraucher
F¨ur die Rechnung wird vorausgesetzt, dass der Innenwiderstand Ri der Energiequelle sehr klein gegen¨uber dem Verbraucherwiderstand R ist. Dies entspricht den Verha¨ ltnissen in der Stromversorgung. Unter dieser Annahme kann der geringe Spannungsabfall innerhalb der Energiequelle vernachl¨assigt werden. Wir erhalten I = U0 · Y mit dem Eingangsleitwert des Verbrauchers:
R ωL 1 = 2 + j ωC − Y = jωC + . R + jωL R + ω 2 L2 R2 + ω 2 L2 Offensichtlich wird die Verlustleistung Pv = |I|2 Ri minimal, wenn |I| = |U0 | · |Y | und damit:
R ωL |Y | = 2 + j ωC − 2 2 2 2 2 R +ω L R +ω L minimal wird. Da die Werte von R, L und auch der Kreisfrequenz ω festliegen, erh a¨ lt man ein Minimum dann, wenn der Imagin¨arteil von Y verschwindet. Dies f¨uhrt zu der Bedingung: C=
R2
L . + ω 2 L2
1.8 Die Leistung bei Wechselstrom
55
Bei diesem Wert von C ist die Eingangsimpedanz des Verbrauchers rein reell: Z=
ω 2 L2 1 =R+ . Y R
Gleichzeitig wird |I| minimal und damit auch die Verlustleistung in der Energiequelle. Elektrizit¨atsversorgungsunternehmen verlangen normalerweise eine Blindstromkompensation, um damit Leistungsverluste im Generator und Versorgungsnetz niedrig zu halten. So muss z.B. bei Gasentladungslampen, die mit induktiven Vorschaltger¨aten betrieben werden, stets ein Kondensator zur Blindstromkompensation parallelgeschaltet werden. Zahlenwertbeispiel: R = 1000 Ω, L = 0, 5 H, f = 50 Hz: C=
10002
0, 5 = 48, 8 nF. + (2π50)2 0, 52
1.8.2 Leistungsanpassung bei Wechselstrom Im Gegensatz zu dem f¨ur Gleichstrom besprochenen Fall (Abschnitt 1.3.2) wird nun ein komplexer innerer Widerstand der Energiequelle Zi = Ri + jXi und ein komplexer Verbraucherwiderstand Z = R + jX vorausgesetzt. Z soll bei einer gegebenen inneren Impedanz Zi so gew¨ahlt werden, dass in ihm eine maximale Leistung umgesetzt wird. F¨ur die Wirkleistung in Z erh¨alt man:
U 0 ?
Zi
I •> U Z ? •
P = Re{U I ∗ } = Re{Z · I · I ∗ } = |I|2 · Re{Z} = R · |I|2 . Mit: I=
U0 U0 = Z + Zi (R + Ri ) + j(X + Xi )
erh¨alt man: P = |U0 |2
R . (R + Ri )2 + (X + Xi )2
R und X m¨ussen so gew¨ahlt werden, dass P maximal wird. Diesem Ziel kommt man sicher mit X = −Xi n¨aher. Dann erh¨alt man den gleichen Ausdruck: P = |U0 |2
R (R + Ri )2
(1.85)
der im Gleichstromfall (vgl. Abschnitt 1.3.2), mit R = Ri zu einem Maximum der abgegebenen Leistung f¨uhrt. Hier gilt: Z = R + jX = Ri − jXi = Zi∗ . (1.86) Bei Wechselstrom wird die Leistungsanpassung erreicht, wenn die Verbraucherimpedanz mit der konjugiert komplexen Impedanz der Energiequelle u¨ bereinstimmt. Es zeigt sich, dass bei Wechselstrom eine Leistungsanpassung i.A. immer nur fu¨ r eine ganz bestimmte Frequenz, nicht aber f¨ur einen ganzen Frequenzbereich, m¨oglich ist.
56
1 Grundlagen der Elektrotechnik und Elektronik
Beispiel 1.26 Man bestimme bei der rechts skizzierten Schaltung die Impedanz Z so, dass eine Leistungsanpassung bei f = 1000 Hz. erfolgt. Eine f¨ur 1000 Hz g¨ultige Ersatzschaltung f¨ur die Impedanz Z soll angegeben werden.
5000 Ω
U 0 ?
Hier ist Zi = 5000 + j · 0, 5 · 2π · 1000 = 5000 + j3142. Dann wird Z = Z ∗ = 5000 − j3142. Diese Impedanz kann durch eine Reihenschaltung eines Widerstandes und eines Kondensators realisiert werden: Z = 5000 − j3142 = R − j
0,5 H Zi
I •> U Z ? •
1 1 1 , R = 5000 Ω, C = = = 50, 66 nF. ωC 3142 · ω 3142 · 2π · 1000
Man beachte, dass diese Schaltung nur bei der Frequenz von 1000 Hz eine Leistungsanpassung realisiert. Bei einer anderen Frequenz m¨usste der Wert der Kapazit¨at ge¨andert werden.
1.9 Zweitorschaltungen 1.9.1 Das Zweitor Bisher wurden auschließlich Elemente mit zwei Klemmen (Zweipole) und deren Zusammenschaltungen betrachtet. Ein ganz wichtiges Bauelement, das kein Zweipol ist, ist der Transformator ¨ ¨ oder Ubertrager. Ein Ubertrager hat (mindestens) vier Anschlu¨ sse bzw. zwei Klemmenpaare. Der ¨ Ubertrager wird im Abschnitt 1.10.1 besprochen. Wir betrachten zun¨achst das unten links im Bild skizzierte Zweitor mit der Spannung U1 und dem Strom I1 am linken Tor und der Spannung U2 und dem Strom I2 am rechten Tor. I -1 U1 ? (I1 )
I -2 Zweitor mit ”Kettenpfeilung”
U2 (I2 )
I -1 ?
U1 ? (I1 )
I2 Zweitor mit ”symmetrischer Pfeilung”
U2 (I2 )
?
Abbildung 1.5: Pfeilung am Zweitor Das Zweitor muss so aufgebaut oder beschaltet sein, dass der am Tor 1 an der oberen Klemme hineinfließende Strom genau so groß wie der an der unteren Klemme herausfließende Strom ist. Das gleiche muss f¨ur die Str¨ome am Tor 2 gelten. Die rechte Schaltung unterscheidet sich von der linken dadurch, dass die Str¨ome ”symmetrisch” gepfeilt sind. Sowohl I1 als auch I2 fließen (an den oberen Klemmen) in das Zweitor hinein. Bei den Stromrichtungen im linken Bild spricht man von der Kettenpfeilung, bei der im rechten Bild von einer symmetrischen Pfeilung. Unter einigen Voraussetzungen, die als gegeben angenommen werden, k o¨ nnen von den vier an den Toren auftretenden Gr¨oßen U1 , I1 , U2 , I2 zwei berechnet werden, wenn die anderen beiden bekannt sind. Damit gibt es insgesamt 6 Berechnungsmo¨ glichkeiten (Auswahl von 2 aus 4 Gr¨oßen). Von diesen sechs M¨oglichkeiten werden zwei im Folgenden etwas genauer untersucht.
1.9 Zweitorschaltungen
57
1.9.2 Die Impedanzmatrix Gegeben sind die beiden Str¨ome I1 und I2 , dabei wird von der rechten Anordnung mit der symmetrischen Pfeilung ausgegangen. Dann gelten die Beziehungen: U1 U2
= Z11 I1 = Z21 I1
+ Z12 I2 , + Z22 I2 ,
⇐⇒
U = Z · I,
(1.87)
In Gleichung (1.87) haben die Vektoren U, I, Z die Bedeutung: U1 Z11 Z12 I1 U = , Z = , I = . U2 Z21 Z22 I2
(1.88)
Z nennt man die Impedanzmatrix des Zweitores. Die Elemente der Impedanzmatrix ko¨ nnen bei einer gegebenen Zweitorschaltung folgendermaßen ermittelt werden: U1 U2 U1 U2 Z11 = , Z22 = , Z12 = , Z21 = . I1 I2 I2 I1 I2 =0
I1 =0
I1 =0
I2 =0
Das Matrixelement Z11 kann als Eingangsimpedanz am Tor 1 bei Leerlauf am Tor 2 interpretiert werden. Entsprechend Z22 als die in das Tor 2 hineingemessene Impedanz, wenn am Tor 1 I1 = 0 ist. Es l¨asst sich zeigen, dass bei Zweitorschaltungen, die ausschließlich aus Widerst¨anden, Spulen, ¨ Kondensatoren und auch Ubertragern aufgebaut sind, immer Z12 = Z21 gilt. Man spricht hier von reziproken Zweitoren. Beispiel 1.27 Die Impedanzmatrix der im linken Bildteil skizzierten Zweitorschaltung soll berechnet werden. Bei Leerlauf am Tor 2 (I2 = 0) wird am Tor 1 die Eingangsimpedanz 1 gemessen. Z11 = R + jωC
I -1
•
R
•
I2 = 0 -
R C
U2
C •
•
?
1 Bei Leerlauf am Tor 1 misst man am Tor 2 die Impedanz Z22 = jωC . Der Widerstand R ist ohne Einfluss. Zur Berechnung von Z21 betrachten wir die nochmals rechts im Bild skizzierte 1 und daraus folgt: Schaltung. Offenbar gilt (bei I2 = 0) U2 = I1 jωC
Z21
U2 = I1
= I2 =0
1 . jωC
Wie erw¨ahnt, und hier nat¨urlich auch leicht nachgerechnet werden kann, ist Z12 = Z21 . Damit erhalten wir die Impedanzmatrix der oben skizzierten Zweitorschaltung: 1 1 R + jωC jωC Z= . 1 1 jωC
jωC
58
1 Grundlagen der Elektrotechnik und Elektronik
1.9.3 Die Kettenmatrix Wir gehen nun von der Anordnung links im Bild des Abschnittes 1.9.1 mit der Kettenpfeilung aus. Gegeben sind die Ausgangsspannung U2 und der Ausgangsstrom I2 . Gesucht sind die Eingangsspannung und der Eingangsstrom am Tor 1. Man erh¨alt jetzt die Beziehungen: U1 I1
= A11 U2 = A21 U2
+ A12 I2 , + A22 I2 ,
⇐⇒
VE = A · VA ,
(1.89)
Die Gleichung (1.89) schreibt sich analog zur Gl. (1.88) in der Form:
U1 I1
=
A11 A21
A12 A22
·
U2 I2
=A·
U2 I2
.
(1.90)
A ist die Kettenmatrix des Zweitores. Aus der 1. Kettengleichung (1.89) erh¨alt man den Ausdruck: U1 1 U2 = A11 , ⇐⇒ = = G(jω) (1.91) U2 A11 U1 I2 =0
I2 =0
¨ Dies bedeutet, dass die Ubertragungsfunktion G(jω) vom Eingang zum Ausgang des Zweitores durch das Spannungsverh¨altnis gegeben ist, wenn dabei die Bedingung I2 = 0 erf¨ullt ist. Es kann gezeigt werden, dass bei Zweitoren, die auschließlich aus Widerst¨anden, Spulen, Kondensatoren ¨ und Ubertragern aufgebaut sind (reziproke Zweitore), die Determinante der Kettenmatrix immer den Wert 1 hat: (1.92) det A = |A| = A11 A22 − A12 A21 = 1. Die Kettenmatrix l¨asst sich in die Impedanzmatrix umrechnen und auch umgekehrt: 1 Z= A21
A11 1
|A| A22
,
1 A= Z21
Z11 1
|Z| Z22
.
(1.93)
Bei den Umrechnungsformeln sind schon die unterschiedlichen Stromrichtungen bei den Matrizen am Tor 2 ber¨ucksichtigt.
Beispiel 1.28 Man berechne die Kettenmatrix der RC-Schaltung vom Abschnitt 1.9.2. Bei der Rechnung soll von der dort ermittelten Impedanzmatrix ausgegangen werden. Mit der Impedanzmatrix: 1 1 R + jωC R jωC , , |Z| = Z11 Z22 − Z12 Z21 = Z= 1 1 jωC jωC jωC erh¨alt man nach der oben angegebenen Gleichung (1.93): R 1 R + jωC 1 + jωRC jωC A = jωC = 1 1 jωC jωC
R 1
.
1.9 Zweitorschaltungen
59 I1 •-
Die Kettenschaltung von Zweitoren Wir betrachten nun die beiden in dem nebenstehenden Bild skizzierten elementaren Zweitore. Sie sollen zun¨achst noch nicht verbunden sein. Bei dem linken Zweitor mit der Impedanz Z im L¨angszweig gilt: U1 = U2 + ZI1 , I1 = I2 . Hieraus folgt die Kettenmatrix A1 . Bei dem 2. Zweitor mit dem Querleitwert Y haben die Spannungen und Str¨ome andere Indizes.
I2 -•
I2 •-
I3 -•
•
Z U1
U2 ?
? •
A1 =
•
1 Z 0 1
U2
• A2 =
U3 ?
Y
?
•
•
1 Y
0 1
F¨ur die Berechnung der Kettenmatrix m¨ussen wir beachten, dass U2 , I2 dann die Stelle von U1 , I2 und U3 , I3 an die Stelle von U2 , I2 treten. Es gilt dann: U2 = U3 , I2 = Y U3 +I3 . Hieraus folgt die Kettenmatrix A2 . Nun schalten wir die beiden Zweitore hintereinander (gestrichelte Verbindungen im Bild). F¨ur die gesamte Anordnung muss gelten: U3 U3 U2 U2 U1 U1 = Ages · , = A2 · , = A1 · . (1.94) I1 I3 I2 I3 I1 I2 Wird in dem rechtsstehenden Ausdruck in Gl. (1.94) fu¨ r den Vektor VE2 der mittlere Ausdruck eingesetzt, so erh¨alt man f¨ur die Kettenschaltung der beiden Zweitore: U3 U1 = A 1 · A2 · . (1.95) I1 I3 Ages Daraus folgt, dass sich die Kettenmatrix der Kettenschaltung (Hintereinanderschaltung) der Zweitore als Produkt der Kettenmatrizen der Teilzweitore ergibt. Bei der Kettenschaltung von Zweitoren ergibt sich die Kettenmatrix der Gesamtschaltung als Produkt der Kettenmatrizen der Teilzweitore. Beispiel 1.29 Die Kettenmatrix der rechts skizzierten RC• Schaltung soll als Produkt der Kettenmatrizen der beiden TeilR ¨ zweitore berechnet werden. Weiterhin ist die UbertragungsC funktion G(jω) = U2 /U1 zu ermitteln. Die Schaltung besteht aus der Kettenschaltung zweier Elementarzweitore mit • den Kettenmatrizen. 1 Z 1 R 1 0 1 0 A1 = = , A2 = = . 0 1 0 1 Y 1 jωC 1 1 R 1 0 1 + jωRC R A = A 1 · A2 = · = . 0 1 jωC 1 jωC 1 Nach den Kettengleichungen gilt U1 = A11 U2 + A12 I2 . Weil bei der Schaltung I2 = 0 ist, wird G(jω) =
U2 1 1 . = = U1 A11 1 + jωRC
(1.96)
60
1 Grundlagen der Elektrotechnik und Elektronik
Der Wellenwiderstand eines Zweitores
I1 •-
Zun¨achst wird die Eingangsimpedanz Z1 am Tor 1 eines Zweitores berechnet, wenn das Tor 2 mit einer Impedanz Z2 abgeschlossen ist. Offensichtlich ist Z1 = U1 /I1 .
Z1 -
U1 ? •
I -2 • Zweitor
U2
? •
Z2
Mit den Kettengleichungen erh¨alt man dann unter Beachtung der Bedingung U2 = Z2 · I2 : U1 = A11 U2 + A12 I2 = I2 · (A11 Z2 + A12 ),
I1 = A21 U2 + A22 I2 = I2 · (A21 Z2 + A22 ).
Daraus erh¨alt man die Eingangsimpedanz: Z1 =
U1 A11 Z2 + A12 = . I1 A21 Z2 + A22
(1.97)
Beispiel 1.30 Die Eingangsimpedanz am Tor 1 der mehrfach behandelten RC-Schaltung (s.Bsp. 1.29) soll f¨ur den Fall Z2 = 0 (Kurzschluss am Tor 2) und f¨ur Z2 = ∞ (Leerlauf am Tor 2) berechnet werden. Aus der Kettenmatrix: 1 + jωRC R , A= jωC 1 findet man: Fall: Z2 = ∞ : Z1 = Fall: Z2 = 0 : Z1 =
A11 A21 A12 A22
= 1+jωRC =R+ jωC = R = ZK
1 jωC
= ZL
Eingangsleerlaufimpedanz, Eingangskurzschlussimpedanz.
Die Richtigkeit dieser Ergebnisse sind unmittelbar aus der Schaltung erkennbar. Von Interesse ist die Frage, ob die Abschlussimpedanz Z2 so gew¨ahlt werden kann, dass am Tor 1 die gleiche Impedanz Z1 = Z2 gemessen wird. Nach unserer Beziehung (1.97) fu¨ hrt dies auf die Bedingung: A11 Z2 + A12 = Z2 . Z1 = A21 Z2 + A22 Wir verzichten hier auf die weitere Umformung und teilen nur das Ergebnis mit: Z22 =
A12 A11 · = Z K · ZL . A22 A21
Die Eingangskurzschlussimpedanz ZK = A12 /A22 und die Eingangsleerlaufimpedanz ZL = A11 /A21 wurden beim Beispiel 1.30 eingef¨uhrt. Die so ermittelte Impedanz Z2 wird der Wellenwiderstand ZW des Zweitores genannt: Z2 = ZW = ZK · ZL , (1.98) Wenn ein Zweitor mit seinem Wellenwiderstand, also dem geometrischen Mittelwert aus der Eingangskurzschlussimpedanz und der Eingangsleerlaufimpedanz abgeschlossen ist, wird am Tor 1 der gleiche Widerstand gemessen: Z1 = Z2 = ZW = ZK · ZL .
1.9 Zweitorschaltungen
61
Beispiel 1.31 Der Wellenwiderstand der bisher besprochenen RC-Schaltung (s.Bsp. 1.29) soll berechnet werden. Aus der Matrix: 1 + jωRC R A= , jωC 1 findet man: 2 ZW =
R A12 A11 R 1 + jωRC · = + R2 . = A22 A21 1 jωC jωC
Wenn R = 1000 Ω, ω = 1000 s−1 , und C = 1 μF ist, ergibt sich: 2 ZW =
√ 1000 + 10002 = 106 (1 − j) = 2 106 · e−jπ/4 . −6 j · 1000 · 10
Daraus erh¨alt man: ˜+ ZW = 1189 · e−jπ/8 = 1098 − j455 = R
1 ˜ = 1098 Ω, C˜ = 2, 197 μF. , R jω C˜
Hinweis: Bei Netzwerken, die aus einer endlichen Anzahl konzentrierter Bauelemente (Widerst¨ande, Spulen Kondensatoren, . . . ) aufgebaut sind, kann der Wellenwiderstand immer nur f u¨ r eine bestimmte Frequenz realisiert werden, niemals aber fu¨ r einen Frequenzbereich. Dabei soll der triviale Fall eines nur aus Widerst¨anden bestehenden Netzwerkes ausgeschlossen sein. ¨ Die Ubertragungsfunktion eines in Widerst¨ande eingebetteten Zweitores H¨aufig kommen Schaltungen in der rechts dargestellten Art vor. Ein Zweitor ist in R1 Widerst¨ande R1 und R2 eingebettet. Der U0 ? Widerstand R1 kann dabei die Bedeu- tung des Innenwiderstandes der Spannungsquelle haben.
I1 •U1 ? •
I -2 • Zweitor
U2
? •
R2
R2 hat die Bedeutung des Verbraucherwiderstandes. Bei der gegebenen Beschaltung erh¨alt man die Beziehungen: U2 = R 2 · I 2 . U0 = U1 + R1 · I1 , Unter Verwendung der Kettengleichungen: U1 = A11 U2 + A12 I2 ,
I1 = A21 U2 + A22 I2
erh¨alt man dann einen Zusammenhang zwischen U0 und U2 : U2 U2 + R1 · A21 U2 + A22 . U0 = A11 U2 + A12 R2 R2
(1.99)
¨ Durch elementare Rechnung erh¨alt man hieraus die gesuchte Ubertragungsfunktion: G(jω) =
U2 1 = . U0 A11 + A12 /R2 + A21 R1 + A22 R1 /R2
(1.100)
62
1 Grundlagen der Elektrotechnik und Elektronik
¨ Beispiel 1.32 Die Ubertragungsfunktion G = U2 /U0 der rechts skizzierten Schaltung soll berechnet werden. Die Zweitorschaltung hat die Kettenmatrix:
•
R U ?0
U2
C •
? •
•
R
1 + jωRC jωC
A=
•
•
R
R 1
.
Dan erh¨alt man nach der oben angegebenen Gleichung (1.100): G(jω) =
U2 1 1 = . = U0 1 + jωRC + R/R + jωRC + R/R 3 + 2jωRC
1.10 Beispiele wichtiger Zweitore ¨ 1.10.1 Der Ubertrager I1 •-
¨ Der ideale Ubertrager
u¨
¨ Das Bild zeigt das Schaltungssymbol eines idealen Ubertra¨ gers oder Transformators mit dem Ubersetzungsverh¨ altnis u¨ . - U1 ¨ In dem Bild ist der Ubertrager mit einer Impedanz Z2 abge- Z1 schlossen. Z1 ist die Eingangsimpedanz am Tor 1. Bei idea? ¨ len Ubertragern gelten die Beziehungen: •
¨ · U2 , U1 = u
I1 =
1 I2 , u ¨
=⇒
Z1 =
U1 =u ¨ 2 · Z2 I1
I -2
•
U2
Z2 ? •
(1.101)
Ein Vergleich mit den Kettengleichungen: U1 = A11 U2 + A12 I2 ,
I1 = A21 U2 + A22 I2 ,
¨ f¨uhrt zu der Kettenmatrix des idealen Ubertragers: u ¨ 0 . A= 0 u1¨
(1.102)
¨ Das Ubersetzungsverh¨ altnis u ¨ kann beliebige reelle Werte annehmen, also auch negative Werte. Ein negativer Wert kann z.B. dadurch erreicht werden, dass die Klemmen an der Sekund¨arseite vertauscht werden (untere Klemme nach oben, obere Klemme nach unten). ¨ Ubertrager geh¨oren zu den ganz wichtigen Bauelementen in der Wechselstromtechnik. Mit ihnen u erzeugt k¨onnen aus einer gegebenen Spannung U1 nahezu beliebig große Spannungen U2 = U1 /¨ u| < 1 ist |U2 | > |U1 |. Durch Transformatoren werden. Bei |¨ u| > 1 ist |U2 | < |U1 | und bei |¨
1.10 Beispiele wichtiger Zweitore
63
k¨onnen außerdem Stromkreise galvanisch entkoppelt werden. Dies bedeutet, dass zwischen diesen keine elektrische Verbindung besteht. Die galvanische Entkopplung ist im Bereich der Energietechnik von großer Bedeutung f¨ur die Sicherheit. So besteht zwischen dem HochspannungsVersorgungsnetz mit z.B. Spannungen von 15000 V und dem h¨auslichen Versorgungsnetz mit 220 ¨ V keine elektrische Verbindung. Eine weitere wichtige Eigenschaft des Ubertragers findet man, ¨ wenn man die Eingangsimpedanz Z1 eines mit der Impedanz Z2 abgeschlossenen Ubertragers (siehe obiges Bild) berechnet. Mit der im vorausgegangenen Abschnitt angegebenen Beziehung ¨ (1.97) und der Kettenmatrix (1.102) des Ubertragers erh¨alt man: Z1 =
A11 Z2 + A12 =u ¨ 2 · Z2 . A21 Z2 + A22
(1.103)
Man spricht hier von einer Impedanztransformation. Zur Verdeutlichung werden einige einfache Beispiele angef¨uhrt. ¨ ¨ Beispiel 1.33 Ein Ubertrager mit dem Ubersetzungsverh¨ altnis u ¨ = 5 wird durch einen Widerstand von 10 Ω abgeschlossen. Der am Tor 1 gemessene Widerstand berechnet sich zu: Z 1 = ¨2 R = 250 Ω. u ¨2 Z2 = u Dies kommt bei der Leistungsanpassung zur Anwendung. Bei der Leistungsanpassung eines Verbrauchers an eine Quelle wird R = Ri gefordert (siehe Abschnitt 1.8.2). Falls diese Forderung ¨ nicht erf¨ullt werden kann, kann durch die Zwischenschaltung eines Ubertragers dennoch eine Lei2 = R, Z = u ¨ R = Ri , also ist das stungsanpassung erreicht werden. In diesem Fall wird Z 2 1 ¨ Ubersetzungsverh¨ altnis u ¨ = Ri /R zu w¨ahlen. Von der Quelle her gesehen, hat dann der Verbraucher den geforderten Widerstandswert Ri . ¨ ¨ Beispiel 1.34 Ein Ubertrager mit einem Ubersetzungsverh¨ altnis u ¨ ist mit einer Reihenschaltung eines Widerstandes und eines Kondensators abgeschlossen. Gesucht ist die Eingangsimpedanz am ¨ Tor 1 des Ubertragers und eine Ersatzschaltung f¨ur diese Impedanz Z1 .
1 1 ¨ 2 · Z2 = u ¨2 · R + . Z1 = u =u ¨2 R + jωC jωC/¨ u2 ˜=u u2 . Dies bedeutet eine Reihenschaltung eines Widerstandes R ¨2 R mit einer Kapazit¨at C˜ = C/¨ ¨ ¨ Beispiel 1.35 Zwei Ubertrager mit den Ubersetzungsverh¨ altnissen u ¨1 und u ¨2 werden hintereinander (in Kette) geschaltet. Gesucht wird die Kettenmatrix der Gesamtschaltung. Bei der Hinter¨ einanderschaltung werden die Kettenmatrizen der beiden Ubertrager miteinander multipliziert: ¨2 0 u ¨2 0 u ¨1 u u ¨1 0 = . A= 1 0 u¨11 0 u¨12 0 u ¨1 u ¨2 Ergebnis: ¨ ¨ ¨ Die Kettenschaltung der beiden Ubertrager f¨uhrt wiederum auf einen Ubertrager mit dem Uber¨2 . setzungsverh¨altnis u ¨=u ¨1 · u
64
1 Grundlagen der Elektrotechnik und Elektronik
Abschließend noch einige Bemerkungen u¨ ber Passivit¨at und Aktivit¨at. Ein Zweipolelement ist dann passiv, wenn die mittlere Leistung in ihm nicht negativ ist, d.h. P = Re{U · I ∗ } ≥ 0. In diesem Sinne sind Widerst¨ande, Spulen und Kondensatoren passive Zweipolelemente. Ebenfalls passiv sind nat¨urlich auch alle Zweitore, die durch Zusammenschaltungen dieser Elementarzweipole entstehen. Wie ist das nun bei einem Zweitor? Zun¨achst k¨onnte man vielleicht annehmen, ¨ ¨ dass ein Ubertrager mit einem Ubersetzungsverh¨ altnis im Bereich 0 < u ¨ < 1 ein aktives Baueleu gr¨oßer als die Eingangsspannung ist. ment ist, weil bei ihm die Ausgangsspannung |U2 | = |U1 |/¨ Bei z.B. u ¨ = 0, 1 w¨are U2 = 10 · U1 . Es muss aber beachtet werden, dass gleichzeitig der Strom ¨ · I1 hat. Bei u ¨ = 0, 1 w¨are dies ein Sekund¨arstrom von I2 = 0, 1 · I1 . Man den Wert I2 = u erkennt, dass die Leistung am Ausgang nicht gro¨ ßer als die am Eingang ist. Eine Vergr¨oßerung der Ausgangsspannung f¨uhrt zu einer entsprechenden Verkleinerung des Ausgangsstromes und umgekehrt. In diesem Sinne ist ein Zweipolelement passiv, wenn gilt: P1 ≥ P2 , Re{U1 I1∗ } ≥ Re{U2 I2∗ }. Das Tor 2 kann keine gr¨oßere Leistung abgeben, als in das Tor 1 hineingeht. Der reale Transformator I1 I2 ¨ Das Bild zeigt das Schaltungssymbol f¨ur einen realen Ubertrager. Genau•M - • ¨ er gesagt, soll es sich hier um einen verlust- und streuungsfreien Ubertrager handeln. Verlustfrei bedeutet, dass die Widerst¨ande der Wicklungen vernachl¨assigbar klein sind und auch keine Magnetisierungsverluste ent- U1 L1 L2 U2 stehen. Streungsfreiheit heißt, dass der gesamte magnetische Fluss durch ¨ ? ? beide Wicklungen des Ubertragers geht. Einige zus¨atzliche Informationen zum Aufbau eines Transformators findet der Leser im folgenden Abschnitt. • • ¨ Die Impedanzmatrix des verlust- und streuungsfreien Ubertragers hat die Form: Z11 Z12 jωL1 jωM Z= = , bei Streuungsfreiheit gilt: L1 · L2 = M 2 . Z21 Z22 jωM jωL2 ¨ M ist die L1 und L2 sind die Induktivit¨aten der Prim¨ar- und Sekund¨arwicklung des Ubertragers. Gegeninduktivit¨at. • • • Aus der Impedanzmatrix kann man die rechts angegebene ErL −M L2 −M ¨ 1 satzschaltung f¨ur einen Ubertrager ableiten. Die Richtigkeit der Ersatzschaltung soll nicht bewiesen werden. Wir erkennen M aber, dass bei Leerlauf am Tor 2 die Eingangsimpedanz jωL1 Z1 gemessen wird. Dies ist das Matrixelement: • • • U1 Z1 = = jω(L1 − M ) + jωM = jωL1 . I1 I2 =0
Entsprechend findet man Z22 = jωL2 und mit wenig mehr M¨uhe auch das Matrixelement ¨ immer Z12 = jωM . Es zeigt sich, dass in dieser sogenannten T-Ersatzschaltung des Ubertragers ¨ genau eine der drei Induktivit¨aten einen negativen Wert hat. Insofern kann der Ubertrager auch ¨ nicht durch diese Schaltung realisiert werden. Bei einem Ubertrager mit Verlusten enth¨alt die TErsatzschaltung zus¨atzlich Widerst¨ande zur Ber¨ucksichtigung der Wicklungswiderst¨ande und von Eisenverlusten.
1.10 Beispiele wichtiger Zweitore
65
Mit der im Abschnitt 1.9.3 angegebenen Umrechnungsformel (1.93) findet man die Kettenmatrix ¨ des realen Ubertragers: L1 1 1 0 Z11 |Z| 0 jωL1 M = = . (1.104) A= L2 1 Z21 jωM 1 Z22 1 jωL2 jωM M Dabei ist zu beachten, dass die √ Bedingung L1 L2 = M 2 f¨ur die Streuungsfreiheit zu der Determinante |Z| = 0 f¨uhrt. Mit M = L1 L2 erh¨alt man schließlich die Kettenmatrix: L1 /L2 0 A= , (1.105) 1 L2 /L1 jωM und die Kettengleichungen: U1 =
L1 U2 , L2
I1 =
1 U2 + jωM
L2 I2 . L1
(1.106)
¨ ¨ Man erkennt, dass ein verlust- und streuungsfreier Ubertrager f¨ur M → ∞ in einen idealen Uber ¨ trager mit dem Ubersetzungsverh¨ altnis u ¨ = L1 /L2 u¨ bergeht. ............................................................................................................................ .. ..
Der Aufbau eines Transformators Die Anordnung rechts zeigt den prinzipiellen Aufbau eines Transformators. Auf einen Eisenkern sind Spulen mit w1 bzw. w2 Windungen gewickelt. Die Str¨ome i1 und i2 f¨uhren in dem Eisenkern zu einem magnetischen Fluss:
.. i1 (t) ......... ... i2 (t) ... −→ Φ ... ... → ... ← •..........................................................................................................................................................................................................•.. . ... .. . . . . ... ......... . . .. .......... ... ... ..................... .... ............................ ... ...... ... . . . . . . . . ... ... .................. .... ........ ............. .... .. 1 .......................... .... 2 ...... . . . . ... . . . . . . . . ... ..... .... ................... ..... ............. .. ............. .... ... .. .................. . .... . . . . .... . . . .................................. ............................................................... ................................ .. ..... ... ... .. ... 1 2 ...... ... ...............................................................................................................................
↓ u (t)
u (t) ↓
•
•
w
w
φ = K · (i1 · w1 + i2 · w2 ).
Die Konstante K ist von der Form und den Abmessungen des Eisenkerns und auch von den magnetischen Eigenschaften des Kernmaterials abh¨angig. Nach dem Induktionsgesetz gilt:6 u 1 = w1
dΦ , dt
u 2 = w2
dΦ . dt
Dann wird mit dem oben angegebenen Ausdruck fu¨ r Φ: u1 = K · w12
d i1 d i2 + K · w1 w2 , dt dt
u2 = K · w1 w2
d i1 d i2 + K · w22 . dt dt
Mit den Abk¨urzungen L1 = K · w12 , L2 = K · w22 und M = K · w1 w2 erh¨alt man dann: u1 (t) = L1
d i2 (t) d i1 (t) +M , dt dt
u2 (t) = M
d i2 (t) d i1 (t) + L2 , dt dt
(1.107)
wobei L1 L2 −M 2 = K 2 w12 w22 −K 2 w12 w22 = 0 ist. Wir erinnern uns daran, dass ein sinusf¨ormiger Strom mit Hilfe des komplexen Stromes in der Form: i(t) = ˆi cos(ωt + ϕ) =
√
2Re{Iejωt },
I=
1 √ ˆ jϕ 2ie 2
6 In der Literatur findet man h¨ aufig diese Beziehungen mit einen negativen Vorzeichen, also z.B. u 1 = −w1 d Φ/dt. ¨ Dieser Unterschied ist allerdings f¨ur die Uberlegungen hier ohne Einfluss.
66
1 Grundlagen der Elektrotechnik und Elektronik
dargestellt werden kann. In diesem Sinne setzen wir in die obige Beziehung die komplexen Str o¨ me I1 ejωt , I2 ejωt ein und erhalten die komplexen Spannungen: u1 (t) = jωL1 I1 ejωt +jωM I2 ejωt = U1 ejωt ,
u2 (t) = jωM I1 ejωt +jωL2 I2 ejωt = U2 eωt .
Hieraus erh¨alt man schließlich die bereits f¨ur komplexe Gr¨oßen angegebenen Beziehungen f¨ur die Z-Matrix: U1
= jωL1 I1 + jωM I2 ,
(1.108)
U2
= jωM I1 + jωL2 I2 . (1.109) ¨ Das Ubersetzungsverh¨ altnis betr¨agt u ¨ = L1 /L2 = w1 /w2 , es entspricht dem Verh¨altnis der Windungszahlen der beiden Spulen. I1 •-
1.10.2 Die Leitung
I -2 •
Das Bild zeigt eine Leitung der L¨ange U = U1 ?0 l, die mit ihrem Wellenwiderstand abgeschlossen ist. •
Leitung der L¨ange l
U2
ZW
? •
Wenn ein Zweitor mit seinem Wellenwiderstand Z2 = ZW abgeschlossen ist, wird am Tor 1 der gleiche Widerstand Z1 = Z2 = ZW gemessen (vgl. Gl. 1.98). Ohne Beweis wird die Kettenmatrix f¨ur ein aus einer Leitung der L¨ange l bestehendes Zweitores angegeben: cosh (γl) ZW sinh (γl) , A= 1 ZW sinh (γl) cosh (γl) ZW =
R + jωL , G + jωC
γ=
(R + jωL )(G + jωC ) = α + jβ.
ZW ist der Wellenwiderstand der Leitung und γ die sogenannte Fortpflanzungskonstante. Den Realteil α nennt man D¨ampfungskonstante, den Imagin¨arteil β Phasenkonstante. I(x)
Die Bedeutung der Gr¨oßen R , L , G , C geht aus dem (rechten) Ersatzschaltbild fu¨ r ein ganz kleines Leitungsst¨uck der L¨ange Δx herU (x) vor. Man bezeichnet diese Gr¨oßen als Leitungsbel¨age. Ihre Einheiten sind Ω/m, H/m, ? Ω−1 /m und F/m.
I(x+Δx) • R ·Δx
-
•
L ·Δx U (x+Δx)
C ·Δx
G ·Δx •
?
•
Aus diesem Ersatzschaltbild f¨ur ein ganz kleines Leitungsst¨uck k¨onnen Differentialgleichungen zur Berechnung der Str¨ome und Spannungen l¨angs einer Leitung aufgestellt werden. Aus diesen Gleichungen kann auch die oben angegebene Kettenmatrix gewonnen werden. Aus der Kettengleichung: U1 = A11 U2 + A12 I2 , erh¨alt man mit U1 = U0 , I2 = U2 /ZW und den Elementen der vorne angegebenen Kettenmatrix: 1 ZW sinh (γl) · U2 = U2 · eγl , U0 = cosh (γl) + ZW
1.10 Beispiele wichtiger Zweitore
67
wobei: cosh x = 12 ex + 12 e−x , sinh x = 12 ex − 12 e−x . ¨ Damit ergibt sich die Ubertragungsfunktion einer mit dem Wellenwiderstand abgeschlossenen Leitung und die Ausgangsspannung: G(jω) =
U2 = e−γl = e−αl e−jβl , U0
U2 = U0 · e−αl e−jβl .
(1.110)
Dies bedeutet, dass der Betrag der Ausgangsspannung: |U2 | = |U0 | · e−αl , exponentiell mit der Leitungsl¨ange abnimmt. Bei der verlustfreien Leitung (R = 0, G = 0) erhalten wir einen reellen Wellenwiderstand und eine rein imagin¨are Fortpflanzungskonstante: √ L , γ = jω L C = jβ, (α = 0). ZW = R W = C Mit cosh (jx) = cos x, sinh (jx) = j sin x findet man die Kettenmatrix der verlustfreien Leitung: √ L cos (βl) jRW sin (βl) , β = ω L · C . A= , ZW = RW = j R1W sin (βl) cos (βl) C F¨ur die Ausgangsspannung erh¨alt man bei der verlustfreien Leitung U2 = U0 e−jβl . Es gilt nun |U2 | = |U0 |, die Ausgangsspannung ist gegen¨uber der Eingangsspannung lediglich phasenverschoben. Zus¨atzliche Hinweise: 1. Signal¨ubertragung Man kann zeigen, dass bei verlustfreien und mit ihrem Wellenwiderstand abgeschlossenen Leitungen √ u2 (t) = u1 (t − t0 ) mit t0 = L C · l gilt. Dies bedeutet, dass das Eingangssignal u0 (t) am Leitungsende verz¨ogert, ansonsten aber unver¨andert ankommt. Die Verz¨ogerungszeit h¨angt nat¨urlich von der Leitungsl¨ange ab (Laufzeit!). Bei nicht verlustfreien Leitungen gilt mit einigen Einschr¨ankungen u2 (t) = e−α·l · u0 (t − t0 ). Das Signal wird jetzt nicht nur verz¨ogert, sondern zus¨atzlich noch ”ged¨ampft”. Die D¨ampfung nimmt mit der Leitungsl¨ange zu. Aus diesem Grunde baut man in der Praxis in gewissen Abst¨anden Verst¨arker ein, die das ged¨ampfte Signal wieder verst¨arken. Diese Aussagen gelten nur bei einem Abschluss der Leitung mit ihrem Wellenwiderstand. Wenn diese Bedingung nicht erf¨ullt ist (Fehlanpassung), treten unerw¨unschte Reflexionen auf der Leitung auf und das Eingangssignal wird nicht unverzerrt zum Ausgang u¨ bertragen. 2. Typen von Leitungen Flachbandkabel bestehen aus zwei Dr¨ahten, die durch einen Kunststoffsteg getrennt sind. Solche
68
1 Grundlagen der Elektrotechnik und Elektronik
Leitungen haben oft einen Wellenwiderstand von 240 Ω. Ihr Nachteil ist, dass sie durch elektrische und magnetische Felder stark gest¨ort werden k¨onnen. Verdrillte Leitungen weisen hingegen eine wesentlich geringere St¨orempfindlichkeit auf. Koaxialleitungen bestehen aus einem runden Innenleiter und einem kreisf¨ormigen leitenden Außenleiter. Sie sind vollst¨andig gegen a¨ ußere St¨orfelder gesch¨utzt. Typische Werte f¨ur Wellenwiderst¨ande von Koaxialleitungen sind 50 Ω, 60 Ω und auch 75 Ω. Der ausnutzbare Frequenzbereich geht bei Koaxialkabeln bis in den GHz-Bereich. F u¨ r ¨ Ubertragungen in einem noch h¨oheren Frequenzbereich kommen Wellenleiter (Mikrowellenbereich) und Glasfaserleitungen zum Einsatz.
1.10.3 Schaltungen mit Verst¨arkern Der Verst¨arker
I
-1 Das nebenstehende Bild zeigt die Zweitorschaltung eines Verst¨arkers mit dem Eingangswiderstand Re und dem Ausgangswiderstand Ra . Die Schaltung enth¨alt eine sogenann- U1 te gesteuerte Quelle, genauer eine spannungsgesteuerte Span? nungsquelle. Aus der Schaltung entnehmen wir die Beziehungen: U1 = Re I1 ,
I
-2 Ra
mμ·U1 ?
Re
•
U2
?
•
U2 = μU1 − Ra I2 .
(1.111)
Die Gleichungen (1.111) k¨onnen folgendermaßen umgestellt werden: U1 =
1 Ra U2 + I2 , μ μ
I1 =
1 1 Ra U1 = U2 + I2 . Re μRe μRe
(1.112)
Aus Gleichung (1.112) ergibt sich die Kettenmatrix des Verst¨arkers: A=
1 μ 1 μRe
Ra μ Ra 1 Re μ
.
(1.113)
H¨aufig soll ein Verst¨arker einen m¨oglichst großen Eingangswiderstand Re und einem m¨oglichst kleinen Ausgangswiderstand Ra haben. Durch den großen Widerstand Re am Tor 1 stellt der Verst¨arker keine Belastung f¨ur die vorhergehende Stufe dar. Der kleine Widerstand Ra am Tor 2 sorgt daf¨ur, dass die Ausgangsspannung U2 des Verst¨arkers nicht vom Strom I2 abh¨angt. Unter der Voraussetzung Re → ∞ und Ra → 0 erhalten wir die Kettenmatrix des idealen Verst¨arkers mit der rechts skizzierten Ersatzschaltung: U1 1 1 0 U = · U + 0 · I 1 2 2 μ μ ? ⇐⇒ A= 0 0 I1 = 0 · U2 + 0 · I2
mμ·U1 ?
U2
?
•
Von großer praktischer Bedeutung ist die Beschaltung des idealen Verst¨arkers mit zwei Impedanzen Z1 und Z2 , wie unten dargestellt.
1.10 Beispiele wichtiger Zweitore
69
Aus dieser Schaltung entnehmen wir die Beziehungen: ˜1 = U1 − I1 Z1 , I1 = U1 − U2 . ˜1 = 1 U2 , U U μ Z1 + Z2
I1 Z1 U1 ?
Z2 • ˜1 U
?
Daraus erh¨alt man die Beziehungen:
lμ·U˜1 ?
I2 •U2 ?
•
1 Z1 1 U1 − U2 Z1 − Z1 , U2 = U1 1 − . U˜1 = U2 = U1 − I1 Z1 = U1 − μ Z1 + Z2 μ Z1 + Z2 Z1 + Z2 ¨ Die Ubertragungsfunktion G(jω) erh¨alt man durch die Division: G(jω) =
μZ2 U2 = . U1 Z1 + Z2 − μZ1
(1.114)
Wir wollen auch noch die Eingangsimpedanz W1 = U1 /I1 der Schaltung am Tor 1 berechnen. Mit den oben angegebenen Beziehungen erh¨alt man: I1 =
U1 − U2 μZ2 , U2 = U1 · G(jω) = U1 · Z1 + Z2 Z1 + Z2 − μZ1
Der Eingangswiderstand ergibt sich nach elementarer Rechnung: W1 =
U1 Z1 + Z2 − μZ1 . = I1 1−μ
(1.115)
Schaltungen mit Operationsverst¨arkern In der Praxis verwendet man als Verst¨arker sogenannte Operationsverst¨arker, die als integrierte Bausteine preiswert zur Verf¨ugung stehen. Operationsverst¨arker erf¨ullen die Voraussetzung eines sehr großen Eingangswiderstandes (Re → ∞) und eines sehr kleinen Ausgangswiderstands (Ra → 0). Außerdem haben Operationsverst¨arker eine sehr große Verst¨arkung (μ = 104 . . . 106 ), so dass man bei der Rechnung μ = ∞ setzen kann. Rechts ist ein mit den beiden Impedanzen Z1 , Z2 beschalteter Operationsverst¨arker mit dem u¨ blichen SchaltungssymZ2 Z1 bol skizziert. Das Minuszeichen kennzeichnet den sogenann- -I1 I2 Z − • Z Z ten invertierenden Eingang des Operationsverst¨arkers und das • + Pluszeichen den nicht invertierenden Eingang. Unter der bei U 1 Operationsverst¨arkern zul¨assigen Voraussetzung μ = ∞ hat U2 die Schaltung nach den angegebenen Beziehungen (1.114) ? ? ¨ • und (1.115) die Ubertragungsfunktion und die Eingangsimpedanz: U2 Z2 U1 G(jω) = =− , W1 = = Z1 . (1.116) U1 Z1 I1 ¨ Die soeben angegebene Ubertragungsfunktion (1.116) ist insofern interessant, weil sie nur von der a¨ ußeren Beschaltung (Z1 , Z2 ) des Operationsverst¨arkers abh¨angt, nicht aber von den Eigen¨ schaften des Verst¨arkers selbst. Wegen des negativen Vorzeichens bei der Ubertragungsfunktion
70
1 Grundlagen der Elektrotechnik und Elektronik
spricht man hier von einem invertierenden Verst¨arker. In der Regel spielt diese Invertierung keine große Rolle. Wo notwendig, m¨ussen ggf. zwei invertierende Verst¨arker hintereinander geschaltet werden. Selbstverst¨andlich gibt es aber auch nicht invertierende Verst¨arkerschaltungen mit Operationsverst¨arkern. Einige Erg¨anzungen 1. Fasst man die obige Schaltung des mit Z1 und Z2 beschalteten Operationsverst¨arkers als Zweitorschaltung auf, dann hat diese die Kettenmatrix: Z1 1 U1 = − Z 0 + 0 · I2 −Z Z2 · U 2 2 ⇐⇒ A= 1 −1 1 I1 = = Z1 · U 1 − Z2 0 Z12 · U2 2. Das nachstehende Bild zeigt links nochmals den jetzt mit den beiden Widerst¨anden R1 und R2 beschalteten Operationsverst¨arker und zus¨atzlich einige in der Schaltung eingetragene Stro¨ me. Dabei ist (hier) nat¨urlich I0 = I1 . I˜0 -I1 U1
R2
I0 Ie − • Z Z Z U d6 + virtuelle Masse R1
? • •
Masse
R2
virtuelle Masse •
-I1
I2 U2
R1
@ R @ •
U1 ?
R
− • Z Z Z +
? Widerstand
ohne Einfluss!
•
•
I2 U2
?
• •
Masse
Wegen des sehr (theoretisch unendlich) großen Eingangswiderstandes des Operationsverst¨arkers kann der Eingangsstrom Ie vernachl¨assigt werden. Dadurch fließt (fast) der gesamte Eingangsstrom u¨ ber Z2 : I˜0 ≈ I0 . Außerdem ist die Eingangsspannung am Operationsverst¨arker sehr klein: Ud ≈ 0. Dies muss auch so sein. Der Operationsverst¨arker hat eine sehr große Verst¨arkung (μ → ∞). Eine endliche Ausgangsspannung U2 = μUd bedingt einem sehr kleinen Wert Ud . Die in der Praxis vernachl¨assigbar kleine Spannung Ud f¨uhrt dazu, dass der obere Eingang des Operationsverst¨arkers ”•” praktisch an der Masse liegt, man spricht hier von einer virtuellen Masse. Dies bedeutet z.B., dass ein an die Eingangsklemmen geschalteter Widerstand R (rechter Bildteil) keinen Einfluss auf die Spannungen und Stro¨ me in der Schaltung hat. Wegen Ud ≈ 0 fließt durch R2 2 ˜ ihn kein Strom, es gilt weiterhin W1 = UI11 = R1 , G = U U1 = − R1 und I0 = I0 . Schließlich folgt aus der Maschengleichung: U2 + Ud + I˜0 R2 = 0 mit Ud = 0 und I˜0 = I0 die wichtige Beziehung: (1.117) U2 = −I0 · R2 . U1 Bei der oben angegebenen Schaltung ist I0 = I1 = R und damit erh¨alt man die vorne abgelei1 R2 tete Gleichung (1.116): U2 = − R1 U1 . Einige der hier getroffenen Aussagen, z.B. die, dass der Widerstand R in der rechten Schaltung ohne Einfluss bleibt, sind physikalisch nicht leicht einzusehen. Es muss hier aber bedacht werden, dass wir mit einem idealen Verst¨arker rechnen. In solchen F¨allen versagt bisweilen die Anschauung. Zu richtigen Ergebnissen kann man dann nur durch eine genaue Analyse der Schaltung mit einem endlichen Wert fu¨ r die Verst¨arkung und dem nachfolgenden Grenz¨ubergang μ → ∞ kommen.
1.10 Beispiele wichtiger Zweitore
71
3. Wie jeder reale Verst¨arker besitzt auch der Operationsverst¨arker eine obere Grenzfrequenz f0 , oberhalb der die Verst¨arkung abf¨allt. Der Operationsverst¨arker zeigt dann ein Tiefpassverhalten. Wir bezeichnen die Verst¨arkung des Operationsverst¨arkers bei sehr niedrigen Frequenzen jetzt mit μ0 . Dann gilt f¨ur h¨ohere Frequenzen n¨aherungsweise: μ=
μ0 μ0 , |μ| = . 1 + j ff0 1 + (f /f0 )2
Bei der (Grenz-) Frequenz f0 ist der Betrag der Verst¨arkung auf den Wert 0, 707 · μ0 abgeklungen (D¨ampfung: 3 dB). Bei beschalteten Operationsverst¨arkern mit einer insgesamt wesentlich kleineren (Gesamt-) Verst¨arkung wirkt sich die Abnahme von μ mit der Frequenz wesentlich weniger aus, so dass Schaltungen mit Operationsverst¨arkern auch bei h¨oheren Frequenzen (einige 100 KHz) problemlos einsetzbar sind. Beispiel 1.36 Der einfache Verst¨arker Das Bild zeigt die Beschaltung des Operationsversta¨ rkers mit zwei Widerst¨anden. Dann erh¨alt man die frequenzun¨ abh¨angige Ubertragungsfunktion: G(jω) = −
R2 . R1
I1 R1 -
R2 Z −
•
Z Z
+
I2 •-
U1 ?
U2
?
•
Im Fall R2 > R1 wird |U2 | > |U1 |, dies bedeutet eine ”echte Verst¨arkung”. Bei R2 < R1 wird |U2 | < |U1 |. Beispiel 1.37 Der aktive Tiefpass Bei der rechts skizzierten Schaltung ist Z1 = R1 , Z2 =
R2 /(jωC) R2 = . 1 1 + jωCR2 R2 + jωC
C •
I1 R1 -
•
R2 Z −
•
¨ Damit erhalten wir die Ubertragungsfunktion: G(jω) =
U2 Z2 R2 /R1 =− =− . U1 Z1 1 + jωCR2
Wir setzen jetzt R1 = R2 = R und finden: G(jω) = −
+
U1 ?
Z Z
I2 •U2
?
•
1 . 1 + jωRC
¨ Dies ist, bis auf das negative Vorzeichen, die gleiche Ubertragungsfunktion des im Abschnitt 1.7.2 besprochenen RC-Tiefpasses. Dort wurde eine passive Realisierung angegeben, hier eine aktive. Die aktive Realisierung erfordert im vorliegenden Fall einen wesentlich h o¨ heren Auswand wie die passive. Beispiel 1.38 Ein RC-Tiefpass 2. Grades Bei dem RC-Tiefpass vom Abschnitt 1.7.2 und ebenso bei der aktiven Schaltung im vorangehenden
72
1 Grundlagen der Elektrotechnik und Elektronik
¨ Beispiel spricht man von einem Tiefpass 1. Grades, weil jω in der Ubertragungsfunktion nur in der 1. Potenz auftritt.
•
Wir untersuchen nun die rechts skizzierte Tiefpassschaltung, die als Hintereinanderschaltung zweier Tiefp¨asse 1. Grades aufgefasst werden kann. ¨ Zur Berechnung der Ubertragungsfunktion benutzen wir die vorne abgeleitete Gleichung (1.96): G(jω) =
•
R1 U1
R2 C1
C2
U2
?
? •
•
1 . A11
Die gegebene Tiefpassschaltung kann auch als Kettenschaltung von vier Teilzweitoren angesehen werden. Ein Teilzweitor enth¨alt entweder einen Widerstand im L¨angszweig oder eine Kapazit¨at im Querzweig. Damit wird:
A=
1 R1 0 1
1 jωC1
0 1
1 R2 0 1
1 jωC2
0 1
.
F¨ur die weitere Rechnung nehmen wir an, dass R1 = R2 = R und C1 = C2 = C ist. Dann erh¨alt man, wenn man zun¨achst das Produkt der beiden ersten und das der beiden letzten Matrizen bildet: 1 + jωRC R 1 + jωRC R A= . jωC 1 jωC 1 ¨ Von der Matrix A interessiert uns nur das f¨ur die Bestimmung der Ubertragungsfunktion notwendige Element A11 . Wir erhalten: A11 = (1 + jωRC)2 + jωRC = 1 + 3jωRC + (jω)2 R2 C 2 . ¨ Die Ubertragungsfunktion ergibt sich zu: G(jω) =
1 1 = . A11 1 + 3jωRC + (jω)2 R2 C 2
¨ Die Ubertragungsfunktion der einfachen RC-Schaltung 1. Grades lautet: ˜ G(jω) =
1 1 1 ˜ = , |G(jω)| = √ , τ = RC. 1 + jωRC 1 + jωτ 1 + ω2τ 2
¨ Um einen Vergleich mit der Ubertragungsfunktion der hier untersuchten Schaltung durchfu¨ hren zu k¨onnen, setzen wir auch dort RC = τ und erhalten dann den Betrag: |G(jω)| =
1 (1 −
ω 2 τ 2 )2
+ 9ω 2 τ 2
.
1.10 Beispiele wichtiger Zweitore
73 ↑ |G(jω)| 1 ............ .... .
Diese Betragsfunktion ist im rechten Bild (ausgezogen) skizziert. Bei der Frequenz ω = τ1 ergibt sich der Betrag |G(j/τ )| = ˜ 1/3. Zum Vergleich ist der Betrag |G(jω)| ¨ der Ubertragungsfunktion der RC-Schaltung 1. Grades ebenfalls (gepunktet) in dem Bild eingetragen. Diese Funktion hat√bei der Frequenz ω = 1/τ den Betrag 12 2. Die Frequenz ω = 1/τ hat hier die Bedeutung der Grenzfrequenz.
... .. . ... . . .. .... . .. .. . . .. .. √ . .. . 1 . . . ..... . .. . . 2 ... ... . . 2 . ... . . ... ... . . .. . .. . . . 1 . . . . ...... . .... . . ... . . 2 .. .. .. ... . .... . . . ... . . . . . ..... . . 1 . . . . . . . .... . . . . . .... 3 . . . . . . . . . . .. . . . . ....... . . . . . . . ...... . . . . ........ .... ..... ......... .. ... . ............ .... .. ..................... ...... . ............................... .... ......................................... .... . ............................... .
→ω
ω = τ1
¨ Es stellt sich die Frage, warum die Ubertragungsfunktion der Schaltung 2. Grades nicht das Pro¨ dukt von Ubertragungsfunktionen 1. Grades ist. Die hier untersuchte RC-Schaltung kann doch als Hintereinanderschaltung zweier einfacher RC-Tiefp¨asse angesehen werden. Die Begr¨undung liegt darin, dass das Anf¨ugen der 2. einfachen RC-Schaltung den 1. Schaltungsteil belastet. •
Dieses Problem k¨onnte man mit der rechts skizzierten Schaltung umgehen.
•
R1 U1
˜ U
C1
?
?
Tennverst¨arker mit der Verst¨arkung 1
R2 ˜ U
C2
U2
?
•
? •
Zwischen die beiden einfachen RC-Tiefp¨asse ist ein Trennverst¨arker mit einem sehr großen Eingangswiderstand, einen sehr kleinen Ausgangswiderstand und der Verst¨arkung 1 geschaltet. Dadurch belastet der 2. Schaltungsteil den 1. Teiltiefpass nicht mehr. Wir erhalten bei dieser Anordnung zun¨achst: ˜ = G1 (jω) · U1 = U
1 U1 . 1 + jωR1 C1
˜ die Eingangsspannung f¨ur den 2. Schaltungsteil, es wird: Wegen des Trennverst¨arkers ist U ˜= U2 = G2 (jω)U
1 ˜. U 1 + jωR2 C2
˜ = G1 (jω)U1 erh¨alt man: Mit U U2 = G1 (jω)G2 (jω)U1 =
1 1 · U1 . 1 + jωR1 C1 1 + jωR2 C2
Die Gesamt¨ubertragungsfunktion ergibt sich als Produkt der beiden Teilu¨ bertragungsfunktionen: G(jω) = G1 (jω) · G2 (jω). In dem Bild ist f¨ur R1 = R2 = R, C1 = C2 = C der Betrag dieser Funktion gestrichelt eingetra¨ gen. Man erkennt die Abweichung zur Ubertragungsfunktion der Schaltung ohne die Entkopplung durch einen Trennverst¨arker. Bei aktiven Filterschaltungen ist eine Entkopplung der Schaltungsteile oft gegeben, so dass dort die Teil¨ubertragungsfunktionen multipliziert werden du¨ rfen.
74
1 Grundlagen der Elektrotechnik und Elektronik
Beispiel 1.39 Ein Potenztiefpass, normierte Rechnung Das Bild zeigt einen sogenann• • • • ten Potenz-Tiefpass 3. Grades, der 1000 Ω 31,85 mH 1000 Ω (1) (2) bei seiner Grenzfrequenz fg = (1) U0 U2 10000 Hz eine D¨ampfung von 3 dB 15,93 nF 15,93 nF ¨ ? ? aufweist. Als Ubertragungsfunktion (1) (1) U2 • • wird hier der Quotient G(jω) = 2 U • • 0 definiert. In der Schaltung sind auch die Bauelementewerte angegeben, auf die eingeklammerten Zahlen ¨ kommen wir anschließend zu sprechen. Zur Berechnung der Ubertragungsfunktion ist es g¨unstig, von der Gleichung (1.100) (hier mit dem Faktor 2!) auszugehen: G(jω) = 2
2 U2 = . U0 A11 + A12 /R2 + A21 R1 + A22 R1 /R2
R1 und R2 sind dabei die Widerst¨ande, die in das Zweitor eingebettet sind. Im vorliegenden Fall ¨ muss demnach die ist R1 = R2 = R = 1000 Ω. Zur Berechnung der Ubertragungsfunktion Kettenmatrix des (umrandeten) Zweitores berechnet werden. An dieser Stelle stoßen wir auf das Problem, dass wir mit Zahlenwerten rechnen m u¨ ssen, die viele Zehnerpotenzen auseinander liegen und u¨ berdies hinaus noch viele Stellen aufweisen. In der Elektrotechnik rechnet man in solchen F¨allen h¨aufig normiert. Um eine normierte Schaltung zu erhalten, legt man zun¨achst einen geeigneten Bezugswiderstand Rb fest. Hier w¨ahlen wir Rb = 1000 Ω. Nach dieser Festlegung werden alle Widerst¨ande in der Schaltung auf diesen Bezugswiderstand bezogen, es entstehen normierte Widerst¨ande Rn = R/Rb . Im vorliegenden Fall ergeben sich die beiden (in Klammern angegebenen) normierten Widerst¨ande R1n = R2n = 1. Als 2. Bezugsgr¨oße w¨ahlt man eine Bezugsfrequenz fb , auf die alle Frequenzen bezogen werden. Hier w¨ahlen wir fb = fg = 10 kHz. Dies bedeutet, dass die Grenzfrequenz bei der normierten Frequenz 1 liegt. Eine normierte Frequenz von 2 bedeutet eine wirkliche Frequenz von 20 kHz. Schließlich werden noch alle Impedanzen auf den Bezugswiderstand bezogen. Damit erhalten wir bei einer Induktivit¨at, wenn noch f = fn · fb bzw. ω = ωn · ωb beachtet wird: ωL ⇒
ωb L ωL ωb L = ωn = ωn · Ln mit Ln = . Rb Rb Rb
Im vorliegenden Fall finden wir die normierte Induktivit¨at (fb = 10000 Hz, Rb = 1000 Ω, L = 31, 85 · 10−3 H): 2π · 10000 · 0, 03185 = 2. Ln = 1000 Dies ist der in der Schaltung in Klammern eingetragene Wert. Fu¨ r eine Kapazit¨at erh¨alt man entsprechend: 1 1 1 1 ⇒ = = mit Cn = ωb CRb . ωC ωCRb ωn · ωb CRb ωn · Cn Im vorliegenden Fall finden wir die normierten Kapazit¨aten (fb = 10000 Hz, Rb = 1000 Ω, C = 15, 93 nF) Cn = 2π · 10000 · 15, 93 10−9 · 1000 = 1.
1.11 Elektronische Bauelemente
75
Nun k¨onnen wir mit den sehr viel einfacheren normierten Werten rechnen und erhalten die Kettenmatrix des Zweitores: 1 + 2(jω)2 1 0 1 2jω 2jω 1 0 = . A= jω 1 0 1 2jω + 2(jω)3 1 + 2(jω)2 jω 1 Dann erhalten wir nach der oben angegebenen Beziehung (1.100) und den normierten Bauelemen7 ¨ tewerten die Ubertragungsfunktion: G(jω) = 2
U2 2 = . U0 2 + 4jω + 4(jω)2 + 2(jω)3
Die Betragsbildung f¨uhrt nach einigen Rechenschritten zu dem Ergebnis: |G(jω)| = 1/|1 − 2ω 2 + jω(2 − ω 2 )| = √ Diese Betragsfunktion ist rechts in Abh¨angigkeit von der normierten Frequenz aufgetragen. Bei fn = 1 ist die wirkliche (Grenz-) Frequenz fg = 10000 Hz. Aus der Schaltung mit den normierten Bauelementewerten erh¨alt man die urspr¨ungliche Schaltung durch eine Entnormierung zur¨uck.
1 . 1 + ω6
↑ |G(j2πfn )| 1 ...............................
... .. ... ... ... √ .. 1 . . . . . . . .... 2 2 ..... . .... . ... . ..... . .... . .... .. . ... ... . ... . ... ... . .... ..... . ...... . ........ ............ . ....................... .......................................................................... .
1
→ fn
Durch die Umstellung der oben angegebenen Beziehungen folgt: R = R n · R b , L = Ln
Rb 1 , C = Cn . ωb ωb R b
1.11 Elektronische Bauelemente 1.11.1 Halbleiter Im Abschnitt 1.1.2 wurde ausgef¨uhrt, dass bei Metallen die Bindungsenergie der Elektronen in den a¨ ußeren Schalen so gering ist, dass sie sich frei bewegen ko¨ nnen (freie Elektronen). In Halbleitern sorgen die Elektronen der a¨ ußeren Schalen im Wesentlichen f¨ur die Bindung zu den benachbarten Atomen (Valenzelektronen). Aus diesem Grunde hat reines Germanium oder reines Silizium einen sehr großen spezifischen Widerstand. Erst durch eine dosierte schwache Verunreinigung, die sogenannte Dotierung, entsteht eine bestimmte kontrollierte Leitf¨ahigkeit. Silizium hat 4 Valenzelektronen. Wenn man in Silizium fu¨ nfwertige Atome (z.B. Phosphor, Arsen) einbringt, sind von deren 5 Valenzelektronen nur 4 zur Gitterbildung mit den Siliziumatomen 7 Im vorliegenden Fall wird die ”eigentliche” Ubertragungsfunktion ¨ mit dem Faktor 2 multipliziert, damit man bei f = 0 den Wert G(0) = 1 erh¨alt. Der Faktor hat auf die Frequenzabh¨angigeit ansonsten keinen Einfluss.
76
1 Grundlagen der Elektrotechnik und Elektronik
erforderlich. Ein Elektron wird nicht ”beno¨ tigt” und steht zur Stromleitung zur Verf¨ugung. Durch die Verunreinigung mit f¨unfwertigen Atomen entsteht ein sogenanntes N-dotiertes Silizium oder ein N-Halbleiter. Werden umgekehrt dreiwertige Fremdatome (z.B. Bor, Gallium) in das Silizium eingebracht, dann stehen zu wenig Valenzelektronen f¨ur die Gitterbildung zur Verf¨ugung. Das jeweils fehlende Elektron wird von einen Nachbaratom geholt, das wiederum aus einem Nachbaratom ein Elektron entzieht usw. Dies kann man so interpretieren, dass sich eine positive Ladung (ein Loch) durch das Material bewegt. Man spricht jetzt von einem P-dotierten Halbleiter oder kurz von eine PHalbleiter.
1.11.2 Die Diode Das nachstehende Bild zeigt eine Diode, die aus zwei Halbleiterschichten, einem P- und einem N-Halbleiter besteht:
−
U
U N
P Grenz߬ache (nicht leitend)
+ -I
+ UH H
N
P
−
Grenz߬ache (leitend)
Wir betrachten die Grenzschicht zwischen dem P- und N-Material. Links im Bild ist an die Diode eine (Gleich-) Spannung so angelegt, dass an der P-Seite ein negativer Ladungsu¨ berschuss und an der N-Seite ein positiver Ladungs¨uberschuss auftritt. In dieser Situation verarmt die Grenzschicht zwischen den Materialien an Ladungstr¨agern. Die positiven Ladungstr¨ager im P-Material werden von der negativen Ladung an der linken Klemme angezogen. Das gleiche gilt f u¨ r die negativen Ladungen an der rechten Klemme. Die Grenzschicht wirkt in dieser Situation isolierend, es kann kein Strom durch die Diode fließen. Die Diode ist in Sperrrichtung geschaltet. Wenn die Spannung an der Diode umgepolt wird (rechter Bildteil), dann werden positive und negative Ladungstr¨ager in die Grenzschicht hineingedr¨uckt. Die Anordnung ist nun leitend. In dem Bild ist zus¨atzlich das Schaltungssymbol f¨ur eine Diode angegeben. Eine Diode hat offenbar die Eigenschaft, dass sie in ihrer Durchlassrichtung leitend ist. Im Idealfall h¨atte sie dann den Widerstand 0. In der Sperrrichtung hat die Diode einen sehr großen Widerstand, im Idealfall einen unendlich großen. Das nachstehende Bild zeigt die Kennlinie einer Diode. Die gestrichelte Kurve ist die linearisierte Kennlinie. Die Spannung Us wird Schleusenspannung genannt, sie liegt im Bereich von 0,3 bis 1 V. Bei Germaniumdioden ist Us ≈ 0, 3 V, bei Siliziumdioden Us ≈ 0, 73 V.
1.11 Elektronische Bauelemente
77 ↑I
. .. ... ... . .... .... ....... .. .... .... ..... ... . .... ...... . ...... .. ... ..... ...... .. .... ... ... .. ..... .. . ... .... .. . ... ... ... .. . . . ..... ... ....... → U/V ............................................................................................................................ ....... ...... US
Bei einer realen Diode fließt auch bei negativen Spannungen ein kleiner Sperrstrom, der in dem Bild allerdings nicht eingezeichnet ist. Der Sperrstrom nimmt erst bei großen (negativen) Spannungswerten nennenwerte Betr¨age an. Selbstverst¨andlich m¨ussen bei Dioden Grenzwerte f¨ur die Betriebsspannungen und Str¨ome eingehalten werden. Bei allen Dioden erfolgt ¨ beim Uberschreiten der max. Sperrspannung ein steiles Ansteigen des Sperrstromes. Bei normalen Dioden ¨ f¨uhrt eine Uberschreitung der max. Sperrspannung zu einer Zerst¨orung der Dioden. Bei den sogenannten Zenerdioden (siehe hierzu auch Abschnitt 1.4.7) wird dieser Effekt technisch ausgenutzt.
¨ Zu große Spannungen in Durchlassrichtung fu¨ hren zu einer Uberschreitung des zul¨assigen Stromes und damit ebenfalls zu einer Zerst¨orung der Diode. Durch Schaltungsmaßnahmen mu¨ ssen Bereichs¨uberschreitungen ausgeschlossen werden.
1.11.3 Der Transistor Ein Transistor ist aus drei Halbleiterschichten aufgebaut und hat drei Anschl u¨ sse (B: Basis, C: Kollektor, E: Emitter). Es gibt zwei verschiedene Arten von Transistoren, den NPN-Transistor und den PNP-Transistor. Das Bild zeigt den Aufbau und die Schaltungssymbole f u¨ r diese Transistoren.Bei den Erkl¨arungen beschr¨anken wir uns auf den NPN-Transistor. Die Ergebnisse lassen sich jedoch problemlos auf den PNP-Transistor u¨ bertragen. E•
N
P
•C
N
E•
P
•
E•
N •
B
B
NPN-Transistor
PNP-Transistor
•C
J
] J
•
B
•C
P
E•
•C
J ^
J
•
B
Nachstehend ist eine wichtige Grundschaltung, die Emitterschaltung fu¨ r einen NPN-Transistor skizziert. Zum Verst¨andnis der Wirkungsweise dieser Schaltung IC und zur Ableitung einer Ersatzschaltung beno¨ tigt man C das (unten skizzierte) Kennlinienfeld des Transistors. I B -B Viel genauer wird die Wirkungsweise der Schaltung im s QQ UCE n sogenannten Kleinsignalbetrieb bei dem AnwendungsE ? beispiel im Abschnitt 1.12 besprochen. Bei den Span- nUBE ? IE ? nungen und Str¨omen soll es sich in diesem Abschnitt im Grunde um Gleichstromgr¨oßen handeln. •
78
1 Grundlagen der Elektrotechnik und Elektronik
Der linke Bildteil zeigt die Abh¨angigkeit des Basisstromes von der zwischen der Basis und dem Emitter anliegenden Spannung UBE . Bei dieser Funktion handelt es sich u¨ brigens um die Diodenkennlinie (siehe Abschnitt 1.11.2). Zwischen der Basis und dem Emitter befindet sich eine ¨ Diode (PN-Ubergang), die bei unserer Schaltung in der Durchlassrichtung betrieben wird. Im rechten Bildteil ist der Kollektorstrom in Abh¨angigkeit von der Spannung UCE zwischen dem Kollektor und Emitter aufgetragen. Die Kurvenverl¨aufe sind von den Basisstr¨omen abh¨angig. Mit steigenden Werten der Basisstr¨ome steigen auch die Kollektorstr¨ome. Dabei muss darauf hingewiesen werden, dass die Str¨ome in den beiden Bildern nicht im gleichen Maßstab dargestellt sind. Der Basisstrom ist i.A. sehr klein, der Kollektorstrom aber viel gro¨ ßer. Hieraus erkl¨art sich auch die Wirkungsweise der Schaltung. Kleine Ver¨anderungen der ”Eingangsspannung” UBE f¨uhren ¨ ¨ ¨ zu Anderungen des Basisstromes. Die Anderungen des Basisstromes IB f¨uhren zu Anderungen ¨ von IC viel gr¨oßer als die von IB sind, ergibt sich des Kollektorstromes IC . Weil die Anderungen eine Verst¨arkung. ↑ IB
.. . . . ... .. . .. .. ... .. . .... .. . .. .. .. .. ... .. . .. .. ... .. .. ... . . . . ... .. .. .. .. ... . .. .. .. .. .. .. ... ... . . ... .. .. . .... ... . .. .. .. .. ... ..... . .. ... .. ... . .. . .. .. ... . .... ... ..... . . . . . . .. → UBE .............................. ... .....
↑ IC
.... ....... ....... ....... ....... ............................................................................................................................................................................................................................................................................................... .. ....... ...... .... . . . ... ... ... .... ..... ....... ....... ......... ....... ................................................................................................................................................................................................................................................................................................ ... .. ....... B ... ........ .... .... .... .. .... ........ .. ........ ... ...... . ... .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . ....... ...... ....... ................................. ...... ....... ....... ....... ....... ....... ....... ....... ....... ....... ..... . . . . ... ... . ... ... .......... ... ... ... ... ... ..... .. ...... ...... ... ...... ....... .... ....... ..................................................................................................................................................................................................................................................................................................................................... . . ....... ... ......... .... ..... .. ... ...... ...... ..... CE ..
I
→U
Eine einfache physikalische Erkl¨arung der Wirkungsweise des Transistors ¨ Der PN-Ubergang zwischen Basis und Emitter (Emitterschaltung siehe oben) wird in Durchlassrichtung betrieben. Entsprechend der eingestellten (kleinen) Basis-Emitterspannung U BE fließt ein (kleiner) Basisstrom IB (siehe linkes Kennlinienfeld). Im Gegensatz dazu liegt zwischen der Basis und dem Kollektor eine Diode in Sperrrichtung. Fu¨ r den Emitterstrom erh¨alt man (Knotengleichung) IE = Ib + IC . Bei offenem Kollektor w¨urde also IB = IE sein. Die im Emitter f¨ur die Stromleitung zur Verf¨ugung stehenden Elektronen wandern (entgegengesetzt zur Stromrichtung) unter dem Einfluss von UBE in die Basiszone des Transistors. Die Basiszone ist sehr d¨unn, dadurch ger¨at der gr¨oßte Teil der Elektronen dort unter den Einfluss der Spannung UCE , die Elektronen werden vom Kollektor abgesaugt. Zur Festlegung des Anteils der Elektronen, die aus der Basisschicht vom Kollektor abgesogen werden, fu¨ hrt man einen Stromverteilungsfaktor ein: IC α= . (1.118) IE UCE =konstant Normalerweise liegt α im Bereich von 0, 95 bis 0, 999. Das bedeutet einen in der Regel außerordentlich kleinen Basisstrom. Neben dem Stromverteilungsfaktor wird noch ein Strom-
1.12 Elektronische Schaltungen
79
verst¨arkungsfaktor eingef¨uhrt: β=
IC . IB UCE =konstant
Mit IE = IB + IC erh¨alt man dann den Zusammenhang: β=
α . 1−α
(1.119)
Damit liegen die Werte des Stromverst¨arkungsfaktors β im Bereich von etwa 20 bis 1000. Kleine ¨ Basisstr¨ome bzw. kleine Anderungen des Basisstromes haben große Kollektorstro¨ me bzw. große ¨ Anderungen der Kollektorstr¨ome zur Folge. I Die gestrichelten Linien in den Diagram-1 men stellen relativ grobe N¨aherungen f¨ur die nichtlinearen Kennlinien dar. Aus diesen vereinfachten Kennlinien erh¨alt man das rechts U1 skizzierte Ersatzschaltbild f¨ur die Transistor? Grundschaltung. Sie enth¨alt am Tor 1 den Eingangswiderstand RBE , das ist der als konstant angenommene Widerstand zwischen der Basisund Emitterklemme des Transistors.
B ? IB
C
UBE ? RBE E •
I -2
β · IB ?
U2 ?
•
Der reziproke Wert 1/RBE entspricht der Steigung der gestrichelten Geraden im linken Teil des Kennlinienbildes. Der Wert β bei der stromgesteuerten Stromquelle ist die oben eingef u¨ hrte Stromverst¨arkung8 . Aus der uns hier vorliegenden einfachen Ersatzschaltung finden wir die Gleichungen: I2 = −βIB = −βI1 ,
1 U1 = I1 RBE = − I2 RBE , β
und daraus die Kettenmatrix (siehe Abschnitt 1.9.3) des Zweitores mit der Transistorschaltung: 0 −RBE /β . A= 0 −1/β Es wird darauf hingewiesen, dass in der Praxis mit sehr viel aufw¨andigeren Ersatzschaltungen gearbeitet wird.
1.12 Elektronische Schaltungen In diesem Abschnitt werden einige wichtige Schaltungen aus der Analog- und Digitaltechnik angegeben, die mit den bisher behandelten Lehrinhalten verstanden und teilweise auch berechnet werden k¨onnen. 8 Eigentlich wird die Stromverst¨ arkung bei Gleichsignalen mit dem Buchstaben B bezeichnet. β ist genaugenommen der f¨ur den Kleinsignalbetrieb g¨ultige differentielle Wert (siehe hierzu auch das Answendungsbeispiel im Abschnitt 1.12).
80
1 Grundlagen der Elektrotechnik und Elektronik
1.12.1 Kleinsignal-Transistorversta¨ rker
Im Abschnitt 1.11.3 wurde bereits ein Transistor in Emitterschaltung angegeben. Im Folgenden wird diese Schaltung genauer betrachtet.
Zur Einstellung eines Arbeitspunktes werden bei der Schaltung Gleichspannungen und Gleichstr¨ome ben¨otigt. Großbuchstaben bedeuten in diesem Abschnitt daher immer Gleichgro¨ ßen. So ist z.B. die Spannung UB eine Gleichspannung von z.B. 12 V. Wechselgro¨ ßen werden stets mit unterstrichenen √ Kleinbuchstaben bezeichnet. So ist der Strom iB ein komplexer (Basis-) Strom. Ist z.B. iB = 2e−jπ/2 , dann gilt iB (t) = 2 cos (ωt − π/2) = 2 sin ωt. W¨ahrend in der Schaltung im Abschnitt 1.11.3 die Spannungen zwischen Kollektor und Emitter UCE und die zwischen der Basis und Emitter UBE durch zwei getrennte Spannungsquellen eingestellt wurden, gibt es in den unten skizzierten Schaltungen nur eine Gleichspannungsquelle mit der Spannung UB . Entsprechend der Gr¨oße des Kollektorstromes IC entsteht an dem Widerstand RC (bei der rechten Schaltung an RC und RE ) ein Spannungsabfall, mit dem die Spannung UCE eingestellt werden kann. Die Spannung UBE wird durch eine geeignete Dimensionierung des aus den beiden Widerst¨anden RB1 und RB2 bestehenden Spannungsteilers eingestellt. Welche (Gleich-) Spannungen und Str¨ome sich einstellen, ergibt sich aus dem Kennlinienfeld des Transistors. Emitterschaltung ohne Stabilit¨atsmaßnahmen • ? IC
R B1
Emitterschaltung mit Stabilit¨atsmaßnahmen • ? IC
R B1
RC
• C UB s Q B Q ? E UCE R B2 ?
IB •UBE ? •
RC
C UCE s Q B Q ? E R B2 RE
IB •UBE ?
•
•
UB
?
•
Das Kennlinienfeld ist unten dargestellt. Es unterscheidet sich von dem Kennlinienfeld im Abschnitt 1.11.3 nur durch die Skalierung der Achsen und die Angabe spezielle Werte fu¨ r die Spannungen und Str¨ome.
Aus der oben links skizzierten Emitterschaltung erh¨alt man die Beziehung: UB = IC RC + UCE ,
IC =
UB UCE − . RC RC
Diese Beziehung (eine Gerade) ist zus¨atzlich in das nachstehende Kennlinienfeld eingetragen.
1.12 Elektronische Schaltungen
81
↑ IC /mA UB /RC ......... ..... .. .. . 10.... ............ 50.... .. ..... ..... ... . ..... .. . . . ..... . ..... .. . . ..... . ... . . ..... . ..... IB =40μA ..... .. . . . ..... ............ . ......................................................................................................................................................................................... . . 8.... 40.... . . . . . ..... . . ..... .... .. . . . . . . . . . . . . . . . . .. ..... . iB Steuerstrom . . .... . . . . . . . .. . ..... . .. . . ..... ..... . .. . ... . . ..... . ..... . ... .. ..... . ..... . . . ..... . .. . ....... . .. ... I....B =30μA . ..... ..... . . . . .. . . . . . . . . . . . . . . . . ............................................................................................................................................. ....... ................................ . ........ ............ ....... ....... ............ ....... ....... ...................................• . . . . . . . . . . . .... . 6.... 30.... . . . . .... .. ..... . . .... . . .... .... ..... . . ... ........... . .. ... .. . . ....... .. .... .. .... ... ....... ... ..... .. . ..... . .. ... ... .. .. .. . . . .. . . . . ..... ....... .. .... ... ... . . ... ..... . ... ... ... ... ... .... .. ..... ....... . .. .. .. ... ... ..... .. ...... ..... . .IB =20μA . .. .. .. . . . .... ..... . ... . . . . . . . .................................................................................................................................. ......... ....... ........ ....... .. ....... ......... ....... ....... ......... ....... .........................................................................................................................• . . I . . . . . . . . . . . . . . . . . . . . . . . . . . C ... . . . I . . . . • 20 B0 .. ... 0 .. ...... ..... . . . ... . . ....... A . . .... ............ . ... . . A ... ... . ... ... ......... . ... ..... .. ... . ... ... .. ..... .. . .. .. . . . ... .... . .. .. . . . ..... ... ... . . . . .. .. ...... . . .. .. .. ..... ... . ... ... ... .. ..... ..... .. ... .. ...... .. ..... ... . . I =10μA . . B . .. . ... ........................................................................................................ ....... ....... .......... .......... ....... ....... ..... ....... . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . • . . . . . . . . . . . . . . . . . . . . . . . . . . ... ... ........ . 2 ... ..................... 10 ..... .... .. .. ..... ... ... ... ........ .. .. ...... . . . .. .. . . . . Kollektorstrom . . . . . . . ..... . . . ..... ...... ... ... ... ..... ... ...... .. ..... .. .. ..... U ... ..... ..... BE0 . 0,5 ..... .. . . . . . . . . . . . . . . .. ... ... ... . ................... .. .. .. .. .. 3 6......................................UCE 9 ... UB→ UCE /V → UBE /V ... .. ↑ IB /μA
.. 0 ............ .. .... . ... .... ............................... ............................ .. . ....................... ............. ... .... ..... . . . . . . . ........ . . . . . . . . . . . . . . . . . . . . . . ............ . ... .... .......................................... .... ............. .. ... ... .............. . ......................... .. ......................... ................. .. ... ... .......... . . . . . ... ... ...
Kollektor-Wechselspannung
F¨ur UCE = 0 gilt IC = UB /RC und bei IC = 0 f¨allt die ganze Versorgungsspannung an der Kollektor-Emitterstrecke ab, es wird UCE = UB . Die Spannung UCE , die sich nun wirklich einstellt, ist von dem Basisstrom IB abh¨angig. Wir nehmen hier einmal an, dass der Spannungsteiler aus RB1 und RB2 zu der im linken Diagramm angegebenen Spannung UBE0 und damit dem Basisstrom IB0 = 20μA f¨uhrt. Dann entsteht ein Arbeitspunkt ”A” am Schnittpunkt der Arbeitsgeraden mit der Kennlinie f¨ur IB0 = 20μA und damit stellt sich (hier) eine Kollektor-Emitterspannung von UCE0 = 7 V ein. Der mit den oben beschriebenen Maßnahmen eingestellte Arbeitspunkt erweist sich in der Praxis als nicht sehr stabil. So f¨uhrt z.B. schon eine kleine Temperaturerho¨ hung zu einem gr¨oßeren Basisstrom IB und damit auch zu einer Verschiebung des Arbeitspunktes im rechten Kennlinienfeld. Dies hat eine Verkleinerung der Spannung UCE und einem Ansteigen von IC zur Folge. Mit der oben rechts skizzierten Schaltung, die einen zus¨atzlichen Widerstand RE im Emitterkreis hat, kann diese Temperaturdrift wesentlich reduziert werden. Der bei einer h o¨ heren Temperatur etwas gr¨oßere Strom IC f¨uhrt an RE zu einem h¨oheren Spannungsabfall und einer Verringerung der Spannung UBE (Masche an RB2 und RE ). Dies hat wiederum eine Verkleinerung des Basisstromes IB zur Folge und damit eine Korrektur der (unerwu¨ nschten) Arbeitspunktverschiebung. Die so entstandene Stabilisierung des Arbeitspunktes erfolgt hier durch eine sogenannte Stromgegenkopplung. In der Praxis ist immer eine Stabilisierung des Arbeitspunktes erforderlich. ¨ F¨ur die folgenden Uberlegungen spielt es keine Rolle, ob die linke oder die rechte Schaltung mit dem stabilisierten Arbeitspunkt betrachtet wird. Durch die Festlegung der Betriebsspannung U B (hier 12 V), des Widerstandes RC (hier 1150 Ω), der Widerst¨ande RB1 und RB2 so, dass die nach dem linken Diagramm vorgeschriebene Spannung UBE0 bzw. der Strom IB0 = 20μA entsteht, ist der Arbeitspunkt ”A” eingestellt.
82
1 Grundlagen der Elektrotechnik und Elektronik
• Wir betrachten jetzt die (vollst¨andige) rechts skizR B1 RC zierte Schaltung mit einer CK2 Wechselstrom-Spannungsquelle. i2 C • K Rg 1 Die Kondensatoren haben die iB C •UB Aufgabe, die Wechselgr¨oßen s Q B Q• E ? durchzuschalten. F¨ur die Gleich- u2 Rl u0 u1 gr¨oßen stellen sie einen unendR B2 R C ? E E ? lich großen Widerstand dar. Die ? Kondensatoren CK1 und CK2 • • • • sind ”Koppelkondensatoren”.
Der Kondensator CE schließt den Widerstand RE wechselstromm¨aßig kurz. Wir nehmen nun an, dass sich die Wechsel-Eingangsspannung (u0 ) sinusf¨ormig so a¨ ndert, dass der Wechsel-Basisstrom (iB ) eine Amplitude von etwa 10 μA hat. Dieser sinusfo¨ rmige Steuerstrom iB (t) ist im rechten Kennlinienfeld (gepunktet) skizziert. Bei iB (t) = 0 tritt (hier) die Spannung UCE0 = 7, 5 V auf (Arbeitspunkteinstellung). Die sinusfo¨ rmige Ver¨anderung von iB (t) f¨uhrt zu einer ebenfalls sinusf¨ormigen Kollektorspannung u2 (t). Man erkennt, dass die Aussteuerungsamplitude des Steuerstromes nicht zu groß werden darf. Eine zu große Aussteuerung f u¨ hrt zu einer nicht sinusf¨ormigen Ausgangsspannung u2 (t). Daher spricht man hier von einem Kleinsignalversta¨ rker. ¨ Zur Berechnung der Ubertragungsfunktion G(jω) = u2 /u0 verwenden wir die f¨ur den Transistor im Abschnitt 1.11.3 eingef¨uhrte einfache Ersatzschaltung. Wir beachten, dass die Kapazit¨aten in der Schaltung so groß sind, dass sie f¨ur die Wechselgr¨oßen Durchverbindungen darstellen. Weiterhin ist zu beachten, dass die Versorgungsspannungsquelle (UB ) f¨ur den Wechselstrom praktisch eine Kurzschlussverbindung ist. Dies bedingt z.B., dass wechselstromm¨aßig der Lastwiderstand Rl und RC parallel liegen. Der Widerstand RE ist wechselstromm¨aßig ohne Einfluss, weil er durch ¨ erhalten wir die unten skizzierte den Kondensator CE u¨ berbr¨uckt wird. Mit diesen Uberlegungen Ersatzschaltung. •
•
i -B
B
Rg u0
RB2 u1
R B1
?
? •
•
uBE ? RBE
C
•
i 2
E • •
β · iB ?
RC
Rl
u2 ?
•
¨ ¨ Wir wollen noch kurz die Ubertragungsfunktion berechnen (Ubung f¨ur die Leserin/den Leser!). Dazu ermitteln wir zun¨achst die Ersatzspannungsquelle bez¨uglich der Eingangsklemmen des gestrichelt dargestellten Transistor-Zweitores. Der Innenwiderstand Ri ist offenbar die Parallelschaltung der drei Widerst¨ande Rg , RB1 , RB1 : 1 1 1 1 R g R B1 R B2 = + + , Ri = . Ri Rg R B1 R B1 R g R B1 + R g R B2 + R B1 R B2 F¨ur die Spannung u ˜0 der Ersatzspannungsquelle erh¨alt man (Spannungsteilerregel) u ˜ 0 = u0
RB1 RB2 /(RB1 + RB2 ) R B1 R B2 = u0 . Rg + RB1 RB2 /(RB1 + RB2 ) R g R B1 + R g R B2 + R B1 R B2
1.12 Elektronische Schaltungen
83
Dann folgt f¨ur der Steuerstrom: ib =
R B1 R B2 u ˜0 = u0 . Ri + RBE Rg RB1 RB2 + Rg RBBE RB1 + Rg RBE RB2 + RBE RB1 RB2
Mit diesem Strom erh¨alt man mit dem Stromteilungssatz u2 und nach dem Einsetzen von ib die ¨ Ubertragungsfunktion G(jω): u2 = Rl i2 = −βib Rl
RC RC + R l
⇐⇒
G(jω) =
u2 . u0
1.12.2 UND-Schaltung bei positiver Logik Mit der links skizzierten Schaltung kann eine UND-Verknu¨ pfung realisiert werden. In der Bildmitte ist das Schaltungssymbol dargestellt und rechts die Verknu¨ pfungstabelle, auf die wir sp¨ater zur¨uckkommen. Die Schaltung enth¨alt zwei Dioden, z.B. Siliziumdioden mit einer Schleusenspannung von US ≈ 0, 7 V. Die Gleichspannungsquelle hat z.B. eine Spannung von 6 V, der Widerstand einen Wert von z.B. 6000 Ω. " b
A
A •
UA
•
" b
B
Z R
UB
U0
? ?
?
0
n
&
Z
B ?
• •
Z =A∩B 0 (≈0,7 V)
1 (U0 ) 0 0 (≈0,7 V) 0 1 (U0 ) 0 (≈0,7 V) 1 (U0 ) 1 (U0 ) 1 (U0 )
A UZ
B 0
0 ⇒ L (Low) 1 ⇒ H (High) bei z.B. U0 = 6 V: L-Pegel < 1 V, H-Pegel > 5 V
0
Im linken Bild unten sind beide Eingangsspannungen null (UA = 0, UB = 0, Kurzschlussverbindungen). Das bedeutet nach der oben rechts angegebenen Entscheidungstabelle, dass die beiden Eingangsvariablen A = 0 und B = 0 sind. Die Zuordnung der logischen Variablen A = 0 zu der Spannung UA = 0 und damit auch die Zuordnung von A = 1 zu UA = U0 ist willk¨urlich. Es w¨are ohne Weiteres auch die umgekehrte Zuordnung der logischen Werte zu den Spannungswerten m¨oglich. Im vorliegenden Fall spricht man von einer positive Logik und sonst von einer negativen. " • A b UA = 0US ≈0,7 V B " • b
•
A •
•
•
U0
B •
nU0 ?
≈0,7 V
?
n
• •
•
Z
I 6 R UZ
UB = 0
" b
? 0
" b
nU0 ? •
•
U0
?
I≈0 6 R UZ ≈U0 n
• •
Z
? 0
Nach der Wahrheitstabelle f¨ur ein UND-Glied muss bei A = 0 und B = 0 auch die Ausgangsgr¨oße Z = A ∩ B = 0 werden und nach unseren Vereinbarungen eigentlich UZ = 0. Wir wollen
84
1 Grundlagen der Elektrotechnik und Elektronik
nun die oben links skizzierte Schaltung untersuchen bei der offensichtlich U A = UB = 0 ist. In diesem Fall sind die beiden Dioden in Durchlassrichtung geschaltet. Bei idealen Dioden w u¨ rde an ihnen keine Spannung abfallen, bei realen Dioden tritt an ihnen die Schleusenspannung auf, die bei Siliziumdioden etwa 0, 7 V betr¨agt (siehe Abschnitt 1.11.2). Dann erh¨alt man die Maschengleichung (z.B. Masche u¨ ber untere Diode): U0 − US − IR = 0, daraus I = (U0 − US )/R und mit UZ = U0 − IR schließlich UZ = U 0 −
U0 − US R = US (≈ 0, 7 V bei Siliziumdioden). R
Statt der erw¨unschten Ausgangsspannung UZ = 0 tritt hier also eine (kleine) Restspannung auf. Daher ordnet man kleinen Spannungen, hier z.B. Werten UZ < 1 V den logischen Wert 0 zu. Die Studierenden k¨onnen leicht nachpr¨ufen, dass auch im Fall A = 1, B = 0, d.h. UA = U0 , UB = 0 die Ausgangsspannung UZ = US entsteht. Die obere Diode ist dann in Sperrrichtung gepolt und durch sie fließt kein Strom. Rechts im Bild ist die Situation bei A = B = 1, UA = UB = U0 = skizziert. Nun sind beide Dioden in Sperrrichtung geschaltet, es gilt I = 0 und damit wird U Z = U0 , also Z = 1. Ber¨ucksichtigt man einen ggf. sehr kleinen Sperrstrom durch die Dioden, dann wird die Ausgangsspannung geringf¨ugig kleiner als U0 . Offensichtlich k¨onnen bei der technischen Realisierung logischer Bausteine keine festen Zuordnungen zwischen logischen Gr¨oßen und den physikalischen Gr¨oßen angegeben werden. Bei z.B. der Referenzspannung U0 = 6 V und bei Verwendung von Siliziumdioden ko¨ nnte die Zuordnung Z = 0 bei UZ < 1 V und Z = 1 bei UZ > 5 V sinnvoll sein. Man erkennt hier auch, dass große Spannungen U0 von Vorteil sind, weil die beiden Schwellenpegel (hier = 0, 7 V und 5 V) dann weit auseinander liegen und die Schaltung damit sto¨ rsicher ist.
1.12.3 ODER-Schaltung bei positiver Logik In dem Bild ist links eine Schaltung fu¨ r eine ODER-Verkn¨upfung in positiver Logik (siehe Vorabschnitt) skizziert. Die Bildmitte zeigt das Schaltungssymbol und rechts ist die Entscheidungstabelle dargestellt. b "
A
A •
UA
•
Z
b "
B
0 A
R
UB
≥1
UZ ?
? ? •
0
B
Z
B 0
Z =A∪B 0
1 (U0 ) 0 1 (U0 ) 0 1 (U0 ) 1 (U0 ) 1 (U0 ) 1 (U0 ) 1 (U0 ) 0 ⇒ L (Low) 1 ⇒ H (High) bei z.B. U0 = 6 V: L-Pegel < 1 V, H-Pegel > 5 V
•
Das untere Bild zeigt links die Schaltung bei A = B = 0 (d.h. UA = UB = 0), offenbar gilt hier UZ = 0, dies bedeutet Z = 0 ∪ 0 = 0. Die rechte untere Schaltung beschreibt den Fall A = 0, B = 1, d.h. UA = 0 und UB = U0 . Die untere Diode ist hier in Durchlassrichtung geschaltet. An der Diode entsteht (fast) kein Spannungsabfall. Es wird I = U0 /R, UZ = IR = U0 , also gilt Z = 0 ∪ 1 = 1. Die obere Diode liegt
1.12 Elektronische Schaltungen
85
u¨ brigens in Sperrrichtung, durch sie fließt kein Strom. b • A " • • UA = 0 UA Z B b • " UZ R =0 UB = 0 ? •
•
•
A =0 B •
b " •
•
U ?0
UZ ≈ U0
R
?
•
0
Z
I b"
•
•
0
•
1.12.4 Addierschaltung Bei der nachstehend skizzierten Schaltung gilt: U2 = −
R R2 R2 2 U11 + U12 + · · · + U1n . R11 R12 R1n
Aufgrund des Vorzeichenwechsels man spricht von einem (Umkehr-) Addierer. U11
R11
Im Fall R11 = R12 = · · · R1n = R2 erh¨alt man die einfache (negative) Summe
R2
U12
R12
•
U13
R13
• • I
U1n
· · ·
Q −QQ
Q +
R1n
U2 = −(U11 + U12 + · · · + U1n ). •
U2
? •
Zum Beweis dieser Beziehungen ermittelt man am besten den in der Schaltung eingetragenen Strom I = U11 /R11 +U12 /R12 +· · ·+U1n /R1n . Mit diesem Strom erh¨alt man nach der Beziehung U2 = −I · R2 (siehe Gl. (1.117) im Abschnitt 1.10.3) die oben angegebene Beziehung.
1.12.5 D/A-Umsetzer mit gestaffelten Widersta¨ nden Die Zahlen sollen als n−stellige Bin¨arzahlen in der Form vorliegen: s = s0 + s1 2 + s2 22 + · · · + sn−1 2n−1 =
n−1 ν=0
sν 2ν ,
sν ∈ {0, 1}.
86
1 Grundlagen der Elektrotechnik und Elektronik
Offenbar liegen diese Zahlen im Bereich: 0 ≤ s ≤ 2n − 1. Bei der nebenstehenden Schaltung sei Ua eine feste GleichReferenzspannung, z.B. Ua = 1 V. Bei s0 = 0 ist der Schalter offen, so wie oben im Bild. Bei s0 = 1 ist er geschlossen. Entsprechendes gilt f¨ur die anderen Schalter. Damit erh¨alt man:
! !
R
•
! !
R/2
•
•
! !
R/4
•
s0
Ua
Rb
s1
s2
Q −QQ Q +
•
· · ·
! !
R/2n−1
sn−1
-
Ra
•
Ub
?
?
•
n−1 1 1 1 1 1 + · · · + sn−1 = s0 + s1 = sν 2ν Ra R R/2 R/2n−1 R ν=0
und daraus schließlich den Eingangs-Widerstand: Ra =
R n−1
. ν
sν 2
ν=0
Entsprechend der Schaltung des einfachen invertierenden Verst¨arkers im Vorabschnitt erh¨alt man: Ub = −Ua
n−1 Rb Rb Rb · s. = −Ua sν 2ν = −Ua Ra R ν=0 R
Bei einer festen Referenzspannung Ua ist die Ausgangsspannung direkt proportional zu dem Wert der Bin¨arzahl s. Die besprochene Schaltung hat einige Nachteile. Zun¨achst wird die Spannungsquelle Ua mit einem sehr unterschiedlich großen Widerstand Ra belastet. Wenn s seinen maximalen Wert 2n − 1 annimmt, ist Ra kleiner als der kleinste Parallelwiderstand, also Ra < R/2n−1 . Im Fall s = 0 wird Ra unendlich groß. Das bedeutet, dass die Referenzspannungsquelle einen ganz kleinen Innenwiderstand haben muss, damit die unterschiedlichen Belastungen keinen Einfluss auf den Wert von Ua haben. Ein weiterer wichtiger Nachteil ist, dass n sehr unterschiedlich große Widerst¨ande mit großer Genauigkeit ben¨otigt werden.
1.12.6 D/A-Umsetzer mit einem R/2R Abzweignetzwerk Bevor dieser Abschnitt durchgearbeitet wird, sollen die Studierenden zun¨achst nochmals die Beispiele 1.36 und 1.37 ansehen. Auf die dort ermittelten Ergebnisse wird hier (ohne weitere Erkl¨arungen) zur¨uckgegriffen. Die in dem Bild unten skizzierte Schaltung hat nicht die Nachteile des D/A-Umsetzers mit den gestaffelten Widerst¨anden vom Vorabschnitt. Hier werden lediglich zwei verschiedene Widerstandswerte R und 2R ben¨otigt, allerdings die doppelte Anzahl der fr¨uheren Schaltung.
1.12 Elektronische Schaltungen
I -
R
•
I/2 ?
2R Ua ? sn−1 @ @ •
•
87
···
•
R
•
I/4 ?
I/2 ?
2R
2R
sn−2 @ @
s1 @ @
•
•
n−1
•
I/2n ? 2R
2R
s0 @ @
•
R0 •
•
I0 •- •
Z −
Z Z
•
+
Ub
?
• •
sν = 0 bedeutet die (oben eingetragene) rechte Schalterstellung, bei sν = 1 wird der Schalter nach links umgelegt. Der oben eingetragene Strom I0 ergibt sich als Summe der Teilstr¨ome entsprechend den Schalterstellungen: I0 = s0
I I I + · · · + sn−2 + sn−1 . 2n 4 2
Mit I = Ua /R und Ub = −I0 R0 (siehe Erg¨anzungen im Abschnitt 1.10.3) folgt dann: I0 =
n−1 R0 R0 Ua n−1 s , U + s 2 + · · · + s 2 = −U sν 2ν = −Ua · s. 0 1 n−1 b a R 2n R 2n ν=0 R 2n
Dabei ist s, die umzusetzende Bin¨arzahl im Bereich 0 ≤ s ≤ 2n − 1: s=
n−1
sν 2ν ,
sν ∈ {0, 1}.
ν=0
Die Referenzspannung Ua muss einen konstanten Wert haben. Dies ist bei der vorliegenden Schaltung allerdings leicht erreichbar, weil die Referenzspannungsquelle stets mit dem gleichen Widerstand R belastet wird. Bei der rechten Schalterstellung liegt der entsprechende Widerstand 2R an Masse. Bei der linken Schalterstellung liegt er am oberen invertierenden Eingang des Operationsverst¨arkers. Wie bei den Erg¨anzungen im Abschnitt 1.10.3 erkl¨art wurde, hat dieser Eingang aber nahezu Massepotential (virtuelle Masse). Daher wird die Referenzspannungsquelle immer mit dem Widerstand R belastet.
88
1 Grundlagen der Elektrotechnik und Elektronik
1.13 Aufgaben und L¨osungen Die nachfolgenden Aufgaben und L¨osungen vertiefen den Lernstoff und bieten den Studierenden die M¨oglichkeit, die selbst gerechneten Aufgaben zu kontrollieren.
1.13.1 Aufgaben und L¨osungen zur Gleichstromtechnik Aufgabe 1.13.1 Wie groß ist der Widerstand eines 500 m langen Kupferdrahtes mit einem Querschitt von 1, 5 mm2 ?
L¨osung 1.13.1 Nach Gl. (1.4) folgt: R = 5, 667 Ω.
Aufgabe 1.13.2 Berechnen Sie den Gesamtwiderstand der skizzierten Schaltung.
L¨osung 1.13.2 Die obere Reihenschaltung ergibt: Ro = (10 + 30)Ω. Die untere Reihenschaltung ergibt: Ru = (50+50)Ω. ·Ru = Nach Gl. (1.15) folgt: Rges = RRoo+R u 28, 57 Ω.
10 Ω
30 Ω
•
•
50 Ω
50 Ω
Aufgabe 1.13.3 Berechnen Sie den Gesamtwiderstand der skizzierten Schaltung.
25 Ω
•
- Rges 3Ω
•
5Ω 5Ω
•
40 Ω 25 Ω
•
10 Ω
50 Ω
5Ω
Aufgabe 1.13.4 Berechnen Sie den Gesamtwiderstand der skizzierten Schaltung. • R
R R
•
• 3R
Rges 6
• 3R
L¨osung 1.13.3 Solche Berechnungen erfolgen immer von hinten! Zuerst ergibt die Reihenschaltung der drei Widerst¨ande: R1 = (40 + 50 + 5)Ω. Die Parallelschaltung von R1 mit 25Ω ergibt: R2 = 19, 7917Ω. Die Reihenschaltung von R2 mit 5Ω und 10Ω ergibt: R3 = 34, 7917Ω. Die Parallelschaltung von R3 mit 5Ω ergibt: R4 = 4.37173Ω. Die Reihenschaltung von R4 mit 25Ω und 3Ω ergibt: Rges = 32, 2717Ω. L¨osung 1.13.4 Nach der Stern-DreieckUmwandlung (s. Abschn. 1.4.5) erh¨alt man: R12 = R13 = R23 = 3 · R und danach Rges = 1, 5 · R. Da hier die Br¨ucke abgeglichen ist, kann die L¨osung einfacher gefunden werden: Die Parallelschaltung von 2R und 6R ergibt: Rges = 12R 8 = 1, 5 · R.
1.13 Aufgaben und L¨osungen
89
Aufgabe 1.13.5 Zwei Widerst¨ande R1 = 20 Ω und ein unbekannter Widerstand R2 sind parallelgeschaltet. Der Gesamtwiderstand hat den Wert Rges = 12 Ω. Wie groß ist R2 ?
L¨osung 1.13.5 Der Gesamtleitwert einer Parallelschaltung ergibt sich als Addition der Leitwerte (s. Gl. 1.15) Damit ist G2 = 1 1 1 − 20Ω = 30Ω , R2 = Gges − G1 = 12Ω 30Ω.
Aufgabe 1.13.6 Berechnen Sie den Wert von R so, dass der durch ihn fließende Strom I = 3 A betr¨agt. -I A R 5 A • A• A 2Ω A
L¨osung 1.13.6 Der Stromteiler (s. Gl. 2Ω . Somit ist 1.26) lautet I = Iges · R+2Ω 5A Iges R = 2Ω· I −2Ω = 2Ω· 3A − 1 = 43 Ω.
Aufgabe 1.13.7 Berechnen Sie die drei durch die Widerst¨ande fließenden Str¨ome I1 , I2 und I3 .
L¨osung 1.13.7 Die Teilstr¨ome werden mit dem Stromteiler (s. Gl. 1.26) ermittelt: 2Ω4Ω , I1 = 10A · 5Ω+2Ω4Ω 2·4Ω wobei 2Ω 4Ω = 2+4 = 43 Ω ist. Damit ist I1 = 2, 105A. Der zweite Teilstrom wird a¨ hnlich berechnet: 5Ω4Ω = 5, 263A. I2 = 10A · 2Ω+5Ω4Ω Der dritte Teilstrom: 2Ω5Ω = 2, 632A. I3 = 10A · 4Ω+2Ω5Ω
5Ω
I1 I2 • Q Q I3 Q-
2Ω
Q Q
4Ω
Q•
10A k Aufgabe 1.13.8 Berechnen Sie die Spannungen U1 , U2 und U3 , zun¨achst allgemein und dann mit den Zahlenwerten. U1 U2 U3 R1 = 10 Ω
R2 = 5 Ω
R3 = 15 Ω
U0 = 60 V
L¨osung 1.13.8 Die Teilspannungen werden mit dem Spannungsteiler (s. Gl. 1.25) ermittelt. R1 10Ω = 60V · (10+5+15)Ω U1 = U0 · R1 +R 2 +R3 und damit ist U1 = 20V, R2 = 60V · 16 = 10V, U2 = U0 · R1 +R 2 +R3 R3 = 60V · 12 = 30V. U3 = U0 · R1 +R 2 +R3
Aufgabe 1.13.9 Ermitteln Sie zu der skizzierten Schaltung eine a¨ quivalente Ersatzspannungsquelle. •
•
I0 6
I0 6
R •
•
U 2R
•
•
?
L¨osung 1.13.9 Zun¨achst wird der Innenwiderstand bestimmt: Ri = R 2R = 23 R. Die Stromquellen werden zusammengefasst (s. Gl. 1.21): I0 + I0 = 2 · I0 . Damit haben wir eine Stromquelle mit dem Wert 2I0 parallel zu ihrem Innenwiderstand Ri = 23 R. Somit ist die a¨ quivalente Ersatzspannungsquelle: U0 = 43 RI0 .
90
1 Grundlagen der Elektrotechnik und Elektronik
Aufgabe 1.13.10 Ersetzen Sie die drei parallelgeschalteten Spannungsquellen durch eine einzige Spannungsquelle. Berechnen Sie anschließend den durch den Lastwiderstand RL fließenden Strom und die an ihm abfallende Spannung. •
•
? kU0 kU0 kU0 I ? ? ? U RL ? R R 2R 2 •
L¨osung 1.13.10 Da alle drei Spannungsquellen gleich groß sind, k¨onnen sie als eine Spannungsquelle desselben Wertes in den Zweig von RL verschoben werden: ˜0 = U0 . Dann wird der Innenwiderstand U berechnet: ˜ i = 1 + 2 + 1 = 7 ⇒ Gi = 2 R. G R R 2R 2R 7 ˜
U0 Damit ist der Strom I = 2R/7+R und die L Spannung am Lastwiderstand: U0 . U = RL 2R/7+R L
•
Aufgabe 1.13.11 Wie groß muss der Lastwiderstand RL in der untenstehenden Schaltung sein, damit in ihm eine maximale Leistung verbraucht wird. Berechnen Sie diese maximale Leistung bei U0 = 10 V und R = 600 Ω. •
kU0 kU0 ? ? R
RL
L¨osung 1.13.11 Die maximale Leistung wird im Sonderfall 3 (s. Abschn. 1.3.2) bei RL = Ri = R/2 = 300Ω. Die Spannungsquellen werden zu einer ˜0 = U0 im Zweig von Quelle der Gr¨oße U RL zusammengefasst. Damit ist die maximale Leistung: U2 Pmax = 4R0i = 0, 0833 W.
R •
Aufgabe 1.13.12 Berechnen Sie die an dem Widerstand Rx anliegende Spannung mit Hilfe ¨ des Uberlagerungssatzes. Wie groß ist U im Falle U0 = 10 V, I0 = 5 A, Rx = R = 5 Ω? URx
R U 0 ?
R
R
I6 0
L¨osung 1.13.12 Zur Berechnung mit dem ¨ Uberlagerungssatz (s. Gl. 1.4.6) wird zuerst die Stromquelle entfernt. Damit ergibt sich mit dem Spannungsteiler:
R(Rx +R) Rx U = U0 · R+R(R · Rx = U0 · 3R+2R x +R) R+Rx x
Die Spannungsquelle wird kurzgeschlossen. Die Gesamtspannung wird ermittelt: Uges = I0 ·Rges mit Rges = R (Rx +R/2). x Damit ist U = −Uges · RxR+R/2 = −I0 · (R
(Rx + R/2)) ·
Rx Rx +R/2
= −I0 ·
Mit Rx = R ergibt U = −8V .
Aufgabe 1.13.13 Berechnen Sie den durch den Widerstand Rx fließenden Strom zun¨achst mit Hilfe des Satzes von der Ersatzspannungsquelle und dann mit dem Stromteilungssatz. Wie groß ist I bei Rx = R = 10 Ω und I0 = 5 A? •• I R I R x 60 k R R •
•
2RRx . 3R+2Rx
L¨osung 1.13.13 Zun¨achst wird die Stromquelle durch eine Ersatzspannungsquelle ersetzt: U0 = −I0 · R. Dann wird der Innenwiderstand (alle Widerst¨ande bis auf Rx geh¨oren dazu) berechnet: Ri = (R R) + R = 32 R. Damit kann I berechnet werden (s. Gl. ˜0 = −2A. Mit dem 1.27): I = R˜ U+R i x r . Stromteiler: I = −I0 · 3R/2+R x
1.13 Aufgaben und L¨osungen
91
Aufgabe 1.13.14 Der Strom durch den Widerstand R soll berechnet werden. Zu diesem Zweck soll das Netzwerk bez¨uglich der Klemmen 1-2 durch eine Ersatzspannungsquelle ersetzt werden. W¨ahlen Sie den Widerstand R so groß, dass in ihm eine max. Leistung verbraucht wird und berechnen Sie dann den Strom I. •
10 Ω
1 •? I 30 Ω R
•2
•
•
20 Ω
˜ i = (10Ω 30Ω)+(20Ω 50Ω) = 21, 79Ω R ˜0 ˜0 U U = 2R = 20, 5 mA. R+Ri i
•
25V k
und der Strom I =
50 Ω
Aufgabe 1.13.15 Berechnen Sie die in der Schaltung eingezeichneten Str¨ome. Ermitteln Sie zun¨achst Rges , dann Iges und danach schrittweise die anderen Str¨ome mit dem Stromteilungssatz. IR R R ges •
U0 ?k -
•
2R
? I1
•
L¨osung 1.13.14 Zun¨achst wird der Widerstand zwischen den Klemmen entfernt. Zwischen den Klemmen liegt die Ersatz˜0 , die sich durch die Maschenspannung U gleichung ergibt: ˜0 − I2 · 20Ω = 0, I1 · 10Ω + U wobei I1 = 25V 40Ω und I2 = 25V 70Ω . ˜0 = 0, 8929. Dann wird der InDamit ist U nenwiderstand berechnet:
•
2R
? I2
•
•
2R
? I3
•
2R
2R
? I4 ? I5
•
L¨osung 1.13.15 Zun¨achst wird der Gesamtwiderstand berechnet: Rges = 2R R + 2R R + 2R R + 2R 2R = R.
Mit Rges und U0 kann Iges berechnet wer0 = UR0 . Mit dem Stromden: Iges = RUges teiler (s. Gl. 1.26) ergeben sich die TeilU0 U0 = 2R ; I2 = I21 = 4R ; str¨ome: I1 = Iges 2 I3 =
I2 2
=
U0 ; 8R
I4 = I 5 =
I3 2
=
U0 . 16R
Rges
1.13.2 Aufgaben und L¨osungen zur Wechselstromtechnik Aufgabe 1.13.16 Gegeben ist ein Kondensator mit einer Kapazit¨at von 10 μF , der auf eine Spannung von 200 V aufgeladen ist. a) Welche Ladung ist in dieser Kapazit¨at gespeichert? b) In Reihe mit dieser Kapazit¨at befindet sich ein weiterer Kondensator mit einer Kapazit¨at von 20 μF . Welche Spannung liegt an diesem Kondensator? Wie groß ist die Gesamtkapazit¨at der Anordnung? c) Zu dem anfangs gegebenen aufgeladenen Kondensator liegt nun eine Kapazit¨at von 5 μF parallel. Wie groß ist die Gesamtkapazit¨at und die insgesamt vorhandene Ladung?
L¨osung 1.13.16 a) Die Ladung eines Kondensators ergibt sich Q = U · C = 200V · 10μF = 2 · 10−3 As −3 As b) U2 = CQ2 = 2·10 = 100V . Die 20μF Gesamtkapazit¨at einer Reihenschaltung von Kondensatoren ergibt sich nach Gl. 10μF·20μF = 6, 67μF. (1.41) Cges = 10μF+20μF c) Die Gesamtkapazit¨at einer Parallelschaltung von Kondensatoren berechnet man nach Gl. (1.40) Cges = 10μF + 5μF = 15μF Damit ergibt sich die Ladung: Qges = Cges ·U = 15μF·200V = 3·10−3 As.
92
1 Grundlagen der Elektrotechnik und Elektronik
Aufgabe 1.13.17 Bei der Schaltung befindet sich auf dem unteren Kondensator mit der Kapazit¨at C3 = 100 μF eine Ladung von 0,1 As. Berechnen Sie die an den beiden oberen Kondensatoren C1 = 50 μF und C2 = 150 μF auftretenden Spannungen U1 und U2 . C1 •
C2
U1
U2
•
C3
L¨osung 1.13.17 Zun¨achst wird die Spannung u¨ ber C3 berechnet: 0,1As 3 U = Q = 100μF = 1000V . Dann die C3 Gesamtkapazit¨at von C1 und C2 bestimmt: 50μF·150μF = 37, 5μF. Damit wird C12 = 50μF+150μF die Ladung Q12 berechnet: Q12 = U · C12 = 37, 5 · 10−3 As. Mit der Ladung und den Kapazit¨aten k¨onnen die Spannungen ermittelt werden: = 750V und U1 = QC12 1 U2 = U − U1 = 250V.
2 √ 2
√
Aufgabe 1.13.18 Gegeben sind die folgenden sinusf¨ormigen Str¨ome und Spannungen: a) i(t) = 2 cos(ωt), b) i(t) = −2 cos(ωt), c) i(t) = 5 cos(ωt − π/3), d) i(t) = sin(ωt), e) i(t) = 0.5 cos(ωt + π), f) u(t) = 10 cos(ωt − π/3), g) u(t) = −6 cos(ωt − π/6). Anzugeben sind: Die komplexen Str¨ome und Spannungen, die Effektivwerte und die mittleren Leistungen, wenn der gegebene Strom durch einen Widerstand von R = 5 Ω fließt bzw. die betreffende Spannung dort anliegt.
L¨osung 1.13.18 a) I =
Aufgabe 1.13.19 Gegeben sind die folgenden komplexen Str¨ome und Spannungen:
L¨ osung 1.13.19 a) Ief f = 2; i(t) = √ 2 2 cos(ωt) = 2, 83 cos(ωt), √ b) Ief f = 3; i(t) = 3 2 cos(ωt + 1) = 4, 24 cos(ωt + 1), c) I = −2 = 2 · ejπ ⇒ Ief f = 2; i(t) = 2, 83 cos(ωt + π), d) Ief f = 0, 5; i(t) = 0, 707 cos(ωt + π/3), e) I = −j = e−jπ/2 ⇒ Ief f = 1; i(t) = √ 2 cos(ωt − π/2), f) U = 1 − j = 1, 414e−jπ/4 ⇒ Uef f = √ 1, 414; u(t) = 1, 414 2 cos(ωt − π/4), g) Uef f = 6; u(t) = 8, 49 cos(ω − 1), h) U = j = ejπ/2 ⇒ Uef f = 1; u(t) = 1, 414 cos(ωt + π/2).
a) I = 2, b) I = 3ej , c) I = −2, d) I = 0, 5 · ejπ/3 , e) I = −j, f ) U = 1 − j, g) U = 6 · e−j , h) U = j. Zu berechnen sind die Effektivwerte und die zugeh¨orenden sinusf¨ormigen Str¨ome und Spannungen bei einer angenommenen Kreisfrequenz ω.
√
√
2
=
2; Ief f =
2; P = ( 2) · 5 = 10, √ √ b) I = √22 · ejπ = 2 · ejπ ; Ief f = 2; P = 10, c) I = √52 · e−jπ/3 = 3, 536 · e−jπ/3 ; Ief f = 3, 536; P = (3, 536)2 · 5 = 62, 52, √ √ d) I = 12 2 · e−jπ/2 ; Ief f = 12 2; P = 2, 5, e) I = 0, 3536 · ejπ ; Ief f = 0, 3536; P = 0, 625, f) U = 7, 07 · e−jπ/3 ; Uef f = 7, 07; P = 10, g) U = 4, 24 · ej5π/6 ; Uef f = 4, 24; P = 3, 6.
1.13 Aufgaben und L¨osungen
93
Aufgabe 1.13.20 Die Impedanz Z, der Betrag und die Phase der Schaltung sollen berechnet werden. Stellen Sie Z im Fall ω = 1 und ω = 2 als Zeiger in der komplexen Ebene dar. Die Werte der Bauelemente sind: R = 1Ω, L = 1H.
R
L
Aufgabe 1.13.21 Die Impedanz Z, der Betrag und die Phase der Schaltung sollen berechnet werden. Stellen Sie Z im Fall ω = 104 als Zeiger in der komplexen Ebene dar. Die Werte der Bauelemente sind: R = 100Ω, C = 100μF. •
C R
L¨osung 1.13.20 Die Impedanz der Schaltung ergibt sich als Reihenschaltung von dem Widerstand R und der Impedanz der Spule jωL: Z = R + jωL. Damit wird der Betrag nach Gl. (1.65) als Wurzel von Realteil zum Quadrat plus Imagin¨ √ arteil zum Quadrat berechnet: |Z| = R2 + ω 2 L2 Die Phase wird nach Gl. (1.65) als Arcustangens vom Imagin¨arteil geteilt durch den Realteil gebildet: ϕ = arctan ωL R .
L¨osung 1.13.21 Zun¨achst wird die Impedanz der Parallelschaltung berechnet: 1 1 R = 1/R+jωC = 1+jωRC . Z = YR +Y C Damit ergibt sich der Betrag nach Gl. (1.65): |Z| = √1+ωR2 R2 C 2 . und die Phase gilt: ϕ = −arctan(ωRC)
•
Aufgabe 1.13.22 Berechnen Sie die Impedanzen der folgenden Schaltungen. Geben Sie jeweils den Real- und Imagin¨arteil sowie den Betrag und Phasenwinkel von Z1 und Z2 an. R
R
•
•
•
C
•
R C
•
•
•
L C
•
•
L R
•
=
2
2
ωR C + ω R C ] − j 1+ω 2 R2 C 2 , 2
2
2
R C , ϕ1 = arctan ωRC − |Z1 | = R 4+ω 2 1+ω 2 R2 C 2 arctan (ωRC).
ϕ2 = arctan
C
R 2+jωRC 1+jωRC
=
2
R [R2 R2q +ω 2 L2
2ωL R
+ 2ω 2 L2 ] +
R2 +4ω 2 L2 R2 +ω 2 L2
L j R2ωR , |Z2 | = R +ω 2 L2
L
R
2
2
Aufgabe 1.13.23 Berechnen Sie die Impedanzen der folgenden Schaltungen. Geben Sie jeweils den Real- und Imagin¨arteil sowie den Betrag und Phasenwinkel an. L
R [2 1+ω 2 R2 C 2q
= Z2 = R R+2jωL R+jωL
R
R
L¨osung 1.13.22 Z1
− arctan
,
ωL . R
R+jωL+(jω)2 RLC 1+jωRC j 1+ω21R2 C 2 [ωL − ωR2 C
L¨osung 1.13.23 Z1 = R
1+ω 2 R2 C 2
ω 3 R2 LC 2 ], Z2 =
+
R(1−ω 2 LC)+jωL 1−ω 2 LC
=R+
R+jωL+(jω)2 RLC jωC(R+jωL) 2 +ω 2 L(L−R2 C) j RωC(R 2 +ω 2 L2 ) .
Z3 =
=
= +
jωL , 1−ω 2 LC Rω 2 L2 R2 +ω 2 L2
−
94
1 Grundlagen der Elektrotechnik und Elektronik
Aufgabe 1.13.24 Stellen Sie eine Beziehung f¨ur UC /U0 und den Betrag |UC /U0 | auf. Skizzieren Sie die Betragsfunktion |UC /U0 | bei den (normierten) Bauelementewerten L = 1, C = 1 und den Widerstandswerten R=0,2, R = 0, 1, R = 0, 05. Wie groß sind die jeweiligen Spuleng¨uten bei der Resonanzfrequenz? UC R
L U0
C
•
IC ? I0 6
Zges
→ R
C
L
UC U0
=
1/(jωC) R+jωL+1/(jωC)
=
1 . 1+jωRC+(jω)2 LC
Damit ergibt sich der Betrag als Betrag des Z¨ahlers durch den Betrag des Nen geteilt UC 1 ners: U0 = √ . Die 2 2 2 2 2 (1−ω LC) +ω R C
Spuleng¨ute wird nach Gl. (1.66) berechnet: Q = 5, 10, 20.
Aufgabe 1.13.25 a) Berechnen Sie die Eingangsimpedanz Zges der Schaltung. Bei welchem ω-Wert wird der Betrag dieser Impedanz maximal? Wie groß ist dieser Maximalwert? b) Ermitteln Sie eine Beziehung f¨ur IC /I0 und den Betrag |IC /I0 |. Skizzieren Sie diese Betragsfunktion bei den normierten Bauelementewerten L = 1, C = 1 und R = 100. •
L¨osung 1.13.24 Die Schaltung ist im Abschnitt Reihenschwingkreis erkl¨art. Das Spannungsverh¨altnis wird mit dem Spannungsteiler (s. Gl.1.25) berechnet:
L¨osung 1.13.25 Die Schaltung ist im Abschnitt Parallelschwingkreis erkl¨art. jωL a) Z = 1+jωL/R+(jω) 2 LC . Der Betrag der Schaltung ergibt sich als Betrag des Z¨ahlers geteilt durch den Betrag des ωL , Nenners |Z| = √ 2 2 2 2 2 (1−ω LC) +ω L /R
1 Zmax = R bei ω = √LC . b) Das Verh¨altnis der Str¨ome wird mit dem Stromteiler (s.Gl. 1.26) ermittelt: (jω)2 LC IC I0 = 1+jωL/R+(jω)2 LC . Damit ergibt sich der Betrag als Betrag des Z¨ahlers geteilt durch den2 Betrag des Nenners: IC √ ω LC . I0 = 2 2 2 2 2 (1−ω LC) +ω L /R
•
•
Aufgabe 1.13.26 Berechnen Sie die an der Induk¨ tivit¨at L anliegende Spannung mit Hilfe des Uberlagerungssatzes. U-
•
•
L
R kU0 ?
R •
R •
I0 6 k
¨ L¨osung 1.13.26 Der Uberlagerungssatz wird wie bei Gleichstrom benutzt (s. Abschn. 1.4.6). 1) Stromquelle I0 wird rausgenommen. Damit ist jωL . 2) Die SpannungsU1 = U0 · 3R+2jωL quelle U0 wird kurzgeschlossen. Damit 2R . 3) Damit ist U2 = −I0 jωL 3R+2jωL ergibt sich die Gesamtspannung durch ¨ Uberlagerung der beiden berechneten Spannungen: U = U1 + U2 = U0 , jωL 2R − I0 jωL 3R+2jωL . U = 3R+2jωL
1.13 Aufgaben und L¨osungen
95
Aufgabe 1.13.27 Berechnen Sie die an der Kapazit¨at C anliegende Spannung mit Hilfe des Satzes von der Ersatzspannungsquelle. Berechnen Sie die Spannung speziell bei den Werten U0 = 10 V, R = 10 Ω, C = 10 μF bei einer Kreisfrequenz ω = 10000 s−1 . •
R kU0 ?
R
C U
R
L¨osung 1.13.27 Mit dem Satz der Ersatz˜0 = U0 . Dann wird spannungsquelle ist U 2 ˜ i = 3 R. der Innenwiderstand berechnet: R 2 Damit ist die Spannung an der Kapazit¨at durch den Spannungsteiler gegeben: ˜0 · U =U
jωC ˜ i +1/(jωC) R 1 U0 2+3jωRC .
=
U0 2
·
1 1+(3/2)jωCR
=
Mit den gegebenen Werten gilt: 10 = 2, 774e−j0,983 . U = 2+3j
•
¨ Aufgabe 1.13.28 Ermitteln Sie die Ubertragungsfunktion G(jω) = U2 /U1 . Skizzieren Sie ¨ den Betrag und den Phasenwinkel der Ubertragungsfunktion. Verwenden Sie die Abk¨urzung τ = L/R. Um was f¨ur eine Schaltung handelt es sich hier? •
L R
U1 ?
¨ L¨osung 1.13.28 Die UbertragungsfunktiR 1 2 = on ist G(jω) = U U1 R+jωL = 1+jωτ . Damit ist der Betrag | G(jω) |= √ 1 2 . 1+(ωτ )
Die Schaltung stellt einen Tiefpass 1. Grades dar (siehe RC-Tiefpass 1. Grades Abschnitt 1.7.2).
U2 ? •
Aufgabe 1.13.29 Das Bild zeigt eine Energiequelle und einen induktiven Verbraucher. Die Innenimpedanz Zi der Quelle soll so festgelegt werden, dass eine Leistungsanpassung auftritt. a) Bestimmen Sie zun¨achst einen allgemeinen Ausdruck f¨ur Zi . b) Geben Sie eine f¨ur 50 Hz g¨ultige Schaltung f¨ur die Innenimpedanz an. Dabei soll R = 100 Ω und L = 0, 5 H sein. c) Berechnen Sie die komplexe Leistung am Verbraucher bei U0 = 400 V. d) Berechnen Sie alle Wirk- und Blindleistungen in der Schaltung bei der Frequenz von 50 Hz und bei U0 = 400 V. Zi U0 k ?
R L
Energiequelle
Verbraucher
L¨osung 1.13.29 a) bei Leistungsanpassung gilt Zi = Z ∗ (s. Abschnitt 1.8.2). Damit ist Zi = R − jωL. b) Mit R = 100Ω, L = 0, 5H, f = 50Hz und ω = 2πf ist die Innenimpedanz Zi = 100 − j157, 08. Das entspricht einer Reihenschaltung von einem Widerstand und 1 = Zi . Daeinem Kondensator: R − j ωC mit ist R = 100 Ω und C = 20, 26 μF . U0 = c) Der Strom ergibt sich als I = Z+Z i 2 A und damit U = I ·Z = 200+j314, 16. Die Scheinleistung ist nach Gl. (1.81) S = U · I ∗ = 400 + j628, 3. d) Die Wirk- und Blindleistungen ergeben sich nach Gl. (1.82) und Gl. (1.83). Verbraucher: P = 400 W, Q = 628, 3 VA, Quelle: P = 400 W, Q = −628, 3 VA
96
1 Grundlagen der Elektrotechnik und Elektronik
Aufgabe 1.13.30 a) Berechnen Sie die Kettenmatrix des durch den Rahmen markierten Zweitores. b) Ausgehend vom Ergebnis nach der Frage a ¨ soll die Ubertragungsfunktion G(jω) = U2 /U0 berechnet werden. c) Berechnen und skizzieren Sie den Betrag der ¨ Ubertragungsfunktion. d) Berechnen Sie die Eingangsimpedanz am Tor 1 des Zweitores. Die Berechnung soll einmal unter Verwendung der Kettenmatrix und dann auf elementare Weise erfolgen. • L
nU0 ?
U2
R •
? •
•
R
Aufgabe 1.13.31 Berechnen Sie die Kettenmatrizen der skizzierten Zweitorschaltungen und anschließend die Impedanzmatrizen. •
•
L
R R
L •
•
¨ Aufgabe 1.13.32 Der (ideale) Ubertrager ist mit der Impedanz Z2 = R + jωL abgeschlossen. Berechnen Sie die Eingangsimpedanz Z1 am Tor 1 ¨ des Ubertragers und geben Sie eine (¨ubertragerfreie) Ersatzschaltung f¨ur Z1 an. • • u¨ L Z1R •
•
A
1 0
=
1 + jωL/R 1/R
jωL 1 jωL 1
· !
1 1/R
0 1
=
.,
¨ b) Die Ubertragungsfunktion 2 nach Gl. (1.100): G(jω) = U U0 1 A11 +A12 /R2 +A21 R1 +A22 R1 /R2
=
ist =
1 . 3+2jωL/R
¨ c) Der Betrag der Ubertragungsfunktion 1 . ist |G(jω)| = √ 2 2 2 9+4ω L /R
•
•
R
L¨osung 1.13.30 a) Die Kettenmatrix berechnet sich nach ! Abschnitt 1.9.3: !
d) Die Eingangsimpedanz ist nach Gl. R 11 Z2 +A12 (1.97) Z1 = A A21 Z2 +A22 = 2 + jωL.
L¨osung 1.13.31 1) Die Kettenmatrix ! ist 1 0
jωL 1
1 + jωL/R 1/R
jωL 1
nach Abschnitt 1.9.3: A 1 = ! 1 1/R
0 1
=
· !
,
die Impedanzmatrix ist nach ! Abschnitt R + jωL R . R R ! 1 R 1 · 2) A2 = 0 1 1/(jωL) ! 1 + R/(jωL) R , 1/(jωL) 1 ! R + jωL jωL Z2 = . jωL jωL
1.9.2: Z 1 =
! 0 1
=
L¨osung 1.13.32 Die Eingangsimpedanz ¨ des Ubertragers ist nach Gl. (1.103) ¨ 2 · Z2 = u ¨2 R + jω u ¨2 L, die Z1 = u u¨ bertragerfreie Ersatzschaltung f¨ur Z1 ist ˜ = u eine Reihenschaltung mit R ¨2 R und ˜=u L ¨2 L.
1.13 Aufgaben und L¨osungen
97
Aufgabe 1.13.33 Gegeben ist die skizzierte Schaltung. Bei dem Zweitor soll es sich um eine verlustfreie Leitung der L¨ange l mit dem (reellen) Wellenwiderstand RW handeln. Berechnen Sie ¨ a) die Ubertragungsfunktion G(jω) = U2 /U0 , b) die Eingangsimpedanz W1 am Tor 1 des Zweitores, ¨ c) die Ubertragungsfunktion und die Eingangsimpedanz f¨ur den Sonderfall R1 = R2 = RW . •
verlustfreie Leitung mit dem Wellenwiderstand
R
mU0 1 ?
ZW = R W
•
• U2
?
R2
•
¨ Aufgabe 1.13.34 Berechnen Sie die Ubertragungsfunktion G(jω) = U2 /U1 der Schaltung. R U1 ?
R − Z Z +
•
U2
U1 ?
C Z − Z +
U2
U1 ?
C
•
Z − Z +
b) Die Eingangsimpedanz wird = nach Gl. 1.103 berechnet: Z1 R2 cos(βl)+jZW sin(βl) jR2 /RW sin(βl)+cos(βl) . 1 c) G(jω) = 2 cos(βl)+2j sin(βl) mit cos(x) + j sin(x) = e−jx ist G(jω) = 12 e−jβl , Z1 = ZW . L¨osung 1.13.34 Nach Gl. (1.116) ist Z2 2 G(jω) = U U1 = − Z1 = −1.
L¨osung 1.13.35 Nach Gl. (1.116) ist 1 2 G(jω) = − Z Z1 = − jωRC .
?
¨ Aufgabe 1.13.36 Berechnen Sie die Ubertragungsfunktion G(jω) = U2 /U1 der nebenstehenden Schaltung.
•
G(jω) = 1/[cos(βl)(1 + R1 /R2 ) + j sin(βl)(RW /R2 + R1 /RW )],
•
•
R
A =
jRW sin(βl) cos(βl)
?
¨ Aufgabe 1.13.35 Berechnen Sie die Ubertragungsfunktion G(jω) = U2 /U1 der nebenstehenden Schaltung.
•
! cos(βl) j1/RW sin(βl)
•
•
R
¨ L¨osung 1.13.33 a) Die Ubertragungsfunktion wird nach Gl. (1.100) berechnet. Die Kettenmatrix einer verlustfreien Leitung ist in Abschnitt 1.10.2 gegeben:
L¨osung 1.13.36 Nach Gl. (1.116) ist Z2 G(jω) = − Z , 1
“ = − 1+ G(jω) = − R+1/(jωC) R − 1+jωRC . jωRC
R •
U2
?
1 jωRC
” =
99
Kapitel 2
Grundlagen der Digitaltechnik 2.1 Analoge und digitale Darstellung Eine analoge Darstellung von Signalen oder Messgro¨ ßen beinhaltet im Prinzip die gr¨oßt m¨ogliche Genauigkeit. Der alte Rechenschieber beispielsweise arbeitet analog, indem er bei einer Multiplikation die entsprechend logarithmisch eingeteilten Strecken addiert. Das Problem ist hierbei, die exakte Einstellung der zu multiplizierenden Werte und die Ablesung des Ergebnisses. Letztlich bleibt so die Genauigkeit auf drei aussagende Stellen beschr¨ankt. Der Digitalrechner verzichtet auf die theoretisch exakte Zahlendarstellung zu Gunsten einer digitalen Zahlendarstellung. L¨angere Zahlen, wie z.B. rationale oder irrationale Zahlen, mu¨ ssen zwangsl¨aufig gerundet werden. Das nachfolgende Bild verdeutlicht die Unterschiede zwischen analoger und digitaler Darstellung von Signalwerten. Analog 100%
Messwert 0%
100%
−→
Signalwert 0%
Digital 22 21 20 100% ```` `7 1 1 1 ``` ` `6 1 1 0 s SignalMesss wert wert s ` ``` `0 0 0 0 0%
Im rechten Bild ist erkennbar, dass jeweils einem Bereich der Messgro¨ ße ein Signalwert zugeordnet wird. Diese Zusammenfassung entspricht einer Rundung wie sie auch der Taschenrechner durchf¨uhren muss. Der Abstand zwischen zwei benachbarten Signalwerten entspricht hierbei der kleinsten darstellbaren Aufl¨osung. Das nachfolgende Bild veranschaulicht diese Quantisierung bei der digitalen Darstellung von Signalen.
100
2 Grundlagen der Digitaltechnik
6
y = 3.6
6
y = 4.0 -
-
x=a
x=a
Anzeige des Analogwertes
0
1
2
3
4 6
Anzeige des Digitalwertes
+
4
Der analoge Signalparameter kann beliebig viele verschiedene Werte annehmen. Hier wird: y(x = a) = 3.6 angezeigt. Der digitale Signalparameter hingegen kann nur endlich viele (hier acht) verschiedene Werte annehmen. Es wird: y(x = a) = 4.0 angezeigt. Die zuvor erl¨auterten Begriffe sind auch in den Deutschen Industrie Normen (DIN) festgelegt. In der DIN 44 300 finden sich folgende Erkl¨arungen: Nachrichten
sind Zeichen oder Funktionen, die zum Zweck der Weitergabe Information darstellen.
Daten
sind Zeichen oder Funktionen, die zum Zweck der Verarbeitung Information darstellen.
Zeichen
sind Elemente einer vereinbarten Menge zur Darstellung von Information.
Signal
ist die physikalische Repr¨asentation von Nachrichten oder Daten.
Signalparameter sind die Kenngr¨oßen des Signals, deren Wert eine Nachricht bzw. die Daten darstellen. Analoges Signal ist ein Signal, dessen Signalparameter kontinuierliche Werte aufweisen. Digitales Signal
ist ein Signal, dessen Signalparameter aus Zeichen bestehen.
Ein digitales Signal ist nicht notwendigerweise ein bina¨ res Signal. Von einem bin¨aren Signal sprechen wir, wenn ein digitales Signal in eine Sequenz umgewandelt wird, die nur zwei verschie¨ dene Werte (Null, Eins) kennt. F¨ur die Ubertragung, Speicherung und Weiterverarbeitung von Nachrichten kommt den bin¨aren Signalen eine besonders große Bedeutung zu. Sie gru¨ ndet sich in den vielen unterschiedlichen Maßnahmen, die zur Fehlervermeidung und Fehlerkorrektur zur Verf¨ugung stehen.
2.1.1 Zahlensysteme und Zahlencodes Auch Zahlensysteme unterliegen einer Entwicklung, die weit in die Anf¨ange menschlicher Zivilisation zur¨uckreicht. Wahrscheinlich auf die Sumerer – ca. 3300 v. Chr. – geht ein System des Abz¨ahlens zur¨uck, das aus der Notwendigkeit einer umfangreichen Gu¨ terverwaltung resultierte. Beispiel 2.1 Sieben Striche: /////// versehen mit einem weiteren Symbol bedeuteten eben das Vorhandensein von sieben gleichen Objekten.
2.1 Analoge und digitale Darstellung
101
Sehr große Besitzt¨umer sind mit diesem Strichsystem nur schwer zu verwalten, insbesondere ist es zeitaufwendig, sich u¨ ber den Gesamtbesitz zu orientieren. Es ergab sich die Notwendigkeit, die Abz¨ahlschreibweise durch B¨undelung zu verbessern. So entstand zun¨achst das r¨omische Zahlensystem. Z.B. bedeutet: ||||| = V ||||||| = VII VV = X XXXXX = L LL = C CCCCC = D DD = M
f¨unf sieben zwei mal f¨unf = zehn f¨unf mal zehn = f¨unfzig zwei mal f¨unfzig = hundert f¨unf mal hundert = f¨unfhundert zwei mal f¨unfhundert = tausend
Beispiel 2.2 Wer kennt nicht die ehrw¨urdigen Universit¨aten, die manchmal in Bauwerken von anno: MDCXXIII residieren.
1000 500 100 + 23 1623
M=2·D D=5·C C=2·L XXIII = 2 · X + III
Es zeigt sich, dass beim r¨omischen Zahlensystem die Stellung eines Symbols bereits wichtig ist. So wird zwar f¨ur acht: VIII geschrieben, f¨ur neun hingegen: IX, also zehn minus eins. Zahlensysteme mit Stellenschreibweise stellen eine wesentliche Verbesserung dar. In ihnen ist der Stellenwert durch die Stellung des einzelnen Symbols in der Symbolabfolge bestimmt. Der Wert W (z) einer Zahl z = (z l , z l−1 , . . . , z2 , z1 ) ist bestimmt durch: W (z) =
l
zj · wj
zj wj
wobei
j=1
Wert des Symbols an j-ter Stelle, Wert der j-ten Stelle.
Das nachfolgende Beispiel soll den Sachverhalt verdeutlichen. Beispiel 2.3 Betr¨agt f¨ur einen Strafgefangenen die verbleibene Zeit bis zu seiner Entlassung: 1 Woche, 1 Tag und 4 Stunden, so l¨asst sich der Wert W (z) nach der obigen Formel in Stunden ausrechnen:
1 Woche + 1 Tag + 4 Stunden w1 = 1 Std. z1 = 4 w2 = 24 Std. z2 = 1 w3 = 7 · 24 Std. = 148 Std. z3 = 1 = 1 · (7 · 24) + 1 · 24 + 4 Std. = 196 Std.
Ein besonders wichtiges Zahlensystem mit Stellenbewertung ist das Polyadische Zahlensystem.
2.1.2 Polyadische Zahlensysteme Der Wert einer Stelle besitzt in polyadischen Zahlensystemen ein exponentielles Bildungsgesetz: z=
l j=−k
zj · B j ,
(2.1)
102
2 Grundlagen der Digitaltechnik
wobei zj wieder den Wert des Symbols an j-ter Stelle entspricht. B stellt die Basis des Zahlensystems dar. Im Dezimalsystem gilt: B = 10. Beispielsweise hat die Dezimalzahl 2354,25 die Darstellung: 2354, 25 = 2 · 103 + 3 · 102 + 5 · 101 + 4 · 100 + 2 · 10−1 + 5 · 10−2 In der Digitaltechnik wird h¨aufig die Basis B = 2 gew¨ahlt. Wir sprechen dann vom D UALSYSTEM . Verwendung finden auch das O KTALSYSTEM mit der Basis B = 8 und das H EXADEZI MALSYSTEM mit der Basis B = 16, siehe nachstehende Tabelle. Dezimal B = 10 0 1 2 3 4 5 6 7 8 9
Hexadezimal B = 16 0 1 2 3 4 5 6 7 8 9
Oktal B=8 0 1 2 3 4 5 6 7 10 11
Dual B=2 0 1 10 11 100 101 110 111 1000 1001
Dezimal B = 10 10 11 12 13 14 15 16 17 18 19
Hexadezimal B = 16 A B C D E F 10 11 12 13
Oktal B=8 12 13 14 15 16 17 20 21 22 23
Dual B=2 1010 1011 1100 1101 1110 1111 10000 10001 10010 10011
2.1.3 Umwandlung von Zahlen bei unterschiedlichen Basen Die Umwandlung von Zahlen soll an einigen Beispielen erl¨autert werden. Die Umwandlung basiert auf der Zahlendarstellung nach Gleichung (2.1). Beispiel 2.4 F¨ur die Umwandlung der Zahl z = 26 dezimal in Dualdarstellung 11010 wird zun¨achst u¨ berlegt, wieviele Nullen und Einsen (Bits) zur Darstellung beno¨ tigt werden. Da gilt: 24 ≤ 26 < 25 , werden f¨unf Bits ben¨otigt. F¨ur die Zahlendarstellung nach Gleichung (2.1) gilt: Z = Z4 24 + Z3 23 + Z2 22 + Z1 21 + Z0 20 Da Z ≥ 24 ist, muss Z4 = 1 sein. Der darzustellende Rest betr¨agt: 26 − 16 = 10. Da 10 ≥ 23 ist, muss Z3 = 1 sein. Es verbleibt ein Rest von 10 − 8 = 2. Da 2 < 22 ist, muss Z2 = 0 sein. Am Rest hat sich nichts ge¨andert, so dass Z1 = 1 sein muss. Jetzt ist der verbleibende Rest identisch Null, so dass die restliche Zahl Z0 = 0 angeh¨angt wird. Systematischer kann die gesuchte Dualzahldarstellung mit Hilfe des E UKLIDSCHEN D IVISIONS ALGORITHMUSSES gefunden werden: 1. Schritt Die Dezimalzahl Z ∈ IN wird durch zwei dividiert. Der Rest R0 der Division kann nur Null oder Eins sein: Z R0 = Q0 + 2 2
⇐⇒
Z = 2 · Q 0 + R0 .
R0 ist das niederwertigste Bit der Dualzahldarstellung von Z.
(2.2)
2.1 Analoge und digitale Darstellung
103
2. Schritt Die verbleibende Zahl Q0 wird entsprechend (2.2) wieder durch zwei geteilt und so R1 ermittelt. Die Division muss solange erfolgen, bis im letzten Schritt QL = 0 berechnet wird. Beispiel 2.5 Dualzahldarstellung durch Division: 26 : 2 = 13 Rest 0 ⇐⇒ 26= 2·13+0 13 : 2 = 6 Rest 1 ⇐⇒ 13= 2· 6+1 6 : 2 = 3 Rest 0 ⇐⇒ 6= 2· 3+0 3 : 2 = 1 Rest 1 ⇐⇒ 3= 2· 1+1 1 : 2 = 0 Rest 1 ⇐⇒ 1= 2· 0+1
⏐ ⏐ von ⏐ ⏐ hinten ⏐ ⏐ nach ⏐ ⏐ vorne ⏐ ! lesen
Ergebnis: 2610 = 110102
Handelt es sich bei Z um eine Dezimalzahl mit Nachkommastellen, so spaltet man zun¨achst Z = G, K in den ganzen und den Nachkommaanteil K auf. Mit der ganzen Zahl G verf¨ahrt man dann entsprechend der oben beschriebenen Vorgehensweise. Die Nachkommazahl K wird mit zwei multipliziert und in die Darstellung: 0 < Q0 < 1 (2.3) 2 · K = Q0 + R0 , mit R0 ∈ {0, 1} gebracht. Als n¨achstes wird die verbleibende Zahl Q0 entsprechend (2.3) wieder mit zwei multipliziert und so R1 ermittelt. Die Multiplikation muss solange erfolgen, bis im letzten Schritt QL = 0 berechnet wird bzw. die geforderte Stellengenauigkeit erreicht ist. 0,13 · 2 = 0,26 + 0 0,26 · 2 = 0,52 + 0 0,52 · 2 = 0,04 + 1 0,04 · 2 = 0,08 + 0 0,08 · 2 = 0,16 + 0 0,16 · 2 = 0,32 + 0 0,32 · 2 = 0,64 + 0 0,64 · 2 = 0,28 + 1 .. 4 3 1 −3 −8 = 11010, 001000012 = 2 + 2 + 2 + 2 + 2 + · · · .
Beispiel 2.6 Die Dezimalzahl: 26,13 soll im Dualsystem dargestellt werden. Zun¨achst wird 26, 13 = 26 + 0, 13 zerlegt. Aus dem vorstehenden Beispiel ist bekannt: 2610 = 110102 Das rechts stehende Verfahren nach Gl. (2.3) wird fortgesetzt, bis die Nachkommastellen Null werden oder die gew¨unschte Genauigkeit erreicht ist. Zum Schluss werden die Teill¨osungen zusammengef¨ugt: 26, 1310
An Beispiel 2.6 wird deutlich, dass die oben beschriebene Verfahrensweise auch f u¨ r Umwandlungen von Dezimalzahlen in das Oktal- und Hexadezimalsystem verwendbar ist. Es muss lediglich die Basis zwei des Dualsystems durch acht bzw. durch 16 ersetzt werden. Beispiel 2.7 In diesem Beispiel soll die Oktalzahldarstellung von 26, 13 untersucht werden: 26 : 8 = 3 Rest 2 3 : 8 = 0 Rest 3
⇐⇒ 26= 8·3+2 ⇐⇒ 3= 8·0+3
Ergebnis: 26, 1310 = 32, 10248
0,13 · 8 = 0,04 + 1 0,04 · 8 = 0,32 + 0 0,32 · 8 = 0,56 + 2 0,56 · 8 = 0,48 + 4 .. .
Die Teill¨osungen bedeuten in der Summendarstellung: 26, 1310
= 32, 10248 = 3 · 81 + 2 · 80 + 1 · 8−1 + 0 · 8−2 + 2 · 8−3 + 4 · 8−4 · · ·
104
2 Grundlagen der Digitaltechnik
2.1.4 Rechnen im Dualsystem In diesem Abschnitt werden die notwendigen Rechenregeln der Addition, Subtraktion, Multiplikation und der Division im Dualsystem definiert und an Beispielen erl¨autert. Addition: (1) 0 + 0 = 0,
(2) 0 + 1 = 1 + 0 = 1,
(3) 1 + 1 = 10
¨ Die Addition in (1) und (2) ist einsichtig. In (3) muss ein Ubertrag (Carry) erfolgen, da die Zahl 2 ¨ nicht im Dualsystem vorkommt. Dies entspricht dem Ubertrag im Dezimalsystem wenn wir z.B. 8 + 4 = 12 rechnen. Beispiel 2.8 Dieses Beispiel behandelt nebenstehend die Addition von 7 + 5 im Dualsystem.
Subtraktion: (1) 0 − 0 = 0,
+ 1 1
(2) 0 − 1 = 1 − 0 = 1,
1 1 1 1
1 0 1 0
1 1 0
(7) (5) Carry Ergebnis = 12
(3) 1 − 1 = 0
Die Subtraktion in (1) und (3) ist einsichtig. In (2) muss beim Abzug 0-1 geborgt (Borrow) werden, da die Zahl -1 nicht im Dualsystem vorhanden ist. Beispiel 2.9 Dieses Beispiel behandelt die Subtraktion von 7 − 5 und 6 − 3 im Dualsystem und macht auf die Problematik der negativen Zahlendarstellung aufmerksam. 7 − 5: -
111 101 010
6 − 3: =2
110 011 11 011
Problem: 3 − 6: Borrow =3
011 110 101 = ?
Bei der Subtraktion: 3 − 6 stellt sich die Frage nach der Darstellung von negativen Dualzahlen. Hierauf wird im nachfolgenden Abschnitt 2.1.5 eingegangen. Multiplikation: 0 · 0 = 0 · 1 = 1 · 0 = 0,
1·1=1
Die Multiplikation im Dualsystem entspricht sinngem¨aß der Multiplikation im Dezimalsystem. Beispiel 2.10 Dieses Beispiel behandelt die Multiplikation von ganzen und gebrochen rationalen Zahlen. 7 · 5:
111 · 101 1110 111 100011
1,5 · 2,25:
= 32 + 2 + 1 = 35
1,1 · 10,01 1100 11 11,011
= 3,375
2.1 Analoge und digitale Darstellung
105
Division: Auch die Division im Dualsystem entspricht der Division im Dezimalsystem. Beispiel 2.11 Die zwei Beispiele sollen an die u¨ bliche Vorgehensweise erinnern. 8 : 4 ⇒ 1000 : 100 = 10 = 210 5 : 4 ⇒ 101 : 100 = 1,01 = (1 + 0 · 12 + 1 · 14 )10 100 100 0000 00100 100 Das Beispiel der Subtraktion zeigt, dass der Darstellung negativer Zahlen eine besondere Bedeutung zukommt. Deshalb behandelt der nachfolgende Abschnitt die u¨ blichen KomplementDarstellungen von Dualzahlen.
2.1.5 Darstellung negativer Zahlen im Dualsystem Zum einfachen Rechnen im Dualsystem ist es sinnvoll, die Subtraktion zweier Zahlen a − b durch die Addition von a mit dem Komplement von b zu realisieren: a − b = a + (−b). Das Komplement von b wird hierbei mit (−b) bezeichnet. Die einfachste M¨oglichkeit ein Vorzeichen im Dualsystem zu definieren, ist die Vergabe eines zus¨atzlichen Vorzeichenbits. In der Tabelle 2.1 ist in der dritten Spalte zu erkennen, dass dann jedoch die Null ±0 doppelt definiert ist.
0 1 2 3 4 5 6 7
0000 0001 0010 0011 0100 0101 0110 0111
Betrag und Vorzeichen +0 +1 +2 +3 +4 +5 +6 +7
8 9 10 11 12 13 14 15
1000 1001 1010 1011 1100 1101 1110 1111
-0 -1 -2 -3 -4 -5 -6 -7
Einerkomplement +0 +1 +2 +3 +4 +5 +6 +7
Zweierkomplement (echtes Komplement) +0 +1 +2 +3 +4 +5 +6 +7
-7 -6 -5 -4 -3 -2 -1 -0
-8 -7 -6 -5 -4 -3 -2 -1
Tabelle 2.1: Negative Zahlen im Dualsystem
106
2 Grundlagen der Digitaltechnik
¨ Ahnliches gilt f¨ur das E INERKOMPLEMENT. Das Einerkomplement wird durch invertieren: (0 → 1) und (1 → 0) jedes Bits der Zahl erzeugt. Anders verh¨alt es sich mit dem sogenannten Z WEIER KOMPLEMENT (B-Komplement). Man erh¨alt es aus dem Einerkomplement durch Hinzuaddieren eines Bits in der niederwertigsten Stelle, z.B. −4 = 1011 + 0001 = 1100. Das Zweierkomplement wird auch ECHTES KOMPLEMENT genannt. Das nachstehende Beispiel verdeutlicht, dass im Zweierkomplement die Addition von (+4) und (−4) Null ergibt, wenn die Stellenzahl begrenzt wird. Im Einerkomplement ergibt die Addition von (+a) und (−a) stets (11 · · · 1). Beispiel 2.12 Rechnen mit dem Zweierkomplement: 4 + (-4) 0 - (+7) 0100 0000 + 1100 - 0111 100 Carry 111 Borrow 0000 Ergebnis 1001 Ergebnis
8,5 + (-2,25) 1000,10 + 1101,11 0011 0110,01
Carry Ergebnis
Beim Rechnen mit dem echten Komplement ko¨ nnen positive und negative Zahlen bei Addition gleich behandelt werden. Im obigen Beispiel wurde zun¨achst von 2, 2510 = 0010, 012 das Einerkomplement: 1101, 10 bestimmt. Das Zweierkomplement ergibt sich zu: 1101, 10 + 0, 01 = 1101, 11. Merke: Zweierkomplement = Einerkomplement + 1 (niederwertigsten Stelle) Beispiel 2.13 In diesem Beispiel wird ausgehend von der Dualdarstellung 0101 der Zahl 5 zun¨achst das Einerkomplement E5 = 1010 gebildet: Dann wird durch Hinzuaddieren der 1 = 0001 das Zwei5 = 01012 → E5 = 1010 erkomplement Z5 = 1011 gebildet. → Z5 = 1011
2.1.6 Bin¨are Codes zur Zahlendarstellung Mittels bin¨arer Codes (BCD-Codes) gelingt es, Zahlen darzustellen. Im vorausgegangenen Abschnitt wurde zur Darstellung einer Dezimalzahl eine festgelegte Wertigkeit 2j verwendet. Schr¨ankt man die darzustellenden Zahlen auf {0, 1, . . . , 9} ein, so spricht man vom (8-4-2-1)Code. Prinzipiell sind aber auch andere Wertigkeiten, wie sie in der Tabelle 2.2 dargestellt sind, m¨oglich. In der zweiten Zeile von Tabelle 2.2 sind die Wertigkeiten der Bin¨arstellen angegeben. Der GrayCode und der 3-Exzess-Codes sind nicht bewertbare Code. Der Gray-Code entsteht dadurch, dass genau dann, wenn die n¨achsth¨ohere Stelle mit einer Eins besetzt werden muss, die bereits vorhandenen Codew¨orter in umgekehrter Reihenfolge an die Eins angeh¨angt werden. Der Vorteil des Gray-Codes ist darin begr¨undet, dass sich von einer Ziffer zur n¨achsten nur ein Bit a¨ ndert. Dies hat zur Folge, dass sich im Falle einer Bitverf¨alschung durch einen Fehler, nur ein geringfu¨ giges Abweichen vom richtigen Wert ergibt. F¨ur die Rechnertechnik wurde der nach Aiken benannte Code entwickelt. Die einzelnen Stellen sind anders gewichtet als beim 8-4-2-1-Code. Er wurde so aufgebaut, dass die erforderliche Komplementbildung zur Darstellung negativer Zahlen durch einfache Invertierung der Bin¨arstellen erreicht wird.
2.1 Analoge und digitale Darstellung
107
(8421)-Code
Aiken-Code
3-Exzess-Code
N r. 0 1 2 3 4 5 6 7 8 9
23 0 0 0 0 0 0 0 0 1 1
22 0 0 0 0 1 1 1 1 0 0
21 0 0 1 1 0 0 1 1 0 0
20 0 1 0 1 0 1 0 1 0 1
2 0 0 0 0 0 1 1 1 1 1
4 0 0 0 0 1 0 1 1 1 1
2 0 0 1 1 0 1 0 0 1 1
1 0 1 0 1 0 1 0 1 0 1
0 0 0 0 0 1 1 1 1 1
0 1 1 1 1 0 0 0 0 1
1 0 0 1 1 0 0 1 1 0
1 0 1 0 1 0 1 0 1 0
10 11 12 13 14 15
1 1 1 1 1 1
0 0 1 1 1 1
1 1 0 0 1 1
0 1 0 1 0 1
0 0 0 1 1 1
1 1 1 0 0 0
0 1 1 0 0 1
1 0 1 0 1 0
0 0 0 1 1 1
0 0 0 1 1 1
0 0 1 0 1 1
0 1 0 1 0 1
Gray-Code
1 1 1 1 1 1 1 1
1 1 1 1 0 0 0 0
0 1 1 0 0 1 1 0 0 1
1 1 1 1 1 1
1 1 1 1 0 0
1 0 0 1 1 0
1 1 0 0 0 0
Tabelle 2.2: Zifferncodes unterschiedlicher Wertigkeit Der 3-Exzess-Code wird in der Steuerungstechnik eingesetzt. Er besitzt die wichtige Eigenschaft, dass in jeder vorkommenden Bitkombination mindestens ein Bit gesetzt und ein Bit r u¨ ckgesetzt wird. St¨orungen k¨onnen hierdurch leichter erkannt werden. Beispiel 2.14 Die Dezimalzahl 2005 soll in den vier vorgenannten BCD-Codes dargestellt wird.
Dezimal 8-4-2-1-Code Aiken-Code 3-Exzess-Code BCD-Gray-Code
2 0010 0010 0101 0011
0 0000 0000 0011 0000
0 0000 0000 0011 0000
5 0101 1011 1000 0111
Beispiele f¨ur einen Code-Umsetzer, der z.B. einen 8-4-2-1-Code in einen Gray-Code umsetzt finden sich im Abschnitt 2.3.2.
2.1.7 Der ASCII-Code Der ASCII-Code (American Standard Code for Information Interchange) geho¨ rt zu den alphanumerischen Codes, mit deren Hilfe sich Buchstaben, Ziffern und Sonderzeichen darstellen lassen.
108
2 Grundlagen der Digitaltechnik
Besonders in der Computertechnik wird er fu¨ r die Ein- und Ausgabe der alphanumerischen Zeichen verwendet. Jedes Zeichen im ASCII-Code wird mit sieben Bit dargestellt. In der nachstehenden Tabelle auf Seite 108 ist der Code dargestellt, der dem 7-Bit-Code nach DIN 66003 ganz a¨ hnlich ist. In der Tabelle wird jedes Zeichen durch vier Zeilenbits (Zeilencode A0,A1,A2,A3) und drei Spaltenbits (Spaltencode A4,A5,A6) repr¨asentiert. Zum Beispiel wird der Buchstabe A wie folgt dargestellt: A = (A6 , A5 , A4 , A3 , A2 , A1 , A0 ) = (1, 0, 0, 0, 0, 0, 1) ¨ ¨ O, Im deutschen Zeichensatz sind anstelle der links stehenden Zeichen die Sonderzeichen: §, A, ¨ ¨ U, a¨ , o¨ , u¨ , und ß eingef¨ugt. Da bei der Ubertragung der Zeichen gew¨ohnlich ein Byte (8 Bit) verwendet wird, kann das achte Bit zur Erweiterung des Zeichensatzes herangezogen werden. Der Zeichensatz wird somit verdoppelt. ASCII-Code HEX A6 A5 A4
Zeilencode HEX 0 1 2 3 4 5 6 7 8 9 A B C D E F
A3 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
A2 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
A1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
A0 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
0 0 0 0
1 0 0 1
NUL SOH STX ETX EOT ENQ ACK BEL BS HT LF VT FF CR SO SIX
DLE DC1 DC2 DC3 DC4 NAK SYN ETB CAN EM SUB ESC FS GS RS US2
Spaltencode 2 3 0 0 1 1 0 1 SP ! ” # $ % & ’ ( ) * + , . /
0 1 2 3 4 5 6 7 8 9 : ; < = > ?
4 1 0 0
5 1 0 1
6 1 1 0
7 1 1 1
@§ A B C D E F G H I J K L M N O
P Q R S T U V W X Y Z ¨ [A ¨ \O ¨ ]U
‘ a b c d e f g h i j k l m n o
p q r s t u v w x y z { a¨ | o¨ } u¨ ˜ß DEL
ˆ
2.2 Schaltalgebra In diesem Kapitel wird die elementare Schaltalgebra nach DIN 66000 und DIN 40900 eingef u¨ hrt. Sie gr¨undet sich auf die von Boole im 19. Jahrhundert entwickelte Boolesche Algebra und wurde von Cloude E. Shannon 1950 zur Beschreibung von logischen Schaltungen eingef u¨ hrt. In der Schaltalgebra werden Funktionen von Variablen betrachtet. Diese Variablen werden als bin¨are oder auch logische Variablen bezeichnet. Die fu¨ r die Digitaltechnik ben¨otigten Elemente der Schaltalgebra sind:
2.2 Schaltalgebra
109
Die KONSTANTEN Null (0) und Eins (1). Die S CHALTVARIABLEN k¨onnen die Werte Null oder Eins annehmen. Wird beispielsweise a = 1 f¨ur die Aussage Strom fließt benutzt, so folgt das Gegenteil fu¨ r a = 0, also Strom fließt ¨ nicht. Ublicherweise werden f¨ur die Eingangsvariablen die ersten Buchstaben des Alphabets (a, b, . . .) und f¨ur die Ausgangsvariablen die letzten Buchstaben . . . , x, y, z verwendet. Die S CHALTFUNKTIONEN beschreiben, wie Schaltvariable Werte durch logische Verkn u¨ pfungen zugewiesen bekommen. Z. B. bedeutet: y = f kt(a, b), dass die Variable y von den Variablen a und b abh¨angt.
2.2.1 Grundfunktionen Die elementaren Grundfunktionen der Schaltalgebra sind UND, ODER und NICHT. In der nachstehenden Tabelle 2.3 sind in den Regeln (1) bis (10) die wichtigsten Zusammenh¨ange dargestellt. Alle anderen Regeln sind hiervon ableitbar. Regel (12) fasst (3) und (4) zusammen.
UND 0∧0 = 0 (1) 0∧1 = 0 (2) 1∧0 = 0 (3) 1∧1 = 1 (4) 0∧a = 0 (11) 1∧a = a (12) a∧a = a (13) a∧a = 0 (14)
ODER 0∨0=0 (5) 0∨1=1 (6) 1∨0=1 (7) 1∨1=1 (8) 1 ∨ a = 1 (15) 0 ∨ a = a (16) a ∨ a = a (17) a ∨ a = 1 (18)
N ICHT 0=1 (9) 1 = 0 (10) Tabelle 2.3: Elementare Rechenoperationen: UND, ODER, NICHT a=a
(19)
F¨ur drei Regeln der Tabelle 2.3 wird die Sprechweise angegeben: (2) (6) (9)
0∧1 = 0 =⇒ Null UND Eins gleich Null 0 ∨ 1 = 1 =⇒ Null ODER Eins gleich Eins 0=1 =⇒ nicht Null gleich Eins
Ersatzweise kann eine andere Schreibweise angegeben werden: (2) (6) (9)
0 · 1 = 0 =⇒ · f¨ur 0 + 1 = 1 =⇒ + f¨ur ¬ 0 = 1 =⇒ ¬ f¨ur
∧ ∨
In der Tabelle 2.4 sind das Kommutativ-, Assoziativ- und das Distributivgesetz angegeben. Das Kommutativgesetz besagt, dass das Ergebnis der Verknu¨ pfung zweier Variablen nicht von der Reihenfolge, in der die Variablen zueinander stehen, abh¨angt. Das Distributivgesetz schließlich entspricht der zwischen Multiplikation und Addition bekannten Gesetzm¨aßigkeit auf reellen Zahlenk¨orpern, wobei die UND-Verkn¨upfung der Multiplikation und die ODER-Verkn¨upfung der Addition entspricht.
110
2 Grundlagen der Digitaltechnik
Kommutativ: Assoziativ: Distributiv:
Gesetze a∧b = b∧a a∨b=b∨a (a∧b)∧c = a∧(b∧c) (a ∨ b) ∨ c = a ∨ (b ∨ c) a∧(b ∨ c) = (a∧b) ∨ (a∧c) a ∨ (b∧c) = (a ∨ b)∧(a ∨ c)
Tabelle 2.4: Kommutativ-, Assoziativ- und Distributivgesetz
(20) (21) (22) (23) (24) (25)
Das Assoziativgesetz sagt aus, dass das Ergebnis der Verkn¨upfung nicht von der Reihenfolge in der Klammerung abh¨ang.
2.2.2 Das De Morgan’sche Theorem Das De Morgan’sche Theorem (2.4) ist die wichtigste Regel, die eine Umwandlung der UNDVerkn¨upfung in eine ODER-Verkn¨upfung und umgekehrt erlaubt. ¬(f kt(a, b, c, . . . , ∨, ∧)) = f kt(a, b, c, . . . , ∧, ∨)
(2.4)
Das De Morgan’sche Theorem ist derart zu verstehen, dass in einer zu negierenden Booleschen Funktion alle Variablen zu negieren sind und zus¨atzlich sowohl die UND-Verkn¨upfung durch die ODER-Verkn¨upfung, als auch die ODER-Verkn¨upfung durch die UND-Verkn¨upfung zu ersetzen ist. Die beiden nachfolgenden Gleichungen zeigen dies fu¨ r zwei einfache Ausdr¨ucke. ¬(a ∨ b ∨ c) = (a ∨ b ∨ c) = a∧b∧c ¬(a∧b∧c) = (a∧b∧c) = a ∨ b ∨ c Beispiel 2.15 Mit Hilfe einer Wahrheitstabelle soll die G¨ultikeit des Theorems von De Morgan f¨ur die einfache Verkn¨upfung y = a ∨ b u¨ berpr¨uft werden. Nach De Morgan gilt: y = (a ∨ b) = (a ∨ b) = (a∧b)
a
b
a∨b
a
b
(a∧b)
(a∧b)
0
0
0
1
1
1
0
0 1
1 0
1 1
1 0
0 1
0 0
1 1
1
1
1
0
0
0
1
2.2.3 Vereinfachungsregeln Die Vereinfachungsregeln (26) bis (31) ergeben sich durch Anwendung der Gesetze aus den Tabellen 2.3 und 2.4. Beispielsweise ergibt sich die Rea ∨ (a∧b) = a (26) a∧(a ∨ b) = a (27) gel (27) durch die Anwendung des a ∨ (a∧b) = a ∨ b (28) a∧(a ∨ b) = a∧b (29) Distributivgesetzes und der Regeln (a∧b) ∨ (a∧b) = a (30) (a ∨ b)∧(a ∨ b) = a (31) (18) und (15): a ∨ (a∧b) = (a ∨ a)∧(a ∨ b) = 1∧(a ∨ b) = a ∨ b Beispiel 2.16 Der Ausdruck y = (a ∨ c)∧(b ∨ c)∧(a ∨ c)∧(b ∨ c) soll vereinfacht werden: y
= [(a∧b) ∨ c]∧[(a∧b) ∨ c] = (a∧b) ∨ (c∧c) = (a∧b) ∨ 0 = a∧b
Im nachfolgenden Abschnitt sind f¨ur einige wichtige Verkn¨upfungen die Wahrheitstabellen und die Schaltsymbole angegeben.
2.2 Schaltalgebra
111
¨ 2.2.4 Verknupfungstabellen und Schaltsymbole der Grundfunktionen F¨ur eine zweistellige Bin¨arfunktion y = f kt(a, b) k¨onnen insgesamt 24 = 16 verschiedene Ergebnisse gefunden werden. Hierunter auch die konstanten Funktionen: y(a, b) = 0, y(a, b) = 1 und die Identit¨aten: y(a, b) = a, y(a, b) = b. Nachstehend sind die wichtigsten aufgelistet. ODER-Verkn¨upfung
UND-Verkn¨upfung a 0 0 1 1
b 0 1 0 1
y 0 0 0 1
a b
y
& y = a∧b
a 0 0 1 1
b 0 1 0 1
y 0 1 1 1
a b
≥1
y
y =a∨b
Die elementaren Grundfunktionen UND (AND) und ODER (OR) werden auch als Konjunktion und Disjunktion bezeichnet. Hiervon leiten sich die Namen der Normalformen in Abschnitt 2.2.7 ab. NAND-Verkn¨upfung NOR-Verkn¨upfung a 0 0 1 1
b 0 1 0 1
y 1 1 1 0
a b
c
&
y
y = ¬(a∧b) = (a∧b)
a 0 0 1 1
b 0 1 0 1
y 1 0 0 0
a b
≥1 c
y
y = ¬(a ∨ b) = (a ∨ b)
NAND und NOR-Funktion sind sehr wichtige Grundfunktionen. Mit ihnen gelingt es, die anderen Grundfunktionen zur realisieren. Schaltwerke ko¨ nnen somit ausschließlich aus NAND und NORElementen bestehen. ¨ Antivalenz-Verkn¨upfung (EXOR) Aquivalenz-Verkn¨ upfung a 0 0 1 1
b 0 1 0 1
y 0 1 1 0
a b
y
=1
y = (a∧b) ∨ (a∧b) = = a ↔ b
a 0 0 1 1
b 0 1 0 1
y 1 0 0 1
a b
=
y
y = (a∧b) ∨ (a∧b) = =a↔b
Insbesondere die Antivalenz-Verkn¨upfung (EXOR) stellt f¨ur jeden Bitvergleich ein geeignetes Verfahren dar. Aus der Praxis der Codierungsverfahren, ist diese Verknu¨ pfung nicht mehr wegzudenken. Implikation-Verkn¨upfung
NICHT-Verkn¨upfung a 0 1
y 1 0
a
1
c
y = ¬a = a
y
a 0 0 1 1
b 0 1 0 1
y 1 1 0 1
a b
c
≥1
y
y =a∨b=a→b
Der NICHT-Verkn¨upfung (NOT) y(a, b) = a bzw. y(a, b) = b besitzt eine zentrale Bedeutung fu¨ r die algebraische Umformung Boolescher Ausdru¨ cke.
112
2 Grundlagen der Digitaltechnik
Beispiel 2.17 Die nachstehende Schaltung soll analysiert werden: a
d
1
& d
1
b
y1 ≥1
y=c ∨ y1
Es ist stets sinnvoll, Zwischengr¨oßen (hier y1 ) einzuf¨uhren. Die Ausgangsgr¨oße y ergibt sich dann durch Einsetzen von y1 = a∧b zu y = c ∨ (a∧b). Mit Hilfe des De Morgan’schen Theorems kann y umgeformt werden:
c y = y = c ∨ (a∧b) = (c∧(a∧b)) = (c∧(a ∨ b)). Das Ergebnis der Analyse und Umformung kann wieder als Schaltung angegeben werden: a
1
da &
b
1
db
c
1
dc
da∧b &
a b
≥1
c
1
&
1
dy
dy d y = (c∧(a ∨ b))
y = (c∧(a∧b))
In der obigen Abbildung ist besonders die links stehende Realisierung interessant, da sie nur NAND- und NICHT-Elemente enth¨alt. Sie l¨asst sich deshalb auf einem IC implementieren, der f¨unf NANDs beinhaltet.
2.2.5 Kaskadieren der Grundfunktionen Einige der Grundfunktionen (UND, ODER, EXOR) lassen sich direkt kaskadieren, ohne dass sich die typischen Eigenschaften der Funktion a¨ ndern. Bei anderen Funktionen (NAND, NOR) ver¨andern sich die Eigenschaften beim Kaskadieren bedingt durch die Negation am Ausgang. c 0 0 0 0 1 1 1 1
UND-Verkn¨upfung a b a∧b a∧b∧ c 0 0 0 0 0 1 0 0 1 0 0 0 1 1 1 0 0 0 0 0 0 1 0 0 1 0 0 0 1 1 1 1
c 0 0 0 0 1 1 1 1
ODER-Verkn¨upfung a b a ∨ b a ∨ b∨ c 0 0 0 0 0 1 1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 1 1 1 1 0 1 1 1 1 1 1
2.2 Schaltalgebra
a b c
a b c
113
a b c
& &
≥1 ≥1
a b c
&
≥1
Abbildung 2.1: Kaskaden von UND- und ODER-Verknu¨ pfung Nicht alle Grundfunktionen eignen sich zum Kaskadieren. Bei den Funktionen NAND und NOR muss vor dem Kaskadieren zuerst die Negation am Ausgang ru¨ ckg¨angig gemacht werden.
a∧b
a b c
&
c
&
ca∧b
a∨b a∨b ≥1 c ≥1 c
a b c
&
c
≥1 c
&
a∧b∧c
c
≥1 c
a∨b∨c
Abbildung 2.2: Kaskaden von UND- und ODER-Verknu¨ pfung Die Studierenden k¨onnen u¨ berpr¨ufen, welche der zuvor angegebenen Grundfunktionen sich noch mit einfachen Mitteln kaskadieren lassen. Beispiel 2.18 Der Ausdruck y = (a ∨ b)∧(a ∨ c) soll in eine Schaltung umgesetzt werden und eine Wahrheitstabelle erstellt werden. Anschließend soll eine Schaltungsrealisierung in NORund NAND-Technik hergeleitet werden. In der nachstehenden Tabelle sind zun a¨ chst die ODERVerkn¨upfungen der drei Eingangsvariablen angegeben. Danach wird y = y1 ∧y2 berechnet.
a r ≥1 b
c
≥1
y1 &
y2
y
c 0 0 0 0 1 1 1 1
b a 0 0 0 1 1 0 1 1 0 0 0 1 1 0 1 1
y1 0 1 1 1 0 1 1 1
y2 0 1 0 1 1 1 1 1
y 0 1 0 1 0 1 1 1
114
2 Grundlagen der Digitaltechnik
Durch Umformungen mit Hilfe des De Morgan’schen Theorems kann man die Booleschen Ausdr¨ucke f¨ur die Realisierungen in NOR- und NAND-Technik erhalten. NOR-Technik
y
a r ≥ 1 b y3 b
= y = (a ∨ b)∧(a ∨ c) = (a ∨ b) ∨ (a ∨ c) = (y3 ∨ y4 )
c
NAND-Technik
y
≥1 b
a
r & b
= (a ∨ b)∧(a ∨ c) = (a ∨ b)∧(a ∨ c)
b
r & b
= (a∧b)∧(a∧c)
c
r & b
≥1 b
y
y4
r
& b
y y r & b & b
& b
Zum Selbststudium mit y = (a∧b) ∨ (a∧c) ist die gleiche Aufgabenstellung wie im Beispiel 2.18 geeignet. Es lohnt sich ein Vergleich der beiden Schaltungen.
2.2.6 Vorrangregeln F¨ur ein korrektes Vorgehen bei Booleschen Umformungen, sind Kenntnisse der Bindungsst¨arken der Grund-Verkn¨upfungen wichtig. F¨ur die Grund-Verkn¨upfungen gelten nach DIN 66000 folgende Vorrangregeln: 1. Die NICHT-Verkn¨upfung (¬) bindet st¨arker als alle anderen Zeichen. 2. Die Zeichen ∧, ∧, ∨ und ∨ binden st¨arker als →, ↔ und ↔. 3. Die Zeichen UND (∧), NAND (∧), ODER (∨) und NOR (∨) binden untereinander gleich stark, ebenso die Zeichen →, ↔ und ↔. 4. Die Außenklammern einer UND-Verknu¨ pfung k¨onnen weggelassen werden, wenn diese ¨ selber ein Teil einer UND-Verkn¨upfung sind. Gleiches gilt f¨ur ODER-, Aquivalenzund Antivalenz-Verkn¨upfung.
2.2.7 Normal- und Minimalformen Anhand eines einfachen zentralen Beispiels soll erl¨autert werden, wie durch schrittweises Vorgehen von der Formulierung eines Problems, u¨ ber die Normalformen, zu einer schaltungstechnisch vereinfachten (minimierten) L¨osung gelangt werden kann.
2.2 Schaltalgebra
115
VON DER P ROBLEMFORMULIERUNG ZUR AUFGABENSTELLUNG Einer der Aufz¨uge eines Hotels mit acht Etagen soll die Eingangshalle mit den oberen Etagen 4 bis 7 verbinden. F¨ur die Aufzugsteuerung steht die Etagennummer (0-7) als dreistellige Dualzahl zur Verf¨ugung. Aus dieser Dualzahl soll ein Signal hergeleitet werden, das in den Etagen, in denen der Aufzug halten darf, den Wert 1 hat. VARIABLENDEFINITION ⇐⇒ E INGANGS - UND AUSGANGSVARIABLE Die Ausgangsvariable wird mit y = f kt(a, b, c) bezeichnet. y = 1 bedeutet: Aufzug h¨alt, y = 0 bedeutet: Aufzug h¨alt nicht. Die Eingangsvariablen c, b, a entsprechen der dreistelligen Dualzahl und damit der Etagennummer. WAHRHEITSTABELLE (siehe unten) H ERLEITEN DER S CHALTFUNKTION Aus der Wahrheitstabelle lassen sich zwei sogenannte Normalformen herleiten. Es ist ausreichend, entweder alle Terme zu realisieren f¨ur die y = 0 gilt, oder alle Terme zu realisieren fu¨ r die y = 1 gilt. Im ersten Fall spricht man von der UND-Normalform bzw. konjunktiven Normalform (KNF). Im zweiten Fall spricht man von der ODER-Normalform bzw. disjunktiven Normalform (DNF).
i 0 1 2 3 4 5 6 7
j 7 6 5 4 3 2 1 0
Wahrheitstabelle c b a y 0 0 0 1 0 0 1 0 0 1 0 0 0 1 1 0 1 0 0 1 1 0 1 1 1 1 0 1 1 1 1 1
y 0 1 1 1 0 0 0 0
DNF: y = (c∧b∧a) ∨ (c∧b∧a) ∨ (c∧b∧a) ∨ (c∧b∧a) ∨ (c∧b∧c) y = m 0 ∨ m4 ∨ m5 ∨ m6 ∨ m7 y = m 1 ∨ m2 ∨ m3 KNF:
y = (c ∨ b ∨ a)∧(c ∨ b ∨ a)∧(c ∨ b ∨ a) y = M6 ∧M5 ∧M4 y = M7 ∧M3 ∧M2 ∧M1 ∧M0
Die mi Terme, aus denen sich die DNF zusammensetzt, werden Minterme und die M j Terme, aus denen sich die KNF zusammensetzt, werden Maxterme genannt. B EACHTE : Die Realisierung einer Funktion y erfolgt entweder durch die DNF oder die KNF. D.h., es ist v¨ollig ausreichend entweder die N ULLEN oder die E INSEN einer Funktion zu realisieren. Eine gesuchte Normalform l¨asst sich direkt aus einer gegebenen Normalform ableiten. Umformung DNF =⇒ KNF
Umformung KNF =⇒ DNF
y
= M6 ∧M5 ∧M4
y
= m 0 ∨ m4 ∨ m5 ∨ m6 ∨ m7
y y
= M7 ∧M3 ∧M2 ∧M1 ∧M0 = M7 ∨ M3 ∨ M2 ∨ M1 ∨ M0
y y
= m 1 ∨ m2 ∨ m3 = m1 ∧m2 ∧m3
y
= m 0 ∨ m4 ∨ m5 ∨ m6 ∨ m7
y
= M6 ∧M5 ∧M4
z.B. M 1 = ¬(c ∨ b ∨ a) = c∧b∧a = m6
z.B. m2 = ¬(c∧b∧a) = c ∨ b ∨ a = M5
116
2 Grundlagen der Digitaltechnik
¨ DMF 2.2.8 Minimierung der Schaltfunktion – KV-Tafeln fur Dieser Abschnitt behandelt die Frage, wie die Vereinfachungsregeln aus Abschnitt 2.2.3 in m¨oglichst strukturierter Weise angewendet werden, um zu einer Schaltung mit m o¨ glichst wenigen Bauelementen zu kommen. Hierzu werden die K ARNAUGH -V EITCH -TAFELN (KV-Tafeln) verwendet. a
a
b∧a
b∧a
b
b∧a
b∧a
b
a
a
1
1
a
a a
1
a)
1
1
b
b)
b
1
1 1
b
c)
1 b @ d) b
Bild a) zeigt eine KV-Tafel f¨ur zwei Variable y = f kt(a, b) mit den m¨oglichen vier Mintermen der DNF. Bild b) zeigt eine KV-Tafel mit drei Einsen. Die zugeho¨ rige Schaltfunktion lautet: y = (a∧b) ∨ (a∧b) ∨ (a∧b). Mit Hilfe der Schaltalgebra kann y vereinfacht werden: y
= (a∧b) ∨ (a∧b) ∨ (a∧b) = (a∧b) ∨ (a∧b) ∨ (a∧b) ∨ (a∧b) = (a∧(b ∨ b)) ∨ ((a ∨ a)∧b)
(2.5) (2.6)
= (a∧1) ∨ (1∧b) = (a ∨ b)
(2.7)
Diese Vereinfachung kann anhand von Bild c) leicht nachvollzogen werden. F u¨ r die beiden u¨ bereinander stehenden Einsen gilt immer a, w¨ahrend f¨ur die beiden nebeneinander stehenden Einsen immer b gilt. Deutlich wird weiterhin, dass die unten rechts stehende 1 doppelt verwendet wird. Bei der mathematischen Herleitung entspricht dies der Verdopplung des Terms (a∧b). F u¨ r die minimale Schaltfunktion y in Bild d) gilt demnach: y = a ∨ b. Je nach Art spricht man im minimierten Fall von der D ISJUNKTIVEN M INIMAL -F ORM DMF bzw. von der KONJUNKTIVEN M INIMAL -F ORM KMF. Etwas vereinfacht ausgedr¨uckt, bedeutet dies, dass eine Variable die sich innerhalb benachbarter KV-Felder a¨ ndert, aus der Funktion herausf¨allt. F¨ur den vereinfachten Eintrag der Einsen aus der Wahrheitstabelle in die KV-Tafel k¨onnen die Felder der KV-Tafel entsprechend der Nummerierung der Minterme der Wahrheitstabelle mit Zahlen versehen werden. b=2 ˆ 1 a=2 ˆ 0
Wahrheitstabelle DNF i 0 1 2 3
b 0 0 1 1
a 0 1 0 1
Minterm mi
b∧a b∧a b∧a b∧a
-
a
a
b∧a
b∧a
b
0
1
b∧a
b∧a
b
2
3
a
b
Tritt beispielsweise in einer DNF der Minterm m0 = (a∧b) auf, so muss im Feld 0 der KV-Tafel eine 1 stehen.
2.2 Schaltalgebra
117
2.2.9 KV-Tafeln mit mehreren Variablen
KV-Tafeln mit mehr als zwei Variablen bieten stets viele Mo¨ glichkeiten Minterme zusammenzufassen. Ziel dieses Abschnittes ist es deshalb, Kriterien zu formulieren, die zu einer optimalen L¨osung f¨uhren.
Eine KV-Tafel mit drei Variablen erh¨alt man durch Verdopplung der Felder der KV-Tafel mit ¨ zwei Variablen. Allgemein verdoppeln sich die mo¨ glichen Terme vom Ubergang von n auf n + 1 Variablen: 2n+1 = 2 · 2n . Nachfolgend ist die KV-Tafel f¨ur drei Variablen dargestellt. Wahrheitstabelle i 0 1 2 3 4 5 6 7
c 0 0 0 0 1 1 1 1
b 0 0 1 1 0 0 1 1
a 0 1 0 1 0 1 0 1
Benachbart sind solche Felder, die sich nur in einer Variablen unterscheiden. Z.B. 4 = 100 ist mit 6 = 110 benachbart. Ge¨andert hat sich nur die Variable b. Diagonale Felder wie z.B 4 und 7 sind nicht benachbart.
benachbart
y c∧b∧a c∧b∧a c∧b∧a c∧b∧a c∧b∧a c∧b∧a c∧b∧a c∧b∧a
a
-
0
4
5
1
2
6
7
3
b
c benachbart
Die Nummerierung der Felder 0 bis 3 f¨ur die zwei Variablen a und b ist identisch mit der Nummerierung der KV-Tafel f¨ur zwei Variable. Hinzugekommen sind die Felder 4 bis 7, fu¨ r die stets c gilt. Dies zeigt in der Abbildung 2.3 das links stehende Beispiel. a)
b) a
1
1
1
1
c y=c
c) a
b
a
1
1
1
1 c y=c
1 b
1
1
1
b
c y = (a∧b) ∨ (a∧c) ∨ (b∧c)
Abbildung 2.3: Beispiele von KV-Tafeln mit drei Variablen In Teil c) der Abbildung 2.3 ist erkennbar, dass nicht immer alle Blo¨ cke ben¨otigt werden. Der Term (a∧b) wird nicht gebraucht, da er bereits in den beiden anderen Termen enthalten ist.
F¨ur das Beispiel aus Abschnitt 2.2.7 der Aufzugsteuerung soll eine Minimierung der Schaltfunktion durchgef¨uhrt werden.
118
j 7 6 5 4 3 2 1 0
2 Grundlagen der Digitaltechnik Wahrheitstabelle c b a y 0 0 0 1 0 0 1 0 0 1 0 0 0 1 1 0 1 0 0 1 1 0 1 1 1 1 0 1 1 1 1 1
y 0 1 1 1 0 0 0 0
DMF f¨ur y
KMF f¨ur y a
a 1
1
0
1
0
b
c y DM F = (a∧c) ∨ (b∧c)
0
b
c yKM F = (a ∨ c)∧(b ∨ c)
F¨ur das Aufstellen von yDM F = c ∨ (a∧b), gibt es keine Besonderheiten zu beachten. a Die Schaltfunktion y der KMF erh¨alt man am einfachsten, indem die DMF von y durch Zusammenfassen der Einsen gebildet und anschließend y invertiert wird. Eine andere direkte Mo¨ glichkeit ist durch eine inverse Beschriftung der KV-Tafeln gegeben: M7 = a ∨ b ∨ c bis M0 = a ∨ b ∨ c.
7
3
2
6
5
1
0
4
b
c
KV-Tafeln mit vier Variablen: Eine KV-Tafel mit vier Variablen erh¨alt man durch Verdopplung der Felder der KV-Tafel mit drei Variablen. Nachfolgend ist die KV-Tafel fu¨ r vier Variablen dargestellt. benachbart
Wahrheitstabelle i 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
d 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
c 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
b 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
a 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
y d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a d∧c∧b∧a
-
a ?
0
4
5
1
8
12
13
9
10
14
15
11
2
6
7
3
d b 6
c
Die Nummerierung der Felder 0 bis 3 f¨ur die zwei Variablen a und b ist identisch mit der Nummerierung der KV-Tafel fu¨ r zwei bzw. drei Variable. Die Nummerierung der Felder 4 bis 7 f¨ur die drei Variablen a, b und c ist identisch mit der Nummerierung der KV-Tafel f¨ur drei Variable. Hinzugekommen sind die Felder 8 bis 15, f¨ur die stets d gilt.
2.2 Schaltalgebra
119 a
1
1
1
1
1
a
a
1 1
1
d 1
1
1
1
1
1
1
1
d 1
1
d
1 b
b
b
c
c
c
y = (b∧c) ∨ d
y = (a∧b∧c) ∨ (b∧c∧d)
y = (a∧d) ∨ (c∧d)
Abbildung 2.4: Beispiele von KV-Tafeln mit vier Variablen In Abbildung 2.4 zeigt das links stehende Bild einen Block von acht und einen Block von vier Einsen. F¨ur alle Einsen des Achtfachblocks gilt stets d, w¨ahrend die anderen Merkmale wechseln. So gilt beispielsweise f¨ur den linken Teil des Achtfachblocks immer a und fu¨ r den rechten Teil immer a. F¨ur den oberen Teil des Achtfachblocks gilt immer b und fu¨ r den unteren Teil b. Nach der Vereinfachungsregel (28) (s. Absch. 2.2.3, Seite 110) kann die sich a¨ ndernde Variable aus dem Ausdruck entfallen. Ein Vierfachblock in Abbildung 2.4 vereinfacht sich immer zu einem Ausdruck in zwei Variablen und ein Zweifachblock zu einem Ausdruck in drei Variablen. Vorgehensweise bei der Minimierung • Die Ergebnisse der Wahrheitstabelle werden in eine KV-Tafel eingetragen. • F¨ur die DMF m¨ussen ALLE Einsen erfasst werden. Sie werden in mo¨ glichst große Bl¨ocke ¨ KLEIN sein, damit zusammengefasst. Die A NZAHL dieser Blo¨ cke soll aber M OGLICHST m¨oglichst wenige Terme entstehen. F¨ur die KMF m¨ussen alle Nullen erfasst werden. • Die x-Felder (don´t care) k¨onnen sowohl in die DMF als auch f¨ur die KMF verwendet werden (s. Absch. 2.2.10). • Zweckm¨aßig ist es, mit den kleinsten Bl¨ocken – evtl. mit Einzelfeldern – zu beginnen. Danach werden die Zweierbl¨ocke betrachtet, die nicht Bestandteil eines gro¨ ßeren Blocks sind. • Besteht die M¨oglichkeit, gleich große Bl¨ocke zu bilden, so wird mit den Bl¨ocken begonnen, die Felder einbeziehen, die nur in einem Block liegen.
¨ Beispiel 2.19 Eine Uberwachungsschaltung soll ansprechen, wenn von drei Gebern (a, b, c) mindestens zwei gleichzeitig ansprechen (1-Signal fu¨ hren). Gesucht ist die Wahrheitstabelle, → die KV-Tafel, → die DMF und die Schaltung in NANDTechnik.
120
c 0 0 0 0 1 1 1 1
2 Grundlagen der Digitaltechnik
b a 0 0 0 1 1 0 1 1 0 0 0 1 1 0 1 1
c b a
y 0 0 0 1 0 1 1 1
s s
& & &
≥1
y = (a∧c) ∨ (a∧b) ∨ (b∧c)
c b a s
a 1 1 1 1 c
s s
s s
b
s
s s
s s
& c & c & c
& c
y = y = (b ∧ c) ∧ (a ∧ c) ∧ (a ∧ b)
y = (b ∧ c) ∨ (a ∧ c) ∨ (a ∧ b)
¨ Zur eigenen Ubung k¨onnen die Studierenden zum Beispiel 2.19 die KV-Tafel fu¨ r die KMF angeben und yKM F bestimmen, sowie eine Schaltung in NAND- und in NOR-Technik realisieren. Ein Verfahren zur Minimierung, das sich zur Implementierung auf Rechnern eignet, ist das QuineMcCluskey-Verfahren (s. Fricke [9])
2.2.10 Redundanzen und Schaltungen mit Multioutput
¨ R EDUNDANZEN und sogenannte P SEUDOZUST ANDE sind Kombinationen der Eingangsvariablen, die nicht auftreten k¨onnen, oder deren logischer Wert keinen Einfluss auf das erw¨unschte Ausgangsverhalten besitzt. Sie werden im Unterschied zu 0 und 1 mit x bezeichnet. Beispiel 2.20 Die Zahlen 0-9 werden in den Variablen d, c, b, a mit dem (8-4-2-1)-Code dargestellt. Ein Schaltnetzwerk soll entwickelt werden, das y=fkt(d,c,b,a)=1 liefert, wenn am Eingang ein Zahlenwert ≥ 8 vorhanden ist. Das Schaltwerk besitzt vier Eingangsvariable und eine Ausgangsvariable. Die Wahrheitstabelle k¨onnte bei i = 9 aufh¨oren, da im st¨orungsfreien Betrieb nur die Werte i = 0, 1, . . . , 9 auftreten k¨onnen. Die L¨osung w¨urde dann lauten: y = b∧c∧d.
i 0 1 2 3 4 5 6 7 8 9 10 .. . 15
Wahrheitstabelle d c b a 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1 1 0 1 0 0 0 1 0 1 0 1 1 0 0 1 1 1 1 0 0 0 1 0 0 1 1 0 1 0 1
1
1
1
y 0 0 0 0 0 0 0 0 1 1 x .. . x
2.2 Schaltalgebra
121 a
Durch Hinzunehmen der Pseudozust¨ande erh¨alt man die nebenstehende KV-Tafel und damit die L¨osung y = d. Diese Realisierung zieht nat¨urlich nach sich, dass im Falle einer St¨orung i = 10, 11, . . . , 15, ebenfalls y = 1 angezeigt wird.
d c Schaltnetzwerk
b a
y
1
x
x
1
x
x
x
x
d b c ⇒y=d
M ULTI - O UTPUT- N ETZWERKE sind Schaltnetzwerke mit mehreren Ausg¨angen. Im folgenden Beispiel soll der Ausgang yi gleich 1 sein, wenn die Eingangskombination d · 23 + c · 22 + b · 21 + a · 20 = i den Wert i annimmt. i 0 1 2 3 4 5 6 7 8 9 10 .. .
d 0 0 0 0 0 0 0 0 1 1 1
c 0 0 0 0 1 1 1 1 0 0 0
b 0 0 1 1 0 0 1 1 0 0 1
a y0 0 1 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 x .. .
15 1 1 1 1
x
y8 = a∧d,
y1 0 1 0 0 0 0 0 0 0 0 x .. .
y2 0 0 1 0 0 0 0 0 0 0 x .. .
y3 0 0 0 1 0 0 0 0 0 0 x .. .
y4 0 0 0 0 1 0 0 0 0 0 x .. .
y5 0 0 0 0 0 1 0 0 0 0 x .. .
y6 0 0 0 0 0 0 1 0 0 0 x .. .
y7 0 0 0 0 0 0 0 1 0 0 x .. .
y8 0 0 0 0 0 0 0 0 1 0 x .. .
y9 0 0 0 0 0 0 0 0 0 1 x .. .
x
x
x
x
x
x
x
x
x
y9 = a∧d,
y2 = a∧b∧c,
d c Schaltnetzwerk
b a
.. .
y0 y1 y9
a y0
y4
y5
y1
y8
x
x
y9
x
x
x
x
y2
y6
y7
y3
d b
y0 = a∧b∧c∧d,
c y1 = a∧b∧c∧d
Abschließend muss noch gekl¨art werden, welches yi angezeigt wird, wenn durch St¨orung am Eingang eine der verbotenen Kombinationen i = 10, 11, . . . , 15 anliegt. Hierzu stehen zwei M o¨ glichkeiten zur Verf¨ugung: Es kann untersucht werden, wie die x-Felder in die Vereinfachungsblo¨ cke einbezogen wurden. In die Schaltfunktion yi = f kt(d, c, b, a) k¨onnen die entsprechenden Werte der Eingangsvariablen eingesetzt werden.
122
i 10 11 12 13 14 15
2 Grundlagen der Digitaltechnik
d 1 1 1 1 1 1
c 0 0 1 1 1 1
b 1 1 0 0 1 1
a y0 0 0 1 0 0 0 1 0 0 0 1 0
y1 0 0 0 0 0 0
y2 1 0 0 0 0 0
y3 0 1 0 0 0 0
y4 0 0 1 0 0 0
y5 0 0 0 1 0 0
y6 0 0 0 0 1 0
y7 0 0 0 0 0 1
y8 1 0 1 0 1 0
y9 0 1 0 1 0 0
y0 und y1 werden nicht angezeigt, da f¨ur sie keine x-Felder verwendet wurden. F¨ur y2 wurde das x-Feld 10 verwendet, deshalb f¨uhrt diese Eingangskombination zur Anzeige. Gleichzeitig wird aber auch y8 angezeigt, da f¨ur y8 die x-Felder 10,12 und 14 verwendet wurden.
Konforme Terme werden solche Terme in Schaltnetzen mit mehreren Ausgangsgr o¨ ßen genannt, die u¨ bereinstimmend in mehreren Ausgangsgro¨ ßen auftreten. Sie k¨onnen ebenfalls zur Minimierung des Schaltnetzwerkes verwendet werden. Beispiel 2.21 Minimierung eines Netzwerks mit zwei Ausga¨ ngen: y2 = (a∧c) ∨ (b∧c) a
y1 = a∧b∧c a a b c
y1 y2
S-Werk
1
1
1
b c
i 0 1 2 3 4 5 6 7
c 0 0 0 0 1 1 1 1
b 0 0 1 1 0 0 1 1
a 0 1 0 1 0 1 0 1
y1 1 0 0 0 0 0 0 0
y2 1 1 0 1 0 0 0 0
c b a
r
c
c b a r r r
&
r
&
r
b
1
r
y1
≥1
y2
&
Die Minimierung kann erfolgen, indem der Term (a∧b∧c) verwendet wird, der in beiden Ausgangsfunktionen gleich ist. c b a
r
c b a r r r
&
r
&
a r
y1 ≥1
1
1 1
y2
b
c
¨ Zur eigenen Ubung k¨onnen die Studierenden y1 = (a∧b) ∨ (a∧c) und y2 = (c) ∨ (a∧b∧c) mit Hilfe der KV-Tafeln realisieren und minimieren.
2.3 H¨aufig ben¨otigte Schaltwerke
123
2.3 H¨aufig ben¨otigte Schaltwerke In diesem Kapitel werden beispielhaft einige der Schaltnetzwerke er o¨ rtert, die h¨aufig verwendet werden. Im Folgenden werden die Realisierungen von Komparatoren, Code-Umsetzern, Multiund Demultiplexern sowie den einfachen Rechenschaltungen erl¨autert.
2.3.1 Komparatoren ⇐⇒ A = B, A < B, A > B Ein Komparator (Vergleicher) vergleicht zwei Zahlenwerte A = A0 · 20 + A1 · 21 + · · · und B = B0 · 20 + B1 · 21 + · · ·. Das Ergebnis kann A kleiner (KL), gleich (GL) oder gro¨ ßer (GR) als B sein. Beispiel 2.22 F¨ur die Realisierung eines zwei-Bit-Komparators wird die u¨ bliche Vorgehensweise f¨ur die Erstellung eines Schaltnetzwerkes verwendet: Wahrheitstabelle, KV-Tafeln, Minimierung der booleschen Ausdr¨ucke und Schaltung. GR:
Wahrheitstabelle 21 A1 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
20 A0 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
21 B1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
20 B0 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
GR 0 0 0 0 1 0 0 0 1 1 0 0 1 1 1 0
Schaltbild des Komparators A0 A1 B0 B1
KL 0 1 1 1 0 0 1 1 0 0 0 1 0 0 0 0
KL GL GR
GL 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1
AB
A1
B0 1 1 1 1 1 1
B1
A0 GR = (A1 ∧ B1 ) ∨ (A0 ∧ B0 ∧ B1 ) ∨ (A1 ∧ A0 ∧ B0 ) KL:
B0 1
A1
1 B1 1 1 1 1 A0
KL = (B1 ∧ A1 ) ∨ (B0 ∧ A0 ∧ A1 ) ∨ (B1 ∧ B0 ∧ A0 )
Wobei gilt: GL = GR ∧ KL = GR ∨ KL
124
2 Grundlagen der Digitaltechnik
2.3.2 Code-Umsetzer .. .
X/Y
.. .
Nach DIN 44300 werden die Zeichen eines Codes X in die Zeichen eines Codes Y u¨ berf¨uhrt. Die Art und Weise in der dies geschieht ist im Allgemeinen vom Anwender w¨ahlbar, bzw. durch die Aufgabenstellung festgelegt.
Beispiel 2.23 Der Codeumsetzer wandelt den am Eingang anliegenden (8,4,2,1)-Code in einen Ausgangscode Y . Die Beschriftung des Symbols gibt u¨ ber die Art und Weise wie dies geschieht Aufschluss. Beispielsweise ist der Ausgang h dann auf 1, wenn am Eingang die BCD-Ziffer 5 oder 6 auftritt.
BCD/Y a b c d
e f g h i
0/2 1/3 4 5/6 8/9
1 2 3 4
i 0 1 2 3 4 5 6 7 8 9 10 .. .
d 0 0 0 0 0 0 0 0 1 1 1
c 0 0 0 0 1 1 1 1 0 0 0
15
1
1
Wahrheitstabelle: b a e f 0 0 1 0 0 1 0 1 1 0 1 0 1 1 0 1 0 0 0 0 0 1 0 0 1 0 0 0 1 1 0 0 0 0 0 0 0 1 0 0 1 0 d d .. .. . . 1
1
d
d
g 0 0 0 0 1 0 0 0 0 0 d .. .
h 0 0 0 0 0 1 1 0 0 0 d .. .
i 0 0 0 0 0 0 0 0 1 1 d .. .
d
d
d
Soll die Wahrheitstabelle in eine Schaltung umgesetzt werden, so ist zun¨achst zu kl¨aren, ob die Redundanzen i = 10, . . . , 15 mitverwendet werden sollen oder nicht. Je nach Ausgang dieser Frage ergibt sich das Ergebnis. Bitte beachten Sie, dass im Falle der Mitverwendung dieser Redundancen gekl¨art werden muss, welche Auswirkungen sich im St¨orungsfall ergeben.
2.3.3 Multiplexer Multiplexer und Demultiplexer werden auch als gesteuerte Schalter bezeichnet. Je nach Anwendung k¨onnen mehrere Eing¨ange auf einen Ausgang (Multiplexer) oder mehrere Ausg¨ange auf einen Eingang (Demultiplexer) geschaltet werden. Mit Hilfe von Multiplexern k¨onnen auf sehr einfache Art und Weise Wahrheitstabellen in Schaltwerke umgesetzt werden. Als erste Anwendung wird ein Ein- und Ausschalter betrachtet.
2.3 H¨aufig ben¨otigte Schaltwerke
125
E = Eingang A = Ausgang
&
Ein einfaches UND-Glied kann als Ein- und Ausschalter betrieben werden, wenn der eine Eingang als Dateneingang und der andere als Setzeingang betrieben werden.
S = Setz E
s
S
A
A = E wenn S = 1 A = 0 wenn S = 0 Etwas aufwendiger zu realisieren ist ein Umschalter mit 2 Eing¨angen. E1 S
s
S 0 0 0 0 1 1 1 1
A
E2 Die Wahrheitstabelle weist drei Eingangsvariable auf. F¨ur das Ausgangssignal A gilt: A = E1 , wenn S = 0 ist und A = E2 , wenn S = 1 ist.
E1 0 0 1 1 0 0 1 1
E2 0 1 0 1 0 1 0 1
y=A 0 0 1 1 0 1 0 1
S 0 0 1 1
E1 0 1 × ×
E2 × × 0 1
A 0 1 0 1
Die Wahrheitstabelle kann vereinfacht werden, da fu¨ r S = 0 nur das Eingangssignal E1 eine Rolle spielt, bzw. f¨ur S = 1 nur das Eingangssignal E2 wichtig ist. Nachfolgend ist die KV-Tafel und die Schaltung angegeben.
S
Aus technischen Gr¨unden wird h¨aufig ein zus¨atzlicher E-Eingang (E = enable) (Freigabeeingang) verwendet.
E1 E2 S S
1 1 1 1 E2
s
E1
s
s
s
& &
A = (E1 ∧ S) ∨ (E2 ∧ S)
S I0 I1 E
0}G 01 MUX c
y c
≥1
A
• E = 1 bedeutet Deaktivierung des Bausteins • E = 0 bedeutet Aktivierung des Bausteins
S s
y
y(E=1,S=1) = I1 y(E=1,S=0) = I0 y = (E ∧ S ∧ I1 ) ∨ (E ∧ S ∧ I0 )
E 1 0 0 0 0
Wahrheitstabelle S I0 I1 y y × × × 0 1 0 0 × 0 0 1 × 1 1 × 0 0 1 × 1 1
Baustein deaktiviert I0 durchgeschaltet I1 durchgeschaltet
Im Sinne einer Vorlesungs¨ubung soll eine Schaltung f¨ur einen 4-Bit-Multiplexer entwickelt werden. Er soll aus den vier Dateneing¨angen (I0 , I1 , I2 , I3 ), zwei Steuereing¨angen x0 , x1 und einem Ausgang y bestehen.
126
2 Grundlagen der Digitaltechnik I0 I1 c c Adresse
I2 I3 c c
0 1 2 3
Eing¨ange
x0 c x1 c
s z c y
Adresse
s ? y
Ausgang
Die Schaltung soll aus NICHT-UND- und ODER-Gliedern mit 2 Eing¨angen bestehen! Wahrheitstabelle I0 1
I1 0 1
I2 0 0 1
I3 0 0 0 1
x1 0 0 1 1
x0 0 1 0 1
y 1 1 1 1
Diese kleine Wahrheitstabelle ist zur Erstellung der Schaltfunktion ausreichend, da ja nur entweder die Nullen oder die Einsen realisiert werden mu¨ ssen. Hier werden nur die Einsen in der Art einer disjunktiven Normalform realisiert. Liegt die Adresse (0,0) an, so wird I0 durchgeschaltet usw.
Man erh¨alt somit: y = (I0 ∧ x1 ∧ x0 ) ∨ (I1 ∧ x1 ∧ x0 ) ∨ (I2 ∧ x1 ∧ x0 ) ∨ (I3 ∧ x1 ∧ x0 ). Dieser Ausdruck erf¨ullt aber noch nicht die Forderung nach einer Realisierung mit Schaltgliedern, die nur zwei Eing¨ange besitzen. Einfaches Ausklammern ergibt: y = x1 ∧ [(I0 ∧ x0 ) ∨ (I1 ∧ x0 )] ∨ x1 ∧ [(I2 ∧ x0 ) ∨ (I3 ∧ x0 )]. x0
s s
x1
1 c 1 c s
I0 I1
s
&
≥1
&
&
≥1 &
I2
&
I3
&
≥1
y
x0 x1
MUX 0 0 G3 1
I0 I1 I2 I3
0 1 2 3
0
b EN
y b
y
Im obenstehenden Bild ist links eine m¨ogliche Schaltungsrealisierung und rechts das Schaltungssymbol angegeben.
2.3.4 Demultiplexer Demultiplexer schalten eine Datenleitung I in Abh¨angigkeit einer Adresse A auf mehrere Ausg¨ange yi . Das nachfolgende Beispiel zeigt eine einfache Anwendung fu¨ r einen Multiplexer mit zwei Ausg¨angen.
2.3 H¨aufig ben¨otigte Schaltwerke
127
Beispiel 2.24 Realisierung eines Demultiplexers mit einem Eingang und zwei Ausga¨ ngen
A I E
Wahrheitstabelle
0}G 01
e e
DX
e
A s
y0 y1
E 1 0 0 0 0
Die rechts stehende Wahrheitstabelle zeigt die Funktionsweise des Bausteins in verk¨urzter Weise.
y0 :
A E
I y0 × 1 0 1 1 0 0 × 1 ×
y1 1 × × 1 0
Kommentar
deaktiv I auf y0 geschaltet I auf y1 geschaltet
y0
= E∧I ∧A = E∧I ∧A
⇒ y0
= E∧I ∧A = E∧I ∧A
y1
= E∧I ∧A = E∧I ∧A
⇒ y1
= E∧I ∧A = E∧I ∧A
I 1
A × 0 0 1 1
Die nachfolgende Schaltung zeigt eine der mo¨ glichen Realisierungen f¨ur y 0 und y 1 . In dieser Realisierung wird die anliegende Information invertiert weitergegeben.
s
A
1 d s
I 1 d
E
s
& d
y0
& d
y1
¨ Zur Ubung k¨onnen die Studierenden einen Demultiplexer mit drei Ausg¨angen entwickeln. Die nicht verwendeten Adressen (don‘t care) sollten so zur Schaltungsvereinfachung genutzt werden, dass die Zuordnung von Ein- und Ausgang eindeutig bleibt. Was passiert, wenn durch eine St¨orung A0 = A1 = 1 gilt?
2.3.5 Der Halbaddierer F¨ur die Entwicklung und das Verst¨andnis von Rechnern (PC‘s) sind die Rechenschaltungen wichtig. Ihr Verstehen l¨asst die Vor- und Nachteile moderner digitaler Rechner erkennen. Insbesondere die Realisierung der einfachen Addition soll im Weiteren erl¨autert werden. ¨ Der Halbaddierer addiert zwei Bit und stellt im Falle der Addition von 1 + 1 ein Ubertragsbit, das Carry-Bit, zur Verf¨ugung. Nachstehend ist die Wahrheitstabelle und das Schaltsymbol dargestellt. B 0 0 1 1
A 0 1 0 1
S 0 1 1 0
C 0 0 0 1
A B
"
S = A - B, S = # Summe C = A ∧ B,
C= # Carry-Bit
128
A B
2 Grundlagen der Digitaltechnik s s
S = (A ∧ B) ∨ (A ∧ B)
=1
C
&
Die Addition kann durch ein Antivalenz-Gatter (EXOR) erfolgen, das immer dann eine Eins am Ausgang erzeugt, wenn nur einer der beiden Eing¨ange Eins-Signal f¨uhrt.
Die Schaltfunktion kann auch f¨ur eine Realisierung der Schaltung in NAND-Technik umgewandelt werden (s. Beispiel 2.19, Seite 119). Man erh¨alt: S = (A ∧ B) ∧ (A ∧ B).
2.3.6 Der Volladdierer "
Ai
Den Volladdierer erh¨alt man durch Zusammenschaltung ¨ von zwei Halbaddierern. Hierbei wird der Ubertrag des ersten Halbaddierers als Eingangsgro¨ ße f¨ur die zweite Exorverkn¨upfung verwendet.
Si
Bi Ci
Ci−1
Si = (Ai - Bi ) - Ci−1
Ci−1 0 0 0 0 1 1 1 1
Bi 0 0 1 1 0 0 1 1
Ai 0 1 0 1 0 1 0 1
Si 0 1 1 0 1 0 0 1
Ci 0 0 0 1 0 1 1 1
Ci :
Ai - Bi 0 1 1 0 0 1 1 0
Ai 1 1 1 1 Bi Ci−1
Si :
Ai 1 1
1
1 Ci−1
Bi
Die Abbildung 2.5 auf Seite 129 zeigt eine m¨ogliche Realisierung eines Volladdierers fu¨ r zwei Bit. In der nebenstehenden Abbildung ist deutlich die Kaskadierung der zwei Exor-Gatter zu erkennen, die zur Realisierung der Funktion Si notwendig sind. Im KV-Diagramm (oben) ist die Exor- bzw. AntivalenzVerkn¨upfung an den diagonal benachbarten Einsen zu erkennen.
Bi Ai Ci−1
=1
¨ F¨ur den Ubertrag Ci ergibt sich aus der KV-Tafel: Ci
= (Ai ∧ Bi ) ∨ (Ci−1 ∧ Ai ) ∨ (Ci−1 ∧ Bi ), = (Ai ∧ Bi ) ∨ Ci−1 ∧ (Ai ∨ Bi ), = (Ai ∧ Bi ) ∨ Ci−1 ∧ (Ai - Bi ).
=1
Si
2.3 H¨aufig ben¨otigte Schaltwerke s
Ai Bi
s
s
=1
129
s &
s
&
"
Si
=1
Ai = #
≥1
Ci
Bi Ci
Ci−1
s
Ci−1
Si
Gi Pi Abbildung 2.5: Schaltung f¨ur einen 2-Bit Volladdierer Die Schaltung f¨ur einen 2-Bit Volladdierer kann damit unter Ausnutzung der konformen Terme wie in Abbildung 2.5 angegeben werden. Die Schaltung besteht im Wesentlichen aus zwei Halbaddierern. Das Ausgangssignal S i gibt die ¨ an. Die Ausgangssignale Gi und Pi spielen f¨ur Addierer mit ParalSumme und Ci den Ubertrag lel¨ubertrag eine Rolle, f¨ur Addierer mit Serien¨ubertrag jedoch nicht. A0 B0
A1 B1 "
"
0 = C−1 ohne Vorstufe
A2 B2 "
C0 S0
A3 B3 "
C1 S1
C2 S2
C3 S3
¨ Abbildung 2.6: Schaltung eines 4-Bit-Addierers mit seriellem Ubertrag Sollen beispielsweise vierstellige Bin¨arzahlen A = A0 + A1 2 + A2 22 + A3 23 und B = B0 + B1 2+B2 22 +B3 23 addiert werden, so kann dies durch Zusammenschaltung von vier Volladdierern ¨ geschehen. Die Abbildung 2.6 zeigt die Schaltung eines 4-Bit-Addierers mit seriellem Ubertrag.
130
2 Grundlagen der Digitaltechnik
¨ Zur weiteren Ubung soll eine Schaltung zur Multiplikation zweier Dualzahlen entwickelt werden. Die Dualzahlen a, b, die miteinander multipliziert werden sollen, seien zweistellig. a = a1 · 21 + a0 · 20 b = b1 · 21 + b0 · 20 In der u¨ blichen Vorgehensweise werden die Wahrheitstabelle, die KV-Tafeln und die Schaltung entwickelt. y 0 = a0 ∧ b 0 a1 0 0
a0 0 0
b1 0 0
b0 0 1
0 0 0 0 0 0 1 1 1 1 1 1 1 1
0 0 1 1 1 1 0 0 0 0 1 1 1 1
1 1 0 0 1 1 0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1 0 1 0 1 0 1
y3
y2
y1
y0
0
0 0 0 0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 1 1 0 0 1 0
0 0 1 1 0 1 0 1 0 1 1 0
0 1 0 1 0 0 0 0 0 1 0 1
y 0 0
y0 :
0 0 0 1 2 3 0 2 4 6 0 3 6 9
b1
a1
y1
= (a0 ∧ a1 ∧ b1 ) ∨ (a0 ∧ b0 ∧ b1 ) ∨
(a0 ∧ a1 ∧ b0 ) ∨ (a1 ∧ b0 ∧ b1 ) y1 :
a0 1 1 1 1 a1 1 1 b0
b1
a0 a1 b0 b1
a0
y0
s b1
1 1 1 1 b0
a0 a1 b0 b1 y2 :
a0
1 1
1
s a1
b0 y2 = (a0 ∧a1 ∧b1 )∨(a1 ∧b1 ∧b0 ) y 3 = a 0 ∧ a1 ∧ b 0 ∧ b 1
s s
&
s
&
s s
s s
y3
&
&
≥1
y2
& .. .
y1
Deutlich ist zu erkennen, das es nicht wie beim Addierer zu einer kaskadierbaren L o¨ sung kommt. In Rechnern werden Multiplikationen h¨aufig durch wiederholtes Addieren realisiert.
2.4 Schaltungssynthese
131
2.4 Schaltungssynthese Zum Entwickeln von logischen Schaltungen – der Schaltungssynthese – ko¨ nnen nicht nur einfache Gatter wie UND, ODER, NICHT, usw. verwendet werden. Boolesche Funktionen werden zunehmend mit komplexeren Bausteinen wie z.B Speicherbausteinen realisiert. D1
2.4.1 Multiplexer
D2 .. .
Multiplexer k¨onnen nicht nur als elektronische Schalter verwendet werden, sondern eignen sich auch zur Schaltungssynthese.
z
Y
Dn
Beispiel 2.25 Decodierung eines Wiederholcodes – Repetition-Code Zur Sicherung gegen Fehler wird jedes gesendete Bit zweifach wiederholt. Statt 0 wird also (000), bzw. statt 1 (111) gesendet. Durch Mehrheits¨uberpr¨ufung kann der Empf¨anger nun einen Bitfehler innerhalb eines Bittripels korrigieren. Mit Hilfe eines Multiplexers soll nun ein Schaltnetzwerk entwickelt werden, das diese Mehrheitsentscheidung durchfu¨ hrt: i 0 1 2 3 4 5 6 7
Wahrheitstabelle c b a y 0 0 0 1 0 0 1 1 0 1 0 1 0 1 1 0 1 0 0 1 1 0 1 0 1 1 0 0 1 1 1 0
y 0 0 0 1 0 1 1 1
$ 0 MUX G 07 2
a b c q q q
q q q q 0 1
0 1 2 3 4 5 6 7 aEN
Der Ausgang y entspricht damit dem decodierten Bit, d.h. dem Bit, von dem der Empf¨anger annehmen muss, dass es gesendet wurde. Treten bei einer ¨ Ubertragung zwei Fehler auf, so f¨uhrt diese Entscheidung zu einer Falschdecodierung.
y a y
Verzichtet man auf eine Beschaltung des Multiplexers mit Konstanten, so kann ein Steuereingang eingespart werden. Allgemein gilt: Eine Schaltfunktion mit n Eingangsvariablen l¨asst sich mit einem Multiplexer mit n − 1 Steuervariablen realisieren. i 0 1 2 3 4 5 6 7
Wahrheitstabelle c b a y(c, b, a) 0 0 0 1 0 0 1 1 0 1 0 a 0 1 1 a 1 0 0 a 1 0 1 a 1 1 0 0 1 1 1 0
b c
MUX 0 0 G3 1
1 a a 0
0 1 2 3
0
b EN
y b
y
In der nebenstehenden Wahrheitstabelle sind jeweils zwei Zeilen, in denen sich die Variablen c und b nicht a¨ ndern, zusammengefasst. Die Schaltfunktion lautet von oben nach unten gelesen: y = (b∧c)∨(a∧b∧c)∨(a∧b∧c).
132
2 Grundlagen der Digitaltechnik
2.4.2 Read Only Memorys
Read Only Memorys (ROMs) – sind nicht fl¨uchtige Speicher. Die Verwendung von Read Only Memorys zur Schaltungssynthese hat in der letzten Zeit an Bedeutung gewonnen. Die Funktionsweise von ROM’s l¨asst sich mit bekannten Bausteinen erl¨autern.
Beispiel 2.26 Mit der nebenstehenden Wahrheitsta- i belle ist die Funktion ei- 0 nes ROM’s mit zwei Ein- 1 und drei Ausg¨angen fest- 2 gelegt. Die Ausg¨ange 0-3 3 des einfachen Codewandlers f¨uhren genau dann 1Signal, wenn die Eingangsvariablen den entprechenden Wert (A1 · 21 + A0 · A0 20 ) aufweisen. Mit Hilfe der ODER-Verkn¨upfungen wird A1 die Funktion von Y0 , Y1 , Y2 erzeugt.
A1 A0 Y2 0 0 1 0 1 0 1 0 0 1 1 1
Y1 1 0 1 1
ROM 4 × 3
Y0 1 0 1 0
A0 A1
0 1
Y0 Y1 Y2
[0]A [1]A [2]A
$ A 03
BIN/Y
0 1
s
0 1 2 3
s
s s
s
s s
≥1
≥1
≥1
Y2
Y1
Y0
Die Verbindungen zwischen den Ausg¨angen des Code-Umsetzers und den ODER-Verknu¨ pfungen legt die Schaltfunktion fest. Die Erstellung dieser Verbindungen wird Programmierung des ROM‘s genannt. Prom 32 × 8 Mit Hilfe des rechts stehenden ROM-Bausteins (TBP 18S030) soll folgende Funktion erzeugt werden: 2 z + 1 f¨ur z ≤ 6 y= z 2 + 9 f¨ur z = 7 Die Variable z liegt als dreistellige Dualzahl in den Variablen (C,B,A) vor.
10 A 11 B 12 C 13 s 14 s
0
⎧ ⎨ ⎩
4 c
0 A 31
[0]A ∇ [1]A ∇ [2]A ∇ [3]A ∇ [4]A ∇ [5]A ∇ [6]A ∇ [7]A ∇
1 2 3 4 5 6 7 9
a b c d e f
Der Baustein weist einen zus¨atzlichen Enable Eingang auf. Die Zuordnung von Eingangsvariablen zu den Ausgangsvariablen kann u¨ ber eine Programmiertabelle erfolgen.
2.4 Schaltungssynthese
i 0 1 2 3 4 5 6 7
D 0 0 . . .
0
133
Adresse E C 0 0 0 0 . . . 0 0 1 1 1 0 1
B 0 0
A 0 1
1 1 0 0 1 1
0 1 0 1 0 1
Programmiertabelle Speicherinhalt f e d c b 0 0 0 0 0 0 0 0 0 0 0 0 0 1 . . . . . 0 0 0 1 0 . 0 0 1 0 1 0 1 0 0 0 0 1 1 0 1 1 0 0 1 0 0 0 1 1 1 0 1
a 1 0
y [hex] 01 02
1 0 1 0 1 0
05 0A 11 1A 25 3A
2.4.3 Schaltnetze und Schaltwerke In Schaltnetzen h¨angt der Ausgangszustand Y nur vom aktuellen Eingangszustand ab. In Schaltwerken hingegen kann der Ausgangszustand Y vom allen vorangegangenen Eingangszust¨anden abh¨angen. ⎡ ⎢ ⎢ E=⎢ ⎣
E0 E1 .. .
⎤ ⎥ ⎥⎥ Schaltnetz ⎦
Ei−1
⎡ ⎢ -A = ⎢ ⎢ ⎣
A0 A1 .. .
⎤ ⎥ ⎥ A(t) = f kt(E(t0 ), E(t1 ), ⎥ E - Schaltwerk ⎦ . . . , E(tn ))
Ai−1
Beispiel 2.27 Der Wechselautomat: Ein Automat wechselt 50 Euro und 100 Euro Geldscheine in 10 Euro Geldscheine. Maximal k¨onnen 100 Euro auf einmal gewechselt werden. Das Wechseln erfolgt nach Tastendruck (WT). Selbst in seiner einfachsten Art ist dieser Automat von der Vorgeschichte der Bedienung abh¨angig.
Interner Zustand
Ein-Ausgabe -
Im Zustandsdiagramm werden die Zust¨ande durch Kreise dargestellt. Diese werden durch gerichtete Linien miteinander verbunden, an denen die jeweiligen Ein- und Ausgabeergebnisse des Zustandswechsels angetragen sind.
Eingaben 50 Euro eingeben 100 Euro eingeben Wechseltaste kE: keine Eingabe
Ausgaben 5 × 10 Euro ausgeben 10 × 10 Euro ausgeben 50 Euro zur¨uck 100 Euro zur¨uck
Zust¨ande 50 Euro wurden eingegeben 100 Euro wurden eingegeben kS: keine Schulden
134
2 Grundlagen der Digitaltechnik
Nebenstehend ist das ZustandsdiaWT/kA kE/kA gramm des Wechselautomaten dar? WT/10Z gestellt. Es weist die drei zuvor kS definierten Zust¨ande auf. Ein Zu standswechsel bzw. ein Verbleiben 100DM/kA WT/5Z 50DM/kA im Zustand ist durch definierte EinAusgaben m¨oglich. Befindet sich z. B. der Automat im Zustand 50 Eu ? ? ro (Zi ), so kann eine weitere Ein- 100DM 50DM gabe von 50 Euro (Zustand 100 Eu 50DM/kA ro = Zi+1 ), oder durch Bet¨atigen 100DM/100DM der Wechseltaste die Ausgabe von 100DM/100DM 50DM/50DM kE/kA 5 × 10 Euro (Zustand kS (= Zi+1 ) kE/kA erfolgen. ¨ Die Ausgabe von eingegebenen 50 bzw. 100 Euro Scheinen ist notwendig, um eine Uberzahlung zu vermeiden. Die maximale Wechselausgabe sollte ja 10 × 10 Euro betragen. Das Zustandsdiagramm beschreibt einen Automaten vollst¨andig. Der Schaltungsentwurf wird aber durch zus¨atzliche Tabellen erleichtert. Hierzu ist es sinnvoll, Ein- und Ausgaben sowie die Zust¨ande bin¨ar zu codieren.
Eingabe kE 50 Euro 100 Euro WT
E1 0 0 1 1
Ausgabe kA 5Z 10 Z 50 Euro 100 Euro
E0 0 1 0 1
A2 0 0 0 1 1
A1 0 0 1 0 1
A0 0 1 0 1 0
Zustand kS 50 Euro 100 Euro
Z1 0 0 1
Z0 0 1 0
11/000
?00/000 -
11/010
00
11/010
11/001
? 10 01/101 10/110 00/000
01/000
? 01
01/000
Z1 Z2
E1 E0 /A2 A1 A0
-
Bezeichnung
10/110 00/000
Die nachfolgende Tabelle zeigt die bin¨ar codierte Zustandsfolgetabelle. Sie erinnert an die Wahrheitstabelle zum Entwurf von Schaltnetzen.
2.4 Schaltungssynthese
135
Eingangsvariablen E1 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
E0 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
Z1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
Ausgangsvariablen
Z0 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
Z1+ 0 0 1 x 0 1 1 x 1 0 1 x 0 0 0 x
Z0+ 0 1 0 x 1 0 0 x 0 1 0 x 0 0 0 x
A2 0 0 0 x 0 0 1 x 0 1 1 x 0 0 0 x
A1 0 0 0 x 0 0 0 x 0 1 1 x 0 0 1 x
Auf der Eingabeseite ist die Spalte der aktuellen Zust¨ande Z1 , Z0 hinzugekommen. Auf der Ausgabeseite ist die Spalte der nachfolgenden Zust¨ande Z1+ , Z0+ hinzugekommen. Die Kombination Z1 = 1, Z0 = 1 kann beim regul¨aren Betrieb nicht vorkommen. Es handelt sich um einen Pseudozustand. Deshalb enthalten die entsprechenden Zeilen der Tabelle Don’t care Eintragungen (x).
A0 0 0 0 x 0 0 1 x 0 0 0 x 0 1 0 x
Die Zustandsfolgetabelle enth¨alt die gleichen Informationen wie das Zustandsdiagramm. Sie lassen sich daher umkehrbar eindeutig einander zuordnen.
Eine allgemeine Realisierung kann mit Hilfe des Mealy-Automaten, der Abbildung 2.7 dargestellt ist, angegeben werden.
Zt E-
1. Schaltnetz
Z+ -
Speicher (Verz¨ogerung)
2. tSchaltZ netz
A-
E-
Abbildung 2.7: Beispiel eines Mealy-Automaten ¨ Nachfolgend wird der Entwurf zum Ausgangsschaltnetz (a) und zum Ubergangsschaltnetz (b) mit Hilfe der KV-Tafeln durchgef¨uhrt. a)
A2 :
E1
Z0
1
1 x x Z1 1 x x E0
A2 = (E1 ∧ E0 ∧ Z1 ) ∨ (E1 ∧ E0 ∧ Z1 ) ∨ (E1 ∧ E0 ∧ Z0 )
A1 :
E1
Z0 1 1 1 x x Z1 x x E0
A1 = (E1 ∧ Z1 ) ∨ (E1 ∧ E0 ∧ Z0 )
A0 :
E1
Z0 1 x x Z1 1 x x E0
A0 = (E1 ∧ E0 ∧ Z0 ) ∨ (E1 ∧ E0 ∧ Z1 )
136
2 Grundlagen der Digitaltechnik
F¨ur den leichteren Eintrag in die KV-Tafeln, ist unten rechts die Feldnummerierung angegeben. b)
Z1+ :
Z0+ :
Z0
1 1 E1 x x 1 Z1 1 1 x x E0
a
Z0 1
E1
1 1 x x Z x x 1
&
≥1 Z0+
&
&
1
8
12
13
9
10
14
15
11
7
6
2
3
c
¨ Ubergangsschaltnetz
& Z0
≥1 Z1+
5
b
Z0+ = (E0 ∧ Z0 ) ∨ (E1 ∧ E0 ∧ Z1 ∧ Z0 )
(Schaltwerk zum Geldwechselautomaten:) s s s s s s E1 s s s s s s s s s s E0 c c c c c c c c &
4
d
E0
Z1+ = (E1 ∧ E0 ∧ Z0 ) ∨ (E1 ∧ E0 ∧ Z0 ) ∨ (E1 ∧ Z1 )
0
Speicher (Verz¨ogerung)
Z1
s s
ss
s c &
s s
s
c &
s Ausgangsschaltnetz
≥1
s
s s
s c &
s
&
s s
s &
s ≥1
≥1 A0 A1 A2
Der nachfolgende Abschnitt besch¨aftigt sich mit der Frage, wie die Speicher-, bzw. Verzo¨ gerungselemente realisiert werden k¨onnen.
2.5 Die Flipflops Flipflops (FF) weisen zwei stabile Zust¨ande auf und k¨onnen ein Bit speichern. Im Folgenden werden die unterschiedlichen Grundtypen der FF behandelt.
2.5 Die Flipflops
137
2.5.1 Das Basis-Flipflop Basis-Flipflops sind nicht taktgesteuerte FF. Sie sollen die Funktionen Setzen, L o¨ schen und Speichern aufweisen.
S R
S R
c
Q1 Q2
S - Setzeing. (Set) R - L¨oscheing. (Reset)
Setzen:
Der Ausgangszustand Q1 wird auf 1 gesetzt, 0 → 1 oder bleibt auf 1, 1 → 1
L¨oschen:
Der Ausgangszustand wird auf 0 gelo¨ scht, 1 → 0 oder bleibt auf 0, 0 → 0.
Speichern: Der Ausgangszustand speichert den alten Wert, 0 → 0 oder 1 → 1 Basis-FF k¨onnen aus kreuzgekoppelten NOR- oder NAND-Gattern bestehen: S
S
≥1
c
s
Q2 ≥ 1 c s Q1
R
R
≥1 c s
Q2
HH H H HH ≥1 c s
Q1
Die obige Schaltung soll im Folgenden n¨aher untersucht werden. Wichtig ist es hierbei, sich daran zu erinnern, dass ein NOR-Gatter nur dann am Ausgang eine 1 liefert, wenn an beiden Eing¨angen eine 0 anliegt. Umgekehrt erzwingt jede am Eingang liegende 1 eine 0 am Ausgang. S 0 0 0 0 1 1 1 1
R 0 0 1 1 0 0 1 1
Q 1 = Q2 0 1 0 1 0 1 0 1
Q+ 1 0 1 0 0 1 1 0 0
Q+ 2 1 0 1 1 0 0 0 0
Funktion Speichern (Q+ 1 = Q1 ) L¨oschen (Q+ 1 = 0) Setzen (Q+ 1 = 1) Irregul¨ar + (Q+ 1 = Q2 )
In der nebenstehenden Tabelle kennzeichnet das hochgestellte + einen Folgezustand. Mit S = 1 und R = 0 erh¨alt man die Funktion Setzen. S = 1 erzwingt als Folge Q+ 2 = 0, somit liegt am nachfolgenden (rechten) NOR an beiden Eing¨angen eine 0, so dass f¨ur dessen Ausgangsfunktion Q+ 1 = 1 gilt. Setzen bezieht sich also auf den Ausgang Q1
Mit S = 0 und R = 1 erh¨alt man die Funktion L¨oschen. R = 1 erzwingt als Folge Q+ 1 = 0, somit liegt an beiden Eing¨angen des linken NOR eine 0, so dass f¨ur dessen Ausgangsfunktion Q+ 2 = 1 gilt. Mit S = 0 und R = 0 erh¨alt man die Funktion Speichern. Was gespeichert wird, h¨angt vom Vorzustand ab: • War das FF gesetzt (Q1 = 1, Q2 = 0), so liegt an beiden Eing¨angen des rechten NOR Gatters 0 an, woraus folgt: Q+ 1 = 1. Die 1 am Eingang des linken NOR Gatters erzwingt Q+ 2 = 0.
138
2 Grundlagen der Digitaltechnik • War das FF gel¨oscht (Q1 = 0, Q2 = 1), so liegt an beiden Eing¨angen des linken NOR Gatters 0 an, woraus folgt: Q+ 2 = 1. Die 1 am Eingang des rechten NOR Gatters erzwingt = 0. Q+ 1
Der vorausgehende Zustand bleibt erhalten (gespeichert).
+ Der vierte Eingangszustand S = 1 und R = 1 erzwingt (Q+ 1 = 0, Q2 = 0). Es gilt also nicht mehr (Q1 = Q2 ). Deshalb wird dieser Zustand irregul¨ar genannt. Wenn in der Folge S = 0, R = 0 verwendet wird, so liegt kurzfristig an allen NOR Eing¨angen eine 0 an. Die Ausg¨ange versuchen auf 1 zu gehen, was aber nicht stabil sein kann. Als Ergebnis stellt sich je nach Laufzeit der Gatter + + + (Q+ 1 = 0, Q2 = 0) oder (Q1 = 1, Q2 = 1) ein. Nachfolgend ist eine Zusammenfassung durch die unterschiedlichen Beschreibungsmo¨ glichkeiten der Flipflops gegeben:
Charakteristische Gleichung Q+ : Q S 0 0 0 0 1 1 1 1
R 0 0 1 1 0 0 1 1
Q 0 1 0 1 0 1 0 1
Q+ 0 1 0 0 1 1 x x
S 0 0 1 1
R 0 1 0 1
Kurzform Q+ Funktion Q Speichern 0 L¨oschen 1 Setzen x Irregul¨ar
1
1
x
x
1 R
S Q+ = S ∨ (R∧Q) Impulsdiagramm −→ t S1 0 R1 0 Q1 0
Links ist die Zustandsfolgetabelle, in der Mitte die Kurzform und rechts die charakteristische Gleichung sowie das Impulsdiagramm des Basis FF zu sehen. Das Impulsdiagramm zeigt den zeitlichen Verlauf der Ein- und Ausgangssignale an.
S R
bS bR
S
Q1 b Q2
S - Setzeing. (Set) R - L¨oscheing. (Reset)
S R
&
b
r
Q1 &
b r
Q2 R
&
b r
Q1
HH H H H Q b r 2 &
In der obigen Darstellung ist ein Basis-FF, bestehend aus NAND-Gattern, zu sehen. Die nachstehende Zustandsfolgetabelle verdeutlicht die Funktionsweise dieser Schaltung.
2.5 Die Flipflops
S 0 0 0 0 1 1 1 1
R 0 0 1 1 0 0 1 1
139 Q+ 1 1 1 1 1 0 0 0 1
Q 1 = Q2 0 1 0 1 0 1 0 1
Q+ 2 1 1 0 0 1 1 1 0
Die Funktionsweise entspricht der Schaltung mit kreuzgekoppelten NOR-Gattern, wobei die Reihenfolge der Ausg¨ange vertauscht wurde. Beispielsweise erh¨alt man mit S = 0 und R = 1 die Funktion Setzen. S = 0 erzwingt als Folge Q+ 1 = 1, somit liegt am nachfolgenden (rechten) NAND an beiden Eing¨angen eine 1, so dass f¨ur dessen Ausgangsfunktion Q+ 2 = 0 gilt.
Funktion Irregul¨ar (Q+ 1 = Q2 ) Setzen (Q+ 1 = 1) L¨oschen (Q+ 1 = 0) Speichern (Q+ 1 = Q1 )
Beispiel 2.28 Entprellschaltung
+ sc
s S cS s cR R
S R Q c Q
Q Q
+
S→R
R→S
Beim Umschalten liegt an beiden Eing¨angen eine 1 (Speichern), ¨ so dass keine Anderung des Ausgangszustands erfolgt. Wird ¨ R = 0 (L¨oschen) erreicht, erfolgt die Anderung. Die kurzen R¨uckf¨alle auf R = 1 bewirken keine Ver¨anderung. Der Schalter ist entprellt.
S 0 0 1 1
Kurzform R Q+ Funktion 0 x Irregul¨ar 1 1 Setzen 0 0 L¨oschen 1 Q Speichern
2.5.2 RS-Flipflop mit Setzvorrang Das RS-Flipflop mit Setzvorrang vermeidet durch ein vorgeschaltetes Netzwerk den irregul a¨ ren Zustand. Folgende Wahrheitstabelle ist zu fordern:
S 0 0 1 1
NOR-FF R S i Ri 0 0 0 1 0 1 0 1 0 1 1 0
r
S
Si
= S
Ri
= R∧S = (R ∨ S)
R
1
d
Si
≥1 b
Q ≥1 b r " b b"" "bb " b Q ≥1 b r
Ri
Auf ganz a¨ hnliche Weise k¨onnen auch Flipflops mit L¨osch- oder Speichervorrang angegeben werden.
140
2 Grundlagen der Digitaltechnik
2.5.3 Taktzustandsgesteuerte Einspeicherflipflops Taktzustandsgesteuerte Einspeicher-FF sind dadurch gekennzeichnet, dass die beiden Eing¨ange R und S durch den Takt C (clock) freigegeben (aktiviert) werden. S C R
Q1
b
S C R
b Q2
p bb & &
S
Q1
R
b Q2
Q b Q12 C
S R
Aktiver Taktzustand C = 0
S C R
p
&
Si
S & Ri R
Q
b Q12
Aktiver Taktzustand C = 1
Die links stehende Schaltung zeigt ein RS-FF, dessen Eing¨ange R und S nur dann wirksam werden, wenn C = 0 gilt. Die rechts stehende Schaltung zeigt ein RS-FF, dessen Eing¨ange R und S nur dann wirksam werden, wenn C = 1 gilt. Dieses Flipflop kann leicht in NAND-Technik realisiert werden. S
C
&
Si
c
&
&
c
&
bSi
r
R
&
b Ri
&
b r
Q1
HH H H H H Q2 & b r
r
RD cS
S
1S
C
C1 1R
cR
Q1
c Q2
SD 0 0 1 1
Die links stehende Schaltung wird als taktzustandsgesteuertes FF bezeichnet. Es gelten folgende Gleichungen: Si = S∧C
und
Ri = R∧C
S i = ¬(S∧C)
und
Ri = ¬(R∧C)
Diese Schaltung kann durch Direkteing¨ange S D und RD erweitert werden.
Basis-FF
&
C
RD
Q2
r
S
R
c s
Ri
Takttor
SD
Q1
H HH H H H
s
R
SD
c s
RD 0 1 0 1
Si 1 x 1
Mit den entsprechenden Signalen an den Direkteing¨angen S D und RD kann das FF gesetzt oder gel¨oscht werden, um z.B. nach dem Einschalten einen definierten Anfangszustand sicherzustellen. Auf den irregul¨aren Eingangszustand S D = 0 und RD = 0 folgt Q1 = Q2 = 1. Wenn gilt: S D ∧RD = 0, so ist kein getakteter Betrieb m¨oglich. Getakteter Betrieb ist nur m¨oglich, wenn S D ∧RD = 1 gilt. Ri Q+ Q+ Funktion getaktet 1 2 1 1 1 Irregul¨ar Nein 1 1 0 Setzen Nein x 0 1 L¨oschen Nein getakteter Betrieb ist m¨oglich
Das Verhalten des getakteten RS-FF kann auch wieder anhand eines Impulsdiagramms dargestellt werden. In der nachfolgenden Abbildung ist C = 1 der aktive Taktzustand. Die Vorbereitungs¨ eing¨ange a¨ ndern sich demnach w¨ahrend des passiven Taktzustandes C = 0. Die Ubernahme der ¨ Einstellung erfolgt dann nach dem nachfolgenden Ubergang C = 0 → C = 1.
2.5 Die Flipflops
141 tP bezeichnet die Verz¨ogerungszeit (propagation delay) beim Zustandswechsel:
C S
1S
C
C1
R
1R
Q
S
b Q
R Q
tP LH -
tP HL -
tP LH :
Q L → QH ,
tP LH :
Q H → QL .
Der aktive Taktzustand sollte m¨oglichst kurz gew¨ahlt werden (siehe Datenblatt des FF), damit die Zeit, in der die Signale R und S sich nicht a¨ ndern ebenfalls kurz ist.
2.5.4 D-Flipflops
D-Flipflops (Daten-FF) u¨ bernehmen im aktiven Taktzustand den an seinem Daten (D)-Eingang anliegenden Wert. Dieser Wert wird gespeichert und im passiven Taktzustand zur Weiterverarbeitung am Ausgang Q bereitgehalten.
D 0 0 1 1
Q 0 1 0 1
Q+ 0 0 1 1
C D
1D
C
c C1
c
Q
D
1D
Q
C
C1
Q
c
D Q Q
Im Folgenden werden m¨ogliche Schaltungen f¨ur das D-FF angegeben: D
r
Q1
1S
C
C
C1 1
d
1R
D r
d
&
r
b Q2
&
Si d S
Q
dR
d Q
d Ri
In der linken oberen Schaltung wird der Dateneingang D als Setzeingang benutzt (S = D). F u¨ r D = 1 ergibt sich S = 1, R = 0 und somit die Funktion Setzen. Fu¨ r D = 0 ergibt sich S = 0, R = 1 und somit die Funktion L¨oschen. In der rechten oberen Schaltung wird eine NAND Realisierung des D-FF gezeigt. Es gilt:
Si
= (D∧C)
Ri
= (D∧C)
Die nebenstehende Wahrheitstabelle zeigt, dass damit die Funktionen Setzen, L¨oschen und Speichern realisiert werden.
C 0 1 1
D x 0 1
Si 1 1 0
Ri 1 0 1
Funktion Speichern L¨oschen Setzen
142
2 Grundlagen der Digitaltechnik
2.5.5 Taktzustandsgesteuerte Zweispeicher-FF Taktzustandsgesteuerte Zweispeicher-FF sind dadurch gekennzeichnet, dass die neue Information am Eingang bereits u¨ bernommen werden kann, w¨ahrend die alte Information am Ausgang fu¨ r eine einstellbare Zeitspanne noch erhalten bleibt. S C R
Si
1S
r C1
1
b
1R
Ri
Master
b
Q
1S C1 1R
b Q
S C R
Das FF besteht aus zwei Einspeicher-FF und einem Inverter. Nachdem C = 1 gilt, werden die Signale R und S im Master aktiv. Das Signal Si a¨ ndert sich entsprechend, nicht jedoch der Ausgang Q vom Slave, der noch auf den n¨achsten Taktzustand warten muss.
Q
1S C1 1R
b Q
Retardierter Ausgang
Slave
C S R Si Q
Auch ein D-FF kann als Zweispeicher-FF in der glei- D Q Q 1D 1D D chen Weise – aus zwei D-Einspeicher FF und einem b b b C C1 C C1 Q Q Inverter – aufgebaut werden. Nebenstehend sind die Symbole dargestellt. Der im Abschnitt Schaltwerke besprochene Geldwechselautomat kann mit D-FF best u¨ ckt werden. r r r r r r r r r r r E1 ¨ Ubergangsr r r r r E0 b b b b b b b b schaltnetz & & & & & ≥1 Z0+
Z1+
Z1
Z0
≥1 1D C1 bR 1D r C1 r bR
r r
r r
C
Reset Ausgangsschaltnetz
r b & ≥1
r r b
r & r
r
r r
r b & r ≥1
r &
r r
r &
≥1 A0 A1 A2
2.5 Die Flipflops
143
W¨ahrend des Taktzustandes C = 1 wird der anliegende Folgezustand in den Master u¨ bernommen und im nachfolgenden Taktzustand C = 0 geben die Master den gespeicherten Folgezustand an die Slaves weiter. Der Folgezustand wird somit zum aktuellen Zustand. Mit dem Reset-Eingang kann nach dem Einschalten der Zustand Z0 = Z1 = 0 erzwungen werden.
2.5.6 JK-Flipflops
JK-Flipflops sind Ein- oder Zweispeicher-FF mit einem a¨ hnli¨ chen Ubergangsverhalten wie die RS-FF. Sie weisen als Besonderheit f¨ur J = K = 1 keinen irregul¨aren Zustand auf, sondern wechseln damit den Ausgangszustand Q+ = Q. Damit eignen sich diese FF besonders als Frequenzteiler.
JK-FF werden h¨aufig in NAND-Technik realisiert, so dass sich ein J invertierter Takteingang C ergibt. Nebenstehend ist K auch die charakteristische Gleichung dargestellt.
J 0 0 0 0 1 1 1 1
K 0 0 1 1 0 0 1 1
Q 0 1 0 1 0 1 0 1
Q+ 1 0 1 0 0 1 1 1 0
J 0 0 1 1
K 0 1 0 1
Kurzform Q+ Funktion Q Speichern 0 L¨oschen 1 Setzen Q Wechseln
Q 1J C1 1K
Q
J 1J C c C1 K 1K
b Q
Q b Q
1
1
1
K J Q+ = (J∧Q) ∨ (K∧Q) 1
Beispiel 2.29 Mit JK-Flipflops lassen sich besonders einfach F REQUENZTEILER realisieren. J = K = 1 bewirkt, dass beim Wechsel von C = 0 → C = 1 auch Q wechselt.
J C K
& &
1S c C1 1R
r b
Q r
Q
C QM Q
2.5.7 Taktflankengesteuerte Flipflops Taktflankengesteuerte Flipflops geben ihre Eing¨ange beim Wechsel des Taktzustandes (mit der ¨ Taktflanke) frei. Eine Anderung des Ausgangszustandes kann nur mit einer Taktflanke erfolgen. ¨ Eine Anderung der Eingangsgr¨oßen wird erst mit der Taktflanke aktiv.
144
2 Grundlagen der Digitaltechnik
C
C1
C: 0 → 1
C
e C1
C: 1 → 0
Es wird hierbei zwischen positiver Taktflanke (C: 0 → 1) und negativer Taktflanke (C: 1 → 0) unterschieden. Im linken Bild ist das Symbol eines FF zu sehen, das bei positiver Flanke die
Eing¨ange aktiviert. Beim rechten FF werden die Eing¨ange bei negativer Flanke aktiviert. F¨ur das JK-FF soll das Liniendiagramm diesen Sachverhalt verdeutlichen.
C J C K
1J C1 1K
Q
J
Q
K Q
ts-thFlankengesteuerte FF ben¨otigen eine VorbeC reitungszeit ts (setup time) und eine Haltezeit th (hold time), in der die Eingangssi- J gnale (J,K) konstant gehalten werden. Die K Ausgangssignale a¨ ndern sich erst nach einer Verz¨ogerungszeit tP HL (propagation delay). Q
tP LH
Folgerung: Werden die Signale J und K bzw. R und S zeitgleich mit der aktiven Taktflanke geschaltet (setuptime fehlt), so reagiert das FF nicht.
2.5 Die Flipflops
145
2.5.8 Tabelle der wichtigsten Flipflops Tabelle unterschiedlicher Flipflops (FF) Bezeichnung
RS-FF mit L¨oschvorrang
Funktion S R Q+ 0 0 Q 0 0 1 1 1 0 x 1 1 S R Q+ 0 0 Q 0 1 0 1 1 0 1 1 1 S R Q+ 0 0 Q 0 1 0 1 1 0 0 1 1
RS-FF mit Speichervorrang
S 0 0 1 1
R 0 1 0 1
Q+ Q 0 1 Q
RS-FF (getaktet) mit C=1
S 0 0 1 1
R 0 1 0 1
Q+ Q 0 1 x
Basis RS–FF
RS-FF mit Setzvorrang
RS-FF mit Direkteing¨angen
RS-MS–FF
SD 0 0 1 1 S 0 0 1 1
RD 0 1 0 1 R 0 1 0 1
Q+ x 1 0 get. Q+ Q 0 1 x
Symbol
Anmerkung Q Der mit x bez. FolgezuQ stand ist irregul¨ar, siehe Abschn. 2.5.1
S R
S R
c
S R
S1 R
1 1 c
Q Q
S R
S R1
1 1 c
Q Q
S
s G1
R
2S s G2 1R
S C R
SD S C R RD
S C R
1S C1 1R cS 1S C1 1R cR
1S C1 1R
Gilt: S∧R = 1, so folgt: Q+ → 1
Gilt: S∧R = 1, so folgt: Q+ → 0
Q
c
Q
Gilt: S∧R = 1, so folgt: Q+ → Q C S
Q
R Q
b Q
-
tP LH
Q1 c Q2
Q b Q
siehe Abschn. 2.5.3
C S R Si Q
-
tP HL
146
2 Grundlagen der Digitaltechnik Tabelle unterschiedlicher Flipflops (FF)
Bezeichnung
Funktion D Q Q+ 0 0 0 0 0 1 1 1 0 1 1 1 D Q Q+ 0 0 0 0 0 1 1 1 0 1 1 1
D–FF (getaktet)
D-MS–FF
J 0 0 1 1 J 0 0 1 1
JK–FF
JK-MS–FF
JK–FF (flankengesteuert)
D
1D
C
C1
D
K 0 1 0 1
C
Q c
D
Q
Q+ Q 0 1 Q Q+ Q 0 1 Q
Q
1D
C
c
C1
J C K
1J b C1 1K
J C K
1J C1 1K
C
siehe Abschn. 2.5.3
Q
J =K=1
Q C
b Q
Q
Q siehe Abschn. 2.5.3 b Q
C1 siehe Abschn. 2.5.7
C: 0 → 1
C: 1 → 0 J 0 0 1 1
Anmerkung
Q
e C1
C Flanken gesteuerte FF
K 0 1 0 1 K 0 1 0 1
Symbol
Q+ Q 0 1 Q
J C K
1J C1 1K
C
Q J Q
K Q
2.5.9 Anwendungen von Flipflops – Synchrone Za¨ hler Synchrone Z¨ahler werden durch ein synchrones Schaltwerk realisiert. Zur Synthese des Schaltwer¨ kes ist es notwendig, geeignete FF auszuw¨ahlen, sowie das Ausgangs- und Ubergangsschaltnetz zu ¨ entwerfen. Das Ausgangsschaltnetz erzeugt beispielsweise den beim Z¨ahlen anfallenden Ubertrag, ¨ w¨ahrend das Ubergangsschaltnetz die Signale f¨ur die FF-Eing¨ange erzeugt. Beispiel 2.30 Modulo 5 Vorw¨artsz¨ahler mit RS-FF: Der Modulo 5 Vorw¨artsz¨ahler durchl¨auft zyklisch die Zustandsfolge 0, 1, 2, 3, 4, 0, 1, . . .. Fu¨ r den
2.5 Die Flipflops
147
Z¨ahler sollen RS-FF verwendet werden. Eine Realisierung mit D-FF oder JK-FF ist ebenfalls m¨oglich. Folgende Festlegungen werden getroffen: Y0 C
Mod 5 Z¨ahler
Y1 Y2 ¨ U
Z Y2 Y1 Y0 0 0 0 0 1 0 0 1 2 0 1 0 3 0 1 1 4 1 0 0
Schaltungssymbol + + C Q2 Q1 Q0 Q+ 2 Q1 Q0 0 0 0 0 0 0 1 1 0 0 1 0 1 0 2 0 1 0 0 1 1 3 0 1 1 1 0 0 4 1 0 0 0 0 0 5 1 0 1 x x x 6 1 1 0 x x x 7 1 1 1 x x x
¨ U 0 0 0 0 1
C1
0
c
1R
Q
cR
RS-Flipflop
Zustandstabelle
C
Q
1S
1
3
2
0
4
Y0 Y1 Y2 ¨ U
Das Impulsdiagramm veranschaulicht die gewu¨ nschte Funktionsweise des Modulo 5 Z¨ahlers. Bedingt durch die Wahl der FF a¨ ndert sich der Ausgangszustand, nachdem C = 0 gilt. Der Wert einer Dezimalzahl 0 ≤ Z ≤ 4 ergibt sich durch die Wertigkeit der Ausg¨ange Yi . Es gilt: Z = Y0 · 20 + Y1 · 21 + Y2 · 22 . Da die m¨oglichen Zahlen Z = 5, 6, 7 nicht ben¨otigt werden, enth¨alt die obige Tabelle an den entsprechenden Stellen don‘t care Eintragungen. ¨ Die Festlegung der Eingangssignale Si und Ri erfordert das Entwickeln eines Ubergangsschaltnetzes. Dieses wird mit der nachstehenden Synthesetabelle und den sich daraus ergebenden KVTafeln festgelegt. + + C Q2 Q1 Q0 Q+ 2 Q1 Q0 S2 R2 S1 R1 S0 R0 0 0 0 0 0 0 1 0 x 0 x 1 0 1 0 0 1 0 1 0 0 x 1 0 0 1 2 0 1 0 0 1 1 0 x x 0 1 0 3 0 1 1 1 0 0 1 0 0 1 0 1 4 1 0 0 0 0 0 0 1 0 x 0 x 5 1 0 1 x x x x x x x x x 6 1 1 0 x x x x x x x x x 7 1 1 1 x x x x x x x x x
S2 = Q1 ∧Q0 Q0 x x x Q2
S1 = Q1 ∧Q0 Q0 x 1
1 Q1
R 2 = Q2 , R 2 = Q0 Q0 x 1 x x x
x x Q2
x
Q1
R1 = Q1 ∧Q0 Q0 x x x x x Q2
Q1
Bedingt durch die don‘t care Eintragungen gibt es fu¨ r R2 zwei M¨oglichkeiten. Die richtige Wahl gelingt hierbei durch die Kontrolle der Bedingung S2 ∧R2 = 0, die den irregul¨aren Zustand S2 = R2 = 1 vermeidet. Die L¨osung R2 = Q2 wird verworfen, da dann gilt: S2 ∧R2 = Q1 ∧Q0 ∧Q2 = 0. Im anderen Fall R2 = Q0 gilt: S2 ∧R2 = Q1 ∧Q0 ∧Q0 = 0. ¨ ¨ erkennt man F¨ur das Ausgangsschaltnetz zur Gewinnung des Ubertrags U ¨ Q2 . Wird ein geleicht aus der Tabelle der Festlegungen, dass gilt: U= ¨ ¨ mit dem Takt C UND-verkn¨upft: takteter Ubertrag verlangt, so wird U ∗ ¨ ¨ U =U∧C.
x x Q2
1 Q1
S0 = Q2 ∧Q0 Q0 x 1 1
x x Q2
Q1
R 0 = Q0 Q0 x x 1 x x Q2
1 Q1
148
2 Grundlagen der Digitaltechnik Y0 = Q0 1S C1 1R dR
&
C Rd
r r r
Y1 = Q1
d r
r
1S C1 1R dR
&
r
r
¨∗ U
Y2 = Q2 & r
r
1S C1 1R dR
d
r
&
d
r
r
Abschließend wird in diesem Beispiel noch untersucht, welches Verhalten der Z¨ahler aufweist, wenn er durch eine Fehlfunktion in einen ungu¨ ltigen Zustand (5,6,7) ger¨at. Hierzu wird u¨ berpr¨uft, wie bei der Herleitung die x-Felder zur Festlegung der Eingangsgro¨ ßen Si , Ri verwendet wurden: + + + C Q2 Q1 Q0 S2 R2 S1 R1 S0 R0 Q+ 2 Q1 Q0 C 5 1 0 1 0 0 1 0 0 1 1 1 0 6 6 1 1 0 0 1 0 0 0 0 0 1 0 2 7 1 1 1 1 0 0 1 0 1 1 0 0 4
Rd
- 0j- 1j 6
?
6j 5j 2j
3j 7j- 4j
Beispielsweise gilt: S2 = Q1 ∧Q0 und R2 = Q0 , so dass sich in der ersten Zeile S2 = R2 = 0 ergibt. Folglich wird Q2 gespeichert, so dass Q+ 2 = Q2 gilt. Das Zustandsdiagramm verdeutlicht, dass der Z¨ahler sp¨atestens nach 2 Zyklen wieder im Modulo 5 Z¨ahlrythmus ist.
C Q2 Q1 Q0 D2 0 0 0 0 1 0 0 1 2 0 1 0 3 0 1 1 4 1 0 0 5 1 0 1 6 1 1 0 7 1 1 1
= Q+ 2 D1 0 0 0 1 0 x x x
= Q+ 1 D0 0 1 1 0 0 x x x
D2 = Q1 ∧Q0 Q0
= Q+ 0 1 0 1 0 0 x x x
x
C1
bR
1 Q1
Q2
1
x
x
x
x
1 Q1
Q2
x
1
Q
∨(Q1 ∧Q0 ) Q0 x
D0 = Q2 ∧Q0 Q0 1
b
D1 = (Q1 ∧Q0 )
x x
Q
1D
Beispiel 2.31 Modulo 5 Vorw¨artsz¨ahler mit D- und Jk-Flipflops: Im Folgenden soll die Realisierung mit D-FF und JK-FF durchgef u¨ hrt werden.
Q1
Q2
Y0 = Q0 r &
1D C1 bR
r
Y1 = Q1 r & &
b r
≥1
1D C1 bR
r b
&
¨∗ U
Y2 = Q2
1D C1 bR
r
&
b
Rd r r r r r C Abschließend wird wieder untersucht, welches Verhalten der Z¨ahler aufweist, wenn er durch eine Fehlfunktion in einen ung¨ultigen Zustand (5,6,7) ger¨at:
2.5 Die Flipflops
149 - 0j- 1j 6
5j ? = 2j I @ @ j 3j 7j- 4j 6 Das Zustandsdiagramm verdeutlicht, dass der Z¨ahler bereits nach einem Takt wieder im Modulo 5 Z¨ahlrythmus ist. Rd
+ + C Q2 Q1 Q0 Q+ C+ 2 Q1 Q0 5 1 0 1 0 1 0 2 6 1 1 0 0 1 0 2 7 1 1 1 1 0 0 4
F¨ur JK-FF gilt die charakteristische Gleichung: Q+ = (J∧Q) ∨ (K∧Q)
Q
J
1J
C
C1
K
1K
b Q
Die ben¨otigten Eingangsfunktionen f¨ur die FF k¨onnen vereinfacht aus dieser Gleichung gewonnen werden, wenn f¨ur Q Null und Eins eingesetzt wird: Q+ = J f¨ur Q = 0, + + C Q2 Q1 Q0 Q+ 2 Q1 Q0 J2 K2 0 0 0 0 0 0 1 0 x 1 0 0 1 0 1 0 0 x 2 0 1 0 0 1 1 0 x 3 0 1 1 1 0 0 1 x 4 1 0 0 0 0 0 x 1 5 1 0 1 x x x x x 6 1 1 0 x x x x x 7 1 1 1 x x x x x
und
Q+ 2 :
C Rd
r
Q+ 1 :
Q0 0
x
x
x
1 Q1
Q+ 0 :
Q0 x
1
Q2 J2 = Q1 ∧Q0
x
1
x
0 Q1
Y1 = Q1
r r
r
d r
r
1J C1 1K dR
Q0
1 x
1
Q2 J 1 = Q0 K1 = Q0
K2 = 1
Y0 = Q0 1J C1 1 1K dR
Q+ = K f¨ur Q = 1
&
d
0
x
0 Q1
Q2 J 0 = Q2 K0 = 1
¨∗ U
Y2 = Q2
r
x
1J C1 1 1K dR
r
&
d
r
r
Abschließend wird wieder untersucht, welches Verhalten der Z¨ahler aufweist, wenn er durch eine Fehlfunktion in einen ung¨ultigen Zustand (5,6,7) ger¨at: Rd
C Q2 Q1 Q0 5 1 0 1 6 1 1 0 7 1 1 1
Q+ 2
Q+ 1
Q+ 0
C+
0 0 0
1 1 0
0 0 0
2 2 0
?
- 0j- 1j 7j
5j ? = 2j I @ @ j j j 3 4 6
6
Das Zustandsdiagramm verdeutlicht, dass der Z¨ahler bereits nach einem Takt wieder im Modulo 5 Z¨ahlrythmus ist.
150
2 Grundlagen der Digitaltechnik
Beispiel 2.32 Dieses Beispiel behandelt einen Modulo 8 Ru¨ ckw¨artsz¨ahler mit JK-FF dS
Y0 = Q0 Mod 8
Folgende rechts stehende Festlegungen werden getroffen:
C
Y1 = Q1
1J
Y2 = Q2
C1 1K
Z¨ahler
¨ U
d
Zustandsfolgetabelle + + C Q2 Q1 Q0 Q+ 2 Q1 Q0 7 1 1 1 1 1 0 6 1 1 0 1 0 1 5 1 0 1 1 0 0 4 1 0 0 0 1 1 3 0 1 1 0 1 0 2 0 1 0 0 0 1 1 0 0 1 0 0 0 0 0 0 0 1 1 1
¨ U 0 0 0 0 0 0 0 1
Q+ 2 : 1
1
dS 1J C1
C
r
r
1
1
1
Q1
d r
r
dS 1J C1
r
1K
1
0
0
Das Zustandsdiagramm verdeutlicht, dass der Z¨ahler beginnend mit 7 r¨uckw¨arts z¨ahlt.
1
1
1
0
0
1
1
0
0 Q1
Q2 J 1 = Q0 K1 = Q0
dS 1J C1 &
r
1K
Q0
1
Q2 J0 = 1 K0 = 1
¨∗ U
Y2 = Q2
d
r
Q+ 0 :
Q0
1
Y1 = Q1
1K Rd
0
Q2 J2 = Q1 ∧Q0 K2 = Q1 ∧Q0
Y0 = Q0
r
Q+ 1 :
Q0
d
&
r Rd - 7 - 6 - 5 - 4 6 ? 0 3 1 2
Asynchrone Z¨ahler werden teilweise durch Impulse getaktet, die intern, d.h. im Z¨ahler, erzeugt werden. Die maximale Z¨ahlfrequenz ist daher i.A. geringer, als die von synchronen Z¨ahlern. Die mit asynchronen Z¨ahlern erreichbare Einsparung von Bauelementen verliert mit zunehmender Integration der Schaltungen an Bedeutung.
2.5.10 Puffer- und Schieberegister Pufferregister der L¨ange n sind in der Lage, n Bits aufzunehmen und fu¨ r eine von ihrem Taktsignal abh¨angige Zeit, f¨ur die Weiterverarbeitung bereitzuhalten. Sie werden auch als Auffangregister bezeichnet. Die nachstehemde Abbildung zeigt links ein 4-Bit Pufferregister und rechts das zugeh¨orige Schaltsymbol. Die einzelnen FF sind durch eine gemeinsame Takt- und R u¨ cksetzleitung miteinander verbunden.
2.5 Die Flipflops
151
Dr0
C Rd
Dr1
r
Dr2
r 1D C1 bR
D3
r 1D C1 bR
b
1D C1 bR
b
Q0
1D C1 bR
b
Q1
Q2
b Q3
C Rd
cR
C1
D0 D1 D2 D3
1D 1D 1D 1D
Q0 Q1 Q2 Q3
Gleichzeitig gelangen die Datenbits D0 , . . . , D3 in das Register. Ebenfalls gleichzeitig kann das Register wieder r¨uckgesetzt werden. Diese Gleichzeitigkeit begrenzt die L¨ange eines solchen Registers, da der parallel anliegende Takt einen Strom beno¨ tigt, der der Summe der Teilstr¨ome entspricht. Schieberegister finden eine sehr breite Anwendung in der digitalen Realisierung vorgegebener Funktionen und Algorithmen. Insbesondere in der Kanalcodierung sind die Schieberegister nicht wegzudenken, aber auch als Parallel-Serien-Umsetzer oder Serien-Parallel-Umsetzer k o¨ nnen sie verwendet werden. Q0 SE
Rd C
q
q
1D C1 aR
Q1
q
q
q
Q2
q
1D C1 aR
1D C1 aR
q
SA
C 0 SE Q0 Q1 SA
1
2
3
SRG 3
q C1 → Rd cR C
SE
1D
Q0 Q1 SA
Die oben stehende Schaltung weist einen seriellen Eingang SE sowie einen seriellen Ausgang SA auf. Das nebenstehende Impulsdiagramm verdeutlicht die Funktionsweise. Eine Eins am Eingang wird mit dem Takt von FF zu FF weitergereicht. In dem rechts stehenden Symbol dieses Schieberegisters, ist die Schieberichtung durch den nach rechts zeigenden Pfeil angegeben. Beispiel 2.33 Parallel-Seriel-Umsetzer: Zum Entwurf eines dreistufigen Umsetzers wird die Festlegung getroffen, daß der Umsetzer durch ein Steuersignal X gesteuert wird. X = 0 sperrt sperrt die Dateneinga¨ nge, f¨ur X = 1 sind sie freigegeben.
X 0 0 0 0 1 1 1 1
Q0 0 0 1 1 0 0 1 1
E1 0 1 0 1 0 1 0 1
D1 0 0 1 1 0 1 0 1
Q0 E1
D1 Schaltnetz
SRG 3
X
C
D1 = (X∧E1 ) ∨ (X∧Q0 ) E1 1 1
1
1
Q0
X 0 E0 E1 E2
r C1
2→ G2 1, 2D 1, 2D 1, 2D 1, 2D
SA
Gilt X = 0, so werden die Datenbits von einer FF-Stufe zur n¨achsten weitergereicht. F¨ur X = 1 wird das Datenbit am i-ten Eingang Ei in die i-te Stufe aufgenommen.
X
Zur Entwicklung der Schaltung ist es ausreichend, eine FF-Stufe zu betrachten. Nach der obigen Tabelle kann die ben¨otigte Ansteuerung f¨ur die erste FF-Stufe hergeleitet werden.
152
2 Grundlagen der Digitaltechnik
In die nullte FF-Stufe werden Nullen als Dummy-Bits gelagen, so dass das Register in drei Schiebeschritten gel¨oscht werden kann. E0
E1 &
0
r
X
&
≥1
d
1
r
&
≥1
1D
&
C
E2
&
C1
r
r
r
≥1
1D
SA
1D
&
C1
C1
r r
F¨ur diesen Parallel-Serien-Umsetzer soll nun ein konkretes Beispiel analysiert werden. Hierbei ist die Taktzeit und die parallel eingehenden Bits vorgegeben. E0 1 0 0
Beispiel 2.34 F¨ur einen Parallel-Seriel-Umsetzer soll entsprechend der rechts nebenstehenden Tabelle das Impulsdiagramm angegeben werden. C
1
3
2
5
4
E1 1 1 1
E2 1 0 0
7
6
=⇒ SA = 111010010.
9
8
E0
E01
E02
E03
E1
E11
E12
E13
E2
E21
E22
E23
X Q0
E01
01
01
E02
02
02
E03
03
03
Q1
E11
E01
01
E12
E02
02
E13
E03
03
SA = Q2
E21
E11
E01
E22
E12
E02
E23
E13
E03
Beispiel 2.35 Seriel-Parallel-Umsetzer: In der nachstehenden Abbildung ist ein Serien-Parallel-Umsetzer dargestellt. Als Steuersignal wird X verwendet. F¨ur X = 0 ist das Schieben der Information im Register freigegeben und die parallele Ausgabe gesperrt, bzw. f¨ur X = 1 ist die parallele Ausgabe freigegeben. Y0
Y1
&
SE
1D C1
C X
Y2
&
r
1D
Q0
C1
r
&
r
1D
Q1
C1
Q2
r r
r
Mit Hilfe des Serien-Parallel-Umsetzer sollen die seriellen Bits wieder parallel umgesetzt werden:
2.5 Die Flipflops C
1
SE
153 3
2 E21
E11
5
4 E01
E22
E12
6
7
8
9
E02
E23
E13
E03
X Q0
E21
Q1
E11
E01
E22
E12
E02
E23
E13
E03
E21
E11
E01
E22
E12
E02
E23
E13
E21
E11
E01
E22
E12
E02
E23
Q2
Es ist deutlich zu erkennen, dass jeweils zeitgleich mit dem Signal X = 1 die Bits E ij am i¨ m¨ogen sich die Studierenden u¨ berlegen, welcher ten Ausgang Yi parallel anliegen. Zur Ubung Ausgangsbitstrom entsteht und wie die sich bildende Pausenzeit zwischen zwei Bits aufgef u¨ llt werden kann.
¨ 2.5.11 Ruckgekoppelte Schieberegister R¨uckgekoppelte Schieberegister finden in der Praxis viele Anwendungen. Stichwo¨ rter hierzu sind Scambler, Codier- und Decodierschaltungen (vgl. Abschn. 5.3.6), PN-Sequenzen sowie Rechenschaltungen zur Multiplikation und Division von Polynomen. Der Name der Register kommt von der R¨uckf¨uhrung des Ausgangs A zum Eingang E, wie im folgenden Beispiel zu sehen ist. Beispiel 2.36 Die folgende Schaltung dividiert ein Polynom, das durch die Eingangssequenz SE = (xn , . . . , x1 , x0 gegeben ist, durch g(x) = x3 + x + 1. Es gilt: SE = (1, 1, 0, 0, 0, 0, 0): r SE
=1
1D C1
=1 Q0
r
C
1D C1
1D
Q1
C1
r- SA Q2
r
Sind alle Eingangsbits in das r¨uckgekoppelte Schieberegister gelangt, so ist die Ausgangsfolge SA und der im Register verbliebenen Rest bestimmt. Die Verwendung der Antivalenz generiert hier die mod2 Rechnung: x x6 + x5 = x3 + x2 + x + 3 mod 2 +x+1 x +x+1
x3
SE 1 1 0 0 0 0 0
Q0 = S0 SE ⊕ Q2 1 1 0 1 1 1 0
Q1 = S1 Q0 ⊕ Q2 0 1 1 1 0 0 1
Q2 = S2 Q2 = SA 0 0 1 1 1 0 0
Die obige Schaltung kann vereinfacht dargestellt werden:
r
SE
? - i- s0
? - i- s1
Schalter PP r
- s2
-
Der Rest Q0 =x ˆ 0 , Q1 =x ˆ 1 , Q2 =x ˆ 2 der Division ist leicht in der letzten Zeile der Tabelle ablesbar. 2 Das Vielfache Q2 = x + x + x3 steht in der Spalte SA , beginnend mit x0 in der vorletzten Zeile aufw¨arts gelesen.
154
2 Grundlagen der Digitaltechnik
2.6 Abh¨angigkeitsnotation Die Abh¨angigkeitsnotation dient einer verk¨urzten und dennoch eindeutigen Beschriftung der Symbole f¨ur komplexe Schaltungen. Sie erlaubt eine Kennzeichnung voneinander abh¨angiger Ein- und Ausg¨ange. Nachfolgend sind einige wichtige Abh¨angigkeitsnotationen der umfangreichen DIN 40900 Teil 12 dargestellt. Eine etwas ausfu¨ hrlichere Darstellung findet sich in [9].
2.6.1 G-Abh¨angigkeit Die nachstehende Abbildung zeigt einige Beispiele der G-Abh¨angigkeit (Gate), die auch als UNDAbh¨angigkeit bezeichnet werden kann. Der Gm Eingang ist der steuernde Eingang. Er steuert die Eing¨ange mit der gleichen Nummerierung m. Ist die Nummerierung invertiert, so wird sinngem¨aß auch die Steuerung invertiert (siehe obere Darstellung in Anschluss c). a b c
1 G1 IN 1
a
1
≡
G1 e
≡
b
a b s & e & c a
s 1 e b
&
In der linken Bildh¨alfte ist die Abh¨angigkeitsnotation und in der rechten Bildh¨alfte ist die ausf¨uhrliche Darstellung zu sehen. Im unteren Bild ist dargestellt, dass auch ein Gm Ausgang einen Eingang beeinflussen kann. Wichtig ist hierbei, dass der innere Zustand und nicht der a¨ ußere negierte Zustand auf den Eingang r¨uckgef¨uhrt wird.
2.6.2 V-Abh¨angigkeit Die V-Abh¨angigkeit kann auch als ODER-Abh¨angigkeit bezeichnet werden, da die Verknu¨ pfungsart eine ODER-Verkn¨upfung ist.
a
V1
1
b
V1 1
a b
≡
≡
≥1
a
s
b
a ≥1
b
Wenn ein Vm Anschluss sich im 1-Zustand befindet, so erhalten auch alle von ihm gesteuerten Anschl¨usse eine 1.
2.6 Abh¨angigkeitsnotation
155
2.6.3 N-Abh¨angigkeit Nachstehend ist ein Beispiel f¨ur die N-Abh¨angigkeit (Negativ-Abh¨angigkeit) dargestellt. Befindet sich ein Nm Anschluss im internen 1-Zustand, so werden die Logik-Zust¨ande der von ihm gesteuerten Anschl¨usse invertiert.
a
s
b
N1
≡
c
1
b c
=1
a
f¨ur a = 0 folgt c = b f¨ur a = 1 folgt c = b
2.6.4 Z-Abh¨angigkeit Die Z-Abh¨angigkeit ist die Verbindungsabh¨angigkeit. Befindet sich ein Zm Anschluss im internen 1-Zustand, so besitzen die von ihm gesteuerten Anschlu¨ sse ebenfals den internen 1-Zustand. Befindet sich ein Zm Anschluss im internen 0-Zustand, so besitzen die von ihm gesteuerten Anschl¨usse den internen 0-Zustand.
a
Z1
1
a
≡
b
b 1
Z1 e a
IN 1
≡
e1
s 1 e a ?
2.6.5 C-Abh¨angigkeit Die C-Abh¨angigkeit ist die Steuerabh¨angigkeit (Taktsteuerung). Befindet sich ein Cm Anschluss im internen 1-Zustand, so besitzen die von ihm gesteuerten Eing¨ange ihre normal definierte Wirkung auf die Funktion des Elements. Befindet sich ein Cm Anschluss im internen 0-Zustand, so besitzen die von ihm gesteuerten Eing¨ange keine Wirkung. a b c
1S C1 1R
a b
1D C1
d e e
a ≡
d
& R
e e
& S s e& R
c
a s
c e d
b c
& S s
≡
b
e d
156
2 Grundlagen der Digitaltechnik
2.6.6 S- und R-Abh¨angigkeit Die S-Abh¨angigkeit ist die Setzabh¨angigkeit und die R-Abh¨angigkeit ist die R¨ucksetzabh¨angigkeit. Befindet sich ein Sm Anschluss im internen 1-Zustand, so besitzen die von ihm gesteuerten Ausg¨ange den Logik-Zustand, den sie normalerweise bei der Eingangskombination S = 1 und R = 0 h¨atten. Befindet sich ein Rm Anschluss im internen 1-Zustand, so besitzen die von ihm gesteuerten Ausg¨ange den Logik-Zustand, den sie normalerweise bei der Eingangskombination S = 0 und R = 1 h¨atten. c e d
a b
S R
a b
S1 R
c 1 1 e d
a b
S1 R2
c 1 2 e d
a
s G1 IN 2S s G2
b
IN 1R
a 0 0 1 1
b 0 1 0 1
c u 0 1 x
d u 1 0 x
a 0 0 1 1
b 0 1 0 1
c u 0 1 1
d u 1 0 0
a 0 0 1 1
b 0 1 0 1
c u 0 1 1
d u 1 0 1
a 0 0 1 1
b 0 1 0 1
c u 0 1 u
d u 1 0 u
c e d
x - unbestimmt,
u - unver¨andert (speichern)
Befindet sich ein Sm bzw. ein Rm Anschluss im internen 0-Zustand, so besitzen sie keine Wirkung.
2.6.7 EN-Abh¨angigkeit Die EN-Abh¨angigkeit (Enable) ist die Freigabeabh¨angigkeit. Befindet sich ein ENm Anschluss im internen 0-Zustand, so besitzen die von ihm gesteuerten Eing¨ange keine Wirkung. Sie sind gesperrt. Befindet sich ein ENm Anschluss im internen 1-Zustand, so besitzt er keine Wirkung. Die von ihm gesteuerten Eing¨ange sind freigegeben.
2.6 Abh¨angigkeitsnotation
157
a
2 EN2
s 1 e
EN
2
b s
d
f¨ur a = 0 folgt d = c f¨ur a = 1 folgt d = b
c
2.6.8 A-Abh¨angigkeit Die A-Abh¨angigkeit ist die Adressenabh¨angigkeit. Die Kennzahl m eines Am Eingangs entspricht der Adresse des angew¨ahlten Speicherwortes. Befindet sich ein Am Anschluss im internen 1Zustand, so besitzen die von ihm gesteuerten Eing¨ange ihre normal definierte Wirkung auf die Bits des Speicherwortes. Befindet sich ein Am Anschluss im internen 0-Zustand, so besitzen die von ihm gesteuerten Eing¨ange keine Wirkung auf die Bits des Speicherwortes. a b c d e g
a
A1 A2 A3 C4 A, 4D
≡ A
f
EN1 EN2
b c d e
h g
EN3 C4 s 1, 4D s 2, 4D 3, 4D s 1, 4D s 2, 4D 3, 4D
1 2 ≥1 3 1 2 ≥1 3
f
h
2.6.9 M-Abh¨angigkeit Die M-Abh¨angigkeit ist die Mode-Abh¨angigkeit. Die Kennzahl m eines Mm Eingangs entspricht der Nummerierung des Modes. Befindet sich ein Mm Anschluss im internen 1-Zustand, so besitzen die von ihm gesteuerten Anschlu¨ sse ihre normal definierte Wirkung, der zugeho¨ rige Mode ist ausgew¨ahlt. Befindet sich ein Mm Anschluss im internen 0-Zustand, so besitzen die von ihm gesteuerten Anschl¨usse keine Wirkung. a b c d e f
C4 /2 → /3+ ) 0 M 03 1
2, 4D 1, 4D 1, 4D
a
M1
1CT = 15 1CT = 0
s b
158
2.6.10
2 Grundlagen der Digitaltechnik
¨ Ubersicht Abh¨angigkeitsart Adresse
Buchstabe (n) A
Steuerung Freigabe
C EN
Und Mode
G M
Negation R¨ucksetz
N R
Setz
S
Oder Verbindung
V Z
Wirkung auf gesteuerten Eingang oder Ausgang 1-Zustand 0-Zustand erlaubt Aktion (Adresse angew¨ahlt) erlaubt Aktion erlaubt Aktion
verhindert Aktion (Adresse nicht angew¨ahlt) verhindert Aktion verhindert Aktion gesteuerter Eing¨ange – offene Ausg¨ange (z.B. OC) hochohmig (gesperrt) – 3-state-Ausg¨ange hochohmig (High Z) – 0-Zustand an sonstigen Ausg¨angen erlaubt Aktion bewirkt den 0-Zustand erlaubt Aktion verhindert Aktion (Modus ausgew¨ahlt) (Modus nicht ausgew¨ahlt) komplementiert Zustand keine Wirkung gest. Ausgang reagiert keine Wirkung wie bei S = 0 und R = 1 gest. Ausgang reagiert keine Wirkung wie bei S = 1 und R = 0 bewirkt 1-Zustand erlaubt Aktion bewirkt 1-Zustand bewirkt 0-Zustand
2.7 Aufgaben zur Digitaltechnik
159
2.7 Aufgaben zur Digitaltechnik 2.7.1 Grundlagen - Zahlensysteme - Schaltalgebra Aufgabe 2.7.1 Wandeln Sie die folgenden Zahlen in das Dezimalsystem um. a) 1101102 , b) 110.112 , c) 12316 , d) 21078
L¨osung: a) 54, b) 6.75, c) 291, d) 1095
Aufgabe 2.7.2 Wandeln Sie die folgenden Zahlen in das Dualsystem um. a) 52110 , b) 21078 , c) 12316 , d) CDE16
L¨osung: a) 1000001001, b) 10001000111, c) 100100011, d) 110011011110
Aufgabe 2.7.3 Rechnen im Dualsystem a) 110 + 11, b) 110 − 11, c) 1111 + 1001, d) 11.11 + 10.01 e) 111110.1011 + 101001.011 + 1001, f) 111110.1011 − 101001.011 − 1001 g) Berechnen Sie mit Hilfe des BKomplements 11000 − 10101 im Dualund im Dezimalsystem.
L¨osung: a) 1001, b) 11, c) 11000, d) 110 e) 1110001.0001, f) 1100.0101 g) 11000 − 10101 = 11000 + 01011 = 1|00011, 24 − 21 = 24 + 79 = 1|03 Das B-Komlement von −21 = 79. Im Er¨ gebnis 1|03 muss der Ubertrag entfallen, so dass gilt: 24 − 21 = 03
Aufgabe 2.7.4 Entwerfen Sie einen Bin¨ar-Code f¨ur die Dezimalzahlen 0 – 9 mit der Wertigkeit (8, 4, -3, 2) L¨osung:
Dezimalziffer 0 2 x x 4 6 1 3
8 0 0 0 0 0 0 0 0
Wertigkeit 4 -3 0 0 0 0 0 1 0 1 1 0 1 0 1 1 1 1
2 0 1 0 1 0 1 0 1
Dezimalziffer 8 x 5 7 x x 9 x
8 1 1 1 1 1 1 1 1
Wertigkeit 4 -3 0 0 0 0 0 1 0 1 1 0 1 0 1 1 1 1
2 0 1 0 1 0 1 0 1
160
2 Grundlagen der Digitaltechnik
Schaltalgebra Aufgabe 2.7.5 Stellen Sie f¨ur das nebenstehende NOR-Element mit einem negierten Eingang die Wahrheitstabelle auf. a c ≥1 c y b c
L¨osung: a 0 0 0 0 1 1 1 1
y =a∨b∨c y =a∨b∨c y =a∧b∧c
b 0 0 1 1 0 0 1 1
c 0 1 0 1 0 1 0 1
y 0 0 0 0 1 0 0 0
Aufgabe 2.7.6 Geben Sie zwei M¨oglichkeiten an, ein NANDElement bzw. ein NOR-Element mit zwei Eing¨angen als Inverter zu verwenden. L¨osung: 1 a
c
y =1∧a=a
a
s
≥1 c
y =0∨a=a
a
s
&
0 a
c
y =a∧a=a
≥1 c
y =a∨a=a
&
Aufgabe 2.7.7 Realisieren Sie eine UND- bzw. eine ODERVerkn¨upfung. Zur Verf¨ugung stehen a) nur NAND-Elemente b) nur NOR-Elemente. L¨osung: a a b
&
c
s
&
c
s
s
c &
s
&
≥1 c
a b
≥1 c
y =a∨b c
c
≥1 c y =a∧b ≥1 c
b
&
y =a∧b=a∧b b
a
s
s
y =a∨b ≥1 c
2.7 Aufgaben zur Digitaltechnik
161
Aufgabe 2.7.8 q
q
≥ 1
q Analysieren Sie mit Hilfe der Schaltalgebra (y = f kt(A, B, C, D)) die nebenstehende Schaltung.
q q q
1
q
1
q
1
q
1
b b b b
≥ 1
Y4 ≥ 1
Y1 ≥ 1
Y
Y5
q
&
q
b
Y3
&
b
Y2
q q q q
ABCD
ABCD
L¨osung: y
= y1 ∨ y2 = y1 ∨ (b ∧ c) = y1 ∨ b ∨ c = y4 ∨ y3 ∨ b ∨ c = y3 ∨ (a ∨ a) ∨ b ∨ c = y3 ∨ 1 ∨ b ∨ c = 1
Aufgabe 2.7.9 Durch Zusammenschaltung von NAND-Elementen mit zwei Eing¨angen soll eine AntivalenzVerkn¨upfung entstehen. Formen Sie hierzu bitte den algebraischen Ausdruck der AntivalenzVerkn¨upfung durch mehrfaches Negieren so um, daß dieser nur noch aus NAND-Verkn u¨ pfungen besteht (2 M¨oglichkeiten). 2. L¨osung:
1. L¨osung: = (a ∧ b) ∨ (a ∧ b)
y
y
= (a ∧ b) ∨ (a ∧ b)
= (a ∧ (a ∨ b)) ∨ (b ∧ (a ∨ b))
= (a ∧ b) ∧ (a ∧ b) r
r r
a
r r r b
& c & c
& c & c
& c
= (a ∧ b) ∨ (a ∧ b) = (a ∧ b) ∨ (a ∧ a) ∨ (a ∧ b) ∨ (b ∧ b) = (a ∧ (a ∨ b) ) ∨ (b ∧ (a ∨ b) )
y
= (a ∧ (a ∧ b) ) ∨ (b ∧ (a ∧ b) ) = (a ∧ (a ∧ b) ) ∧ (b ∧ (a ∧ b) ) a b
r r
& cr
& c & c
& c
y
Aufgabe 2.7.10 Entwerfen Sie eine programmierbare Schaltung mit der Variablen a am Eingang und einer Setzva-
162
2 Grundlagen der Digitaltechnik
riablen S. F¨ur S = 0 soll die Ausgangsvariable y = a sein und fu¨ r S = 1 soll y = a sein. Stellen Sie die Wahrheitstabelle auf, und leiten Sie daraus die beno¨ tigte Schaltfunktion ab. L¨osung: Ein Antivalenz-Element besitzt die geforderten Eigenschaften. An einen Eingang wird S, an den anderen a gelegt. a S 0 0 0 1 1 0 1 1
y 0 1 1 0
a S
y = (a ∧ S) ∨ (a ∧ S)
=1
Aufgabe 2.7.11 Geben Sie bitte f¨ur die nebenstehende Wahrheitstabelle die disjunktive Normalform (DNF) und die konjunktive Normalform (KNF) f¨ur die Ausgangsvariable y an.
L¨osung: i 0 1 2 3 4 5 6 7
c 0 0 0 0 1 1 1 1
b a 0 0 0 1 1 0 1 1 0 0 0 1 1 0 1 1
y 1 0 0 0 1 1 0 1
Schaltfunktion: DNF: y = m0 ∨ m4 ∨ m5 ∨ m7 KNF: y = M6 ∧ M5 ∧ M4 ∧ M1 Umkehrfunktion: KNF: y = M7 ∧ M3 ∧ M2 ∧ M0 DNF: y = m1 ∨ m2 ∨ m3 ∨ m6
Aufgabe 2.7.12 Stellen Sie bitte f¨ur die nachstehenden Schaltfunktionen die Wahrheitstabellen auf, und ermitteln Sie daraus dann die DNF und die KNF. a) y(c, b, a) = b ∨ a b) y(c, b, a) = a ∧ (c ∧ b) L¨osung: c b a 0 0 0 0 0 1 0 1 0 0 1 1 1 0 0 1 0 1 1 1 0 1 1 1
y 1 1 1 0 1 1 1 0
DNF: y = m 0 ∨ m1 ∨ m2 ∨ m4 ∨ m5 ∨ m6 KNF: y = M 4 ∧ M0
c 0 0 0 0 1 1 1 1
b 0 0 1 1 0 0 1 1
a 0 1 0 1 0 1 0 1
y 1 1 1 0 1 0 1 0
DNF: y = m 0 ∨ m1 ∨ m2 ∨ m4 ∨ m6 KNF: y = M 4 ∧ M2 ∧ M0
2.7 Aufgaben zur Digitaltechnik
163
2.7.2 Analyse von Schaltnetzen und Minimierung Aufgabe 2.7.13 Geben Sie f¨ur die nebenstehende Schaltung die Minterme (Abs. 2.2.7) an. Gesucht sind die Terme, f¨ur die die Ausgangsvariable y den Wert 1 annimmt (Bewertung: x0 = 1, x1 = 2).
x0 x1
r
≥1 d
r
≥1 d 1
d
1
d
Die Analyse ergibt: y = x0 ↔ x1
L¨osung:
Aufgabe 2.7.14 Stellen Sie f¨ur die nebenstehende Schaltung eine Wahrheitstabelle auf. Diese Tabelle soll f¨ur die acht Ansteuerf¨alle der Eingangsvariablen x2 , x1 und x0 angeben, welche Werte die Variablen h3 und y annehmen.
x0 x1
&
h3 y
Minterme: y = m0 ∨ m3
h1
r h3
≥1
&
= (x0- x1 ) = (x0- x1 )- x2
& 1
c
1
c
h4 ≥1
r
x2
L¨osung:
x2 0 0 0 0 1 1 1 1
x1 0 0 1 1 0 0 1 1
& x0 0 1 0 1 0 1 0 1
h3 0 1 1 0 0 1 1 0
a b Analysieren Sie die nebenstehende Schaltung. Ermitteln Sie dazu f¨ur die vier Kombinationsm¨oglichkeiten der Steuervariablen S0 und S1 , welche Funktionen oder Werte die Ausgangsvariable F annimmt.
q
h5
q
& b&
q
=1
&
S0 S1
L¨osung: S1 0 0 1 1
S0 0 1 0 1
y
y 0 1 1 0 1 0 0 1
Aufgabe 2.7.15
F = (a ∧ b) ∨ (a ∧ S0 ) ∨ (b ∧ (S0- S1 ))
y
≥1 d
h2 x0 x1
d
1
F (a ∧ b) ∨ a ∨ 0 = a (a ∧ b) ∨ 0 ∨ b = b (a ∧ b) ∨ a ∨ b = a ∨ b (a ∧ b) ∨ 0 ∨ 0 = a ∧ b
≥1 F
164
2 Grundlagen der Digitaltechnik
Minimierung Aufgabe 2.7.16 ¨ Ubertragen Sie die in der nebenstehenden Tabelle gegebenen Funktionen in entsprechende KV-Tafeln und bestimmen Sie jeweils disjunktive Minimalform DMF und konjunktive Minimalform KMF. L¨osung: Die L¨osungen f¨ur Y1 bis Y5 sind nachstehend zu finden. In diesen einfachen F¨allen sind DMF und KMF der Schaltfunktionen h¨aufig identisch. Anschließend folgen Y6 und Y7 . F¨ur die DMF von Y7 sind weitere L¨osungen m¨oglich.
Y1 :
d 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
c 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
b a 0 0 0 1 1 0 1 1 0 0 0 1 1 0 1 1 0 0 0 1 1 0 1 1 0 0 0 1 1 0 1 1
Y2 :
a 0 1 1 0 0 0 1 1 b c
DMF: Y1 = (b ∧ c) ∨ (a ∧ b) KMF: Y1 = (a ∨ b) ∧ (b ∨ c) Y3 : a 0 x 1 x x 0 0 0 b c DMF: KMF: Y5 :
Y3 = b ∧ c Y3 = b ∧ c
oder oder
Y5 = a ∨ b Y5 = a ∨ b
Y2 = a Y2 = a
Y3 0 × × 0 × 1 0 0
Y4 × 1 0 × 1 1 1 1
Y5 1 × × 1 × 0 1 1
Y6 1 1 1 1 0 0 0 0 0 0 0 0 × × 1 1
Y7 0 0 0 0 1 × 1 1 1 1 1 1 0 1 1 1
oder oder
Y2 = c Y2 = c
a 1 1 1 x b c
Y3 = a ∧ b Y3 = a ∧ b
Y4 = a ∨ c Y4 = a ∨ c
DMF: KMF: Y6 : 1
Y5 = b ∨ c Y5 = b ∨ c
oder oder
Y4 = b ∨ c Y4 = b ∨ c
a 1 x x 1 1
d oder oder
Y2 × 1 × 1 0 × 0 ×
a x 0 x 1 x 0 x 1 b c
DMF: KMF: Y4 : x 1 0 1
a 1 x 0 x x 1 1 1 b c
DMF: KMF:
Y1 0 0 0 1 1 1 0 1
1
1
b
c DMF: KMF:
Y6 = (c ∧ d) ∨ (c ∧ d) Y6 = (c ∧ d) ∨ (c ∧ d) Y6 = (c ∨ d) ∧ (c ∨ d)
2.7 Aufgaben zur Digitaltechnik Y7 :
165 DMF: Y7 = (c ∧ d) ∨ (c ∧ d) ∨ (a ∧ d) ∨ (b ∧ d) KMF: Y7 = (c ∧ d) ∨ (a ∧ b ∧ c ∧ d) Y7 = (c ∨ d) ∧ (a ∨ b ∨ c ∨ d)
a x 1 1 1 1 b 1
1 1 d 1 1 1 c
2.7.3 Synthese von Schaltungen Aufgabe 2.7.17 Entwerfen Sie f¨ur den 8–4–(-3)–(-2)-Code ein Schaltnetz, das einen am Eingang anliegenden Pseudozustand mit dem Ausgangssignal y = 1 meldet. Die Eingangsvariablen d, c, b und a sind nur in Eigenform verf¨ugbar. Das Schaltnetz ist mit NOR-Elementen zu entwerfen und soll m¨oglichst einfach sein. L¨osung: Wahrheitstabelle und Minimierung:
y:
a 1
Dezimalziffer 0 × × × 4 2 1 × 8 6 5 3 × × 9 7
8 4 −3 −2 d c b a 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1 1 0 1 0 0 0 1 0 1 0 1 1 0 0 1 1 1 1 0 0 0 1 0 0 1 1 0 1 0 1 0 1 1 1 1 0 0 1 1 0 1 1 1 1 0 1 1 1 1
1 1
d y 0 1 1 1 0 0 0 1 0 0 0 0 1 1 0 0
1
1 1
b
c DMF:
y = (b ∧ c ∧ d) ∨ (a ∧ b ∧ d) ∨ (b ∧ c ∧ d) ∨ (a ∧ c ∧ d) y = ¬(¬( (b ∨ c ∨ d) ∨ (a ∨ b ∨ d) ∨ (b ∨ c ∨ d) ∨ (a ∨ c ∨ d) ))
Aufwand (DMF): 5 Inverter, 4 NOR mit 3 Eing¨angen, 1 NOR mit 4 Eing¨angen KMF:
y = (b ∧ c ∧ d) ∨ (a ∧ c ∧ d) ∨ (a ∧ b ∧ d) ∨ (c ∧ d) ∨ (b ∧ d) y = ¬( (b ∨ c ∨ d) ∨ (a ∨ c ∨ d) ∨ (a ∨ b ∨ d) ∨ (c ∨ d) ∨ (b ∨ d) )
Aufwand (KMF): 3 Inverter, 2 NOR mit 2 Eing¨angen, 3 NOR mit 3 Eing¨angen, 1 NOR mit 5 Eing¨angen
F¨ur die KMF sind hier weitere L¨osungen m¨oglich.
166
2 Grundlagen der Digitaltechnik
Aufgabe 2.7.18 Die Dezimalziffern 0 bis 9 sind im 8–4–2–1-Code gegeben (D, C, B, A). Sie sollen mit einer 7-Segment-Anzeige wie folgt dargestellt werden: a f
b g
e
c
d a) Geben Sie die Schaltfunktionen des Code-Umsetzers in disjunktiver Minimalform an. Dabei soll einem leuchtenden Segment der Wert 0 der entsprechenden Variablen zugeordnet sein. b) Wie werden die Pseudozust¨ande mit den Schaltfunktionen nach (a) angezeigt? L¨osung:
Nebenstehend ist die Wahrheitstabelle f¨ur den Code-Umsetzer zur Ansteuerung einer 7-SegmentAnzeige gegeben. Dabei ist noch nicht festgelegt worden, wie die Anzeige f¨ur die Pseudozust¨ande aussieht.
Ziffer 0 1 2 3 4 5 6 7 8 9 × .. .
D 0 0 0 0 0 0 0 0 1 1 1
×
1
C 0 0 0 0 1 1 1 1 0 0 0
B 0 0 1 1 0 0 1 1 0 0 1
A 0 1 0 1 0 1 0 1 0 1 0
g f e d c b a 1 0 0 0 0 0 0 1 1 1 1 0 0 1 0 1 0 0 1 0 0 0 1 1 0 0 0 0 0 0 1 1 0 0 1 0 0 1 0 0 1 0 0 0 0 0 0 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 × × × × × × × .. .
1
1
× × × × × × ×
.. . 1
Die Minimierung f¨ur die sieben Ausgangsvariablen: g:
f:
A 1
1 x x D x x x x 1 C
B
e:
A
1 x x D x x x x 1
1 1 C
g = (D ∧ C ∧ B) ∨ (C ∧ B ∧ A) f = (C ∧ B) ∨ (B ∧ A) ∨ (D ∧ C ∧ A)
B
d:
A
1 1 1 x x 1 D x x x x 1 1 C
B
A
1 1 x x 1 D x x x x 1
B
C
e = A ∨ (C ∧ B) d = (C ∧ B ∧ A) ∨ (C ∧ B ∧ A) ∨ (C ∧ B ∧ A)
2.7 Aufgaben zur Digitaltechnik c:
D
b:
A x x x x x x 1 C
167
B
a:
A
1 x x D x x x x 1
A 1 1 x x D x x x x
B
C
c=C ∧B∧A b = (C ∧ B ∧ A) ∨ (C ∧ B ∧ A)
B
1 C
a = (D ∧ C ∧ B ∧ A) ∨ (C ∧ A)
Um zu ermitteln, wie Pseudozust¨ande angezeigt werden (siehe nebenstehende Tabelle), ist einer der folgenden Wege zu gehen: • Es wird untersucht, wie die x-Felder in Vereinfachungsbl¨ocke einbezogen worden sind. Z.B. wurde f¨ur g nur x = (A ∧ B ∧ C ∧ D) benutzt.
D 1 1 1 1 1 1
C 0 0 1 1 1 1
B 1 1 0 0 1 1
A 0 1 0 1 0 1
g 0 0 0 0 0 1
f 1 1 0 0 0 1
e 0 1 1 1 0 1
d 0 0 1 0 0 1
c 1 0 0 0 0 0
b a 0 0 0 0 0 1 1 0 1 1 0 0
Ziffer 2 3 4 5 6 7
• Man setzt die aktuellen Werte der Eingangsvariablen in die Schaltfunktionen ein. Aufgabe 2.7.19 Es ist eine Schaltung mit Multiplexern zu entwerfen, die das folgende Ausgangssignal liefert: Y = (D ∧ C ∧ B ∧ A) ∨ (D ∧ C ∧ B ∧ A) ∨ (D ∧ C ∧ B ∧ A) ∨ (D ∧ C ∧ B ∧ A) ∨ (D ∧ C ∧ B ∧ A) Zum Schaltungsaufbau stehen zur Verf¨ugung: a) Ein 16-Kanal Multiplexer. b) Ein 8-Kanal Multiplexer. c) Zwei 4-Kanal Multiplexer mit voneinander unabh¨angigen Freigabe-Eing¨angen.
168
2 Grundlagen der Digitaltechnik
L¨osung: Wahrheitstabelle zur Schaltfunktion Y: D 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 A B C D
1 1 0 1 0 1 1 1 0 1 1 0 1 1 0 1 0
15 14 13 11 8 7 6 5 4 3 2 1 23 22 21 20 19 18 17 16 9
C 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
B 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
9MUX > > > > > > > = G 0 15 > > > > > > > ;
0
3 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
cEN SN 74150
A 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
Y 0 0 1 0 1 0 0 0 1 0 0 1 0 0 1 0 11 10 9
B C D
r r c 10 Y
r
4 3 2 r1 15 14 r 13 12
r A A
0
7
Die Multiplexer-Schaltungen sind nachstehend zu sehen. Links ist dabei ein 16-Kanal Multiplexer SN74150 eingesetzt worden. Zum Ausgleich des invertierenden Ausgangs dieses Bausteins liegen an den Dateneing¨angen die inversen Zust¨ande.
9MUX > > > > = G 0 7 > > > > ;
0 2 0 1 2 3 4 5 6 7
14 2
B C
D
0 5
c6
Y
A A
0 D
cEN
A A
SN 74151
0 A
1
;
cEN
6 5 4 3 15
9 =
0 1
G 0 3
MUX
0 1 2 3
7
≥ 1
c
10 11 12 13
9
SN 74153
Y
2.7 Aufgaben zur Digitaltechnik
169
Aufgabe 2.7.20 X / OCT Ein Code-Umsetzer nach nebenstehendem Bild ist mit einem 32 · 8 bit ROM TBP 18S030 zu entwerfen. Geben Sie Schaltung und Programmiertabelle an.
A B C
0 1 2 3 4 5 6 7
1 2 4
a b c d e f g h
L¨osung: Programmiertabelle des Code-Umsetzers: Adresse Sedezimal (Hexadezimal) 0 1 2 3 4 5 6 7 8 .. .
– 0 0 0 0 0 0 0 0 0
1F
1
Inhalt
– 0 0 0 0 0 0 0 0 1
Dual C 0 0 0 0 1 1 1 1 0 .. .
B 0 0 1 1 0 0 1 1 0
A 0 1 0 1 0 1 0 1 0
1
1
1
1
h 0 0 0 0 0 0 0 1
g 0 0 0 0 0 0 1 0
f 0 0 0 0 0 1 0 0
Dual e d 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0
b 0 1 0 0 0 0 0 0
a 1 0 0 0 0 0 0 0
Sedezimal (Hexadezimal) 01 02 04 08 10 20 40 80
(Hier nicht ben¨otigt)
Schaltung des Code-Umsetzers: PROM 32 · 8 ⎫ 0⎪ A [0]A ⎪ 11 ⎪ ⎪ B [ 1]A ⎬ 12 0 A 31 C [2]A ⎪ 13 ⎪ ⎪ [3]A ⎪ ⎭ s14 4 [4]A [5]A [6]A 15 s e EN [7]A 0 TBP 18 S 030 10
c 0 0 1 0 0 0 0 0
1 2 3 4 5 6 7 9
a b c d e f g h
170
2 Grundlagen der Digitaltechnik
2.7.4 Flipflops und synchrone Z¨ahler Aufgabe 2.7.21 Erg¨anzen Sie die folgenden Impulsdiagramme. Die jeweiligen Anfangsstellungen sind in den Bildern gekennzeichnet. Sie k¨onnen davon ausgehen, daß alle Vorbereitungszeiten eingehalten werden. a) a b c
dS dS R
Q1 d Q2
Die SetEing¨ange sind ODERverkn¨upft
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
a b c Q1 Q2
b) a a b
Q1 S 1 R1 1 d Q2
b Q1 Q2
L¨osung: a) a b c
dS dS R
Q1 d Q2
Die SetEing¨ange sind ODERverkn¨upft
a b c Q1 Q2
2.7 Aufgaben zur Digitaltechnik b)
171
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
a a b
Q1 S 1 R1 1 d Q2
b Q1 Q2
Aufgabe 2.7.22 (wie Aufgabe 2.7.21) a)
a b c
d1D C1 dR
b Q d IN Q
a c Q
b) b a b c d
1J Q d C1 d IN Q 1K dR
a c d Q
L¨osung: a)
a b c
d1D C1 dR
b Q d IN Q
a c Q
172
2 Grundlagen der Digitaltechnik
b)
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
b a b c d
1J Q d C1 d IN Q 1K dR
a c d Q
Aufgabe 2.7.23 (wie Aufgabe 2.7.21) a) b a b c d
1J Q C1 1K d IN Q dR
QM = Q(Master)
a c d QM Q
b) b a b c
1D C1 dR
Q d IN Q
QM = Q(Master)
a c QM Q
2.7 Aufgaben zur Digitaltechnik L¨osung: a)
173
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 t11 t12 t13 | | | |
b a b c d
1J Q C1 d IN Q 1K dR
QM = Q(Master)
a c d QM Q
b) b a b c
1D C1 dR
Q d IN Q
QM = Q(Master)
a c QM Q
Z¨ahler Aufgabe 2.7.24
eS 1J C1 1K eR
Mit f¨unf JK-Flipflops (siehe rechts oben) ist ein Ringz¨ahler gem¨aß Tabelle (rechts unten) zu entwerfen.
a) Geben Sie die Schaltung an. b) Welchen Vorteil hat der Z¨ahler? ¨ c) Sind Anderungen erforderlich, wenn die JKFlipflops durch RS-Flipflops ersetzt werden sollen?
e
0 1 2 3 4
Q4 0 0 0 0 1
Q3 0 0 0 1 0
Q2 0 0 1 0 0
Q1 0 1 0 0 0
Q0 1 0 0 0 0
U¨ 0 0 0 0 1
0
0
0
0 .. .
0
1
0
174
2 Grundlagen der Digitaltechnik
L¨osung: a) Der Entwurf einer Stufe ist ausreichend, da alle Stufen gleichartig aufgebaut sind. Die 1 wird durchgereicht. U¨ Q4 Q3 Q2 Q1 Q0 Q+ Q+ Q+ Q+ Q+ 4 3 2 1 0 Q+ Q0 1: 0 0 0 0 0 1 0 0 0 1 0 0 x 0 x 1 1 0 0 0 1 0 0 0 1 0 0 0 0 x x x 2 0 0 1 0 0 0 1 0 0 0 0 IN Q4 Q3 x x x x 3 0 1 0 0 0 1 0 0 0 0 0 Q1 4 1 0 0 0 0 0 0 0 0 1 1 0 x x x 0 x x x Q4 = U¨ Q0 Q1 r x x x x Q4 Q3 dS dS dS 1 1 x x x x r r Q1 1J 1J 1J x x x x C1 C1 C1 d d 1K 1K 1K d Q2 dR dR dR 1
C
r
r
r
Q1 = 0 : J1 = Q0 Q1 = 1 : K1 = IN Q0
r
IN pon
b) Es ist kein Schaltnetz zur Decodierung des Z¨ahlerstands erforderlich. F¨ur n Z¨ahlschritte werden aber n Flipflops ben¨otigt. ¨ ¨ c) Beim Ubergang auf RS-Flipflops sind keine Anderungen erforderlich, da f¨ur alle Flipflops J = K gilt. Die Nebenbedingung f¨ur RS-Flipflops R ∧ S = 0 wird damit erf¨ullt. Aufgabe 2.7.25
Mit vier JK-Flipflops (siehe vorstehende Aufgabe rechts oben) ist ein Johnson-Z¨ahler gem¨aß nebenstehender Tabelle zu entwerfen. a) Geben Sie die Schaltung an. b) Skizzieren Sie das Impulsdiagramm. c) Welchen Vorteil hat der Z¨ahler?
0 1 2 3 4 5 6 7
Q3 0 0 0 0 1 1 1 1
Q2 0 0 0 1 1 1 1 0
0
0
0
Q1 0 0 1 1 1 1 0 0
Q0 0 1 1 1 1 0 0 0
U¨ 0 0 0 0 0 0 0 1
0
0
0
.. .
L¨osung: a) Der Entwurf ist sinngem¨aß wie in 2.7.4 durchzuf¨uhren. Man erh¨alt die folgende Schaltung:
2.7 Aufgaben zur Digitaltechnik
175
Q0
dS
1
r
1J C1 1K dR
r
C IN pon
Q3
Q1
dS
1
r
r
r
1J C1 1K dR
d
1
dS
Nicht eingezeichnet:
1J C1 1K dR
d
r
d
U¨ = IN Q2 ∧ Q3
r
b) C
0
1
2
3
4
5
6
7
Q0 Q1 Q2 Q3 U¨ c) 0 1 2 3 4 5 6 7
Jeder Z¨ahlerstand kann durch ein UND-Element mit zwei Eing¨angen erkannt werden. Die jeweils zu verkn¨upfenden Ausg¨ange sind in nebenstehender Tabelle markiert. Die Decodierung des Z¨ahlerstands ist einfach, f¨ur n Z¨ahlschritte werden aber n/2 Flipflops ben¨otigt.
Q3 0 0 0 0 1 1 1 1
Q2 0 0 0 1 1 1 1 0
Q1 0 0 1 1 1 1 0 0
Q0 0 1 1 1 1 0 0 0
2.7.5 Register und Schieberegister Aufgabe 2.7.26 Entwerfen Sie ein 6-bit-Umlaufregister, also ein Schieberegister, dessen Inhalt sich zyklisch verschieben l¨aßt (siehe rechts oben). F¨ur M = 0 soll der Inhalt dabei jeweils um eine Stelle, f¨ur M = 1 um zwei Stellen verschoben werden. Es ist hier ohne Bedeutung, wie das Schieberegister geladen wird. a) Geben Sie die Schaltung an, wenn f¨ur den Entwurf D-Flipflops (siehe rechts unten) und NAND-Elemente zur Verf¨ugung stehen. b) Geben Sie das Schaltsymbol f¨ur das Schieberegister an.
Q0 .. . Q5
C M
1D C1
Q
176
2 Grundlagen der Digitaltechnik
L¨osung:
a) Der Entwurf einer Stufe ist ausreichend, da alle Stufen gleichartig aufgebaut sind. Q0 Q1 Q2 Q3 Q4 Q5
M = 0:
M 0 0 0 0 1 1 1 1
Q1 0 0 1 1 0 0 1 1
M = 1:
D3 = Q+ 3 0 1 0 1 0 0 1 1
Q2 0 1 0 1 0 1 0 1
Q1 1D C1 C
Q0 Q1 Q2 Q3 Q4 Q5
- - - - 6
D3 :
Q2 1D C1
Q3
r
1D C1
M
r
r
1D C1
r
r
d
d
d
d& d
d& d
d& d
&
r
Q2
D3 = (M ∧ Q1 ) ∨ (IN M ∧ Q2 )
r
C
-
M
r
r
-
-
1 1 1 1 Q1
r
M M
-
6 6
&
r
&
&
r
r
r
SRG 6 C1 2→1/2→2 G2 1 , 2D 1 , 2D 1 , 2D
Q0
r
r
Q1 Q2 Q3 Q4 Q5
&
r r
&
r
r
177
Kapitel 3
¨ Einfuhrung in die Systemtheorie ¨ Die Analyse von Ubertragungssystemen der Informations- und Nachrichtentechnik ist außerordentlich wichtig, gleichwohl h¨aufig kompliziert und manchmal ausschließlich modellhaft mo¨ glich. Die Systemtheorie erkl¨art mit Hilfe geeigneter mathematischer Werkzeuge die wesentlichen Eigenschaften der Systeme und geh¨ort heute zu den Kerngebieten der Informationstechnik. Durch die Herstellung eines funktionalen Zusammenhanges zwischen Ein- und Ausgangssignalen wird versucht, das System selbst zu definieren. In der Systemtheorie beschreibt man die Systeme durch m¨oglichst einfache Kenngr¨oßen. Hierf¨ur werden wohl definierte Testsignale verwendet, die eine einfache Berechnung gestatten und andererseits eine hinreichend gute Ann¨aherung an die wirkli¨ chen Verh¨altnisse gew¨ahrleisten. Die Ubertragungsfunktion eines linearen Systems ist eine wichtige Kenngr¨oße, um das System im oben genannten Sinne vollst¨andig zu beschreiben. Der vorliegende Abschnitt beschr¨ankt sich auf die Behandlung linearer Systeme, die in der Informationstechnik besonders relevant sind. Hierbei wird zun¨achst eine Beschreibung der Signale und Systeme im Zeitbereich vorgenommen. Es entsteht durch die Anwendung von Faltungsintegral ¨ und Faltungssumme ein nat¨urlicher Ubergang der Beschreibung vom Zeit- zum Frequenzbereich, der eine Erl¨auterung der Transformationen erfordert und begru¨ ndet. Anschließend werden dann die Eigenschaften der Signale und Systeme im Frequenzbereich betrachtet.
3.1 Klassifizierung von Signalen im Zeitbereich ¨ ¨ Zur Ubertragung von Nachrichten werden sehr unterschiedliche Ubertragungsmedien benutzt, beispielsweise Leitungen, terrestische sowie Satellitenverbindungen, optische Kabel und akustische ¨ Ubertragungsstrecken. Daher ist es grunds¨atzlich erforderlich, die zu u¨ bertragende Nachricht einer physikalischen Gr¨oße wie z.B. einer elektrischen Spannung aufzupr¨agen. In diesem Sinne wird die physikalische Erscheinungsform einer Nachricht als Signal x(t) bezeichnet. In der Nachrichtentechnik steht ein Signal x(t) in Abh¨angigkeit von der Zeit t f¨ur jede Darstellung einer Nachricht durch physikalische Gr¨oßen.
178
3 Einf¨uhrung in die Systemtheorie
Um eine allgemeing¨ultige Beschreibungsform zu erhalten, werden die Signale stets als dimensionslos aufgefasst. Diese Dimensionslosigkeit wird formal durch eine geeignete Normierung erreicht. Im einfachsten Fall k¨onnte eine als Spannung vorliegende Nachricht u(t) durch Division durch 1 V in eine dimensionslose Nachricht x(t) = u(t)/(1 V ) umgewandelt werden. Die reelle Zeitvariable tritt h¨aufig ebenfalls als normierte Gr¨oße auf. In der Regel f¨uhrt man auch f¨ur die Zeit eine Bezugsgr¨oße tb ein. Mit dieser Bezugszeit tb geht eine Zeit von t˜ Sekunden in die dimensionslose Zeit t = t˜/tb u¨ ber. Auf diese Weise kann bei theoretischen Untersuchungen die Bezugnahme auf eine bestimmte physikalische Gro¨ ße entfallen.
Tabelle
wirkliches Bauelement
wirkliche Impedanz
normierte Impedanz
Rw
Rw
Rw Rb
Lw
jωLw
Cw
1 jωw Cw
3.1:
jωLw Rb 1 jωw Cw Rb
=
jωn ωbRLbw
=
1 jωn ωb Cw Rb
normiertes Bauelement Rw Rb ωb Lw Rb
Rn = Ln =
Entnormierung
Rw = R n Rb b Lw = Ln R ωb
Cn = ωb Cw Rb Cw = Cn ωb1Rb
Gleichungen zur Normierung und Entnormierung (ωb : Bezugskreisfrequenz, Rb : Bezugswiderstand)
von
Bauelementen
Die Tabelle 3.1 stellt die Gleichungen zur Normierung und Entnormierung von Bauelementen zusammen. Wenn alle Bezugsgr¨oßen den Wert 1 besitzen, kann auf die Indizes zur Unterscheidung verzichtet werden. ¨ Zum Studium der Frage, wie sich reale Signale bei der Ubertragung verhalten, benutzt man determinierte Signale, die mit wenig Parametern voll beschrieben werden ko¨ nnen, und die sich gut f¨ur Berechnungen und auch f¨ur Messungen eignen. Diese determinierten Signale werden Elementarsignale genannt. Mit Hilfe von Elementarsignalen gelingt es h¨aufig, reale Signale ausreichend gut zu approximieren. Im Abschnitt 3.3 werden die wichtigsten Elementarsignale genannt und beschrieben.
3.2 Die Einteilung der Signale Signale lassen sich in sehr vielf¨altiger Art klassifiziern. Einen wichtigen Unterschied hinsichtlich der Signalbeschreibung erfordert eine Einteilung in Zufallssignale und in determinierte Signale. Die Beschreibung von Zufallssignalen erfolgt mit Methoden der Wahrscheinlichkeitsrechnung. Eine mathematisch korrekte Behandlung w¨urde jedoch dem Umfang und den Zielen des Buches nicht gerecht werden. In diesem Abschnitt soll vielmehr der Unterschied zwischen analogen und digitalen Signalen genauer erfasst werden. Hierzu wird eine Klassifizierung von Signalen nach ¨ einigen f¨ur die Ubertragungstechnik wichtigen Kriterien durchgefu¨ hrt.
3.2 Die Einteilung der Signale
179
3.2.1 Zeitkontinuierliche und zeitdiskrete Signale Zun¨achst kann eine Einteilung danach erfolgen, ob die Signalfunktion fu¨ r alle Werte von t (ggf. mit Ausnahme einzelner Werte) definiert ist oder nur fu¨ r diskrete i.A. a¨ quidistante Werte tn (n = 0, ±1, ±2, · · ·). a) zeit- und wertekontinuierlich ↑ x(t) . ........... ... .... analoges Signal ... .. . ... .. ... .. .. ... .. .. .. .. .... .. ... .. ...
... .. ... ... ... .. .. .. .. ... ... ... ... .. .. .. ... ... ... ... ............................... ....... .. ...... ... ...... ... ..... . . ... . .... ... .... ... .... ... .... ... .... . . . . ... .... ... ..... ..... .......................
Quantisierung ⇒ →t
b) zeitkontinuierlich, wertediskret ↑ x ˜(t) .....
............... .......• ................• .. ... ..... .. ... .. ... .. .... ... .... .. .... . . ..... ... ... ...... .. ... ........................• ................ .. ... ... ... .. .... . ... .. ... ... .... .. .... ... .. .. ... . . ...... ............... • ..... ............................• ................ .......................... .. .... ....... .. .. • ..• ......... ......• .. .... . ...• ................ .. ... .• .. ... .. .... . ............ . . . ..... • . ... T 2T ··· .................. • .. ... .. ... ................. .. ... ..• .. .... .. .... . ................ .• ................ ...• .... ................ •
→t
⇓ Abtastung • •
•
•
⇓ Abtastung
↑ x(t )
n .... .. ... .. .. . .. .. .. .. .. .. .. ... .. .. ... .. .. .. .. .. .. .. .. .. . .. .. .. . .. ....... .. . .. .. . .. ... .. .. .. .. . .. .. T 2T ··· .. .. n .. .. .. .. .. . . .. . . .. .... ...
•
•
↑ x ˜(tn )
. . •............... ... • ...
Quantisierung ⇒ • • • • • • • →t •
• • • c) zeitdiskret, wertekontinuierlich
digitales Signal
.. .. .. .. .. .. .. .. ......... .. .. .. .. .. .. .. .. .. .. .. ......... .. ............... .. .. . . .. .......... .. . ........ .. . .. ... .. . .. ......... T 2T ··· ......... ... . .. n ... ......... . ... ... .. . ........ ......... . ...........
... ... .. . ... ... ... ... ... ... ... ... .........
•
•
•
•
•
•
• • • • →t
• • • d) zeit- und wertediskret
Abbildung 3.1: Signalarten Abbildung 3.1 zeigt in a) und b) die zeitkontinuierlichen Signale x(t) und x ˜(t). Das analoge Signal x(t) kann beliebig (¨uberabz¨ahlbar unendlich) viele Werte annehmen, w¨ahrend f¨ur das wertediskrete Signal x ˜(t) nur endlich viele Amplitudenwerte mo¨ glich sind. x ˜(t) wurde so gewonnen, dass die Signalwerte x(nT ) des analogen Signales durch die n¨achstliegenden zul¨assigen diskreten Werte x ˜(nT ) (siehe Raster an der Ordinate) ersetzt und bis zum n¨achsten Abtastzeitpunkt konstant gehalten wurden. Dies f¨uhrt im vorliegenden Fall z.B. zur Gleichheit der Signalwerte x ˜(T ) = x ˜(2T ), w¨ahrend aus Bild 3.1c deutlich zu erkennen ist, dass gilt: x(T ) = x(2T ). Aus x ˜(t) kann aufgrund des Informationsverlustes das zugrundeliegende Originalsignal prinzipiell nicht zur u¨ ckgewonnen werden. Durch eine Gl¨attung erh¨alt man nur eine mehr oder weniger gute Approximation des Ausgangssignales. Abbildung 3.1 zeigt in c) und d) jeweils zeitdiskrete Signale. Das zeitdiskrete wertekontinuierliche Signal x(tn ) kann beliebig (¨uberabz¨ahlbar unendlich) viele Signalwerte annehmen. Es ist
180
3 Einf¨uhrung in die Systemtheorie
durch eine Abtastung aus dem analogen Signal x(t) entstanden, x(tn ) = x(nT ). Eine exakte R¨uckgewinnung des Originalsignales x(t) durch Interpolation aus den Abtastwerten ist m o¨ glich, wenn bestimmte Bedingungen eingehalten werden (Abtasttheorem, siehe Abschnitt 3.8.2). Die Quantisierung der Signalwerte x(tn ) oder auch die Abtastung des zeitkontinuierlichen wertediskreten Signales x ˜(t) f¨uhren zu dem zeitdiskreten wertediskreten Signal x ˜(tn ) im Bild 3.1d. Aus diesem digitalen Signal kann das analoge Ursprungssignal immer nur n¨aherungsweise zur¨uckgewonnen werden, weil zumindest durch die Quantisierung der Amplitudenstufen irreversible Infor¨ mationsverluste entstehen. Den Ubergang vom analogen Signal x(t) zum digitalen Signal x ˜(tn ) bezeichnet man auch als Analog-Digital-Umsetzung (ADU). Der umgekehrte Weg ist die DigitalAnalog-Umsetzung (DAU). Zeitkontinuierliche Signale werden in den folgenden Abschnitten mit x(t) und zeitdiskrete Signale in der Regel vereinfacht mit x(n) bezeichnet. Dort, wo besonders deutlich werden soll, dass ein zeitdiskretes Signal durch Abtastung aus einem zeitkontinuierlichen entstanden ist, schreiben wir auch bisweilen x(nT ). Beispiel: x(nT ) = sin(nωT ). Die Bezeichnung x ohne Argument wird in Gleichungen verwendet, die f¨ur beide Signalklassen gelten. Auf ggf. notwendige zus¨atzliche Unterscheidungen von wertekontinuierlichen und wertediskreten Signalen wird an den entsprechenden Stellen gesondert hingewiesen.
3.2.2 Signale mit endlicher Energie Besitzen Signale eine endliche Energie E, so werden diese Signale als Energiesignale bezeichnet. Ist u(t) eine an einem Ohm’schen Widerstand R anliegende Spannung und i(t) = u(t)/R der Strom durch diesen Widerstand, dann erh¨alt man die in einem Zeitintervall t1 ≤ t ≤ t2 gelieferte Energie: t2 t2 1 t2 2 u (t) dt = R i2 (t) dt. u(t)i(t) dt = E= R t1 t1 t1 Die Energie entspricht also im Wesentlichen (bis auf einen Faktor, hier 1/R oder R) der Fl¨ache unter dem quadrierten Signal. Die Energie E eines Signales x(t) bzw. x(n) wird definiert durch: ∞ ∞ E= x2 (t) dt, E= x2 (n). (3.1) −∞
n=−∞
Im Fall 0 < E < ∞ spricht man von einem Energiesignal. Die rechts stehende Gleichung in (3.1) bezieht sich auf zeitdiskrete Signale, auf diese wird die physikalisch begr u¨ ndete Definition bei zeitkontinuierlichen Signalen (linke Gleichung) sinngem¨aß u¨ bertragen. Selbstverst¨andlich ist die Definition nach Gl. (3.1) nur sinnvoll, wenn das Integral bzw. die Summe konvergieren. Das Bild 3.2 zeigt links ein zeitkontinuierliches Energiesignal mit der Energie E = A 2 T , rechts ein zeitdiskretes Energiesignal mit E = A2 N .
Im Gegensatz zu den in Abbildung 3.2 dargestellten Energiesignalen sind die Signale x(t) = sin(ωt) und auch x(n) = sin(nωT ) keine Energiesignale, da das Integral bzw. die Summe nach Gl. (3.1) in diesen F¨allen nicht konvergiert. Zwei weitere Beispiele von Energiesignalen werden nachfolgend betrachtet.
3.2 Die Einteilung der Signale
181 ↑ x(n) A• • • • • • • • • •
↑ x(t) A .....................................................................................
.. ... .. ... ... .... .. .. .. ... .. ... ... ... ... .. .......................
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .....................................
0
Abbildung 3.2: Beispiel f¨ur einfache Energiesignale • • •
→t
T
N =10
.. • • • • • • .
0
→n
N −1
Beispiel 3.1 Die zeitkontinuierliche Funktion: 0 f¨ur t < 0 x(t) = e−t f¨ur t ≥ 0
1...... ↑ x(t) .. ... .. .... .. ..... ..... .. ...... .. ........ .. ............ .. ...................... .. ................................ ................................... 0 →
ist ein Energiesignal, da
∞
E=
e−t
2
dt =
0
0
∞
∞ 1 1 e−2t dt = − e−2t = . 2 2 0
Beispiel 3.2 Die zeitdiskrete Funktion: x(n) =
10n 2
f¨ur f¨ur
t
1• ↑
x(n)
1 .. 2
n<0 n≥0
• •
•
−2
•
−1
..
0
1
..
2
• ..
3
•
→n
ist ein Energiesignal, da
E=
∞ 2n 1 n=0
2
=
∞ n 1 n=0
4
=
1 1−
1 4
=
4 . 3
Korrelationsfunktionen bei Energiesignalen F¨ur einige Probleme ist es n¨utzlich, den Begriff der Autokorrelationsfunktion fu¨ r Energiesignale einzuf¨uhren: ∞ ∞ E E Rxx (τ ) = x(t)x(t + τ ) dt, Rxx (m) = x(n)x(n + m). (3.2) −∞
n=−∞
Offenbar erh¨alt man aus Gl. (3.2) f¨ur τ = 0 bzw. f¨ur m = 0 die Energie: E E = Rxx (0).
(3.3)
Auf eine ausf¨uhrliche Darstellung der Autokorrelationsfunktion (siehe z.B. [12]) kann hier zu Gunsten eines einfachen Beispiels verzichtet werden, da in diesem Buch auf die Behandlung der zuf¨alligen Signale verzichtet wird. Als Einf¨uhrung zur Berechnung der Autokorrelationsfunktionen von Energiesignalen nach Gl. (3.2) soll wieder von den Funktionen aus den Beispielen 3.1 und 3.2 ausgegangen werden. Die beiden Skizzen dienen der Festlegung der Integralgrenzen.
182
3 Einf¨uhrung in die Systemtheorie τ >0
..
τ <0
...... ... ... x(t+τ ) .. .. ... .... ... .... ... ... ... ... .. .... ... .... ... ... .... ... ... ... .. ... ... ... ... ... ... ..... x(t)·x(t+τ ) ... ... . . .. .. ............ ... . . ............ ............... ... . . ....... .......... .. ......... ... . .. ... ... .... ................. ................... ... ... ..... ..... ........................... ....... .................... ....................
1........ x(t)
x(t+τ )..........
.. .. ... .... ... .... ... ... ... ... ... .... .. .... ... .... ... ... ... .. ... ... ... ... ... ... ..... ... ... .x(t)·x(t+τ ) ... ..... ... .. ... ... ........ .. ... ... ............ ........... ....... . ... ... ........ ......... ......... . . . . . . . . . . . . . .......................... .................... ........ ......... ............ ............. ......... ......... ........... .............. ..................... ....................................... .....................................
−τ
.........................................................
................................. −τ 0
→t
0
1 ........ x(t)
→t
Abbildung f¨ur τ > 0 Ein positives τ bewirkt eine Verschiebung der Funktion x(t + τ ) nach links.
Abbildung f¨ur τ < 0 Ein negatives τ bewirkt eine Verschiebung der Funktion x(t + τ ) nach rechts.
Die untere Grenze der Integration wird aber von der Funktion x(t) bestimmt, die f¨ur Werte von t < 0 verschwindet. ∞ E Rxx (τ ) = e−t · e−(t+τ ) dt t=0 ∞ −τ e−2t dt = e
Die untere Grenze der Integration wird von der Funktion x(t + τ ) bestimmt, die f¨ur Werte von t < −τ verschwindet. ∞ E Rxx (τ ) = e−t · e−(t+τ ) dt t=−τ ∞ = e−τ e−2t dt t=−τ
t=0
= e =
−τ
∞ 1 − e−2t 2 0
∞ 1 − e−2t 2 −τ eτ e−τ · e2τ = f¨ur τ < 0 2 2
= e
e−τ f¨ur τ > 0 2
=
−τ
Zusammemgefasst ergeben die beiden L¨osungen: E Rxx (τ )
=
e−τ 2 eτ 2
f¨ur τ > 0 f¨ur τ < 0
=
e−|τ | f¨ur alle τ. 2
↑ Rxx (τ ) 0,5.......
.. ... .. ... .. ... ... ... . . . ... ... .... .... .... . . . ..... ... . . ...... . . .... ........ . . . . . . . ........... ....... . . . . . .................... . . . . . . . . . ......................... ....................................
0
Abbildung 3.3: Autokorrelationsfunktion Rxx (τ ) = 0, 5 e−|τ |
→τ
Dieses Beispiel zeigt, dass Autokorrelationsfunktionen gerade Funktionen sind und bei τ = 0 bzw. bei m = 0 ein absolutes Maximum besitzen. Allgemein gilt: E E E E (τ ) = Rxx (−τ ), Rxx (0) ≥ |Rxx (τ )|, Rxx E E E E (m)|. Rxx (m) = Rxx (−m), Rxx (0) ≥ |Rxx
(3.4)
3.2 Die Einteilung der Signale
183
3.2.3 Signale mit endlicher Leistung Besitzen Signale eine endliche Leistung EP , so werden diese Signale als Leistungssignale bezeichnet. Ist u(t) eine an einem Ohm’schen Widerstand anliegende Spannung und i(t) = u(t)/R der Strom durch diesen Widerstand, dann ist u(t)i(t) = u2 (t)/R = i2 (t)R die in dem Widerstand umgesetzte Augenblicksleistung. F¨ur das Zeitintervall −T ≤ t ≤ T erh¨alt man eine mittlere Leistung: T T T 1 1 R P¯ = u(t)i(t) dt = u2 (t) dt = i2 (t) dt. (3.5) 2T −T 2T R −T 2T −T Ausgehend von diesem Ergebnis definiert man die mittlere Leistung eines Signales: 1 T →∞ 2T
T
P = lim
x2 (t) dt,
−T
bzw.
N 1 x2 (n). N →∞ 2N + 1
P = lim
(3.6)
n=−N
Gilt: 0 < P < ∞, so wird ein Signal Leistungssignal genannt. Ein Vergleich der linken Beziehung in (3.6) mit Gl. (3.5) zeigt, dass die mittlere Leistung P noch mit einem Faktor zu multiplizieren ist, damit man die tats¨achliche physikalische mittlere Leistung erh¨alt. Ein weiterer Unterschied besteht darin, dass sich die zeitliche Mittelung bei Gl. (3.6) auf den gesamten Zeitbereich von −∞ ¨ bis ∞ bezieht. Die rechte Beziehung 3.6 stellt die sinngem¨aße Ubernahme des Leistungsbegriffes auf zeitdiskrete Signale dar. Ein Vergleich von Gl. (3.6) mit der Definition von Energiesignalen (Gl. 3.1) zeigt, dass ein Energiesignal kein Leistungssignal sein kann und umgekehrt. Daraus darf aber nicht geschlossen werden, dass ein beliebiges Signal entweder ein Energie- oder ein Leistungssignal sein muß. Es gibt Signale, die in keine der beiden Klassen fallen. Ein Beispiel hierzu ist das Signal x(t) = e −t . Bisweilen unterscheidet man bei Leistungssignalen noch, ob sie mittelwertfrei sind oder nicht. Unter dem Mittelwert oder auch Gleichanteil eines Leistungssignales versteht man den zeitlichen Mittelwert: T N 1 1 x(t) dt, x ¯(n) = lim x(n). (3.7) x ¯(t) = lim T →∞ 2T −T N →∞ 2N + 1 n=−N
Eine wichtige Untergruppe der Leistungssignale sind die periodischen Leistungssignale. Bei einem periodischen Leistungssignal x(t) mit der Periode T0 oder x(n) mit der Periode N0 braucht man n¨amlich nur u¨ ber eine einzige (beliebige) Periode zu mitteln, es gilt: 1 P = T0
T0
x2 (t) dt,
0
N0 −1 1 x2 (n), P = N0 n=0
x(t) = x(t + νT0 ), ν = 0, ±1, ±2, · · · (3.8) x(n) = x(n + νN0 ), ν = 0, ±1, ±2, · · · .
Als Effektivwert (vergl. Abschn. 1.6.3) √ eines Leistungssignales bezeichnet man die positive Wurzel aus der mittleren Leistung Xef f = P . Die Abbbildung 3.4 zeigt zwei ganz besonders einfache Leistungssignale, links ein zeitkontinuierliches und rechts ein zeitdiskretes. Da die quadrierten Signale hier einen konstanten Wert x 2 = A2 ergeben, hat die mittlere Leistung bei beiden Signalen den Wert P = A2 .
184
3 Einf¨uhrung in die Systemtheorie ↑ x(t)
A
↑ x(n) A •••••
•
.................................... .................. .................................... ......... ... ... ... .... .... .... ... ... ... ... ... ... ... ... ... . . . . ... ... ... ... .... .... ... ... .. ... . ... ... . ... ... ... ... .. . ... . . . ... ... . ... ... . .. ... . . ... ... . . ... . . . ... . . ... ... ... . . . . ... . . . ... 0 ... ... . T0 . . .... ... . ... ... ... ... ... ... ... .... ... . . ... . . . ... . ... ... . ... .. . . ... . . ... ... . . ... . . . . ... . ... ... ... . . . . . . . .. . . . .................................... ..................................... ....................................
→t
•••••
→n
0
−A
••
N0
•••••
•••••
•••••
Abbildung 3.4: Beispiele f¨ur periodische Leistungssignale Ein besonders wichtiges periodisches Leistungssignal ist das Kosinussignal √ x(t) = A cos(ωt + ϕ) mit der mittleren Leistung P = A2 /2 und dem Effektivwert Xef f = 12 2A. Korrelationsfunktionen von Leistungssignalen Ganz analog zu den Energiesignalen kann auch fu¨ r Leistungssignale die Autokorrelationsfunktion eingef¨uhrt werden: Rxx (τ ) = Rxx (m) =
1 T →∞ 2T
T
lim
x(t)x(t + τ ) dt, −T
(3.9)
N 1 lim x(n)x(n + m). N →∞ 2N + 1 n=−N
Offensichtlich (siehe Gl. 3.6) erh¨alt man f¨ur τ = 0 bzw. m = 0 die mittlere Leistung P = Rxx (0).
(3.10)
Die Eigenschaften der Autokorrelationsfunktionen von Leistungssignalen sind denen von Energiesignalen (siehe Gl.3.4) gleich. Im Bild 3.5 sind die Autokorrelationsfunktionen der beiden Signale von Bild 3.4 dargestellt. Den Verlauf der Funktion Rxx (τ ) gewinnt man auf a¨ hnliche Weise, wie dies im Abschnitt der Energiesignale (vgl. S. 181) erl¨autert wurde.
A2...............
↑ Rxx (τ )
... ... ..... ..... ... ... ... ... .. ... ... ... ... ... ... .... .. .... .. .... . . . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. ... ... . . . . . ... .. .. . . . . . ... .. ... . . . . . . . . . . . . . 0 ..... T0 ...... ... ... ... ... ... ... ... ... ... ... .. .. ... ... ... .. .. . . .. . . . . ... .. ... .. ... ... ... .. ... .. ... .. ... .. ... .. ... .. ... ... ... ... ...... ..... ..... ...
A2 •
↑ Rxx (m)
• • •
→t
•
•
• • •
0
•
• •
•
• • •
N0
• •
→m
•
• •
• •
• •
•
•
•
Abbildung 3.5: Autokorrelationsfunktionen der Signale von Bild 3.4
Auf die Einf¨uhrung der Autokorrelationsfunktion einer Summe von Signalen z(t) = x(t) + y(t) wird hier verzichtet, da sie Kenntnisse der Kreuzkorrelationsfunktionen R xy und Ryx erfordert.
3.3 Elementarsignale
185
3.3 Elementarsignale Einige Signale eignen sich besonders gut zur mathematischen Beschreibung von Messungen, Berechnungen und zusammengesetzten Signalen. Diese Signale, deren Beschreibung nur wenige Parameter erfordert, werden Elementar- oder auch Standardsignale genannt. Die zeitdiskreten Elementarsignale k¨onnen h¨aufig – eine Ausnahme bildet der Einheitsimpuls – durch Abtastung der entsprechenden kontinuierlichen Elementarsignale gewonnen werden. Deshalb nimmt in diesem Abschnitt die Behandlung der zeitkontinuierlichen Elementarsignale den gr o¨ ßeren Raum ein.
3.3.1 Dirac- und Einheitsimpuls Im vorliegenden Abschnitt werden trotz großer Verschiedenheit der Dirac- und der Einheitsimpuls aufgrund der Bedeutungsgleichheit f¨ur analoge und digitale Systeme nacheinander behandelt. In der Mathematik wird der Dirac-Impuls δ(t) nicht als gewo¨ hnliche, sondern als eine verallgemeinerte Funktion oder Distribution bezeichnet. Der Dirac-Impuls kann als Grenzwert einiger gew¨ohnlicher Funktionen eingef¨uhrt werden: δ(t) = lim Δ(t), δ(t) = lim
ω0 →∞
ε→0
2 sin(ω0 t) 1 , δ(t) = lim √ e−t /ε . ε→0 πt πε
(3.11)
Besonders anschaulich ist die links stehende Definition in Gl. (3.11). Δ(t) ist der im Bild 3.6 skizzierte Rechteckimpuls der Breite ε und Ho¨ he 1/ε. F¨ur kleiner werdende Werte von ε wird der ↑ Δ(t)
↑ δ(t)
... 1 ......... ......... . ε ... ... ... .. ... ... ε→0 .. ... ... .......................................................... .. .. ... .. .. ... .. ... ... .. ... ... .. .. .. .. ... .. ... ... .. .. ... .. ... ... .. .. ... .. ... ... .. .. ... .. .. ... .. ... .. .. .. . . ............................. ................................................................ ....................................................................................................
0 ε
→t
0
Abbildung 3.6: Zur Definition des Dirac-Impulses als Grenzwert der Funktion Δ(t)
→t
Impuls Δ(t) immer schmaler und h¨oher, und f¨ur ε → 0 ”entsteht” aus ihm der Dirac-Impuls δ(t), dessen Symbol rechts im Bild 3.6 dargestellt ist. Aus dem Bild 3.6 erkennt man, dass die Fl¨ache unter Δ(t) stets den Wert 1 hat: ∞ ∞ Δ(t) dt = δ(t) dt = 1. lim ε→0
−∞
(3.12)
−∞
Die Gl. (3.12) bedarf f¨ur die mathematisch sensibleren LeserInnen einer Erkl¨arung. Die Gleichung k¨onnte dahin gehend falsch interpretiert werden, dass es eine Funktion δ(t) gibt, die Null f u¨ r alle Werte t = 0 ist, die bei t = 0 u¨ ber alle Grenzen strebt und unter der die Fl¨ache trotzdem den Wert 1 hat. Eine solche Funktion ist aber in der Mathematik nicht definiert. Daher darf das Integral rechts in Gl. (3.12) auch nicht als Integral im u¨ blichen Sinne verstanden werden. Die Verwendung
186
3 Einf¨uhrung in die Systemtheorie
des Integralzeichens ist aber dadurch gerechtfertigt, dass eine große Zahl von Regeln aus der Rechnung mit Integralen auch f¨ur die verallgemeinerte Funktion δ(t) anwendbar ist. Nachfolgend sind einige wichtige Beziehungen mit dem Dirac-Impuls zusammengestellt: 1. Der Dirac-Impuls δ(t) ist eine gerade (verallgemeinerte) Funktion, d.h.: δ(t) = δ(−t).
(3.13)
Diese Eigenschaft kann aus den beiden rechts stehenden Funktionen in Gl. (3.11) erkannt werden, da diese geraden Funktionen (f (t) = f (−t)) im Falle des Grenzu¨ bergangs ihre Symmetrie behalten. 2. F¨ur eine Funktion x(t), die an der Stelle t = t0 stetig ist, gilt: x(t)δ(t − t0 ) = x(t0 )δ(t − t0 ),
insbesondere x(t)δ(t) = x(0)δ(t).
(3.14)
Die rechte Gl. (3.14) entsteht mit t0 = 0 aus der linken. 3. Unter der Voraussetzung der Stetigkeit der Funktion x(t) erh¨alt man mit Hilfe der Beziehung (3.14) die Ausblendeigenschaft des Dirac-Impulses: ∞ ∞ x(τ )δ(t − τ )dτ = x(t), x(τ )δ(τ )dτ = x(0). (3.15) −∞
−∞
4. Bei zeitlicher Dehnung gilt: δ(at) =
1 δ(t), a = 0. |a|
(3.16)
Der Dirac-Impuls ist ein h¨aufig verwendetes und besonders wichtiges Elementarsignal. Aus der Darstellung im Bild 3.6 erkennt man, dass δ(t) kein Energiesignal sein kann. Die Fl¨ache unter Δ2 (t) betr¨agt 1/ε und strebt f¨ur ε → 0 gegen unendlich. Es ist jedoch m¨oglich, δ(t) als Leistungssignal zu interpretieren (siehe z.B. [31]). Der zeitdiskrete Einheitsimpuls kann nicht durch Abtastung aus dem zeitkontinuierlichen DiracImpuls gewonnen werden. Die ”Abtastung” von δ(t) wu¨ rde n¨amlich zu einem zeitdiskreten Signal f¨uhren, das u¨ berall Null und bei n = 0 unendlich groß w¨are. Da diese Abtastung nicht m¨oglich ist, tritt der im Bild 3.7 skizzierte Einheitsimpuls an die Stelle von δ(t): 0 f¨ur n = 0, (3.17) δ(n) = 1 f¨ur n = 0. ↑ δ(n) •1 Abbildung 3.7: Einheitsimpuls δ(n) •
−3
•
−2
•
−1
0
• 1
• 2
• 3
→n • 4
3.3 Elementarsignale
187
Im Gegensatz zu δ(t) gibt es bei δ(n) keinerlei mathematische Besonderheiten und Probleme. Ein Teil der f¨ur den Dirac-Impuls genannten Eigenschaften kann sinngem¨aß u¨ bertragen werden: δ(n) = δ(−n) x(n) · δ(n − n0 ) = x(n0 ) · δ(n − n0 ), x(n) · δ(n) = x(0) · δ(n), ∞ x(n) = x(ν)δ(n − ν).
(3.18)
ν=−∞
Diese Beziehungen sind, anders als die entsprechenden mit δ(t), relativ leicht einzusehen und durch die Studierenden selbst¨andig nachweisbar.
3.3.2 Die Sprungfunktion und die Sprungfolge Die Sprungfunktion s(t) bzw. die Sprungfolge s(n) besitzen wichtige Eigenschaften, die zur Signalbeschreibung n¨utzlich sind. Werden beispielsweise Eingangssignale von Systemen betrachtet, die erst ab einem bestimmten Zeitpunkt Werte ungleich Null besitzen, so l¨asst sich dieser Sachverhalt mittels s(t) und s(n) einfach beschreiben. Links im Bild 3.8 ist Sprungfunktion s(t) und rechts die Signum-Funktion skizziert: −1 f¨ur t < 0, 0 f¨ur t < 0, (3.19) sgn(t) = s(t) = 1 f¨ur t > 0. 1 f¨ur t > 0, ↑ s(t) 1.....................................................................................
.. .. .. ... ..................................
↑ sgn(t) 1.....................................................................................
.. .. .. ... .. .. ..0 .. .. ... ..................................................................................−1
→t
0
→t
Abbildung 3.8: Sprungfunktion s(t) und Signum-Funktion sgn(t) Die Sprungfunktion s(t) kann durch die Signum-Funktion ausgedru¨ ckt werden: s(t) =
1 · [1 + sgn(t)] 2
⇐⇒
sgn(t) = 2 · s(t) − 1.
(3.20)
s(t) und sgn(t) sind an den Unstetigkeitsstellen bei t = 0 nicht definiert. Oft wird diesen Stellen der arithmetische Mittelwert zwischen dem jeweiligen rechts- und linksseitigen Grenzwert als Funktionswert zugewiesen, dies w¨urde s(0) = 0, 5 und sgn(0) = 0 bedeuten. Eine einfache und h¨aufig gebrauchte Anwendung der Sprungfunktion ist die mathematische Beschreibung von Funktionen, die abschnittsweise definiert sind. Fu¨ r f (t) = 1 f¨ur 0 < t < 2 und f (t) = 0 sonst, folgt: 1
↑ s(t)
1 →t
↑ s(t − 2)
1
2
→t
↑ f (t) = s(t) − s(t − 2)
2→ t
188
3 Einf¨uhrung in die Systemtheorie
Als nichtstetige Funktion ist s(t) im u¨ blichen Sinn nicht differenzierbar. Fasst man jedoch s(t) als Grenzwert der stetigen Funktion s˜(t) im Bild 3.9 auf, dann hat s˜(t) die Ableitung Δ(t) gem¨aß Bild 3.6. Im Grenzfall ε → 0 gilt Δ(t) → δ(t) und damit folgt: δ(t) =
d s(t) , dt
bzw.
t
s(t) =
δ(τ ) dτ.
(3.21)
−∞
Die rechte Beziehung in (3.21) ist die Umkehrbeziehung zur linken Gleichung. Auf diese Weise konnte, unter der Zulassung der verallgemeinerten Funktion δ(t), eine im Rahmen der u¨ blichen Mathematik nicht existente Ableitung der unstetigen Funktion s(t) gebildet werden. a)
↑ s˜(t)
1 ................................................................................ .. .. .. ... . .. .. ... ................................... 0 ε
c)
b) ε→0 →t
↑ Δ(t) = s˜ (t)
↑ s(t) 1.........................................................................................
... .. .. ... .. .. .. . ....................................
d)
0 ↑ δ(t) = s (t)
1 .......... ... ......... ε ... ... ... ... .... ... .. .. ... .. ... ... .. .. ... .. .. ... .. ... ... .. .. ε → 0 ... .. ... ............................................................... .. .. ... .. ... ... .. .. ... .. .. ... .. ... ... .. .. ... .. ... ... .. .. .. .. .. . . ................................... ............................................................................. .........................................................................................................................
0 ε
Abbildung 3.9:
→t
→t
0
→t
Darstellung zur Ermittlung der Ableitung der Sprungfunktion
Aus Gl. (3.20) folgt sgn(t) = 2s(t) − 1 und damit kann auch die Ableitung der Signumfunktion ermittelt werden: d sgn(t) = 2δ(t). (3.22) dt Die Sprungfunktion ist ein wichtiges und h¨aufig verwendetes Elementarsignal. s(t) kann z.B. Modellsignal f¨ur eine Spannung sein, die den Wert 0 bis zum Zeitpunkt t = 0 hat und dann auf den Wert 1 V ”springt”. Mit Hilfe von s(t) gelingt es, Signale, die Unstetigkeiten in Form von Sprungstellen aufweisen, in geschlossener Form anzugeben. Fu¨ r die Funktion Δ(t) aus Abbildung 3.9 gilt: 1 (3.23) Δ(t) = (s(t) − s(t − )). Aus Gl. (3.23) ist erkennbar, dass der Grenzu¨ bergang → 0 der nachfolgenden Ableitung entspricht: d s(t) s(t) − s(t − ) lim Δ(t) = lim = = δ(t). (3.24) →0 →0 dt
3.3 Elementarsignale
189
Als weiteres Beispiel betrachten wir das im Bild 3.10 dargestellte Signal:
x(t) =
0 f¨ur t < 0, cos(ωt) f¨ur t > 0.
(3.25)
↑ x(t) 1...........
... .. .. ... .. ..................
0
−1.
........ ......... .. ... .. .. .. .. .... .. .... .. . . . . . ... ... . .. ... ... .. ... ... ... .. .. ... ... .. .. . . ... ... .. .. ... ... .. → t .. .. .. ... ... . . . . ... ... . .. .... .. .... ... .. ... . ... ... ... ... ...... ......
Abbildung 3.10: Zur Darstellung des Signales nach Gl. 3.25 in der Form x(t) = s(t) · cos(ωt)
Die Ableitung von x(t) kann aus Gl. (3.25) nicht problemlos durch abschnittsweise Ableitung gewonnen werdern, da x(t) an der Stelle t = 0 nicht stetig ist. Beachtenswert ist hierbei, dass die Steigung (also auch die Ableitung) von x(t) links- wie rechtsseitig der Unstetigkeitsstelle den Wert Null aufweist. Abhilfe schafft hier die Beschreibung von x(t) mittels s(t). Der Ausdruck: x(t) = s(t) cos(ωt) beschreibt offenbar den gleichen Zusammenhang. Fu¨ r t < 0 ist s(t) = 0 und damit x(t) = 0 (obere Zeile in Gl. 3.25). F¨ur t > 0 wird s(t) = 1 und damit x(t) = cos(ωt). Die Ableitung von x(t) l¨asst sich nunmehr aus dem geschlossenen Ausdruck fu¨ r x(t) mit Hilfe der Produktregel finden: x (t) = cos(ωt)δ(t) − s(t) ω sin(ωt) = δ(t) − s(t) ω sin(ωt). Die Vereinfachung cos(ωt)δ(t) = δ(t) wurde mit Hilfe der Gl. (3.14) f (t)δ(t) = f (0)δ(t) durchgef¨uhrt. Hier war f (t) = cos(ωt) mit f (0) = 1. Abschnittsweise konstante kontinuierliche Funktionen k¨onnen mit Hilfe von s(t) immer in geschlossener Form dargestellt werden. So hat z.B. der Rechteckimpuls links im Bild 3.2 die Form x(t) = A s(t) − A s(t − T ). Zur Verifikation ist es ausreichend die Funktion A s(t) und die um T nach rechts verschobene Funktion A s(t − T ) skizzieren. Die Differenz der beiden Funktionen ergibt den Rechteckimpuls. Die nachstehenden Funktionen rect(t) und tri(t) sind h¨aufig verwendete Funktionen. ↑ rect(t)
..............1 .......................... ... ... ... .. .. ... .. .... .. ... .. .. .. ... .. . ............. ............. 1 → − 12 2
↑ tri(t)
1..... ... ... ... ..... . . ... . . . ... . ... ... ... ... . ... . . . ... . .. ... . ......... ........
1→ t
−1
t
= s(t + 0.5) − s(t − 0.5) 1 − |t| f¨ur |t| < 1, tri(t) = 0 f¨ur |t| > 1.
rect(t)
(3.26) (3.27)
Die im Bild 3.11 skizzierte Sprungfolge s(n), kann als abgetastete Sprungfunktion s(n) = s(t = nT ) aufgefaßt werden, wenn bei t = 0 der Wert s(0+) = 1 ausgew¨ahlt wird. ↑ s(n) • • • • • •
1•
s(n) =
• •
−2 −1
0
1
2
3
4
5
→n 6
Abbildung 3.11: Die Sprungfolge s(n)
0 f¨ur n < 0, 1 f¨ur n ≥ 0,
(3.28)
190
3 Einf¨uhrung in die Systemtheorie
Der Zusammenhang zum Einheitsimpuls lautet: δ(n) = s(n) − s(n − 1),
s(n) =
n
δ(ν).
(3.29)
ν=−∞
Zum Beweis der linken Beziehung skizziert man s(n) und die um eine Zeiteinheit nach rechts verschobene Sprungfolge s(n − 1). Die Differenz ist u¨ berall Null bis auf den Wert δ(0) = 1. Beachtenswert ist auch hier die Analogie zwischen δ(t) und δ(n). Der Dirac-Impuls δ(t) ergibt sich aus der Differentation der Sprungfunktion s(t) nach Gl. (3.21) bzw. (3.23) w¨ahrend sich der Einheitsimpuls δ(n) aus der Differenz von s(n) und s(n − 1) nach Gl. (3.29) ergibt.
3.3.3 Sinusf¨ormige Signale Das wohl wichtigste Elementarsignal (vgl. Abschn. 1.5) ist die im Bild 3.12 skizzierte Sinusschwingung: ˆ cos[ω0 (t − ϕ/ω0 )]. (3.30) x(t) = x ˆ cos(ω0 t − ϕ) = x .... ... .. 2π .. .. . 0 ...... ..... ....... ω0 .. ....... ..... .... .... ...... . ... ... ... ... . .. .. ... .. ... .. ... . .. .... .. .. .... .... ... .. .... . ... ... ... ...... ... ... ... ... ... .. . .. .. ... . . . . ... ..... ... ... . .. . ... . .. ... ... . . . . . . . . . ............................................................................................................................................................................................... ... . ϕ ϕ . .... ... . ... . 0 ω0 ... ... .. ω0 ... ... .. .. ... ... . ... . ... .. ... ... ... .... ...... ... ....... ...
x ˆ
0
↑ x(t) ←−−− T =
−−−→
Abbildung 3.12:
+T →t
Sinusf¨ormiges Signal x(t) = x ˆ cos(ω0 t − ϕ)
x ˆ ist die Amplitude, ω0 die Kreisfrequenz, T0 = 2π/ω0 die Periode und ϕ der Nullphasenwinkel, bzw. t0 = ϕ/ω0 die Verschiebung von cos(ω0 t) nach rechts. Oft ist es g¨unstiger, das komplexe Signal: ˆ =x ˆ jω0 t , X ˆe−jϕ (3.31) x ˜(t) = Xe ˆ die komplexe Amplitude. F¨ur den Effektivwert von x(t) gilt: zu verwenden. Dabei nennt man X Xef f =
1√ ˆ 1√ 2 |X| = 2x ˆ. 2 2
Aus dem komplexen Signal x ˜(t) erh¨alt man das reelle Signal: ˆ jω0 t = 1 Xe ˆ jω0 t + 1 X ˆ ∗ e−jω0 t = x x(t) = Re Xe ˆ cos(ω0 t − ϕ). 2 2
(3.32)
2 x(t) ist ein Leistungssignal mit der mittleren Leistung P = x ˆ 2 /2 = Xef f.
Periodische Funktionen k¨onnen durch Sinusfunktionen approximiert werden. Aus dem Kosinussignal x(t) = x ˆ cos(ω0 t − ϕ) mit der Periode T0 = 2π/ω0 erh¨alt man durch Abtastung im Abstand T die Kosinusfolge: ˆ cos(n 2πT /T0 − ϕ), T < T0 . x(n) = x ˆ cos(nω0 T − ϕ) = x
(3.33)
3.4 Grundlagen zeitkontinuierlicher Systeme
191
Der Abtastabstand T soll dabei kleiner als die Periodendauer T0 von x(t) sein. Die zugeh¨orende komplexe Folge lautet: ˆ =x ˆ jn2πT /T0 , X ˆe−jϕ . (3.34) x ˜(n) = Xe Obwohl die Folge durch Abtastung aus einem periodischen Signal entstanden ist, handelt es sich bei ihr nicht zwingend um eine periodische Folge. Periodisch ist x(n) nur dann, wenn der Quotient T /T0 eine rationale Zahl ist. Bei genau N0 Abtastwerten innerhalb einer Periode, d.h. T0 /T = N0 , hat die Folge x(t) die gleiche Periodendauer T0 = N0 T wie das Ursprungssignal x(t). In diesem Fall gilt x(n) = x(n + kN0 ), k = 0, ±1, ±2, · · · Eine periodische Folge: x(n) = x(n + kN0 ),
k = 0, ±1, ±2, · · ·
(3.35)
kann auch in Form einer diskreten Fourier-Reihe dargestellt werden.
3.4 Grundlagen zeitkontinuierlicher Systeme In diesem Kapitel werden die wichtigsten Grundlagen der Signal- und Systemtheorie, soweit sie noch keine Kenntnisse der Transformationen voraussetzen, dargestellt. Der Abschnitt 3.4 f u¨ hrt f¨ur die zeitkontinuierlichen und der Abschnitt 3.5 fu¨ r diskontinuierlichen Systeme die wichtigsten Systemeigenschaften ein. Diese Eigenschaften, wie Linearit¨at, Zeitinvarianz, Stabilit¨at und Kausalit¨at werden zur Kennzeichnung von Systemen erkl¨art. Die Abschnitte 3.4.2 und 3.5.1 befassen sich intensiv mit dem Faltungsintegral bzw. mit der Faltungssumme. Hiermit k¨onnen, bei Kenntnis der Impulsantwort, Systemreaktionen auf beliebige Eingangssignale ermittelt werden. Die Impulsantwort ist die Systemreaktion auf einen DiracImpuls bzw. auf einen Einheitsimpuls als Eingangssignal. Sie ist eine wichtige Systemkenngr o¨ ße. ¨ In den Abschnitten 3.4.4 und 3.5.2 wird der Begriff der Ubertragungsfunktion eines Systems eingef¨uhrt und ein Zusammenhang zur komplexen Rechnung hergestellt.
3.4.1 Systemeigenschaften Um eine m¨oglichst allgemeine Darstellung zu erhalten, beschr¨anken wir uns auf Systeme mit einem Eingangssignal x(t) und einem Ausgangssignal y(t). Die Signale x(t) und y(t) k o¨ nnen sehr unterschiedliche Gr¨oßen repr¨asentieren, z.B. Str¨ome und Spannungen bei elektrischen Systemen oder Kr¨afte und Geschwindigkeiten bei mechanischen Systemen. x(t) ◦ Eingangssignal
System
◦ y(t) Ausgangssignal
Symbolische Darstellung eines Systems
Gerechnet wird stets mit dimensionslosen (normierten) Gr¨oßen, daher gelten die abgeleiteten Beziehungen f¨ur ganz unterschiedliche Realisierungen der Systeme. Das nebenstehende Bild zeigt die symbolische Darstellung eines Systems.
Der Zusammenhang zwischen dem Ein- und Ausgangssignal des Systems wird durch die Operatorenbeziehung: y(t) = T {x(t)} (3.36) ausgedr¨uckt. Diese Schreibweise soll andeuten, dass die Systemreaktion y(t) in irgendeiner Weise vom Eingangssignal x(t) abh¨angt.
192
3 Einf¨uhrung in die Systemtheorie
Bei linearen Systemen hat der Operator folgende Eigenschaften: T {k · x(t)} = k · T {x(t)},
T {x1 (t) + x2 (t)} = T {x1 (t)} + T {x2 (t)}.
(3.37)
Das System reagiert auf x(t) mit y(t) = T {x(t)}. Die linke Gleichung (3.37) sagt aus, dass ein lineares System auf das k-fache Eingangssignal x ˜(t) = k · x(t) mit dem k-fachen Ausgangssignal T {k · x(t)} = k · T {x(t)} = k · y(t) reagiert. Die rechte Gl. (3.37) bedeutet, dass ein lineares System auf die Summe von zwei Eingangssignalen mit der Summe der Reaktionen auf diese beiden Eingangssignale reagiert: y1 (t) = T {x1 (t)}, y2 (t) = T {x2 (t)}, T {x1 (t) + x2 (t)} = y1 (t) + y2 (t). Aus der Gl. (3.37) l¨asst sich die Beziehung T
N
kν · xν (t)
=
ν=1
N
kν · T {xν (t)}
(3.38)
ν=1
ableiten. Ein lineares System reagiert auf die gewichtete Summe von Eingangssignalen mit der gewichteten Summe der Reaktionen auf diese Eingangssignale. Die Zeitinvarianz eines Systems wird durch die nachstehende Gleichung ausgedr u¨ ckt: T {x(t)} = y(t),
T {x(t − t0 )} = y(t − t0 ).
(3.39)
Sie bedeutet, dass das System auf ein um t0 verz¨ogertes Eingangssignal x(t−t0 ) mit dem ebenfalls verz¨ogerten Ausgangssignal y(t − t0 ) reagiert. Systeme, die aus konstanten (nicht zeitabh¨angigen) Bauelementen aufgebaut sind, sind stets zeitinvariant. Umgangssprachlich kann dies auch so formuliert werden, dass alterungsbedingte Ver¨anderungen unber¨ucksichtigt bleiben oder dass ein System morgen in der gleichen Weise reagiert wie heute. Unter der Kausalit¨at eines System versteht man die Eigenschaft: y(t) = T {x(t)} = 0 f¨ur t < t0
und x(t) = 0 f¨ur t < t0 .
(3.40)
Ein kausales System kann auf ein Eingangssignal erst reagieren, wenn dieses eingetroffen ist. Der Zusammenhang y(t) = x(t + 1) beschreibt ein nichtkausales System. Die Systemreaktion entspricht hier dem um eine Zeiteinheit nach links verschobenen Eingangssignal. Die Kausalit¨at ist eine notwendige Bedingung damit die Systeme realisierbar sind. Physikalisch realisierbare Systeme m¨ussen nicht nur kausal, sondern zus¨atzlich auch noch stabil sein. Stabil ist ein System genau dann, wenn es auf gleichm¨aßig beschr¨ankte Eingangssignale mit ebenfalls gleichm¨aßig beschr¨ankten Ausgangssignalen reagiert: |x(t)| < M < ∞,
|y(t)| < N < ∞.
(3.41)
Ein System mit dem Zusammenhang y(t) = x(t − 1) ist kausal und stabil. Die Systemreaktion ist das um eine Zeiteinheit verz¨ogerte Eingangssignal. Wenn |x(t)| < M ist, ist auch |y(t)| = |x(t − 1)| < M . Ein System, das auf das Eingangssignal1 x(t) = s(t) mit y(t) = s(t)et reagiert, ist hingegen nicht stabil. Die Beziehung (3.41) ist zur Kontrolle, ob ein System stabil 1 s(t)
ist die im Abschnitt 3.3.2 eingef¨uhrte Sprungfunktion 3.19.
3.4 Grundlagen zeitkontinuierlicher Systeme
193
ist, oft nicht sehr geeignet. Einfachere Mo¨ glichkeiten zur Stabilit¨atskontrolle werden in den beiden folgenden Abschnitten angegeben. Im weiteren werden ausschließlich lineare zeitinvariante Systeme behandelt. Auf die Einhaltung der Kausalit¨at und Stabilit¨at wird in einigen F¨allen verzichtet. Der Begriff der Ged¨achtnislosigkeit ist bei der Klassifizierung von Systemen noch von Bedeutung. Bei ged¨achtnislosen Systemen gilt der Zusammenhang: y(t) = f [x(t)].
(3.42)
Ein lineares ged¨achtnisloses System muss dann die Form y(t) = K · x(t) mit K = 0 haben. Ein
2 System mit z.B. dem Zusammenhang y(t) = x(t) ist ein nichtlineares ged¨achtnisloses System.
3.4.2 Das Faltungsintegral Zun¨achst werden die Begriffe Sprungantwort und Impulsantwort eingefu¨ hrt. Zur Erkl¨arung beziehen wir uns auf das in der Bildmitte 3.13 dargestellte einfache System, eine RC-Schaltung mit der Zeitkonstanten RC = 1. ↑ x(t) = 1 · s(t)
↑ y(t) = h(t)
1 ........................................................................................................ .. .. ... .. .. .. .. .. . ........................................
.................................. ............... ......... ...... . . . . . .... .... ... .. .. . ........................................
→t
0
↑ x(t) = δ(t) δ(t) 6
0
1..
0
.... .. .. .. .. ................................ .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ... ............................................................................ ... . ................ •... ...................... ... ... .. .. ..... . R ... ... ..................... .. .. C ........................ . .. .. .. .. . . . . . . . . . . . . x(t) y(t) .. .. ... . ... ............................................................................................................. .. • .. ... . . ... . RC=1 .. ... . .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
→t
↑ y(t) = g(t)
1...... ... .... .. ... .. ..... .. ..... ...... .. ....... .. .......... .. ................. .. ........................................ . ......................................
→t
0
→t
Abbildung 3.13: Sprung- und Impulsantwort eines Systems
Als Sprungantwort bezeichnet man die Systemreaktion auf des Eingangssignal ”Sprungfunktion” x(t) = s(t), dies bedeutet nach Gl. (3.36) y(t) = T {x(t) = s(t)}. Die Sprungantwort wird mit h(t) bezeichnet: h(t) = T {s(t)}. (3.43) Im oberen Bildteil 3.13 ist das Eingangssignal x(t) = s(t) und die Systemreaktion: h(t) = s(t) · (1 − e−t ) =
0 1 − e−t
f¨ur f¨ur
t < 0, t > 0,
194
3 Einf¨uhrung in die Systemtheorie
f¨ur die einfache RC-Schaltung mit der Zeitkonstanten RC = 1 skizziert2 . Eine M¨oglichkeit der Berechnung der Sprungantwort ohne Kenntnis der Systemtheorie ist durch die Beschreibung und L¨osung des Systems durch eine Differentialgleichung gegeben. Diese M¨oglichkeit wird ausf¨uhrlich im Abschnitt Grundlagen der Elektrotechnik auf Seite 30 behandelt. Die Impulsantwort ist die Systemreaktion auf den Dirac-Impuls, also y(t) = T {x(t) = δ(t)}. Die Impulsantwort wird mit g(t) bezeichnet: g(t) = T {δ(t)}.
(3.44)
Man kann leicht zeigen, dass die Impulsantwort die Ableitung der Sprungantwort ist, damit gelten die Zusammenh¨ange: t d h(t) , h(t) = g(τ ) dτ. (3.45) g(t) = dt −∞ Ein System ist genau dann kausal, wenn g(t) = 0 fu¨ r t < 0 ist, da dies ja auch f¨ur x(t) = δ(t) gilt. F¨ur die RC-Schaltung im Bild 3.13 erh¨alt man mit der oben angegebenen Sprungantwort: g(t) =
d [s(t)(1 − e−t )] = s(t) e−t . dt
Bei der Ableitung ist die Eigenschaft f (t)δ(t) = f (0)δ(t) (Gl. 3.14) zu beachten. Die Impulsantwort ist im unteren Bildteil 3.13 skizziert. Die Impulsantwort ist eine sehr wichtige Kenngr o¨ ße f¨ur das System. Bei Kenntnis der Impulsantwort ko¨ nnen Systemreaktionen auf beliebige Eingangssignale berechnet werden, es gilt: ∞ ∞ x(τ )g(t − τ ) dτ = x(t − τ )g(τ ) dτ. (3.46) y(t) = −∞
−∞
Bei diesen Integralen handelt es sich um Faltungsintegrale (siehe auch Abschnitt 3.6.4). Mit dem Faltungssymbol ”∗” k¨onnen die Gln. (3.46) in der Kurzform y(t) = x(t) ∗ g(t) = g(t) ∗ x(t)
(3.47)
angegeben werden. Die Stabilit¨atsbedingung nach Gl. (3.41) f¨uhrt mit dem Faltungsintelgral (3.46) zu der notwendigen und hinreichenden Bedingung: ∞ |g(t)| dt < K < ∞. (3.48) −∞
3.4.3 Beispiele zur Auswertung des Faltungsintegrals Die Auswertung des Faltungsintegrals ist oft recht aufwendig. Im Folgenden werden deshalb relativ einfache Beispiele ausgef¨uhrt. 2 Die Funktion s(t) kommt hier mit zwei verschiedenen Bedeutungen vor. Zun¨ achst ist x(t) = s(t) das Eingangssignal f¨ur die RC-Schaltung. s(t) in der rechten Gleichungsseite von h(t) hat aber keinesfalls die Bedeutung des Eingangssignales, sondern nur die Aufgabe h(t) in geschlossener Form auszudru¨ cken (siehe hierzu auch Abschnitt 3.3.2).
3.4 Grundlagen zeitkontinuierlicher Systeme
195
Beispiel 3.3 Gegeben ist ein Eingangssignal x(t) = 3/2[s(t) − s(t − 3)] fu¨ r die RC-Schaltung vom Bild 3.13 mit der Impulsantwort g(t) = s(t)e−t . Die Berechnung der Systemreaktion soll mit dem Faltungsintegral in der Form:
∞
y(t) = −∞
6 x(t) bzw. x(τ )
x(t − τ )g(τ ) dτ 1, 5
erfolgen. Hierzu ist es zun¨achst sinnvoll eine Skizze f¨ur x(t) bzw. x(τ ) und dann f¨ur x(−τ ) (mittleres Bild), d.h. f¨ur t = 0 anzufertigen. x(−τ ) bedeutet eine Spiegelung von x(τ ) an der Ordinate (senkrechte Achse). Es ist klar, dass hier gilt: x(−τ ) · g(τ ) = 0, da sich die Teilfl¨achen nicht u¨ berlappen. Dies gilt auch f¨ur x(t − τ ) · g(τ ) f¨ur t < 0, da sich x(t − τ ) weiter nach links verschiebt. Gilt 0 < t ≤ 3 (3. Skizze), so schiebt sich x(t−τ ) nach rechts. Die Integralgrenzen sind durch den Bereich festgelegt, f¨ur den x(t − τ ) · g(τ ) = 0 ist: y(t) = 0
t
3
- t bzw. τ
6 1, 5
x(−τ ) 1
g(τ ) - τ 3 6 1, 5
x(t − τ ) 1
3 −t 3 · e dt = (1 − e−t ) 2 2
g(τ ) - τ 3
t
Diese L¨osung gilt aber nur im angegebenen Bereich 0 < t ≤ 3. Fu¨ r t > 3 a¨ ndert sich die untere Integralgrenze und damit die L¨osung:
t
y(t) = t−3
⎧ f¨ur t < 0 ⎨ 0 3 −t 3 −(t−3) −t 3 −t ·e dt = (e −e ) =⇒ y(t) = (1 − e ) f¨ur 0 < t ≤ 3 ⎩ 23 −(t−3) 2 2 −t (e − e ) f¨ ur t > 3 2
Nebenstehend ist die L¨osung f¨ur alle Bereiche von t skizziert. Die gleiche L¨osung ¨ kann zur Ubung auch mit dem Faltungsintegral in der zweiten Form gewonnen werden. Eine einfachere M¨oglichkeit zum Ergebnis zu kommen, besteht im L¨osungsansatz: x(t) =
y(t) 6 1 - t 3
6
3 3 (s(t)−s(t−3)) ⇒ y(t) = (h(t)−h(t−3)) 2 2
Ein lehrreiches und gleichermaßen einfaches wie aufwendiges Beispiel wird im Folgenden besprochen. Lehrreich ist es, weil sich die gefaltete Funktion deutlich von der nichtgefalteten Funktion unterscheidet. Einfach, weil die Integrale technisch einfach zu l o¨ sen sind und aufwendig, da es den allgemeinen Fall der Faltung mit vielfacher Fallunterscheidung verdeutlicht. Beispiel 3.4 F¨ur die Impulsfunktion g(t) eines Systems mit dem Eingangssignal x(t) = s(t) − s(t − 3) gilt:
196
3 Einf¨uhrung in die Systemtheorie
2t 0
g(t) =
f¨ur sonst,
0 ≤ t ≤ 1,
= s(t) · 2t − s(t − 1) · 2(t − 1) − 2s(t − 1)
g(t) 26 1 0 1
x(t)
3
-t
In der zweiten Form von g(t) wurde mit Hilfe der Sprungfunktion g(t) in geschlossener Form ausgedr¨uckt. F¨ur die Berechnung mit dem Faltungsintegral: ∞ x(τ ) · g(t − τ )dτ, y(t) = −∞
wird jedoch die einfachere abschnittsweise gegebene Funktion verwendet. Zun a¨ chst erfolgt wieder die Spiegelung g(τ ) =⇒ g(−τ ). Dies ist in der nachfolgenden Skizze (t = 0) dargestellt. In der Skizze f¨ur t = 0 ist zu erkennen, dass das Produkt x(τ ) · g(t − τ ) immer identisch Null ist. Dies gilt auch f¨ur t < 0, da dann g(t − τ ) noch weiter links auftreten w¨urde. F¨ur 0 < t ≤ 1 (2. Skizze) gilt: x(τ ) · g(t − τ ) = 1 · 2(t − τ ). Es folgt:
t
y(t) = 0
2(t − τ )dτ = 2(t2 −
2
t ) = t2 2
Auch f¨ur 1 < t ≤ 3 (3. Skizze) gilt: x(τ ) · g(t − τ ) = 1 · 2(t − τ ). Es folgt:
τ2 2(t − τ )dτ = 2 tτ − y(t) = 2 t−1 t
g(−τ ) 26 AA t=0 A1 A A 0 26 AA 0 < t < 1 1A A At 0
=1 t−1
F¨ur 3 < t ≤ 4 verl¨asst das Dreieck wieder x(t) (4. Skizze). Es gilt: 3
y(t) =
3
τ -
26
t
1
Dieses Ergebnis ist auch aus der Skizze ersichtlich, da das Integral die Fl¨ache des Dreiecks ergeben muss.
3
τ -
1
63 < t < 4 AA
A A
τ A t−1 3 t
2(t − τ )dτ = 6t − 9 − t2 + 1.
y(t) 6
t−1
¨ Zur Uberpr¨ ufung dieses Ergebnisses ist es sinnvoll, die Grenzwerte x(t = 3) = 1 und x(t = 4) = 0 einzusetzen. F¨ur t ≤ 4 gilt: x(τ ) · g(t − τ ) = 0, also auch y(t) = 0.
AA 1 < t < 3 A A τ A 3 0t−1 t
1 0
1
3
t 4
3.4 Grundlagen zeitkontinuierlicher Systeme
197
¨ 3.4.4 Die Ubertragungsund Systemfunktion ¨ Die Ubertragungsfunktion eines Systems kann auf verschiedene Arten eingef u¨ hrt werden. Wird als Eingangssignal f¨ur ein lineares zeitinvariantes System das komplexe Signal x(t) = ejωt gew¨ahlt, so ergibt sich mit der rechten Gleichung (3.46):
∞
y(t) = −∞
x(t − τ )g(τ ) dτ =
jωt
∞
=e
g(τ )e
−jωτ
∞
G(jω) =
ejω(t−τ ) g(τ ) dτ =
−∞
dτ = e
−∞
Das Integral:
∞
(3.49) jωt
· G(jω).
g(t)e−jωt dt,
(3.50)
−∞
¨ ist die Ubertragungsfunktion des Systems. G(jω) ist i.A. von dem Parameter ω abh¨angig. Die Gl. (3.49) kann so interpretiert werden, dass ein lineares zeitinvariantes System das Eingangssi¨ gnal ejωt lediglich mit einem m¨oglicherweise von ω abh¨angigen, komplexen Faktor der Ubertragungsfunktion G(jω), multipliziert. y(t) = ejωt · G(jω)
x(t) = ejωt ◦ g(t) ◦−−• G(jω) x1 (t) = cos(ωt) x2 (t) = sin(ωt)
◦
y1 (t) = Re{ejωt · G(jω)} y2 (t) = Im{ejωt · G(jω)}
¨ Interpretation und Anwendung der Ubertragungsfunktion Die Berechnung der Systemreaktion auf ein sin-f¨ormiges Eingangssignal kann mit Hilfe der Komplexen Rechnung erfolgen (vgl. Abschn. 1.6). Das Separieren der gesuchten L o¨ sung ist anschließend durch Realteil- bzw. Imagin¨arteilbildung m¨oglich. Da x(t) = ejωt = cos (ωt) + j sin (ωt) = x1 (t) + jx2 (t) folgt, dass auch die Systemreaktion aufgrund der Linearit¨at des Systems mit: y(t) = y1 (t) + jy2 (t) reagiert. Ein Vergleich von G(jω) nach Gl. (3.50) mit der Fourier-Transformierten eines Signales (s. Ab¨ schnitt 3.6) zeigt, dass die Ubertragungsfunktion als Fourier-Transformierte der Impulsantwort interpretiert werden kann. Es gilt also g(t) ◦−−• G(jω) bzw.: ∞ ∞ 1 −jωt g(t)e dt, ⇐⇒ g(t) = G(jω)ejωt dω. (3.51) G(jω) = 2π −∞ −∞ ¨ Bei Netzwerken kann die Ubertragungsfunktion auf eine weitere Art eingefu¨ hrt werden, n¨amlich als Quotient der komplexen Ausgangsgro¨ ße (komplexe Spannung oder komplexer Strom) zur komplexen Eingangsgr¨oße (siehe hierzu das Beispiel am Abschnittsende). Bei kausalen Systemen, g(t) = 0 f¨ur t < 0, kann mit der Variablen s = σ + jω die LaplaceTransformierte (s. Abschn. 3.9) der Impulsantwort: σ+∞ ∞ 1 g(t)s−st ds, ⇐⇒ g(t) = G(s)est ds (3.52) G(s) = 2πj 0− σ−∞
198
3 Einf¨uhrung in die Systemtheorie
¨ berechnet werden. G(s) wird als Systemfunktion, manchmal auch genauso wie G(jω) als Ubertragungsfunktion, bezeichnet. Bei stabilen Systemen liegt die jω-Achse im Konvergenzbereich ¨ der Laplace-Transformierten. Dann erh¨alt man mit s = jω aus G(s) die (eigentliche) Ubertragungsfunktion G(jω) = G(s = jω). F¨ur die Berechnung der Systemreaktion im Frequenzbereich (vgl. Abschn. 3.11), ist es h¨aufig einfacher die Systemfunktion G(s) zu verwenden. Lineare zeitinvariante Netzwerke, die aus endlich vielen konzentrierten Bauelementen aufgebaut sind, k¨onnen durch lineare Differentialgleichungen mit konstanten Koeffizienten beschrieben werden. Z.B. bei einem Netzwerk mit zwei unabh¨angigen Energiespeichern, dem Eingangssignal x(t) und dem Ausgangssignal y(t) hat die Differentialgleichung die Form: b2 y (t) + b1 y (t) + b0 y(t) = a2 x (t) + a1 x (t) + a0 x(t) ai , bj ∈ IR.
(3.53)
und y(t) = x(t) · G(jω), bzw. Die L¨osung der Differentialgleichung mit dem Ansatz x(t) = e ¨ bzw. der Systemfunktion x(t) = est und y(t) = x(t) · G(s) f¨uhrt direkt zur Ubertragungsfunktion des Systems: jωt
G(jω) =
a0 + a1 jω + a2 (jω)2 b0 + b1 jω + b2 (jω)2
⇐⇒
G(s) =
a0 + a1 s + · · · + am sm . b0 + b1 s + · · · + bn sn
(3.54)
¨ Dies bedeutet gleiche Koeffizienten in der Ubertragungsfunktion nach Gl. (3.54) und der Differentialgleichung in der Form (3.53). Bei stabilen Systemen mu¨ ssen die Nullstellen des Nennerpolynoms von G(s) alle negative Realteile haben (siehe hierzu die Bemerkungen im Folgenden Abschnitt). Die Beziehungen (3.53) und (3.54) sind sinngem¨aß auf Systeme mit weniger oder mehr Energiespeicher erweiterbar. Wegen der reellen Koeffizienten treten die Null- und Polstellen von G(s) nur auf der reellen Achse oder als konjugiert komplexe Paare auf. Bei stabilen Systemen ist m ≤ n und das Nennerpolynom muss ein Hurwitzpolynom sein. Dies bedeutet, dass bei stabilen Systemen alle Pole in der linken s-Halbebene liegen. Aus der Lage der Pol- und Nullstellen von G(s) k¨onnen wichtige Schl¨usse u¨ ber den D¨ampfungs- und Phasenverlauf und auch u¨ ber Realierungsm¨oglichkeiten f¨ur das System gezogen werden (siehe [18]). ¨ Beispiel 3.5 Gesucht sind die Ubertragungsfunktion und die Differentialgleichung des Systems vom Bild 3.13. Mit der Impulsantwort g(t) = s(t)e−t dieses Systems erh¨alt man nach der Gl. (4.15) ∞ ∞ ∞ 1 . G(jω) = g(t)e−jωt dt = e−t e−jωt dt = e−t(1+jω) dt = 1 + jω −∞ 0 0 ¨ Die Ubertragungsfunktion l¨asst sich hier einfacher mit der komplexen Rechnung (vgl. Abschn. 1.6) ermitteln. Ist U1 die komplexe Eingangsspannung und U2 die komplexe Ausgangsspannung bei der RC-Schaltung nach Bild 3.13, dann erha¨ lt man nach der Spannungsteilerregel: 1
G(jω) =
1 U2 jωC = = 1 U1 1 + jωRC R + jωC
(3.55)
und mit RC=1 das zuvor ermittelte Ergebnis. ¨ Die Ubertragungsfunktion hat eine Form gem¨aß der Gl. (3.54) mit den Koeffizienten a0 = 1, a1 = 0, a2 = 0, b0 = 1, b1 = 1 und b2 = 0. Damit erh¨alt man gem¨aß der Gl. (3.53) die Differentialgleichung: y (t) + y(t) = x(t).
3.5 Grundlagen zeitdiskreter Systeme
199
Bisher wurden stillschweigend reelle Systeme vorausgesetzt. Diese sind dadurch definiert, dass sie eine reelle Impulsantwort haben und damit auf reelle Eingangssignale mit reellen Ausgangssignalen reagieren. Im Frequenzbereich sind reelle Systeme durch die Eigenschaft G ∗ (jω) = G(−jω) ¨ erkennbar oder auch dadurch, dass der Realteil der Ubertragungsfunktion R(ω) = R(−ω) eine gerade und der Imagin¨arteil X(ω) = −X(−ω) eine ungerade Funktion ist (siehe auch Abschnitt ¨ 3.6.3). Bei kausalen Systemen sind der Real- und Imagin¨arteil der Ubertragungsfunktion voneinander abh¨angig und durch die Hilbert-Transformation miteinander verknu¨ pft.
3.5 Grundlagen zeitdiskreter Systeme W¨ahrend in dem vorausgegangenen Abschnitt 3.4 ausschließlich zeitkontinuierliche Signale und Systeme behandelt wurden, befasst sich dieser Abschnitt mit zeitdiskreten Signalen und den f u¨ r ¨ die Ubertragung solcher Signale geeigneten zeitdiskreten Systemen. Ein zeitdiskretes Signal erh¨alt man aus einem zeitkontinuierlichen durch Abtastung, wobei nach dem Abtasttheorem der Abtastabstand nicht gr¨oßer als 1/(2fg ) sein darf, wenn fg die h¨ochste vorkommende Frequenz im betreffenden Signal ist. Wird diese Bedingung eingehalten, so entsteht durch die Abtastung kein Verlust an Signalinformation, da aus der Folge der Abtastwerte das urspr u¨ ngliche analoge Signal ¨ exakt wiedergewonnen werden kann. Das Abtasttheorem wird im Zusammenhang mit den Ubertragungsbedingungen zeitdiskreter Signale im Abschnitt 3.8.2 erl¨autert. Die Behandlung zeitdiskreter Signale baut auf den Ergebnissen der zeitkontinuierliche Signale ¨ und Systeme auf. Es lassen sich bei der Durcharbeitung grunds¨atzliche Ahnlichkeiten zur Theorie kontinuierlicher Signale und Systeme feststellen. Viele Begriffe, wie z.B. Linearit¨at, Zeitinvarianz, Stabilit¨at haben bei zeitdiskreten Systemen eine v¨ollig gleiche Bedeutung und k¨onnen sinngem¨aß u¨ bernommen werden. Das Prinzip der zeitdiskreten und digitalen Signalverarbeitung ist schematisch in Abb. 3.14 dargestellt. T = 1/2fg x ˜(t)
b
Tiefpass fg
x(t)
b
T
r
zeitdiskretes System
x(nT )
b
x(n) A/D
digitales System
y(nT )
y(n) D/A
b
y(t) Filter
b
Abbildung 3.14: Schema zur Signalverarbeitung Die h¨ochsten Frequenzen eines analogen Signales x ˜(t) werden zun¨achst durch einen Tiefpass (vgl. Abschn. 3.11.5), der nur Signalanteile mit kleineren Frequenzen als fg passieren l¨asst, auf fg begrenzt. Dadurch ist sichergestellt, dass aus den durch Abtastung enstehenden Werten x(nT ) das Ursprungssignal x(t) exakt rekonstruiert werden kann. Die Abtastwerte x(nT ) stellen das Eingangssignal f¨ur ein zeitdiskretes System dar. Aus der Ausgangsfolge y(nT ) dieses Systems kann, falls erforderlich, wieder ein analoges zeitkontinuierliches Signal y(t) erzeugt werden. Das zeitdiskrete System kann so realisiert werden, dass die Abtastwerte x(nT ) unmittelbar verarbeitet werden. Bei einer digitalen Realisierung werden die Signalwerte x(nT ) durch eine A/D-Wandlung zun¨achst in eine Zahlenfolge x(n) u¨ berf¨uhrt. Dadurch entstehen auf jeden Fall Fehler, weil die
200
3 Einf¨uhrung in die Systemtheorie
Darstellung eines Signalwertes x(nT ) durch eine Zahl x(n) mit unvermeidlichen Rundungsfehlern behaftet ist. Das eigentliche digitale System (siehe Bild 3.14) kann als spezieller Rechner angesehen werden, der die Eingangszahlenfolge x(n) in eine Ausgangszahlenfolge y(n) umrechnet. Durch eine anschließende D/A-Wandlung entstehen die Ausgangssignalwerte y(nT ). Ein digitales System ist nach Bild 3.14 nicht nur ein zeitdiskretes System sondern zus¨atzlich auch ein wertediskretes System. In der Praxis stellen die diskreten Signalwerte ein Problem dar, weil durch das Rechnen mit Zahlen (endlicher Stellenzahl) zus¨atzliche Fehler entstehen, die zu einem unerw¨unschten Verhalten des Systems f¨uhren k¨onnen. Auf Probleme dieser Art kann hier aufgrund der Komplexit¨at nicht eingegangen werden. Deshalb wird im Folgenden nicht zwischen digitalen und zeitdiskreten Systemen unterschieden. Insbesonders wird f u¨ r Signale meist die k¨urzere Bezeichnung x(n) anstatt x(nT ) verwendet.
3.5.1 Systemeigenschaften und die Faltungssumme In diesem Abschnitt werden ebenso wie im zeitkontinuierlichen Fall, Systeme mit einem Eingangssignal x(n) und einem Ausgangssignal y(n) vorausgesetzt. Bei einigen Anwendungen wird auch die Schreibweise x(nT ) und y(nT ) verwendet, wenn das zeitdiskrete Signal durch Abtastung im Abstand T aus einem analogen Signal x(t) bzw. y(t) entstanden ist. Liegen die Werte x(n) bzw. y(n) in Form von Zahlen vor, so spricht man von digitalen Signalen 3 . Auf Unterschiede zwischen der Verarbeitung zeitdiskreter und digitaler Signale wird in diesem Abschnitt nicht eingegangen. Die Begriffe zeitdiskret und digital werden hier so wie in der Einleitung dargestellt verwendet. Ein zeitdiskretes oder digitales System wird durch das gleiche Symbol wie ein zeitkontinuierliches (Bild Seite 191) dargestellt. x(n) ◦
◦ y(n)
System
Eingangsfolge
Ausgangsfolge
Der Zusammenhang zwischen der Ein- und Ausgangsfolge wird durch eine Operatorenbeziehung beschrieben: y(n) = T {x(n)}.
Symbolische Darstellung eines Systems
(3.56)
Ist das zeitdiskrete System linear, so gilt entsprechend den Gln. (3.37) und (3.37): T {k · x(n)} = k · T {x(n)}, T {x1 (n) + x2 (n)} = T {x1 (n)} + T {x2 (n)}, N N kν · xν (n) = kν · T {xν (n)}. T ν=1
(3.57)
ν=1
Die Zeitinvarianzbedingung entsprechend der Gl. (3.39) lautet: T {x(n)} = y(n),
T {x(n − n0 )} = y(n − n0 ).
(3.58)
Bei kausalen Systemen gilt: y(n) = T {x(n)} = 0 f¨ur n < n0 3 Siehe
hierzu auch die Ausf¨uhrungen im Abschnitt 3.2
wenn
x(n) = 0 f¨ur n < n0 .
(3.59)
3.5 Grundlagen zeitdiskreter Systeme
201
Ein stabiles System reagiert auf ein gleichm¨aßig beschr¨anktes Eingangssignal mit einem ebenfalls gleichm¨aßig beschr¨ankten Ausgangssignal: |x(n)| < M < ∞,
|y(n)| < N < ∞.
(3.60)
Als Sprungantwort h(n) bezeichnet man die Systemreaktion y(n) auf die Sprungfolge als Eingangssignal: x(n) = s(n). Es gilt: h(n) = T {s(n)}. Die Impulsantwort g(n) ist die Systemreaktion y(n) auf den Einheitsimpuls als Eingangssignal: x(n) = δ(n). Es gilt: g(n) = T {δ(n)}. Zwischen den beiden Systemreaktionen h(n) und g(n) bestehen die Beziehungen: g(n) = h(n) − h(n − 1),
h(n) =
n
g(ν).
(3.61)
ν=−∞
Bei Kenntnis der Impulsantwort k¨onnen die Systemreaktionen mit den Gleichungen: ∞
y(n) =
∞
x(ν)g(n − ν) =
ν=−∞
x(n − ν)g(ν)
(3.62)
ν=−∞
berechnet werden. Es handelt sich hier um Faltungssummen, die in der Kurzschreibweise: y(n) = x(n) ∗ g(n) = g(n) ∗ x(n)
(3.63)
angegeben werden k¨onnen. Ein zeitdiskretes System ist kausal, wenn g(n) = 0 fu¨ r n < 0 ist. Die Stabilit¨atsforderung f¨uhrt mit der Faltungssumme zu der notwendigen und hinreichenden Stabilit¨atsbedingung: ∞
|g(n)| < K < ∞.
(3.64)
n=−∞
Zur Berechnung der Faltungssummen werden im Folgenden h¨aufig Summen geometrischer Reihen ben¨otigt. Bekanntlich gilt: N −1
qν =
ν=0
1 − qN , 1−q
∞
qν =
ν=0
1 bei |q| < 1. 1−q
(3.65)
¨ 3.5.2 Die Ubertragungsund die Systemfunktion Das Eingangssignal f¨ur ein zeitdiskretes System sei das im Abstand T abgetastete komplexe Signal ejωt , also x(n) = ejnωT . Mit der Faltungssumme (3.62) erh¨alt man die Systemreaktion auf dieses Eingangssignal: ∞
y(t) =
ν=−∞
= e
jnωT
∞
x(n − ν)g(ν) =
ej(n−ν)ωT g(ν) =
ν=−∞ ∞ ν=−∞
g(ν)e
−jνωT
=e
jnωT
(3.66) G(jω).
202
3 Einf¨uhrung in die Systemtheorie
Darin ist:
∞
G(jω) =
g(n)e−jnωT
(3.67)
n=−∞
¨ die Ubertragungsfunktion des zeitdiskreten Systems. Somit reagiert ein lineares, zeitinvariantes, zeitdiskretes System auf die komplexe Eingangsfolge ejnωT mit der mit dem Faktor G(jω) multiplizierten Eingangsfolge G(jω) · ejnωT . y(n) = ejωnT · G(jω)
x(n) = ejωnT ◦ x1 (n) = cos(ωnT ) x2 (n) = sin(ωnT )
g(n) ◦−−• G(jω)
◦
y1 (n) = Re{ejωnT · G(jω)} y2 (n) = Im{ejωnT · G(jω)}
¨ Interpretation und Anwendung der Ubertragungsfunktion Die Berechnung der Systemreaktion auf ein sin-f¨ormiges Eingangssignal kann entsprechend dem Abschnitt 3.4.4 erfolgen. Das separieren der gesuchten Lo¨ sung ist anschließend durch Realteil- bzw. Imagin¨arteilbildung m¨oglich. Da x(n) = ejωnT = cos (ωnT ) + j sin (ωnT ) = x1 (n) + jx2 (n) folgt, dass auch die Systemreaktion aufgrund der Linearit¨at des Systems mit: ¨ y(n) = y1 (n) + jy2 (n) reagiert. Aus der Gl. (3.67) erkennt man, dass Ubertragungsfunktionen zeitdiskreter Systeme periodische Funktionen mit einer Periode 2π/T sind. Auf diese Eigenschaft und sich daraus ergebende Folgerungen wird in dem Beispiel am Abschnittsende kurz eingegangen. Bei kausalen Systemen, d.h. g(n) = 0 f¨ur n < 0, kann auch die z-Transformierte der Impulsantwort: ∞ g(n)z −n (3.68) G(z) = n=0
berechnet werden (siehe Gl. (3.172) im Abschnitt 3.10.6). G(z) wird als Systemfunktion, oft aber ¨ auch genauso wie G(jω) als Ubertragungsfunktion bezeichnet. Aus G(z) erh¨alt man mit z = ejωT ¨ die Ubertragungsfunktion:
(3.69) G(jω) = G z = ejωT . Bei kausalen Systemen erh¨alt man mit jω =
1 T
ln z die Systemfunktion:
1 G(z) = G jω = ln z . T
(3.70)
Realisierbare gebrochen rationale Systemfunktionen mu¨ ssen einen Z¨ahlergrad nicht gr¨oßer als den Grad des Nennerpolynoms aufweisen und alle Polstellen mu¨ ssen im Inneren des Einheitskreises |z| < 1 liegen. Diese Stabilit¨atsbedingung folgt aus der Forderung nach Gl. (3.64) und der Eigenschaft, dass ”abnehmende” Funktionen im z−Bereich alle Pole im Bereich |z| < 1 haben (siehe Abschnitt 3.10.8 und das nachfolgende Beispiel).
3.5 Grundlagen zeitdiskreter Systeme
203
Beispiel 3.6 F¨ur ein System mit der Impulsantwort: g(n) = s(n)(1 − a) an , |a| < 1 ¨ sollen die Ubertragungsund die Systemfunktion berechnet werden. Die Impulsantwort ist im linken Bildteil 3.15 f¨ur den Wert a = 3/4 skizziert. 1.......↑ |G(jω)|
.. ... .. .... .. .. .. .. .. .. ... .. ... ... .... .. .. .. .. . .. .. .. .. .. .. .. .. .. .. .. .. ... .. .. .... . . ... ... . . .. .. .. .. .. .. ... ... .. .. ... ... ... ... .. .. . . . . ... ... . . .. .. .. .. π ... ... ... ... ωmax = T ... ... ... ... .... . .... ... .... . ..... . . . . . . . . ...... .. ........ . ......... ....... ....... ............. ........ .................... ............................................................... 1 .. .......................................... . 7 . . . . . .. π 3π 4π 2π 0 T T T T
↑ g(n) 0,25• • • •
• −1
0
1
2
3
•
•
•
→ω
→n
4
5
6
¨ Abbildung 3.15: Impulsantwort und Betrag der Ubertragungsfunktion im Fall a = 3/4 Nach Gl. (3.67) erh¨alt man: ∞
G(jω) = = (1 − a)
g(n)e−jnωT =
n=−∞
∞
−jωT n
ae
n=0
∞
(1 − a)an e−jnωT =
n=0
1−a ejωT , |a| < 1. = = (1 − a) jωT −jωT 1 − ae e −a
Die Summe konvergiert nur bei |a| < 1. Aus G(jω) erha¨ lt man mit z = ejωT die Systemfunktion z , |a| < 1. G(z) = (1 − a) z−a Die Bedingung |a| < 1 bedeutet, dass das System stabil ist, G(z) hat bei z = a eine im Inneren des Einheitskreises liegende Polstelle. ¨ Es soll nun noch den Betrag der Ubertragungsfunktion berechnet werden: ejωT ejωT = (1 − a) , −a cos (ωT ) − a + j sin (ωT ) 1−a 1−a |G(jω)| = . = 2 − 2 cos (ωT ) 2 (1 + a 2 (cos (ωT ) − a) + sin (ωT ) G(jω) = (1 − a)
ejωT
Bei ω = 0, ω = 2π/T , ω = 4π/T · · · erh¨alt man G(0) = 1, bei ω = π/T , ω = 3π/T · · · wird |G(jπ/T )| = 1−a ¨ r a = 3/4 skizziert. 1+a . Der Verlauf von |G(jω)| ist im rechten Bild 3.15 fu In der Praxis sorgt man im Allgemeinen daf¨ur, dass die Spektren der Eingangssignale keine Fre1 bzw. der Kreisfrequenz ωmax = Tπ haben4 . quenzanteile oberhalb der Frequenz fmax = 2T Signale mit einem derart begrenzten Spektrum erfu¨ llen die Bedingungen des Abtasttheorems (siehe Abschnitt 3.8.2) und werden durch ihre Abtastwerte vollst¨andig beschrieben. Bei diesen Si¨ gnalen ist der periodische Verlauf der Ubertragungsfunktion ohne Einfluss, relevant ist nur der Bereich bis zur (im Bild 3.15 eingetragenen) maximalen Kreisfrequenz ωmax = π/T . 4 Filter,
die diese Bandbegrenzung vornehmen, werden oft als Antialiasing-Filter bezeichnet.
204
3 Einf¨uhrung in die Systemtheorie
3.5.3 Die Beschreibung zeitdiskreter Systeme durch Differenzengleichungen Zeitdiskrete Systeme, die mit einer endlichen Anzahl von Bauelementen5 realisierbar sind, k¨onnen durch Differenzengleichungen beschrieben werden: y(n) + d0 y(n − 1) = c1 x(n) + c0 x(n − 1), y(n)+d1 y(n − 1)+d0 y(n − 2) = c2 x(n)+c1 x(n − 1)+c0 x(n − 2).
(3.71)
Die obere Gl. (3.71) ist eine Differenzengleichung 1. Grades. Hier treten neben der Ein- und Ausgangsfolge x(n) und y(n) die um einen ”Takt” verzo¨ gerten Signale x(n − 1) und y(n − 1) auf. Bei der Differenzengleichung 2. Grades kommen auch noch die um zwei Takte verz o¨ gerten Signale x(n−2) und y(n−2) vor. Die Gln. (3.71) ko¨ nnen sinngem¨aß auf Differenzengleichungen h¨oheren Grades erweitert werden. ¨ Wir berechnen zun¨achst die Ubertragungsfunktion eines Systems, das durch eine Differenzengleichung 2. Grades beschrieben wird. Die Differenzengleichung soll fu¨ r das Eingangssignal x(n) = ejnωT gel¨ost werden. Weil ein lineares zeitinvariantes System vorliegt, muss die Lo¨ sung y(n) = G(jω) · ejnωT lauten. Setzt man diese Funktionen in die Differenzengleichung 2. Grades ein, dann erh¨alt man: G(jω)ejnωT + d1 G(jω)ej(n−1)ωT + d0 G(jω)ej(n−2)ωT = = c2 ejnωT + c1 ej(n−1)ωT + c0 ej(n−2)ωT . In dieser Gleichung kann ejnωT weggek¨urzt werden und wir erhalten: G(jω) =
c0 + c1 ejωT + c2 e2jωT c2 + c1 e−jωT + c0 e−2jωT = . 1 + d1 e−jωT + d0 e−2jωT d0 + d1 ejωT + e2jωT
(3.72)
Mit z = ejωT erh¨alt man die Systemfunktion des Systems mit der Differenzengleichung 2. Grades G(z) =
c0 + c1 z + c2 z 2 . d0 + d 1 z + z 2
(3.73)
Die Gln. (3.72) und (3.73) sind auf Systeme niedrigeren und ho¨ heren Grades sinngem¨aß erweiterbar. Bei stabilen Systemen darf der Grad des Z¨ahlerpolynoms von G(z) nicht gr¨oßer als der Grad des Nennerpolynoms sein. Die Polstellen von G(z) mu¨ ssen im Bereich |z| < 1 liegen. Ein Vergleich der Beziehungen (3.71) und (3.73) zeigt, dass die Koeffizienten cμ , dν bei der Systemfunktion und der Differenzengleichung u¨ bereinstimmen. F¨ur Eingangssignale mit der Bedingung x(n) = 0 fu¨ r n < n0 , und damit auch y(n) = 0 f¨ur n < n0 , k¨onnen Differenzengleichungen rekursiv gelo¨ st werden. Wir beziehen uns auf eine Differenzengleichung 2. Grades und ein Eingangssignal x(n) = 0 fu¨ r n < 0 und damit auch y(n) = 0 f¨ur n < 0. Aus der Gl. (3.71) erh¨alt man zun¨achst: y(n) = c2 x(n) + c1 x(n − 1) + c0 x(n − 2) − d1 y(n − 1) − d0 y(n − 2). 5 Die
(3.74)
”Bauelemente” zeitdiskreter/digitaler Systeme sind Addierer, Multiplizierer und Verz o¨ gerungsglieder (Speicher).
3.5 Grundlagen zeitdiskreter Systeme
205
Daraus folgt mit x(n) = 0 f¨ur n < 0 und y(n) = 0 f¨ur n < 0 schrittweise: n=0: n=1: n=2: n=3:
y(0) = c2 x(0) y(1) = c2 x(1) + c1 x(0) − d1 y(0) y(2) = c2 x(2) + c1 x(1) + c0 x(0) − d1 y(1) − d0 y(0) y(3) = c2 x(3) + c1 x(2) + c0 x(1) − d1 y(2) − d0 y(1) · · ·
(3.75)
Die z.B. bei der Berechnung von y(3) erforderlichen Werte von y(2) und y(1) wurden in den Schritten davor berechnet. • x(n) • x(n) • c0 c1 c0 c c A A A A 1 A 2 ? ? ? ? - +? i •- y(n) +i- T +i- T - +i- T - +i •- y(n) 6 6 6 A −d0 A −d0 A −d1 •
Abbildung 3.16: Zeitdiskrete Systeme 1. und 2. Grades Aus der Gl. (3.74) erh¨alt man die rechts im Bild 3.16 dargestellte Realisierungsstruktur fu¨ r ein zeitdiskretes/digitales System 2. Grades. Links im Bild 3.16 ist die Schaltung fu¨ r ein System 1. Grades mit der Differenzengleichung y(n) = c1 x(n) + c0 x(n − 1) − d0 y(n − 1) skizziert. Aus den Bildern erkennt man sofort, wie die Schaltungen ho¨ heren Grades aussehen. I.A. werden aber Schaltungen h¨oheren Grades durch Hintereinanderschaltungen von Systemen 1. und 2. Grades realisiert. Beispiel 3.7 Gesucht wird die Differenzengleichung eines Systems mit der Impulsantwort g(n) = s(n)(1 − a) an , |a| < 1 und deren rekursive L¨osung f¨ur das Eingangssignal x(n) = s(n) · n. Die Impulsantwort ist links im Bild 3.15 skizziert. Im Beispiel 3.6 des Abschnittes 3.5.2 wurde die Systemfunktion: c0 + c1 z (1 − a) z = G(z) = z−a d0 + z dieses Systems berechnet. Die Koeffizienten c0 = 0, c1 = 1 − a, d0 = −a f¨uhren gem¨aß Gl. (3.71) zu der Differenzengleichung: y(n) − ay(n − 1) = (1 − a) x(n). Eine Realisierungsstruktur f¨ur dieses System erh¨alt man mit der linken Schaltung 3.16, wenn dort die Koeffizienten die Werte d0 = −a, c0 = 0 und c1 = (1 − a) haben. Zur rekursiven L¨osung der Differenzengleichung f¨ur das Eingangssignal x(n) = s(n)·n schreiben wir: y(n) = (1 − a)x(n) + a y(n − 1), y(n) = (1 − a)s(n) n + a y(n − 1) und erhalten dann f¨ur n ≥ 0 rekursiv: y(0) = 0, y(1) = (1 − a), y(2) = (1 − a)2 + a(1 − a), y(3) = (1 − a)3 + a[(1 − a)2 + a(1 − a)] usw. F¨ur x(n) und y(n) erh¨alt man mit a = 3/4 die Werte y(0) = 0, y(1) = 0, 25, y(2) = 0, 6875, y(3) = 1, 2656.
206
3 Einf¨uhrung in die Systemtheorie
3.6 Beschreibung von Signalen im Frequenzbereich In diesem Abschnitt werden verschiedene Transformationen behandelt. Diese Transformationen erlauben die Beschreibung von Funktionen sowohl im Originalbereich als auch im Transformationsbereich. In der Systemtheorie wird der Originalbereich als der Zeitbereich aufgefasst, so dass die kontinuierlichen Funktionen f (t) in Abh¨angigkeit vom Parameter t und die diskontinuierlichen Funktionen f (n) vom Parameter n dargestellt (siehe Abschnitt 3.10.1) werden. Der Transformationsbereich der Funktionen erlaubt eine Aussage u¨ ber ihre spektrale (frequenzm¨aßige) Zusammensetzung. Deshalb wird dieser Bereich in der Systemtheorie mit Frequenzbereich bezeichnet. Den Transformationen kommt in der Systemtheorie eine zentrale Bedeutung zu, da nur durch ihre Kenntnis wichtige Anwendungen, z.B. des Abtasttheorems zu verstehen sind.
3.6.1 Die Fourier-Transformation Mittels der Fourier-Reihe, die hier aber nicht ausfu¨ hrlich behandelt werden soll, gelingt es, ein periodisches Signal als Summe sinusf¨ormiger Teilschwingungen darzustellen. Fu¨ r periodische Signale x(t) mit der Periodendauer T0 werden deshalb die Fourierkoeffizienten, also die Amplituden der Teilschwingungen, aus denen sich die Signale x(t) zusammen setzen lassen, als Spektrum bezeichnet. Im Abschnitt 3.6.2 erfolgt eine etwas allgemeinere Definition des Spektrums. F u¨ r die periodische Fortsetzung der Rechteckfunktion f (t) = s(t + T /2) − s(t − T /2) von Seite 216 (vgl. Absch. 3.3.2 und Abb. 3.23) lautet die Fourier-Reihe: f (t)
=
∞
Fν ejνω0 t =
ν=−∞ ∞
= a0 + Fν
=
1 T0
∞ 1 sin(νπ/2) ejνω0 t , νπ ν=−∞
ω0 =
2π , T0
(3.76)
1 2 + sin(νπ/2) cos(νω0 t), 2 ν=1 νπ ∞
aν cos(νω0 t) =
ν=1 T /2
f (t)e−jν2πt/T0 dt.
−T /2
Die Fourier-Koeffizienten aν der unteren reellen Form ergeben sich aus den komplexen Koeffizienten Fν . Geht man zun¨achst von der reellen Form der Fourier-Reihe aus, dann erh¨alt man das rechts im Bild 3.17 skizzierte Spektrum. Bei ω = 0 ist der Gleichanteil 0,5 aufgetragen.
1 π 1 5π . −3ω0 −2ω 0 .. . −ω0 −5ω0 4ω0 −1 3π
1 2
0
1 2
1 π
ω0
..
2ω0
3ω0 −1 3π
4ω .0 .
2 π
1
.. ... 5π
5ω0
→ω
0
ω0
..
3ω0
2ω0
..
4ω0 −2 3π
2 5π 5ω0
→ω
Abbildung 3.17: Spektrum von f (t) links gem¨aß der komplexen und rechts nach der reellen Form
3.6 Beschreibung von Signalen im Frequenzbereich
207
Bei der Grundkreisfrequenz ω = ω0 besitzt die Schwingung a1 cos(ω0 t) die Amplitude a1 = 2/π. Bei ω = 3ω0 ist der n¨achste nicht verschwindende Fourier-Koeffizient a3 = −2/(3π) dargestellt. Die zugeh¨orige Schwingung lautet: a3 cos(3ω0 t). Da hier f (t) = f (−t) eine gerade Funktion ist, treten Fourier-Koeffizienten bν nicht auf. Bei Kenntnis des so erkl¨arten Spektrums liegen offenbar alle Informationen u¨ ber das zugrundeliegende Signal vor. Aus dem Bild 3.17 erkl¨art sich auch die Bezeichnung Linienspektrum, die aussagt, dass Frequenzanteile nur bei diskreten Frequenzwerten vorliegen. Das Spektrum kann auch auf einfache Art mit einem durchstimmbaren selektiven Spannungsmessger¨at gemessen werden. Hierbei werden die Effektivwerte der einzelnen harmonischen Schwingungen gemessen. Bei der Darstellung von f (t) nach der oberen Form von Gl. (3.76) treten komplexe Schwingungen mit positiven und negativen Indizes Fν ejνω0 t und F−ν e−jνω0 t auf. Zur Darstellung des Spektrums wird eine Teilschwingung Fν ejνω0 t durch Fν an der Stelle ω = ν · ω0 markiert. Die Teilschwingung F−ν e−jνω0 t = F−ν ej(−νω0 )t wird bei der negativen Frequenz ω = −ν · ω0 aufgetragen. Dadurch entsteht das links im Bild 3.17 dargestellte Spektrum, das von der oberen Reihendarstellung (3.76) ausgeht und ansonsten die gleichen Informationen wie das rechts skizzierte Spektrum enth¨alt. Es bleibt noch nachzutragen, dass die Fourier-Koeffizienten Fν i.A. komplex sind: Fν = |Fν |ejϕν , so dass dann bei νω0 bzw. −νω0 Betrag und Phasenwinkel der Fourier-Koeffizienten aufzutragen sind.
3.6.2 Die Grundgleichungen der Fourier-Transformation Wir setzen zun¨achst eine absolut integrierbare Funktion f (t) voraus:
∞
−∞
|f (t)| dt < ∞.
(3.77)
Dieser Funktion wird eine von der reellen Variablen ω abh¨angige Funktion, die FourierTransformierte zugeordnet:
∞
f (t)e−jωt dt,
F (jω) = −∞
F (jω) = F{f (t)}.
(3.78)
Statt F (jω) k¨onnte man auch F (ω) schreiben. Die hier gew¨ahlte Form ist aber im Sinne einer einheitlichen Darstellung vorzuziehen. Bei Kenntnis der Fourier-Transformierten F (jω) kann die zugrundeliegende Zeitfunktion f (t) ◦−−• F (jω) durch die Beziehung: f (t) =
1 2π
∞
−∞
F (jω)ejωt dω,
f (t) = F −1 {F (jω}
(3.79)
zur¨uckgewonnen werden. Den Beweis f¨ur diese R¨ucktransformationsgleichung kann man auf unterschiedliche Weise f¨uhren. H¨aufig geht man dabei von der Fourier-Reihendarstellung einer mit der Periode T0 periodischen Funktion aus und macht den Grenzu¨ bergang T0 → ∞. F (jω) wird auch als Spektralfunktion oder kurz Spektrum von f (t) bezeichnet.
208
3 Einf¨uhrung in die Systemtheorie
¨ Fourier-Transformierte 3.6.3 Darstellungsarten fur Die Fourier-Transformierte ist i.A. eine komplexe Funktion, die daher in einen Realteil R(ω) und Imagin¨arteil X(ω) aufgespalten werden kann: F (jω) = R(ω) + jX(ω).
(3.80)
Wir setzen zun¨achst reelle Zeitfunktionen f (t) voraus und erhalten nach Gl. (3.78): F (jω) =
∞
f (t)e−jωt dt =
−∞ ∞
= −∞
∞
−∞
f (t) cos(ωt) dt − j
f (t)[cos(ωt) − j sin(ωt)] dt =
(3.81)
∞
f (t) sin(ωt) dt. −∞
Ein Vergleich mit Gl. (3.80) f¨uhrt bei reellen Zeitfunktionen zu den Beziehungen:
∞
R(ω) = X(ω) = −
f (t) cos(ωt) dt = R(−ω), −∞ ∞ −∞
(3.82) f (t) sin(ωt) dt = −X(−ω).
Man erkennt unmittelbar, dass der Realteil R(ω) eine gerade und der Imagin¨arteil X(ω) eine ungerade Funktion ist und daraus folgt bei reellen Zeitfunktionen die Eigenschaft F ∗ (jω) = F (−jω). In diesem Zusammenhang stellt sich die Frage, welche Eigenschaften reelle Zeitfunktionen f (t) haben m¨ussen, damit F (jω) entweder reell oder imagin¨ar ist. Die Studierenden k¨onnen selbst leicht nachpr¨ufen, dass eine gerade Zeitfunktion f (t) = f (−t) zu dem Imagin¨arteil X(ω) = 0 f¨uhrt. Insgesamt erh¨alt man folgende Ergebnisse: f (t) = f (−t), f(t) reell : F (jω) = R(ω) = R(−ω), (3.83) f (t) = −f (−t), f(t) reell : F (jω) = jX(ω) = −jX(−ω). Gerade reelle Zeitfunktionen besitzen eine reelle, ungerade reelle Zeitfunktionen haben eine imagin¨are Fourier-Transformierte. Neben der Darstellung einer Fourier-Transformierten durch ihren Real- und Imagin¨arteil ist nat¨urlich auch eine Darstellung nach Betrag und Phasenwinkel mo¨ glich: F (jω) = |F (jω)| ejϕ(ω) , X(ω) , |F (jω)| = R2 (ω) + X 2 (ω), ϕ(ω) = arctan R(ω) reelle Funktionen f(t): |F (jω)| = |F (−jω)|, ϕ(ω) = −ϕ(−ω).
(3.84)
Der Betrag |F (jω)| wird auch als Amplitudenspektrum, der Phasenwinkel ϕ(ω) als Phasenspektrum des zugrundeliegenden Signales f (t) bezeichnet.
3.6 Beschreibung von Signalen im Frequenzbereich
209
Beispiel 3.8 Untersucht wird die Fourier-Transformierte eines Rechteckimpulses der Breite T und H¨ohe A, wie auch links im Bild 3.19 skizziert. Aus Gl. (3.78) folgt: T ∞ −jωt f (t)e dt = Ae−jωt dt = F (jω) = −∞
=
0
A A[1 − cos(ωT ) + j sin(ωT )] (1 − e−jωT ) = . jω jω
Aus der rechten Form erhalten wir (Gln. 3.80, 3.84): sin(ωT ) 1 − cos(ωT ) R(ω) = A , X(ω) = −A , ω ω A 1 − cos(ωT ) . |F (jω)| = 2[1 − cos(ωT )], ϕ(ω) = − arctan |ω| sin(ωT ) Im Bild 3.18 sind links der Real- und Imagin¨arteil, rechts der Betrag (das Amplitudenspektrum) und der Phasenwinkel (das Phasenspektrum) aufgetragen. R(ω)
A T....... .. .. .. ... X(ω)................ ...... ... .. ... .. ..... . ... .. .... ... .... .. .... ... .. ... .. ... ... ... ... ... .. . . ............ .. ... .... ... . . . . . .. . ....... . ............. ...... ... ........................................................................ .............................. .... ................. .... .. .... ....... .... ..................... ........................ ................... ....... ......... ......... ... .. ... .... ........ .... ............... ....... .............. ............................. ..... ........... ... .. ... .. ..... .. ... .. .. ........ .. ............ ..... →ω .. . .. .. ... .. ... ... . .. ... ... .. ... .... . .. ... 2π .. .. .. . ... ... T ....
|F (jω)|
A T.......... .. .... .. ... .. ... ... ... ... .. ϕ(ω) . π . .... .. ... ..... ... .... ..... . ... ...... .... . 2 ...... .. ... . .. ... ...... . ... .... ...... ... .. .. ... . .. .. ... ... .. .. .. .. ... ... .. ........ .. ... . . . .. .. .... . ... .. .... .. .... . ... .. .. . . . . . . . . . . . . . . . . . . . .. .. . . . . .. . . . . .. ... .. ... ... ... ...... ........... ... ... ... ... .. ............... .. ... ... .. ... .... ... .... .. ... ... ... ... ... . ........ ... ......... ... ... .. ... .. . .. .................................................. .... ................ .... ........ .... ..... ..... ......... ..... ................ ..... .................................................. .. .. .. .. .. .. .. .. . .. .. .. .. .. .. .. .. .. .. .. .. .. . .. . .. .. .. . .. .. .. .. .. .. .... ...
.. .. ... .. .. .. .. .. . .. .. .. .. .. .. .. .. .... ..
. .. .. ... .. .. .. .. .. .. .. ... .. . .. . .. .. ... ...
. .. .. .... .. .. .. .. .. .. .. . .. . .. .. .. . ... ...
.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. . .. ... .... ..
...... ... . ... ... . ... .... .... .. .. ... .. .. . .... ........ ...
2π T
.. ... .. . .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... ..
.. .. .... .. .. .. .. .. .. .. .. .. .. .. . .. ... ... ....
.. .
→ω
Abbildung 3.18: Real- und Imagin¨arteil, Betrag- und Phasenwinkel der FourierTransformierten eines Rechteckimpulses (Bild 3.19) der Breite T und H¨ohe A (Darstellung f¨ur A T = π)
3.6.4 Wichtige Eigenschaften der Fourier-Transformation Die wichtigsten Eigenschaften der Fourier-Transformation werden zusammengestellt und zumeist nur in kurzer und mathematisch wenig strenger Form bewiesen. Auf Beweise sowie erl¨auternde Beispiele und graphische Darstellungen wird in diesem Abschnitt meistens verzichtet. 1. Linearit¨at f (t) = k1 f1 (t) + k2 f2 (t) ◦−−• F (jω) = k1 F1 (jω) + k2 F2 (jω). Die Funktion f (t) = k1 f1 (t) + k2 f2 (t) hat die Fourier-Transformierte: ∞ [k1 f1 (t) + k2 f2 (t)]e−jωt dt = F (jω) = −∞ ∞ ∞ = k1 f1 (t)e−jωt dt + k2 f2 (t)e−jωt dt = k1 F1 (jω) + k2 F2 (jω). −∞
−∞
(3.85)
210
3 Einf¨uhrung in die Systemtheorie
2. Symmetrie der Fourier-Transformation, Vertauschungssatz Schreibt man die beiden Gleichungen (3.78) und (3.79) in der Form: ∞ ∞ −jωt f (t)e dt, 2π f (t) = F (jω)ejωt dω, F (jω) = −∞
−∞
dann erkennt man den symmetrischen Aufbau der beiden Gleichungen. Ersetzt man in diesen Gleichungen ω durch t und t durch −ω, so erh¨alt man die Korrespondenz:
3. Zeitverschiebungssatz
F (jt) ◦−−• 2π f (−ω).
(3.86)
f (t − t0 ) ◦−−• F (jω)e−jωt0 .
(3.87)
Die R¨ucktransformation von F˜ (jω) = F (jω)e−jωt0 liefert: ∞ ∞ 1 1 f˜(t) = F (jω)e−jωt0 ejωt dω = F (jω)e−jω(t−t0 ) dω = f (t − t0 ). 2π −∞ 2π −∞ 4. Frequenzverschiebungssatz F (jω − jω0 ) •−−◦ f (t)ejω0 t .
(3.88)
Die Fourier-Transformierte F˜ (jω) von f (t)ejω0 t lautet: ∞ ∞ F˜ (jω) = f (t)ejω0 t e−jωt dt = f (t)e−j(ω−ω0 )t dt = F (jω − jω0 ). −∞
−∞
5. Differentiation im Zeitbereich (3.89) f (n) (t) ◦−−• (jω)n F (jω). 1 ∞ 1 ∞ aus f (t) = F (jω)ejωt dω folgt f (t) = {jωF (jω)}ejωt dω usw. 2π −∞ 2π −∞ 6. Integration im Zeitbereich
t
−∞
f (τ ) dτ ◦−−•
F (jω) + F (0) · πδ(ω). jω
(3.90)
7. Differentiation im Frequenzbereich dn F (jω) •−−◦ (−jt)n f (t). (3.91) d ωn ∞ ∞ d F (jω) = aus F (jω) = f (t)e−jωt dt folgt {−jt f (t)}e−jωt dt usw. dω −∞ −∞ ¨ 8. Ahnlichkeitssatz (Zeitdehnung) f (at) ◦−−•
1 F (jω/a), a = 0. |a|
(3.92)
3.6 Beschreibung von Signalen im Frequenzbereich 9. Faltung im Zeitbereich ∞ f1 (τ ) f2 (t − τ ) dτ = f1 (t) ∗ f2 (t) ◦−−• F1 (jω) · F2 (jω).
211
(3.93)
−∞
10. Gerade und ungerade Funktionen Gerade Zeitfunktionen haben gerade und ungerade Zeitfunktionen ungerade FourierTransformierte: f (t) = f (−t) : F (jω) = F (−jω), (3.94) f (t) = −f (−t) : F (jω) = −F (−jω). 11. Zerlegung einer Zeitfunktion in einen geraden und ungeraden Teil Man kann eine beliebige Funktion f (t) stets in einen geraden Anteil und einen ungeraden Anteil zerlegen: f (t) = fg (t) + fu (t), fg (t) =
1 1 [f (t) + f (−t)] = fg (−t), fu (t) = [f (t) − f (−t)] = −fu (t). 2 2
(3.95)
Auf gleiche Weise kann man auch die Fourier-Transformierte eindeutig in einen geraden und ungeraden Anteil aufspalten: F (jω) = Fg (jω) + Fu (jω), 1 [F (jω) + F (−jω)] = Fg (−jω), 2 1 Fu (jω) = [F (jω) − F (−jω)] = −Fu (−jω). 2 Fg (jω) =
(3.96)
Aus den oben genannten Eigenschaften (Gl. 3.94) folgt dann: fg (t) ◦−−• Fg (jω), fu (t) ◦−−• Fu (jω).
(3.97)
Bei reellen Zeitfunktionen ist Fg (jω) = R(ω) und Fu (jω) = jX(ω). Besonders einfach kann die Zerlegung bei rechtsseitigen bzw. kausalen Zeitfunktionen durchgefu¨ hrt werden. Als rechtsseitig oder kausal bezeichnet man eine Zeitfunktion mit der Eigenschaft f (t) = 0 f u¨ r t < 0. In diesem Fall erh¨alt man: t > 0 : fg (t) = fu (t) =
1 f (t), t < 0 : fg (t) = −fu (t). 2
(3.98)
12. Das Verhalten von Fourier-Transformierten bei hohen Frequenzen Wir beziehen uns hier nur auf solche Zeitfunktionen, bei denen die Berechnung der FourierTransformierten auf keine Konvergenzprobleme sto¨ ßt. Dies sind auf jeden Fall absolut integrierbare Funktionen. Ausgeschlossen sind damit verallgemeinerte Funktionen und auch Leistungssignale. Wenn von einer unstetigen Funktion die Rede ist, soll es sich um eine stu¨ ckweise stetige und differenzierbare Funktion mit Unstetigkeiten in Form von Spru¨ ngen handeln. F¨ur solche Funktionen kann man Aussagen u¨ ber das Verhalten ihrer Fourier-Transformierten bei großen Frequenz-
212
3 Einf¨uhrung in die Systemtheorie
werten machen: 1 f¨ur ω → ∞, |ω| 1 f (t) stetig, f (t) unstetig ⇒ |F (jω)| ≈ f¨ur ω → ∞, |ω|2 1 f (t), f (t) stetig, f (t) unstetig ⇒ |F (jω)| ≈ f¨ur ω → ∞. |ω|3 f (t) unstetig ⇒ |F (jω)| ≈
(3.99)
Je glatter die Funktion f (t) ist, desto schneller erfolgt der Abfall von F (jω) bei großen Frequenzen. Diese Aussagen entsprechen dem Konvergenzverhalten von Fourier-Reihen. Bei unstetigen periodischen Funktionen nehmen die Fourier-Koeffizienten Fν mit 1/ν ab, sonst mindestens mit 1/ν 2 . Beispiel 3.9 Das links im Bild 3.19 skizzierte kausale Signal wird nach Gl. (3.98) in einen geraden und ungeraden Anteil zerlegt (rechter Bildteil). Offenbar ist f (t) = fg (t) + fu (t). Die FourierTransformierten Fg (jω) = R(ω) und Fu (ω) = jX(ω) des geraden und ungeraden Signalanteils sind u¨ brigens links im Bild 3.18 skizziert. f (t) A...........................................................................
.... ... .. ... ... ... ... ... ... ... ... ... ... ... .. ....................
0
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . .................................
T
→t
fg (t)
A
.................................................................................2 ............................................................. . .................................................................... ...... .... .... ..... ... ... ........ ... ... .. .. ... . .......... .... .... ...... ... ... ......... ... ... ................................ ................................ ... .................................. ................................... ... 0 →t −T ..... T ... .... ... ... ... ... ... ... ... ... ... u . .....................................................................
f (t)
Abbildung 3.19: Zerlegung einer kausalen Zeitfunktion in einen geraden und ungeraden Anteil
3.7 Fourier-Transformierte einiger Leistungs- und Energiesignale Nach Gl. (3.6) (Abschnitt 3.2.3) betr¨agt die mittlere Leistung eines (reellen) Signales: T 1 P = lim f 2 (t) dt. T →∞ 2T −T
(3.100)
Im Fall 0 < P < ∞ ist f (t) ein Leistungssignal. Leistungssignale sind keine absolut integrierbaren Signale (siehe Gl. 3.77). Damit ist die Existenz von Fourier-Transformierten von Leistungssignalen nicht gesichert. Dennoch lassen sich auch fu¨ r Leistungssignale Fourier-Transformierte berechnen, wenn Rechenregeln f¨ur verallgemeinerte Funktionen benutzt und die Ergebnisse auch als verallgemeinerte Funktionen aufgefasst werden. Bei den Beispielen in den folgenden Abschnitten wird auf die Mathematik der verallgemeinerten Funktionen nur kurz eingegangen.
3.7 Fourier-Transformierte einiger Leistungs- und Energiesignale
213
3.7.1 Der Dirac-Impuls und das Gleichsignal Wie bereits erw¨ahnt wurde, geh¨ort der Dirac-Impuls zu den Leistungssignalen. Mit der Definitionsgleichung 3.78, f (t) = δ(t) und bei Beachtung der Ausblendeigenschaft des Dirac-Impulses (rechte Gleichungsseite 3.15) erh¨alt man: ∞ ∞ f (t)e−jωt dt = δ(t)e−jωt dt = 1, F (jω) = −∞
−∞
also die Korrespondenz: f (t) = δ(t) ◦−−• 1 = F (jω) = R(ω).
(3.101)
Zur Berechnung der Fourier-Transformierten des Gleichsignals f (t) = 1, benutzen wir den Vertauschungssatz (Gl. 3.86): f (t) ◦−−• F (jω), F (jt) ◦−−• 2πf (−ω) ⇒ δ(t) ◦−−• 1, 1 ◦−−• 2πδ(−ω) = 2πδ(ω). Ergebnis: f (t) = 1 ◦−−• 2πδ(ω) = F (jω) = R(ω).
(3.102)
Im Bild 3.20 sind die Ergebnisse nach den Gln. (3.101) und (3.102) dargestellt. Setzt man die ↑ R(ω)
↑ f (t)
. ......... δ(t) .
.. .. .. .. ... ... .. .. .. .. .. .. .. . ................................................................................................................................................
0
→t
↑ f (t)
0
→ω
↑ R(ω)
... ........ 2πδ(ω)
..........................................................................1.....................................................................
0
..........................................................................1.....................................................................
→t
.... .. .. ... .. .. .. ... .. .. .. .. . ................................................................................................................................................
0
→ω
Abbildung 3.20: Fourier-Transformierte der Signale f (t) = δ(t) und f (t) = 1 Fourier-Transformierte F (jω) = 1 des Dirac-Impulses in die Ru¨ cktransformationsgleichung (3.79) ein, so folgt im Sinne der Theorie der verallgemeinerten Funktionen: ω0 ∞ 1 1 lim 1 ejωt dω = ejωt dω = δ(t) = 2π −∞ 2π ω0 →∞ −ω0 ejω0 t − e−jω0 t sin(ω0 t) 1 lim = lim . = ω0 →∞ 2π ω0 →∞ jt πt Damit wurde die mittlere Gleichung (3.11) zur Definition des Dirac-Impulses bewiesen.
214
3 Einf¨uhrung in die Systemtheorie
3.7.2 Der Zusammenhang von Fourier-Reihen und dem Spektrum Wir berechnen zun¨achst die Fourier-Transformierte des komplexen Signales f (t) = ejω0 t . Die Berechnung erfolgt am einfachsten mit dem Frequenzverschiebungssatz (Gl. 3.88) und der Korrespondenz (Gl. 3.102) 1 ◦−−• 2πδ(ω): 2πδ(ω) •−−◦ 1, 2πδ(ω − ω0 ) •−−◦ ejω0 t .
(3.103)
Mit diesem Ergebnis erh¨alt man unmittelbar die Fourier-Transformierte einer (in Form einer Fourier-Reihe) vorliegenden periodischen Funktion: f (t) =
∞
∞
Fν ejνω0 t ◦−−•
ν=−∞
2πFν δ(ω − νω0 ) = F (jω).
(3.104)
ν=−∞
Die Sonderf¨alle Fν = 0 f¨ur ν = ±1, F1 = F−1 = 0, 5 bzw. Fν = 0 f¨ur ν = ±1, F1 = −F−1 = 0, 5/j f¨uhren zu den Signalen: 1 jω0 t 1 −jω0 t e + e = cos(ω0 t) ◦−−• πδ(ω − ω0 ) + πδ(ω + ω0 ), 2 2 1 jω0 t 1 π π e − e−jω0 t = sin(ω0 t) ◦−−• δ(ω − ω0 ) − δ(ω + ω0 ). 2j 2j j j
(3.105)
Im Bild 3.21 sind diese Funktionen mit ihren Fourier-Transformierten dargestellt. ↑ cos(ω0 t)
.... .... .... ..... .... ..... ... ... .. ... .. .. .. .. .. ... ... .. .. . . . ... . ... . . ... .... . .. . .. .. . ... . .. .. . .. .. ... ... .. .. . . . . .. .. . .. .. ... ... .. .. . . . . . .. .. .. .. .. . . .. .. T0 0 . .. .. .. ... .. .. .. . . . . . .. .. . . .. .. .. .. ... ... ... ... ... ... ... ... ... ... .. .. .. .. . . .. .. . . ... .... ... .... ........ ........
ω0 =
R(ω)
2π T0
πδ(ω+ω0 ) ↑ ... ....... .... .. .. .. .. .. .. .. −ω0 0
X(ω)
2π T0
πδ(ω+ω0 ) ↑ . ........ ... .. .. .. .. .. .. .. . −ω0 0
→t
↑ sin(ω 0 t) ....
. . ...... ... ..... ... ..... .. .. .. .. .. .. .. .. ... ... .. .... . ... .. .. ... ... ... .. .. .... . .. . .. . .. ... . .. .. .. .. ... . .. . .. . .. ... . .. .. .. .. . ... .. . .. . .. ... . .. .. .. T0 .. ... 0 .. . . .. .. . ... . .. .. .. .. .. ... . .. . .. ... ... ... ... .. .. .... ... . ... . ... . ... . .. . ... ... ... ... ... . ... ... . ..... ........ .....
ω0 = →t
πδ(ω−ω0 ) ... ....... .... .. .. .. .. .. .. .. →ω ω0
ω.0 ... →ω ... ... ... ... ... ... ......... .. −πδ(ω−ω0 )
Abbildung 3.21: Fourier-Transformierte der Signale cos(ω0 t) und sin(ω0 t) Beispielhaft ermitteln wir die Fourier-Transformierte f˜(t) ◦−−• F˜ (jω) der periodischen Fortsetzung eines Rechteckimpulses f (t) = rect(2t/T0 ) (Abb. 3.23). Mit der Reihendarstellung von f˜(t) und der Korrespondenz (3.104) erh¨alt man: f˜(t) =
∞ ∞ sin(νπ/2) jνω0 t 2 sin(νπ/2) e δ(ω − νω0 ) = F˜ (jω). ◦−−• νπ ν ν=−∞ ν=−∞
(3.106)
3.7 Fourier-Transformierte einiger Leistungs- und Energiesignale
215
Die Fourier-Transformierte nach GL. 3.106 ist im Bild 3.22 skizziert. ↑ R(ω) . ..... ....
πδ(ω)
2δ(ω+ω0 )
2δ(ω−ω0 )
... ....
2 0) 5 δ(ω+5ω .. ......
−5ω0
−3ω0
. ..
4ω0
−2ω . 0 ..
...... ...
... ....
−ω0
0
3ω0
. ..
2ω0
ω0
− 23 δ(ω−3ω0 )
4ω .0 ..
2 0) 5 δ(ω−5ω .. ......... .. .
...... ...
− 23 δ(ω+3ω0 )
5ω0
→ω
Abbildung 3.22: Spektrum der periodischen Fortsetzung von f (t) = rect(2t/T 0 ) Die Korrespondenz (3.104) stellt bei periodischen Signalen einen unmittelbaren Zusammenhang zwischen der Fourier-Reihe und der Fourier-Transformierten dar. Die Darstellung von F (jω), wie z.B. in Bild 3.22, entspricht daher der Darstellung des im Abschnitt 3.6.1 fu¨ r periodische Funktionen eingef¨uhrten Spektrums (linker Bildteil 3.17). Im Abschnitt 3.6.1 wurde ausgefu¨ hrt, dass das Spektrum eines periodischen Signales Auskunft daru¨ ber gibt, aus welchen Teilschwingungen (Fourier-Koeffizienten, Periode) das Signal besteht. Die Fourier-Transformierte enth¨alt die gleichen Informationen. Daher steht die Bezeichnung Spektrum fu¨ r Fourier-Transformierte nicht im Widerspruch zu den Erkl¨arungen im Abschnitt 3.6.1 f¨ur periodische Signale. Die Bezeichnung Spektrum f¨ur Fourier-Transformierte wird aber generell verwandt, also auch bei nichtperiodischen Zeitfunktionen. Wir wollen kurz zeigen, wie dies begru¨ ndet werden kann. Wir gehen dazu von einem zeitlich begrenzten Signal aus, etwa dem oben links im Bild 3.23 skizzierten Rechteckimpuls der Breite T . Die Fourier-Transformierte, das Spektrum dieses Signales, wird nach Gl. (3.78) berechnet:
T /2
F (jω) =
f (t)e−jωt dt =
−T /2
T /2
1 e−jωt dt =
−T /2
2 sin(ωT /2) . ω
(3.107)
Rechts im Bild 3.23 ist dieses Spektrum dargestellt. f (t) ist keine periodische Funktion und kann daher selbstverst¨andlich nicht durch eine Fourier-Reihe dargestellt werden. Unten im Bild 3.23 ist eine periodische Funktion f˜(t) skizziert, die eine periodische Fortsetzung von f (t) darstellt. Als Periodendauer wurde hier die vierfache Impulsbreite T0 = 4T gew¨ahlt. Die periodische Funktion f˜(t) kann als Fourier-Reihe (vgl. Gl. (3.76), S. 206) dargestellt werden: f˜(t) =
∞
jν2π/T0
Fν e
,
ν=−∞
1 Fν = T0
T /2
f (t)e−jν2πt/T0 dt.
(3.108)
−T /2
Dabei wurde T0 > T vorausgesetzt und außerdem noch die Eigenschaft f˜(t) = f (t) f¨ur −T0 /2 < t < T0 /2. Ein Vergleich der Fourier-Koeffizienten (Gl. 3.108) der Reihe fu¨ r f˜(t) mit der FourierTransformierten (Gl. 3.107) des Signales f (t) zeigt den Zusammenhang: Fν =
1 F (jν2π/T0 ). T0
(3.109)
216
3 Einf¨uhrung in die Systemtheorie
Das bedeutet, dass man aus der Fourier-Transformierten F (jω) eines nichtperiodischen (zeitlich begrenzten) Signales f (t) die Fourier-Koeffizienten Fν des periodisch fortgesetzten Signales f˜(t) entnehmen kann. Im Bild 3.23 sind einige dieser (mit T0 multiplizierten) Fourier-Koeffizienten im Fall T0 = 4T eingetragen. Diese Zusammenh¨ange erkl¨aren auch eine Methode zur Messung von ↑ F (jω) T
↑ f (t) .......................... ..................1 ... ... ... ... .... ... . ... ..... ... .. ... ..... ... .... ... .. .. ............... ............... 0 T →t − T2 2
......... ... ......... . T F ... . ... 0 0 ... .. .. ....... .. ....... . . . ... T F . . . . . . . T0 F−1 ... . . ......... .. 0 1 .. . . . .. .. .. .. .. .. ...... ... ... ... ...... .. . . . . ... .. T0 F−2 ............ .... .... .... .......... .. T0 F2 . . .. .. .. .. .. .. ... ... .. .. .. .. .. .... ... .. .. .. .. .. ... .... ... ... ... ... ... .... 2π ... . . . . . .. .. .. .. .. .. .. .. .. ... .. . . . . . . . .. T .. ... ... ... ... ... ... ... .... ... .................. . ............... . . . . . .. . .. ..... . .... ... .. .. ....... ... .. .. .. .. .. .. .. .. .. ...... .. .. ... →ω .. . . . . . . . ... ... . . . ... ... .. .. .. ...... .... . . . ..... ... ... .. .... . . . . . . . .... .. ... ... .... .... .. . . . . . ..... ... .. .. .. .. .. .. ... ... .. 2π ..... .. . .. ... . . ... . ... .. .. .. . . . . . .... . ... T0 .... .. .... ..... ....... ........... ....
↑ f˜(t) .................1 .........................
.... ... .. ... ... ... ... ... ... ................ − T2
0
........................................... ........................................... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . . .. . . ... ... . . .... .... . ... ... ... ... ... ... ... . ... . . . ... . . ... . ... . .. ... . . ... . ... . . . ... . . . . . . . .. .. ......................................................................................................................... ......................................................................................................................... ..................... T T0 2T0 2
→t
Abbildung 3.23: Signal f (t) mit seinem Spektrum F (jω) und die mit T0 multiplizierten Fourier-Koeffizienten nach Gl. (3.76) (oberer Bildteil), periodische Fortsetzung f˜(t) von f (t) mit T0 = 4T (unterer Bildteil) Fourier-Transformierten nichtperiodischer Funktionen. Das betreffende Signal, z.B. der oben im Bild 3.23 dargestellte Impuls, wird periodisch fortgesetzt, es entsteht ein periodisches Signal f˜(t). Bei diesem aus Sinusschwingungen aufgebauten Signal kann man mit einem selektiven Messger¨at die Effektivwerte (und auch die Nullphasenwinkel) der Teilschwingungen messen. Damit sind die Fourier-Koeffizienten Fν bekannt und gestatten die punktweise Konstruktion der Funktion F (jω). Die Messpunkte bei F (jω) werden umso dichter, je gro¨ ßer die Periode T0 bei der periodischen Fortsetzung gew¨ahlt wurde. Gleichzeitig werden aber die gemessenen Amplituden |Fν | der Teilschwingungen immer kleiner. Das Signal f (t) kann schließlich als Grenzfall von f˜(t) f¨ur T0 → ∞ angesehen werden. Auf diese Weise wurde ein Zusammenhang zwischen der Fourier-Transformierten eines nichtperiodischen Signales und der Fourier-Reihendarstellung eines ¨ zugeh¨orenden periodischen Signales, der periodischen Fortsetzung, hergestellt. Diese Uberlegungen begr¨unden die Bezeichnung Spektrum f¨ur Fourier-Transformierte, unabh¨angig davon, ob es sich um periodische oder nichtperiodische Signale handelt. Abschließend soll noch angemerkt werden, dass es sich bei den negativen Werten der Frequenzvariablen ω, die in den Spektren auftreten, um Rechengro¨ ßen handelt, die physikalisch ohne Bedeutung sind. Sie vereinfachen die notwendigen Rechenvorg¨ange. Negative Frequenzen traten erstmals im Abschnitt 3.6.1 bei den Spektren periodischer Funktionen auf. Dort wurde einer komplexen Schwingung e−jνω0 t = ej(−νω0 )t eine negative Frequenz ω = −νω0 zugeordnet. Auf diese Weise entstand das im links im Bild 3.17 skizzierte Spektrum.
3.7 Fourier-Transformierte einiger Leistungs- und Energiesignale
217
3.7.3 Rechteck- und die Spaltfunktion Die Rechteck- und die Spaltfunktion sind Signale endlicher Energie. Nach Gl. (3.1) hat ein Signal f (t) die Energie: ∞
E=
f 2 (t) dt.
−∞
Im Fall 0 < E < ∞ spricht man von einem Energiesignal. Die Rechteckfunktion wurde bereits im 1. Abschnitt eingefu¨ hrt: 1 f¨ur |t| < 0, 5, rect(t) = 0 f¨ur |t| > 0, 5.
(3.110)
Unter der Spaltfunktion oder si-Funktion versteht man die Funktion: si(x) =
sin(x) . x
1
↑ rect(t) 1 [π] [rect(ω/2)]
............................................ ... ... ... ... .... ... .. ... ... ... ... ... ..... ... .... ... . .. ................ ............... 0 1 − 12 2
[−1]
[1]
→t [ω]
(3.111)
↑ si(ω/2) [si(t)]
............ ... ... .. .. .. ... . . ... ... . ... .. .. . . .. ... .. .. ... .. ... .. .. ... .. . . .. .. ... .. . . .. .. ... .. ... .. .. ... .. ... .. . .. . . .. ................ . . . . ..................... . . ... .... . ... .... .... . . . ... . . ... .... . ... . .... .... . . . .... ... . . ... . .... ... .. ..... ... . . ..... 0 2π .... ... .. 4π .. . . . ... . . . . . . . . .... ... . . . . . .............. . . ........ [2π] [π]
→ω [t]
Abbildung 3.24: Signale und Spektren von rect(t) und [mit den Bezeichnungen in Klammern] von si(t) Die Fourier-Transformierte der nochmals links im Bild 3.24 skizzierten Rechteckfunktion wird nach Gl. (3.78) berechnet: 0,5 ∞ 2 sin(ω/2) . F (jω) = f (t)e−jωt dt = e−jωt dt = ω −∞ −0,5 Ein Vergleich mit der si-Funktion nach Gl. (3.111) fu¨ hrt zu der Korrespondenz: rect(t) ◦−−•
sin(ω/2) = si(ω/2). ω/2
(3.112)
Diese Fourier-Transformierte ist rechts im Bild 3.24 skizziert. Zur Ermittlung des Spektrums des Signales f (t) = si(t) wird auf die Korrespondenz (3.112) zun¨achst der Vertauschungssatz (3.86) angewandt: si(t/2) ◦−−• 2π · rect(−ω) = 2π · rect(ω).
218
3 Einf¨uhrung in die Systemtheorie
¨ Der Ahnlichkeitssatz (3.92) f¨uhrt mit a = 2 zu der gesuchten Korrespondenz: π f¨ur |ω| < 1, sin(t) = si(t) ◦−−• π rect(ω/2) = 0 f¨ur |ω| > 1. t
(3.113)
Die Ergebnisse nach den Gln. (3.112), (3.113) sind zusammen im Bild 3.24 dargestellt. Im linken Bildteil ist rect(t) bzw. mit den Achsenbezeichnungen in Klammern π · rect(ω/2) dargestellt. Rechts das Spektrum von rect(t) bzw. wieder mit den Achsenbezeichnungen in Klammern die Zeitfunktion si(t).
3.7.4 Der Gaußimpuls Als Gaußimpuls bezeichnet man das Signal: 2
f (t) = e−at , a > 0. Nach Gl. (3.78) erh¨alt man das Spektrum: ∞ π −ω2 /(4a) −at2 −jωt e e e dt = , F (jω) = a −∞ also die Korrespondenz: 2
e−at
◦−−•
π −ω2 /(4a) e . a
(3.114)
Die Auswertung des Integrals zur Berechnung von F (jω) ist in diesem Fall nicht auf einfache Weise m¨oglich. Es muss hier auf Methoden der Funktionentheorie zuru¨ ckgegriffen werden (siehe z.B. [27]). Eine Besonderheit des Gaußimpulses ist, dass sein Spektrum ebenfalls eine Gaußfunktion ist, es gilt: f (t) ◦−−• k1 f (k2 ω) mit k1 = π/a und k2 = 0, 5/a. Eine Funktion mit einer solchen Eigenschaft nennt man selbstreziprok. Ein Beispiel fu¨ r eine selbstreziproke Funktion ist auch die Abtastfunktion (Dirac-Kamm): d(t) =
∞ ν=−∞
δ(t − νT0 ) ◦−−• ω0
∞ ν=−∞
δ(ω − νω0 ) = D(jω),
ω0 =
2π . T0
(3.115)
Der Gaußimpuls ist beliebig oft ableitbar, daher nimmt sein Spektrum bei großen Frequenzen schneller als jede Potenz von 1/ω ab (Begru¨ ndung siehe Gl. 3.99).
3.8 Bandbegrenzte Signale Bandbegrenzte Signale sind Signale f (t), die keine Frequenzanteile oberhalb einer bestimmbaren Grenzfrequenz ωg besitzen. Das Spektrum, also die Fouriertransformierte F (jω) von f (t) muss ab dieser Grenzfrequenz verschwinden. Fu¨ r die M¨oglichkeit analoge Signale sinnvoll durch Abtastung in diskrete Signale zu wandeln und zu verarbeiten, ist dies von großer Bedeutung. Im nachfolgenden Abschnitt wird deshalb auf eine einfache Definition von Impuls- und Bandbreite eingegangen und danach das Abtasttheorem im Zeitbereich erl¨autert.
3.8 Bandbegrenzte Signale
219
3.8.1 Impuls- und Bandbreite Wir betrachten zun¨achst ein zeitlich begrenztes Signal f (t), das innerhalb der Grenzen −T ≤ t ≤ T liegt. Ein Beispiel f¨ur ein solches Signal ist der Rechteckimpuls rect[t/(2T )], der im Bereich von -T bis T die H¨ohe 1 hat und außerhalb des Bereichs die H¨ohe 0 besitzt. Offenbar kann jeder auf den Bereich von -T bis T zeitlich begrenzte Impuls f (t) auch in der Form: f (t) = f (t) · rect[t/(2T )] ¨ dargestellt werden. Mit der Korrespondenz (3.112) und dem Ahnlichkeitssatz (3.92) erh¨alt man: rect[t/(2T )] ◦−−• 2T · si(ωT ). ¨ Das Ergebnis dieser Uberlegungen kann dahingehend verallgemeinert werden, dass ein zeitbegrenztes Signal kein bandbegrenztes Spektrum besitzen kann. Aus der Symmetrie der FourierTransformation (Gl. 3.86) folgt damit auch, dass ein bandbegrenztes Signal nicht gleichzeitig auch zeitbegrenzt sein kann. Zusammenfassend l¨asst sich formulieren: Ein Signal kann nicht zugleich exakt zeitbegrenzt und exakt bandbegrenzt sein. Nach diesem Ergebnis liegt es nahe, nach einer Definition fu¨ r die Dauer D und die Bandbreite B eines Signales zu suchen, die auch bei keiner strengen Begrenzung noch zu sinnvollen Ergebnissen f¨uhrt. Eine dieser M¨oglichkeiten ist auf reelle gerade Signale beschr¨ankt, bei denen somit ein reelles Spektrum F (jω) = R(ω) = R(−ω) vorliegt. Bei diesen Signalen kann folgende Definition zu sinnvollen Ergebnissen f¨uhren: ∞ ∞ 1 1 f (t) dt, B= F (jω) dω. (3.116) D= f (0) −∞ F (0) −∞ Die Fl¨ache unter dem Impuls wird durch eine Rechteckfl¨ache der H¨ohe f (0) und der Breite (Dauer) D aufgefasst. Ebenso wird die Fl¨ache unter dem Spektrum als Rechteckfl¨ache der H¨ohe F (0) und der Bandbreite B definiert. Aus den Definitionsgleichungen (3.78) und (3.79) f u¨ r die FourierTransformation erh¨alt man dann: ∞ ∞ f (t) dt = F (0), B · F (0) = F (jω) dω = 2π f (0), D · f (0) = −∞
−∞
und daraus folgt die wichtige Beziehung: D · B = 2π.
(3.117)
Dies bedeutet ein konstantes Produkt aus Impulsbreite und Bandbreite. Kurze Impulse haben ein breites Spektrum und breite Impulse ein schmales Spektrum. Dieser außerordentlich wich¨ tige Zusammenhang ergibt sich vom Prinzip her auch aus dem Ahnlichkeitssatz der FourierTransformation (Gl. 3.92). Diese Aussagen bezeichnet man in Analogie zu einer formal a¨ hnlichen Beziehung in der Quantenmechanik auch als Unscha¨ rferelation. F¨ur einen Rechteckimpuls f (t) = rect(t) der Ho¨ he und Breite 1 (links im Bild 3.24) erh¨alt man aus Gl. (3.116) die Breite D = 1, die hier mit der tats¨achlichen Impulsbreite u¨ bereinstimmt. Die Bandbreite wird am besten mit Gl. (3.117) berechnet, es wird B = 2π/D = 2π. Im rechts im Bild 3.24 skizzierten Spektrum von rect(t) geht die Bandbreite von −π bis π.
220
3 Einf¨uhrung in die Systemtheorie
¨ bandbegrenzte Signale 3.8.2 Abtasttheorem fur Unter einem bandbegrenzten Signal wird ein Signal f (t) verstanden, dessen Spektrum oberhalb einer Grenzkreisfrequenz ωg die Eigenschaft aufweist: |F (jω)| = 0 f¨ur |ω| > ωg .
(3.118)
F¨ur ein derartiges mit ωg bzw. fg bandbegrenztes Signal gilt folgende wichtige Aussage: Ein mit der Grenzfrequenz fg bandbegrenztes Signal f (t) wird vollst¨andig durch einzelne Signalwerte beschrieben, die im Abstand Δt = 1/(2fg ) = π/ωg entnommen werden. Oben im Bild 3.25 ist ein mit ωg bandbegrenztes Signal f (t) und die Abtastwerte f (n) im Abstand Δt = 1/(2fg ) skizziert. F¨ur das Signal f (t) ist unten links schematisch sein Spektrum F (jω) dargestellt. Unten rechts hingegen, ist – bis auf einen Amplitudenfaktor – das Spektrum F 0 (jω) der Abtastwerte f (n) zu sehen (vgl. Bsp. 3.6 im Abschn. 3.5.2). Es ist zu erkennen, dass das Spektrum F0 (jω) die periodische Fortsetzung von F (jω) ist (vgl. Abschnitt 3.10.2): F0 (jω) = F (jω) f¨ur |ω| < ωg , F0 (jω) = F0 [j(ω + k2ωg )], k = 0, ±1, ±2, · · ·
(3.119)
Die Einhaltung des Abtasttheorems bewirkt, dass es bei der periodischen Fortsetzung von F (jω) ¨ zu keiner Uberschneidung der Spektren kommt. ↑ f (t)
•
....... .......... ............. .... ..... ..... ..... ..... .... ..... .... . . . .... ... . . .... . .. . . . ... ....................................... . . . . . . . . . . . ....... ... ...... . . . . . . . . . . . . . . . ....... ......... ......... ..... ............................
•
..
− 2f1g
•
0
•
•
•
..
..
1 2fg
2 2fg
↑ F (jω) ..................................... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... . ..................... ................. ωg −ωg 0
→ω
•
..
3 2fg
•
•
..
4 2fg
..
5 2fg
..
6 2fg
..
7 2fg
→t
↑ F0 (jω) ..................................... ..................................... .................. ..................................... ..................................... .................... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. .. . . . . . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .... ... .... ... .... ... .... ... .... ... .. ... .. ... .. ... .. ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... .. ... .. ... .. ... .. ... .. ... .. ... .. ... .. ... .. ...... ...... ...... ...... ...... ..... ..... ..... ..... ..... . . . . . .. .. .. ωg −3ωg −2ωg −ωg 0 2ωg 3ωg 4ωg 5ωg
→ω
Abbildung 3.25: Zeitfunktion mit Abtastwerten im Abstand 1/(2fg ) (oberer Bildteil), schematische Darstellung des Spektrums F (jω) von f (t) (unten links), periodische Fortsetzung F0 (jω) des Spektrums von f (t) (unten rechts)
3.8 Bandbegrenzte Signale
221
Prinzipiell k¨onnen durch die markierten Abtastwerte f [ν/(2fg )] unendlich viele unterschiedliche Kurven gezeichnet werden. Nach Aussage des Abtasttheorems muss es aber eine Methode geben, mit der die Werte von f (t) zwischen den Abtastpunkten eindeutig zuru¨ ckgewonnen werden k¨onnen. Auf einen strengen Beweis des Abtasttheorems wird hier verzichtet, es soll jedoch der Beweisweg aufgezeit werden. F0 (jω) ist eine periodische Funktion mit der Periode 2ωg , die in Form einer Fourier-Reihe dargestellt werden kann. Hierdurch gelingt es, einen Zusammenhang zwischen den Abtastwerten f (n) und der analogen Funktion f (t) herzustellen. Das Endergebnis zeigt die nachfolgende Gleichung: f (t) = =
∞ ν=−∞ ∞
f (νπ/ωg )
sin[ωg (t − νπ/ωg )] = ωg (t − νπ/ωg )
(3.120)
f (νπ/ωg ) σ[ωg (t − νπ/ωg )].
ν=−∞
f (t) ist eindeutig durch seine eigenen Funktionswerte f (νπ/ωg ) = f [ν · 1/(2fg )] im Abstand 1/(2fg ) bestimmt. Diese Werte sind im Bild 3.25 markiert und aus diesen Punkten l¨asst sich f (t) f¨ur alle Werte von t berechnen l¨asst. F¨ur ein Beispiel wird angenommen, dass f (0) = 1, f (π/ωg ) = 1, 5, f (2π/ωg ) = 2, f (3π/ωg ) = 1, 8, f (4π/ωg ) = 1, 5, f (5π/ωg ) = 2, 1 sein soll. Bild 3.26 zeigt die 6 Summanden f (νπ/ωg ) · σ[ωg (t − νπ/ωg )] f¨ur ν = 0 bis ν = 5. Man erkennt, dass an den Abstandspunkten νπ/ωg alle Funktionen σ[ωg (t − νπ/ωg )], bis auf jeweils eine einzige, verschwinden. Z.B. ist bei t = 0 die Funktion si(0) = 1 und somit wird dort f (0) · si(0) = f (0) = 1. Entsprechendes gilt an den Zeitpunkten π/ωg , 2π/ωg usw. An den Zwischenwerten findet man f (t) durch Addition der Teilfunktionen, die nun nicht mehr verschwinden. ............................... ........ ....
f (5π/ωg )·σ[ωg (t−5π/ωg )] ............. . ........... 2.1 ...................................................................................................................................................................• ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... . . . . ........ ... 2 ...... •...... ..... . ....... ...........
f (t)
. ...... ... ... .. ....... ...... ... ..... .. ... ... ..... .. ... ...... ... ....... ...... ... .... ... . .. . ... ... . . . . . . . . . . . . . . ... ...... ... .. . . ... . ... . . . . . . . . . . . . . . . . . . . .. ... ......... .. . . . ..... . . .... . . . . . . . . . . ... . . . . . . . . ........................................................................................................................• . ............ . ... 1.5 .............................................• . . . . . .... ... .. .... ... .. . . . .. ...... . . . . . . . . . . . . ... ... ... .. ... ... .. . .. . . . . . . . . . . . . . ... ... . ... . ... .. ... . ....... . . . . . . . . . ... . . . . . ... . ... .. ... .. .... ... ... . . . . ... . . . . . . . .... ... . ... .. .... ..... ... . ... . . . . . . . . . . . . . ... .... ..... . .... . .... . .. 1 . . . . . . . . . . . . . . ... .... . ... .. .... .. ...... ...... . f (0)·σ(ωg t)...........• . . . . . .............. ... . ... . . .. . ... . .... . . . . . . . . ... . . . . . . . . . . ... .... .. . ... . ... . .... . .......... . . . . . . . . ... . . . . . . . . . . . ... ... . ...... ... . .... . .... . . .... ... . . . . . . . . .................... . . . . . . ... ..... ... ... ... . ... . . . . . ... . . . . . . . . ... ... ... . ... ... . . . . .. .... . .. .. . . . . . . . . . . . .. ... ... ... ... . . . . . .. . . ... . . . . . . . . . . . . . . ... ... ... ... ... . . . ... . .. . .. . ... ... . . . . . . . ... ... ... .. . ... . . ... . .. .. . .. . . . . . . . . . . . ... ... ... ... ... . . . . ... . . . . . . . . . . . . . . . .. .. ... ... ... ... . . . . .. . ... . . . . ... . . . ... . . . . . ... ... ... ... . . . . . .. . . . . .. ........ . ... . . . . . . . . . . . . . ... ... .. .................. ... . . .......... .......... ... ... . . . . . . .. ........ ........ . . .. ................... .... . . . . . . . . . . . . . . . . . . . . ..... .. ..... .... ... .. ..... .... ... .. .................... .... ........ . ..... . ...... ............ ......... ... ......................... ... ... ....... ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ............. . . . ..... .. . ... ............. . .... ..... .. . ... ........................ ..... . .... . . . . . ... . .... .. ..... ....................... ............. ...................................................... ..................... ....... ..... ...... .......... .. .... ....... .............. ............... ....................................................... ....................... ...................... ........................ ................................... ................ ............. ........... .............. ............... .... ........... ................... ................................................................................................... .................... ................. ................... . . . . . . . . . . . . . . . . . . . . . . . . . .......................................... . . . . . . . . . . . . . . . . .. . . .. .. . . .. ... . ... .. .... . .. .. . . . ......... .. ..... .......... ...... ....... ..................... ............... ..................................... .... ............. ........ .. ... ....... ......... ... .................................................... ... .... .............................. ....... ................. . ... .............................. .... ............ ... ...... .. .... ..................................... .... . ........... .... .......... ... .. ...... .... .. ... ... ... .... .. .......... .. .... ... .... ............... ... ... . .. .. .... ... .... . . . ... .. ... .... .... 5π ......... ......... .. π ... .... 4π ..... .. 2π .......................................... 3π .......... π ......................... 0 ........ . . . . ... . . . . . . . . . . . . . . . . . . . ..... ..... .... ... .... ..... .. ... .............. . .... .. . ..... ................. ωg ωg ωg ωg .................................... ωg ......... ωg ....... ......... 1.8 ........................................................................................................................• ........
→t
−
Abbildung 3.26: Erkl¨arung des Abtasttheorems Zus¨atzliche Bemerkungen zum Abtasttheorem 1. Bei der Ableitung des Abtasttheorems wird vorausgesetzt, dass die Abtastwerte f (νT ) genau im Abstand T = 1/(2fg ) entnommen wurden. Es stellt sich die Frage, wie das Signal bei einer
222
3 Einf¨uhrung in die Systemtheorie
¨ Uberabtastung, d.h. bei enger liegenden Abtastwerten f (ν T˜) mit T˜ < T = 1/(2fg ) rekonstruiert werden kann. Nun entspricht ein kleinerer Abtastabstand der Annahme einer theoretisch unn o¨ tig h¨oheren Grenzfrequenz f˜g = 1/(2T˜) f¨ur das Signal. Ein Signal, das mit fg bandbegrenzt ist, ist ¨ nat¨urlich ebenfalls mit f˜g > fg bandbegrenzt. Eine Uberabtastung bewirkt, dass die periodische Fortsetzung des Spektrums auseinander gezogen wird (s. Bild 3.27). ↑ F (jω) ..................................... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... . .................... ................. ωg −ωg 0
→ω
↑ F0 (jω) .................. ..................................... ..................................... ..................................... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. . . . .... ... ... ... ... ... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. ... ... ... .... . . . ... ... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .... .... .... .... ... ... ... ... ... ... .. .. .. .. ... ... ... .. .. ... ... .. .............................. ............................. ............................. ωg −3ωg −2ωg −ωg 0 2ωg 3ωg 4ωg 5ωg
→ω
¨ Abbildung 3.27: Periodische Fortsetzung F0 (jω) des Spektrums von f (t) bei Uberabtastung 2. Bei sogenannten bandpassbegrenzten Signalen kann eine genu¨ gende Rekonstruktion des Signales unter Umst¨anden auch dann m¨oglich sein, wenn die Abtastabst¨ande gr¨oßer als 1/(2fg ) sind, man spricht hier von Unterabtastung. Die Versuche gehen hierbei h¨aufig von zuf¨allig verteilten Abtastzeitabst¨anden aus. Die Darstellung der periodischen Fortsetzung des Spektrums (s. Bild 3.28) ¨ kann nun aber Uberschneidungen zeigen, so dass es nicht gelingt, durch einfache Tiefpassfilterung das Spektrum von f (t) aus dem Spektrum von f (n) zuru¨ ckzugewinnen. ↑ F (jω) ..................................... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... . ..................... ................. ωg −ωg 0
→ω
↑ F0 (jω) ............................... ....................................... ....................................... ....................................... ....................................... ..................................... ... .. ... .. ... .. ... .. ... .. ... ... ... ... ... ... ... ... ... ... ... .. ... .. ... .. ... .. ... .. ... ... ... ... ... ... ... ... ... ... ... .. ... .. ... .. ... .. ... .. . . . . ..... ...... ..... ..... ..... . . . . .... ..... .... .... .... .... .... .... .... .. ...... ...... ...... ...... ...... ... .... ... .... ......... ... .... ... .... ... ... ... ... ... ... ... ... ... ... .. ... .. ... .. ... .. ... .. ... ... .... ... .... ... .... ... .... ... .... ... .. ... .. ... .. ... ... ... .. .............. .. .............. .............. .............. .. ............. ωg −3ωg −2ωg −ωg 0 2ωg 3ωg 4ωg 5ωg
→ω
Abbildung 3.28: Periodische Fortsetzung F0 (jω) des Spektrums von f (t) bei Unterabtastung
3.9 Die Laplace-Transformation Bereits im Abschnitt 3.4.4 wurden die Grundgleichungen der Laplace-Transformation eingef u¨ hrt. In diesem Abschnitt werden erg¨anzend einige Eigenschaften und Rechenregeln der LaplaceTransformation, insbesondere die R¨ucktransformation mittels Partialbruchzerlegung eingefu¨ hrt. Auf eine vertiefende Einf¨uhrung wird im Rahmen der kompakten Darstellung der System- und Signaltheorie in diesem Buch verzichtet. Unter der Voraussetzung, dass kausale Zeitfunktionen vorliegen (f (t) = 0 f u¨ r t < 0), kann die Fourier-Transformation durch die Laplace-Transformation ersetzt werden. Man erh¨alt sie formal aus der Fourier-Transformation, wenn man dort jω durch die komplexe Frequenzvariable
3.9 Die Laplace-Transformation
223
s = σ + jω ersetzt. Neben der hier besprochenen Laplace-Transformation gibt es auch noch eine sogenannte zweiseitige Laplace-Transformation, bei der die Beschr¨ankung auf Signale mit der Eigenschaft f (t) = 0 f¨ur t < 0 entf¨allt.
¨ 3.9.1 Die Grundgleichungen und einfuhrende Beispiele Ist f (t) eine Funktion mit der Eigenschaft f (t) = 0 fu¨ r t < 0, so kann die Fourier-Transformation durch die Laplace-Transformation ersetzt werden:
∞
F (s) =
f (t)e−st dt,
f (t) =
0−
1 2πj
σ+j∞
F (s)est ds.
(3.121)
σ−j∞
Dabei ist s eine komplexe Variable (komplexe Frequenz), im Sonderfall σ = 0 gilt s = jω und die Laplace-Transformierte geht formal in die Fourier-Transformierte u¨ ber: ∞ f (t)e−jωt dt = F (jω). (3.122) F (s = jω) = 0−
Die Gln. (3.121) und (3.122) sind nur g¨ultig, wenn gewisse Konvergenzbedingungen erfu¨ llt sind, auf die noch sp¨ater eingegangen wird. Wegen der engen Verwandtschaft zur FourierTransformation, sind viele Eigenschaften auch bei der Laplace-Transformation g u¨ ltig und sollen nicht bewiesen werden. Wir verwenden auch bei der Laplace-Transformation das Korrespondenzsymbol ◦−− • , also f (t) ◦−−• F (s). Ohne Unterschied spricht man h¨aufig sowohl bei F (jω) als auch bei F (s) vom Frequenzbereich. Bei F (s) ist auch die Bezeichnung Bildbereich u¨ blich. Die rechte Beziehung in Gl. (3.121) beschreibt die Ru¨ cktransformation der LaplaceTransformation. Bei der Integration muss darauf geachtet werden, dass der Integrationsweg voll im Konvergenzbereich von F (s) liegt. Der Konvergenzbereich ist derjenige Wertebereich von s, f¨ur den das linke Integral in (3.121) konvergiert. Beispiel 3.10 Die Laplace-Transformierte der Funktion f (t) = s(t)eat ist zu berechnen, dabei sollen die F¨alle a < 0, a = 0 und a > 0 unterschieden werden. Nach Gl. (3.121) folgt: ∞ ∞ ∞ ∞ −1 e−t(s−a) . f (t)e−st dt = eat e−st dt = e−t(s−a) dt = F (s) = s − a 0− 0 0 0
Zur Festlegung des Wertes an der oberen Grenze setzen wir s = σ + jω: e−t(s−a) = e−t(σ−a) · e−jωt . Man erkennt, dass e−t(s−a) = 0 f¨ur t → ∞ wird, wenn σ > a ist. Den Wertebereich von s, hier Re {s} = σ > a, f¨ur den das Integral (3.121) konvergiert, nennt man den Konvergenzbereich der Laplace-Transformierten. Hier folgt: F (s) =
1 , Re {s} > a. s−a
Der Konvergenzbereich ist von a, d.h. von der Funktion f (t) = s(t)eat abh¨angig. Im Bild 3.29 sind f (t) und die Konvergenzbereiche f¨ur die drei F¨alle a = −2, a = 0 und a = 2 skizziert.
224
3 Einf¨uhrung in die Systemtheorie ↑ s(t)e2t
↑ s(t)e−2t
. ... ... .... . . . . ..... ... .... . . . .... .... ..... ..... . . . 1 .. .... .. .. .. ....................... 0 →t
↑ s(t)
1 ............. ......... ... ........... .. ............. ....... .. .. . ...................... 0 →t
1 .......................................................................... ... .. .. .. ....................... 0 →t
1 F (s)= s+2 , Re{s} >−2
F (s)= 1s , Re{s} >0
1 F (s)= s−2 , Re{s} >2
. . .... jω. . .. .. . . . . . ... . . . . .... . .... . . . . . ... . ... . . . . ... . ... . . . . ... . . .... . . . .... . ... . . . . . .... . . . ................................................................................................................. . −2 ..... . . . ..... . . . . . . . σ . . . . . . .... . ... . ... . . . . . ... . . . . . .... . .... . . . . .. . ... . . . . ... . . . . . ... . .... .
. . .... jω. ... . . . . .... . . . ... . . . ... . . . . ... ... . . . . .... . . . ... . . . . . . .............................................................................................................. .. . .σ . . ... .. . . . . . . .... . ... . . . ... . . . . ... . . . ... . . . ... . .. . . . .
. . .... jω ... .. . . ... .. ... . . ... ... . . ... . . . ... . ... . ... .. .. . . .. . . ............................................................................................................. .. ... 2 .... . . . σ ... . .. . ... . .... . ... . ... . ... . ... ... ... . . ... ... . ...
s
s
s
×
×
×
Abbildung 3.29: f (t) = s(t)eat und die Konvergenzbereiche der Laplace-Transformierten f¨ur a = −2, a = 0 und a = 2 Bei diesem Beispiel erkennt man auch, wie die Fourier- und die Laplace-Transformierte zusammenh¨angen. Falls die jω−Achse im Konvergenzbereich der Laplace-Transformierten liegt, erh¨alt man die Fourier-Transformierte des zugrunde liegenden Signales einfach dadurch, dass in F (s) die Variable s durch jω ersetzt wird, d.h. F (jω) = F (s = jω). Dies ist bei a < 0 der Fall (linker Bildteil 3.29). Wenn hingegen die jω Achse nicht im Konvergenzbereich liegt (Fall a > 0, rechter Bildteil 3.29), dann kann das Integral fu¨ r F (s) f¨ur s = jω nicht ausgewertet werden und es existiert keine Fourier-Transformierte f¨ur das zugrunde liegende Zeitsignal. Schwieriger und nicht so einfach ist es, wenn die jω Achse die Grenze des Konvergenzbereiches bildet. Dies ist hier bei f (t) = s(t) in der Bildmitte 3.29 der Fall. fu¨ r f (t) = s(t) existiert zwar eine FourierTransformierte F (jω) = 1/(jω) + πδ(ω), sie geht aber nicht in der oben beschriebenen Art aus der Laplace-Transformierten F (s) = 1/s hervor.
Beispiel 3.11 Gesucht wird F (s) und der Konvergenzbereich bei einer Rechteckfunktion der H o¨ he A im Bereich von 0 bis T f (t) = A(s(t) − s(t − T )) (siehe z.B. linker Bildteil 3.19). Die unmittelbare Anwendung von Gl. (3.121) f¨uhrt zu:
∞
f (t)e
F (s) = 0−
−st
dt =
T
Ae 0
−st
T −A −st A e = (1 − e−sT ). dt = s s 0
In diesem Falle treten bei der Ber¨ucksichtigung der (endlichen) Integrationsgrenzen keine Schwierigkeiten auf. Sowohl an der unteren Grenze 0, als auch an der oberen Grenze T war eine Auswertung ohne Einschr¨ankung des Wertebereiches von s m¨oglich. Der Konvergenzbereich ist also die ganze komplexe s Ebene.
3.9 Die Laplace-Transformation
225
3.9.2 Zusammenstellung von Eigenschaften der Laplace-Transformation Die in diesem Abschnitt besprochenen Eigenschaften werden ohne Beweis angegeben. Teilweise ist die Beweisf¨uhrung die gleiche wie bei den entsprechenden Eigenschaften der FourierTransformation (Abschnitt 3.6.4). Zur Frage nach der Existenz von Laplace-Transformierten soll folgender kurzer Hinweis gen u¨ gen. Eine Funktion mit der Eigenschaft f (t) = 0 fu¨ r t < 0 besitzt eine Laplace-Transformierte, wenn eine Konstante σ so gew¨ahlt werden kann, dass gilt: ∞ |f (t)|e−σt dt < ∞ (3.123) 0
Dies bedeutet, dass auch Funktionen Laplace-Transformierte besitzen, die f u¨ r t → ∞ exponentiell ansteigen (Form ekt f¨ur t → ∞). Im Folgenden gelten stets die Korrespondenzen f (t) ◦−−• F (s), f1 (t) ◦−−• F1 (s), f2 (t) ◦−−• F2 (s). Der Konvergenzbereich von F (s) soll bei Re {s >}σ, der von F1 (s) bei Re {s} > σ1 und der von F2 (s) bei Re {s} > σ2 liegen. 1. Linearit¨at (vgl. Gl. 3.85) k1 f1 (t) + k2 f2 (t) ◦−−• k1 F1 (s) + k2 F2 (s), Re {s} > max(σ1 , σ2 ).
(3.124)
2. Zeitverschiebungssatz (vgl. Gl. 3.87) f (t − t0 ) ◦−−• F (s)e−st0 mit t0 > 0, Re {s} > σ.
(3.125)
Im Gegensatz zur Fourier-Transformation muss man darauf achten, dass die Funktion f˜(t) = f (t − t0 ) kausal ist, d.h. f˜(t) = 0 f¨ur t < 0. Im Falle t0 > 0 ist dies gew¨ahrleistet. 3. Differentiation im Zeitbereich (vgl. Gl. 3.89) f (n) (t) ◦−−• sn F (s), Re {s} > σ.
(3.126)
4. Differentiation im Frequenzbereich (vgl. Gl. 3.91) F (n) (s) •−−◦ (−t)n f (t), Re {s} > σ.
(3.127)
5. Faltung im Zeitbereich (vgl. Gl. 3.93) f1 (t) ∗ f2 (t) ◦−−• F1 (s) · F2 (s), Re {s} > max(σ1 , σ2 ).
(3.128)
6. Anfangswert-Theorem f (0+) = lim {s · F (s)}. s→∞
Der (als existent vorausgesetzte) Wert f (0+) ist ohne Ru¨ cktransformation bestimmbar. 7. Endwert-Theorem f (∞) = lim {s · F (s)}. s→ 0
(3.129)
(3.130)
Der (als existent vorausgesetzte) Wert f (∞) kann ohne Ru¨ cktransformation ermittelt werden.
226
3 Einf¨uhrung in die Systemtheorie
3.9.3 Rationale Laplace-Transformierte Rationale Laplace-Transformierte sind in der Praxis besonders wichtig. Viele Standardsignale haben rationale Laplace-Transformierte. Lineare Systeme, die aus endlich vielen konzentrier¨ ten Bauelementen aufgebaut sind, besitzen rationale Ubertragungsfunktionen. Als Darstellungsmittel f¨ur rationale Laplace-Transformierte ist das Pol-Nullstellenschema von Bedeutung. PolNullstellenschemata geben Auskunft u¨ ber Stabilit¨atsfragen und sind f¨ur Entwurfsmethoden in der Netzwerktheorie von grundlegender Bedeutung. Es werden rationale Laplace-Transformierte: F (s) =
a0 + a1 s + · · · + am sm P1 (s) = P2 (s) b0 + b1 s + · · · + bn sn
m ≤ n,
(3.131)
mit reellen Koeffizienten aμ , bν (μ = 0 · · · m , ν = 0 · · · n) behandelt. Das Z¨ahlerpolynom P1 (s) hat m Nullstellen s01 , s02 , · · · , s0m . Die n Nullstellen des Nennerpolynoms P2 (s) werden mit s∞1 , s∞2 , · · · , s∞n bezeichnet, da F (s) an diesen Stellen Pole besitzt, d.h. unendlich groß wird. Sind die Null- und Polstellen bekannt, so kann F (s) auch in folgender Form dargestellt werden: F (s) =
am (s − s01 )(s − s02 ) · · · (s − s0m ) , bn = 0. bn (s − s∞1 )(s − s∞2 ) · · · (s − s∞n )
(3.132)
Markiert man die Nullstellen in der komplexen s-Ebene durch Kreise, die Polstellen durch Kreuze, so erh¨alt man das Pol-Nullstellenschema (PN-Schema) von F (s). Das PN-Schema beschreibt die zugeh¨orende rationale Funktion bis auf einen konstanten Faktor. Falls es sich um rationale Funktionen mit reellen Koeffizienten aμ , bν handelt, treten Pol- und Nullstellen entweder auf der reellen Achse oder als konjugiert komplexe Paare auf. Aus dem PN-Schema kann man auch erkennen, wo der Konvergenzbereich der betreffenden Laplace-Transformierten liegt. Er ist (nach links) durch die am weitesten rechts liegende Polstelle begrenzt. Falls alle Polstellen in der linken s-Halbebene (Re {s} < 0) liegen, handelt es sich um die Laplace-Transformierte einer abnehmenden Funktion |f (t)| → 0 fu¨ r t → ∞. Falls mindestens ein Pol in der rechten s-Halbebene (Re {s} > 0) liegt, gilt |f (t)| → ∞ fu¨ r t → ∞. Diese Aussagen werden hier nicht bewiesen, sie best¨atigen sich aus den Ergebnissen der R¨ucktransformation im Folgenden Abschnitt.
¨ 3.9.4 Die Rucktransformation bei einfachen Polstellen F (s) sei eine echt gebrochen rationale Funktion. Dies bedeutet, dass der Grad m des Z¨ahlerpolynoms P1 (s) kleiner als der des Nennerpolynoms P2 (s) ist. Ist diese Bedingung nicht erf¨ullt, so wird vorher von F (s) ein Polynom vom Grade m − n abgespaltet. Weiterhin wird vorausgesetzt, dass die n Polstellen einfach sind, also das Nennerpolynom n verschiedene Nullstellen s ∞1 , s∞2 , · · · , s∞n hat. In diesem Fall kann F (s) wie folgt in Partialbru¨ che zerlegt werden: F (s) = =
a0 + a1 s + · · · + am sm mit m < n bn (s − s∞1 )(s − s∞2 ) · · · (s − s∞n ) A1 A2 An + + ··· + . (s − s∞1 ) (s − s∞2 ) (s − s∞n )
(3.133)
3.9 Die Laplace-Transformation
227
Zur Ermittlung von z.B. A1 multipliziert man Gl. (3.133) mit dem unter A1 stehenden Ausdruck (s − s∞1 ) und erh¨alt: a0 + a1 s + · · · + am sm = bn (s − s∞2 ) · · · (s − s∞n ) A An 2 = A1 + (s − s∞1 ) . + ··· + s − s∞2 s − s∞n
F (s)(s − s∞1 ) =
Setzt man in diesem Ausdruck s = s∞1 , so steht rechts die gesuchte Gr¨oße A1 alleine: A1 =
a0 + a1 s∞1 + · · · + am sm ∞1 = F (s)(s − s∞1 ) bn (s∞1 − s∞2 )(s∞1 − s∞3 ) · · · (s∞1 − s∞n )
s=s∞1
.
Der rechte Ausdruck in dieser Gleichung ist so zu verstehen, dass die Funktion F (s) zun¨achst mit s − s∞1 multipliziert wird. Dieser Faktor k¨urzt sich dabei gegen den gleichen im Nenner auftretenden Ausdruck, anschließend wird s = s∞1 gesetzt. Entsprechend erh¨alt man allgemein (3.134) Aν = F (s)(s − s∞ν ) s=s , ν = 1 · · · n. ∞ν
Nach der Berechnung der Aν kann die R¨ucktransformation erfolgen. Wir verwenden die Korrespondenz (s. Tabelle im Abschn. 3.14, dort s∞ = −(α + jβ)) s(t)es∞ t ◦−−•
1 , Re {s} > Re {s∞ } s − s∞
(3.135)
und erhalten f (t) = s(t)A1 es∞1 t + s(t)A2 es∞2 t + · · · + s(t)An es∞n t .
(3.136)
Am Ende des vorhergehenden Abschnittes wurde ausgefu¨ hrt, dass der Konvergenzbereich einer Laplace-Transformierten durch den Pol mit dem gro¨ ßten Realteil festgelegt ist. Diese Aussage wird im Falle einfacher Pole durch die Korrespondenz (3.135) (und bei mehrfachen Polen durch die Korrespondenz 3.140) best¨atigt. Weiterhin folgt aus diesen Korrespondenzen, dass ein negativer Realteil einer Polstelle zu einer abnehmenden Funktion fu¨ hrt: s(t)es∞ t = s(t)eσ∞ t ejω∞ t → 0 f¨ur t → ∞ bei Re s∞ = σ∞ < 0. Eine Polstelle in der rechten s Halbebene (Re {s∞ } = σ∞ > 0) f¨uhrt hingegen zu einer ansteigenden Funktion |f (t)| → ∞ fu¨ r t → ∞. Diese Aussagen best¨atigen sich bei dem folgenden Beispiel.
¨ 3.9.5 Die Rucktransformation bei mehrfachen Polen Zur Erkl¨arung gen¨ugt es, eine echt gebrochen rationale Funktion (m < n) zu betrachten, die (neben m¨oglicherweise weiteren Polstellen) eine k-fache Polstelle bei s = s∞ aufweist. Dann gilt: P1 (s) F (s) = . (3.137) (s − s∞ )k P˜2 (s) Das Polynom P˜2 (s) hat die m¨oglicherweise weiteren Nullstellen des Nennerpolynoms von F (s). Die Partialbruchentwicklung von F (s) f¨uhrt auf die Form: F (s) =
A2 Ak A1 + + ··· + F˜ (s). s − s∞ (s − s∞ )2 (s − s∞ )k
(3.138)
228
3 Einf¨uhrung in die Systemtheorie
F˜ (s) enth¨alt die restlichen zu den anderen Polen geho¨ renden Partialbr¨uche. Die Koeffizienten in Gl. (3.138) berechnen sich nach folgender Beziehung: Aμ =
dk−μ 1 F (s)(s − s∞ )k (k − μ)! d sk−μ
s=s∞
, μ = 1 · · · k.
(3.139)
Ein Beweis f¨ur diese Gleichung wird nicht angegeben. Im Falle einer einfachen Polstelle (k = 1) erh¨alt man aus Gl. (3.139) die vorne abgeleitete Beziehung (3.134). Zur R¨ucktransformation ben¨otigt man die Korrespondenz (s. Tabelle in Abschn. 3.14, dort s∞ = −(α + jβ)): s(t)
tn s∞ t 1 e ◦−−• , n = 0, 1, 2, · · · , Re {s} > Re {s∞ }. n! (s − s∞ )n+1
(3.140)
Dann wird mit F (s) entsprechend Gl. (3.138): f (t) = A1 s(t)es∞ t + A2 s(t) t es∞ t + · · · + Ak s(t)
tk−1 s∞ t ˜ e + f (t). (k − 1)!
(3.141)
f˜(t) ist die zu F˜ (s) in Gl. (3.138) geh¨orende Zeitfunktion. Solange F˜ (s) nur einfache Pole hat, erfolgt die R¨ucktransformation nach der im Abschnitt 3.9.4 besprochenen Methode. Enth¨alt F˜ (s) mehrfache Pole, so erfolgt nochmals eine Behandlung entsprechend Gl. (3.138).
Beispiel 3.12 Wir betrachten die Laplace-Transformierte: F (s) =
s , (s + 1)2 (s + 2)
die bei s = −1 eine doppelte Polstelle und bei s = −2 eine einfache Polstelle aufweist. Dann erh¨alt man mit den oben angegebenen Beziehungen: F (s) =
s A1 A2 B = + = + (s + 1)2 (s + 2) s + 1 (s + 1)2 s+2 2 1 2 = − , − s + 1 (s + 1)2 s+2 −t −t f (t) = 2s(t)e − s(t)te − 2s(t)e−2t .
Im obigen Beispiel handelt es sich um eine echt gebrochene Funktion F (s), m < n. Deshalb konnte die auf Seite 226 beschriebene Division ausbleiben. Fu¨ r eine Funktion F (s) mit m = n = 2 erh¨alt man z.B. durch Division die folgende Zerlegung: F (s) =
A2 −2s − 1 A1 s2 + =1+ =1+ (s + 1)2 (s + 1)2 s + 1 (s + 1)2
Nach Gl. (3.139) ergibt sich f¨ur diesen Fall: A1 = −2 und A2 = 1.
3.10 Diskrete Transformationen
229
3.10 Diskrete Transformationen 3.10.1 Die Grundgleichungen der zeitdiskreten Fourier-Transformation Gegeben sei ein zeitdiskretes Signal f (n), z.B. f (n) = rect(n) (Abb. 3.30, S. 230). Mit einem im Prinzip beliebigen reellen Wert ∞ > T > 0 wird eine Funktion definiert: fD (t) =
∞
f (n) δ(t − nT ).
(3.142)
n=−∞
Mit der Korrespondenz δ(t) ◦−−• 1 und dem Zeitverschiebungssatz (3.87) erh¨alt man die FourierTransformierte von fD (t): ∞ f (n) e−jnωT . (3.143) FD (jω) = n=−∞
Bei FD (jω) handelt es sich offenbar um eine periodische Funktion mit der Periode 2π/T , die hier in der Form einer Fourier-Reihe mit den Fourier-Koeffizienten f (n) vorliegt. Gem¨aß der FourierReihe gilt damit: π/T T f (n) = FD (jω)ejnωT dω. (3.144) 2π −π/T Das Gleichungspaar in (3.145) beschreibt die zeitdiskrete Fourier-Transformation: FD (jω) =
∞
f (n) e−jnωT ,
f (n) =
n=−∞
T 2π
π/T
−π/T
FD (jω) ejnωT dω.
(3.145)
So wie bei der kontinuierlichen Fourier-Transformation wird auch hier das Korrespondensymbol verwendet: f (n) ◦−−• FD (jω). Wenn Missverst¨andnisse ausgeschlossen sind, wird bei den FourierTransformierten auf den Index D verzichtet: f (n) ◦−−• F (jω). Neben der Darstellung in Gl. (3.145) sind auch die Schreibweisen u¨ blich: F (ejωT ) =
∞
−n
f (n) ejωT ,
F (ejΩ ) =
n=−∞
∞
−n f (n) ejΩ , Ω = ωT.
(3.146)
n=−∞
Eine hinreichende Bedingung f¨ur die Existenz einer zeitdiskreten Fourier-Transformierten ist die absolute Summierbarbeit des Zeitsignals: ∞
|f (n)| < ∞.
(3.147)
n=−∞
Die Klasse der transformierbaren Funktionen kann allerdings durch die Zulassung von Leistungssignalen erweitert werden. Hierzu betrachten wir eine zeitdiskrete Fourier-Transformierte: FD (jω) =
∞ 2π δ(ω − ω0 − ν2π/T ), T ν=−∞
|ω0 | <
π . T
230
3 Einf¨uhrung in die Systemtheorie
Mit der rechten Beziehung in Gl. (3.145) und der Ausblendeigenschaft des Dirac-Impulses (3.15) erh¨alt man das zugeh¨orende diskontinuierliche Signal: f (n) =
T 2π
π/T
−π/T
FD (jω)ejnωT dω =
π/T
−π/T
δ(ω − ω0 )ejnωT dω = ejnω0 T ,
und damit die Korrespondenz: ejnω0 T ◦−−•
∞ 2π δ(ω − ω0 − ν2π/T ), T ν=−∞
ω0 <
π . T
(3.148)
Das Signal f (n) = ejnω0 T ist nicht absolut summierbar. Durch die Zulassung verallgemeinerter Funktionen hat es dennoch eine zeitdiskrete Fourier-Transformierte. Beispiel 3.13 Der Einheitsimpuls f (n) = δ(n) (siehe Gl. 3.17, Bild 3.7). Mit der Gl. (3.145) erh¨alt man die zeitdiskrete Fourier-Transformierte FD (jω) = 1, also die Korrespondenz: δ(n) ◦−−• 1. Die Rechteckfunktion f (n) = rect(n) Mit der Gl. (3.145) erh¨alt man: N −1 2
FD (jω) =
−jnωT
e
N −1 2
= 1+
n=− N 2−1
−jnωT
e
+e
jnωT
N −1 2
= 1+2
n=1
cos (nωT ).
n=1
Die Funktion rect(n) und ihre Fourier-Transformierte sind im Bild 3.30 skizziert. ↑ FD (jω)
↑ rect(n) 1 • • • • •
• •
..
−2
..
0
..
..
2
•.. •
→n
5......... ..... .. .. . .. .... .. ... .... ... ... ... .. ... .... .. .. . ... ... . .. .. .. . .. .. .. .. .. .. .. .. .. .. .. .. .. ... ... .. .. . . . . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .... .... ... ... . . ... ... .. .. .. .. .. .. .. .. .. .. ........... ............. .. .. .. .. ... ..... ... ..... .. .. .. .. .. .. . . .. . . .. . . . . . .. . .. . . . →ω ... .. . ... .. .. .. .. .. .... ... .. ..π .... ... ... ... ... π .... 2π ... . ... 0 ... .. T .. ... ... .. − T ... .. T ... .. ... ... ... ... .. ... . . ... .. ... .. .... ... .... ... .......... .......... ....... .......
Abbildung 3.30: Signal f (n) = rect(n) und seine Fourier-Transformierte (N = 5) Die Cosinusfolge f (n) = cos (nω0 T ), |ω0 | < π/T . Mit f (n) = 0, 5 ejnω0 T + 0, 5 e−jnω0 T folgt mit der Korrespondenz (3.148): FD (jω) =
∞ π δ(ω − ω0 − 2π/T ) + δ(ω + ω0 − 2π/T ) , T ν=−∞
Man beachte, dass f (n) nur dann eine periodische Folge ist, wenn N0 = Zahl (vgl. Gl. 3.35) ist.
ω0 <
2π ω0 T
=
π . T
T0 T
eine ganze
3.10 Diskrete Transformationen
231
3.10.2 Der Zusammenhang zu den Spektren kontinuierlicher Signale Wir nehmen nun an, dass die Signalwerte f (n) die Abtastwerte eines kontinuierlichen Signales f (t) im Abstand T sind, also f (n) = f (nT ). Bei f (t) soll es sich um ein mit ωg bandbegrenztes Signal handeln, d.h. F (jω) = 0 f¨ur |ω| > ωg . Der Abtastabstand soll den Wert T = ωπg = 2f1g haben. In diesem Fall sind die Bedingungen fu¨ r das Abtasttheorem (Abschnitt 3.8.2) erf¨ullt und aus den Abtastwerten f (nT ) kann das zugrunde liegende kontinuierliche Signal exakt zur u¨ ckgwonnen werden: ∞ ! " π f (νT ) σ ωg (t − νπ/ωg ) , T = . (3.149) f (t) = ωg ν=−∞ Das nach der Gl. (3.142) eingef¨uhrte Abtastsignal fD (t) kann auch in der Form: fD (t) = f (t) ·
∞
δ(t − nT ) = f (t) · d(t),
(3.150)
n=−∞
als Produkt des kontinuierlichen Ausgangssignales f (t) mit einem Dirac-Kamm d(t) (siehe Gl. 3.115) dargestellt werden. Einer Multiplikation im Zeitbereich entspricht eine Faltung im Frequenzbereich. Damit erh¨alt man mit dem Spektrum F (jω) von f (t) mit der Korrespondenz von (3.115) (dort mit T0 = T ): ∞ 2π 1 F (jω) ∗ δ(ω − ν2π/T ), 2π T ν=−∞ ∞ 1 ∞ FD (jω) = F (ju) δ(ω − u − ν2π/T ) du. T −∞ ν=−∞
FD (jω) =
Das Integral kann mit Hilfe der Ausblendeigenschaft (3.15) ausgewertet werden, wir erhalten das wichtige Ergebnis: ∞ 1 F (jω − jν2π/T ). (3.151) FD (jω) = T ν=−∞ Dies bedeutet, dass die Fourier-Transformierte des zeitdiskreten Signales f (nT ) so entsteht, dass das Spektrum F (jω) des zugrunde liegenden kontinuierlichen Signales f (t) mit der Frequenz 2π/T periodisch fortgesetzt wird. Zur Erkl¨arung k¨onnen wir auf das Bild 3.25 zur¨uckgreifen. Dort ist oben die Funktion f (t) mit ihren Abtastwerten f (nT ) mit T = ωπg = 2f1g skizziert. Links unten ist das mit ωg bandbegrenzte Spektrum F (jω) dargestellt und unten rechts die periodische Fortsetzung F0 (jω), die bis auf den Faktor 1/T mit FD (jω) nach der Gl. (3.151) u¨ bereinstimmt. Wegen der Bandbegrenzung u¨ berlappen sich die verschobenen Spektren F (jω − jν2π/T ) nicht. Deshalb stimmt FD (jω) im Bereich |ω| < ωg = π/T bis auf den Faktor 1/T mit dem Spektrum F (jω) des kontinuierlichen Signales u¨ berein: FD (jω) =
1 F (jω) T
f¨ur |ω| < ωg =
π . T
(3.152)
232
3 Einf¨uhrung in die Systemtheorie
Durch eine Tiefpassfilterung des Signales fD (t) (Gln. 3.142, 3.150) erh¨alt man aus den Abtastwerten das kontinuierliche Ausgangssignal f (t) zuru¨ ck. Die Tiefpassfilterung wird im Abschnitt 3.11 genauer behandelt. Die R¨uckgewinnung von f (t) aus fD (t) (und damit aus den Abtastwerten f (nT )) kann im Zeitund im Frequenzbereich erkl¨art werden. Wir gehen dabei von einem idealen Tiefpass aus (siehe Gl. 3.197 und 3.198 mit K = 1 und t0 = 0): G(jω) = rect
ω , 2ωg
g(t) =
1 si(ωg t), T
ωg =
π . T
F¨ur die Erkl¨arung im Zeitbereich beachten wir, dass der Tiefpass auf δ(t) mit der Impulsantwort g(t) reagiert und damit gilt: Eingangssignal:
x(t) = fD (t) =
∞
f (νT )δ(t − νT ),
ν=−∞
Tiefpassreaktion:
y(t) =
∞ 1 1 f (νT ) si[ωg (t − νT )] = f (t). T ν=−∞ T
Die Tiefpassreaktion stimmt bis auf den Faktor 1/T mit f (t) nach Gl. (3.149) u¨ berein. Zur Erkl¨arung im Frequenzbereich verwenden wir die Beziehung (vgl. Gl. 3.93) Y (jω) = X(jω)G(jω). Dabei ist X(jω) = FD (jω) das Spektrum von fD (t), das nach der Gl. (3.152) im Durchlassbereich des Tiefpasses bis auf den Faktor 1/T mit F (jω) u¨ bereinstimmt. Der Tiefpass eliminiert die Frequenzanteile im Bereich |ω| > ωg , wir erhalten Y (jω) = F (jω)/T und nach der R¨ucktransformation das oben im Zeitbereich gefundene Ergebnis y(t) = f (t)/T . Im Gegensatz zur Gl. (3.152) ist die Beziehung (3.151) auch bei nicht bandbegrenzten Signalen g¨ultig. In diesem Fall u¨ berlagern sich allerdings die verschobenen Spektren F (jω − jν2π/T ). Das Signal f (t) kann dann nicht mehr (fehlerfrei) durch eine Tiefpassfilterung von f D (t) zur¨uck¨ gewonnen werden. Man spricht in diesem Zusammenhang von Uberlagerungsfehlern (engl. alia¨ sing). Diese bei nicht bandbegrenzten Signalen entstehenden Uberlagerungsfehler k¨onnen durch eine Reduzierung des Abtastabstandes T im Prinzip beliebig klein gemacht werden. In der Praxis geht man oft so vor, dass das kontinuierliche Signal f (t) zun¨achst bandbegrenzt und erst danach abgetastet wird. Dieser Vorgang ist im Bild 3.31 dargestellt. Das Signal f (t)
f (t) ◦
Tiefpass fg
f˜(t)
Antialiasing-Filter
T = 2f1g •
Abtaster
- f˜(nT )
Abbildung 3.31: Bandbegrenzung eines Signales vor der anschließenden Signalabtastung
ist das Eingangssignal f¨ur einen sogenannten Antialiasing-Tiefpass mit einer Grenzfrequenz fg . Das Ausgangssignal f˜(t) ist mit fg bandbegrenzt. Aus den Abtastwerten f˜(nT ) kann f˜(t) exakt zur¨uckgewonnen werden. Die Grenzfrequenz des Antialiasing-Tiefpasses muss nat u¨ rlich so festgelegt werden, dass die Fehler gegen¨uber dem Ursprungssignal f (t) toleriert werden ko¨ nnen.
3.10 Diskrete Transformationen
233
3.10.3 Eigenschaften der zeitdiskreten Fourier-Transformation Auf eine besondere Kennzeichnung der zeitdiskreten Fourier-Transformierten durch einen Index (siehe Gl. 3.145) wird verzichtet. Es gelten also die Beziehungen: ∞
F (jω) =
f (n) e−jnωT , f (n) =
n=−∞
T 2π
π/T
−π/T
F (jω) ejnωT dω, f (n) ◦−−• F (jω). (3.153)
Einige Eigenschaften sind mit Eigenschaften der kontinuierlichen Fourier-Transformation (Abschnitt 3.6.4) identisch oder diesen sehr a¨ hnlich. Ein Teil der Eigenschaften wird in knapper Form aufgelistet: Linearit¨at: k1 f1 (t) + k2 f2 (t) ◦−−• k1 F1 (jω) + k2 F2 (jω).
(3.154)
f (n − n0 ) ◦−−• F (jω) e−jn0 ωT .
(3.155)
F (jω − jω0 ) •−−◦ f (n) ejnω0 T .
(3.156)
Zeitverschiebungssatz: Frequenzverschiebungssatz:
Differentiation im Frequenzbereich: n · f (n) ◦−−•
j d F (jω) . T dω
(3.157)
Die Ableitung von F (jω) nach der Gl. (3.153) ergibt: ∞ ∞ d F (jω) = (−jnT )f (n)e−jnωT = −jT [n · f (n)]e−jnωT . dω n=−∞ n=−∞
Aus dieser Beziehung erh¨alt man die Korrespondenz (3.157). Faltung im Zeitbereich: ∞
f1 (ν)f2 (n − ν) = f1 (t) ∗ f2 (t) ◦−−• F1 (jω) · F2 (jω).
(3.158)
ν=−∞
Faltung im Frequenzbereich:
π/T
−π/T
F1 (ju)F2 (jω − ju) du = F1 (jω) ∗ F2 (jω) •−−◦
2π f1 (n) · f2 (n). T
(3.159)
Eigenschaften der Fourier-Transformierten bei reellen Signalen: F (jω) = F ∗ (−jω),
f (n) reell.
(3.160)
234
3 Einf¨uhrung in die Systemtheorie
Aus der Eigenschaft (3.160) folgt, dass der Betrag |F (jω)| und der Realteil Re F (jω) gerade Funktionen sind und die Phase arg F (jω) und der Imagin¨arteil Im F (jω) ungerade Funktionen. Zerlegt man die reelle Funktion f (n) in einen geraden und ungeraden Teil: F (jω) •−−◦ f (n) = fg (n) + fu (n), fg (n) =
" 1! f (n) + f (−n) , 2
fu (n) =
" 1! f (n) − f (−n) , 2
(3.161)
dann gelten die Korrespondenzen: fg (n) ◦−−• Re F (jω),
fu (n) ◦−−• Im F (jω).
(3.162)
3.10.4 Grundgleichungen der diskreten Fourier-Transformation (DFT) In diesem Abschnitt wird die diskrete Fourier-Transformation (DFT) zun¨achst als eigenst¨andige Transformation eingef¨uhrt. Auf Zusammenh¨ange zur zeitdiskreten und zur kontinuierlichen Fourier-Transformation wird erst in den folgenden Abschnitten eingegangen. Ausgangspunkt f u¨ r die DFT ist ein N -Tupel von Werten der Funktion6 f (n) bzw. f (t): f [0], f [1], f [2], · · · , f [N − 1]. Obschon es sich bei diesen Werten keinesfalls zwangsl¨aufig um Abtastwerte einer Zeitfunktion (f [n] = f (nT )) handeln muss, sprechen wir bei den f [n] von Zeitwerten. Diesem N -Tupel von Zeitwerten wird ein N -Tupel von Spektralwerten umkehrbar eindeutig zugeordnet: F [0], F [1], F [2], · · · , F [N − 1]. Dabei gelten folgende Beziehungen: f [n]
=
F [m] =
N −1 1 F [m]ej2πn m/N , n = 0, 1, · · · , N − 1, N m=0
N −1
f [n]e
−j2πm n/N
(3.163)
, m = 0, 1, · · · , N − 1.
n=0
Man spricht bei diesen Beziehungen von der diskreten Fourier-Transformation und verwendet in diesem Zusammenhang auch die Darstellung f [n] ◦−−• F [m]. Die numerische Auswertung der DFT fu¨ r eine Folge von N Werten erfordert i.A. insgesamt (N − 1)2 komplexe Multiplikationen. Es zeigt sich, dass der Rechenaufwand in der Regel reduziert werden kann. Diese Verfahren sind unter der Bezeichnung Schnelle Fourier-Transformation (engl. FFT f¨ur Fast Fourier Transform) bekannt. Besonders leistungsf¨ahig sind diese Verfahren, wenn N eine Zweierpotenz ist. In diesem Fall reduziert sich die Zahl der komplexen Multiplikationen von (N − 1)2 auf bis zu 0, 5 N · log2 (N ). Bei z.B. N = 210 = 1024 Werten sind nur noch 6 Zur eindeutigen Unterscheidung gegen¨ uber den anderen Transformationen werden die Argumente bei der DFT in eckige Klammern gesetzt.
3.10 Diskrete Transformationen
235
ca. 5100 statt u¨ ber 106 Multiplikationen erforderlich. Die große Bedeutung der diskreten FourierTransformation in der Praxis ist nicht zuletzt in der Existenz dieser leistungsf¨ahigen, schnellen FFT-Algorithmen begr¨undet. Eine Behandlung der FFT-Verfahren wu¨ rde den Umfang dieses Buches aber sprengen. Die Studierenden werden auf die einschl¨agige Literatur verwiesen (z.B. [1], [7]). Wenn man die N -Tupel f [n] und F [m] als Spaltenvektoren darstellt, lassen sich die Transformationsbeziehungen auch in einer Matrizenschreibweise formulieren. Mit der Abk u¨ rzung: W = e−j2π/N , erh¨alt man die Beziehungen: ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣
⎤
2
f [0]
1 6 ⎥ 6 ⎥ 6 6 ⎥ 6 f [1] 1 ⎥ 6 ⎥ 6 6 ⎥= N1 6 f [2] 1 ⎥ 6 6 ⎥ 6 .. . ⎥ 6 6 .. ⎥ 6 . ⎦ 6 6 4 f [N −1] 1 ⎤ 2 ⎡
⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣
1
···
1
W −1
W −2
···
W −(N −1)
W −2
W −4
···
W −2(N −1)
.. .
.. .
···
.. .
W −(N −1)
W −2(N −1)
···
F [0]
1 6 ⎥ 6 ⎥ 6 6 ⎥ 6 F [1] 1 ⎥ 6 ⎥ 6 6 6 ⎥ F [2] 1 ⎥=6 6 ⎥ 6 .. ⎥ 6 6 .. ⎥ 6 . . ⎦ 6 6 4 F [N −1] 1
3
32 1
2
76 76 76 76 76 76 76 76 76 7·6 76 76 76 76 76 76 76 54
W −(N −1) 32
1
1
···
1
W1
W2
···
W (N −1)
W2
W4
···
W 2(N −1)
.. .
.. .
···
.. .
W (N −1)
W 2(N −1)
···
W (N −1)
2
76 76 76 76 76 76 76 76 76 7 ·6 76 76 76 76 76 76 76 54
F [0] F [1] F [2]
.. . F [N −1] 3 f [0] f [1] f [2] ·
f [N −1]
7 7 7 7 7 7 7 7 7 7, 7 7 7 7 7 7 7 5
(3.164)
7 7 7 7 7 7 7 7 7 7. 7 7 7 7 7 7 7 5
In Kurzform lautet die Gleichung: f = W −1 · F,
F = W · f.
(3.165)
Die Bedeutung der Vektoren und Matrizen ergibt sich aus der Darstellung (3.164). Normalerweise wird die Berechnung der diskreten Fourier-Transformation mit einem Rechner durchgf¨uhrt. Wir k¨onnen uns hier daher nur auf einen sehr einfachen Fall beschr¨anken, bei dem die Rechnungen noch u¨ berschaubar sind. Beispiel 3.14 Gegeben sind die im oberen Bildteil 3.32 dargestellten N = 7 Zeitfunktionswerte: f [0] = 1, f [1] = 1, f [2] =
1 1 , f [3] = 0, f [4] = 0, f [5] = , f [6] = 1. 2 2
Die Spektralwerte ergeben sich zu: 1 1 F [m] = 1 + e−j2πm/7 + e−j2πm2/7 + e−j2πm5/7 + e−j2πm6/7 . 2 2
236
3 Einf¨uhrung in die Systemtheorie
Mit e−j2πm5/7 = e−j2πm ej2πm2/7 = ej2πm2/7 , e−j2πm6/7 = e−j2πm ej2πm/7 = ej2πm/7 erh¨alt man: F [m] = 1 + 2 cos (2π m/7) + cos (2π m 2/7) und daraus die im unteren Bild 3.32 dargestellten Werte: F [0] = 4, F [1] = 2, 024, F [2] = −0, 346, F [3] = −0, 178, F [4] = −0, 178, F [5] = −0, 346, F [6] = 2, 024. ↑ f [n] •
1•
0
1
• 2
•3
•4
• 5
• 6
→n
N =7
↑ F [m]
4•
•
2
0
1
Abbildung 3.32: Folge f [n] mit N = 7 Werten und die zugeh¨orende diskrete FourierTransformierte F [m]
•
2
•
3
•
4
•
5
•
6
→m N =7
3.10.5 Einige Eigenschaften der diskreten Fourier-Transformation Die Eigenschaften werden ohne Beweise zusammengestellt. Sie ergeben sich meistens unmittelbar aus der Definitionsgleichung (3.78) oder auf ganz a¨ hnliche Weise wie bei der zeitdiskreten FourierTransformation (Abschnitt 3.10.3). Bei Beziehungen zwischen unterschiedlichen Folgen wird die gleiche Anzahl N von Elementen vorausgesetzt. Bei der Auswertung einiger der Beziehungen sind die periodischen Eigenschaften der Folgen zu beachten. L¨aßt man n¨amlich in der oberen Gl. (3.163) f¨ur n auch (ganzzahlige) Werte außerhalb des Bereiches von 0 bis N − 1 zu, dann gilt f [n] = f [n + kN ] mit k = 0, ±1, ±2 · · ·. In diesem Sinne ist f [n] eine periodische Folge mit der Periode N . In dem gleichen Sinne ist auch die Spektralfolge F [m] periodisch. Es gilt demnach, wenn in den Gl. (3.163) auch Argumente m und n außerhalb des Grundbereiches von 0 bis N − 1 zugelassen werden: f [n] = f [n ± k · N ], k = 0, 1, 2 · · · ,
F [m] = F [m ± k · N ], k = 0, 1, 2 · · ·
(3.166)
Linearit¨at k1 f1 [n] + k2 f2 [n] ◦−−• k1 F1 [m] + k2 F2 [m].
(3.167)
Verschiebung der Zeitfolge f [n − n0 ] ◦−−• F [m] e−j2πn0 m/N .
(3.168)
3.10 Diskrete Transformationen
237
Verschiebung der Spektralfolge F [m − m0 ] •−−◦ f [n] ej2πm0 n/N .
(3.169)
f1 [n] ∗ f2 [n] ◦−−• F1 [m] · F2 [m],
(3.170)
Faltung von Zeitfolgen dabei ist: f1 [n] ∗ f2 [n] =
N −1
f1 [ν] f2 [n − ν].
ν=0
Faltung von Spektralfolgen F1 [m] ∗ F2 [m] •−−◦ N f1 [n] · f2 [n], dabei ist: F1 [m] ∗ F2 [m] =
N −1
(3.171)
F1 [ν] F2 [m − ν].
ν=0
Bei der Auswertung der Faltungssumme muss die Periodizit¨atseigenschaft (3.166) beachtet werden.
3.10.6 Die Grundgleichungen der z-Transformation Wir gehen von einem kausalen, zeitdiskreten Signal f (n) aus (d.h. f (n) = 0 f u¨ r n < 0) und ordnen diesem eine Funktion7 F (z) mit einer komplexen Variablen z zu: F (z) =
∞ n=0
f (n) z −n ,
f (n) =
1 2πj
) F (z) z n−1 dz.
(3.172)
Die rechte Gl. (3.172) ist die R¨ucktransformationsbeziehung. Die Integration muss dabei auf einem einfach geschlossenen Weg in mathematisch positiver Richtung im Konvergenzbereich der z-Transformierten erfolgen. So wie bei den anderen Transformationen, wird f u¨ r die Beziehungen (3.172) h¨aufig die Kurzform f (n) ◦−−• F (z) verwendet. F¨ur die Existenz einer z-Transformierten muss die diskrete Zeitfunktion die Bedingung |f (n)| < K · Rn mit geeignet gew¨ahlten Konstanten K und R erf¨ullen. In diesem Fall konvergiert die Summe f¨ur F (z) f¨ur alle Werte |z| > R. Diesen Bereich nennt man den Konvergenzbereich der z-Transformierten. Ein Vergleich von F (z) nach der Gl. (3.172) mit der zeitdiskreten FourierTransformierten (linke Gl. 3.145) zeigt, dass bei kausalen Zeitfunktionen die Zusammenh¨ange bestehen: 1 (3.173) FD (jω) = F (z = ejωT ), F (z) = FD jω = ln z . T Diese Beziehungen gelten allerdings nur bei absolut summierbaren kausalen Zeitsignalen, da sonst die Existenz von FD (jω) nicht gesichert ist. 7 Man spricht hier genauer von der einseitigen z-Transformation. Bei der zweiseitigen z-Transformation werden auch nichtkausale Signale f (n) zugelassen.
238
3 Einf¨uhrung in die Systemtheorie
Beispiel 3.15 F¨ur drei einfache Signale f (n) wird die z-Transformierte berechnet. Einheitsimpuls: f (n) = δ(n) (siehe Bild 3.7) Nach der linken Gl. (3.172) wird F (z) = 1, die Summe konvergiert fu¨ r beliebige Werte der Variablen z und gem¨aß der Gl. (3.173) gilt FD (jω) = 1. Sprungfolge: f (n) = s(n) (siehe Bild 3.11) Mit der Gl. (3.172) erh¨alt man F (z) =
∞
f (n) z −n =
n=0
∞
z −1
n
=
n=0
1 z , |z| > 1. = 1 − z −1 z−1
Es handelt sich um die Summe einer geometrischen Reihe, die bei Werten der Variablen |z| > 1 konvergiert, Ergebnis: z , |z| > 1, s(n) ◦−−• z−1 Der Bereich |z| > 1 ist der Konvergenzbereich der z-Transformierten von s(n). Die Beziehung (3.173) zur Ermittlung der zeitdiskreten Fourier-Transformierten ist hier nicht anwendbar, weil s(n) nicht absolut summierbar ist (siehe Gl. 3.6). Exponentialfolge: f (n) = s(n) · e−knT . Mit der Gl. (3.172) erh¨alt man F (z) =
∞ n=0
e−knT z −n =
∞
e−kT z −1
n=0
s(n)e−knT ◦−−•
n
=
1 1−
e−kT z −1
, |z| > e−kT ,
z , |z| > e−kT . z − e−kT
Der Bereich |z| > e−kT ist der Konvergenzbereich der z-Transformierten. Im Fall k > 0 ist das Signal f (n) = s(n)e−knT absolut summierbar, dann hat es gem¨aß der Gl. (3.173) die zeitdiskrete Fourier-Transformierte FD (jω) = F (z = ejωT ) =
ejωT , k > 0. − e−kT
ejωT
Im Fall k < 0 ist das Signal nicht absolut summierbar, in diesem Fall existiert keine zeitdiskrete Fourier-Transformierte.
3.10.7 Zusammenstellung von Eigenschaften der z-Transformation Die Eigenschaften werden ohne Beweis angegeben. Im Folgenden gelten die Korrespondenzen: f (n) ◦−−• F (z), |z| > |˜ z |, z1 |, f2 (n) ◦−−• F2 (z), |z| > |˜ z2 |. f1 (n) ◦−−• F1 (z), |z| > |˜ Linearit¨at: z1 |, |˜ z2 |). k1 f1 (n) + k1 f2 (n) ◦−−• k1 F1 (z) + k2 F2 (z), |z| > max(|˜
(3.174)
3.10 Diskrete Transformationen
239
Verschiebungssatz: f (n − i) ◦−−• z −i · F (z), |z| > |˜ z |, i ≥ 0.
(3.175)
Multiplikation mit n: n · f (n) ◦−−• − z
d F (z) , |z| > |˜ z |. dz
(3.176)
Faltungssatz: f1 (n) ∗ f2 (n) ◦−−• F1 (z) · F2 (z), |z| > max(|˜ z1 |, |˜ z2 |), darin ist: f1 (n) ∗ f2 (n) =
n
(3.177)
f1 (ν)f2 (n − ν).
ν=0
Multiplikation: f1 (n) · f2 (n) ◦−−•
1 2πj
) F1 (u)F2
z du u
u
.
(3.178)
Die Integration ist u¨ ber einem einfach geschlossenen Weg in mathematisch positiver Richtung im Bereich |z| > max(|˜ z1 |, |˜ z2 |) durchzuf¨uhren. Anfangs- und Endwertsatz: f (0) = lim {F (z)}, f (∞) = lim {(z − 1)F (z)}. z→∞
z→1
(3.179)
Diese Beziehungen setzen die Existenz der Werte f (0) bzw. f (∞) voraus.
3.10.8 Rationale z-Transformierte Bei den z-Transformierten soll es sich in diesem Abschnitt um gebrochen rationale Funktionen handeln: F (z) =
P1 (z) P2 (z)
c0 + c1 z + · · · + cq z q d0 + d 1 z + · · · + d r z r cq (z − z01 )(z − z02 ) · · · (z − z0q ) , dr = 0. = dr (z − z∞1 )(z − z∞2 ) · · · (z − z∞r ) =
(3.180)
z0μ sind die Nullstellen des Z¨ahlerpolynoms P1 (z) und z∞μ die Nullstellen des Nennerpolynoms P2 (z) bzw. die Polstellen von F (z). Wenn die Koeffizienten cμ , dν alle reell sind, dann sind die Null- und Polstellen entweder reell oder sie treten als konjugiert komplexe Paare auf. Das Pol-Nullstellenschema erh¨alt man dadurch, dass die Nullstellen (als Kreise) und die Polstellen (als Kreuze) in die komplexe z-Ebene eingetragen werden. Man kann zeigen, dass der Konvergenzbereich von F (z) außerhalb eines Kreises liegt, der durch den vom Koordinatenursprung am weitesten entfernten Pol geht. Wenn alle Polstellen im Einheitskreis, d.h. im Bereich |z| < 1 liegen, handelt es sich bei der zugeho¨ renden Zeitfunktion um eine ”abklingende” Funktion |f (n)| → 0 f¨ur n → ∞. Liegt mindestens ein Pol außerhalb des Einheitskreises, dann gilt |f (n)| → ∞ f¨ur n → ∞.
240
3 Einf¨uhrung in die Systemtheorie
Zur R¨ucktransformation gebrochen rationaler z−Transformierter entwickelt man F (z) in Partialbr¨uche. Dabei gelten die gleichen Formeln zur Berechnung der Koeffizienten wie bei der Partialbruchentwicklung gebrochen rationaler Laplace-Transformierter. Die R u¨ cktransformation der Partialbr¨uche kann mit den folgenden Korrespondenzen durchgefu¨ hrt werden: 1 zi
•−−◦
1 z − z∞
•−−◦
1 (z − z∞ )i
•−−◦
δ(n − i), i = 0, 1, 2, · · · 0 f¨ur n < 1 n−1 (3.181) s(n − 1) z∞ = n−1 f¨ur n ≥ 1 z∞
n − 1 n−i 0 f¨ur n < i , i = 1, 2, · · · s(n − i) z∞ = n−1 n−i ur n ≥ i i−1 i−1 z∞ f¨
In Abschnitt 3.14, sind weitere Korrespondenzen der z-Transformation zusammengestellt.
3.11 Die Beschreibung der Systeme im Frequenzbereich Die Behandlung der Systeme im Frequenzbereich geschieht in a¨ hnlicher Weise wie die Beschreibung der Signale im Frequenzbereich. Dieser Abschnitt geho¨ rt zu den Grundlagen der Systemtheorie und wurde wegen der notwendigen Kenntnisse der Transformationen zur u¨ ckgestellt. Es behandelt neben der Berechnung der Systemreaktionen im Frequenzbereich einige der grundlegenden ¨ analogen und zeitdiskreten Ubertragungssysteme. Ein besonderer Schwerpunkt liegt auf der Be¨ handlung der Nyquistbedingungen bei der Ubertragung zeitdiskreter Signale. ¨ Die Ubertragungsfunktion G(jω) eines Systems wurde bereits im Abschnitt 3.4.4 eingef u¨ hrt. Dort wurde als Eingangssignal f¨ur ein lineares zeitinvariantes System das komplexe Signal x(t) = ejωt gew¨ahlt, so dass sich G(jω) aus dem Faltungsintegral nach Gl. (3.46) ergab: ∞ g(t)e−jωt dt. (3.182) G(jω) = −∞
¨ Die Gl. (3.182) kann nat¨urlich auch so interpretiert werden, dass die Ubertragungsfunktion G(jω) als Fourier-Transformierte (s. Kap. 3.6) der Impulsantwort g(t) verstanden wird g(t) ◦−−• G(jω). Das System wird durch G(jω) = |G(jω)|·exp(−jB(ω)) im Frequenzbereich beschrieben. Durch |G(jω)| k¨onnen Aussagen u¨ ber das Amplitudenverhalten, z.B. D¨ampfung oder Verst¨arkung bestimmter Frequenzen des Eingangssinals, des Systems getroffen werden. Der Phasenwinkel von G(jω) l¨asst Laufzeiten des Systems erkennen.
3.11.1 Berechnung von Systemreaktionen im Frequenzbereich Nach der Gl. (3.46) erh¨alt man die Systemreaktion eines linearen zeitinvarianten Systems als Faltung des Eingangssignales mit der Impulsantwort. Einer Faltung im Zeitbereich entspricht der Multiplikation der Fourier-Transformierten (siehe Abschnitt 3.6.4): Y (jω) = G(jω) · X(jω).
(3.183)
3.11 Die Beschreibung der Systeme im Frequenzbereich
241
Dieser Zusammenhang ist im Bild 3.33 dargestellt. Neben der Berechnung der Systemreaktion im Zeitbereich durch das Faltungsintegral ist eine Berechnung im Frequenzbereich m o¨ glich. Dazu ermittelt man die Fourier-Transformierte X(jω) des Eingangssignales x(t). Das Produkt mit ¨ der Ubertragungsfunktion ergibt die Fourier-Transformierte Y (jω) der Systemreaktion und durch R¨ucktransformation erh¨alt man y(t). X(s) · G(s) = Y (s) (Bedingung: g(t)=0 und x(t)=0 f¨ur t<0) • • Q Q Q◦ ∞ ◦ • G(s) g(t) ◦ (g(t)=0 f¨ u r t<0) x(τ )g(t − τ ) dτ = ◦ y(t) = x(t) ◦ ◦
Q Q
g(t) ◦
• G(jω)
Q• • X(jω) · G(jω) = Y (jω)
−∞ ∞
◦
=
−∞
x(t − τ )g(τ ) dτ
Abbildung 3.33: Die Berechnung von Systemreaktionen im Zeit- und im Frequenzbereich Bei kausalen Systemen (g(t) = 0 f¨ur t < 0) und ebenfalls kausalen Eingangssignalen (x(t) = 0 f¨ur t < 0) kann die Rechnung auch mit der Laplace-Transformation erfolgen: Y (s) = G(s) · X(s).
(3.184)
Dieser Rechnungsweg ist ebenfalls im Bild 3.33 angegeben. Beispiel 3.16 Die Systemreaktion der RC-Schaltung vom Bild 3.13 auf das Eingangssignal x(t) = s(t) soll mit der Fourier-Transformation berechnet werden. Die Systemreaktion y(t) = h(t) wurde bereits in einfacherer Weise im Abschnitt 3.4.2 berechnet. Es gilt: g(t) ◦−−• G(jω) =
1 , 1 + jω
x(t) ◦−−• X(jω) = πδ(ω) +
1 jω
Bei der folgenden Multiplikation m¨ussen die besonderen Regeln f¨ur den Dirac-Impuls ber¨ucksichtigt werden: 1 1 1 + · . Y (jω) = G(jω) · X(jω) = πδ(ω) · 1 + jω jω 1 + jω Mit δ(x − x0 ) · f (x) = δ(x − x0 ) · f (x0 ) folgt nach der Partialbruchzerlegung des zweiten Terms: Y (jω) = πδ(ω) +
1 1 1 1 · = πδ(ω) + − jω 1 + jω jω 1 + jω
Die R¨ucktransformation liefert: Y (jω) •−−◦ y(t) =
1 1 + sgn(t) − s(t)e−t . 2 2
Die Terme 1/2 + 1/2 sgn(t) erg¨anzen sich im Bereich t < 0 zu Null und im Bereich t > 0 zu Eins. Somit wird die bekannte L¨osung best¨atigt: y(t) = s(t) · (1 − e−t ).
242
3 Einf¨uhrung in die Systemtheorie
Beispiel 3.17 Die Systemreaktion der RC-Schaltung vom Bild 3.13 auf das Eingangssignal x(t) = s(t)kt soll mit der Laplace-Transformation berechnet werden. Diese Aufgabe m u¨ sste sonst wie im Beispiel des Abschnittes 3.4.2 mit dem Faltungsintegral gelo¨ st werden. Die Impulsantwort des Systems lautet g(t) = s(t)e−t . Mit Hilfe einer Tabelle u¨ ber LaplaceTransformierte (vgl. Seite 277) findet man: G(s) =
k 1 k , X(s) = 2 , Y (s) = G(s)X(s) = 2 . 1+s s s (1 + s)
Y (s) wird in Partialbr¨uche entwickelt: Y (s) =
k 1 1 1 = −k + k 2 + k + s) s s 1+s
s2 (1
und die R¨ucktransformation liefert: y(t) = −ks(t) + ks(t)t + ks(t)e−t = s(t) k[(t − 1) + e−t ]. Eine Berechnung mit der Fourier-Transformation ist in diesem Fall nicht mo¨ glich, weil das Eingangssignal x(t) = s(t)kt keine Fourier-Transformierte besitzt. Beispiel 3.18 Die Systemfunktion F (s) ist durch das folgende PN-Schema beschrieben. Der Konvergenzbereich von F (s) wird durch Re{s} > 1 bestimmt, da hier der Pol mit dem gr¨oßten Realteil liegt. Besitzt die freiw¨ahlbare Konstante den Wert 1, so folgt: F (s) = k
(s + 1)(s − 2) (s + 1)(s − 2) = . s(s − 1) s(s − 1)
s d −1
@
@ 1
d 2
Eine Fouriertransformierte F (jω) •−−◦ f (t) ◦−−• F (s) existiert nicht, da die jω-Achse nicht im Konvergenzbereich liegt. F (s) ist keine echt gebrochen rationale Funktion, da der Za¨ hlergrad von F (s) gleich groß dem Nennergrad ist. Vor der Partialbruchzerlegung muss deshalb eine Konstante (i.A. durch Polynomdivision) abgespalten werden: F (s) = 1 + F˜ (s) = 1 +
A1 A2 (−2) =1+ + . s(s − 1) s s−1
Die Berechnung der Konstanten erfolgt gema¨ ß der folgenden Formel: −2 −2 ˜ (s − 1) · s A1 = F˜ (s) · s = = 2, A = F = = −2 2 s − 1 s=0 s s=1 s=0 s=1 Durch die R¨ucktransformation ergibt sich: F (s) •−−◦ f (t) = δ(t) + 2s(t) − 2s(t)et .
3.11 Die Beschreibung der Systeme im Frequenzbereich
243
¨ 3.11.2 Die Ubertragungsund die Systemfunktion zeitdiskreter Systeme ¨ Die Ubertragungsfunktion G(jω) eines zeitdiskreten Systems wurde bereits im Abschnitt 3.5.2 eingef¨uhrt. Dort wurde als Eingangssignal f¨ur ein lineares zeitinvariantes System das komplexe Signal x(n) = ejnωt gew¨ahlt, so dass sich G(jω) aus der Faltungssumme nach Gl. (3.62) (s. Abschn. 3.5.1) ergab: ∞ g(n)e−jnωT (3.185) G(jω) = n=−∞
Bei kausalen Systemen, d.h. g(n) = 0 f¨ur n < 0, erh¨alt man durch Substitution: jω = Systemfunktion: ∞
1 g(n)z −n G(z) = G jω = ln z = T n=0
1 T
ln z die (3.186)
Diese Gleichung kann auch so aufgefasst werden, dass G(z) als z-Transformierte der Impulsantwort g(n) (s. Kap. 3.6) interpretiert wird. Realisierbare gebrochen rationale Systemfunktionen m¨ussen einen Z¨ahlergrad nicht gr¨oßer als den Grad des Nennerpolynoms aufweisen und alle Polstellen m¨ussen im Inneren des Einheitskreises |z| < 1 liegen. Diese Stabilit¨atsbedingung folgt aus der Forderung nach Gl. (3.64) und der Eigenschaft, dass ”abnehmende” Funktionen im z−Bereich alle Pole im Bereich |z| < 1 haben (siehe Abschnitt 3.10.8). Aus G(z) erh¨alt man mit z = ejωT ¨ die Ubertragungsfunktion:
(3.187) G(jω) = G z = ejωT . Beispiel 3.19 Ein zeitdiskretes System ist durch seine Differenzengleichung gegeben: y(n) + y(n − 1) + 0, 5y(n − 2) = x(n). ¨ Zur Bestimmung der Ubertragungsfunktion dieses Systems wird zun¨achst die Systemfunktion durch Transformation der Differenzengleichung bestimmt: Y (z) + Y (z) · z −1 + 0.5Y (z) · z −2 = X(z)
=⇒
z2 Y (z) = = G(z) X(z) 0.5 + z + z 2
Mit z = ejωT erh¨alt man schließlich: G(jω) =
e2jωT cos(2ωT ) + j sin(2ωT ) , = 0, 5 + ejωT + e2jωT [0, 5 + cos(ωT ) + cos(2ωT )] + j[sin(ωT ) + sin(2ωT )]
Der Betrag ergibt sich unter Ber¨ucksichtigung von cos2 (x) + sin2 (x) = 1: |G(jω)| =
Der Betrag der ¨ Ubertragungsfunktion ist periodisch mit der Periode 2π/T Das nebenstehende Bild zeigt den Verlauf von |G(jω)|.
1 [0, 5 + cos(ωT ) + cos(2ωT )]2 + [sin(ωT ) + sin(2ωT )]2 6 |G(jω)|
2.83
0.4 π/T
2π/T
3π/T
4π/T
ω
244
3 Einf¨uhrung in die Systemtheorie
In der Praxis sorgt man i.A. daf¨ur, dass die Spektren der Eingangssignale keine Frequenzanteile 1 bzw. der Kreisfrequenz ωmax = Tπ haben8 . oberhalb der Frequenz fmax = 2T Signale mit einem derart begrenzten Spektrum erfu¨ llen die Bedingungen des Abtasttheorems (siehe Abschnitt 3.8.2) und werden durch ihre Abtastwerte vollst¨andig beschrieben. Bei diesen Si¨ gnalen ist der periodische Verlauf der Ubertragungsfunktion ohne Einfluss, relevant ist nur der Bereich bis zur (im Bild 3.15 eingetragenen) maximalen Kreisfrequenz ωmax = π/T .
3.11.3 Berechnung der Systemreaktion mit der z-Transformation Neben der Berechnung von Systemreaktionen mit der Faltungssumme (3.62) und der rekursiven Berechnung gem¨aß Gl. (3.74) kann bei kausalen Systemen (g(n) = 0 fu¨ r n < 0) und kausalen Eingangssignalen (x(n) = 0 f¨ur n < 0) auch eine Berechnung mit der z-Transformation erfolgen. Die Faltung (3.62) im Zeitbereich entspricht einer Multiplikation der z-Transformierten (siehe Abschnitt 3.10.7): Y (z) = G(z) · X(z). (3.188) Das Produkt der Systemfunktion und der z-Transformierten des Eingangssignales ergibt die zTransformierte der Ausgangsfolge und nach der Ru¨ cktransformation das Ausgangssignal y(n). Diese Berechnungsart entspricht der Berechnung von Systemreaktionen bei zeitkontinuierlichen Systemen im Frequenzbereich (siehe Bild 3.33). Beispiel 3.20 F¨ur ein zeitdiskretes System mit der Differenzengleichung: y(n) + y(n − 1) + 0, 25y(n − 2) = x(n − 1) ergibt sich die Systemfunktion G(z) zu: G(z) =
z z = . 0.25 + z + z 2 (z + 0, 5)2
F¨ur das Eingangssignal: x(n) ◦−−• X(z) = z/(z − 1) folgt fu¨ r die z-Transformierte der Sprungantwort y(n) = h(n) ◦−−• Y (z): Y (z) = G(z) · X(z) =
z z . · 2 (z + 0, 5) z − 1
Die Partialbruchzerlegung f¨ur Y (z) liefert: Y (z) =
A0 B A1 + . + (z + 0, 5)2 (z + 0, 5) z − 1
Die Sprungantwort y(n) = h(n) ◦−−• Y (z) berechnet sich durch die Ru¨ cktransformation von Y (z): n−2 n−1 1 1 h(n) = A0 · s(n − 2) · (n − 1) + A1 · s(n − 1) + B · s(n − 1). 2 2 Ein Vergleich mit der rekursiven Sprungantwort, die aus der Differenzengleichung ablesbar ist: h(n) = s(n − 1) − h(n − 1) − 0, 25 · h(n − 2), kann die Richtigkeit der geschlossenen L¨osung zeigen. 8 Filter,
die diese Bandbegrenzung vornehmen, werden oft als Antialiasing-Filter bezeichnet.
3.11 Die Beschreibung der Systeme im Frequenzbereich
245
Beispiel 3.21 Gesucht wird die Systemreaktion eines Systems mit der Impulsantwort g(n) = s(n)(1 − a) an , |a| < 1 auf das Eingangssignal x(n) = s(n) · n. Die Systemfunktion f¨ur das vorliegende System wurde bereits im Beispiel am Abschnittsende 3.5.2 berechnet. Die z-Transformierte von x(n) wird der Tabelle in Abschnitt 3.14 entnommen. Wir erhalten: z z2 (1 − a) z , X(z) = , Y (z) = (1 − a) . 2 z−a (z − 1) (z − a)(z − 1)2
G(z) =
Partialbruchentwicklung und R¨ucktransformation: 1 (1 − 2a) 1 1 a2 z2 + + = , 2 (z − a)(z − 1) 1−az−a 1 − a z − 1 (z − 1)2 a2 (1 − 2a) s(n − 1) an−1 + s(n − 1) + s(n − 2) (n − 1). y(n) = 1−a 1−a
Y (z) = (1 − a)
↑ x(n), y(n) •
6 ...
•
3 ... •
2 ...
• −1
• 0
•
•
4 ...
1 ...
•
•
5 ...
• •. . 1
Abbildung 3.34:
• •
Ein- und Ausgangssignal bei a = 3/4
• •
• ..
2
..
3
..
4
..
5
..
6
..
7
→.. n 8
Diese Funktion y(n) ist im Bild 3.34 zusammen mit dem Eingangssignal x(n) = s(n)·n skizziert. Die Studierenden k¨onnen mit etwas M¨uhe kontrollieren, dass man f¨ur die ersten vier Ausgangswerte y(0) bis y(3) die gleichen Werte wie bei der Berechnung mit der Differenzengleichung im Beispiel 3.7 am Abschnittesende 3.5.3 erh¨alt.
¨ 3.11.4 Verzerrungsfreie Ubertragung ¨ Eine wichtige Aufgabe der Nachrichtentechnik ist die mo¨ glichst verzerrungsfreie Ubertragung von ¨ Nachrichten, z.B. eine naturgetreue Ubertragung von Sprache und Musik zu erreichen. Bei einem verzerrungsfrei u¨ bertragenden System gilt: y(t) = K x(t − t0 ),
K > 0, t0 ≥ 0.
(3.189)
Das bedeutet, dass das Eingangssignal lediglich mit einem konstanten Faktor multipliziert und um die Zeit t0 verz¨ogert, am Empf¨anger ankommt. Mit dem Zeitverschiebungssatz (Gl. 3.87) erh¨alt man durch Fourier-Transformation der Beziehung (3.189): Y (jω) = K X(jω)e−jωt0 ,
246
3 Einf¨uhrung in die Systemtheorie
¨ und mit dem Zusammenhang Y (jω) = G(jω)X(jω) die Ubertragungsfunktion des verzerrungsfrei u¨ bertragenden Systems: G(jω) = Ke−jωt0 ,
K > 0, t0 ≥ 0.
(3.190)
¨ Ubertragungsfunktionen werden in der Nachrichtentechnik oft in der Form: G(jω) = e−(A(ω)+jB(ω)) = e−A(ω) · e−jB(ω) = |G(jω)|e−jB(ω)
(3.191)
dargestellt. Dabei gilt f¨ur die D¨ampfung in Neper: A(ω) = − ln |G(jω)|.
(3.192)
In der Praxis geht man meistens von der Darstellung: ˜
|G(jω)| = 10−A(ω)/20 ,
˜ A(ω) = −20 · lg |G(jω)|
(3.193)
˜ aus. Darin ist A(ω) die D¨ampfung in Dezibel. Zwischen beiden D¨ampfungsmaßen besteht der Zusammenhang: ˜ A/dB = 20 · lg e · A/N ≈ 8, 686 A/N. ¨ Die Phase B(ω) entspricht dem negativen Phasenwinkel ϕ der Ubertragungsfunktion (G(jω) = |G(jω)|ejϕ ). Die Gruppenlaufzeit ist die Ableitung der Phase nach der Kreisfrequenz: TG =
d B(ω) , dω
(3.194)
als Phasenlaufzeit bezeichnet man den Quotienten: TP =
B(ω) . ω
(3.195)
Mit den Beziehungen (3.190) und (3.191) folgt fu¨ r ein verzerrungsfrei u¨ bertragendes System: G(jω) = K e−jωt0 = |G(jω)|e−jB(ω) .
(3.196)
˜ Der Betrag |G(jω)| = K, und damit ist auch die D¨ampfung A(ω) = −20 lg K konstant und die Phase B(ω) = ω · t0 steigt linear mit der Frequenz an. Die Proportionalit¨atskonstante t0 bei der Phase entspricht hier der Gruppen- und auch der Phasenlaufzeit (Gln. 3.194, 3.195).
3.11.5 Der ideale Tiefpass ¨ Ein idealer Tiefpass hat die Ubertragungsfunktion: ω Ke−jωt0 f¨ur |ω| < ωg e−jωt0 . = K rect G(jω) = 2ωg 0 f¨ur |ω| > ωg
(3.197)
¨ Diese Ubertragungsfunktion entspricht im Durchlassbereich |ω| < ωg der eines verzerrungsfrei u¨ bertragenden Systems (Gl. 3.196). Im Sperrbereich |ω| > ωg ist G(jω) = 0, in diesem Bereich
3.11 Die Beschreibung der Systeme im Frequenzbereich B(ω)=ω·t0. . . .. |G(jω)|=K .. ................................................................................................................. . . . . ..... ... . . . . . ... . .. ....... .. . ....... .. .... ...... ....... .. ... ....... . . . . . .. .... . . . . . . ............................. . ............................ . ....... ωg →ω −ωg ...... 0 .......
..
..
..
..
..
.
247
Abbildung 3.35: Betrag und Phase eines idealen Tiefpasses
.. ....... ...... ....... ....... ....... . . . . .
hat der ideale Tiefpass eine unendlich große D¨ampfung. Der Betrag |G(jω)| und die Phase B(ω) sind im Bild 3.35 skizziert. Aus der Beziehung Y (jω) = G(jω)X(jω) folgt, dass bandbegrenzte Signale mit einer Begrenzungsfrequenz ω0 < ωg durch den idealen Tiefpass verzerrungsfrei u¨ bertragen werden. Ist z.B.: ω ω x(t) = sin ( 2g t), so folgt f¨ur y(t) = Kx(t − t0 ) = K sin ( 2g (t − t0 )). Falls X(jω) nur Frequenzanteile im Bereich ω > ωg hat, wird Y (jω) = 0 und somit auch y(t) = 0. Fu¨ r den Zeitbereich bedeutet das z.B.: x(t) = sin (2ωg t), y(t) = 0. ¨ Im Allgemeinen ist die Ubertragung nicht verzerrungsfrei, weil die Spektralanteile der Eingangssignale oberhalb der Grenzfrequenz ωg des Tiefpasses ”abgeschnitten” werden. Ein Beispiel hierzu ist die unten berechnete Sprungantwort des idealen Tiefpasses. ¨ Durch die Fourier-R¨ucktransformation (Gl. 3.79) der Ubertragungsfunktion (3.197) erh¨alt man die links im Bild 3.36 skizzierte Impulsantwort9 des idealen Tiefpasses: 1 g(t) = 2π =
K 2π
∞
G(jω)e −∞ ωg
jωt
1 dω = 2π
ejω(t−t0 ) dω =
−ωg
ωg
Ke−jωt0 ejωt dω =
−ωg
jωg (t−t0 ) 1 K e − e−jωg (t−t0 ) , 2π j(t − t0 )
K sin [ωg (t − t0 )] Kωg σ[ωg (t − t0 )]. = π t − t0 π
g(t) =
(3.198)
Wie man erkennt, ist der ideale Tiefpass ein nichtkausales System (g(t) = 0 fu¨ r t < 0, siehe Abschnitt 3.4.2), und außerdem ist er auch nicht stabil, weil seine Impulsantwort (3.198) nicht absolut integrierbar ist (siehe Gl. 3.64). Insofern ist der ideale Tiefpass ein physikalisch nicht realisierbares System. Die Sprungantwort des idealen Tiefpasses wird mit der Gl. (3.45) berechnet und mit der Substitution u = ωg (t − t0 ) folgt:
t
g(τ ) dτ =
h(t) = −∞
=
K π
0
−∞
K π
t
−∞
K sin u du + u π
sin [ωg (τ − t0 )] dτ = τ − t0
0
ωg (t−t0 )
sin u du. u
9 Die R¨ ¨ ucktransformation kann auch mit der Korrespondenz si(t/2) ◦−−• 2πrect(ω), der Anwendung des Ahnlichkeitssatzes (3.92) und des Zeitverschiebungssatzes (3.87) durchgefu¨ hrt werden.
248
3 Einf¨uhrung in die Systemtheorie ↑ h(t)
↑ g(t) Kωg . . . . . . . . . . . . .... ... .. . ... π .. . .. .. . ... .... .. .... .. . .. ... . ... .. . .. .. . .. ... .. .... .. . ... ... ... .. ... .. . .. .. . .. ... . .. . ... ... . ... ... . . ... ... . .. ... . .. . ... .. . .. . . . ... . ......... . ......... . . . . ... ... .. ..... . ...... .. ........... . . . . . . . . .. . .... ....... .. . ... ... . ... . .. ... . . ... ... .. . .. . ... . ... .. ... ..... .. . .. .... ..... . . . ......... .. ... . ...... . . . . . . 0 .. .. .. .. ... . . .. .. ... .. ...... ....
0
→t
t
..... .... ........ . ...
.................
.....
K . . . . . . . . . . . . . . . ......... . . . ...................................... . . . ...........................................
. ... .. .. ... .. ... .. .. ... . K . . . . . . . . . . . . .... 2 ... ... ..... .. . .. . ... . ... . ... .. .. . ... . .. . ....... .. .. ....... ......... ......................... . . . . . . . . . . . . . . . . . . . .... ................ ...... ..... .... .......
0
t0
→t
Abbildung 3.36: Impuls- und Sprungantwort eines idealen Tiefpasses Diese Integrale sind nur numerisch auswertbar. Eine kompaktere Darstellung f u¨ r h(t) erh¨alt man mit der Integralsinusfunktion: x x sin u du = si(u) du. (3.199) Σ(x) = u 0 0 Mit Σ(∞) = π/2 erh¨alt man dann die Form: h(t) =
K K + Σ[ωg (t − t0 )]. 2 π
(3.200)
Diese Sprungantwort ist rechts im Bild 3.36 skizziert. Wegen der Eigenschaft Σ(x) = Σ(−x) ˜ des idealen hat sie einen zu t0 punktsymmetrischen Verlauf. Eine vereinfachte Sprungantwort h(t) Tiefpasses erh¨alt man folgendermaßen (Bild 3.37): An h(t0 ) wird eine Tangente mit der Steigung h (t0 ) = g(t0 ) = Kωg /π gelegt. Diese Tangente ersetzt den ansteigenden Teil der Sprungant˜ wort. Unterhalb des Schnittpunktes der Tangente mit der Abszisse wird h(t) = 0 gesetzt und ˜ oberhalb der Stelle, an der die Tangente den Wert K erreicht, ist h(t) = K. Die korrekte und die angen¨aherte Sprungantwort sind im Bild 3.37 skizziert. ˜ ↑ h(t), h(t)
. . .. .. ..
.....
..
K . . . . . . . . . . . . . . . . . . . . .··..··.·.····.····.····.···.····.···.····.···..···.·.··.··.··.·.··.··.··.·.··.··.·.··.·.···.·.···.···.····.···.····.···.·.···.···.····..···.·.···..···.·.···..···.····..···.·.···.·.···.····· ··... ··... ·.·. .. ··.·. .... . .· . .·· .. ·.· .. ·.·.·. .... . K . . . . . . . . . . . . . . . . .• ..· ... .·· 2 .· .. .· . .·· ... ··..· .· .. ·.·.·. . .α .... .· .. .·· .. . . . .. .· . .· . ... . ·· t.0 .. ... ... . ...... . . . . . . .·······················.···.···.····.···.····.···.····.···.···.······························.···.·····················.·.····.. . . .
0
. . . . . .. →..
TE
.. ..←
Abbildung 3.37: Sprungantwort h(t), die ange˜ n¨aherte Sprungantwort h(t) und die Einschwingzeit TE = 1 2fg eines idealen Tiefpasses
→t
Als Einschwingzeit TE des idealen Tiefpasses bezeichnet man die Zeit, in der die angen¨aherte ˜ von 0 auf den Endwert K ansteigt. Mit dem im Bild 3.37 eingetragenen WinSprungantwort h(t) kel α erh¨alt man die Tangentensteigung tan α = K/TE = h (t0 ) = Kωg /π und daraus die Einschwingzeit: π 1 TE = = . (3.201) ωg 2fg
3.11 Die Beschreibung der Systeme im Frequenzbereich
249
Erzwingung der Kausalit¨at und Stabilit¨at Linearphasige Tiefp¨asse sind nicht kausal und ebenso nicht stabil. Wir wollen kurz zeigen, auf welche Weise diese Tiefp¨asse durch kausale stabile Systeme approximiert werden ko¨ nnen. Die Erkl¨arungen beziehen sich auf den idealen Tiefpass, sie ko¨ nnen sinngem¨aß auf allgemeine linearphasige Tiefp¨asse u¨ bertragen werden. ↑ g(t), w(t) ωg ... π
.. ... ... .. .. .. .. .. .... .. .... .. .. .. ... .. .. .. ... .. .. ... ... ... ... . . 1........................................................................................................................................................................................... .. .. .. ... .. ... .. ... .... ... .. .. ... .. .. .... .. . ... .. .. .. .. ... .. ... . . . . . . . . . . . . .. ... . .... . .. .... . . . . ..... ............ . . . . . . .. ... . .. . .. ................. . . . . . . . . . . . . ... ... ... ... .. .. .. .................... .. .. ... ....................... ... ... ... ... ..... .. .. .. . . . . . . . . . . . . . t ... ... 0 ....... ....... 0 .. ... ... . . . ... .. 2t0 ... ... ... .... ....... ..
→t
↑ H(ω)
.... ....... ... ... .... .. ... ......... .. .. .... .....1 ............. ..... .... ... ... ............ ....... .. .. ... .. . .. .. .. .. ... .. .... .. ... .. .. ... .. ... .. .. ... .. .. ... .. ... .. .. ... ... ... .. ... .. ... ... .. ... .. . . . . . . . . . . .... .............................................................. ................................................... ..... .. .. . . .... .. ωg .......... .. −ωg 0
→ω
Abbildung 3.38: Zur Konstruktion eines kausalen und stabilen Tiefpasses Im Bild 3.38 ist links nochmals die Impulsantwort eines idealen Tiefpasses (Gl. 3.198 mit K = 1) skizziert. Gegen¨uber der Darstellung im Bild 3.36 wurde ein gro¨ ßerer Wert t0 angenommen. Im linken Bild 3.38 ist weiterhin eine Fensterfunktion eingetragen: 1 f¨ur 0 < t < 2t0 , w(t) = 0 sonst. Offenbar gilt f¨ur das Produkt von g(t) und der Fensterfunktion: w(t) t − t ω t − t 0 0 g · g(t) = rect · g˜(t) = rect σ[ωg (t − t0 )] = 2t 2t π 0 0 ωg ur 0 < t < 2t0 , π σ[ωg (t − t0 )] f¨ = 0 sonst.
(3.202)
Es ist die Impulsantwort eines kausalen und stabilen Systems. Je gr o¨ ßer t0 ist, umso besser approximiert g˜(t) die Impulsantwort eines idealen Tiefpasses. Ein Produkt von Funktionen im Zeitbereich entspricht einer Faltung im Frequenzbereich. Mit den ¨ Korrespondenzen (Gln. 3.112, 3.113) rect(t) ◦−−• σ(ω/2), σ(t) ◦−−• π rect(ω/2), dem Ahnlichkeitssatz (3.92) und dem Zeitverschiebungssatz 3.87 erh¨alt man die Fourier-Transformierte von g˜(t): ω 1 ˜ e−jωt0 = 2t0 σ(ωt0 ) ∗ rect G(jω) = 2π 2ωg ∞ u t0 (3.203) σ[(ω − u)t0 ] du e−jωt0 = rect = π −∞ 2ωg ωg t0 = σ[(ω − u)t0 ] du e−jωt0 = H(ω) · e−jωt0 . π −ωg Mit der Integralsinusfunktion (Gl. 3.199) hat H(ω) auch die Form: H(ω) =
1 1 Σ[(ω + ωg )t0 ] − Σ[(ω − ωg )t0 ]. π π
(3.204)
250
3 Einf¨uhrung in die Systemtheorie
Die (reelle) Funktion H(ω) ist rechts im Bild 3.38 skizziert. Im Bereich |ω| < ωg ist H(ω) > 0 −jωt0 ˜ ˜ = H(ω)e−jωt0 . Bei negativen Werten von H(ω) kann man und dort gilt G(jω) = |G(jω)|e jπ schreiben H(ω) = |H(ω)|e und dies bedeutet einen ”Phasensprung” um den Winkel π an den ¨ Stellen, an denen H(ω) sein Vorzeichen a¨ ndert. Tiefp¨asse mit Ubertragungsfunktion dieser Art (Gl. 3.203, Bild 3.38) lassen sich besonders einfach als zeitdiskrete/digitale Systeme realisieren (siehe z.B. [18]).
3.11.6 Der ideale Bandpass Die Abbildung 3.39 zeigt den Betrag und die Phase eines idealen Bandpasses. .. .. . ...← B →..... ... .. .. ............................................ .............................................. . . . . |G(jω)| K . ... ... ... ............................... . ... .. ................ ... .... .. . . . . .. . . ... . . .. . .. ... . . .. .... ω.0 . 0 .............. −ω .................................................................................................................................... .............. . ω ω −g g −ωg −ω−g . . . . . . 0 .. .... ......... ............ . . . . . . . . . . . ...... . . ..... B(ω)=ω·t0 ....
→ω
Abbildung 3.39: Betrag und Phase eines idealen Bandpasses
¨ F¨ur die Ubertragungsfunktion des idealen Bandpasses gilt: Ke−jωt0 f¨ur ω−g < |ω| < ωg , G(jω) = 0 sonst. ¨ In geschlossener Form lautet die Ubertragungsfunktion: ω + ω ω − ω 0 0 G(jω) = K rect e−jωt0 + K rect e−jωt0 . B B
(3.205)
(3.206)
ω0 = 12 (ω−g + ωg ) ist die Mittenfrequenz und B = ωg − ω−g die Bandbreite des Bandpasses. Diese Bandpass¨ubertragungsfunktion kann auch als Differenz von zwei Tiefpassu¨ bertragungsfunktionen dargestellt werden: G(jω) = Gωg (jω) − Gω−g (jω) = ω ω e−jωt0 − K rect e−jωt0 . = K rect 2ωg 2ω−g
(3.207)
¨ idealer Tiefp¨asse (Gl. 3.197) mit Darin sind Gωg (jω) und Gω−g (jω) die Ubertragungsfunktionen den Grenzfrequenzen ωg und ω−g . Aus dieser Darstellungsart folgt, dass Systemreaktionen von Bandp¨assen als Differenz der Reaktionen von zwei Tiefp¨assen ausgedr¨uckt werden k¨onnen. Dies f¨uhrt zu der Impulsantwort des idealen Bandpasses (Siehe Gl. 3.198): g(t) =
Kω−g Kωg · si[ωg (t − t0 )] − · si[ω−g (t − t0 )]. π π
(3.208)
Eine andere Form f¨ur g(t) findet man durch die R¨ucktransformation der Gl. (3.206) Mit der Kor¨ respondenz si(t/2) ◦−−• 2π rect(ω) und dem Ahnlichkeits-, Frequenzverschiebungs- und Zeitverschiebungssatzes erh¨alt man die im Bild 3.40 skizzierte Impulsantwort: B(t − t ) B 0 · si · 2 cos [ω0 (t − t0 )] = 2 gT (t) cos [ω0 (t − t0 )]. (3.209) g(t) = K 2π 2
3.11 Die Beschreibung der Systeme im Frequenzbereich
251
↑ g(t)
KB . . . . . . . . . . . . . . . . ..... . π ....... . . ..... . . .... . . ...... . . ... . .... .. . . . ... . ... . . . .. . . .. . .. . . .... .. .... .. . . ... . . . . . . ... .. .... . . . ... . .. . . .. .. ..... . . . . . .. . . . . ... . . . .... ......... .. . . . . . ............ . ... . . . .. ... . . . . . . . . .. . . . . ... . .. .. . . . ... .... .. ... .... .. ......... . ............. ... . .... . .. .. . . . . . . . . ................... . . ....... . . . ... ... ... . ..... ... .... ................ ........ . .. ............................ ................ ... ...... .. . . .... ............ .... ................ ......................... . . . . . . .. . . . . . ....... .. .. .................... ..... . ... ... . .............. . . . . ... .. .... .. .. ...... . . ......... . . . . . . . ................. . . . .. .. . . . . . . . . ........... . .. . . 0 ... ... ... ...... ..... 0 ...... ..... .. ... ... .......... ... .. .. . .. . ... ... ... .. . . ... . ... .... . .. ... . .. . .. .... ... .. .. ... .. ... ... .. .. .. ... .. .. .. ... .. .. .. .. .. ... .. ..... .... .... . . . . . . . . . . . .. . ..
t
→t
Abbildung 3.40: Impulsantwort eines idealen Bandpasses
Bei g(t) im Bild 3.40 handelt sich um eine Kosinusschwingung 2 cos [ω0 (t − t0 )] mit der Einh¨ullenden gT (t). Der ideale Bandpass ist offensichtlich ein nichtkausales System (g(t) = 0 im ¨ Bereich t < 0). Darin ist gT (t) die Impulsantwort eines Tiefpasses mit der Ubertragungsfunktion: GT (jω) = K rect
ω B
e−jωt0 .
(3.210)
Man spricht in diesem Zusammenhang auch von einem a¨ quivalenten Tiefpass.
3.11.7 Gruppen- und Phasenlaufzeit Wir wollen die Reaktion eines Bandpasses auf ein amplitudenmoduliertes Signal berechnen und dabei die Begriffe Gruppenlaufzeit und Phasenlaufzeit (Gln. 3.194, 3.195) erl¨autern. Dazu ge¨ hen wir allerdings nicht von der im Bild 3.39, sondern von der im Bild 3.41 dargestellten Uber10 ¨ tragungsfunktion aus . Diese Ubertragungsfunktion unterscheidet sich von der des idealen Bandpasses durch den nichtlinearen Phasenverlauf. Wir setzen aber voraus, dass die Phase im Durchlassbereich linear verl¨auft und erhalten: ⎧ ⎪ ˜ 0 )t0 f¨ur ω−g < ω < ωg ⎪ ⎨ (ω − ω (3.211) B(ω) = (ω + ω ˜ 0 )t0 f¨ur − ωg < ω < −ω−g ⎪ ⎪ ⎩ beliebig in den anderen Bereichen.
Im Bild 3.41 wurde der Wert ω ˜ 0 = ω0 + B/4 gew¨ahlt. Der Phasenverlauf nach Gl. (3.211) enth¨alt ˜ 0 = 0. Der Phasenverlauf den (streng) linearen Phasenverlauf B(ω) = ωt0 als Sonderfall bei ω nach Gl. (3.211) f¨uhrt mit den Gln. (3.194), (3.195) (im Durchlassbereich) zu der Gruppen- und Phasenlaufzeit: ω ˜0 d B(ω) B(ω)
= t0 , = 1∓ · t0 . TP = (3.212) TG = dω ω ω
252
3 Einf¨uhrung in die Systemtheorie
...← B →... . . ....................................... |G(jω)| ........................................... K ... ... ... .. .. . .. ..... .. . ... .... .... .. ... ... ... .. .. ..... ... ... ..... . .. .. ..... ... ... . ... .. . . .. . . ... .... ... . . ...... . .. . . ... . . ... . .... .. ........... . . ... ... . . . . . ω . . . . . . . 0 . . ........... .......... .. ................................................................................................................ .. ......... ........... . →ω 0 .... .... .... ˜ .... −ω0 . ..... ω . .. ..
... ..... .... ..... . . . . ... ... ... B(ω) ......... ...
...
...
0
Abbildung 3.41: Bandpass mit nichtlinearem Phasenverlauf
...
Das obere Vorzeichen bei TP bezieht sich auf den ”positiven”, das untere Vorzeichen auf den ”negativen” Durchlassbereich. Die Gruppen- und Phasenlaufzeit in den Sperrbereichen ist ohne jede Bedeutung, da dort G(jω) = 0 ist. Das Eingangssignal f¨ur den Bandpass ist jetzt ein mit der Mittenfrequenz ω0 amplitudenmoduliertes Signal: 1 1 (3.213) x(t) = a(t) · cos (ω0 t) = a(t)ejω0 t + a(t)e−jω0 t . 2 2 Das Nachrichtensignal a(t) soll mit B/2 bandbegrenzt sein. Das Spektrum A(jω) von a(t) ist im linken Bildteil (3.42) schematisch dargestellt. A(jω) ...................... ... .. ... ... . ... ... ... . ... ... ... .. ... .. ... .. .. ... .. ... .. ... .. ... . ... ... ... .. ... .. ... .. .. ... .. ... .. ... .. ... . ... ... ................ . .............. B →ω −B 0 2
1 0) 2 A(jω+jω ....................
1 0) 2 A(jω−jω ... ........................ ... ... .. ... . ... ... . ... ... .. .. ... .. .. .... ........................................................ ........................................................ K . . . .. . . ... ... ... ... |G(jω)| . .. . . ... .. ... .... ... .... ... .. .... .. ... .. ... .... ... ....... ..... ... .. ... .. ... ... .... . ............... . . ... .. . . ... ... ... ... .... . .. .... ... ... ... ... ..... ... .... . ... .... .... . . . . . ... . . ... ... ... . .. .... . . . . ...... . . . . ... .. ... ... . .. .... . . . B B . ...... . . . ..... . . ... .... ω − ..... ....... ω0 + 2 ... .... ω . . 0 . . ... . . 0 . . . . 2 . . . . ................................................................................................................................................................................................................................... ............... ......... .. ................ .. ......... ... ... ω ω →ω . ... −ω0 −g g . 0 . . . . . . . . ... .. ˜0 .... ω ... ... ..... ...
2
...
...
...
...
B(ω)
...
...
... . ..
. ..... ..... ..... ..... ..... . . ..
Abbildung 3.42: Zur Berechnung der Bandpassreaktion auf ein amplitudenmoduliertes Signal
Aus der rechten Form (3.213) erh¨alt man mit dem Frequenzverschiebungssatz das Spektrum: X(jω) =
1 1 A(jω + jω0 ) + A(jω − jω0 ), 2 2
(3.214)
es ist im rechten Bildteil (3.42) skizziert. In dem Bild ist zus¨atzlich der Betrag und die Phase der ¨ Ubertragungsfunktion des Bandpasses nach Bild 3.41 eingetragen. Die Berechnung der Bandpassreaktion soll mit Hilfe der Beziehung Y (jω) = X(jω)G(jω) erfolgen. Auf Grund unserer Annahmen liegt das Spektrum des Eingangssignales voll in dem Durch10 In der Praxis realisierte Bandp¨ ¨ asse haben in der Regel keinen linearen Phasenverlauf und werden besser durch Ubertragungsfunktionen der Form nach Bild 3.41 approximiert.
3.11 Die Beschreibung der Systeme im Frequenzbereich
253
lassbereich des Bandpasses und wir erhalten daher: Y (jω) = =
1 1 A(jω + jω0 )Ke−j(ω+˜ω0 )t0 + A(jω − jω0 )Ke−j(ω−˜ω0 )t0 = 2 2 1 K A(jω + jω0 )e−j ω˜ 0 t0 + A(jω − jω0 )ej ω˜ 0 t0 e−jωt0 . 2
Die R¨ucktransformation f¨uhrt unter Anwendung des Frequenz- und Zeitverschiebungssatzes (Abschnitt 3.6.4) zu dem Ausgangssignal: 1 K a(t − t0 )e−jω0 (t−t0 ) e−j ω˜ 0 t0 + a(t − t0 )ejω0 (t−t0 ) ej ω˜ 0 t0 = 2 1 = K a(t − t0 ) e−j(ω0 (t−t0 )+˜ω0 t0 ) + ej(ω0 (t−t0 )+˜ω0 t0 ) = 2
˜ 0 t0 = = K a(t − t0 ) cos ω0 (t − t0 ) + ω
y(t) =
= K a(t − t0 ) cos ω0 [t − t0 (1 − ω ˜ 0 /ω0 )] . Die Beziehung in der untersten Gleichungszeile kann mit der Gruppenlaufzeit T G = t0 und der ˜ 0 /ω0 )t0 in der Form: Phasenlaufzeit TP = (1 − ω y(t) = K a(t − TG ) · cos [ω0 (t − TP )]
(3.215)
dargestellt werden. Das Ausgangssignal ist eine Kosinusschwingung mit dem Nachrichtensignal als ”Einh¨ullende”. Im Sonderfall einer streng linearen Phase B(ω) = ωt0 wird TG = TP = t0 und das amplitudenmodulierte Signal x(t) = a(t) cos (ω0 t) wird verzerrungsfrei u¨ bertragen : y(t) = Ka(t − t0 ) cos [ω0 (t − t0 )]. Bei einer nur im Durchlassbereich linearen Phase, so wie im Bild 3.41 skizziert, werden die ”Einh¨ullende” a(t) und die Kosinusschwingung cos (ω0 t) unterschiedlich weit verschoben. x(t) wird jetzt nicht verzerrungsfrei u¨ bertragen. Dies spielt aber i.A. keine Rolle, weil es nur darauf ankommt, das Nachrichtensignal a(t) verzerrungsfrei zu u¨ bertragen und die Verschiebungszeit des Tr¨agersignales dabei ohne Bedeutung ist. ˜ 0 /ω0 )t0 hat bei ω ˜ 0 = ω0 den Wert 0. Sie wird bei ω ˜ 0 > ω0 sogar Die Phasenlaufzeit TP = (1 − ω negativ. Dies liegt daran, dass Phasendifferenzen bei der Kosinusschwingung nur bis auf ganze Vielfache von 2π unterschieden werden k¨onnen. Je nach dem Vorzeichen des Nullphasenwinkels, erh¨alt man positive oder negative Werte f¨ur TP .
3.11.8 Allgemeine Bandpasssysteme ¨ Das Bild 3.43 zeigt links den Reallteil R(ω) und den Imagin¨arteil X(ω) der Ubertragungsfunktion G(jω) = R(ω) + jX(ω) eines Bandpasses. Weil es sich bei dem Bandpass um ein reelles System handelt, ist der Realteil R(ω) = R(−ω) eine gerade und der Imagin¨arteil X(ω) = −X(−ω) eine ungerade Funktion und damit gilt G∗ (jω) = G(−jω) (siehe hierzu Abschnitt 3.4.4). In dem Bild
254
3 Einf¨uhrung in die Systemtheorie ............ {H2 (jω)} {H1 (jω)} ................... ... . .... ............. ....... ....... ... ... ....... ....... ... ....... ....... ... ....... ... . ....... . . . . ... . ....... ... ..... . . . ....... . . ... . ... .... ....... . . . . . . ... . ... ....... ..... . . ..... . . ... . ... . .. ........ . ... . . . ..... R(ω) . . ... R(ω) ... X(ω)........ ..... ... ... ... ... ... .... . ... . .. . . . . ... ... .. .... . . ... . . .... ... . ... .... .... ... . . . . . . ... . ... ... ... .. .......... . . ... ... ... ... . ...... . . . . ... . . . ...........→ω .... ............ .. .. .................................................................................................................................. ..... ... ω−g ω0 ωg 0 −ω0 ..... ... ..... ... ..... . . ... . . . ... ..... ... ..... ... ..... ... ......... ... ...... X(ω) . ..
Hb (jω)
Ha (jω) . ... . . . . ......... ....... .... ... . . . . . . ....... ... . .... . . .. . . . ... . . . . ........... .. .. ... ....... . . . . . ... ... ....... .... . . .. . . .. . . .. .... ... .............. . . . . ..... ........ . ... . ........ . .. . . . .... .. .... ... ..... ... ... ..... . .... . . . . . ... ... . .... . . . . ... . ... .... .... . . . . ... . ... ... .. ... .. ... .......... ... .. ........... ... .......... .......... .. →ω ... 0 .. ... .. ... .. . . .. .. . .. . .. .. .. ... .. .... .....
¨ Abbildung 3.43: Real- und Imagin¨arteile der Ubertragungsfunktion eines Bandpasses und die Funktionen Ha (jω), Hb (jω) nach der Gl. (3.217) ist eine im Prinzip beliebig festlegbare Mittenfrequenz ω0 eingetragen. Sinnvoll ist nat¨urlich ein Wert in der Mitte des Durchlassbereiches. ¨ Die Ubertragungsfunktion wird additiv in zwei Teile zerlegt: G(jω) = H1 (jω) + H2 (jω) = s(ω) G(jω) + s(−ω) G(jω).
(3.216)
¨ Offensichtlich entspricht H1 (jω) der Ubertragungsfunktion f¨ur ω > 0 und H2 (jω) der f¨ur ω < 0. Wir definieren zwei weitere Funktionen: Ha (jω) = H1 (jω + jω0 ),
Hb (jω) = H2 (jω − jω0 ).
(3.217)
Ha (jω) ist die um ω0 nach links verschobene Funktion H1 (jω) = s(ω)G(jω) und Hb (jω) die um ω0 nach rechts verschobene Funktion H2 (jω) = s(−ω)G(jω). Die Funktionen Ha (jω) und Hb (jω), bzw. deren Real- und Imagin¨arteile, sind im rechten Bild 3.43 skizziert. Man erkennt, dass die Realteile dieser Funktionen i.A. keine geraden und die Imagin¨arteile i.A. keine ungera¨ reeller den Funktionen sind. Daher sind Ha (jω) und Hb (jω) i.A. keine Ubertragungsfunktionen Systeme. Falls eine Mittenfrequenz ω0 so gew¨ahlt werden kann, dass die Realteile gerade und die Imagin¨arteile ungerade sind, spricht man von einem symmetrischen Bandpass. Die Bedingung gerader Real- und ungerader Imagin¨arteil entspricht einer geraden Betragsfunktion von Ha,b (jω) und ungeraden Phasenfunktionen11 . Aus dem rechten Bild 3.43 erkennt man die Zusammenh¨ange: Hb∗ (jω) = Ha (−jω),
Ha∗ (jω) = Hb (−jω).
(3.218)
¨ Wir definieren jetzt zwei (Tiefpass-) Ubertragungsfunktionen: GT1 (jω) = Ha (jω) + Hb (jω),
GT2 (jω) =
1 [Ha (jω) − Hb (jω)]. j
(3.219)
Der Leser kann mit Hilfe der Gl. (3.218) leicht nachpru¨ fen, dass die f¨ur reelle Systeme notwendigen Bedingungen G∗T1 (jω) = GT1 (−jω) und G∗T2 (jω) = GT2 (−jω) erf¨ullt sind. 11 Dies sind hinreichende, aber nicht notwendige Bedingungen. Auf die genauen Eigenschaften symmetrischer Bandp¨asse wird in einem Hinweis im Anschluss an das Beispiel eingegangen.
3.11 Die Beschreibung der Systeme im Frequenzbereich
255
Mit den bisher eingef¨uhrten Funktionen erhalten wir folgende Darstellung fu¨ r die Bandpass¨ubertragungsfunktion: G(jω) = H1 (jω) + H2 (jω) = Ha (jω − jω0 ) + Hb (jω + jω0 ) = =
1 2 [GT1 (jω
− jω0 ) + jGT2 (jω − jω0 )]+
+
1 2 [GT1 (jω
+ jω0 ) − jGT2 (jω + jω0 )] =
=
1 2 [GT1 (jω j 2 [GT2 (jω
− jω0 ) + GT1 (jω + jω0 )]+
+
(3.220)
− jω0 ) − GT2 (jω + jω0 )].
Mit den Korrespondenzen gT1 (t) ◦−−• GT1 (jω), gT2 (t) ◦−−• GT2 (jω) und dem Frequenzverschiebungssatz (3.88) erh¨alt man durch Fourier-R¨ucktransformation die Impulsantwort des Bandpasses: g(t) = gT1 (t) · cos (ω0 t) − gT2 (t) · sin (ω0 t).
(3.221)
Beispiel 3.22 Die Impulsantwort des Bandpasses vom Bild 3.41 mit der Phase nach Gl. (3.211) soll berechnet werden. Nach den Gln. (3.216) und (3.217) erha¨ lt man:
ω−ω
0 e−j(ω−˜ω0 )t0 , B
ω+ω −j(ω+˜ω )t 0 0 , H2 (jω) = s(−ω)G(jω) = K rect B 0 e
ω −j(ω+ω −˜ω )t
ω −jΘ (ω) 0 0 0 1 e = K rect B , Ha (jω) = H1 (jω + jω0 ) = K rect B e
ω −j(ω−ω +˜ω )t
ω −jΘ (ω) 0 0 0 2 = K rect B e . Hb (jω) = H2 (jω − jω0 ) = K rect B e
H1 (jω) = s(ω)G(jω) = K rect
K |Ha (jω)|=|Hb (jω)| ............................................................................................................................................ ... ... ... ... ... ... ... ... ... .. Θ (ω) ... 2 ..... . . . . . ... ..... .... . . . . . . ... . .. ...... . . . . . . ... . .. .... ........ ... ........ .... ... ........ ... ... Θ1 (ω) ........ ... .... ....... . . . . . . . . . ... . . ..... ..... .... . . . . . . . . . . . ... . . . ..... ...... .... . . . . . . . . . . . ... . . ..... ..... . . . . .. . . . . . . . . . . . . .. . ........ B →ω 0 .................... ..... ....... −B . 2 .............. 2 . ...... . . . . . . . ω ˜ −ω . . . 0 0 .. ..... . . . . . . .... . .. ........ ........ ....... ........ ........ . . . . . . . . ........ .... ....
Abbildung 3.44: Funktionen Ha (jω) und Hb (jω)
˜ 0 )t0 , Θ2 (ω) = |Ha (jω)| = |Hb (jω)| = Krect(ω/B) und die Phasen Θ1 (ω) = (ω + ω0 − ω ˜ 0 )t0 sind im Bild 3.44 skizziert. Dabei wurde (wie im Bild 3.41) ω ˜ 0 − ω0 = B/4 (ω − ω0 + ω gew¨ahlt. Bei der Darstellung im rechten Bild 3.43 wurden die Real- und Imagina¨ rteile und nicht die Betr¨age und Phasenwinkel von Ha (jω) und Hb (jω) skizziert. Der Sonderfall: ω ˜ 0 = ω0 f¨uhrt zu ungeraden Funktionen Θ1 (ω) = Θ2 (ω) = −Θ1 (−ω) und wegen der geraden Betragsfunktion zu einem symmetrischen Bandpass. Aus dem Hinweis im Anschluss an dieses Beispiel folgt aber, dass der hier untersuchte Bandpass auf jeden Fall symmetrisch ist, also auch bei ω ˜ 0 = ω0 .
256
3 Einf¨uhrung in die Systemtheorie
Nach der Gl. (3.219) erhalten wir die beiden Tiefpass¨ubertragungsfunktionen:
ω −jωt 0 e−jωt0 + Ke−j(˜ω0 −ω0 )t0 rect B e =
ω −jωt 0 , = 2K cos [(˜ ω0 − ω0 )t0 ] rect B e
ω −jωt ω 0 e−jωt0 − Kj e−j(˜ω0 −ω0 )t0 rect B e = GT2 (jω) = Kj ej(˜ω0 −ω0 )t0 rect B
ω −jωt 0 . = 2K sin [(˜ ω0 − ω0 )t0 ] rect B e GT1 (jω) = Kej(˜ω0 −ω0 )t0 rect
ω B
¨ Mit der Korrespondenz 2π rect(ω) •−−◦ si(t/2), dem Ahnlichkeitsund Zeitverschiebungssatz (Abschnitt 3.6.4) findet man die Impulsantworten: B B(t − t0 ) si cos [(˜ ω0 − ω0 )t0 ], π 2 B B(t − t0 ) sin [(˜ ω0 − ω0 )t0 ] gT2 (t) = K si π 2
gT1 (t) = K
und mit Gl. (3.221) die Impulsantwort des Bandpasses vom Bild 3.41: B B(t − t0 ) × g(t) = K si π 2 × cos [(˜ ω0 − ω0 )t0 ] · cos (ω0 t) − sin [(˜ ω0 − ω0 )t0 ] · sin (ω0 t) = B B(t − t0 ) · cos [ω0 t − (ω0 − ω ˜ 0 )t0 ]. = K si π 2 Der Sonderfall ω ˜ 0 = 0 f¨uhrt auf den idealen Bandpass (Bild 3.39) mit der Impulsantwort nach Gl. (3.209). Hinweise zum Begriff des symmetrischen Bandpasses Als Bedingung f¨ur einen symmetrischen Bandpass wurde oben gefordert, dass die Funktionen ¨ reeller Systeme haben, also Ha (jω) und Hb (jω) die Eigenschaften von Ubertragungsfunktionen gerade Real- und ungerade Imagin¨arteile. Aus der Gl. (3.218) l¨asst sich leicht zeigen, dass dann Ha (jω) = Hb (jω) wird und mit der Gl. (3.219) folgt GT1 (jω) = 2Ha (jω), GT2 (jω) = 0. Dies f¨uhrt nach der Gl. (3.221) zu einer Impulsantwort eines symmetrischen Bandpasses g(t) = 2gT1 (t) cos (ω0 t) = gT (t) · cos (ω0 t). Allgemeiner spricht man von einem symmetrischen Bandpass, wenn die Impulsantwort die Form g(t) = gT (t) · cos (ω0 t − ϕ0 ) aufweist. Man kann vergleichsweise einfach zeigen, dass diese Form der Impulsantwort genau dann entsteht, wenn die Betr¨age |Ha (jω)| = |Hb (jω)| gerade Funktionen sind. Die Phasen von Ha,b (jω) m¨ussen nicht notwendig ungerade Funktionen sein. Es muss aber eine Konstante geben, die zu den Phasen addiert oder subtrahiert, zu ungeraden Funktionen f¨uhrt. In diesem Sinne ist der in dem Beispiel besprochene Bandpass symmetrisch. ω0 − ω0 )t0 und von Θ2 (ω) Subtrahiert man von Θ1 (ω) im Bild 3.44 den Wert Θ1 (0) = −(˜ ω0 − ω0 )t0 , dann entstehen ungerade Funktionen. Insofern ist der in dem den Wert Θ2 (0) = (˜ Beispiel behandelte Bandpass in jedem Fall symmetrisch, die Impulsantwort hat stets die Form g(t) = gT (t) · cos (ω0 t − ϕ0 ). Im Gegensatz zu einem allgemeinen Bandpass kann ein symmetrischer Bandpass durch eine (reelle) Tiefpass-Impulsantwort gT (t) beschrieben werden.
3.11 Die Beschreibung der Systeme im Frequenzbereich
257
3.11.9 Bandpassreaktionen auf amplitudenmodulierte Eingangssignale Gegeben sei ein amplitudenmoduliertes Signal: x(t) = a(t) · cos (ω0 t).
(3.222)
Das Spektrum von a(t) soll mit ωg bandbegrenzt sein, d.h. A(jω) = 0 f¨ur |ω| > ωg . Die Mittenfrequenz des Bandpasses soll mit der Tr¨agerfrequenz ω0 des amplitudenmodulierten Signales u¨ bereinstimmen. Außerdem nehmen wir an, dass ω0 genau in der (arithmetischen) Mitte des Durchlassbereiches liegt12 . Schließlich fordern wir noch ωg ≤ B2 und 2ωg < 2ω0 − B. Diese A(jω) .......... {G(jω)} {G(jω)} ........... ..... .. ....... ... ... ..... .... ...... .. ..... ... ..... .... ...... .. ..... . . . ...... . ... . .. . . . ... .. ...... .. ... ..... .... . ... ...... . . . . .. . ... . . ...... .. . ... . . . . .. ... ... ... .. ... .. . ... .. . ... ... .. ... ω ... −ωg.... g . .. . ... .. . ... .. .. ... . .. ... .. . ... ... .... . .. .. . . ... .. .. . .. ... ... . . . .. . . . . . . . ........ ................................................................................................................. ......→ω .. .. .. ω B 0 ... 0 −ω0 ω0 − ω0 + B 2 . 2 . ... ...
Abbildung 3.45: Darstellung zur Berechnung von Bandpaßreaktionen auf amplitudenmodulierte Ein- gangssignale
..
←−− 2ω0 − B −−→...
Verh¨altnisse sind im Bild 3.45 schematisch dargestellt. Offensichtlich muss das Spektrum A(jω) in die ”L¨ucke” bei dem Bandpass ”hineinpassen”. Die Fourier-Transformierte von x(t) lautet (siehe Gl. 3.214): X(jω) =
1 1 A(jω + jω0 ) + A(jω − jω0 ) 2 2
und mit G(jω) nach der Gl. (3.220) erhalten wir: Y (jω) = G(jω)X(jω) = 1 [G (jω − jω0 ) + GT1 (jω + jω0 )] + 2j [GT2 (jω − jω0 ) − GT2 (jω + jω0 )] × = T 1 2 1 ×[ 2 A(jω + jω0 ) + 12 A(jω − jω0 )]. Nach unseren Voraussetzungen (siehe Bild 3.45) entstehen bei der Ausmultiplikation eine ganze Reihe verschwindender Produkte. So ist z.B. GT1 (jω − jω0 )A(jω + jω0 ) = 0, weil GT1 (jω − jω0 ) die um ω0 nach rechts verschobene Tiefpass¨ubertragungsfunktion und A(jω + jω0 ) das nach der anderen Richtung nach links verschobene Spektrum des Nachrichtensignales ist. Unter Weglassung der verschwindenden Produkte erhalten wir: ! " Y (jω) = 14 !GT1 (jω − jω0 )A(jω − jω0 ) + GT1 (jω + jω0 )A(jω + jω0 )"+ + 4j GT2 (jω − jω0 )A(jω − jω0 ) − GT2 (jω + jω0 )A(jω + jω0 ) . ¨ Wir bezeichnen jetzt mit ya1 (t) die Reaktion des Tiefpasses mit der Ubertragungsfunktion GT1 (jω) auf das Nachrichtensignal a(t). Dann ist Ya1 (jω) = GT1 (jω)A(jω) und wir erhalten mit dem Frequenzverschiebungssatz die Korrespondenzen: Ya1 (jω ± jω0 ) = GT1 (jω ± jω0 )A(jω ± jω0 ) •−−◦ ya1 (t)e∓jω0 t . 12 Anders als in der Darstellung im Bild 3.43 sind hier ω −B/2 und ω +B/2 die Durchlassfrequenzen des Bandpasses 0 0 und ωg ist die Grenzfrequenz des Nachrichtensignales a(t).
258
3 Einf¨uhrung in die Systemtheorie
Diese Ausdr¨ucke entsprechen, bis auf den Faktor 14 , den ersten beiden Summanden in der Gleichung f¨ur Y (jω). Entsprechend bezeichnen wir mit ya2 (t) die Systemreaktion des Tiefpasses mit ¨ der Ubertragungsfunktion GT2 (jω) auf a(t) und erhalten dann:
1 1 y(t) = ya1 (t) ejω0 t + e−jω0 t − ya2 (t) ejω0 t − e−jω0 t , 4 4j 1 1 y(t) = ya1 (t) · cos (ω0 t) − ya2 (t) · sin (ω0 t). (3.223) 2 2 Darin sind ya1 (t) = a(t) ∗ gT1 (t), ya2 (t) = a(t) ∗ gT2 (t) ¨ die Reaktionen der Tiefp¨asse mit den Ubertragungsfunktionen GT1 (jω) und GT2 (jω) nach Gl. (3.219) auf das Nachrichtensignal a(t) in der Gl. (3.222).
3.11.10 Das a¨ quivalente Tiefpasssystem Der Begriff des a¨ quivalenten Tiefpasses wurde erstmals bei der Besprechung des idealen Bandpasses im Abschnitt 3.11.6 eingef¨uhrt. Dort konnte die Impulsantwort des Bandpasses durch eine mit einer Kosinusschwingung multiplizierte Tiefpassimpulsantwort ausgedr u¨ ckt werden (Gl. 3.210). Auch bei allgemeinen Bandpasssystemen kann die Impulsantwort (Gl. 3.221) auf entsprechen¨ de Weise durch i.A. Impulsantworten zweier Tiefp¨asse mit den Ubertragungsfunktionen (3.219) ausgedr¨uckt werden. Das a¨ quivalente Tiefpasssystem besteht i.A. aus zwei Tiefp¨assen. Mit Hilfe dieser beiden Tiefp¨asse k¨onnen auch Systemreaktionen auf amplitudenmodulierte Signale beschrieben werden (Gl. 3.223). Mit dem Ziel einer ”kompakteren” Schreibweise kann ein i.A. komplexer a¨ quivalenter Tiefpass eingef¨uhrt werden. Dazu fasst man die beiden Impulsantworten gT1 (t) und gT2 (t) zu einer komplexen Tiefpassimpulsantwort zusammen: gT (t) = gT1 (t) + j gT2 (t). Mit dieser Impulsantwort erh¨alt man die Bandpassimpulsantwort (Gl. 3.221): g(t) = Re gT (t)ejω0 t .
(3.224)
(3.225)
¨ Zur Ermittlung der Ubertragungsfunktion GT (jω) des komplexen a¨ quivalenten Tiefpasses transformieren wir gT (t) nach Gl. (3.224) in den Frequenzbereich und erhalten mit GT1 (jω) und GT2 (jω) nach Gl. (3.219): (3.226) GT (jω) = 2 · Ha (jω). Dabei ist Ha (jω) die nach der Gl. 4.83 definierte Funktion, die dadurch entsteht, dass der rechte ”Ast” der Bandpass¨ubertragungsfunktion um ω0 nach links verschoben wird (siehe rechtes Bild ¨ 3.43). Als Ubertragungsfunktion eines nicht reellen Systems hat Ha (jω) i.A. keinen geraden Realteil und ungeraden Imagin¨arteil. In entsprechender Weise wie bei der Impulsantwort ko¨ nnen auch Bandpassreaktionen auf amplitudenmodulierte Signale beschrieben werden. Es gilt (vgl. Gl. 3.223): 1 1 (3.227) y(t) = Re ya (t)ejω0 t = Re [a(t) ∗ gT (t)]ejω0 t . 2 2 ¨ Darin ist ya (t) das (i.A. komplexe) Ausgangssignal des Tiefpasses mit der Ubertragungsfunktion GT (jω) nach Gl. (3.226) auf das Nachrichtensignal a(t).
¨ 3.12 Die Ubertragung zeitdiskreter Signale
259
¨ 3.12 Die Ubertragung zeitdiskreter Signale ¨ 3.12.1 Die Ubertragungsbedingungen Eine verzerrungsfreie Signal¨ubertragung erfordert eine konstante D¨ampfung und eine linear an¨ steigende Phase der Ubertragungsstrecke (siehe Abschnitt 3.11.4). Tiefpasssignale, das sind Signale mit einem ”begrenztem” Spektrum, ko¨ nnen durch Tiefpass¨ubertragungskan¨ale mit einer ausreichend großen Grenzfrequenz verzerrungsfrei u¨ bertragen werden, wenn die oben genannten ¨ Bedingungen im Durchlassbereich des Ubertragungskanales erf¨ullt sind. ¨ ¨ Zur Ubertragung zeitdiskreter Signale gibt es andere Bedingungen fu¨ r eine korrekte Ubertragung. Es kommt hier ja nicht darauf an, ein Signal ”insgesamt” verzerrungsfrei zu u¨ bertragen. Am Kanalausgang m¨ussen lediglich die zu u¨ bertragenden Abtastwerte korrekt empfangen werden. Diese Aussagen sollen durch die Darstellung im Bild 3.46 verdeutlicht werden.
x ˜(0)
x ˜(0)δ(t) ....·.··.·.········• ....·... ··············· ... .... ... ····.... ··· .. .. .. .. .. ·· .. ··· .. ... ... ·· .... .. . . ··· .. ··· .... .. · ·· ... . .............................................................................. .. ··· ... .. · ·· ... .. .. ·· ·· ... ... ”Impulsformer” ... .. ·· ... . .. ·· ... .. ·· .. .. ·· ·· .......................◦ ...... ¨ .. ◦....................... Ubertragungs.. ·· ............ ... ..... ... .. ·· .. ·· ·········.·.·.···· .·.·.··········• .. ..·.·· ... ... .. · .... ·· .. ..·. ... · .. ·· ... ...···· . system . .. · . .. . ··.·.·.········•············· . ·· ..·· ···... ............................................................................. .. ··· .. ·· .. . · . . . . · ·· .. ..·· x .. .. .. · .. · ˜ (T ) .. · . . · . .. x . ) ˜ (T )δ(t−T · ·· · . · . .. .. ·..·.··········•············· . · · . .. ·· .. · . · . · ·· ···.·..·. . .. .. ··· . . · .. . . · · . . . . ··... ..→t . · ·· · · →t 2T 3T ... · 3T . ··· .. · .. .. .... .. ... .. ·... ·· ...... ··· · ·· .. ·· · · . · .. . · . . · · · . T · 0 T ... 0 ···2T · · ... 4T 5T .... ··· T ... 4T 5T ...... .. · . · · · .. 2 .. · ·... ... ..·.··· · .. ↑g(t) · · . · . · .. · · ... ... .. ··· ··· ··... · .. .. · · . . · · · . . .. .. ··· ··· 1······························ .· ·.···········•············· .. .. .. .. · .. .. ··· · ..··· · .. · · . . . · .. . .. .. .. ··· ··· .. · .. ··· ··· .. .. · .. · .. ·· ·· .. .. · ·· .. ·· .. · .. .. ·· .. · ··· .. · ·· .. · .... ... ·· .... ··· ...··· .. · · ····· ················· ..··. ... .··.·...... ··.... ··········•·············· →t 0 T
x ˜(t), x(t)
x(t)
x ˜(t), y(t)
y(t)
¨ Abbildung 3.46: Ubertragung zeitdiskreter Signale ˜(t) wird im Abstand T = ωπ0 = 2f10 abgetastet. Dadurch ist Ein mit ω0 bandbegrenztes Signal13 x nach dem Abtasttheorem (Abschnitt 3.8.2) gew¨ahrleistet, dass das Signal x ˜(t) aus den Abtastwerten x ˜(νT ) exakt rekonstruiert werden kann. Der Einfachheit halber nehmen wir an, dass aus den Abtastwerten ein Signal x(t) gebildet wird: x(t) =
∞
x ˜(νT )δ(t − νT ).
(3.228)
ν=−∞
In der Praxis treten schmale Impulse an die Stelle der Dirac-Impulse Das Signal x(t) ist das Eingangssignal f¨ur den in der Bildmitte 3.46 angedeuteten Impulsformer mit einer Impulsantwort g(t). Auf Grund der angenommenen Linearit¨at und Zeitinvarianz lautet das Ausgangssignal: y(t) =
∞
x ˜(νT )g(t − νT ).
(3.229)
ν=−∞ 13 Die Grenzfrequenz des analogen Signales wird hier mit ω bezeichnet. ω ist in diesem und den folgenden Abschnitten g 0 ¨ die Grenzfrequenz des Ubertragungskanales.
260
3 Einf¨uhrung in die Systemtheorie
Im Bild 3.46 wurde ein Impulsformer mit einer Rechteckimpulsantwort verwendet: g(t) = rect
t − T /2 T
(3.230)
Aus dem rechts im Bild skizzierten Ausgangssignal y(t) erkennt man, dass die zu u¨ bertragenden Abtastwerte x ˜(νT ) durch eine Abtastung, zweckm¨aßig in der Mitte des jeweiligen Abtastintervalles, zur¨uckgewonnen werden k¨onnen: T x ˜(νT ) = y (2ν + 1) , ν = 0, ±1, ±2 · · · 2
(3.231)
Aus den so empfangenen Signalwerten kann nach dem Abtasttheorem das urspr u¨ ngliche analoge ¨ Signal x ˜(t) berechnet werden. Obschon das vorliegende Ubertragungssystem mit der RechteckImpulsantwort kein verzerrungsfrei u¨ bertragendes System im Sinne der Forderungen vom Abschnitt 3.11.4 ist, kann das analoge Signal x ˜(t) auf dem ”Umweg” u¨ ber eine Diskretisierung und eine anschließende Rekonstruktion fehlerfrei u¨ bertragen werden. Wir wollen nun noch einige Aspekte besprechen, auf die in den folgenden Abschnitten genauer ¨ ¨ eingegangen wird. Die durchgef¨uhrten Uberlegungen gelten in gleicher Weise f¨ur die Ubertragung ¨ digitaler Signalwerte. Dies bedeutet lediglich, dass die Abtastwerte x ˜(νT ) vor der Ubertragung ¨ quantisiert werden (siehe hierzu Bild 3.1). Die Digitalisierung hat bei der Ubertragung den Vorteil, dass es nur noch endlich viele Signalwerte gibt und (kleine) Fehler beim Empfang im Sinne einer Schwellwertentscheidung korrigiert werden ko¨ nnen. Im Folgenden setzen wir immer digitale Signale voraus und dr¨ucken das durch die Schreibweise aus: y(t) =
∞
d(ν)g(t − νT ).
(3.232)
ν=−∞
Dieser Ausdruck beschreibt ein sogenanntes digitales Basisbandsignal. H¨aufig tritt auch in der Beschreibung an die Stelle der Impulsantwort g(t) ein Signalimpuls i(t). Das Bild 3.47 zeigt verschiedene Arten des Signales gem¨aß der Gl. (3.232). Ein besonders wichtiger Fall ist ein bin¨ares Datensignal, bei dem d(ν) nur zwei verschiedene Werte, z.B. die 0 und die 1 annehmen kann. Die Impulsantwort des Impulsformers kann einen beliebigen Verlauf haben, solange sie nur streng auf den Bereich von 0 bis T begrenzt ist. Wenn wir sinnvollerweise annehmen, dass g(T /2) = 1 ist, dann kann der Empfang der Signalwerte nach der Gl. (3.231) erfolgen. Wichtig ist nur die Eigenschaft g(t) = 0 f¨ur t < 0 und f¨ur t > T . Diese zeitliche Begrenzung der Impulsantwort f¨uhrt dazu, dass sich die zeitverschobenen Impulsantworten zu keiner Zeit, also auch nicht an den Abtastpunkten, u¨ berlappen. Man spricht in diesem Zusammenhang von der 1. Nyquistbedingung, die bei zeitlich mit T begrenzten Impulsantworten stets erfu¨ llt ist. Die f¨ur die Signalr¨uckgewinnung g¨unstige Eigenschaft der zeitliche Begrenzung von g(t) hat in der Praxis einen entscheidenden Nachteil. Ein streng zeitbegrenztes Signal kann nicht gleichzeitig auch streng bandbegrenzt sein (siehe Abschnitt 3.8.1). Eine Begrenzung der Bandbreite ist aber aus wirtschaftlichen Gr¨unden sehr wichtig. Es ist also zu untersuchen, ob es zeitlich begrenzte Impulsformen mit einer einer m¨oglichst kleinen Bandbreite gibt, oder ob es gar zeitlich nicht begrenzte Impulsantworten gibt, bei denen dennoch eine Signaldedektion gem¨aß der Gl. (3.231) m¨oglich ist.
¨ 3.12 Die Ubertragung zeitdiskreter Signale
261
3.12.2 Die 1. Nyquistbedingung im Zeitbereich F¨ur die weiteren Untersuchungen erweist es sich als vorteilhaft, das Ausgangssignal y(t) des Impulsformers (siehe Bild 3.46) um einen halben ”Takt” T /2 nach links zu verschieben. Systemtheoretisch erreicht man diesen Effekt durch eine Verschiebung der Impulsantwort um T /2 nach links. Die in der Bildmitte 3.46 skizzierte Impulsantwort g(t) nach Gl. (3.230) muss dann durch g1 (t) = rect(t/T ) (siehe oberes Bild 3.47) ersetzt werden. Im diesem Fall mit der Rechteck-Impulsantwort g1 (t) = rect(t/T ) liegt ein nichtkausales Sy¨ stem mit einer geraden Impulsantwort und damit einer reellen Ubertragungsfunktion vor (siehe Abschnitt 3.6.3, Gl. 3.83). ¨ Wir lassen im Folgenden ausschließlich gerade Impulsantworten und damit reelle Ubertragungsfunktionen zu. Bei zeitlich begrenzten Impulsantworten erh¨alt man dann kausale Systeme, wenn die Impulsantwort um t0 nach rechts verschoben wird. Dabei ist t0 so groß zu w¨ahlen, dass g(t) = 0 f¨ur t < 0 wird. Im Frequenzbereich bedeutet diese Zeitverschiebung eine ¨ Multiplikation der reellen Ubertragungsfunktion mit e−jωt0 . Die Abtastung des Ausgangssignales in der Intervallmitte nach Gl. (3.231) kann nach der um T /2 nach links vorgenommenen Verschiebung und unter der Voraussetzung eines digitalen Signales gem¨aß der Gl. (3.232) durch die etwas einfachere Beziehung ersetzt werden:
d(ν) =
1 y(νT ), ν = 0, ±1, ±2 · · · g(0)
(3.233)
Wir setzen im Folgenden ein bin¨ares unipolares Signal mit den Werten d(ν) = 0 oder d(ν) = 1 voraus. Unter diesen Voraussetzungen soll jetzt untersucht werden, wie sich unterschiedliche For¨ men der Impulsantworten auf die Ubertragung auswirken. Im Bild 3.47 sind drei verschiedene
...... .. .. .. . .. .. .. .. .. g1 (t)=rect t ....1 .... .. .. .............. .. .......... ...
T
... ........ ...... .. .................. 2 πt t . . ...... . g (t)=cos 2 2T ·rect 2T ......... ........
...... ... .. ......... ....... g3 (t)=σ πt ....... T .. .. .. .. .. 1 .... .. ... ... 2 ..... ... ........... .. ... .... ... .. .. . . .. ..... .... ... .. . .. ... ... ...... .. ........ .. . . ............. . . . . . . . . . .. ............... . .... .. ............T .................. .. ..............................................................................................................................−T ...... ....................... ................................................................................................................................................... ............. ... . ........... T T . . . 0 . . . ... . −2 →t ... . . 2 .... ...... . .......... .... ....T ....... ... .......... ... ................................ ........ ......... ....... .... G3 (jω) ..... ............ . . . . . . ... .... .... ..... .......... ... ... .. ... ..... ....... ... . ... ....... .. .... .... .... ..... .....G ...... .... .. .. 2 (jω) ..... .... .... ... .... ....G1 (jω) . . .... ... ... ... ... .. ..... ..... ...... .... ... ... ... .... .... . . .... .... ... .................... ... .. .... ......... ................................ ...... ........ ... ......... ..... .... ......................................... .. ........................................................ ... ....... .... ..... .. . . ..... π π . . 2π 2π . . . →ω . 0 −T .... .. ..− ..... T T ....... ..... ....... .......... T . . . . .. ....... ........
Abbildung 3.47: Rechteckimpuls, cos2 -Impuls, σ-Impuls und deren Spektren
262
3 Einf¨uhrung in die Systemtheorie
¨ Impulsantworten und die zugeh¨orenden Ubertragungsfunktionen f¨ur den Impulsformer skizziert. Das Bild 3.48 zeigt die zugeh¨orenden Ausgangssignale gem¨aß Gl. (3.232) bei einer angenommenen Datenfolge d(ν). →d(ν) 1 0 1 1 0 0 1 ........................................................................................................... ................................................................................................................................................................................ ......................................... ....................................................... 1 .. .. .. ... . . .. .. .. .. .. .. ... . . ... . ... .. .. ... ... ... ... ... ... ... ... .. .. .. .. .. .. .. .. .. .. .... ... .... ... ... ... ... ... ... .. .. .. .... .... .... .. .. .. .. .. .. .. . . . . . . . . . . ... ... .. . . . . . . . ... ... ... ... ... ... ... .. .. ... ... .. . .... ... .... .. .. .. ... ... ... ... ... ... . . . . . . .. . . . .... .... . .... ... ... ... ... ... ... .. . . ... ... ... ... .. .. ... ... .. . .. .. →ν ........................... ..................................................... .......................................................................................................... ... ... ... .......................... 1 −1 − 21 0 1 2 3 4 5 6 7 →t/T 2
y1 (t)
y2 (t)
1
0
1
1
0
0
1
→d(ν)
.................................................................................................................................................................... 1 ..................................................................... .................. ... .................. ... ... .... .. .. .. .. .. ... ... .... .... .. .... ... ..... .. .. .. .. ... ... ... .... ..... ... . . . .. . . . ... .. ... ... . . . .. . ... ... . ... ... ... .. .. .. . .. ... ... ... .. ... ... ... ... ... ... .. .. ... ... .. .. .. .. .. .. .. ... .. .. ... . . . . .. ... . . . ... ... ... . . . .. . ... .. . ... ... ... ... .. .. .. ... . . .. . . . . . . . . . . . . . . . . . . . ... . ... .. .. ... .. . . . . . . . . . . . . .... . . . .... .. ... .... .. . . .. . . . . . . . . . ......... . . . . . . . . . ................ ................................................................. . . . ....... .. .. .. . 1 1 −1 − 2 0 1 2 3 4 5 6 7 2
→ν →t/T
........ .......• ..... d .......... →d(ν) ....1 0 0 1 ..... .................................................................................................................................................................... ... .... .. .. .. 1 .... .......................... . ..... ........ . . . . .. .... . . . . . . . . . . . .... ... . ... ... ... .... ... .. .... .... .... ... ... . . . . . . . . . . . . . . . . . . . . . . ... ... a..• ... . . ... ... ... ... ... ... ... ... ... .. .... .. .. .. .. .. ... .. .. ... b ... .. ... ... ... ... ... ... ... • .. .. ... .. . ... .. .. .. .. .. .. ... .. . . . . .... . ... . ... ... ... ... ... ... ... .. . . .... .. c.•. .. .. .. .. .. ... ... ... .. . . . . . . . . .... .. . . . . . . . . . . .. .... .. ... . . .. . . ... ... ..... ... ...... .. . . . ... .... ...... →ν . . .............. ... ... . . . ..... . .. . ...... 1 3 5 ....5 . −1 − 12 0 1 2 3 4 6 7 →t/T . . . . . . ...................... 2 2 2
y3 (t)
1 ....
0
1........
Abbildung 3.48: y(t) nach Gl. (3.232) mit den Impulsantworten nach Bild 3.47 Wir untersuchen zun¨achst die Verh¨altnisse bei der Rechteck-Impulsantwort: t ωT g1 (t) = rect ◦−−• T si = G1 (jω). (3.234) T 2 Das Bild 3.48 zeigt im oberen Teil die Reaktion dieses Impulsformers auf die Datenfolge 1011001 · · ·. Diese Werte entsprechen (mit g(0) = 1) gem¨aß der Gl. (3.233) den Abtastwerten d(ν) = y1 (νT ) des Ausgangssignales. Bei der Impulsantwort g2 (t) (Bild 3.47) handelt es sich um einen sogenannten cos2 -Impuls: πt t sin(ωT ) · rect ◦−−• = G2 (jω). (3.235) g2 (t) = cos2 2T 2T ω[1 − (ωT /π)2 ] Diese Impulsantwort hat die doppelte Breite 2T wie die Rechteck-Impulsantwort g 1 (t). Trotzdem k¨onnen die Datenwerte d(ν) auch hier wegen der Eigenschaft g2 (±T ) = 0 korrekt zur¨uckgewonnen werden. Der Impuls, der d(0) = 1 bei t = 0 u¨ bertr¨agt, hat am darauf folgenden Abtastzeitpunkt t = T den Wert 0 und beeinflusst dadurch nicht den korrekten Empfang des nachfolgenden Datenwertes, hier d(1) = 0. Die gr¨oßere Breite des Impulses g2 (t), aber auch der stetige und glatte Verlauf, f¨uhrt zu einer wesentlich kleineren Bandbreite wie bei dem Rechteckimpuls g 1 (t) (siehe unteres Bild 3.47). Als Bandbreite kann hier etwa der Wert 2π/T angenommen werden. Die dritte im Bild 3.47 skizzierte Impulsantwort: ωT πt g3 (t) = si ◦−−• T rect = G3 (jω), T 2π
(3.236)
¨ 3.12 Die Ubertragung zeitdiskreter Signale
263
ist zeitlich nicht begrenzt und wegen der Eigenschaft g3 (0) = 1, g3 (νT ) = 0 f¨ur ν = 0 dennoch f¨ur eine Daten¨ubertragung geeignet. Dies erkennt man aus dem ganz unten im Bild 3.48 skizzierten Ausgangssignal y3 (t). Der Signalanteil d(0) · si(πt/T ) = 1 · si(πt/T ) liefert bei t = 0 den Wert d(0) · si(0) = d(0) = 1. An den Abtastzeitpunkten νT , ν = 0 fu¨ r die anderen Datenwerte ist g3 (νT ) = 0. In gleicher Weise beeinflusst der folgende Signalanteil d(1)·g3 (t−T ) keine fr¨uheren oder sp¨ateren Abtastwerte. Die Abtastung benachbarter Werte wird in keinem Fall beeinflusst, es entstehen keine sogenannten Intersymbol-Interferenzen. Offenbar sind alle Impulsantworten f u¨ r eine Daten¨ubertragung geeignet, die die Bedingung erfu¨ llen: g(t) = 0 f¨ur t = 0,
g(t) = 0 f¨ur t = ν · T, ν = 0
(3.237)
Dazu geh¨oren insbesonders alle mit der Breite T streng begrenzten Impulsantworten (z.B. g 1 (t) nach Bild 3.47). ¨ ¨ Die Forderung (3.237) wird als 1. Nyquistbedingung bezeichnet. Ubertragungskan¨ ale zur Ubertragung zeitdiskreter Signale m¨ussen immer die 1. Nyquistbedingung erfu¨ llen. ¨ Nach den bisherigen Uberlegungen sieht es so aus, als ob die Impulsantwort g3 (t) = si(πt/T ) die g¨unstigste ist, weil einmal die 1. Nyquistbedingung erfu¨ llt wird und zum anderen die erforderliche Bandbreite π/T (siehe unterer Bildteil 3.47) besonders klein ist. Bevor wir u¨ ber dieses Probleme ¨ weiterdiskutieren, soll zun¨achst einmal festgestellt werden, dass eine Ubertragung mit einer kleineren Bandbreite als π/T grunds¨atzlich nicht m¨oglich ist. Zu dieser Erkenntnis k¨onnen wir auf zwei Wegen kommen. Zun¨achst nehmen wir einmal an, dass das bin¨are Datensignal u¨ ber lange Zeit abwechsend aus Nullen und Einsen besteht, also d(ν) = · · · 010101 · · · Dann ist das digitale Basisbandsignal (Gl. 3.232) unabh¨angig von der Impulsantwort eine periodische Funktion mit der Periode 2T , die daher in eine Fourier-Reihe entwickelt werden kann. Diese Reihe enth¨alt einen Summanden mit der ¨ Grundkreisfrequenz π/T und ggf. Summanden mit Vielfachen dieser Frequenz. Die Ubertragung ¨ dieses Signales erfordert einen Ubertragungskanal mit einer Grenzfrequenz, die mindestens den Wert ωg = π/T hat und nicht kleiner sein kann. ¨ F¨ur eine zweite Uberlegung, die nicht auf bin¨are Daten beschr¨ankt ist, gehen wir von der im Bild ˜(t) muss nach 3.46 skizzierten Aufgabenstellung aus. Das mit ω0 bandbegrenzte analoge Signal x dem Abtasttheorem (Abschnitt 3.8.2) mindestens im Abstand T = π/ω0 abgetastet werden. Aus ¨ dieser Bedingung folgt umgekehrt, dass die Mindestgrenzfrequenz eines Kanales zur Ubertragung von x ˜(t) den Wert ωg = ω0 = π/T haben muss. Wenn dies nicht so w¨are, k¨onnte ein mit ω0 bandbegrenztes Signal auf dem ”Umweg” u¨ ber eine Diskretisierung u¨ ber einen Kanal mit einer kleineren Grenzfrequenz als ω0 korrekt u¨ bertragen werden.
3.12.3 Augendiagramme und das 2. Nyquistkriterium Die Impulsantwort g3 (t) = si(πt/T ) (siehe Bild 3.47) erf¨ullt die 1. Nyquistbedingung. Der große Vorteil dieses Impulses ist, dass er streng bandbegrenzt ist und u¨ berdies hinaus die kleinstm¨ogliche Bandbreite ωg = ω0 = π/T aufweist. Zur Untersuchung, welchen Einfluss die Bandbreite auf die ¨ Ubertragung in der Praxis hat, eignet sich das Augendiagramm. Um das Augendiagramm f¨ur das Signal y3 (t) (Bild 3.48) zu konstruieren, wird es zun¨achst in (zu den Abtastzeitpunkten symmetrische) Bereiche der Breite T aufgeteilt. Das Augendiagramm
264
3 Einf¨uhrung in die Systemtheorie . . . . ................ .........................d .......... .. ......... ........ ... ... ........ . ....... . . . ... ... . ....... ..... ... ... . . . . . . . . . ............................................................ ... . . . . . . . . . . ................................................ . . . . . . . . . ... ... . .. .......... .... ............. .......... . . . . . . ... ... ..... ...... ....... .. .. .... ... ...... ........ ..... ..... ..... .... . . . . ....... ..... ..... .... ..... ... . . . . . . . . . . . . . . ......... ...... a ... .... . ......... ... .... .... ............ ... .... . ... . . . .. b ............... ...... .... ..............b . . . .... .... . . ... .......... . . .. .... ... . . . . . ......... c ......... .. ..........c ............ ... ... ... ... .............. .... ..... .... . . . . ... . . . ................ ..... .. ... → t ... ................... ................ T ... ... . .............. ... 1 .. .......0................. . . . . . ... − 12 ..... . . .......... ... . . .2 . . . . . .. . . . . ............. ... ............ ..
d
....................................................................................................................... ... . . ... ... ... .... ↑ ........... ... ... .... .... ... ... .... . | . . ... . .... .... . ... ..... .... ... | ... .... . ... ... .. ......... ←−−−− • · −−−−→.............. ... ..... .. .. ... .... .... ... .... | ... .... .... .... ... . ... . .... . | ... ... . . .... ... ... t ..... ↓ ........ .. → T ... ..................................................................................................................... 1 0 −1
.............................................................................................................
. . ... ... ... ... .. ... . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... ............................................................................................................ 1 0 − 12 2
↑ | | ←−−−− •· −−−−→ | | ↓
→ Tt
2
2
↑ | | ←−− •· −−→ | | ↓
...........
.....
Abbildung 3.49: Augendiagramme bei den drei Signalen von Bild 4.25 entsteht jetzt dadurch, dass die Signalverl¨aufe aus diesen Abschnitten u¨ berlagert werden. Dadurch erh¨alt man eine Darstellung, die auch bei einer Messung mit einem Oszilloskop entstehen w u¨ rde. Zur genaueren Erkl¨arung des Augendiagrammes ganz rechts im Bild 3.49 betrachten wir zun¨achst den Signalverlauf y3 (t) im Intervall von −T /2 bis T /2 im unteren Bild 3.48. Der Anfangs- und Endwert ist dort durch die Buchstaben a und b markiert. Dieser Signalverlauf wird in das Augendiagramm unmittelbar u¨ bernommen (siehe dortige Markierungen a und b). Der Signalverlauf im n¨achsten Zeitabschnitt von b nach c im Bild 3.48 wird im Augendiagramm dem Signal aus dem 1. Abschnitt u¨ berlagert. Wegen der Stetigkeit von y3 (t) entspricht der Endwert b aus dem 1. Bereich dem Anfangswert f¨ur den 2. Signalteil. Der 3. Signalabschnitt im Bild 3.48 von c bis d wird ebenfalls in das Augendiagramm eingetragen usw. Wirkliche Signale sind wesentlich l¨anger als die im Bild 3.48 und daher enth¨alt ein wirkliches Augendiagramm auch sehr viel mehr Linien. Fu¨ r die Signaldedektion ist nur wichtig, dass der innere durch einen Punkt markierte Teil des Auges frei bleibt. Wenn ein Signalwert oberhalb der Augenmitte auftritt, wurde eine 1 gesendet und bei einem Signalwert unterhalb der Augenmitte eine 0. ¨ Die hier f¨ur ein bin¨ares Datensignal durchgef¨uhrten Uberlegungen gelten in ganz a¨ hnlicher Weise f¨ur mehrstufige Signale. In diesen F¨allen muss das Auge mehrere freie Augen¨offnungen besitzen. Links im Bild 3.49 ist das Augendiagramm f¨ur das Signal y1 (t) im Bild 3.48 mit der RechteckImpulsantwort dargestellt. Das Signal kann hier nur die Werte 0 oder 1 annehmen und dadurch entsteht ein Augendiagramm mit einem vollst¨andig ”offenem” Auge. Schließlich zeigt die Bildmitte 3.49 das Augendiagramm f¨ur das Signal y2 (t) mit dem cos2 -Impuls als Impulsantwort. 1 0 1 1 0 0 1 →d(ν) .. .. .. . .. .. 1 y(t) ..................................................................................................... .. .. ............................. .. . . ...... . .
.. . ... .. ... .. ........ .. .. ... ... .... .. .... .. ... . ... ... .. .. . .. . .. .. .. .... .. .... ... .. .. .. .. . .. ... ... ... .. ... . .. .. .. .. .. . . . .. . ... . . .... .. ... . . . . .... .. ... −1 0 1 2
... .. .. ... ... .. ... .. ... .. ... ...
3
... . . .. ... ... ... .. ... .. .. .. .. .. ... .. ... ... ... .. .... .... .. .. . ... . ... ... ... .. .. ... .. .. ... .... .. .. ... ... ... ... .. ... .. .. . .. .. .. ... .. ... ... .. ... .. .. .. ... ... . . .... . . . . . ............................ .. .
4
.
5
.
6
..
7 →t/T
........................................................... .. ..
...................................................................................................................................... .... . . .... ... .. ... ............ ................................................ ... ...... ..... ..... .................... ... ................ ..... ..... ... ... ............... . . . . ............ .... ... • .. ... ................. ................. . .. .......... . . ..... ... .......... . . ... . .......... ... ... .......... ......... .. .. ............ ........................................................................................................................................... 1 0 → −1 2
2
t T
Abbildung 3.50: Fehlerhaft u¨ bertragenes Signal y(t) mit Augendiagramm ¨ Bisher wurde vorausgesetzt, dass bei der Ubertragung keine St¨orungen und keine Verzerrungen ¨ auf dem Ubertragungsweg auftreten. Das Bild 3.50 zeigt links ein verzerrt empfangenes Signal
¨ 3.12 Die Ubertragung zeitdiskreter Signale
265
mit dem cos2 -Impuls und rechts das zugeh¨orende Augendiagramm, das sich schon wesentlich von ¨ dem Augendiagramm bei unverzerrter Ubertragung in der Bildmitte 3.49 unterscheidet. Offenbar ¨ f¨uhren Ubertragungsverzerrungen dazu, dass der freie Teil in der Augenmitte kleiner wird. Starke Verzerrungen und nat¨urlich auch St¨orungen k¨onnen ein vollst¨andig geschlossenes Auge und damit keine sichere Signaldetektion zur Folge haben. Wir untersuchen nun etwas genauer die im Bild 3.49 durch die senkrechten Pfeile angedeuteten vertikalen Augen¨offnungen. Die Augenmitte t = 0 repr¨asentiert die Abtastpunkte von y(t) an den Zeitpunkten nT . Nach der Gl. (3.232) erhalten wir fu¨ r t = nT : y(nT ) =
∞
d(ν)g[(n − ν)T ] = d(n) · g(0).
ν=−∞
Nach der 1. Nyquistbedingung (3.237) gilt ja: g(νT ) = 0 fu¨ r ν = 0. Daraus folgt mit g(0) = 1, dass y(nT ) nur die Werte 0 oder 1 annehmen kann. Im Augendiagramm treten diese Werte bei ¨ t = 0 auf, das Auge hat dort eine maximale vertikale Offnung von 1 bzw. g(0). Von der vertikalen Augen¨offnung her gesehen, spielt es keine Rolle, welche Impulsform gew¨ahlt wird. Bei allen zul¨assigen Impulsen hat sie den Maximalwert g(0). Wesentliche Unterschiede bei den Impulsformen ergeben sich bei den (durch die waagerechten Pfeile angedeuteten) horizontalen Augen¨offungen. Bei den Augendiagrammen f¨ur die Signale y1 (t) und y2 (t) (Bilder 3.48, 3.49) hat diese immer den maximal mo¨ glichen Wert T . Dieser Effekt entsteht offensichtlich dadurch, dass die Impulsantworten g1 (t) und g2 (t) bei ±T /2 den Wert 1/2 haben14 . Dadurch k¨onnen in der Mitte zwischen den Abtastzeitpunkten nur die Signalwerte 0, 1/2 oder 1 auftreten und dies sind auch die mo¨ glichen Werte rechts und links auf der halben Augenh¨ohe. Eine m¨oglichst breite horizontale Augen¨offnung ist deshalb wichtig, weil dadurch kleine oder auch gr¨oßere Abweichungen der Abtastzeitpunkte zugelassen werden ko¨ nnen. Am g¨unstigsten ist hier nat¨urlich das Signal y1 (t) mit dem ganz offenen Auge links im Bild 3.49. Auch bei dem Signal y2 (t) mit dem cos2 -Impuls sind die Verh¨altnisse noch g¨unstig. V¨ollig anders sieht es bei dem Signal y3 (t) mit dem Auge ganz rechts im Bild 3.49 aus. Die horizontale Augeno¨ ffnung ist deutlich kleiner als bei den anderen Signalen. Wie schon oben erw¨ahnt, enthalten wirkliche Augendiagamme wesentlich mehr Linien und dann kann bei dem Signal y3 (t) nicht ausgeschlossen werden, dass die horizontale Augen¨offnung immer kleiner wird und sich das Auge sogar ganz schließt. Das bedeutet, dass die Verwendung der Impulsantwort g3 (t) = si(πt/T ) eine vollkommen korrekte Synchronisation erfordert, weil kleinste Ungenauigkeiten bei den Abtastzeitpunkten zu Fehlern bei der Signaldetektion f¨uhren k¨onnen. Der Vorteil der minimalen Bandbreite ωg = π/T bei der Impulsantwort g3 (t) kann offenbar in der Praxis nicht ausgenutzt werden. Die 1. Nyquistbedingung (3.237) f¨uhrt zu einer maximalen vertikalen Augeno¨ ffnung g(0). Als 2. Nyquistbedingung bezeichnet man die Eigenschaft, dass auch die horizontale Augen o¨ ffung den Maximalwert T hat. Wie oben ausgef¨uhrt wurde, entsteht dieser Maximalwert dadurch, dass die Impulsantwort, zus¨atzlich zu den Bedingungen des 1. Nyquistkriteriums, noch die Eigenschaft g(±T /2) = g(0)/2 aufweisen muss. 14 Bei der Rechteck-Impulsantwort wird der Funktion g (t) an den Unstetigkeitsstellen t = ±T /2 der Wert 1/2 zuge1 ordnet.
266
3 Einf¨uhrung in die Systemtheorie
Die 1. und die 2. Nyquistbedingung k¨onnen durch folgende Beziehung zusammengefasst werden: T g(0)/2 f¨ur n = ±1 = . (3.238) g n 2 0 f¨ur n = ±2, ±3, ±4 · · · Ohne Beweis wird angegeben, dass die 2. Nyquistbedingung eine Bandbreite von mindestens ω g = 2ω0 = 2π/T erfordert. Dies ist die doppelte Mindestbandbreite, die durch den Impuls g 3 (t) = si(πt/T ) erreicht wird. Als Kompromiss in Bezug auf den Bandbreitenbedarf und eine nicht zu geringe horizontale Augen¨offnung verwendet man oft Tiefp¨asse mit einer sogenannten Kosinusroll-off-Flanke, die ein a¨ hnliches Zeitverhalten aufweisen, wie der in Gl. (3.235) angegebene cos 2 Impuls. Die Impulsantwort erf¨ullt mit ω0 = π/T die 1. Nyquistbedingung. Dieser Tiefpass geht mit dem Roll-off-Faktor r = 0 in den idealen Tiefpass u¨ ber und mit r = 1 in den KosinusTiefpass, dort mit der Grenzfrequenz ωg = 2ω0 = 2π/T . Der Kosinus-Tiefpass erf¨ullt zus¨atzlich die 2. Nyquistbedingung.
3.13 Aufgaben zur Systemtheorie ¨ 3.13.1 Einfuhrende Aufgaben in die Systemtheorie In diesen einf¨uhrenden Aufgaben in die Systemtheorie soll inhaltlich auf bekanntes Handwerkszeug aus der Mathematik zur¨uckgegriffen werden, um die Aufgaben zu lo¨ sen. Unter Vorlesungsbedingungen sollte dieser Aufgabenkomplex nach Ende der zweiten Vorlesung sollte abgeschlossen sein. ¨ Ubungsziel ist es, den Begriff der Linearit¨at zu festigen, sowie die Erinnerung an das Verschieben von Funktionen f (x) → f (x − x0 ) zu erneuern. Dar¨uberhinaus k¨onnen die Studierenden den Aufgabenstil des Fachgebietes kennenlernen. y (t) = h(t) Aufgabe 3.13.1 In der nebenstehenden Skizze ist 61 2 die Systemreaktion y1 (t) eines linearen zeitinva rianten Systems auf das Eingangssignal x1 (t) = 1 0 f¨ur t < 0 -t dargestellt. s(t) = 1 f¨ur t > 0 0 3 1 2 Stellen Sie bitte das Signal x1 (t) und x2 (t) = s(t) − 2s(t − 2) + s(t − 4) graphisch dar. L¨osung 3.13.1 a) Bestimmen Sie die Systemreaktion y2 (t) auf x2 (t) als Funktion von y1 (t) und stellen Sie a) y2 (t) = y1 (t)−2y1 (t−2)+y1 (t−4) bitte das Signal y2 (t) graphisch dar. b) Geben Sie bitte mittels s(t) einen mathematisch geschlossenen Ausdruck f¨ur y1 (t) an. Aufgabe 3.13.2 Mit Hilfe der Systemreaktion: y1 (t) = h(t) = s(t)· 12 ·e−t/3 auf das Eingangssignal s(t), bestimmen Sie bitte die Systemreaktion y(t) auf x(t) = 2s(t) + 2s(t − 9) − 4s(t − 18) Stellen Sie bitte die Signale s(t), h(t), x(t) und y(t) graphisch dar.
b) y1 (t) = s(t − 1) · (t − 1) − s(t − 3)· (t − 3) L¨osung 3.13.2 y(t) = 2h(t) + 2h(t − 9) − 4h(t − 18)
3.13 Aufgaben zur Systemtheorie
267
Aufgabe 3.13.3 Gegeben ist das Eingangssignal x(t) = 2(s(t) − s(t − 5)) f¨ur ein lineares, zeitinvariantes System, das durch die Impulsantwort g(t) = 3(s(t) − s(t − 2)) beschrieben ist. Die Sprungantwort ist gegeben als *t h(t) = −∞ g(τ )dτ . a) Geben Sie die graphische Darstellung der Signale x(t) und g(t) an. b) Berechnen Sie h(t) durch Fallunterscheidung t < 0, 0 < t < 2 und 2 < t rechnerisch und graphisch. c) Berechnen Sie y(t) mit Hilfe von h(t). Unterscheiden Sie die Bereiche t < 0, 0 < t < 2, 2 < t < 5, 5 < t < 7 und t > 7. d) Geben Sie einen mathematisch geschlossenen Ausdruck f¨ur h(t) an.
L¨osung 3.13.3
Aufgabe 3.13.4 Gegeben ist die stetige Funktion f (t):
L¨osung 3.13.4 Graphische L¨osung vgl. Abschnitt 3.3.2.
f (t) =
8 0 > > < 2
ε (t
> 2 > : 2−
− 1) 2 ε (t
− 2)
f¨ur f¨ur f¨ur f¨ur
t≤1 1 1+ε 2
sowie
b) h(t) = 0 f¨ur t < 0, h(t) = 3t f¨ur 0 < t < 2, h(t) = 6 f¨ur t > 2. c) y(t) = 2(h(t) − h(t − 5)) d) h(t) = 3(s(t)t − s(t − 2)(t − 2))
t≥2+ε 1+ε 2 2+ε
a) Stellen Sie f (t) graphisch dar. b) Stellen Sie f (t) graphisch dar. c) Bilden Sie bitte die Grenzfunktion fg (t) = limε→0 f (t) d) Bilden Sie die Ableitung fg (t) der Grenzfunktion durch fg (t) = limε→0 f (t) Aufgabe 3.13.5 Die nachstehende Schaltung ¨ zeigt ein lineares Ubertragungssystem: a R q q a x(t) a?
y(t) ? q q a ¨ Bestimmen Sie bitte die Ubertragungsfunktion G(jω) als Verh¨altnis der komplexen Amplituden y/x und die DGL. x(t) = fkt y(t), die dieses System beschreibt. C
R
L¨osung 3.13.5 R , 1 + jωRC 1 G(jω) = , 2 + jωRC x(t) = 2y(t) + RC · y (t) Zp
=
268
3 Einf¨uhrung in die Systemtheorie
3.13.2 Elementare Signale Aufgabe 3.13.6 Skizzieren Sie die folgenden Signale und ordnen Sie diese in die Gruppe der Energie- und Leistungssignale ein. 1f¨ur |t| < 1, a) x1 (t) = 1/|t|f¨ur |t| > 1. b) x2 (n) = e
−|n|
.
L¨osung 3.13.6 a) Das Signal x1 (t) ist weder ein Energie- noch ein Leistungssignal. b) x2 (n) = e−|n| ist ein Energiesignal. ∞ −1 Es gilt e−2|n| = (e2 )−n +
2
c) x3 (t) = e−t .
∞
1 ↑ x1 (t)
........................................... ...... ....... ....... ........... ..................... ........... .................... ....................................... . ....................................... ..
→t
01 1.....↑ x3 (t)
..... ........... ...... ..... ..... ..... ..... ..... ..... ..... . . . ...... ... . . . . . ........ ..... . . . ................. . . . . . . . . . .................................... . ...........................................
0
→t
1
Aufgabe 3.13.7 Gegeben sind die zwei in dem Bild skizzierten Funktionen. Stellen Sie diese Funktionen (soweit m¨oglich) mit s(t), rect(t) und tri(t) in geschlossener Form dar, und ermitteln und skizzieren Sie die Ableitungen der Funktionen. ↑ x2 (t) ↑ x (t) 2 ················1······························· 2 ···· ··· ··· ······ ···· · · · ··· ···· ···· ··· ··· ··· ··· ··· ···· · · ··· · ··· · · ···· ·········· · · ····· ······ ········ 0 3→ t 0 1, 5 3→ t Aufgabe 3.13.8 Die unten dargestellte Funktion soll mit Hilfe von s(n) und δ(n) in geschlossener Form dargestellt werden. ↑ x1 (n) • 5 • • • •
•
•
•
0
1, 5 • • • • •
•
•
•
5
• •
→n
↑ x2 (n)
• • • • • •
0 12
• • •
7
→n
−∞
−∞
(e−2 )n . Die 2. Summe ist eine
0
unendliche geometrische Reihe mit S2 = 1/(1 − e−2 ). Die 1. Summe hat bis auf das 0-te Reihenglied den gleichen Wert, d.h. S1 = 1/(1 − e−2 ) − 1. Ergebnis: E = 1−e2 −2 − 1. c) x3 (t) ist ein Energiesignal. L¨osung 3.13.7 x1 (t) = 2s(t) − 2s(t − 3) oder x1 (t) = 2 rect[(t − 1, 5)/3], x1 (t) = 2δ(t) − 2δ(t − 3), x2 (t) = 43 s(t)·t− 83 s(t−1, 5)·(t−1, 5)+ 4 3 s(t − 3) · (t − 3) oder x2 (t) = 2 tri[(t − 1, 5)/1, 5], x2 (t): Ableitung abschnittsweise berechnen und skizzieren (nicht formal!).
L¨osung 3.13.8 x1 (n) = s(n) · n − 2s(n − 5) · (n − 5) + s(n − 10) · (n − 10) oder x1 (n) = δ(n − 1) + 2δ(n − 2) + 3δ(n − 3) + 4δ(n − 4) + 5δ(n − 5) + 4δ(n − 6) + 3δ(n − 7) + 2δ(n − 8) + δ(n − 9). x2 (n) = 1, 5s(n − 1) − 1, 5s(n − 7) oder x2 (n) = 1, 5δ(n − 1) + 1, 5δ(n − 2) + 1, 5δ(n − 3) + 1, 5δ(n − 4) + 1, 5δ(n − 5) + 1, 5δ(n − 6).
3.13 Aufgaben zur Systemtheorie
269
3.13.3 Zeitkontinuierliche Systeme Aufgabe 3.13.9 Gegeben ist ein lineares zeitinvariantes System mit der Impulsantwort g(t) = s(t)e−2t . a) Begr¨unden Sie, dass das System kausal und stabil ist. b) Berechnen Sie die Systemreaktion auf das Eingangssignal x(t) = s(t)e−2t . Die Berechnung erfolgt mit dem Faltungsintegral in der Form: ∞ x(τ )g(t − τ )dτ
y(t) = −∞
g(t−τ ) ·
··· ······ ··· ·· ···· ····· ··· ····· ········ ·· ······················· ················ ···································· t 0 →t
··· ······ x(t) ·· ··· ··· ··· ··· ···· · t<0 ······ ···· ··· ··· ···· ···· ······ ···· ······· ········· ··· · ·······················································
1 3 →t
a) Begr¨unden Sie, dass es sich hier um kein verzerrungsfrei u¨ bertragendes System handelt. b) Ermitteln und skizzieren Sie die Systemreaktion auf das Eingangssignal x(t) = 12 δ(t + 1). c) Begr¨unden Sie, dass die Sprungantwort des Systems eine stetige Funktion sein muss. d) Ermitteln und skizzieren Sie die Sprungantwort des Systems. Hinweis: Die Sprungantwort kann durch einfache ¨ Uberlegungen (ohne formale Rechnung) gefunden werden.
0
t e−2t . Gesamtl¨osung: y(t) = s(t) t e−2t . Diese Funktion ist unten rechts skizziert, Maxima bei t = 0, 5.
) · ··· g(t−τ ······ x(t) ··············· ··· ·· ····· ····· t>0 ···· ····· ······· ········ ··· ············ ····· ··········· ·············· ··· ··········· ············ · · · ··· ···································· ··································· ··························· t →t 0
Aufgabe 3.13.10 Das Bild zeigt die Impulsantwort g(t) eines Systems. ↑ g(t) 2
2
t
x(τ )g(t − τ ) dτ = ren Bild y(t) = 0 t t e−2τ e−2(t−τ ) dτ = e−2t dτ = 0
Zur Festlegung der Integrationsgrenzen sind Skizzen f¨ur x(τ ) und g(t − τ ) anzufertigen. c) Skizzieren Sie die in Frage b) berechnete Systemreaktion y(t). Maxima/Minima der Funktion sind zu berechnen und in die Skizze einzutragen
1
L¨osung 3.13.9 a) Das System ist kausal, weil g(t) Es ist stabil, ∞ = 0 f¨ur t < 0 ist. ∞ 1 |g(t)| dt = e−2t dt = weil 2 −∞ 0 einen endlichen Wert hat. b) Im Bereich t < 0 ist y(t) = 0, siehe hierzu das untere linke Bild. Im Bereich t > 0 gilt entsprechend dem mittle
↑ y(t) ············ ··· ············ ······ ··· ······· · ······· ····· ·········· ····················· ··· · ········ 0 0,5 · →t
0,5e−1 ··
L¨osung 3.13.10 a) Bei einem verzerrungsfrei u¨ bertragenden System gilt y(t) = Kx(t − t0 ), also m¨usste die Impulsantwort g(t) = Kδ(t − t0 ) lauten. Dies ist nicht der Fall. b) Auf δ(t) reagiert das System mit g(t), also auf x(t) = 12 δ(t + 1) mit y(t) = 12 g(t + 1). Diese Systemreaktion ist im linken Bild skizziert. c,d) Man erh¨alt unmittelbar die skizzierte Sprungantwort, die stetig ist, da g(t) keine Dirac-Anteile besitzt. Kontrolle: g(t) = d h(t) dt . ↑ y(t) ··················· 1··· ···· ··· ···· ···· 3·· ↑ h(t) ······························· ·················· ···· ··· · ·· ··· · ··· ··· ···· 1·· ······ ·· · · · · · · · · · ·····0 1 2········ ··········0···········1····· 2 3 →t →t
270
3 Einf¨uhrung in die Systemtheorie
Aufgabe 3.13.11 Das nachstehende Bild 2π ↑ g(t) ......... ... ... .... ....... ... ... ... ... .. .. . . .. .. .. T.... ....... .. . .. ..→t .. ... .. .. ... . . ... .... ....... ..............
T
0
zeigt die Impulsantwort g(t) eines Systems: 8 > > < 0 f¨ur t < 0 2π g(t) = · sin(2πt/T ) f¨ur 0 < t < T T > > : 0 f¨ur t > T
.
Zu berechnen ist die Sprungantwort mit dem Faltungsintegral in der Form: ∞ x(t − τ )g(τ ) dτ.
y(t) = −∞
a) Geben Sie f¨ur alle relevanten Zeitbereiche Skizzen f¨ur x(t − τ ) und g(τ ). Berechnen Sie die Sprungantwort f¨ur die Zeitbereiche.
L¨osung 3.13.11 Zu unterscheiden sind die drei im unteren Bild dargestellten Bereiche. Weil y(t) = h(t) zu berechnen ist, gilt x(t) = s(t). t < 0: h(t) = 0. 0 < t < T: t 2π sin (2πτ /T )dτ h(t) = 0 T t = − cos (2πτ /T ) 0
= 1 − cos (2πt/T ). t > T : h(t) = 0. Die Sprungantwort ist unten skizziert. Man erh¨alt die Werte: h(0) = h(T /4) = h(T /4) = h(3T /4) = h(T ) = 0
2
T t →
0
g(τ )
g(τ )
g(τ )
↑ h(t) @ @
@
0
a) Ermitteln und skizzieren Sie die Impulsantwort des Systems.
1
@ 2 →t
L¨osung 3.13.12 a) Abschnitttweise differenzieren: g(t) = 2(s(t) − 2s(t − 1) + s(t − 2)) ∞
d) Ermitteln und skizzieren Sie die Systemreaktion auf das Eingangssignal x(t) = 0, 5s(t + 1).
... ... .. .. .. .. .. .. .. ... ... ... ..... .......
. ... .. .. .. .. . .. .. .. ... ... . . .. ..............
········ ············································ ································································· ··· ··· ··· · ·· · ·········· T T T ············· ············································· →τ →τ →τ
Aufgabe 3.13.12 Das nebenstehende Bild zeigt die Sprungantwort h(t) eines Systems.
¨ c) Berechnen Sie die Ubertragungsfunktion des Systems.
........... 2 ↑ h(t) ..... ....... ... .
s(t−τ ) ········ s(t−τ ) ········ ···· ··· ···· · ·· · ·· ··· ···· ··· ···· ··· ··· · · · · ···t···· 0 ··· ··· ······· 0 ··· t ··· ·········0 ···· ···t ··· ··· ··· ··· ··· ··· ··· ·· ··· ·· ··· ·· ······ ······ ······ t<0 0T
s(t−τ )
b) Skizzieren Sie die Sprungantwort. Tragen Sie die Werte von h(t) f¨ur t = 0, t = T /4, t = T /2, t = 3T /4 und t = T in die Skizze ein.
b) Weisen Sie nach, dass das System stabil ist.
0 1 2 1
b) −∞
|g(t)| dt = 4, also stabil. Z
1
2e−jωt dt − 0 “ ” 2 1 − 2e−jω + e−2jω . jω
Z
2
c) G(jω) =
2e−jωt dt =
1
d) y(t) = 12 h(t + 1), h(t) mit 1/2 skalieren und um t0 = 1 nach links verschieben.
3.13 Aufgaben zur Systemtheorie Aufgabe 3.13.13 Gegeben
271
ist
die Fourier2 + jω Transformierte H(jω) = der (2 + jω)2 + ω02 Sprungantwort h(t) eines Systems. a) Ermitteln und skizzieren Sie die Sprungantwort. b) Berechnen Sie die Impulsantwort des Systems.
Aufgabe 3.13.14 Das Bild zeigt die Impulsantwort eines Systems. Berechnen Sie die Sprungantwort mit dem Faltungsintegral in der Form: ↑ g(t) ..2 .................... y(t) =
R∞ −∞
x(t − τ )g(τ ) dτ.
... .... ... .. .. . ..................... 0 2
..−2
... ... ... ... ... ... ... 6......... . .. 4.... → ... ... .. ... . ... ... ... .. . ... ...................
t
Bei der L¨osung sind Skizzen f¨ur x(t − τ ) und g(τ ) f¨ur alle zu unterscheidenden Zeitbereiche anzugeben. Skizzieren Sie die Sprungantwort.
g(τ )
g(τ )
L¨osung 3.13.13 a) Aus Tabelle h(t) = s(t)e−2t cos (ω0 t). Bild unten, Darstellung mit ω0 = 4. d h(t) g(t) = dt “ s(t)e−2t 2 cos (ω0 t) +
b)
A1:
δ(t) − ” ω0 sin (ω0 t) .
=
1·· ↑
h(t) ········ ········ ···· ··· ···· ···· ··· · ············0···· ·····1·······················2· →t ··· ·· ······ L¨osung 3.13.14 In dem unteren Bild sind die Funktionen g(τ ) x(t − τ ) und f¨ur die hier vier Zeitbereiche skizziert. Man erh¨alt unmittelbar: Bereich t < 2: h(t) = 0 Bereich 2 < t < 4: h(t) = 2 · (t − 2) Bereich 4 < t < 6: h(t) = 4 − 2 · (t − 4) Bereich t > 6: h(t) = 0 Die Sprungantwort ist unten skizziert. 4··↑ h(t) ····· ·· ··· ··· ···· ··· ···· ··· ·· · ··· · ········ ·····0··············2·· 4 6→ t g(τ )
g(τ )
...2 ...2 ...2 ................................. ................................. ................................. ................................. ... ... ... ... .. .. .. .. .. .. .. .. ... ... ... ..... .. .. . .. . . ... . . . .. . . . . . .... .. s(t−τ ) s(t−τ )................................................... ..... s(t−τ ).................................................................................... s(t−τ )................................................................................................................. . ...................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... ... ... ... . . ... ... . . . . . . . . . . ... ... ... ... ... ... ... ...... ..... ... ... .... ... ... .... ... ... ... .. ... ... .... ... ... ... ... ... .... ... . ... .. .. ... .. .. . ... . ... . ... . . ... . . . . . . . . ... .........→ ... t . . .........................................→ . . .........................τ ........................τ ........................τ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ....................................................................................................→ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........... . . . . . . . . . . . . . . . 0 t 2 0 0 0 → τ 4... 2 t 4.... 2 4.... t 6.. 2 4... 6.. 6.. 6 . . ... . . ... .... ... ... ... . . ... ... .. .. ... ... . . ... .... .... ... .. .. .. . t < 2 ... 2 < t < 4 ... 4 < t < 6 ... t > 6 .... .. .. .. ... .. .. .. .. ... ... ... ... .. .. .. .. .. .. .. .. .... .... .... .... . . . .. . . . . ... ... ... . .... .... .... .... . . . ...−2 ...−2 ...−2 ...−2 ............................ ............................ ............................ .............................. ...2
272
3 Einf¨uhrung in die Systemtheorie
Aufgabe 3.13.15 Gegeben ist die Laplace1 der SprungantTransformierte H(s) = 3 (2 + s)
wort h(t) eines Systems. a) Ermitteln und skizzieren Sie die Sprungantwort des Systems. b) Die Impulsantwort soll mit der Sprungantwort des Systems berechnet werden. ¨ c) Die Ubertragungsfunktion G(s) soll aus b) ermittelt werden. Gesucht ist weiterhin das PN-Schema von G(s). d) Neben dem hier beschrittenen Weg zur Ermittlung von G(s) gibt es noch einen weiteren. Ermitteln Sie G(s) auf jenem Weg. Vergleichen Sie mit dem Ergebnis aus c).
¨ Aufgabe 3.13.16 Die Ubertragungsfunktion G(s) eines Systems hat bei −2 eine doppelte Polstelle und bei s = 0 eine doppelte Nullstelle. Weiterhin ist G(∞) = 1.
L¨osung 3.13.15 a) Aus Tabelle A2: h(t) = 12 s(t)t2 e−2t . d h(t) = s(t)te−2t (1 − t). b) g(t) = dt c) Aus Tabelle A2: G(s) =
1 2 s − = . (2 + s)2 (2 + s)3 (2 + s)3
PN-Schema: Nullstelle bei 0 und 3−fache Polstelle bei −2. d) Aus H(s) = G(s) · 1s folgt G(s) = s . (2 + s)3
↑ h(t) ········· ··· ······ ···· ··· ···· ····· ··· ······ ·········· ·· · ·········· ···········0 1 →t
0,5e−2
L¨osung 3.13.16 a) Null- und Polstellen nach Aufgabenstellung (ohne Bild) G(s) = K K = 1.
a) Skizzieren Sie das PN-Schema und ermitteln Sie G(s). b) Ermitteln Sie G(jω), berechnen und skizzieren Sie die Betragsfunktion |Gjω)|. c) Berechnen Sie die Impulsantwort des Systems. d) Berechnen Sie die Systemreaktion auf das Eingangssignal x(t) = s(t) · t.
b) G(jω) =
s2 . Aus G(∞) = 1 folgt (s + 2)2 (jω)2 ω2 , |G(jω)| = 2 (jω + 2) 4 + ω2
↑ |G(jω)| 1· · · · · · · · · · ·········································· ·········· ········ ····· · · ·· ··· ·· · ··· →ω ····· 0 10 c) Partialbruchentwicklung von G(s) ergibt: 4 4 G(s) = 1− . R¨ucktransfor+ 2 s+2
(s + 2)
mation nach Abschnitt 3.14: g(t) = δ(t) −
4s(t)e−2t + 4s(t) t e−2t . 1 d) X(s) = 2 , Y (s) = X(s)G(s) = s 1 . (s + 2)2
R¨ucktransformation: y(t) = s(t) t e−2t .
3.13 Aufgaben zur Systemtheorie
273
3.13.4 Zeitdiskrete Systeme Aufgabe 3.13.17 Gegeben ist die folgende zTransformierte der Impulsantwort eines digitalen 1 1 + . Systems: G(z) = z − 0, 5 z + 0, 5 a) Sikzzieren Sie das PN-Schema des Systems und begr¨unden Sie, dass es sich hier um ein stabiles System handelt. b) Stellen Sie die Differenzengleichung f¨ur das System auf und berechnen Sie mit dieser die Impulsantwort. Dabei sind soviele Werte von g(n) zu ermitteln, dass in der Folge insgesamt drei nichtverschwindende Werte auftreten. c) Ermitteln Sie die Impulsantwort als geschlossenen Ausdruck.
L¨osung 3.13.17 = a) G(z) 2z . (z − 0, 5)(z + 0, 5)
1 z − 0, 5
+
1 z + 0, 5
=
Nullstelle bei z = 0, Polstellen bei z = ±0, 5. Weil die Pole im Bereich |z| < 1 liegen, ist das System stabil. 2z , daraus folgt b) G(z) = −0, 25 + z 2 y(n) − 0, 25y(n − 2) = 2x(n − 1). Daraus folgt mit x(n) = δ(n): g(n) = 2δ(n − 1) + 0, 25g(n − 2). g(0) = 0, g(1) = 2, g(2) = 0, g(3) = 0, 5.
c)
G(z)
=
A1 A2 + z − 0, 5 z + 0, 5
Aus der Tabelle
2z = (z − 0, 5)(z + 0, 5) 1 1 = + . z − 0, 5 z + 0, 5 A3 folgt g(n) =
s(n − 1) · 0, 5n−1 + s(n − 1) · (−0, 5)n−1 .
d) Schaltung: x(n)
d) Geben Sie eine Schaltung f¨ur das digitale Sytem an.
A 2 - T - +? h- T
y(n) •-
A 0, 25
Aufgabe 3.13.18 Die z-Transformierte der Sprungantwort h(n) eines zeitdiskreten Systems 0, 25z . lautet H(z) = (z − 0, 5)2 (z − 1) a) Entwickeln Sie H(z) in Partialbr¨uche und ermitteln Sie h(n). Der Formelausdruck f¨ur h(n) soll keine Binomialkoeffizienten enthalten! b) Unter Verwendung der Beziehung Y (z) = G(z)X(z) soll die Funktion G(z) berechnet und dann die Impulsantwort g(n) des Systems ermittelt werden. ¨ c) Ermitteln Sie die Ubertragungsfunktion G(jω) und danach den Betrag |G(jω)|.
L¨osung 3.13.18
A1 0, 25z = + (z − 0, 5)2 (z − 1) z − 0, 5 A2 A3 . Mit A3 = 1, A2 = −0, 25 + (z − 0, 5)2 z−1 0, 25z = folgt zun¨achst H(z) = (z − 0, 5)2 (z − 1) A1 1 0, 25 + , daraus − z − 0, 5 (z − 0, 5)2 z−1 findet man mit z = 0: A1 = −1 und 0, 25 1 1 − H(z) = − + . z − 0, 5 (z − 0, 5)2 (z − 1) Daraus aus Tabelle A3: h(n) = −s(n − a) H(z)
=
1)0, 5n−1 − 0, 25s(n − 2)(n − 1)0, 5n−2 + s(n − 1) 0, 25 z , G(z) = b) H(z) = G(z) . z−1 (z − 0, 5)2 = Daraus mit Tabelle A3: g(n) 0, 25s(n − 2)(n − 1)0, 5n−2 .
c)
G(jω)
=
0, 25 (0, 5 − e,jωT )2
=
0, 25 . Daraus wird (0.5 − cos (ωT ) − j sin (ωT ))2 0, 25 = |G(jω)| = [0, 5 − cos (ωT )]2 + sin2 (ωT ) 0, 25 . 1, 25 − cos (ωT )
274
3 Einf¨uhrung in die Systemtheorie
Aufgabe 3.13.19 Gegeben ist die folgende zTransformierte der Sprungantwort eines digitalen Systems: z2 . H(z) = (z − 0, 5)2 (z − 1) ¨ a) Ermitteln Sie die Ubertragungsfunktion G(z) des Systems. Zeichnen Sie das PN-Schema. Ist das System stabil? b) Entwickeln Sie G(z) in Partialbr¨uche und ermitteln Sie die Impulsantwort. Wie groß sind die drei ersten nichtverschwindenden Werte der Impulsantwort? c) Wie lautet die Differenzengleichung des digitalen Systems, zeichnen Sie eine Realisierungsschaltung. d) Berechnen Sie mittels der Differenzengleichung die ersten drei ersten nichtverschwindenden Werte der Sprungantwort. x(n) - T - +h- T ? 6 −0, 25 A
•-
y(n)
•
Aufgabe 3.13.20 Ein zeitdiskretes System wird durch die Differenzengleichuung y(n) − 0, 5y(n − 1) = x(n − 1) beschrieben. a) Geben Sie eine Realisierungstruktur fu¨ r das System an. b) Ermitteln Sie G(z) und begr¨unden Sie, dass das System stabil ist. c) Ermitteln Sie die Impulsantwort durch R¨ucktransformation von G(z). d) Berechnen Sie die ersten 4 nichtverschwindenden Werte der Impulsantwort rekursiv.
L¨osung 3.13.19 z z , G(z) = . a) H(z) = G(z) · z−1 (z − 0, 5)2 PN-Schema: Nullstelle bei z = 0, doppelte Polstelle bei z = 0, 5. Das System ist stabil, weil die Pole im Bereich |z| < 1 liegen. A2 z A1 b) G(z) = + = . 2 2 (z − 0, 5)
A2 = 0, 5,
dann folgt
0, 5 , (z − 0, 5)2
z − 0, 5 (z − 0, 5) z A1 + = 2 (z − 0, 5) z − 0, 5
mit z = 0 erh¨alt man daraus
A1 = 1. Damit wird
G(z) =
1 + z − 0, 5
0, 5 und aus Tabelle A3 findet man (z − 0, 5)2 g(n) = s(n − 1) · 0, 5n−1 + 0, 5s(n − 2) · (n − 1)0, 5n−2 . Werte: g(0) = 0, g(1) = 1, g(2) = 1, g(3) = 0, 75. z erh¨alt man die c) Aus G(z) = 2 0, 25 − z + z
Differenzengleichung y(n) − y(n − 1) + 0, 25y(n − 2) = x(n − 1), y(n) = x(n − 1) + y(n − 1) − 0, 25y(n − 2). Aus dieser Differenzengleichung erh¨alt man die nebenstehende Realisierungsschaltung. d) h(n) = s(n − 1) + h(n − 1) − 0, 25h(n − 2). h(0) = 0, h(1) = 1, h(2) = 2,
L¨osung 3.13.20 a) Schaltung (unten) aus Gleichung y(n) = x(n − 1) + 0, 5y(n − 1). 1 , Pol bei z = 0, 5, b) G(z) = −0, 5 + z also im Bereich |z < 1|, daher stabil. c) Aus Tabelle A3: g(n) = s(n − 1) · 0, 5n−1 . d) g(n) = δ(n − 1) + 0, 5g(n − 1), g(0) = 0, g(1) = 1, g(2) = 0, 5, g(3) = 0, 25. x(n)
- +h- T 6 A 0, 5
•
- y(n)
3.13 Aufgaben zur Systemtheorie
275
3.13.5 Tiefpasssysteme
Aufgabe 3.13.21 Gegeben ist ein idealer Tiefpass mit einer D¨ampfung von 2 dB im Durchlassbereich und einer Grenzfrequenz fg = 10 kHz. Der Tiefpass reagiert auf das Eingangssignal ω ω x(t) = cos ( 2g t) mit y(t) = k · cos ( 2g t − π). a) Ermitteln und skizzieren Sie den Betrag |G(jω)| des Tiefpasses. b) Ermitteln Sie den Wert der Konstanten k bei der oben angegebenen Systemreaktion y(t). Ermitteln Sie die Gruppenlaufzeit t0 . Skizzieren Sie den Phasenverlauf B(ω).
Aufgabe 3.13.22 Gegeben ist ein idealer Tiefpass mit einer D¨ampfung von 0 dB im Durchlassbereich und einer Gruppenlaufzeit TG = 10−5 s. Das Eingangssignal lautet x(t) = 1 + cos (ω0 t) mit f0 = 10 kHz.
L¨osung 3.13.21 a) A = −20 · lg |G(jω)|, daraus folgt |G(jω|) = 10−A/20 , hier im Durchlassbereich: |G(jω|) = K = 10−0,1 = 0, 794. F¨ur |G(jω)| und den Phasenverlauf siehe Bild 3.35 Seite 247. b) Das Signal wird verzerrungsfrei u¨ bertragen, daher: = y(t) = Kx(t − t0 ) ω ω K cos [ 2g (t − t0 )] = k cos ( 2g t − π). Daraus folgt k = K = 0, 794 ωg und π = 2 t0 , Gruppenlaufzeit: 2π tG = t0 = ωg = f1g = 10−4 s.
L¨osung 3.13.22 a) Mit K = 1 und t0 = TG = 10−5 s erh¨alt man y(t) = 1, die 10 kHz Schwingung liegt im Sperrbereich. b) y(t) = 1 + cos [ω0 (t − 10−5 )] mit ω0 = 2π · 104 .
a) Berechnen Sie die Reaktion des Tiefpasses bei einer Grenzfrequenz fg = 5 kHz. b) Berechnen Sie die Reaktion des Tiefpasses bei einer Grenzfrequenz fg = 11, 5 kHz.
Aufgabe 3.13.23 Gegeben ist ein System mit der ¨ Ubertragungsfunktion G(jω) = −2e−jωt0 . a) Skizzieren Sie den D¨ampfungsverlauf dieses Systems in Dezibel. b) Ermitteln Sie die Sprungantwort des Systems.
L¨osung 3.13.23 a) A = −20 lg |G| = −20 lg 2 = 6, 02 dB (frequenzunabh¨angiger Wert). b) Aus G(jω) = −2e−jωt0 folgt durch R¨ucktransformation (Zeitverschiebungssatz): g(t) = −2δ(t − t0 ), es liegt (bis auf das Vorzeichen) ein verzerrungsfrei u¨ bertragendes System vor, d.h. h(t) = −2s(t − t0 ).
276
3 Einf¨uhrung in die Systemtheorie
Aufgabe 3.13.24 Gegeben ist ein idealer Tiefpass ¨ mit der unten angegebenen Ubertragungsfunktion und Eingangssignal. 1 −jωt0 e f¨ur |ω| < ωg G(jω) = 2 0 f¨ur |ω| > ωg sin(ω0 t) . πt a) Skizzieren Sie x(t), ermitteln und skizzieren Sie das Spektrum X(jω) von x(t). b) Wie lautet das Ausgangssignal y(t) des idealen Tiefpasses, wenn ω0 < ωg ist. Die L¨osung kann unmittelbar angegeben werden, Sie ist zu begr¨unden! c) Wie lautet das Ausgangssignal y(t) des idealen Tiefpasses, wenn ω0 > ωg ist. Die L¨osung kann auch hier unmittelbar angegeben werden, Sie ist zu begr¨unden! x(t) = 2
↑ x(t) 2 ωπ0······· ···· ···· ··· · ··· ··· ··· ····· ··· · ·· ······ t · · · · · ··· ····· π π ······· ······ ·········→ ············· ········ ···· ·· − 0 ··· ···· ·· ω0 ω0 ··
L¨osung 3.13.24 a) x(t) ist unten links skizziert. Zur Ermittlung des Spektrums schreibt man: 2ω0 2ω0 sin (ω0 t) · = · si(ω0 t) (siehe Gl. x(t) = π ω0 t π 2.62). Mit der Korrespondenz: si(t) ◦−−• πrect(ω/2) (s. Gl.3.112) und dem ¨ Ahnlichkeitssatz 3.92 erh¨alt man dann das unten rechts skizzierte Spektrum: ! X(jω) = 2 rect
ω 2ω0
.
b) Wenn ω0 < ωg liegt das Signalspektrum voll im Durchlassbereich des Tiefpasses, dann gilt y(t) = Kx(t − t0 ), hier mit K = 0, 5: y(t) =
ω0 ω0 sin [ω0 (t − t0 )] · si[ω0 (t − t0 )] = · . π π ω0 (t − t0 )
c) Dann wird das Spektrum von x(t) bei ωg ”abgeschnitten”. Im Bild von X(jω) ist ω0 durch ωg zu ersetzen. Demgem¨ass gilt jetzt y(t) =
ωg ωg sin [ω0 (t − t0 )] · si[ωg (t − t0 )] = · . π π ωg (t − t0 )
↑ X(jω)
·······························2······································· ··· ··· ··· ···· ·· ··· · ························ ···················→ ······ ω ω 0 −ω0 0
3.14 Korrespondenzen der Transformationen Korrespondenzen der Fourier-Transformation f (t)
F (jω)
δ(t)
1
1
2π δ(ω)
cos (ω0 t)
π δ(ω − ω0 ) + π δ(ω + ω0 ) π π δ(ω − ω0 ) − δ(ω + ω0 ) j j 2 jω 1 π δ(ω) + jω π π jω δ(ω − ω0 ) + δ(ω + ω0 ) + 2 2 2 ω0 − ω 2 π π ω0 δ(ω − ω0 )− δ(ω + ω0 )+ 2 2j 2j ω0 +ω 2
sin (ω0 t) sgn(t) s(t) s(t) cos (ω0 t) s(t) sin (ω0 t)
3.14 Korrespondenzen der Transformationen
277
f (t)
F (jω)
rect(t)
1 (α + jβ) + jω 1 [(α + jβ) + jω]n+1 α + jω (α + jω)2 + ω02 ω0 (α + jω)2 + ω02 2α 2 + ω2 α π −ω2 /(4α) e α si(ω/2)
tri(t)
si2 (ω/2)
si(t)
π rect(ω/2)
s(t)e s(t)
−(α+jβ)t
,α>0
tn −(α+jβ)t e , α > 0, n = 0, 1 . . . n!
s(t)e−αt cos (ω0 t), α > 0 s(t)e−αt sin (ω0 t), α > 0 e−α|t| , α > 0 2
e−αt , α > 0
Korrespondenzen der Laplace-Transformation f (t)
F (s), Konvergenzbereich
δ(t)
1, alle s 1 , Re s > 0 s s , Re s > 0 2 ω0 + s 2 ω0 , Re s > 0 ω02 + s2 1 , Re s > −α (α + jβ) + s 1 , Re s > −α [(α + jβ) + s]n+1 1 , Re s > 0 sn+1 α+s , Re s > −α (α + s)2 + ω02 ω0 , Re s > −α (α + s)2 + ω02 2 2 s − ω0 , Re s > 0 (s2 + ω02 )2 2 s ω0 , Re s > 0 (s2 + ω02 )2
s(t) s(t) cos (ω0 t) s(t) sin (ω0 t) s(t)e−(α+jβ)t tn −(α+jβ)t e , n = 0, 1 . . . n! n t s(t) , n = 0, 1 . . . n! s(t)e−αt cos (ω0 t), s(t)
s(t)e−αt sin (ω0 t) s(t) t cos (ω0 t) s(t) t sin (ω0 t)
278
3 Einf¨uhrung in die Systemtheorie
Korrespondenzen der z-Transformation f (n)
F (z), Konvergenzbereich
δ(n)
1, alle z
δ(n − i), i = 0, 1 . . .
1 , alle z zi z , |z| > 1 z−1 z[z − cos (ω0 T )] , |z| > 1 z 2 − 2z cos (ω0 T ) + 1 z sin (ω0 T ) , |z| > 1 z 2 − 2z cos (ω0 T ) + 1 z[z − e−αT cos (ω0 T )] , |z| > e−αT 2 z −2ze−αT cos (ω0 T ) + e−2αT ze−αT sin (ω0 T ) , |z| > e−αT 2 z −2ze−αT cos (ω0 T ) + e−2αT z , |z| > e−αT z − e−αT z , |z| > 1 (z − 1)2 ze−αT , |z| > e−αT (z − e−αT )2 1 , γ = α + jβ, |z| > |γ| z−γ 1 , γ = α + jβ, |z| > |γ| (z − γ)i
s(n) s(n) cos (n ω0 T ) s(n) sin (n ω0 T ) s(n)e−αnT cos (n ω0 T ) s(n)e−αnT sin (n ω0 T ) s(n)e−αnT s(n) n s(n) ne−αnT s(n − 1) γ n−1
n−1 n−i s(n − i) γ , i = 1, 2 . . . i−1
279
Kapitel 4
Informationstheorie und Quellencodierung Die Informationstheorie ist ein relativ neuer Zweig der Nachrichten- und Informationstechnik. C.E. Shannon1 ver¨offentlichte 1948 seine grundlegenden Arbeiten zu diesem Themenkreis und gilt als der Begr¨under der Informationstheorie.2 Im naturwissenschaftlich- technischen Sinne be¨ schreibt die Informationstheorie die Ubertragung und Codierung von Information. Durch die Beschreibung mittels der Wahrscheinlichkeitsrechnung gelingt es, den Fluss der Information in technischen Systemen zu analysieren und zu optimieren. Hierzu ist es erforderlich, die Modellierung einer Informationsquelle bzw. einer Informationssenke als Zufallsprozess zu erl¨autern. Der technische Informationsbegriff ist hierbei grunds¨atzlich von der allt¨aglichen Deutung des In¨ formationsbegriffes abzugrenzen. F¨ur die technische Ubertragung einer Nachricht spielt die inhaltliche Bedeutung der Nachricht keine Rolle. Wichtig ist lediglich der Informationsgehalt der Nachricht (die Quantit¨at der Information). C.E. Shannon[25] hat in seiner Arbeit The Mathematical Theorie of Communication den Informationsbegriff zu einer experimentell erfassbaren Gr o¨ ße geformt. Ein einfaches Beispiel, das Shannon anfu¨ hrt, betrifft die Speicherkapazit¨at von Lochkarten. Eine Lochkarte, die N Positionen f¨ur ein Loch besitzt, kann 2N verschiedene Eintr¨age (Loch oder kein Loch) enthalten. F¨ur zwei Lochkarten ist zu erwarten, dass sie die doppelte Information speichern k¨onnen. Andererseits steigen die m¨oglichen Eintr¨age quadratisch (22N = (2N )2 ) an. Mit Hilfe der Logarithmusfunktion gelingt es, diesen Sachverhalt mathematisch zu beschreiben: log(2N ) = N · log(2)
bzw.
log(2N )2 = log(22N ) = 2 · N log(2).
Es ergibt sich f¨ur zwei Lochkarten die erwartete Verdopplung des Zahlenwertes. Ganz wesentliche Aussagen der Informationstheorie beziehen sich auf ein einfaches Kommunikationsmodell, das in Bild 4.1 dargestellt ist. Die Nachrichtenquelle, kurz Quelle genannt, generiert Nachrichten, die mit einer bestimmten Wahrscheinlichkeit auftreten. Eine Nachricht kann hierbei 1 Claude
E. Shannon wurde 1916 in Amerika geboren. Erfindungen der Elektrotechnik wie z.B. die Glu¨ hlampe stammen aus den Jahren 1854 von Goebel, bzw. 1878 von Edison. Die Telegraphie, insbesondere die nichtelektrische, ist nat u¨ rlich noch viel a¨ lter. 2 Fr¨ uhe
280
4 Informationstheorie und Quellencodierung
¨ sein. Im Sinne der Informationstheorie ist es hiereine Zahl, ein Buchstabe, ein Satzzeichen o¨ .A. bei wesentlich, dass jeder Information eindeutig eine Wahrscheinlichkeit zugeordnet ist. Die Gesamtheit der M¨oglichkeiten, die eine Quelle besitzt, verschiedene Informationen zu bilden, heißt Quellenalphabet. F¨ur eine Quelle X k¨onnen dies die Symbole x1 , x2 , . . . xn sein. Der Informationsgehalt der Symbole soll durch Quellcodierung mo¨ glichst redundanzfrei u¨ bertragen werden. -
Quelle
-
Quellcodierung
Kanalcodierung
St¨orung
Senke
Quelldecodierung
? - Kanal
Kanaldecodierung
Abbildung 4.1: Modell f¨ur eine Informations¨ubertragung Diese relative Redundanzfreiheit macht gleichwohl die Symbole empfindlich gegen u¨ ber St¨orun¨ gen wie z.B. Rauschen des Ubertragungskanals. Trotz dieser unvermeidbaren Sto¨ rungen sollen die Symbole bei der Informationssenke wieder als die gesendeten Symbole erkannt werden. Diese ¨ Aufgabe f¨uhrt direkt zur Bewertung von Ubertragungskan¨ alen und den M¨oglichkeiten, die Information durch Kanalcodierung weitgehend sto¨ rungssicher zu u¨ bertragen. Um die codierte Information u¨ ber einen Kanal zu u¨ bertragen, bedient man sich Signalen wie sie im vorausgegangenen Kapitel erl¨autert wurden. Die Information kann dann beispielsweise in der zeitlichen Ver¨anderung des Signals enthalten sein. Die Aufpr¨agung der Information auf die Signale, die Modulation, erfordert eine ausfu¨ hrliche Behandlung, die den Rahmen dieses Buches sprengen w¨urde. In Bild 4.1 sind auf dem Weg vom Kanal zur Senke die notwendigen Umkehrbausteine, die Quell- und Kanaldecodierung angegeben. Die Kanalcodierung und Decodierung, d.h. die Codierung zur Fehlerkorrektur, wird im nachfolgenden Kapitel ausfu¨ hrlich behandelt. Im Gegensatz zur Quellencodierung vergr¨oßert die Kanalcodierung die Redundanz der zu u¨ bertragenden ¨ Information. Durch hinzugef¨ugte Pr¨ufsymbole gelingt es, Ubertragungsfehler zu erkennen und zu korrigieren. Die modernen Verfahren der Datenspeicherung auf DVD oder der PC-Festplatte w¨aren ohne Kanalcodierung nicht m¨oglich. Information und Codierung sind die zentralen Begriffe dieses Kapitels, ohne die die Informations¨ubertragung heute nicht denkbar w¨are. In den folgenden Abschnitten werden die Begriffe und Anwendungen wie z. B. die Grenzwerte f¨ur die Informations¨ubertragung u¨ ber einen gest¨orten Kanal erl¨autert.
4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung
281
4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung Grundlage f¨ur die Beschreibung zuf¨alliger Ereignisse ist die Wahrscheinlichkeitsrechnung. Werden die Ergebnisse von Zufallsexperimenten auf Zahlen abgebildet, so erh¨alt man Zufallsvariablen. Den Zufallsergebnissen k¨onnen auch Funktionen zugeordnet werden. In diesem Fall der Verallgemeinerung spricht man von stochastischen Prozessen.
4.1.1 Annahmen und Voraussetzungen Als ein Zufallsexperiment wird ein Versuch bezeichnet, der beliebig oft unter gleichartigen Voraussetzungen wiederholt werden kann und dessen Ergebnis trotzdem nicht vorbestimmt ist. In der Literatur wird hierf¨ur auch der Begriff des zul¨assigen Versuchs verwendet. Jedes Durchfu¨ hren eines Zufallsexperimentes soll ein Ereignis Ei liefern, das Elementarereignis genannt wird. Die Menge aller m¨oglichen Elementarereignisse E = {Ei } wird Ereignismenge E = {E1 , E2 , · · · , En } genannt. Beispiel 4.1 Das W¨urfeln mit einem W¨urfel ist ein Zufallsexperiment, bei dem die geworfenen Augenzahlen als Elementarereignisse aufgefasst werden ko¨ nnen. Die Elementarereignisse sind dann: E1 = 1, E2 = 2, · · · , E6 = 6 und die Ereignismenge E = {1, 2, 3, 4, 5, 6} ist die Menge der m¨oglichen Elementarereignisse. Es kann eine Menge F von Teilmengen aus E gebildet werden, die bestimmte Merkmale, wie z.B. gerade oder ungerade Augenzahl, besitzen. Diese Teilmengen werden zuf a¨ llige Ereignisse genannt. Die nachfolgenden Beispiele beziehen sich ebenfalls auf das Wu¨ rfeln. Beispiel 4.2 Als Teilmengen und somit als zuf¨allige Ereignisse k¨onnen die gerade bzw. ungerade Augenzahl gew¨ahlt werden. A = {1, 3, 5}, B = {2, 4, 6}. Das zuf¨allige Ereignis A ist genau dann eingetreten, wenn das Zufallsexperiment ein Elementarereignis liefert, das zur Menge A geh¨ort. Das zuf¨allige Ereignis ”ungerade Augenzahl” A = {1, 3, 5} ist eingetreten, wenn das Zufallsexperiment z.B. das Elementarereignis E 3 = 3 zur Folge hatte. Bei zwei zuf¨alligen Ereignissen A und B, d.h. bei zwei Teilmengen von Elementen aus der Ereignismenge E, gelten folgende Beziehungen: 1. Das Ereignis A + B oder A ∪ B ist die Menge aller Elementarereignisse, die zu A oder zu B geh¨oren. Ist z.B. A = {1, 2} und B = {1, 5, 6}, dann folgt: A + B = {1, 2, 5, 6}. 2. Das Ereignis A · B oder A ∩ B ist die Menge aller Elementarereignisse, die sowohl in A als auch in B enthalten sind. Ist z.B. A = {1, 2} und B = {1, 5, 6}, so folgt: A · B = {1}. 3. Das Komplement¨arereignis A von A enth¨alt alle Elemente aus E, die nicht zu A geh¨oren. Ist z.B. A = {1, 2}, dann gilt: A = {3, 4, 5, 6}. 4. Das Ereignis A − B = A · B (sprich A ohne B ) enth¨alt die Elemente von E, die gleichzeitig Elemente von A und B sind. Ist z.B. A = {1, 2} und B = {1, 5, 6}, so gilt: B = {2, 3, 4} und A − B = {2}.
282
4 Informationstheorie und Quellencodierung
Mit den folgenden Aussagen wird der Borelschen Mengenko¨ rper eingef¨uhrt. Erf¨ullt die Menge F der Teilmengen von Elementen aus der Ereignismenge E die folgende Eigenschaften: 1. F enth¨alt als Element die Menge E, 2. sind A und B Elemente aus F, dann sind auch (A + B), (A · B) sowie (A) und (B) in F enthalten, so nennt man F einen Borelschen Mengenk¨orper oder auch σ−K¨orper. Da E ein Element von F ist, muss auch die ”leere” oder Nullmenge E = ∅ in F enthalten sein. Diese Regeln sind auf mehr als zwei Teilmengen erweiterbar. Bei endlich vielen Ereignissen A 1 , A2 , · · · , An geh¨oren auch stets die Ereignisse A1 + A2 + · · · + An und A1 · A2 · · · An zur Menge F. Schließlich sollen auch noch Zufallsexperimente zugelassen werden, bei denen abz¨ahlbar unendlich viele Elementarereignisse auftreten k¨onnen. In diesem Fall sollen auch die Summen und Produkte abz¨ahlbar unendlich vieler Ereignisse in F enthalten sein. Einige weitere Aussagen erg¨anzen die oben genannten Grundbegriffe: 1. Wenn zwei Ereignisse A und B keine gemeinsamen Elemente enthalten, d.h. A · B = ∅, nennt man A und B unvereinbar oder spricht von sich ausschließenden Ereignissen. Z.B. A = {1, 2} und B = {3, 4} sind unvereinbare Ereignisse. 2. Ein Ereignis A wird zusammengesetztes Ereignis genannt, wenn es als Summe von Elementarereignissen dargestellt werden kann. F¨ur das Ereignis ”gerade Augenzahl” beim Wu¨ rfel gilt: A = {2, 4, 6}. A ist ein zusammengesetztes Ereignis, denn es gilt: A = E2 +E4 +E6 = {2} + {4} + {6}. 3. Ist A = E, so spricht man von dem sicheren Ereignis. Beim Wu¨ rfel ist A = {1, 2, 3, 4, 5, 6} = E das sichere Ereignis, weil jedes Zufallsexperiment zu diesem Ergebnis f¨uhrt. 4. Ist A = E = ∅, so spricht man von dem unm¨oglichen Ereignis.
4.1.2 Die axiomatische Definition der Wahrscheinlichkeit Der Definition des Wahrscheinlichkeitsbegriffes liegt ein Borelsches Ereignisfeld F zugrunde, wie es im vorangehenden Abschnitt eingef¨uhrt wurde. Die axiomatische Definition der Wahrscheinlichkeit gr¨undet sich auf ihre Zweckm¨aßigkeit und ordnet jedem Ereignis eine Wahrscheinlichkeit zu: Axiom 1: Jedem zuf¨alligen Ereignis A aus dem Ereignisfeld F wird eine nicht negative Zahl, die Wahrscheinlichkeit 0 ≤ P (A) ≤ 1 , zugeordnet. Axiom 2: Es gilt: P (E) = 1, d.h. die Wahrscheinlichkeit fu¨ r das sichere Ereignis ist 1. Axiom 3: Sind die Ereignisse A und B unvereinbar, d.h. A · B = ∅, dann gilt: P (A + B) = P (A) + P (B).
4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung
283
Aus den Axiomen der Definition der Wahrscheinlichkeit ko¨ nnen einige wichtige Folgerungen abgeleitet werden. 1. Das unm¨ogliche Ereignis E hat die Wahrscheinlickeit P (E = ∅) = 0. Wegen der Unvereinbarkeit von E und E ist P (E + E) = P (E) + P (E) = 1. Nach dem Axiom 2 ist P (E) = 1 und damit folgt P (E) = P (∅) = 0. 2. Sind A1 , A2 , · · · , Am paarweise unvereinbare Ereignisse, dann erh¨alt man aus dem Axiom 3 das Additionsgesetz: P (A1 + A2 + · · · + Am ) Ai · Aj
= P (A1 ) + P (A2 ) + · · · + P (Am ), = 0 f¨ur i = j.
(4.1)
3. Ersetzt man in Gl. 4.1 die Ereignisse Ai durch die n (unvereinbaren) Elementarereignisse der Ereignismenge E, dann folgt: P (E1 + E2 + · · · + En ) = P (E1 ) + P (E2 ) + · · · + P (En ) = P (E) = 1, also gilt:
n
P (Ei ) = 1.
(4.2)
i=1
Die Summe der Wahrscheinlichkeiten der Elementarereignisse ist 1. Die axiomatische Definition der Wahrscheinlichkeit klammert jedoch das Problem, wie f u¨ r reale Ereignisse die Wahrscheinlichkeit gefunden werden kann, aus. Auf dieses Problem wird im folgenden Abschnitt eingegangen.
4.1.3 Relative H¨aufigkeit und Wahrscheinlichkeit Die axiomatische Definition der Wahrscheinlichkeit hat den Nachteil, dass sie keinen Hinweis gibt, wie groß die Wahrscheinlichkeiten in einem konkreten Fall sind. So m u¨ ssen nach den Axiomen bei einem W¨urfel mit den Elementarereignissen E = {1, 2, · · · , 6} lediglich die folgenden Bedingungen eingehalten werden: 6
P (Ei ) = 1,
P (Ei ) ≥ 0
i=1
Nur im Sonderfall eines gleichm¨aßigen W¨urfels ist der Schluss zul¨assig, dass die Wahrscheinlichkeiten f¨ur alle Elementarereignisse gleich groß sind. Dies bedeutet: P (Ei ) = 1/6, i = 1 · · · 6. Zum Auffinden von Sch¨atzwerten f¨ur eine Wahrscheinlichkeit P (A) kann die relative Ha¨ ufigkeit: hN (A) =
NA N
(4.3)
benutzt werden. Dabei ist N die Zahl der durchgefu¨ hrten Zufallsexperimente und NA die Anzahl, bei der das Ereignis A aufgetreten ist.
284
4 Informationstheorie und Quellencodierung
Die in Gl. (4.3) vorgenommende Definition der relativen H¨aufigkeit geht auf den Mathematiker Mieses (1930) zur¨uck. F¨ur große Werte von N , hat man den Begriff der Wahrscheinlichkeit in Anlehnung an die relative H¨aufigkeit gepr¨agt. Diese Vorstellung der Wahrscheinlichkeit hat gegen¨uber der axiomatischen Definition den Vorteil, dass sie fu¨ r messbare Ereignisse einen Hinweis gibt wie die Wahrscheinlichkeit sich n¨aherungsweise bestimmen l¨asst. Ein Zufallsexperiment wie z.B. W¨urfeln ergibt Zufallsereignisse xi . Im Falle des W¨urfelns gilt f¨ur die Zufallsereignisse: xi ∈ {1, 2, 3, 4, 5, 6}. Beispiel 4.3 Bei N = 10000 W¨urfen, wurde 1650 mal die 5 gew¨urfelt: hN (xi = 5) =
1650 = 0.165 10000
Wird die relative H¨aufigkeit hN (xi ) bestimmter Werte xi eines gleichm¨aßigen W¨urfels experimentell untersucht, so kann festgestellt werden, dass sich mit wachsender Anzahl N von W u¨ rfen, die relative H¨aufigkeit dem festen Grenzwert 1/6 n¨ahert. hn (xi ) 6 5 16 4 12 3 12 2 12
P (xi )
1 12
- N 20
50
100
200
500 1000 2000 5000
20000
Nachteilig erweist sich bei der relativen H¨aufigkeit, dass sie nicht im strengen mathematischen Sinne als Grenzwert der Wahrscheinlichkeit: ?
P (xi ) =
lim hN (xi ) = lim
N →∞
N →∞
Ni N
aufgefasst werden darf. Es ist wegen der Zuf¨alligkeit der Ereignisse nicht beweisbar, dass sich ab einer bestimmten Anzahl von Versuchen, die H¨aufigkeiten der Ergebnisse nicht mehr ver¨andern. ¨ Den Ubergang von der relativen H¨aufigkeit zur Wahrscheinlichkeit beschreibt indes das Gesetz der großen Zahlen. Es kann gezeigt werden, dass nach N Versuchen die Wahrscheinlichkeit daf u¨ r, dass die Differenz zwischen der Wahrscheinlichkeit P (xi ) und der relativen H¨aufigkeit unter eine im Prinzip beliebig kleine Schranke ε zu bringen ist, gegen den Wert Eins geht: lim P (|P (xi ) − hN (xi )| ≤ ε) = 1.
N →∞
(4.4)
4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung
285
4.1.4 Das Additionsgesetz In Axiom 3 der Definition der Wahrscheinlichkeit im Abschnitt 4.1.2 ist bereits das Additionsgesetz festgehalten. Das folgende Beispiel fu¨ r die relative H¨aufigkeit erl¨autert die Additionsregel. Beispiel 4.4 Bei einem W¨urfelexperiment mit N = 10000 W¨urfen werden folgende Ergebnisse erzielt: xi
x1 = 1
x2 = 2
x3 = 3
x4 = 4
x5 = 5
x6 = 6
Ni
1600
1550
1750
1700
1650
1750
N=
6
Ni = 10000
i=1
N¨aherungsweise gilt also: P (x2 ) ≈ N2 /N = 0.155 und P (x5 ) ≈ 0.165. Wie groß ist die Wahrscheinlichkeit, dass x2 oder x5 gew¨urfelt wird? P (x2 oder x5 ) = P (x2 ∪ x5 ) = P (x2 ) + P (x5 ) ≈ 0.32. Wie groß ist die Wahrscheinlichkeit, dass xi eine gerade Augenzahl ist? P (xi = gerade) = P (x2 ∪ x4 ∪ x6 ) = P (x2 ) + P (x4 ) + P (x6 ) ≈ 0.5. Allgemein gilt unter der Voraussetzung, dass zwei Ereignisse xi und xj nicht gleichzeitig auftreten k¨onnen: (4.5) P (xi ∪ xj ) = P (xi ) + P (xj ). Hieraus folgt f¨ur ein Ereignisfeld, bestehend aus n Elementarereignissen: P (x1 ∪ x2 ∪ . . . ∪ xn ) = 1. In der Mengenschreibweise l¨asst sich dieser Zusammenhang wie folgt formulieren: P (A ∪ B) = P (A) + P (B), A
A∩B =∅
(4.6)
B
A∪B Abbildung 4.2: Mengendarstellung der Wahrscheinlichkeiten Die Ereignisse A und B werden als Mengen betrachtet, die in Bild 4.2 als Fl¨achen dargestellt werden. Die gesamte von A und B eingeschlossene Fl¨ache entspricht der Summe von P (A) und P (B). Sie wird als Vereinigungsmenge A ∪ B bezeichnet. Der Mengenanteil, der in beiden Mengen A und B enthalten ist, wird als Durchschnittsmenge A ∩ B bezeichnet. Ist die Durchschnittsmenge A ∩ B = ∅ leer, so schließen sich die Ereignisse A und B gegenseitig aus.
286
4 Informationstheorie und Quellencodierung
4.1.5 Das Multiplikationsgesetz Die Erl¨auterung des Multiplikationsgesetzes erfolgt an Hand eines Wu¨ rfelexperimentes mit zwei W¨urfeln. Das Beispiel setzt hierbei voraus, dass jedes der beiden Wu¨ rfelergebnisse ein unabh¨angiges Zufallsereigniss darstellt. Die Augenzahl des ersten Wu¨ rfels wird mit xi , die des zweiten mit yj bezeichnet. Es stellt sich die Frage nach der Gro¨ ße der Wahrscheinlichkeit P (xi , yj ) f¨ur den Fall, dass mit dem ersten W¨urfel eine Augenzahl xi und mit dem zweiten W¨urfel die Augenzahl yj geworfen wird. Beispiel 4.5 Die Ereignisse von W¨urfen mit 2 W¨urfeln sind: {11, 12, . . . 16, 21, 22, . . . , 61, 62, . . . , 66} ¨ Uberlegen wir, wie groß die Wahrscheinlichkeit dafu¨ r ist, mit dem ersten W¨urfel X eine 1 und mit dem zweiten W¨urfel Y eine 3 zu w¨urfeln, so ergibt sich: P (xi = 1, yj = 3) = P (xi = 1) · P (yj = 3) =
1 1 1 · = 6 6 36
Hierbei muss vorausgesetzt werden, dass das Ergebnis des zweiten Wu¨ rfels vom Ergebnis des ersten W¨urfels statistisch unabh¨angig ist. Kommt es aber nur auf eine bestimmte W¨urfelkombination an, z.B. beim M¨axchen-Spiel auf die Kombination 1 und 2, unabh¨angig von der Reihenfolge der W¨urfel, so ergibt sich: P (z = 12)
= P (xi = 1, yj = 2 ∪ xi = 2, yj = 1) = P (xi = 1) · P (yj = 2) + P (xi = 2) · P (yj = 1) 1 2 = = 36 18
Allgemein gilt f¨ur die sogenannte Verbundwahrscheinlichkeit P (xi , yj ) zweier statistisch unabh¨angiger Ereignisse xi und yj : P (xi , yj ) = P (xi ) · P (yj ).
(4.7)
Die Gleichung (4.7) wird als Multiplikationsregel bezeichnet. Fu¨ r abh¨angige Zufallsereignisse muss das Multiplikationsgesetz anders als fu¨ r unabh¨angige Ereignisse formuliert werden. Nicht alle technischen Prozesse, die es zu modellieren gilt, sind statistisch unabh¨angig. In deutschen Texten gibt es z.B. kein Wort, in dem auf den Buchstaben q (Q) nicht der Buchstabe u folgt, wie z.B. bei den W¨ortern: Quark, Quelle, usw.. Dieser Sachverhalt fu¨ hrt zu den bedingten Wahrscheinlichkeiten.
4.1.6 Bedingte Wahrscheinlichkeiten Ein zuf¨alliger Versuch liefert als Ergebnis genau ein Ereignis aus der Menge der m o¨ glichen Ergebnisse E = {E1 , E2 , · · · , En }. Ein Zufallsereignis X ist dann eingetreten, wenn das bei dem Zufallsexperiment aufgetretene Elementarereignis zu X geho¨ rt.
4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung
287
H¨aufig kommt es vor, dass Wahrscheinlichkeiten von Ereignissen gesucht werden, deren Eintreffen von weiteren Bedingungen abh¨angen. Ein solcher Fall ist gegeben, wenn bei einem Wu¨ rfel die Wahrscheinlichkeit f¨ur gerade Augenzahl: (Y = {2, 4, 6}) unter der Bedingung X gesucht wird. X bedeutet, dass eine gr¨oßere Augenzahl als 2 geworfen wird (X = {3, 4, 5, 6}). Die Wahrscheinlichkeit P (Y |X) (sprich: Y unter der Bedingung X) wird bedingte Wahrscheinlichkeit oder a-posteriori Wahrscheinlichkeit genannt. Im Gegensatz hierzu wird P (X) als a-priori Wahrscheinlichkeit bezeichnet. Es gilt: P (Y |X) =
P (X, Y ) P (X ∩ Y ) = , P (X) P (X)
(4.8)
wobei P (X ∩ Y ) = P (X, Y ) die Verbundwahrscheinlichkeit von X und Y ist. Beispiel 4.6 Entsprechend dem oben genannten Fall sei X = {3, 4, 5, 6} das Ereignis, dass eine gr¨oßere Zahl als 2 geworfen wurde. Y = {2, 4, 6} ist das Zufallsereignis ”gerade Augenzahl”. F¨ur die Verbundwahrscheinlichkeit gilt hier: X ∩ Y = {4, 6}. Damit folgt fu¨ r die bedingte Wahrscheinlichkeit: P ({4}) + P ({6}) 2/6 1 P ({4, 6}) = = = , P (Y |X) = P ({3, 4, 5, 6}) P ({3}) + P ({4}) + P ({5}) + P ({6}) 4/6 2 eine gerade Augenzahl unter der Bedingung, dass eine gro¨ ßere Zahl als 2 geworfen wurde. Bei einem gleichm¨aßigen W¨urfel (P (Ei ) = 1/6) w¨urde man das Ergebnis P (Y |X) = 1/2 erhalten. Entsprechend der Gleichung (4.8) kann unter der Voraussetzung P (Y ) > 0 auch eine bedingte Wahrscheinlichkeit unter der Bedingung Y definiert werden: P (X|Y ) =
P (X ∩ Y ) . P (Y )
(4.9)
Die Wahrscheinlichkeiten P (Y |X) und P (X|Y ) sind im Allgemeinen unterschiedlich. Aus den Gln. (4.8) und (4.9) wird der Zusammenhang: P (X ∩ Y ) = P (Y |X) · P (X) = P (X|Y ) · P (Y ) = P (Y ∩ X)
(4.10)
deutlich. Diese Beziehung kann auf mehrere Ereignisse erweitert werden. Z.B. gilt bei drei Zufallsereignissen: P (A ∩ B ∩ C) = P (A|B ∩ C) · P (B ∩ C) = P (A|B ∩ C) · P (B|C) · P (C). W¨ahlt man unter n m¨oglichen Elementarereignissen eines als Bedingung X = Ei aus, dann gilt: P (Y ) =
n
P (Y |Ei ) P (Ei ).
(4.11)
i=1
F¨ur diese wichtige Beziehung ist die Bezeichnung totale Wahrscheinlichkeit u¨ blich. Von besonderer Bedeutung sind unabh¨angige Zufallsereignisse (vgl. Abschn. 4.1.5). Ein Zufallsereignis Y ist von einem Zufallsereignis X unabh¨angig, wenn P (Y |X) = P (Y ) gilt. Dann vereinfacht sich die Beziehung (4.10) zu dem Multiplikationsgesetz: P (X ∩ Y ) = P (X) · P (Y ) (Bedingung: A unabh¨agig von B).
(4.12)
Diesen Abschnitt schließt ein Beispiel (s.o.) von den Abh¨angigkeiten der Buchstaben in Texten ab.
288
4 Informationstheorie und Quellencodierung
Beispiel 4.7 F¨ur deutsche Texte gilt: P (Q) ≈ 0.0005 und P (u) ≈ 0.0422. Falsch w¨are aber zu behaupten: P (Q ∩ u) = P (Q, u) = P (Q) · P (u) ≈ 2 · 10−5 Richtig ist: P (Q, u) = P (Q) ≈ 5 · 10−4 , da nach jedem Q mit Sicherheit ein u folgen muss. P (u|Q) ist die Wahrscheinlichkeit f¨ur das Ereignis u, unter der Bedingung, dass das Ereignis Q bereits eingetreten ist. Im diesem Beispiel gilt: P (u|Q) = 1.
4.1.7 Verteilungs- und Dichtefunktion diskreter Zufallsgro¨ ßen Die Wahrscheinlichkeitsverteilungs- und Wahrscheinlichkeitsdichtefunktion sind f u¨ r das Verst¨andnis der Erwartungswerte, die f¨ur die Bewertung der Quellencodierung substantielle Bedeutung besitzen, notwendig. Eine diskrete Zufallsgro¨ ße X liegt vor, wenn die Zufallsgr¨oße X nur endlich viele Werte X = x1 , X = x2 , . . ., X = xn , mit den Wahrscheinlichkeiten P (x1 ), P (x2 ), . . ., P (xn ) annehmen kann. Dies ist selbstverst¨andlich nicht f¨ur alle Zufallsgr¨oßen denkbar. Ein Beispiel f¨ur eine nicht diskrete Zufallsgr¨oße ist z.B. das Speerwerfen, bei dem sich eine im Prinzip unendliche Vielzahl von Ergebnissen ereignen kann. Hierbei wird eine beliebige Messgenauigkeit der Wurfentfernung vorausgesetzt. Die Wahrscheinlichkeitsverteilungsfunktion Eine Verteilungsfunktion F (x) einer Zufallsgro¨ ße X gibt die Wahrscheinlichkeit an: F (xi ) = P (X ≤ xi ).
(4.13)
F (xi ) gibt die Wahrscheinlichkeit an, dass die Zufallsgro¨ ße X keinen gr¨oßeren Wert als xi annimmt. Beispiel 4.8 F¨ur die Wahrscheinlichkeitsverteilungsfunktion beim Wu¨ rfeln mit einem W¨urfel gilt: F (1) = P (X ≤ 1) = 1/6 F (2) = P (X ≤ 2) = 2/6 .. . F (n) = P (X ≤ 6) = 1
Das Bild 4.3 zeigt diese Wahrscheinlichkeitsverteilungsfunktion eines gleichm a¨ ßigen W¨urfels. F (x) 1 6 1/2 1/6 1
P (a < x ≤ b) = F (b) − F (a) - x 2 3 4 5 6
Abbildung 4.3: Verteilungsfunktion F (x) beim Wu¨ rfeln
4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung
289
Die Werte an den Sprungstellen geh¨oren jeweils zum oberen Wert von F (x). Zum Beispiel gilt: P (1 ≤ X < 2) = 1/6, d.h. solange X < 2 ist, bleibt F(x) auf dem Wert 1/6. Einige allgemeine Eigenschaften der Wahrscheinlichkeitsverteilungsfunktion k o¨ nnen aus den vorausgegangenen Betrachtungen abgeleitet werden: 1. F (x) ist eine monoton ansteigende, rechtsseitig stetige Funktion. 2. Es gilt:
lim F (x) = 1,
lim F (x) = 0.
x→∞
x→−∞
3. F¨ur alle diskreten Zufallsgr¨oßen ist F (x) abschnittsweise konstant. Die Wahrscheinlichkeitsdichtefunktion Eine Wahrscheinlichkeitsdichtefunktion p(x) ist die Ableitung der Verteilungsfunktion F (x): d F (x) dx
p(x) =
(4.14)
Das nachfolgende Beispiel beschreibt anschaulich den in Gl.(4.14) beschriebenen Zusammenhang. Beispiel 4.9 Bereits aus Beispiel 4.8 ist die Wahrscheinlichkeitsverteilungsfunktion beim W u¨ rfeln mit einem W¨urfel bekannt. Aus Gl. (4.14) erh¨alt man als Wahrscheinlichkeitsdichtefunktion die nachfolgend skizzierten Dirac-Impulse, die bereits im vorangehenden Kapitel, siehe Abschnitt 3.3 in Gl. (3.11) auf Seite 185 eingef¨uhrt wurden. F (x)
=
6 1 i=1
p(x)
=
6
6 1 i=1
6
s(x − i),
wobei s(x) =
0 f¨ur x < 0, 1 f¨ur x > 1.
δ(x − i) vgl. Gl.(3.12)
F (x) 1 6 1/2 1/6 1 p(x) 1/6 6 6 1
P (a < x ≤ b) = F (b) − F (a) - x 3 5 6 2 4 6 2
6 3
6
6
4
5
6 - x 6
Abbildung 4.4: Verteilungsfunktion und Dichtefunktion p(x) beim Wu¨ rfeln
290
4 Informationstheorie und Quellencodierung
Im Falle diskreter Zufallsgr¨oßen (vgl. Bild 4.4) ist die f¨ur die Differenzierbarkeit nach Gl. (4.14) notwendige Bedingung der Stetigkeit nicht erf¨ullt. Das Ergebnis der Differentation f¨uhrt dann auf die verallgemeinerte Funktion δ(x), wie sie im Abschnitt 3.3 eingefu¨ hrt wurde. Nachfolgend sind vier wichtige Eigenschaften der Wahrscheinlichkeitsdichtefunktion aufgef u¨ hrt. Eigenschaften der Dichtefunktion: 1. p(x) ≥ 0 f¨ur alle x
b
2. P (a < x ≤ b) =
p(x)dx = F (b) − F (a) a
∞
p(x)dx = 1
3. −∞
x
4. F (x) =
p(u)du −∞
Im folgenden Abschnitt werden die Eigenschaften der Verteilungs- und Dichtefunktion in einigen Beispielen von kontinuierlichen Zufallsgro¨ ßen verdeutlicht.
4.1.8 Verteilungs- und Dichtefunktion kontinuierlicher Zufallsgr o¨ ßen Bisher wurde davon ausgegangen, dass der Wertevorrat der Zufallsgro¨ ße x auf n < ∞ Werte beschr¨ankt ist. Im Folgenden soll ein Beispiel betrachtet werden, bei dem zwar der Wertebereich, nicht jedoch die Anzahl der auftretenden Ereignisse beschr¨ankt ist. Beispiel 4.10 Bei der Herstellung von Widersta¨ nden mit einem Sollwert von 600 Ω wird festgestellt, dass die produzierten Widerst¨ande im Bereich von 540Ω bis 660Ω gleichverteilt liegen. 1
F (x) 6
1/2 - x 0 1 120
540 p(x) 6 540
600
660
660
- x
Abbildung 4.5: F (x) und p(x) von gleichverteilten Widerst¨anden mit einem Sollwert von 600 Ω
4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung
291
Die f¨ur eine Verteilung wichtigen Parameter Mittelwert und Streuung werden im nachfolgenden Abschnitt 4.1.9 erl¨autert. F¨ur die in Bild 4.5 dargestellte Gleichverteilung ist zu erwarten, dass der Mittelwert in der Mitte der Verteilung, bei 600 Ω, liegt. Eine der wichtigsten Verteilungen, die Normalverteilung, die auch Gaussverteilung genannt wird, ist durch die nachstehende Wahrscheinlichkeitsdichtefunktion p(x) gegeben: p(x) = √
(x−m)2 1 e− 2σ2 . 2πσ
(4.15)
Die Bedeutung der Parameter m als der Mittelwert und σ 2 als die Streuung der Verteilung wird im n¨achsten Abschnitt erl¨autert. F (x) 6 1 1 2
- x m=2 √1 2πσ
6p(x) = 0.798
m=2
x
Abbildung 4.6: F (x) und p(x) bei Normalverteilung mit m = 2 und σ = 0.5 Die Verteilungsfunktion (oben im Bild 4.6) kann mit der Gl. 4.16 berechnet werden: x x 2 2 1 p(u) du = √ e−(u−m) /(2σ ) du. F (x) = 2πσ −∞ −∞
(4.16)
Die Berechnung dieses Integrals kann allerdings nur numerisch ausgewertet werden. Nachfolgend sind einige wichtige Wahrscheinlichkeitsbereiche angegeben: P (m − σ P (m − 2σ P (m − 3σ P (m − 4σ
<X <X <X <X
≤ ≤ ≤ ≤
m + σ) m + 2σ) m + 3σ) m + 4σ)
= = = =
0, 6827 0, 954 0, 9973 0, 99994
”1σ−Bereich” ”2σ−Bereich” ”3σ−Bereich” ”4σ−Bereich”
(4.17)
292
4 Informationstheorie und Quellencodierung
4.1.9 Erwartungswerte – Mittelwert und Streuung Wichtige Gr¨oßen einer statistischen Auswertung zur Bestimmung einer mo¨ glichen Verteilungsfunktion sind Mittelwert und Streuung. Der Unterschied zwischen dem Erwartungswert und dem statistischen Mittelwert soll wieder am Beispiel des Wu¨ rfelns (vgl. Beispiel 4.4) erl¨autert werden: Beispiel 4.11 Bei einem W¨urfelexperiment mit N = 10000 W¨urfen wurden folgende Ergebnisse erzielt: xi Ni
x1 = 1 1600
x2 = 2 1550
x3 = 3 1750
x4 = 4 1700
x5 = 5 1650
x6 = 6 1750
N=
6
Ni = 10000
i=1
Das arithmetische Mittel x der Augenzahl berechnet sich dann wie folgt: x=
1 (N1 · x1 + N2 · x2 + · · · + N6 · x6 ) = 3.55. 10000
Multipliziert man den Faktor N in die Klammer hinein und beru¨ cksichtigt man, dass hN (xi ) = Ni /N die relative H¨aufigkeit (vgl. Gl. 4.3) ist, so ergibt sich die folgende Formel: X=
n
xi · hN (xi ).
(4.18)
i=1
Wird nun ber¨ucksichtigt, dass im Grenzfall die relative H¨aufigkeit hN (xi ) gegen die Wahrscheinlichkeit P (xi ) (vgl. Abschn. 4.1.2) strebt, so ergibt sich fu¨ r die Berechnung des Mittelwertes als Erwartungswert erster Ordnung: m = E[X] =
n
xi · P (xi ).
(4.19)
i=1
Im Falle des W¨urfelns berechnet sich der Erwartungswert (Mittelwert) zu m = 3.5. Hieraus ist deutlich zu sehen, dass der Mittelwert kein gu¨ ltiges Ergebnis des Zufallsexperimentes sein muss. F¨ur kontinuierliche Zufallsgr¨oßen geht die Summe in Gleichung (4.19) in ein Integral u¨ ber: ∞ x · p(x) dx. (4.20) m = E[X] = −∞
2
Zur Unterscheidung zu E[X ] wird E[X] = E[X 1 ] auch als Erwartungswert 1. Ordnung bezeichnet. Die Standardabweichung σ ist die positive Wurzel der Streuung σ 2 : σ 2 = E[(X − m)2 ] =
n
(xi − m)2 · P (xi ).
(4.21)
i=1
Der Wert der Streuung σ 2 wird h¨aufig auch als Varianz bezeichnet. F¨ur kontinuierliche Zufallsgr¨oßen geht die Summe in Gleichung (4.21) in ein Integral u¨ ber: ∞ σ 2 = E[(X − m)2 ] = (xi − m)2 · p(x) dx. (4.22) −∞
4.2 Grundmodell einer Informations¨ubertragung
293
Die Varianz kann auch einfacher durch die Verwendung des Erwartungswertes zweiter Ordnung E[X 2 ] berechnet werden: σ 2 = E[(x − m)2 ]
= E[X 2 − 2mx + m2 ], = E[X 2 ] − E[2mx] + E[m2 ], = E[X 2 ] − 2mE[X] + m2 , = E[X 2 ] − m2 .
Der Erwartungswert zweiter Ordnung E[X 2 ] berechnet sich gem¨aß der Gleichungen (4.19) und (4.20) zu: ∞ n E[X 2 ] = x2i · P (xi ) bzw. E[X 2 ] = x2 · p(x) dx. (4.23) −∞
i=1
Der Erwartungswert zweiter Ordnung wird auch als das zweite Moment der Zufallsgr o¨ ße X bezeichnet.
¨ 4.2 Grundmodell einer Informationsubertragung Im Rahmen der Informationstheorie wird unter einer Nachrichtenquelle ein Algorithmus verstanden, der aus einer Menge von m¨oglichen Zeichen, dem Nachrichtenvorrat X = {x1 , x2 , . . . , xn }, ein bestimmtes Zeichen xi mit einer Wahrscheinlichkeit P (xi ) ausw¨ahlt. Dieses Zeichen wird anschließend zu einem bestimmten Ort, der Nachrichtensenke, gesendet. Quelle und Senke sind u¨ ber den Nachrichtenkanal, bestehend aus dem Sender, dem Empf¨anger sowie dem eigentlichen ¨ Ubertragungskanal verbunden, wie im nachstehenden Bild dargestellt. Quelle - Codierer
- gest¨orter Kanal
- Decodierer - Sinke
Die Aufgabe des Senders liegt in der Umwandlung der Zeichen in geeignete Signale und enth¨alt ¨ somit alle hierf¨ur notwendigen Einrichtungen wie z.B. einen Codierer (fu¨ r die Ubertragung diskreter Nachrichten). Der Empf¨anger ist das Gegenst¨uck zum Sender. Er wandelt die empfangenen Signale in die urspr¨unglichen Zeichen zur¨uck. Die Signale sind hierbei die physikalische Darstellung der Nachrichten. Das Modell des Nachrichtenkanals besteht aus der Gesamtheit aller zur ¨ ¨ Ubertragung notwendigen Komponenten. Der physikalische Ubertragungskanal hingegen ist der ¨ Ubertragungsweg wie z.B. eine Fernmeldeleitung oder eine Funkverbindung. Eine wichtige Eigenschaft des Kanals sind stochastisch auftretende Sto¨ rungen. ¨ Bei einer sinnvollen Ubertragung unter Verwendung von Optimalcodes muss vorausgesetzt werden, dass ein st¨orungsfreier Kanal zur Verf¨ugung steht, da sonst die St¨orungen zu fehlerhaft empfangenen Nachrichten f¨uhren w¨urden. Treten St¨orungen innerhalb des Kanals auf, muss die Information der Quelle durch einen Kanalcodierer geschu¨ tzt werden.
294
4 Informationstheorie und Quellencodierung
4.2.1 Diskrete Informationsquellen Unter der Annahme, dass der Zeichenvorrat einer Quelle X endlich ist und durch die Menge der Zeichen: X = {x1 , x2 , . . . , xn } gekennzeichnet ist, handelt es sich um eine diskrete Informationsquelle. Die Modellierung der Quelle zur Informationserzeugung soll nun als zuf¨alliger Prozess aufgefasst werden. Das bedeutet, dass die Informationsquelle das zu sendende Zeichen xi zuf¨allig aus dem Zeichenvorrat ausw¨ahlt. Somit entsteht die Wahrscheinlichkeit P(xi ), dass gerade das Zeichen xi (i = 1,2,. . . ,n) gesendet wird. Wir erhalten nun eine Quelle X, die durch das Wahrscheinlichkeitsfeld: X=
x1 , P (x1 ),
x2 , P (x2 ),
... ...
xn P (xn )
mit
P(xi ) = 1
(4.24)
gekennzeichnet ist. Sendet die Quelle im zeitlichen Abstand T ein Zeichen aus, so entsteht eine Folge von Zeichen am Quellenausgang. Zwei F¨alle werden hierbei unterschieden: 1. Die Wahrscheinlichkeiten P(xi ) sind f¨ur jeden Zeitpunkt T gleich groß 2. Die Wahrscheinlichkeiten P(xi ) sind zeitabh¨angig. Trifft die erste M¨oglichkeit zu – der zeitunabh¨angige Fall – dann spricht man von einer stationa¨ ren Informationsquelle. Ein einfaches Beispiel f¨ur eine station¨are Quelle ist ein W¨urfel. Die Wahrscheinlichkeiten eine bestimmte Zahl zu w¨urfeln, sind zu allen Zeitpunkten gleich groß: X=
x1 1/6
x2 1/6
x3 1/6
x4 1/6
x5 1/6
x6 1/6
.
Quellen, die die Zeichen unabh¨angig voneinander aussenden, werden als statistisch unabh¨angige Quellen oder auch als Quellen ohne Ged¨achtnis bezeichnet. Eine unabh¨angige Quelle, die z.B. als Zeichenvorrat die Buchstaben a - z beinhaltet (vgl. Bsp. 4.19), ist also in der Lage, einen Text in der folgenden Art und Weise auszugeben: rein asen aeipoent chenq ueabtn mei. Bei dieser Buchstabenfolge kann jedoch nicht von einem “deutschen Text“ gesprochen werden, obwohl er der Statistik in deutschen Texten entspricht. Die Buchstabenkombinationen wurden allerdings voneinander unabh¨angig gew¨ahlt. Abh¨angigkeiten, dass z.B. auf den Buchstaben Q immer der Buchstabe u folgt, wurden nicht beru¨ cksichtigt. Die Wahrscheinlichkeit, dass in zwei aufeinanderfolgenden Zeitpunkten die Zeichenfolge x i und xj auftritt, kann bei Quellen ohne Ged¨achtnis (vgl. Gleichung 4.7) wie folgt ermittelt werden: P (xi , yj ) = P (xi ) · P (yj )
4.2 Grundmodell einer Informations¨ubertragung
295
Dies l¨asst sich entsprechend f¨ur mehrere Zeichen, z.B. drei xi , xj und xk erweitern: P (xi , yj , xk ) = P (xi ) · P (yj ) · P (yk ) Soll nun ein deutscher Text von der Quelle ausgegeben werden, muss eine abh¨angige Informationsquelle bzw. eine Quelle mit Ged¨achtnis verwendet werden. Hierbei werden zus¨atzlich zu den Wahrscheinlichkeiten P(xi ) noch die bedingten Wahrscheinlichkeiten P(yj |xi ) (vgl. Gleichung 4.8) ber¨ucksichtigt. Hierunter versteht man die Wahrscheinlichkeit, dass das Zeichen x j auftritt, wenn das Zeichen xi zuvor aufgetreten ist.
4.2.2 Der Entscheidungsgehalt Eine Informationsquelle ohne Ged¨achtnis bestehend aus n gleichwahrscheinlichen Zeichen, wird wie folgt dargestellt: X=
x2 . . . xn x1 1/n 1/n . . . 1/n
F¨ur diesen Sonderfall kann der Informationsgehalt H(X) der Quelle X einfach definiert werden. Definition 4.1 Der Informationsgehalt einer Menge von n gleichwahrscheinlichen Zeichen aus einem Zeichenvorrat X betr¨agt: H(X) = ld n [ bit],
wobei gilt: ld x =
ln x . ln 2
Der Informationsgehalt bei gleichwahrscheinlichen Zeichen wird h¨aufig auch als Entscheidungsgehalt H0 = ld n bezeichnet. Sp¨ater wird noch gezeigt, dass der Wert f¨ur H0 der Maximalwert der Entropie ist, den eine Quelle besitzen kann. Die Fragestrategie Eine Begr¨undung f¨ur die Definition des Entscheidungsgehaltes l¨asst sich leicht angeben, wenn die Gesamtzahl der Zeichen eine Zweierpotenz ist. Drei Quellen werden hierf u¨ r betrachtet: • Quelle 1 besteht aus zwei gleichwahrscheinlichen Zeichen. Hieraus folgt, dass diese Quelle einen Informationsgehalt von H(X) = ld 2 = 1 bit besitzt. • Quelle 2 besteht aus vier gleichwahrscheinlichen Zeichen. Hieraus folgt, dass diese Quelle einen Informationsgehalt von H(X) = ld 4 = 2 bit besitzt. • Quelle 3 besteht aus acht gleichwahrscheinlichen Zeichen. Hieraus folgt, dass diese Quelle einen Informationsgehalt von H(X) = ld 8 = 3 bit besitzt.
In bin¨arer Schreibweise sehen die Zeichen der Quellen wie folgt aus:
296
4 Informationstheorie und Quellencodierung Quelle1 a:0 b:1
Quelle2 a:00 b:01 c:10 d:11
Quelle3 a:000 b:001 c:010 d:011 e:100 f:101 g:110 h:111
Stellen wir einmal die Frage, wieviele Ja/Nein Antworten sind in einem Ratespiel notwendig, um eine Zahl zwischen Null und Sieben zu bestimmen, die willku¨ rlich ausgew¨ahlt wurde. Die oben angegebenen Dualzahlen k¨onnen durch eine einfache Fragestrategie abgebildet werden. Quelle 3 0
a:000
1
b:001
0
c:010
1
d:011
0
e:100
1
f:101
0
g:110
1
h:111
0 Quelle 2 0
Quelle 1
0 a:00
0
0
a:0
1
b:1
1 1
b:01
0
c:10 0
1 d:11
1
1 1
Frage:
6 1
6 1
6 2
6 1
6 2
6 3
Abbildung 4.7: Darstellung der Fragestrategie mit Hilfe von Codeb¨aumen
1. Zuerst stellen wir die Frage, ob die Zahl gr¨oßer als Drei ist. Durch diese Frage wird die zu Grunde gelegte Zahlenmenge halbiert. Die Antwort sei ein Ja! 2. Die verbliebene Zahlenmenge {4, 5, 6, 7} wird wieder halbiert, so dass die zweite Frage lautet: Ist die Zahl gr¨oßer als F¨unf? Die Antwort sei ein Nein! 3. Die verbliebene Zahlenmenge {4, 5} wird wieder halbiert, so dass die dritte Frage lautet: Ist die Zahl gr¨oßer als Vier? Die Antwort sei ein Ja!
4.2 Grundmodell einer Informations¨ubertragung
297
Damit ist die gesuchte Zahl zu F¨unf bestimmt, denn da die Zahl nicht gr¨oßer als F¨unf, aber gr¨oßer als Vier ist, muss sie F¨unf sein! Analog hierzu kann man herleiten, dass bei Quelle 2 insgesamt 2 Fragen ben¨otigt werden, um das richtige Zeichen zu ermitteln. Im Codebaum der Abbildung 4.7 kann diese Fragestrategie besser veranschaulicht werden. Mit jeder Frage wird ein bit der bin¨aren Darstellung der Zeichen abgefragt und damit die verbleibende Zeichenmenge halbiert. Wird diese Fragestellung in gleicher Art und Weise fortgef u¨ hrt, erh¨alt man schließlich das gesendete Zeichen. Beispiel 4.12 Eine besondere Denksportaufgabe ist das Herausfinden einer falschen Eurom u¨ nze mit Hilfe einer Balkenwaage, die sich innerhalb von 12 gleich aussehenden M u¨ nzen durch ihr Gewicht unterscheidet. Die falsche M¨unze ist entweder leichter oder schwerer als die 11 anderen M¨unzen. Zu unterscheiden sind damit insgesamt 24 Mo¨ glichkeiten, denn jede der 12 M¨unzen k¨onnte sowohl leichter als auch schwerer sein. Die Balkenwaage unterscheidet mit jeder W¨agung drei M¨oglichkeiten. W¨are das Problem dahingehend eingegrenzt, dass nur noch drei M¨unzen in Frage k¨amen, von denen die gesuchte schwerer ist, so w¨urde eine Wiegung ausreichen. Zwei der drei Mu¨ nzen werden dann auf die Waage gelegt, eine wird nicht gewogen. Neigt sich die Waage, so ist die Gesuchte Mu¨ nze die, auf der geneigten Seite. Bleibt die Waage im Gleichgewicht, so ist die nicht gewogene Mu¨ nze die gesuchte. Unser Problem muss also mit 3 Wiegungen l¨osbar sein, da damit 3 · 3 · 3 = 27 Merkmale unterscheidbar sind. Wie dies zu erreichen ist, bleibt aber zuna¨ chst unklar. Gerne wird geraten, dass zun¨achst jeweils sechs M¨unzen auf jede Seite der Waage gelegt werden. Dies ist aber i.d.R. nicht zielf¨uhrend, denn nachdem sich die Waage geneigt hat, verbleiben von den urspr u¨ nglich 24 M¨oglichkeiten noch 12. Entweder ist die gesuchte Mu¨ nze auf der geneigten Seite und schwerer oder die gesuchte M¨unze ist auf der nicht geneigten Seite und leichter. Richtig ist, entsprechend der Wertigkeit der Balkenwaage, die 12 Mu¨ nzen in drei Pakete je vier M¨unzen aufzuteilen und je zwei dieser Pakete mit einander zu wiegen. Bleibt die Wage im Gleichgewicht, so ist die gesuchte M¨unze bei den 4 nicht gewogenen und kann sowohl leichter als auch schwerer sein. Dies sind acht M¨oglichkeiten. Im Falle der Neigung der Waage, ist die gesuchte M¨unze auf der geneigten Seite und schwerer, oder auf der nicht geneigten Seite und leichter. Dies sind wieder acht M¨oglichkeiten, die mit den verbliebenen zwei Wiegungen unterscheidbar sind, denn damit k¨onnen ja noch 3 · 3 = 9 Merkmale unterschieden werden. Beispiel 4.13 Der Entscheidungsgehalt einer gew¨urfelten Zahl betr¨agt H(X) = ld 6 = 2.585 bit. Bei einer Kombination, die durch W¨urfeln mit drei W¨urfeln entsteht gilt: H(X) = ld 63 = 3ld 6 = 7.75 bit ¨ Uberlegt man sich, dass bei einer Fragestrategie 8 bit beno¨ tigt werden, so wird deutlich, dass 28 − 63 = 256 − 216 = 40 Zahlen unbenutzt bleiben. Beispiel 4.14 Ein SW-Fernsehbild mit 625 Zeilen und einem Seitenverh a¨ ltnis von 4:3 kann je Bildpunkt (BP) 40 Helligkeitsstufen aufweisen. Fragen wir wieder nach dem Entscheidungsgehalt eines Fernsehbildes, so stellen wir fest: 625 · 625 ·
4 = 521000 BP 3
je BP H0 = ld 40 = 5.322 bit =⇒ 521000 · 5.322 = 2.77 · 106 bit/Bild
298
4 Informationstheorie und Quellencodierung
4.2.3 Der mittlere Informationsgehalt – die Entropie Es wird davon ausgegangen, dass eine Quelle mit dem Wahrscheinlichkeitsfeld X vorliegt: X
=
x1 x2 ... P (x1 ) P (x2 ) . . .
xn P (xn )
mit
n
P (xi ) = 1.
i=1
Bei einer solchen Quelle wird gem¨aß der DIN 44301 einem einzelnen Quellenzeichen ein Informationsgehalt zugeordnet: Definition 4.2 Jedes Zeichen xi einer station¨aren Informationsquelle besitzt abh¨angig von seiner Auftrittswahrscheinlichkeit P (xi ) den Informationsgehalt: H(xi ) = ld
1 = ld P (xi )−1 = −ld P (xi ) ≥ 0. P (xi )
(4.25)
Eine direkte Folgerung aus dieser Definition ist, dass der Wert jedes H(xi ) niemals negativ werden kann, da gilt: 0 ≤ P (xi ) ≤ 1. Aufgrund der Gleichung (4.25) besitzen selten auftretende Zeichen (P (xi ) klein) einen großen Informationsgehalt und h¨aufig auftretende Zeichen (P (xi ) groß) einen kleinen Informationsgehalt. Bei gleichwahrscheinlichen Zeichen (P (Xi ) = 1/n f¨ur i = 1, 2, . . . , n) entspricht H(Xi ) dem Entscheidungsgehalt H0 = ld n. Diese Beschreibung der Quelle ist jedoch nur fu¨ r den Fall der Gleichverteilung ausreichend. Sind die Zeichen nicht gleichverteilt, so ist es besser, den Mittelwert u¨ ber H(xi ) zu bilden. Nach Gleichung (4.19) wird der Mittelwert wie folgt berechnet: E[H(x)] = H(X)
= = = −
n i=1 n i=1 n
H(xi ) · P (xi ), P (xi ) · ld
1 , P (xi )
P (xi ) · ld P (xi )
(4.26) [bit].
i=1
H(X) wird als mittlerer Informationsgehalt oder auch als Entropie der Nachrichtenquelle bezeichnet. F¨ur den mittleren Informationsgehalt H(X) kann eine untere und obere Grenze angegeben werden. Es gilt: 0 ≤ H(X) ≤ ld n = H0 . F¨ur den Sonderfall der Gleichwahrscheinlichkeit aller Zeichen, P (xi ) = 1/n, folgt: H(X) =
n n 1 1 ld n = ld n 1 = ld n = H0 (X). n n i=1 i=1
Als weitere Gr¨oße soll die Redundanz R angesprochen werden. Sie ergibt sich aus der Differenz von Entscheidungsgehalt und Entropie: R = H0 − H(X).
(4.27)
4.2 Grundmodell einer Informations¨ubertragung
299
Mit Redundanz wird hier der Unterschied zwischen dem tats¨achlichen mittleren Informationsgehalt H(X) und dem Informationsgehalt H0 bei gleichwahrscheinlichem Auftreten der Zeichen xi bezeichnet. Die relative Redundanz ergibt sich, wenn man R auf den Entscheidungsgehalt H 0 bezieht: (4.28) r = R/H0 = 1 − H/H0 . Beispiel 4.15 Eine Quelle X sei durch folgendes Wahrscheinlichkeitsfeld gegeben: A B C D E F G X = . 1/4 1/4 1/8 1/8 1/8 1/16 1/16 Der Informationsgehalt H(xi ) der einzelnen Zeichen betr¨agt: 1 1 = ld 1 = ld 4 = 2 bit, P (A) 4 1 1 = ld 1 = ld 8 = 3 bit, H(C) = H(D) = H(E) = ld P (C) 8 1 1 = ld 1 = ld 16 = 4 bit. H(F ) = H(G) = ld P (F ) 16 H(A) = H(B)
= ld
Wird hieraus der Mittelwert berechnet, so ergibt sich die Entropie: H(X) =
n
P (xi )H(xi ) = 2 ·
i=1
1 1 1 · 2 bit + 3 · · 3 bit + 2 · · 4 bit = 2.625 bit. 4 8 16
Der Entscheidungsgehalt H0 (X) = ld 7 betr¨agt 2.807 bit und ist wie erwartet gr¨oßer als H(X). A je 2 Fragen B C D
je 3 Fragen
E F je 4 Fragen G Abbildung 4.8: Fragestrategie bei nicht gleichwahrscheinlichen Zeichen Die mittlere Fragezahl Fm berechnet sich aus: Fm
=
7 i=1
fi · P (fi ) = 2 · 2 ·
1 1 1 +3·3· +2·4· = 2.625 bit. 4 8 16
Dieses Beispiel zeigt, dass die mittlere Fragezahl Fm identisch der Entropie H(X) sein kann. Dies kann aber nur gelten, wenn die Wahrscheinlichkeiten inverse Zweierpotenzen sind: P (x i ) = 2−j .
300
4 Informationstheorie und Quellencodierung
4.2.4 Eigenschaften der Entropie Zun¨achst wird eine Quelle mit nur zwei Zeichen und den dazu geho¨ rigen Wahrscheinlichkeiten P(x1 ) und P(x2 ) betrachtet: x1 x2 X= mit P (x1 ) + P (x2 ) = 1. P (x1 ) P (x2 ) Durch die Eigenschaft P (x1 ) + P (x2 ) = 1 gelingt es, die Wahrscheinlichkeit P (x2 ) mittels der Wahrscheinlichkeit P (x1 ) auszudr¨uchen. Die Entropie ermittelt sich aus: H(X) = −
2
P (xi ) · ld P (xi )
= −P (x1 ) · ld P (x1 ) − P (x2 ) · ld P (x2 ),
i=1
= −P (x1 ) · ld P (x1 ) − (1 − P (x1 )) · ld (1 − P (x1 )). Es sollen nun die Sonderf¨alle P (x1 ) = 0 und P (x1 ) = 1 betrachtet werden. In beiden F¨allen kann man erkennen, dass der undefinierte Ausdruck: 0 · ld 0 auftritt, denn der Logarithmus strebt gegen −∞. Mittels der Grenzwertbetrachtung nach der Regel von L’Hospital ergibt sich folgendes Ergebnis: lim x · ld x = lim
x→0
x→0
ld x 1 x
= =
lim
x→0
lim
x→0
ln x k d dx d x−1 dx
,
k/x = lim (−k · x) = 0. x→0 −1/x2
(4.29)
Daraus l¨asst sich folgern, dass sowohl bei einem sicher auftretenden Ereignis xi mit der Wahrscheinlichkeit P (xi ) = 1 als auch bei einem unwahrscheinlich auftretenden Ereignis mit der Wahrscheinlichkeit P (xi ) = 0, die Entropie H(xi ) = 0 ist. Als n¨achstes soll untersucht werden, unter welchen Bedingungen H(X) einen Maximalwert annimmt. Vereinfacht schreiben wir: P (x1 ) = P (x) und P (x2 ) = 1 − P (x). Damit erhalten wir f¨ur die Entropie: H(X) = −P (x) · ld P (x) − (1 − P (x)) · ld (1 − P (x)). Wird diese Gleichung unter Beachtung des Zusammenhanges ld x = k · ln x nach P (x) differenziert, so erh¨alt man: dH(X) dP (x)
=
−ld P (x) + ld (1 − P (x)) = 0,
⇒
ld P (x) = ld (1 − P (x)),
⇒
P (x) = (1 − P (x)) ⇒ P (x) = 1/2.
Es zeigt sich, dass H(X) seinen Maximalwert bei P (x) = 0.5 erreicht. Das Maximum besitzt den Wert: H(X)max = −2 [P (x) · ld P (x)]P (x)=0.5 = 1. Mit den nunmehr bekannten drei Werten der Entropiefunktion H(X) bei P (x) = 0, P (x) = 1 und bei P (x) = 0.5 kann ohne weitere Schwierigkeiten eine grafische Darstellung in Abbildung 4.9 angegeben werden.
4.3 Verbundquellen
301
H(x)
6
1
0
0.5
1
P (x)
Abbildung 4.9: Entropie einer Bin¨arquelle in Abh¨angigkeit von P (x) Die oben genannten Eigenschaften der Entropie ko¨ nnen auf Quellen mit n Zeichen erweitert werden: n H(X)max = − P (xi ) · ld P (xi ) = H0 = ld n. (4.30) P (x)=n−1
i=1
Allgemein gilt, dass eine Quelle mit n Zeichen genau dann maximale Entropie besitzt, wenn alle Zeichen gleichwahrscheinlich sind.
4.3 Verbundquellen Besteht eine Quelle Z aus mehreren Teilquellen X, Y, . . ., so sprechen wir von einer Verbundquelle. Zur Erl¨auterung soll zun¨achst von zwei Teilquellen ausgegangen werden, die durch ihre Wahrscheinlichkeitsfelder beschrieben sind. Quelle X X=
Quelle Y
x1 x2 ... P (x1 ) P (x2 ) . . .
xm P (xm )
Y =
y1 y2 ... P (y1 ) P (y2 ) . . .
=
~ Verbundquelle Z Z=
z1 = x 1 y 1 P (z1 )
z2 = x 2 y 1 P (z2 )
... ...
zm·n = xm yn P (zm·n )
Abbildung 4.10: Modell einer Verbundquelle
yn P (yn )
302
4 Informationstheorie und Quellencodierung
Die Verbundquelle Z besteht aus Elementen zk , die durch alle m¨oglichen Kombinationen der Elemente der Quellen X und Y gebildet werden ko¨ nnen. Besitzt die Quelle X m Elemente und die Quelle Y n Elemente, so betr¨agt die Anzahl der Elemente von Z m · n. F¨ur die Entropie H(Z) der Verbundquelle gilt: H(Z)
= − = −
m·n
P (zν ) · ld P (zν ),
ν=1 m n
(4.31)
P (xi , yj ) · ld P (xi , yj ) = H(X, Y ).
(4.32)
i=1 j=1
F¨ur den allgemeinen Verbundfall mit k Quellen X1 , X2 , . . . , Xk , die n1 , n2 , . . . , nk Elemente besitzen, gilt entsprechend der Gleichung (4.32): H(Z)
= H(X1 , X2 , . . . , Xk ), nk n1 n2 ... P (xi1 , xi2 . . . , xik ) ld P (xi1 , xi2 . . . , xik ). = − i1 =1 i2 =1
(4.33)
ik =1
Beispiel 4.16 Eine Nachrichtenquelle besteht aus den statistisch unabh a¨ ngigen Teilquellen X und Y . Diese werden durch gleiche Wahrscheinlichkeitsfelder dargestellt: x1 = a x2 = b x3 = c y1 = a y 2 = b y 3 = c X= , Y = . 1/3 1/3 1/3 1/3 1/3 1/3 Da nach der Voraussetzung X und Y statistisch unabha¨ ngig sind, gilt nach Gleichung (4.7): P (xi , yj ) = P (xi ) · P (yj ). F¨ur die Verbundquelle folgt: aa ab ac ba bb bc ca cb cc Z= . 1/9 1/9 1/9 1/9 1/9 1/9 1/9 1/9 1/9 F¨ur die Verbundentropie gilt: 1 1 · ld = ld 9 = 3.17 bit, 9 9 = H(X, Y ) = H(X) + H(Y ) = ld 3 + ld 3 = ld 9 = H0 (Z).
H(Z) = H(X, Y ) = −9 ·
Beispiel 4.17 Eine Nachrichtenquelle besteht wiederum aus zwei Teilquellen X und Y . Die Verbundwahrscheinlichkeiten sind in einer Matrixanordnung dargestellt: ⎛ ⎞ y1 = a y 2 = b y 3 = c 3 3 ⎜ x1 = a 0 4/15 1/15 ⎟ ⎟ mit P (xi , yj ) = 1. [P (xi , yj )] = ⎜ ⎝ x2 = b 8/27 ⎠ 8/27 0 x3 = c
1/27
4/135
1/135
i=1 j=1
Aus dieser Anordnung findet man z.B. die Wahrscheinlichkeit fu¨ r P (x = b, Y = a) = 8/27, indem der Schnittpunkt aus der zweiten Zeile und der ersten Spalte gebildet wird. F u¨ r die Verbundquelle folgt: aa ab ac ba bb bc ca cb cc Z= . 0 4/15 1/15 8/27 8/27 0 1/27 4/135 1/135
4.3 Verbundquellen
303
F¨ur die Verbundentropie gilt: H(X, Y ) = −
3 3
P (xi , yj ) · ld P (xi , yj ),
i=1 j=1
1 8 27 1 4 135 1 4 15 ld + ld 15 + 2 · ld + ld 27 + ld + ld 135, 15 4 15 27 8 27 135 4 135 = 2.22 bit. =
Bei der Rechnung wurde das Gesetz: − log x = log(1/x) verwendet. Zur Berechnung der Entropien der Teilquellen ist es erforderlich, die Wahrscheinlichkeitsfelder der Teilquellen zu bestimmen. Aus den Verbundwahrscheinlichkeiten lassen sich die Wahrscheinlichkeiten P (x i ) und P (yj ) bestimmen: 3 3 P (xi , yj ) und P (yj ) = P (xi , yj ). (4.34) P (xi ) = j=1
i=1
Die Wahrscheinlichkeiten P (xi ) bestimmen sich gem¨aß der Gleichung (4.34) als Zeilensumme und P (yj ) als Spaltensumme aus der Matrix der Verbundwahrscheinlichkeiten [P (xi , yj )]: y1 = a y 2 = b y 3 = c x1 = a x2 = b x3 = c , Y = . X= 1/3 16/27 10/135 1/3 16/27 10/135 Damit kann nun die Entropie H(X) = H(Y ) = 1.287 bit berechnet werden. Im Gegensatz zu Beispiel 4.16 kann festgestellt werden, dass hier gilt: H(X, Y ) = 2.22 bit < H(X) + H(Y ) = 2.574 bit. Der Grund hierf¨ur liegt in der statistischen Abh¨angigkeit der Quellen X und Y .
4.3.1 Bedingte Entropien Im Rahmen dieses Kapitels folgt eine der wenigen Herleitungen, die einen allgemeinen Zusammenhang zwischen den Quellentropieen und der Verbundentropie ergeben. F¨ur den Zusammenhang der Wahrscheinlichkeiten (vgl. Gleichung 4.8) gilt: = P (xi ) · P (yj |xi ) = P (yj ) · P (xi |yj ).
P (xi , yj )
Wird dies in die Beziehung (4.32) der Verbundentropie eingesetzt, so folgt: H(X, Y ) = − = − = − = −
m n i=1 j=1 m n i=1 j=1 m n
P (xi , yj ) · ld P (xi , yj ), P (xi ) · P (yj |xi ) · ld [P (xi ) · P (yj |xi )], P (xi ) · P (yj |xi ) · (ld P (xi ) + ld P (yj |xi )),
i=1 j=1 m
n
i=1
j=1
P (xi )ld P (xi )
=H(X)
P (yj |xi ) −
=1
m i=1
P (xi )
n j=1
P (yj |xi )ld P (yj |xi ).
:=H(Y |X)
304
4 Informationstheorie und Quellencodierung
Mit dieser so definierten bedingten Entropie H(Y |X) folgt fu¨ r den gesuchten Zusammenhang: H(X, Y ) = H(X) + H(Y |X).
(4.35)
Aus Symmetriegr¨unden gilt auch: H(X, Y ) = H(Y ) + H(X|Y ).
(4.36)
Der formelhafte Zusammenhang in den Gleichungen (4.35) und (4.36) kann durch das einfache Mengenbild 4.11 dargestellt werden. H(X, Y )
H(X)
H(X|Y )
H(Y )
H(Y |X)
Abbildung 4.11: Verbundentropie und bedingte Entropie In Bild 4.11 entspricht der Entropie H(X) der linke Kreis mit der horizontalen Schraffur und H(Y ) der rechte Kreis mit der vertikalen Schraffur. Der Verbundentropie H(X, Y ) entspricht die schraffierten Gesamtfl¨ache, wobei ber¨ucksichtigt werden muss, dass die in der Mitte befindliche Ellipse nicht doppelt gez¨ahlt wird. Im Allgemeinen setzt sich demnach H(X, Y ) nicht aus der Summe von H(X) und H(Y ) zusammen. Anschaulich wird aus Bild 4.11 deutlich, dass die Summe von H(X) und H(Y ) nie kleiner sein kann als H(X, Y ): H(X) ≤ H(X, Y ) ≤ H(X) + H(Y ).
(4.37)
Das nachfolgende Beispiel soll den abstrakten Sachverhalt erl¨autern. Beispiel 4.18 Eine Nachrichtenquelle besteht wiederum aus zwei Teilquellen X und Y . F u¨ r das Wahrscheinlichkeitsfeld der Quelle Y gilt: y1 = a y 2 = b y 3 = c y 3 = c . Y = 1/4 1/4 1/4 1/4 Die Verbundwahrscheinlichkeiten in der Matrixanordnung sind nur teilweise bekannt: ⎞ ⎛ y1 = a y 2 = b y 3 = c y 4 = d ⎟ ⎜ 1/8 1/8 1/8 1/8 ⎟ ⎜ x1 = a ⎟ ⎜ [P (xi , yj )] = ⎜ x2 = b ⎟. ? 0 ? ? ⎟ ⎜ ⎝ x3 = c ? ? ? 1/8 ⎠ 1/8 0 1/8 ? x4 = d
4.3 Verbundquellen
305
Die Fragezeichen entsprechen hierbei nicht bekannten Wahrscheinlichkeiten. Aus den vorgegebenen Wahrscheinlichkeiten k¨onnen die fehlenden Wahrscheinlichkeiten bestimmt werden, da bekannt ist, dass f¨ur jede Spaltensumme von [P (xi , yj )] gilt: P (yj ) =
4
P (xi , yj ) =
i=1
1 . 4
F¨ur die erste Spalte gilt beispielsweise: P (y1 ) = 18 + P (x2 , y1 ) + P (x3 , y1 ) + 18 = 14 . Hieraus folgt, dass P (x2 , y1 ) = P (x3 , y1 ) = 0 gilt, da die Summe 1/8 + 1/8 bereits ein 1/4 ergibt. Die anderen Spalten werden auf a¨ hnliche Weise erg¨anzt: ⎛ ⎞ y1 = a y 2 = b y 3 = c y 4 = d ⎜ ⎟ 1/8 1/8 1/8 1/8 ⎟ ⎜ x1 = a ⎜ ⎟ =⇒ [P (xi , yj )] = ⎜ x2 = b ⎟. 0 0 0 0 ⎜ ⎟ ⎝ x3 = c 0 1/8 0 1/8 ⎠ 1/8 0 1/8 0 x4 = d Die P (xi ) bestimmen sich jetzt aus der Zeilensumme, so dass das Wahrscheinlichkeitsfeld der Quelle X bestimmt ist: X=
x1 = a x2 = b x3 = c x3 = c 1/2 0 1/4 1/4
.
Nun k¨onnen alle Entropien bestimmt werden: 1 1 1 1 H(X) = − ld − 2 ld = 1.5 bit, 2 4 4
H(Y ) = 2 bit.
F¨ur die Verbundentropie gilt: H(X, Y ) = −
4 4
P (xi , yj ) · ld P (xi , yj ),
i=1 j=1
1 1 1 = −8 · ld = 8 · ld 8 = ld 8 = 3 bit. 8 8 8 F¨ur die bedingten Entropien folgt: H(Y |X) = H(X, Y ) − H(X) = 3 bit − 1.5 bit = 1.5 bit, H(X|Y ) = H(X, Y ) − H(Y ) = 3 bit − 2.0 bit = 1.0 bit.
4.3.2 Die Markhoff’sche Entropie Bei ged¨achtnislosen Quellen werden die nacheinander auftretenden Zeichen unabh¨angig voneinander gesendet. Quellen mit Ged¨achtnis senden Zeichen, die Abh¨angigkeiten aufweisen. Zu dieser Quellenart geh¨oren Quellen, bei denen ein innerer Zusammenhang, wie z.B. bei Sprache oder
306
4 Informationstheorie und Quellencodierung
oder Texten, besteht. Das Wahrscheinlichkeitsfeld X und ebenso die Entropie H(X) einer solchen Quelle sind wieder durch die Zeichen xi und deren Wahrscheinlichkeiten beschrieben: n x1 , x2 , ... xn P (xi ) ld P (xi ). X= , H(x) = − P (x1 ) P (x2 ) . . . P (xn ) i=1 Sendet diese Quelle k-Zeichen hintereinander aus, so l¨asst sich dieser Prozess als Verbundquelle, bestehend aus k Quellen, die das gleiche Wahrscheinlichkeitsfeld besitzen, modellieren. Die Gesamtentropie dieser so erhaltenen Verbundquelle Z kann gem¨aß der Gleichung (4.33) berechnet werden: H(Z)
= H(X1 , X2 , . . . , Xk ) = n n n ... P (xi1 , xi2 . . . , xik ) ld P (xi1 , xi2 . . . , xik ). = − i1 =1 i2 =1
(4.38)
ik =1
Da im Unterschied zu ged¨achtnislosen Quellen, bei Quellen mit Ged¨achtnis Abh¨angigkeiten zwischen aufeinanderfolgenden Zeichen bestehen, kann man zur Ermittlung der Entropie der Verbundquelle zwei Sonderf¨alle unterscheiden. HM 6 (bit/Sym.)
4 3 2 Grenzwert HM = 1,6 bit
1
1
2
5
50
k
Abbildung 4.12: Markhoff’sche Entropie bei deutschem Text in Abh¨angigkeit von der L¨ange k der betrachteten Zeichenfolge Sonderfall A Sind die Zeichen nicht voneinander abh¨angig, so gilt: H(X1 , X2 , . . . , Xk ) = k · H(X). Sonderfall B Sind die Zeichen vollst¨andig voneinander abh¨angig, so gilt: H(X1 , X2 , . . . , Xk ) = H(X).
4.3 Verbundquellen
307
Die Gesamtentropie liegt somit im Allgemeinen zwischen den beiden Grenzwerten: H(x) < H(X1 , X2 , . . . , Xk ) < k · H(x) .
(4.39)
Als Markoff’sche Entropie HM (x) bezeichnet man den Anteil der Gesamtentropie, der auf ein Zeichen entf¨allt: (4.40) HM (x) = 1/k · H(X1 , X2 , . . . , Xk ) Beispiel 4.19 In der nachstehenden Tabelle sind die Wahrscheinlichkeiten P (x i ) f¨ur das Auftreten der Buchstaben xi , einschließlich des Zwischenraums (blank) angegeben. xi
P (xi )
xi
P (xi )
xi
P (xi )
a
0.0549
j
0.0028
s
0.0646
b
0.0138
k
0.0071
t
0.0536
c
0.0255
l
0.0345
u
0.0422
d
0.0546
m
0.0172
v
0.0079
e
0.1440
n
0.0865
w
0.0113
f
0.0078
o
0.0211
x
0.0008
g
0.0236
p
0.0067
y
0.0000
h
0.0361
q
0.0005
z
0.0092
i
0.0628
r
0.0622
0.1442
Tabelle 4.1: Wahrscheinlichkeiten der Buchstaben in deutschen Texten F¨ur die Quellentropie gilt: H(X) = 4, 037 bit. Der Entscheidungsgehalt betra¨ gt im vorliegenden Fall: H0 = ld 27 = 4, 75 bit. Die Abbildung 4.12 zeigt den Verlauf der Markhoff’schen Entropie bei deutschem Text. Man kann erkennen, dass HM (X) sich bei zehn Zeichen, einem Wert von 1.6 bit ann¨ahert. Dass dieser Wert deutlich kleiner ist als die Entropie H(X) bedeutet, dass bei deutschen Texten nur ein kleiner Teil der m¨oglichen Buchstabenkombinationen vorkommt und bestimmte Kombinationen, wie z.B. Qu fest sind. Buchstaben, die weiter als zehn Zeichen entfernt sind, weisen im Allgemeinen nur noch geringe Abh¨angigkeiten voneinander auf.
308
4 Informationstheorie und Quellencodierung
¨ 4.4 Diskretes Informationsubertragungsmodell ¨ Diskrete Ubertragungskan¨ ale u¨ bertragen diskrete Nachrichten von einer Nachrichtenquelle zur Nachrichtensenke, wie dies bereits in Abbildung 4.1 angegeben ist. Die nachstehende Abbildung 4.13 zeigt diesen Sachverhalt in vereinfachter Form. Ein fiktiver Beobachter, der sowohl die Informationsquelle wie auch dei Informationssenke sieht, nimmt die mittlere Information H(X, Y ) wahr. Diese Verbundentropie wurde im letzten Abschnitt eingefu¨ hrt. ¨ In diesem Abschnitt werden ausschließlich ged¨achtnislose Ubertragungskan¨ ale betrachtet. Die einzelnen St¨orungen treten somit voneinander unabh¨angig auf. Eine aufgetretene St¨orung besitzt keine Nachwirkungen auf die nachfolgend u¨ bertragenen Zeichen. Weiterhin wird vorausgesetzt, dass sich die auftretenden Wahrscheinlichkeiten nicht mit der Zeit ver¨andern. Dies entspricht ei¨ nem Ubertragungskanal, der im station¨aren Zustand betrieben wird. Beim station¨aren Betrieb sind alle statistischen Gr¨oßen (vgl. Abschn. 4.1), wie z.B. die Erwartungswerte, zeitunabh¨angig.
St¨orung
? Informationsquelle „ X=
x1 . . . x m P (x1 ) . . . P (xm )
«
Informationssenke -
¨ Ubertragungskanal
-
„ Y =
y1 . . . y n P (y1 ) . . . P (yn )
«
6 H Y * HH Beobachter H(X, Y ) Abbildung 4.13: Vereinfachtes Modell einer Informationsu¨ bertragung In Abbildung 4.13 sind Sender und Empf¨anger durch einen Kanal gekoppelt. Ein Beobachter beim Sender sieht die mittlere Information H(X), die die Informationsquelle abgibt. Fu¨ r einen Beobachter beim Empf¨anger hingegen, der nur die mittlere Information H(Y ) der Informationssenke sieht, wird diese selber zur Informationsquelle. Dies gilt auch fu¨ r einen externen Beobachter. F¨ur ihn sind sowohl Sender wie Empf¨anger Informationsquellen. Es wird deutlich, dass diese Sichtweise der Informations¨ubertragung sich stark an die bei den Verbundquellen geschaffenen Voraussetzungen anlehnen kann. ¨ Wenn es sich um eine sinnvolle Ubertragung handelt, m¨ussen die Zeichen der einen Quelle (der Informationssenke) R¨uckschl¨usse auf die Zeichen der anderen zulassen. Wie dies geschieht, wird insbesondere im Folgenden durch die Beispiele zu den symmetrischen und unsymmetrischen ¨ Ubertragungskan¨ alen verdeutlicht.
4.4 Diskretes Informations¨ubertragungsmodell
309
¨ 4.4.1 Entropien diskreter Ubertragungskan¨ ale ¨ F¨ur die Beschreibung diskreter Ubertragungskan¨ ale sind die bedingten Wahrscheinlichkeiten von besonderer Bedeutung. Die bedingte Wahrscheinlichkeit P (yj |xi ) wird hierbei so verstanden, dass sie die Wahrscheinlichkeit daf¨ur ist, dass die Informationssenke Y ein Zeichen yj empf¨angt unter der Voraussetzung, dass die Informationsquelle X ein Zeichen xi gesendet hat. Die Wahrschein¨ bezeichnet. Dies fu¨ hrt uns zu den lichkeit P (yj |xi ) wird auch als Ubergangswahrscheinlichkeit Verbundwahrscheinlichkeiten: P (xi , yj ) = P (xi ) · P (yj |xi ) und damit auch zur Verbundentropie. In Abbildung 4.14 ist dargestellt, wie die Information, genauer der Informationsfluss von der Quelle zur Senke verl¨auft. Durch St¨orungen, die dem Kanal zugeordnet werden, geht einige Informa¨ tion verloren, die Aquivocation, bzw. wird Information empfangen, die nicht gesendet wurde, die Irrelevanz. Zwischen diesen beiden Abzweigungen liegt die korrekt u¨ bertragene Information, die Transinformation. In der nachfolgenden Abbildung, 4.14 ist dieser Sachverhalt als Diagramm des Informationsflusses dargestellt.
X=
Quelle x1 x2 ... P (x1 ) P (x2 ) . . . m P (xi ) = 1
xm P (xm )
Y =
Senke y1 y2 ... P (y1 ) P (y2 ) . . . n P (yj ) = 1
i=1
yn P (yn )
j=1
¨ ⇒ H(X|Y ) Aquivocation Quelle H(X) ⇒
H(X; Y ) Transinformation
Senke ⇒ H(Y )
Irrelevanz H(Y |X) ⇒
Abbildung 4.14: Darstellung des Informationsflusses ¨ Die Aquivocation H(X|Y ) gibt die Ungewissheit u¨ ber das gesendete Zeichen wieder, wenn das empfangene Zeichen bekannt ist. Sie wird auch als Ru¨ ckschlussentropie bezeichnet. F¨ur einen ¨ fehlerfreien Kanal ist die Aquivokation gleich Null und die Quellinformation gelangt vollst¨andig
310
4 Informationstheorie und Quellencodierung
zum Kanalausgang. Ist der Kanal vollst¨andig gest¨ort, so gilt: H(X|Y ) = H(X) und es gelangt von der Quellenentropie nichts zum Ausgang. Die Irrelevanz H(Y |X) gibt die Ungewissheit der empfangenen Zeichen wieder, wenn das gesendete Zeichen vorgegeben ist. Im Sinne der Informa¨ tionstheorie kann die Ubertragung bei gest¨orten Kanal als Zufallsexperiment aufgefasst werden, wobei die St¨orung selber eine Informationsquelle darstellt. Diese wirkt allerdings sto¨ rend und vermindert die Empfangsqualit¨at. F¨ur einen externen Beobachter, der Quelle und Senke wie zwei Informationsquellen betrachtet, stellt sich dieses Modell wie das Verbundmodell von zwei Quellen dar. Er beobachtet die Verbundentropie H(X, Y ). Entsprechend den Mengenbildern 4.11 bei der Verbundentropie kann der oben beschriebene Sachverhalt auch veranschaulicht werden. H(X, Y ) H(X; Y )
H(X)
H(Y )
H(X|Y )
H(Y |X)
Abbildung 4.15: Mengendarstellung der Entropie bei Informationsu¨ bertragung Im Vergleich zu Bild 4.11 ist in Abbildung 4.15 zus¨atzlich die Transinformation H(X; Y ) dargestellt. Sie stellt die Information dar, die sowohl in H(X) als auch in H(Y ) liegt. Die Transinformation ist demnach die Information (vgl. Abb. 4.14), die von der Quelle zur Senke u¨ bertragen wird.
4.4.2 Transinformation und Informationsfluss Die Mengendarstellung nach Bild 4.15 legt es nahe, die zwischen den verschiedenen Entropien bestehenden Zusammenh¨ange in Gleichungen zu formulieren. Diese Gleichungen werden im Folgenden ohne Beweis angegeben. Fasst man die in Bild 4.15 dargestellten Entropien so auf, dass ihre Quantit¨at durch die entsprechenden Fl¨acheninhalte repr¨asentiert werden, so folgt f¨ur deren Zusammenhang: H(X; Y ) = H(X) − H(X|Y ) = H(Y ) − H(Y |X) = H(X) + H(Y ) − H(X, Y ) .
(4.41)
Die Transinformation H(X; Y ) stellt den Teil der Quellinformation dar, der zur Senke u¨ bertragen wird. Durch die Kopplung der beiden Quellen durch den Kanal, nimmt die Ungewissheit in dem Maße ab, wie die Ergebnisse der einen Quelle Aussagen u¨ ber die andere Quelle erlauben. F¨ur die Berechnung der Transinformation wird die zweite Zeile in Gl. (4.41) am h¨aufigsten verwendet. H(X; Y ) kann entsprechend der ersten Zeile in Gl. (4.41) auch direkt berechnet werden: H(X; Y ) =
m n i=1 j=1
P (xi , yj ) · ld
m n P (xi |yj ) P (yj |xi ) = . P (xi , yj ) · ld p(xi ) p(yj ) i=1 j=1
4.4 Diskretes Informations¨ubertragungsmodell
311
Die Transinformation ist nicht negativ: H(X; Y ) ≥ 0. Der Wert H(X; Y ) = 0 kann nur dann angenommen werden, wenn die Quellen am Kanalein- und Kanalausgang voneinander unabh¨angig sind. Einen Beweis zu diesen Aussagen findet sich z.B. in [31]. ¨ Die Aquivocation: H(X|Y ) = H(X, Y ) − H(Y ) = H(X) − H(X; Y ) ,
(4.42)
¨ ¨ ist der Teil der Quellinformation H(X), der w¨ahrend der Ubertragung verloren geht. Die Aquivocation steht f¨ur die Ungewissheit des gesendeten Zeichens unter der Voraussetzung, dass das empfangene Zeichen bekannt ist. H(X|Y ) kann auch direkt berechnet werden: H(X|Y ) =
m n
P (xi , yj ) · ld P (xi |yj ) .
i=1 j=1
¨ Die Aquivocation kann nie gr¨oßer sein als die Quellentropie: H(X|Y ) ≤ H(X). Die Irrelevanz: H(Y |X) = H(X, Y ) − H(X) = H(Y ) − H(X; Y ) ,
(4.43)
stellt eine zus¨atzlich empfangene St¨orinformation dar. Sie ist der Teil der Quellinformation H(Y ), ¨ der w¨ahrend der Ubertragung hinzugekommen ist. Die Irrelevanz steht fu¨ r die Ungewissheit des empfangenen Zeichens unter der Voraussetzung, das das gesendete Zeichen bekannt ist. H(Y |X) kann auch direkt berechnet werden: H(Y |X) =
m n
P (xi , yj ) · ld P (yj |xi ) .
i=1 j=1
Die Irrelevanz H(Y |X) wird bisweilen auch als Streuentropie bezeichnet [31]. Die Verbundentropie: H(X, Y )
= H(X) + H(Y |X) = H(Y ) + H(X|Y ) = H(X) + H(Y ) − H(X; Y ) ,
(4.44)
ist die Entropie, die ein externer Beobachter beider Quellen X und Y wahrnimmt. F u¨ r die Verbundentropie (vgl. Abschn. 4.3) gilt, dass die Verbundentropie nicht gro¨ ßer werden kann als die Summe der Quellentropien: H(X, Y ) ≤ H(X) + H(Y ). Der Wert H(X, Y ) = H(X) + H(Y ) kann nur dann angenommen werden, wenn die Quellen am Kanalein- und Kanalausgang voneinander unabh¨angig sind. Der Informationsfluss I von der Quelle zur Senke, wird definiert als Entropie pro Zeit: I=
Entropie . Zeit
(4.45)
¨ Hierbei ist zu unterscheiden, an welcher Stelle des Ubertragungsweges der Informationsfluss betrachtet wird. F¨ur den von der Quelle ausgehenden InformationsflussIQ gilt: IQ = H(X)/T
bzw.
IQ = HM (X)/T .
(4.46)
312
4 Informationstheorie und Quellencodierung
¨ Wird hingegen der Informationsfluss IT auf dem Ubertragungskanal betrachtet, so gilt: IT = H(X; Y )/T .
(4.47)
¨ Hierbei steht T f¨ur die Dauer der Ubertragung eines Zeichens. Der Informationsfluss ist heute, im Zeitalter des Internet, eine wichtige Gr o¨ ße, denn die erreichbaren Datenraten und Zugriffszeiten bestimmen wesentlich die dabei entstehenden Kosten. Es stellt sich somit unmittelbar die Frage nach dem maximalen Informationsfluss, der sogenannten Kanalkapazit¨at. Hierzu gibt der folgende Abschnitt einen Einblick.
4.4.3 Die Kanalkapazit¨at Der Transinformation, die die Informationsu¨ bertragung u¨ ber Nachrichtenkan¨ale beschreibt, kommt in der Informationstheorie eine wichtige Bedeutung zu. Aus der Gleichung (4.41) ist zu ¨ schließen, dass sie sowohl von den Ubergangswahrscheinlichkeiten P (yj |xi ) des Kanals als auch von den Wahrscheinlichkeiten P (xi ) der Zeichen der Quelle am Eingang abh¨angt. Zur Beantwortung der Frage, wie viel Information maximal u¨ ber einen Kanal u¨ bertragen werden ¨ kann, gehen wir von einem diskreten ged¨achtnislosen Kanal aus, von dem die Ubergangswahrscheinlichkeiten P (yj |xi ) bekannt sind. Die Kanalkapazit¨at wird zun¨achst als dieses Maximum der Transinformation je Zeiteinheit definiert: C = Imax = ν · H(X; Y )max .
(4.48)
Hierbei ist H(X; Y )max die maximale Transinformation, mit der Einheit bit/Zeichen und ν die Anzahl der Zeichen je Zeiteinheit. Die Einheit der Kanalkapazit¨at bestimmt sich demnach in bit/Zeiteinheit, z.B. in bit/Sekunde. Die Kanalkapazit¨at ist eine den Kanal charakterisierende Kenngro¨ ße. Sie gibt den gr¨osstm¨oglichen u¨ bertragbaren Nachrichtenfluss u¨ ber einen gest¨orten Kanal an. F¨ur die Praxis wird der Informationsfluss geringer als die Kanalkapazit¨at gew¨ahlt: I < C. Dadurch gelingt es, mittels Kanalcodierung und Decodierung, die Fehlerwahrscheinlichkeit der u¨ bertragenen Zeichen beliebig klein zu halten. Dies ist nicht mehr der Fall, sobald I > C wird. ¨ Ohne Beweis soll noch der wichtige Fall tiefpassbegrenzter Ubertragungskan¨ ale, die bereits in Kapitel 3 Seite 246 eingef¨uhrt wurden, hervor gehoben werden. Besitzt ein Kanal die Grenzfrequenz fg , so ergibt sich f¨ur die Kanalkapazit¨at: C = 2fg · H(X; Y )max .
(4.49)
Im den nachfolgenden Abschnitten, insbesondere 4.5.1 und 4.5.4 werden die Gleichungen zur Kanalkapazit¨at an konkreten Kan¨alen verdeutlicht.
¨ 4.5 Ubertragungskan¨ ale
4.5
313
¨ Ubertragungskan¨ ale
4.5.1 Der symmetrische Bin¨arkanal ¨ Das Modell des bin¨aren symmetrischen Ubertragungskanals (BSC, binary symmetric channel) geht von einer symmetrischen St¨orung der u¨ bertragenen bits aus. Dies bedeutet, dass die logische N ULL mit der gleichen Wahrscheinlichkeit in eine E INS verf¨alscht wird, wie die logische E INS in eine N ULL. Es stellt ein einfaches Beispiel fu¨ r die Kopplung zweier diskreter ged¨achtnisloser ¨ Quellen dar. Der BSC wird auch als digitaler Ersatzkanal bei Ubertragungen verwendet, die als St¨orquelle ein mittelwertfreies Gaussches Rauschen aufweisen. P (y1 |x1 ) = 1 − p
x1 = 0 i PP PP
PP PP
PP
PP
PP P P P PP PP
PP
x2 = 1 i
P (y2 |x2 ) = 1 − p
- iy1 = 0 1 P (y1 |x2 ) = p
PP P (y2 |x1 ) = p PP PP P q P - iy2 = 1
Abbildung 4.16: Modell des symmetrischen Bin¨arkanals ¨ Der symmetrische Bin¨arkanal wird durch das Ubergangsdiagramm in Abbildung 4.16 beschrie¨ ben. Die m¨oglichen Uberg¨ange, die die Zeichen der Quelle X zur Senke Y besitzen, werden ¨ durch bedingte Wahrscheinlichkeiten – den Ubergangswahrscheinlichkeiten repr¨asentiert. Die ¨ Uberg¨ ange mit der Fehlerwahrscheinlichkeit p entsprechen dem Auftreten eines Fehlers. Die ¨ ¨ Uberg¨ ange mit der Wahrscheinlichkeit 1 − p entsprechen einer fehlerfreien Ubertragung. ¨ Der BSC kann durch die Matrix der Ubergangswahrscheinlichkeiten in a¨ quivalenter Form zur ¨ Abbildung 4.16 beschrieben werden. Diese Matrix (4.50) wird Ubergangsmatrix, Kanalmatrix oder auch Rauschmatrix genannt: P (y1 |x1 ) P (y2 |x1 ) 1−p p ¨ = [P (yj |xi )] = = U . (4.50) P (y1 |x2 ) P (y2 |x2 ) p 1−p ¨ Die Ubergangsmatrix ist eine stochastische Matrix, in der die Summe der Zeilenelemente stets Eins ist. F¨ur die Fehlerwahrscheinlichkeit p sind realistische Werte kleiner als 10−3 . Es stellt sich nun die Frage, welche mittlere Transinformation H(X; Y ) u¨ bertragen werden kann. F¨ur die Transinformation H(X; Y ) gilt nach Gleichung (4.41): H(X; Y ) = H(X) + H(Y ) − H(X, Y ) Wird maximale Quellentropie vorausgesetzt, d.h.: P (x1 ) = P (x2 ) = 1/2, so gilt auch wegen der ¨ Symmetrie der Uberg¨ ange: P (y1 ) = P (y2 ) = 1/2. Demzufolge sind die Entropien f¨ur die Quelle und Senke gleich groß: H(X) = H(Y ) = ld 2 = 1 bit.
314
4 Informationstheorie und Quellencodierung
Mit Hilfe der Beziehung P (xi , yj ) = P (yj |xi ) · P (xi ) kann aus Gleichung (4.50) die Matrix V der Verbundwahrscheinlichkeiten gewonnen werden: 1−p p P (x1 , y1 ) P (x1 , y2 ) 2 2 . (4.51) V = [P (xi , yj )] = = 1−p p P (x2 , y1 ) P (x2 , y2 ) 2 2 Aus der Matrix V nach Gl. (4.51) bestimmt sich die Verbundentropie H(X, Y ) zu: 1−p 1−p p p · ld + · ld H(X, Y ) = −2 · 2 2 2 2 = − [ (1 − p) · (ld (1 − p) − ld 2) + p · (ld p − ld 2) ] = − [ (1 − p) · ld (1 − p) − (1 − p) + p · ld p − p ] = 1 − (1 − p) · ld (1 − p) − p · ld p.
(4.52)
Gem¨aß des Ansatzes nach Gleichung (4.41) wird die Transinformation bestimmt: H(X; Y ) = H(X) + H(Y ) − H(X, Y ) = 1 + (1 − p) · ld (1 − p) + p · ld p.
(4.53)
In Abbildung 4.17 ist die Transinformation in Abh¨angigkeit der Kanalfehlerwahrscheinlichkeit p gem¨aß der Gleichung (4.53) dargestellt. H(x; y) 6 1
Transinformation - p 0
0,5
1
Abbildung 4.17: Verlauf der Transinformation H(X; Y ) u¨ ber p Besonders interessant sind in Abbildung 4.17 die Werte der Transinformation f u¨ r P = 0, P = 0.5 und p = 1. F¨ur den fehlerfreien Fall p = 0 wird die mittlere Information der Quelle H(X) = 1 ¨ bit ohne Verlust zur Senke H(Y ) = 1 bit u¨ bertragen. Die sich kreuzenden Uberg¨ ange in Bild ¨ 4.16 verschwinden. F¨ur P = 1 bleiben nur die sich kreuzenden Uberg¨ ange erhalten. Aus jeder N ULL wird eine E INS und umgekehrt. Die Information bleibt erhalten, denn es handelt es sich nur um eine Umcodierung. Im Fall p = 0.5 wird keine Information mehr u¨ bertragen. Dies bedeutet, dass von einem angekommenden bit kein Ru¨ ckschluss mehr auf das abgeschickte m¨oglich ist. In ¨ Abbildung 4.16 sind alle Uberg¨ ange gleich stark ausgebildet.
¨ 4.5 Ubertragungskan¨ ale
315
F¨ur den Fall des BSC ist es ebenfalls interessant, die bedingten Entropien H(yj |xi ) ¨ der Uberg¨ ange und der daraus resultierenden Informationsgehalte H(xi ; yj ) der Transinformation von einzelnen Zeichenpaare zu berechnen. ¨ Hierf¨ur beschr¨anken wir uns auf die Ubertragung des Zeichens X = x1 und fragen nach dem Zeichen Y = y1 . F¨ur P = 0 betr¨agt die u¨ bertragene Information H(x1 ; y1 ) genau 1 bit und die Ungewissheit H(y1 |x1 ) 0 bit. F¨ur P = 0.5 betr¨agt die u¨ bertragene Information H(x1 ; y1 ) genau 0 bit und die Ungewissheit H(y1 |x1 ) 1 bit. Die Berechnungen f¨ur die anderen Zeichen ergeben sich ganz analog, wenn die entsprechenden Indizes eingesetzt werden. H(y1 |x1 )
=
H(y1 ; x1 )
=
6u¨ bertragene 1.0
Ungewissheit der St¨orung
Information
H(y1 |x1 )
0.8 0.6 0.4 0.2 0
−ld P (y1 |x1 ) P (y1 |x1 ) ld P (y1 )
= =
0.1
0.2
0.3
0.4
H(x1 ; y1 ) 0.5 - p
−ld (1 − p) (1 − p) ld = 1 + ld (1 − p) 0.5
Aus diesen Gleichungen ist ersichtlich, dass gilt: H(y1 |x1 ) = 0 bit und H(x1 ; y1 ) = 1 f¨ur p = 0. ¨ Handelt es sich bei der Ubertragung um zuf¨allige bits, p = 0.5 so gilt: H(y1 |x1 ) = 1 bit und H(x1 ; y1 ) = 0.
4.5.2 Der symmetrische Kanal mit n Zeichen Das im vorherigen Abschnitt behandelte BSC-Modell kann auf einen Kanal mit n Zeichen erweitert werden. Hierbei wird ebenfalls davon ausgegangen, dass jedes Zeichen x i mit der Wahrscheinlichkeit (1 − p) richtig in das Zeichen yi u¨ bertragen wird. Damit die St¨orung auf dem Kanal als symmetrisch bezeichnet werden kann, mu¨ ssen sich die verbleibenen n − 1 Zeichen yj die Fehlerwahrscheinlichkeit p teilen. Es gilt: P (yj=i |xi ) = 1 − p
=⇒
P (yj=i |xi ) =
p . n−1
(4.54)
¨ F¨ur die Summe der Wahrscheinlichkeiten der Uberg¨ ange, die von einem Zeichen xi ausgehen gilt: n
P (yj |xi ) = 1.
j=1
¨ Der symmetrische Kanal mit n Zeichen wird durch das Ubergangsdiagramm in Abbildung 4.18 ¨ beschrieben. Die m¨oglichen Uberg¨ ange, die die Zeichen der Quelle X zur Senke Y besitzen, wer¨ den durch bedingte Wahrscheinlichkeiten – den Ubergangswahrscheinlichkeiten repr¨asentiert. Die ¨ Uberg¨ange mit der Fehlerwahrscheinlichkeit P (yj=i |xi ) = p/(n − 1) entsprechen dem Auftreten
316
4 Informationstheorie und Quellencodierung P (yj=i |xi ) = 1 − p -z x1 z X : y1 QXXX 3 XXX Q Q XXX Q X X X Q X X Q XX XXXX QQ z X - zy2 x2 z Q HH * Q HH Q s Q HH j P (yj=i |xi ) =
.. .
xn z
p n−1
..
.. .
.
*
H
@ @ HH @ H H j H @ R @ - zym
Abbildung 4.18: Modell des symmetrischen Kanals mit n Zeichen ¨ eines Fehlers. Die Uberg¨ ange mit der Wahrscheinlichkeit P (yj=i |xi ) = 1 − p entsprechen einer ¨ fehlerfreien Ubertragung. ¨ Der Kanal kann durch die Matrix der Ubergangswahrscheinlichkeiten in a¨ quivalenter Form zur ¨ Abbildung 4.18 beschrieben werden. Diese Matrix (4.55) wird ebenfalls (wie Gl. 4.50) Ubergangsmatrix, Kanalmatrix oder auch Rauschmatrix genannt: ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ¨ U = [P (yj |xi )] = ⎜ ⎜ ⎜ ⎜ ⎜ ⎝
1−p
p n−1
p n−1
1−p
··· .. . .. .
..
1−p
.. .
p n−1 p n−1
. ···
p n−1
p n−1
⎞
⎟ ⎟ ⎟ .. ⎟ ⎟ . ⎟ ⎟ ⎟ p n−1 ⎟ ⎟ 1−p ⎠ p n−1
(4.55)
¨ Die Ubergangsmatrix ist eine stochastische Matrix, in der die Summe der Zeilenelemente stets Eins ist. F¨ur die Fehlerwahrscheinlichkeit p sind realistische Werte kleiner als 10−3 . Es stellt sich nun wieder die Frage, welche mittlere Transinformation H(X; Y ) u¨ bertragen werden kann. F¨ur die Transinformation H(X; Y ) gilt nach Gleichung (4.41): H(X; Y ) = H(X) + H(Y ) − H(X, Y ) Wird maximale Quellentropie vorausgesetzt, d.h.: P (xi ) = 1/n, so gilt auch wegen der Symme¨ trie der Uberg¨ ange: P (yi ) = 1/n. Demzufolge sind die Entropien f¨ur die Quelle und Senke gleich
¨ 4.5 Ubertragungskan¨ ale
317
groß: H(X) = H(Y ) = ld n. Mit Hilfe der Beziehung P (xi , yj ) = P (yj |xi ) · P (xi ) kann aus Gleichung (4.55) die Matrix V der Verbundwahrscheinlichkeiten gewonnen werden: ⎛ 1−p ⎞ p˜ p˜ ··· n n n ⎜ p˜ ⎟ .. p˜ 1−p ⎜ ⎟ . n n ⎜ n ⎟ p ⎜ .. . .. .. ⎟ mit p˜ = . (4.56) V = [P (xi , yj )] = ⎜ . ⎟ . ⎜ ⎟ n−1 ⎜ p˜ ⎟ . p˜ . . 1−p ⎝ ⎠ n n n p˜ 1−p p˜ ··· n n n Nach Gl. (4.56) bestimmt sich die Verbundentropie H(X, Y ) zu: 1−p p˜ p˜ 1−p · ld − n · (n − 1) · ld . n n n n Damit ist gem¨aß des Ansatzes nach Gleichung (4.41) die Transinformation bestimmt: H(X, Y ) = −n
1−p 1−p p˜ p˜ · ld + n · (n − 1) · ld . n n n n erh¨alt man schließlich:
H(X; Y ) = 2 · ld n + n Durch R¨ucksubstitution p˜ =
p n−1
H(X; Y ) = ld n + (1 − p) · ld (1 − p) + p · ld
(4.57)
(4.58)
p . n−1
(4.59)
In der Abbildung 4.19 ist die Transinformation H(X; Y ) in Abh¨angigkeit der Kanalfehlerwahrscheinlichkeit p, gem¨aß der Gleichung (4.59) dargestellt. 6H(X; Y )
ld n
n ld n−1
0
p=
n−1 n
- p 1
Abbildung 4.19: Transinformation des Kanals mit n Zeichen ¨ Die Nullstelle bei p = (n − 1)/n l¨asst sich leicht durch Einsetzen in die Ubergangswahrscheinlichkeiten erkl¨aren. Es gilt: p 1 P (yj=i |xi ) = 1 − p = = P (yj=i |xi ) = . n − 1 p=(n−1)/n n Ganz a¨ hnlich wie beim BSC, bei dem f¨ur p = 0.5 keine Informations¨ubertragung mehr stattfindet, gilt dies f¨ur den Kanal mit n Zeichen bei p = (n − 1)/n. In diesem Fall sind alle bedingten ¨ Wahrscheinlichkeiten an den m¨oglichen Uberg¨ angen gleich groß, so dass f¨ur ein ankommendes Zeichen kein R¨uckschluss auf seine Herkunft mehr m¨oglich ist. F¨ur den Sonderfall n = 2 stimmen alle Beziehungen des symmetrischen Kanals mit n Zeichen mit denen vom BSC u¨ berein.
318
4 Informationstheorie und Quellencodierung
4.5.3 Die Transinformation bei unsymmetrischer Sto¨ rung In diesem Abschnitt wird ein Kanal mit unsymmetrischer Sto¨ rung vorausgesetzt. Das bedeutet, dass die von der Quelle X ausgesendeten Zeichen xi unterschiedlich starken St¨orungen unterworfen sind. Unter Beibehaltung des bisherigen Kanalmodels, nach dem der Kanal durch das ¨ ¨ Ubergangsverhalten charakterisiert wird, folgt, dass nun die Ubertragungsposition eines Zeichens maßgeblich f¨ur dessen St¨orung ist. Durch Anpassung der Quelle an diesen Kanal soll versucht werden, die Transinformation zu maximieren. Anpassung bedeutet im o.g. Sinne, dass Zeichen, ¨ die h¨aufiger gesendet werden, auf dem Ubertragungskanal Pl¨atze einnehmen, die weniger stark gest¨ort sind und Zeichen, die seltener u¨ bertragen werden, Pl¨atze einnehmen d¨urfen, die st¨arker gest¨ort sind. Das folgende Beispiel veranschaulicht diese Aussagen. ¨ vorgegeben: Beispiel 4.20 Ein Kanal ist durch seine Rauschmatrix U ⎛
0 ¨ = [P (yj |xi )] = ⎝ 0.7 U 0.3
⎞ 1 0 0 0.3 ⎠ . 0 0.7
Es werden nun drei Quellen mit unterschiedlichen Wahrscheinlichkeitsfeldern betrachtet, die zu unterschiedlichen Ergebnissen der u¨ bertragenen Information f¨uhren: Fall 1
a
Quellen H(X)
b
Fall 2
c
a
b
c
1/3 1/3 1/3
1/2 1/4 1/4
1.585 bit
1.5 bit
⎛ 0
1/3
⎞ ⎛ 0
0
1/2
Fall 3
a
b
c
1/4 1/4 1/2 ⎞
0
1.5 bit
⎛ 0
1/4
⎞ 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ V = [P (xi , yj )] ⎜ ⎝ 7/30 0 1/10 ⎠ ⎝ 7/40 0 3/40 ⎠ ⎝ 7/40 0 3/40 ⎠ 1/10 0 7/30 3/40 0 7/40 3/20 0 7/20 a b c a b c a b c Senken 1/3 1/3 1/3 1/4 1/2 1/4 13/40 1/4 17/40 H(Y )
1.585 bit
1.5 bit
1.552 bit
H(X, Y )
2.172 bit
1.941 bit
2.161 bit
H(X; Y ) = H(X) + H(Y ) − H(X, Y ) H(X; Y )
0.998 bit
1.06 bit
0.891 bit
Wichtige Ergebnisse dieses Beispiels: • Die maximale Transinformation tritt nicht immer im Falle der maximalen Quellentropie auf. • Bei gleicher Quellentropie k¨onnen unterschiedliche Werte der Transentropie auftreten.
¨ 4.5 Ubertragungskan¨ ale
319
Da die Quelle 2 besser an den Kanal angepasst ist, wird in diesem Fall die gro¨ ßte Transinformation ¨ ¨ betr¨agt die Ubergangswahrscheinlichkeit: erreicht. In der Rauschmatrix U P (y = b|x = a) = 1, d.h. es wird mit Sicherheit das Zeichen x = a in das Zeichen y = b umcodiert. Dies entspricht ¨ einer fehlerfreien Ubertragung, weil diese Umcodierung wieder ru¨ ckg¨angig gemacht werden kann. So wird deutlich, dass die Transinformation groß wird, wenn das Zeichen x = a besonders h¨aufig gesendet wird.
¨ 4.5.4 Beispiele von Ubertragungskan¨ alen Bereits in Abschnitt 4.4.3 wurde der Begriff der Kanalkapazit¨at als das Maximum des Informationsflusses I = ν · H(X; Y ) eingef¨uhrt: C = Imax = ν · H(X; Y )max
(4.60)
Im Abschnitt 4.5.1 wurde bereits die Transinformation H(X; Y ) (vgl. 4.53) fu¨ r den symmetrischen Bin¨arkanal berechnet: H(X; Y ) = H(X) + H(Y ) − H(X, Y ) = 1 + (1 − p) · ld (1 − p) + p · ld p.
(4.61)
Hierbei wurde vorausgesetzt, dass die Quellentropie H(X) maximal ist, d.h. P (x 1 ) = P (x2 ) = 0.5. Unter dieser Voraussetzung ist auch H(Y ) = 1 bit maximal und somit auch die Transinformation H(X; Y ). Damit gilt f¨ur die Kanalkapazit¨at C des symmetrischen Bin¨arkanals: C = ν · [ 1 + (1 − p) · ld (1 − p) + p · ld p ] .
(4.62)
Die Kanalkapazit¨at eines symmetrischen Bin¨arkanals mit Ausl¨oschungen (Binary Erasure Channel BEC) wird im nachfolgenden Beispiel betrachtet. Beim BEC wird die harte bin¨are Entscheidung des Empf¨angers zugunsten einer zus¨atzlichen M¨oglichkeit aufgeweicht. Ein Zeichen wird als ausgel¨oscht (erasured) betrachtet, wenn beispielsweise durch eine Pegelentscheidung das bit nicht sicher genug entschieden werden konnte. ¨ Das nebenstehende Ubergangsdiagramm zeigt einen Kanal mit zwei m¨oglichen Eingangszeichen und drei Ausgangszeichen. ¨ F¨ur die Ubergangsmatrix gilt: 1−p−q q p ¨ BEC = U p q 1−p−q Die maximale Transinformation wird bei diesem Kanal aufgrund der vorliegenden Symmetrie f¨ur P (x1 ) = P (x2 ) = 0.5 angenommen. Zur Berechnung von H(X; Y ) gehen wir von Gl. (4.41) aus.
P (y1 |x1 ) = 1 − p − q - ey1 = 0 x1 = 0 eQ PP 3 P |x ) = q P (y Q PP 3 1 Q PP PP P (y2 |x1 ) =Q pQ PP P Q qe P Q 1 y3 = e Q P (y1 |x2 ) = p Q Q Q P (y3 |x2 ) = q Q se Q y2 = 1 x2 = 1 e P (y2 |x2 ) = 1 − p − q Abbildung 4.20: Der symmetrische Bin¨arkanals mit Ausl¨oschungen
¨ mit P (xi ) = 0.5 multipliziert, so erh¨alt man die Elemente Wird jedes Element der Matrix U P (xi , yj ) der Verbundmatrix. Aus der Matrix V = [P (xi , yj )] ergeben sich als Spaltensumme
320
4 Informationstheorie und Quellencodierung
die Wahrscheinlichkeiten P (yj ): P (y1 ) =
1−q , 2
P (y2 ) = q,
P (y1 ) =
1−q . 2
Nach Gleichung (4.41) gilt f¨ur die maximale Transinformation: H(X; Y )max =
2 3
P (xi , yj ) · ld
i=1 j=1
P (yj |xi ) . p(yj )
Nach dem Einsetzen der bekannten Elemente der unterschiedlichen Wahrscheinlichkeiten erh¨alt man unter Verwendung von: C = Imax = ν · H(X; Y )max , schließlich die Kanalkapazit¨at des symmetrischen Bin¨arkanals mit Ausl¨oschungen: p 1−q−p BEC + p · ld C = ν · 1 − q + (1 − q − p) · ld (4.63) 1−q 1−q ¨ Die Kanalkapazit¨at des BEC h¨angt von den Ubergangswahrscheinlichkeiten p und q ab. Fu¨ r p = 0 bzw. f¨ur q = 0 ergeben sich zwei interessante Sonderf¨alle. 1. Sonderfall F¨ur q = 0 erh¨alt man den symmetrischen Bin¨arkanal (BSC) ohne Ausl¨oschungen. 2. Sonderfall F¨ur p = 0 besitzt der Kanal nur Ausl¨oschungen und keine Fehler. F¨ur die Kanalkapazit¨at ergibt sich: C BEC = ν · (1 − q) Im nebenstehenden Diagramm ist f¨ur diese beiden Sonderf¨alle die maximale Transinformation H(X; Y )max /bit eingetragen. Bis auf den Faktor ν (Anzahl der Zeichen pro Zeiteinheit) entspricht dies den Kanalkapazit¨aten C BSC = f kt(P ) und C BEC = f kt(q). Deutlich ist zu erkennen, dass der BEC eine h¨ohere Kapazit¨at aufweist als der BSC. Die Informationstheorie macht jedoch keine Aussage dar¨uber, wie dies genutzt werden kann. Im letzten Kapitel dieses Buches, in der Kanalcodierung, werden praktische Verfahren vorgestellt, wie die Kenntnis u¨ ber unzuverl¨assige Zeichen genutzt werden kann.
6 H(X; Y )max 1.0 0.8 0.6
C BEC (p = 0)
0.4 0.2 0
0.1
0.2
0.3
0.4
C BSC 0.5 - p, q
¨ Nachfolgend wird kurz auf einen analogen Ubertragungskanal eingegangen, der bereits aus dem in Kapitel 3 Systemtheorie Seite 246 eingef¨uhrt wurde.
¨ 4.5 Ubertragungskan¨ ale
321
¨ W¨ahlen wir als Ubertragungssystem (Kanal) das Modell eines idealen Tiefpasses, so ist der folgende Zusammenhang aus der Systemtheorie (vgl. Abschn. 3.11.5, S. 246) bekannt.
1
↑ x1 (t) = s(t) Tiefpasssystem
x(t) ◦ Eingangssignal
→t
◦ y(t) Ausgangssignal
y1 (t) = h(t) K6 K 2 t 0 0
-t
TE
F¨ur das Signal x1 (t) = s(t) ist rechts in der Abbildung die gen¨aherte Sprungantwort h(t) eines ¨ idealen Tiefpasses skizziert. Im Folgenden wird diskutiert, wie bei diesem Kanalmodell die Ubertragung eines bits der Signalform: x2 (t) = s(t) − s(t − T ) in Abh¨angigkeit von der Bitbreite T und der Anstiegszeit TE verl¨auft. Wir erwarten: x2 (t) = s(t) − s(t − T )
⇐⇒
y2 (t) = h(t) − h(t − T ).
Wir diskutieren nachfolgend die drei F¨alle: TE < T , TE = T und TE > T . Kleine Bitdauern T entsprechen großen Datenraten und große Bitdauern kleinen Datenraten. K6 K 2
0
h(t) h(t − T ) -t t0 t0 + T
y2 (t) K6 K 2
0
0
h(t)
t0
y2 (t) K6 K 2
0
Z
Z
Z ZZ -t t0 + T
t0
K6 K 2
t0 + T
-t
ZZ
t0
h(t − T )
Z
ZZ t0 + T
-t
Der erste Fall (TE < T ) entspricht einer Datenrate, die unterhalb der m¨oglichen Maximalrate liegt. Hierbei ist die Anstiegszeit kleiner als die Bitdauer. Dadurch erreicht der ausgangsseitige Impuls seine maximale Amplitu¨ de. Das bit kann dann nach der Ubertragung durch eine Schwellendetektion erkannt und regeneriert werden.
Der zweite Fall (TE = T ) entspricht einer Datenrate, die gleich der m¨oglichen Maximalra¨ te ist. Es wird vom Grenzfall der Ubertragung gesprochen: T = TE =
1 . 2 · fg
Die Anstiegszeit ist der Bitdauer gleich. Hierdurch erreicht der ausgangsseitige Impuls seine maximale Amplitude nur in einem Punkt. ¨ Eine sichere Ubertragung durch eine Schwellendetektion ist insbesondere bei St¨orungen (Rauschen) nicht mehr gew¨ahrleistet.
322 K6 K 2
0
4 Informationstheorie und Quellencodierung
h(t − T ) h(t) -t t0 t0 + T
y2 (t) K6 K 2
0
t0
Z
Z
Z Z t0 + T
-t
Im dritten Fall (TE > T ) ist die Anstiegszeit gr¨oßer als die Bitdauer. Hierdurch kann der ausgangsseitige Impuls seine maximale Amplitude nicht mehr erreichen. Das bit ¨ kann dann nach der Ubertragung durch eine Schwellendetektion nicht mehr erkannt und regeneriert werden. Es kann im Rauschen ganz verloren gehen.
Aus dem Grenzfall (TE = T ) folgt nach Gl. (4.60), wenn ν = 1/T eingesetzt wird: CT P = 2fg · H(X; Y )max ,
(4.64)
wobei fg die Grenzfrequenz des idealen Tiefpasses ist. ¨ Beispiel 4.21 Ein Fernsprechkanal mit einer Grenzfrequenz von 3400 Hz wird f u¨ r ein PCM Ubertragungsverfahren mit 64 Amplitudenstufen genutzt: Hmax (X; Y ) = ld 64 bit =⇒ Csp = 2fg · Hmax (X; Y ) = 40800 bit/sec Die fr¨uher beliebten Ticker im TV-Studio, ein Fernschreibgera¨ t, mit einem Zeichenvorrat von 32 Zeichen kann 10 Zeichen je Sekunde verarbeiten. IQ = ν · H(X) = 10 · ld 32 = 50 bit/sec ¨ Wird zur Ubertragung ein Bin¨arcode (Hmax (X; Y ) = 1 bit) verwendet, so kann die notwendige Grenzfrequenz des Kanals berechnet werden: Csr = IQ = 50 bit/sec =⇒ fg =
Csr = 25Hz. 2Hmax (X; Y )
Der Vergleich im Beispiel 4.21 zeigt, dass theoretisch 800 Fernschreibkan¨ale in einen Fernsprechkanal passen. Praktisch hat man sich mit 24 begnu¨ gt, so dass ein Informationsfluss I entsteht: I = 24 · 50 bit/sec = 1200 bit/sec. Abschließend wird noch der analoge bandbegrenzte Kanal angefu¨ hrt, der durch additives Rauschen gest¨ort ist. Es wird vom AWGN-Kanal (Additive White Gaussian Noise) gesprochen. Nach x(t) - - Tiefpasssystem η(t) 6
y(t) -
einem Lehrsatz der Informationstheorie der auf Shannon und Hartley zur¨uckgeht, kann f¨ur den AWGN-Kanal die Kanalkapazit¨at berechnet werden. Vorausgesetzt wird hierbei, dass der
Kanal die Bandbreite B besitzt und die Varianz des weißen gaußschen Rauschens N = N 0 B betr¨agt. F¨ur die Kanalkapazit¨at, die in bit/s angegeben wird, gilt, wenn die Signalleistung des Nachrichtensignals S ist: S CAW GN = B · ld 1 + . (4.65) N
4.6 Quellcodierung mit Optimalcodes
323
4.6 Quellcodierung mit Optimalcodes Unter dem Begriff der Quellcodierung werden unterschiedliche Maßnahmen verstanden, Information effizient zu u¨ bertragen. Zum einen wird versucht, die Quellenentropie zu reduzieren. Dies muss zwangsl¨aufig die Qualit¨at der urspr¨unglichen Information verschlechtern. Eine solche Maßnahme ist z.B. die Einschr¨ankung der Telefonbandbreite auf 300 bis 3400 Hz. Eine andere Art der Quellencodierung, die keine Qualit¨atseinbuße nach sich zieht, ist die Redundanzreduktion durch die Verwendung von Optimalcodes. In diesem Abschnitt werden drei Codierverfahren f u¨ r die Erstellung von Optimalcodes anhand ihrer Codierungsvorschriften n¨aher erl¨autert. Dabei wird sowohl auf die Konstruktion von Bin¨arcodes (Radix r = 2) als auch auf die Konstruktion von nichtbin¨aren Codes eingegangen. Der erste Hauptsatz der Informationstheorie (Shannon 1948) ist hierfu¨ r besonders wichtig. Ohne Beweis wird dieser Satz verbal formuliert: ¨ BER EINEN GEST ORTEN ¨ K ANAL KANN DURCH EINEN OPTIMALEN Q UELLCODE – Satz 4.1 U ALSO DURCH A NPASSUNG DER Q UELLE AN DEN K ANAL – ERREICHT WERDEN , DASS DER ¨ C ERREICHT. I NFORMATIONSFLUSS I, VON DER Q UELLE ZUR S ENKE , DIE K ANALKAPAZIT AT
4.6.1 Problematik der Codierverfahren Ein einf¨uhrendes Beispiel soll die Problematik der Quellcodierung veranschaulichen. Als ein wichtiges Bewertungskriterium fu¨ r Quellcodes wird die mittlere Zeichenl¨ange Lm verwendet: Lm =
n
li · P (li ) =
i=1
n
li · P (xi )
(4.66)
i=1
Die Gleichung (4.66) gilt f¨ur eine Quelle nit n Zeichen, wobei ein Zeichen xi die Codewortl¨ange li besitzt. F¨ur die Wahrscheinlichkeit des Auftretens der L¨ange li gilt: P (li ) = P (xi ). Beispiel 4.22 Eine ged¨achtnislose Quelle X sei durch ihr Wahrscheinlichkeitsfeld beschrieben: X =
a b c 0.6 0.3 0.1
Die Quelle soll 100 Zeichen/sec u¨ ber einen Kanal mit einer Kanalkapazit¨at von 135 bit/sec sen¨ den. F¨ur die Ubertragung sind hierf¨ur m¨ogliche Codes gesucht. Diese kann nur dann gelingen, wenn die Quellentropie H(X) kleiner als 1.35 bit ist: H(X) = −
3
P (xi ) · ld P (xi ) = 1.295 bit
i=1
Da der InformationsflussIQ = ν · H(X) = 129.5 bit/sec betr¨agt und damit kleiner als die Ka¨ nalkapazit¨at ist, muss die Ubertragung m¨oglich sein. Die Frage ist: Wie muss die Quellcodierung
324
4 Informationstheorie und Quellencodierung
aussehen? Hierzu betrachen wir zun¨achst die drei einfachen Codes in der nachstehenden Tabelle. Quelle xi a b c
Code 1
P (xi ) 0.6 0.3 0.1 =⇒
Code 2
(1) li
(1)
(2)
Cw 0 1 01 2 10 2 Lm = 1.4
(2) li
Cw 0 1 10 2 110 3 Lm = 1.5
Code 3 (3)
Cw(3) li 0 1 10 2 11 2 Lm = 1.4
Code 1 und Code 3 besitzen die gleiche mittlere L¨ange Lm = 1.4. Code 1 ist jedoch nicht eindeutig decodierbar, da das Zeichen b das Codewort Cw = 0 vom Zeichen a enth¨alt. Der Code 2 ist der sogenannte Kommacode, der sehr einfach zu codieren und zu decodieren ist. Mit wachsender Anzahl der Zeichen wird jedoch die mittlere Codewortl¨ange rasch groß. Code 3 ist der beste Code. Er besitzt eine kurze mittlere L¨ange und erf¨ullt die Prefix-Bedingung. Sie besagt, dass kein Codewort Teil eines anderen sein darf. Diese Aussage ist a¨ quivalent zur Forderung, dass im Codebaum eines Codes nur Endpunkte als Codewo¨ rter benutzt werden d¨urfen. 0
0
01=b
6 ? 1
0=a
0
6 10=b
? 1
10=c
0=a
6 ? 1
110=c
10=b 11=c
Code 1
Code 2
Code 3
Abbildung 4.21: Die Codeb¨aume der Codes von Beispiel 4.22 Es muss jedoch festgestellt werden, dass mit dieser direkten Codierung das Ziel, einen Quellfluss zu erhalten, der unterhalb der Kanalkapazit¨at liegt, nicht erreicht wurde. Eine M¨oglichkeit den mittleren Entropiefluss zu verkleinern, besteht in der Zusammenfassung mehrerer Zeichen. Diese M¨oglichkeit wird im folgenden Beispiel behandelt.
Beispiel 4.23 Zun¨achst werden je 2 Zeichen der ged¨achtnislosen Quelle X zu einem Zeichen yj zusammengefasst: X
=
Y
=
a b 0.6 0.3 aa 0.36
ab 0.18
c 0.1
ba 0.18
=⇒ bb 0.09
ac 0.06
ca 0.06
bc 0.03
cb 0.03
cc 0.01
Zwei m¨ogliche Codes, deren Konstruktionsverfahren spa¨ ter noch erl¨autert werden, sollen zeigen, dass es gelingt unterhalb der vorgegebenen Kanalkapazit a¨ t zu bleiben.
4.6 Quellcodierung mit Optimalcodes
Quelle yi aa ab ba bb ac ca bc cb cc
P (yi ) 0.36 0.18 0.18 0.09 0.06 0.06 0.03 0.03 0.01 =⇒
Huffman − Code (H) li
(H)
Cw 00 2 10 2 11 2 0100 4 0110 4 0111 4 01011 5 010100 6 010101 6 Lm = 2.67
325
Fano − Code (F )
Beide Codes liegen durch die Zusammenfassung von zwei Buchstaben zu einem Zeichen jetzt unter der durch die Kanalkapazit¨at vorgegebenen Grenze von 1.35 bit/Buchstabe. Der Huffman-Code ben¨otigt Lm /2 = 1.335 bit/Buchstabe und der FanoCode Lm /2 = 1.345 bit/Buchstabe. Um die Rate von 100 Buchstaben je Sekunde zu erreichen, m¨ussen jetzt nur noch 50 Zeichen (Doppelbuchstabe) gesendet werden.
(F ) li
Cw 00 2 01 2 100 3 101 3 1100 4 1101 4 1110 4 11110 5 11111 5 Lm = 2.69
Es entsteht im Falle des Huffman-Codes ein Informationsfluss von 133.5 bit/s und im Falle des Fano-Codes ein Informationsfluss von 134.5 bit/s. Durch die Zusammenfassung von Zeichen zu Zeichenketten gelingt es, den Informationsfluss unter der Kanalkapazit¨at von 135.0 bit/s zu halten. Nach Gleichung (4.27) kann fu¨ r das Beispiel 4.23 noch die relative Redundanz berechnet werden: r =
133.5 − 129.5 C − IQ R = = 0.03 = H0 C 133.5
In der nachstehenden Abbildung 4.22 ist der Codebaum des Fano-Codes dargestellt. 00 0 01 100 1
101 1100 1101 1110 11110 11111
Abbildung 4.22: Der Codebaum des Fano-Codes aus Beispiel 4.23 Erfolgt im Codebaum eine Bewegung nach oben, so wird immer eine Null zugewiesen. Eine Bewegung nach unten zieht eine Eins nach sich. Deutlich ist zu erkennen, dass die Prefix-Bedingung eingehalten wird, denn im Codebaum sind nur Endpunkte besetzt.
326
4 Informationstheorie und Quellencodierung
¨ Optimalcodes 4.6.2 Konstruktionsverfahren fur Bereits im vorausgegangenen Abschnitt wurde ausgefu¨ hrt, dass ein Code decodierbar ist, wenn er die Prefix-Bedingung erf¨ullt. In diesem Abschnitt wird der Frage nachgegangen, fu¨ r welche Parameter sich ein decodierbarer Code finden l¨asst. Die Ungleichung (4.67) von Kraft gibt eine Existenzbedingung an, die die Parameter eines Codes erfu¨ llen m¨ussen, damit dieser gebildet werden kann: n r−li ≤ 1. (4.67) i=1
Die Parameter besitzen hierbei die folgende Bedeutung: n ist die Anzahl der Zeichen, li ist die Codewortl¨ange des Zeichens xi , r ist die Wertigkeit (Radix) des Codes (Bin¨arcode r = 2). Gilt in der Ungleichung (4.67) das Gleichheitszeichen, so entsteht ein Codebaum, in dem alle Endpunkte einem Codewort zugeordnet werden. Das Beispiel 4.24 erl¨autert eine m¨ogliche Fragestellung, die durch die Ungleichung von Kraft beantwortet wird. Beispiel 4.24 Gibt es einen Bin¨arcode mit den L¨angen l1 = 1, l2 = 2,l3 = 3 und l4 = 3? 4
2−li = 2−1 + 2−2 + 2−3 + 2−3 = 1
i=1
Die Ungleichung ist mit Gleichheit erf¨ullt. Dieser Code existiert somit. Aber einen Code mit den L¨angen l1 = l2 = l3 = 2 und l4 = l5 = l6 = 3 kann es nicht geben, denn: 6
2−li = 3 ·
i=1
1 9 1 +3· = > 1. 4 8 8
F¨ur die aus dem Beispiel 4.23 bekannten Fano- bzw. Huffman-Codes wird nachfolgend die Berechnung nach Gleichung (4.67) angegeben: Fano:
9
2−li
= 2 · 2−2 + 2 · 2−3 + 3 · 2−4 + 2 · 2−5 = 1
2−li
= 3 · 2−2 + 3 · 2−4 + 2−5 + 2 · 2−6 = 1
i=1
Huffman:
9 i=1
Folgender von Shannon aufgestellter Satz gibt sowohl eine untere als auch eine obere Schranke f¨ur die erreichbare mittlere Codewortl¨ange Lm .
4.6 Quellcodierung mit Optimalcodes
327
Satz 4.2 Es gelingt immer einen Quellcode mit der mittleren La¨ nge Lm zu konstruieren, wobei gilt: H(X) ≤ Lm ld r H(X) ≤ Lm
H(X) + 1, ld r ≤ H(X) + 1 f¨ur Bin¨arcodes. ≤
(4.68) (4.69)
Die Aussage von Satz 4.2 ist besonders anschaulich fu¨ r Bin¨arcodes und erlaubt einen neuen Zugang zur Entropie zu formulieren, denn die Entropie einer Quelle bestimmt die mittlere erreichbare Codewordl¨ange Lm . Im Umkehrschluss folgt hieraus, dass es nicht gelingen kann, einen Bin¨arcode f¨ur eine Informationsquelle anzugeben, der eine mittlere L¨ange besitzt, die unterhalb der durch die Entropie gegebenen Grenze liegt.
4.6.3 Quellcodierung nach Shannon In diesem und in den folgenden Abschnitten werden die unterschiedlichen Codierverfahren jeweils in der Form eines Algorithmusses vorgestellt. Die Quellcodierung nach der Methode von Shannon wird in vier Schritten durchgef¨uhrt: 1. Zun¨achst m¨ussen die n zu codierenden Zeichen nach fallender Wahrscheinlichkeit P (xi ) sortiert werden: P (x1 ) ≥ P (x2 ) ≥ · · · ≥ P (xn ) Zur Ermittlung der Codewortl¨angen li dient dabei die folgende Beziehung: −ld P (xi ) −ld P (xi ) ≤ li < + 1, f¨ur i = 1, 2, . . . , n. ld r ld r
(4.70)
Die Codewortl¨ange li nimmt mit abnehmender Wahrscheinlichkeit P (xi ) zu und kann nur aus der Menge der ganzen Zahlen stammen. Sie muss somit auf die n¨achste ganze Zahl gerundet werden. 2. Als n¨achstes wird die kummulierte Wahrscheinlichkeit Wi ermittelt: Wi =
i−1
P (xν ), i = 1, 2, . . . , n,
W1 = 0
(4.71)
ν=1
3. Danach wird eine Zahl Zi derart gebildet, dass dieser Wert m¨oglichst nahe an die jeweilige kummulierte Wahrscheinlichkeit heranreicht, diese aber nicht u¨ berschreitet. Die Zahl besteht aus li Summanden (bj · r−j ), wobei jeder einzelne Faktor bj die Wertigkeit 0, 1, . . . , r − 1 annehmen kann: Zi Wi − r
−li
< Zi
= b1 · r−1 + b2 · r−2 + · · · + bli · r−li
(4.72)
≤ Wi
(4.73)
4. Das Codewort besteht aus li Stellen, besetzt mit den Koeffizienten b1 , b2 , . . . bli .
328
4 Informationstheorie und Quellencodierung
Bedingt durch diese Konstruktionsvorschrift ist die Prefix-Bedingung erf u¨ llt. Ein besonderer Vorteil der Quellcodierung nach Shannon ist der einfache Algorithmus, der in den nachfolgenden Beispielen in tabellarischer Form dargestellt wird. Jede Spalte einer solchen Tabelle kann durchgehend in Abh¨angigkeit der vorhergehenden Spalten berechnet werden. Besonders gute Ergebnisse, d.h. kurze mittlere Codewortl¨angen ergibt der Shannon-Code jedoch nur fu¨ r Wahrscheinlichkeiten P (xi ), die durch reziproke Zweierpotenzen P (xi ) = 2−li gegeben sind. Die folgenden Beispiele sollen zun¨achst die Vorgehensweise bei der Codierung nach Shannon verdeutlichen. Beispiel 4.25 F¨ur die Konstruktion dieses Codierungsverfahrens soll eine Quelle mit acht Zeichen betrachtet werden. Die Quelle hat die Form: x1 x2 x3 x4 x5 x6 x7 x8 X= . P (x1 ) P (x2 ) P (x3 ) P (x4 ) P (x5 ) P (x6 ) P (x7 ) P (x8 ) xi
P (xi )
li
kummulierte Wahrscheinlichkeit
Code
x1 x2 x3 x4 x5 x6 x7 x8
1/4 1/4 1/8 1/8 1/16 1/16 1/16 1/16
2 2 3 3 4 4 4 4
0 0.25 = P (x1 ) 0.5 = P (x1 ) + P (x2 ) 0.625 = 2/4 + 1/8 0.75 = 2/4 + 2/8 0.8125 0.875 0.9375
00 01 100 101 1100 1101 1110 1111
In der ersten Spalte sind die Zeichen nach fallenden Wahrscheinlichkeiten sortiert. Die Spalte der kummulierten Wahrscheinlichkeiten beginnt mit Null. Die vorangehenden Wahrscheinlichkeiten werden addiert. Die Codezuweisung erfolgt gem¨aß den kummulierten Wahrscheinlichkeiten. F¨ur x6 gilt z.B.: w6 = 2/4 + 2/8 + 1/16 = 0.8125 = = 1 · 2−1 + 1 · 2−2 + 0 · 2−3 + 1 · 2−4
Als weiteres bin¨ares Beispiel wird die Quelle aus Beispiel 4.23 betrachtet, bei der durch Zusammenfassung von Einzelzeichen zu Zeichenketten die relative Redundanz reduziert werden konnte. Beispiel 4.26 Die Quelle hat die Form: aa ab ba X = 0.36 0.18 0.18
bb 0.09
xi
P (xi )
li
Wi
Code
Z i ≤ Wi
x1 x2 x3 x4 x5 x6 x7 x8 x9
0.36 0.18 0.18 0.09 0.06 0.06 0.03 0.03 0.01
2 3 3 4 5 5 6 6 7
0.00 0.36 0.54 0.72 0.81 0.87 0.93 0.96 0.99
00 010 100 1011 11001 11011 111011 111101 1111110
0.00000 0.25000 0.50000 0.68750 0.78125 0.84375 0.92250 0.95375 0.98500
ac 0.06
ca 0.06
bc 0.03
cb 0.03
cc 0.01
Die Bestimmung dieses Codes erfolgt genau wie im Beispiel 4.25. Dieses Beispiel verdeutlicht die oben getroffene Aussage, dass die L¨angenbestimmung des Shannon-Codes nur dann g¨unstig ist, wenn die Wahrscheinlichkeiten P (xi ) reziproke Zweierpotenzen sind. F¨ur das Zeichen x9 ist es sofort einsichtig, dass die Zeichenl¨ange l9 = 6 ausreichend w¨are. Das Codewort x9 k¨onnte dann (111111) lauten.
Als letztes Beispiel der Quellcodierung nach Shannon soll ein nichtbin¨arer Code betrachtet werden. Die Vorgehensweise ist bis auf das Alphabet des Codes die gleiche wie bei den bin¨aren Codes.
4.6 Quellcodierung mit Optimalcodes
329
Beispiel 4.27 Gegeben ist eine Informationsquelle mit dem Wahrscheinlichkeitsfeld: a b c d e f g X= 1/4 1/4 1/16 1/16 1/4 1/16 1/16 Zun¨achst berechnen wir die kleinstm¨ogliche mittlere Codewortl¨ange eines Quadrin¨arecodes, d.h. f¨ur den Radix gilt: (r = 4).
xi a b e c d f g
li 1 1 1 2 2 2 2
lmin =
H(X) = 1.25, ld r
Wi
Zi ≤ Wi
Code
−1
0 1 2 30 31 32 33
0 1/4 1/2 3/4 13/16 14/16 15/16
0·4 1 · 4−1 2 · 4−1 3 · 4−1 + 0 · 4−2 3 · 4−1 + 1 · 4−2 3 · 4−1 + 2 · 4−2 3 · 4−1 + 3 · 4−2
H(X) = 3 ·
1 1 5 · ld 4 + 4 · · ld 16 = . 4 16 2
F¨ur die Ermittelung des Quadrin¨arcodes (r = 4) nach Shannon werden die Zeichen nach fallenden Wahrscheinlichkeiten sortiert. F¨ur die Berechnung von li gilt: li ≥ −
ld P (xi ) ld P (xi ) =− . ld 4 2
Die Ermittlung der mittleren Codewordla¨ nge Lm zeigt, dass hier gilt: Lm =
6
P (xi ) · li =
i=1
4 3 ·1+ · 2 = 1.25 = lmin . 4 16
4.6.4 Quellcodierung nach der Methode von Fano Die Quellcodierung nach der Methode von Fano wird fast ausschließlich f u¨ r r = 2 durchgef¨uhrt. Nachstehend ist das Dreischrittverfahren des Algorithmusses jedoch allgemein formuliert. In der Regel f¨uhrt jedoch der Algorithmus f¨ur nicht bin¨are Codes zu keinen guten Ergebnissen. 1. Zun¨achst m¨ussen die n zu codierenden Zeichen nach fallenden Wahrscheinlichkeiten P (x i ) sortiert werden: P (x1 ) ≥ P (x2 ) ≥ · · · ≥ P (xn ) 2. Die Menge der n Zeichen wird in r Gruppen G1 , G2 , . . . , Gr m¨oglichst gleicher Wahrscheinlichkeiten P (G1 ) ≈ P (G2 ) ≈ · · · ≈ P (Gr ) aufgeteilt: P (G1 ) =
n1 i=1
P (xi ),
P (G2 ) =
n2 i=n1 +1
P (xi ), · · · , P (Gr ) =
n
P (xi ).
i=nr−1
Die erste Gruppe erh¨alt die Codestelle 0, die zweite die Codestelle 1, usw. bis zur letzten Gruppe, die die Codestelle r − 1 erh¨alt. 3. Diese Gruppen m¨ussen danach in weitere Untergruppen gem¨aß der 2. Vorschrift unterteilt werden, solange dies m¨oglich ist. Dies bedeutet, dass das Verfahren solange fortgesetzt wird, bis Gruppen entstehen, die nur noch ein Zeichen enthalten.
330
4 Informationstheorie und Quellencodierung
Als Beispiele f¨ur die Konstruktion dieses Codierverfahrens sollen wieder die gleichen Quellen wie f¨ur das Codierverfahren nach Shannon verwendet werden. Beispiel 4.28 F¨ur die Quelle X (vgl. Bsp. 4.25) gilt: x1 x2 x3 x4 x5 x6 X= 1/4 1/4 1/8 1/8 1/16 1/16 xi
P (xi )
x1 x2 x3 x4 x5 x6 x7 x8
0.25 0.25 0.125 0.125 0.0625 0.0625 0.0625 0.0625
00 01 10 10 11 11 11 11
entf¨allt 100 101 110 110 111 111
x8 1/16
Die Erstellung des Fanocodes ist in der nebenstehenden Tabelle dargestellt. Im ersten Schritt wird f¨ur jeden Bin¨arcode danach gesucht, welche der geordneten Zeichen xi in der Summe ihrer Wahrscheinlichkeiten m¨oglichst nahe bei 0.5 liegen. In diesem Beispiel gilt: P (x1 ) + P (x2 ) = 0.5. Damit muss die zweite Gruppe auch die Wahrscheinlichkeit 0.5 besitzen.
Code 0 0 1 1 1 1 1 1
x7 1/16
entf¨allt entf¨allt 1100 1101 1110 1111
Die erste Gruppe erh¨alt die Codewortstelle 0 und die zweite Gruppe die Codewortstelle 1. Da die erste Gruppe nur noch aus zwei Elementen (x1 , x2 ) besteht, erh¨alt x1 die 0 und x2 die 1 angeh¨angt. F¨ur die zweite Gruppe wird versucht, wieder die Mitte der Gruppenwahrscheinlichkeit 0.5/2 = 0.25 zu finden. Da gilt: P (x3 ) + P (x4 ) = 0.25, werden diese beiden Elemente zu einer Gruppe zusammengefasst. Die Zeichen x3 und x4 erhalten damit als zweite Stelle die Null zugewiesen. Da diese Gruppe wieder nur zwei Elemente besitzt, bekommt x3 eine Null und x4 eine Eins als dritte Stelle zugewiesen. Die Elemente x5 , x6 , x7 und x8 erhalten als zweite Codewortstelle die Eins. F¨ur diese Gruppe wird versucht, wieder die Mitte der Gruppenwahrscheinlichkeit 0.25/2 = 0.125 zu finden. Das ist hier ebenso durch die Zusammenfassung der Elemente x 5 , x6 und x7 , x8 m¨oglich. Beispiel 4.29 Als n¨achstes soll die Quelle aus Beispiel 4.23 betrachtet werden. Die Quelle hat die Form: aa ab ba bb ac ca bc cb cc X = 0.36 0.18 0.18 0.09 0.06 0.06 0.03 0.03 0.01 xi
P (xi )
x1 x2 x3 x4 x5 x6 x7 x8 x9
0.36 0.18 0.18 0.09 0.06 0.06 0.03 0.03 0.01
1. Stelle
2. Stelle
3. Stelle
4. Stelle
5. Stelle
Code
0 0 1 1 1 1 1 1 1
0 1 0 0 1 1 1 1 1
entf¨allt entf¨allt 0 1 0 0 1 1 1
entf¨allt entf¨allt entf¨allt entf¨allt 0 1 0 1 1
entf¨allt entf¨allt entf¨allt entf¨allt entf¨allt entf¨allt entf¨allt 0 1
00 01 100 101 1100 1101 1110 11110 11111
4.6 Quellcodierung mit Optimalcodes
331
Beispiel 4.29 verdeutlicht, dass das Problem und der Aufwand der Quellcodierung nach Fano darin besteht, m¨oglichst Gruppen gleich großer Wahrscheinlichkeiten zu bilden, ohne die anf¨angliche Sortierung zu ver¨andern. Im nachfolgenden Abschnitt wird der Unterschied zur Huffman Codierung deutlich, die mit erneuter Sortierung arbeitet. Als letzte Beispiele der Quellcodierung nach Fano sollen wieder nichtbin¨are Codes betrachtet werden. Beispiel 4.30 Gegeben ist die Informationsquelle aus Beispiel 4.27 mit dem Wahrscheinlichkeitsfeld: a b c d e f g X= . 1/4 1/4 1/16 1/16 1/4 1/16 1/16 xi a b e c d f g
P (xi ) 1/4 1/4 1/4 1/16 1/16 1/16 1/16
1. Stelle 0 1 2 3 3 3 3
2. Stelle entf¨allt entf¨allt entf¨allt 0 1 2 3
code 0 1 2 30 31 32 33
Zur Bestimmung des quadrin¨aren FanoCodes (r = 4) werden zun¨achst die Zeichen nach fallenden Wahrscheinlichkeiten sortiert. Der Versuch, r = 4 Gruppen zu bilden, die gleich der Wahrscheinlichkeit 1/r = 0.25 sind, gelingt problemlos. Die Zeichen a, b und e bilden Gruppen mit nur einem Element und erhalten keine weitere Wertzuweisung.
Die Zeichen c, d, f und g erhalten als weitere Codezuweisung die Werte 0 − 3. Das letzte Beispiel wird geringf¨ugig abgewandelt und der quadrin¨are (r = 4) Fano-Code bestimmt. Beispiel 4.31 Gegeben ist eine Informationsquelle mit dem Wahrscheinlichkeitsfeld: a b c d e f g h X= 1/4 1/4 1/8 1/8 1/16 1/16 1/16 1/16 xi a b c d e f g h
P (xi ) 1/4 1/4 1/8 1/8 1/16 1/16 1/16 1/16
1. Stelle 0 1 2 2 3 3 3 3
2. Stelle entf¨allt entf¨allt 0 1 0 1 2 3
Code 0 1 20 21 30 31 32 33
In diesem Beispiel ist auff¨allig, dass die Wahrscheinlichkeiten der Zeichen c und d keine Potenzen der Form: r −li bilden. Hierdurch werden bei der zweiten Wertzuweisung, die m¨oglichen Codew¨orter (22) und (23) nicht vergeben und es kann kein redundanzfreier Code entstehen.
In der folgenden Quellcodierung nach Huffman wird auf die in diesem Abschnitt beschriebenen Schwierigkeiten der Fano Codierung eingegangen und aufgezeigt, in welcher Weise die Huffman Codierung einen neuen Weg beschreitet.
332
4 Informationstheorie und Quellencodierung
4.6.5 Quellcodierung nach Huffman Die Quellcodierung nach der Methode von Huffman wird in fu¨ nf Schritten durchgef¨uhrt: 1. Zun¨achst m¨ussen die n zu codierenden Zeichen wieder nach fallenden Wahrscheinlichkeiten P (xi ) sortiert werden: P (x1 ) ≥ P (x2 ) ≥ · · · ≥ P (xn ) 2. Den letzten r Zeichen, mit den kleinsten Wahrscheinlichkeiten, werden die Codewortstellen 0, 1, . . . , r − 1 zugeordnet. 3. Diese r Zeichen werden zu einem neuen Zeichen y zusamengefasst, wobei: n
P (y) =
P (xi )
i=n−(r−1)
die Wahrscheinlichkeit des neuen Zeichens y ist, die aus der Summe der Wahrscheinlichkeiten der zusammengefassten r Zeichen xn−(r−1) , . . . xn gebildet wird. 4. Dieser so neu gebildete Zeichensatz x1 , x2 , . . . , xn−r , y, der aus n − r + 1 Zeichen besteht, wird gem¨aß der 1. Vorschrift geordnet. Danach werden die Schritte 2. und 3. durchlaufen. Das Verfahren wird solange fortgesetzt, bis im letzten Schritt genau die letzten r Zeichen ihre Codewortstellen enthalten. Achtung: Bei Gleichheit der Wahrscheinlichkeiten wird das neue Zeichen nach oben sortiert. 5. Die schrittweise zugeordneten Codewortstellen ergeben in umgekehrter Folge ausgelesen, das Codewort eines einzelnen Zeichens. Beispiel 4.32 F¨ur die Quelle X (vgl. Bsp. 4.25 und 4.28) gilt: x2 x3 x4 x5 x6 x7 x1 X= 1/4 1/4 1/8 1/8 1/16 1/16 1/16
x8 1/16
Die Codierung des bin¨aren Huffmancodes kann in tabellarischer Form dargestellt werden. xi x1 x2 x3 x4 x5 x6 x7 x8
P (xi ) 1/4 1/4 1/8 1/8 1/16 1/16 1/16 0 1/16 1
1. Reduktion x1 1/4 x2 1/4 x78 1/8 x3 1/8 x4 1/8 x5 1/16 0 x6 1/16 1
4. Reduktion x5678 1/4 x34 1/4 x1 1/4 0 x2 1/4 1
2. Reduktion x1 1/4 x2 1/4 x56 1/8 x78 1/8 x3 1/8 0 x4 1/8 1
5. Reduktion x12 1/2 x5678 1/4 0 x34 1/4 1
3. Reduktion x34 1/4 x1 1/4 x2 1/4 x56 1/8 0 x78 1/8 1
6. Reduktion x345678 1/2 0 x12 1/2 1
4.6 Quellcodierung mit Optimalcodes
333
Den geordneten Zeichen x7 und x8 mit den kleinsten Wahrscheinlichkeiten werden die Codestellen 0 und 1 zugeordnet. Dies entspricht den am weitesten rechts stehenden Bina¨ rstellen im Codewort. Das neue Zeichen y = x78 mit der Wahrscheinlichkeit P (x7 ) + P (x8 ) = 1/8 wird einsortiert. Da die Wahrscheinlichkeit P (x78 ) gleich groß mit der des Zeichens x3 ist, wird das Zeichen y = x78 vor x3 einsortiert. Dies hat zur Folge, dass gegebenenfalls bei einer weiteren Wertzuweisung zuerst das Zeichen x3 einen Wert erh¨alt und danach erst das Zeichen y = x78 . Dies vermeidet eine unn¨otig große Varianz der entstehenden Codewortla¨ ngen. x3 erh¨alt in der 2. Reduktion seinen ersten Wert, y = x78 erh¨alt erst in der 3. Reduktion einen weiteren Wert. In jeder Reduktion wird der Zeichensatz um ein Zeichen verringert, da zwei Zeichen zu einem neuen Zeichen zusammengefasst werden. Nach der letzten Reduktion (der 7.) wird mit dem Auslesen der Codew¨orter begonnen. Die Zeichen x2 und x3 erhalten jeweils eine 1 als erste (linksstehende) Bin¨arstelle. Alle anderen erhalten eine 0. In der 6. Reduktion erhielt das Zeichen x 1 eine 0, deshalb ist die zweite Bin¨arstelle von x1 eine 0. Dieses Verfahren wird r¨uckw¨arts bis zur ersten Reduktion fortgesetzt. Der hieraus resultierende Code lautet: xi Code
x1 10
x2 11
x3 010
x4 011
x5 0000
x6 0001
x7 0010
x8 0011
Als weiteres bin¨ares Beispiel soll die Quelle aus Beispiel 4.23 und 4.29 betrachtet werden. Beispiel 4.33 Die Quelle hat die Form: aa ab ba bb X = 0.36 0.18 0.18 0.09 xi x1 x2 x3 x4 x5 x6 x7 x8 x9
P (xi ) 0.36 0.18 0.18 0.09 0.06 0.06 0.03 0.03 0 0.01 1
1. Reduktion x1 0.36 x2 0.18 x3 0.18 x4 0.09 x5 0.06 x6 0.06 x89 0.04 0 x7 0.03 1
5. Reduktion x1 0.36 x456789 0.28 x2 0.18 0 x3 0.18 1
ac 0.06
2. Reduktion x1 0.36 x2 0.18 x3 0.18 x4 0.09 x789 0.07 x5 0.06 0 x6 0.06 1
ca 0.06
bc 0.03
cb 0.03
3. Reduktion x1 0.36 x2 0.18 x3 0.18 x56 0.12 x4 0.09 0 x789 0.07 1
6. Reduktion x23 0.36 x1 0.36 0 x456789 0.28 1
cc 0.01
4. Reduktion x1 0.36 x2 0.18 x3 0.18 x4789 0.16 0 x56 0.12 1
7. Reduktion x1456789 0.64 0 x23 0.36 1
Beispiel 4.33 l¨asst einen Vorteil der Huffman Codierung gegenu¨ ber der Fano- und Shannon Codierung erkennen. Die umst¨andliche Suche nach der Mitte einer Gruppenwahrscheinlichkeit entf¨allt zu Gunsten der Einsortierung des neu gebildeten Zeichens. Tats¨achlich erreicht der Huffman-Code eine kleinere mittlere L¨ange als der Fano-Code (vgl. Bsp. 4.23, S. 324).
334
4 Informationstheorie und Quellencodierung
Als letzte Beispiele der Quellcodierung nach Huffman sollen wieder nichtbin¨are Codes betrachtet werden. Wichtig ist es, vor der Codierung zu pru¨ fen, ob die Anzahl n der Quellzeichen g¨unstig f¨ur die zu erwartende Anzahl der Reduzierungen ist. Gem¨aß des 4. Schrittes der Huffman-Codierung m¨ussen zur letzten Reduktion genau r Zeichen u¨ brig bleiben. Da bei jeder Reduktion die n Zeichen um r − 1 Zeichen reduziert werden, ist zu pru¨ fen, ob nach k Reduktionen die Beziehung gilt: n − k · (r − 1) = r.
(4.74)
Ist dies der Fall, so geht das Verfahren auf, d.h. es bleiben zur letzten Reduktion genau r Zeichen u¨ brig. Ist die Gleichung (4.74) aber nicht erfu¨ llt, so m¨ussen nD Dummy Zeichen eingef¨uhrt werden, die mit der Wahrscheinlichkeit P (dummy) = 0 auftreten. Die Gleichung (4.74) geht dann in die folgende Gleichung u¨ ber: n + nD − k · (r − 1) = r.
(4.75)
Die Gleichung (4.75) ist f¨ur ein geeignetes nD immer erf¨ullbar. Beispiel 4.34 Gegeben ist die Informationsquelle (vgl. Bsp. 4.27 und 4.30) mit n = 7 Zeichen: a b c d e f g X= 1/4 1/4 1/16 1/16 1/4 1/16 1/16 xi x1 x2 x3 x4 x5 x6 x7
P (xi ) 1/4 1/4 1/4 1/16 0 1/16 1 1/16 2 1/16 3
1. Reduktion x4567 1/4 0 x1 1/4 1 x2 1/4 2 x3 1/4 3
Codeworte 1 2 3 00 01 02 03
Gesucht ist der quadrin¨are (r = 4) Huffman-Code. Zun¨acht wird gepr¨uft, ob die Gleichung (4.74) f¨ur ein k erf¨ullbar ist: 7 − 1 · 3 = 4 = r ist mit k = 1 erf¨ullt. Das Verfahren muss also in 2 Zuweisungsschritten beendet sein, ohne dass Dummy Zeichen ben¨otigt werden.
Das letzte Beispiel wird geringf¨ugig abgewandelt. Die Anzahl der Zeichen hat sich auf acht erho¨ ht. Beispiel 4.35 Gegeben ist eine Informationsquelle mit acht Zeichen: a b c d e f g X= 1/4 1/4 1/8 1/8 1/16 1/16 1/16 xi x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
P (xi ) 1/4 1/4 1/8 1/8 1/16 1/16 1/16 0 1/16 1 0 2 0 3
1. Reduktion x1 1/4 x2 1/4 x78 1/8 x3 1/8 0 x4 1/8 1 x5 1/16 2 x6 1/16 3
2. Reduktion x3456 3/8 0 x1 1/4 1 x2 1/4 2 x78 1/8 3
Code 1 2 00 01 02 03 30 31 32 33
h 1/16
Gesucht ist der quadrin¨are (r = 4) Huffman-Code. Die Gleichung (4.74) liefert: 8 − 2 · 3 = 2 = r. Es m¨ussen 2 Dummy Zeichen eingef¨uhrt werden. Die Gleichung (4.75) liefert dann: 8 + 2 − 2 · 3 = 4 = r.
4.7 Aufgaben zur Informationstheorie und Quellencodierung
335
Die Gleichung (4.75) kann auch etwas kompakter formuliert werden. Die Anzahl der Dummy Zeichen nD kann auch durch: nD = (r − n) mod (r − 1)
(4.76)
berechnet werden. Die Gleichung (4.76) geht aus (4.75) hervor, wenn diese modulo (r − 1) berechnet wird. Ist z.B. r = 4 und n = 8 so ergibt: r − n = −4. −4 mod 3 = −1 = 2 = n D .
4.7 Aufgaben zur Informationstheorie und Quellencodierung 4.7.1 Diskrete Informationsquellen Aufgabe 4.7.1 Eine Informationsquelle liefert die 4 Zeichen a, b, c und d mit den Wahrscheinlichkeiten P (a) = P (b) = 1/4, P (c) = 1/2. Man berechne die fehlende Wahrscheinlichkeit und die Entropie H. Wie groß kann H maximal werden und wie groß sind dann die Wahrscheinlichkeiten f¨ur die Zeichen? Aufgabe 4.7.2 Eine Quelle sendet die Zeichen a, b, c und d. Bekannt sind die Wahrscheinlichkeiten P (a) = 1/4 und P (b) = 1/8. Warum kann man die Wahrscheinlichkeiten P (c) und P (d) nicht so w¨ahlen, dass die Entropie den Wert 2 annimmt? Aufgabe 4.7.3 Eine diskrete Quelle sendet Zahlen xi ∈ N mit folgenden Wahrscheinlichkeiten: Zahlenbereich 1 bis 25 26 bis 50 51 bis 100
Wahrsch. 0.5 0.25 0.25
Innerhalb dieser Zahlenbereiche sind die Zahlen gleichwahrscheinlich. a) Berechnen Sie den mittleren Informationsgehalt der Quelle. b) Wie groß kann die Entropie maximal werden? Wie groß sind dann die Wahrscheinlichkeiten f¨ur die oben angegebenen Zahlenbereiche?
L¨osung: P (d) = 1 − P (a) − P (b) − P (c) = 0, 1 1 ) + 12 ld ( 1/2 ) = 1.5 bit, H = 2 41 ld ( 1/4 1 1 Hmax = 4 4 ld ( 1/4 ) = 2 bit, wenn alle 4 Zeichen gleich wahrscheinlich auftreten.
L¨osung: Dies w¨are nur m¨oglich, wenn alle Zeichen gleichwahrscheinlich auftreten w¨urden.
L¨osung: a) H
=
25 · h(0.5/25) + 25 · h(0.25/25)
=
6.39 bit
=
x · ld(1/x).
+50 · h(0.25/50) mit : h(x)
b) Hmax = ld(100) = 6.64 bit, wenn alle Zahlen gleichwahrscheinlich w¨aren. Die kommulierten Wahrscheinlichkeiten sind dann: 1. Gruppe: 0.25, 2. Gruppe: 0.25, 3. Gruppe: 0.50.
336
4 Informationstheorie und Quellencodierung
Aufgabe 4.7.4 Gegeben sind zwei unabh¨angige Signalquellen X und Y : a b c X= 0.2 0.4 0.4
L¨osung: Die Matrix [P (xi , yj )] erh¨alt man durch Multiplikation der Einzelwahrscheinlickeiten, da sie statistisch unabh¨ 0angig sind. 1 0.06 0.08 0.06 [P (xi , yj )] = @ 0.12 0.16 0.12 A 0.12 0.16 0.12
Y =
a 0.3
b 0.4
c 0.3
H(X)
=
h(0.2) + 2 · h(0.4) = 1.522
H(Y )
=
2 · h(0.3) + h(0.4) = 1.571
H(X, Y )
=
2 · h(0.06) + 4 · h(0.12) +
Berechnen Sie H(X), H(Y ), H(X, Y ) und die Matrix [P (xi , yj )].
+ 2 · h(0.16) + h(0.08) =
3.093 bit mit: h(n) = n · ld (1/n).
Aufgabe 4.7.5 Eine Quelle sendet die Zeichen a, b, c und d. Bekannt sind nur die Wahrscheinlichkeiten P (a) = 1/2 und P (b) = 1/4. Welchen Wert der Entropie kann die Quelle unter diesen Umst¨anden maximal annehmen?
L¨osung: Die gr¨oßtm¨ogliche Entropie ergibt sich durch Aufteilen der Restwahrscheinlichkeit auf die beiden fehlenden Zeichen. Hmax
=
h(1/2) + h(1/4) +2 · h(1/8) = 1.75 bit mit: h(n) = n · ld (1/n).
Aufgabe 4.7.6 Zwei Quellen X und Y senden die Zeichen a, b, c. Die Matrix gibt die Wahrscheinlichkeiten P (xi , yj ) an: ⎛ ⎞ 1/8 1/4 1/16 [P (xi , yj )] = ⎝ 1/4 1/16 1/16 ⎠ 1/16 1/16 1/16 Berechnen Sie die Entropien beider Quellen und geben Sie an, ob die Quellen unabh¨angig voneinander sind. Geben Sie hierf¨ur eine Begr¨undung an.
L¨osung:
=
3 X [P (xi , yj )]
P (yj )
=
3 X [P (xi , yj )]
H(X)
=
H(Y )
=
h(7/16) + h(3/8) + h(3/16)
P (xi )
j=1
i=1
H(X, Y ) mit :
=
1.5052 bit
=
6h(1/16) + 2h(1/4) + h(1/8)
=
2.875 bit h(n) = n · ld (1/n).
H(X, Y ) = H(X) + H(Y ) ⇒ Teilsignale abh¨angig.
4.7 Aufgaben zur Informationstheorie und Quellencodierung Aufgabe 4.7.7 Ein Signal setzt sich aus 3 Teilsignalen X, Y, Z zusammen. Die Teilquellen X, Y, Z senden jeweils die Signale a, b, c. F¨ur die Teilquelle Z gilt: P (z = a) = 0.5, ⎛ ⎞ 1/16 1/4 1/16 1/4 ⎠ [P (xi , yj )] = ⎝ 1/16 1/8 1/16 1/16 1/16
337
L¨osung:
P (xi )
=
j=1
P (yj )
=
H(X)
=
3 X [P (xi , yj )] i=1
=
H(Y ) 7 3 3 h( ) + h( ) + h( ) 16 8 16 1.5052 bit
=
h(0.5) + 2 · h(0.25)
=
P (z = b) = P (z = c) = 0.25. Die Teilquelle Z ist unabh¨angig von den beiden anderen Quellen. Von den Quellen X, Y sind die Wahrscheinlichkeiten P (xi , yj ) bekannt.
3 X [P (xi , yj )]
H(Z) H(Z)
=
1.5 bit
H(X, Y, Z)
=
H(X, Y ) + H(Z)
=
2.875 + 1.5 = 4.375 bit
=
3 · ld (3) = 4.755 bit
Hmax
a) Berechnen Sie die Entropien H(X), H(Y ), H(Z) der drei Teilquellen.
mit :
h(n) = n · ld (1/n).
b) Berechnen Sie die Entropie der Gesamtquelle. c) Wie groß kann die Entropie einer Verbundquelle bestehend aus 3 Teilquellen mit je 3 Elementen maximal werden?
Aufgabe 4.7.8 Eine Quelle besteht aus zwei Teilquellen X und Y . Das Wahrscheinlichkeitsfeld der Quelle X und weiterhin die Matrix der Wahrscheinlichkeiten [P (yj |xi )] sind unten angegeben: a b c X= 1/2 1/4 1/4 ⎛
⎞
0 1 0 [P (yj |xi )] = ⎝ 1 0 0 ⎠ 0 0 1 Ermitteln Sie die Entropien H(X), H(Y ) und H(X, Y ).
L¨osung: H(X) = H(Y ) = H(X, Y ) = 1.5 bit Grund: 0
0 [P (xi , yj )] = @ 1/4 0 Zeilensummen → P (xi ) sind gleich den Spaltensummen → P (yj ).
1/2 0 0
1 0 0 A 1/4
338
4 Informationstheorie und Quellencodierung
Aufgabe 4.7.9 Eine Quelle mit dem Wahrscheinlichkeitsfeld: a b X= 1/2 1/2 sendet Zweierkombinationen (xi , xi+1 ) aa, ab, ba, bb. Von der Matrix mit den Wahrscheinlichkeiten der Zweierkombinationen ist nur ein einziges Element bekannt, es gilt: 0.2 ? [P (xi , xi+1 )] = ? ?
L¨osung: Spalten- und Zeilensummen m¨ussen 1/2 ergeben: „ « 0.2 0.3 [P (xi , yj )] = 0.3 0.2
HM =
1 H(X, Y ) = 0.985 bit. 2
Ermitteln Sie die fehlenden Matrixelemente und begr¨unden Sie Ihre L¨osung. Berechnen Sie die Markoff’sche Entropie der Zeichen innerhalb der Zweierkombination. Wie groß kann die Markoff’sche Entropie maximal sein?
Aufgabe 4.7.10 Eine Verbundquelle Z besteht aus den Teilquellen X und Y : x0 = 0 x1 = 1 x2 = −1 X = 1 1 p(x1 ) 4 4 Y =
y0 = 0 y 1 = 1 p(y1 ) p(y0 )
Bekannt ist teilweise auch die Matrix der bedingten Wahrscheinlichkeiten: ⎞ ⎛3 1 4
[P (yj |xi )] = ⎝ 14 1 2
4
P (y = 1|x = 1) ⎠ 1 2
a) Erg¨anzen Sie bitte die fehlenden Wahrscheinlichkeiten. b) Geben Sie die Verbundquelle an (Elemente und deren Wahrscheinlichkeiten). c) Sind die Quellen X und Y statistisch unabh¨angig? Begr¨undung! d) Berechnen Sie bitte die Entropien H(X), H(Y ), H(Z), H(X, Y ) und H(Y |X).
L¨osung: a) p(x1 ) = 1/2, p(y1 = 1|x1 = 1) = 3/4. b) P (xi , yj ) = P (xi ) · P (yj |xi ) 0 3 1 1 [P (xi , yj )] = @
„ Y =
y0 = 0 7 16
16 1 8 1 8
16 3 8 1 8
y1 = 1
A
«
9 16
c) Nein. Dann m¨ußte gelten: P (xi , yj ) = P (xi ) · P (yj ) d) H(X) = 1.5bit, H(Y ) = 0.989 bit H(Z) = H(X, Y ) = 2.36 bit H(Y |X) = H(X, Y ) − H(X) = 0.86 bit.
4.7 Aufgaben zur Informationstheorie und Quellencodierung Aufgabe 4.7.11 Eine Verbundquelle V besteht aus den bin¨aren Teilquellen X1 und Y1 , sowie X2 und Y2 . Die Elemente der bin¨aren Teilquellen treten gleich wahrscheinlich auf. Die Quellen X1 und Y1 sind von den Teilquellen X2 und Y2 , statistisch unabh¨angig. F¨ur den Zusammenhang der Quellen X1 und Y1 , sowie X2 und Y2 gilt, dass die bedingte Wahrscheinlichkeit f¨ur zwei gleiche Elemente P (yj |xi=j ) =
3 8
betr¨agt.
a) Bestimmen Sie die Matrizen der Verbund– und der bedingten Wahrscheinlichkeiten von X1 und Y1 , von X2 und Y2 sowie von V . b) Berechnen Sie bitte die EntroH(Y1 ), H(X2 ), pien H(X1 ), H(Y2 ), H(X1 , Y1 ), H(Y2 |X2 ) und H(V ) = H(X1 , Y1 , X2 , Y2 ).
339
„ « 0 1 L¨osung: X1 = X2 = Y1 = Y2 = 1 1 „ 3 2 5 2« 8 8 [P (Y1 |X1 )] = [P (Y2 |X2 )] = 3 5 „8 3 8 5 « 16 16 [P (X1 , Y1 )] = [P (X2 , Y2 )] = 5 3 [P (V )] = 0 X1 Y1 /X2 Y2 B 00 B B B 01 B B 10 @ 11
16
16
00
01
10
11
9 (16)2 15 (16)2 15 (16)2 9 (16)2
15 (16)2 25 (16)2 25 (16)2 15 (16)2
15 (16)2 25 (16)2 25 (16)2 15 (16)2
9 (16)2 15 (16)2 15 (16)2 9 (16)2
1 C C C C C C A
[P (X2 , Y2 |X1 , Y1 )] = 0 1 X1 Y1 /X2 Y2 00 01 10 11 B 5 5 3 C 3 00 B 16 16 16 16 C B 5 5 3 C 3 B C 01 16 16 16 16 C B 5 5 3 A 3 @ 10 16 16 16 16 3 5 5 3 11 16 16 16 16 b) H(X1 ) = H(Y1 ) = H(X2 ) = H(Y2 ) = 1 bit, H(X1 , Y1 ) = 1.954 bit, H(V ) = 2H(X1 , Y1 ) = 3.9088 bit.
¨ 4.7.2 Diskrete Ubertragungskan¨ ale
Aufgabe 4.7.12 Die Zeichen a, b, c werden u¨ ber einen gest¨orten Kanal u¨ bertragen. Gegeben ist die Matrix der Wahrscheinlichkeiten P ⎛ ⎞(xi , yj ). 1/4 1/8 1/8 0 ⎠ [P (xi , yj )] = ⎝ 0 1/8 1/4 0 1/8 a) Man berechne die Wahrscheinlichkeiten P (xi ), P (yj ). b) Man berechne H(X), H(X, Y ).
H(Y ) und
c) Wie groß ist die Transinformation? d) Wie groß kann H(X; Y ) bei st¨orungs¨ freier Ubertragung maximal werden?
L¨osung: a) „ X = „ Y =
a b c 1/2 1/8 3/8 a b c 1/2 1/4 1/4
«
«
b) H(X) = 1.4056 H(Y ) = 1.5 H(X, Y ) = 2.5 c) H(X; Y ) = H(X) + H(Y ) − H(X, Y ) H(X; Y ) = 0.4056 d) H(X; Y )max = H(X).
340
4 Informationstheorie und Quellencodierung
Aufgabe 4.7.13 Ein gest¨orter Kanal u¨ bertr¨agt die von der Quelle gleichwahrscheinlich gesendeten Signale a, b, c derart, dass gilt:
L¨osung: a) 0
1 0.8 0.1 0.1 P (yj |xi ) = @ 0.1 0.8 0.1 A 0.1 0.1 0.8
P (y = ξ|x = y) = 0.8 ∀ ξ ∈ {a, b, c}. Die Wahrscheinlichkeiten, dass andere Zeichen empfangen als gesendet wurden, sind alle gleich groß. a) Stellen Sie die Matrix der bedingten Wahrscheinlichkeiten P (yj |xi ) auf. b) Berechnen Sie die Matrix der Wahrscheinlichkeiten P (xi , yj ).
b) 1 0.266 0.033 0.033 P (xi , yj ) = @ 0.033 0.266 0.033 A 0.033 0.033 0.266 0
c) H(X) = H(Y ) = 1.585 H(X; Y ) = 0.663.
c) Berechnen Sie H(X), H(Y ) und die Transinformation H(X; Y ).
Aufgabe 4.7.14 Eine Quelle gibt 4 gleichwahrscheinliche Zei¨ chen a, b, c, d ab. Die Matrix der Ubergangswahrscheinlichkeiten des zur Verf¨ugung stehenden Kanals ist gegeben: [P (yj |xi )] = ⎛ ⎞ 1/4 1/4 1/2 0 0 1/2 1/2 ⎟ ⎜ 0 ⎝ ⎠ 1 0 0 0 1/4 1/4 1/4 1/4
L¨osung: a) [P (xi , yj )] = P (xi ) · P (yj |xi ) = 0 1 1/16 1/16 1/8 0 B 0 0 1/8 1/8 C B C @ 1/4 0 0 0 A 1/16 1/16 1/16 1/16
a) Man berechne die Matrix [P (xi , yj )].
b) P (y = a) = 3/8, P (y = b) = 1/8, P (y = c) = 5/16, P (y = d) = 3/16
b) Man berechne die Wahrscheinlichkeiten P (yj ).
c) H(X; Y ) = 0.7579, H(X|Y ) = 1.2421, H(Y |X) = 1.125.
c) Man berechne Transinformation, Irrele¨ vanz und Aquivokation.
Aufgabe 4.7.15 Wie groß ist die Grenzfrequenz eines tiefpassbegrenzten bin¨aren Kanals, wenn seine Kanalkapazit¨at 60 kbit/sec betr¨agt?
L¨osung: Der periodische Vorgang mit der ho¨ chsten Frequenz in einem Datenstrom ist die 1010101010...-Folge. Dabei entspricht die Dauer eines Bin¨arzeichen einer halben Periode. Daraus folgt: f = 60kbit/sec · 0.5 = 30kHz.
4.7 Aufgaben zur Informationstheorie und Quellencodierung Aufgabe 4.7.16 ¨ Uber einen tiefpassbegrenzten Kanal mit fg = 10 kHz wird ein Signal x(t) angeschlossen. Bei dem Ausgangssignal y(t) sollen 1024 Amplitudenstufen unterschieden werden ko¨ nnen.
341
L¨osung: a) Hmax (Y ) = ld(1024) = 10 Bit b) M = 2fg · H · T = 3.6 · 108 Bit.
a) Wie groß ist H(Y ) maximal? b) Welche Informationsmenge enth¨alt y(t) nach einer Zeit T=30 Minuten? Aufgabe 4.7.17 ¨ Zwei bin¨are Ubertragungskan¨ ale mit den Rauschmatrizen: 0.9 0.1 ¨ U1 = 0.05 0.95 0.9421 0.0579 ¨ U2 = 0.1 0.9 sind hintereinander geschaltet. Berechnen Sie ¨ die Kanalkapazit¨at C des (gesamten) Ubertragungskanals, wenn die Quelle 1000 Zeichen je Sekunde sendet. Begr¨unden Sie die von Ihnen getroffene Annahme u¨ ber die Wahrscheinlichkeiten der Quellenzeichen. Aufgabe 4.7.18 Die Zeichen a, b, c, d einer Quelle X sollen u¨ ber einen gest¨orten Kanal zur Sinke Y u¨ bertragen werden. Die Matrix der Verbundwahrscheinlichkeiten ist teilweise bekannt: ⎛
⎞ 1 1 ? 16 16 0 ⎜0 ? 1 1 ⎟ 16 16 ⎟ [P (xi , yj )] = ⎜ ⎝? ? 1 ? ⎠ 4 ? ? ? 18 a) Erg¨anzen Sie bitte die fehlenden Verbundwahrscheinlichkeiten so, dass H(X) maximal wird und die u¨ bertragene Information H(X;Y) m¨oglichst groß wird. Begr¨unden Sie bitte kurz Ihre Wahl. b) Berechnen Sie bitte die Entropien H(X), H(Y ), H(X, Y ) und H(X; Y ) und geben Sie die Rauschmatrix des Kanals an.
L¨osung: „ ¨2 = ¨ =U ¨1 ·U U
0.85789 0.1421 0.1421 0.85789
«
Der Gesamtkanal ist symmetrisch gest¨ort, daher ist es sinnvoll anzunehmen, dass die Quellenzeichen gleich wahrscheinlich auftreten. „ « 0.4289 0.0711 V= 0.0711 0.4289 H(X; Y ) = 0.4103, C = 410.3 bit/s.
L¨osung: 0
1 1/8 1/16 1/16 0 B 0 1/8 1/16 1/16 C C [P (xi , yj )] = B @ 0 0 1/4 0 A 1/8 0 0 1/8 a) Hinweis: Alle anderen zul¨assigen Aufteilungen in der 4. Zeile f¨uhren zu kleineren Werten der Transinformation. Zudem muss jede Zeilensumme 1/4 ergeben, damit H(X) maximal wird. b) H(X) = 2 bit, H(Y ) = 1.936 bit, H(X, Y ) = 3.0 bit, H(X; Y ) = 0.936 Bit.
342
4 Informationstheorie und Quellencodierung
Aufgabe 4.7.19 ¨ Uber einen gest¨orten Kanal werden Zeichen a, b, c und d u¨ bertragen: ⎛ 1 1 1 0 12 6 12 ⎜ 1 1 1 ⎜ 0 16 [P (xi , yj )] = ⎜ 1 81 16 1 ⎝ 16 16 8 0 1 1 1 24 24 0 12
L¨osung:
die vier ⎞ ⎟ ⎟ ⎟. ⎠
¨ a) Bestimmen Sie bitte die Ubertragungsmatrix [P (yj |xi )]. Wie groß ist die Transinformation und die Entropie der Informationssenke? b) Wie groß ist der Informationsfluss auf dem Kanal, wenn die Quelle 1000 Zeichen je Sekunde sendet? Aufgabe 4.7.20 ¨ Uber einen gest¨orten Kanal werden die vier Zeichen a, b, c und dder Quelle X zur Senke a b c d Y u¨ bertragen: X = 4 1 1 1 9
⎛
3
3 4
⎜ ⎜0 [P (yj |xi )] = ⎜ 1 ⎝ 8 1 8
9
0 3 4 1 8 1 8
1 8 1 8 3 4
0
9
1 8 1 8
⎟ ⎟ ⎟. 0⎠ 3 4
? 1/16 ? ⎜0 [P (xi , yj )] = ⎝ ? ? ? ?
1/16 1/16 1/4 ?
⎞ 0 1/16 ⎟ ⎠ ; ? 1/16
b
c
1 4
b
1 6
c
0
d
13 48 1 2
B B0 [P (yj |xi )] = B 1 @ 4 1 4
«
d
1 4
11 48
48
« ,
11 48 1 4 1 4 1 2
0 1 2 1 4 1 4
1 4 1 4
1
C C C 0A 1 2
0
b) H(Y ) = 1.995, H(X) = 1.959, H(X, Y ) = 3.459 H(X; Y ) = H(X) + H(Y ) − H(X, Y ) H(X; Y ) = 0.495 bit, IT = 495 bit/s.
L¨osung: 0
1 3
B B 0 [P (xi , yj )] = B 1 @ 72
⎞
Bestimmen Sie bitte die Matrix der Verbundwahrscheinlichkeiten und geben Sie die Senke Y an. Wie groß ist die Transinformation, die Irrelevanz und die Entropie der Informationssenke? Wie groß ist der Informationsfluss auf dem Kanal, wenn die Quelle 3000 Zeichen je Sekunde sendet? Aufgabe 4.7.21 ¨ Uber einen gest¨orten Kanal werden die vier Zeichen a, b, c und d u¨ bertragen: a b c d X= 3/8 1/4 1/4 ? ⎛
„ a a) X = 1 „ 3 a Y = 13
„ y =
1 72
a
b
13 36
10 36
0 1 4 1 72 1 72
c
13 72
1 18 1 24 1 12
0 d
1 18 1 24
1
C C C, 0 A
1 12
«
,
13 72
H(X; Y ) = H(X) + H(Y ) − H(X, Y ) bit, IT = 3000 · H(x; y) bit/s.
L¨osung: „ a X= 3 8
b 1 4
c 1 4
d 1 8
«
0
, 2 8
1 16 1 8
1 16 1 16 1 4
0
B 1 B0 16 [P (xi , yj )] = B @0 0 0 1 1 0 16 0 16 „ « a b c d Y = . 1/4 1/4 3/8 1/8
1 C C C, A
4.7 Aufgaben zur Informationstheorie und Quellencodierung a) Erg¨anzen Sie die fehlenden Wahrscheinlichkeiten so, dass unter den vorgegebenen Bedingungen die u¨ bertragene Information H(X; Y ) m¨oglichst groß wird. Begr¨unden Sie bitte Ihre Wahl.
b) 0
2 3
1 6 1 2
1 6 1 4
0
B 1 B0 4 [P (yj |xi )] = B @0 0 1 0 0 12 0 12
b) Geben Sie bitte die Rauschmatrix des des Kanals an. c) Berechnen Sie bitte die Entropien H(X), H(Y ), H(X, Y ), H(X; Y ).
343
1 C C C. A
c) H(x) = H(Y ) = 1, 906 bit, H(X; Y ) = 2H(X) − H(X, Y ) = 0, 937 bit.
4.7.3 Quellcodierung und Optimalcodes Aufgabe 4.7.22 Die Zeichen a, b, c, d, e, f werden durch folgende Codeworte optimal codiert: 00, 01, 10, 110, 1110, 1111. Mit welchen Wahrscheinlichkeiten treten die Zeichen auf, wie groß ist die Quellenentropie? Zeigen Sie, dass der Code die Decodierungsbedingung erf¨ullt. Aufgabe 4.7.23 Eine Quelle sendet die Zeichen A bis G mit den Wahrscheinlichkeiten P (A) = 0.24, P (B) = 0.13, P (C) = 0.12, P (D) = 0.26, P (E) = 0.12, P (F ) = 0.06, P (G) = 0.07. a) Entwerfen Sie einen m¨oglichst redundanzfreien Code nach dem Verfahren von Fano. b) Berechnen Sie die mittlere Codewortl¨ange dieses Codes. c) Begr¨unden Sie (ohne Rechnung), warum im vorliegenden Fall die mittlere Codewortl¨ange gr¨oßer als die Entropie H sein muss.
L¨osung: P (a) = P (b) = P (c) = 1/4, P (d) = 1/8, P (e) = P (f ) = 1/16, H = 2.375, Codebaum skizzieren oder Ungleichung von Kraft (Gl. 5.3, Abschnitt 5.2.1) anwenden.
L¨osung: a) 01 100 101 00 110 1111 1110. b) lm = 2.63. c) lm = H nur dann, wenn die Wahrscheinlichkeiten reziproke Zweierpotenzen sind.
344
4 Informationstheorie und Quellencodierung
Aufgabe 4.7.24 Eine ged¨achtnislose Quelle X sendet 100 Zeichen je Sekunde: a b c X= 0.7 0.25 0.05
L¨osung:
a) Berechnen Sie den Informationsfluss der Quelle. Codieren Sie die drei Quellenzeichen m¨oglichst redundanzfrei (Code angeben) und ermitteln Sie die in diesem Fall notwendige Kanalkapazit¨at. ¨ b) Zur Verminderung der f¨ur die Ubertragung notwendigen Kanalkapazit¨at soll ein Codierer (nach Fano) entworfen werden, bei dem jeweils zwei Quellenzeichen zusammengefasst und dann codiert werden sollen.
a) IQ = 107, 6 bit/s. 0 10 11, lm = 1.3, C = 130 bit/s. b) aa 0 ab 10 ba 110 bb 11100 ac 11101 ca 11110 bc 111110 cb 1111110 cc 1111111 c) lm = 2.2075, C = 110.375 bit/s, r = (C − IQ )/C = 0.0256.
c) Ermitteln Sie die bei der FanoCodierung erforderliche Kanalkapazit¨at und geben Sie an, wie groß die relative Redundanz bei dieser Codierung ist.
Aufgabe 4.7.25 Gegeben ist eine Informationsquelle mit dem Wahrscheinlichkeitsfeld: x1 x2 x3 x4 x5 X = 0.36 0.18 0.18 0.09 0.06 · · · x6 x7 x8 x9 = · · · 0.06 0.03 0.03 0.01 Gesucht wird ein Huffman-Code mit den Symbolen 0, 1, 2, 3 (d.h. mit einer Radix r=4). a) Berechnen Sie die Quellenentropie und den Minimalwert der erreichbaren mitteleren Codewortl¨ange. b) F¨uhren Sie die Codierung durch und berechnen Sie die mittlere Codewortl¨ange des Codes.
L¨osung: a) H(X) = 2.5905 H(X)/ld r = 1.295.
bit,
lm
=
b) Zun¨achst Zeichen x10 mit der Wahrscheinlichkeit 0 hinzuf¨ugen, lm = 1.35
Code
=
=
x1 0 ··· ···
x2 2
x3 3
x6 110
x7 111
x4 12 x8 112
x5 13 x9 113
! .
4.7 Aufgaben zur Informationstheorie und Quellencodierung Aufgabe 4.7.26 Gegeben ist eine Quelle mit dem Wahrscheinlichkeitsfeld: a b c d e f g . X= 1 1 1 1 1 1 1 4
4
8
8
8
16
16
a) Wie groß ist die minimal erreichbare Codewortl¨ange bei einem Tern¨arcode (r=3)? b) Entwickeln Sie einen Shannon Tern¨arcode {0, 1, 2} und berechnen Sie dessen mittlere Codewortl¨ange.
345
L¨osung: a) lm ≥ 1.656. b) Shannon-Code, lm = 2.125. » – a b c d e f g 00 02 11 12 20 212 221 c) Huffman-Code, lm = 1.75 » – a b c d e f g . 2 00 01 02 10 11 12
c) Entwickeln Sie einen Huffman Tern¨arcode. Wie groß ist die mittlere Codewortl¨ange dieses Codes? Aufgabe 4.7.27 Gegeben ist eine Informationsquelle mit dem Wahrscheinlichkeitsfeld: x2 x3 x4 x1 X= 0.5 0.25 P (x3 ) p(x4 ) a) Berechnen Sie die Entropie der Quelle unter der Bedingung P (x3 ) = 3P (x4 ).
L¨osung: a) H(X) = 1.7028 bit. b) » x1 x2 Code = 1 01
– x3 x4 . 000 001
lm = 1.75, σ = 0.829.
b) Ermitteln Sie einen Bin¨arcode nach Huffman. Berechnen Sie die mittlere Codewortl¨ange und die Standardabweichung der Codewortl¨angen. Aufgabe 4.7.28 Eine Informationsquelle mit 7 Zeichen besitzt das Wahrscheinlichkeitsfeld: a b c d e f g X= 1 1 1 1 1 1 1 4
4
4
16
16
16
16
a) Berechnen Sie die kleinstm¨ogliche mittlere Codewortl¨ange eines Quadrin¨arecodes (r=4) und ermitteln Sie den Code nach Shannon. b) Berechnen Sie die mittlere Codewortl¨ange und die Standardabweichung der Codewortl¨angen. Begr¨unden Sie, dass das Verfahren nach Huffman im vorliegenden Fall zu keiner kleineren mittleren Codewortl¨ange f¨uhren kann.
L¨osung: a) lmin = H(X)/ld r = 1.25, H(X) = 3/4 · 2 + 4/16 · 4 = 2.5. a : 0, b : 1, e : 2, c : 30, d : 31, f : 32, g : 33. P Pi−1 code xi li a 1 0 0 · 4−1 b 1 1/4 1 · 4−1 e 1 1/2 2 · 4−1 c 2 3/4 3 · 4−1 + 0 · 4−2 d 2 13/16 3 · 4−1 + 1 · 4−2 f 2 14/16 3 · 4−1 + 2 · 4−2 g 2 15/16 3 · 4−1 + 3 · 4−2 b) lm = 1.25, σ = 0.43301. Weil lm den kleinst m¨oglichsten Wert hat.
347
Kapitel 5
¨ zuverl¨assige digitale Codierung fur ¨ Ubertragung und Speicherung Bereits 1948 hat C. E. Shannon[25] in seiner beru¨ hmten informationstheoretischen Arbeit gezeigt, dass es unter Verwendung geeigneter, langer fehlerkorrigierender Codes m o¨ glich ist, Daten trotz eines gest¨orten Kanals beliebig zuverl¨assig zu u¨ bertragen, solange die Informationsrate unterhalb der Grenze liegt, die durch die Kanalkapazit¨at bestimmt ist. Im Anschluss an diese Arbeit entwickelten sich rasch und in großer Zahl Theorien fehlererkennender und fehlerkorrigierender Codes. Im Jahre 1950 gelang es C. W. Hamming, eine mathematische Beschreibung einer Klasse von systematischen einfehlerkorrigierenden Codes zu formulieren und die Berechnung einer Schranke f¨ur die erreichbare Fehlersicherheit bei der Verwendung solcher Blockcodes anzugeben. Vier Jahre sp¨ater wurden von D. E. Muller und I. S. Reed mehrfehlerkorrigierende Blockcodes angegeben. Diese nach ihnen benannten Reed-Muller-Codes fanden 1964 in der Raumfahrt eine Anwendung und werden heute, bedingt durch ihre orthogonalen Eigenschaften, f u¨ r Codemultiplexverfahren vorgeschlagen. R. C. Bose, D. K. Ray–Chaudhuri und A. Hocquenghem [5] entwickelten 1960 die Klasse der BCH-Codes. Die BCH-Codes geh¨oren, genau wie die im gleichen Jahr von I. S. Reed und G. Solomon entwickelten RS-Codes, zu der Klasse der zyklischen Blockcodes, die in der Lage sind, auch mehrere Fehler eines Codewortes zu korrigieren. Ebenfalls im Jahre 1960 gab W. W. Peterson einen Decodieralgorithmus f¨ur die Klasse der bin¨aren BCH-Codes an, der von D. C. Gorenstein und A. Zierler auch f¨ur nichtbin¨are BCH- und RS-Codes verallgemeinert werden konnte. 1966 gelang es E. R. Berlekamp, durch die Entwicklung eines effizienten iterativen Decodieralgorithmus, ¨ den Einzug der algebraischen Codier- und Decodierverfahren in praktische Ubertragungssysteme zu erreichen. Faltungscodes wurden zuerst von Elias 1955 als eine Alternative zu den Blockcodes eingef u¨ hrt. Kurze Zeit sp¨ater wurden von Wozencraft die sequentielle und von J. L. Massey 1963 die Schwellwert-Decodierung f¨ur Faltungscodes ver¨offentlicht, die in der Folge Anwendungen in der ¨ digitalen Ubertragungstechnik nach sich zogen.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
348
Der große Durchbruch gelang den Faltungscodes 1967 durch die von Viterbi vorgeschlagene “maximum likelihood decodierung”, die, bedingt durch ihre einfache Implementierbarkeit, in den fr¨uhen 70er Jahren erste Anwendungen in der Raumfahrt fanden. Quelle
Quell–
-
Codierer
-
Kanal– Codierer
x
Modulator Schreiber
Sendeeinrichtung
?
¨ Uber– tragungs–
Kanal
P (x|y)
weg
ζ
Speicher
St¨orung
Empfangseinrichtung
Sinke
Quell– Decoder
Kanal– Decoder
Demo– dulator Leser
y
Abbildung 5.1: Aufbau einer codierten Nachrichtenstrecke ¨ In Abb. 5.1 sind einige der Gemeinsamkeiten zwischen Speicher- und Ubertragungssystemen zu erkennen. Die von der Quelle abgegebene Information wird quellcodiert, was u¨ blicherweise eine Datenkompression bewirkt, bevor diese Daten vom Kanalcodierer mit Redundanz versehen u¨ ber einen Modulator oder eine Schreibeinheit auf den Kanal bzw. in den Speicher gelangen. Als Speichermedium k¨onnten die heute u¨ blichen verschiedenartigen elektrischen oder magnetischen Speicher gedacht werden. Jedes dieser physikalischen Medien wird von spezifischen St o¨ rungen beeinflußt, die durch ζ repr¨asentiert werden. In der Empfangseinrichtung werden die zur Sendeeinrichtung dualen Module in umgekehrter Reihenfolge durchlaufen und bewirken so eine Ru¨ ckabbildung der u¨ bertragenen Nachricht zur Sinke. ¨ Erst die Kanalcodierung vermag beim Design von Ubertragungsund Speichersystemen die Anforderungen an hohe Zuverl¨assigkeit zu erf¨ullen und wurde so zu einem integralen Bestandteil der modernen Kommunikationstechnik.
5.1 Grundbegriffe und Codebeispiele Der Betrachtung des Problems der Codekonstruktion stellt uns zun¨achst vor die Aufgabe wichtige Grundbegriffe zu definieren und zu erkl¨aren. Eine solche trockene, deduktive Vorgehensweise wird jedoch nicht dem Anspruch gerecht, auch Lektu¨ re f¨ur das Selbststudium f¨ur Studierende außerhalb des Fachgebietes zu sein. Aus diesem Grund wird in diesem ersten Abschnitt auf komplizierte mathematische Beschreibung der Begriffe zu Gunsten einer eher beispielhaften Erkl a¨ rung verzichtet. F¨ur die folgenden Beispiele wird vorausgesetzt, dass die betrachteten Codes C bin¨ar sind, also Codes, die aus Codew¨ortern c bestehen, deren Elemente ci nur aus der Menge {0, 1} sind: c = {c0 , c1 , . . . , cn−1 } c ∈ C mit ci ∈ {0, 1}
5.1 Grundbegriffe und Codebeispiele
349
In diesem Fall spricht man von einem Code u¨ ber dem Galois Feld zwei (GF (2)). Die Bezeichnung GF (2) meint einen endlichen Zahlenk¨orper, der nur die zwei Elemente {0, 1} besitzt. Dieser Zahlenk¨orper besitzt die normalen Rechenregeln bezu¨ glich der Addition und der Multiplikation, die jedoch modulo zwei ausgef¨uhrt werden m¨ussen, damit das Ergebnis wieder in der Menge {0, 1} sind. Insbesondere gilt: ci ⊕ cj = ck
⇐⇒
ci + cj = ck mod 2 mit ci , cj , ck ∈ {0, 1}.
(5.1)
Die Bezeichnung mod2 wurde bereits in Kapitel 2 eingefu¨ hrt und seine Realisierung Antivalenz genannt. F¨ur ci = cj = 1 ergibt sich: ck = 1 ⊕ 1 = 0.
5.1.1 Aufbau eines Codewortes Ein Codewort c eines Codes C besteht aus einer Anzahl von n Elementen ci eines festgelegten Zahlenk¨orpers. Diese n Elemente setzen sich aus einer Anzahl von k Informationszeichen und einer Anzahl von m Pr¨ufelementen zusammen, so dass gilt: n = k + m. Codewort mit n = k + m Symbolen
k
m
Informationssymbole
Pr¨ufsymbole
R =
k n
(5.2)
Abbildung 5.2: Aufbau eines Codewortes und Coderate R Die Coderate R ist ein Maß zur Beurteilung der Effizienz eines Codes. Lassen sich die Informationselemente direkt aus dem Codewort herauslesen, so sprechen wir von einem systematischen Code, anderenfalls von einem nicht systematischen Code.
5.1.2 Fehlervektor und Empfangsvektor ¨ Ein Codewort c kann bei der Ubertragung u¨ ber einen Kanal gest¨ort werden. Diese St¨orung soll durch einen additiven Fehlervektor: f = (f0 , f1 , . . . , fn−1 ), fi ∈ {0, 1}, der ebenfalls aus einer Anzahl von n Elementen besteht, modelliert werden. Die Vektoraddition (siehe Abb. 5.3) von Codevektor (Codewort c) und Fehlervektor f ergibt den Empfangsvektor r. St¨orung f
gesendet
c
? - +
Exor-Verkn¨upfung
empfangen
-
r
1 0
1 0 0 1 1 0
mod2 Addition
¨ Abbildung 5.3: Additiver Fehler auf dem Ubertragungskanal F¨ur die Vektoraddition gilt: r = c + f ⇐⇒ ri = ci ⊕ fi , Diese Exor-Verkn¨upfung (siehe Abb. 5.3) der Komponenten von c und f ergibt den Vektor r = (r0 , r1 , . . . , rn−1 ).
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
350
5.1.3 Der Repetition Code Der Repetition Code ist ein einfaches Beispiel fu¨ r einen fehlerkorrigierenden Code. Vervielfacht man ein Informationselement durch Wiederholung, so entsteht hieraus ein R EPETITION C ODE (Wiederhol-Code). Ist die Codewortl¨ange ungerade, so k¨onnen durch Mehrheitsentscheidung E Fehler korrigiert werden: n−1 . E = 2 Die Anzahl der Pr¨ufstellen betr¨agt: m = n − 1. Wir stellen fest, dass es nur 2k = 21 = 2 verschiedene Codew¨orter gibt: c0 = (0, 0, . . . , 0)
und c1 = (1, 1, . . . , 1).
Beispiel 5.1 Die L¨ange eines Codewortes des Repetition Codes ist mit (n = 7) vorgegeben. Sind ¨ bei der Ubertragung Fehler aufgetreten, so werden z.B. die folgenden r i empfangen: 1. r 0
= (1, 0, 0, 1, 0, 0, 1) ⇒
Entscheidung:
c0
gesendet,
2. r 1
= (1, 1, 0, 1, 0, 0, 1) ⇒
Entscheidung:
c1
gesendet.
Der Empf¨anger entscheidet im 1. Fall, dass das Codewort c0 gesendet wurde bzw. im 2. Fall, dass das Codewort c1 gesendet wurde. Die Bezeichnung r i f¨ur einen Empfangsvektor r¨uhrt vom englischen Wort received her. Im Beispiel 5.1 wird deutlich, dass der Empf¨anger versucht, sich f¨ur ein Codewort zu entscheiden, bei dem m¨oglichst wenig Fehler korrigiert werden m¨ussen. Dies ist eine wichtige Grundannahme der Decodierung, die Entscheidung zum n¨achsten Nachbarn (nearest neighbour decision) genannt wird und uns bei der Berechnung der Fehlerwahrscheinlichkeiten im Abschnitt 5.1.8 noch begegnen wird.
5.1.4 Ein Parity-Check Bit Eine in der Praxis h¨aufig auftretende Aufgabe f¨ur die Kanalcodierung ist, im Gegensatz zum vorherigen Beispiel, m¨oglichst wenig zu korrigieren, daf¨ur aber eine sichere Fehlererkennung zu erreichen. Das folgende Beispiel zeigt hierfu¨ r eine einfache Anwendung. Beispiel 5.2 Gegeben sei ein Code C, dessen Codewo¨ rter jeweils k Informationselemente und nur ein Pr¨ufelement (parity bit) m = 1 enthalten. Die Codewortla¨ nge n betr¨agt deshalb n = k + 1. Da die zu u¨ bertragende Information beliebige Bitkombinationen annehmen kann, gibt es 2 k verschiedene Codew¨orter. Die Vorschrift f¨ur die Wahl des Pr¨ufelementes laute: Erg¨anze die Informationsstellen zu einem vollst¨andigen Codewort so, dass die Anzahl der “Einsen” eines jeden Codewortes gerade ist.
5.1 Grundbegriffe und Codebeispiele Codewort c0 c1 c2 c3 c4 c5 c6 c7
351 Information
Pr¨ufstelle
k=3
m=1
000 001 010 011 100 101 110 111
0 1 1 0 1 0 0 1
Tabelle 5.1: Beispiel eines parity check Codes mit n = 4 und k = 3.
¨ Uberlegen wir nun, wie ein m¨oglicher Empf¨anger diese hinzugef¨ugte Pr¨ufstelle ausnutzen kann. Ist r = (1, 1, 0, 1) empfangen worden, so ist klar, dass mindestens 1 Fehler aufgetreten ist, denn die Anzahl der Einsen1 ist ungerade. Wollen wir diesen Fehler aber korrigieren, so stoßen wir auf Uneindeutigkeiten. Wir k o¨ nnen nicht entscheiden, ob c6 gesendet wurde und nur das Pr¨ufelement falsch empfangen wurde, oder ob ¨ verf¨alscht wurc4 gesendet wurde und die zweite Informationsstelle auf dem Ubertragungswege de. Allgemein k¨onnen wir aber feststellen, dass ein Code C mit k Informationsstellen und einer Pr¨ufstelle in der Lage ist, jede ungerade Anzahl von Fehlern zu erkennen, da diese zu einer Parit¨atsverletzung f¨uhren. Eine gerade Anzahl von Fehlern kann in der Regel nicht erkannt werden.
¨ 5.1.5 Prufsummencodes – ein einfacher Blockcode Pr¨ufsummencodes sind Codes, deren Pr¨ufteil durch die Summe verschiedener Informationssymbole gebildet wird. Als ein einfaches Beispiel soll ein Blockcode betrachtet werden (siehe Tabelle 5.2), dessen Codew¨orter c die folgende Form besitzen: c
= (c0 , c1 , c2 , c3 , c4 , c5 , c6 , c7 ), = (i0 , i1 , i2 , i3 , p0 , p1 , p2 , p3 ).
(5.3)
Ein solcher Code, der gleich viele Informationssymbole wie Pru¨ fsymbole besitzt, wird als halbratiger bin¨arer Code bezeichnet (vgl. Abb. 5.2). Die Pru¨ felemente p0 , p1 , p2 und p3 wurden wie folgt berechnet:
1 Die
p0 p1
= i0 ⊕ i1 ⊕ i2 , = i1 ⊕ i2 ⊕ i3 ,
p2 p3
= i0 ⊕ i1 ⊕ i3 , = i0 ⊕ i1 ⊕ i2 ⊕ i 3 ⊕ p 0 ⊕ p 1 ⊕ p 2 , = i0 ⊕ i2 ⊕ i3 , da p0 ⊕ p1 ⊕ p2 = i1 .
Anzahl der Einsen wird auch das Gewicht von r genannt: w(r).
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
352
Wir stellen fest, dass das Pr¨ufelement p3 die Anzahl der “Einsen” eines Codewortes immer zu einer geraden Zahl erg¨anzt. Codewort
Information
Pr¨ufstellen
Gewicht
ci
k=4
m=4
w(ci )
c0 c1 c2 c3 c4 c5 c6 c7 c8 c9 c10 c11 c12 c13 c14 c15
0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111
0000 0111 1101 1010 1110 1001 0011 0100 1011 1100 0110 0001 0101 0010 1000 1111
0 4 4 4 4 4 4 4 4 4 4 4 4 4 4 8
Tabelle 5.2: Beispiel eines (n,k)-Blockcodes mit n = 8 und k = 4 Auff¨allig ist auch, dass mit Ausnahme von c0 jedes Codewort mindestens 4 Einsen enth¨alt. Wir formulieren: w(ci ) ≥ 4
f¨ur
i = 1, 2, . . . , 15 .
Das Gewicht w(c) eines Codewortes oder Vektors v = (v0 , v1 , . . . , vn−1 ) ist definiert durch: w(v)
=
n−1
vi
mit vi ∈ {0, 1}.
(5.4)
i=0
Sp¨ater werden wir noch untersuchen, wie dieses Mindestgewicht eines Codes C in die Korrekturf¨ahigkeit eingeht. Die Hamming-Distanz D zweier Codewo¨ rter a und b ist die Anzahl der Stellen, in denen sie sich unterscheiden: D(a, b)
= w(a + b) =
n−1
ai ⊕ bi
mit ai , bi ∈ {0, 1}
(5.5)
i=0
Durch die Addition der Vektoren in Gleichung (5.5) werden die Komponenten des Summenvektors zu Null bestimmt, in denen a und b gleich sind. Somit wird durch die Gewichtsbestimmung des Summenvektors die Anzahl der Komponenten bestimmt, in denen a und b verschieden sind.
5.1 Grundbegriffe und Codebeispiele
353
Mit der Mindestdistanz d, wird die kleinste im Code vorkommende Distanz bezeichnet. Aus der Art der Bestimmung der Distanz nach Gleichung (5.5) wird klar, dass das Mindestgewicht eines Codes gleich der Mindestdistanz ist, denn die Summe (bzw. die Differenz) zweier Codewo¨ rter ist ja selber wieder ein Codewort. Diese Eigenschaft wird als die Linearit¨at des Codes bezeichnet. Schreiben wir die Gleichungen f¨ur die vier Pr¨ufelemente unter Verwendung der Modulo-2 Rechenregeln (‘+’ = ‘−’) in ein Gleichungssystem, so erhalten wir: i0 i0 i0
⊕ i1 i1 ⊕ i1
⊕ i2 ⊕ i2
⊕ i3 ⊕ i3 ⊕ i3
⊕ i2
⊕ p0
⊕ p1
⊕ p2
⊕ p3
= = = =
0 0 0 0.
(5.6)
Dieses Gleichungssystem (5.6) kann nun in eine Matrixform gebracht werden, wobei der Vektor c(T ) dem transponierten Codewort c entspricht: H · c(T ) = 0
(5.7)
Wir erhalten somit: ⎛ ⎛
1 ⎜ 0 ⎜ ⎝ 1 1
1 1 1 0
1 1 0 1
0 1 1 1
H
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
⎜ ⎞ ⎜ ⎜ ⎜ ⎟ ⎜ ⎟·⎜ ⎠ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝
i0 i1 i2 i3 p0 p1 p2 p3
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
⎛
⎞ 0 ⎜ 0 ⎟ ⎟ = ⎜ ⎝ 0 ⎠. 0
¨ Durch die Darstellung in Gl. (5.7) haben wir eine Pru¨ fbedingung f¨ur eine fehlerfreie Ubertragung erhalten. F¨ur jedes fehlerfrei empfangenes Codewort muss diese Bedingung, nach der die Pr u¨ fsymbole des Codewortes berechnet wurden, gelten. Die Matrix H wird deshalb auch die Pr u¨ fmatrix eines Codes genannt. ¨ Uberlegen wir nun, wie mit Hilfe der Pr¨ufmatrix H Fehler erkannt bzw. korrigiert werden ko¨ nnen. Wir setzen zun¨achst voraus, dass ein fehlerbehafteter Vektor r empfangen wurde: r
= c+f.
(5.8)
Die Multiplikation mit der Pr¨ufmatrix liefert dann: H · r (T )
= H · (c(T ) + f (T ) ) = H · c(T ) + H · f (T ) 0 = H · f (T ) .
(5.9)
In Gleichung (5.9) ist zu erkennen, dass das Ergebnis der Multiplikation nur noch vom Fehler, jedoch nicht mehr vom Codewort abh¨angig ist. Weiterhin k¨onnen wir auch sofort die Position des
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
354
Fehlers erkennen, solange nur ein Fehler aufgetreten ist. Fu¨ r das Gewicht des Fehlervektors gilt zun¨achst: w(f ) = 1 . Die Multiplikation H · r (T ) liefert genau eine Spalte der Matrix, so dass die Position des Fehlers in der gleichen Spalte des Fehlervektors f ablesbar ist: ⎛ ⎛
1 ⎜ 0 ⎜ ⎝ 1 1
1 1 1 0
1 1 0 1
0 1 1 1
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
⎜ ⎞ ⎜ ⎜ ⎜ ⎟ ⎜ ⎟·⎜ ⎠ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝
0 1 0 0 0 0 0 0
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
⎛
⎞ 1 ⎜ 1 ⎟ ⎟ = ⎜ ⎝ 1 ⎠ . 0
Wird durch die Multiplikation die j-te Spalte der Pru¨ fmatrix ausgew¨ahlt, so ist damit ein Fehler in der j-ten Stelle des Empfangsvektors falsch. Nun wollen wir die Anzahl der Fehler auf zwei erho¨ hen, um herauszufinden, ob auch diese so einfach korrigiert werden k¨onnen. Sind genau zwei Fehler aufgetreten, so gilt fu¨ r das Gewicht des Fehlervektors: w(f ) = 2 . Wir stellen nun fest, dass das Ergebnis der Multiplikation H · r (T ) kein Spaltenvektor der Matrix ist: ⎛ ⎞ 0 ⎜ 1 ⎟ ⎟ ⎛ ⎞ ⎛ ⎞ ⎜ ⎜ 1 ⎟ 0 1 1 1 0 1 0 0 0 ⎜ ⎟ ⎟ ⎜ 0 ⎟ ⎜ 0 1 1 1 0 1 0 0 ⎟ ⎜ 0 ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ = ⎜ ⎝ 1 ⎠. ⎝ 1 1 0 1 0 0 1 0 ⎠·⎜ ⎜ 0 ⎟ ⎜ ⎟ ⎜ 0 ⎟ 1 1 0 1 1 0 0 0 1 ⎜ ⎟ ⎝ 0 ⎠ 0 Offenbar kann der Empfangsvektor noch als falsch erkannt werden, da gilt: H · r (T ) = 0. Die Position der Fehler ist aber unbestimmt und somit ist der Fehlervektor nicht korrigierbar. Dies ist darin begr¨undet, dass es viele verschiedene M¨oglichkeiten gibt zwei Spalten der Pr¨ufmatrix so zu addieren, um auf das gleiche Ergebnis zu kommen. Beispielsweise liefert die Addition der letzten beiden Spalten von H das gleiche Ergebnis wie die Addition vom zweiten und dritten Spaltenvektor. Sind drei oder mehr Fehler aufgetreten so gilt: w(f ) ≥ 3 .
5.1 Grundbegriffe und Codebeispiele
355
Das Korrekturverfahren versagt jetzt vollst¨andig, da das Ergebnis genau ein Spaltenvektor der Matrix ist: ⎛ ⎞ 1 ⎜ 1 ⎟ ⎟ ⎛ ⎞ ⎜ ⎜ 1 ⎟ 1 1 1 0 1 0 0 0 ⎜ ⎟ ⎟ ⎜ 0 1 1 1 0 1 0 0 ⎟ ⎜ 0 ⎟ ⎜ ⎟·⎜ = ⎜ ⎝ 1 1 0 1 0 0 1 0 ⎠ ⎜ 0 ⎟ ⎟ ⎜ ⎟ ⎜ 0 ⎟ 1 0 1 1 0 0 0 1 ⎜ ⎟ ⎝ 0 ⎠ 0
der Multiplikation H · r (T )
⎞ 1 ⎜ 0 ⎟ ⎜ ⎟. ⎝ 0 ⎠ 0 ⎛
Es wird somit ein einzelner Fehler in der Position: p0 = c4 (vgl. Gl. 5.3) vorget¨auscht. War in diesem Fall z. B. das gesendete Codewort c15 = (1, 1, 1, 1, 1, 1, 1, 1), so wird ein Vektor r = (0, 0, 0, 1, 1, 1, 1, 1) empfangen und f¨alschlicherweise das Codewort c1 = (0, 0, 0, 1, 0, 1, 1, 1) decodiert. Dies macht deutlich, dass ein Codierverfahren nur dann zu sinnvollen Korrekturergebnissen f u¨ hrt, wenn die Korrekturf¨ahigkeit eines Codes nicht u¨ berschritten wird. Dies zu vermeiden, ist Aufga¨ be einer Untersuchung des Ubertragungskanals. Erst wenn eine ausreichende Fehlerstatistik des Kanals vorliegt, kann eine sinnvolle Codierung entwickelt werden.
¨ 5.1.6 Generatormatrix und Prufmatrix Im vorausgegangenen Abschnitt wurde erl¨autert, wie durch ein System von Pr¨ufsummen die Pr¨ufmatrix entsteht. In diesem Abschnitt wird nun der Zusammenhang zwischen der Pr u¨ fmatrix und der Generatormatrix beschrieben. Unter der Generatormatrix wollen wir die den Code erzeugende Matrix G vestehen: c
= i·G,
(5.10)
wobei der Vektor i = (i0 , i1 , . . . , ik−1 ) die zu codierende Information enth¨alt. Das Codewort c entsteht durch die Multiplikation des Informationsvektors i mit der Generatormatrix G. Die Matrix G muss hierf¨ur in k Zeilen linear unabh¨angige Code-Vektoren vom Code C enthalten: ⎛ g 00 ⎜ g10 G=⎜ ⎝ .. . gk−1,0
⎞
g01 g11 .. .
g02 g12 .. .
··· ···
g0,n−1 g1,n−1 .. .
gk−1,1
gk−1,2
···
gk−1,n−1
⎛
g0 ⎟ ⎜ g1 ⎟=⎜ . ⎠ ⎝ . .
⎞ ⎟ ⎟. ⎠
g k−1
Betrachten wir wieder das Beispiel aus Tabelle 5.2, so ko¨ nnte G wie folgt aussehen: ⎛
1 ⎜ 0 G=⎜ ⎝ 0 0
0 1 0 0
0 0 1 0
0 0 0 1
1 1 1 0
0 1 1 1
1 1 0 1
⎞ 1 0 ⎟ ⎟. 1 ⎠ 1
(5.11)
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
356
Die Codew¨orter c8 ,c4 ,c2 und c1 bilden die Zeilen der Generatormatrix. Diese Codewo¨ rter stellen eine nat¨urliche Basis des Codes dar, da sie in den ersten vier Stellen jeweils nur in einer Komponente besetzt sind. Selbstverst¨andlich m¨ussen sie auch unabh¨angig sein. Sie sind unabh¨angig, wenn keine m¨ogliche Summenbildung der Codew¨orter auf das Nullcodewort c0 f¨uhrt. Durch unterschiedliche Addition dieser vier Codewo¨ rter gelingt es vielmehr, alle anderen Codewo¨ rter zu bilden. Beispielsweise ergibt die Addition: c8 + c4 = c12 . Dies entspricht einer Multiplikation des Informationsvektors i = (1, 1, 0, 0) mit der Generatormatrix G. Zur Codierung mit der Generatormatrix finden sich in den nachfolgenden Abschnitten noch weitere erl¨auternde Beispiele. In diesem Abschnitt ist der Zusammenhang von Generatormatrix und Pru¨ fmatrix wichtig. Dieser Zusammenhang wird durch die Gleichung (5.12) gebeben: G · H (T )
= 0
⇐⇒
H · G(T ) = 0 .
(5.12)
In Gleichung (5.12) ist H die Pr¨ufmatrix eines systematischen Codes. Die (m × n)–Pru¨ fmatrix besitzt die Form: H = (A| I m ) . Die Matrix A ist eine (m × k)–Matrix und I m ist eine (m × m)–Einheitsmatrix. Die Generatormatrix G eines systematischen Codes ist eine (k × n)–Matrix der Form: G = (I k | B) = (I k | A(T ) ) . Die Matrix B ist eine (k × m)–Matrix, und I k ist eine (k × k)–Einheitsmatrix. Die Matrizen A und B sind transponiert zueinander. F¨ur das obige Beispiel aus Tabelle 5.2 besitzen die Matrizen A und B folgendes Aussehen: ⎛
1 ⎜ 0 A=⎜ ⎝ 1 1
1 1 1 0
1 1 0 1
⎞ 0 1 ⎟ ⎟ 1 ⎠ 1
⎛
⇐⇒
B = A(T )
1 ⎜ 1 =⎜ ⎝ 1 0
0 1 1 1
1 1 0 1
⎞ 1 0 ⎟ ⎟. 1 ⎠ 1
Deutlich ist zu erkennen, dass die Zeilen der Matrix A den Spalten der Matrix B entsprechen. So ist z.B. die erste Zeile von A mit der ersten Spalte von B gleich. Dies bedeutet, dass die Matrizen A und B zueinander transponiert sind.
5.1.7 Korrekturf¨ahigkeit linearer Blockcodes Zur Erl¨auterung der Fehlerkorrekturf¨ahigkeit von Codes soll noch einmal das Codebeispiel aus Tabelle 5.2 dienen. Der Code besitzt eine Codewortl¨ange n = 8, die Anzahl k = 4 der Informationsstellen und die Anzahl der hinzugef¨ugten Redundanzen m = 4. Die Mindestdistanz d = 4 dieses Codes ist gleich dem Mindestgewicht des Codes, da sich alle Codew o¨ rter untereinander ¨ um mindestens 4 Stellen unterscheiden. Der Code ist in der Lage, einen Ubertragungsfehler zu korrigieren bzw. zwei Fehler noch erkennen zu ko¨ nnen. ¨ Da durch jeweils einen Ubertragungsfehler die Hamming-Distanz eines Codewortes gegen¨uber allen restlichen Codew¨ortern um h¨ochstens 1 ver¨andert werden kann, ben¨otigt ein E-fehlerkorrigierender Code eine Hamming-Distanz von mindestens (2E + 1). Demzufolge hat ¨ das mit e Ubertragungsfehlern behaftete Codewort eine Hamming-Distanz von e zum gesendeten
5.1 Grundbegriffe und Codebeispiele
357
Codewort, aber immer noch mindestens die Distanz (E + 1) zu allen anderen Codew o¨ rtern. Es kann daher das verf¨alschte Codewort dem urspr¨unglichen, d.h. dem richtigen Codewort zugeordnet werden, solange e ≤ E gilt. Codes, deren Codew¨orter der L¨ange n k Informationsstellen beinhalten und eine Mindestdistanz d haben, werden als (n, k, d)-Codes bezeichnet. Man kann die Fehlerkorrekturf¨ahigkeit eines Codes auch anhand eines geometrischen Modells2 erkl¨aren. Dabei werden die Eckpunkte eines n-dimensionalen Einheitswu¨ rfels als Codew¨orter interpretiert. Jede Achse des n-dimensionalen Achsenkreuzes entspricht hier einer Stelle des Codewortes. Zur geometrischen Darstellung wird ein systematischer (3,1,3)-Code verwendet, dessen Codew¨orter (0,0,0) und (1,1,1) lauten. Die Codewo¨ rter werden als Eckpunkte des drei-dimensionalen Einheitsw¨urfels aufgetragen (siehe Abbildung 5.4 a). Da der Code die Hamming-Distanz 3 besitzt, gelangt man von einem Codewort zum anderen u¨ ber jeweils mindestens zwei Eckpunkte, d.h. es m¨ussen mindestens 3 Kantenabschnitte durchlaufen werden. 6 @ @
@
@
@q (0,0,0) @@ R
q (1,1,1) @ @ @
6 @ @
@ @
@
@
a)
@
@q (0,0,0) @@ R
q (1,1,1) @ @ @
6 @ @
@ @
@
@q (0,0,1)
q (1,1,1) @ @ I @ @
@
6 @ @ @q (0,0,1)
@q (0,0,0) @@ R
b)
c)
Abbildung 5.4: Geometrische Darstellung eines (3,1,3)-Codes ¨ Tritt beispielsweise bei der Ubertragung des Codewortes (0,0,0) eine Sto¨ rung in der letzten Stelle des Codewortes auf, so wird der Vektor (0,0,1) vom Empf¨anger detektiert (siehe Abbildung 5.4 ¨ b). Der Ubertragungsfehler kann sofort vom Empf¨anger erkannt werden, da der Eckpunkt (0,0,1) nicht zum Code geh¨ort. Das verf¨alschte Codewort hat zu einem g¨ultigen Codewort die Distanz3 D = 1, zum anderen g¨ultigen Codewort die Distanz D = 2 (siehe Abbildung 5.4 c). Der Decoder wird das empfangene Codewort dem ,,n¨aheren” g¨ultigen Codewort zuordnen, d.h. dem Codewort ¨ mit der kleineren Distanz. Mit dieser Entscheidung wird der Ubertragungsfehler korrigiert.
5.1.8 Berechnung der Fehlerwahrscheinlichkeit Wie wir in den letzten beiden Abschnitten gesehen haben, kann ein Decodierverfahren stets nur in begrenztem Umfang richtig korrigieren und sogar fu¨ r den Fall, dass die Fehlererkennbarkeit 2 Dieses Modell ist hier auf drei Dimensionen beschr¨ ankt, da die Erkl¨arung einsichtig und noch zeichnerisch darstellbar sein soll. 3 Die Distanz D = 1 entspricht einer Kantenl¨ ange.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
358
u¨ berschritten ist, weitere Fehler hinzuf¨ugen. Deshalb ist es von besonderem Interesse, die Wahrscheinlichkeit zu berechnen, mit der ein Codewort richtig oder falsch empfangen bzw. decodiert ¨ wird. Voraussetzung f¨ur eine solche Berechnung ist eine Kenntnis des Ubertragungskanals bzw. ¨ des Modells, das diesem Kanal entspricht. Bei den nun folgenden Uberlegungen wird der BSC als Kanalmodell vorausgesetzt. Fragen wir zun¨achst einmal nach der Wahrscheinlichkeit, dass u¨ berhaupt kein Fehler (e = 0) in dem Codewort der L¨ange n aufgetreten ist: P (e = 0)
= (1 − p) · (1 − p) · · · (1 − p) = (1 − p)n . n Faktoren
Bei dieser Berechnung wird vorausgesetzt, dass das Codewort aus n Bit besteht und jedes Bit statistisch unabh¨angig mit der Bitfehlerwahrscheinlichkeit p gesto¨ rt wird. Jedes einzelne der n Bits wird mit der Wahrscheinlichkeit (1 − p) richtig u¨ bertragen. Die Gesamtwahrscheinlichkeit ergibt sich dann aus der Multiplikation von n Faktoren. Fragen wir uns nun, mit welcher Wahrscheinlichkeit ein bestimmtes Bit des Codewortes falsch u¨ bertragen wurde (e = 1), so erhalten wir: Pbst (e = 1)
= p · (1 − p)n−1 ,
denn genau 1 Bit ist mit der Wahrscheinlichkeit p falsch und die anderen n − 1 Bits sind mit der Wahrscheinlichkeit 1−p richtig. Wollen wir die Wahrscheinlichkeit berechnen, dass ein beliebiges Bit der n m¨oglichen falsch ist (e = 1), so erhalten wir: P (e = 1)
= n · p · (1 − p)n−1
.
Der Faktor n ber¨ucksichtigt die n M¨oglichkeiten, die existieren, einen Fehler in n unterschiedlichen Positionen des Codewortes zu finden. Allgemein kann die Wahrscheinlichkeit, dass e belie¨ bige der n m¨oglichen Stellen bei der Ubertragung verf¨alscht werden, wie folgt berechnet werden: n (5.13) P (e) = · pe · (1 − p)n−e . e Der Faktor n u¨ ber e gibt hierbei die Anzahl der verschiedenen Mo¨ glichkeiten an, e Fehler in n Stellen zu verteilen: n n! n · (n − 1) · · · (n − (e − 1)) = . = e 1 · 2···e e! · (n − e)! Entsprechend der Gl. (5.13) l¨asst sich die Wahrscheinlichkeit, mit der ein Code, der maximal EFehler korrigieren kann, richtig korrigiert, berechnen: E n Prichtig = (5.14) · pe · (1 − p)n−e . e e=0 Die Wahrscheinlichkeit, dass ein Empfangswort nicht korrigierbar ist oder gar falsch korrigiert wird, bestimmt sich zu: Pf alsch
= 1 − Prichtig n n = · pe · (1 − p)n−e . e e=E+1
(5.15)
5.1 Grundbegriffe und Codebeispiele
359
Vergleichen wir die Fehlerwahrscheinlichkeiten, die ein einfaches Codierverfahren, wie im Abschnitt 5.1.5 angegeben, bei einer Bitfehlerwahrscheinlichkeit p = 0.01 erreichen kann, mit denen ¨ einer uncodierten Ubertragung der 4 Informationsbits, so stellen wir fest: uncodiert Prichtig = (1 − p)4 = 0.961, Pf alsch = 1 − (1 − p)4 = 0.039, codiert
Prichtig = (1 − p)8 + 8p(1 − p)7 = 0.9973, Pf alsch = 1 − Prichtig = 0.0027.
Dieser Vergleich zeigt, dass bereits durch diese einfache Codierung die Wahrscheinlichkeit, dass eines der 4 Informationsbits falsch u¨ bertragen wird, um den Faktor 0.039/0.0027 ≈ 15 verringert werden kann. Noch deutlicher wird dieser Vergleich, wenn die Bitfehlerwahrscheinlichkeit auf p = 0.001 verringert wird: uncodiert Prichtig = (1 − p)4 = 0.996005996, Pf alsch1 = 1 − (1 − p)4 = 0.003994003, codiert
Prichtig = (1 − p)8 + 8p(1 − p)7 = 0.999972111, Pf alsch2 = 1 − Prichtig = 0.000027888.
Der oben berechnete Faktor der verringerten Fehlerwahrscheinlichkeit a¨ ndert sich auf: Pf alsch1 /Pf alsch2 ≈ 143. Mittelwert und Varianz der Binomialverteilung Mit der in Gleichung (5.13) angegebenen Wahrscheinlichkeitsverteilung der Binomialverteilung k¨onnen der n Mittelwert und die Varianz berechnet werden. Der Mittelwert berechnet sich aus E{i} = i=0 i · P (i) unter Ber¨ucksichtigung von: n n i=0
i
· pi · (1 − p)n−i = 1 und i ·
n n−1 =n· i i−1
zu:
E{i} = np .
(5.16)
Ganz entsprechend berechnet sich das zweite Moment: 2
E{i } =
n i · P (i) = i · · pi · (1 − p)n−i , i i=0 i=0
n
2
n
2
= np + n(n − 1)p2 .
(5.17)
F¨ur die Varianz σ 2 = E{i2 } − (E{i})2 und der Standardabweichung σ gilt: σ2
= np(1 − p)
=⇒
σ =
np(1 − p) .
(5.18)
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
360
5.2 Lineare Codes Lineare Codes stellen eine Untergruppe aller Codes dar, in der Tat jedoch eine sehr wichtige. Denn die Codes, die bislang Eingang in die Praxis gefunden haben, wie Hamming-, BCH-, RSund auch Faltungscodes, geh¨oren zu dieser Klasse. Die besondere Bedeutung der Linearit¨at f¨ur Fehler korrigierende Codes liegt darin begru¨ ndet, dass sich die Codierung und Decodierung durch lineare Operationen realisieren l¨asst. Die folgende Definition der Linearit¨at besagt, dass das Ergebnis einer beliebigen Addition zweier Codew¨orter wieder ein g¨ultiges Codewort ist. Die Definition ist f¨ur bin¨are Codes g¨ultig, d.h. die Komponenten der Codevektoren a,b und c besitzen nur Komponenten ai , bi , ci ∈ {0, 1}. Definition 5.1 Ist jede Linearkombination zweier beliebiger Codewo¨ rter a und b eines Codes C wieder ein Codewort c ∈ C: k·a+l·b k · ai ⊕ l · bi
= c mit a, b, c ∈ C, wobei = ci mod 2 mit k, l ∈ {0, 1} ,
(5.19) (5.20)
so heißt der Code C LINEAR. Aufgrund dieser Definition besitzt jeder lineare Code das Nullcodewort, dessen Komponenten alle Null sind. Dies folgt sofort aus der Definition, wenn gilt: a = b. Die Addition ergibt: a + b = a + a = 0. Lineare Codes k¨onnen auf Zahlenk¨orpern (Galois Feld) beliebiger Gr¨oße GF (q = ps ) konstruiert werden, wobei p eine Primzahl ist. In diesem Buch werden ausschließlich Codes behandelt, die u¨ ber GF (2) definiert sind. Hierdurch gelingt es, ohne großen mathematischen Aufwand, die wesentlichen Eigenschaften von Fehler korrigierenden Codes zu behandeln, da lediglich die mod2 Rechnung ben¨otigt wird. Weiterf¨uhrende Fachliteratur (z.B. [35], [6], [24]) behandelt die Mathematik auf endlichen Zahlenk¨orpern.
5.2.1 Mindestdistanz und Mindestgewicht eines Codes Bereits im Abschnitt 5.1.5 wurde auf die Bedeutung von Gewicht (s. Gl. 5.4) und Distanz (s. Gl. 5.5) hingewiesen. In den folgenden Abschnitten sollen die Aussagen zum Hamming-Gewicht und zur Hamming-Distanz erweitert und vertieft werden. Das Hamming-Gewicht w(c) eines Vektors c ist definiert als die Anzahl der Elemente von c, die nicht Null sind. Dementsprechend wird als Mindestgewicht, dass kleinste im Code vorkommende Gewicht eines Codevektors bestimmt. Der Nullvektor muss bei dieser Definition ausgeschlossen werden. Definition 5.2 Das M INDESTGEWICHT w ∗ eines Codes ist das kleinste Gewicht eines beliebigen Codevektors des Codes – mit Ausnahme des Nullvektors: w∗
=
min
ci ∈C,ci =0
w(ci ) .
(5.21)
5.2 Lineare Codes
361
Das Gewicht von c1 = (1, 1, 1, 1, 1) ist z.B. gleich f¨unf und von c2 = (0, 0, 1, 1, 1) gleich drei. Da aber auch c1 + c2 = c3 = (1, 1, 0, 0, 0) im Code liegen m¨ussen, kann das Mindestgewicht nicht gr¨oßer als zwei sein. Die Hamming-Distanz D zwischen zwei Vektoren a und b ist durch die Anzahl der Stellen bestimmt, in denen sie sich unterscheiden. Hieraus folgt sofort weiter, dass die Distanz zwischen zwei beliebigen Codew¨ortern mindestens so groß ist, wie das kleinste Gewicht w ∗ eines Codewortes von c ∈ C (Mindestgewicht von C), denn jede Addition (oder Subtraktion) zweier Codew o¨ rter ergibt wieder ein Codewort. Dieser Tatbestand soll nun noch mathematisch formuliert werden. Definition 5.3 Die M INDESTDISTANZ d eines Codes C ist die kleinste Distanz D zweier voneinander verschiedener Codew¨orter ci , cj ∈ C : d
min D(ci , cj ) .
=
(5.22)
c i ,c j ∈ C ci =cj
F¨ur lineare Codes ist die Aussage ganz wichtig, dass die Mindestdistanz d gleich dem Mindestgewicht w∗ des Codes ist. Dies kann einfach bewiesen werden: d =
min D(ci , cj ) =
c i ,c j ∈ C ci =cj
min w(ci − cj ) = min w(ck ) = w∗ .
c i ,c j ∈ C ci =cj
c k ∈C ck =0
Die praktische Bedeutung dieser Aussage liegt darin begru¨ ndet, dass sich i.d.R. das Mindestgewicht eines Codes viel leichter bestimmen l¨asst, als die Mindestdistanz. Das folgende Beispiel zeigt einen linearen, bin¨aren (7,3)-Blockcode. Beispiel 5.3 n = 7 und k = 3 ergibt eine Redundanz m = n − k = 4: Nr. 0 1 2 3 4 5 6 7
Information 0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1
Redundanz 0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1
0 1 1 0 1 0 0 1
w(ci )
Codewort 0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1
0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1
0 1 1 0 1 0 0 1
0 3 3 4 3 4 4 7
Tabelle 5.3: Beispiel eines linearen, bin¨aren (7,3)-Blockcodes Es ist zu erkennen, dass der Code das Mindestgewicht w ∗ = 3 besitzt. Deshalb gilt auch f¨ur die Mindestdistanz d = 3. Der (7,3) Code kann einen Fehler korrigieren. Der Code ist auch linear. Addiert man Codewort Nr. 1 und Nr. 4 aus Tabelle 5.3, so erkennt man, dass wiederum ein Codewort entsteht (Codewort 5). Die Addition zweier Codewo¨ rter bedeutet, dass die j − ten Stellen, j = 0, 1, · · · , n − 1, jeweils mod 2 addiert werden (Exor-Verknu¨ pfung).
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
362
Codewort 1 Codewort 4 Codewort 5
0010011 ⊕1001001 1011010
Die Linearkombination zweier Codew¨orter eines linearen Codes muss ebenfalls ein Codewort ¨ sein. Wenn bei der Ubertragung eines Codewortes weniger als e Bitfehler auftreten (0 < e < d), so ist das Codewort so verf¨alscht, dass es mit keinem Codewort aus der Tabelle u¨ bereinstimmt. Beispiel 5.4 Gewicht und Distanz im (7, 4) Codes Codewort
Information
Pr¨ufstellen
Gewicht
ci
k=4
m=3
w(ci )
c0 c1 c2 c3 c4 c5 c6 c7 c8 c9 c10 c11 c12 c13 c14 c15
0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111
000 011 110 101 111 100 001 010 101 110 011 000 010 001 100 111
0 3 3 4 4 3 3 4 3 4 4 3 3 4 4 7
Der nebenstehende (7,4) Code geht aus dem (8,4) Code nach Tabelle 5.2 hervor, wenn das letzte Pr¨ufzeichen p3 weggelassen wird. Genau wie der (8,4) Code besitzt der (7,4) Code 16 Codew¨orter, da k = 4 ist. Der (7,4) Code kommt aber mit einem Pr¨ufzeichen weniger aus. Welche Auswirkungen dies hat wird im nachfolgenden Abschnitt 5.2.2 diskutiert. Deutlich ist zu erkennen, dass die Gewichtsverteilung des Codes eine andere ist. Sieben Codew¨orter besitzen nur das Gewicht drei, so dass auch die Mindestdistanz nur drei sein kann. Im Abschnitt 5.2.3 wird diese Gewichtsverteilung eine weitere Rolle spielen.
Tabelle 5.4: Beispiel eines (n,k)-Blockcodes mit n = 7 und k = 4
Eine M¨oglichkeit zur Fehlerkorrektur erh¨alt man durch den Vergleich des Empfangscodewortes mit jedem Codewort aus der Tabelle. Man ordnet die Empfangsfolge b dem Codewort a zu, bei dem die geringste Distanz D(a, b) festgestellt worden ist. Treten mehr Fehler 4 als d2 auf, so kann eine falsche Zuordnung entstehen, d.h. das Empfangswort kann einem falschen Codewort zugeordnet werden. Dieses Verfahren bezeichnet man mit M INIMUM D ISTANCE D ECODING . Es ist ¨ immer dann optimal, wenn die Ubertragungsfehler statistisch unabh¨angig sind, d.h. wenn wenige Bitfehler wahrscheinlicher sind als mehr Bitfehler. Treten Bu¨ ndelfehler auf, so ist dieses Verfahren nicht mehr optimal. 4 Die
Bezeichnung d2 bedeutet, dass der Wert von
d 2
f¨ur ungerade d auf die n¨achste kleinere Zahl abgerundet wird.
5.2 Lineare Codes
363
5.2.2 Fehlererkennnungs- und Fehlerkorrekturfa¨ higkeit Bereits im Abschnitt 5.1.7 wurde die Bedeutung des Abstandes der Codewo¨ rter zueinander – der Hamming-Distanz – f¨ur die Korrekturf¨ahigkeit veranschaulicht. In diesem Abschnitt kann nun, nach der Einf¨uhrung der Begriffe Mindestdistanz und Mindestgewicht, ein etwas allgemeinerer Zusammenhang von Mindestdistanz sowie Fehlererkennnungs- und Fehlerkorrekturf¨ahigkeit hergestellt werden. a b '$ '$ u
u
u
u
a b '$'$ u
&% &% d=3 -
u
u
u
u
&%&%
Code C1
d=4
-
Code C2
Abbildung 5.5: Darstellung der Hamming-Distanz Wird u¨ ber einen Kanal ein Codewort c u¨ bertragen und ein Vektor r empfangen, so dass e Fehler aufgetreten sind, so gilt f¨ur den Abstand des Empfangsvektors r und dem Codewort c: D(c, r) = w(c − r) = e . Besitzt der Code die Mindestdistanz d, so kann r als falsch erkannt werden, solange die Anzahl der Fehler e nicht gr¨oßer als d − 1 ist. Erst wenn e = d Fehler aufgetreten, so ko¨ nnte das Codewort ˜ verf¨alscht werden, wie in Abb. 5.5 dargestellt. Ein Fehler, der c in ein anderes Codewort r = c auf ein anderes Codewort f¨uhrt, kann prinzipiell nicht mehr – aufgrund der Codeeigenschaften – erkannt werden. F¨ur die F EHLERERKENNBARKEIT S OHNE KORREKTUR gilt demnach: S
≤ d − 1.
(5.23)
Betrachten wir in Abb. 5.5 (Code C1 ) a als gesendetes Codewort, so wird deutlich, dass jeder Empfangsvektor dem Codewort a zugeordnet werden kann, der nicht weiter als einen Distanzschritt (e = 1) von a entfernt liegt. Werden zwei Distanzschritte (e = 2) durchgef u¨ hrt, so kann der Empfangsvektor n¨aher an b liegen. Die Decodierung f¨uhrt dann zum falschen Ergebnis. Dies bedeutet, dass der Empfangsvektor r solange eindeutig und richtig dem gesendeten Codewort a zugeordnet werden kann, wie die Anzahl der aufgetretenen Fehler e kleiner als die halbe Distanz zwischen a und b ist. In diesem Fall ist der Abstand zwischen a und r kleiner als von r zu einem anderen Codewort b. F¨ur die maximale Anzahl E RICHTIG KORRIGIERBARER F EHLER gilt: d−1 E≤ . (5.24) 2
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
364
Die Klammer bedeutet, dass der in der Klammer errechnete Wert auf die n¨achste ganze Zahl abgerundet wird. Ist z.B. d = 5, so folgt: E ≤ 2. Die Aussage von Gleichung (5.24) gilt f¨ur ungerade (Code C1 ) und gerade Mindestdistanz d (Code ¨ der halC2 ). Der Unterschied zwischen den beiden Codes liegt darin, dass beim Uberschreiten ben Mindestdistanz beim Code C1 eine falsche Korrektur erfolgt, beim Code C2 f¨ur e = 2 ein Empfangsvektor entsteht, der keinem der beiden Codewo¨ rter zugeordnet werden kann. Die Gleichungen (5.23) und (5.24) geben jeweils an, wieviele Fehler maximal erkannt bzw. korrigiert werden k¨onnen. Der Zusammenhang zwischen der Mindestdistanz d, der Anzahl der erkennbaren Fehler s und der Anzahl der korrigierbaren Fehler e ist in der folgenden Gleichung dargestellt: d − 1 ≥ 2 · e + s.
(5.25)
F¨ur einen zweifehlerkorrigierenden Code C mit der Mindestdistanz d = 5 ergeben sich z.B. folgende Kombinationsm¨oglichkeiten: s = 4, s = 3, s = 2, s = 0,
e=0 e=0 e=1 e = 2.
oder oder oder
5.2.3 Gewichtsverteilung linearer Codes Im Abschnitt 5.2.2 wurde die Bedeutung der Mindestdistanz fu¨ r die Korrekturf¨ahigkeit eines Codes erl¨autert. Ber¨ucksichtigt man die Aussage, dass Mindestdistanz gleich Mindestgewicht ist, so wird einsichtig, dass der Gewichtsverteilung eines Codes besondere Wichtigkeit zukommt. Definition 5.4 Die G EWICHTSVERTEILUNG eines linearen (n,k) Blockcodes wird durch eine Folge A0 , . . . , Ai , . . . , An von ganzen Zahlen beschrieben. Die Zahl Ai gibt an, wieviele Codew¨orter der Code mit dem Hamminggewicht i besitzt. Dieser Gewichtsverteilung ist umkehrbar eindeutig eine G EWICHTSFUNKTION WC (x, y) des Codes C zugeordnet: WC (x, y)
=
n
Ai · xn−i y i =
i=0
xn−w(c) y w(c) .
(5.26)
c∈C
Die Gewichtsfunktion WC (x, y) ist ein Polynom vom Grad n in den Variablen x und y. Wird x = 1 gesetzt, so erh¨alt man ein Polynom in einer Variablen: WC (1, y) = WC (y) =
n i=0
Ai · y i =
y w(c) .
(5.27)
c∈C
Die urspr¨ungliche Gewichtsfunktion WC (x, y) wird aus Gleichung (5.27) durch Substitution zur¨uckgewonnen: y (5.28) WC (x, y) = xn · WC ( ). x
5.2 Lineare Codes
365
F¨ur lineare (n, k) Codes mit der Mindestdistanz d sind folgende Eigenschaften einsichtig: WC (0) An Ai WC (1)
= A0 = 1 ,
(5.29)
≤ (q − 1)n , = 0 f¨ur 0 < i < d , n = Ai = q k .
(5.30) (5.31) (5.32)
i=0
Ist die Gewichtsverteilung eines Codes symmetrisch, so sind die drei Aussagen a¨ quivalent: WC (x, y) = WC (y, x) ⇐⇒ Ai = An−i f¨ur alle i ⇐⇒ WC (y) = y n · WC (y −1 ).
(5.33)
Die Gewichtsverteilung kann nur fu¨ r wenige Codes in geschlossener Form berechnet werden. Zu diesen Codes geh¨oren der Hamming- und Simplex-Code (siehe Abschnitt 5.2.9) sowie die MDSCodes5 (siehe Definition 5.5). Beispiel 5.5 Gewichtsverteilung eines Parity-Check-Codes Gegeben sei ein Code C, dessen Codew¨orter jeweils k Informationselemente und nur ein Pr¨ufelement (parity bit) m = 1 (siehe Bsp. 5.2) enthalten. Die Codewortl¨ange n betr¨agt deshalb n = k + 1 = 4. Das Codewort c0 hat das Gewicht null. Sechs Codeworte, c1 bis c6 besitzen das Gewicht zwei und c7 hat das Gewicht vier.
Codewort
Information
Pr¨ufstelle
Gewicht
ci
k=3
m=1
w(ci )
c0 c1 c2 c3 c4 c5 c6 c7
000 001 010 011 100 101 110 111
0 1 1 0 1 0 0 1
0 2 2 2 2 2 2 4
Die Gewichtsfunktion hat deshalb die Form: WC (x, y) = x4 + 6x2 y 2 + y 4 = WC (y, x). Die Gewichtsfunktion ist symmetrisch. In einer Variablen lautet die Funktion: WC (1, y) = WC (y) = 1 + 6y 2 + y 4 . Die Gewichtsfunktion f¨ur den (7,3) Code aus Beispiel 5.3 Seite 361 lautet: WC(7,3) (x, y) = x7 + 3x4 y 3 + 3x3 y 4 + y 7 ⇐⇒ WC(7,3) (y) = 1 + 3y 3 + 3y 4 + y 7 , und f¨ur den (7,4) Code aus Beispiel 5.4 Seite 362: WC(7,4) (x, y) = x7 + 7x4 y 3 + 7x3 y 4 + y 7 ⇐⇒ WC(7,4) (y) = 1 + 7y 3 + 7y 4 + y 7 . Die Summe der Ai einer Gewichtsfunktion entspricht der jeweiligen Anzahl der 2k Codew¨orter. Die Bedeutung der Gewichtsverteilung wird in den Abschnitten 5.2.6 Dualer Code und 5.2.12 MacWilliams-Identit¨at vertiefend behandelt. 5 maximum
distance separable
366
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
¨ lineare Codes 5.2.4 Schranken fur In diesem Abschnitt wird der Frage nach dem Zusammenhang der Codeparameter n, k, und d untersucht. F¨ur welche Parameter k¨onnen Codes existieren und f¨ur welche nicht? Diese f¨ur die Praxis wichtige Frage wird aber u¨ berlagert von der Frage, wie gute Codes mit diesen Parametern gefunden werden k¨onnen. Leider kann die Beantwortung dieser Fragen bislang nicht miteinander verkn¨upft werden. Deshalb wird zun¨acht in diesem Abschnitt auf die Frage nach mo¨ glichen Codeparametern eingegangen. Die S INGLETON -S CHRANKE zeigt, dass die Mindestdistanz d ho¨ chstens so gross ist, wie die Anzahl der Pr¨ufzeichen plus eins. F¨ur die Mindestdistanz d eines Codes C mit der L¨ange n und der Dimension k gilt: d ≤ n − k + 1. (5.34) Ein Beweis dieser Aussage findet sich z.B. in [24]. Kombinieren wir die Aussage der SingletonSchranke mit der Gleichung (5.23) so folgt, dass ein Code mit der Mindestdistanz d, S ≤ n − k Fehler erkennen kann. Ein Einsetzen in Gleichung (5.24) ergibt fu¨ r einen E-Fehler korrigierenden Code, 2E ≤ n − k. Diese Aussagen k¨onnen so interpretiert werden, dass zur Korrektur eines Fehlers mindestens zwei Pr¨ufstellen ben¨otigt werden, w¨ahrend zum Erkennen eines Fehlers nur eine Pr¨ufstelle erforderlich ist. Definition 5.5 Ein Code, der die Singleton–Schranke mit Gleichheit erfu¨ llt, heißt “maximum distance separable” (MDS). Codes, die diese MDS Eigenschaft besitzen, kommen fu¨ r eine vorgegebene Korrektureigenschaft mit der kleinst m¨oglichen Anzahl von Pr¨ufstellen aus. Zu diesen Codes geh¨oren die RS-Codes, die im Rahmen dieses Buches nicht behandelt werden ko¨ nnen. Die einzigen bekannten bin¨aren MDS Codes sind die Repetition Codes (siehe Abschnitt 5.1.3) ungerader L¨ange. Die H AMMING -S CHRANKE beantwortet ein wichtiges Problem der Kanalcodierung, wie der Zusammenhang zwischen der Anzahl der Codewo¨ rter eines Codes bei vorgegebener Mindestdistanz und L¨ange ist. Die Hamming-Schranke stellt eine obere Schranke dar, die angibt, wieviele Codew¨orter existieren. Zu einem Codewort vorgegebenen Parametern h¨ ochstens c ∈ C(n, k, d) mit gibt es n1 Vektoren mit der Distanz 1, n2 Vektoren mit der Distanz 2, usw., ne Vektoren mit der Distanz e. Hierbei gilt: n n · (n − 1) . . . (n − (e − 1)) . = e e · (e − 1) . . . 1 Da es maximal 2n verschiedene bin¨are Vektoren der L¨ange n geben kann, ist die folgende Aussage einsichtig. aren Codes C(n, k, d) gilt die H AMMING F¨ur alle linearen E ≤ d−1 2 fehlerkorrigierenden bin¨ U NGLEICHUNG : n n + ··· + ≤ 2n . (5.35) 2k 1 + 1 E F¨ur die Fehlerkorrektur bedeutet dies, dass alle Fehler, die zu Vektoren f u¨ hren, die in den Korrekturkugeln (siehe Abb. 5.5) liegen, die mit dem maximalen Radius E um die 2k Codew¨orter ohne
5.2 Lineare Codes
367
¨ Uberschneidung zu bilden sind, eindeutig zu den entsprechenden Codew o¨ rtern im Kugelmittelpunkt korrigiert werden k¨onnen. Wichtig ist noch einmal zu betonen, dass die Hamming-Schranke eine obere Schranke darstellt. Es existiert kein Code, der die Ungleichung nicht erfu¨ llt. Andererseits garantiert die Einhaltung der Schranke noch nicht die Existenz eines Codes. Ebensowenig gibt sie Auskunft dar u¨ ber, wie ein solcher Code konstruiert werden kann. Beispiel 5.6 Der (7, 4)-Code mit d = 3 aus dem Beispiel 5.4 erfu¨ llt die Hamming-Ungleichung, denn 24 · (1 + 7) = 27 . Jeder m¨ogliche Empfangsvektor liegt im Korrekturbereich eines Codewortes. Fragen wir wie, groß die Anzahl der Informationsstellen k eines Codes werden kann, der die L a¨ nge n = 63 besitzt und zwei Fehler korrigieren kann, so folgt: 263−k ≥ (1 + 63 + 63 · 31) = 2017. Wird k = 52 gew¨ahlt, so ist die Ungleichung erf¨ullt, denn 211 = 2048 ≥ 2017. Tats¨achlich existiert ein solcher Code nicht. Es gibt aber es einen (63, 51)-Code, der die Mindestdistanz d = 5 besitzt.
5.2.5 Perfekte Codes Um Missverst¨andnissen zu diesem Abschnitt vorzubeugen, sollen zun¨achst zwei Tatsachen herausgestellt werden. Perfekte Codes m¨ussen nicht unbedingt lineare Codes sein – es existieren auch nichtlineare Codes6 , die perfekt sind, aber in diesem Kapitel werden nur lineare Codes behandelt. Die Eigenschaft der Perfekten Codes ist es nicht, perfekt im Sinne von unfehlbar Fehler korrigieren zu k¨onnen. Mit Hilfe der Hamming-Schranke k¨onnen nun Perfekte Codes definiert werden. Definition 5.6 Wenn f¨ur einen Code C(n, k, d) die Gleichheit in der Hamming-Schranke gilt, so heisst er PERFEKT. F¨ur bin¨are Codes bedeutet dies anschaulich, dass sich alle 2n m¨oglichen Vektoren eines Raumes GF (2n ) innerhalb der Korrekturkugeln der 2k Codew¨orter befinden (vgl. die Anmerkung auf Seite 366). Die Hamming-Schranke ist demnach ein Maß, wie gut die Korrekturkugeln den Raum u¨ berdecken. Somit k¨onnen bei Perfekten Codes alle verf¨alschten Codew¨orter eindeutig einem korrekten Codewort zugeordnet werden. Dies bedeutet nicht, dass diese Zuordnung im Sinne der Fehlerkorrektur auch richtig ist. Treten aufig eine Falschkorrektur. Das so korrigierte mehr als E = d−1 2 Fehler auf, so erfolgt zwangsl¨ Empfangswort enth¨alt nach der Korrektur mehr Fehler als vor der Korrektur. Es existieren jedoch nur wenige lineare Perfekte Codes. Einen perfekten Code – den Wiederholcode ungerader L¨ange – haben wir bereits kennengelernt. Desweiteren werden wir noch die Hamming-Codes und den Golay-Code kennenlernen. 6 Vergleiche
z.B. den Nordstrom-Robinson-Code
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
368
5.2.6 Der Duale Code Wird die Pr¨ufmatrix H eines Codes C als Generatormatrix verwendet, so kann damit ein zu C dualer Code Cd erzeugt werden. Die Bildung aller 2n−k Linearkombinationen der Zeilen der Pru¨ fmatrix H generiert den linearen Code Cd . Dieser (n, n−k) Code Cd wird dualer Code von C genannt. Definition 5.7 Ist die (k × n)-Matrix G die Generatormatrix, und die (n − k × n)-Matrix H die Pr¨ufmatrix eines linearen (n, k) Codes C, so erzeugt Gd = H einen linearen (n, n − k) Code Cd . Die Matrix H d = G ist die Pr¨ufmatrix des Codes Cd . Der Code Cd wird als DUALER C ODE zu C bezeichnet. Eine Folgerung aus Definition 5.7 und der Orthogonalit¨at von Generator- und Pr¨ufmatrix ist, dass auch f¨ur alle Codew¨orter ci = i · G ∈ C und cj = j · H ∈ Cd die Orthogonalit¨at gilt: (T )
ci · c j
= (i · G) · (j · H)T = iG · H T j T = i · 0 · j T = 0.
(5.36)
Da diese Orthogonalit¨at ci ⊥ cj f¨ur alle Codewortpaare ci ∈ C und cj ∈ Cd gilt, bezeichnet man die beiden Codes als orthogonal: C ⊥ Cd , bzw. Cd = C ⊥ . Ohne Beweis werden diese Aussagen nachfolgend mathematisch formuliert zusammengefasst: Cd = C ⊥
= {cj ∈ GF (2n )|ci ⊥ cj ∀ ci ∈ C} , " ! n−1 ci bi = 0 ∀ (b0 , b1 , . . . , bn−1 ) ∈ C . = (c0 , c1 , . . . , cn−1 )|
(5.37) (5.38)
i=0
Die Anzahl kd der Informationssymbole des dualen Codes Cd ist gleich der Anzahl der Pr¨ufbits m = n − k des Codes C. Beispiel 5.7 Der duale Code zu dem (7, 4) Code aus Beispiel 5.4 ist ein (7, 3) Code. Dieser (7, 3) Code ist nicht identisch mit dem Code aus Beispiel 5.3. Die Generatormatrix des (7, 4) Codes wird aus den vier Codew¨ortern c1 , c2 , c4 und c8 der Tabelle 5.4 gebildet. ⎛
G(7,4)
1 ⎜0 =⎝ 0 0
0 1 0 0
0 0 1 0
0 0 0 1
1 1 0 1
1 0 1 1
⎞ ⎛ ⎞ 0 1 1 0 1 1 0 0 1⎟ ⎠ ⇐⇒ H (7,4) = ⎝ 1 0 1 1 0 1 0 ⎠ = G(7,3) 1 0 1 1 1 0 0 1 1
Im Unterschied zum Beispiel 5.11 tr¨agt die Matrix G(7,3) die Systematik in den oberen Stellen. Definition 5.8 Bildet ein (n, k) Code C eine Teilmenge des dualen Codes C ⊥ ⊇ C, so heißt C ⊥ SELBSTORTHOGONAL. Gilt die Gleichheit C = C, so heißt C SELBSTDUAL . Eine Folgerung aus Definition 5.8 und der Orthogonalit¨at von Generator- und Pr¨ufmatrix ist, dass auch f¨ur die Generatormatrizen die Orthogonalit¨at gilt: G · G⊥ = 0.
5.2 Lineare Codes
369
Beispiel 5.8 a) Der (4, 2) Code C = {0000, 1001, 0110, 1111} ist selbstdual: 1 0 0 1 0 1 1 0 G(4,2) = ⇐⇒ H (4,2) = G⊥ (4,2) = . 0 1 1 0 1 0 0 1 Da lediglich die Zeilen von G(4,2) und G⊥ (4,2) vertauscht sind, wird der gleiche Code erzeugt. b) Der (5, 2) Code C = {00000, 10010, 01001, 11011} ist selbstorthogonal: ⎛ ⎞ 0 0 1 0 0 1 0 0 1 0 ⊥ G(5,2) = ⇐⇒ H (5,2) = G (5,2) = G(5,3) = ⎝ 1 0 0 1 0 ⎠ . 0 1 0 0 1 0 1 0 0 1 Da die zwei Zeilen von G(5,2) auch in G(5,3) enthalten sind, ist auch C in C ⊥ enthalten: C ⊥ ⊇ C. Der Code C ist selbstorthogonal.
5.2.7 L¨angen¨anderungen linearer Codes In der Praxis kann die Codewortl¨ange durch die technischen Anforderungen in einem System vorgegeben sein, so dass – aufgrund seiner festgelegten L¨ange – kein bekannter linearer Code verwendbar ist. In diesem Abschnitt wird deshalb beschrieben, wie ausgehend von einem bekann˜ Code vorgegebener L¨ange entsteht. ten (n, k)-Code, durch L¨angen¨anderung, ein linearer (˜ n, k) Hierbei werden vier M¨oglichkeiten unterschieden. Definition 5.9 Ein linearer (n, k) Code mit der Mindestdistanz d wird durch La¨ ngen¨anderung in ˜ Code mit der Mindestdistanz d˜ ge¨andert: einen linearern (˜ n, k) ¨ : K URZEN
Informationsbits werden verringert n ˜ < n, k˜ < k, m ˜ = m, d˜ ≥ d
P UNKTIEREN :
Pr¨ufbits werden verringert n ˜ < n, k˜ = k, m ˜ < m, d˜ ≤ d
¨ V ERL ANGERN : Informationsbits werden angeh¨angt n ˜ > n, k˜ > k, m ˜ = m, d˜ ≤ d E XPANDIEREN : Pr¨ufbits werden angeh¨angt n ˜ > n, k˜ = k, m ˜ > m, d˜ ≥ d Auf die Methode des K¨urzens wird im Abschnitt 5.4.4 K¨urzen zyklischer Codes ausf¨uhrlich eingegangen. In diesem Abschnitt soll das Expandieren n¨aher erl¨autert werden. Bereits in den Abschnitten 5.1.4 und 5.1.5 (Tabelle 5.2) wurde deutlich, dass durch Anf u¨ gen eines Parit¨atsbits (Expandieren) die Mindestdistanz erho¨ ht werden kann. Die nachfolgende Aussage fasst diesen Sachverhalt genauer. Besitzt ein bin¨arer (n, k) Code eine ungerade Mindestdistanz d, so kann er zu einem n ˜ = n + 1, k˜ = k Code mit der Mindestdistanz d˜ = d + 1 expandiert werden. Jedes Codewort mit geradem Gewicht erh¨alt als zus¨atzliches Pr¨ufbit eine Null, und jedes Codewort mit ungeradem Gewicht erh¨alt als zus¨atzliches Pr¨ufbit eine Eins angeh¨angt.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
370
Nach Gleichung (5.11) besteht die Generatormatrix aus k Zeilen linear unabh¨angiger Codevektoren: ⎞ ⎛ g0 ⎜ g1 ⎟ ⎟ (5.39) G=⎜ ⎝ .. ⎠ . . g k−1 (i)
(i)
(i)
Jeder der Zeilenvektoren g i = (g0 , g1 , . . . , gn−1 ) wird durch ein Bit pi expandiert: (i)
(i)
(i)
pi = g0 ⊕ g1 ⊕ · · · ⊕ gn−1
f¨ur 0 ≤ i ≤ k − 1.
˜ des expandierten Codes: Hieraus ergibt sich die Matrix G ⎛ p0 ⎜ p1 ⎜ ⎜ .. ˜ G=⎜ G . ⎜ ⎝ pk−2
(5.40)
⎞ ⎟ ⎟ ⎟ ⎟. ⎟ ⎠
(5.41)
pk−1 ˜ die Form G ˜ = (I k |A), ˜ so kann die Pr¨ufmatrix H ˜ des expandierten Codes Besitzt die Matrix G ˜ = (A ˜(T ) |I m+1 ) angegeben werden. in der Form H ¨ Uberlegt man, dass alle Pr¨ufgleichungen des (n, k) Codes erhalten bleiben, und dass zus¨atzlich ˜ · c(T ) = 0 (siehe Gl. 5.40), so folgt: gilt: H ⎞ ⎛ 0 ⎜ 0 ⎟ ⎟ ⎜ ⎜ .. ⎟ ⎟ ˜ =⎜ (5.42) H . ⎟. H ⎜ ⎟ ⎜ ⎝ 0 ⎠ 1 1 ··· 1 Beispiel 5.9 Der (7, 3) Code aus Beispiel 5.3 wird zum (8, 3) Code expandiert. ⎛ 1 0 0 1 0 0 ⎛ ⎞ ⎜ 0 1 0 0 1 0 1 0 0 1 0 0 1 1 ⎜ ˜ = ⎝ 0 1 0 0 1 0 1 1 ⎠, ˜ =⎜ G H ⎜ 0 0 1 0 0 1 ⎜ ⎝ 1 1 1 0 0 0 0 0 1 0 0 1 1 1 1 1 1 1 1 1
0 0 0 1 1
0 0 0 0 1
⎞ ⎟ ⎟ ⎟ ⎟. ⎟ ⎠
Im folgenden Abschnitt soll die Fehlerkorrektur mit Hilfe der Pru¨ fmatrix behandelt werden.
5.2.8 Syndrom und Fehlerkorrektur In diesem Abschnitt wollen wir das Problem betrachten, dass beim Empf¨anger ein verf¨alschter Vektor r detektiert wird: r =c+f. (5.43)
5.2 Lineare Codes
371
Definition 5.10 Der vom Codewort unabh¨angige, nur vom Fehlervektor abh¨angige Teil der Multiplikation: H · r (T ) = H · (c(T ) + f (T ) ) = H · f (T ) = s(T ) wird S YNDROM s genannt. Die Decodierung muss das Problem l¨osen, von diesem Syndrom auf den Fehlervektor zu schließen. Die Aufgabe des Decoders besteht demnach darin, den tats¨achlich aufgetretenen Fehlervektor aus den 2k m¨oglichen Fehlermustern auszuw¨ahlen. Um die Wahrscheinlichkeit eines Decodierfehlers m¨oglichst klein zu halten, muss das Fehlermuster ausgew¨ahlt werden, das am wahrscheinlichsten aufgetreten ist. F¨ur den BSC ist das das Fehlermuster vom kleinsten Gewicht, also das Fehlermuster mit der kleinsten Anzahl von Komponenten, die ungleich Null sind. Beispiel 5.10 F¨ur den in Beispiel 5.3 gegebenen (7, 3)-Blockcode, sei der Vektor r = (1, 0, 1, 1, 0, 0, 1) empfangen. Das Syndrom bestimmt sich aus H · r (T ) zu (0, 0, 1, 1): ⎛
1 ⎜0 ⎝ 0 1
0 1 0 1
0 0 1 1
1 0 0 0
0 1 0 0
⎛ ⎞ 1 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎞ ⎜0⎟ ⎛ ⎞ 1 0 1 0 0 0 ⎜ ⎟ ⎜1⎟ 0⎟ ⎜ ⎟ ⎜1⎟ ⎜1⎟ ⎜0⎟ ⎜0⎟ ⎜0⎟ ⎠·⎜1⎟ = ⎝ ⎠ + ⎝ ⎠ + ⎝ ⎠ + ⎝ ⎠ = ⎝ ⎠ 0 1 0 0 0 1 ⎜ ⎟ ⎜0⎟ 1 1 0 1 1 1 ⎝ ⎠ 0 1
0 0 1 0
H (7,3)
Aus dem Gleichungssystem nach der Definition 5.10 folgt damit: 0 = f 0 + f3 , 0 = f 1 + f4 , 1 = f 2 + f5 , 1 = f 0 + f1 + f2 + f6 . Der Decoder muss nun aus den 23 m¨oglichen L¨osungen f = (f0 , f1 , f2 , f3 , f4 , f5 , f6 ) den wahren Fehlervektor aussuchen: Nr.
f0
f1
f2
f3
f4
f5
f6
1 2 3 4 5 6 7 8
0 0 0 0 1 1 1 1
0 1 0 1 0 1 0 1
1 1 0 0 1 1 0 0
0 0 0 0 1 1 1 1
0 1 0 1 0 1 0 1
0 0 1 1 0 0 1 1
0 1 1 0 1 0 0 1
Bereits in Abschnitt 5.1.5 wurde ausgef¨uhrt, dass die Wahrscheinlichkeit f¨ur wenige Fehler stets gr¨oßer ist, als die f¨ur viele Fehler. In der nebenstehenden Tabelle gibt es genau einen Fehlervektor mit minimalem Gewicht, der das obige Gleichungssystem erf¨ullt. Der Vektor f 1 = (0, 0, 1, 0, 0, 0, 0) hat das kleinste Gewicht und muss somit der gesuchte Fehlervektor sein.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
372
Abschließend folgen noch zwei Beispiele fu¨ r Codierung und Decodierung mit Generator- und Pr¨ufmatrix. Beispiel 5.11 F¨ur zwei Codes (s. auch Beispiel 5.3 ) wollen wir Codierung und Decodierung mit Hilfe von Generatormatrix und Pr¨ufmatrix betrachten. Zuerst betrachten wir den (7, 3)-Code aus Beispiel 5.3: ⎛
⎞ 1 0 0 1 0 0 1 c = i · G = (111) · ⎝ 0 1 0 0 1 0 1 ⎠ = (111 1111) , 0 0 1 0 0 1 1 ⎛
H ·r
(T )
1 ⎜0 =⎝ 0 1
0 1 0 1
0 0 1 1
1 0 0 0
0 1 0 0
⎛ ⎞ 0 ⎞ ⎜1⎟ ⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞ 0 0 0 0 0 ⎜ ⎟ ⎜0⎟ 0⎟ ⎜ ⎟ ⎜1⎟ ⎜1⎟⎜0⎟ ⎜0⎟ ⎠ · ⎜0⎟ = ⎝ ⎠ + ⎝ ⎠⎝ ⎠ = ⎝ ⎠ . 0 0 1 1 0 ⎜ ⎟ ⎜1⎟ 1 0 0 1 1 ⎝ ⎠ 1 0
0 0 1 0
F¨ur den (7, 4)-Code gilt: ⎛
1 ⎜0 i · G = (1111) · ⎝ 0 0
H · r (T )
0 1 0 0
0 0 1 0
0 0 0 1
1 1 0 1
1 0 1 1
⎞ 0 1⎟ ⎠ = (1111 111) , 1 1
⎛ ⎞ 1 ⎜ ⎛ ⎞ ⎜0⎟ ⎟ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 0 0 1 1 0 1 1 0 0 ⎜0⎟ ⎟ ⎜ = ⎝1 0 1 1 0 1 0⎠ · ⎜0⎟ = ⎝1⎠ + ⎝0⎠ + ⎝1⎠ = ⎝0⎠ . ⎜ ⎟ 0 1 0 1 0 1 1 1 0 0 1 ⎜0⎟ ⎝ ⎠ 1 1
Deutlich ist zu erkennen, dass durch die Multiplikation H · r (T ) jeweils ein Spaltenvektor der Pr¨ufmatrix ausgeblendet wird. In der gleichen Spalte des Empfangsvektors r ist dann ein Fehler zu korrigieren.
5.2.9 Hamming-Codes Zur Beschreibung eines (n, k)-Blockcodes durch seine Generatormatrix ben o¨ tigt man m = n − k ¨ linear unabh¨angige Generatorcodeworte der L¨ange n. Uber die Bestimmung der Pr¨ufmatrix sind die einfehlerkorrigierenden Hamming-Codes wie folgt definiert. ¨ H AMMING -C ODES enthalten alle Definition 5.11 Die Spalten der Pr¨ufmatrix H eines BIN AREN m m 2 − 1 Vektoren aus GF (2 ) (ohne den Nullvektor).
5.2 Lineare Codes
373
Die so definierten bin¨aren Hamming-Codes besitzen festgelegte Parameter: L¨ange, Dimension und Mindestdistanz. F¨ur jede Zahl m > 2, m ∈ IN existiert ein einfehlerkorrigierender, bin¨arer (n,k)-Hamming-Code mit den Parametern: L¨ange: Dimension: Mindestdistanz:
n k d
= = =
2m − 1 , n−m , 3 .
F¨ur einige Parameter sind in der nachstehenden Tabelle Hamming-Codes angegeben. Hamming-Codes m 2 3 4 5 6
n 3 7 15 31 63
k 1 4 11 26 57
R 0.33 0.57 0.73 0.84 0.90
Hamming-Codes m 7 8 9 10 11
n 127 255 511 1023 2047
k 120 247 502 1013 2036
R 0.945 0.969 0.982 0.990 0.994
Im Weiteren wollen wir noch zeigen, dass alle E=1 fehlerkorrigierenden Hamming-Codes ungerader L¨ange perfekt sind. Setzt man die Parameter eines Hamming-Codes ein, so folgt: n = 2n , 2k · 1 + 1 2k · (1 + n) = 2n , 1 + n = 2n−k , n = 2m − 1 . Gem¨aß Definition 5.11 ist n = 2m − 1 und n − k = m. Damit gilt die Gleichheit der HammingSchranke. Da f¨ur einen E-fehlerkorrigierenden Code allgemein gilt: w∗ ≥ 2 · E + 1 , muss ein Hamming-Code eine minimale Distanz d bzw. ein minimales Gewicht w ∗ von drei haben.
¨ 5.2.10 Prufmatrix und Generatormatrix Zur Bildung eines Hamming-Codes ist es vorteilhaft von der Pru¨ fmatrix H auszugehen. H ist eine (m × n)–Matrix und es gibt genau 2m Kombinationen, m Bits anzuordnen. Ohne den Nullvektor v 0 ergeben sich somit n = 2m − 1 verschiedene Spalten f¨ur die Pr¨ufmatrix. Eine praktische M¨oglichkeit ist es, in jede der n Spalten die m–bittige Bin¨ardarstellung der Spaltennummer zu schreiben. (1, 2, . . . , n). Das Syndrom s zeigt dann beim Decodieren direkt die
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
374
Fehlerstelle an. Die Decodiervorschrift lautet dann: Der Bin¨ arwert des Syndroms ist die Nummer der Fehlerstelle. Die Generatormatrix G mit der Eigenschaft c = i · G eines Hamming-Codes erh¨alt man durch: G = I k | − A(T ) . Dabei ist I k eine (k × k)–Einheitsmatrix und G ist die Generatormatrix des Codes in systematischer Form. F¨ur bin¨are Codes sei bemerkt, dass nat¨urlich −A(T ) = A(T ) ist, da die einzelnen Elemente ci ∈ c aus GF (2) stammen (−1 = +1). Zur Tabelle der 2k m¨oglichen Codeworte c0 , c1 , . . . , cn−1 gelangt man, indem man Linearkombinationen aus Zeilen der Generatormatrix bildet. Die Zeilen von G stellen gerade diejenigen Codeworte dar, bei denen nur ein einziges Informationsbit 1 ist. Somit ergibt die Gleichung: cj = i j · G
f¨ur j = 0, 1, . . . , 2k−1 ,
das Codewort cj als Summe der Zeilen von G, die einer 1 in ij entsprechen. Um aus einem gegebenen Code die Generatormatrix G zu bestimmen, w¨ahlt man diejenigen Codeworte der Tabelle als Zeilen von G aus, bei denen nur eine 1 in den Informationsbits enthalten ist. Es muss sich eine systematische Form von G ergeben. « „ .. .. A .... I n−k „ « .. .. G = I k .... − A(T ) H=
Spalte =
'$
'$
bin¨are Nummer
Def. &%
-
H
„ &%
d≥3
G
« &%
I k .... A „ H = −A(T )
(n, k)–Code n = 2m − 1; k = n − m
.. ..
G=
6
'$ c= i·G
-
c
.. .. .. ..
« I n−k
'$ -
C
&%
systematisch
Pr¨ufmatrix
Generatormatrix
Code
(m × n)
(k × n)
2k W”rter
Beispiel 5.12 F¨ur einen bin¨aren (7, 4)-Hamming-Code muss m = 3 gew¨ahlt werden. Mit m = 3 ergibt sich n = 7 und k = 4. Der Code hat eine Coderate R = k/n = 0.75 und kann einen Fehler an beliebiger Stelle korrigieren. ⎛
0 ⎜0 H=⎝ 1 1
0 1 0 2
0 1 1 3
1 0 0 4
1 0 1 5
1 1 0 6
⎞ 1 1⎟ ⎠ 1 7
5.2 Lineare Codes
375
Die Decodiervorschrift lautet: Das Syndrom s ist die bina¨ re Darstellung der Fehlerstelle. Diese Vorschrift setzt voraus, dass den Bits der ersten Zeile von H die Wertigkeit 22 , der zweiten Zeile 21 und der dritten Zeile 20 zugeordnet wird. Der erste Spaltenvektor (001)T von H entspricht dann der 1 und der letzte Spaltenvektor (111)T von H der 7. Eine Pr¨ufung der Mindestdistanz ergibt, dass keine Spaltenpaare linear abha¨ ngig sind, w¨ahrend z.B. die Spalten 1, 4 und 5 linear abh¨angig sind. Hieraus folgt: d = 3. Die Pr¨ufmatrix H kann auch systematisiert werden: 0 0 0 1 1 1 1 I I = I + II 0 1 1 0 0 1 1 II 1 0 1 0 1 0 1 III 0 1 1 1 1 0 0 I 0 1 1 0 0 1 1 II 1 0 1 0 1 0 1 III III = III + I 0 1 1 1 1 0 0 I 0 1 1 0 0 1 1 II II = II + III 1 1 0 1 0 0 1 III 0 1 1 1 1 0 0 I 1 0 1 1 0 1 0 II 1 1 0 1 0 0 1 III Die Pr¨ufmatrix H besitzt dann die folgende Form: ⎛
⎛
⎞ 0 1 1 1 1 0 0 H = (A|I 3 ) = ⎝ 1 0 1 1 0 1 0 ⎠ , 1 1 0 1 0 0 1
⎛
G = (I 4 | − A(T )
1 ⎜0 )=⎝ 0 0
0 1 0 0
0 0 1 0
0 0 0 1
−A(T )
0 ⎜1 =⎝ 1 1
0 1 1 1
⎞ 1 1⎟ ⎠. 0 1
1 0 1 1
1 0 1 1
⎞ 1 1⎟ ⎠. 0 1
Der Code hat ein minimales Gewicht von drei. Deshalb kann der Code nur einen Fehler korrigieren. Mit Hilfe der Generatormatrix lassen sich die 16 Codewo¨ rter des (7,4) Hamming-Codes angeben.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
376
(7,4) Hamming-Code k m
Nr. 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
0 1 1 0 1 0 0 1 0 1 1 0 1 0 0 1
0 1 1 0 0 1 1 0 1 0 0 1 1 0 0 1
w(c) 0 1 0 1 1 0 1 0 1 0 1 0 0 1 0 1
– 4 3 3 3 3 4 4 3 3 4 4 4 4 4 7
Das minimale Gewicht ist auch an der Generatormatrix ablesbar. Da das Nullcodewort c 0 nicht ber¨ucksichtigt wird, kann die minimale Anzahl der Einsen in einem Informationswort nur eins sein. Wertet man die Pr¨ufbits der Generatormatrix aus, so erkennt man, dass dort die minimale Anzahl je Codeword gleich zwei ist. Also ist w ∗ = 3. Eine Verkn¨upfung von zwei Codeworten ergibt minimal zwei Einsen in der Information. Fu¨ r ein minimales Gewicht von zwei m¨ussten nun die Pr¨ufbits dieses neuen Wortes alle Null sein. Dies ist aber gerade bei der Aufstellung der Pr¨ufmatrix H u¨ berpr¨uft worden und ist somit nicht m¨oglich. Nach Definition 5.4 lautet die Gewichtsfunktion des (7, 4) Hamming-Codes: WC(7,4) (x, y) = x7 + 7x4 y 3 + 7x3 y 4 + y 7 Die Gewichtsverteilung eines beliebigen (n, k) Hamming-Codes CH kann durch die MacWilliams-Identit¨at (siehe Abschnitt 5.2.12) besonders einfach angegeben werden: $ 1 # (5.44) (x + y)n + n · (x + y)(n−1)/2 (x − y)(n+1)/2 WCH (x, y) = n+1 $ # 1 WCH (y) = (1 + y)n + n · (1 + y)(n−1)/2 (1 − y)(n+1)/2 n+1 $ 1 # (5.45) (1 + y)n + n · (1 − y)(1 − y 2 )(n−1)/2 . = n+1 ⊥ Zu dieser einfachen Berechnung ist jedoch die Kenntnis des dualen Codes C H notwendig. Eine rekursive Berechnung der Gewichtsfunktion findet sich in [35].
5.2.11 Der Simplex-Code Im Folgenden soll der zum Hamming-Code C duale Code C ⊥ betrachtet werden.
5.2 Lineare Codes
377
Definition 5.12 Der duale Code C ⊥ zu einem bin¨aren (2m − 1, 2m − 1 − m) Hamming-Code C wird als S IMPLEX -C ODE bezeichnet. Der duale Code C ⊥ hat die Parameter (n = 2m −1, k = m). Nach der Definition 5.11 der Hamming-Codes besteht die Pru¨ fmatrix H eines bin¨aren HammingCodes aus allen 2m − 1 Vektoren aus GF (2m ) (ohne den Nullvektor). F¨ur den (15,11) Code kann die Pr¨ufmatrix, die die Generatormatrix des dualen (15,4) Codes darstellt, wie folgt gebildet werden: ⎛ ⎞ 1 0 0 0 0 0 1 0 1 1 0 1 1 1 1 ⎜0 1 0 0 0 1 0 1 0 1 1 0 1 1 1⎟ G(15,4) = H (15,11) = ⎝ ⎠ 0 0 1 0 1 0 0 1 1 0 1 1 0 1 1 0 0 0 1 1 1 1 0 0 0 1 1 1 0 1 Bedingt durch die Bildungsvorschrift dieser Generatormatrix besitzt jede Zeile genau 2 m ÷ 2 = 2m−1 (hier 24−1 = 23 = 8) Stellen ungleich Null. Deshalb weist auch jedes Codewort c = 0 des Simplex-Codes das Gewicht 2m−1 auf. Die Mindestdistanz des Simplex-Code betr¨agt somit d = 2m−1 . Eine Folgerung hieraus ist, dass alle Codewo¨ rter des Codes den gleichen Abstand besitzen. Denn aufgrund der Linearit¨at des Codes gilt: a + b = c, mit a, b, c ∈ C ⊥ . In der Geometrie wird ein solches Gebilde mit gleichen Abst¨anden Simplex genannt. F¨ur die Gewichtsfunktion eines Simplex-Codes C S muss gelten: WCS (x, y)
= xn + (2m − 1)x(n−1)/2 y (n+1)/2 ,
WCS (y) = 1 + n · y (n+1)/2 ,
(5.46) (5.47)
In Abschnitt 5.2.9 wurde gezeigt, dass die Hamming-Codes die Hamming-Schranke mit Gleichheit erf¨ullen. Es zeigt sich, dass die Simplex-Codes die Plotkin-Schranke (5.48) mit Gleichheit erf¨ullen. F¨ur bin¨are Codes (q = 2) nit n = 2m − 1 gilt: d ≤
n · 2m−1 n(q − 1)q k−1 = m = 2m−1 . k q −1 2 −1
(5.48)
5.2.12 MacWilliams-Identit¨at Bereits in den Abschnitten 5.2.1 und 5.2.3 wurde auf die Bedeutung der Gewichtsverteilung f u¨ r die Korrekturf¨ahikeit der Codes hingewiesen. In diesem Abschnitt wird der Zusammenhang der Gewichtsverteilung eines Codes C mit der Gewichtsverteilung des dualen Codes C ⊥ (siehe Abschnitt 5.2.6) erl¨autert. Dieser Zusammenhang wird als MacWilliams-Identit¨at bezeichnet. Das von Frau F.J. MacWilliams 1969 vero¨ ffentlichte Theorem wurde von einigen Autoren (siehe z.B. [34] 1969, [8] 1980) auf unterschiedlichen Wegen bewiesen, so dass an dieser Stelle auf einen Beweis des wichtigen Theorems verzichtet wird. Ist WC (x, y) die Gewichtfunktion (siehe Def. 5.4) des (n, k) Codes C, so ist die Gewichtfunktion des dualen (n, n − k) Codes C ⊥ wie folgt festgelegt: WC ⊥ (x, y)
=
WC ⊥ (y)
=
1 · WC (x + y, x − y), 2k 1−y (1 + y)n · W . C 2k 1+y
(5.49) (5.50)
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
378 F¨ur die Umkehrung gilt: WC (x, y)
=
WC (y) =
1 · WC ⊥ (x + y, x − y), 2n−k 1−y (1 + y)n · W . C⊥ 2n−k 1+y
(5.51) (5.52)
Ist die direkte Berechnung der Gewichtsverteilung eines Codes C schwierig, so ist es nach Aussage der MacWilliams-Identit¨at m¨oglich, diese aus der Gewichtsverteilung des dualen Codes C ⊥ zu gewinnen. Beispiel 5.13 Gewichtsverteilung des (4, 3) Parity-Check-Codes Im Beispiel 5.5 auf Seite 365 wurde bereits die Gewichtsverteilung des (4, 3) Parity-Check-Codes angegeben: WC (x, y) = x4 + 6x2 y 2 + y 4 . Der zu C duale Code C ⊥ ist der (4, 1) Wiederholcode {0000, 1111} mit der Gewichtsfunktion WC ⊥ (x, y) = x4 + y 4 . Aus WC ⊥ (x, y) l¨asst sich die Gewichtverteilung WC (x, y) des (4, 3) Parity-Check-Codes gewinnen: WC (x, y)
= = = +
1 2n−k
· WC ⊥ (x + y, x − y)
1 [(x + y)4 + (x − y)4 ] 2 1 4 [(x + 4x3 y + 6x2 y 2 + 4xy 3 + y 4 ) + 2 (x4 − 4x3 y + 6x2 y 2 − 4xy 3 + y 4 )]
= x4 + 6x2 y 2 + y 4 Das Beispiel 5.13 l¨asst sich verallgemeinern. Zu jedem (n, 1) Wiederholcode geho¨ rt ein dualer (n, k = n − 1) Parity-Check-Code. Der Wiederholcode besitzt lediglich die zwei Codew o¨ rter c0 = (0, 0, . . . , 0) und c1 = (1, 1, . . . , 1). Die Gewichtsfunktion des Wiederholcodes CW lautet deshalb: WCW (x, y) = xn +y n . Nach Gleichung (5.51) folgt f¨ur die Gewichtsfunktion WCP (x, y) des Parity-Check-Code CP : WCP (x, y)
= = =
1 [(x + y)n + (x − y)n ], 2 n & 1 n % n−i i x y + xn−i (−y)i ) , · 2 i=0 i n xn−i y i . i
(5.53) (5.54) (5.55)
i gerade
Durch das alternatierende Vorzeichen entfallen die Summenterme fu¨ r ungerades i, w¨ahrend die Summenterme f¨ur gerades i doppelt auftreten. Im Abschnitt 5.2.11 wurde die Gewichtsfunktion des Simplex-Codes C S ermittelt: WCS (x, y) = xn + (2m − 1)x(n−1)/2 y (n+1)/2 , WCS (y) = 1 + n · y (n+1)/2 .
5.3 Zyklische Codes
379
Mit Hilfe der MacWilliams-Identit¨at kann hieraus die Gewichtsfunktion (siehe Gl. 5.44) der duaur den Zusammenhang der len bin¨aren (n, k) Hamming-Codes C H = C ⊥ S berechnet werden. F¨ Parameter gilt hierbei: kS = n − k und n = 2m − 1 ⇔ n + 1 = 2m : 1−y (1 + y n ) WC ⊥ WCH (y) = , 1+y 2(n−k) (n+1)/2 1−y (1 + y n ) 1+n· , = 2m 1+y $ 1 # (1 + y)n + n · (1 + y)(n−1)/2 (1 − y)(n+1)/2 , = n+1 $ 1 # WCH (x, y) = (x + y)n + n · (x + y)(n−1)/2 (x − y)(n+1)/2 . n+1
5.3 Zyklische Codes Zyklische Codes stellen eine wichtige Untergruppe der Linearen Codes dar. Durch Schieberegisterschaltungen ist die Codierung und Syndromberechnung einfach zu implementieren. Aufgrund der mathematischen Struktur der zyklischen Codes gibt es fu¨ r die Realisierung der Decodierung verschiedene M¨oglichkeiten, die wiederum diese Codes fu¨ r die praktischen Anwendungen besonders interessant erscheinen lassen. Betrachten wir ein Codewort als n-Tupel a = (a0 , a1 , . . . , an−1 ), dann soll der zyklisch verschobene n-Tupel a(1) durch eine Verschiebung aller Komponenten von a nach rechts gebildet werden: (5.56) a = (a0 , a1 , . . . , an−1 ) ⇐⇒ a(1) = (an−1 , a0 , a1 , . . . , an−2 ) . Die Komponente an−1 , die durch die Rechtsverschiebung aus den n-Tupel herausf¨allt, wird durch die zyklische Verschiebung in die erste Stelle des Vektors u¨ berf¨uhrt. Entsprechend lautet dann ein i-fach zyklisch verschobenes n-Tupel: a(i) = (an−i , an−i+1 , . . . , an−1 , a0 , a1 , . . . , an−i−1 ) .
(5.57)
Eine n-fache Verschiebung von a ergibt wieder den urspru¨ nglichen Vektor: a(n) = a(0) = a. F¨ur eine einfache mathematische Darstellung eines n-Tupels a ist es sinnvoll, eine Polynomschreibweise a(x) einzuf¨uhren: a(x) = a0 + a1 x + · · · + an−1 xn−1 . Die Koeffizienten ai von a(x) entsprechen hierbei den Komponenten ai des n-Tupels a. Das zu a(i) geh¨orige Polynom lautet dann: a(i) (x) = an−i + an−i+1 x + · · · + an−1 xi−1 + a0 xi + · · · + an−i−1 xn−1 = a0 xi + a1 xi+1 + · · · + an−i−1 xn−1 + an−i + · · · + an−1 xi−1 = xi · a(x) mod (xn − 1) .
(5.58)
Die Schreibweise mod(x − 1) bedeutet, ganz a¨ hnlich wie bei der mod 2 Rechnung, dass die Potenz xn der Potenz x0 entspricht: xn = x0 mod (xn − 1). Dies erkl¨art, warum in Gleichung 5.56 die herausgeschobene Komponente, die ja die n-te Stelle einnehmen wu¨ rde, in die 0-te Stelle des Vektors gelangt. Die Bedeutung dieses Sachverhalts fu¨ r zyklische Codes wird in der folgenden Definition zusammengefasst. n
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
380
Definition 5.13 Ein linearer (n, k) − Code C wird ZYKLISCH genannt, wenn jede Verschiebung (Shift) eines Codewortes c ∈ C: ˜∈C, xj · c(x) = c˜(x) mod (xn − 1) mit c wieder ein Codewort in C ist. Beispiel 5.14 Ein zyklischer (n = 7, k = 4) Code soll ausgehend von dem Codewort: c = (c0 , c1 , . . . , c6 ) = (1101000)
⇐⇒
(c(x) = 1 + x + x3 )
gebildet werden. Das Nullwort c0 ist immer ein Codewort eines linearen Codes, deswegen ist das Generatorcodewort in der Tabelle 5.5 das zweite Codewort. Index i 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Verschiebung Nullwort Generatorcodewort c1 1. Verschiebung 2. Verschiebung 3. Verschiebung 4. Verschiebung 5. Verschiebung 6. Verschiebung c1 ⊕ c 2 1. Verschiebung 2. Verschiebung 3. Verschiebung 4. Verschiebung 5. Verschiebung 6. Verschiebung c1 ⊕ c10
Codewort ci
w(ci )
0000000 1101000 0110100 0011010 0001101 1000110 0100011 1010001 1011100 0101110 0010111 1001011 1100101 1110010 0111001 1111111
3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 7
Tabelle 5.5: Zyklischer (7,4)-Code erzeugt mit g(x) = x3 + x + 1 Das Codewort c1 kann durch sechs zyklische Verschiebungen sechs weitere Codeworte bilden. Mit der siebten Verschiebung w¨are wieder das urspr¨ugliche Codewort generiert. Es sind jedoch noch nicht alle 2k Codew¨orter erzeugt worden, deshalb kann ein neues Codewort durch Addition von c1 ⊕ c2 erzeugt werden. Dieses Codewort c8 kann wieder n − 1 mal verschoben werden. Das letzte Codewort wird durch c1 ⊕ c10 erzeugt und bildet sich durch jede Verschiebung auf sich selber ab. Eine Gewichtsbetrachtung des erzeugten Codes ergibt, dass das Mindestgewicht und damit auch die Mindestdistanz d = 3 ist. Ein großer Vorteil der zyklischen Codes liegt darin, dass der Code und seine Eigenschaften vollst¨andig durch ein Polynom, dem Generatorpolynom, bestimmt sind.
5.3 Zyklische Codes
381
5.3.1 Das Generatorpolynom zyklischer Codes Aufgrund der im vorausgegangenen Abschnitt angegebenen mathematischen Struktur von zyklischen Codes ist es naheliegend die Bildung des Codes durch zyklische Verschiebungen und Addition von Codeworten auf ein bestimmtes Codewortpolynom, das Generatorpolynom g(x), zur u¨ ckzuf¨uhren. Nachfolgend sind die wichtigsten Aussagen zum Generatorpolynom, die hier ohne Beweis angegeben werden, zusammenfassend formuliert. In einem zyklischen (n, k) − Code C, gibt es genau ein Codewortpolynom vom Grad m = n − k der Form: g(x) = 1 + g1 x + g2 x2 + · · · + gm−1 xm−1 + xm .
(5.59)
Das Polynom g(x) wird G ENERATORPOLYNOM des Codes C genannt. Jedes zum Code geh o¨ rende Polynom c(x) ist ein Vielfaches von g(x), und jedes Polynom c(x) mit Grad c(x) ≤ n − 1 ist ein Codewortpolynom, wenn es ein Vielfaches vom Generatorpolynom g(x) ist. Diese Aussagen lassen noch die Erkenntnis vermissen, wie ein Generatorpolynom bestimmt wird. Ohne Herleitung wird hierf¨ur ein wichtiger Zusammenhang dargestellt. DAS G ENERATORPOLYNOM g(x) EINES ZYKLISCHEN (n, k) − Codes C IST EIN FAKTOR VON xn + 1. Zusammenfassend k¨onnen wir festhalten, dass g(x) das Generatorpolynom eines zyklischen (n, k)-Codes ist, wenn es den Grad m = n − k besitzt und ein Faktor von (xn + 1) ist. Beispiel 5.15 F¨ur die Konstruktion eines bin¨aren zyklischen Codes der L¨ange n = 7 zerlegen wir das Polynom x7 + 1 in seine Faktoren (irreduziblen Polynome) mit Koeffizienten aus GF (2): x7 + 1 = (1 + x) · (1 + x + x3 ) · (1 + x2 + x3 ) . Die beiden Polynome vom Grad drei generieren einen zyklischen (7, 4)-Code. Der in Tabelle 5.5 gegebene (7, 4)-Code kann mit dem Polynom g(x) = 1 + x + x 3 erzeugt werden. Die einfache Multiplikation von i(x) = x3 + x2 + 1 mit g(x) liefert dann: (x3 + x2 + 1) · (x3 + x + 1) = x6 + x5 + x4 + x3 + x2 + x + 1 das Codewort c15 als Koeffizientenvektor des Codewortpolynoms. Jedes der Polynome aus Beispiel 5.15 kann als Generatorpolynom eines zyklischen Codes der L¨ange n = 7 verwendet werden. Das Polynom (1 + x2 + x3 ) erzeugt ebenfalls einen (7, 4) Code. Das Polynom (1 + x) hingegen erzeugt einen (7, 6) Code. Die Pru¨ fstelle erg¨anzt jede sechsstellige Information um ein Bit auf gerades Gewicht. Ebenfalls sind Kombinationen der drei Polynome m¨oglich. Das Polynom (x3 + x2 + 1) · (x3 + x + 1) = x6 + x5 + x4 + x3 + x2 + x + 1 erzeugt einen (7, 1) Code. Das eine Informationsbit wird sechmal wiederholt, so dass ein Wiederholcode entsteht. Hierbei ist es besonders leicht zu erkennen, dass der entstehende Code zyklisch ist, da er nur zwei Codewo¨ rter besitzt. Die Multiplikationen (1 + x) · (1 + x + x3 ) und (1 + x) · (1 + x2 + x3 ) erzeugen jeweils einen (7, 3) Code.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
382
5.3.2 Unsystematische Codierung Entsprechend dem vorausgegangenem Abschnitt gilt fu¨ r jedes Codewortpolynom c(x) des Codes: c(x)
= i(x) · g(x) = (i0 + i1 x + i2 x2 + · · · + ik−1 xk−1 ) · g(x) .
(5.60)
Der Koeffizientenvektor i = (i0 , i1 , i2 , · · · , ik−1 ) von i(x) beinhaltet die zu u¨ bertragene Information w¨ahrend der Koeffizientenvektor c = (c0 , c1 , c2 , · · · , cn−1 ) von c(x) das Codewort darstellt. Eine M¨oglichkeit die Codierung einfach darzustellen, besteht somit in der Multiplikation von Information und Generatorpolynom. Der Grad des Generatorpolynoms ist hierbei identisch mit der Anzahl der Pr¨ufbits. Diese einfache Art der Codierung wird UNSYSTEMATISCH genannt, weil die Informationsbits noch erfolgter Codierung nicht mehr direkt aus dem Codwort ablesbar sind. Beispiel 5.16 Ausgehend von dem Generatorpolynom g(x) = 1 + x + x3 kann nun, wie das Beispiel zeigt, durch Multiplikation der gleiche Code (Tab. 5.6) wie in Beispiel 5.14 erzeugt werden. Information i0 i1 i2 i3 i4 i5 i6 i7 i8 i9 i10 i11 i12 i13 i14 i15
0000 1000 0100 0010 0001 1110 0111 1101 1100 0110 0011 1111 1001 1010 0101 1011
Codewort c0 c1 c2 c3 c4 c5 c6 c7 c8 c9 c10 c11 c12 c13 c14 c15
0000000 1101000 0110100 0011010 0001101 1000110 0100011 1010001 1011100 0101110 0010111 1001011 1100101 1110010 0111001 1111111
Berechnung 0 · g(x) 1 · g(x) x · g(x) x2 · g(x) x3 · g(x) (1 + x + x2 ) · g(x) (x + x2 + x3 ) · g(x) (1 + x + x3 ) · g(x) (1 + x) · g(x) (x + x2 ) · g(x) (x2 + x3 ) · g(x) (1 + x + x2 + x3 ) · g(x) (1 + x3 ) · g(x) (1 + x2 ) · g(x) (x + x3 ) · g(x) (1 + x2 + x3 ) · g(x)
⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ ⇒
c0 c1 c2 c3 c4 c1 c2 c1 c1 c2 c3 c1 c1 c1 c2 c1
+ c2 + c3 + c2 + c2 + c3 + c4 + c2 + c4 + c3 + c4 + c3
+ c3 + c4 + c4
+ c3 + c4
+ c4
Tabelle 5.6: Unsystematischer (7,4)-Code, g(x) = x3 + x + 1
Die ersten f¨unf Zeilen in Tabelle 5.6 sind leicht verst¨andlich. Das Codewort c5 in der sechsten Zeile ergibt sich durch die Summe von (1 · g(x) + x · g(x) + x2 · g(x)) = c1 + c2 + c3 . Die folgenden Zeilen ergeben sich ganz entsprechend. Es stellt sich nun die Frage, wie der Nachteil der unsystematischen Codierung, dass die Information nicht direkt ablesbar ist, vermieden werden kann.
5.3 Zyklische Codes
383
5.3.3 Systematische Codierung Die systematische Codierung vermeidet den oben angesprochenen Nachteil. F u¨ r jede Information i(x) gilt: i(x)
= i0 + i1 x + i2 x2 + · · · + ik−1 xk−1 .
Die SYSTEMATISCHE C ODIERUNG mit Hilfe des Generatorpolynoms erfolgt in drei Schritten: 1. Schritt Das Informationspolynom wird mit xm = xn−k multipliziert: i(x) · xn−k = i0 xn−k + i1 xn−k+1 + · · · + ik−1 xn−1 . Dies bewirkt lediglich eine Verschiebung der Information in die ho¨ chsten Koeffizienten des Polynoms. 2. Schritt Das Polynom i(x)xn−k wird durch g(x) dividiert: i(x) · xn−k g(x)
= q(x) +
i(x) · xn−k
= q(x)g(x) + r(x) ,
r(x) g(x) (5.61)
wobei q(x) das Vielfache der Division, und r(x) den Rest der Division darstellt. Der Grad des Restpolynoms ist kleiner oder h¨ochstens gleich (n − k − 1), da der Grad von g(x) (n − k) betr¨agt: r(x) = r0 + r1 x + · · · + rn−k−1 xn−k−1 . 3. Schritt Umstellen der Divisionsgleichung ergibt: −r(x) + i(x) · xn−k = q(x)g(x) = c(x) ,
(5.62)
so dass ein systematisches Codewortpolynom c(x) gefunden wurde. Das zugeh¨orige Codewort c besitzt somit die Form: c = (−r0 , −r1 , . . . , −rn−k−1 , i0 , i1 , . . . , ik−1 ) .
(5.63)
Die Informationsbits bleiben unver¨andert – sie sind lediglich in die h¨ochsten Stellen verschoben worden. Die Pr¨ufsymbole lassen sich durch eine einfache Division berechnen. Fu¨ r bin¨are Codes bleibt auch das Minus Zeichen vor den Pru¨ fbits ohne Relevanz. Beispiel 5.17 F¨ur den (7, 4)-Code mit g(x) = 1 + x + x3 soll die Information i = (1, 1, 0, 0) systematisch codiert werden. i(x) = 1 + x, so dass gilt: i(x)xn−k = x4 + x3 . Die Division durch g(x) ergibt: x4 + x3 1 + x + x3 x4 + x3
x2 + 1 , 1 + x + x3 = (x + 1) · (1 + x + x3 ) + x2 + 1 . = (x + 1) +
Das Codewort gem¨aß Gleichung (5.63) lautet also: c = (1, 0, 1, 1, 1, 0, 0)
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
384
Da es sich um einen zyklischen Code handelt, kann die Verschiebung der Information in die h¨ochsten Stellen nach der Berechnung von c auch wieder ru¨ ckg¨angig gemacht werden. Das Codewort, dass die Information i(x) = 1 + x in den unteren Stellen tr¨agt, lautet: (1, 1, 0, 0, 1, 0, 1). Beispiel 5.18 Die nachfolgende Tabelle 5.7 zeigt noch einmal den (7, 4) Code in der systematischen Form: Information i0 i1 i2 i3 i4 i5 i6 i7 i8 i9 i10 i11 i12 i13 i14 i15
0000 1000 0100 1100 0010 1010 0110 1110 0001 1001 0101 1101 0011 1011 0111 1111
Codewort c0 c1 c2 c3 c4 c5 c6 c7 c8 c9 c10 c11 c12 c13 c14 c15
000 110 011 101 111 001 100 010 101 011 110 000 010 100 001 111
0000 1000 0100 1100 0010 1010 0110 1110 0001 1001 0101 1101 0011 1011 0111 1111
Tabelle 5.7: Systematischer (7,4)-Code mit g(x) = x3 + x + 1 Die Berechnung der Codew¨orter wurde hierbei entsprechend dem Verfahren der systematischen Codierung durchgef¨uhrt.
¨ 5.3.4 Generatormatrix und Prufmatrix zyklischer Codes Unter der Generatormatrix verstehen wir die den Code erzeugende Matrix G: c
= i·G,
(5.64)
wobei der Vektor i = (i0 , i1 , . . . , ik−1 ) die zu codierende Information enth¨alt. Die Matrix G muss hierf¨ur in k Zeilen linear unabh¨angige Code-Vektoren von C enthalten. In Abschnitt 5.3.1 haben wir gesehen, dass mit Hilfe des Generatorpolynoms g(x) = 1 + g1 x + g2 x2 + · · · + xm und den zyklisch verschobenen Polynomen xg(x), x2 g(x), . . . , xk−1 g(x) m¨oglich ist, den Code zu bilden. Schreiben wir die Koeffizientenvektoren (n-Tupel) dieser Polynome in eine k × n-Matrix, so erhalten wir die Generatormatrix eines zyklischen (n, k)-Codes C: ⎛g g g2 · · · gn−k 0 0 ··· 0 ⎞ ⎛ g (0) ⎞ 0 1 · · · gn−k 0 · · · 0 ⎟ ⎜ g (1) ⎟ ⎜ 0 g0 g1 g2 ⎜ ⎟ (5.65) G=⎜ . .. ⎟ .. .. ⎠ = ⎝ .. ⎠ . ⎝ . . . . . . g (k−1) g1 g2 · · · gn−k 0 0 ··· 0 g0
5.3 Zyklische Codes
385
F¨ur das Beispiel des (7, 4)-Codes, nach Tabelle 5.6, mit dem Generatorpolynom g(x) = x 3 +x+1 lautet die Generatormatrix: ⎛ ⎞ 1 1 0 1 0 0 0 ⎜0 1 1 0 1 0 0⎟ G=⎝ ⎠. 0 0 1 1 0 1 0 0 0 0 1 1 0 1 Diese Matrix kann durch elementare Zeilenumformungen werden: ⎛ 1 0 0 0 1 1 ⎜0 1 0 0 0 1 Gs = ⎝ 0 0 1 0 1 1 0 0 0 1 1 0
in die systematische Form gebracht ⎞ 0 1⎟ ⎠. 1 1
Diese systematische Generatormatrix erzeugt den selben Code (vgl. Tab. 5.7) wie die unsystematische Generatormatrix. Lediglich die Zuordnung von Information zum Codewort a¨ ndert sich. In Abschnitt 5.3.1 wurde ausgef¨uhrt, dass g(x) ein Faktor von xn + 1 ist. Hieraus folgt: g(x) · h(x) = xn + 1 ,
(5.66)
wobei h(x) ein Polynom vom Grad k ist. h(x) = 1 + h1 x + h2 x2 + · · · + hk−1 xk−1 + xk Es kann nun gezeigt werden, dass die Pr¨ufmatrix H sich von dem Polynom h(x) ableiten l¨asst. F¨ur ein Codewort c = (c0 , c1 , . . . , cn−1 ) ∈ C gilt: c(x) = a(x) · g(x). Hieraus folgt: c(x) · h(x) = a(x) · g(x) · h(x) = a(x)(xn + 1) = a(x)xn + a(x) Da der Grad von a(x) kleiner gleich k − 1 ist, ko¨ nnen die Potenzen: xk , xk+1 , . . . , xn−1 in a(x)xn + a(x) nicht auftreten. Es gilt also: k
hi · cn−i−j = 0 f¨ur 1 ≤ j ≤ n − k .
i=0
Diese Gleichung lautet in Matrixschreibweise: H · c(T ) = 0 ,
(5.67)
wobei die Pr¨ufmatrix H durch die Koeffizienten von h(x) bestimmt ist: ⎛h h ··· h0 0 0 ··· k k−1 hk−2 hk−1 hk−2 · · · h0 0 ··· hk ⎜ 0 H=⎜ .. .. ⎝ .. . . .
0 0 .. .
···
h0
0
0
···
0
hk
hk−1
hk−2
⎞ ⎟ ⎟. ⎠
(5.68)
Die Pr¨ufmatrix H ist eine (n − k) × n-Matrix mit der Eigenschaft (vgl. Gl. 5.67), dass jeder Zeilenvektor orthogonal zu jedem Codevektor ist. Vergleicht man die Pru¨ fmatrix H, Gl. (5.68),
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
386
mit der Generatormatrix, Gl. (5.65), so wird deutlich, dass sie die gleiche Struktur aufweisen. Die Pr¨ufmatrix ist selber die Generatormatrix eines zyklischen (n, n − k)-Codes. Dieser Code C (d) wird als der duale Code zum (n, k)-Code C bezeichnet, da alle Zeilen von G (sie enthalten ja Codew¨orter) orthogonal zu den Zeilen von H sind. Es gilt: H · G(T ) = 0 . Interpretiert man die erste Zeile von H als Generatorpolynom g (d) (x) des dualen Codes, so gilt: g (d) (x)
= hk + hk−1 x + hk−2 x2 + · · · + h0 xk , = xk · (hk x−k + hk−1 x1−k + · · · + h1 x−1 + h0 ) , xn + 1 = xk · h(x−1 ), wobei h(x) = . g(x)
(5.69)
Das Polynom g (d) (x) = xk · h(x−1 ) wird auch als Spiegelpolynom oder reziprokes Polynom von h(x) bezeichnet. Beispiel 5.19 Betrachten wir noch einmal den zyklischen (7, 4)-Code mit g(x) = x 3 + x + 1. Das Pr¨ufpolynom h(x) berechnet sich zu: h(x) =
x7 + 1 = x4 + x2 + x + 1 . g(x)
F¨ur das Generatorpolynom des zum (7, 4)-Code dualen Codes gilt: g (d) (x) = x4 · (x−4 + x−2 + x−1 + 1) , = 1 + x 2 + x3 + x4 . Das Polynom g (d) (x) erzeugt einen zyklischen (7, 3)-Code mit der Mindestdistanz d = 4. Er kann somit einen Fehler korrigieren bzw. zwei Fehler erkennen. Ganz analog zur systematischen Codierung mit dem Generatorpolynom kann die Generatormatrix wieder in die bekannte systematische Form gebracht werden. Hierzu wird f u¨ r die Anzahl der Informationsstellen i = 0, 1, . . . , k − 1, xn−k+i durch g(x) dividiert und der Rest der Division ri (x) zu xn−k+i addiert: xn−k+i ri (x) + xn−k+i mit ri (x)
= qi (x)g(x) + ri (x) , = qi (x)g(x) = ri0 + ri1 x + · · · + ri,n−k−1 xn−k−1 .
ri (x) + xn−k+i ist dann ein Codewort mit einer Informationsstelle, die ungleich Null ist. Ordnet man die Polynomkoeffizienten in eine Matrix Go an, so erh¨alt man eine systematische Generatormatrix: ⎛ r r r ··· r 1 0 0 ··· 0⎞ 00
⎜ r10 Go = ⎜ ⎝ .. . rk−1,0
01
02
r11 .. .
r12 .. .
···
r1,n−k−1 .. .
0,n−k−1
0 1 0 ···
0⎟ .. ⎟ ⎠. .
rk−1,1
rk−1,2
···
rk−1,n−k−1
0 0 0 ···
1
(5.70)
5.3 Zyklische Codes
387
Benutzt man zur Codierung die Beziehung: i · Go = c so erh¨alt man Codew¨orter, die die Information in den oberen Stellen von c, in cn−k , . . . cn−1 , tragen. Durch zyklische Verschiebung der Zeilen erh¨alt man eine Matrix, die die Information in die unteren Stellen c0 , . . . , ck−1 , des Codewortes legt: ⎞ ⎛1 0 0 ··· 0 r r ··· r r Gu
⎜0 1 0 ··· =⎜ ⎝ 0 0 0 ···
0 .. .
00
01
02
r10 .. .
r11 .. .
r12 .. .
···
rk−1,1
rk−1,2
···
1 rk−1,0
0,n−k−1
r1,n−k−1 ⎟ ⎟. .. ⎠ .
(5.71)
rk−1,n−k−1
Diese Matrixform G = (I k , A) wurde bereits im vorangegangenen Abschnitt verwendet, so dass die zugeh¨orige Pr¨ufmatrix: H = (A(T ) , I n−k ) direkt angegeben werden kann: ⎛ r r r ··· r 1 0 0 ··· 0⎞ ⎜ H=⎜ ⎝
00
10
20
r01 .. .
r11 .. .
r21 .. .
···
rk−1,1 .. .
0 1 0 ···
0⎟ .. ⎟ ⎠. .
r0,n−k−1
r1,n−k−1
r2,n−k−1
···
rk−1,n−k−1
0 0 0 ···
1
k−1,0
(5.72)
Beispiel 5.20 Betrachten wir noch einmal den zyklischen (7, 4)-Code mit g(x) = 1 + x + x 3 . Codieren wir systematisch die Informationen i(x) = 1, x, x2 und x3 , so erhalten wir: x3 4
x x5 x6
= g(x) · 1 + (x + 1) , = g(x) · x + (x2 + x) , = g(x) · (x2 + 1) + (x2 + x + 1) , = g(x) · (x3 + x + 1) + (1 + x2 ) .
Die vier gesuchten Codew¨orter lauten also: c0 (x) c1 (x) c2 (x) c3 (x)
= 1 + x = x + x2 = 1 + x + x2 = 1 + x2
+ x3 , + x4 , + x5 , + x6 .
Durch Anordnen der Polynomkoeffizienten in Matrixform erha¨ lt man schließlich: ⎛ ⎞ ⎛ ⎞ 1 1 0 1 0 0 0 1 0 0 1 0 1 1 ⎜0 1 1 0 1 0 0⎟ (o) (u) G(7,4) = ⎝ ⎠ ⇐⇒ H (7,4) = ⎝ 0 1 0 1 1 1 0 ⎠ . 1 1 1 0 0 1 0 0 0 1 0 1 1 1 1 0 1 0 0 0 1 Durch zyklisches Verschieben der Codew¨orter um k Stellen erh¨alt man die andere Matrix: ⎛ ⎞ ⎛ ⎞ 1 0 0 0 1 1 0 1 0 1 1 1 0 0 ⎜0 1 0 0 0 1 1⎟ (u) (0) G(7,4) = ⎝ ⎠ ⇐⇒ H (7,4) = ⎝ 1 1 1 0 0 1 0 ⎠ . 0 0 1 0 1 1 1 0 1 1 1 0 0 1 0 0 0 1 1 0 1
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
388
¨ 5.3.5 Distanz in Generatormatrix und Prufmatrix In diesem Abschnitt werden noch einige erg¨anzende Bemerkungen zur Mindestdistanz eines linearen Codes formuliert. Die Mindestdistanz d eines linearen Codes entspricht der kleinstm o¨ glichen Anzahl von Spalten der Pr¨ufmatrix H, die eine Linearkombination bilden: hx + hy + · · · + hz = 0 .
(5.73)
d−Spaltenvektoren
Diese Aussage ist einsichtig, denn fu¨ r jedes Codewort gilt: H · c(T ) = 0. Dies gilt auch f¨ur ein Codewort cd mit minimalem Gewicht w(cd ) = d. Die Multiplikation von (T ) H mit einem Codewort cd vom minimalen Gewicht d l¨asst sich aber auch als Addition der d Spalten von H darstellen, in denen das Codewort nicht Null ist: (T )
H · cd
= hx + hy + · · · + hz = 0. d−Spaltenvektoren
Diese Addition muss in der Summe 0 ergeben: Die Mindestdistanz d l¨asst sich in der Generatormatrix am Gewicht der Zeilenvektoren g i nur dann feststellen, wenn einer von diesen von minimalem Gewicht w ∗ = d ist. Hierbei muss also gepr¨uft werden, ob durch Kombination von Zeilen das Gewicht verringert wird. Beispiel 5.21 Ein bin¨arer E = 2 fehlerkorrigierender (15,7)-Code sei durch sein Generatorpolynom g(x) gegeben: g(x) = 1 + x4 + x6 + x7 + x8 .
F¨ur die Generatormatrix in unsystematischer Form folgt: ⎛ 1 0 0 0 1 0 1 1 1 ⎜0 1 0 0 0 1 0 1 1 ⎜ ⎜0 0 1 0 0 0 1 0 1 ⎜ G = ⎜0 0 0 1 0 0 0 1 0 ⎜ ⎜0 0 0 0 1 0 0 0 1 ⎝ 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0
0 0 0 0 0 1 1
⎞ 0 0⎟ ⎟ 0⎟ ⎟ 0⎟ . ⎟ 0⎟ ⎠ 0 1
Durch Zeilenadditionen folgt die Generatormatrix in systematischer Form: ⎛ 1 0 0 0 0 0 0 1 0 0 0 1 0 1 ⎜0 1 0 0 0 0 0 1 1 0 0 1 1 1 ⎜ ⎜0 0 1 0 0 0 0 0 1 1 0 0 1 1 ⎜ G = ⎜0 0 0 1 0 0 0 1 0 1 1 1 0 0 ⎜ ⎜0 0 0 0 1 0 0 0 1 0 1 1 1 0 ⎝ 0 0 0 0 0 1 0 0 0 1 0 1 1 1 0 0 0 0 0 0 1 0 0 0 1 0 1 1
⎞ 1 0⎟ ⎟ 1⎟ ⎟ 0⎟ . ⎟ 0⎟ ⎠ 0 1
0 1 1 1 0 1 0
0 0 1 1 1 0 1
0 0 0 1 1 1 0
0 0 0 0 1 1 1
5.3 Zyklische Codes
389
Die Pr¨ufmatrix lautet in systematischer Form: ⎛
1 ⎜0 ⎜ ⎜0 ⎜ ⎜0 H = ⎜ ⎜1 ⎜ ⎜0 ⎝ 1 1
1 1 0 0 1 1 1 0
0 1 1 0 0 1 1 1
1 0 1 1 1 0 0 0
0 1 0 1 1 1 0 0
0 0 1 0 1 1 1 0
0 0 0 1 0 1 1 1
1 0 0 0 0 0 0 0
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 1 0 0 0
0 0 0 0 0 1 0 0
0 0 0 0 0 0 1 0
⎞ 0 0⎟ ⎟ 0⎟ ⎟ 0⎟ ⎟. 0⎟ ⎟ 0⎟ ⎠ 0 1
Die Pr¨ufmatrix wird durch ihre Spaltenvektoren hj mit j = 0, 1, . . . , n − 1 dargestellt: H = (h0 , h1 , h2 , . . . , h14 ) . W¨ahlen wir als Codewort mit minimaler Distanz d = 5 c = (0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 0, 1, 1, 1) so gilt: (T ) H · cd = h6 + h10 + h12 + h13 + h14 = 0 . Bei dem Codewort c handelt es sich um den verschobenen Koeffizientenvektor g des Generatorpolynoms. Es gilt auch: (T )
H · gd
= h0 + h4 + h6 + h7 + h8 = 0,
da c dem um sechs Stellen nach rechts verschobenen Generatorpolynom entspricht.
5.3.6 Realisierungen elementarer Rechenoperationen mit Schieberegistern F¨ur das Verst¨andnis von Codierung und Decodierung kommt der Betrachtung von Schieberegisterrealisierungen eine besondere Bedeutung zu. Diese Bedeutung beruht weniger in der daraus resultierenden M¨oglichkeit einer Hardware-Realisierung, sondern vielmehr darin, einen Schritt von der abstrakten Beschreibung der Algorithmen hin zu einem vorstellbaren technischen Ablauf zu tun. Ein gutes Verst¨andnis des technischen Ablaufes f¨uhrt h¨aufig auch zu Verbesserungen der Algorithmen. In den folgenden Darstellungen sollen die Elemente der Schieberegister erl¨autert werden, die dann die elementaren Rechenoperationen der Multiplikation, Division und Transformation durchf u¨ hren k¨onnen. -
S0
-
S1
-
r r r
-
Sm−1
-
Der Inhalt einer Speicherzelle Sj wird mit einem Takt (i) zum Ausgang und damit zur n¨achsten Speicherzelle Sj+1 weitergegeben. Es gilt also: Sj+1 (i + 1) = Sj (i). F¨ur Addition, Multiplikation und Skalierung werden die folgenden Symbole verwendet:
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
390 b a
b
? - n- a + b
? - nr a·b
a
a
Multiplikation
Addition
- bn- a · b Skalierung
Mit Hilfe dieser Elemente k¨onnen nun Schieberegisterschaltungen angegeben werden, die elementare Rechenoperationen durchf¨uhren k¨onnen. Die nachstehende Schaltung zeigt ein Schieberegister, das die Koeffizienten nicht r¨uckkoppelt. Solche Schaltungen werden auch als FIR-Filter (finite-impulse-response) bezeichnet. am , am−1 , . . . a0 , 0, . . . , 0 ? t - sn−1 6
t
? bn
- sn−2
- ...
t
? bn−1
- s0
? ... bn−2
? - n
? b0
? - n- . . .
? - n
cm+n , . . . , c1 , c0
Die Struktur der Schaltung ist durch die Koeffizienten des Polynoms b(x) festgelegt: b(x) = b0 + b1 x + b2 x2 + · · · + bn xn . Die Koeffizienten von a(x) gelangen, mit der ho¨ chsten Potenz beginnend, in das Schieberegister. Das Schieberegister muss zu Beginn der Rechnung mit Null initialisiert sein. Die Koeffizienten von a(a) und b(x) werden gefaltet, so dass gilt: cj =
n
bi · aj−i .
i=0
Mit dieser Faltung werden die Koeffizienten des Polynoms c(x) = a(x) · b(x) berechnet. Im folgenden Beispiel wird diese Polynommultiplikation in Schaltung A durchgef u¨ hrt. Die Schaltung B, die ebenfalls der Multiplikation dient, geht aus der Schaltung A durch Anwendung elementarer Schaltungsalgebra hervor. Beispiel 5.22 Multiplikation mit x8 + x7 + x4 + x2 + x + 1 in GF (2): Schaltung A IN
-
7
q? - g
6
-
5
-
4
q? - g
3
-
2
q? - g
1
q? - g
0 OUT g- ?
5.3 Zyklische Codes
391
Die Multiplikation von x8 + x7 + x4 + x2 + x + 1 mit x3 + x2 + 1 f¨ur die Schaltung A ergibt: i
IN
7
6
5
4
3
2
1
0
OUT
1 2 3 4
1 1 0 1
1 1 0 1
0 1 1 0
0 0 1 1
0 0 0 1
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
1 0 1 1
5 6 7 8 9 10 11 12
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
1 0 0 0 0 0 0 0
0 1 0 0 0 0 0 0
1 0 1 0 0 0 0 0
1 1 0 1 0 0 0 0
0 1 1 0 1 0 0 0
0 0 1 1 0 1 0 0
0 0 0 1 1 0 1 0
0 1 1 1 0 0 1 1
Das Polynom x3 + x2 + 1 besitzt, wenn mit der h¨ochsten Potenz begonnen wird, die Bin¨ardarstellung (1,1,0,1). Bereits nach dem vierten Takt ist das Bitmuster vollst¨andig in das Schieberegister gelangt. Die Berechnung ist jedoch noch nicht abgeschlossen, denn c(x) muss den Grad: grada(x) +gradb(x) = 8+3 = 11 besitzen. Es werden solange Nullen nachgeschoben, bis der letzte Koeffizient a0 von a(x) das Schieberegister verlassen hat.
Schaltung B 0
1
- - g- - g6 6 IN q q q
2
3
- - g6 q
4
-
5
6
7
OUT
- - g- - g6 6 q
Die Multiplikation von x8 + x7 + x4 + x2 + x + 1 mit x3 + x2 + 1 f¨ur die Schaltung B ergibt: i
IN
0
1
2
3
4
5
6
7
OUT
1 2 3 4
1 1 0 1
1 1 0 1
1 0 1 1
1 0 0 0
0 1 0 0
1 1 1 1
0 1 1 1
0 0 1 1
1 1 0 0
1 0 1 1
5 6 7 8 9 10 11 12
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
1 0 0 0 0 0 0 0
1 1 0 0 0 0 0 0
0 1 1 0 0 0 0 0
0 0 1 1 0 0 0 0
1 0 0 1 1 0 0 0
1 1 0 0 1 1 0 0
1 1 1 0 0 1 1 0
0 1 1 1 0 0 1 1
Zuerst wird wieder Polynom x3 + x2 + 1 beginnend mit der h¨ochsten Potenz (1, 1, 0, 1) in das Register geschoben. Nach dem vierten Takt ist das Bitmuster anders als bei Schaltung A, nicht im Schieberegister zu erkennen. Es werden solange Nullen nachgeschoben, bis der letzte Koeffizient a0 von a(x) das Schieberegister verlassen hat. Die Ergebnisse der Multiplikation der Schaltungen A und B sind nat¨urlich identisch.
Ein lineares, r¨uckgekoppeltes Schieberegister kann auch fu¨ r die Division eines Polynoms a(x) durch ein Polynom b(x) (siehe Abb. 5.6) verwendet werden. Es gelte grad a(x) = n und b(x) = 1 + b1 x + · · · + xm , wobei m ≤ n sein muss. Entprechend der normalen Polynomdivision wird in Abbildung 5.6 die h¨ochste Potenz des dividierenden Polynoms b(x) mit einem negativen Vorzeichen versehen. Anschließend werden dann die kleineren Potenzen von b(x) zu
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
392
dem Polynom a(x) addiert. Sind die Polynomkoeffizienten aus GF (2), so erfolgt die Addition modulo 2. Eine gew¨ohnliche Division besitzt die zwei Ergebnisspolynome q(x) und r(x): r(x) a(x) = q(x) + ⇐⇒ a(x) = q(x) · b(x) + r(x) . b(x) b(x) r ? b1 ? - j- s1
a(x) ? - j- s0
r r ... ? ? bj j=m−1 b2 ? ? - j- s2 - . . . - j- sj
−1 -r q(x)
Abbildung 5.6: Polynomdivision mit LFSR Das Vielfache q(x) wird aus dem Schieberegister herausgeschoben, w¨ahrend der Divisionsrest r(x) nach Beendigung der Rechnung in den Speichern s0 , s1 , . . . , sm−1 enthalten ist. Die Rechnung ist beendet, wenn der letzte Koeffizient a0 von a(x) in das Schieberegister gelangt ist. Beispiel 5.23 Division durch x8 + x7 + x4 + x2 + x + 1 in GF (2): 0
IN
1
- g- - g- - g6 6 6 q q
xi
2
3
- - g6 q
4
IN
0
1
2
3
4
5
6
7
OUT
x x11 x10 x9 x8 x7 x6 x5
1 0 0 0 0 0 0 0
1 0 0 0 0 0 0 0
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 1 0 0 0
0 0 0 0 0 1 0 0
0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0
x4 x3 x2 x1 x0
0 0 0 0 0
1 1 1 1 0
1 0 0 0 1
1 0 1 1 0
0 1 0 1 1
1 1 0 1 1
0 1 1 0 1
0 0 1 1 0
1 1 1 0 1
1 1 1 1 0
12
x8
+
x7
-
5
6
- - g6 q
7
OUT
qq ?
Es wird die Division von x12 durch x8 + x7 + x4 + x2 + x + 1 in GF (2) durchgef¨uhrt. Das Polynom x12 besitzt die Bin¨ardarstellung (1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0), beginnend mit der h¨ochsten Potenz. An den Ausgang des Schieberegisters gelangt ein Bit erst mit einer Verz¨ogerung von 8 Takten. Diese Verz¨ogerung entspricht sowohl der L¨ange des Schieberegisters als auch der Gradreduzierung 12−8 = 4 durch die Polynomdivision. Ist das Bitmuster vollst¨andig in das Schieberegister gelangt, so ist die Berechnung abgeschlossen. Es gilt somit:
x1 + x3 + x4 + x5 + x7 x12 = (x4 + x3 + x2 + x) + 8 , 4 2 +x +x +x+1 x + x7 + x4 + x2 + x + 1
x12 = (x4 + x3 + x2 + x) · (x8 + x7 + x4 + x2 + x + 1) + x1 + x3 + x4 + x5 + x7 .
5.4 Codierung und Decodierung von zyklischen Codes
393
Die beiden Ergebnispolynome der Division sind das Vielfache q(x) = x4 + x3 + x2 + x und der Divisionsrest r(x) = x1 + x3 + x4 + x5 + x7 .
5.4 Codierung und Decodierung von zyklischen Codes In Abbildung 5.7 ist eine Schieberegisterschaltung dargestellt, die die drei notwendigen arithmetischen Operationen (vgl. Abschnitt 5.3.1) der systematischen Codierung eines zyklischen (n,k)Codes durchf¨uhrt. S2 ge¨offnet die letzten n − k Shifts PPr r r r ... 6 ? ? gj j=n−k−1 g2 c = (r0 , . . . , rn−k−1 , i0 , i1 , . . . , ik−1 ) ? ? r - r0 - j- r2 - . . . - j- rj - j r r 6 S1 unten f¨ur k Bits oben f¨ur n − k k Informationsbits (i0 , i1 , . . . , ik−1 ) Bits r r ? g1 ? - j- r1
Abbildung 5.7: Systematische Codierung eines zyklischen (n,k)-Codes Die Schaltungsbeschreibung kann in drei Schritten erfolgen:
Schritt A
• Zun¨achst werden die k Informationsbits i0 , i1 , . . . , ik−1 (oder in Polynomform: i(x) = i0 +i1 x+. . .+ik−1 xk−1 ) in das Schieberegister eingelesen: ik−1 ist hierbei das erste Bit. Der Schalter S2 ist zun¨achst geschlossen – das Schieberegister somit r¨uckgekoppelt. • Durch das Einlesen von “Rechts” wird i(x) automatisch mit xn−k vormultipliziert. • Sobald die k Informationsbits vollst¨andig in das Schieberegister eingelesen sind, befindet sich der Rest r(x) der Division von Gleichung (5.61) – der ja die zu berechnende Redundanz darstellt – in den n − k Registern.
Schritt B
• Im zweiten Schritt muss nun der R¨uckkoppelungspfad durch das Gatter unterbrochen werden. S2 wird ge¨offnet.
Schritt C
• Die n − k Pr¨ufbits r0 , r1 , . . . , rn−k−1 k¨onnen jetzt ausgelesen werden und stellen zusammen mit den Informationsbits das vollst¨andige Codewort c = (r0 , r1 , . . . , rn−k−1 , i0 , i1 , . . . , ik−1 ) dar.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
394
Beispiel 5.24 In der nachstehenden Abbildung 5.8 ist die Schieberegisterschaltung f u¨ r die Codierung des zyklischen (7, 4)-Codes dargestellt. j 0 1 2 3 4
r0 0 1 0 0 0
Information i3 i2 i1 i0
=1 =0 =1 =1
r1 0 1 1 0 0
r2 0 0 1 1 0
j-ter Shift Grundzustand 1. Shift 2. Shift 3. Shift 4. Shift
Die Codierung erfolgt systematisch mit g(x) = x3 +x+1. Die zu codierende Information sei i = (i0 , i1 , i2 , i3 ) = (1, 1, 0, 1). Das Schieberegister durchl¨auft nun folgende nebenstehende Zust¨ande:
Das Codewort lautet also: c = (r0 , r1 , r2 , i0 , i1 , i2 , i3 ) = (0, 0, 0, 1, 1, 0, 1) S2 ge¨offnet die letzten 3 Shifts PPr r 6
r
- r0
? - j- r1
- r2
- j 6
4 Informations bits (i0 , i1 , i2 , i3 ) -
r c = (r0 , r1 , r2 , i0 , i1 , i2 , i3 ) r r S1 unten f¨ur 4 bits oben f¨ur 3 bits
r
Abbildung 5.8: Systematische Codierung eines zyklischen (7,4)-Codes
5.4.1 Syndromberechnung bei zyklischen Codes In den vorausgegangenen Abschnitten wurde bereits eine Mo¨ glichkeit angegeben, den Einfluss des Fehlers, der Syndrom genannt wird, zu bestimmen. Durch die Multiplikation mit der Pr u¨ fmatrix s(T ) = H ·r (T ) kann das Syndrom berechnet werden. Gilt s = 0, so ist r ein Codewort, im anderen Fall ist r fehlerbehaftet. F¨ur den empfangenen fehlerbehafteten Vektor r = (r0 , r1 , . . . , rn−1 ) gilt: r = c + f ⇐⇒ r(x) = c(x) + f (x) , (5.74) wobei r(x) ein Polynom vom Grad kleiner gleich n − 1 ist. Fu¨ r zyklische Codes kann die Berechnung des Syndroms auch durch die Division von r(x) durch g(x) erfolgen: r(x) s(x) = q(x) + = ⇐⇒ r(x) = q(x) · g(x) + s(x) , g(x) g(x)
(5.75)
denn gem¨aß der Codiervorschrift ergibt sich s(x) = 0 nur dann, wenn r(x) ein Codewort und somit ein Vielfaches von g(x) ist. Allgemein ist s(x) ein Polynom vom Grad kleiner gleich n − k − 1. Die n − k Koeffizienten von s(x) = s0 + s1 x + · · · + sn−k−1 xn−k−1 bilden das Syndrom s = (s0 , s1 , . . . , sn−k−1 ). Die Berechnung des Syndroms kann wieder mit Hilfe eines linearen r¨uckgekoppelten Schieberegisters gem¨aß der Abbildung 5.9 erfolgen.
5.4 Codierung und Decodierung von zyklischen Codes r ? g1 ? - j- s1
r(x) ? - j- s0
395
Schalter PPr r r ... ? ? gj j=n−k−1 g2 ? ? - j- s2 - . . . - j- sj -
Abbildung 5.9: Syndromberechnung bei zyklischen (n,k)-Codes Beispiel 5.25 In der nachstehenden Abbildung 5.10 ist die Schieberegisterschaltung f u¨ r die Syndromberechnung des zyklischen (7, 4)-Codes mit g(x) = x3 + x + 1 dargestellt. r (0)
= (r0 , r1 , r2 , r3 , r4 , r5 , r6 ) = (0, 1, 0, 1, 1, 0, 1),
r (1) r (2)
= (r6 , r0 , r1 , r2 , r3 , r4 , r5 ) = (1, 0, 1, 0, 1, 1, 0), = (r5 , r6 , r0 , r1 , r2 , r3 , r4 ) = (0, 1, 0, 1, 0, 1, 1). Schalter PPr
r
r(x) ? - j- s0
? - j- s1
- s2
Die Syndromberechnung soll f¨ur drei Empfangsvektoren durchgef¨uhrt werden, die jeweils um einen zyklischen Shift zueinander verschoben sind. Hierdurch ist auch der in r (i) enthaltene Fehlervektor f (i) um i Shifts verschoben. Das Schieberegister durchl¨auft die Zust¨ande, die in der folgenden Tabelle angegeben sind.
-
Abbildung 5.10: Syndromberechnung eines zyklischen (7,4)-Codes
r r6 r5 r4 r3 r2 r1 r0
=1 =0 =1 =1 =0 =1 =0
Register 0 0 0 1 0 0 0 1 0 1 0 1 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1 1 1 0
r (1) r5 r4 r3 r2 r1 r0 r6
=0 =1 =1 =0 =1 =0 =1
Register 0 0 0 0 0 0 1 0 0 1 1 0 0 1 1 0 1 1 1 1 1 0 0 1 1 1 0
r (2) r4 r3 r2 r1 r0 r6 r5
=1 =1 =0 =1 =0 =1 =0
Register 0 0 0 1 0 0 1 1 0 0 1 1 0 1 1 1 1 1 0 0 1 1 1 0
Shift Grundzustand 1. Shift 2. Shift 3. Shift 4. Shift 5. Shift 6. Shift 7. Shift 8. Shift 9. Shift
Das Syndrom s f¨ur den Empfangsvektor r lautet s = (s0 , s1 , s2 ) = (0, 1, 0), f¨ur r (1) s(1) = s0 , s˜1 , s˜2 ) und f¨ur r (2) schließlich s(2) = (˜ s2 , s˜2 ⊕ s˜0 , s˜1 ) = (s2 , s0 ⊕ s2 , s1 ) = (0, 0, 1) = (˜ (1, 1, 0).
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
396
Das Beispiel 5.25 zeigt, dass die Syndromberechnung abgeschlossen ist, wenn alle n − 1 Empfangsbits in das Schieberegister gelangt sind. Wird das Schieberegister bei geschlossenem Schalter weitergetaktet, so bildet sich mit jedem weiterem Takt ein Syndrom s(i) , das zu einem zyklisch verschobenem Empfangsvektor r (i) geh¨ort. Dieser Sachverhalt wird nachfolgend ohne Beweis noch einmal allgemein formuliert. s ist das zugeh¨orige Syndrom zum Empfangsvektor r, das durch Division berechnet werden kann: r(x) = q(x) · g(x) + s(x) . Zu dem i-fach zyklisch verschobenen Empfangsvektor r (i) berechnet sich das Syndrom s(i) wie folgt: (5.76) xi · r(x) = q˜(x) · g(x) + s(i) (x) wobei s(i) (x) = xi · s(x) mod g(x).
- s0
r ? g1 ? - j- s1
Schalter PPr r r ... ? ? gj j=n−k−1 g2 ? ? - j- s2 - . . . - j- sj - j 6
n Empfangsbits (r0 , i1 , . . . , in−1 ) Abbildung 5.11: Syndromberechnung zyklischer (n,k)-Code mit Vormultiplizierung Diese Aussage ist f¨ur die Syndromberechnung wichtig, um eine weitere Schieberegisterschaltung angeben zu k¨onnen, die mit der Schieberegisterschaltung der systematischen Codierung strukturgleich ist. Wir erinnern uns, dass f¨ur die systematische Codierung die Information i(x) mit xn−k vormultipliziert wurde. Verfahren wir mit dem Empfangsvektor r(x) in gleicher Weise, so erhalten wir die in Abbildung 5.11 dargestellte Schieberegisterschaltung, die zu r das Syndrom s (n−k) berechnet.
5.4.2 Decodierung von zyklischen Codes Die Decodierung von zyklischen Codes erfolgt - ganz analog der Decodierung linearer Codes durch drei notwendige arithmetische Operationen. 1. Schritt Syndrombrechnung s(x): r(x) = q(x) · g(x) + s(x) r(x) ist hierbei der fehlerbehaftete Empfangsvektor: r(x) = c(x) + f (x), f(x) der Fehlervektor und das Syndrom s(x) der Rest der Division von r(x) durch das Generatorpolynom g(x). 2. Schritt Bestimmung des Fehlermusters f(x) aus s(x). Dies kann durch Tabellen (Standart Array) oder durch eine Logikschaltung erfolgen, die das Syndrom weiterverarbeitet.
5.4 Codierung und Decodierung von zyklischen Codes
397
3. Schritt Korrektur des Fehlers. F¨ur bin¨are Codes kann dies durch einfache Exorverknu¨ pfung des Empfangsvektors mit dem Fehlervektor erfolgen. r r - S0
-
? - i- s0
k–Bit Puffer-Register
r - i S3 6
S2 PPr r r r ... S1 6 r ? ? ? gj j=n−k−1 g1 g2 ? ? ? - i- s1 - i- s2 - . . . - i- sj ?
? ? Syndromlogik & Lt ?
? %
Abbildung 5.12: Decoder f¨ur einen zyklischen (n,k)-Code Die Abbildung 5.12 veranschaulicht die Wirkungsweise des Decoders. Er besteht aus einem Speicherregister, in dem der Informationsteil von r(x) w¨ahrend der Berechnung des Syndroms gespeichert wird. Die Berechnung des Syndroms erfolgt in dem bereits bekannten r u¨ ckgekoppelten Schieberegister. Aufgabe der Syndromlogik ist es, aus dem Syndrom die Fehlerstelle zu bestimmen und durch Steuerung des Schalters S1 , die Fehler durch Addition zu beseitigen. Die prinzipielle Funktion, dieser auch als Meggitt-Decoder bekannten Schaltung, wird im Folgenden beschrieben und anschließend anhand eines einfachen Beispiels verdeutlicht. 1. Schritt Zuerst gelangt r(x) - mit dem h¨ochsten Koeffizienten zuerst - vollst¨andig in das r¨uckgekoppelte Schieberegister, so dass anschließend das Syndrom berechnet ist. Die k Informationsbits gelangen gleichzeitig in das Puffer-Register und werden dort gespeichert. 2. Schritt Durch eine einfache Logik kann nun die Korrekturbedingung abgefragt werden. Diese Abfrage erfolgt nach jedem weiteren Takt des Schieberegisters solange, bis die Korrekturbedingung erf¨ullt ist, bzw. die Anzahl der Shifts die Codewortl¨ange n erreicht hat. Die gesuchte Korrekturbedingung des Meggitt- Decoders ist dann erfu¨ llt, wenn ein korrigierbares Fehlermuster derart gefunden wird, dass sich eines der Fehlerbits dieses Fehlermusters in der h¨ochsten Position rn−1 des verschobenen Empfangsvektors r (i) befindet. 3. Schritt Wird z.B. die Korrekturbedingung fu¨ r das erste berechnete Syndrom nicht erreicht, so bedeutet dies, dass das h¨ochste Informationsbit ik−1 = rn−1 fehlerfrei u¨ bertragen wurde und aus dem Puffer-Register ausgelesen werden kann. Die anderen Bits werden (1) beginnend mit rn−2 → rn−1 nach rechts verschoben.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
398
Wird die Korrekturbedingung f¨ur ein verschobenes Syndrom erreicht, so bedeutet dies, dass das im Puffer-Register rechts stehende Informationsbit fehlerhaft u¨ bertragen wur¨ de. Uber eine Steuerung des Schalters S1 , erfolgt die Korrektur des Fehlermusters durch einfache Exorverkn¨upfung. Wenn die Bedingung innerhalb von n Takten, nachdem r(x) vollst¨andig in das r¨uckgekoppelte Schieberegister gelangt ist, nie erf¨ullt wird, sind unkorrigierbar viele Fehler aufgetreten. Beispiel 5.26 In der nachstehenden Abbildung 5.13 ist die Schieberegisterschaltung f u¨ r die Decodiertung des zyklischen (7, 4)-Codes mit g(x) = x3 + x + 1 dargestellt. Zun¨achst bestimmen wir die Syndrome aller korrigierbaren Fehlermuster. Hierzu ist es nicht notwendig diese Fehlermuster verschiedenen Codew¨ortern aufzupr¨agen, denn die Wahl des Codewortes hat keinen Einfluss auf das Syndrom. Gehen wir von c = 0 aus, so gilt: r = f . Der Empfangsvektor ist identisch mit dem Fehlervektor. r r r(x) - S0
-
r
? - j- s0
k–Bit Puffer-Register S2 PPr
? - j- s1
- s2
- j r S3 6 S1 r
-
r ? ?? & & % Lt ? Abbildung 5.13: Decodierung eines zyklischen (7,4) Codes
f0 f1 f2 f3 f4 f5 f6
= = = = = = =
f (1,0,0,0,0,0,0) (0,1,0,0,0,0,0) (0,0,1,0,0,0,0) (0,0,0,1,0,0,0) (0,0,0,0,1,0,0) (0,0,0,0,0,1,0) (0,0,0,0,0,0,1)
s(x) s(x) = 1 s(x) = x s(x) = x2 s(x) = 1 + x s(x) = x + x2 s(x) = 1 + x + x2 s(x) = 1 + x2
s (1,0,0) (0,1,0) (0,0,1) (1,1,0) (0,1,1) (1,1,1) (1,0,1)
F¨ur die Bestimmung der LogikSchaltung des Meggitt-Decoders wird das Syndrom ausgesucht, dessen korrespondierender Fehlervektor in der n − 1-ten Stelle eine Eins besitzt. Der Fehlervektor ist f 6 und das zugeh¨orige Syndrom ist s(x) = 1 + x2 .
¨ Ist z. B. durch die Ubertragung eines Codewortes die Stelle c4 fehlerbehaftet, so hat das Syndromregister nach vollst¨andigen Einlesen des Empfangsvektors das Syndrom (0, 1, 1) berechnet. Die Korrekturbedingung ist nicht erf¨ullt, somit rn−1 nicht die gesuchte Fehlerstelle. r6 = i3 kann ausgelesen werden und rn−2 = i2 r¨uckt an die h¨ochste Stelle. Das Syndromregister beinhaltet nach dem n¨achsten Takt (1, 1, 1). Also kann auch i2 ausgelesen werden.
5.4 Codierung und Decodierung von zyklischen Codes
399
Mit dem nun folgenden Takt enth¨alt das Syndromregister das gesuchte Syndrom (1, 0, 1). Jetzt schaltet die Syndromlogik den Schalter S1 und korrigiert den Fehler in der richtigen Position.
5.4.3 Decodierung eines zweifehlerkorrigierenden Codes Im Abschnitt 5.3.5 wurden im Beispiel 5.21 bereits Generator- und Pru¨ fmatrix des zweifehlerkorrigierenden (15,7) Codes angegeben. Fu¨ r die Fehlerkorrektur von mehreren Fehlern E > 1 ist jedoch die Pr¨ufmatrix weniger gut geeignet, denn zur Korrektur mu¨ sste u¨berpr¨ uft werden,ob einer n . F¨ur der nE m¨oglichen Spaltenkombinationen das Syndrom ergibt: nE = n0 + n1 + · · · + E ¨ den zweifehlerkorrigierenden (15, 7) Code wu¨ rde dies bereits eine Uberpr¨ ufung von maximal 121 Spaltenkombinationen bedeuten.
fi
Notwendige Syndrome zur Decodierung 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
f1 f2 f3 f4 f5 f6 f7 f8
0 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0
0 0 0 0 1 0 0 0
0 0 0 1 0 0 0 0
0 0 1 0 0 0 0 0
0 1 0 0 0 0 0 0
1 1 1 1 1 1 1 1
s1 s2 s3 s4 s5 s6 s7 s8
f9
0 0 0 0 0 0 1 0 0 0
0
0
0
0
1
s9 = (00010101)
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 1
0 0 0 0 0 0 1 0
si = (00010111) = (10011100) = (01001011) = (10101111) = (01110000) = (11011001) = (00111001) = (00010110)
Tabelle 5.8: Decodier-Syndrome eines zyklischen (15,7) Codes Die Gleichung (5.76) und das Beispiel 5.25 legen nahe, die fu¨ r die Decodierung abzuspeichernden Syndrome um diejenigen zu reduzieren, deren zugeho¨ riges Fehlermuster durch einen i-fachen zyklischen Shift aus einem Fehlermuster hervorgeht, dessen Syndrom bereits gespeichert ist. Diese Aussage wird durch die Syndromtabelle 5.8 veranschaulicht. Das Fehlermuster f 9 l¨asst sich auf das Fehlermuster f 8 durch einen achtfachen zyklischen Shift zuru¨ ckf¨uhren. Deshalb sind auch die Syndrome ineinander u¨ berf¨uhrbar. i
Syndrome
0 1 2 3 4 5 6 7 8
00010101 10000001 11001011 11101110 01110111 10110000 01011000 00101100 00010110
In der linksstehenden Tabelle ist in der oberen Zeile (i = 0) das Syndrom s9 (s(x) = x3 + x5 + x7 ) des Fehlervektors f 9 eingetragen. Wird s9 nach rechts verschoben, so ergibt sich: s(1) (x) = x4 + x6 + x8 . Wird dieses Syndrom modulo g(x) = 1 + x4 + x6 + x7 + x8 berechnet, so ergibt sich die n¨achste Zeile (i = 1): s(1) (x) mod g(x) = x4 + x6 + 1 + x4 + x6 + x7 = 1 + x7 . Nach insgesamt achtmaligem zyklischen Schieben modulo g(x), ist das Syndrom s9 in s8 u¨ bergegangen.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
400 r(x) - q q S0
- f q S 6 3 q S1
7–Bit Puffer-Register q
q
q
PS q 2
? ? ? -? f - s0 - s1 - s2 - s3 - f - s4 - s5 - f - s6 - f - s7 q 6 q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q
qq q& q q& qq q& qq& qq q& qq q& q q& q qq q&
-⊕-
Abbildung 5.14: Decodierung eines zyklischen (15,7) Codes Abbildung 5.14 zeigt eine Decodierschaltung fu¨ r den (15, 7) Code unter Verwendung der Decodiersyndrome aus Tabelle 5.8. Den Kern der Schaltung bildet das Syndromregister, das durch das Generatorpolynom des Codes festgelegt ist. Das 7-Bit Puffer-Register nimmt wieder die Information auf. Im Unterschied zur Abbildung 5.13 besteht die Syndromlogik aus acht &-Gattern, die den Decodiersyndromen entsprechen. Wird eines dieser Decodiersyndrome im Syndromregister generiert, nachdem der Empfangsvektor vollst¨andig in das Schieberegister gelangt ist, so gibt das entsprechende &-Gatter eine Eins ab. Ein wesentlicher Unterschied zur Decodierung nach Abbildung 5.12 besteht in der R u¨ ckf¨uhrung dieser Eins in das r¨uckgekoppelte Schieberegister. Hierdurch wird der Einfluss des jetzt korrigierten Fehlers auch im Syndromregister eliminiert. Der Sinn dieser Vorgehensweise wird besonders deutlich, wenn das Syndrom s1 detektiert wird. Ohne die R¨uckf¨uhrung der Korrektureins w¨urde das Syndromregister durch die R¨uckkoppelung nach dem n¨achsten Takt noch eine Eins (1, 0, 0, 0, 0, 0, 0, 0) enthalten. Genau diese verbleibene Eins wird durch die R u¨ ckf¨uhrung der Korrektureins eliminiert, so dass das Syndrom s(x) = 0 wird. Beispiel 5.27 Die Decodierung des Empfangsvektors r = (000000000010001) durch den Meggitt-Decoder wird nach Abbildung 5.14 durchgefu¨ hrt. Ist der Empfangsvektor r vollst¨andig in das Syndromregister gelangt: i = 0, so ist das Syndrom s5 nach Tabelle 5.8 berechnet. Ein Fehler in der h¨ochstwertigen Stelle r14 ist erkannt und wird korrigiert. Gleichzeitig gelangt eine Eins u¨ ber die R¨uckf¨uhrung in das Schieberegister, so dass sich s = (10111000) f¨ur i = 1 ergibt. Nach weiteren drei Takten (i = 4) wird das Syndrom s1 nach Tabelle 5.8 erkannt und die Stelle r10 korrigiert. Die R¨uckf¨uhrung der Eins in das Syndromregister bewirkt, dass das Register nur noch Nullen aufweist und somit kein Fehler mehr in r enthalten ist. Der Empfangsvektor wird zum Nullcodewort c = (000000000000000) hin korrigiert.
5.4 Codierung und Decodierung von zyklischen Codes
T akt
401
Register
i 0
s0 0
s1 1
s2 1
s3 1
s4 0
s5 0
s6 0
s7 0
1 2 3 4
1 0 0 0
0 1 0 0
1 0 1 0
1 1 0 1
1 1 1 0
0 1 1 1
0 0 1 1
0 0 0 1
5
0
0
0
0
0
0
0
0
Syndrom
Out
s5
0 = r14 ⊕ 1
s1
0 = r13 0 = r12 0 = r11 0 = r10 ⊕ 1 0 = r9
¨ 5.4.4 Kurzen von zyklischen Codes Ist in einem System die Codewortl¨ange durch die technischen Anforderungen vorgegeben, so kann h¨aufig – aufgrund seiner festgelegten L¨ange – kein zyklischer Code verwendet werden. In diesem Abschnitt wird nun ein Verfahren beschrieben, wie ausgehend von einem zyklischen (n, k)-Code durch K¨urzen von l Stellen ein linearer, nichtzyklischer (n − l, k − l)-Code vorgegebener L¨ange entsteht. In Beispiel 5.18 wurde der zyklische, systematische (7, 4)-Code betrachtet. Er besitzt 2 4 = 16 Codew¨orter, von denen genau die H¨alfte, also 8, je in der h¨ochstwertigen Informationsstelle eine Null aufweisen. Durch K¨urzen dieser Informationsstelle entsteht (vgl. Beispiel 5.28) ein linearer (6, 3)-Code mit 8 Codew¨ortern, der nichtzyklisch ist. Beispiel 5.28 Die nachfolgende Tabelle 5.9 zeigt links noch einmal die ersten 8 Codewo¨ rter des (7, 4)-Code und rechts den vollst¨andigen (6, 3)-Code in der systematischen Form:
i0 i1 i2 i3 i4 i5 i6 i7
(7, 4)-Code 0000 c0 000 1000 c1 110 0100 c2 011 1100 c3 101 0010 c4 111 1010 c5 001 0110 c6 100 1110 c7 010
0000 1000 0100 1100 0010 1010 0110 1110
i0 i1 i2 i3 i4 i5 i6 i7
(6, 3)-Code 000 c0 000 100 c1 110 010 c2 011 110 c3 101 001 c4 111 101 c5 001 011 c6 100 111 c7 010
000 100 010 110 001 101 011 111
Tabelle 5.9: (6,3)-Code als verk¨urzter zyklischer (7,4)-Code, g(x) = x3 + x + 1 Der entstandene (n−l, k−l)-Code besitzt die gleiche Mindestdistanz d wie der ungek u¨ rzte (n, k)Code und damit auch gleiche Korrektureigenschaften, denn durch Weglassen von Nullen kann sich das Mindestgewicht des Codes nicht ver¨andern. Ein Vorteil dieses Verfahren zur Codeverk¨urzung besteht darin, dass die Codierung genauso erfolgen kann wie beim ungek¨urzten Code. Da die Bits, um die der Code verku¨ rzt wurde, nur Nullen
402
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
sind, a¨ ndern sie das Ergebnis der Division durch das Generatorpolynom nicht. Gleiches gilt f u¨ r die Realisierung der Codierung durch ein ru¨ ckgekoppeltes Schieberegister. Weiterhin ist es vorteilhaft, dass es gelingt, die Decodierung mittels ru¨ ckgekoppelter Schieberegister durchzufu¨ hren, wenn diese geringf¨ugig modifiziert werden. Diese notwendige Modifizierung wird im Abschnitt 5.4.6 Decodierung verk¨urzter Codes erl¨autert.
¨ ¨ 5.4.5 Generatormatrix und Prufmatrix verkurzter Codes Die Generatormatrix G eines um l Informationsstellen verku¨ rzten (n − l, k − l)-Codes kann aus der Generatormatrix des zyklischen (n, k)-Codes gebildet werden. Von der Generatormatrix des zyklischen Codes werden nur die letzten (k − l) Zeilen und die letzten (n − l) Spalten verwendet. Die Matrix G enth¨alt dann k − l linear unabh¨angige CodeVektoren von C. Schreiben wir die Koeffizientenvektoren ((n − l)-Tupel) dieser Polynome in die (k − l) × (n − l)-Matrix, so erhalten wir die Generatormatrix eines (n − l, k − l)-Codes C: ⎛g g g2 · · · gn−k 0 0 ··· 0 ⎞ ⎛ g (0) ⎞ 0 1 · · · gn−k 0 · · · 0 ⎟ ⎜ g (1) ⎟ ⎜ 0 g0 g1 g2 ⎜ ⎟. (5.77) G=⎜ .. . .. ⎟ . . ⎠=⎝ ⎠ ⎝ . .. .. . . . g (k−l−1) g1 g2 · · · gn−k 0 0 ··· 0 g0 F¨ur das Beispiel des (6, 3)-Codes, nach Tabelle 5.9, mit dem Generatorpolynom g(x) = x 3 +x+1 lautet die Generatormatrix: ⎛ ⎞ ⎛ ⎞ 1 1 0 1 0 0 0 1 1 0 1 0 0 ⎜ 0 1 1 0 1 0 0 ⎟ ⎟ ⎝ ⎠ G(7,4) = ⎜ ⎝ 0 0 1 1 0 1 0 ⎠ =⇒ G(6,3) = 0 1 1 0 1 0 0 0 1 1 0 1 0 0 0 1 1 0 1 Diese Matrix kann durch elementare Zeilenumformungen in die systematische Form gebracht werden: ⎛ ⎞ ⎛ ⎞ 1 0 0 0 1 1 0 1 0 0 0 1 1 ⎜ ⎟ 0 1 0 0 0 1 1 (u) (u) ⎟ ⎝ ⎠ G(7,4) = ⎜ ⎝ 0 0 1 0 1 1 1 ⎠ =⇒ G(6,3) = 0 1 0 1 1 1 0 0 1 1 0 1 0 0 0 1 1 0 1 Diese systematische Generatormatrix erzeugt denselben Code wie in Beispiel 5.28 (vgl. Tab. 5.9), die unsystematische Generatormatrix. Lediglich die Reihenfolge von Information und Redundanz a¨ ndert sich, da die Generatormatrix die Struktur G = (I, A) und nicht (A, I) aufweist. Aus Abschnitt 5.3.4, Seite 386, ist aber bereits bekannt, dass durch zyklisches Verschieben der Zeilenvektoren die Generatormatrix des zyklischen Codes gefunden werden kann, die in den oberen Stellen systematisch ist. Durch entsprechendes Ku¨ rzen formt sich die Generatormatrix des geku¨ rzten Codes: ⎛ ⎞ ⎛ ⎞ 1 1 0 1 0 0 0 1 1 0 1 0 0 ⎜ 0 1 1 0 1 0 0 ⎟ (o) (o) ⎟ ⎝ ⎠ G(7,4) = ⎜ ⎝ 1 1 1 0 0 1 0 ⎠ =⇒ G(6,3) = 0 1 1 0 1 0 . 1 1 1 0 0 1 1 0 1 0 0 0 1
5.4 Codierung und Decodierung von zyklischen Codes
403
Die Pr¨ufmatrix des verk¨urzten Codes kann ganz entsprechend der Generatormatrix gebildet werden. Die Pr¨ufmatrix H des zyklischen Codes ist eine (n − k) × n-Matrix mit der Eigenschaft (vgl. Gl. 5.67), dass jeder Zeilenvektor orthogonal zu jedem Codevektor ist. Die Codeverku¨ rzung erfordert hier lediglich die Streichung einer Spalte, da die Anzahl der Pru¨ fbits (n − k) gleich bleibt. Es entsteht eine (n − k) × (n − l)-Matrix: ⎛h h hk−2 ··· h0 0 0 · · · 0 ⎞ ⎛ h(0) ⎞ k k−1 hk−1 hk−2 · · · h0 0 · · · 0 ⎟ ⎜ h(1) ⎟ hk ⎜ 0 ⎜ ⎟ . (5.78) H=⎜ .. . .. ⎟ . . ⎠⎝ ⎠ ⎝ . .. .. . . . (n−k−1) h 0 0 ··· 0 hk hk−1 hk−2 · · · h0 Die Koeffizienten von H sind durch das Pru¨ fpolynom h(x) festgelegt, f¨ur das gilt: g(x) · h(x) = xn + 1 . Hierbei ist h(x) ein Polynom vom Grad k: h(x) = 1 + h1 x + h2 x2 + · · · + hk−1 xk−1 + xk . Gegeben sei das Pr¨ufpolynom h(x) = x4 + x2 + x + 1 eines zyklischen (7,4)-Codes bekannt. Fu¨ r die Pr¨ufmatrix gilt damit: ⎛ ⎛ ⎞ ⎞ 1 0 1 1 1 0 0 0 1 1 1 0 0 H (7,4) = ⎝ 0 1 0 1 1 1 0 ⎠ =⇒ H (6,3) = ⎝ 1 0 1 1 1 0 ⎠ 0
0 1 0 1 1 1
0 1 0 1 1 1
Diese Pr¨ufmatrizen k¨onnen durch H = (A, I) gebracht werden: ⎛ 1 0 1 1 1 (o) H (7,4) = ⎝ 1 1 1 0 0 0 1 1 1 0
elementare Zeilenumformungen in die systematische Form ⎞ 0 0 1 0 ⎠ 0 1
⎛
=⇒
(o) H (6,3)
⎞ 0 1 1 1 0 0 =⎝ 1 1 1 0 1 0 ⎠ 0 1 0 0 0 1
¨ 5.4.6 Decodierung verkurzter Codes F¨ur die Codierung und Decodierung verk¨urzter Codes mittels Generatormatrix und Pru¨ fmatrix gilt gleiches wie f¨ur Codes, die nicht verk¨urzt sind. Das folgende Beispiel soll die Vorgehensweise noch einmal veranschaulichen. Beispiel 5.29 Es wird der gek¨urzte (6, 3) Code aus Abschnitt 5.4.5 betrachtet. Es gelte: i = (111). ⎛ ⎞ 1 0 0 0 1 1 (u) (u) G(6,3) = ⎝ 0 1 0 1 1 1 ⎠ , c = i · G(6,3) = (111001). 0 0 1 1 0 1 Empfangen wird der fehlerbehaftete Vektor r = (101001) : ⎛ ⎛ ⎞ ⎞ 0 1 1 1 0 0 1 (o) (o) H (6,3) = ⎝ 1 1 0 0 1 0 ⎠ , s(T ) = H (6,3) · r (T ) = ⎝ 1 ⎠ . 1 1 1 1 0 0 1
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
404
Das Syndrom s(T ) entspricht der zweiten Spalte der Pr¨ufmatrix. Es ist damit ein Fehler in der zweiten Spalte des Empfangsvektors r lokalisiert. Die Codierung und Decodierung verk¨urzter Codes kann auch durch dieselben ru¨ ckgekoppelten Schieberegister erfolgen wie die Codierung und Decodierung der zyklischen Codes. Insbesondere bei der Decodierung w¨urden in diesem Fall jedoch zus¨atzliche Shifts des Syndromregisters notwendig werden. Nachdem die n − l Bits des Empfangsvektors r in das Schieberegister eingelesen worden sind, m¨ussten noch weitere l Shifts erfolgen, um das entsprechende Syndrom fu¨ r das zuerst eingelesene Bit rn−l−1 zu generieren. Dieser Vorgang wurde im Abschnitt 5.4.2 auf Seite 396 bis 398 beschrieben. Im Folgenden sollen die notwendigen Modifikationen der Decodierung verk u¨ rzter Codes mit Hilfe von r¨uckgekoppelten Schieberegistern erl¨autert werden, die den oben beschriebenen Nachteil vermeiden. Der Empfangsvektor r sei durch: r(x) = r0 + r1 x + r2 x2 + · · · + rn−l−1 xn−l−1
(5.79)
gegeben. Wir nehmen an, dass der Empfangsvektor von rechts (siehe Abbildung 5.11) beginnend mit dem h¨ochstwertigen Bit rn−l−1 in das Syndromregister eingelesen wird. Bedingt durch die Vormultiplizierung von r(x) mit xn−k durch das Einlesen von rechts, m¨usste f¨ur die Decodierung von rn−l−1 das Syndrom von xn−k+l · r(x) verwendet werden. t
t
? g1 ? j- s0 6
? g2 ···
- ? j- s1 6
p0 r(x) 6 - t S0 t
p1 6 t
···
t
t
t
? ? gy y=n−k−2 gz z=n−k−1
?? - j · · · - j- sy 6 6 p2 ··· 6 t ···
S1
- ? j- sz 6
-
py y=n−k−2 pz z=n−k−1 6 6 t
Abbildung 5.15: Schaltung zur Syndromberechnung verku¨ rzter Codes Nach Gleichung (5.76) gilt: xn−k+l · r(x) = q1 (x) · g(x) + s(n−k+l) (x), (n−k+l)
s
(x) = x
n−k+l
wobei
· s(x) mod g(x).
(5.80) (5.81)
Bezeichnet p(x) = p0 + p1 x + p2 x2 + · · · + pn−k−1 xn−k−1 den Rest der Division von xn−k+l durch g(x) so folgt: xn−k+l = q2 (x) · g(x) + p(x) ⇐⇒ p(x) = xn−k+l + q2 (x) · g(x).
(5.82)
5.4 Codierung und Decodierung von zyklischen Codes
405
Beide Seiten von Gleichung (5.82) werden nun mit r(x) multipliziert und f u¨ r xn−k+l · r(x) die Gleichung (5.80) eingesetzt: p(x) · r(x) = [xn−k+1 + q2 (x)g(x)] · r(x), = [q1 (x) + q2 (x)r(x)] · g(x) + s(n−k+l) (x), = s(n−k+l) (x) mod g(x).
(5.83)
Die Gleichung (5.83) zeigt einen interessanten Zusammenhang zwischen dem Empfangspolynom r(x) und dem gesuchten Syndrom s(n−k+l) (x) auf. Das Syndrom kann n¨amlich durch eine einfache Vormultiplikation von r(x) mit dem Polynom p(x) gewonnen werden. Diese Vormultiplikation mit p(x) kann gleichzeitig beim normalen Einlesen der empfangenen Bits in das Syndromregister stattfinden. Die Abbildung 5.15 zeigt eine vollst¨andige Realisierungsm¨oglichkeit f¨ur die Syndromberechnung verk¨urzter Codes. Diese Schieberegisterschaltung zur Syndromberechnung ist im oberen Teil, der durch das Generatorpolynom g(x) = 1+g1 x+· · ·+gn−k−1 xn−k−1 +xn−k festgelegt ist, unver¨andert geblieben (vgl. Abb. 5.11). Im unteren Teil wurde die Schaltung durch die Vormultiplizierung mit p(x) = po + p1 x + · · · + pn−k−1 xn−k−1 modifiziert. Im Folgenden wird die Verk¨urzung des zyklischen (7,4) Codes auf einen (6,3) Code als Beispiel gew¨ahlt. t ?- s - s0 - h 1
r = (0000001) ri - s2 - h 6
r(x) g(x) = 1 + x + x3
Abbildung 5.16: Syndromberechnung des (7, 4) Codes mit Vormultiplizierung
r6 r5 r4 r3 r2 r1 r0
=1 =0 =0 =0 =0 =0 =0
s0 s1 s2 0 0 0 1 1 0 0 1 1 1 1 1 1 0 1 1 0 0 0 1 0 0 0 1
Shifts 0. Shift 1. Shift 2. Shift 3. Shift 4. Shift 5. Shift 6. Shift 7. Shift
s(7−4) = s(3) = (001)
In Abbildung 5.16 ist zun¨achst die Syndromberechnung f¨ur den ungek¨urzten (7,4) Code dargestellt. Im Unterschied zu den Beispielen 5.10 und 5.26 wurde hier die Syndromschaltung mit Vormultiplizierung mit xn−k gew¨ahlt. F¨ur das Fehlermuster f = (0, 0, 0, 0, 0, 0, 1) ergibt sich das Syndrom s = (0, 0, 1). Nach Gleichung (5.82) kann das Polynom p(x) = x2 + x zur Vermeidung zus¨atzlicher Schiebeoperationen berechnet werden: x7−4+1 = x4 ⇐⇒ x4 = x · x3 = x · (x + 1) mod g(x) = x3 + x + 1.
(5.84)
Mittels des Polynoms p(x) = x + x2 kann nun die Schaltung zur Syndromberechnung nach Abbildung 5.17 angegeben werden. Es ist deutlich erkennbar, dass das Syndrom trotz Verlagerung ¨ der des Fehlers in die Stelle r5 des Empfangsvektors gleich bleibt. Damit wird eine Anderung Syndromlogik (s. Abb. 5.12) vermieden. In Beispiel 5.26 erfolgte die zur Decodierung notwendige Syndromberechnung ohne Vormultiplizierung. Es stellt sich die Frage, ob auch fu¨ r diesen Fall die Syndromberechnung so f¨ur den verk¨urzten Code modifiziert werden kann, dass die Syndromlogik unver¨andert bleibt.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
406 t
r = (000001) ri
- s0 r(x)
- ? h- s1 - h- s2 6 6
-
t g(x) = 1 + x + x3
r5 r4 r3 r2 r1 r0
=1 =0 =0 =0 =0 =0
Abbildung 5.17: Syndromberechnung des (6, 3) Codes
s0 s1 s2 0 0 0 0 1 1 1 1 1 1 0 1 1 0 0 0 1 0 0 0 1
Shifts 0. Shift 1. Shift 2. Shift 3. Shift 4. Shift 5. Shift 6. Shift
s(n−k+l) = (001)
Eine Betrachtung der Herleitung (s. Gln. 5.80 bis 5.83) zeigt, dass es ebenfalls ausreichend ist, ein Polynom p(x) zu berechnen: (5.85) p(x) = xl mod g(x), wobei l die Verk¨urzung des Codes angibt. Ist l < grad g(x), so gilt: p(x) = xl
f¨ur l < grad g(x).
(5.86)
Abbildung 5.18 zeigt f¨ur l = 1 die sehr einfache Schaltung zur Syndromberechnung. Auch mit der Verlagerung des Fehlers in die Stelle r5 des Empfangsvektors bleibt das Syndrom s = (1, 0, 1) ¨ (wie in Beispiel 5.26) gleich. Damit wird eine Anderung der Syndromlogik (s. Abb. 5.12) vermieden. t
r = (000001) ri
- s0
- ? h- s1 6
- s2
-
r(x) g(x) = 1 + x + x3
Abbildung 5.18: Syndromberechnung des (6, 3) Codes
r5 r4 r3 r2 r1 r0
=1 =0 =0 =0 =0 =0
s0 s1 s2 0 0 0 0 1 0 0 0 1 1 1 0 0 1 1 1 1 1 1 0 1
Shifts 0. Shift 1. Shift 2. Shift 3. Shift 4. Shift 5. Shift 6. Shift
s(l) = (101)
5.4.7 Decodierung durch Error Trapping Der Error Trapping Decoder ist eine Spezialisierung des Meggitt–Decoders [13, S. 85 ff], der auf einem allgemeinen Decodierprinzip f¨ur zyklische Codes beruht. Das Trapping Verfahren ist fu¨ r Codes, die nur wenige Einzel– oder B¨undelfehler korrigieren sollen, sehr effektiv – hingegen fu¨ r lange Codes, die viel Redundanz besitzen, ineffektiv. Kasami, Mitchell und Rudolph entwickelten unabh¨angig voneinander das Verfahren. Ihre Ver¨offentlichungen stammen aus den Jahren 1961 und 1962.
5.4 Codierung und Decodierung von zyklischen Codes
407
Im Folgenden werden die Verfahrensvoraussetzungen mathematisch formuliert und die Wirksamkeit des Verfahrens am Beispiel der Einzel- und B¨undelfehlerkorrektur gezeigt. F¨ur das empfangene fehlerbehaftete Polynom r(x) gelte: r(x) = c(x) + f (x)
⇐⇒
r = c + f.
Das Syndrom s(x), also der Einfluß des Fehlers f (x) auf r(x), l¨asst sich allgemein (vgl. Abschnitt 5.4.1, Gl. 5.75) als Rest der Division von f (x) durch g(x): f (x) = a(x) · g(x) + s(x)
(5.87)
darstellen. Dies bedeutet, dass im fehlerfreien Fall r(x) = c(x) auch s(x) zu “Null” berechnet wird, da dann gerade r(x) ein Vielfaches von g(x) ist. Im Folgenden wird die Aussage von Gleichung (5.76), siehe Seite 396, ben¨otigt: xi · r(x) = v(x) · g(x) + s(i) (x),
(5.88)
die besagt, dass zu einem zyklisch verschobenen Empfangsvektor r (i) ⇔ xi · r(x) ein verschobenes Syndrom: s(i) (x) = xi · s(x) mod g(x) geh¨ort. F¨ur ein erfolgreiches Korrigieren von zuf¨alligen Einzelfehlern mit dem Error Trapping Verfahren m¨ussen folgende Voraussetzungen erf¨ullt werden: 1. Es wird ein zyklischer (n,k) Code verwendet, der maximal E = d−1 2 Fehler korrigieren kann. 2. Die Fehler liegen innerhalb von n − k benachbarten Stellen von r. 3. Die Anzahl der aufgetretenen Fehler ist e ≤ E. Zun¨achst soll angenommen werden, dass die Fehler in den ho¨ chsten n − k Stellen von r(x) aufgetreten sind, und dass r(x) mit xn−k vormultipliziert wird (vgl. Syndromberechnung Abb. 5.11): f (x) = fk xk + fk+1 xk+1 + · · · + fn−1 xn−1 , f (n−k) (x) = fk + fk+1 x1 + · · · + fn−1 xn−k−1 .
(5.89) (5.90)
Der Rest der Division von r (n−k) (x) durch g(x) muss demzufolge gleich f (n−k) (x) sein: s(n−k) (x) = f (n−k) (x) = fk + fk+1 x1 + · · · + fn−1 xn−k−1 .
(5.91)
Dies bedeutet, dass der verschobene Fehlervektor identisch mit dem verschobenen Syndrom ist, wenn die Fehler nur in den h¨ochsten n − k Stellen auftreten: f (x) = xk · s(n−k) (x) = xk · (fk + fk+1 x1 + · · · + fn−1 xn−k−1 ).
(5.92)
Nun soll die obige Annahme dahingehend erweitert werden, dass die Fehler in n − k aufeinanderfolgenden Stellen: xj , xj+1 , . . . , xn−k−1+j ,
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
408
in einem beliebig zusammenh¨angenden Teil von r(x) liegen. Mit eingeschlossen in diese Annahme ist der sogenannte end around burst, der Fehler sowohl im Anfangsteil als auch im Endteil von r(x) enth¨alt. Die weitere Vorgehensweise ist jetzt analog zur vorherigen Betrachtung. Eine zyklische Verschiebung von r(x) nach rechts um n − j Positionen bewirkt, dass der Fehler wieder in den Stellen x0 , x1 , . . . , xn−k−1 von xn−j · r(x) steht. Das Syndrom s(n−j) (x) von r (n−j) (x) ist jetzt wieder identisch mit dem Fehler f (n−j) (x). Nun muss noch ber¨ucksichtigt werden, dass r(x) beim Einlesen in das Schieberegister von rechts mit xn−k vormultipliziert wird. Wie oben gezeigt, ist das berechnete Syndrom s(n−j) (x) nur dann identisch mit dem Fehlermuster, wenn die Fehler in den h¨ochsten Stellen von r(x) liegen. Ist dies nicht der Fall, so muss das Syndrom solange weitergeschoben werden, bis das Fehlermuster in die Falle geht. Das Schieberegister ist hierbei weiterhin r¨uckgekoppelt. Von diesem Vorgehen leitet sich der Name des Verfahrens error trapping ab. Im Folgenden soll noch gezeigt werden, dass das Fehlermuster genau dann im Syndromregister eingefangen wurde, wenn das Syndromgewicht und damit die Anzahl der Fehler kleiner gleich E ist. Das Fehlerpolynom f (x) hat die Form: f (x)
= xj · fu (x)
grad fu (x) ≤ n − k − 1,
(5.93)
= a(x) · g(x) + s(x),
(5.94)
wobei fu (x) weniger oder h¨ochstens gleich E Koeffizienten = 0 besitzt und s(x) das Syndrom des verschobenen Fehlerpolynoms darstellt. Die Summe s(x)+xj ·fu (x) muss also ein Vielfaches von g(x) und damit ein Codewort sein. Weiterhin kann das Gewicht w(s(x)) – also die Anzahl der von Null verschiedenen Koeffizienten von s(x) – nicht kleiner gleich E sein, außer wenn gilt: s(x) = xj · fu (x).
(5.95)
Dies folgt aus der Konstruktionsbedingung fu¨ r E fehlerkorrigierende Codes, die besagt, dass mit Ausnahme des Nullwortes jedes Codewort mindestens das Gewicht 2 · E + 1 besitzt, also auch s(x) + xj · fu (x). Die Gleichung (5.95) zeigt, dass das Syndrom unter den oben genannten Bedingungen gleich dem verschobenen Fehlerpolynom ist! Das nachfolgende Bild 5.19 veranschaulicht die Wirkungsweise des Error Trapping Decoders. - q q S0
-
- i q S 6 3
k–Bit Puffer-Register q ? gm 1
q ? gm 2
...
S2 ? P q Pq i S q 1 ? 6 gm j j=n−k−1
?? ? ?- s0 - i s1 - i- s2 - . . .- i- sj
q-
? ? ? ? j w(s) = i=0 si " ! Lt ? Abbildung 5.19: Error Trapping Decoder fu¨ r zyklische (n,k) Codes
5.4 Codierung und Decodierung von zyklischen Codes
409
Schritt A Zuerst gelangt r(x) vollst¨andig in das r¨uckgekoppelte Schieberegister, beginnend mit rn−1 , rn−2 , . . ., so dass anschließend das erste Syndrom s(n−k) (x) berechnet ist. Die Informationsbits werden gleichzeitig im Puffer-Register gespeichert. Die Schalter S 0 und S2 sind geschlossen, bzw. S1 und S3 sind ge¨offnet. Schritt B Durch ein einfaches Und–Gatter kann nun das Gewicht des Syndroms abgefragt werden. Diese Abfrage erfolgt – wenn notwendig – nach jedem weiteren Takt des Schieberegisters solange, bis gilt: w(s(x)) ≤ E. B 1 Wird das Fehlermuster sofort gefangen, so erfolgt u¨ ber den Schalter S1 die Korrektur der Informationsbits, die u¨ ber S3 ausgelesen werden. B 2 Wird das Fehlermuster erst nach dem l-ten Shift gefangen, mit 1 ≤ l ≤ k, so sind die Bits rn−1 , rn−2 , . . . , rn−l fehlerfrei und k¨onnen u¨ ber S3 ausgelesen werden. Die anderen Bits im Puffer r¨ucken nach. Wenn dies geschehen ist, werden die Syndrombits u¨ ber S1 zur Korrektur von rn−l−1 , rn−l−2 , . . . , rk−l verwendet. B 3 Wird die Pr¨ufbedingung innerhalb der ersten k Shifts nicht erreicht, so liegt ein end around burst oder ein nichtkorrigierbarer Fehler vor. Es wird nun weitergeschoben, so dass f¨ur die Anzahl l der Shifts gilt: k + 1 ≤ l ≤ n. Wird die Pr¨ufbedingung erreicht, so liegt der around burst in den Stellen rn+k−l , rn+k−l+1 , . . . , rn−1 , r0 , r1 , . . . , rn−l−1 vor. Zur Korrektur werden nur die l − k links im Register stehenden Bits verwendet, da die Pru¨ fbits r0 , r1 , . . . , rn−l−1 nicht korrigiert werden. Deshalb werden alle Schalter geo¨ ffnet und der Registerinhalt n − l mal weitergeschoben. Die dann rechtsstehenden Bits werden u¨ ber S1 zur Korrektur von rn−1 , rn−2 , . . . , rn+k−l verwendet. Schritt C Wenn die Bedingung w(s(x)) ≤ E innerhalb von n Takten, nachdem r(x) vollst¨andig in das r¨uckgekoppelte Schieberegister gelangt ist, nie erfu¨ llt wird, sind entweder unkorrigierbar viele Fehler aufgetreten oder die Fehler liegen nicht in n − k benachbarten Stellen. Maximal ben¨otigt das Decodierverfahren 2 · n Schiebetakte. Die genaue Anzahl der Schiebetakte ist aber vom Fehlermuster abh¨angig. Wird f¨ur große L¨angen n und n−k die Zeitverz¨ogerung durch end around bursts, die die Decodierung beno¨ tigt, zu groß, so kann das Verfahren durch Weglassen der Vormultiplizierung (vgl. Syndromberechnung Abb. 5.9) modifiziert werden. Zun¨achst soll angenommen werden, dass die Fehler in den unteren Stellen r0 , r1 , . . . von r(x) aufgetreten sind: (5.96) f (x) = f0 + f1 x1 + · · · + fn−k−1 xn−k−1 . Der Rest s(x) der Division von r(x) durch g(x) muss demzufolge gleich f (x) sein: s(x) = f (x) = f0 + f1 x1 + · · · + fn−k−1 xn−k−1 .
(5.97)
Nun wird die obige Annahme dahingehend erweitert, dass die Fehler in n − k aufeinanderfolgenden Stellen: xj , xj+1 , . . . , xn−k−1+j , in einem beliebigen zusammenh¨angenden Teil von r(x) (end around burst eingeschlossen) liegen. Eine zyklische Verschiebung von r(x) nach rechts um n − j Positionen bewirkt, dass der Fehler
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
410 - q q S0
-
- i q S 6 3
k–Bit Puffer-Register q ? gm 1
q ? gm 2
...
S2 P q Pq S1 6 q ? gm j j=n−k−1
?? ? ? - i s0 - i- s1 - i- s2 - . . .- i- sj
q-
? ? ? ? j w(s) = i=0 si " ! Lt ? Abbildung 5.20: Error Trapping Decoder ohne Vormultiplizierung wieder in den Stellen x0 , x1 , . . . , xn−k−1 von xn−j · r(x) steht. Das Syndrom s(n−j) (x) von r(n−j) (x) ist jetzt wieder identisch mit dem Fehler f (x). Die einzelnen Schritte des Error Trapping Decoder nach Abbildung 5.20 werden im Folgenden beschrieben. Schritt A Zuerst gelangt r(x) vollst¨andig in das r¨uckgekoppelte Schieberegister, beginnend mit rn−1 , rn−2 , . . ., so dass anschließend das erste Syndrom s(x) berechnet ist. Die Informationsbits werden gleichzeitig im Puffer-Register gespeichert. Die Schalter S 0 und S2 sind geschlossen, bzw. S1 und S3 sind ge¨offnet. Schritt B Das Gewicht des Syndroms wird abgefragt. B 1 Wird das Fehlermuster sofort gefangen, so ist keine Korrektur notwendig, da das Fehlermuster in den parity Bits r0 , r1 , . . . , rn−k−1 liegt. Die Informationsbits sind fehlerfrei und k¨onnen ausgelesen werden. B 2 Wird das Fehlermuster erst nach dem l-ten Shift gefangen, mit 1 ≤ l ≤ n − k, so liegt ein end around burst in den Stellen rn−l , rn−(l−1) , . . . , rn−1 , r0 , . . . , rn−k−l−1 vor. Dieser end around burst ist nun im Syndromregister eingefangen: s0 = fn−l , s1 = fn−(l−1) , . . . , sn−k−1 = fn−k−l−1 . Weil keine Korrektur in den Pr¨ufbits erfolgen soll, m¨ussen die n − k − l rechts im Syndromregister stehenden Bits herausgeschoben werden, ohne dass sich der u¨ brige Registerinhalt a¨ ndert. Der Schalter S2 wird also ge¨offnet, bis die Anzahl der Shifts n − k erreicht. Dann wird S1 geschlossen und die Informationsstelle rn−1 mit der Syndromkomponente sl−1 korrigiert, rn−2 mit der Syndromkomponente sl−2 korrigiert, usw. bis rn−l mit der Syndromkomponente s0 korrigiert wird. B 3 Wird die Pr¨ufbedingung w(s(x)) ≤ E innerhalb der ersten n − k Shifts nicht erreicht, so liegt kein end around burst vor und es kann mit dem Auslesen des h¨ochstwertigen Informationsbits rn−1 begonnen werden. Mit jedem weiteren Shift, bei dem die Pr¨ufbedingung nicht erf¨ullt ist, wird ein weiteres Informationsbit ausgelesen. Sobald aber w(s(x)) ≤ E gilt, wird die Ru¨ ckkoppelung u¨ ber
5.4 Codierung und Decodierung von zyklischen Codes
411
S2 ge¨offnet, S1 geschlossen und das Fehlermuster bitweise zu den Bits aus dem Puffer-Register addiert. Der Schalter S3 o¨ ffnet sich, nachdem alle Informationsbits ausgelesen sind. Schritt C Wenn die Bedingung w(s(x)) ≤ E, innerhalb von n Takten, nachdem r(x) vollst¨andig in das r¨uckgekoppelte Schieberegister gelangt ist, nie erfu¨ llt wird, sind entweder unkorrigierbar viele Fehler aufgetreten oder die Fehler liegen nicht in n − k benachbarten Stellen. Maximal ben¨otigt das Decodierverfahren ebenfalls 2 · n Schiebetakte. Die genaue Anzahl der Schiebetakte ist aber ebenfalls vom Fehlermuster abh¨angig. Nachfolgend wird als Beispiel die Error Trapping Decodierung fu¨ r den zwei fehlerkorrigierenden (15, 7) Code behandelt. Es werden drei prinzipiell unterschiedliche Korrekturf¨alle diskutiert. Zun¨achst wird ein Einzelfehler in den Informationsstellen angenommen, dann ein end arround burst korrigiert und schließlich das Deodierverhalten aufgezeigt, wenn die Fehler auf Informations- und Pr¨ufteil verteilt sind. r(x) -q q - i0 i1 i2 i3 i4 i5 i6 - f q S0 S 6 3 7–Bit Puffer-Register S q q q P q 2 S1 6q ? ? ? -? f- s0 - s1 - s2 - s3 - f - s4 - s5 - f - s6 - f - s7
q
???????? w(s) Lt ? Abbildung 5.21: Decodierung eines zyklischen (15,7) Codes l
Syndrom
0 1 2 .. . 8
00010111 10000000 01000000
l
Syndrom
0 1 2 3 .. . 8
01111100 00111110 00011111 10000100
usw. 00000001
usw. 00000100
In der linksstehenden Tabelle ist in der ersten Zeile l = 0 das Syndrom s(x) eines Empfangsvektors r(x) gegeben, der in der Stelle r14 fehlerbehaftet ist. Nach dem Weiterschieben ergibt sich sofort f¨ur l = 1: w(s) = 1 ≤ E. Das Fehlermuster ist eingefangen, S2 wird ge¨offnet und das Schieberegister weitergetaktet bis l = n − k = 8 erreicht ist. Dann schließt S1 und durch gleichzeitiges Schieben beider Register wird der Fehler korrigiert. In der linksstehenden Tabelle ist in der ersten Zeile l = 0 das Syndrom s(x) eines Empfangsvektors r(x) gegeben, der in den Stellen r12 und r2 fehlerbehaftet ist. Nach dem Weiterschieben ergibt sich f¨ur l = 3: w(s) = 2 ≤ E. Das Fehlermuster ist eingefangen, S2 wird ge¨offnet und das Schieberegister weitergetaktet bis l = n − k = 8 erreicht ist. Dann schließt S1 und durch gleichzeitiges Schieben beider Register wird der Fehler korrigiert.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
412 l
Syndrom
0 1 2 3 4 5 6 7 8 9 10 11 12
10011011 11000110 01100011 10111010 01011101 10100101 11011001 11100111 11111000 01111100 00111110 00011111 10000100
→ r14 → r13 → r12 → r11 → r10
13 14
01000010 00100001
→ r9 → r8
Out
In der linksstehenden Tabelle ist in der ersten Zeile l = 0 das Syndrom s(x) eines Empfangsvektors r(x) gegeben, der in den Stellen r8 und r3 fehlerbehaftet ist. Nach dem Weiterschieben ergibt sich bis l = n − k = 8, niemals w(s) = 2 ≤ E. Nach dem 8. Takt kann mit dem Auslesen der Information (r14 ) begonnen werden. Nach dem 9. Takt kann r13 ausgelesen werden. Nach dem 12. Takt ist die Pru¨ fbedingung erf¨ullt, das Fehlermuster ist somit eingefangen. S2 wird ge¨offnet, S1 geschlossen. Nach dem 14. Takt ist dann r8 korrigiert. Es wird deutlich, dass auch r3 korrigiert werden k¨onnte, wenn die Pr¨ufbits auch gespeichert worden w¨aren.
Die Decodierung von zyklischen Codes durch Error Trapping ist ein sehr einfaches Verfahren. Es zeichnet sich insbesondere durch geringen Implementierungsaufwand aus. Es kann jedoch nur e ≤ E Fehler korrigieren, wenn sie in n − k benachbarten Stellen des Empfangswortes liegen. Das Error Trapping Verfahren kann zur Decodierung von zyklischen Codes genutzt werden, die einen B¨undelfehler der maximalen L¨ange: n−k l≤ 2 korrigieren k¨onnen.
5.4.8 Die Golay Codes Der (n = 23, k = 12) Golay Code ist der einzige bisher bekannte bin¨are Code, der mehrere Fehler korrigieren kann und perfekt (siehe Def. 5.6) ist. Dieser Golay Code kann eine beliebige Kombination von e ≤ 3 Fehlern innerhalb von 23 Bits korrigieren. Der Golay Code wurde bereits 1949 von Golay entdeckt7 und aufgrund seiner besonderen algebraischen Strukturen zum Studienobjekt vieler Mathematiker und theoretisch interessierter Codierer. In dem grundlegenden Buch von MacWilliams und Slone [35] werden die Golay-Codes ausfu¨ hrlich behandelt. Den Golay-Codes und ihren mathematischen Strukturen ist dort ein ganzes Kapitel gewidmet. Zu den Golay-Codes geh¨oren die zwei bin¨aren Codes G23 = C(n = 23, k = 12, d = 7) und G24 = C(n = 24, k = 12, d = 8) sowie die tern¨aren Codes G11 = C(n = 11, k = 6, d = 5) und G12 = C(n = 12, k = 6, d = 6). Die bin¨aren Golay-Codes weisen symmetrische Gewichtsverteilungen auf. 7 Golay,
M.J.E.: Notes on Digital Coding, Proceedings IRE, 1949.
5.4 Codierung und Decodierung von zyklischen Codes
413
Code
w(c) = i
0
7
8
11
12
15
16
23
24
G23
Ai
1
253
506
1288
1288
506
253
1
−
G24
Ai
1
−
759
−
2576
−
759
−
1
Tabelle 5.10: Gewichtsverteilungen bin¨arer Golay-Codes Die Golay-Codes sind zyklische Codes. Nach Abschnitt 5.3.1 bedeutet dies, dass das Generatorpolynom g(x) ein Faktor von xn − 1 ist. Es gilt: x23 − 1 = (1 + x) · g1 (x) · g2 (x), g1 (x) = 1 + x2 + x4 + x5 + x6 + x10 + x11 ,
(5.98) (5.99)
g2 (x) = 1 + x + x5 + x6 + x7 + x9 + x11 .
(5.100)
Die beiden Polynome g1 (x) und g2 (x) sind Faktoren von x23 − 1 und generieren einen bin¨aren zyklischen (n = 23, k = 23 − 11 = 12) Code. Zur Codierung kann ein LFSR mit den R¨uckkoppelungsverbindungen entsprechend der Generatorpolynome verwendet werden (vgl. Abschnitt 5.3, Abb. 5.7). Die Decodierung mit einem einfachen Error Trapping Decoder (vgl. Abschnitt 5.4.7) w¨are ung¨unstig, weil viele Fehlermuster nicht korrigiert werden k¨onnten. So kann z.B. jeder Doppelfehler, dessen Fehlerabstand gro¨ ßer oder gleich 11 ist, nicht korrigiert werden: f (x) = x0 + x11 , f (x) = x1 + x12 , bis f (x) = x22 + x10 . Von Kasami stammt eine modifizierte Variante des Error Trapping Decoding, die diesen Nachteil vermeidet.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
414
5.5 Aufgaben und L¨osungen zur Kanalcodierung Die sehr kompakte Form dieser Aufgabensammlung wird an der Fachhochschule Wiesbaden in der Lehrveranstaltung Kanalcodierung mit Praktikum verwendet. Weitere Aufgaben befinden sich als ausf¨uhrlich durchgerechnete Beispiele im Lehrbuch Kanalcodierung [24], das alle in der Lehrveranstaltung vorkommenden Sachgebiete ausfu¨ hrlich behandelt.
¨ 5.5.1 Einfuhrende Aufgaben Aufgabe 5.5.1 Gegeben sei ein linearer bin¨arer (n, k)-Code mit einer Mindestdistanz d=2. Kann man durch ein zus¨atzliches Bit je Codewort, das die Quersumme gerade (oder ungerade) macht, erreichen, dass die Mindestdistanz auf d=3 erh¨oht wird?
L¨osung: Nein! Als Gegenbeispiel wird folgender Code betrachtet: C = {000, 110, 101, 011} D(110, 101) = 2, aber auch D(1100, 1010) = 2. Im Falle der ungeraden Parit¨at verliert der Code seine Linarit¨at.
Aufgabe 5.5.2 ¨ Bei einer Ubertragung wurden die folgenden 5 Codew¨orter u¨ bertragen:
L¨osung: Das 2. Codewort muss 01100 lauten.
1. 2. 3. 4. 5.
0 0 1 1 0
0 1 1 0 0
0 0 0 1 0
1 0 0 0 1
1 0 0 0 1
Die Parit¨at ist in der zweiten Zeile und in der dritten Spalte verletzt. Somit muss genau das Bit invertiert werden, das diese Position besitzt.
Jedes Codewort enth¨alt ein Pr¨ufbit (gerade Parit¨at). Das 5. Wort ist ein Pr¨ufwort f¨ur die Spal¨ tensumme. Bei der Ubertragung ist ein Fehler entstanden. Korrigieren Sie diesen und geben Sie das richtige Codewort an. Aufgabe 5.5.3 Gegeben sei ein 7-stelliger bin¨arer Code mit einer Mindestdistanz d=3. a) Wieviele Fehler E je Codewort kann der Code korrigieren? b) Wieviel Zeichen kann man mit diesem Code codieren?
L¨osung: a) F¨ur die Anzahl E der korrigierbaren Fehler gilt: E = (d − 1)/2 = 1, b) Aus der Hamming Ungleichung erh¨at man: k = 4. Der Code besitzt somit 16 Zeichen. C = (n=7,k=4)-Code.
5.5 Aufgaben und L¨osungen zur Kanalcodierung Aufgabe 5.5.4 Gegeben ist ein Code mit n = 15 Stellen, der zwei Fehler je Codewort korrigieren kann. a) Wie groß muß die Mindestdistanz dieses Codes sein und wieviele Informationen k¨onnen mit diesem Code maximal codiert werden? b) Berechnen Sie die Wahrscheinlichkeiten ¨ P (e) daf¨ur, dass bei der Ubertragung eines Codewortes kein Fehler, ein Fehler und zwei Fehler auftreten. Die Bitfehlerwahrscheinlichkeit hat den Wert p = 10−4 .
415 L¨osung: a) F¨ur E = 2 ben¨otigt man eine Mindestdistanz von d = 5. Aus der Hamming Ungleichung erh¨at man: k = 8. Somit k¨onnen 28 Nachrichten codiert werden. b) P (0) = (1 − p)15 = 0.9985, P (1) = 15 · p · (1 − p)14 = 1.498 · 10−3 , P (2) = 15 · 7 · p2 · (1 − p)13 = = 1.05 · 10−6 . c) e = 15 · p = 0.0015, σe = 0.0387. d) Pf = 1 − (P (0) + P (1) + P (2)) = = 19.5 · 10−7 .
c) Wieviele Fehler treten im Mittel je Codewort auf? Wie groß ist die Standardabweichung? d) Ermitteln Sie die Wahrscheinlichkeit daf¨ur, dass der gegebene Code, trotz Korrekturm¨oglichkeit von 2 Fehlern, ein Codewort falsch u¨ bertr¨agt. Bei der Rechnung kann vorausgesetzt werden, dass es sich um einen dichtgepackten Code handelt. Aufgabe 5.5.5 Suchen Sie mit Hilfe der HammingUngleichung die kleinste L¨ange n eines Codes mit k = 2 Informationsstellen, der zwei Fehler je Codewort korrigieren kann. a) Versuchen Sie mit den ermittelten Parametern einen Code zu finden, d.h. geben Sie die Codew¨orter an. b) Welche Schl¨usse ziehen Sie aus diesem Versuch? c) Geben Sie einen Code (k = 2, E = 2) mit kleinstm¨oglicher L¨ange an.
Aufgabe 5.5.6 Von einem linearen Blockcode sind die beiden Codew¨orter (00111) und (10011) bekannt. Geben Sie zwei weitere Codew¨orter des Codes an. Die L¨osungen sind zu begr¨unden.
L¨osung: n = 7, denn 1 + n + (n · (n − 1)/2 ≤ 2n−k ) ist erf¨ullt. a) Information: 00,10,01,11. Wird z.B. c 1 (10, 11110) gew¨ahlt, damit w(c1 ) 5 gilt, so erkennt man, dass c 2 (01, 01111) aber c3 = c1 + c2 (1110000) nur das Gewicht drei hat.
= = = =
b) Es gibt keinen Code mit den Parametern n = 7, k = 2, d = 5. c) Man findet nmin = 8, z.B. c0 = (00, 000000) c1 = (01, 111100) c2 = (10, 101011) c4 = (11, 010111) L¨osung: Nullwort: (00000), Summe: (00111) + (10011) = 10100. Diese drei Codew¨orter geh¨oren aufgrund der Linearit¨at zum Code.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
416 Aufgabe 5.5.7 Ein Code zur Erkennung eines Fehlers kann durch Anf¨ugen einer Pr¨ufstelle realisiert werden. Begr¨unden Sie, dass lediglich die Festlegung einer geraden Parit¨at zu einem linearen Blockcode f¨uhrt.
L¨osung: Das Nullwort muss ein Codewort eines jeden linearen Blockcodes sein. Das Nullwort besitzt gerade Parit¨at.
Aufgabe 5.5.8 Kann ein 15-stelliger Code konstruiert werden, der 211 = 2048 Nachrichten codieren kann und bei dem vier Fehler je Codewort erkannt werden k¨onnen? (Die Antwort ist zu begr¨unden!)
L¨osung: Bei S = 4, also E = 2 sind nach der HammingSchranke mindestens m = 7 Pr¨ufstellen erforderlich, k = 8 Stellen ergeben nur 256 verschiedene Codew¨orter.
Aufgabe 5.5.9 Ein zyklischer Hamming-Code wird mit dem Generatorpolynom g(x) = x5 + x2 + 1 konstruiert.
L¨osung:
a) Wieviele Nachrichtenstellen weist dieser Code auf?
a) grad(g(x) = 5 = m), 2m − 1 = n = 31, k = n − m = 26, b) Pf = 4.64 · 10−6 .
b) Wie groß ist die Wahrscheinlichkeit Pf daf¨ur, dass ein Codewort dieses Codes falsch (oder nicht) decodiert wird, wenn die Bitfehlerwahrscheinlichkeit p = 10−4 betr¨agt?
Aufgabe 5.5.10 Ein Blockcode wird durch Pr¨ufmatrix H beschrieben: ⎛ 0 0 1 1 1 1 ⎜1 1 0 1 1 0 H=⎝ 0 1 1 0 1 0 1 1 0 0 0 0
L¨osung:
die folgende 0 1 0 0
0 0 1 0
⎞
0 0⎟ ⎠ 0 1
a) Begr¨unden Sie, dass es sich bei diesem Code um einen systematischen Code handelt und stellen Sie die Generatormatrix f¨ur diesen Code auf. b) Zeigen Sie, dass dieser Code eine Mindestdistanz von 3 besitzt. c) Geben Sie 6 Codew¨orter dieses Codes an.
a) Systematischer Code, da die letzten 4 Spalten der Pr¨ufmatrix eine Einheitsmatrix bilden. H = (A|I m ), G = (I k |A(T ) ) b) Der Nullvektor ist nicht Pr¨ufvektor und alle Pr¨ufvektoren sind unterschiedlich, daher d ≥ 3, da z.B. h0 + h1 = h7 ist, muss d < 4 sein und damit ist d = 3. c) Generatormatrix aufstellen, die 5 Generatorworte sind Codeworte, zus¨atzlich das Nullwort: (10000 1110), (01000 1100), (00100 1010), (00010 0111), (00001 0101), (00000 0000).
5.5 Aufgaben und L¨osungen zur Kanalcodierung Aufgabe 5.5.11 Gegeben sei ein zyklischer Hamming-Code mit dem Generatorpolynom g(x) = x5 + x4 + x2 + x + 1. a) Wieviele Nachrichten kann man mit diesem Code codieren? b) Geben Sie die beiden ersten Zeilen der Generatormatrix f¨ur diesen Code an. Wieviele Zeilen hat die Generatormatrix? c) Geben Sie vier Codew¨orter des Codes an. Diese Codew¨orter sollen nicht mit Hilfe des Polynoms g(x) berechnet werden. Vielmehr soll auf Ergebnisse fr¨uherer Fragen zur¨uckgegriffen werden und auf allgemeine Eigenschaften solcher Codes. Es ist anzugeben, wie die Codew¨orter zu finden sind.
Aufgabe 5.5.12 ¨ Uber einen gest¨orten Bin¨arkanal sollen 128 unterschiedliche Zeichen (z.B. ASCII) u¨ bertragen werden. Die Bitfehlerwahrscheinlichkeit bei dem Kanal hat den Wert p = 10−4 . a) Zun¨achst wird ein redundanzfreier Code d = 1 zur Codierung der Zeichen verwendet. Gesucht ist die Restfehlerwahrscheinlichkeit, also die Wahrscheinlichkeit daf¨ur, dass ein Codewort fehlerhaft u¨ bertragen wird. ¨ b) Da die Ubertragungsart nach Punkt a zu keiner ausreichend kleinen Restfehlerwahrscheinlichkeit gef¨uhrt hat, soll nun ein Code verwendet werden, bei dem ein Fehler je Codewort erkannt werden kann. Es wird angenommen, dass die bei einem erkannten Fehler durch¨ gef¨uhrte Wiederholung der Ubertragung des Codewortes fehlerfrei erfolgt. Ermitteln Sie die Restfehlerwahrscheinlichkeit.
417 L¨osung: a) Der Code kann 226 Nachrichten darstellen. b) (g0 , g1 , . . .) = (1110110...0), (0, g0 , g1 , . . .) = (01110110...0), Jede Zeile der Generatormatrix besitzt 31 Stellen. (1110110000000000000000000000000), (0111011000000000000000000000000), Die Generatormatrix besitzt insgesamt 26 Zeilen. c) Nullwort, die beiden ersten Zeilen von g(x), die Summe der beiden Zeilen. (1110110000000000000000000000000), (0111011000000000000000000000000), (1001101000000000000000000000000), (0000000000000000000000000000000).
L¨osung: a) n = 7, Pf = 6.999 · 10−4 , b) n = 8, Pf = 2.798 · 10−7 .
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
418 Aufgabe 5.5.13 Begr¨unden Sie, dass die Codew¨orter 000000 und 001010 nicht zu einem Code geh¨oren k¨onnen, der ein Fehler je Codewort korrigieren kann.
L¨osung: Die Codewortdistanz ist 2, daher gilt: d < 3 ⇔ E < 1.
Aufgabe 5.5.14 Ein zyklischer Hamming-Code besitzt das Generatorpolynom: g(x) = x4 + x + 1.
L¨osung:
a) Wieviele Informations- und Pr¨ufstellen hat dieser Code?
a) n = 24 − 1, k = 15 − 4 = 11, m = 4, b) i(x) · x4 = x14 , r(x) = x3 + 1, c = (100100000000001).
b) Berechnen Sie das Codewort, dessen letzte Informationsstelle ik−1 eine ‘1’ enth¨alt und alle anderen (Informations-) Stellen eine ‘0’. Als Informationsstellen werden die ersten k Stellen des Codewortes bezeichnet. Aufgabe 5.5.15 Jedes Codewort c = (i0 , i1 , i2 , i3 , p0 , p1 , p2 ) eines linearen bin¨aren Blockcodes besteht aus je 4 Informationszeichen (i0 , i1 , i2 , i3 ) und 3 Pr¨ufzeichen (p0 , p1 , p2 ). Es gilt: p0
= i 0 + i 2 + i3
p1 p2
= i 1 + i 2 + i3 = i 0 + i 1 + i2
a) Bestimmen Sie bitte die Pr¨ufmatrix H und die Generatormatrix G dieses Codes in systematischer Form. b) Bestimmen Sie bitte die Codeparameter n,k,d und E. Wieviele Codew¨orter besitzt dieser Code? c) Bestimmen Sie bitte die Codew¨orter zu i1 = (1, 0, 1, 0) und i2 = (0, 1, 0, 1). d) Ein Empf¨anger empf¨angt die Vektoren r1 = (1, 0, 1, 0, 1, 0, 1) und r2 = (0, 1, 0, 1, 0, 1, 0). Pr¨ufen Sie, ob diese Vektoren Codew¨orter sind und korrigieren Sie, wenn m¨oglich, aufgetretene Fehler.
L¨osung: a) 0
1 H = @0 1 0 1 B0 G=B @0 0
1 0 1 1 1 0 0 1 1 1 0 1 0A 1 1 0 0 0 1 1 0 0 0 1 0 1 1 0 0 0 1 1C C 0 1 0 1 1 1A 0 0 1 1 1 0
b) m = 3 und k = 4 ist durch das Gleichungssystem vorgegeben. n = k + m = 7. Aus der Hamming-Ungleichung findet man E = 1 c) c1 = (1010010), c2 = (0101101) d) Korrektur durch Syndromberechnung, Empfangswort 1: 0 1 0 1 0 1 0 1 1 1 1 0 (T ) s1 = @ 0 A + @ 1 A + @ 0 A + @ 0 A 1 1 0 1 s1 = (111) ⇒ 3. Position, vgl. H 0 1 1 (T ) Empfangswort 2: s2 = @ 1 A = h3 1 Die 3. Codewortstelle ist falsch.
5.5 Aufgaben und L¨osungen zur Kanalcodierung Aufgabe 5.5.16 Die Pr¨ufmatrix eines Codes hat die Form: ⎛ ⎞ 0 0 0 0 1 1 1 1 1 ⎜0 1 1 1 0 0 1 1 1⎟ H=⎝ ⎠. 1 0 1 1 1 1 0 0 1 1 1 0 1 0 1 0 1 1
419 L¨osung: a) d = 3, drei Spaltenvektoren von H sind linear abh¨angig, z.B.: h0 + h6 = h8 , n = 9, m = 4, k = 5.
a) Wie groß ist die Mindestdistanz dieses Codes? Wieviele Pr¨uf- und Informationsstellen besitzt der Code? b) Begr¨unden Sie, dass der durch H gegebene Code nicht systematisch ist. ¨ c) Andern Sie die Pr¨ufmatrix an m¨oglichst wenigen Stellen so ab, dass ein systematischer Code mit gleichen Parametern (n, k, d) entsteht und geben Sie G an. d) Mit welcher Wahrscheinlichkeit erfolgt ¨ mit dem Code eine fehlerfreie Ubertragung, wenn die Bitfehlerwahrscheinlichkeit den Wert p = 2 · 10−3 hat?
b) Die letzten 4 heitsmatrix. c) 0 0 0 B0 1 H =B @1 0 1 1 01 0 B0 1 B G = B0 0 @ 0 0 0 0
Spalten bilden keine Ein-
0 1 1 0
0 1 1 1
1 0 1 0
1 0 0 0
0 1 0 0
0 0 1 0
1 0 0C C 0A 1
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
0 0 0 0 1
0 1 1 1 0
1 0 1 1 1
11 1C C 0C A 1 0
d) Fehlererkennung: Pr = P (0) + P (1) + P (2)`=´ = (1 − p)9 + 9p(1 − P )8 + 92 p2 (1 − p)7 = 0.99999933, Fehlerkorrektur: Pr = P (0) + P (1) = 0.999857 .
Aufgabe 5.5.17 Ein Blockcode wird durch Pr¨ufmatrix H beschrieben: ⎛ 0 0 1 1 1 1 ⎜1 1 0 1 1 0 H=⎝ 0 1 1 0 1 0 1 1 0 0 0 0
L¨osung:
die folgende 0 1 0 0
0 0 1 0
⎞
0 0⎟ ⎠ 0 1
a) Begr¨unden Sie, dass es sich bei diesem Code um einen systematischen Code handelt und stellen Sie die Generatormatrix f¨ur diesen Code auf. b) Zeigen Sie, dass dieser Code eine Mindestdistanz von 3 besitzt. c) Geben Sie 6 Codew¨orter dieses Codes an.
a) Systematischer Code, da die letzten 4 Spalten der Pr¨ufmatrix eine Einheitsmatrix bilden: H = (A|I m ), G = (I k |A(T ) ). b) Der Nullvektor ist nicht Pr¨ufvektor und alle Pr¨ufvektoren sind unterschiedlich, daher d ≥ 3, da z.B. h 0 + h1 = h7 ist, muss d < 4 sein und damit ist d = 3. c) Generatormatrix aufstellen, die 5 Generatorworte sind Codeworte, zus¨atzlich das Nullwort.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
420 Aufgabe 5.5.18 Von einem linearen, zyklischen bin¨aren Code, der aus Codew¨ortern der L¨ange n = 7 besteht, ist das Generatorpolynom g(x) bekannt: g(x) = x3 + x2 + 1 . a) Codieren Sie i(x) = x2 + x3 systematisch mit g(x). b) Geben Sie die Generatormatrix G an und systematisieren Sie G ⇒ Gu . c) Codieren Sie i = (0, 0, 1, 1) systematisch mit Gu . d) Bestimmen Sie die Pr¨ufmatrix H. e) Korrigieren Sie mit Hilfe der Pr¨ufmatrix H die Empfangsvekto= (1, 0, 1, 0, 1, 0, 1) und ren r 1 r 2 = (0, 1, 0, 1, 0, 1, 0), wenn diese fehlerhaft sind. Aufgabe 5.5.19 Gegeben ist ein zyklischer Code mit dem Generatorpolynom g(x) = x3 + x + 1. a) Beweisen Sie, dass c = (c0 , c1 , c2 , c3 , c4 , c5 , c6 ) = (1, 0, 0, 1, 0, 1, 1) ein zul¨assiges Codewort ist. Ein Hinweis auf eine Tabelle der Codew¨orter f¨ur den vorliegenden Code wird nicht als L¨osung anerkannt. b) Berechnen Sie die Restfehlerwahrscheinlichkeit bei einem Kanal mit der Bitfehlerwahrscheinlichkeit p = 10−3 , wenn der Code (mit den gleichen Parametern) als fehlerkorrigierender Code verwendet wird. Aufgabe 5.5.20 Ein Code mit 10 Informationsstellen soll so konstruiert werden, dass je Codewort 4 Fehler erkennbar sein sollen. Wie groß muss die Codewortl¨ange mindestens sein?
L¨osung: a) c(x) = 1 + x2 + x5 + x6 . b) 0 1 0 1 1 0 B0 1 0 1 1 B G=@ 0 0 1 0 1 0 0 0 1 0 0 1 0 0 0 1 B0 1 0 0 1 Gu = B @0 0 1 0 1 0 0 0 1 0
0 0 1 1 0 1 1 1
1 0 0C C, 0A 1 1 1 1C C. 0A 1
c) i · Gu = (0, 0, 1, 1, 1, 0, 1). d) 0 1 1 1 1 0 1 0 0 @ H = 0 1 1 1 0 1 0A. 1 1 0 1 0 0 1 e) r 1 ⇒ c1 = (1, 0, 0, 0, 1, 0, 1), c1 (x) = 1 + x4 + x6 , r 2 ⇒ c2 = (0, 1, 1, 1, 0, 1, 0), c2 (x) = x + x2 + x3 + x5 . L¨osung: a) (x6 + x5 + x3 + x0 ) ist durch (x3 + x + 1) ohne Rest teilbar. b) Pf = 1 − P (0) − P (1) = 2.093 · 10−5 .
L¨osung: Aus S = 4 folgt: d = 5, E = 2, k = 10, « „ n(n − 1) mit n = k + m, m ≥ ld 1 + n + 2 mit m = 8 ist Bedingung erf¨ullt, also n=18 Stellen.
5.5 Aufgaben und L¨osungen zur Kanalcodierung Aufgabe 5.5.21 Warum kann das Polynom P (x) = x3 + x2 + x + 1 (mit Koeffizienten aus {0, 1}) kein irreduzibles Polynom sein? Im vorliegenden Fall kann diese Frage ganz einfach beantwortet werden, weil ein einfaches notwendiges Kriterium nicht erf¨ullt ist. Wie w¨are der Beweis zu f¨uhren, wenn das angesprochene Kriterium aber zutreffen w¨urde? Aufgabe 5.5.22 Gegeben ist folgende Generatormatrix eines systematischen Codes: ⎛ ⎞ 1 0 0 0 0 0 0 0 0 1 1 ⎜0 1 0 0 0 0 0 1 0 1 0⎟ ⎜ ⎟ ⎜0 0 1 0 0 0 0 1 0 1 1⎟ ⎜ ⎟ ⎜ ⎟ G = ⎜ 0 0 0 1 0 0 0 1 1 0 0 ⎟, ⎜ ⎟ ⎜0 0 0 0 1 0 0 1 1 0 1⎟ ⎜ ⎟ ⎝0 0 0 0 0 1 0 1 1 1 0⎠ 0 0 0 0 0 0 1 1 1 1 1
421 L¨osung: Das Polynom ist reduzibel (teilbar), weil P (x = 1) = 0 ist. Im anderen Fall m¨ussten die Reste der Rechnung xi modulo P (x) untersucht werden. Wenn ein irreduzibles Polynom mit grad P (x) = k die maximale Periode 2k − 1 hat, nennt man es primitives Polynom.
L¨osung: a) Die Pr¨ufmatrix hat die Form: 0
0 B B0 H =B @1 1
1 0 1 0
1 0 1 1
1 1 0 0
1 1 0 1
1 1 1 0
1 1 1 1
1 0 0 0
0 1 0 0
0 0 1 0
d = 3, denn drei Pr¨ufvektoren sind linear abh¨angig, z.B.: h0 + h3 + h6 = 0 .
a) Beweisen Sie, dass es sich hier um die Generatormatrix eines Codes mit der Mindestdistanz d = 3 handelt. b) Berechnen Sie das Codewort dessen Informationsstellen alle ‘1’ sind. c) Berechnen Sie die Wahrscheinlichkeit Pf daf¨ur, dass ein Codewort dieses Codes falsch u¨ bertragen wird, wenn die Bitfehlerwahrscheinlichkeit den Wert p = 0.01 hat.
1 0 C 0C C, 0A 1
b) c = (11111110010), c) Pf = 0.00518.
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
422
5.5.2 Lineare und zyklische Codes Aufgabe 5.5.23 Ein linearer bin¨arer (n = 7, k)-Code ist durch sein Generatorpolynom definiert: g(x) = x4 + x + 1 . Berechnen bzw. ermitteln Sie bitte: a) Die Anzahl der m¨oglichen Codew¨orter. b) Die Generatormatrix und das unsystematische Codewort zu i(x) = x + x2 . c) Die Pr¨ufmatrix in systematischer Form. d) Die Fehlerstellen in den Empfangsvektoren r 1 = (1, 0, 0, 1, 0, 0, 0) und r 2 = (1, 0, 1, 1, 0, 0, 0).
L¨osung: a) grad{g(x)} = n − k = 4, k = 3, 2k = 8 Codeworte. b),c) c(x) = i(x) · g(x) = (x + x3 + x5 + x6 ). 1 0 0 x x1 x2 x3 x4 x5 x6 B 1 1 0 0 1 0 0 C C G=B @ 0 1 1 0 0 1 0 A 0 0 1 1 0 0 1 0 1 1 0 0 1 1 1 1 Gs = @ 0 1 0 1 0 1 1 A 0 0 1 1 0 0 1 0 1 1 1 1 1 0 0 0 B1 0 0 0 1 0 0C C H =B @1 1 0 0 0 1 0A 1 1 1 0 0 0 1 d) s1 = (0, 1, 1, 1) nicht korrigierbar, s 2 = (1, 1, 1, 0) nicht korrigierbar.
Aufgabe 5.5.24 Ein linearer, zyklischer Bin¨ar-Code (n = 15, k) ist durch sein Generatorpolynom definiert: g(x) = 1 + x + x4 . a) Wieviele Codew¨orter besitzt der Code? ¨ b) Uberpr¨ ufen Sie mit der HammingUngleichung, ob der Code 2 Fehler korrigieren kann. c) Bestimmen Sie das systematische Codewort c(x) zu i(x) = 1 + x3 + x6 .
L¨osung: a) k = 15 − 4 = 11, 211 = 2048 Codeworte, b) Nein, nach der Hamming-Ungleichung ermittelt man E = 1. ˜ c) i(x) = i(x) · x4 , (x10 + x7 + x4 ) ÷ g(x), c(x) = x10 + x7 + x4 + x3 + x2 + x + 1 d)
d) Geben Sie die beiden ersten Zeilen und die letzte Zeile der Generatormatrix an. e) Geben Sie eine m¨ogliche Schaltung zur Syndromberechnung an und berechnen Sie damit das Syndrom zu r(x) = x14 f) Bestimmen Sie mit g(x) = 1 + x + x4 das Generatorpolynom eines zyklischen Codes der L¨ange n = 15, der nur 16 Codeworte besitzt.
g (0)
=
g (1)
=
(0, 1, 1, 0, 0, 1, 0 . . . 0),
g (k−1)
=
(0 . . . 0, 1, 1, 0, 0, 1).
(1, 1, 0, 0, 1, 0 . . . 0),
e) S = (1, 0, 0, 1). f)
(x15 + 1) ÷ g(x) = = x11 + x8 + x7 + x5 + x3 + x2 + x + 1.
5.5 Aufgaben und L¨osungen zur Kanalcodierung Aufgabe 5.5.25 Das Generatorpolynom g(x) = 1 + x2 + x5 eines linearen bin¨aren (9,4) Codes definiert die Generatormatrix G: ⎛ ⎞ 1 0 1 0 0 1 0 0 0 ⎜0 1 0 1 0 0 1 0 0⎟ G=⎝ ⎠ 0 0 1 0 1 0 0 1 0 0 0 0 1 0 1 0 0 1
423 L¨osung: a) 0
Gu
1 B0 =B @0 0
0 1 0 0
01 0 B1 1 B H = B0 1 @ 1 0 0 1
a) Bestimmen Sie die systematische Generatormatrix Gu und die Pr¨ufmatrix H.
0 0 1 0 1 0 0 1 0
0 0 0 1 0 1 0 0 1
1 0 1 0 1 0 0 0 0
1 1 0 1 0 1 0 0 0
0 1 0 0 0 0 1 0 0
b) Codieren Sie i(x) = 1 + x2 systematisch und bestimmen Sie das Codewort.
b) i · Gu = (1, 0, 1, 0, 0, 1, 0, 0, 0).
c) Wie groß ist die Mindestdistanz des Codes?
c)
d) Korrigieren Sie (wenn n¨otig) mit Hilfe der Pr¨ufmatrix H den Empfangsvektor r 1 = (0, 1, 0, 1, 0, 1, 0, 1, 0)
= s1 d) H · r 1 nicht korrigierbar.
(T )
e)
Aufgabe 5.5.26 Ein linearer, zyklischer Bin¨ar-Code (n = 15, k) ist durch sein Generatorpolynom definiert:
L¨osung:
a) Wieviele Codew¨orter besitzt der Co¨ de? Uberpr¨ ufen Sie mit der HammingUngleichung, ob der Code 2 Fehler korrigieren kann. b) Bestimmen Sie das systematische Codewort c(x) zu i(x) = x5 + 1. c) Geben Sie die beiden ersten Zeilen und die letzte Zeile der Generatormatrix an. d) Geben Sie eine m¨ogliche Schaltung zur Syndromberechnung an und berechnen Sie damit das Syndrom zu: r(x) = x8 + 1
0 0 0 1 0
1 0 1C C 0A 1 01 0C C 0C A 0 1
d = 3, da mindestens 3 Spalten von H eine Linearkombination bilden.
e) Geben Sie die Gleichungen zur Bestimmung der Pr¨ufbits pj in Abh¨angigkeit von den Informationsbits an: pj = f kt(i0 , i1 , i2 , i3 ) f¨ur j = 0, 1, . . . , 4.
g(x) = 1 + x4 + x6 + x7 + x8 .
1 0 1 0
p0 p1 p3 p4
(T )
= i0 + i 2 , = i0 + i 1 + i 3 , = i0 + i2 , = i1 + i3 .
mit s = (0, 1, 1, 1, 0)
p 2 = i1 ,
a) Es gilt: grad g(x) = n − k, k = 15 − 8 = 7, Der Code besitzt damit 128 Codewo¨ rter. Die Hamming-Ungleichung: (16 + 7 · 15) ≤ 28 ist erf¨ullt: E = 2. b) c = (10100101 1000010), c(x) = 1 + x2 + x5 + x7 + x8 + x13 . c) g 0 = (111010001000000), g 1 = (011101000100000), g 6 = (000000111010001). d) Im vorletzten Schritt gelangt die Eins von x8 an das Ende des Schieberegister: 14. [00000001]. Durch die R¨uckkoppelung entsteht im letzten Schritt das Syndrom: 15. [00001011].
¨ 5 Codierung f¨ur zuverl¨assige digitale Ubertragung
424 Aufgabe 5.5.27 Ein linearer, bin¨arer, fehlerkorrigierender (10,5)-Code ist durch sein Pr¨ufpolynom h(x) = 1 + x2 + x5 definiert: ⎛
1 0 0 1 0 1 0 0 0 0
⎜ ⎜ H=⎜ ⎝
⎞ ⎟ ⎟ ⎟ ⎠
L¨osung: a), b) und c) 01 0 B0 1 B H = B0 0 @ 0 0 0 0
H (o)
a) Vervollst¨andigen Sie die Pr¨ufmatrix H. b) Systematisieren Sie die Pr¨ufmatrix in der Form: H = (A|I). c) Geben Sie die Generatormatrix G in systematischer Form an. d) Geben Sie die Codeparameter n,k,d und E an (Begr¨undung). e) Bestimmen Sie die Codevektoren zu i1 = (1, 0, 1, 0, 1) und i2 = (1, 1, 0, 0, 1). f)
Korrigieren Sie (wenn n¨otig) mit Hilfe der Pr¨ufmatrix H die Empfangsvektoren r 1 = (1, 0, 0, 1, 1, 0, 1, 0, 1, 1) und r 2 = (1, 0, 0, 1, 1, 1, 0, 0, 1, 0).
Aufgabe 5.5.28 Ein linearer, zyklischer Bin¨ar-Code (n = 15, k) ist durch sein Generatorpolynom definiert: g(x) = 1 + x + x2 + x4 + x8 . a) Wieviele Codew¨orter besitzt der Co¨ de? Uberpr¨ ufen Sie mit der HammingUngleichung, ob der Code 3 Fehler korrigieren kann. b) Bestimmen Sie das systematische Codewort c(x) zu i(x) = 1 + x5 . c) Geben Sie die beiden ersten Zeilen und die letzte Zeile der Generatormatrix (nichtsystematisch ) an. d) Geben Sie eine m¨ogliche Schaltung zur Syndromberechnung an und berechnen Sie damit das Syndrom zu: r(x) = x9 + 1.
G(u)
0 0 1 0 0
01 0 B0 1 B = B1 0 @ 0 1 1 0 01 0 B0 B = B0 @ 0 0
1 0 0 0
1 0 0 1 0
0 1 0 0 1
1 0 1 0 0
0 1 0 1 0
0 0 1 0 1
01 0C C 0C A 0 1
0 0 0 1 0
0 0 1 0 1
1 0 1 1 1
0 1 0 1 1
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
1 0 0 1 0
0 1 0 0 1
1 0 1 1 0
01 0C C 0C A 0 1 0 11 1 0C C 0 1C A 1 1 1 1 0 0 0 1 0
d) d = 3, da mindestens 3 Spalten von H eine Linearkombination bilden. e)
i1 · G(u) = (1, 0, 1, 0, 1, 1, 1, 0, 1, 1), i2 · G(u) = (1, 1, 0, 0, 1, 1, 0, 1, 0, 0).
f)
H (o) · r 1 = s1 , mit s1 = (0, 0, 0, 1, 0). r 1 ⇒ c1 = (1, 0, 0, 1, 1, 0, 1, 0, 0, 1), (T ) (T ) H (o) · r 2 = s2 , mit s2 = (1, 1, 0, 1, 1) ist nicht korrigierbar.
(T )
(T )
L¨osung: a) Es gilt: grad g(x) = n − k, k = 15 − 8 = 7, Der Code besitzt damit 128 Codewo¨ rter. Mit der Hamming-Ungleichung folgt: E = 2. b) c = (10011011, 1000010). c) g 0 = (100010111000000), g 1 = (010001011100000), g 6 = (000000100010111). d) S(x) = 1 + x + x2 + x3 + x5 .
5.5 Aufgaben und L¨osungen zur Kanalcodierung Aufgabe 5.5.29 Jedes Codewort: c = (i0 , i1 , i2 , i3 , p0 , p1 , p2 , p3 ) eines linearen, bin¨aren Blockcodes besteht aus je 4 Informationszeichen (i0 , i1 , i2 , i3 ) und 4 Pr¨ufzeichen (p0 , p1 , p2 , p3 ) . Es gilt: p0 + p 1
= i1
p1 + p 2 p2
= i0 + i1 = i0 + i2 + i3
p3
= i0 + i1 + i3
a) Bestimmen Sie bitte die Pr¨ufmatrix H und die Generatormatrix G dieses Codes in systematischer Form. b) Bestimmen Sie bitte die Codew¨orter zu i1 = (1, 1, 0, 1) und i2 = (0, 1, 1, 0). c) Ein Empf¨anger empf¨angt die Vektoren r1 = (1, 1, 1, 0, 1, 0, 1, 0) und r2 = (1, 1, 0, 1, 0, 1, 0, 1). Pr¨ufen Sie, ob diese Vektoren Codew¨orter sind und korrigieren Sie, wenn m¨oglich, aufgetretene Fehler. Aufgabe 5.5.30 Ein linearer, zyklischer Bin¨ar-Code (n = 15, k) ist durch sein Generatorpolynom definiert: g(x) = 1 + x + x2 + x4 + x5 + x8 + x10 . a) Wieviele Codew¨orter besitzt der Co¨ de? Uberpr¨ ufen Sie mit der HammingUngleichung, wieviele Fehler der Code maximal korrigieren kann. b) Bestimmen Sie das systematische Codewort c(x) zu i(x) = 1 + x4 . c) Geben Sie die Generatormatrix (nichtsystematisch) an. d) Geben Sie eine m¨ogliche Schaltung zur Syndromberechnung an und berechnen Sie damit das Syndrom zu r(x) = x11 +1.
425 L¨osung: a) p0 p1 p2 p3 0
H (o)
G(u)
0 B0 = B @1 1 0 1 B0 = B @0 0
= = = =
i2 + i 3 i1 + i2 + i3 i0 + i2 + i3 i0 + i1 + i3
0 1 0 1
1 1 1 0
1 1 1 1
1 0 0 0
0 1 0 0
0 0 1 0
0 1 0 0
0 0 1 0
0 0 0 1
0 0 1 1
0 1 1 1
1 0 1 1
1 0 0C C 0A 1 1 1 1C C 0A 1
b) c1 = (1101 1001), c2 = (0110 1011). c) r1korr = (1, 1, 1, 0, 1, 0, 0, 0) und r2 ist nicht korrigierbar.
L¨osung: a) gradg(x) = 10 = m, k = n − m = 5, Daraus folgt, es gibt: 2k = 32 Codeworte, 2n−k = 1024 ≤ (1+15+15·7+5·7·13) = 576, E = 3. b) x14 + x10 ÷ g(x), c = (0011100111 10001). c) g 0 g1 g2 g3 g4
= (11101100101 0000), = (0 11101100101 000), = (00 11101100101 00), = (000 11101100101 0), = (0000 11101100101),
d) s = (1111011001).
Literaturverzeichnis
427
Literaturverzeichnis [1] Achilles, D.: Die Fourier-Transformation in der Signalverarbeitung, Springer-Verlag, Berlin, 1985 [2] Beutelspacher, A., Zschiegner, M. Diskrete Mathematik fu¨ r Einsteiger Vieweg Verlag, Braunschweig/Wiesbaden, 2004 [3] Blahut, R. E.: Theory and Practice of Error Control Codes, Addison–Wesley, Reading u.a., 1987 [4] B¨oge, Wolfgang: Formeln und Tabellen der Elektrotechnik, Vieweg Verlag, Wiesbaden, 2006 [5] Bose, R.C., Ray–Chaudhuri, D.K., Hocquenghem, A.: On a Class of Error-Correcting Binay Group Codes, Inf. and Control 3, 1960, S. 68–79, S. 279–290 [6] Bossert, M.: Kanalcodierung, Teubner Verlag, Stuttgart, 1992 [7] Brigham, E.O.: FFT, Schnelle Fourier-Transformation, Oldenbourg-Verlag, M u¨ nchen, 1995 [8] Chang, S.C., Wolf, J.K.: A simple proof of the MacWilliams identity for linear Codes, IEEE Transactions on Information Theory, 1980. [9] Fricke, Klaus: Digitaltechnik, 4. Aufl. Vieweg Verlag, Wiesbaden, 2005 [10] Gallager R. G.: Information Theory and Reliable Communication, John Wiley, New York, 1968 [11] Glaser, W.: Von Handy, Glasfaser und Internet. So funktioniert die moderne Kommunikation Vieweg Verlag, Braunschweig/Wiesbaden, 2001 [12] Henze, Norbert: Stochastik f¨ur Einsteiger Vieweg Verlag, Braunschweig/Wiesbaden, 2004 [13] Lin, S., Costello, J.: Error Control Coding, Prentice-Hall, New York, 1983 ¨ [14] Lochmann, D.: Digitale Nachrichtentechnik: Signale, Codierung, Ubertragungssysteme, Netze, Verlag Technik, Berlin, 1997 [15] Marinescu, M., Winter, J.: Basiswissen Gleich- und Wechselstromtechnik, Vieweg Verlag, Wiesbaden, 2004
428
Literaturverzeichnis
[16] Mildenberger, O. (Hrsg.): Informationstechnik kompakt, Vieweg Verlag, Wiesbaden, 1999 [17] Mildenberger, O.: Informationstheorie und Codierung, Vieweg Verlag, Wiesbaden, 1992 [18] Mildenberger, O.: System- und Signaltheorie, Vieweg Verlag, Wiesbaden, 1995 [19] Papoulis, A.: Probability, Random Variables and Stochastic Processes, MacGraw-Hill, New York, 1965 [20] Papula, Lothar: Mathematik f¨ur Ingenieure und Naturwissenschaftler, Anwendungsbeispiele, 5. Aufl. Vieweg Verlag, Wiesbaden, 2004 [21] Papula, Lothar: Mathematische Formelsammlung, 9. Aufl. Vieweg Verlag, Wiesbaden, 2004 [22] Proakis, J.G..: Digital Communication, MacGraw-Hill, New York, 2000 [23] Salomon, D.: Data Compression - A complete reference, Springer-Verlag, 1997 [24] Schneider-Obermann, Herbert: Kanalcodierung, Vieweg Verlag, Wiesbaden, 1998 [25] Shannon, C.E.: “A Mathematical Theory of Communikation”, Bell Syst. J., 27 pp. 379423 (Part I), 623–656 (Part II), July 1948 [26] Strutz, T.: Bilddatenkompression, 3. Aufl. Vieweg Verlag, Wiesbaden, 2005. [27] Unbehauen, R.: Systemtheorie, Oldenbourg-Verlag, Mu¨ nchen, 1993 [28] Urbanski, K., Woitowitz, R.: Digitaltechnik, Springer Verlag, Berlin 2004. [29] Vary, P., Heute, W. Digitale Sprachsignalverarbeitung, Teubner Verlag, Stuttgart 1998 [30] V¨omel, M., Zastrow, D.: Aufgabensammlung Elektrotechnik 1, 3. Aufl. Vieweg Verlag, Wiesbaden, 2005 [31] Werner, Martin: Signale und Systeme, 2. Aufl. Vieweg Verlag, Wiesbaden, 2005 [32] Werner, Martin: Information und Codierung, Vieweg Verlag, Wiesbaden, 2002 [33] Werner, Martin: Digitale Signalverarbeitung mit MATLAB, 3. Aufl. Vieweg Verlag, Wiesbaden, 2006 [34] MacWilliams, F. J. A.: A theorem on the distribution of weights in a systematic code, Bell Systems Technical Journal, 1969 [35] MacWilliams, F. J., Sloane, N. J. A.: The Theory of Error–Correcting Codes, North– Holland, Amsterdam, 1977
Sachwortverzeichnis
429
Sachwortverzeichnis abgeleitete Einheiten, 2 Abh¨angigkeitsnotation, 154 Abtasttheorem, 220, 221 Addierschaltung, 85 Additionsgesetz, 285 Admittanz, 40 ADU, siehe Analog-Digital-Umsetzung a¨ quivalenter Tiefpass, 258 ¨ Aquivocation, 310 Aliasing-Fehler, 232 Amplitude, 27 komplexe, 38 Analog-Digital-Umsetzung, 180 Analysemethoden, 20 Analyseverfahren, 1 Anti-Aliasing-Tiefpass, 232 Antivalenz, 111 Aquivocation, 311 Arbeit Gleichstrom, 13 ASCII-Code, 107 Atom, 3 Atomkerne, 3 Aufladevorgang, 29 Augendiagramm, 263 horizontale Augen¨offnung, 265 vertikale Augen¨offnung, 265 Ausblendeigenschaft, 186 Ausgleichsvorgang, 30 Ausl¨oschungen, 319 Autokorrelationsfunktion von Energiesignalen, 181 von Leistungssignalen, 184 AWGN-Kanal, 322 B-Komplement, 106 bandbegrenzt, 322 Bandbreite, 219
Bandpass, 50, 250 a¨ quivalenter Tiefpass, 258 allgemeiner, 254 idealer, 250 Impulsantwort, 251 symmetrischer, 254 Bandsperre, 51 Basisbandsignal digitales, 260, 263 Bauelemente, 28, 75 Kondensator, 28 Spule, 33 BCD-Codes, 106 (8421)-Code, 106 3-Exzess-Code, 106 Aiken-Code, 106 Gray-Code, 106 Bedingte Entropien, 303 bedingte Wahrscheinlichkeiten, 286 belastungsabh¨angig, 11 Betrag, 46 Bewertungskriterium, 323 Bezugsfrequenz, 3 Bildbereich, 223 Bindungsenergie, 3 Blindleistung, 52 Borelscher Mengenk¨orper, 282 Br¨ucke, 18 BSC, 313 Code Schranken, 366 Hamming, 366 Singleton, 366 Code-Umsetzer, 124 Codeb¨aume, 324, 325 Codes Block, 351
430 Golay, 412 Hamming, 372 Lineare, 360 Perfekte, 367, 412 Repetition, 350, 366 Schieberegister, 389 Simplex, 376 Zyklische, 379 dualer, 368 k¨urzen von zyklischen, 401 parity-check, 350, 365 selbstdual, 368 selbstorthogonal, 368 Codewort Aufbau, 349 Codierung systematische, 383, 393 unsystematische, 382 zyklischer Codes, 393 Codierverfahren, 323 cos2 -Impuls, 262 D/A-Umsetzer, 85 D¨ampfung, 46, 246 DAU, siehe Digital-Analog-Umsetzung De Morgan’sche Theorem, 110 Decodierung Minimum Distance, 362 Schieberegister, 389 zyklischer Codes, 396 Demultiplexer, 124 DFT, siehe diskrete Fourier-Transformation Dichtefunktion, 288 Dielektrizit¨atskonstante, 29 Differentialgleichung, 30, 198 ¨ Zusammenhang mit der Ubertragungsfunktion, 198 Differenzengleichung, 204 rekursive L¨osung, 204 ¨ Zusammenhang mit der Ubertragungsfunktion, 204 Digital-Analog-Umsetzung, 180 digitales System, 200 Digitaltechnik, 99 Diode, 26, 76 Dirac-Impuls, 185 diskrete Fourier-Transformation, 234
Sachwortverzeichnis Eigenschaften, 236–237 Faltung von Spektralfolgen, 237 Faltung von Zeitfolgen, 237 Linearit¨at, 236 Verschiebung der Spektralfolge, 237 Verschiebung der Zeitfolge, 236 Diskrete Informationsquellen, 294 diskrete Kan¨ale, 308 diskrete Zufallsgr¨oßen, 288 Distanz, 352 Distribution, 185 Dreiecksschaltung, 18 Dualer Code, 377 dualer Code, 368 Dualsystem, 104 negative Zahlen, 105 Durchlassbereich, 51 Effektivwert, 37, 183, 190 Effektivwerte, 39 Eingangsimpedanz, 60 Einheit, 1 Einheitenkontrolle, 3 Einheitsimpuls, 186 Einschwingzeit, 248 elektrisches Feld, 3 Elektrofilter, 5 Elektronen, 3 Elektronik, 1 Elektrostatische Wirkungen, 5 Elektrotechnik, 1 Elementarereignis, 281 Elementarsignal, 178, 185 Emitterschaltung, 77 Empfangsvektor, 349 Energie, 2, 180 Energiesignal, 180 Energiespeicher, 33 Energietechnik, 15 Entropie, 298 Entscheidungsgehalt, 295 Ereignismenge, 281 Ereignisse sichere, 282 unm¨ogliche, 282 unvereinbare, 282 zusammengesetzte, 282
Sachwortverzeichnis Ersatzspannungsquelle, 13, 22 Ersatzstromquelle, 13 Erwartungswerte, 292 Euler’sche Gleichung, 35 EXOR, 111 Faltungsintegral, 194 Faltungssumme, 201 Faltungssymbol, 194 feedback register, 404 Fehler Erkennnung, 363 Korrektur, 363 Fehlervektor, 349 Fehlerwahrscheinlichkeit, 357 FFT, siehe schnelle Fourier-Transformation Filterschaltungen, 46 Flipflops, 136 Formelzeichen, 2 Fourier-Reihe diskrete Fourier-Reihe, 191 Fourier-Reihen, 49 Fourier-Transformation, 207 Differentiation im Frequenzbereich, 210 Differentiation im Zeitbereich, 210 diskrete, 234 Eigenschaften, 209 Frequenzverschiebungssatz, 210 Integration im Zeitbereich, 210 Linearit¨at, 209 schnelle, 234 Symmetrie, 210 Verhalten bei hohen Frequenzen, 212 zeitdiskrete, 229 Zeitverschiebungssatz, 210 Fragestrategie, 299 Frequenz, 3 Frequenzteiler, 143 Galois Feld, 349 Gauß-Impuls, 218 Ged¨achtnis, 294 Generatormatrix Distanz , 388 Hamming-Codes, 373 verk¨urzte Codes, 402 verk¨urzter Codes, 402
431 zyklischer Codes, 384, 385, 387 Generatorpolynom Zyklische Codes, 381 Geschwindigkeit, 1 Gesetz der großen Zahlen, 284 Gewicht, 352, 377 Hamming, 360 Gewichtsfunktion, 377 Gewichtsverteilung, 364 Gleichanteil, 183 Gleichverteilung, 290 Golay Code, 412 Gr¨oßengleichungen, 2 Graph, 9 große Zahlen, 284 Grundbegriffe, 348 Grundeinheiten, 2 Grundlagen Elektronik, 1 Elektrotechnik, 1 Gruppenlaufzeit, 246, 251 Halbaddierer, 127 Halbleiter, 75 Hamming Distanz, 361 Gewicht, 360 Schranke, 366 Hamming-Distanz, 352 Hertz, 27 Hochpass, 50 Hurwitzpolynom, 198 idealer Tiefpass, 246 Einschwingzeit, 248 Impulsantwort, 247 Sprungantwort, 248 vereinfachte Sprungantwort, 248 Imagin¨arteil, 35 Impedanz, 40 Impedanzmatrix, 57 Impulsantwort, 194, 201 Impulsbreite, 219 Impulsdiagramm, 147 Informations¨ubertragung, 293, 308 Informations¨ubertragungsmodell, 308 Informationsfluss, 309–312 Informationsgehalt, 295
432 Informationsquelle, 298 Innenwiderstand, 23 Integralsinus, 248 Intersymbol-Interferenzen, 263 Irrelevanz, 311 Joul’sche Gesetz, 13 Joule, 2 Kan¨ale, 308 Kanalfehlerwahrscheinlichkeit, 314 Kanalkapazit¨at, 312, 319 Kaskaden, 113 Kausalit¨at, 192, 200 Bedingung, 194 Kettenmatrix, 58 Kirchhoff’sche S¨atze, 7 Klirrfaktor, 49 Knoten, 8 Knotengleichung, 10 Knotengleichungen, 8 Knotenpunktanalyse, 20 Komparator, 123 komplexe Amplitude, 190 komplexe Rechnung, 34 komplexe Zahlen, 34 Addition, 34 Multiplikation, 34 Kondensator, 28 Durchschlagsspannung, 44 Ersatzschaltung, 42 Konforme Terme, 122 Konstruktionsverfahren, 324, 326 kontinuierliche Zufallsgr¨oßen, 290 Korrekturf¨ahigkeit, 356 Kraft, 2 Kreisfrequenz, 27 Kupfer, 4 KV-Tafeln, 116 L¨ange, 2 L¨angen¨anderungen, 369 Ladungen, 3 gleichartige, 3 negative, 3 positive, 3 Laplace-Transformation, 222 Anfangswert-Theorem, 225
Sachwortverzeichnis Differentation im Frequenzbereich, 225 Differentation im Zeitbereich, 225 Eigenschaften, 225 einseitige, 223 Endwert-Theorem, 225 Faltung im Zeitbereich, 225 Grundgleichungen, 223 Konvergenzbereich, 223 Linearit¨at, 225 rationale Laplace-Transformierte, 226 Zeitverschiebungssatz, 225 Zusammenhang zur FourierTransformation, 223 zweiseitige, 223 Leerlaufspannung, 11 Leistung Gleichstrom, 13 mittlere, 37 Leistungsanpassung, 14, 55 Wechselstrom, 55 Leistungsfaktor, 52 Leistungssignal, 183, 212 Leitung, 66 verlustfreie, 67 Leitwert, 6 differentieller, 7 LFSR, 404 Lineare Codes, 360 Linearit¨at, 192, 200 Linearkombination, 360 Logik, 83 MacWilliams-Identit¨at, 377 Markhoff’sche Entropie, 305 Masche, 9 Maschenanalyse, 20 Maschengleichung, 9 Masse, 2 maximale Transinformation, 318 maximaler Informationsfluss, 312 Maximalwert, 300 maximum distance separable, 366 Maxterme, 115 MDS, 366 Mealy-Automat, 135 Messung, 15 spannungsgenau, 15
Sachwortverzeichnis stromgenau, 15 Mindestdistanz, 361 Mindestgewicht, 360, 361 Minimalformen, 114 Minterme, 115 Mittelwert, 183, 292 mittlere Codewortl¨ange, 323 mittlere Fragezahl, 299 mittlere Leistung, 183 mittlere Zeichenl¨ange, 323 mittlerer Informationsgehalt, 298 MKSA, 2 Multiplexer, 124 Multiplikationsgesetz, 286 Nachrichtenkanals, 293 Nachrichtenstrecke, 348 NAND-Technik, 114 Netzwerk, 9 Netzwerke nichtlineare, 26 Newton, 2 nichtbin¨arer Code, 328 Nichtleiter, 3 nichtzyklische Codes, 401 NOR-Technik, 114 Normalformen, 114 Normalverteilung, 291 normierte Gr¨oße, 2 Normierung, 178 Nullphasenwinkel, 27 Nyquistbedingung, 261, 263 erste, im Zeitbereich, 263 zweite, 265
433 Physikalische Gr¨oßen, 1 Plattenkondensator, 29 PN-Schema, 226, 239 Pol-Nullstellenschema, siehe PN-Schema Potential, 6 Pr¨ufmatrix Beispiel, 353 Distanz , 388 Hamming-Codes, 373 nichtzyklischer Codes, 403 verk¨urzte Codes, 402 verk¨urzter Codes, 403 zyklischer Codes, 384, 385, 387 Prefix-Bedingung, 324, 328 Pseudozust¨ande, 120 Pufferregister, 150 Quadrin¨arecode, 329, 331 Quadrin¨arecodes, 334 Quellcodierung, 323 Quellcodierung nach Fano, 329 Quellcodierung nach Huffman, 332 Quellcodierung nach Shannon, 327 Quellenspannung, 9 Quellfluss, 311
ODER-Schaltung, 84 Ohm, 2 Ohm’sche Gesetz, 10 Operationsverst¨arker, 69 Optimalcodes, 323
Radix, 326 Rauschmatrix, 313, 318 Read Only Memorys, 132 Realteil, 35 Rechteckfunktion, 217 Redundanz, 298 Redundanzen, 120 Reihenschaltung, 10 Energiequellen, 12 Spannungsquellen, 12 Reihenschwingkreis, 42 Relative H¨aufigkeit, 284 relative H¨aufigkeit, 283 Resonanzfrequenz, 43, 45
Parallelschaltung, 10 Parallelschwingkreis, 45 Parallschaltung Stromquellen, 22 Parity-Check, 350 Phase, 27, 246 Phasenlaufzeit, 246, 251
Satz von Shannon, 326 Schaltalgebra, 108, 109 NICHT, 109 ODER, 109 UND, 109 Schaltungssynthese, 131 Schaltwerke, 133
434 Scheinleistung, 52 Schieberegister, 150, 389 r¨uckgekoppelte, 153 schnelle Fourier-Transformation, 234 Schranken, 366 Hamming, 366 Singleton, 366 selbstdual, 368 selbstorthogonal, 368 selbstreziprok, 218 si-Funktion, siehe Spaltfunktion Signal kausales, 211 rechtsseitiges, 211 Zerlegung in einen geraden und ungeraden Teil, 211, 234 Signum-Funktion, 187 Simplex-Code, 376 Singleton-Schranke, 366 Sinusschwingung, 28 Spaltfunktion, 217 Spannung, 6 Spannungsquelle Belastungsbereich, 11 Spannungsteiler, 16 Spannungsteilerregel, 17 Spektrum, 207, 215 Amplitudenspektrum, 208 Linienspektrum, 207 periodischer Signale, 206 Phasenspektrum, 208 Sperrbereich, 51 spezifischer Leitwert, 3 Sprungantwort, 193, 201 Sprungfolge, 189 Sprungfunktion, 187 Spule, 33 Stabilit¨at, 192 Bedingung, 194, 198, 201, 202, 243 Standardsignal, 185 station¨ar, 298 station¨aren Informationsquelle, 294 statistische Abh¨angigkeit, 303 Stern-Dreieck-Transformation, 18 Sternschaltung, 18 Streuung, 65, 292 Strom, 2
Sachwortverzeichnis Stromdichte, 5 Stromkreis, 5 Stromquelle, 11 Stromrichtung, 4 Stromst¨arke, 2 Stromteilerregel, 18 Stromteilung, 17 Symmetrie¨uberlegungen, 22 Syndrom, 370 Syndromberechnung, 394, 405, 406 System, 191, 200 digitales, 200 ged¨achtnisloses, 193 kausales, 192, 200 lineares, 192, 200 physikalisch realisierbares, 192 reelles, 199 stabiles, 192, 201 zeitdiskretes, 200 zeitinvariantes, 192, 200 zeitkontinuierliches, 191 Systemfunktion, 198, 202, 243 Taylorreihe, 36 Teilquellen, 301 Temperatur, 2 Temperaturabh¨angigkeit, 3 Tiefpass, 47, 246 -RC, 48 idealer, 48, 246 Transformator, 14 realer, 64 Transformators, 62 Transinformation, 310, 317 Transinformation , 314 Transistor, 77 Kleinsignal, 80 ¨ Ubertragungsfunktion, 197, 202 ¨ Uberlagerungsfehler, siehe Aliasing-Fehler ¨ Ubertrager, 62 idealer, 62 ¨ Ubertragungsfunktion, 46, 50 ¨ Ubertragungskan¨ ale, 313 ¨ Ubertragungskanal, 309 UND-Schaltung, 83 Ungleichung von Kraft, 326 Unsch¨arferelation, 219
Sachwortverzeichnis unsymmetrische St¨orung, 318 Ursachen, 3 Urstrom, 11 verallgemeinerte Funktion, siehe Distribution Verbundentropie, 302 Verbundquellen, 301 Verbundwahrscheinlichkeit, 286 Verbundwahrscheinlichkeiten, 302 verk¨urzte Codes, 401 verk¨urzte Codes, 402 verk¨urzter Code, 405, 406 Verst¨arker, 68 -Trenn, 73 Verteilungsfunktion, 288 ¨ verzerrungsfreie Ubertragung, 245 Volladdierer, 128 Vormultiplizierung, 396 W¨urfel, 294 Wahrheitstabelle, 115 Wahrscheinlichkeit, 282 Axiome, 282 totale, 287 Wahrscheinlichkeiten bedingte, 286 Wahrscheinlichkeitsdichtefunktion, 288 Wahrscheinlichkeitsfeld, 294 Wahrscheinlichkeitsrechnung, 281 Wahrscheinlichkeitsverteilungsfunktion, 288 Wechselgr¨oße, 27 sinusf¨ormigen, 27 Wechselstromtechnik, 27 Wellenwiderstand, 60, 66 Wertigkeit, 326 Wheatstonesche Br¨ucke, 18 Widerstand komplexer, 40 ohmsch, 2 Wirkleistung, 52 Wirkungen, 3 Wirkungsgrad, 14 z-Transformation, 237 Anfangs- und Endwertsatz, 239 Eigenschaften, 238–239
435 Faltungssatz, 239 Konvergenzbereich, 237 Linearit¨at, 238 Multiplikation der Zeitfolgen, 239 rationale z-Transformierte, 239 Verschiebungssatz, 239 Zusammenhang zur zeitdiskreten Fourier-Transformation, 237 Zahlencodes, 100 Zahlensysteme, 100 polyadische, 101 Zahlenwert, 1 Zahlenwertgleichungen, 2 Zahler asynchrone, 150 synchrone, 150 Zeit, 2 zeitdiskrete Fourier-Transformation, 229 Differentation im Frequenzbereich, 233 Eigenschaften, 233–234 Eigenschaften bei reellen Signalen, 233 Faltung im Frequenzbereich, 233 Faltung im Zeitbereich, 233 Frequenzverschiebungssatz, 233 Linearit¨at, 233 Zeitverschiebungssatz, 233 Zusammenhang mit der FourierTransformation, 231 zeitdiskretes System, 200 Zeitinvarianz, 192, 200 Zenerdiode, 26 zuf¨allige Ereignisse, 281 Zufallsexperiment, 281, 284 Zustandstabelle, 147 Zweierkomplement, 106 Zweipole, 56 Zweipolquellen, 11 Zweispeicher-FF, 142 Zweitor, 56 Pfeilung, 56 Zyklische Codes, 379 zyklische Verschiebung, 379