Grundlagen der Signaltheorie
Professor Dr.-Ing. Klaus Meerk¨otter Universit¨at Paderborn
18. Januar 2001
Inhaltsverz...
21 downloads
1180 Views
1MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Grundlagen der Signaltheorie
Professor Dr.-Ing. Klaus Meerk¨otter Universit¨at Paderborn
18. Januar 2001
Inhaltsverzeichnis Vorbemerkungen
1
1 Fourier-Reihen 1.1 Begriff des Signals . . . . . . . . . . . . . . . . . . . . . . 1.2 Sinusschwingung und komplexe Exponentialschwingung . 1.3 Lineare Systeme mit sinusf¨ormiger Erregung . . . . . . . 1.4 Darstellung periodischer Signale . . . . . . . . . . . . . . 1.4.1 Einige grundlegende Zusammenh¨ange . . . . . . . 1.4.2 Konvergenzeigenschaften der Fourier-Reihen . . . 1.4.3 Eigenschaften der Fourier-Koeffizienten . . . . . . ¨ 1.5 Ubertragung periodischer Signale durch lineare Systeme . 1.6 Wirkleistung bei periodischen Spannungen und Str¨omen 1.7 Fastperiodische Signale . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
2 Fourier-Transformation 2.1 Definition der Fourier-Transformation . . . . . . . . . . . . . . . . . . . 2.2 Eigenschaften der Fourier-Transformation . . . . . . . . . . . . . . . . . 2.2.1 Einige elementare Zusammenh¨ange . . . . . . . . . . . . . . . . 2.2.2 Differentiations- und Integrationss¨atze . . . . . . . . . . . . . . 2.2.3 Verhalten der Fourier-Transformierten im Unendlichen . . . . . 2.2.4 Parsevalsche Gleichung und Faltungsprodukte . . . . . . . . . . 2.3 Dauer und Bandbreite . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Poissonsche Summenformel und Abtasttheorem . . . . . . . . . . . . . 2.5 Transformation verallgemeinerter Funktionen . . . . . . . . . . . . . . . 2.5.1 Die Deltafunktion . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Transformation der Deltafunktion und verwandter Funktionen . 2.5.3 Fourier-Transformation der Sprungfunktion . . . . . . . . . . . 2.5.4 Integrationssatz der Fourier-Transformation . . . . . . . . . . . 2.5.5 Fourier-Transformation periodischer und fastperiodischer Signale 2.6 Lineare zeitinvariante Systeme . . . . . . . . . . . . . . . . . . . . . . ¨ 2.6.1 Impulsantwort und Ubertragungsfunktion . . . . . . . . . . . . 2.6.2 Kausalit¨at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.3 Stabilit¨at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 2.6.4 Eigenschaften der Ubertragungsfunktion eines stabilen Systems 2.6.5 Sprungantwort . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Die diskrete Fourier-Transformation . . . . . . . . . . . . . . . . . . . . 2.7.1 Herleitung der diskreten Fourier-Transformation . . . . . . . . . 2.7.2 Einige Eigenschaften der diskreten Fourier-Transformation . . . i
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
3 3 4 7 13 13 18 27 34 36 42
. . . . . . . . . . . . . . . . . . . . . . .
47 48 52 53 59 62 64 68 74 77 77 89 91 94 97 99 99 102 104 108 110 111 111 115
ii
Inhaltsverzeichnis
2.7.3
Erg¨anzende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . 116
3 Laplace-Transformation 3.1 Definition der Laplace-Transformation . . . . . . . . . . . . . . 3.2 Umkehrung der Laplace-Transformation . . . . . . . . . . . . . 3.2.1 Herleitung des Umkehrintegrals . . . . . . . . . . . . . . 3.2.2 Berechnung des Umkehrintegrals mit dem Residuenkalk¨ ul 3.3 Eigenschaften der Laplace-Transformation . . . . . . . . . . . . 3.3.1 Differentiation und Integration im Zeitbereich . . . . . . 3.3.2 Grenzwerts¨atze . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Verschiebung im Zeitbereich . . . . . . . . . . . . . . . . 3.3.4 Faltung rechtsseitiger Signale . . . . . . . . . . . . . . . 3.4 Deltaimpulse im Zeitbereich . . . . . . . . . . . . . . . . . . . . 3.4.1 Modifizierung des Differentiationssatzes . . . . . . . . . . 3.4.2 Im Unendlichen nicht verschwindende Bildfunktionen . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
119 119 123 123 124 127 128 131 132 132 133 135 136
Vorbemerkungen Wird eine elektrische Schaltung, die aus linearen Elementen wie beispielsweise Widerst¨an¨ den, Kapazit¨aten, gekoppelten und ungekoppelten Induktivit¨aten, idealen Ubertragern etc. besteht, an eine Quelle mit sinusf¨ormiger Spannung oder sinusf¨ormigem Strom gelegt, dann sind im eingeschwungenen Zustand, wie in der Theorie der Wechselstr¨ome“ gezeigt wird, alle ” auftretenden Signale, d. h. alle Spannungen und Str¨ome, sinusf¨ormig und haben die gleiche Frequenz wie das Quellsignal. Um die zugeh¨origen komplexen Amplituden zu bestimmen, die die Information u ¨ ber den Scheitelwert und den Nullphasenwinkel der einzelnen Signale enthalten, muß lediglich ein lineares Gleichungssystem mit komplexen Koeffizienten gel¨ost werden. ¨ Aufgrund des sogenannten Uberlagerungssatzes lassen sich die Signale in der Schaltung auch dann noch in der beschriebenen Weise berechnen, wenn das Quellsignal, das auch als Erregung bezeichnet wird, nicht mehr sinusf¨ormig ist, wohl aber aus einer Summe von Sinussignalen unterschiedlicher Frequenz besteht. Unter diesen Umst¨anden bestimmt man zun¨achst die Reaktion der Schaltung auf jedes einzelne Glied dieser Summe, d. h., man berechnet die Signale f¨ ur eine sinusf¨ormige Erregung, addiert (¨ uberlagert) anschließend die einzelnen Reaktionen und erh¨alt so die gew¨ unschten Signalverl¨aufe. In der Praxis m¨ochte man die Reaktion einer Schaltung aber nicht nur auf Erregungen berechnen, die sinusf¨ormig sind oder durch eine Summe von endlich vielen sinusf¨ormigen Signalen dargestellt werden k¨onnen, sondern auch auf Erregungen, die einen nahezu beliebigen zeitlichen Verlauf besitzen, wie etwa Sprach- oder Musiksignale. Es erhebt sich die Frage, ob das skizzierte Verfahren auch auf diesen Fall angepaßt werden kann. Diese Frage l¨aßt sich positiv beantworten. Es kann n¨amlich gezeigt werden, daß unter sehr allgemeinen Bedingungen, die in der Praxis eigentlich immer erf¨ ullt sind, ein nahezu beliebiges Signal zwar nicht durch eine Summe, wohl aber durch ein Integral (= Grenzwert einer Summe) u ¨ber sinusf¨ormige Signale darstellbar ist. Die Reaktion einer Schaltung auf eine beliebige Erregung l¨aßt sich somit ebenfalls durch ein derartiges Integral darstellen. Der signaltheoretische Teil dieser Vorlesung ist vor allem diesem Thema gewidmet. Im 1. Kapitel wenden wir uns zun¨achst den periodischen Signalen zu, die durch sogenannte Fourier-Reihen repr¨asentiert werden k¨onnen. Anschließend befassen wir uns mit der Fourier-Transformation. Mit ihrer Hilfe lassen sich aperiodische Signale durch Integrale (sog. Fourier-Integrale) u ¨ ber sinusf¨ormige Signale darstellen. Zum Abschluß werden wir auf die Laplace-Transformation eingehen, die durch analytische Fortsetzung“ aus der Fourier” Transformation hergeleitet werden kann und ein wirkungsvolles Hilfsmittel zur L¨osung linearer Differentialgleichungen mit konstanten Koeffizienten darstellt. Die am Beispiel einer Schaltung aus konzentrierten Bauelementen diskutierten Zusammenh¨ange gelten u ur andere elektrische oder physikalische ¨ brigens in ¨ahnlicher Form auch f¨ ¨ Systeme. Wird beispielsweise eine elektrische Ubertragungsleitung an einem Ende mit einer ¨ sinusf¨ormigen Spannungsquelle verbunden, so tritt nach einer gewissen Ubergangszeit am an1
2
Vorbemerkungen
deren Ende ebenfalls eine Spannung mit einem sinusf¨ormigen Verlauf auf. F¨ ur den Fall einer nichtsinusf¨ormigen Erregung kann auch hier mit Hilfe eines Fourier-Integrals der Spannungsverlauf am anderen Ende ausgedr¨ uckt werden. Dies wird im Rahmen der Leitungstheorie behandelt, die allerdings nicht Gegenstand dieser Vorlesung ist.
KAPITEL 1
Periodische Signale, Fourier-Reihen 1.1
Zum Begriff des Signals
Die in einem physikalischen System auftretenden Variablen, wie etwa Spannungen, Str¨ome, Feldgr¨oßen, Temperaturen, Kr¨afte usw., werden h¨aufig unter dem Sammelbegriff Signale zusammengefaßt. In sehr vielen F¨allen a¨ndern sich diese Signale mit der Zeit, so daß sie mathematisch als Funktionen der Zeit, die wie u ¨blich mit dem Buchstaben t bezeichnet wird, dargestellt werden k¨onnen. Wird etwa der in einem elektrischen Leiter fließende Strom i betrachtet, so dr¨ ucken wir die Tatsache, daß i von der Zeit abh¨angt, durch i = f(t) oder durch i = i(t) aus. Wenn auch die zweite Schreibweise nicht ganz konsequent ist, da mit dem gleichen Formelzeichen sowohl die Funktion als auch der Wert der Funktion zum Zeitpunkt t bezeichnet wird, hat sich diese Form in der Praxis als sehr zweckm¨aßig erwiesen. Auch sind Mißverst¨andnisse kaum zu bef¨ urchten, da aus dem Zusammenhang eigentlich immer erkennbar ist, ob die Funktion oder der Funktionswert gemeint ist. Da in der Signal- und der Systemtheorie nur die mathematischen Zusammenh¨ange zwischen den Signalen und Systemparametern im Vordergrund stehen, nimmt man bei der Festlegung der Formelzeichen meistens keine R¨ ucksicht auf die physikalische Natur der Signale. So bezeichnet man h¨aufig die Signale mit x(t), y(t) oder z(t), und zwar unabh¨angig davon, ob es sich um Str¨ome, Spannungen, elektrische oder magnetische Feldgr¨oßen oder um irgendwelche anderen physikalischen Gr¨oßen handelt. Obwohl die in der Praxis auftretenden Signale grunds¨atzlich durch reelle Zahlen beziehungsweise durch reelle Funktionen (der Zeit) dargestellt werden k¨onnen, ist es in der Signaltheorie zweckm¨aßig, komplexwertige Signale zu betrachten, die mathematisch durch komplexe Funktionen einer reellen Variablen repr¨asentiert werden k¨onnen. Eine derartige Funktion, etwa z = z(t), kann stets durch zwei reelle Funktionen, n¨amlich den Realteil x(t) = Re z(t) und den Imagin¨arteil y(t) = Im z(t), dargestellt werden. Man kann also die komplexe Funktion z als geordnetes Paar z = (x, y) auffassen, das mit Hilfe der imagin¨aren Einheit j = (0, 1) in der Form z = x + jy geschrieben werden kann. In gleicher Weise kann ein komplexes Signal einfach als ein geordnetes Paar reeller Signale aufgefaßt und physikalisch interpretiert werden. Als Folge der ungl¨ ucklichen und nur durch die historische Entwicklung zu erkl¨arenden Namensgebung f¨ ur die Komponenten einer komplexen Zahl trifft man gelegentlich auf die Ansicht, allein dem Realteil eines komplexen Signals komme unmittelbar eine reale Bedeutung zu, w¨ahrend der Imagin¨ar teil h¨aufig nur als etwas Eingebildetes oder Unwirkliches betrachtet wird, das lediglich aus mathematischen Gr¨ unden dem Realteil hinzuzuf¨ ugen ist; diese Ansicht ist nicht korrekt. Es sei bemerkt, daß in diesem Text auf eine besondere Kennzeichnung komplexer Gr¨oßen, 3
4-1.2
Sinusschwingung und komplexe Exponentialschwingung
Fourier-Reihen
wie sie etwa in der ¨alteren elektrotechnischen Fachliteratur anzutreffen ist, verzichtet wird1 . Da mit Ausnahme der Ordnungsrelation x < y die komplexen Zahlen den gleichen Gesetzen gehorchen wie die reellen Zahlen, ist auch unter mathematischen Gesichtspunkten eine unterschiedliche Kennzeichnung weder u uber hinaus ließe sie sich auch ¨ blich noch sinnvoll. Dar¨ nur schwerlich konsequent durchhalten. Schreibt man etwa eine quadratische Gleichung in der ußte z immer dann besonders Form z 2 + αz + β = 0, wobei α und β reelle Zahlen sind, so m¨ 2 ullt ist. gekennzeichnet werden, wenn die Ungleichung 4β > α erf¨
1.2
Sinusschwingung und komplexe Exponentialschwingung
Das wichtigste in der Elektrotechnik auftretende reelle Signal ist zweifellos die Sinusschwingung, d.h. ein Signal der Form x(t) = xˆ cos(ωt + α) , (1.1) wobei xˆ, der sogenannte Scheitelwert, eine nichtnegative Konstante ist und wobei ω und α reelle Konstanten sind, die als Kreisfrequenz bzw. Nullphasenwinkel bezeichnet werden2. Wenn keine Mißverst¨andnisse zu bef¨ urchten sind, wird der Nullphasenwinkel auch kurz Phase und die Kreisfrequenz nur Frequenz genannt, obwohl dieser Begriff eigentlich f¨ ur ω/2π reserviert ist. Wenn auch die Frequenz in vielen F¨allen als nichtnegativ vorausgesetzt wird, kann sie prinzipiell eine beliebige reelle Zahl sein. Da die Cosinusfunktion die Eigenschaft cos α = cos(α + 2π) besitzt, gen¨ ugt das unter (1.1) definierte Signal der Bedingung x(t) = x(t + T )
(1.2)
wobei die Konstante T , die sogenannte Periode, durch T =
2π ω
gegeben ist. Den zeitlichen Verlauf einer Schwingung der Form (1.1) mit ω > 0 und α = π/3 = ωT /6 zeigt Bild 1.1. Ein Signal, das der Bedingung (1.2) gen¨ ugt, heißt periodisch. Offenbar folgt aus (1.2) x(t) = x(t + T ) = x(t + 2T ) = x(t + 3T ) = · · · und somit x(t) = x(t + nT ) f¨ ur alle nat¨ urlichen Zahlen n und, wie man leicht erkennt, sogar f¨ ur alle ganzzahligen n. Somit ist nicht nur T eine Periode, sondern auch ±2T, ±3T, ±4T, ... Die kleinste positive Periode heißt primitive Periode. Der K¨ urze wegen wird die primitive Periode h¨aufig nur Periode 1
Die h¨ aufig zu beobachtende Praxis, daß eine komplexe Zahl durch einen Unterstrich gekennzeichnet wird, wie etwa die Gr¨ oße U , und der zugeh¨ orige Betrag durch Weglassen des Unterstriches, also durch U , f¨ uhrt nicht selten zu Fehlern und Mißverst¨ andnissen. Da der Betrag einer reellen Zahl, x, i. allg. durch |x| gekennzeichnet wird, ist es sinnvoll, die Betragsstriche auch zur Kennzeichnung des Betrages einer komplexen Zahl zu verwenden und statt U nur U zu schreiben und den Betrag durch |U | zu kennzeichnen, zumal die komplexe Gr¨oße, etwa eine komplexe Amplitude, h¨ aufiger verwendet wird als der zugeh¨orige Betrag. 2 Wir haben zur Definition der Sinusschwingung nicht, wie man vielleicht erwarten sollte, die Sinusfunktion verwendet, sondern die Cosinusfunktion, weil diese in manchen F¨allen zu gewissen Vereinfachungen f¨ uhrt. Soll beispielsweise mit (1.1) der Sonderfall des konstanten Signals dargestellt werden, so kann neben ω auch die Phase α gleich null gew¨ ahlt werden. Bei Verwendung der Sinusfunktion m¨ ußte hingegen die Phase verschieden von null sein.
Fourier-Reihen
Sinusschwingung und komplexe Exponentialschwingung
1.2-5
x(t) xˆ
−T /6
t T
Bild 1.1: Zeitlicher Verlauf der Sinusschwingung aus Gleichung (1.1) f¨ ur α = π/3 = ωT /6
genannt. Die Tatsache, daß ein periodisches Signal eine bestimmte (primitive) Periode, etwa T , besitzt, wird gelegentlich durch das Attribut T -periodisch ausgedr¨ uckt. Eine zentrale Rolle in der Elektrotechnik und insbesondere in der Signal- und Systemtheorie spielt die sogenannte komplexe Exponentialschwingung, die ebenfalls periodisch ist und in enger Beziehung zur Sinusschwingung steht. Eine Exponentialschwingung ist ein Signal der Form x+ (t) = X e jωt ,
(1.3)
wobei ω die zuvor erw¨ahnte (Kreis-)Frequenz bedeutet und wobei X eine komplexe Konstante ist, die als komplexe Amplitude bezeichnet und vorzugsweise durch Betrag und Phase (Arcus) repr¨asentiert wird, d. h. gem¨aß X = |X|e jα
mit α = arc X .
(1.4)
Bei gegebenen X = 0 ist die Phase α nur bis auf ganzzahlige additive Vielfache von 2π bestimmt. Sie wird h¨aufig gerne so gew¨ahlt, daß sie in das Intervall (−π, π] f¨allt. Falls im folgenden nichts Gegenteiliges gesagt wird, wollen wir diese Konvention u ¨ bernehmen. Bei der Berechnung der Phase mit der Arcustangensfunktion muß allerdings darauf geachtet werden, daß die gelegentlich verwendete Formel α = arctan
Im X Re X
nur f¨ ur Re X > 0 den richtigen Wert liefert. Ist der Realteil von X negativ, so muß zu dem mit dieser Formel gewonnenen Ergebnis π addiert oder subtrahiert werden. Ist der Realteil von X null, so ist die Phase entweder π/2 oder −π/2, je nachdem ob Im X positiv oder negativ ist. Im Fall X = 0 ist die Phase u ¨brigens nicht definiert. Wird (1.4) in (1.3) eingesetzt und das Ergebnis x+ (t) = |X|e j(ωt+α) additiv in Real- und Imagin¨arteil zerlegt, so folgt x+ (t) = |X| cos(ωt + α) + j|X| sin(ωt + α) .
6-1.2
Sinusschwingung und komplexe Exponentialschwingung
Fourier-Reihen
Die in (1.1) angegebene Sinusschwingung kann also mit |X| = xˆ durch x(t) = Re x+ (t) = Re X e jωt = xˆ cos(ωt + α) ausgedr¨ uckt werden. Da der Realteil einer komplexen Zahl z mit Hilfe der konjugiert komplexen ∗ Zahl z durch Re z = 12 (z + z ∗ ) dargestellt werden kann, l¨aßt sich x(t) auch wie folgt schreiben: 1 1 1 1 x(t) = x+ (t) + x∗+ (t) = X e jωt + X ∗ e− jωt . 2 2 2 2
(1.5)
Dieses Ergebnis zeigt, daß eine reelle Sinusschwingung der Frequenz ω stets zerlegt werden kann in zwei Exponentialschwingungen mit den Frequenzen ω und −ω, d. h. in eine Schwingung mit einer positiven und eine Schwingung mit einer negativen Frequenz. Der weitere Verlauf der Vorlesung wird zeigen, daß die Unterscheidung zwischen positiven und negativen Frequenzen nicht nur m¨oglich, sondern vielfach sehr n¨ utzlich oder sogar notwendig ist. j Im x+
Im x+ = sin ωt 1
ωt
1 Re x+
π
2π
ωt
Re x+ = cos ωt
π/2
3π/2
ωt Bild 1.2: Darstellung der Exponentialschwingung x+ (t) = e jωt mit ω > 0 als umlaufender Zeiger in der komplexen Ebene. Die Graphen unten links und oben rechts zeigen die Projektion der Zeigerspitze auf die reelle bzw. imagin¨are Achse in Abh¨angigkeit von ωt.
Den Zusammenhang zwischen einer Exponentialschwingung x+ (t) = e jωt , die durch einen mit der Winkelgeschwindigkeit ω umlaufenden Zeiger in der komplexen Ebene repr¨asentiert wird, und der jeweiligen Projektion auf die reelle und die imagin¨are Achse zeigt Bild 1.2.
Fourier-Reihen
Lineare Systeme mit sinusf¨ormiger Erregung
1.3-7
Anhand dieser Darstellung kann man auch sehr leicht die Bedeutung des Vorzeichens der Frequenz erkennen. Die angedeutete Umlaufrichtung, entspricht einer positiven Frequenz ω. Ist ω hingegen negativ, so bewegt sich der Zeiger im Uhrzeigersinn, d. h. im mathematisch negativen Sinn, und die mit ωt beschrifteten Achsen zeigen in die negative Zeitrichtung. Die Spiegelung der Graphen f¨ ur die Sinus- und Cosinusfunktion an der jeweiligen Ordinate ergeben dann wieder die u ¨bliche Orientierung. Die Cosinusfunktion ¨andert sich hierdurch nicht, w¨ahrend die Sinusfunktion ihr Vorzeichen ¨andert.
1.3
Lineare Systeme mit sinusf¨ ormiger Erregung
Bekanntlich f¨ uhrt die Darstellung der Sinus- und Cosinusfunktion durch die komplexe Exponentialfunktion zu erheblichen Vereinfachungen bei der Berechnung linearer Schaltungen. Dies wird besonders deutlich im Rahmen der sogenannten komplexen Wechselstromrechnung. Hierbei betrachtet man sinusf¨ormig erregte lineare Schaltungen unter station¨aren Bedingungen, d. h., wenn s¨amtliche Ausgleichsvorg¨ange abgeklungen sind und alle Spannungen und Str¨ome sinusf¨ormig verlaufen. Zur Analyse einer derartigen Schaltung werden die Definitionsgleichungen der Elemente und Quellen sowie die Kirchhoffschen Regeln ben¨otigt. Da die Kirchhoffschen Regeln algebraischer Natur sind, gelten sie nicht nur f¨ ur die Spannungen und Str¨ome, sondern in gleicher Form auch f¨ ur die entsprechenden komplexen Amplituden. Sei etwa (1.6) u1 + u2 + · · · + un = 0 die sich bei einem Spannungsumlauf in einer Schleife mit n Zweigen ergebende Gleichung. Da jede dieser Spannungen nach Voraussetzung sinusf¨ormig verl¨auft und durch uν (t) = Re Uν e jωt ,
ν = 1, 2, . . . , n
dargestellt werden kann, erhalten wir unmittelbar Re(U1 + U2 + · · · + Un )e jωt = 0 . Diese Gleichung gilt f¨ ur alle t, insbesondere also auch f¨ ur t = 0 und t = − 12 π/ω. Wegen e0 = 1 − jπ/2 = − j folgt sofort und e Re(U1 + U2 + · · · + Un ) = 0 und
Im(U1 + U2 + · · · + Un ) = 0
und somit U1 + U2 + · · · + Un = 0 .
(1.7)
Da umgekehrt (1.7) die Gleichung (1.6) impliziert, sind (1.6) und (1.7) tats¨achlich a¨quivalent. Mit der gleichen Argumentation kann offenbar Entsprechendes auch in bezug auf die Kirchhoffsche Stromregel gesagt werden. Die Definitionsgleichungen einer Quelle oder eines Widerstandes (siehe Bild 1.3a und b) sind ebenfalls algebraischer Natur und k¨onnen unmittelbar auf die komplexen Amplituden u ¨ bertragen werden. Andere Elemente, zu denen die Induktivit¨at und die Kapazit¨at geh¨oren, werden durch Gleichungen definiert, in denen jeweils eine Ableitung nach der Zeit auftritt (siehe Bild 1.3c und d). So lauten die Definitionsgleichungen der beiden erw¨ahnten Elemente u=L
di dt
und i = C
du . dt
8-1.3
Lineare Systeme mit sinusf¨ormiger Erregung
a)
b)
c)
d) i
i
u
e
u=e
u
R
u
Fourier-Reihen
u = Ri
L
u=L
u
di dt
i
C
i=C
du dt
Bild 1.3: Einige Bausteine einer elektrischen Schaltung mit den zugeh¨origen Definitionsgleichungen: (a) ideale Spannungsquelle, (b) Widerstand, (c) Induktivit¨at und (d) Kapazit¨at
Wird in der Definitionsgleichung der Induktivit¨at der Strom gleich i(t) = Re I e jωt gew¨ahlt und ber¨ ucksichtigt, daß der Differentiationsoperator mit dem Re-Operator vertauschbar und L eine reelle Konstante ist, so folgt f¨ ur die Spannung u ¨ ber der Induktivit¨at u(t) = Re U e jωt
mit U = jωLI .
Die entsprechende Beziehung f¨ ur die Kapazit¨at lautet i(t) = Re I e jωt
mit I = jωCU .
Obwohl der Strom, der durch die Induktivit¨at fließt, und die Spannung, die u ¨ ber der Kapazit¨at liegt, jeweils einer zeitlichen Ableitung unterworfen werden, ergeben sich f¨ ur die zugeh¨origen komplexen Amplituden algebraische Beziehungen, n¨amlich U = jωLI
bzw. I = jωCU .
(1.8)
Folglich treten bei der Berechnung einer sinusf¨ormig erregten linearen Schaltung unter station¨aren Bedingungen nur algebraische Gleichungen auf. Die Beziehungen (1.8) sind gewissermaßen Verallgemeinerungen des Ohmschen Gesetzes, das im Fall des Widerstandes die Form U = RI bzw. I = GU mit G = 1/R besitzt. Die Gr¨oße ZL = jωL wird als Impedanz und der Kehrwert, YL = 1/ZL , als Admittanz der Induktivit¨at bezeichnet. Entsprechend bezeichnet man YC = jωC als die Admittanz und ZC = 1/YC als die Impedanz der Kapazit¨at. Gelegentlich wird die Impedanz auch komplexer Widerstand und die Admittanz komplexer Leitwert genannt. Auf eine Verwendung dieser Begriffe sollte allerdings verzichtet werden, da im Zusammenhang mit der Behandlung komplexer Systeme schnell Mißverst¨andnisse entstehen k¨onnen. Dar¨ uber hinaus sei erw¨ahnt, daß sich in der internationalen Literatur ohnehin die englischsprachigen Begriffe impedance und admittance durchgesetzt haben. Wir wollen nun einige Ergebnisse der komplexen Wechselstromrechnung anhand eines Beispiels rekapitulieren und eine einfache Filterschaltung (Bild 1.4) analysieren. Die Spannung der idealen Quelle, die mit x bezeichnet ist, sei als sinusf¨ormiges Signal gegeben, d. h. als ein Signal der Form (1.9) x(t) = xˆ cos(ωt + α) = Re X e jωt mit X = xˆ e jα . Zu ermitteln ist die Spannung y unter station¨aren Bedingungen. F¨ ur die Str¨ome i1 und i2 sowie f¨ ur die Spannung y k¨onnen wir daher schreiben i1 = Re I1 e jωt ,
i2 = Re I2 e jωt
bzw. y = Re Y e jωt .
(1.10)
Fourier-Reihen
Lineare Systeme mit sinusf¨ormiger Erregung
R1
i1
L1
L2
1.3-9
i2
+ x(t)
C
y
R2
Bild 1.4: Einfache Filterschaltung
Die Bestimmung der komplexen Amplituden, d. h. der Gr¨oßen I1, I2 und Y , kann beispielsweise mit dem sogenannten Schleifenstromverfahren geschehen. Zur Aufstellung der entsprechenden Gleichungen ersetzen wir, wie in Bild 1.5 gezeigt, die tats¨achlichen Str¨ome und Spannungen durch die jeweiligen komplexen Amplituden. L1
R1
L2
+ X
I1
C
I2
Y
R2
Bild 1.5: Schaltung aus Bild 1.4; Str¨ ome und Spannungen sind ersetzt durch die jeweiligen komplexen Amplituden
F¨ ur die beiden Str¨ome I1 und I2 (genauer: f¨ ur die komplexen Amplituden der Str¨ome) erhalten wir dann das Gleichungssystem R1 + jωL1 + 1/ jωC I1 1/ jωC X = , (1.11) 1/ jωC R2 + jωL2 + 1/ jωC I2 0 das mit einem Standardverfahren aus der linearen Algebra gel¨ost werden kann. Da uns die Spannung y bzw. die zugeh¨orige komplexe Amplitude Y interessiert, brauchen ur I2 l¨osen. Nach Elimination wir wegen der Beziehung Y = −R2 I2 das Gleichungssystem nur f¨ ur I2 von I1 erhalten wir f¨ I2 =
−X R1 + R2 + jω(L1 + L2 + CR1R2 ) + ( jω)2(L1 R2 + L2 R1 )C + ( jω)3 CL1L2
(1.12)
und daher f¨ ur Y Y = −R2I2 = H( jω)X
(1.13)
mit H( jω) =
R2 , (1.14) R1 + R2 + jω(L1 + L2 + CR1R2 ) + ( jω)2 (L1 R2 + L2 R1 )C + ( jω)3 CL1L2
¨ der sogenannten Ubertragungsfunktion. Der zeitliche Verlauf der Spannung y ist somit durch y(t) = Re Y e jωt = Re H( jω)X e jωt
(1.15)
10-1.3
Lineare Systeme mit sinusf¨ormiger Erregung
Fourier-Reihen
gegeben. Stellen wir H( jω) gem¨aß H( jω) = |H( jω)|e− jB(ω) mit B(ω) = − arc H( jω) dar und ber¨ ucksichtigen (1.9), so k¨onnen wir schreiben x cos[ωt + α − B(ω)] y(t) = Re |H( jω)||X|e j[ωt+α−B(ω)] = |H( jω)|ˆ
(1.16)
und haben damit das gew¨ unschte Ergebnis. Setzen wir voraus, daß die Schaltung in Bild 1.4 komplexe Signale verarbeiten kann und daß am Eingang nicht das reelle Signal Re X e jωt wirkt, sondern die komplexe zeitabh¨angige Gr¨oße x(t) = X e jωt , (1.17) so muß in (1.10) der Re-Operator jeweils fortfallen und die Spannung y lautet dann y(t) = Y e jωt = H( jω)X e jωt .
(1.18)
Das Ausgangssignal unseres einfachen Systems, d. h. die Spannung y, hat also in diesem Fall ¨ die gleiche Form wie das Eingangssignal x. Bei der Ubertragung durch das System wird eine Exponentialschwingung lediglich mit dem (zeitlich) konstanten Faktor H( jω) multipliziert. Stellt man den funktionalen Zusammenhang zwischen dem Eingangs- und dem Ausgangssignal des Systems symbolisch durch (1.19) S {x(t)} = y(t) dar, wobei S den sogenannten Systemoperator repr¨asentiert, so l¨aßt sich das Ergebnis (1.18) mit X = 1 auch wie folgt ausdr¨ ucken: S {e
jωt
} = λe jωt
mit λ = H( jω) .
(1.20)
Dieses Ergebnis erinnert uns an die klassische Eigenwertaufgabe der linearen Algebra, bei der zu einer quadratischen Matrix, sie heiße M, Vektoren x und Skalare λ gesucht werden, so daß gilt Mx = λx . (1.21) Vom Nullvektor verschiedene L¨osungen x dieser (Eigenwert-)Gleichung heißen Eigenvektoren und die zugeh¨origen Skalare λ Eigenwerte. In Anlehnung an diese Begriffsbildung bezeichnet man e jωt als Eigenfunktion des Systemoperators S und H( jω) als den zugeh¨origen Eigenwert. An dieser Stelle bleibt nat¨ urlich die Frage zu beantworten, wie wir uns in einer realen Schaltung komplexe Spannungen und Str¨ome vorstellen k¨onnen. Am einfachsten ist es anzunehmen, die Schaltung werde zweimal realisiert, und zwar derart, daß in einer nur die Re¨ alteile und in der anderen nur die Imagin¨arteile der Signale auftreten. Ubertragen auf unser Beispiel w¨ urde dies etwa bedeuten, daß eine der beiden Schaltungen mit der Quellenspannung x(t) = Re X e jωt erregt wird und die andere mit x(t) = Im X e jωt . Die zugeh¨origen Ausgangssignale, die mit y und y bezeichnet seien, bilden dann den Real- und den Imagin¨arteil des komplexen Ausgangssignals y = y + jy . Dieses Konzept zur Veranschaulichung komplexer Signale l¨aßt sich u ungliche Schaltung neben ¨ brigens auf den Fall verallgemeinern, daß die urspr¨ reellen auch komplexe Elemente enth¨alt. Wir wollen nun zeigen, daß das Ergebnis (1.20) f¨ ur beliebige lineare zeitinvariante Systeme gilt. Zun¨achst sei an die Definition der Homogenit¨at, der Additivit¨at und der Zeitinvarianz erinnert. Ein System (Bild 1.6), das beschrieben werde durch y(t) = S {x(t)} ,
(1.22)
Fourier-Reihen
Lineare Systeme mit sinusf¨ormiger Erregung
x(t)
1.3-11
y(t)
S
Bild 1.6: Graphische Darstellung eines Systems mit dem Operator S , dem Eingangssignal x(t) und dem Ausgangssignal y(t)
heißt homogen, falls f¨ ur ein beliebiges Eingangssignal x(t) und eine beliebige komplexe Konstante c stets gilt S {cx(t)} = c S {x(t)}
(Homogenit¨at) .
(1.23)
Das System heißt additiv, falls f¨ ur beliebige Eingangssignale x1 (t) und x2(t) stets gilt S {x1(t) + x2(t)} = S {x1 (t)} + S {x2(t)}
(Additivit¨at) .
(1.24)
Ist ein System sowohl homogen als auch additiv, so heißt es linear : Linearit¨at = Homogenit¨at + Additivit¨at Das System heißt zeitinvariant, falls f¨ ur jedes Eingangssignal und jede reelle Konstante t0 stets gilt S {x(t − t0 )} = y(t − t0 )
(Zeitinvarianz) .
(1.25)
Bez¨ uglich der Additivit¨at sei bemerkt, daß bei einem additiven System die Eigenschaft (1.24) auch sofort auf drei Summanden u ¨ bertragen werden kann. Denn wir k¨onnen ja aufgrund von (1.24) offenbar sofort S {x1(t) + x2(t) + x3(t)} = S {x1(t) + x2(t)} + S {x3(t)}
(1.26)
schreiben und erhalten nach nochmaliger Anwendung der Gleichung (1.24) S {x1(t) + x2(t) + x3(t)} = S {x1 (t)} + S {x2(t)} + S {x3(t)} . In gleicher Weise l¨aßt sich zeigen, daß dies auch f¨ ur vier, f¨ unf oder allgemein n Summanden gilt: n n Additivit¨at ⇒ S xν (t) = (1.27) S {xν (t)} , n ∈ N . ν=1
ν=1
Wir betrachten nun ein Eingangssignal der Form x(t) = ept , wobei die Gr¨oße p zun¨achst als Abk¨ urzung der Variablen jω aufgefaßt werden kann. Das zu diesem Eingangssignal geh¨orige Ausgangssignal heiße η(t). Da f¨ ur beliebige t und p stets e−pt ept = 1 gilt, k¨onnen wir schreiben pt −pt pt S {e } = η(t) = η(t)e e
(1.28)
12-1.3
Lineare Systeme mit sinusf¨ormiger Erregung
Fourier-Reihen
und weiter mit H(p, t) := η(t)e−pt pt pt S {e } = H(p, t)e .
(1.29)
Unter Ausnutzung der Homogenit¨at und der Zeitinvarianz k¨onnen wir nun den Schluß ziehen, daß H(p, t) nur eine Funktion der ersten Variablen ist. Wir w¨ahlen c = e−pt0 und erhalten aus (1.29) unter der Ber¨ ucksichtung der Homogenit¨at −pt0 pt
S {e
e } = H(p, t)e−pt0 ept .
(1.30)
Andererseits folgt aus der Zeitinvarianz S {e
−pt0 pt
e } = S {ep(t−t0) } = H(p, t − t0)ep(t−t0) .
(1.31)
Da die rechten Seiten von (1.30) und (1.31) gleich sein m¨ ussen, gilt f¨ ur beliebige reelle t0 H(p, t) = H(p, t − t0).
(1.32)
Mit anderen Worten, H ist nur eine Funktion von p. Bei der Durchf¨ uhrung des vorstehenden Beweises haben wir ohne weitere Begr¨ undung pt angenommen, daß es zu dem Eingangssignal x(t) = e immer ein Ausgangssignal gibt und daß dieses eindeutig ist. Diese Annahme ist i. allg. nicht gerechtfertigt, wohl aber, wenn das System die Eigenschaft der strengen Stabilit¨at besitzt und Re p ≥ 0 ist. Wir kommen auf diese Problematik im Abschnitt 2.6 zur¨ uck. Wir haben die Gr¨oße p, die auch als komplexe Frequenz bezeichnet wird, mit dem Hinweis eingef¨ uhrt, daß sie zun¨achst nur als Abk¨ urzung f¨ ur jω aufgefaßt werden solle. In der Praxis l¨aßt man f¨ ur p aber h¨aufig beliebige komplexe Werte zu und schreibt p = σ + jω; man erweitert also ¨ den Definitionsbereich der Ubertragungsfunktion auf die gesamte komplexe Ebene. Hierdurch ¨ treten gewisse Eigenschaften der Funktion erst deutlich zu Tage. Beispielsweise ist die Ubertragungsfunktion eines reellen Systems, d. h. eines Systems, das auf ein reelles Eingangssignal stets mit einem reellen Ausgangssignal reagiert, reellwertig, wenn p reell ist, d. h. p∈R
⇒
H(p) ∈ R .
(1.33)
Ist H wie in unserem Beispiel eine rationale Funktion in p, so k¨onnen bei einem reellen System die Koeffizienten des Z¨ahler- und des Nennerpolynoms stets reell gew¨ahlt werden. W¨ urde man als Variable die Gr¨oße ω benutzen, so w¨are dies u ¨brigens nicht m¨oglich, da jede ungerade Potenz der imagin¨aren Einheit den jeweiligen Koeffizienten in eine imagin¨are Zahl umwandelte. Eine Funktion mit der Eigenschaft (1.33) wird als reell bezeichnet, obwohl sie f¨ ur p ∈ / R und somit insbesondere f¨ ur p = jω komplexe Werte annehmen kann. Mit Hilfe des Schwarzschen Spiegelungsprinzip kann gezeigt werden, daß eine reelle Funktion H(p) auch die Eigenschaft H ∗ (p) = H(p∗ )
(1.34)
besitzt; hierin ist als Sonderfall (p ∈ R bzw. p = p∗ ) die Implikation (1.33) enthalten. Aufgrund der Additivit¨at eines linearen Systems k¨onnen wir das Ausgangssignal auch dann berechnen, wenn am Eingang nicht eine einzelne Exponentialschwingung anliegt, sondern eine Summe von Exponentialschwingungen, also beispielsweise das sinusf¨ormige Signal x(t) = xˆ cos(ωt + α) ,
(1.35)
Fourier-Reihen
Darstellung periodischer Signale
1.4-13
das wir ja wie folgt zerlegen k¨onnen: 1 1 x(t) = xˆ cos(ωt + α) = X e jωt + X ∗ e− jωt 2 2
mit X = xˆ e jα .
Wegen der Linearit¨at des Systems erhalten wir f¨ ur das Ausgangssignal 1 ∗ − jωt 1 1 1 jωt Xe + X e = H( jω)X e jωt + X ∗ H(− jω)e− jωt y(t) = S 2 2 2 2
(1.36)
(1.37)
Ber¨ ucksichtigen wir noch den aus (1.34) folgenden Zusammenhang H ∗ ( jω) = H(− jω), so finden wir y(t) = Re H( jω)X e jωt , also denselben Ausdruck wie in (1.15). Besteht das Eingangssignal x aus mehr als zwei, etwa n, Exponentialschwingungen, so daß es durch eine Summe der Form n Xν e jων t (1.38) x(t) = ν=1
dagestellt werden kann, so besteht aufgrund der Linearit¨at des Systems auch das Ausgangssignal y aus einer Summe von Exponentialschwingungen: y(t) =
n
Yν e jων t
mit Yν = H( jων )Xν .
(1.39)
ν=1
Mit anderen Worten, wenn es uns gelingt, ein Eingangssignal als Summe von Exponen¨ tialschwingungen darzustellen, dann k¨onnen wir unter der Voraussetzung, daß die Ubertragungsfunktion bekannt ist, sofort das Ausgangssignal des betreffenden Systems berechnen. Es stellt sich daher ganz nat¨ urlich die Frage, welche Signale durch Exponentialschwingungen repr¨asentiert werden k¨onnen. Die u ¨ berraschende Antwort lautet: nahezu alle, zumindest aber alle technisch relevanten Signale. Im folgenden Abschnitt werden wir uns zun¨achst mit periodischen Signalen befassen, bei denen dies mit Hilfe der sogenannten Fourier-Reihen m¨oglich ist.
1.4 1.4.1
Darstellung periodischer Signale durch Fourier-Reihen Einige grundlegende Zusammenh¨ ange
Wie angek¨ undigt werden wir uns in diesem Abschnitt mit periodischen Signalen und ihre Darstellung durch Fourier-Reihen befassen. Ein einfaches Beispiel f¨ ur ein periodisches Signal zeigt Bild 1.7. Offenbar kann ein in der Praxis auftretendes Signal, das ja grunds¨atzlich von endlicher Dauer ist, nicht im strengen Sinne periodisch sein, da ein (von null verschiedenes) periodisches Signal weder f¨ ur t → −∞ noch f¨ ur t → ∞ abklingt. Trotzdem lassen sich viele physikalische Vorg¨ange mit hoher Genauigkeit durch periodische Signale beschreiben. Gegeben sei ein periodisches Signal x = x(t) mit der (primitiven) Periode T . Unter sehr allgemeinen Bedingungen, die in der Praxis nahezu immer erf¨ ullt sind, l¨aßt sich dann x(t) durch eine Fourier-Reihe darstellen, das heißt durch eine Reihe der Form 1 aν cos νΩt + bν sin νΩt , x(t) = a0 + 2 ν=1 ∞
(1.40)
wobei Ω, die sogenannte Grund(kreis)frequenz, durch 2π/T gegeben ist. Die Koeffizienten a0, aν , bν (ν = 1, 2, 3, . . .) heißen Fourier-Koeffizienten. Die angegebene Form der FourierReihe wird h¨aufig als reell bezeichnet, weil die auftretenden Cosinus- und Sinusfunktionen reell
14-1.4
Darstellung periodischer Signale
Fourier-Reihen
x(t) T 1
t
Bild 1.7: Zeitlicher Verlauf eines periodischen Signals
sind. Es muß aber betont werden, daß die Fourier-Koeffizienten und somit die durch die Reihe dargestellte Funktion keineswegs reell sein m¨ ussen. Das in Bild 1.7 gezeigte periodische Signal besitzt eine Fourier-Reihe mit endlich vielen Gliedern; es ist darstellbar durch x(t) = cos Ωt +
1 sin 3Ωt . 2
(1.41)
Man bezeichnet eine Fourier-Reihe mit endlich vielen Gliedern auch als trigonometrische Summe. Bevor wir auf die Berechnung der Koeffizienten und die Bedingungen f¨ ur die Darstellbarkeit einer periodischen Funktion durch eine Fourier-Reihe eingehen, wollen wir zun¨achst die Reihe (1.40) derart umformen, daß statt der Cosinus- und der Sinusfunktion die Exponentialfunktion auftritt. Zu diesem Zweck stellen wir cos νΩt und sin νΩt durch die bekannten Beziehungen 1 cos νΩt = (e jνΩt + e− jνΩt ) bzw. 2
sin νΩt =
1 jνΩt − e− jνΩt ) (e 2j
dar und setzen diese Ausdr¨ ucke in (1.40) ein : 1 1 1 (aν − jbν )e jνΩt + (aν + jbν )e− jνΩt . x(t) = a0 + 2 2 ν=1 2 ν=1 ∞
∞
Ersetzen wir in der rechten Reihe den Index ν durch −ν, so k¨onnen wir 12 a0 und die beiden Reihen zusammenfassen zur komplexen Form der Fourier-Reihe, d. h. zu x(t) =
∞
Xν e jνΩt
(1.42)
ν=−∞
mit
1 ur ν < 0 2 (a−ν + jb−ν ) f¨ 1 a0 f¨ ur ν = 0 . Xν = 1 2 (a − jb ) f¨ u r ν>0 ν ν 2
(1.43)
Fourier-Reihen
Darstellung periodischer Signale
1.4-15
Wenn wir im folgenden periodische Signale durch Fourier-Reihen darstellen, werden wir ausschließlich von dieser Form Gebrauch machen. Die Konstanten Xν , die ebenfalls FourierKoeffizienten heißen, sind im allgemeinen komplex, und zwar auch dann, wenn x(t) reell ist. Abweichend von der u ubergang bei der in (1.42) auftre¨ blichen Konvention ist der Grenz¨ tenden Summation wie folgt zu interpretieren: ∞
Xν e
jνΩt
= lim
n
n→∞
ν=−∞
Xν e jνΩt .
ν=−n
Dies ergibt sich u. a. aus der Herleitung der komplexen Form der Fourier-Reihe aus (1.40). Man spricht in diesem ∞ Zusammenhang auch von der sogenannten Eisenstein-Summation. ubergang also gem¨aß Falls eine Reihe ν=−∞ xν (t) in u ¨ blicher Weise konvergiert, der Grenz¨ ∞
xν (t) = lim
n→∞
ν=−∞
n
xν (t) + lim
n→∞
ν=0
n
x−ν (t)
ν=1
vorgenommen werden kann, so konvergiert die Reihe auch dann, wenn die Eisenstein-Summation zugrundegelegt wird. Das Umgekehrte trifft i. allg. aber nicht zu. [Siehe hierzu Gleichung (1.66) sowie die zugeh¨orige Fußnote.] Die in der Reihe (1.40) auftretenden Koeffizienten aν und bν k¨onnen auch aus den Xν berechnet werden. Ber¨ ucksichtigt man, daß die erste Zeile in (1.43) ¨aquivalent durch X−ν = 1 (a + jb ) (f¨ u r ν > 0) ausgedr¨ uckt werden kann, so folgt unter Beachtung der dritten Zeile ν ν 2 in (1.43) (1.44) aν = Xν + X−ν , bν = j(Xν − X−ν ) , ν = 0, 1, 2, . . . Wegen a0 = 2X0 und b0 = 0 konnte hier auch der Index ν = 0 zugelassen werden. Wir wollen nun eine Formel herleiten, mit der wir die Fourier-Koeffizienten Xν aus der Funktion x(t) berechnen k¨onnen. Bei der Herleitung setzen wir voraus, daß die Reihe (1.42) gleichm¨aßig konvergiert und daher gliedweise u ¨ber eine Periode integriert werden darf, d. h., daß wir das Integralzeichen mit dem Summenzeichen vertauschen d¨ urfen. Die gleichm¨aßige Konvergenz, die eine hinreichende, aber keineswegs notwendige Bedingung f¨ ur diese Vertauschbarkeit ist, liegt z. B. vor, wenn f¨ ur ν → ±∞ die |Xν | mindestens wie 1/|ν|1+δ (δ > 0) gegen null streben. Wir multiplizieren die Gleichung (1.42) mit e− jµΩt (µ ganzzahlig) und integrieren auf beiden Seiten u ¨ber das Intervall von 0 bis T : T T ∞ − jµΩt x(t)e dt = Xν e j(ν−µ)Ωt dt . 0
0
ν=−∞
Da der Faktor e− jµΩt beschr¨ankt ist, wird die vorausgesetzte gleichm¨aßige Konvergenz der Reihe nicht gest¨ort, so daß wir gliedweise integrieren k¨onnen :
T
− jµΩt
x(t)e 0
dt =
∞ ν=−∞
T
e j(ν−µ)Ωt dt .
Xν 0
Die Auswertung des unter dem Summenzeichen stehenden Integrals ergibt f¨ ur ν = µ
T T
j(ν−µ)2π 1 1 j(ν−µ)Ωt j(ν−µ)Ωt 0 e dt = = − e =0. e e
j(ν − µ)Ω j(ν − µ)Ω 0 0
(1.45)
16-1.4
Darstellung periodischer Signale
Fourier-Reihen
f¨ ur ν = µ ist der Integrand 1 und somit das Integral T . Auf der rechten Seite der Gleichung (1.45) bleibt folglich nur ein Glied der Summe u ¨ brig, n¨amlich T Xµ . L¨osen wir nun die resulur den tierende Gleichung nach Xµ auf und ersetzen µ durch ν, so erhalten wir schließlich f¨ Fourier-Koeffizienten 1 T Xν = x(t)e− jνΩt dt . (1.46) T 0 Das Integrationsintervall (0, T ) kann u ¨ brigens durch ein beliebiges Intervall der L¨ange T ersetzt werden. Um dies zu zeigen, beachten wir zun¨achst, daß nicht nur x(t), sondern der gesamte Integrand in (1.46), der abk¨ urzend mit f(t) bezeichnet werde, periodisch mit der Periode T ist. Als Integrationsintervall w¨ahlen wir nun (t0 , t0 + T ), wobei t0 eine beliebige reelle Konstante ist. Wir m¨ ussen zeigen, daß der Wert des Integrals u ¨ ber dieses Intervall unabh¨angig von t0 ist. Offenbar k¨onnen wir das Integral wie folgt zerlegen :
t0 +T
f(t)dt = t0
0
+ t0
T
t0 +T
+
f(t)dt .
0
T
Substituieren wir in dem ganz rechts stehenden Integral t durch t + T und ber¨ ucksichtigen f(t + T ) = f(t), so erhalten wir ein Integral u ¨ber f(t) mit den Grenzen 0 und t0, das also bis auf das Vorzeichen den gleichen Wert hat wie das erste Integral auf der rechten Seite. Somit bleibt rechts nur das mittlere Integral stehen, so daß gilt 1 T
t0 +T t0
1 f(t)dt = T
T
f(t)dt . 0
Integrale dieser Form, d. h. mit dem Faktor 1/T und dem Integrationsintervall der L¨ange T , werden im folgenden h¨aufiger auftreten, so daß es sinnvoll erscheint, hierf¨ ur eine geeignete Abk¨ urzung einzuf¨ uhren. Wir definieren folgenden Operator, den wir aus naheliegenden Gr¨ unden als Mittelwertoperator bezeichnen wollen, 1 M {f(t)} := T
T
f(t)dt .
(1.47)
0
Die Formel (1.46) l¨aßt sich unter Benutzung dieses Operators nun ¨aquivalent durch Xν = M x(t)e− jνΩt
(1.48)
ausdr¨ ucken. Die in Tabelle 1.1 angegebenen sehr leicht zu beweisenden Rechenregeln f¨ ur den Mittelwertoperator erm¨oglichen es uns, diesen wirkungsvoll einzusetzen. Die in diesen Regeln auftretenden Funktionen f(t) und g(t) seien beide T -periodisch und u ¨ber eine Periode integrierbar. Weiter sei c eine beliebige komplexe Konstante, t0 eine reelle Konstante, und Ω sei wieder durch Ω = 2π/T gegeben. Der in der Regel 6 auftauchende Operator M∗ ist durch ∗ ∗ M {f(t)} := (M{f(t)})
definiert.
Fourier-Reihen
Darstellung periodischer Signale
Regel 1
M{c} =
Regel 2
M{cf(t)} =
Regel 3
M{f(t) + g(t)} =
Regel 4
M{f(t − t0 )} =
M{f(t)}
Regel 5
M{f(−t)} =
M{f(t)}
Regel 6
M{f ∗ (t)} =
M∗ {f(t)}
Regel 7
M{e jµΩt } =
0 f¨ ur µ = ±1, ±2, ±3, . . .
1.4-17
c c M{f(t)} M{f(t)} + M{g(t)}
Tabelle 1.1: Rechenregeln f¨ ur den Mittelwertoperator
Als einfaches Beispiel f¨ ur die Anwendung der Regeln 2 und 3 bestimmen wir die Koeffizientenformeln f¨ ur die reelle“ Fourier-Reihe. Aus (1.44) und (1.48) folgt ” aν = Xν + X−ν = M{x(t)e− jνΩt } + M{x(t)e jνΩt } = M{x(t)(e− jνΩt + e jνΩt )} aν = 2 M{x(t) cos νΩt}, ν = 0, 1, 2, . . . und bν = j(Xν − X−ν ) = M{x(t) je− jνΩt } − M{x(t) je jνΩt } = M{x(t) j(e− jνΩt − e jνΩt )} bν = 2 M{x(t) sin νΩt}, ν = 1, 2, 3, . . . Ausf¨ uhrlich geschrieben lauten diese Koeffizientenformeln also wie folgt: 2 T 2 T aν = x(t) cos νΩt dt und bν = x(t) sin νΩt dt . T 0 T 0 Mit Hilfe des Mittelwertoperators kann f¨ ur T -periodische Funktionen wie folgt ein Skalarprodukt definiert werden: (1.49) f(t), g(t) := M{f(t)g ∗ (t)} . Wir k¨onnen uns leicht davon u ¨ berzeugen, daß dieses Skalarprodukt nachstehende Eigenschaften besitzt: 1: f(t), g(t) = g(t), f(t)∗ , 2:
cf(t), g(t) = cf(t), g(t) ,
3 : f(t) + g(t), h(t) = f(t), h(t) + g(t), h(t) , 4:
f(t), f(t) ≥ 0 .
18-1.4
Darstellung periodischer Signale
Fourier-Reihen
Setzen wir f(t) als stetig voraus, so gilt f(t), f(t) = 0 nur f¨ ur f(t) = 0. Es handelt sich hierbei offenbar um die gleichen Eigenschaften, die auch das Skalarprodukt zweier n-dimensionaler Vektoren x = [x1, x2, ..., xn]T und y = [y1, y2, ..., yn]T , das durch x, y :=
n
xν yν∗
ν=1
definiert wird, aufweist. So wie zwei Vektoren, deren Skalarprodukt null ist, als orthogonal bezeichnet werden, sagt man auch, zwei T -periodische Funktionen sind orthogonal zueinander, falls ihr Skalarprodukt null ist. In diesem Sinne sind, wie sofort aus Regel 7 folgt, e jµΩt und ur µ = ν orthogonal zueinander. e jνΩt f¨ Das Skalarprodukt f¨ uhrt uns unmittelbar auch zur Definition der folgenden Norm: ||f(t)|| := f(t), f(t) . Schreiben wir den Ausdruck unter dem Wurzelzeichen ausf¨ uhrlich hin, d. h. 1 T |f(t)|2dt , ||f(t)|| := T 0
(1.50)
so erkennen wir, daß diese Norm nichts anderes als der Effektivwert von f(t) ist. Das Quadrat der Norm einer Summe von zwei T -periodische Funktionen f(t) und g(t) ergibt ||f(t) + g(t)||2 = f(t) + g(t), f(t) + g(t) = f(t), f(t) + 2 Ref(t), g(t) + g(t), g(t) . Sind f(t) und g(t) orthogonal zueinander, so folgt hieraus die Beziehung ||f(t) + g(t)||2 = ||f(t)||2 + ||g(t)||2 , die uns offenbar an den pytagoreischen Lehrsatz erinnert. Da wir cos Ωt als Summe zweiur er orthogonaler Funktionen, n¨amlich 12 e jΩt und 12 e− jΩt , darstellen k¨onnen, erhalten wir f¨ 2 || cos Ωt|| sofort 1 1 1 1 1 || cos Ωt||2 = || e jΩt ||2 + || e− jΩt ||2 = + = 2 2 4 4 2 und somit das bekannte Ergebnis 1 || cos Ωt|| = √ . 2
1.4.2
Konvergenzeigenschaften der Fourier-Reihen
Eine gewisse Schwierigkeit bei der Anwendung der Fourier-Reihen ergibt sich in der Praxis daraus, daß i. allg. unendlich viele Exponentialschwingungen ber¨ ucksichtigt werden m¨ ussen, um ein bestimmtes periodisches Signal exakt darzustellen. M¨ochte man ein derartiges Signal ¨ beispielsweise durch Uberlagerung von Schwingungen, die mit Sinusgeneratoren erzeugt werden, synthetisieren, so k¨onnen aber immer nur endlich viele verwendet werden. Wir befassen uns daher mit folgender Aufgabe: Gegeben sei ein periodisches Signal x = x(t) mit der Periode T . Dieses Signal soll approximiert (d. h. n¨aherungsweise dargestellt) werden durch eine trigonometrische Summe, d. h. durch einen Ausdruck der Form N 1 a˜ν cos νΩt + ˜bν sin νΩt , xN (t) = a˜0 + 2 ν=1
Fourier-Reihen
Darstellung periodischer Signale
1.4-19
¨ wobei N eine nat¨ urliche Zahl ist. Diese Summe l¨aßt sich, dem Ubergang von (1.40) auf (1.42) entsprechend, als N ˜ ν e jνΩt xN (t) = (1.51) X ν=−N
˜ ν gew¨ahlt werden, damit der Approxischreiben. Wir fragen: Wie m¨ ussen die Koeffizienten X mationsfehler (1.52) ∆N (t) := x(t) − xN (t) , m¨oglichst wenig von null abweicht? Als Maß f¨ ur die Abweichung benutzen wir FN := ||∆N (t)||2 = M{|∆N (t)|2} .
(1.53)
Die Wurzel aus FN , also der Effektivwert oder die Norm von ∆N (t), wird auch als der mittlere quadratische Fehler zwischen x(t) und xN (t) bezeichnet. Diesen Fehler (bzw. sein Quadrat) wollen wir nun durch geeignete Wahl der in (1.51) auftretenden Koeffizienten minimieren. Hierbei setzen wir voraus, daß die zu approximierende Funktion x(t) u ¨ ber eine Periode qua2 dratisch integrierbar ist, d. h., daß der Mittelwert M{|x(t)| } existiert. Setzen wir (1.52) in (1.53) ein, so folgt FN = M{|x(t) − xN (t)|2} und weiter unter Ber¨ ucksichtigung der Regel 3 FN = M{|x(t)|2} − M{x(t)x∗N (t)} − M{x∗(t)xN (t)} + M{|xN (t)|2} .
(1.54)
˜ ν , so daß er Der erste Term auf der rechten Seite ist unabh¨angig von den Koeffizienten X zun¨achst nicht weiter betrachtet werden muß. Die Auswertung des zweiten Terms ergibt unter Verwendung von (1.51) und Beachtung der Regeln 2 und 3 N N N ∗ ∗ − jνΩt ∗ − jνΩt ˜ ˜ ˜ ∗ Xν . = x(t)X e X M x(t)e X = M{x(t)x (t)} = M N
ν
ν
ν=−N
ν
ν=−N
ν=−N
(1.55) Wegen Regel 6 erhalten wir hieraus sofort f¨ ur den dritten Term in (1.54) den Ausdruck ∗
M{x (t)xN (t)} = M
∗
{x(t)x∗N (t)}
=
N
˜ ν Xν∗ . X
(1.56)
ν=−N
F¨ ur den letzten Term auf der rechten Seite von (1.54) finden wir schließlich N N N N 2 ∗ jνΩt − jµΩt ˜ ˜ ˜ν X ˜ ∗ M e j(ν−µ)Ωt {|x (t)| } = e e X X X = M N M ν µ µ ν=−N µ=−N
ν=−N µ=−N
und weiter unter Beachtung der Regel 7 N
M{|xN (t)| } = 2
˜ ν |2 . |X
ν=−N
Setzen wir (1.55) bis (1.57) in (1.54) ein, so folgt FN = M{|x(t)|2} +
N ν=−N
˜ν X ˜ ν X ∗ − Xν X ˜∗ − X ˜ ∗) . (X ν ν ν
(1.57)
20-1.4
Darstellung periodischer Signale
Fourier-Reihen
Unter Ber¨ ucksichtigung der binomischen Formel ˜ ν − Xν )(X ˜ ν − Xν )∗ = X ˜ν X ˜ ν Xν∗ − Xν X ˜ ν∗ − X ˜ ν∗ + Xν Xν∗ ˜ ν − Xν |2 = (X |X erg¨anzen wir den Ausdruck unter dem Summenzeichen zu einem vollst¨andigen Betragsquadrat und nehmen gleichzeitig die hierdurch notwendig werdende Korrektur vor, so erhalten wir FN = M{|x(t)|2} −
N
|Xν |2 +
ν=−N
N
˜ ν − Xν |2 . |X
(1.58)
ν=−N
˜ ν wird dieser Ausdruck minimal, wenn die rechte Summe, die offenbar In Abh¨angigkeit der X ˜ ν gleich den Fourier-Koeffizienten nichtnegativ ist, null wird, d. h., wenn die Koeffizienten X gew¨ahlt werden. Wir haben also das wichtige Ergebnis: Unter allen Summen der Form (1.51) stellt die an den Stellen ν = −N und ν = N abgebrochene Fourier-Reihe die beste Approximation im quadratischen Mittel dar. ˜ν = Xν f¨ Im folgenden sei X ur alle ν. Aus (1.58) folgt dann N
|Xν |2 = M{|x(t)|2} − FN
(1.59)
ν=−N
und somit wegen FN ≥ 0
N
|Xν |2 ≤ M{|x(t)|2} .
ν=−N
f¨ ur N → ∞ bleibt also die auf der linken Seite stehende Summe, die mit N monoton w¨achst, beschr¨ankt. Mit anderen Worten, die Reihe ν |Xν |2 ist konvergent und es gilt ∞
|Xν |2 ≤ M{|x(t)|2} .
(1.60)
lim Xν = lim Xν = 0 .
(1.61)
ν=−∞
Insbesondere folgt daraus ν→∞
ν→−∞
Ohne Beweis sei erw¨ahnt, daß die Ungleichung (1.60) in Wirklichkeit eine Gleichung ist, die sogenannte Parsevalsche Gleichung. Folglich strebt, wie wir (1.59) entnehmen k¨onnen, FN und somit der Effektivwert des Approximationsfehlers f¨ ur N → ∞ gegen null. Dies bedeutet allerdings nicht, daß f¨ ur N → ∞ die Funktion xN (t) an jeder Stelle t gegen x(t) konvergiert. ¨ Die zu x(t) geh¨orige Fourier-Reihe, die ja durch den Ubergang N → ∞ aus xN (t) hervorgeht, stellt also i. allg. nicht u ¨ berall die Funktion x(t) dar. Bevor wir uns n¨aher mit der Frage befassen, unter welchen Bedingungen eine Funktion gleich ihrer Fourier-Reihe ist, wollen wir zeigen, daß die Parsevalsche Gleichung M{|x(t)| } = 2
∞ ν=−∞
|Xν |2
(1.62)
Fourier-Reihen
Darstellung periodischer Signale
1.4-21
auch in der allgemeineren Form ∗
M{x(t)y (t)} =
∞
Xν Yν∗
(1.63)
ν=−∞
geschrieben werden kann, wobei Yν die Fourier-Koeffizienten des Signals y(t) sind, das ebenfalls als quadratisch integrierbar u ¨ber eine Periode vorausgesetzt wird. Es mag u ¨ berraschen, aber (1.62) und (1.63) sind ¨aquivalent. Daß (1.63) die Gleichung (1.62) impliziert, ist unmittelbar klar. Um das Umgekehrte zu zeigen, beachten wir, daß das Produkt x(t)y ∗(t) durch vier Quadrate ausgedr¨ uckt werden kann, d. h. durch 1 (1.64) |x + y|2 − |x − y|2 + j|x + jy|2 − j|x − jy|2 , xy ∗ = 4 wobei wir der Einfachheit halber das Argument t jeweils fortgelassen haben. Weiter ber¨ ucksichtigen wir, daß als Folge der Regeln 2 und 3 die Fourier-Koeffizienten der Signale x(t) + σy(t) (σ = 1, −1, j, − j) durch − jνΩt } = Xν + σYν M{(x(t) + σy(t))e 2 gegeben sind. Wenden wir den Operator 2M auf (1.64) an und ersetzen M{|x(t) + σy(t)| } mittels (1.62) jeweils durch |Xν + σYν | , so erhalten wir ∞ 1 |Xν + Yν |2 − |Xν − Yν |2 + j|Xν + jYν |2 − j|Xν − jYν |2 M{x(t)y (t)} = 4 ν=−∞ ∗
und finden nach dem Ausmultiplizieren der Quadrate die Richtigkeit der Gleichung (1.63) best¨atigt. Falls y(t) reell ist, k¨onnte man in (1.63) statt y ∗ (t) offenbar auch y(t) schreiben. Auf der rechten Seite m¨ ußte aber der konjugiert komplexe Koeffizient Yν∗ stehen bleiben, da, wie schon erw¨ahnt, die Fourier-Koeffizienten i. allg. auch dann komplex sind, wenn die zugeh¨orige Funktion reell ist. Um die in der Gleichung (1.63) enthaltene Symmetrie nicht zu st¨oren, sollte daher gunds¨atzlich der Stern zur Kennzeichnung der komplexen Konjugation auch auf der linken Seite der Gleichung gesetzt bleiben. Bei der Beantwortung der Frage, ob eine periodische Funktion u ¨ berall gleich ihrer Fourier-Reihe ist, spielt der Begriff st¨ uckweise glatt“ eine wichtige Rolle. ” Definition. Eine reelle Funktion heißt st¨uckweise glatt, wenn in jedem endlichen Intervall die Funktion und ihre erste Ableitung bis auf endlich viele Sprungstellen (jeweils mit endlicher Sprungh¨ohe) stetig sind. Dementsprechend wird eine komplexwertige Funktion st¨uckweise glatt genannt, falls sowohl ihr Realteil als auch ihr Imagin¨arteil diese Eigenschaft besitzen. Ohne Beweis zitieren wir den folgenden Satz. Die zu einer st¨uckweise glatten Funktion x(t) geh¨orige Fourier-Reihe ist ¨uberall gleich der Funktion, wenn x(t) f¨ur alle t der Bedingung 1 x(t) = [x(t − 0) + x(t + 0)] 2
(1.65)
gen¨ugt, wobei x(t − 0) und x(t + 0) definiert sind durch x(t − 0) := lim x(t − τ ) und τ →0 τ >0
x(t + 0) := lim x(t + τ ) . τ →0 τ >0
22-1.4
Darstellung periodischer Signale
Fourier-Reihen
x(t)
x(t − 0) x(t) x(t + 0) t
t
Bild 1.8: Zur Festlegung des Funktionswertes einer st¨ uckweise stetigen Funktion an einer Sprungstelle: x(t ) = 12 [x(t − 0) + x(t + 0)]
Die Bedingung (1.65) ist an den Stetigkeitsstellen von x offenbar immer erf¨ ullt, denn dort gilt ja x(t−0) = x(t+0) = x(t). An den Sprungstellen wird durch (1.65) der Funktionswert auf das arithmetische Mittel aus dem rechtsseitigen und dem linksseitigen Grenzwert festgelegt (siehe Bild 1.8).
s(t)
a) 1 2
−T
−T /2
0 −
b)
T
t
T /2
T
t
1 2
sN (t)
s17(t) s3(t)
−T
T /2
−T /2
1 2
0 −
1 2
Bild 1.9: (a) S¨agezahnfunktion als Beispiel f¨ ur eine st¨ uckweise glatte Funktion; (b) Approximation der Funktion s(t) durch sN (t) mit N = 3 und N = 17
Als Beispiel f¨ ur ein st¨ uckweise glattes periodisches Signal betrachten wir die in Bild 1.9
Fourier-Reihen
Darstellung periodischer Signale
1.4-23
dargestellte S¨agezahnfunktion mit der Periode T , die im Intervall (0, T ) durch s(t) =
1 t − 2 T
gegeben ist. Die Stellen t = 0 , ±T , ±2T , . . . sind Sprungstellen mit der Sprungh¨ohe 1. Da die rechtsseitigen und linksseitigen Grenzwerte an den Sprungstellen jeweils entgegengesetzt gleich sind, ist der Funktionswert an den Sprungstellen jeweils null. Die Funktion s(t) ist augenscheinlich ungerade, gen¨ ugt also der Bedingung s(t) = −s(−t) und ist daher mittelwertfrei, ur die u d. h. der Fourier-Koeffizient S0 = M{s(t)} ist null. F¨ ¨ brigen Koeffizienten erhalten wir mittels partieller Integration − jνΩt T T
e 1 T 1 1 1 t t 1 − jνΩt
e · dt = − − e− jνΩt dt = − − . Sν =
2 T 0 2 T 2 T jνΩT 0 jνΩT 0 jν2π Die Fourier-Reihe3 von s(t) lautet somit ∞ ∞ 1 sin νΩt e jνΩt = . s(t) = jν2π π ν=1 ν ν=−∞
(1.66)
ν=0
Da die Koeffizienten f¨ ur wachsendes ν nur langsam abnehmen, n¨amlich wie 1/ν, konvergiert die Reihe sehr schlecht. In Bild 1.9b ist die durch Abbruch der Fourier-Reihe entstehende Funktion N 1 sin νΩt sN (t) = π ν=1 ν f¨ ur N = 3 und N = 17 dargestellt. Es ist deutlich zu erkennen, daß in der Umgebung der ¨ Sprungstellen erhebliche Abweichungen von dem gew¨ unschten Verlauf auftreten. Das Uberschwingen an den Sprungstellen bleibt auch mit zunehmendem N erhalten und es erreicht ¨ eine H¨ohe von etwa 9% bezogen auf die Sprungh¨ohe. Dieses Uberschwingen, das mit zunehmendem N in seiner Breite abnimmt, wird nach dem Mathematiker Gibbs als Gibbssches Ph¨anomen bezeichnet. Obwohl in N¨ahe der Sprungstellen auch f¨ ur sehr großes N eine erhebliche Abweichung zwischen den Funktionen s(t) und sN (t) bleibt, kann der mittlere quadratische Fehler FN = M{|s(t) − sN (t)|2} durch Wahl eines hinreichend großen N beliebig klein gemacht werden. Man kann allgemein zeigen, daß das Gibbssche Ph¨anomen auch bei der Fourier-Entwicklung anderer st¨ uckweise glatter Funktionen zu beobachten ist, und zwar an jeder Sprungstelle. ¨ Ubrigens l¨aßt sich jede st¨ uckweise glatte Funktion x(t), die im Intervall [0, T ) die Sprungstellen t1, t2 , . . . , tm mit den Sprungh¨ohen ξ1 , ξ2 , . . . , ξm besitzt, durch eine Summe der Form x(t) =
m
ξµ s(t − tµ ) + x˜(t)
(1.67)
µ=1
darstellen, wobei x˜(t) eine stetige Funktion ist und wobei die Sprungh¨ohe ξµ (µ = 1, 2, . . . , m) durch ξµ = x(tµ + 0) − x(tµ − 0) definiert wird. Die schlechte Konvergenz der Fourier-Reihe f¨ ur s(t) u ¨ bertr¨agt sich hierbei auf x(t), so daß die zugeh¨origen Koeffizienten nicht schneller als 1/ν gegen null streben. Bild 1.10 zeigt ein Beispiel f¨ ur die Zerlegung einer st¨ uckweise stetigen Funktion in zwei S¨agezahnfunktionen und eine stetige Funktion. 3
Diese Fourier-Reihe ist ein sch¨ ones Beispiel daf¨ ur, wie durch die Eisenstein-Summation eine an sich divergente Reihe summiert werden kann. Der Versuch, etwa f¨ ur t = 0 die komplexe Reihe in u ¨ blicher Weise zu summieren, f¨ uhrt auf zwei harmonische Reihen, die bekanntlich divergent sind.
24-1.4
Darstellung periodischer Signale
Fourier-Reihen
x(t) ξ t + T /2
−T t −ξ
T
t
s1(t)
t t
t − T s2(t)
t − T /2
t
t + T /2 x˜(t) t + T /2 t
−T
T
t
Bild 1.10: Zerlegung einer st¨ uckweise stetigen periodischen Funktion x(t) in zwei S¨agezahnfunktionen ˜(t). Der s1 (t) = ξ · s(t − t ) und s2 (t) = −ξ · s(t − t − T /2) und eine stetige Funktion x zeitliche Verlauf des Signals x(t) entspricht dem Verlauf des Stromes bei der sogenannten Phasenanschnittsteuerung (siehe Bild 1.12).
Nun sei x = x(t) eine stetige periodische Funktion mit st¨ uckweise glatter Ableitung x(t) ˙ = dx(t)/dt. Wir wollen nachweisen, daß die zu x(t) geh¨orige Fourier-Reihe absolut konvergiert. Da wegen |e jνΩt | = 1 die Betr¨age der Reihenglieder unabh¨angig von t sind, handelt es sich hierbei sogar um eine sogenannte gleichm¨aßige Absolutkonvergenz, die ihrerseits die gew¨ohnliche“ gleichm¨aßige Konvergenz impliziert. Ber¨ ucksichtigt man schließlich, daß als ” Folge des auf Seite 21 zitierten Satzes die Fourier-Reihe an jeder Stelle gegen x(t) strebt, so wird klar, daß x(t) die Grenzfunktion ist, gegen die die Reihe gleichm¨aßig konvergiert. Mit anderen Worten, zu jedem (beliebig kleinen) ε > 0 gibt es ein N = N(ε), so daß f¨ ur alle n ≥ N und alle t folgende Ungleichung gilt
n
jνΩt (1.68) Xν e − x(t) < ε .
ν=−n
Die Funktion x(t) habe die Fourier-Koeffizienten Xν . F¨ ur x(t) ˙ finden wir dann mit par-
Fourier-Reihen
Darstellung periodischer Signale
1.4-25
tieller Integration die Koeffizienten
T 1 T 1 1 T − jνΩt − jνΩt x(t)e ˙ dt = x(t)e x(t)e− jνΩt dt . Xν =
+ jνΩ T 0 T T 0 0 Wegen x(0) = x(T ) f¨allt der erste Term auf der rechten Seite weg, so daß gilt Xν = jνΩ M{x(t)e− jνΩt } = jνΩXν .
(1.69)
Da f¨ ur ν = 0 die Koeffizienten der Funktion x(t) durch Xν =
Xν jνΩ
(1.70)
gegeben sind, erkennt man, daß die Fourier-Reihe f¨ ur x(t) schneller als die Reihe ∞ konvergiert jνΩt zeigen wir nun, f¨ ur x(t). ˙ Zum Nachweis der absoluten Konvergenz der Reihe ν=−∞ Xν e N ur N → ∞ beschr¨ankt bleibt. Unter Verwendung von (1.70) erhalten wir daß ν=−N |Xν | f¨
N
Xν
|Xν | = |X0 | +
jνΩ . ν=−N ν=−N N
(1.71)
ν=0
Die auf der rechten Seite stehende Summe k¨onnen wir mit der Cauchy-Schwarzschen Ungleichung, d. h. mit ( a ν b ν )2 ≤ a2ν b2ν , ν
ν
ν
ur alle drei Summen gleich ist, wie folgt wobei aν und bν reell sind und der Indexbereich f¨ absch¨atzen: N
N N X 1
ν ≤ |Xν |2 . (1.72)
jνΩ (νΩ)2 ν=−N ν=0
ν=−N ν=0
ν=−N
Ber¨ ucksichtigen wir die Konvergenz der Reihe ∞ ∞ π2 1 1 =2 = ν2 ν2 3 ν=−∞ ν=1 ν=0
und beachten die Parsevalsche Gleichung ∞
2 |Xν |2 = M{|x(t)| ˙ },
ν=−∞
so folgt schließlich aus (1.71) und (1.72) das gew¨ unschte Ergebnis: N
π 2} . ˙ |Xν | ≤ |X0 | + √ M{|x(t)| 3Ω ν=−N Wir betrachten auch hierzu ein Beispiel, und zwar die in Bild 1.11 dargestellte stetige Funktion r(t) mit st¨ uckweise glatter Ableitung. Diese Funktion ist ebenfalls mittelwertfrei, so
26-1.4
Darstellung periodischer Signale
Fourier-Reihen
r(t) 1
a)
−T
−T /2
0
T /2
T
t
T /2
T
t
−1 rN (t) 1
b) r1(t) r3(t)
−T
−T /2
0 −1
Bild 1.11: (a) Stetige Funktion mit st¨ uckweise glatter Ableitung; (b) Approximation der Funktion r(t) durch rN (t) mit N = 1 und N = 3
daß der nullte Fourier-Koeffizient auch hier null ist. Die anderen Koeffizienten ergeben sich dann wie folgt
T T 1 T r(t)e− jνΩt
1 − jνΩt − jνΩt Rν = r(t)e dt = + r(t)e ˙ dt . T 0 − jνΩT 0 jνΩT 0 Der erste Term auf der rechten Seite ist wegen r(0) = r(T ) null. Zur Berechnung des zweiten ben¨otigen wir die Ableitung r(t), ˙ die, wie man Bild 1.11a entnehmen kann, im Intervall [0, T ] gegeben ist durch 8 T ur < t < 3T − T f¨ 8 8 8 5T 7T f¨ u r < t < r(t) ˙ = . T 8 8 0 sonst Wir erhalten daher Rν
7T /8 3T /8 8 = e− jνΩt dt + e− jνΩt dt − jνΩT 2 T /8 5T /8 2 − jνπ/4 − e− jν3π/4 + e− jν7π/4 − e− jν5π/4 e = 2 (νπ) π π 8 sin ν . sin ν = (νπ)2 2 4
Als Folge der speziellen Symmetrie der Funktion r(t) [siehe (1.89) in Abschnitt 1.4.3] sind die
Fourier-Reihen
Darstellung periodischer Signale
1.4-27
Koeffizienten mit geradem Index null. Die ersten Fourier-Koeffizienten lauten: √ 4 2 π√2 R3 = R−3 = − 49π22 √ 4 2 R5 = R−5 = − 25π 2
R1 = R−1 =
= 0,5731 . . . ; = −0,0636 . . . ; = −0,0229 . . . .
jνΩt f¨ ur N = 1 Das Bild 1.11b zeigt die gute Ann¨aherung der Teilsummen rN (t) = N ν=−N Rν e und N = 3 an die Funktion r(t). Die hier zu erkennende relativ gute Konvergenz der Fourier-Reihe f¨ ur r(t) ist darauf 2 ur ν → ±∞ wie 1/ν gegen null streben. zur¨ uckzuf¨ uhren, daß die Fourier-Koeffizienten Rν f¨ Es gibt also eine positive Konstante C, so daß f¨ ur alle ν = 0 folgende Ungleichung gilt: |Rν | ≤
C . ν2
Ist eine periodische Funktion x(t) nicht nur stetig, sondern besitzt eine stetige erste Ableitung und eine st¨ uckweise glatte zweite Ableitung, so gen¨ ugen die Koeffizienten sogar der Ungleichung C |Xν | ≤ 3 . |ν| Dies folgt aus der Tatsache, daß in diesem Fall bereits die Fourier-Koeffizienten der Ableitung x(t) ˙ wie 1/ν 2 gegen null streben und daß zwischen den Koeffizienten der Funktion und den Koeffizienten der Ableitung der Zusammenhang (1.70) besteht. Allgemein gilt, daß die Fourier-Koeffizienten einer periodischen Funktion x(t), die eine stetige n-te Ableitung und eine st¨ uckweise glatte (n+ 1)-te Ableitung besitzt, der Ungleichung |Xν | ≤
C |ν|n+2
(1.73)
gen¨ ugen, wobei C eine geeignet gew¨ahlte Konstante ist.
1.4.3
Eigenschaften der Fourier-Koeffizienten
In diesem Abschnitt wollen wir einige Eigenschaften der Fourier-Koeffizienten diskutieren. Die Kenntnis dieser Eigenschaften erleichtert h¨aufig die Bestimmung der Koeffizienten und erlaubt zugleich eine gewisse Kontrolle der durchgef¨ uhrten Rechnung. Der Einfachheit halber werden wir die Tatsache, daß das Signal x(t) die Fourier-Koeffizienten Xν besitzt, symbolisch durch (1.74) x(t) ◦−−• Xν oder Xν •−−◦ x(t) ausdr¨ ucken. Multipizieren wir das Signal x(t) mit einer Konstanten, c, so werden die Fourier-Koeffizienten ebenfalls mit dieser Konstanten multipliziert: x(t) ◦−−• Xν ⇒ cx(t) ◦−−• cXν .
(1.75)
Ist y(t) ein weiteres periodisches Signal mit den Fourier-Koeffizienten Yν , so hat das Summensignal x(t) + y(t) die Fourier-Koeffizienten Xν + Yν : x(t) ◦−−• Xν (1.76) ⇒ x(t) + y(t) ◦−−• Xν + Yν . y(t) ◦−−• Yν
28-1.4
Darstellung periodischer Signale
Fourier-Reihen
Die Eigenschaften (1.75) und (1.76), die auch als Homogenit¨at bzw. Additivit¨at bezeichnet werden, sind eine unmittelbare Folge der im Abschnitt 1.4 erw¨ahnten Regeln 2 bzw. 3. Ersetzen wir in der Koeffizientenformel Xν = M{x(t)e− jνΩt } das Signal x(t) durch x∗(t), so erhalten wir unter Beachtung der Regel 6 ∗ − jνΩt ∗ } = M∗{x(t)e jνΩt } = X−ν . M{x (t)e ∗ ausgetauscht, so Werden umgekehrt in der Fourier-Reihe die Koeffizienten Xν gegen X−ν folgt !∗ ∞ ∞ ∗ X−ν e jνΩt = X−ν e− jνΩt ν=−∞
ν=−∞
=
∞
!∗ Xν e jνΩt
= x∗(t) .
ν=−∞
Wir k¨onnen daher schreiben: ∗ x(t) ◦−−• Xν ⇐⇒ x∗(t) ◦−−• X−ν .
(1.77)
Falls x(t) reell ist, d. h., falls x(t) der Gleichung x(t) = x∗(t) gen¨ ugt, besteht zwischen den ∗ . Existiert umgekehrt zwischen Fourier-Koeffizienten somit der Zusammenhang Xν = X−ν den Koeffizienten dieser Zusammenhang, so ist die durch die Reihe dargestellte Funktion reell. Dar¨ uber hinaus kann die Reihe dann derart umgeformt werden, daß nur nichtnegative Indizes auftreten: ∞ ∞ Xν e jνΩt = X0 + 2 Re Xν e jνΩt . x(t) = ν=−∞
ν=1
Als wichtiges Ergebnis halten wir fest: ∗ x(t) = x∗(t) ⇐⇒ Xν = X−ν .
(1.78)
Kehren wir bei dem Signal x(t) die Zeitrichtung um, d. h., ersetzen wir das Argument t durch −t, so muß der ν-te Koeffizient durch den (−ν)-ten ersetzt werden: x(t) ◦−−• Xν ⇐⇒ x(−t) ◦−−• X−ν .
(1.79)
Der Beweis von (1.79) kann sowohl mit der Fourier-Reihe als auch mit der Koeffizientenformel (1.48) gef¨ uhrt werden. Ersetzen wir in der Fourier-Reihe die Zeit t durch −t, so folgt x(−t) = Xν e− jνΩt ν
und weiter nach einem Vorzeichenwechsel des Index X−ν e jνΩt . x(−t) = ν
Fourier-Reihen
Darstellung periodischer Signale
1.4-29
Haben wir ein gerades Signal vorliegen, d. h. ein Signal mit der Eigenschaft x(t) = x(−t), so ist wegen (1.79) die Folge der Koeffizienten {. . . , X−2 , X−1 , X0 , X1 , X2 , . . .} gerade, d. h., f¨ ur alle ullen umgekehrt die Koeffizienten die Gleichung Xν = X−ν , so ist das mit ν gilt Xν = X−ν . Erf¨ der zugeh¨origen Reihe dargestellte Signal gerade. Wird die Fourier-Reihe in der Form (1.40) benutzt, so treten, wie man (1.44) entnimmt, nur die Koeffizienten aν = 2Xν und daher nur Cosinusfunktionen auf. Auch die Koeffizientenformel kann derart umgeformt werden, daß nur die Cosinusfunktion auftaucht und lediglich u ¨ ber eine halbe Periode integriert werden muß. Schreiben wir n¨amlich die Koeffizientenformel in der Form T /2 0 1 T /2 1 x(t)e− jνΩt dt = + x(t)e− jνΩt dt Xν = T −T /2 T −T /2 0 und substituieren in dem ersten Integral hinter dem zweiten Gleichheitszeichen t durch −t, so folgt unter Beachtung von x(t) = x(−t) 1 Xν = T
T /2
x(t) e
jνΩt
+e
− jνΩt
0
2 dt = T
T /2
x(t) cos νΩt dt . 0
Wir k¨onnen also zusammenfassend schreiben: x(t) = x(−t)
⇐⇒
Xν = X−ν
⇐⇒
2 Xν = T
T /2
x(t) cos νΩt dt 0
∞ x(t) = X0 + 2 Xν cos νΩt
.
(1.80)
ν=1
Ist x(t) ungerade, d. h. x(t) = −x(−t), so lassen sich mit einer ¨ahnlichen Argumentation ¨ folgende Aquivalenzen nachweisen: x(t) = −x(−t)
⇐⇒
Xν = −X−ν
⇐⇒
2 Xν = jT
T /2
x(t) sin νΩt dt 0
∞ x(t) = j2 Xν sin νΩt
.
(1.81)
ν=1
Wir haben also auch hier das besonders leicht zu merkende Ergebnis: Die Fourier-Koeffizienten eines ungeraden Signals bilden eine ungerade Folge, d. h. Xν = −X−ν , und umgekehrt. Ein Signal x(t), das weder gerade noch ungerade ist, l¨aßt sich u ¨ brigens darstellen durch eine Summe aus einem geraden und einem ungeraden Signal. Setzen wir x(t) =
x(t) + x(−t) x(t) − x(−t) + , 2 2
(1.82)
so ist, wie man leicht nachpr¨ uft, der erste Ausdruck hinter dem Gleichheitszeichen gerade und der zweite ungerade. Die Zerlegung eines Signals in einen geraden und einen ungeraden Teil ist nur auf eine Weise m¨oglich. Um dies zu zeigen, nehmen wir an, daß x(t) = xg (t) + xu (t)
(1.83)
30-1.4
Darstellung periodischer Signale
Fourier-Reihen
mit xg (t) = xg (−t) und xu (t) = −xu (−t) eine derartige Zerlegung sei. Aus (1.83) folgt dann x(−t) = xg (t) − xu (t) .
(1.84)
L¨osen wir (1.83) und (1.84) nach xg (t) und xu (t) auf, so erhalten wir xg (t) =
x(t) + x(−t) 2
(1.85a)
und
x(t) − x(−t) , (1.85b) 2 also genau die in (1.82) vorgenommene Zerlegung. Ebenso wie x(t) l¨aßt sich auch die Folge der Koeffizienten eindeutig in eine gerade und eine ungerade Folge zerlegen, und zwar wie folgt xu (t) =
Xν = Xgν + Xuν mit Xgν = 12 (Xν + X−ν ) und Xuν = 12 (Xν − X−ν ) . Aus (1.82) schließen wir dann unter Ber¨ ucksichtigung von (1.75) und (1.76): x(t) ◦−−• Xν ⇐⇒
xg (t) ◦−−• Xgν xu (t) ◦−−• Xuν
.
(1.86)
Viele Signale, die weder gerade noch ungerade sind, werden nach einer geeigneten zeitlichen Verschiebung gerade oder ungerade. Da die Berechnung der Fourier-Koeffizienten bei einem geraden oder ungeraden Signal gegebenenfalls einfacher wird, stellt sich die Frage, wie die Fourier-Koeffizienten durch eine zeitliche Verschiebung, etwa um t0 , beeinflußt werden. Die Antwort erhalten wir sofort durch Auswertung der Fourier-Reihe an der Stelle t − t0: ∞
x(t − t0) =
Xν e
ν=−∞
jνΩ(t−t0 )
=
∞
Xν e− jνΩt0 e jνΩt
ν=−∞
¨ Es gilt also folgende Aquivalenz: x(t) ◦−−• Xν ⇐⇒ x(t − t0 ) ◦−−• Xν e− jνΩt0 .
(1.87)
Wird das Signal um eine ganze Periode oder um ein Vielfaches einer Periode verschoben, ¨andern sich erwartungsgem¨aß die Fourier-Koeffizienten wegen e− jΩT = 1 nicht. Eine Verschiebung um eine halbe Periode oder um ein ungeradzahliges Vielfaches davon l¨aßt die Koeffizienten mit geradem Index unver¨andert und bewirkt einen Vorzeichenwechsel bei den Koeffizienten mit ungeradem Index. In der Elektrotechnik treten h¨aufig periodische Signale mit der Symmetrie x(t) = −x(t − T /2)
(1.88)
auf. Ein einfaches Beispiel hierf¨ ur zeigt Bild 1.12. Es handelt sich um einen Stromverlauf, wie er bei der sogenannten Phasenanschnittsteuerung auftritt. Fließt der Strom i(t) durch einen ohmschen Verbraucher (z. B. eine Gl¨ uhlampe), so kann die dem Verbraucher zugef¨ uhrte
Fourier-Reihen
Darstellung periodischer Signale
1.4-31
elektrische Wirkleistung durch Wahl der Zeit τ ∈ [0, T /2] stetig von null bis zur maximalen Leistung ver¨andert werden. Im Intervall [0, T /2) ist i(t) durch 0 f¨ ur t ∈ [0, T /2 − τ ) i(t) = ˆı sin Ωt sonst gegeben. Außerhalb dieses Intervalls wird i(t) gem¨aß i(t) = −i(t − T /2) fortgesetzt. Bevor wir die Fourier-Koeffizienten f¨ ur dieses Beispiel berechnen, wollen wir die Auswirkung der Bezie¨ hung (1.88) auf die Fourier-Koeffizienten untersuchen. Ber¨ ucksichtigen wir die Aquivalenz i(t) τ ˆı
−T
−T /2
0
T /2
T
t
−ˆı
Bild 1.12: Stromverlauf bei der Phasenanschnittsteuerung
(1.87), so folgt aus (1.88) f¨ ur die Koeffizienten Xν = −(−1)ν Xν
bzw. [1 + (−1)ν ]Xν = 0 .
Das heißt, die Koeffizienten mit geradem Index sind null. Umgekehrt ist dies auch hinreichend daf¨ ur, daß die durch die Fourier-Reihe dargestellte Funktion x(t) =
∞
X2ν+1 e j(2ν+1)Ωt
ν=−∞
die Eigenschaft (1.88) besitzt: x(t − T /2) =
∞
X2ν+1 e
ν=−∞ ∞
= −
j(2ν+1)Ω(t−T /2)
=
∞
X2ν+1 e− j(2ν+1)π e j(2ν+1)Ωt
ν=−∞
X2ν+1 e j(2ν+1)Ωt = −x(t) .
ν=−∞
Um die Koeffizienten mit ungeradem Index zu bestimmen, gen¨ ugt es auch hier, nur u ¨ ber eine halbe Periode zu integrieren. Gehen wir wieder von der Koeffizientenformel in der Form T /2 0 1 Xν = + x(t)e− jνΩt dt T −T /2 0
32-1.4
Darstellung periodischer Signale
Fourier-Reihen
aus und substituieren im ersten Integral t durch t−T /2, so folgt unter Beachtung der Gleichung (1.88) 1 T /2 Xν = x(t)[1 − (−1)ν ]e− jνΩt dt , T 0 so daß wir schreiben k¨onnen: ν gerade Xν = 0 x(t) = −x(t − T /2) ⇐⇒ 2 T /2 Xν = x(t)e− jνΩt dt ν ungerade T 0
.
(1.89)
Zur Berechnung der Fourier-Koeffizienten des Stromes i(t) in Bild 1.12 brauchen wir also das Integral T /2 jΩt 2 T /2 ˆı − jνΩt i(t)e dt = e − e− jΩt e− jνΩt dt Jν = T 0 jT T /2−τ uber hinaus auf eine nur f¨ ur ungerade ν auszuwerten. Wegen J−ν = Jν∗ k¨onnen wir uns dar¨ Betrachtung positiver Indizes beschr¨anken. F¨ ur ν = 1 erhalten wir T /2 1 − e j2Ωτ ˆı ˆı − j2Ωt τ+ . J1 = 1−e dt = jT T /2−τ jT j2Ω Die u ¨ brigen Fourier-Koeffizienten ergeben sich zu T /2 ˆı J2µ+1 = e− j2µΩt − e− j2(µ+1)Ωt dt jT T /2−τ ˆı e j2µΩτ − 1 e j2(µ+1)Ωτ − 1 − = jT j2µΩ j2(µ + 1)Ω j2µΩτ 1 − e j2(µ+1)Ωτ ˆı 1 − e − . = 4π µ µ+1 Ist ein periodisches Signal x(t) stetig und st¨ uckweise differenzierbar, dann k¨onnen, wie Gleichung (1.69) ausweist, die Fourier-Koeffizienten der Ableitung x(t), ˙ die ebenfalls periodisch ist, durch Multiplikation mit jνΩ gewonnen werden: x(t) ◦−−• Xν ⇒ x(t) ˙ ◦−−• jνΩXν .
(1.90)
Bei der Umkehrung dieser Aussage ist Vorsicht geboten, denn das Integral eines periodischen Signals ist nur dann periodisch, wenn das zu integrierende Signal mittelwertfrei ist. Zur Erl¨auterung betrachten wir das Integral des Signals x(t): t x(τ )dτ . y(t) = t0
Soll y(t) periodisch sein, so muß gelten y(t0) = y(t0 + T ) und daher, wegen y(t0) = 0, 1 t0 +T x(t)dt = 0 . M{x(t)} = T t0
Fourier-Reihen
Darstellung periodischer Signale
1.4-33
"t Mit Ausnahme des nullten Koeffizienten M{ t0 x(τ )dτ }, der von der willk¨ urlich gew¨ahlten Integrationsgrenze t0 abh¨angt, k¨onnen die u ¨ brigen Fourier-Koeffizienten des Signals "unteren t x(τ )dτ durch Umkehrung von (1.90) aus den X ν berechnet werden: t0 x(t) ◦−−• Xν X0 = 0
t
⇒
x(τ )dτ ◦−−• t0
Xν , ν = 0 . jνΩ
(1.91)
Wir wollen nun noch mit Hilfe der Parsevalschen Gleichung die beiden folgenden Beziehungen beweisen: ∞ x(t)y(t) ◦−−• Xµ Yν−µ (1.92) µ=−∞
sowie 1 T
T
x(τ )y(t − τ )dτ ◦−−• Xν Yν .
(1.93)
0
Als Gleichung geschrieben lautet (1.92) − jνΩt }= M{x(t)y(t)e
∞
Xµ Yν−µ .
(1.94)
µ=−∞
Um die Richtigkeit dieser Gleichung zu zeigen, gehen wir von der Parsevalschen Gleichung in der Form (1.63) aus, schreiben aber statt y(t) und Yν nunmehr z(t) bzw. Zν (mit Zν •−−◦ z(t)), d. h. ∞ ∗ Xµ Zµ∗ . (1.95) M{x(t)z (t)} = µ=−∞
Wir w¨ahlen
z ∗ (t) = y(t)e− jνΩt ,
(1.96)
wodurch die linke Seite von (1.95) gleich der linken Seite von (1.94) wird. Gelingt uns der Nachweis, daß nun auch die beiden rechten Seiten gleich sind, d. h., daß Zµ∗ = Yν−µ ist, haben wir das gew¨ unschte Ergebnis. F¨ ur Zµ∗ erhalten wir Zµ∗ = M∗ {z(t)e− jµΩt } = M{z ∗(t)e jµΩt } und weiter unter Ber¨ ucksichtigung von (1.96) Zµ∗ = M{y(t)e− j(ν−µ)Ωt } = Yν−µ . Die Beziehung (1.93) ist offenbar ¨aquivalent zu der Gleichung M{x(τ )y(t − τ )} = τ
∞
Xµ Yµ e jµΩt ,
(1.97)
µ=−∞
wobei zur Bestimmung des Mittelwertes, wie angedeutet, u ¨ ber τ integriert werden muß. Der Bequemlichkeit halber tauschen wir in (1.97) τ und t gegeneinander aus und erhalten so die Gleichung ∞ Xµ Yµ e jµΩτ , (1.98) {x(t)y(τ − t)} = M µ=−∞
34-1.5
¨ Ubertragung periodischer Signale durch lineare Systeme
Fourier-Reihen
die uns wieder sehr an die Parsevalsche Gleichung (1.95) erinnert. Setzen wir z ∗(t) = y(τ − t) ,
(1.99)
so m¨ ussen wir zum Beweis von (1.98) und damit von (1.93) nur noch zeigen, daß Zµ∗ und jµΩτ gleich sind. F¨ ur Zµ∗ erhalten wir unter Beachtung von (1.99) Yµ e Zµ∗ = M{z ∗(t)e jµΩt } = M{y(τ − t)e jµΩt } und weiter unter Beachtung der Regeln 2, 4 und 5 Zµ∗ = M{y(−t)e jµΩ(t+τ ) } = M{y(−t)e jµΩt }e jµΩτ = M{y(t)e− jµΩt }e jµΩτ = Yµ e jµΩτ . Die auf der rechten Seite von (1.92) und auf der linken Seite von (1.93) auftretenden Operationen werden h¨aufig jeweils als Faltung bezeichnet und symbolisch durch Xν ∗ Yν :=
∞
Xµ Yν−µ
µ=−∞
bzw.
1 T x(τ )y(t − τ )dτ x(t) ∗ y(t) := T 0 dargestellt. Durch Wechsel des Index bzw. der Integrationsvariablen kann leicht gezeigt werden, daß die Faltung eine kommutative Operation ist, d. h., daß stets gilt Xν ∗ Yν = Yν ∗ Xν bzw. x(t) ∗ y(t) = y(t) ∗ x(t) .
1.5
¨ Ubertragung periodischer Signale durch lineare Systeme
¨ Wir betrachten ein lineares System mit dem Systemoperator S , der Ubertragungsfunktion H( jω), dem Eingangssignal x(t) und dem Ausgangssignal y(t). Das Eingangssignal sei periodisch und werde durch die Fourier-Reihe x(t) =
∞
Xν e jνΩt
ν=−∞
dargestellt. Es sei daran erinnert, daß die Antwort des Systems auf eine Exponentialschwingung e jνΩt durch S {e jνΩt } = H( jνΩ)e jνΩt gegeben ist und daß als Folge seiner Homogenit¨at das System auf das Eingangssignal Xν e jνΩt mit H( jνΩ)Xν e jνΩt reagiert. Falls in (1.5) nur endlich viele Koeffizienten verschieden von null sind, die Reihe somit in Wirklichkeit eine Summe der Form n Xν e jνΩt , n ∈ N (1.100) x(t) = ν=−n
darstellt, k¨onnen wir wegen der Additivit¨at des Systems [vgl. (1.27)] f¨ ur das Ausgangssignal sofort n n n jνΩt jνΩt Xν e H( jνΩ)Xν e jνΩt (1.101) = y(t) = S S {Xν e } = ν=−n
ν=−n
ν=−n
¨ Ubertragung periodischer Signale durch lineare Systeme
Fourier-Reihen
1.5-35
schreiben. Da alle technisch relevanten periodischen Signale mit beliebiger Genauigkeit durch abgebrochene Fourier-Reihen repr¨asentiert werden k¨onnen, reicht dieses Ergebnis offenbar f¨ ur alle praktischen Belange aus. Unter mathematischen Gesichtspunkten ist es allerdings h¨aufig bequemer, mit unendlichen Summationsgrenzen zu arbeiten und daher folgende Implikation zugrunde zu legen: x(t)= S {e
∞
Xν e
jνΩt
ν=−∞
jνΩt
}=H( jνΩ)e
jνΩt
⇒ S {x(t)} =
∞
H( jνΩ)Xν e jνΩt .
(1.102)
ν−∞
Man kann zeigen, daß dieses Ergebnis zumindest immer dann richtig ist, wenn der Systemoperator ein streng stabiles System beschreibt und die Fourier-Reihe des Eingangssignals gleichm¨aßig konvergiert. |H( jω)|
a)
1/2 1 √ 2 2
−3ωg
−2ωg
−ωg
ωg
2ωg
3ωg
ω
ωg
2ωg
3ωg
ω
B(ω)
b) 3π/2 π π/2 −3ωg
−2ωg
−ωg
−π/2 −π −3π/2
¨ ¨ Bild 1.13: (a) Betrag der Ubertragungsfunktion H( jω); (b) Phase der Ubertragungsfunktion H( jω)
Als einfaches Beispiel betrachten wir die in Abschnitt 1.3 behandelte Filterschaltung nach Bild 1.4. Die Bauelemente seien wie folgt festgelegt: R1 = R2 = 1 kΩ ; L1 = L2 = 534 mH und C = 113,1 nF .
(1.103)
Der Verlauf des sich hieraus ergebenden Betrages |H( jω)| und der Phase B(ω) = − arc H( jω) sind f¨ ur |ω| ≤ 3ωg in Bild 1.13 dargestellt; ωg bezeichnet die Grenzfrequenz, die im vorliegenden Fall durch 2π1000 s −1 gegeben ist. Man erkennt, daß ein Sinussignal mit einer Frequenz ω > 2ωg sehr stark ged¨ampft wird, w¨ahrend ein Signal mit einer Frequenz ω ≤ ωg keine oder nur eine geringe D¨ampfung erf¨ahrt. Da nur die tiefen Frequenzen ohne nennenswerte D¨ampfung
36-1.6
Wirkleistung bei periodischen Spannungen und Str¨omen
Fourier-Reihen
x(t)
X
−T
−T /2
T /2
T
t
¨ Bild 1.14: Eingangssignal f¨ ur das System mit der Ubertragungsfunktion H( jω)
passieren k¨onnen, bezeichnet man ein derartiges Filter als Tiefpaß. Genaugenommen handelt es sich um einen sogenannten Tschebyscheff-Tiefpaß. Auf den Eingang geben wir die in Bild 1.14 dargestellte Rechteckschwingung, die im Intervall (0, T ) durch X f¨ ur 0
1.6
Wirkleistung bei periodischen Spannungen und Str¨ omen
Wir betrachten ein Klemmenpaar, ein sogenanntes Tor (Bild 1.16), mit der (reellen) periodischen Spannung u(t) = u(t + T ) und dem (reellen) periodischen Strom i(t) = i(t + T ) und fragen, wie groß die mittlere Leistung ist, die von links nach rechts durch das Tor u ¨ bertragen wird. Die Momentanleistung, p(t), ist bekanntlich durch p(t) = u(t)i(t)
(1.104)
Fourier-Reihen
Wirkleistung bei periodischen Spannungen und Str¨omen
1.6-37
y(t)
a) X/2
X/4
−T
−T /2
0
T /2
T
t
T /2
T
t
y(t)
b) X/2
X/4
−T
−T /2
0
Bild 1.15: (a) Ausgangssignal des Tiefpasses f¨ ur Ω = ωg ; (b) Ausgangssignal des Tiefpasses f¨ ur Ω = ωg /3
gegeben und somit ebenfalls periodisch. F¨ ur den sinusf¨ormigen Fall, d. h. f¨ ur u(t) = uˆ cos(Ωt + α) = Re U e jΩt
mit U = uˆ e jα
und i(t) = ˆı cos(Ωt + β) = Re I e jΩt
mit I = ˆı e jβ ,
ergibt sich unter Ber¨ ucksichtigung von 1 1 u(t) = U e jΩt + U ∗ e− jΩt 2 2 die Momentanleistung zu p(t) =
1 1 und i(t) = I e jΩt + I ∗ e− jΩt 2 2
UI ∗ + U ∗ I UI e j2Ωt + U ∗ I ∗ e− j2Ωt + 4 4 i(t) u(t)
p(t)
i(t) Bild 1.16: Klemmenpaar (Tor) mit der Spannung u(t), dem Strom i(t) und der von links nach rechts u ¨bertragenen Momentanleistung p(t)
38-1.6
Wirkleistung bei periodischen Spannungen und Str¨omen
Fourier-Reihen
bzw. zu p(t) =
1 1 1 1 Re UI ∗ + Re UI e j2Ωt = Re UI ∗ + |U||I| cos(2Ωt + α + β) . 2 2 2 2
(1.105)
Wir erhalten somit f¨ ur die mittlere Leistung P := M{p(t)}, die auch als Wirkleistung bezeichnet wird, das Ergebnis4 1 1 Re UI ∗ = |U||I| cos(α − β) . (1.106) 2 2 Wir kommen nun zu allgemeinen periodischen Vorg¨angen und gehen davon aus, daß u(t) und i(t) durch Fourier-Reihen gegeben sind: P =
∞
u(t) =
Vν e
jνΩt
,
i(t) =
ν=−∞
∞
Jν e jνΩt .
(1.107)
ν=−∞
Ber¨ ucksichtigen, daß u(t) und i(t) reell sind und die Fourier-Koeffizienten daher den Gleiugen, so k¨onnen wir auch schreiben chungen V−ν = Vν∗ und J−ν = Jν∗ gen¨ u(t) = U0 + Re
∞
Uν e jνΩt
und i(t) = I0 + Re
∞
ν=1
Iν e jνΩt ,
ν=1
wobei Uν und Iν gegeben sind durch V0 f¨ ur ν = 0 Uν = ur ν = 1, 2, 3, . . . 2Vν f¨
bzw. Iν =
(1.108)
(1.109)
J0 f¨ ur ν = 0 . ur ν = 1, 2, 3, . . . 2Jν f¨
(1.110)
Setzen wir Uν = |Uν |e jαν und Iν = |Iν |e jβν (ν = 1, 2, 3, . . .), so k¨onnen wir ferner schreiben u(t) = U0 +
∞
|Uν | cos(νΩt + αν ) und i(t) = I0 +
ν=1
∞
|Iν | cos(νΩt + βν ) .
ν=1
Die durch (1.109) und(1.110) definierten Gr¨oßen Iν bzw. Uν entsprechen offenbar den zuvor definierten komplexen Amplituden. Die Anwendung der Parsevalschen Gleichung (1.63) auf P = M{u(t)i(t)} ergibt unter Beachtung von (1.107) f¨ ur die durch das Tor u ¨bertragene Wirkleistung P =
∞
Vν Jν∗
ν=−∞ 4
In vielen Bereichen der Elektrotechnik, insbesondere in der Energietechnik, werden die komplexen Amplituden h¨ aufig derart gew¨ ahlt, daß ihre Betr¨ age jeweils den Effektivwerten entsprechen, die durch Ueff := ||u(t)|| =
uˆ M{u2 (t)} = √ 2
bzw.
Ieff := ||i(t)|| =
ˆı M{i2 (t)} = √ 2
definiert sind. Als Konsequenz kann dann der in (1.105) und (1.106) auftretende Faktor 12 jeweils entfallen. Da kein weiterer Vorteil bei einer Verwendung der Effektivwerte zu erkennen ist, wollen wir aber bei unserer bisherigen Definition der komplexen Amplituden bleiben.
Fourier-Reihen
Wirkleistung bei periodischen Spannungen und Str¨omen
1.6-39
und weiter wegen V−ν = Vν∗ und J−ν = Jν∗ P = V0 J0 + 2 Re
∞
Vν Jν∗ .
(1.111)
ν=1
Ersetzen wir schließlich unter Ber¨ ucksichtigung von (1.109) und (1.110) die Fourier-Koeffizienten Vν und Jν durch Uν bzw. Iν , so folgt f¨ ur die Wirkleistung das bemerkenswerte Ergebnis ∞ U0 I0 f¨ ur ν = 0 . (1.112) Pν mit Pν = P = 1 ∗ Re Uν Iν f¨ ur ν = 1, 2, 3, . . . 2 ν=0
Obwohl f¨ ur die Leistung das Superpositionsprinzip i. allg. nicht gilt, k¨onnen also die Wirkleistungen Pν , die den einzelnen Frequenzen νΩ (ν = 0, 1, 2, . . .) zuzuordnen sind, zur (Gesamt-) Wirkleistung P addiert werden. In vielen Anwendungen ist die Spannung u h¨aufig sinusf¨ormig, also durch u(t) = Re U1 e jΩt gegeben, w¨ahrend der Strom i nichtsinusf¨ormig, aber periodisch ist und durch den rechten Ausdruck in (1.108) dargestellt werden kann. Die Wirkleistung, die durch das Tor u ¨ bertragen ur ν = 1 durch wird, ist in diesem Fall wegen Uν = 0 f¨ 1 (1.113) Re U1 I1∗ 2 gegeben, d. h., nur die Grundschwingung des Stromes tr¨agt zur Wirkleistung bei. Diese Situation tritt beispielsweise im Zusammenhang mit der im Abschnitt 1.4.3 angesprochenen Phasenanschnittsteuerung auf, deren prinzipielle Wirkungsweise anhand der in Bild 1.17 gezeigten Schaltung erl¨autert werden soll. Die Spannung u(t) sei gegeben durch P = P1 =
i(t)
S
+ u(t)
R
Bild 1.17: Zur Erl¨ auterung der Wirkungsweise der Phasenanschnittsteuerung
u(t) = uˆ sin Ωt = Re U e jΩt
mit U = − jˆ u.
(1.114)
Der (elektronisch gesteuerte) Schalter S wird periodisch geschlossen und ge¨offnet, und zwar derart, daß der in Bild 1.12 gezeigte Stromverlauf mit ˆı = uˆ/R entsteht. Mit anderen Worten: S wird jeweils geschlossen, wenn nach einem Nulldurchgang der Spannung die Zeit T /2 − τ verflossen ist, und beim n¨achsten Nulldurchgang wieder ge¨offnet. Im Abschnitt 1.4.3 wurde der Fourier-Koeffizient J1 des Stromes zu ˆı 1 − e j2Ωτ J1 = τ+ jT j2Ω bestimmt, so daß die komplexe Amplitude I1, die ja den doppelten Wert des FourierKoeffizienten besitzt (siehe (1.110)), durch 1 − e j2Ωτ 2ˆı τ+ I1 = jT j2Ω
40-1.6
Wirkleistung bei periodischen Spannungen und Str¨omen
Fourier-Reihen
P (τ ) Pmax
Pmax /2
0
T /4
T /2
τ
Bild 1.18: Graph der in (1.115) definierten Funktion P (τ )
gegeben ist. F¨ ur die Wirkleistung P erhalten wir somit unter Ber¨ ucksichtigung von (1.113) mit U1 = U sowie (1.114) 1 − e− j2Ωτ 1 uˆˆı ∗ τ − Re . P = Re UI1 = 2 T j2Ω und weiter unter Beachtung von Ω = 2π/T P = P (τ ) := Pmax
sin(4πτ /T ) 2τ − T 2π
,
(1.115)
uhrt wird, wenn der wobei Pmax = 12 uˆˆı die Wirkleistung bezeichnet, die dem Widerstand zugef¨ Schalter dauernd geschlossen ist bzw. τ = T /2 gew¨ahlt wird. Da an dem Schalter entweder die Spannung oder der Strom null ist, nimmt er keine Leistung auf, so daß die gesamte durch das Tor u uhrt wird. Das Bild 1.18 zeigt ¨ bertragene Wirkleistung P dem Widerstand R zugef¨ die Abh¨angigkeit der Wirkleistung von τ . Die Berechnung der Wirkleistung h¨atte im vorliegenden Fall prinzipiell auch gem¨aß P = R M{i2 (t)} = R
∞
|Jν |2
ν=−∞
erfolgen k¨onnen, und zwar vorzugsweise durch direkte Bestimmung des Effektivwertes Ieff = M{i2(t)}. Eine Summation der angegebene Reihe k¨ame wegen der relativ komplizierten Ausdr¨ ucke f¨ ur die Fourier-Koeffizienten sicherlich nicht in Frage. Wenn auch die Phasenanschnittsteuerung theoretisch eine verlustlose Leistungssteuerung zul¨aßt, so f¨ uhrt sie — zumindest wenn sie in der hier dargestellten Weise realisiert wird — zu unangenehmen Begleiterscheinungen. Durch den nichtsinusf¨ormigen Stromverlauf tritt einerseits sogenannte Verzerrungsblindleistung auf, andererseits k¨onnen durch die Oberschwingungen erhebliche St¨orungen in anderen elektronischen Ger¨aten verursacht werden. Da wegen der Spr¨ unge im Stromverlauf die Betr¨age der Fourier-Koeffizienten des Stromes f¨ ur ν → ±∞ nur langsam abnehmen, n¨amlich nur wie 1/|ν|, treten auch bei sehr hohen Frequenzen noch nennenswerte St¨oranteile auf. Aus diesem Grunde m¨ ussen die Oberschwingungen durch Einsatz geeigneter Schaltmittel stark ged¨ampft werden.
Fourier-Reihen
Wirkleistung bei periodischen Spannungen und Str¨omen
1.6-41
Zum Abschluß berechnen wir die Wirkleistung, die von einem linearen Eintor mit der Impedanz Z = Z(p) aufgenommen wird, wenn dieses an eine widerstandsbehaftete Quelle mit periodischer Urspannung ∞ e(t) = E0 + Re Eν e jνΩt ν=1
geschaltet wird (Bild 1.19). R
i(t)
+ e(t)
u(t)
Z(p)
Bild 1.19: Zur Wirkleistungsaufnahme eines Eintors mit der Impedanz Z(p)
F¨ ur den Strom i(t) und die Spannung u(t) erhalten wir i(t) = I0 + Re
∞
Iν e jνΩt
bzw. u(t) = U0 + Re
ν=1
mit Iν =
Eν Z( jνΩ) + R
∞
Uν e jνΩt
ν=1
und Uν = Z( jνΩ)Iν =
Z( jνΩ)Eν . Z( jνΩ) + R
Unter Beachtung von (1.112) folgt somit f¨ ur die Wirkleistung P 1 E02 Z(0) |Eν |2 + Re Z( jνΩ) . P = (Z(0) + R)2 2 ν=1 |Z( jνΩ) + R|2 ∞
(1.116)
Die Wirkleistung P wird also null, falls f¨ ur alle ν, f¨ ur die Eν nicht verschwindet, der Realteil von Z( jνΩ) null ist. Wir fragen nun noch, wie die widerstandsbehaftete Quelle beschaltet werden muß, damit sie die maximale mittlere Leistung abgibt. Diese Frage wollen wir beantworten, ohne daß wir eine spezielle Beschaltung ins Auge fassen. Wir nehmen lediglich an, daß u(t) und i(t) periodisch sind, so daß wir die mittlere Leistung, die durch das Tor von links nach rechts u ¨ bertragen wird, wie folgt bestimmen und durch die Quellspannung e(t) = u(t) + R i(t) und den Strom i(t) ausdr¨ ucken k¨onnen: P = M{u(t)i(t)} = M{e(t)i(t) − R i2(t)} Erg¨anzen wir das Argument des Mittelwertoperators zu einem vollst¨andigen Quadrat, so k¨onnen wir nach der erforderlich werdenden Korrektur schreiben 1 1 1 2 2 2 P = (1.117) M{e (t)} − M [e(t) − 2R i(t)] ≤ M{e (t)} . 4R 4R 4R Die maximale mittlere Leistung, die von der Quelle abgegeben werden kann, ist folglich durch 1 E02 |Eν |2 2 + . = M{e (t)} = 4R 4R ν=1 8R ∞
Pmax
42-1.7
Fastperiodische Signale
Fourier-Reihen
gegeben. Da der Mittelwert M {[e(t) − 2R i(t)]2} immer nichtnegativ ist, wird die maximale Leistung gerade abgegeben, wenn e(t) = 2R i(t) bzw. u(t) = R i(t) gilt, d. h., wenn die widerstandsbehaftete Quelle mit einem Widerstand abgeschlossen wird, der gleich dem Innenwiderstand ist.
1.7
Fastperiodische Signale
In der Praxis treten gelegentlich Signale auf, die aus Summen von Exponentialschwingungen bestehen, d. h. die Form Xν e jων t (1.118) ν
besitzen, wobei die Frequenzen ων aber keine ganzzahligen Vielfache einer Grundfrequenz sind. Das einfachste derartige Signal ist offenbar gegeben durch x(t) = e jω1 t + e jω2 t ,
(1.119)
wobei der Quotient ω1 /ω2 und somit auch das Verh¨altnis der (primitiven) Perioden T1 = 2π/|ω1 | und
T2 = 2π/|ω2 |
(1.120)
irrational ist. Man kann sich leicht davon u ¨berzeugen, daß x(t) nicht periodisch ist. Denn w¨are etwa T eine Periode von x(t), so m¨ ußte insbesondere gelten x(0) = x(T ) bzw. 2 = e jω1 T + e jω2 T . Hieraus folgte aber, daß es zwei ganze Zahlen m1 und m2 gibt, so daß gilt ω1 T = m1 2π
und ω2 T = m2 2π .
unglichen Mit anderen Worten, der Quotient ω1 /ω2 = m1/m2 w¨are rational, was der urspr¨ Annahme widerspr¨ache. Also kann es keine Zahl T mit der Eigenschaft x(t) = x(t + T ) bzw. |x(t + T ) − x(t)| = 0 geben. Da jede irrationale Zahl aber beliebig genau durch eine rationale approximiert werden ur die Perioden (1.120) kann, lassen sich zwei nat¨ urliche Zahlen n1 und n2 bestimmen, so daß f¨ gilt n1 T1 ≈ n2 T2 bzw. δ := n1 T1 − n2 T2 ≈ 0 . W¨ahlen wir dann T = n1T1 − δ/2 = n2 T2 + δ/2 , so folgt |e jω1 (t+T ) − e jω1 t| = 2| sin(ω1 δ/4)| ≈ 0
Fourier-Reihen
Fastperiodische Signale
1.7-43
und |e jω2 (t+T ) − e jω2 t | = 2| sin(ω2 δ/4)| ≈ 0 . Wegen der Dreiecksungleichung |x(t + T ) − x(t)| ≤ |e jω1 (t+T ) − e jω1 t | + |e jω2 (t+T ) − e jω2 t | erhalten wir schließlich |x(t + T ) − x(t)| ≈ 0 . Dieses Ergebnis l¨aßt sich mathematisch auch pr¨aziser formulieren, und zwar kann gezeigt werden, daß es zu jedem (beliebig kleinen) ε > 0 eine Zahl T = T (ε) gibt, so daß gilt |x(t + T ) − x(t)| < ε . Bei einer Verschiebung um T geht das Signal also nicht exakt in sich selbst u ¨ ber, sondern nur n¨aherungsweise. Wir sagen daher, das Signal x(t) ist fastperiodisch. Besteht x(t) nicht nur aus zwei, sondern aus mehreren, etwa n, Exponentialschwingungen, d. h., ist x(t) durch einen Ausdruck der Form n Xν e jων t , (1.121) x(t) = ν=1
gegeben, so gilt entsprechendes. Auch dann kann gezeigt werden, daß zu jedem ε > 0 eine Zahl T = T (ε) existiert, so daß gilt |x(t + T ) − x(t)| < ε . Daher wird auch ein derartiges Signal als fastperiodisch bezeichnet. Auf die Theorie der fastperiodischen Signale soll hier nicht n¨aher eingegangen werden. Es sei lediglich erw¨ahnt, daß fastperiodische Signale durch Summen (Reihen) der Form (1.121) repr¨asentiert werden k¨onnen, wobei aber die obere Grenze i. allg. durch ∞ zu ersetzen ist. Um jegliche Konvergenzschwierigkeiten zu vermeiden, wollen wir im folgenden nur fastperiodische Signale betrachten, die durch endliche Summen u ¨ ber Exponentialschwingungen dargestellt werden. Ein derartiges Signal tritt beispielsweise bei der sogenannten Amplitudenmodulation auf, wenn das modulierende Signals sinusf¨ormig ist. Das Ergebnis des Modulationprozesses lautet dann x(t) = [1 + m · cos(ω0 t + α)] cos Ωt , wobei m, ω0 , Ω und α reelle Konstanten sind. Stellen wir die Cosinusfunktion jeweils durch die Exponentialfunktion dar, dann k¨onnen wir schreiben x(t) =
m m 1 jΩt e + e− jΩt + e jα e j(Ω+ω0 )t + e− j(Ω−ω0 )t + e− jα e j(Ω−ω0 )t + e− j(Ω+ω0 )t . 2 4 4
Ist das Verh¨altnis ω0 /Ω irrational, so trifft dies offenbar auch f¨ ur (Ω + ω0 )/Ω und (Ω − ω0 )/Ω zu. Folglich ist in diesem Fall das Ergebnis der Modulation, das sich mit dem Re-Operator auch in der Form & ' m x(t) = Re e jΩt + e jα e j(Ω+ω0 )t + e− j(Ω−ω0 )t 2 schreiben l¨aßt, ein fastperiodisches Signal.
44-1.7
Fastperiodische Signale
Fourier-Reihen
Wird ein fastperiodisches Signal durch ein lineares konstantes System u ¨ bertragen, so kann die Antwort in gleicher Weise berechnet werden wie im Fall eines periodischen Eingangssi¨ gnals. Lautet etwa die Ubertragungsfunktion H( jω) und ist das Eingangssignal durch (1.121) gegeben, so erhalten wir f¨ ur das Ausgangssignal [vgl. (1.39)] y(t) =
n
H( jων )Xν e jων t .
ν=1
F¨ ur fastperiodische Signale lassen sich ¨ahnliche Zusammenh¨ange nachweisen wie f¨ ur periodische. Wegen der besonderen Bedeutung f¨ ur die Anwendungen wollen wir hier nur die Parsevalsche Gleichung n¨aher betrachten. Um diese u ¨ bersichtlich schreiben zu k¨onnen, werden wir zun¨achst den Mittelwertoperator geeignet verallgemeinern und ihn wie folgt definieren: 1 lim M{f(t)} := a→∞ a+b b→∞
b
f(t)dt .
(1.122)
−a
Wenn f(t) periodisch ist, kann gezeigt werden, daß dieser Mittelwert gleich demjenigen ist, der sich durch Mittelung u ¨ ber eine Periode ergibt. Aus diesem Grund durften wir zur Kennzeichnug des Operators das gleiche Formelzeichen verwenden wie in (1.47). Man kann sich leicht davon u ¨berzeugen, daß die im Abschnitt 1.4 angegebenen Regeln auch bei Anwendung des in (1.122) definierten Operators g¨ ultig bleiben. Wir m¨ ussen lediglich voraussetzen, daß f¨ ur die Funktionen f(t) und g(t), die ja nun nicht mehr periodisch sein m¨ ussen, der Mittelwert jeweils existiert. Die Regel 7 kann jetzt sogar allgemeiner formuliert und durch jωt ur ω ∈ R\{0} M{e } = 0 f¨
(1.123)
ersetzt werden. Der Beweis ergibt sich sofort aus der Absch¨atzung
jωb
b
e − e− jωa
jωt
≤ 2 , ω = 0 .
e dt =
|ω|
jω −a Da das Integral also beschr¨ankt bleibt, strebt 1 a+b
b
e jωt dt −a
f¨ ur a → ∞ und/oder b → ∞ gegen null. Gegeben seien nun die beiden fastperiodischen Signale x(t) =
n
Xν e
jων t
und y(t) =
ν=1
n
Yν e jων t ,
ν=1
wobei die Koeffizienten Xν und Yν beliebige komplexe Konstanten und die (reellen) Frequenzen ων alle verschieden voneinander sind. Dann gilt die Parsevalsche Gleichung ∗
M{x(t)y (t)} =
n ν=1
Xν Yν∗ ,
(1.124)
Fourier-Reihen
Fastperiodische Signale
1.7-45
die f¨ ur x(t) = y(t) die Form M{|x(t)| } = 2
n
|Xν |2
(1.125)
ν=1
annimmt. Zum Beweis bestimmen wir den Mittelwert des Produkts x(t)y ∗(t) =
n n
Xν Yµ∗ e j(ων −ωµ )t
(1.126)
ν=1 µ=1
und beachten M{e
j(ων −ωµ )t
}=
ur ων = ωµ M{1} = 1 f¨ . 0 f¨ ur ων = ωµ
Von den Gliedern der Doppelsumme in (1.126) bleiben nach der Mittelwertbildung also, wie in (1.124) behauptet, nur die Terme Xν Yν∗ u ¨ brig. Stellen die Signale x(t) und y(t) beispielsweise die (reelle) Spannung und den (reellen) Strom an einem Tor dar, so repr¨asentiert M{x(t)y(t)} = M{x(t)y ∗(t)} die mittlere durch das Tor u ¨ bertragene Leistung. Aufgrund der Parsevalschen Gleichung kann dann auch hier der Schluß gezogen werden, daß die Gesamtleistung gleich der Summe der den einzelnen Frequenzen zuzuordnenden Leistungen ist.
46-1.7
Fastperiodische Signale
Fourier-Reihen
KAPITEL 2
Die Fourier-Transformation Wir haben gesehen, daß unter sehr allgemeinen Bedingungen ein periodisches Signal x(t) = x(t + T ) durch eine Summe von (ggfs. unendlich vielen) Exponentialschwingungen dargestellt werden kann, d. h. durch einen Ausdruck der Form x(t) =
Xν e jνΩt
(2.1)
ν
wobei die Koeffizienten Xν gem¨aß 1 Xν = T
T /2
x(t)e− jνΩt dt , T = 2π/Ω
−T /2
¨ bestimmt werden k¨onnen. Dieses Ergebnis hat f¨ ur die Berechnung der Ubertragung periodischer Signale durch lineare Systeme eine sehr große Bedeutung. Da n¨amlich die Exponenti¨ alschwingungen Eigenfunktionen eines derartigen Systems sind, kann aufgrund des Uberlagerungsprinzips die Reaktion des Systems auf eine periodische Erregung sehr einfach ermittelt werden [siehe (1.102)]. Wie wir im letzten Abschnitt des 1. Kapitels gesehen haben, gilt diese Aussage auch f¨ ur fastperiodische Signale, da diese sich ebenfalls durch Summen u ¨ ber Exponentialschwingungen darstellen lassen. In diesem Kapitel werden wir zeigen, daß Signale, die weder periodisch noch fastperiodisch sind, in ¨ahnlicher Weise dargestellt werden k¨onnen. Hier tritt zwar keine Summe, wohl aber ein Integral u ¨ ber Exponentialschwingungen auf. Unter Bedingungen, die in der Praxis eigentlich immer erf¨ ullt sind, l¨aßt sich ein derartiges Signal, es laute x(t), darstellen durch ein FourierIntegral, d. h. durch ein Integral der Form ∞ 1 X( jω)e jωt dω , (2.2) x(t) = 2π −∞ wobei die Funktion X( jω) mit Hilfe der Fourier-Transformation gewonnen wird, die Hauptgegenstand der Er¨orterungen in diesem Kapitel ist. ¨ Um die Ubertragung des in (2.2) gegebenen Signals durch ein lineares System mit der ¨ Ubertragungsfunktion H( jω) zu berechnen, interpretieren wir das Integral als Grenzwert einer Summe von gewichteten Exponentialschwingungen, d. h. x(t) = lim
∆ω→0
∆ω ν
2π
X( jων )e jων t
mit −∞ < · · · < ω−1 < ω0 < ω1 < · · · < ∞ , 47
∆ω = ων − ων−1 .
48-2.1
Definition der Fourier-Transformation
Fourier-Transformation
Die Antwort des Systems auf jede einzelne Schwingung lautet offenbar ∆ω H( jων )X( jων )e jων t . 2π Unter Beachtung des Superpositionsprinzips und der Annahme, daß wir anschließend den Grenz¨ ubergang ausf¨ uhren k¨onnen, erhalten wir dann f¨ ur das Ausgangssignal y(t) =
∆ω
lim
∆ω→0
1 = 2π
2π
ν ∞
H( jων )X( jων )e jων t
H( jω)X( jω)e jωt dω .
(2.3)
−∞
Wir werden auf diesen Zusammenhang in Abschnitt 2.6 zur¨ uckkommen.
2.1
Definition der Fourier-Transformation
Gegeben sei ein reelles oder komplexwertiges Signal x(t). Wir setzen zun¨achst nur voraus, daß x(t) st¨ uckweise glatt und u ¨ber (−∞, ∞) absolut integrierbar ist, d. h., daß das Integral ∞ |x(t)|dt −∞
konvergiert. Die Fourier-Transformierte von x(t) wird dann definiert durch
∞
X( jω) =
x(t)e− jωt dt .
(2.4)
−∞
¨ Dieser Ubergang von der Zeitfunktion x(t) zu der Funktion X( jω) heißt Fourier-Transformation und wird symbolisch durch X( jω) = F {x(t)}
(2.5)
ausgedr¨ uckt. Statt von der Fourier-Transformierten X( jω) werden wir h¨aufig von der zu x(t) geh¨origen Frequenzfunktion oder von der Spektralfunktion sprechen. Wir sagen auch, das Signal x(t) wird durch (2.4) in den Frequenzbereich transformiert. Als Variable im Frequenzbereich ¨ haben wir hier, wie schon bei der Ubertragungsfunktion H( jω) im Abschnitt 1.3, jω und nicht nur ω gew¨ahlt, und zwar aus ¨ahnlichen Gr¨ unden wie dort. Wir wollen nun auf anschauliche Weise zeigen, daß x(t) durch das Integral (2.2) dargestellt ur werden kann. Zu diesem Zweck ordnen wir x(t) wie folgt ein periodisches Signal xT (t) zu: F¨ −T /2 < t < T /2 gelte xT (t) = x(t) und außerhalb dieses Intervalls werde xT (t) periodisch mit der Periode T fortgesetzt. Diese Zuordnung ist anhand eines einfachen Beispiels in Bild 2.1 erl¨autert. Offenbar gilt f¨ ur alle Zeitpunkte t lim xT (t) = x(t) .
(2.6)
T →∞
Im Frequenzbereich definieren wir die Funktion XT ( jω) =
T /2
−T /2
− jωt
xT (t)e
T /2
dt = −T /2
x(t)e− jωtdt ,
Fourier-Transformation
Definition der Fourier-Transformation
2.1-49
Bild 2.1: Aperiodisches Signal x(t) und zugeordnetes T -periodisches Signal xT (t)
die f¨ ur T → ∞ gegen X( jω) strebt, d. h. lim XT ( jω) = X( jω) .
(2.7)
T →∞
Da mit x(t) auch xT (t) st¨ uckweise glatt ist, l¨aßt sich xT (t) mit den Fourier-Koeffizienten 1 Xν = T
T /2 −T /2
xT (t)e− jνΩt dt =
Ω XT ( jνΩ) , 2π
Ω = 2π/T
in eine konvergente Fourier-Reihe entwickeln: ∞ Ω XT ( jνΩ)e jνΩt . xT (t) = 2π ν=−∞
(2.8)
Um diesen Ausdruck leichter interpretieren zu k¨onnen, wollen wir nun folgende Bezeichnungs¨anderungen vornehmen: ων := νΩ ,
∆ω := ων − ων−1 = Ω .
Die Fourier-Reihe (2.8) nimmt dann die Form ∞ 1 XT ( jων )e jων t ∆ω xT (t) = 2π ν=−∞
(2.9)
an, die uns an eine Riemannsche Summe erinnert. Stellen wir schließlich jegliche Bedenken in bezug auf die Zul¨assigkeit des Vertauschens von Grenz¨ uberg¨angen zur¨ uck, so erhalten wir f¨ ur T → ∞ bzw. ∆ω → 0 unter Ber¨ ucksichtigung von (2.6) und (2.7) aus (2.9) das gew¨ unschte Ergebnis, d. h. ∞ 1 x(t) = X( jω)e jωt dω . (2.10) 2π −∞
50-2.1
Definition der Fourier-Transformation
Fourier-Transformation
Die hierdurch definierte Abbildung vom Frequenzbereich in den Zeitbereich stellt die Umkehrung der Fourier-Transformation (2.4) dar. Sie wird als inverse Fourier-Transformation oder Fourier-R¨ucktransformation bezeichnet und symbolisch durch x(t) = F −1 {X( jω)} ausgedr¨ uckt. Setzen wir (2.4) in (2.10) ein, so folgt ∞ ∞ 1 x(τ )e jω(t−τ )dτ dω , x(t) = 2π −∞ −∞
(2.11)
(2.12)
wobei die in (2.4) auftretende Integrationsvariable t in τ umbenannt wurde. Die Darstellung eines Signals x(t) durch seine Fourier-Transformierte gem¨aß (2.10) ist offenbar genau dann gew¨ahrleistet, wenn die Gleichung (2.12) f¨ ur alle t erf¨ ullt ist. Es ist klar, daß dies nur sichergestellt sein kann, wenn x(t) gewissen einschr¨ankenden Bedingungen unterworfen wird. Insbesondere muß x(t) f¨ ur alle t der Beziehung ) 1( (2.13) x(t) = x(t − 0) + x(t + 0) 2 gen¨ ugen, die wir im Zusammenhang mit den Fourier-Reihen bereits im Abschnitt 1.65 kennengelernt haben. Hierdurch werden die Funktionswerte an den Sprungstellen, die ja die einzig m¨oglichen Unstetigkeiten einer st¨ uckweise glatten Funktion sind, genau festgelegt. Der exakte mathematische Beweis f¨ ur die G¨ ultigkeit der Gleichung (2.12) und damit f¨ ur die Darstellbarkeit einer Funktion durch ein Fourier-Integral kann und soll hier nicht erbracht werden1. Es sei lediglich erw¨ahnt, daß die bislang genannten Bedingungen 1: x(t) ist u ¨ ber (−∞, ∞) absolut integrierbar, 2: x(t) ist st¨ uckweise glatt, 3: x(t) =
) 1( x(t − 0) + x(t + 0) 2
gemeinsam mit der Forderung 4:
lim x(t) = 0
|t|→∞
(2.14)
hinreichend, aber, wie wir nachfolgend noch sehen werden, keineswegs notwendig f¨ ur die G¨ ultigkeit von (2.12) sind. Bevor wir uns im Detail mit den Eigenschaften der Fourier-Transformation befassen, ¨ wollen wir an einem einfachen Beispiel den Ubergang von den Fourier-Koeffizienten zur Fourier-Transformation noch einmal anschaulich erl¨autern. Wir betrachten den in Bild 2.2a gezeigten Rechteckimpuls x(t), den wir mit Hilfe der sogenannten rect-Funktion, ur |ξ| > 1 0 f¨ 1/2 f¨ ur |ξ| = 1 , (2.15) rect(ξ) := 1 f¨ ur |ξ| < 1 1
Dieses Problem wird im Zusammenhang mit der diskreten Fourier-Transformation noch einmal kurz er¨ortert. (Siehe die Ausf¨ uhrungen im Anschluß an (2.266) auf Seite 114.)
Fourier-Transformation
Definition der Fourier-Transformation
2.1-51
x(t) = rect(t/τ )
a)
1
0
−τ
b)
t
τ
xT (t) 1
−T
−τ
0
τ
T
t
Bild 2.2: (a) Rechteckimpuls, (b) zugeordnetes periodisches Signal
durch x(t) = rect(t/τ )
(2.16)
ausdr¨ ucken k¨onnen, und das durch periodische Fortsetzung mit der Periode T > 2τ hieraus gebildete Signal xT (t) (Bild 2.2b). Die Fourier-Transformierte von x(t) ergibt sich zu τ ∞ 2τ f¨ ur ω = 0 2 sin ωτ . x(t)e− jωt dt = e− jωt dt = X( jω) = f¨ ur ω = 0 −∞ −τ ω Unter Verwendung der si-Funktion, die durch 1 f¨ ur ξ = 0 sin ξ si(ξ) := f¨ ur ξ = 0 ξ
(2.17)
definiert ist, k¨onnen wir X( jω) schreiben als X( jω) = 2τ si(ωτ ) . F¨ ur die Fourier-Koeffizienten des Signals xT (t) erhalten wir 1 1 τ − jνΩt 2τ si(νΩτ ) = X( jνΩ) . e dt = Xν = T −τ T T
(2.18)
(2.19)
In Bild 2.3 ist der Graph der Fourier-Transformierten, die hier im Gegensatz zum allgemeinen Fall reellwertig ist, dargestellt. Gleichzeitig sind die mit T multiplizierten Fourier-Koeffizienten T Xν als Linien (sogenannte Spektrallinien) eingezeichnet, und zwar f¨ ur den
52-2.2
Eigenschaften der Fourier-Transformation
Fourier-Transformation
2τ = T X0 T X1
X( jω) = 2τ si(ωτ )
T X2
−2/ω
2/ω −2
−1
0
1
2
ωτ /π −2/ω
2/ω
Bild 2.3: Fourier-Transformierte des Rechteckimpulses aus Bild 2.2a; die parallel zur Ordinate eingetragenen Linien kennzeichnen die mit T multiplizierten Fourier-Koeffizienten des periodischen Signals aus Bild 2.2b
Fall T = 8τ bzw. Ω = π/(4τ ). Mit zunehmender Periode T wird der Abstand der Spektrallinien immer kleiner und damit ihre Zahl in jedem festen Frequenzintervall immer gr¨oßer. F¨ ur T → ∞ geht dann das aus den Spektrallinien bestehende diskrete Spektrum in ein kontinuierliches Spektrum u ¨ ber. Hierbei ist zu beachten, daß jede einzelne Frequenz nur mit einem verschwindenden Anteil an dem gesamten Spektrum beteiligt ist; denn die Fourier-Koeffizienten streben, wie (2.19) zu entnehmen ist, f¨ ur T → ∞ gegen Null.
2.2
Eigenschaften der Fourier-Transformation
Viele der in diesem Abschnitt zu diskutierenden Eigenschaften sind in a¨hnlicher Form schon im Zusammenhang mit den Fourier-Reihen im Abschnitt 1.4.3 diskutiert worden. Da auch die Beweise h¨aufig ¨ahnlich gef¨ uhrt werden k¨onnen, d¨ urfen wir uns bei der Begr¨ undung der Eigenschaften meistens kurz fassen. Daß X( jω) die Fourier-Transformierte von x(t) ist und somit x(t) die inverse FourierTransformierte von X( jω), wollen wir der Einfachheit halber durch x(t) ◦−−• X( jω) oder X( jω) •−−◦ x(t)
(2.20)
ausdr¨ ucken. Obwohl dies die gleiche Symbolik ist, die im Abschnitt 1.4.3 den Zusammenhang zwischen einem periodischen Signal und den zugeh¨origen Fourier-Koeffizienten bezeichnete, sind Verwechslungen nicht zu bef¨ urchten. Wir bezeichnen zwei Funktionen x(t) und X( jω), die u ¨ber die Fourier-Transformation in Beziehung stehen, als Fourier-Transformationspaar oder einfach als Transformationspaar. In diesem Sinne bilden die Funktionen (2.16) und (2.18) ein Transformationspaar, so daß wir schreiben k¨onnen rect(t/τ ) ◦−−• 2τ si(ωτ ) , τ > 0 .
(2.21)
Fourier-Transformation
2.2.1
Eigenschaften der Fourier-Transformation
2.2-53
Einige elementare Zusammenh¨ ange
Wird das Signal x(t) mit einer Konstanten multipliziert, so wird auch die Fourier-Transformierte X( jω) mit dieser Konstanten multipliziert: cx(t) ◦−−• cX( jω) .
(2.22)
Ist y(t) ein weiteres Signal mit der Fourier-Transformierten Y ( jω), so gilt x(t) + y(t) ◦−−• X( jω) + Y ( jω) .
(2.23)
Der Beweis der Eigenschaften (2.22) und (2.23), die als Homogenit¨at bzw. Additivit¨at bezeichnet werden, folgt sofort aus (2.4) oder (2.10). Beide Eigenschaften werden auch unter dem Begriff Linearit¨at zusammengefaßt. Die Fourier-Transformation des konjugiert komplexen Signals ergibt ∞ ∗ ∞ ∗ ∗ − jωt jωt x (t)e dt = x(t)e dt = X ∗ (− jω) . (2.24) F {x (t)} = −∞
−∞
Da die Funktion X ∗ (− jω) durch Konjugation beider Variablen, der unabh¨angigen und der abh¨angigen, aus X( jω) gewonnen wird, nennt man sie Bikonjugierte von X( jω). Wir wollen sie kennzeichnen durch einen Querstrich2, d. h. X( jω) := X ∗ (− jω) .
(2.25)
Wird eine Funktion zweimal hintereinander bikonjugiert, so entsteht u ¨ brigens wieder die urspr¨ ungliche Funktion: X( jω) = X( jω) . (2.26) Das in (2.24) enthaltene Ergebnis l¨aßt sich somit ausdr¨ ucken durch x(t) ◦−−• X( jω) ⇐⇒ x∗ (t) ◦−−• X( jω) .
(2.27)
Die Implikation “⇐” kann durch nochmalige Konjugation der rechten Seite von (2.27) bewiesen werden. Falls x(t) reell ist, d. h., falls x(t) der Gleichung x(t) = x∗(t) gen¨ ugt, ist die FourierTransformierte gleich ihrer Bikonjugierten. Da die Umkehrung dieser Aussage auch gilt, k¨onnen wir schreiben Re X( jω) = Re X(− jω) ∗ x(t) = x (t) ⇐⇒ X( jω) = X( jω) ⇐⇒ . (2.28) Im X( jω) = − Im X(− jω) ¨ Die rechte Aquivalenz folgt sofort aus der Definition (2.25). Dieser f¨ ur reelle Signale charakteristische Zusammenhang zwischen dem Spektrum bei positiven und negativen Frequenzen 2
Ist die unabh¨ angige Variable nicht rein imagin¨ar, sondern allgemein komplex wie etwa die komplexe Frequenz p = σ + jω, so gilt: X(p) = X ∗ (p∗ ).
54-2.2
Eigenschaften der Fourier-Transformation
Fourier-Transformation
kann ¨aquivalent durch Eigenschaften des Betrags |X( jω)| und der Phase ϕ(ω) = arc[X( jω)] ausgedr¨ uckt werden. Setzen wir X( jω) = |X( jω)|e jϕ(ω) ,
(2.29)
so folgt aus X( jω) = X ∗ (− jω) bzw. |X( jω)|e jϕ(ω) = |X(− jω)|e− jϕ(−ω) sofort |X( jω)| = |X(− jω)| und ϕ(ω) = −ϕ(−ω) + k(ω)2π , wobei k(ω) nur ganzzahlige Werte annehmen kann. Diese Beziehung zwischen ϕ(ω) und −ϕ(−ω) wollen wir symbolisch durch3 ϕ(ω) ∼ −ϕ(−ω) ¨ ausdr¨ ucken. Es besteht also folgende Aquivalenz ∗
x(t) = x (t) ⇐⇒
|X( jω)| = |X(− jω)| . arc[X( jω)] ∼ − arc[X(− jω)]
(2.30)
Da bei einem reellen Signal die Spektralfunktion gleich ihrer Bikonjugierten ist, k¨onnen wir uns bei der Fourier-R¨ ucktransformation auf eine Betrachtung der positiven Frequenzachse beschr¨anken. Spalten wir n¨amlich das Integral in (2.10) gem¨aß 0 ∞ 1 1 jωt X( jω)e dω + X( jω)e jωt dω x(t) = 2π −∞ 2π 0 in zwei Integrale auf und ersetzen in dem ersten X( jω) durch X( jω) = X ∗ (− jω), so erhalten wir nach einem Vorzeichenwechsel der Integrationsvariablen ∞ ∞ 1 1 ∗ − jωt X ( jω)e dω + X( jω)e jωt dω x(t) = 2π 0 2π 0 und k¨onnen somit als wichtiges Ergebnis festhalten 1 x(t) = x (t) ⇐⇒ x(t) = Re π ∗
∞
X( jω)e jωt dω .
(2.31)
0
Wir wollen nun den Sonderfall des reellen Signals wieder verlassen und davon ausgehen, daß die zu betrachtenden Signale komplexwertig sind. Die Fourier-Transformierte des durch Zeitumkehr aus x(t) gewonnenen Signals x(−t) ergibt sich zu ∞ ∞ − jωt F {x(−t)} = x(−t)e dt = x(t)e jωt dt = X(− jω) , −∞
3
−∞
Das Symbol ∼ bezeichnet die wie folgt definierte Relation: α(ω) ∼ β(ω) ⇐⇒
1 [α(ω) − β(ω)] ∈ Z. 2π
Fourier-Transformation
Eigenschaften der Fourier-Transformation
2.2-55
¨ so daß folgende einpr¨agsame Aquivalenz besteht: x(t) ◦−−• X( jω) ⇐⇒ x(−t) ◦−−• X(− jω) .
(2.32)
Mit Hilfe dieses Ergebnisses k¨onnen wir sehr leicht zeigen, daß eine Zerlegung der Zeitfunktion in ihren geraden und ungeraden Teil sich im Frequenzbereich widerspiegelt in einer entsprechenden Zerlegung der Spektralfunktion. Kennzeichnen wir den geraden Teil einer Funktion mit dem Index g und den ungeraden mit u, so k¨onnen wir n¨amlich schreiben x(t) ◦−−• X( jω) ⇐⇒
xg (t) ◦−−• Xg ( jω) xu (t) ◦−−• Xu ( jω)
.
(2.33)
Die N¨ utzlichkeit dieser Eigenschaft sei anhand eines einfachen Beispiels, des in Bild 2.4 dargestellten Exponentialimpulses, erl¨autert. Dieses Signal ist definiert durch ur t < 0 0 f¨ x(t) = 1/2 f¨ ur t = 0 , −αt f¨ ur t > 0 e wobei α eine positive Konstante ist. Unter Verwendung der Sprungfunktion ur t < 0 0 f¨ 1/2 f¨ ur t = 0 ε(t) := 1 f¨ ur t > 0 kann x(t) kompakter durch
x(t) = ε(t)e−αt
(2.34)
(2.35)
ausgedr¨ uckt werden. x(t) = ε(t)e−αt 1
0
1/α
t
Bild 2.4: Exponentialimpuls, definiert gem¨aß (2.35)
Die Fourier-Transformation dieses Signals ergibt
∞ ∞ e−(α+ jω)t
−αt −αt − jωt e e dt = − F {ε(t)e } = (α + jω) 0 0 1 1 e−(α+ jω)t − lim = . = t→∞ α + jω (α + jω) α + jω
(2.36)
Der Grenz¨ ubergang t → ∞ konnte ausgef¨ uhrt werden, weil α als positiv vorausgesetzt wurde. F¨ ur α < 0 existiert u ur α = 0 ¨ brigens die Fourier-Transformierte von (2.35) nicht, und f¨
56-2.2
Eigenschaften der Fourier-Transformation
Fourier-Transformation
existiert sie nur als verallgemeinerte Funktion (siehe Abschnitt 2.5). F¨ ur den geraden und den ungeraden Teil des Signals (2.35) erhalten wir xg (t) =
1 −α|t| e 2
bzw. xu (t) =
Hierbei bezeichnet sgn(·) die Signumfuktion, die −1 sgn(t) := 0 1
1 sgn(t)e−α|t| . 2
(2.37)
durch f¨ ur t < 0 f¨ ur t = 0 f¨ ur t > 0
(2.38)
definiert ist und mit der Sprungfunktion wie folgt zusammenh¨angt: sgn(t) = 2ε(t) − 1 .
(2.39)
Die Zerlegung der Fourier-Transformierten X( jω) = (α + jω)−1 in ihren geraden und ihren ungeraden Teil ergibt Xg ( jω) =
α2
α + ω2
bzw. Xu ( jω) =
− jω . + ω2
(2.40)
α2
Aus dem Transformationspaar [vgl. (2.36)] ε(t)e−αt
◦−−•
1 , α>0 α + jω
(2.41)
¨ haben wir somit unter Beachtung der Aquivalenz (2.33) zwei weitere Paare gewonnen: 1 −α|t| e 2
◦−−•
1 sgn(t)e−α|t| 2
◦−−•
α α2 + ω 2 . ω −j 2 α + ω2
(2.42a) (2.42b)
Den Graphen dieser Funktionen, die in Bild 2.5 dargestellt sind, entnehmen wir u. a., daß f¨ ur gr¨oßer werdendes α die Zeitfunktionen in Abszissen-Richtung gestaucht und die Frequenzfunktionen gedehnt werden. Wird α (unter Beachtung von α > 0) kleiner, so tritt genau die umgekehrte Wirkung auf. Dieses Ergebnis, das auch bei dem Transformationspaar (2.21) beobachtet werden kann, wenn dort der Parameter τ ver¨andert wird, gilt allgemein und kann wie folgt formuliert werden: 1 x(t) ◦−−• X( jω) (2.43) X( jω/α) . ⇒ x(αt) ◦−−• α ∈ R\{0} |α| Zum Beweis von (2.43) nehmen wir zun¨achst α > 0 an: ∞ 1 ∞ 1 − jωt X( jω/α) . x(αt)e dt = x(αt)e− j(ω/α)αtd(αt) = F {x(αt)} = α −∞ |α| ∞ ¨ F¨ ur α < 0 schreiben wir x(αt) = x(−|α|t) und beachten die Aquivalenz (2.32): F {x(−|α|t)} =
1 X(− jω/|α|) . |α|
Fourier-Transformation
Eigenschaften der Fourier-Transformation
xg (t) = e−α|t|/2
a)
0
Xg ( jω) = α/(α2 + ω 2 )
b)
1/2
1/α
1/α
−α α
t
xu (t) = sgn(t)e−α|t|/2 d)
c)
2.2-57
1/2
ω
jXu ( jω) = ω/(α2 + ω 2 ) 1/α 1/(2α)
0
1/α
−α α −1(2α)
t
ω
−1/2 Bild 2.5: Gerader und ungerader Teil des Exponentialimpulses und zugeh¨orige Spektralfunktionen
Von der Wirkung der zeitlichen Stauchung oder Dehnung eines Signals auf das Spektrum kann man sich leicht u ¨ berzeugen, indem man beispielweise ein Magnetband bei der Wiedergabe eines Musikst¨ ucks mit h¨oherer (α > 1) oder niedrigerer (0 < α < 1) Geschwindigkeit laufen l¨aßt als bei der Aufnahme. Als n¨achstes befassen wir uns mit dem Beweis und der Interpretation der beiden folgenden Aussagen (t0 und ω0 sind beliebige reelle Konstanten): x(t − t0)
◦−−•
e− jωt0 X( jω)
e jω0 t x(t)
◦−−•
X( jω − jω0 )
.
(2.44a) (2.44b)
Die Fourier-Transformation von x(t − t0) ergibt ∞ ∞ − jωt − jωt0 x(t − t0)e dt = e x(t − t0 )e− jω(t−t0 ) d(t − t0) = e− jωt0 X( jω) . F {x(t − t0 )} = ∞
−∞
Umgekehrt erhalten wir durch R¨ ucktransformation von e− jωt0 X( jω) ∞ 1 −1 − jωt0 X( jω)} = X( jω)e jω(t−t0 ) dω = x(t − t0) . F {e 2π −∞ Der Beweis der Aussage (2.44b) erfolgt analog. Dr¨ ucken wir die rechte Seite in Gleichung (2.44a) durch Betrag und Phase aus, so erhalten wir x(t − t0) ◦−−• |X( jω)|e j[ϕ(ω)−ωt0 ] . Die zeitliche Verschiebung eines Signals, die ja die Form des Signals unver¨andert bzw. unverzerrt l¨aßt, bewirkt also lediglich eine Phasen¨anderung, und zwar tritt zus¨atzlich eine lineare Phase auf.
58-2.2
Eigenschaften der Fourier-Transformation
Fourier-Transformation
Die Aussage (2.44b), die auch als Modulationssatz bezeichnet wird, ist f¨ ur die gesamte Nachrichtentechnik von allergr¨oßter Bedeutung. Durch die Multiplikation des Signals x(t) mit einer Exponentialschwingung der Frequenz ω0 wird das Spektrum von x(t) um ω0 verschoben. Von dieser Tatsache wird beispielsweise bei der sogenannten Amplitudenmodulation (AM) Gebrauch gemacht. Ist x(t) reell und soll auch das durch die spektrale Verschiebung entstehende Signal reell werden, so muß x(t) zus¨atzlich mit einer Exponentialschwingung der Frequenz −ω0 multipliziert werden und die beiden resultierenden Signale, d. h. e jω0 t x(t) und e− jω0 tx(t), m¨ ussen addiert werden: e jω0 t x(t) + e− jω0 t x(t) ◦−−• X( jω − jω0 ) + X( jω + jω0 ) bzw.
1 1 (2.45) cos(ω0 t) · x(t) ◦−−• X( jω − jω0 ) + X( jω + jω0 ) . 2 2 Die Verschiebung des Spektrums muß also zugleich in Richtung positiver und in Richtung negativer Frequenzen erfolgen. Man kann sich leicht vergewissern, daß die rechte Seite von (2.45) bikonjugiert zu sich selbst ist, d. h. die Spektralfunktion eines reellen Signals repr¨asentiert, falls X( jω) diese Eigenschaft besitzt. In den Beziehungen (2.44a) und (2.44b) kommt eine gewisse Symmetrie zwischen der Fou¨ rier-Transformation und der R¨ ucktransformation zum Ausdruck. Ahnliches werden wir auch bei anderen Eigenschaften der Fourier-Transformation antreffen. Um die Ursache hierf¨ ur erkennen zu k¨onnen, betrachten wir noch einmal genauer die beiden Transformationsformeln (2.4) und (2.10), verwenden aber als Variable im Frequenzbereich statt jω die “gew¨ohnliche” * Frequenz f = ω/2π. Mit X(f) := X( j2πf) k¨onnen wir dann schreiben ∞ * x(t)e− j2πf t dt (2.46) X(f) = −∞
und
∞
x(t) =
j2πf t * df . X(f)e
(2.47)
−∞
Die beiden Integrale unterscheiden sich also nur im Vorzeichen des Arguments der Exponen* tialfunktion. Bilden etwa die Funktionen x(t) und X(f) = X( j2πf) ein Transformationspaar, * das wir trotz des Wechsels der Frequenzvariablen mit x(t) ◦−−• X(f) bezeichnen, so folgt sofort * aus einem Vergleich von (2.46) und (2.47), daß auch X(−t) und x(f) ein Transformationspaar bilden. Da das Umgekehrte offenbar auch gilt, k¨onnen wir schreiben * * x(t) ◦−−• X(f) ⇐⇒ X(−t) ◦−−• x(f) .
(2.48)
Zu jedem Transformationspaar l¨aßt sich aufgrund dieser Symmetrie sofort ein weiteres Transformationspaar angeben. Als ein einfaches Beispiel betrachten wir das Paar (2.41) und stellen es in der Form 1 , α>0 ε(t)e−αt ◦−−• α + j2πf dar. Mit (2.48) folgt hieraus 1 ◦−−• ε(f)e−αf , α > 0 α − j2πt und weiter unter Verwendung von (2.43) und ω = 2πf 1 ◦−−• 2πε(ω)e−αω , α − jt
α > 0.
Fourier-Transformation
2.2.2
Eigenschaften der Fourier-Transformation
2.2-59
Differentiations- und Integrationss¨ atze
Gegeben sei ein Fourier-Transformationspaar x(t) ◦−−• X( jω), wobei x(t) ein stetiges Signal mit st¨ uckweise glatter Ableitung x(t) ˙ ist. Die Fourier-Transformation von x(t) ˙ ergibt dann ∞
∞ ∞ − jωt − jωt F {x(t)} ˙ = x(t)e ˙ dt = x(t)e + jω x(t)e− jωt dt .
−∞
−∞
−∞
Setzen wir gem¨aß (2.14) x(∞) = x(−∞) = 0 voraus, so folgt F {x(t)} ˙ = jωX( jω). Dieses Resultat k¨onnen wir auch durch R¨ ucktransformation der Funktion jωX( jω) best¨atigen. Um das Integral ∞ 1 −1 F { jωX( jω)} = X( jω) jωe jωt dω 2π −∞ d jωt e = jωe jωt und setzen voraus, daß wir die Integration u auszuwerten, beachten wir dt ¨ber −∞ < ω < ∞ und die Differentiation nach t vertauschen d¨ urfen: ∞ 1 d F −1 { jωX( jω)} = X( jω)e jωt dω = x(t) ˙ . 2π dt −∞
Nun sei die Frequenzfunktion X( jω) stetig und habe eine st¨ uckweise glatte Ableitung. Auf ¨ahnliche Weise wie zuvor k¨onnen wir dann beweisen, daß tx(t) ◦−−• jdX/dω ein FourierTransformationspaar ist. Fassen wir die beiden Ergebnisse, die als Differentiationss¨atze bezeichnet werden, zusammen, so k¨onnen wir schreiben x(t) ˙ ◦−−• jωX( jω) ⇐ x(t) ◦−−• X( jω) ⇒ tx(t) ◦−−• j
dX( jω) , dω
(2.49)
wobei die erw¨ahnten Stetigkeitseigenschaften jeweils erf¨ ullt seien. Beim Beweis der rechten Implikation m¨ ussen wir im Zusammenhang mit der bei der R¨ ucktransformation auszuf¨ uhrenden partiellen Integration annehmen, daß auch die Frequenzfunktion im Unendlichen gegen null strebt, d. h. (2.50) lim X( jω) = lim X( jω) = 0 . ω→∞
ω→−∞
Dies ist die Aussage des sogenannten Riemann-Lebesgueschen Lemmas, auf das wir im folgenden Unterabschnitt etwas n¨aher eingehen werden. Wir betrachten nun ein einfaches Beispiel f¨ ur die Anwendung der beiden Differentiationss¨atze. Um die sogenannte Gauß-Funktion x(t) = e−γt
2 /2
, γ = positive Konstante
(2.51)
zu transformieren, stellen wir sie durch die lineare Differentialgleichung x˙ + γtx = 0 , x(0) = 1
(2.52)
dar. Wir k¨onnen leicht nachpr¨ ufen, daß (2.51) die einzige L¨osung dieser Gleichung ist. Da 2 ur alle t ungleich null ist, k¨onnen wir jede beliebige Funktion x(t) repr¨asenn¨amlich e−γt /2 f¨ 2 tieren durch x(t) = c(t)e−γt /2, wobei c(t) geeignet gew¨ahlt wird. Setzen wir diese Funktion in (2.52) ein, so finden wir c(t) ˙ = 0 bzw. c(t) = const. Wegen x(0) = 1 gilt c = 1. Die Fourier-Transformation der Differentialgleichung ergibt unter Beachtung von (2.49) jωX + jγ
dX = 0 bzw. dω
dX 1 + ωX = 0 . dω γ
(2.53)
60-2.2
Eigenschaften der Fourier-Transformation
Fourier-Transformation
Sieht man von der Bezeichnung der Variablen und der Konstanten ab, so ist dieses offenbar die gleiche Differentialgleichung wie (2.52). Ihre L¨osung lautet daher X( jω) = C · e−ω
2 /(2γ)
.
(2.54)
Die Fourier-Transformierte einer Gauß-Funktion ist also ebenfalls eine Gauß-Funktion. Die Konstante C m¨ ussen wir auf anderem Wege bestimmen. Eine M¨oglichkeit besteht darin, das Integral ∞
∞
x(t)dt =
C = X(0) = −∞
e−γt
2 /2
dt
(2.55)
−∞
auszuwerten. Eine interessante Alternative hierzu ergibt sich durch die kombinierte Anwendung von (2.48) und (2.43). Aus dem (noch unvollst¨andigen) Transformationspaar e−γt
2 /2
◦−−• C e−ω
2 /(2γ)
= C e−2π
2 f 2 /γ
(2.56)
folgt wegen (2.48) C e−2π
2 t2 /γ
◦−−• e−γf
2 /2
= e−γω
2 /(8π2 )
.
Wenden wir hierauf die Beziehung (2.43) mit α = γ/(2π) an, so erhalten wir C e−γt
2 /2
◦−−•
2π −ω2 /(2γ) . e γ
(2.57)
Ein Vergleich von (2.56) mit (2.57) f¨ uhrt schließlich auf C 2 = 2π/γ bzw. C = 2π/γ , so daß wir folgendes Transformationspaar gefunden haben: + e
−γt2 /2
◦−−•
2π −ω2 /(2γ) e . γ
(2.58)
Daß C positiv sein muß, k¨onnen wir (2.55) entnehmen. x(t) = e−γt
a)
2 /2
X( jω) = C e−ω C = 2π/γ
b)
1
√ 1/ e
−1/σ
−σ
t
1/σ
σ
2 /(2γ)
ω
Bild 2.6: Gauß-Funktion, definiert gem¨aß (2.51), und zugeh¨orige Spektralfunktion (σ =
√ γ)
Wir wenden uns nun der Umkehrung der beiden Differentiationss¨atze zu. Das Signal x(t) mit der Fourier-Transformierten X( jω) sei st¨ uckweise glatt und das Integral
t
y(t) =
x(τ )dτ −∞
(2.59)
Fourier-Transformation
Eigenschaften der Fourier-Transformation
2.2-61
existiere f¨ ur alle t. Ferner gelte
∞
y(∞) =
x(τ )dτ = 0 , d. h. X(0) = 0 .
(2.60)
−∞
Die Fourier-Transformation des Signals y(t) ergibt dann mit y(t) ˙ = x(t)
∞ ∞ ∞ y(t)e− jωt
1 − jωt y(t)e dt = + x(t)e− jωt dt F {y(t)} =
− jω −∞ jω −∞ −∞ bzw. wegen y(−∞) = y(∞) = 0 F {y(t)} =
1 X( jω) . jω
(2.61)
Die Definitionsl¨ ucke, die f¨ ur ω = 0 in (2.61) auftritt, kann unter Umst¨anden stetig geschlossen werden. Die Voraussetzung (2.60) ist zwar eine notwendige Bedingung hierf¨ ur, sie ist aber keinesfalls hinreichend. Hinreichend ist offenbar die Existenz des Grenzwertes dX X( jω) = (0) . ω→0 ω dω
(2.62)
lim
Ein Blick auf das rechte Transformationspaar in (2.49) zeigt, daß jdX/dω die FourierTransformierte von tx(t) ist. Folglich ist die Existenz des Grenzwertes in (2.62) gleichbedeutend mit der Konvergenz des Integrals ∞ dX tx(t)dt . (0) = − j dω −∞ Die Definitionsl¨ ucke in (2.61) kann also stetig geschlossen werden, wenn dieses Integral existiert. Daß die R¨ ucktransformation der Frequenzfunktion in (2.61) auf das Integral (2.59) f¨ uhrt, l¨aßt sich auch zeigen, jedoch nicht mit den uns zur Verf¨ ugung stehenden Mitteln. Als wichtiges Ergebnis haben wir somit den Integrationssatz : x(t) ◦− −• X( jω) ∞
X(0) = −∞
x(t)dt = 0
⇒
t −∞
x(τ )dτ ◦−−•
X( jω) . jω
(2.63)
Integrieren wir nicht im Zeit-, sondern im Frequenzbereich, so k¨onnen wir mit einer a¨hnlichen Argumentation die folgende Aussage beweisen: ω x(t) ◦−−• X( jω) x(t) ∞ 1 ⇒ X( jv)dv . ◦−−• − j x(0) = X( jω)dω = 0 t −∞ 2π −∞
(2.64)
Im Abschnitt 2.5 werden wir im Zusammenhang mit der Diskussion der verallgemeinerten Funktionen sehen, daß die in (2.63) und (2.64) erw¨ahnten Bedingungen X(0) = 0 bzw. x(0) = 0 auch fallengelassen werden k¨onnen. Allerdings tritt dann bei der Transformation jeweils die sogenannte Deltafunktion auf.
62-2.2
2.2.3
Eigenschaften der Fourier-Transformation
Fourier-Transformation
Verhalten der Fourier-Transformierten im Unendlichen
Im Zusammenhang mit der Herleitung der Differentiationss¨atze wurde erw¨ahnt, daß die Funktion ∞ x(t)e− jωt dt
X( jω) =
(2.65)
−∞
im Unendlichen gegen null strebt. Dies ist zumindest dann der Fall, wenn, wie bislang vorausgesetzt, das Signal x(t) absolut integrierbar ist. Der Beweis dieser als Riemann-Lebesguesches Lemma bezeichneten Aussage ist relativ einfach, wenn man annimmt, daß das Integral u ¨ ber |x(t) − x(t − τ )| f¨ ur τ → 0 verschwindet, d. h. ∞ |x(t) − x(t − τ )|dt = 0 . (2.66) lim τ →0
−∞
Ersetzen wir in dem Integral (2.65) die Variable t durch t − π/ω, so folgt ∞ ∞ − jω(t−π/ω) x(t − π/ω)e dt = − x(t − π/ω)e− jωt dt . X( jω) = −∞
(2.67)
−∞
Das arithmetische Mittel von (2.65) und (2.67) ergibt dann 1 ∞ [x(t) − x(t − π/ω)]e− jωt dt . X( jω) = 2 −∞
(2.68)
Sch¨atzen wir nun |X( jω)| mit Hilfe der verallgemeinerten Dreiecksungleichung ab, so erhalten wir unter Ber¨ ucksichtigung von |e− jωt | = 1 1 ∞ |x(t) − x(t − π/ω)|dt |X( jω)| ≤ 2 −∞ und folglich wegen (2.66) das gew¨ unschte Ergebnis
∞ −∞
|x(t)|dt < ∞ ⇒
lim |X( jω)| = 0 .
|ω|→∞
(2.69)
Es bleibt noch zu zeigen, daß die Annahme (2.66) gerechtfertigt war. Da mit x(t) auch x(t) − x(t − τ ) absolut integrierbar ist, k¨onnen die Integrale
−T −∞
∞
|x(t) − x(t − τ )|dt und
|x(t) − x(t − τ )|dt
T
durch Wahl einer hinreichend großen Zahl T beliebig klein gemacht werden, so daß nur noch nachzuweisen ist, daß f¨ ur τ → 0 das Integral T |x(t) − x(t − τ )|dt −T
verschwindet. Ist x(t) (gleichm¨aßig) stetig, d. h., existiert zu jedem ε > 0 ein τ0 = τ0 (ε) > 0, so daß f¨ ur alle t und alle τ mit |τ | < τ0 stets gilt |x(t) − x(t − τ )| < ε
Fourier-Transformation
und daher
Eigenschaften der Fourier-Transformation
2.2-63
T
−T
|x(t) − x(t − τ )|dt < 2T ε ,
so ist das Verschwinden dieses Integrals gew¨ahrleistet, da ja ε beliebig klein vorgegeben werden kann. Ohne Beweis sei erw¨ahnt, daß f¨ ur Funktionen, die bis auf endlich viele Sprungstellen endlicher Sprungh¨ohe stetig sind, d. h. inbesondere also f¨ ur st¨ uckweise glatte Funktionen, das Verschwinden des Integrals ebenfalls gezeigt werden kann. Da ein in der Praxis auftretendes Signal die hier diskutierten Eigenschaften (absolute Integrierbarkeit und st¨ uckweise Stetigkeit) grunds¨atzlich besitzt, strebt die zugeh¨orige Spektralfunktion f¨ ur |ω| → ∞ also stets gegen null. Wie die Beispiele (2.21), (2.36) und (2.42b) zeigen, geschieht dies i. allg. aber nicht so schnell, daß die Spektralfunktion absolut integrierbar ist. Ist letzteres der Fall, so ist die zugeh¨orige Zeitfunktion u ¨ brigens stetig. Um dies zu zeigen, bestimmen wir den Betrag der Differenz x(t) − x(t − τ ) in Abh¨angigkeit von X( jω):
jωt 1
∞ jω(t−τ ) (2.70) X( jω) e − e dω
|x(t) − x(t − τ )| = 2π −∞ Mit Hilfe der Dreiecksungleichung und unter Ber¨ ucksichtigung von |e jωt − e jω(t−τ ) | = 2| sin ωτ | 2 folgt dann
ωτ 1 ∞
|x(t) − x(t − τ )| ≤ |X( jω)| sin (2.71)
dω π −∞ 2 Wir m¨ ussen nun noch zeigen, daß f¨ ur hinreichend kleine Werte von |τ | das Integral beliebig klein gemacht werden kann. Da die absolute Integrierbarkeit von |X( jω)| vorausgesetzt wurde, k¨onnen wir zu jedem ε > 0 eine positive Zahl Ω angeben, so daß gilt −Ω ∞
ωτ ε 1
(2.72) + |X( jω)| sin
dω < . π −∞ 2 2 Ω Durch eine geeignete Wahl von τ werden wir nun das verbleibende Integral ebenfalls kleiner als ε/2 machen:
ωτ 1 Ω ε
(2.73) |X( jω)| sin
dω < . π −Ω 2 2 | ≤ | ωτ | gilt, k¨onnen wir schreiben Da offenbar | sin ωτ 2 2
ωτ 1 Ω Ω|τ | Ω |τ | Ω
|X( jω)| sin |X( jω)||ω|dω ≤ |X( jω)|dω .
dω ≤ π −Ω 2 2π −Ω 2π −Ω F¨ ur alle τ mit επ |τ | < τ0 (ε) := Ω
,
Ω −Ω
|X( jω)|dω
(2.74)
wird also die Ungleichung (2.73) erf¨ ullt. Somit folgt aus (2.71) bis (2.74) die Stetigkeit und, da τ unabh¨angig von t gew¨ahlt werden kann, sogar die gleichm¨aßige Stetigkeit von x(t), so daß wir schreiben d¨ urfen ∞ |X( jω)|dω < ∞ ⇒ |x(t) − x(t − τ )| < ε f¨ ur |τ | < τ0 (ε) . (2.75) −∞
Ist nicht nur X( jω), sondern auch ωX( jω) absolut integrierbar, so ist neben x(t) auch x(t) ˙ gleichm¨aßig stetig. Dies kann in gleicher Weise gezeigt werden, wie die Stetigkeit von x(t)
64-2.2
Eigenschaften der Fourier-Transformation
Fourier-Transformation
bewiesen wurde. Wir m¨ ussen lediglich ber¨ ucksichtigen, daß die Fourier-Transformierte von x(t) ˙ durch jωX( jω) gegeben ist. F¨ ur h¨ohere Ableitungen gilt offenbar entsprechendes, d. h., ist ω κ X( jω) f¨ ur κ = 0, 1, . . . , k absolut integrierbar, so sind die Ableitungen bis zur Ordnung k gleichm¨aßig stetig. Wir kommen nun zu einer gewissen Umkehrung dieser Zusammenh¨ange und fragen etwa, wie schnell X( jω) gegen null strebt, wenn x(t) stetig, x(t) ˙ st¨ uckweise glatt ist und beide Funktionen absolut integrierbar sind. Wenden wir das Riemann-Lebesguesche Lemma auf jωX( jω) = F {x(t)} ˙ an, so folgt lim |ωX( jω)| = 0 .
|ω|→∞
Mit anderen Worten, f¨ ur |ω| → ∞ strebt X( jω) mindestens wie 1/|ω| gegen null. Sind x(t) und die zugeh¨origen Ableitungen bis zur Ordnung k − 1 stetig und ist die k-te Ableitung st¨ uckweise glatt, so gilt lim |ω k X( jω)| = 0, |ω|→∞
und folglich strebt X( jω) f¨ ur |ω| → ∞ mindestens wie 1/|ω|k gegen null. Wir haben also das wichtige Ergebnis, daß die Spektralfunktion umso schneller gegen null strebt, je glatter das zugeh¨orige Zeitsignal ist. Betrachten wir die bislang ermittelten Transformationspaare unter diesem Gesichtspunkt, so ist festzustellen, daß die mit dem RiemannLebesgueschen Lemma gewonnene Ausssage u ¨ ber die Abklinggeschwindigkeit der Spektralfunktion in diesen F¨allen etwas zu pessimistisch ist. Beispielsweise konvergiert die Spektralfunktion des Signals e−α|t| bereits wie 1/|ω|2 gegen null, obwohl die Ableitung, −α sgn(t)e−α|t| , nur st¨ uckweise stetig ist. Aufgrund der Symmetrie zwischen den beiden Fourier-Integralen gelten die in diesem Unterabschnitt diskutierten Zusammenh¨ange auch f¨ ur die jeweils andere Transformationsrichtung. Insbesondere heißt das: • Die absolute Integrierbarkeit der Frequenzfunktion impliziert das Verschwinden des zugeh¨origen Zeitsignals f¨ ur |t| → ∞. • Die absolute Integrierbarkeit des Signals impliziert die gleichm¨aßige Stetigkeit der Frequenzfunktion. Erg¨anzend sei noch bemerkt, daß als Folge der Dreiecksungleichung die absolute Integrierbarkeit in einem Bereich zu einer Beschr¨anktheit der zugeh¨origen Funktion im jeweils anderen Bereich f¨ uhrt, denn es gilt offenbar ∞ ∞ 1 |X( jω)| ≤ |x(t)|dt und |x(t)| ≤ |X( jω)|dω . (2.76) 2π −∞ −∞
2.2.4
Parsevalsche Gleichung und Faltungsprodukte
Die mittlere Leistung eines periodischen Signals x(t) = x(t + T ), d. h. der Mittelwert 1 T /2 2 |x(t)|2dt , M{|x(t)| } = T −T /2 kann, wie wir im Abschnitt 1.4.2 gesehen haben, wie folgt durch die zugeh¨origen Fourieruckt werden: Koeffizienten Xν ausgedr¨ ∞ 1 T /2 2 |x(t)| dt = |Xν |2 . (2.77) T −T /2 ν=−∞
Fourier-Transformation
Eigenschaften der Fourier-Transformation
2.2-65
Da diese Beziehung, die Parsevalsche Gleichung, in den Anwendungen eine bedeutende Rolle spielt, wollen wir in diesem Unterabschnitt eine Verallgemeinerung auf den aperiodischen Fall vornehmen. Sei x(t) ein aperiodisches Signal mit der Spektralfunktion X( jω). Ist dann x(t) quadratisch u ber −∞ < ω < ∞ integrierbar, so gilt folgende Form der Parsevalschen Gleichung: ¨
∞
1 |x(t)| dt = 2π −∞
2
∞
−∞
|X( jω)|2 dω .
(2.78)
Daß diese Gleichung f¨ ur beliebige quadratisch integrierbare Signale erf¨ ullt ist, k¨onnen wir hier nicht beweisen. Wir wollen lediglich zwei anschauliche Begr¨ undungen liefern. Wie bei der Herleitung der Fourier-R¨ ucktransformation im Abschnitt 2.1 stellen wir als erstes x(t) durch den Grenzfall eines periodischen Signals dar, d. h. durch x(t) = lim xT (t) T →∞
ur |t| < T /2 und xT (t) = xT (t + T ). Unter Ber¨ ucksichtigung der Fouriermit xT (t) = x(t) f¨ Reihe (2.8) erhalten wir dann f¨ ur das (periodische) Signal xT (t) die Parsevalsche Gleichung in der Form ∞ 1 T /2 2 2 |xT (t)| dt = (Ω/2π) |XT ( jνΩ)|2 . (2.79) T −T /2 ν=−∞ Bezeichnen wir Ω und νΩ wieder mit ∆ω bzw. ων , so k¨onnen wir wegen ΩT = 2π auch schreiben T /2 ∞ 1 2 |xT (t)| dt = |XT ( jων )|2∆ω . (2.80) 2π ν=−∞ −T /2 F¨ uhren wir schließlich auch hier bedenkenlos“ den Grenz¨ ubergang T → ∞ bzw. ∆ω → 0 ” aus, so finden wir das gew¨ unschte Ergebnis, n¨amlich die Parsevalsche Gleichung (2.78). F¨ ur die zweite Begr¨ undung ersetzen wir zun¨achst in dem Integral ∞ ∞ 2 |x(t)| dt = x∗(t)x(t)dt −∞
−∞
das konjugierte Signal x∗(t) durch ∞ ∗ ∞ 1 1 ∗ jωt X( jω)e dω = X ∗ ( jω)e− jωt dω x (t) = 2π −∞ 2π −∞ und erhalten daher
∞
1 |x(t)| dt = 2π −∞ 2
∞
∞
∗
− jωt
X ( jω)e −∞
dω x(t)dt .
−∞
Nehmen wir nun an, daß die Reihenfolge der Integration auf der rechten Seite vertauscht werden darf, so k¨onnen wir schreiben ∞ ∞ ∞ ∞ 1 2 ∗ − jωt |x(t)| dt = X ( jω) x(t)e dt dω = |X( jω)|2dω 2π −∞ −∞ −∞ −∞ und haben somit wieder die Parsevalsche Gleichung gefunden.
66-2.2
Eigenschaften der Fourier-Transformation
Fourier-Transformation
¨ In der gleichen Weise, wie wir im Abschnitt 1.4.2 die Aquivalenz zwischen (1.62) und (1.63) bewiesen haben, k¨onnen wir mit der Identit¨at (1.64), d. h. mit ) 1( xy ∗ = |x + y|2 − |x − y|2 + j|x + jy|2 − j|x − jy|2 , 4 zeigen, daß die Parsevalsche Gleichung auch in der allgemeineren Form ∞ ∞ 1 ∗ x(t)y (t)dt = X( jω)Y ∗ ( jω)dω 2π −∞ −∞
(2.81)
geschrieben werden kann, wobei y(t) ◦−−• Y ( jω) ein weiteres Transformationspaar ist. Wir betrachten nun ein einfaches Beispiel f¨ ur die Anwendung der Parsevalschen Gleichung: Optimale Bandbreitenreduzierung. Gegeben sei ein Signal x(t) mit der Spektralfunktion X( jω). Gesucht wird ein Signal x˜(t), das m¨oglichst gut mit x(t) u ¨bereinstimmt, dessen ˜ Spektralfunktion, X( jω) = F {˜ x(t)}, aber außerhalb eines vorgegebenen Intervalls (−Ω, Ω) ¨ null ist. Als Maß f¨ ur die Ubereinstimmung von x(t) und x˜(t) werde der quadratische Fehler ∞ |x(t) − x˜(t)|2 dt (2.82) F = −∞
˜ jω) gew¨ahlt werden, damit F unter der benutzt. Wir fragen also: Wie muß x˜(t) bzw. X( Nebenbedingung ∞ ˜ X( jω) = x˜(t)e− jωt dt = 0 f¨ ur |ω| > Ω (2.83) −∞
minimal wird? Zur L¨osung dieser Aufgabe dr¨ ucken wir F mit Hilfe der Gleichung (2.78) im Frequenzbereich aus: ∞ 1 ˜ jω)|2 dω . |X( jω) − X( (2.84) F = 2π −∞ Dann zerlegen wir unter Beachtung von (2.83) das in (2.84) auftretende Integral in drei Teile: −Ω ∞ Ω 1 1 2 2 ˜ F = |X( jω) − X( jω)| dω + + |X( jω)| dω (2.85) 2π −Ω 2π −∞ Ω ˜ jω) im Intervall (−Ω, Ω) gleich X( jω) gew¨ahlt Der Fehler F wird offenbar minimal, wenn X( wird und x˜(t) somit durch Ω 1 x˜(t) = X( jω)e jωtdω (2.86) 2π −Ω gegeben ist. Eine in der Systemtheorie h¨aufig auftretende Operation ist die sogenannte Faltung, die wie folgt definiert ist: ∞ y(t) = x1 (τ )x2(t − τ )dτ . (2.87) −∞
Symbolisch dr¨ ucken wir diesen Zusammenhang auch in der Form y(t) = x1(t) ∗ x2(t)
(2.88)
Fourier-Transformation
Eigenschaften der Fourier-Transformation
2.2-67
aus. Ersetzen wir in (2.87) die Integrationsvariable τ durch t − τ , so erkennen wir sofort, daß die Faltung eine kommutative Operation ist, d. h., daß gilt x1 (t) ∗ x2 (t) = x2(t) ∗ x1(t) .
(2.89a)
Aufgrund der Additivit¨at des Integrals gen¨ ugt die Faltung folgendem Distributivgesetz : x1(t) ∗ [x2(t) + x3 (t)] = x1(t) ∗ x2(t) + x1(t) ∗ x3(t)
(2.89b)
Unter sehr allgemeinen Voraussetzungen gilt dar¨ uber hinaus auch das Assoziativgesetz : x1(t) ∗ [x2(t) ∗ x3(t)] = [x1(t) ∗ x2 (t)] ∗ x3(t) .
(2.89c)
Wegen dieser Eigenschaften sprechen wir statt von der Faltung h¨aufig vom Faltungsprodukt. Besitzen x1(t) und x2(t) die Fourier-Transformierten X1 ( jω) bzw. X2 ( jω), so ist die Fourier-Transformierte des Faltungsprodukts durch F {x1(t) ∗ x2(t)} = X1 ( jω)X2 ( jω)
(2.90)
gegeben. Wir f¨ uhren den Beweis mit Hilfe der Parsevalschen Gleichung (2.81), und zwar setzen wir x(t) = x1(t) ◦−−• X( jω) = X1 ( jω) und4
y(t) = x∗2(τ − t) ◦−−• Y ( jω) = X2∗ ( jω)e− jωτ .
Als Ergebnis erhalten wir ∞ ∞ 1 x1(t)x2(τ − t)dt = X1 ( jω)X2 ( jω)e jωτ dω . 2π −∞ −∞
(2.91)
Tauschen wir nun die Variablen t und τ gegeneinander aus, so steht links das Faltungsprodukt x1 (t) ∗ x2 (t) und rechts die R¨ ucktransformierte von X1 ( jω)X2 ( jω), d. h. x1(t) ∗ x2(t) = F −1 {X1 ( jω)X2 ( jω)} .
(2.92)
Die Fourier-Transformation dieser Gleichung f¨ uhrt dann auf die zu beweisende Aussage (2.90). In gleicher Weise k¨onnen wir auch zeigen, daß die Fourier-Transformierte des Produkts x1 (t)x2(t) bis auf den konstanten Faktor 1/2π gleich der Faltung der zugeh¨origen Frequenzfunktionen ist, d. h. ∞ 1 1 F {x1(t)x2(t)} = X1 ( jv)X2( jω − jv)dv = (2.93) X1 ( jω) ∗ X2 ( jω) . 2π −∞ 2π Als ein einfaches Beispiel f¨ ur die Anwendung der Beziehung (2.90) betrachten wir die Faltung der Signale (2.94) x1(t) = rect(t/T ) und x2(t) = ε(t)e−αt mit T > 0, α > 0. Zur Auswertung des Integrals ∞ x1(τ )x2(t − τ )dτ = y(t) = −∞
T
−T
ε(t − τ )e−α(t−τ )dτ
68-2.3
Dauer und Bandbreite
Fourier-Transformation
a) 1
ε(t − τ )e−α(t−τ )
rect(τ /T ) t < −T
t −T
τ
T
b) 1 −T < t < T −T
τ
t T
c) 1 t>T −T
T
τ
t
Bild 2.7: Zur Faltung der Signale x1 (t) = rect(t/T ) und x2 (t) = ε(t)e−αt; da der Rechteckimpuls die H¨ohe 1 hat, stellt die schraffierte Fl¨ache den Wert y(t) dar
unterscheiden wir drei F¨alle (siehe Bild 2.7): 1.
−∞ < t < −T ⇒ y(t) = 0 , da t − τ < 0 f¨ ur
−T <τ
2.
−T ≤ t < T t 1 1 − e−α(t+T ) e−α(t−τ )dτ = ⇒ y(t) = α −T
3.
T ≤t<∞ ⇒ y(t) =
T
e −T
−α(t−τ )
1 −αt αT −αT e −e dτ = e α
Bild 2.8 zeigt den Verlauf der Funktion y(t). Die Fourier-Transformierte von y(t) ist gem¨aß (2.90) gegeben durch [siehe (2.21) und (2.41)] Y ( jω) = X1 ( jω)X2 ( jω) = 2T si(ωT )
2.3
1 . α + jω
Dauer und Bandbreite eines Signals
Wir sagen, ein Signal x(t) ist zeitbegrenzt, falls eine positive Zahl T existiert, so daß gilt x(t) = 0 f¨ ur |t| > T . 4
Der Beweis f¨ ur die Zuordnung x∗2 (τ − t) ◦−−• X2∗ ( jω)e− jωτ folgt sofort aus (2.32) und (2.44a)
(2.95)
Fourier-Transformation
Dauer und Bandbreite
2.3-69
y(t) = [ε(t)e−αt ] ∗ rect(t/T )
−T
T
t
Bild 2.8: Graph der Funktion y(t) = x1 (t) ∗ x2 (t)
Ein Signal x(t) heißt frequenzbegrenzt, falls eine positive Zahl Ω existiert, so daß gilt X( jω) = 0 f¨ ur |ω| > Ω ,
(2.96)
wobei X( jω) die Fourier-Transformierte von x(t) ist. ¨ Uberraschend ist nun der Satz. Ein (von null verschiedenes) Signal kann nicht zugleich zeit- und frequenzbegrenzt sein.
Um dies zu beweisen, nehmen wir an, ein gegebenes Signal x(t) mit der Fourier-Transformierten X( jω) sei zeitbegrenzt. Wir k¨onnen dann zeigen, daß die Funktion X( jω) analytisch auf die gesamte komplexe p-Ebene fortgesetzt werden kann. Da die Nullstellen einer analyur |ω| > Ω tischen Funktion aber isoliert 5 liegen, kann es kein Ω geben, so daß X( jω) = 0 f¨ gilt. Mit anderen Worten, x(t) kann nicht frequenzbegrenzt sein. Bevor wir den scheinbaren Widerspruch zwischen diesem Ergebnis und unserer Erfahrung aufl¨osen, wollen wir beweisen, daß T
X(p) :=
x(t)e−pt dt
(2.97)
−T
f¨ ur alle p ∈ C komplex differenzierbar und damit analytisch ist. Die Funktion X(p), die f¨ ur p = jω die Fourier-Transformierte des Signals x(t) ist, heißt komplex differenzierbar, falls der Grenzwert X(p + ∆p) − X(p) ∆p→0 ∆p lim
(2.98)
existiert, wobei ∆p auf beliebigem Wege gegen null strebt. Wir werden nun zeigen, daß dieser Grenzwert durch T T d −pt x(t) e dt = − tx(t)e−pt dt (2.99) X (p) = dp −T −T gegeben ist. Zu diesem Zweck m¨ ussen wir nachweisen, daß die Differenz D := 5
X(p + ∆p) − X(p) − X (p) ∆p
(2.100)
Ist p0 eine Nullstelle von X(p), d. h. ist X(p0 ) = 0, so bedeutet die Aussage, p0 liegt isoliert, daß in einer kleinen Umgebung von p0 keine weiteren Nullstellen liegen. D. h., daß es eine Zahl δ > 0 gibt, so daß X(p) = 0 f¨ ur 0 < |p − p0 | < δ.
70-2.3
Dauer und Bandbreite
Fourier-Transformation
f¨ ur ∆p → 0 gegen null strebt. Setzen wir (2.97) und (2.99) in (2.100) ein, so folgt
T
x(t)
D= −T
e−pt (e−∆pt − 1 + ∆pt) dt . ∆p
(2.101)
Den Betrag des eingeklammerten Ausdrucks sch¨atzen wir folgendermaßen ab:
(∆pt)2 (∆pt)3 (∆pt)4
−∆pt − 1 + ∆pt| =
− + − . . .
|e 2! 3! 4!
(∆pt) (∆pt)2 2 1 + − . . .
= |∆pt| − 2! 3! 4! |∆pt| |∆pt|2 2 ≤ |∆pt| 1 + + + ... 1! 2! Somit gilt:
|e−∆pt − 1 + ∆pt| ≤ |∆pt|2 e|∆pt| .
Beachten wir noch |e−pt | = e−t Re p ≤ e|pt|, so erhalten wir schließlich |D| ≤
T
−T
|∆px(t)|t2 e(|p|+|∆p|)|t|dt
≤ |∆p|T e
T
2 (|p|+|∆p|)T −T
|x(t)|dt .
F¨ ur |∆p| → 0 strebt D also gegen null, was zu beweisen war. Nimmt man umgekehrt an, daß x(t) frequenzbegrenzt ist, so kann man mit der gleichen Argumentation zeigen, daß x(t) eine analytische Funktion ist und somit nicht zeitbegrenzt sein kann. Da jedes in der Praxis auftretende Signal prinzipiell zeitbegrenzt ist, erstreckt sich das zugeh¨orige Spektrum bis zu unendlich hohen Frequenzen. Andererseits haben wir aber gesehen, daß bei einem hinreichend oft differenzierbaren Signal die Spektralfunktion sehr schnell abklingt, so daß die Spektralanteile außerhalb eines gewissen endlichen Intervalls vernachl¨assigt ¨ werden k¨onnen. Bekanntlich gen¨ ugt es bei der Ubertragung von Musik, Frequenzen bis zu etwa 20 kHz zu ber¨ ucksichtigen, und zwar schon deshalb, weil unser Ohr h¨ohere Frequenzen gar nicht wahrnehmen kann. Die Energie, die in den u ¨ ber 20 kHz liegenden Spektralkomponenten enthalten ist, ist dar¨ uber hinaus so gering, daß sie mit zunehmender Frequenz sehr schnell unter die Meßschwelle sinkt. Unter diesem Gesichtspunkt ist eigentlich jedes in der Praxis auftretende Signal x(t) nicht nur zeit-, sondern auch frequenzbegrenzt, d. h., wir k¨onnen dem Signal im Zeitbereich eine Dauer und im Frequenzbereich eine Bandbreite zuordnen. Zwischen diesen Gr¨oßen besteht ein reziproker Zusammenhang, der in der Eigenschaft (2.43) bereits zum Ausdruck kam und in diesem Abschnitt n¨aher untersucht werden soll. Da bei einer exakten Begrenzung im Zeitbereich die Spektralfunktion auch f¨ ur beliebig hohe Frequenzen nicht exakt null wird, muß auf pragmatischem Wege eine Bandbreite definiert werden. Dies k¨onnte etwa wie folgt geschehen: Man gibt einen relativen Fehler ε vor und verlangt, daß außerhalb des Intervalls (−B/2, B/2) die Energie des Spektrums nur ein ε-tel der Gesamtenergie ist, d. h.
−B/2
∞
+ −∞
B/2
|X( jω)| dω = ε 2
∞ −∞
|X( jω)|2dω .
Fourier-Transformation
Dauer und Bandbreite
2.3-71
Als Bandbreite des Signals x(t) = F −1 {X( jω)} k¨onnte man dann die kleinste Zahl B bezeichnen, die diese Gleichung erf¨ ullt. Dieses Maß f¨ ur die Bandbreite w¨are zwar physikalisch sinnvoll, h¨atte aber den Nachteil, daß es mathematisch nur sehr schwer handhabbar w¨are. Ein f¨ ur die mathematische Behandlung geeigneteres Maß f¨ ur die Bandbreite ist durch den Ausdruck ∞
ω 2 |X( jω)|2 dω
−∞ B2 = ∞
−∞
(2.102) |X( jω)| dω 2
gegeben. Wir k¨onnen uns leicht davon u ¨ berzeugen, daß eine Multiplikation der Spektralfunktion mit einem konstanten Faktor keinen Einfluß auf B hat, w¨ahrend eine Dehnung oder Stauchung dieser Funktion in ω-Richtung sich in einer entsprechenden Vergr¨oßerung bzw. Verkleinerung der Gr¨oße B bemerkbar macht. Mit anderen Worten, wird X( jω) durch αX( jω/β) ersetzt, wobei α und β positive Konstanten sind, so geht B u ¨ber in βB. Diese Eigenschaft zeigt, daß die Definition (2.102) tats¨achlich ein sinnvolles Maß f¨ ur die Bandbreite ist. F¨ ur die zeitliche Dauer des Signals x(t) wollen wir aus Gr¨ unden der Symmetrie ein entsprechendes Maß im Zeitbereich festlegen:
∞
t2|x(t)|2dt
D2 = −∞∞
−∞
.
(2.103)
|x(t)| dt 2
Sofern f¨ ur ein gegebenes Transformationspaar x(t) ◦−−• X( jω) die Maße (2.102) und (2.103) existieren, gilt stets 1 DB ≥ . (2.104) 2 Diese Ungleichung wird als die Unsch¨arferelation der Nachrichtentechnik bezeichnet. Dauer und Bandbreite eines Signals k¨onnen also nicht unabh¨angig voneinander beliebig klein gemacht werden. Ein kurzer Impuls der Dauer D hat mindestens die Bandbreite 1/(2D), und die Dauer eines schmalbandigen Signals der Bandbreite B betr¨agt mindestens 1/(2B). Wir wollen nun die Ungleichung (2.104) beweisen und die naheliegende Frage beantworten, welche Signale bei vorgegebener Dauer die kleinste Bandbreite bzw. bei vorgegebener Bandbreite die kleinste Dauer haben. F¨ ur den Beweis der Unsch¨arferelation ben¨otigen wir die Schwarzsche Ungleichung in der Form ∞ 2 ∞ ∞ 2 2 ∗ |f(t)| dt |g(t)| dt ≥ Re f(t)g (t)dt , (2.105) −∞
−∞
−∞
die f¨ ur beliebige quadratisch integrierbare Funktionen f(t) und g(t) g¨ ultig ist. Setzen wir voraus, daß f(t) und g(t) stetig sind, so tritt das Gleichheitszeichen genau dann auf, wenn es eine reelle Konstante γ gibt, so daß gilt g(t) + γf(t) = 0 oder f(t) = 0 . Das Maß f¨ ur die Bandbreite u ¨bertragen wir nun mit Hilfe der Parsevalschen Gleichung (2.78) in den Zeitbereich. Unter Beachtung des Differentiationssatzes jωX( jω) •−−◦ x(t) ˙ folgt
72-2.3
Dauer und Bandbreite
aus (2.102)
∞
B 2 = −∞ ∞ −∞
Fourier-Transformation
2 |x(t)| ˙ dt
.
(2.106)
|x(t)| dt 2
Wir sch¨atzen dann den Z¨ahler des Produkts ∞ ∞ 2 2 2 t |x(t)| dt |x(t)| ˙ dt −∞ ∞ 2 2 D B = 2 ∞ 2 |x(t)| dt
(2.107)
−∞
mit der Schwarzschen Ungleichung ab, indem wir f(t) = tx(t) und g(t) = y(t) setzen: ∞ 2 ∞ ∞ 2 2 2 ∗ t |x(t)| dt |x(t)| ˙ dt ≥ Re tx(t)x˙ (t)dt . (2.108) −∞
Mit
−∞
−∞
) t d|x(t)|2 t( ∗ ∗ ˙ = Re tx(t)x˙ (t) = x(t)x˙ (t) + x (t)x(t) 2 2 dt ∗
folgt weiter
∞
1 Re tx(t)x˙ (t)dt = 2 −∞ ∗
∞ t d|x(t)|2 1 ∞ 2 dt = |x(t)| t − |x(t)|2dt . dt 2 2 −∞ −∞ −∞ ∞
Unter der Voraussetzung lim tx2(t) = 0
t→±∞
kann (2.108) somit ersetzt werden durch ∞ 2 ∞ ∞ 1 2 2 2 2 t |x(t)| dt |x(t)| ˙ dt ≥ |x(t)| dt 4 −∞ −∞ −∞ Ein Blick auf (2.107) zeigt, daß wir damit das gew¨ unschte Ergebnis erhalten haben, n¨amlich D2 B 2 ≥
1 4
bzw. DB ≥
1 . 2
Um alle Signale zu bestimmen, die das kleinste Dauer-Bandbreite-Produkt DB = 1/2 haben, beachten wir, daß f¨ ur diese Signale in der Ungleichung (2.108) das Gleichheitszeichen auftreten muß. Dies ist genau dann der Fall, wenn eine reelle Konstante γ existiert, so daß gilt x(t) ˙ + γtx(t) = 0 .
(2.109)
S¨amtliche L¨osungen dieser Differentialgleichung sind nach den Ausf¨ uhrungen im Anschluß an (2.52) durch das Gauß-Signal 2 x(t) = x(0)e−γt /2 gegeben, wobei x(0) eine beliebige komplexe Konstante ist. Da x(t) f¨ ur t → ±∞ abklingen muß, darf γ nur positiv sein. Zu dem Problem der Definition von Dauer und Bandbreite sei noch folgendes bemerkt. Bei der Festlegung der Maße D und B wurde implizit vorausgesetzt, daß sich das Signal und das
Fourier-Transformation
Dauer und Bandbreite
2.3-73
zugeh¨orige Spektrum jeweils gleichm¨aßig zu beiden Seiten des Koordinatenursprungs erstreckt. Eine zeitliche Verschiebung des Signals ver¨andert aber offenbar die Gr¨oße D. Entsprechendes gilt f¨ ur B, wenn die Spektralfunktion verschoben wird. Da die tats¨achliche Dauer eines Signals aber unabh¨angig von einer etwaigen Verschiebung ist, sollte auch D unabh¨angig hiervon sein. Dies kann dadurch erreicht werden, daß D definiert wird durch ∞ ∞ 2 2 t |x(t + t0 )| dt (t − t0)2 |x(t)|2dt min t0 ∈R −∞ ∞ = (2.110) D2 = min −∞∞ t0 ∈ R 2 2 |x(t + t0)| dt |x(t)| dt −∞
−∞
Man pr¨ uft leicht nach, daß das Minimum auftritt, wenn t0 gleich dem Energieschwerpunkt“ ” des Signals ist, d. h., wenn ∞ t|x(t)|2dt t0 = −∞ (2.111) ∞ 2 |x(t)| dt −∞
gew¨ahlt wird. Im Frequenzbereich ist prinzipiell die gleiche Vorgehensweise m¨oglich, d. h., B k¨onnte definiert werden durch ∞ (ω − ω0 )2 |X( jω)|2dω min t0 ∈R −∞ ∞ . (2.112) B2 = 2 |X( jω)| dω −∞
Ist x(t) reell und |X( jω)| somit gerade, er¨ ubrigt sich diese Modifikation, da der Schwerpunkt ∞ ω|X( jω)|2 dω ω0 = −∞∞ |X( jω)|2 dω −∞
ohnehin null ist. Wir wollen nun noch die G¨ ultigkeit der Schwarzschen Ungleichung (2.105) nachweisen. Falls f(t) = 0 oder g(t) + γf(t) = 0 gilt, kann durch Einsetzen dieser Bedingungen leicht gezeigt werden, daß die Ungleichung in eine Gleichung u ¨ bergeht. Wir setzen daher voraus, daß keine dieser beiden Bedingungen erf¨ ullt ist. Ferner seien f(t) und g(t) stetig. F¨ ur beliebige γ ∈ R gilt dann ∞
|g(t) + γf(t)|2dt > 0 .
−∞
Berechnen wir das Betragsquadrat, so folgt γ 2 A2 + 2γA1 + A0 > 0 ∀γ ∈ R
mit A0 =
∞ −∞
|g(t)| dt , A1 = 2
∞
−∞
∗
Re f(t)g (t)dt und A2 =
Da A2 positiv ist, k¨onnen wir (2.113) umformen in 2 A0A2 − A21 A1 + >0. γ+ A2 A22
(2.113)
∞ −∞
|f(t)|2dt .
74-2.4
Poissonsche Summenformel und Abtasttheorem
Fourier-Transformation
Diese Ungleichung ist f¨ ur alle γ ∈ R g¨ ultig, also insbesondere auch f¨ ur γ = −A1/A2 . Hieraus folgt aber A0A2 > A21 , was zu beweisen war.
2.4
Poissonsche Summenformel und Abtasttheorem
Gegeben sei ein Fourier-Transformationspaar x(t) ◦−−• X( jω) und eine beliebige reelle Konstante T = 0. Dann gilt unter sehr allgemeinen Voraussetzungen die sogenannte Poissonsche Summenformel: ∞ ∞ T x(νT ) = X( jνΩ) , ΩT = 2π . (2.114) ν=−∞
ν=−∞
Hierbei ist insbesondere zu beachten, daß an Sprungstellen der Funktion x(t) der jeweilige Funktionswert gem¨aß Gleichung (2.13) festgelegt wird. F¨ ur die Spektralfunktion X( jω) gilt entsprechendes, d. h., ist νΩ eine Sprungstelle, so muß der Funktionswert X( jνΩ) wie folgt festgelegt werden: 1 X( jνΩ) = X( jνΩ − j0) + X( jνΩ + j0) 2 mit X( jνΩ − j0) := lim X( jνΩ − jv) und X( jνΩ + j0) := lim X( jνΩ + jv) . v→0 v>0
v→0 v>0
Weiter ist zu beachten, daß jede der beiden n als Eisen∞in (2.114) auftretenden Summationen stein-Summation aufzufassen ist; d. h., ν=−∞ ist zu interpretieren als lim ν=−n . n→∞
Wir wollen nun zwei ¨aquivalente Umformungen der Gleichung (2.114) vornehmen, die in den Anwendungen eine hervorragende Rolle spielen. Ersetzen wir in (2.114) das Transformationspaar x(t) ◦−−• X( jω) durch x(t)e− jω0 t ◦−−• X( jω + jω0 ), wobei ω0 eine reelle Konstante ist, so folgt ∞ ∞ − jω0 νT T x(νT )e = X( jνΩ + jω0 ) ν=−∞
ν=−∞
bzw., wenn wir ω statt ω0 schreiben, T
∞
− jνωT
x(νT )e
=
ν=−∞
∞
X( jω + jνΩ) .
(2.115)
ν=−∞
F¨ ur die zweite Umformung ersetzen wir x(t) ◦−−• X( jω) durch x(t + t0) ◦−−• e jωt0 X( jω) und erhalten mit einer ¨ahnlichen Argumentation die Gleichung T
∞
ν=−∞
x(t + νT ) =
∞
X( jνΩ)e jνΩt .
(2.116)
ν=−∞
Da die Gleichungen (2.114), (2.115) und (2.116) ¨aquivalent sind, brauchen wir nur die Richtigkeit einer dieser Gleichungen nachzuweisen. Die Reihe auf der linken Seite der Gleichung (2.116) stellt offenbar eine T -periodische Funktion dar. K¨onnen wir nun zeigen, daß die Reihe auf der rechten Seite die zugeh¨orige Fourier-Reihe ist, so haben wir unser Ziel erreicht. Das heißt, wir brauchen nur nachzuweisen,
Fourier-Transformation
Poissonsche Summenformel und Abtasttheorem
2.4-75
∞ daß die Gr¨oßen X( jνΩ) die Fourier-Koeffizienten der Funktion T −∞ x(t+νT ) sind. Hierzu nehmen wir an, daß wir in der Koeffizientenformel ∞ 1 T /2 T x(t + µT )e− jνΩt dt Xν = T −T /2 µ=−∞ die Reihenfolge von Integration und Summation vertauschen d¨ urfen: ∞ T /2 x(t + µT )e− jνΩt dt . Xν =
(2.117)
−T /2
µ=−∞
Durch die Substitution t + µT → t geht (2.117) unter Ber¨ ucksichtigung von e jµνΩT = 1 u ¨ber in ∞ T /2+µT x(t)e− jνΩt dt . Xν = −T /2+µT
µ=−∞
Beachten wir nun noch die Beziehung ∞ T /2+µT = ··· + µ=−∞
−T /2+µT
−T /2
+
−3T /2
T /2
3T /2
+ −T /2
+··· =
T /2
∞
, −∞
so folgt Xν = X( jνΩ), was zu beweisen war. Die Gleichung (2.115) ist u ur die Theorie zeitdiskre¨ brigens von fundamentaler Bedeutung f¨ ter Signale und somit f¨ ur die digitale Signalverarbeitung und die Theorie der Abtastsysteme. - jω) bezeichnen wollen, also Die linke Seite dieser Gleichung, die wir mit X( - jω) = T X(
∞
x(νT )e− jνωT ,
(2.118)
ν=−∞
heißt Fourier-Transformierte des zeitdiskreten Signals 6 x(νT ), ν = . . . , −2, −1, 0, 1, 2, . . . - jω) wird symbolisch durch Der Zusammenhang zwischen x(νT ) und X( - jω) = Fd{x(νT )} X(
(2.119)
ausgedr¨ uckt. Da (2.118) nichts anderes darstellt als eine Fourier-Reihe in ω mit der Periode 2π/T = Ω und den Fourier-Koeffizienten 1 Ω/2 T x(−νT ) = X( jω)e− jνωT dω , Ω −Ω/2 - jω) gewinnen: k¨onnen wir die Werte des zeitdiskreten Signals x(νT ) wie folgt aus X( 1 x(νT ) = 2π 6
Ω/2
- jω)e jνωT dω . X(
(2.120)
−Ω/2
Unter einem zeitdiskreten Signal verstehen wir ein reelles oder komplexes Signal x = x(tν ), das nur zu diskreten Zeitpunkten . . . , t−2 , t−1 , t0 , t1 , t2 , . . ., den Definitionszeitpunkten, definiert ist. In vielen Anwendungen liegen diese Zeitpunkte ¨ aquidistant und lassen sich ausdr¨ ucken durch tν = t0 + νT mit T > 0 und ν ∈ Z. Durch eine geeignete Wahl des Zeitnullpunktes kann dar¨ uber hinaus h¨aufig t0 = 0 gesetzt werden, so daß das Argument des Signals mit νT (wie hier) oder sogar nur mit ν bezeichnet wird.
76-2.4
Poissonsche Summenformel und Abtasttheorem
Fourier-Transformation
Hierf¨ ur schreiben wir symbolisch - jω)} . x(νT ) = Fd−1 {X(
(2.121)
Die Fourier-Transformierte des zeitdiskreten Signals x(νT ) kann gem¨aß (2.115) ausgedr¨ uckt werden durch die gew¨ohnliche“ Fourier-Transformierte des zeitkontinuierlichen Si” gnals x(t): ∞ ∞ X( jω + jνΩ) = X( jω − jνΩ) . (2.122) X( jω) = ν=−∞
ν=−∞
- jω) Es stellt sich nun die Frage: K¨onnen wir umgekehrt X( jω) und damit auch x(t) durch X( bzw. x(νT ) ausdr¨ ucken? Falls x(t) ein frequenzbegrenztes Signal ist, l¨aßt sich f¨ ur hinreichend - jω) bestimmen. Um dies zu zeigen, nehmen wir große Werte von Ω tats¨achlich X( jω) aus X( an, daß das Spektrum X( jω) außerhalb des Intervalls (−ωg , ωg ) null ist. Da bei der folgenden Diskussion nur die Breite des Spektrums, aber nicht seine genaue Form eine Rolle spielt, wird der Einfachheit halber angenommen, daß X( jω) reell ist und den in Bild 2.9a dargestellten dreiecksf¨ormigen Verlauf besitzt. Bild 2.9b zeigt das zugeh¨orige (zeitdiskrete) Spektrum - jω) = X( X( jω − jνΩ) f¨ ur den Fall, daß Ω gr¨oßer als 2ωg ist. Da die einzelnen Spektralanteile X( jω − jνΩ) sich nicht u ¨ berlappen, kanndurch Multiplikation mit der skizzierten rect-Funktion das Spektrum X( jω) aus der Summe X( jω − jνΩ) ausgeblendet werden. Mit - jω) gewonnen werden: anderen Worten, X( jω) kann wie folgt aus X( - ( jω) = rect(2ω/Ω)T X( jω) = rect(2ω/Ω)X
∞
x(νT )e− jνωT .
(2.123)
ν=−∞
Unter Ber¨ ucksichtigung des Transformationspaars T rect(2ω/Ω) •−−◦ si(Ωt/2) , ΩT = 2π ,
(2.124)
folgt aus dieser Beziehung sofort das ber¨ uhmte Abtasttheorem. Ist x(t) ein frequenzbegrenztes Signal, d. h., existiert eine positive Zahl ωg derart, daß (2.125) X( jω) = 0 f¨ur |ω| ≥ ωg , so kann unter der Bedingung Ω = 2π/T ≥ 2ωg
bzw.
T ≤ π/ωg
(2.126)
das Signal x(t) wie folgt aus seinen Abtastwerten x(νT ) wiedergewonnen werden: x(t) =
∞
x(νT ) si[Ω(t − νT )/2] .
(2.127)
ν=−∞
Die Bedingung (2.126) ist offenbar ¨aquivalent zu der Forderung, daß die Abtastrate 1/T mindeur die G¨ ultigkeit des stens doppelt so hoch ist wie die Grenzfrequenz fg = ωg /2π. Der Beweis f¨ oben angegebenen Transformationspaars ergibt sich am einfachsten durch R¨ ucktransformation der Frequenzfunktion: Ω/2 T −1 e jωt dω = si(Ωt/2) . F {T rect(2ω/Ω)} = 2π −Ω/2
Fourier-Transformation
Transformation verallgemeinerter Funktionen
X( jω)
a)
−ωg b)
2.5-77
- jω) = X(
rect(2ω/Ω)
−Ω − ωg −Ω −Ω + ωg
ω ωg
−ωg
X( jω − νΩ)
ωg
Ω − ωg
ω Ω
Ω + ωg
Bild 2.9: (a) Spektrum eines frequenzbegrenzten Signals, (b) Spektrum des zugeh¨origen zeitdiskreten Signals
Die Aussage des Abtasttheorems, nach der ein frequenzbegrenztes Signal x(t) repr¨asentiert werden kann durch eine Folge seiner Abtastwerte, bildet die Grundlage f¨ ur s¨amtliche modernen Verfahren der Signalverarbeitung, -¨ ubertragung und -speicherung. Bei der Anwendung des Abtasttheorems in der Praxis ist zu ber¨ ucksichtigen, daß, wie die Diskussion im Abschnitt 2.3 gezeigt hat, die Bedingung (2.125) nur n¨aherungsweise erf¨ ullt werden kann. Die hieraus resultierenden Fehler lassen sich aber durch eine geeignete Filterung vor dem Abtastvorgang und durch Wahl einer Abtastrate, die h¨oher als 2fg ist, beliebig klein halten. So verwendet ¨ man z. B. bei der Ubertragung eines Fernsprechsignals, dessen Grenzfrequenz etwa 3,4 kHz betr¨agt, eine Abtastrate von 8 kHz. Auch bei der Wiedergewinnung des zeitkontinuierlichen Signals aus dem zeitdiskreten treten gewisse Fehler auf, da aus physikalischen Gr¨ unden dieser Prozeß nicht exakt entsprechend der Formel (2.127) durchgef¨ uhrt werden kann. Diese Fehler lassen sich ebenfalls durch geeignete Filterung beliebig klein halten.
2.5 2.5.1
Transformation verallgemeinerter Funktionen Die Deltafunktion
Die Deltafunktion δ(t), die auch als Deltaimpuls oder nach ihrem Erfinder, dem Physiker Paul Dirac, als Dirac-Funktion oder Dirac-Impuls bezeichnet wird, bezieht ihre besondere Bedeutung aus der sogenannten Ausblendeigenschaft, die wie folgt formuliert werden kann:
∞
x(τ )δ(τ )dτ = x(0) . −∞
(2.128)
78-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
Hierbei muß die Funktion x(t) neben der Stetigkeit im Nullpunkt nur sehr schwache Voraussetzungen erf¨ ullen, die in der Praxis eigentlich immer gegeben sind. Ersetzen wir in (2.128) die Funktion x(τ ) durch x(t − τ ), wobei t bez¨ uglich der Integration konstant ist, so erhalten wir die zu (2.128) ¨aquivalente Aussage ∞ ∞ x(t − τ )δ(τ )dτ = δ(τ )x(t − τ )dτ = x(t) , (2.129) −∞
−∞
die wir mit Hilfe des Faltungssymbols [siehe (2.87) und (2.88)] auch in der Form δ(t) ∗ x(t) = x(t)
(2.130)
schreiben k¨onnen. Mit anderen Worten, δ(t) spielt im Zusammenhang mit dem Faltungsprodukt die gleiche Rolle wie die Eins beim gew¨ohnlichen Produkt. Um weitere Eigenschaften der Deltafunktion kennenzulernen, setzen wir in (2.129) f¨ ur x(t − τ ) die Sprungfunktion ε(t − τ ) ein und ber¨ ucksichtigen, daß diese f¨ ur t − τ < 0 bzw. τ > t den Wert null und f¨ ur τ < t den Wert eins annimmt: t ∞ δ(τ )ε(t − τ )dτ = δ(τ )dτ . (2.131) −∞
−∞
Da die linke Seite von (2.131) gleich ε(t) ist, gilt
t
δ(τ )dτ = ε(t)
(2.132)
−∞
und somit
∞
δ(t)dt = 1 .
(2.133)
−∞
Aus (2.132) folgt insbesondere, daß δ(t) in der Umgebung von t = 0 unendlich groß werden muß. Um dies zu zeigen, betrachten wir das Integral (ϑ > 0) ϑ −ϑ ϑ δ(τ )dτ = − δ(τ )dτ = ε(ϑ) − ε(−ϑ) = 1 −ϑ
−∞
und sch¨atzen es gem¨aß
−∞
ϑ
1= −ϑ
δ(τ )dτ ≤ 2ϑ max δ(τ ) |τ |≤ϑ
nach oben ab. Da ϑ beliebig klein gew¨ahlt werden kann, muß δ(t) in der Umgebung von t = 0 unbeschr¨ankt wachsen. Andererseits folgt aus (2.131) durch Differentiation δ(t) =
dε(t) dt
(2.134)
und daher δ(t) = 0 f¨ ur t = 0 .
(2.135)
An diesem seltsamen Verhalten wird sp¨atestens deutlich, daß δ(t) keine Funktion im gew¨ohnlichen Sinne sein kann. Es handelt sich hierbei um eine Distribution oder verallgemeinerte
Fourier-Transformation
Transformation verallgemeinerter Funktionen
2.5-79
δ(t − t0)
a)
t
t0
ε(t − t0)
b) 1
t
t0
Bild 2.10: (a) graphische Darstellung der Deltafunktion δ(t − t0 ); (b) zugeh¨origes Integral ε(t − t0 )
Funktion. In der Systemtheorie wird δ(t) u. a. als Modell f¨ ur einen sehr kurzen, zum Zeitpunkt t = 0 auftretenden Impuls verwendet. Dabei spielt der genaue zeitliche Verlauf dieses Impulses meistens keine Rolle, wohl aber die Gr¨oße seines Integrals. Die graphische Darstellung eines zum Zeitpunkt t0 auftretenden Impulses, d. h. δ(t − t0 ), ist in Bild 2.10a angegeben. Das Bild 2.10b zeigt das Integral u ¨ber δ(t − t0), n¨amlich t−t0 t δ(τ − t0)dτ = δ(τ )dτ = ε(t − t0 ) . −∞
−∞
Um das Rechnen mit der Deltafunktion und anderen verallgemeinerten Funktionen einwandfrei zu begr¨ unden, sind in der Mathematik unterschiedliche Methoden entwickelt worden. Hier soll das von Mikusi´ nski erarbeitete Folgenmodell zugrunde gelegt werden, da dieses wegen seiner Anschaulichkeit f¨ ur physikalische und technische Anwendungen besonders geeignet erscheint. Zur Erl¨auterung des Folgenmodells betrachten wir ein einfaches Beispiel, und zwar die Schaltung in Bild 2.11a. Der Kondensator mit der Kapazit¨at C sei entladen und die Spannung der Quelle, die mit E bezeichnet ist, sei konstant. Zum Zeitpunkt t = 0 werde der Schalter geschlossen. Zu bestimmen sind die Spannung7 v(t) und der Strom i(t). Da die Spannung u ¨ ber der Kapazit¨at proportional zu dem zeitlichen Integral des Stromes ist, also insbesondere stetig verl¨auft und f¨ ur t > 0 aber v(t) = E gelten muß, ist die Aufgabe nur im trivialen Fall E = 0 l¨osbar. Denn f¨ ur E = 0 m¨ ußte die Spannung zum Zeitpunkt t = 0 von null auf E springen und w¨are somit unstetig. Um f¨ ur E = 0 eine L¨osung zu finden, ber¨ ucksichtigen wir, daß in jeder realen Schaltung grunds¨atzlich ohmsche Widerst¨ande vorhanden sind. Wir ¨andern daher unsere Schaltung, wie 7
Um Verwechslungen mit der Sprungfunktion auszuschließen, ist die Spannung mit v(t) statt wie u ¨ blich mit u(t) bezeichnet.
80-2.5
Transformation verallgemeinerter Funktionen
a)
Fourier-Transformation
b) R/n
t = 0 i(t)
+ E
t = 0 in (t)
+ C
v(t)
E
vn (t)
C
Bild 2.11: Ladung eines Kondensators mit (a) idealer und (b) realer Spannungsquelle
in Bild 2.11b gezeigt, ab und ordnen der Quelle einen Widerstand R/n (R > 0, n = 1, 2, 3, . . .) zu, den wir durch Wahl einer hinreichend großen Zahl n beliebig klein machen k¨onnen, um so den idealen Verh¨altnissen in Bild 2.11a beliebig nahe zu kommen. Daß die Spannung und der Strom nun auch von n abh¨angen, ist jeweils durch einen Index gekennzeichnet. Zum Zeitpunkt t = 0, d. h., wenn der Schalter geschlossen wird, springt der Strom in (t) auf den Wert nE/R und klingt anschließend exponentiell mit der Zeitkonstanten RC/n ab: in (t) = ε(t)
nE −nt/RC . e R
(2.136)
Mit den Abk¨ urzungen Q := CE und δn (t) := ε(t)
n −nt/RC e RC
(2.137) (2.138)
k¨onnen wir in (t) in der Form in (t) = Qδn (t)
(2.139)
schreiben. Da die Gr¨oße Q, d. h. die gesamte dem Kondensator zugef¨ uhrte Ladung, konstant ur ist, richten wir unser Augenmerk zun¨achst auf die Funktion δn (t). In Bild 2.12a ist δn (t) f¨ n = 1, 2 und 3 dargestellt. Wir erkennen, daß mit zunehmendem n die Funktion δn (t) immer schmaler und zugleich h¨oher wird. F¨ ur t = 0 streben die Funktionswerte gegen null, w¨ahrend sie f¨ ur t = 0 unbeschr¨ankt wachsen: ∞ f¨ ur t = 0 . (2.140) lim δn (t) = 0 f¨ ur t = 0 n→∞ Das Integral u ¨ ber δn (t) ist aber von n unabh¨angig und durch ∞ ∞ ∞ n −nt/RC e δn (t)dt = dt = e−ξ dξ = 1 RC −∞ 0 0
(2.141)
gegeben. Offenbar n¨ahern sich die Glieder der Folge {δn (t)} := δ1 (t), δ2(t), δ3(t), . . .
(2.142)
f¨ ur gr¨oßer werdendes n in gewisser Weise immer mehr der Deltafunktion an. Man schreibt daher (2.143) δ(t) = {δn (t)}
Fourier-Transformation
Transformation verallgemeinerter Funktionen
2.5-81
a) 3 RC 2 RC 1 RC
δ3 (t) δ2 (t) δ1 (t) RC RC 3 2
RC
t
εn (t)
b) 1
n
t Bild 2.12: (a) Funktionenfolge zur Darstellung der Deltafunktion; (b) Folge der zugeh¨origen Integrale
und sagt, die Folge {δn (t)} repr¨asentiert die Deltafunktion. Nat¨ urlich k¨onnte man auch daran denken, einfach (2.144) δ(t) = lim δn (t) n→∞
zu schreiben. Hierbei muß allerdings ber¨ ucksichtigt werden, daß dieser Grenz¨ ubergang nicht im klassischen Sinne zu verstehen ist, da f¨ ur t = 0 die Folge {δn (t)} gar nicht konvergiert. Im Rahmen der Theorie der verallgemeinerten Funktionen kann die Beziehung (2.144) aber sinnvoll interpretiert werden. Mathematische Operationen mit δ(t) bzw. {δn (t)} werden komponentenweise definiert. Als Beispiel betrachten wir das Integral u ¨ber δ(t): t t δ(τ )dτ := δn (τ )dτ . (2.145) −∞
−∞
Setzen wir (2.138) in das Integral auf der rechten Seite ein, so folgt t δn (τ )dτ = εn (t)
(2.146)
−∞
mit
εn (t) = ε(t) 1 − e−nt/RC .
Die Gleichung (2.145) geht somit u ¨ ber in t δ(τ )dτ = {εn (t)} . −∞
(2.147)
(2.148)
82-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
In Bild 2.12b ist εn (t) f¨ ur n = 1, 2 und 3 dargestellt. Außer f¨ ur t = 0 strebt εn (t) f¨ ur n → ∞ gegen die Sprungfunktion ε(t). Unter physikalischen Gesichtspunkten ist dieser Unterschied zwischen lim εn (t) und ε(t) aber v¨ollig belanglos, so daß wir schreiben d¨ urfen lim εn (t) = ε(t) .
n→∞
(2.149)
Wir ersetzen daher die Folge in (2.148) durch ihre Grenzfunktion, d. h.
t
δ(τ )dτ = ε(t) , −∞
und finden somit (2.132) best¨atigt. Wir kehren nun noch einmal zur¨ uck zu unserer Schaltung in Bild 2.11. Dem Strom i(t) ordnen wir die Folge {in (t)} zu und schreiben daher unter Beachtung von (2.139) und (2.143) i(t) = {in (t)} = Q · {δn (t)} = Qδ(t) .
(2.150)
Mit der Spannung v(t) verfahren wir ¨ahnlich, d. h., wir setzen v(t) = {vn (t)} . ur t ≤ 0 Die Spannung vn (t) in der widerstandsbehafteten Schaltung ist wegen vn (t) = 0 f¨ durch t 1 t Q t in (τ )dτ = δn (τ )dτ = E δn (τ )dτ vn (t) = C −∞ C −∞ −∞ bzw.
vn (t) = Eεn (t) = Eε(t) 1 − e−nt/RC
(2.151)
gegeben, so daß wir f¨ ur v(t) folgendes Ergebnis erhalten v(t) = {vn (t)} = E · {εn (t)} = Eε(t) .
(2.152)
Die ermittelten Verl¨aufe f¨ ur den Strom i(t) und die Spannung v(t) k¨onnen nat¨ urlich in einer realen Schaltung nicht auftreten. Weder kann der Strom unendlich werden, noch kann die Spannung an einem Kondensator sich sprunghaft ¨andern. Ist jedoch die Zeitkonstante hinreichend klein, so wird die Ladung Q derart schnell auf den Kondensator u ¨bertragen, daß die hierf¨ ur ben¨otigte Zeit h¨aufig vernachl¨assigt werden kann. F¨ ur viele Untersuchungen ist es dann bequemer, mit den Idealisierungen (2.150) bzw. (2.152) zu arbeiten und nicht mit den realen Verl¨aufen nach (2.136) bzw. (2.151). Außer der in unserem Beispiel aufgetretenen Folge zur Darstellung der Deltafunktion lassen sich beliebig viele weitere Folgen f¨ ur diesen Zweck angeben. Es stellt sich daher die Frage, welche Bedingungen eine Folge erf¨ ullen muß, damit sie die Deltafunktion repr¨asentiert. Man kann zeigen, daß jedenfalls die naheliegenden Eigenschaften ∞ ∞ f¨ ur t = 0 und δn (t)dt = 1 , (2.153) lim δn (t) = 0 f¨ ur t = 0 n→∞ −∞ die ja auch die Folge in unserem Beispiel besaß, zur Kennzeichnung der Deltafunktion nicht ausreichen.
Fourier-Transformation
Transformation verallgemeinerter Funktionen
2.5-83
Zur Definition der Deltafunktion gehen wir von der Eigenschaft (2.132) aus, nach der das Integral u ¨ ber δ(t) = {δn (t)} gleich der Sprungfunktion ε(t) ist. Wir verlangen daher: lim
n→∞
t −∞
δn (τ )dτ =
0 f¨ ur t < 0 1 f¨ ur t > 0
.
(2.154)
Genaugenommen reicht dieses Kriterium zur Charakterisierung der Deltafunktion auch nicht "t aus. Zus¨atzlich m¨ ußte eigentlich noch verlangt werden, daß das Integral −∞ δn (τ )dτ beschr¨ankt bleibt. Da bei den in der Praxis gebr¨auchlichen Funktionenfolgen zur Darstellung der Deltafunktion diese Bedingung aber erf¨ ullt ist, wollen wir auf eine weitere Pr¨azisierung unserer Definition verzichten. ur jedes reelle Man kann sich leicht davon u ¨berzeugen, daß mit {δn (t)} auch {|α|δn (αt)} f¨ α = 0 ein Repr¨asentant der Deltafunktion ist. Es gilt n¨amlich f¨ ur α > 0 t αt 0 f¨ ur t < 0 |α|δn (ατ )dτ = lim δn (τ )dτ = . lim n→∞ −∞ n→∞ −∞ 1 f¨ ur t > 0 F¨ ur α < 0 erhalten wir t −∞
|α|δn (ατ )dτ =
∞
δn (τ )dτ = αt
∞
−∞
−
αt −∞
δn (τ )dτ
und somit lim
n→∞
t −∞
|α|δn (ατ )dτ =
1 − 1 = 0 f¨ ur αt > 0 bzw. t < 0 . 1 − 0 = 1 f¨ ur αt < 0 bzw. t > 0
Da wir die Folge {|α|δn (αt)} auch als |α|δ(αt) interpretieren k¨onnen, l¨aßt sich dieses Ergebnis ausdr¨ ucken durch δ(t) = |α|δ(αt) bzw. δ(αt) =
1 δ(t) , |α|
α ∈ R\{0} .
(2.155)
Setzen wir α = −1, so erkennen wir insbesondere, daß die Deltafunktion gerade ist, obwohl, wie unser Beispiel gezeigt hat, zu ihrer Darstellung keine Folgen aus geraden Funktionen herangezogen werden m¨ ussen. Da mit {δn (t)} und {δn (−t)} auch 12 {δn (t) + δn (−t)} die Deltafunktion repr¨asentiert, k¨onnen wir zur Darstellung der Deltafunktion aber stets Folgen aus geraden Funktionen verwenden. Wie zu Beginn dieses Abschnitts erw¨ahnt, resultiert die besondere Bedeutung der Deltafunktion aus der Ausblendeigenschaft, die unter Einbeziehung der Folge {δn (t)} durch ∞ ∞ x(t)δ(t)dt := lim x(t)δn(t)dt = x(0) (2.156) −∞
n→∞
−∞
ausgedr¨ uckt werden kann. Wir wollen diese Eigenschaft unter folgenden vereinfachenden Voraussetzungen beweisen: • Die Funktion x(t) sei stetig f¨ ur t = 0 und beschr¨ankt f¨ ur alle t, d. h. |x(t)| ≤ M < ∞ .
(2.157)
84-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
• Die Elemente der Folge {δn (t)} seien nichtnegativ, d. h. δn (t) ≥ 0 .
(2.158)
Durchf¨ uhrung des Beweises zerlegen wir zun¨achst das in (2.156) auftretende Integral "Zur ∞ x(t)δn(t)dt in die Summe −∞ ϑ ∞ −ϑ x(t)δn(t)dt + x(t)δn (t)dt + x(t)δn (t)dt , (2.159) −∞
−ϑ
ϑ
wobei ϑ eine (beliebig kleine) positive Konstante ist, und zeigen dann, daß f¨ ur n → ∞ die beiden ¨außeren Integrale verschwinden und das mittlere gegen x(0) strebt. Die Absch¨atzung des linken Integrals mit der Dreiecksungleichung ergibt unter Ber¨ ucksichtigung von (2.157) und (2.158)
−ϑ
−ϑ −ϑ
x(t)δn(t)dt ≤ |x(t)|δn(t)dt ≤ M δn (t)dt → 0 .
−∞
−∞
−∞
Wie durch den Pfeil angedeutet, streben f¨ ur n → ∞ die Glieder dieser Ungleichung gegen null [siehe(2.154)]. Beachten wir, daß aus (2.154) die Beziehung ∞ 1 f¨ ur t < 0 δn (τ )dτ = (2.160) lim n→∞ t 0 f¨ ur t > 0 folgt, so k¨onnen wir mit einer entsprechenden Absch¨atzung zeigen, daß auch das rechte Integral in (2.159) f¨ ur n → ∞ gegen null strebt. Wegen der vorausgesetzten Stetigkeit der Funktion x(t) f¨ ur t = 0 k¨onnen wir f¨ ur hinreichend kleine Werte von ϑ das mittlere Integral in (2.159) mit dem erweiterten Mittelwertsatz absch¨atzen und schreiben ϑ ϑ ϑ ϑ x(t)δn (t)dt = x(ξ) δn (t)dt = x(0) δn (t)dt + [x(ξ) − x(0)] δn (t)dt , −ϑ
−ϑ
−ϑ
−ϑ
wobei ξ der Bedingung −ϑ < ξ < ϑ gen¨ ugt. Da wegen der Stetigkeit von x(t) der Abstand |x(ξ) − x(0)| durch Wahl eines geeigneten ϑ > |ξ| ≥ 0 beliebig klein gemacht werden kann, d¨ urfen wir x(ξ) durch x(0) ersetzen: ϑ ϑ x(t)δn(t)dt = x(0) δn (t)dt . −ϑ
−ϑ
Lassen wir nun n gegen unendlich streben, so folgt unter Ber¨ ucksichtigung von (2.154) und ϑ −ϑ ϑ δn (t)dt = lim − δn (t)dt = 1 − 0 = 1 lim n→∞
−ϑ
n→∞
−∞
−∞
schließlich das gew¨ unschte Ergebnis, n¨amlich ϑ lim x(t)δn(t)dt = x(0) . n→∞
−ϑ
Dem vorstehenden Beweis k¨onnen wir unmittelbar auch die G¨ ultigkeit der folgenden Beziehung entnehmen: t t 0 f¨ ur t < 0 lim x(τ )δn (τ )dτ = lim x(0)δn (τ )dτ = . n→∞ −∞ n→∞ −∞ x(0) f¨ ur t > 0
Fourier-Transformation
Transformation verallgemeinerter Funktionen
2.5-85
Mit anderen Worten, die Folgen {x(t)δn(t)} = x(t){δn(t)} und {x(0)δn (t)} = x(0){δn (t)} stellen die gleiche verallgemeinerte Funktion dar, so daß wir schreiben d¨ urfen x(t)δ(t) = x(0)δ(t) .
(2.161)
Gelegentlich wird auch diese Beziehung als Ausblendeigenschaft bezeichnet. Man kann zeigen, daß die Ausblendeigenschaft g¨ ultig bleibt, wenn die Voraussetzungen, unter denen wir den Beweis gef¨ uhrt haben, gelockert werden. Insbesondere darf die Bedingung (2.159), nach der die Folgenelemente nichtnegativ sein sollten, verletzt werden. Als Beispiel hierf¨ ur betrachten wir die in der Praxis sehr h¨aufig auftretende Folge δ1n (t) =
sin(nΩt) , πt
(2.162)
die wir mit Hilfe der si-Funktion [siehe (2.17)] auch in der Form Ω si(nΩt) π
δ1n(t) = n
schreiben k¨onnen. Hierbei bezeichnet Ω eine beliebige positive Konstante mit der Dimension einer Frequenz. Bevor wir in einem etwas allgemeineren Zusammenhang auf den Nachweis eingehen, daß die Folge {δ1n(t)} die Deltafunktion repr¨asentiert, sei auf eine Besonderheit dieser Folge hingewiesen, die gut anhand der Funktionsverl¨aufe in Bild 2.10a zu erkennen ist. F¨ ur t = 0 strebt δ1n(t) mit zunehmendem n nicht gegen null, sondern oszilliert zwischen den 1 1 und − πt immer schneller hin und her. Das heißt, daß die Folge {δ1n (t)} Hyperbel¨asten πt f¨ ur kein t konvergiert, denn f¨ ur t = 0 strebt δ1n (t) gegen unendlich. Trotz dieses seltsamen Verhaltens spielt die Folge {δ1n (t)} in der Systemtheorie eine besonders wichtige Rolle. Die durch Integration aus {δ1n (t)} gewonnene Folge mit ε1n (t) := ε1n (t)
t −∞
δ1n (τ )dτ ,
deren Elemente mit Hilfe des Integralsinus
ξ
si(η)dη
Si(ξ) :=
(2.163)
0
in der Form
1 1 + Si(nΩt) 2 π geschrieben werden k¨onnen, konvergiert u ur alle t, und zwar gegen die Sprungfunktion ¨ brigens f¨ (siehe Bild 2.13b). Nahezu alle in der Systemtheorie benutzen Folgen zur Darstellung der Deltafunktion lassen sich ausdr¨ ucken durch δn (t) = αn g(αn t) , (2.164) ε1n (t) =
wobei g(t) eine integrierbare Funktion mit der Eigenschaft ∞ g(t)dt = 1 −∞
(2.165)
86-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
δ1n(t)
a)
−
n=3 n=2
1 πt
1 n = 1 πt t
1 − πt
1 πt ε1n(t)
b) 1
n
t Bild 2.13: (a) Darstellung der Deltafunktion mit Hilfe der si-Funktion; f¨ ur t = 0 und n → ∞ strebt δ1n (t) nicht gegen null, sondern oszilliert zwischen den skizzierten Hyperbel¨asten hin und her, (b) zugeh¨ orige Integrale
ist und wobei αn eine reelle Zahlenfolge bezeichnet mit lim αn = ∞ .
n→∞
Auch die beiden bisher betrachteten Folgen δn (t) = ε(t)
n −nt/RC e RC
und δ1n (t) = n
Ω si(nΩt) π
haben die Form (2.164), und zwar mit αn = n und g(t) = ε(t)
1 −t/RC e RC
bzw. g1 (t) =
Ω si(Ωt) . π
Daß g1 (t) die Bedingung (2.165) erf¨ ullt, kann leicht mit dem aus der Mathematik bekannten uneigentlichen Integral ∞ si(ξ)dξ = Si(∞) − Si(−∞) = π −∞
gezeigt werden. Umgekehrt kann mit Hilfe der Beziehung (2.164) aus jeder integrierbaren Funktion g(t) mit dem Integral ∞ g(t)dt = 1 −∞
Fourier-Transformation
Transformation verallgemeinerter Funktionen
2.5-87
eine Folge zur Darstellung der Deltafunktion gewonnen werden, so daß wir schreiben d¨ urfen
∞ −∞
g(t)dt = 1 ⇒ δ(t) = {ng(nt)} .
(2.166)
Der Beweis ergibt sich wie folgt: lim
n→∞
t
nt
ng(nτ )dτ = lim −∞
g(τ )dτ =
n→∞
−∞
−∞ g(τ )dτ = 0 f¨ ur t < 0 −∞
∞
g(τ )dτ
.
= 1 f¨ ur t > 0
−∞
Wenden wir die Deltafunktion konkret an, so m¨ ussen wir nat¨ urlich nicht in jedem Fall auf die Folgendarstellung zur¨ uckgreifen, sondern k¨onnen meistens unmittelbar von den Beziehungen ∞
x(t)δ(t)dt = x(0) ,
−∞ ∞ −∞
x(τ )δ(t − τ )dτ = x(t)
oder
t
δ(τ )dτ = ε(t)
(2.167)
−∞
Gebrauch machen. Dies gilt auch f¨ ur die Gleichung δ(t) =
dε(t) , dt
(2.168)
die wir durch Umkehrung von (2.167) erhalten und die ebenfalls im Rahmen der klassischen Analysis nicht sinnvoll gedeutet werden kann. In der Theorie der verallgemeinerten Funktionen ist eine Interpretation aber ohne weiteres m¨oglich. Hierzu fassen wir ε(t) als verallgemeinerte Funktion auf und stellen sie durch eine Folge von differenzierbaren Funktionen dar. Die Differentiation definieren wir dann, wie zuvor schon die Integration [siehe (2.145)], komponentenweise: dε(t) dεn (t) . (2.169) := dt dt Beispielsweise k¨onnen wir ε(t) durch die Folge ε(t) = {εn (t)}
mit εn (t) =
1 1 + arctan(nΩt) 2 π
(2.170)
darstellen, wobei Ω wieder eine Konstante bedeutet (siehe Bild 2.14a). Die Differentiation ergibt dεn (t) nΩ 1 δ(t) = = . (2.171) dt π 1 + (nΩt)2 Auch diese Folge, deren erste drei Elemente Bild 2.14b zeigt, hat offenbar die Form (2.164). Die Deltafunktion kann differenziert werden, und zwar, wie jede verallgemeinerte Funktion, sogar beliebig oft. Wir wollen hier nur die erste Ableitung der Deltafunktion n¨aher betrachten, da die Ergebnisse f¨ ur die h¨oheren Ableitungen in ¨ahnlicher Weise gewonnen werden k¨onnen.
88-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
εn (t)
a)
1 n
t δn (t)
b) 3Ω π 2Ω π Ω π
t Bild 2.14: (a) Darstellung der Sprungfunktion durch eine Folge differenzierbarer Funktionen, (b) die Folge der zugeh¨ origen Ableitungen ist ein Repr¨asentant der Deltafunktion
Um die Deltafunktion zu differenzieren, stellen wir diese durch eine Folge differenzierbarer Funktionen dar und f¨ uhren die Differentiation komponentenweise aus: dδ(t) dδn (t) := . (2.172) δ (t) = dt dt Auch f¨ ur diese Funktion kann eine Ausblendeigenschaft formuliert werden, und zwar wie folgt: x(t)δ (t) = −x(0)δ(t) ˙ + x(0)δ (t) .
(2.173)
Zum Beweis dieser Beziehung brauchen wir nur beide Seiten der Gleichung (2.161) zu differen zieren und das Resultat x(t)δ(t)+x(t)δ ˙ (t) = x(0)δ (t) unter Beachtung von x(t)δ(t) ˙ = x(0)δ(t) ˙ nach x(t)δ (t) aufzul¨osen. Zur Herleitung einer" Integralform der Ausblendeigenschaft integrieren wir (2.173) u ¨ ber "∞ ∞ (−∞, ∞) und beachten −∞ δ(τ )dτ = 1 sowie −∞ δ (τ )dτ = δ(∞) = 0 :
∞ −∞
x(τ )δ (τ )dτ = −x(0) ˙ .
Ersetzen wir in (2.174) die Funktion x(τ ) durch x(t − τ ) und ber¨ ucksichtigen ∂ x(t − τ ) = −x(t ˙ − τ) , ∂τ
(2.174)
Fourier-Transformation
so erhalten wir
Transformation verallgemeinerter Funktionen
∞
−∞
2.5-89
x(t − τ )δ (τ )dτ = x(t) ˙ .
bzw. δ (t) ∗ x(t) = x(t) ˙ .
(2.175)
Dieses Ergebnis gilt in entsprechender Form auch f¨ ur die h¨oheren Ableitungen der Deltafunktion. Bezeichnen wir die k-te Ableitung der Deltafunktion mit δ (k)(t) und die der Funktion x(t) mit x(k) (t), so k¨onnen wir schreiben δ (k)(t) ∗ x(t) = x(k)(t) .
(2.176)
Verstehen wir unter δ (0)(t) und x(0)(t) die jeweils nicht abgeleitete Funktion, so enth¨alt (2.176) u ¨ brigens auch den Sonderfall (2.130). W¨ahrend die Multiplikation zweier verallgemeinerter Funktionen i. allg. nicht befriedigend erkl¨art werden kann, l¨aßt sich deren Faltung h¨aufig sinnvoll durchf¨ uhren. Die Gleichung (2.176) bleibt beispielsweise g¨ ultig, wenn die Funktion x(t) durch die Deltafunktion δ(t) ersetzt wird, so daß insbesondere die Beziehung δ(t) ∗ δ(t) = δ(t) gilt. Andererseits kann mit Hilfe der Folgendarstellung gezeigt werden, daß eine widerspruchsfreie Definition des Quadrats δ 2(t) nicht m¨oglich ist.
2.5.2
Transformation der Deltafunktion und verwandter Funktionen
Unter Beachtung der Ausblendeigenschaft erhalten wir f¨ ur die Fourier-Transformierte der Deltafunktion ∞ F {δ(t)} = δ(t)e− jωt dt = 1 . (2.177) −∞
Das Spektrum der Deltafunktion ist also f¨ ur alle reellen Frequenzen konstant, d. h., die Bandbreite dieser Funktion ist unendlich. In diesem Resultat spiegelt sich offenbar die verschwindende Dauer der Deltafunktion wider. Die formale R¨ ucktransformation der Konstanten 1 in den Zeitbereich f¨ uhrt auf das Integral ∞ 1 δ(t) = e jωt dω , (2.178) 2π −∞ das im klassischen Sinne nicht konvergiert. Es kann aber als verallgemeinerte Funktion interpretiert werden. Hierzu ersetzen wir die Integrationsgrenzen −∞ und ∞ durch −nΩ bzw. nΩ und erhalten die Folge nΩ sin(nΩt) 1 jωt e dω = , 2π −nΩ πt die wir im vorhergehenden Abschnitt bereits als Repr¨asentanten der Deltafunktion kennengelernt haben [siehe (2.162)]. Als n¨achstes bestimmen wir die Fourier-Transformierte des Gleichsignals x(t) = 1. Eine unmittelbare Auswertung des Fourier-Integrals ist auch hier nicht m¨oglich. Wir stellen daher x(t) durch eine Folge transformierbarer Signale dar: 0 f¨ ur |t| > nT . x(t) = {xn (t)} mit xn (t) = 1 f¨ ur |t| < nT
90-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
Hierbei bezeichnet T eine beliebige positive Konstante. Unter Zuhilfenahme der rect-Funktion [siehe(2.15)] l¨aßt sich die Folge {xn (t)} offenbar auch durch t x(t) = {xn (t)} = rect nT ausdr¨ ucken. Die Elemente von {xn (t)} k¨onnen f¨ ur jede nat¨ urliche Zahl n transformiert werden: nT sin(nωT ) Xn ( jω) = F {xn (t)} = e− jωt dt = 2 . ω −nT Als Fourier-Transformierte des Signals x(t) = 1 fassen wir daher die verallgemeinerte Funktion sin(nωT ) sin(nωT ) = 2π F {1} = 2 ω πω auf. Da wir in der rechten Folge einen Repr¨asentanten der Deltafunktion erkennen [vgl. (2.162)], k¨onnen wir schreiben8 F {1} = 2πδ(ω) .
(2.179)
Die R¨ ucktransformation der Funktion 2πδ(ω) in den Zeitbereich ergibt, wie man mit Hilfe der Ausblendeigenschaft leicht zeigen kann, erwartungsgem¨aß das Signal x(t) = 1. Die Spektralfunktion des Gleichsignals besteht also aus einem (unendlich großen) Impuls an der Stelle ω = 0. Dieses Ergebnis ist keineswegs u ¨ berraschend; es reflektiert die Tatsache, daß ein Gleichsignal keine anderen Frequenzkomponenten als ω = 0 enth¨alt. Wir betrachten nun noch die Fourier-Transformierten der Ableitungen der Deltafunktion. Unter Ber¨ ucksichtigung des Differentiationssatzes erhalten wir f¨ ur die erste Ableitung F {δ (t)} = jωF {δ(t)} = jω
(2.180)
und f¨ ur die h¨oheren Ableitungen F {δ (k)(t)} = ( jω)k , k = 0, 1, 2, . . . .
(2.181)
Dieses Ergebnis k¨onnen wir auch indirekt durch die Transformation des Faltungsprodukts (2.176) in den Frequenzbereich best¨atigen. Denn aus F {δ (k)(t) ∗ x(t)} = F {x(k)(t)} folgt F {δ (k)(t)} · X( jω) = ( jω)k X( jω) . Wenden wir schließlich den Differentiationssatz in der Form x(t) ◦−−• X( jω) ⇒ tx(t) ◦−−• j
dX dω
auf (2.179) an, so finden wir F {t} = j 8
d F {1} = j2πδ (ω) dω
(2.182)
Das Ergebnis (2.179) h¨ atten wir nat¨ urlich auch durch Symmetrie¨ uberlegungen, d. h. durch Anwendung ¨ der Aquivalenz (2.48), unmittelbar aus (2.177) herleiten k¨onnen.
Fourier-Transformation
Transformation verallgemeinerter Funktionen
2.5-91
bzw. nach wiederholter Anwendung F {tk } = jk 2πδ (k)(ω) , k = 0, 1, 2, . . . .
(2.183)
Auch dieses Ergebnis h¨atten wir nicht durch eine unmittelbare Auswertung des FourierIntegrals gewinnen k¨onnen. Die Transformation ließe sich aber dadurch ausf¨ uhren, daß man k die “gew¨ohnliche” Funktion x(t) = t als verallgemeinerte Funktion auffaßt und beispielsweise durch die Folge t k x(t) = {xn (t)} = t rect nT repr¨asentiert, die komponentenweise transformiert werden kann.
2.5.3
Fourier-Transformation der Sprungfunktion
Der Versuch, die Fourier-Transformierte der Sprungfunktion ε(t) durch unmittelbare Auswertung des Fourier-Integrals zu berechnen, scheitert an der Divergenz des Integrals ∞ ∞ 1 − e− jωt − jωt ε(t)e dt = e− jωt dt = lim , t→∞ jω −∞ 0 d. h. daran, daß der angedeutete Grenz¨ ubergang nicht vorgenommen werden kann. Die Ursache hierf¨ ur ist aber nicht die Unstetigkeit der Funktion ε(t) an der Stelle t = 0, sondern das Verhalten von ε(t) f¨ ur t → ∞. Zur L¨osung dieses Problems bietet es sich an, ε(t) als verallgemeinerte Funktion aufzufassen und durch eine Folge aus transformierbaren Funktionen darzustellen. Eine f¨ ur unsere Zwecke besonders geeignete (d. h. mathematisch sehr bequem zu handhabende) Folge ist durch ε(t) = {εn (t)} mit εn (t) = ε(t)e−t/nT gegeben, wobei T eine beliebige positive Konstante bezeichnet (siehe Bild 2.15). εn (t)
n=∞
1
n
T
t
Bild 2.15: Darstellung der Sprungfunktion durch die Folge {ε(t)e−t/nT }
Als Fourier-Transformierte E( jω) = F {ε(t)} definieren wir dann die verallgemeinerte Funktion (2.184) E( jω) = {En ( jω)} mit En ( jω) = F {εn(t)} . Unter Ber¨ ucksichtigung des Transformationspaars (2.41) erhalten wir f¨ ur En ( jω) En ( jω) =
nT . 1 + jωnT
(2.185)
92-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
Bei einer oberfl¨achlichen Betrachtung k¨onnte nun leicht der Eindruck entstehen, als konvergierte En ( jω) f¨ ur n → ∞ gegen 1/ jω, d. h., als w¨are die Fourier-Transformierte der Sprungfunktion durch die ungerade Funktion 1/ jω gegeben. Da die Sprungfunktion aber gem¨aß ε(t) =
1 1 + sgn(t) 2 2
(2.186)
in einen geraden und einen ungeraden Teil zerlegt werden kann, w¨ urde dies der Erwartung widersprechen, daß auch E( jω) einen geraden und einen ungeraden Teil besitzt [siehe (2.33)]. Wir zerlegen daher zun¨achst die Spektralfunktion En ( jω) in ihren geraden und ihren ungeraden Teil, d. h. En ( jω) = Eng ( jω) + Enu ( jω) mit
nT − jω(nT )2 und E ( jω) = , nu 1 + (nωT )2 1 + (nωT )2 und treffen folgende Zuordnung: 1 nT F = {Eng ( jω)} = , 2 1 + (nωT )2 ω(nT )2 1 sgn(t) = {Enu ( jω)} = − j . F 2 1 + (nωT )2 Eng ( jω) =
(2.187) (2.188)
Die Komponenten der in (2.187) auftretenden Folge lassen sich darstellen in der Form Eng ( jω) = πng(nω) , wobei die Funktion g(ω) = das Integral
∞
(2.189)
T 1 · π 1 + (ωT )2
1 g(ω)dω = π −∞
∞
−∞
1 dξ = 1 1 + ξ2
besitzt. Nach den Ausf¨ uhrungen im Abschnitt 2.5.1 repr¨asentiert die Folge (2.187) demnach das π-fache der Deltafunktion, so daß wir mit F {1/2} = πδ(ω) bzw. F {1} = 2πδ(ω) das im vorhergehenden Abschnitt gewonnene Ergebnis (2.179) noch einmal best¨atigt erhalten. Zur Interpretation der in (2.188) aufgef¨ uhrten Folge {Enu ( jω)} betrachten wir den in Bild 2.16 dargestellten Verlauf der Funktion − jEnu ( jω). Wir erkennen, daß in unmittelbarer Umgebung des Ursprungs (d. h. f¨ ur |nωT | 1 bzw. f¨ ur |ω| 1/nT ) die Funktionswerte n¨ahe2 ur rungsweise auf der Geraden −ω(nT ) liegen und unabh¨angig von n stets Enu (0) = 0 gilt. F¨ |ω| 1/nT streben die Funktionswerte asymptotisch gegen die Hyperbel −1/ω. Die Folge ur jedes ω, und zwar gilt {Enu ( jω)} konvergiert somit f¨ 0 f¨ ur ω = 0 1 . (2.190) lim Enu ( jω) = f¨ ur ω = 0 n→∞ jω Setzen wir der Einfachheit halber voraus, daß der Ausdruck wird, so k¨onnen wir schreiben
F
1 sgn(t) 2
=
1 jω
1 f¨ ur ω = 0 als null interpretiert jω
Fourier-Transformation
Transformation verallgemeinerter Funktionen
2.5-93
− jEnu ( jω) n
1 − ω
ω
− n
1 ω
Bild 2.16: Verlauf des Imagin¨arteils der Fourier-Transfomierten von ε(t)e−t/nT
bzw. sgn(t) ◦−−•
2 . jω
(2.191)
Fassen wir die Ergebnisse f¨ ur die Konstante und die Signumfunktion zusammen, so erhalten wir f¨ ur die Fourier-Transformierte der Sprungfunktion 1 1 F {ε(t)} = F {1} + F {sgn(t)} 2 2 und folglich das Transformationspaar ε(t) ◦−−• πδ(ω) +
1 . jω
(2.192)
Das Ergebnis (2.191) k¨onnen wir auch durch R¨ ucktransformation der Spektralfunktion best¨atigen, d. h. durch Auswertung des Integrals ∞ 2 jωt 2 1 −1 e dω . (2.193) F = jω 2π −∞ jω Hierbei ist allerdings zu beachten, daß dieses Integral wegen der Singularit¨at des Integranden an der Stelle ω = 0 nicht im gew¨ohnlichen Sinne konvergiert. Wir k¨onnen aber den Cauchyschen Hauptwert (abgek¨ urzt: V.P. = valor principalis) des Integrals bestimmen, indem wir ein symmetrisch um ω = 0 liegendes Intervall bei der Integration zun¨achst ausschließen und die entstehende L¨ ucke wie folgt schließen: −ϕ ∞ ∞ := lim + . V.P. −∞
ϕ→0 ϕ>0
−∞
ϕ
In ¨ahnlicher Weise verfahren wir mit dem Grenz¨ ubergang bei den im Unendlichen liegenden Integrationsgrenzen. F¨ ur das Integral in (2.193) erhalten wir dann −ϕ Ω ∞ 1 1 1 jωt 1 jωt 2 −1 = V.P. e dω = lim e dω + F jω π π ϕ→0 −∞ jω −Ω ϕ jω Ω→∞
94-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
und weiter, nach der Substitution ω → −ω im ersten Integral auf der rechten Seite, Ω jωt 1 2 ∞ e − e− jωt 2 −1 = lim dω = F t si(ωt)dω . jω π ϕ→0 ϕ jω π 0 Ω→∞
Unter Ber¨ ucksichtigung der bekannten Integrale 0 ∞ π si(ξ)dξ = si(ξ)dξ = 2 0 −∞ folgt schließlich
−∞ 2 si(ξ)dξ = −1 f¨ ur t < 0 ∞ π 0 2 2 = F −1 t si(ωt)dω = f¨ ur t = 0 ∞ 0 jω π 0 2 si(ξ)dξ = 1 f¨ ur t > 0 π 0
und somit die aufgestellte Behauptung F
−1
2 jω
= sgn(t) .
(2.194)
¨ Mit Hilfe der Aquivalenz (2.48) k¨onnen wir aus dem soeben gewonnenen Transformationspaar, d. h. aus 2 sgn(t) ◦−−• , (2.195) jω sofort ein weiteres Paar herleiten: sgn(ω) •−−◦ j
1 . πt
(2.196)
Unter Beachtung des Paares 1 •−−◦ δ(t) erhalten wir aus (2.196) schließlich noch 2ε(ω) •−−◦ δ(t) + j
2.5.4
1 . πt
(2.197)
Integrationssatz der Fourier-Transformation
Im Abschnitt 2.2.2 haben wir u. a. die folgende Form der Integrationssatzes kennengelernt: t X( jω) . x(τ )dτ ◦−−• x(t) ◦−−• X( jω) ⇒ jω −∞ Diese Aussage gilt, wie in (2.63) erw¨ahnt, aber nur unter der Voraussetzung ∞ X(0) = x(t)dt = 0 . −∞
Wir wollen nun zeigen, wie der Integrationssatz erweitert werden muß, wenn X(0) einen beliebigen von null verschiedenen (aber endlichen) Wert besitzt. Zu diesem Zweck stellen wir die Integration von x(t) durch die Faltung mit ε(t) dar: ∞ t x(τ )dτ = x(τ )ε(t − τ )dτ = x(t) ∗ ε(t) . −∞
−∞
Fourier-Transformation
Transformation verallgemeinerter Funktionen
1 jω
Hieraus erhalten wir mit ε(t) ◦−−• πδ(ω) +
t
2.5-95
1 x(τ )dτ = x(t) ∗ ε(t) ◦−−• X( jω) πδ(ω) + jω −∞
.
Beachten wir schließlich die Ausblendeigenschaft in der Form X( jω)δ(ω) = X(0)δ(ω), so folgt das angek¨ undigte Ergebnis t X( jω) x(τ )dτ ◦−−• (2.198) + πX(0)δ(ω) . jω −∞ Mit einer entsprechenden Argumentation k¨onnen wir f¨ ur die andere Transformationsrichtung die nachstehende Beziehung herleiten: ω x(t) X( jv)dv •−−◦ j (2.199) + πx(0)δ(t) . t −∞ Falls X(0) nicht definiert oder nicht endlich ist, k¨onnen wir die Formel (2.198) offenbar " t nicht verwenden. Dies bedeutet jedoch keinesfalls, daß die Fourier-Transformierte von ∞ x(τ )dτ dann nicht existiert. F¨ ur x(t) = ε(t) erhalten wir beispielsweise t 1 d πδ(ω) + ε(τ )dτ = tε(t) ◦−−• j dω jω −∞ und damit tε(t) ◦−−• jπδ (ω) −
1 . ω2
Mit der Formel (2.198) h¨atten wir dieses Transformationspaar wegen nicht bestimmen k¨onnen. Erg¨anzend sei bemerkt, daß sich die oben benutzte Beziehung t x(τ )dτ = x(t) ∗ ε(t) ,
(2.200) "∞ −∞
ε(t)dt = ∞ hingegen
(2.201)
−∞
nach der die Integration durch eine Faltung ersetzt werden kann, verallgemeinern l¨aßt auf den Fall der wiederholten Integration. Zur bequemen Darstellung der Ergebnisse f¨ uhren wir f¨ ur die Integration folgende Abk¨ urzung ein: t x(k+1) (τ )dτ , k = −1, −2, −3, . . . mit x(0)(t) := x(t) . (2.202) x(k) (t) := −∞
Wenden wir diese Bezeichnungsweise auf die Deltafunktion an, so erhalten wir t (−1) (t) = δ(τ )dτ = ε(t) , δ −∞
δ
(−2)
t
(t) =
ε(τ )dτ
= tε(t) ,
−∞
δ
(−3)
t
(t) =
τ ε(τ )dτ = −∞
.. .
t2 ε(t) , 2!
96-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
und somit allgemein f¨ ur k ∈ {0, −1, −2, . . .}: δ (k−1) (t) = u(k)(t) =
t|k| ε(t) . |k|!
(2.203)
Die Verallgemeinerung der Formel (2.201) lautet nun wie folgt: x(k)(t) = x(t) ∗ δ (k)(t) , k = −1, −2, −3, . . . .
(2.204)
Mit anderen Worten, die n-mal hintereinander auszuf¨ uhrende Integration (n = −k), d. h. t τn τ3 τ3 τ2 ··· x(τ1)dτ1 dτ2 dτ3 · · · dτn−1 dτn , x(−n) (t) = −∞
−∞
−∞
kann ersetzt werden durch die Faltung x(t) ∗ δ
(−n)
−∞
−∞
t
(t) =
x(τ ) −∞
(t − τ )n−1 dτ , (n − 1)!
(2.205)
d. h. durch eine einzige Integration. Hierbei muß selbstverst¨andlich vorausgesetzt werden, daß die auftretenden Integrale u ¨ berhaupt existieren. Den Beweis f¨ ur die Richtigkeit der Beziehung (2.204) f¨ uhren wir durch vollst¨andige Induktion. F¨ ur k = −1 geht (2.204) wegen δ (−1)(t) = ε(t) u ¨ ber in (2.201) und ist folglich richtig. Wir m¨ ussen nun zeigen, daß aus x(k)(t) = x(t) ∗ δ (k)(t) ,
k = −1, −2, −3, . . .
(2.206)
stets x(k−1) (t) = x(t) ∗ δ (k−1) (t)
(2.207)
folgt. Hierzu ersetzen wir in (2.206) auf beiden Seiten x(t) durch x(−1) (t), d. h. x(k−1) (t) = x(−1)(t) ∗ δ (k)(t) ,
(2.208)
und weisen nach, daß die rechten Seiten in (2.207) und (2.208) gleich sind. Ausf¨ uhrlich geschrieben lautet (2.208) t (t − τ )|k|−1 (k−1) x (t) = x(−1)(τ ) dτ . (|k| − 1)! −∞ Die partielle Integration dieses Integrals liefert
τ =t t (t − τ )|k|
(t − τ )|k| (k−1) (−1) dτ . (t) = −x (τ ) + x(τ ) x |k|! τ =−∞ |k|! −∞
(2.209)
Wir setzen nun zus¨atzlich voraus, daß gilt lim τ |k| x(−1)(τ ) = 0 ,
τ →−∞
ur τ → −∞ schneller gegen null strebt als |τ |−|k| . Hierdurch ist gew¨ahrd. h., daß x(−1) (τ ) f¨ leistet, daß der erste Ausdruck auf der rechten Seite der Gleichung (2.209) verschwindet. Das verbleibende Integral ist offenbar gleich der Faltung x(t) ∗ δ (k−1) (t), was zu zeigen war. Beachten wir die Kommutativit¨at des Faltungsprodukts, so k¨onnen wir (2.204) offenbar auch in der Form δ (k)(t) ∗ x(t) = x(k)(t)
(2.210)
schreiben, die wir f¨ ur k = 0, 1, 2, . . . bereits als Gleichung (2.176) kennengelernt haben. Diese Gleichung gilt also f¨ ur alle ganzen Zahlen k, sofern x(k)(t) existiert.
Fourier-Transformation
2.5.5
Transformation verallgemeinerter Funktionen
2.5-97
Fourier-Transformation periodischer und fastperiodischer Signale
Mit Hilfe des Modulationssatzes [siehe (2.44b)] k¨onnen wir aus (2.179) sofort die FourierTransformierte der Exponentialschwingung e jω0 t bestimmen: F e jω0 t = 2πδ(ω − ω0 ) .
(2.211)
Aufgrund der Linearit¨at der Fourier-Transformation erhalten wir hieraus f¨ ur das Cosinusund das Sinussignal, d. h. f¨ ur cos ω0 t =
1 jω0 t 1 − jω0 t + e e 2 2
und
sin ω0 t =
1 jω0 t 1 − e− jω0 t , e 2j 2j
die Spektralfunktionen F {cos ω0 t} = πδ(ω − ω0 ) + πδ(ω + ω0 ) F {sin ω0 t} = − jπδ(ω − ω0 ) + jπδ(ω + ω0 )
(2.212a)
.
(2.212b)
W¨ahrend die komplexe Exponentialschwingung im Frequenzbereich nur durch einen einzelnen Impuls an der Stelle ω = ω0 repr¨asentiert wird, treten f¨ ur die reellen Signale cos ω0 t und sin ω0 t jeweils zwei Impulse auf, und zwar an den Stellen ω = ω0 und ω = −ω0 (Bild 2.17). E( jω)
C( jω) 2πδ(ω − ω0 )
πδ(ω + ω0 )
jS( jω) πδ(ω − ω0 )
πδ(ω − ω0 ) −ω0
ω0
ω
−ω0
ω
ω0
ω0
ω
−πδ(ω + ω0 ) Bild 2.17: Spektren der elementaren periodischen Signale e jω0 t , cos ω0 t und sin ω0 t E( jω) = F {e jω0 t }, C( jω) = F {cos ω0 t}, S( jω) = F {sin ω0 t}
Die Fourier-Transformation eines allgemeinen periodischen oder fastperiodischen Signals Xν e jων t (2.213) ν
f¨ uhrt in entsprechender Weise zu dem Ergebnis & ' F Xν e jων t = 2π Xν δ(ω − ων ) . ν
(2.214)
ν
Das Spektrum eines periodischen oder fastperiodischen Signals besteht also aus einer Summe von gewichteten Impulsen, den sogenannten Spektrallinien. Ein derartiges Spektrum wird daher als Linienspektrum bezeichnet.
98-2.5
Transformation verallgemeinerter Funktionen
Fourier-Transformation
Zur Beschreibung von Abtastvorg¨angen wird gelegentlich folgendes periodisches Signal benutzt: ∞ δ(t + νT ) , T > 0 . (2.215) δT (t) := ν=−∞
Da der Graph dieses Signals (Bild 2.18) an einen Kamm erinnert, wird δT (t) auch als Impulskamm bezeichnet. Ber¨ ucksichtigen wir, daß im Intervall (−T /2, T /2) nur ein Impuls, n¨amlich δT (t)
−2T
−T
0
T
2T
t
Bild 2.18: Impulskamm δT (t) mit der Periode T ; die zugeh¨orige Spektralfunktion F {δT (t)} = ΩδΩ (ω) ist ebenfalls ein Impulskamm [siehe (2.218)], dieser hat die Periode Ω = 2π/T
δ(t), auftritt, so erhalten wir f¨ ur die Fourier-Koeffizienten durch Auswertung des Integrals ' & 1 T /2 − jµΩt = δ(t)e− jµΩt dt M δT (t)e T −T /2 jeweils den Wert 1/T . Wir k¨onnen daher schreiben ∞
δ(t + νT ) =
ν=−∞
∞ 1 jµΩt e , T µ=−∞
ΩT = 2π .
(2.216)
Die Fourier-Transformation dieser Gleichung f¨ uhrt zu einer ¨ahnlichen Beziehung im Fre9 quenzbereich: ∞
e
jνωT
∞
=Ω
ν=−∞
δ(ω + µΩ) = ΩδΩ (ω) ,
ΩT = 2π .
(2.217)
µ=−∞
Wir haben somit die beiden folgenden Transformationspaare gefunden: ∞
δ(t + νT ) ◦−−• Ω
ν=−∞
∞
ν=−∞
e
jνΩt
◦−−• T
∞ µ=−∞ ∞
δ(ω + µΩ) . e
(2.218)
jµωT
µ=−∞
Die in der zweiten Zeile von (2.218) auftretenden Reihen sind im Sinne der klassischen Analysis nat¨ urlich nicht konvergent. Sie lassen sich aber im Rahmen der verallgemeinerten Funktionen sinnvoll interpretieren. ¨ Um zu einer einheitlichen Darstellung zu gelangen, wurde beim Ubergang von (2.216) zu (2.217) der Summationsindex µ durch −µ ersetzt. 9
Fourier-Transformation
Lineare zeitinvariante Systeme
2.6-99
Es besteht u ¨brigens ein enger Zusammenhang zwischen dem Impulskamm und der im Abschnitt 1.4.2 betrachteten S¨agezahnfunktion s(t), die wir in die Fourier-Reihe s(t) =
∞ ν=−∞ ν=0
1 jνΩt e jν2π
(2.219)
entwickelt haben. Ber¨ ucksichtigen wir, daß s(t) an den Stellen t = kT (k = 0, ±1, ±2, . . .) jeweils einen Sprung der H¨ohe 1 (siehe Bild 1.9a) ausf¨ uhrt und ansonsten die Steigung −1/T besitzt, erhalten wir f¨ ur die Ableitung von s(t) ∞ 1 δ(t + νT ) . s(t) ˙ =− + T ν=−∞
Die zugeh¨orige Fourier-Reihenentwicklung lautet daher ∞ ∞ 1 1 jνΩt 1 jνΩt s(t) ˙ =− + e = e . T T ν=−∞ T ν=−∞ ν=0
Dies ist offenbar das gleiche Ergebnis, das eine gliedweise Differentiation der Fourier-Reihe (2.219) liefern w¨ urde.
2.6 2.6.1
Lineare zeitinvariante Systeme ¨ Impulsantwort und Ubertragungsfunktion
Zu Beginn des 2. Kapitels haben wir durch Betrachtungen im Frequenzbereich f¨ ur das Aus¨ gangssignal eines linearen zeitinvarianten Systems mit der Ubertragungsfunktion H( jω) folgende Beziehung erhalten: 1 y(t) = 2π
∞
H( jω)X( jω)e jωtdω .
(2.220)
−∞
Hierbei bezeichnet X( jω) die Fourier-Transformierte des Eingangssignals x(t). F¨ uhren wir noch die Fourier-Transformierte des Ausgangssignals y(t) ein, d. h. Y ( jω) = F {y(t)}, so k¨onnen wir statt (2.220) auch schreiben Y ( jω) = H( jω)X( jω) .
(2.221)
Bei der Herleitung der Beziehung (2.220) waren wir von der Tatsache ausgegangen, daß wir das Eingangssignal mit Hilfe der Fourier-Transformation in Exponentialschwingungen zerlegen k¨onnen und daß die Antwort des Systems auf jede einzelne dieser Schwingungen besonders einfach zu bestimmen ist. ¨ Wir wollen nun das Ubertragungsverhalten eines linearen Systems, das durch einen Systemoperator S {·} repr¨asentiert werde, auf eine andere Weise beschreiben. Zu diesem Zweck n¨ahern wir, wie in Bild 2.19 angedeutet, das Einganssignal x(t) durch eine Treppenfunktion xn (t) mit der Stufenbreite T /n an (T > 0, n = 1, 2, 3, . . .) und lassen anschließend n gegen
100-2.6
Lineare zeitinvariante Systeme
Fourier-Transformation
unendlich und die Stufenbreite damit gegen null streben, so daß sich xn (t) immer mehr dem Signal x(t) ann¨ahert, und wir unter sehr allgemeinen Voraussetzungen schreiben d¨ urfen x(t) = lim xn (t) .
(2.222)
n→∞
Die Treppenfunktion xn (t) k¨onnen wir offenbar als Summe u ¨ ber gewichtete und verschobene rect-Funktionen der Breite T /n darstellen, d. h. durch ∞ t − tν x(tν ) rect xn (t) = , (2.223) T /2n ν=−∞ uhren nun die Bezeichnungen mit tν := νT /n. Wir f¨ n nt und ∆t := tν − tν−1 = T /n δn (t) := rect T T /2 ein und dr¨ ucken hiermit xn (t) wie folgt aus: xn (t) =
∞
x(tν )δn (t − tν )∆t .
(2.224)
ν=−∞
Die Folge {δn (t)} repr¨asentiert, wie man leicht u ufen kann, die Deltafunktion. Der ¨ berpr¨ x(t), xn (t) xn (t) x(t)
t−2
t−1
t1
t−3
t2
t3
T /n Bild 2.19: Ann¨ aherung des Signals x(t) durch eine Treppenfunktion xn (t)
Grenz¨ ubergang n → ∞ bzw. ∆t → 0 f¨ uhrt somit zu der Beziehung ∞ x(t)δ(t − t)dt = x(t) ∗ δ(t) , x(t) = lim xn (t) = n→∞
(2.225)
−∞
die wir im Abschnitt 2.5.1 bereits auf andere Weise erhalten hatten. Wir nehmen nun an, daß die Antwort des Systems auf δn (t), d. h. hn (t) := S {δn (t)} ,
(2.226)
f¨ ur n = 1, 2, 3, . . . existiert. Hierbei setzen wir voraus, daß das System vor Eintreffen des Impulses in Ruhe ist, s¨amtliche Energiespeicher also leer sind. Die Folge h(t) = {hn (t)}
Fourier-Transformation
Lineare zeitinvariante Systeme
2.6-101
repr¨asentiert dann die sogenannte Impulsantwort h(t) = S {δ(t)} .
(2.227)
Unter Beachtung der drei Systemeigenschaften Zeitinvarianz, Homogenit¨at und Additivit¨at k¨onnen wir nun aus (2.224) in folgenden Schritten das zu xn (t) geh¨orige Ausgangssignal yn (t) := S {xn (t)} gewinnen: S {δn (t − tν )}
=
hn (t − tν ) ,
(Zeitinvarianz)
S {x(tν )δn (t − tν )∆t}
=
x(tν )hn (t − tν )∆t ,
(Homogenit¨at)
yn (t) = S {
x(tν )δn (t − tν )∆t} =
ν
x(tν )hn (t − tν )∆t . (Additivit¨at)
ν
uhrt schließlich zu dem gew¨ unschten Ergebnis Der Grenz¨ ubergang n → ∞ bzw. ∆t → 0 f¨ y(t) = lim yn (t) = S {x(t)} = n→∞
∞
−∞
x(t)h(t − t)dt = x(t) ∗ h(t) .
(2.228)
Wegen der Kommutativit¨at der Faltung k¨onnen wir hierf¨ ur auch schreiben y(t) = h(t) ∗ x(t) =
∞ −∞
h(τ )x(t − τ )dτ .
(2.229)
¨ Mit (2.228) bzw. (2.229) haben wir eine Beziehung gewonnen, mit der wir das Ubertragungsverhalten des Systems im Zeitbereich berechnen k¨onnen. Wie schon zuvor im Frequenzbereich kann auch hier das System durch eine einzige Funktion charakterisiert werden, ¨ und zwar durch die Impulsantwort h(t). Um einen Zusammenhang mit der Ubertragungsfunktion H( jω) herzustellen, berechnen wir mit (2.229) die Antwort auf das Eingangssignal x(t) = e jωt : S {e
jωt
}=
∞
h(τ )e jω(t−τ )dτ = e jωt
−∞
∞
h(τ )e− jωτ dτ .
−∞
Setzen wir voraus, daß dieses Integral, also die Fourier-Transformierte von h(t), existiert, so k¨onnen wir schreiben jωt jωt S {e } = F {h(t)}e . Ein Vergleich mit dem in Abschnitt 1.5 ermittelten Ergebnis S {e
jωt
} = H( jω)e jωt
zeigt, daß unter der genannten Voraussetzung h(t) und H( jω) ein Fourier-Transformationspaar bilden: h(t) ◦−−• H( jω) .
(2.230)
Ist das betrachtete System reell, d. h., ruft ein reelles Eingangssignal stets ein reelles Ausgangssignal hervor, so ist die Impulsantwort, also die Antwort auf das reelle Signal x(t) = δ(t),
102-2.6
Lineare zeitinvariante Systeme
Fourier-Transformation
reell. Ist umgekehrt h(t) reell, so folgt aus (2.229) auch sofort, daß ein reelles x(t) ein reelles y(t) impliziert, d. h., daß das System reell ist. Beachten wir die in Abschnitt 2.2 ermittelte ¨ Aquivalenz, X( jω) = F {x(t)} ⇐⇒ X ∗ (− jω) = F {x∗(t)} , ¨ so sehen wir, daß ein System mit der Ubertragungsfunktion H( jω) genau dann reell ist, wenn H( jω) der Gleichung H( jω) = H ∗ (− jω)
(2.231)
gen¨ ugt. Als n¨achstes wenden wir den Faltungssatz [siehe (2.90)] auf (2.229) an und erhalten mit X( jω) •−−◦ x(t) und Y ( jω) •−−◦ y(t) die Beziehung (2.221) best¨atigt: Y ( jω) = H( jω)X( jω) .
(2.232)
Auch dieses Ergebnis steht offenbar unter dem Vorbehalt, daß die Fourier-Transformierte von h(t) existiert, und zwar als Funktion im gew¨ohnlichen Sinne. Denn nur unter dieser Bedingung ¨ kann F {h(t)} mit der Ubertragungsfunktion identifiziert werden, wie sie beispielsweise in der komplexen Wechselstromrechung eingef¨ uhrt wird. Bevor wir diesen Aspekt, der eng mit dem Problem der Stabilit¨at verbunden ist, n¨aher beleuchten, wollen wir uns zun¨achst mit der Eigenschaft der Kausalit¨at des Systems befassen.
2.6.2
Kausalit¨ at
Im systemtheoretischen Kontext bedeutet Kausalit¨at, daß eine Wirkung (Antwort) niemals zeitlich vor ihrer Ursache (Erregung) eintreten kann. Konkret auf unser System u ¨ bertragen heißt das, daß der Wert des Ausgangssignals zu irgendeinem Zeitpunkt t0 nicht abh¨angen darf vom Verlauf des Eingangssignal f¨ ur t > t0. Hieraus ergeben sich wichtige Einschr¨ankungen ¨ f¨ ur die Impulsantwort h(t) und die Ubertragungsfunktion H( jω). Da h(t) die Reaktion des Systems auf einen Deltaimpuls ist, der zum Zeitpunkt t = 0 auf den Eingang des Systems gegeben wird und nat¨ urlich f¨ ur t < 0 keine Wirkung hervorrufen darf, muß notwendigerweise h(t) f¨ ur t < 0 null sein. Diese Bedingung ist aber auch hinreichend f¨ ur die Kausalit¨at. Ber¨ ucksichtigen wir n¨amlich die Bedingung h(t) = 0 f¨ ur t < 0, so k¨onnen wir die Grenzen der in (2.228) und (2.229) auftretenden Integrale wie folgt ab¨andern:
t
y(t) = −∞
∞
x(t )h(t − t )dt =
h(τ )x(t − τ )dτ .
0
Betrachten wir t als den gegenw¨artigen Zeitpunkt, so erkennen wir anhand des linken Integrals sofort, daß y(t) nur vom Verlauf des Eingangssignals in der Vergangenheit abh¨angt und nicht von dessen zuk¨ unftigem Verlauf. Da die Bedingung h(t) = 0 f¨ ur t < 0 somit notwendig und hinreichend f¨ ur die Kausalit¨at des Systems ist, k¨onnen wir schreiben: System ist kausal
⇐⇒
h(t) = 0 f¨ ur t < 0 .
Eine Funktion mit dieser Eigenschaft heißt rechtsseitig.
Fourier-Transformation
Lineare zeitinvariante Systeme
2.6-103
¨ Um die Auswirkung der Kausalit¨at auf die Ubertragungsfunktion zu bestimmen, nehmen wir an, daß diese als Fourier-Transformierte der Impulsantwort existiert und beachten, daß die Rechtsseitigkeit der Funktion h(t) gleichbedeutend mit dem Bestehen der Beziehung h(t) = sgn(t)h(t)
(2.233)
ist. Da die rechte Seite dieser Gleichung wegen sgn(0) = 0 f¨ ur t = 0 null ist, gilt diese Aussage genaugenommen nur, wenn h(0) = 0 ist. Nimmt h(t) zum Zeitpunkt t = 0 einen von null verschiedenen, aber endlichen Wert an, so k¨onnen wir h(0) = 0 setzen, ohne daß ein Einfluß im Frequenzbereich bemerkbar wird. Tritt jedoch dort ein Deltaimpuls mit dem Gewicht α auf, so zerlegen wir h(t) gem¨aß h(t) = h0 (t) + αδ(t) und ersetzen (2.233) durch h0 (t) = sgn(t)h0(t) bzw. h(t) − αδ(t) = sgn(t)[h(t) − αδ(t)] . Bestimmen wir auf beiden Seiten dieser Gleichung den geraden und den ungeraden Teil, so erhalten wir (2.234) hg (t) = sgn(t)hu (t) + αδ(t) und hu (t) = sgn(t)hg (t) .
(2.235)
Die Transformation dieser Beziehungen in den Frequenzbereich ergibt unter Beachtung des Paares sgn(t) ◦−−• 2/ jω [siehe (2.195)] und des Faltungssatzes (2.93) 1 2 Hg ( jω) = ∗ Hu ( jω) + α 2π jω und
1 Hu ( jω) = 2π
2 ∗ Hg ( jω) jω
bzw., ausf¨ uhrlich geschrieben, j Hg ( jω) = − π j Hu ( jω) = − π
∞
−∞
∞
−∞
Hu ( jv) dv + α , ω−v (2.236) Hg ( jv) dv . ω −v
Diese Integrale sind jeweils im Sinne des Cauchyschen Hauptwertes zu interpretieren, d. h., sie sind wie folgt auszuwerten: ω−ϕ Ω ∞ • • + dv = lim lim dv . ϕ→0 Ω→∞ −∞ ω − v −Ω ω+ϕ ω − v ϕ>0
Die Beziehungen (2.236) werden symbolisch auch in der Form Hg ( jω) = − jH{Hu ( jω)} + α , (2.237) Hu ( jω) = − jH{Hg ( jω)}
104-2.6
Lineare zeitinvariante Systeme
Fourier-Transformation
¨ geschrieben, wobei H{·} die sogenannte Hilbert-Transformation bezeichnet. Ahnliche Zusammenh¨ange erhalten wir auch f¨ ur den Real- und den Imagin¨arteil von H( jω). Die Addition der Beziehungen (2.236) liefert j ∞ H( jv) H( jω) = − dv + α π −∞ ω − v und die anschließende Zerlegung nach Real- und Imagin¨arteil f¨ uhrt auf 1 ∞ Im H( jv) dv + Re α , Re H( jω) = π −∞ ω − v 1 ∞ Re H( jv) Im H( jω) = − dv + Im α π −∞ ω − v bzw. Re H( jω) = H{Im H( jω)} + Re α .
(2.238)
Im H( jω) = −H{Re H( jω)} + Im α Ist das System reell, gen¨ ugt also H( jω) der Gleichung (2.231), so gilt Hg ( jω) = Re H( jω) , Hu ( jω) = j Im H( jω) und α = Re α und die Beziehungen (2.237) und (2.238) gehen ineinander u ¨ber. Zwischen dem Real- und dem ¨ Imagin¨arteil der Ubertragungsfunktion eines kausalen Systems besteht also ein bestimmter Zusammenhang. Ist der Verlauf des Realteils bekannt, so liegt bis auf eine additive Konstante auch der Imagin¨arteil fest und umgekehrt. Sieht man vom trivialen Fall einer konstanten ¨ ¨ Ubertragungsfunktion ab, so kann es beispielsweise kein kausales System mit einer Ubert¨ ragungsfunktion geben, die nur reelle Werte annimmt. Eine Ubertragungsfunktion mit der Eigenschaft H( jω) = Re H( jω), wie etwa H( jω) = rect(ω/Ω), beschreibt notwendigerweise ein nichtkausales System. Obwohl nichtkausale Systeme nicht realisiert werden k¨onnen, werden sie in der Systemtheorie und insbesondere in der Nachrichtentechnik gerne als Modelle benutzt, um gewisse theoretische Zusammenh¨ange auf einfache Weise herzuleiten. Durch geeignete Interpretation lassen sich die ermittelten Ergebnisse h¨aufig auf realisierbare Systeme u ¨ bertragen.
2.6.3
Stabilit¨ at
Hinter kaum einem anderen Begriff der Systemtheorie verbergen sich so viele unterschiedliche Definitionen wie hinter dem Begriff der Stabilit¨at. Einige Definitionen ber¨ ucksichtigen ¨ nur die Ubertragungseigenschaften eines Systems. Andere beziehen sich auf das Verhalten der Systemgr¨oßen bei abgeschaltetem Eingangssignal und beliebigen Anfangsbedingungen. Hierzu geh¨oren etwa die mit dem Namen Ljapunov verkn¨ upften Stabilit¨atskonzepte. Da wir bei ¨ unserer Systembeschreibung nur den durch die Impulsantwort oder durch die Ubertragungsfunktion beschriebenen funktionalen Zusammenhang zwischen Eingangs- und Ausgangssignal im Auge haben, wollen wir f¨ ur die Stabilit¨at eine Definition verwenden, die sich nur auf das ¨ Ubertragungsverhalten bezieht. Da diese Definition relativ weitgehende Forderungen an ein stabiles System stellt, werden wir nicht einfach von der Stabilit¨at, sondern von der strengen Stabilit¨at sprechen. Bei den folgenden Untersuchungen setzen wir grunds¨atzlich voraus, daß die zu betrach¨ tenden Systeme kausal sind. Das Ubertragungsverhalten eines derartigen Systems k¨onnen wir
Fourier-Transformation
Lineare zeitinvariante Systeme
daher durch
t
y(t) = −∞
2.6-105
x(t)h(t − t)dt
(2.239)
ausdr¨ ucken. Damit das Ausgangssignal y(t) tats¨achlich mit dieser Formel berechnet werden kann, muß zun¨achst einmal das Produkt x(t)h(t − t) u ¨ ber jedes endliche Intervall t0 ≤ t ≤ t integrierbar sein.10 Ohne jeweils darauf hinzuweisen, wollen wir im folgenden stets davon ausgehen, daß diese Voraussetzung erf¨ ullt ist. Nimmt ein Eingangssignal x(t) erst ab einem ur t < t0 in Ruhe, Zeitpunkt t0 von null verschiedene Werte an und ist außerdem das System f¨ so kann das Ausgangssignal unter den gegebenen Voraussetzungen offenbar f¨ ur jedes t > t0 gem¨aß t
y(t) =
x(t)h(t − t)dt
(2.240)
t0
berechnet werden. Wir lassen nun den Zeitpunkt t0 gegen −∞ streben und nehmen hierbei an, daß das Eingangssignal im Intervall (−∞, t] beschr¨ankt bleibt, d. h., daß es zu jedem reellen t eine positive Zahl M = M(t) gibt, so daß ur t ≤ t . |x(t)| ≤ M(t) f¨
(2.241)
Falls dann f¨ ur jedes derartige Eingangssignal das Integral in (2.239) konvergiert, also der Grenzwert t t x(t )h(t − t )dt = lim x(t)h(t − t)dt (2.242) t0 →−∞
−∞
t0
existiert, bezeichnen wir das System als streng stabil. Setzen wir voraus, daß h(t) eine gew¨ohnliche“ Funktion ist, so liegt strenge Stabilit¨ at ” genau dann vor, wenn h(t) u ¨ber [0, ∞) absolut integrierbar ist, d. h., wenn gilt
∞
|h(t)|dt < ∞ .
(2.243)
0
Zum Nachweis der Notwendigkeit dieser Bedingung w¨ahlen wir das spezielle Eingangssignal x(t) = sgn[h(−t)] , das offenbar mit M(t) = 1 der Ungleichung (2.241) gen¨ ugt, und berechnen das zugeh¨orige Ausgangssignal zum Zeitpunkt t = 0 : 0 −t0 sgn[h(−t )]h(−t )dt = lim |h(t)|dt . (2.244) y(0) = lim t0 →−∞
t0 →−∞
t0
0
Da das rechte Integral in Abh¨angigkeit der oberen Grenze monoton w¨achst, konvergiert es ugt. genau dann, wenn es f¨ ur −t0 → ∞ beschr¨ankt bleibt, also der Bedingung (2.243) gen¨ Um nachzuweisen, daß die Bedingung (2.243) auch hinreichend f¨ ur die strenge Stabilit¨at ist, wollen wir zeigen, daß das Integral t x(t)h(t − t)dt −∞
10
Ein hinreichende Bedingung hierf¨ ur ist z. B. die st¨ uckweise Stetigkeit der Funktionen x und h. Die Integrierbarkeit ist aber auch dann noch gegeben, wenn diese Funktionen in jedem endlichen Intervall zus¨ atzlich endlich viele Deltaimpulse enthalten.
106-2.6
Lineare zeitinvariante Systeme
Fourier-Transformation
unter den Bedingungen (2.241) und (2.243) absolut konvergiert, daß also der Grenzwert t |x(t)h(t − t)|dt (2.245) lim t0 →−∞
t0
existiert. Hierzu sch¨atzen wir dieses Integral f¨ ur t > t0 wie folgt nach oben ab: t t t−t0 |x(t )h(t − t )|dt ≤ M(t) |h(t − t )|dt = M(t) |h(τ )|dτ ≤ M(t) t0
t0
∞
|h(τ )|dτ .
0
0
(2.246) F¨ ur t0 → −∞ bleibt also das auf der linken Seite stehende Integral beschr¨ankt, so daß, wie behauptet, der Grenzwert (2.245) existiert. Beachten wir schließlich, daß die absolute Konvergenz die “einfache” Konvergenz impliziert, so erkennen wir, daß die Bedingung (2.242) nicht nur notwendig, sondern auch hinreichend f¨ ur die strenge Stabilt¨at ist. Aus der absoluten Integrierbarkeit der Impulsantwort folgt eine weitere Stabilit¨atseigenschaft, die wir kurz erl¨autern wollen. Wird das System bis zu irgendeinem Zeitpunkt, etwa t1 , mit einem beschr¨ankten Eingangssignal erregt, das anschließend dauernd zu null gesetzt wird, so strebt das Ausgangssignal f¨ ur t → ∞ gegen null. Um dies zu beweisen, beachten wir, daß die absolute Integrierbarkeit von h(t) u ¨ ber [0, ∞) folgenden Sachverhalt impliziert: Zu jedem ε > 0 gibt es eine positive Zahl T = T (ε), so daß ∞ |h(t)|dt < ε f¨ ur t ≥ T (ε) . t
Sei nun M die Schranke von x(t), d. h., |x(t)| ≤ M. Dann k¨onnen wir |y(t)| f¨ ur t > t1 (t1 = Zeitpunkt, zu dem x(t) null wird) wie folgt absch¨atzen:
∞
t1 ∞
x(t )h(t − t )dt
=
x(t − t )h(t )dt
≤ M |h(t)|dt . |y(t)| =
−∞
t−t1
t−t1
Somit erhalten wir |y(t)| < Mε f¨ ur t ≥ t1 + T (ε) . Da ε beliebig gew¨ahlt werden kann, also auch beliebig klein, folgt die aufgestellte Behauptung. H¨aufig wird die Stabilit¨at eines Systems auch u ¨ber die sogenannte BIBO-Eigenschaft definiert, die dadurch gekennzeichnet ist, daß ein beschr¨anktes Eingangssignal ein beschr¨anktes Ausgangssignal hervorruft (bounded input ⇒ bounded output). Auch diese Eigenschaft folgt sofort aus der absoluten Integrierbarkeit der Impulsantwort. Setzen wir n¨amlich voraus, daß x(t) gem¨aß |x(t)| ≤ M < ∞ beschr¨ankt ist, so schließen wir mit einer Absch¨atzung wie in (2.246) ∞ |h(t)|dt < ∞ . |y(t)| ≤ M 0
Bei den bisherigen Stabilit¨atsbetrachtungen haben wir vorausgesetzt, daß h(t) eine gew¨ohnliche Funktion ist, also insbesondere keine Deltaimpulse enth¨alt. Wir wollen diese Voraussetzung nun fallenlassen und annehmen, daß h(t) durch h(t) = h0 (t) +
∞ ν=0
αν δ(t − τν )
(2.247)
Fourier-Transformation
Lineare zeitinvariante Systeme
2.6-107
dargestellt werden kann, wobei h0 (t) eine gew¨ohnliche Funktion ist und wobei die Konstanten αν reell oder komplex sind. Das System mit der Impulsantwort h(t) k¨onnen wir darstellen durch eine Parallelschaltung von zwei Systemen, wobei eines die Impulsantwort h0 (t) und das andere die Impulsantwort ∞ h1 (t) = αν δ(t − τν ) (2.248) ν=0
besitzt (siehe Bild 2.20).
h0(t)
y0 (t)
AA
x(t)
h1(t)
y(t)
y1 (t)
Bild 2.20: Parallelschaltung zweier linearer Systeme
Als Folge der Kausalit¨at muß h0(t) rechtsseitig sein und die Zeitpunkte τν , die wir gem¨aß urfen nicht negativ sein, d. h., τν < τν+1 ordnen wollen, d¨ 0 ≤ τ0 < τ1 < τ2 < . . . Setzen wir (2.247) in (2.229) ein und ber¨ ucksichtigen die Ausblendeigenschaft der Deltafunktion, so erhalten wir f¨ ur das Ausgangssignal y(t) = y0 (t) + y1(t) mit
∞
y0(t) =
h0 (τ )x(t − τ )dτ
und y1(t) =
0
(2.249) ∞
αν x(t − τν ) .
ν=0
Mit einer ¨ahnlichen Argumentation wie zuvor kann gezeigt werden, daß die strenge Stabilit¨at genau dann vorliegt, wenn h0 (t) u ¨ ber [0, ∞) absolut integrierbar und zugleich die Folge {α0 , α1, α2 , . . .} absolut summierbar ist, d. h., wenn gilt
∞ 0
|h0(t)|dt +
∞
|αν | < ∞ .
(2.250)
ν=0
Weiter kann gezeigt werden, daß diese Bedingung auch die beiden oben erw¨ahnten Stabilit¨atseigenschaften impliziert, n¨amlich das Verschwinden des Ausgangssignals f¨ ur t → ∞, wenn das Eingangssignal zu null gesetzt wird, sowie die BIBO-Eigenschaft. Nat¨ urlich k¨onnte man auch daran denken, Impulsantworten zu betrachten, die nicht nur Deltaimpulse, sondern auch erste und h¨ohere Ableitungen dieser Impulse enthalten. Dies liefe ¨ darauf hinaus, daß das Eingangssignal bei der Ubertragung einmal oder mehrmals differenziert
108-2.6
Lineare zeitinvariante Systeme
Fourier-Transformation
w¨ urde. Das einfachste Beispiel f¨ ur eine derartige Impulsantwort lautet h(t) = δ (t). In diesem Fall ergibt sich das Ausgangssignal zu y(t) = δ (t) ∗ x(t) = x(t) ˙ . Sieht man von einzelnen Bauelementen (Kapazit¨aten, Induktivit¨aten etc.) ab, so tritt dieses ¨ Ubertragungsverhalten bei den in der Praxis relevanten Systemen fast nie auf. Wir beschr¨anken uns daher bei unseren Untersuchungen auf Systeme, deren Impulsantworten entweder gew¨ohnliche Funktionen sind oder die Form (2.247) besitzen.
2.6.4
¨ Eigenschaften der Ubertragungsfunktion eines stabilen Systems
Zun¨achst sei die Impulsantwort h(t) wieder eine gew¨ohnliche Funktion. Liegt strenge Stabilit¨at vor, so ist h(t) absolut integrierbar, und zwar wegen der Rechtsseitigkeit sogar u ¨ber (−∞, ∞). Somit existiert in diesem Fall die Fourier-Transformierte ∞ ∞ − jωt h(t)e dt = h(t)e− jωt dt . (2.251) H( jω) = −∞
0
¨ Nach den Ausf¨ uhrungen im Abschnitt 2.2.3 ist diese Funktion, die ja gleich der Ubertragungsfunktion des Systems ist, beschr¨ankt und (gleichm¨aßig) stetig. ¨ Um weitere Eigenschaften der Ubertragungsfunktion eines streng stabilen Systems zu erkennen, dehnen wir den Definitionsbereich von H( jω) wie folgt auf die komplexe p-Ebene11 aus: ∞ h(t)e−pt dt . (2.252) H(p) := 0
Setzen wir p = σ + jω, so k¨onnen wir dieses Integral auch wie folgt interpretieren: ∞ h(t)e−σt e− jωt dt = F {h(t)e−σt } . H(p) = 0
Da f¨ ur σt ≥ 0 die Ungleichung
h(t)e−σt ≤ |h(t)|
besteht, ist f¨ ur σ ≥ 0 auch h(t)e−σt absolut integrierbar. Folglich ist H(p) f¨ ur alle p mit Re p ≥ 0 beschr¨ankt: ∞ ∞ −pt Re p ≥ 0 ⇒ |H(p)| ≤ |h(t)e |dt ≤ |h(t)|dt < ∞ . (2.253) 0
0
Falls die Impulsantwort h(t) auch Deltaimpulse enth¨alt, also durch (2.247) dargestellt werden ¨ kann, erhalten wir f¨ ur die Ubertragungsfunktion ∞ ∞ −pt h0 (t)e dt + αν e−pτν H(p) = 0
ν=0
Auch hier k¨onnen wir sofort zeigen, daß im Fall der strengen Stabilit¨at die Funktion H(p) in der abgeschlossenen rechten p-Halbebene beschr¨ankt bleibt: Re p ≥ 0
⇒
|H(p)| ≤ 0
11
∞
|h0 (t)|dt +
∞
|αν | < ∞ .
(2.254)
ν=0
Das Integral (2.252) stellt die Laplace-Transformation der Impulsantwort dar (siehe Kapitel 3).
Fourier-Transformation
Lineare zeitinvariante Systeme
2.6-109
¨ Die Ubertragungsfunktion H(p) eines streng stabilen Systems kann also in der abgeschlossenen rechten p-Halbebene keine Unendlichkeitsstellen haben. Ist H(p) eine rationale Funktion, so bedeutet dies, daß s¨amtliche Pole von H(p) in der offenen linken p-Halbebene liegen m¨ ussen. ¨ Die Umkehrung dieser Aussage gilt u ¨brigens auch, d. h., wenn eine rationale Ubertragungsfunktion, αn pn + αn−1 pn−1 + · · · + α0 H(p) = n , p + βn−1 pn−1 + βn−2 pn−2 + · · · + β0 nur Pole in der linken p-Halbebene besitzt, dann ist das zugeh¨orige System streng stabil. Wir wollen dies f¨ ur den Fall zeigen, daß H nur einfache Pole hat. Diese seien mit −p1 , −p2, . . . , −pn bezeichnet. Die Funktion H kann dann wie folgt in Partialbr¨ uche zerlegt werden: n Hν + H∞ H(p) = pν + p ν=1
mit Hν = lim (pν + p)H(p)
und H∞ = lim H(p) = αn .
p→−pν
p→∞
ur H( jω) schreiben Setzen wir pν = σν + jων , so k¨onnen wir f¨ H( jω) =
n ν=1
Hν + H∞ σν + j(ω + ων )
mit σν > 0 .
Ber¨ ucksichtigen wir nun das Transformationspaar [siehe (2.41)] ε(t)e−αt ◦−−•
1 , α>0 α + jω
und den Modulationssatz [siehe (2.44b)] e− jω0 t x(t) ◦−−• X( jω + jω0 ) , so erhalten wir f¨ ur h(t) = F −1 {H( jω)} h(t) =
n
hν (t) + H∞ δ(t)
ν=1
mit
hν (t) = ε(t)Hν e−(σν + jων )t = ε(t)Hν e−pν t .
ugt, brauchen wir zur Best¨atigung der strengen StaDa H∞ der Bedingung |H∞ | <∞ gen¨ bilit¨at nur nachzuweisen, daß ¨ber [0, ∞) integrierbar ist. Mit Hilfe der ν hν (t) absolut u Dreiecksungleichung n n
hν (t) ≤ |hν (t)|
ν=1
und der Beziehung
ν=1
|hν (t)| = ε(t)|Hν |e−σν t
k¨onnen wir dies wie folgt zeigen: ∞ n n
hν (t) dt ≤ |Hν |
0
ν=1
ν=1
∞ 0
e−σν t dt =
n |Hν | ν=1
σν
.
110-2.6
2.6.5
Lineare zeitinvariante Systeme
Fourier-Transformation
Sprungantwort
¨ ¨ Neben der Ubertragungsfunktion und der Impulsantwort wird zur Beschreibung des Ubertragungsverhaltens eines linearen zeitinvarianten Systems gerne die sogenannte Sprungantwort herangezogen, die mit a(t) bezeichnet wird und durch a(t) := S {ε(t)} = h(t) ∗ ε(t) =
t
h(τ )dτ
(2.255)
−∞
¨ definiert ist. F¨ ur die meßtechnische Ermittlung des Ubertragungsverhaltens ist diese Systemreaktion wesentlich besser geeignet als die Impulsantwort. Denn zur unmittelbaren Messung der Impulsantwort m¨ ußte auf den Eingang des Systems ein Deltaimpuls gegeben werden, der physikalisch gar nicht oder nur sehr unvollkommen dargestellt werden kann. Ist die Sprungantwort a(t) bekannt, so l¨aßt sich die Impulsantwort durch Differentiation bestimmen, d. h. da(t) h(t) = . (2.256) dt Da a(t) i. allg. nicht u ¨berall stetig und damit auch nicht u ¨ berall differenzierbar ist, muß a(t) gegebenenfalls als verallgemeinerte Funktion aufgefaßt werden. R1
i
+
R2
x
y uC
C
¨ Bild 2.21: Schaltung als Beispiel f¨ ur ein einfaches Ubertragungssystem
¨ Auch f¨ ur die rechnerische Ermittlung des Ubertragungsverhaltens im Zeitbereich ist die Sprungantwort meistens besser geeignet als die Impulsantwort. Zur Erl¨auterung betrachten wir ¨ die in Bild 2.21 dargestellte Schaltung, die wir als Ubertragungssystem mit dem Eingangssignal x(t) (= Spannung der Quelle) und dem Ausgangssignal y(t) (= Spannung u ¨ber R2 und C) auffassen wollen. Um die Sprungantwort zu ermitteln, nehmen wir an, die Quellenspannung x(t) springe zum Zeitpunkt t = 0 von null auf den Wert E ∈ R\{0}, d. h. x(t) = Eε(t). Die Sprungantwort ergibt sich dann aus der zugeh¨origen Systemreaktion y(t) wie folgt: a(t) = y(t)/E. uckt Da der Kondensator f¨ ur t < 0 st¨andig durch die Reihenschaltung aus R1 und R2 u ¨ berbr¨ und somit entladen ist, gilt uC (0) = 0. Die L¨osung der Differentialgleichung T u˙ C (t) + uC (t) = Eε(t) lautet dann
mit
T = (R1 + R2)C
uC (t) = 1 − e−t/T Eε(t) .
Ber¨ ucksichtigen wir nun noch den Verlauf des Stromes i(t) = C u˙ C (t) =
CE −t/T E e ε(t) = e−t/T ε(t) , T R1 + R2
Fourier-Transformation
Die diskrete Fourier-Transformation
so erhalten wir f¨ ur a(t) = y(t)/E 1 a(t) = [uC (t) + R2 i(t)] = E
R1 1− e−t/T R1 + R2
2.7-111
ε(t) .
Die Differentiation dieses Ergebnisses ergibt dann die gew¨ unschte Impulsantwort: R1 R1 −t/T −t/T ε(t) + 1 − e e δ(t) . h(t) = a(t) ˙ = (R1 + R2 )T R1 + R2 Beachten wir noch die Ausblendeigenschaft der Deltafunktion, so folgt schließlich h(t) =
R2 R1 e−t/T ε(t) + δ(t) . (R1 + R2 )T R1 + R2
a(t)
a)
h(t)
b) α T
1 α=
α T
αδ(t)
R2 R1 + R2 t
T
t
Bild 2.22: Sprungantwort (a) und Impulsantwort (b) des Systems aus Bild 2.21
In Bild 2.22 sind die Graphen der Sprungantwort a(t) und der Impulsantwort h(t) dargestellt. Wollten wir h(t) dadurch bestimmen, daß wir auf das System eine impulsf¨ormige Spannung, etwa x(t) = T Eδ(t), g¨aben, so m¨ ußten wir u. a. die Differentialgleichung T u˙ C (t) + uC (t) = T Eδ(t) l¨osen. Da uC (t) unter dem Einfluß des Deltaimpulses springt, br¨auchten wir zur Festlegung der L¨osung als Anfangswert den rechtsseitigen Grenzwert von uC (t) zum Zeitpunkt t = 0. Dieser ist zwar im vorliegenden Fall vergleichsweise einfach zu bestimmen. Bei Systemen mit mehreren Energiespeichern kann die Ermittlung der Anfangswerte aber mit einem gewissen Aufwand ¨ verbunden sein, und zwar insbesondere dann, wenn das Ubertragungsverhalten nicht durch ein Differentialgleichungssystem 1. Ordnung, sondern durch eine Differentialgleichung h¨oherer Ordnung beschrieben wird.
2.7 2.7.1
Die diskrete Fourier-Transformation Herleitung der diskreten Fourier-Transformation
In der Praxis wird die Transformation eines Signals in den Frequenzbereich gem¨aß ∞ x(t)e− jωt dt X( jω) = −∞
(2.257)
112-2.7
Die diskrete Fourier-Transformation
Fourier-Transformation
nur in den seltensten F¨allen durch direkte Auswertung des Integrals m¨oglich sein, da ein analytischer Ausdruck f¨ ur x(t) meistens nicht gegeben ist. Aber selbst wenn ein derartiger Ausdruck bekannt sein sollte, wird es vielfach schwierig oder sogar unm¨oglich sein, das Fourier-Integral geschlossen zu berechnen. H¨aufig f¨ uhrt in diesem Fall nur eine numerische Integration zum Erfolg. Dies trifft a priori zu, wenn aufgrund einer Abtastung die Werte eines Signals nur zu endlich vielen diskreten Zeitpunkten vorliegen. Um zu erl¨autern, wie in diesem Fall die Transformation in den Frequenzbereich vorgenommen werden kann, nehmen wir zun¨achst an, es handele sich um eine ungerade Anzahl, etwa 2n + 1, Signalwerte, die durch ¨aquidistante Abtastung zu den Zeitpunkten t−n , . . . , t−2 , t−1, t0, t1, t2 , . . . , tn gewonnen wurden. Die Abtastperiode, also der Abstand zwischen zwei aufeinander folgenden Abtastzeitpunkten, sei durch ∆t gegeben, so daß diese Zeitpunkte wie folgt charakterisiert werden k¨onnen: tν = t0 + ν∆t ,
ν = −n, . . . , −2, −1, 0, 1, 2, . . . , n ,
wobei t0 eine beliebige reelle Konstante ist, die durch eine geeignete Festlegung des Zeitnullpunkts h¨aufig zu Null gew¨ahlt werden kann. Es liegt dann nahe, das Fourier-Integral durch eine Summe zu approximieren und diese nur f¨ ur diskrete Frequenzpunkte, ωµ = µ∆ω ,
µ = −n, . . . , −2, −1, 0, 1, 2, . . . , n
auszuwerten: * jωµ ) = X(
n
x(tν )e− jωµ tν ∆t .
(2.258)
ν=−n
Zur Vereinfachung der folgenden Diskussion setzen wir t0 = 0 voraus. Als Folge dieser Vor* periodisch und gen¨ aussetzung ist X ugt der Bedingung * jωµ + jΩ) mit Ω = 2π . * jωµ ) = X( X( ∆t * jωµ ) h¨ochstens im Intervall (−Ω/2, Ω/2) Da jedoch X( jω) i. allg. nicht periodisch ist, kann X( n¨aherungsweise mit X( jωµ ) u ¨ bereinstimmen. Damit diese N¨aherung m¨oglichst gut ist, muß ur t < einerseits die Abtastperiode ∆t hinreichend klein sein12 und andererseits muß x(t) f¨ −n∆t und t > n∆t Null sein oder zumindest sehr schnell abklingen. Die Transformationsformel (2.258) ist eindeutig umkehrbar, und zwar ist diese Umkehrung bzw. R¨ ucktransformation durch n 1 * x(tλ) = X( jωµ )e jωµtλ ∆ω 2π µ=−n 12
(2.259)
Eigentlich muß die Bedingung des Abtasttheorems erf¨ ullt sein, nach der die Abtastrate, also 1/∆t, mindestens doppelt so hoch ist wie die h¨ ochste in x(t) auftretende Frequenz. D. h., x(t) muß frequenzbegrenzt sein. Dies steht aber im Gegensatz zu der Forderung, daß x(t) auch zeitbegrenzt sein sollte. In der Realit¨at l¨ost sich dieser Widerspruch dadurch auf, daß eine exakte Frequenzbegrenzung, die ja prinzipiell nicht erreicht werden kann, auch nicht erforderlich ist; es muß lediglich sichergestellt sein, daß die resultierenden Fehler hinreichend klein bleiben.
Fourier-Transformation
Die diskrete Fourier-Transformation
2.7-113
gegeben, wobei ∆ω mit ∆t gem¨aß ∆ω∆t =
2π 2n + 1
verkn¨ upft ist. Die Formel (2.259) u ¨ bernimmt gewissermaßen die Rolle, die sonst die Integralbeziehung ∞ 1 X( jω)e jωt dω (2.260) x(t) = 2π −∞ spielt. Wir erkennen, daß x(tλ) durch (2.259) periodisch fortgesetzt wird und der Bedingung x(tν ) = x(tν + T ) mit T = (2n + 1)∆t =
2π ∆ω
* gen¨ ugt. Es liegt also eine a¨hnliche Situation vor wie im Fall der Funktion X. Die Integrale in (2.257) und (2.260) k¨onnen als Grenzwerte der Summen in (2.258) und (2.259) aufgefaßt werden. W¨ahlen wir ∆t und ∆ω gem¨aß τ ∆t = √ 2n + 1
2π bzw. ∆ω = √ , τ 2n + 1
(2.261)
wobei τ eine beliebige positive Konstante mit der Dimension der Zeit ist, so ergeben sich die Perioden T und Ω zu √ 2π √ 2n + 1 . T = τ 2n + 1 bzw. Ω = τ Lassen wir nun n gegen ∞ gehen, so streben offenbar ∆t und ∆ω gegen Null, w¨ahrend zugleich die Perioden T und Ω unbeschr¨ankt wachsen. Mit anderen Worten, die Summen in (2.258) und (2.259) n¨ahern sich den Fourier-Integralen (2.257) bzw. (2.260) an. Wenn auch die Summen in (2.258) und (2.259) nur Approximationen der entsprechenden Fourier-Integrale sind, so charakterisieren sie dennoch Operationen, die exakt invers zueinander zueinander. Bevor wir dies beweisen, vereinfachen wir mit den Abk¨ urzungen * jωµ ) xν := x(tν ) und Xµ := X( unsere Schreibweise und ersetzen das Produkt ωµ tν durch ωµ tν = µν∆ω∆t = µν
2π . 2n + 1
F¨ uhren wir schließlich die Gr¨oße z := e j2π/(2n+1) ein, so k¨onnen wir den Transformationsformeln (2.258) und (2.259) die einfache Gestalt Xµ = ∆t
n ν−n
xν z −µν
bzw. xλ =
n 1/∆t Xµ z µλ 2n + 1 µ=−n
(2.262)
geben. Um zu zeigen, daß diese beiden Formeln tats¨achlich invers zueinander sind, brauchen wir nur jede der beiden Formeln in die jeweils andere einzusetzen und zu pr¨ ufen, ob in beiden
114-2.7
Die diskrete Fourier-Transformation
Fourier-Transformation
F¨allen eine Identit¨at entsteht. Setzen wir die linke Formel von (2.262) in die rechte ein, so erhalten wir die Beziehung n n 1 xν z µ(λ−ν) . xλ = 2n + 1 µ=−n ν=−n
(2.263)
Setzen wir umgekehrt die rechte Formel aus (2.262) in die linke ein, so erhalten wir bis auf unterschiedliche Bezeichnungen die gleiche Beziehung. Aus diesem Grunde k¨onnen wir uns auf den Nachweis der Richtigkeit von (2.263) beschr¨anken. Zun¨achst ber¨ ucksichtigen wir, daß die Reihenfolge der Summenzeichen in (2.263) vertauscht werden darf, so daß wir die Doppelsumme auch in der Form n n 1 xν z µ(λ−ν) 2n + 1 ν=−n µ=−n
(2.264)
schreiben d¨ urfen. Weiter unten zeigen wir, daß die rechte Summe (einschließlich des Faktors (2n + 1)−1 ) in Abh¨angigkeit der Differenz λ − ν folgende Werte annimmt: n 1 z µ(λ−ν) = 2n + 1 µ=−n
1 falls λ − ν = D(2n + 1) , D ∈ Z . 0 sonst
(2.265)
Setzen wir dieses Ergebnis in (2.264) ein, so bleibt nur ein Summand u ¨ brig: n n 1 xν z µ(λ−ν) = xλ . 2n + 1 ν=−n µ=−n
Somit ist die Beziehung (2.263) bewiesen, die als die diskrete Version der Gleichung ∞ ∞ 1 x(τ )e jω(t−τ )dτ dω , (2.266) x(t) = 2π −∞ −∞ angesehen werden kann (vgl. Seite 50). Um den engen Zusammenhang von (2.263) mit dieser Gleichung deutlicher erkennen zu k¨onnen, f¨ uhren wir die urspr¨ unglich benutzten Gr¨oßen x(tλ), x(tν ), ωµ , tν , ∆t und ∆ω wieder ein und formen (2.263) ¨aquivalent um in n n 1 x(tν )e jωµ (tλ −tν ) ∆t∆ω . x(tλ) = 2π µ=−n ν=−n
Da diese Beziehung f¨ ur jede nat¨ urliche Zahl n gilt, wobei ∆t und ∆ω etwa gem¨aß (2.261) gew¨ahlt werden k¨onnen, haben wir hiermit zwar keinen strengen Beweis, aber ein weiteres plausibles Argument f¨ ur die Richtigkeit von (2.266) bzw. (2.12). Es bleibt noch die Richtigkeit von (2.265) zu zeigen. Hierzu beachten wir zun¨achst, daß die Gleichung z κ = 1 bzw. e jκ2π/(2n+1) = 1 nur erf¨ ullt ist, wenn κ/(2n + 1) ganzzahlig ist, also κ ein ganzzahliges Vielfaches von 2n + 1 ist. F¨ ur alle anderen Werte von κ gilt z κ = 1. F¨ ur die folgenden Schritte bezeichne κ die Differenz λ − ν. Ist dann κ ein ganzzahliges Vielfaches von 2n + 1, so ist offenbar jedes Glied der Summe in (2.265) gleich 1 und die
Fourier-Transformation
Die diskrete Fourier-Transformation
2.7-115
Richtigkeit der obere Zeile von (2.265) ist bewiesen. Als n¨achstes sei κ kein ganzzahliges Vielfaches von 2n + 1, so daß gilt z κ = 1. Aus (1 − z ) κ
n
z µκ = z −nκ − z (n+1)κ = z −nκ (1 − z (2n+1)κ ) = 0
µ=−n
schließen wir dann
n
z
µκ
= 0 bzw.
µ=−n
n
z µ(λ−ν) = 0
µ=−n
und die Richtigkeit der zweiten Zeile in (2.265) ist bewiesen. * kommt bei Die durch die Formeln (2.258) bzw. (2.259) bewirkte Periodizit¨at von x und X xν und Xµ u ¨brigens wie folgt zum Ausdruck: xν = xν+2n+1
bzw. Xµ = Xµ+2n+1 .
ullt, k¨onnen Da auch z κ eine entsprechende Periodizit¨atsbedingung, n¨amlich z κ = z κ+2n+1 , erf¨ wir die Summationsgrenzen −n und n in (2.262) durch −n + k bzw. n + k ersetzen, wobei k eine beliebige ganze Zahl ist. Insbesondere k¨onnen wir also mit k = n + 1 und m = 2n + 1 schreiben Xµ = ∆t
m ν=1
1 und xν = Xµ z µν , m∆t µ=1 m
xν z
−µν
z = e j2π/m .
(2.267)
Man kann sich u urliche Zahl sein ¨brigens leicht davon u ¨berzeugen, daß m eine beliebige nat¨ darf; m muß also nicht, wie bislang angenommen, ungerade sein. Die beiden Transformationsformeln (2.267) definieren die sogenannte diskrete FourierTransformation. Symbolisch schreibt man f¨ ur den Zusammenhang zwischen xν und Xµ auch Xµ = DFT{xν } bzw. xν = IDFT{Xµ } .
2.7.2
(2.268)
Einige Eigenschaften der diskreten Fourier-Transformation
H¨aufig wird die diskrete Fourier-Transformation ohne Bezug zur gew¨ohnlichen FourierTransformation eingef¨ uhrt und damit ohne Bezug zur physikalischen Realit¨at und zu den Begriffen Zeit und Frequenz. Die Transformation wird dann lediglich als lineare Abbildung des m-dimensionalen Vektorraums C m auf sich selbst gedeutet. Faßt man etwa die Signalwerte xν und die Frequenzwerte Xµ zu den m-dimensionalen Vektoren x = [x1, x2 , x3, . . . , xn ]T
und X = [X1, X2 , X3 , . . . , Xn ]T
zusammen, so l¨aßt sich die diskrete Fourier-Transformation auch durch X = Fx bzw. x = F−1 X beschreiben, wobei F = (Fµν ) eine m × m-Matrix mit den Elementen Fµν = ∆t · z −µν ist. Die Konstante ∆t, √ die f¨ ur uns die Bedeutung der Abtastperiode besitzt, wird dann meistens gleich 1 oder gleich 1/ m gesetzt. Die zweite Wahl hat den Vorteil, daß zwischen den beiden Transformationsformeln eine gr¨oßere Symmetrie entsteht. Die Matrix F wird in diesem Fall
116-2.7
Die diskrete Fourier-Transformation
Fourier-Transformation
∗ unit¨ar, so daß die Inverse, F−1 , durch F∗ := (Fνµ ) gegeben ist; die Matrix F∗ wird u ¨ brigens 13 Transjugierte von F genannt . Eine lineare Abbildung mit einer unit¨ √ aren Matrix l¨aßt bekanntlich die Euklidsche Norm unver¨andert. W¨ahlen wir also ∆t = 1/ m, so daß die Matrix F unit¨ar wird, so gilt
∗
∗
∗
∗
X X = x F Fx = x x bzw.
m
|Xµ | = 2
µ=1
m
|xν |2 .
ν=1
Dies ist die Parsevalsche Gleichung der diskreten Fourier-Transformation. Bezeichnet y den m-dimensionalen Vektor, der aus den m Abtastwerten eines weiteren Signals, y(t), gebildet wird, und ist Y der zugeh¨orige Vektor der Frequenzwerte, so gilt auch hier die allgemeinere Form der Parsevalschen Gleichung: ∗
∗
∗
∗
Y X = y F Fx = y x bzw.
m
Xµ Yµ∗
µ=1
=
m
xν yν∗ .
ν=1
Neben der Parsevalschen Gleichung ist im Zusammenhang mit der diskreten FourierTransformation vor allem der Faltungssatz von Bedeutung. Dieser Satz, der sich prinzipiell genauso beweisen l¨aßt wie der entsprechende Satz f¨ ur die gew¨ohnliche Fourier-Transformation, lautet wie folgt: DFT{(x ∗ y)ν } = DFT{xν }DFT{yν } . Hierbei kennzeichnet (x ∗ y)ν das sogenannte zyklische Faltungsprodukt, das definiert ist durch (x ∗ y)ν =
m
xµ yν−µ =
µ=1
m
yµ xν−µ ,
(2.269)
µ=1
wobei vorausgesetzt wird, daß xν und yν periodische Folgen mit der Periode m sind.
2.7.3
Erg¨ anzende Bemerkungen
Besonders effektiv l¨aßt sich die diskrete Fourier-Transformation auf dem Rechner ausf¨ uhren, wenn m in m¨oglichst viele Primzahlfaktoren zerlegt werden kann. Aus diesem Grunde wird m, die Zahl der Abtastwerte, vielfach als Zweierpotenz gew¨ahlt. Der hierbei zum Einsatz kommende Algorithmus verk¨ urzt die erforderlichen Rechenzeiten ganz wesentlich, und zwar insbesondere dann, wenn m gr¨oßere Werte annimmt, typische Werte f¨ ur m sind etwa 512, 1024 oder 2048. W¨ahrend die Zahl der komplexen Multiplikationen, die bei unmittelbarer Ausf¨ uhrung der Matrixmultiplikation erforderlich sind, quadratisch mit m ansteigt, treten bei dem erw¨ahnten Algorithmus nur Multiplikationen in der Gr¨oßenordnung von m log m auf. Da die Logarithmus-Funktion nur sehr langsam ansteigt, ergibt sich f¨ ur gr¨oßere m eine drastische Reduzierung der Rechenzeit; beispielsweise reduziert sich f¨ ur m = 2048 diese Zeit auf etwa 3 Promille. Man spricht in diesem Zusammenhang h¨aufig von der schnellen Fourier-Transformation oder von der Fast Fourier Transform und k¨ urzt diese mit FFT ab. Statt (2.268) schreibt man dann Xµ = FFT{xν } bzw. xν = IFFT{Xµ } . Da F∗ durch Transposition der Matrix und komplexe Konjugation der Elemente von F gewonnen wird, bezeichnet man die zugeh¨ orige Operation als Transjugation und die resultierende Matrix als Transjugierte. 13
Fourier-Transformation
Die diskrete Fourier-Transformation
2.7-117
Die schnelle Fourier-Transformation ist zu einem außerordentlich wichtigen Werkzeug in vielen Bereichen der Signalverarbeitung geworden. Die Bezeichnung schnelle Fourier-Transformation bzw. FFT ist allerdings nicht ganz konsequent, denn die zugrundeliegende mathematische Operation ist weiterhin die diskrete Fourier-Transformation. Dennoch hat sich diese Bezeichnungsweise in der Praxis weitgehend durchgesetzt. Gelegentlich wird auch der Begriff der schnellen Faltung verwendet. Es handelt sich hierbei um einen Algorithmus, mit dem die zyklische Faltung numerisch besonders effizient durchgef¨ uhrt werden kann. Hierbei werden die zu faltenden Signalfolgen, etwa xν und yν , jeweils der FFT unterworfen. Anschließend werden die zugeh¨origen Fourier-Transformierten Xµ und Yµ miteinander multipliziert. Schließlich wird mit Hilfe der IFFT das Produkt Xµ Yµ zur¨ uck in den Zeitbereich transformiert. Formal l¨aßt sich dieser Vorgang wie folgt beschreiben: (x ∗ y)ν = IFFT{FFT{xν } · FFT{yν }} . Eine genauere Analyse zeigt, daß gegen¨ uber der unmittelbaren Ausf¨ uhrung der Faltung gem¨aß (2.269) bei gr¨oßeren Werten von m die erforderliche Rechenzeit drastisch reduziert werden kann. Ein wichtiger Aspekt, der hier gar nicht angesprochen wurde, behandelt die Frage, wie bei einem realen Signal, das ja h¨aufig weit mehr als 2048, 4096 oder 8192 Abtastwerte umfaßt, durch Einsatz geeigneter Fensterfunktionen eine Zeitbegrenzung vorgemommen werden muß, um abschnittsweise eine Spektralanalyse durchf¨ uhren zu k¨onnen.
118-2.7
Die diskrete Fourier-Transformation
Fourier-Transformation
KAPITEL 3
Die Laplace-Transformation 3.1
Definition der Laplace-Transformation
Die Laplace-Transformation kann in gewisser Weise als eine Verallgemeinerung der Fourier-Transformation angesehen werden. Der augenf¨alligste Unterschied besteht darin, daß im Frequenzbereich statt der reellen Variablen ω bei der Laplace-Transformation die komplexe Variable p = σ + jω auftritt. Die Laplace-Transformierte eines Signals x(t) wird definiert durch ∞
X(p) =
x(t)e−pt dt .
(3.1)
−∞
Da die Laplace-Transformierte X(p) f¨ ur p = jω u ¨ bergeht in die Fourier-Transformierte X( jω), durften wir zur Kennzeichnung beider Funktionen dasselbe Symbol X(·) benutzen. Neben den Bezeichnungen Laplace-Transformierte oder Spektralfunktion wird f¨ ur X(p) auch h¨aufig der Begriff Bildfunktion verwendet. Dementsprechend wird statt vom Frequenzbereich gelegentlich auch vom Bildbereich gesprochen. Setzen wir p = σ + jω bzw. e−pt = e−σt e− jωt in (3.1) ein, so sehen wir, daß (3.1) auch wie folgt interpretiert werden kann: X(σ + jω) = F x(t)e−σt .
(3.2)
Die Laplace-Transformierte von x(t) ist also nichts anderes als die Fourier-Transformierte der Funktion x(t)e−σt . Um die Bedeutung dieser Aussage zu erkennen, betrachten wir als Beispiel das in Bild 3.1a dargestellte Signal x(t) = ε(t)eαt ,
α∈R
(3.3)
das nur f¨ ur α ≤ 0 eine Fourier-Transformierte besitzt [siehe (2.36) und (2.192) mit α ersetzt durch −α], n¨amlich 1 f¨ ur α < 0 −α + jω X( jω) = 1 πδ(ω) + f¨ ur α = 0 . jω Die Laplace-Transformierte des durch (3.3) definierten Signals existiert hingegen f¨ ur alle reellen α und ist gegeben durch ∞ ∞ 1 αt −pt X(p) = ε(t)e e dt = e−(p−α)tdt = , (3.4) p−α −∞ 0 119
120-3.1
Definition der Laplace-Transformation
Laplace-Transformation
AAA AAA AAA AAA AAA AAA AAAA AAAA AAAA AAAA AAAA AAAA AAAAAA AAAAAA AAAAAA AAAAAA AAAAAA AAAAAA
ε(t)eαt
jω
1
α
t
−1/α
σ
jω
ε(t) 1 t
σ
ε(t)eαt
jω
1 −1/α
α
t
σ
Bild 3.1: Verlauf des Signals x(t) = ε(t)eαt f¨ ur unterschiedliche Vorzeichen von α und zugeh¨orige Konvergenzgebiete des Laplace-Integrals
wobei allerdings zu beachten ist, daß das Integral nur f¨ ur Re(p − α) > 0 bzw. Re p > α konvergiert. Das durch diese Ungleichung definierte Gebiet, das in Bild 3.1b f¨ ur α > 0, α = 0 und α < 0 dargestellt ist, wird als Konvergenzgebiet des Laplace-Integrals bezeichnet. Damit die Umkehrung der Laplace-Transformation eindeutig vorgenommen werden kann, muß dieses Gebiet jeweils bekannt sein. Die Angabe des Formelausdrucks, wie etwa hier X(p) = (p − α)−1 , reicht zur Berechnung des zugeh¨origen Zeitsignals nicht aus. Beispielsweise wird die Laplace-Transformierte des in Bild 3.2a dargestellten Signals x *(t) = −ε(−t)eαt , d. h. * X(p) =−
0
(3.5)
e−(p−α)t dt ,
−∞
ebenfalls durch den Ausdruck (p − α)−1 repr¨asentiert, w¨ahrend das zugeh¨orige Konvergenzgebiet, das in Bild 3.2b f¨ ur α < 0, α = 0 und α > 0 dargestellt ist, aber durch Re p < α gegeben ist. Man u ¨berzeugt sich leicht, daß die Fourier-Transformierte des Signals (3.5) nur
Laplace-Transformation
AAA AAA AAA AAA AAA AAA AAAA AAAA AAAA AAAA AAAA AAAA AAAAAA AAAAAA AAAAAA AAAAAA AAAAAA AAAAAA
Definition der Laplace-Transformation
−ε(−t)eαt
3.1-121
jω
−1/α t
−1
α
−ε(−t)
σ
jω
t
−1
σ
−ε(−t)eαt
jω
−1/α
α
t
−1
σ
Bild 3.2: Verlauf des Signals x ˜(t) = −ε(−t)eαt f¨ ur unterschiedliche Vorzeichen von α und zugeh¨ orige Konvergenzgebiete des Laplace-Integrals
f¨ ur α ≥ 0 existiert und durch * jω) = X(
1 −α + jω
f¨ ur α > 0
1 −πδ(ω) + f¨ ur α = 0 jω
gegeben ist. Die beiden Beispiele (3.3) und (3.5) zeigen, daß Signale, die keine Fourier-Transformierte haben, weil sie etwa im Unendlichen exponentiell ansteigen, dennoch eine LaplaceTransformierte besitzen k¨onnen. Aus diesem Grunde wird die Laplace-Transformation h¨aufig als die allgemeinere der beiden Transformationen angesehen. Allerdings gibt es auch Signale, f¨ ur die das Umgekehrte zutrifft. Beispielsweise besitzen die Signale x1 (t) = si(Ωt) und x2 (t) = sgn(t) jeweils eine Fourier-Transformierte, n¨amlich X1 ( jω) =
π 2 rect(ω/Ω) bzw. X2 ( jω) = , Ω jω
122-3.1
Definition der Laplace-Transformation
Laplace-Transformation
aber keine Laplace-Transformierte. Auch die Exponentialschwingung x(t) = e jΩt und damit jedes periodische Signal hat zwar eine Fourier-, aber keine Laplace-Transformierte. Schon hieraus wird erkennbar, daß beide Integraltransformationen jeweils ihre eigene Daseinsberechtigung haben. W¨ahrend die Fourier-Transformation st¨arker in der nachrichtentechnischen Systemtheorie Anwendung findet, wird die Laplace-Transformation vorzugsweise in der Regelungstechnik eingesetzt, und zwar vor allem in Form der sogenannten einseitigen Laplace-Transformation. Bei dieser Transformation wird die Integration nur u uhrt, ¨ ber die positive t-Achse ausgef¨ d. h., daß die Transformationsvorschrift dann wie folgt lautet: ∞ X(p) = x(t)e−pt dt . (3.6) 0
Da wir uns im weiteren ausschließlich mit der einseitigen Laplace-Transformation befassen werden, wollen wir auf die Nennung des Attributs einseitig“ von nun an verzichten. Den ” Zusammenhang (3.6) dr¨ ucken wir symbolisch durch LX(p) = L{x(t)}
(3.7)
aus. F¨ ur hinreichend große Werte von Re p ist in allen praktisch relevanten F¨allen die Konvergenz des Integrals (3.6) und damit die Existenz der Laplace-Transformation sichergestellt. Handelt es sich bei x(t) etwa um eine Funktion, die u ¨ ber jedes endliche Intervall [0, T ) integrierbar ist, und gibt es reelle Konstanten M > 0 und σ0 derart, daß gilt |x(t)| ≤ M eσ0 t so folgt f¨ ur jedes T > 0 T T −pt −t Re p |x(t)e |dt = |x(t)|e dt ≤ M 0
0
f¨ ur t ≥ 0 ,
T
e(σ0 −Re p)tdt =
0
(3.8)
M 1 − e(σ0 −Re p)T . Re p − σ0
Hieraus schließen wir, daß das linke Integral f¨ ur T → ∞ gem¨aß T M |x(t)e−pt |dt ≤ Re p − σ0 0
(3.9)
nach oben beschr¨ankt bleibt, falls p der Ungleichung Re p > σ0
(3.10)
gen¨ ugt. Da die absolute Konvergenz des Integrals die gew¨ohnliche Konvergenz impliziert, existiert f¨ ur Signale, die die Bedingung (3.8) erf¨ ullen, die Laplace-Transformierte zumindest in dem durch (3.10) charakterisierten Gebiet. Ohne Beweis sei bemerkt, daß das Gebiet, in dem das Laplace-Integral absolut konvergiert, grunds¨atzlich eine offene (Re p > σ0 ) oder geschlossene (Re p ≥ σ0) Halbebene ist, wobei die Sonderf¨alle σ0 = −∞ (Konvergenz u ¨ berall ur kein p ∈ C) auch auftreten k¨onnen. in C) und σ0 = ∞ (Konvergenz f¨ Innerhalb des Konvergenzgebietes stellt die Laplace-Transformierte u ¨brigens eine analytische Funktion dar, d. h., sie ist dort in jedem Punkt komplex differenzierbar, und ihre Ableitung ist durch ∞ dX(p) tx(t)e−pt dt = −L{tx(t)} (3.11) =− dp 0
Laplace-Transformation
Umkehrung der Laplace-Transformation
3.2-123
gegeben. Dies kann ¨ahnlich bewiesen werden wie die komplexe Differenzierbarkeit der Fourier-Transformierten eines zeitbegrenzten Signals (siehe Abschnitt 2.3). Da der Signalverlauf f¨ ur negative Zeiten nicht von der Transformation erfaßt wird, haben zwei Signale, die sich nur f¨ ur t < 0 voneinander unterscheiden, die gleiche LaplaceTransformierte. Somit kann bei der Umkehrung der Laplace-Transformation, mit der wir uns im folgenden Abschnitt befassen wollen, keine Aussage u ur t < 0 ¨ber den Signalverlauf f¨ erwartet werden.
3.2 3.2.1
Umkehrung der Laplace-Transformation Herleitung des Umkehrintegrals
Die (einseitige) Laplace-Transformierte eines Signals x(t) kann offenbar als Fourier-Transformierte von ε(t)x(t)e−σt mit σ = Re p aufgefaßt werden, d. h. ∞ ∞ −pt x(t)e dt = ε(t)x(t)e−σt e− jωt dt = F {ε(t)x(t)e−σt } . (3.12) X(p) = −∞
0
Wenden wir die Formel der Fourier-R¨ ucktransformation auf X(σ + jω) = F {ε(t)x(t)e−σt } an, so erhalten wir −σt
ε(t)x(t)e
1 = 2π
∞
X(σ + jω)e jωt dω .
−∞
Die Multiplikation beider Seiten dieser Gleichung mit eσt f¨ uhrt weiter auf ∞ 1 X(σ + jω)e(σ+ jω)tdω . ε(t)x(t) = 2π −∞
(3.13)
Gehen wir nun auf die komplexe Integrationsvariable p = σ + jω u ¨ber, so folgt schließlich 1 ε(t)x(t) = 2π j
α+ j∞
X(p)ept dp ,
(3.14)
α− j∞
wobei der durch die Grenzen angedeutete Integrationsweg γ = [α − j∞, α + j∞] eine zur jωAchse parallele Gerade ist, die innerhalb des der Laplace-Transformierten X(p) zugeordneten Konvergenzgebietes liegt und die σ-Achse im Punkt α schneidet (Bild 3.3). Symbolisch dr¨ ucken wir den Zusammenhang (3.14) durch ε(t)x(t) = L−1 {X(p)}
(3.15)
aus. Anhand von (3.14) bzw. (3.15) wird deutlich, daß, wie bereits erw¨ahnt, bei der R¨ ucktransformation keine Aussage bez¨ uglich des Signalverlaufs f¨ ur negative Zeiten gemacht werden kann. Wird x(t) von vornherein als rechtsseitig vorausgesetzt, so darf statt (3.15) auch einfach x(t) = L−1 {X(p)} geschrieben werden.
(3.16)
124-3.2
Umkehrung der Laplace-Transformation
Laplace-Transformation
jω γ
σ0
α
σ
Bild 3.3: M¨ oglicher Integrationsweg bei der Laplace-R¨ ucktransformation
3.2.2
Berechnung des Umkehrintegrals mit dem Residuenkalk¨ ul
Die Funktion X(p), die, wie schon erw¨ahnt, innerhalb des Konvergenzgebietes analytisch ist, kann h¨aufig in die gesamte komplexe Ebene fortgesetzt werden, und zwar derart, daß sie bis auf endlich viele Singularit¨aten u ur p → ∞ gegen null ¨berall analytisch ist und u ¨ berdies f¨ strebt. Zur bequemen Berechnung des Integrals (3.14) bietet sich dann in vielen F¨allen der Residuenkalk¨ ul an. Dieses Verfahren wollen wir hier kurz skizzieren. Wir stellen zun¨achst das uneigentliche Integral (3.14) als Grenzwert eines eigentlichen Integrals dar, das l¨angst der Strecke γ1 = [α − jω1 , α + jω2 ] berechnet wird: 1 2π j
α+ j∞
1 X(p)e dp = ωlim 1 →∞ 2π j ω2 →∞
α+ jω2
pt
α− j∞
X(p)eptdp .
(3.17)
α− jω1
Sodann erg¨anzen wir das rechte Integral in (3.17) zu dem Umlaufintegral 1 2π j
. X(p)eptdp ,
(3.18)
Γ
bei dem der geschlossene Integrationsweg Γ = γ1 +γ2 +γ3 +γ4 aus den Seiten eines Quadrats mit der Seitenl¨ange ω1 + ω2 und den Eckpunkten q1 = α− jω1 , q2 = α+ jω2 , q3 = α− ω1 − ω2 + jω2 , q4 = α − ω1 − ω2 − jω1 besteht (siehe Bild 3.4). Da wir davon ausgegangen sind, daß X(p) nur endlich viele Singularit¨aten besitzt, k¨onnen wir durch Wahl hinreichend großer Werte von ω1 und ω2 stets erreichen, daß s¨amtliche Singularit¨aten, die wir mit p1 , p2 , p3 , . . . , pn bezeichnen wollen, innerhalb des angegebenen Quadrats liegen. Der Wert des Integrals (3.18) ist dann durch die Summe der Residuen in allen Singularit¨aten gegeben: . n 1 pt X(p)e dp = Res X(p)ept . (3.19) pν 2π j Γ ν=1 Mit vergleichsweise einfachen Absch¨atzungen, die wir am Schluß dieses Abschnitts vornehmen wollen, kann f¨ ur t > 0 und unter der oben erw¨ahnten Voraussetzung, limp→∞ X(p) = 0, gezeigt ur ω1 , ω2 → ∞ gegen null strebt. werden, daß das Integral l¨angs des Streckenzugs γ2 + γ3 + γ4 f¨ Folglich bleibt nach dem Grenz¨ ubergang nur das Integral l¨angs γ1 bzw. l¨angs γ u ¨brig, so daß
Laplace-Transformation
Umkehrung der Laplace-Transformation
3.2-125
jω γ2
q3
q2
jω2 γ3
γ1
α − ω1 − ω2
σ0
α
σ
− jω1 q4
q1
γ4
Bild 3.4: Zur Berechnung der Laplace-R¨ ucktransformation mit Hilfe eines Umlaufintegrals
wir schreiben d¨ urfen: 1 x(t) = 2π j
α+ j∞ pt
X(p)e dp = α− j∞
n ν=1
Res X(p)ept , t > 0 . pν
(3.20)
Die Berechnung der Residuen ist besonders einfach, wenn es sich bei den Singularit¨aten von X(p) ausschließlich um Pole handelt. Ist etwa p0 ein Pol erster Ordnung, so ist das Residuum in diesem Pol durch (3.21) Res X(p)ept = lim (p − p0 )X(p)ept p0
p→p0
gegeben. Hat der Pol p0 die Ordnung m ≥ 2, so gilt dm−1 1 (p − p0 )m X(p)ept . m−1 p→p0 (m − 1)! dp
Res X(p)ept = lim p0
(3.22)
Als ein einfaches Beispiel f¨ ur die Anwendung des Residuensatzes betrachten wir die R¨ ucktransformation der Spektralfunktion X(p) =
p2
p , + ω02
ω0 > 0
ur die die an den Stellen p = jω0 und p = − jω0 jeweils einen Pol erster Ordnung hat. F¨ pt Residuen der Funktion X(p)e erhalten wir unter Verwendung der Beziehung (3.21) p2
p 1 ept = e jω0 t 2 + ω0 2
p2
p 1 ept = e− jω0 t 2 + ω0 2
Res X(p)ept = lim (p − jω0 ) jω0
p→+ jω0
und Res X(p)ept = lim (p + jω0 )
− jω0
p→− jω0
126-3.2
Umkehrung der Laplace-Transformation
Laplace-Transformation
Die zu X(p) geh¨orige Zeitfunktion x(t) lautet somit f¨ ur t > 0 x(t) =
1 jω0 t 1 − jω0 t e + e = cos ω0 t . 2 2
Folglich k¨onnen wir schreiben −1
L
p 2 p + ω02
= cos ω0 t ,
t>0 .
(3.23)
Als weiteres Beispiel transformieren wir die Spektralfunktion X(p) =
1 , (p − p0 )m
m ∈N,
p0 ∈ C
in den Zeitbereich. Ber¨ ucksichtigen wir (3.22), so folgt f¨ ur das Residuum von X(p)ept im Punkte p0 dm−1 pt 1 tm−1 p0 t e . Res X(p)ept = lim e = p0 p→p0 (m − 1)! dpm−1 (m − 1)! Wir haben somit das wichtige Ergebnis −1
L
1 (p − p0 )m
=
tm−1 p0 t e , (m − 1)!
t>0 ,
(3.24)
das nicht nur f¨ ur m = 2, 3, . . . gilt, sondern, wie man leicht nachpr¨ uft, auch f¨ ur m = 1. Wie bereits erw¨ahnt, gilt die Formel (3.20) unter der Voraussetzung, daß die Spektralfunktion X(p) im Unendlichen verschwindet. Es stellt sich daher sofort die Frage, ob eine R¨ ucktransformation vom Bild- in den Zeitbereich m¨oglich ist, wenn X(p) f¨ ur p → ∞ nicht verschwindet oder sogar im Unendlichen singul¨ar wird. Diese Frage ist zu bejahen, wenn beispielsweise die Spektralfunktionen Xn (p) = pn ,
n = 0, 1, 2, . . .
(3.25)
in den Zeitbereich transformiert werden sollen. Allerdings m¨ ussen dann im Zeitbereich wieder verallgemeinerte Funktionen zugelassen werden. Wir werden uns mit diesem Problem im u ¨ bern¨achsten Abschnitt befassen. Wie angek¨ undigt wollen wir nun zeigen, daß das Integral u ¨ ber X(p)ept(t > 0) l¨angs des ur ω1 , ω2 → ∞ gegen null strebt, und zwar unter der Streckenzugs γ2 + γ3 + γ4 in Bild 3.4 f¨ Voraussetzung (3.26) lim X(p) = 0 . p→∞
Wir betrachten zun¨achst das Integral l¨angs der Strecke γ2 , d. h. α−ω1 −ω2 pt X(p)e dp = X(σ + jω2 )e(σ+ jω2 )t dσ . I2 := γ2
α
und sch¨atzen den Betrag des rechten Integrals wie folgt ab:
α−ω1 −ω2
α
(σ+ jω )t 2 |I2| =
X(σ + jω2 )e dσ
≤ |X(σ + jω2 )| eσt dσ . α
α−ω1 −ω2
(3.27)
Laplace-Transformation
Eigenschaften der Laplace-Transformation
3.3-127
Ersetzen wir nun |X(σ + jω2 )| durch den maximalen Wert, den dieser Betrag im Intervall α − ω1 − ω2 ≤ σ ≤ α annehmen kann, so k¨onnen wir schreiben α α σt |X(σ + jω2 )| e dσ ≤ max |X(p)| eσt dσ = max |X(p)| t−1 eαt 1 − e−(ω1 +ω2 )t . p∈γ2
α−ω1 −ω2
Ber¨ ucksichtigen wir sodann
p∈γ2
α−ω1 −ω2
0 < 1 − e−(ω1 +ω2 )t < 1 ,
so folgt schließlich f¨ ur den Betrag des Integrals I2 die Absch¨atzung |I2| ≤ max |X(p)| t−1 eαt . p∈γ2
Da als Folge der Voraussetzung (3.26) das Maximum von |X(p)| l¨angs der Strecke γ2 f¨ ur ur |I2|, also ω2 → ∞ gegen null strebt, gilt dies auch f¨ lim I2 = 0 .
ω2 →∞
Mit ¨ahnlichen Absch¨atzungen k¨onnen wir zeigen, daß auch das Integral l¨angs der Strecke γ4 , d. h. α pt X(p)e dp = X(σ − jω1 )e(σ− jω1 )tdσ , (3.28) I4 := α−ω1 −ω2
γ4
f¨ ur ω1 → ∞ gegen null strebt: lim I4 = 0 .
ω1 →∞
Wir m¨ ussen uns somit nur noch mit der Absch¨atzung des Integrals ω2 pt I3 := X(p)e dp = −j X(α − ω1 − ω2 + jω)e(α−ω1 −ω2 +jω)t dω γ3
(3.29)
−ω1
befassen. F¨ ur |I3| k¨onnen wir schreiben
ω2
(α−ω1 −ω2 )t jωt
. X(α − ω − ω + jω)e dω |I3| = e 1 2
−ω1
Sch¨atzen wir nun den Betrag des Integranden, also |X(α−ω1 −ω2 +jω)|, durch sein Maximum l¨angs der Strecke γ3 ab, so erhalten wir |I3| ≤ e(α−ω1−ω2 )t(ω1 + ω2 ) max |X(p)| . p∈γ3
ur t > 0 und ω1 , ω2 → ∞ gegen null strebt, so folgt Beachten wir, daß (ω1 + ω2 )e−(ω1 +ω2 )t f¨ schließlich lim I = 0 . ω →∞ 3 1
ω2 →∞
3.3
Eigenschaften der Laplace-Transformation
Viele der Eigenschaften, die bei der Anwendung der Laplace-Transformation zu ber¨ ucksichtigen sind, wurden in ¨ahnlicher Form bereits im Zusammenhang mit der Fourier-Transformation diskutiert. Hierzu geh¨oren insbesondere die in der Tabelle 3.11 aufgef¨ uhrten Regeln und S¨atze. Mit Ausnahme des Differentiationssatzes, der uns schon in (3.11) begegnet ist, lassen ¨ sich diese Aussagen sehr einfach beweisen. Die Bedingung α > 0 beim Ahnlichkeitssatz ergibt sich aus der vorausgesetzten Einseitigkeit“ der Transformation. Sofern durch die angegebenen ” Operationen das Konvergenzgebiet des jeweiligen Laplace-Integrals ge¨andert wird, ist das resultierende Konvergenzgebiet in der letzten Spalte angegeben. Die bei der Transformation der Signale x(t) und y(t) sich ergebenden Konvergenzgebiete sind mit Gx bzw. Gy bezeichnet.
128-3.3
Eigenschaften der Laplace-Transformation
L{cx(t)} = cX(p)
Homogenit¨at
Laplace-Transformation
c∈C
L{x(t) + y(t)} = X(p) + Y (p)
Additivit¨at Konjugation
L{x∗ (t)} = X(p)
¨ Ahnlichkeitssatz
L{x(αt)} =
Modulationssatz
X(p) := X ∗ (p∗ )
1 X(p/α) α
α>0
αGx
L{ep0 t x(t)} = X(p − p0 )
p0 ∈ C
p0 + Gx
L{−tx(t)} =
Differentiationssatz
Gx ∩ Gy
d X(p) dp
Tabelle 3.1: Einige Regeln und S¨atze der Laplace-Transformation
3.3.1
Differentiation und Integration im Zeitbereich
Von besonderer Bedeutung f¨ ur die Anwendungen ist der nicht in der Tabelle aufgef¨ uhrte Differentiationssatz, der sich auf die Differentiation im Zeitbereich bezieht und wie folgt formuliert werden kann: L{x(t)} ˙ = pX(p) − x(0+) .
(3.30)
Mit x(0+) ist der rechtsseitige Grenzwert des Signals x(t) zum Zeitpunkt t = 0 bezeichnet. Der Beweis von (3.30) kann mit partieller Integration wie folgt gef¨ uhrt werden:
∞ ∞ ∞
−pt −pt x(t)e ˙ dt = x(t)e + p x(t)e−pt dt L{x(t)} ˙ = 0
0
0
= lim x(t)e−pt − x(0+) + pX(p) . t→∞
Unter der Voraussetzung, daß x(t) f¨ ur t → ∞ nicht schneller als exponentiell steigt, ist f¨ ur hinreichend große Werte von Re p der auf der rechten Seite der Gleichung stehende Grenzwert null. Der gew¨ unschte Beweis ist somit erbracht. Wird der Differentiationssatz zweimal hintereinander auf L{¨ x(t)} angewandt, so folgt ˙ − px(0+) . L{¨ x(t)} = pL{x(t)} ˙ − x(0+) ˙ = p2 X(p) − x(0+) Die n-fache (n = 1, 2, 3, . . .) Anwendung des Differentiationssatzes auf die n-te Ableitung von x(t), die wir mit x(n) (t) bezeichnen wollen, ergibt somit L{x
(n)
(t)} = p X(p) − n
n−1
pn−1−ν x(ν) (0+) .
(3.31)
ν=0
Mit der Laplace-Transformation lassen sich aufgrund des Differentiationssatzes lineare Differentialgleichungen mit konstanten Koeffizienten in a¨quivalente algebraische Gleichungen u uhren, die im Bildbereich gel¨ost werden k¨onnen. Durch R¨ ucktransformation der L¨osungen ¨ berf¨
Laplace-Transformation
Eigenschaften der Laplace-Transformation
3.3-129
in den Zeitbereich erh¨alt man dann die gew¨ unschten L¨osungen der Differentialgleichungen. Als ein einfaches Beispiel f¨ ur dieses Verfahren betrachten wir die homogene Differentialgleichung x¨(t) + 2αx(t) ˙ + (α2 + β 2)x(t) = 0 ,
(3.32)
wobei α eine positive und β eine nichtnegative Konstante ist. Diese Differentialgleichung, die beispielsweise den zeitlichen Verlauf der Spannung an der Kapazit¨at eines kurzgeschlossenen RLC-Reihenschwingkreises mit α = R/(2L) , β 2 = 1/(LC) − (R/(2L))2 und R ≤ 2 L/C beschreibt, soll ausgehend von den reellen Anfangsbedingungen x(0) ˙ = x˙ 0
und
x(0) = x0
f¨ ur t > 0 gel¨ost werden (Bild 3.5). R
L
C
x(t) C x(t) ˙ Bild 3.5: RLC-Reihenschwingkreis
Unter Ber¨ ucksichtigung des Differentiationssatzes ergibt die Laplace-Transformation der Differentialgleichung (3.32) folgende (algebraische) Gleichung: ˙ + (p + 2α)x(0+) . p2 X(p) + 2αpX(p) + (α2 + β 2)X(p) = x(0+)
(3.33)
Da sowohl x(t) als auch x(t) ˙ differenzierbar und folglich stetig sind, d¨ urfen wir in (3.33) x(0+) und x(0+) ˙ durch x(0) = x0 bzw. x(0) ˙ = x˙ 0 ersetzen. Die Aufl¨osung nach X(p) ergibt dann X(p) =
(p + 2α)x0 + x˙ 0 (p + 2α)x(0) + x(0) ˙ = . p2 + 2αp + (α2 + β 2) (p + α + jβ)(p + α − jβ)
(3.34)
Die Konstante β sei zun¨achst positiv. Zur Transformation der Funktion (3.34) in den Zeitbereich bestimmen wir die Residuen der Funktion X(p)ept an den Stellen p1 = −α + jβ und p2 = −α − jβ: Res X(p)ept = lim (p − p1 )
(p + 2α)x0 + x˙ 0 pt (p1 + 2α)x0 + x˙ 0 p1 t e = e (p − p1 )(p − p2 ) p1 − p2
Res X(p)ept = lim (p − p2 )
(p + 2α)x0 + x˙ 0 pt (p2 + 2α)x0 + x˙ 0 p2 t e = e (p − p1 )(p − p2 ) p2 − p1
p1
p2
p→p1
p→p2
Ber¨ ucksichtigen wir schließlich, daß p1 und p2 und somit auch Resp1 X(p)ept und Resp2 X(p)ept jeweils konjugiert komplex zueinander sind, so folgt f¨ ur t > 0 (α + jβ)x0 + x˙ 0 p1 t (p1 + 2α)x0 + x˙ 0 p1 t pt e = Re e x(t) = 2 Re Res X(p)e = 2 Re p1 p1 − p2 jβ
130-3.3
Eigenschaften der Laplace-Transformation
Laplace-Transformation
und weiter nach Bestimmung des Realteils x(t) =
αx0 + x˙ 0 x0 cos βt + sin βt e−αt , β
t> 0.
(3.35)
Nun sei β = 0. Die Funktion X(p) hat dann einen doppelten Pol an der Stelle p = −α. Gem¨aß (3.22) erhalten wir unter diesen Umst¨anden f¨ ur das zugeh¨orige Residuum
d d 2 pt pt Res X(p)e = lim (p + α) X(p)e = [(p + 2α)x0 + x˙ 0 ] e −α p→−α dp dp p=−α pt
(3.36)
und weiter, nach Ausf¨ uhren der Differentiation, f¨ ur x(t) x(t) = [x0 + (αx0 + x˙ 0 )t] e−αt ,
t > 0.
(3.37)
Dieses Ergebnis ist offenbar das gleiche, das wir durch den Grenz¨ ubergang β → 0 aus (3.35) erhalten k¨onnen. Wir h¨atten diese L¨osungen selbstverst¨andlich auch mit dem u ¨ blichen Ansatz x(t) = C ept pt bzw., im Fall der doppelten Polstelle, mit x(t) = (C0 + C1t)e ermitteln k¨onnen. Zur Bestimmung der Konstanten in den L¨osungen x(t) = C1 ep1 t + C2 ep2 t
x(t) = (C0 + C1 t)ept
bzw.
w¨are dann ein lineares Gleichungssystem zu l¨osen gewesen, das im vorliegenden Fall die Ordnung zwei gehabt h¨atte. I. allg. ist die Ordnung dieses Gleichungssystems gleich der Ordnung der zu l¨osenden Differentialgleichung. Beurteilt man die L¨osungsverfahren unter diesem Gesichtspunkt, so kommt – insbesondere bei Systemen h¨oherer Ordnung – dem Verfahren mit der Laplace-Transformation ein leichter Vorteil zu. Wir kommen nun zu einer Umkehrung des Differentiationssatzes, und zwar zu dem Integrationssatz, der wie folgt lautet:
t
L
x(τ )dτ 0
1 = X(p) , p
t>0 .
(3.38)
Wie im Fall des Differentiationssatzes f¨ uhren wir den Beweis f¨ ur die Richtigkeit von (3.38) mit partieller Integration: L
t
x(τ )dτ 0
∞
t
= 0
x(τ )dτ e−pt dt =
0
0
t
= lim
t→∞
t
0
e−pt x(τ )dτ −p
+
∞ e−pt
1 ∞ x(τ )dτ + x(t)e−pt dt −p 0 p 0 1 L{x(t)} . p
Setzen wir voraus, daß der Betrag des Integrals u ur t → ∞ nicht schneller als ¨ ber x(t) f¨ exponentiell w¨achst, so ist f¨ ur hinreichend große Werte von Re p der Grenzwert null und der Integrationssatz unter dieser Voraussetzung bewiesen.
Laplace-Transformation
3.3.2
Eigenschaften der Laplace-Transformation
3.3-131
Grenzwerts¨ atze
Setzen wir voraus, daß das Signal x(t) die Laplace-Transformierte X(p) besitzt und f¨ ur t → ∞ einem (endlichen) Grenzwert zustrebt, so gilt folgender Endwertsatz : x(∞) := lim x(t) = lim pX(p) . t→∞
p→0 p>0
(3.39)
Existiert der rechtsseitige Grenzwert x(+0), so gilt der Anfangswertsatz : x(0+) := lim x(t) = p→∞ lim pX(p) . t→0 t>0
(3.40)
p>0
Die Ungleichung p > 0 unter dem rechten Grenzwertsymbol in beiden Beziehungen soll jeweils darauf hindeuten, daß der Grenz¨ ubergang im Bildbereich l¨angs der positiven reellen Achse erfolgt. H¨aufig k¨onnen die Grenz¨ uberg¨ange p → ∞ und p → 0 aber auch beliebig vorgenommen werden, beispielsweise wenn X(p) eine rationale Funktion ist. Die Richtigkeit der beiden Grenzwerts¨atze wollen wir hier nicht beweisen, sondern hierf¨ ur lediglich plausible Argumente anf¨ uhren. Wir gehen aus von dem Differentiationssatz in der Form ∞ −pt x(t)e ˙ dt = −x(0+) + pX(p) (3.41) 0
und lassen p l¨angs der positiven σ-Achse einmal gegen 0 und einmal gegen ∞ streben und nehmen zugleich an, daß wir diese Grenz¨ uberg¨ange jeweils mit der Integration vertauschen d¨ urfen und somit schreiben k¨onnen ∞ ∞ ∞ −pt −pt lim x(t)e ˙ dt = x(t) ˙ lim e dt = x(t)dt ˙ = x(∞) − x(0+) p→0 p>0
0
p→0 p>0
0
bzw. lim p→∞ p>0
∞
−pt
x(t)e ˙
0
dt =
0
0
∞
x(t) ˙ lim e−pt dt = 0 . p→∞ p>0
In Verbindung mit (3.41) best¨atigen diese beiden Beziehungen unter der angegebenen Voraussetzung die G¨ ultigkeit der Grenzwerts¨atze. Als Beispiel f¨ ur die Anwendung der Grenzwerts¨atze betrachten wir die Bildfunktion X(p) =
α11 p + α12 , p(α21 p + α22)
wobei αµν beliebige komplexe Konstanten sind, jedoch mit α21α22 = 0. Unter der Voraussetzung, daß die Grenzwerte x(∞) und x(0+) existieren, k¨onnen wir diese wie folgt bestimmen: x(∞) = lim pX(p) = α12 /α22 p→0
x(0+) = lim pX(p) = α11 /α21 . p→∞
Im vorliegenden Fall l¨aßt sich dieses Ergebnis sofort u ufen, da die Laplace-R¨ ucktrans¨ berpr¨ formation nach der Partialbruchzerlegung 1 α11 α12 α12 −1 p + − X(p) = α22 α21 α22 p + α22/α21
132-3.3
Eigenschaften der Laplace-Transformation
Laplace-Transformation
leicht durchzuf¨ uhren ist: α12 x(t) = L {X(p)} = + α22
−1
α11 α12 − α21 α22
e−(α22 /α21 )t , t > 0 .
W¨ahrend der Grenzwert x(0+) aufgrund der Voraussetzung α21α22 = 0 immer existiert und durch x(0+) = α11/α21 gegeben ist, strebt x(t) f¨ ur t → ∞ nur unter der Bedingung Re(α22/α21 ) > 0 gegen einen endlichen Grenzwert, n¨amlich gegen α12/α22 .
3.3.3
Verschiebung im Zeitbereich
Da bei der (einseitigen) Laplace-Transformation die Integration nur u ¨ber die positive t-Achse erstreckt wird, nimmt der Verschiebungssatz der Laplace-Transformation, d. h.
L{x(t − t0)} = e
−pt0
X(p) +
0
−pt
x(t)e
dt
,
(3.42)
−t0
eine etwas andere Form an als der entsprechende Satz der Fourier-Transformation. Der Beweis f¨ ur die Richtigkeit der Gleichung (3.42) ergibt sich sofort durch die Substitution t = t + t0 in dem Laplace-Integral:
∞
L{x(t − t0 )} =
−pt
x(t − t0)e
0
dt =
x(t )e
−pt
∞
dt +
−t0
0
x(t)e−pt dt .
0
Wenn x(t) rechtsseitig und t0 nichtnegativ ist, kann das Integral in (3.42) entfallen, da x(t) unter diesen Umst¨anden im Integrationsintervall (−t0, 0) null ist. Wir k¨onnen daher schreiben t < 0 ⇒ x(t) = 0 t0 ≥ 0
⇒
L{x(t − t0)} = e−pt0 X(p) .
(3.43)
Diese Form des Verschiebungssatzes tritt in der Praxis besonders h¨aufig auf, da die angegebene zeitliche Verschiebung um t0 auf eine Verz¨ogerung des Signals hinausl¨auft, die prinzipiell bei jeder Signal¨ ubertragung auftritt.
3.3.4
Faltung rechtsseitiger Signale
Seien x1 (t) und x2 (t) zwei rechtsseitige Signale und X1 (p) bzw. X2 (p) die zugeh¨origen Laplace-Transformierten. Wir betrachten dann das Faltungsprodukt ∞ x1 (τ )x2(t − τ )dτ , x1(t) ∗ x2(t) = −∞
das wir wegen der Rechtsseitigkeit von x1 (t) und x2(t) wie folgt schreiben k¨onnen: x1(t) ∗ x2 (t) =
t
x1(τ )x2(t − τ )dτ
(3.44)
0
Man kann sich leicht davon u ¨ berzeugen, daß das Ergebnis des Faltungsprodukts ebenfalls ein rechtsseitiges Signal ist.
Laplace-Transformation
Deltaimpulse im Zeitbereich
3.4-133
Wie im Fall der Fourier-Transformation gilt auch hier L {x1 (t) ∗ x2 (t)} = X1 (p)X2 (p) .
(3.45)
Zum Nachweis dieser Beziehung ersetzen wir in dem Integral in (3.44) die obere Grenze wieder durch ∞ und nehmen an, daß wir zur Auswertung des Ausdrucks ∞ ∞ x1 (τ )x2(t − τ )dτ e−pt dt L {x1(t) ∗ x2(t)} = 0
0
die Reihenfolge der Integration vertauschen d¨ urfen: ∞ ∞ −pt L {x1 (t) ∗ x2 (t)} = x1 (τ ) x2(t − τ )e dt dτ . 0
0
Unter Beachtung des Verschiebungssatzes erhalten wir hieraus schließlich das gew¨ unschte Ergebnis ∞
L {x1(t) ∗ x2(t)} =
x1(τ )e−pτ dτ X2 (p) = X1 (p)X2 (p) .
0
3.4
Deltaimpulse im Zeitbereich
Viele idealisierte Signale, wie beispielsweise die Sprungfunktion, das konstante Signal, die Exponentialschwingung usw., konnten mit Hilfe der Fourier-Transformation nur dadurch im Frequenzbereich dargestellt werden, daß dort verallgemeinerte Funktionen zugelassen wurden, und zwar insbesondere die Deltafunktion. Dies ist bei der Laplace-Transformation nicht erforderlich, da der bei der Integration wirksame Faktor e−σt die Konvergenz des LaplaceIntegrals meistens erzwingt, sogar dann noch, wenn das zu transformierende Signal f¨ ur t → ∞ exponentiell steigt. Aus diesem Grunde brauchen bei der Laplace-Transformation im Bildbereich keine verallgemeinerten Funktion zugelassen zu werden. Tats¨achlich hat man es ja sogar dort mit einer sehr gutm¨ utigen Funktionsklasse zu tun, n¨amlich, wie schon erw¨ahnt, mit analytischen Funktionen. Im Zeitbereich bleibt die Verwendung von verallgemeinerten Funktionen aber weiterhin von Bedeutung. Unter Beachtung der Ausblendeigenschaft erhalten wir f¨ ur die Laplace-Transformierte des zu einem positiven Zeitpunkt t0 auftretenden Deltaimpulses ∞ δ(t − t0)e−pt dt = e−pt0 , t0 > 0 . L{δ(t − t0)} = 0
Damit ein zum Zeitpunkt t = 0 auftretender Deltaimpuls bei der Transformation voll“ erfaßt ” wird, wollen wir die untere Integrationsgrenze ab sofort durch 0− ersetzen und dies wie folgt interpretieren: ∞
· · · dt := lim
τ →0 τ >0
0−
∞
−τ
· · · dt .
F¨ ur beliebige reelle t0 k¨onnen wir dann schreiben L{δ(t − t0)} =
0 f¨ ur t0 < 0 ur t0 ≥ 0 e−pt0 f¨
.
(3.46)
134-3.4
Deltaimpulse im Zeitbereich
Laplace-Transformation
Hierbei herrscht Konvergenz in der gesamten komplexen Ebene. Dies gilt nat¨ urlich auch, wenn mehrere, etwa n, Deltaimpulse auftreten, d. h., wenn beispielsweise die Summe n
αν δ(t − tν ) , αν ∈ C , n = 0, 1, 2, . . .
ν=0
transformiert werden soll. Setzen wir voraus, daß die Zeitpunkte tν alle nichtnegativ sind, so k¨onnen wir schreiben n n αν δ(t − tν ) = αν e−ptν . (3.47) L ν=0
ν=0
Als n¨achstes nehmen wir an, daß Deltaimpulse zu unendlich vielen Zeitpunkten t0 , t1 , t2 , . . . auftreten, wobei in jedem endlichen Zeitintervall aber nur endlich viele dieser Zeitpunkte liegen, die dar¨ uber hinaus gem¨aß 0 ≤ t0 < t1 < t2 < . . . < ∞ geordnet seien. Wir betrachten also ein Signal der Form x(t) =
∞
αν δ(t − tν ) , αν ∈ C
ν=0
und definieren dessen Laplace-Transformierte durch L{x(t)} = lim
n→∞
n
αν e−ptν .
ν=0
ur alle ν = 0, 1, 2, . . . die UngleiGibt es dann reelle Konstanten σ0 und M > 0 derart, daß f¨ chung |αν | ≤ M eσ0 tν gilt, so existiert der angegebene Grenzwert in der Halbebene Re p > σ0. Wir wollen dies nur f¨ ur den in der Praxis h¨aufig auftretenden Fall beweisen, daß die Zeitpunkte a¨quidistant in einem Abstand T > 0 liegen, so daß wir schreiben d¨ urfen tν = t0 + νT . Man kann sich leicht davon u ur Re p > σ0 bzw. ¨ berzeugen, daß die angegebene Reihe f¨ (σ0 −Re p)T < 1 sogar absolut konvergiert: e n
|αν e−ptν | ≤ M e−t0 Re p
ν=0
≤ Me
−t0 Re p
∞
n
e(σ0 −Re p)νT
ν=0
−1 e(σ0 −Re p)νT = M e−t0 Re p 1 − e(σ0 −Re p)T .
ν=0
In der letzten Zeile haben wir von der Summenformel der geometrischen Reihe ∞
z ν = (1 − z)−1 , |z| < 1
ν=0
Gebrauch gemacht, und zwar mit z = e(σ0 −Re p)T .
Laplace-Transformation
3.4.1
Deltaimpulse im Zeitbereich
3.4-135
Modifizierung des Differentiationssatzes
Da wir auch an der Stelle t = 0 einen Deltaimpuls zulassen, m¨ ussen wir den Differentiationssatz geringf¨ ugig modifizieren und ihn wie folgt formulieren: L{x(t)} ˙ = pX(p) − x(0−) .
(3.48)
Der Unterschied zwischen der urspr¨ unglichen und der modifizierten Form des Differentiationssatzes ist nat¨ urlich nur von Bedeutung, wenn x(t) an der Stelle t = 0 unstetig ist. Springt etwa x(t) dort von x(0−) auf x(0+), also um die H¨ohe ∆ = x(0+) − x(0−) , so k¨onnen wir x(t) durch (3.49) x(t) = x1(t) + ∆ · ε(t) darstellen, wobei x1 (t) an der Stelle t = 0 stetig ist und dort den Wert x1(0) = x(0−) annimmt. Zwischen den Laplace-Transformierten von x(t) und x1(t) besteht offenbar der Zusammenhang ∆ (3.50) L{x1 (t)} = X(p) − . p Bestimmen wir nun die Laplace-Transformierte der Ableitung von (3.49), d. h. von x(t) ˙ = x˙ 1(t) + ∆ · δ(t) , und wenden unter Beachtung von (3.50) den Differentiationssatz in der urspr¨ unglichen Form auf x˙ 1(t) bzw. L{x˙ 1(t)} an, so erhalten wir ∆ − x1 (0+) + ∆ = pX(p) − x1(0+) . L{x(t)} ˙ = L{x˙ 1 (t)} + ∆ = p X(p) − p Ber¨ ucksichtigen wir schließlich x1(0+) = x1(0) = x(0−), so folgt der Differentiationssatz in der Form (3.48). H¨atten wir versucht, die Laplace-Transformierte des Deltaimpulses δ(t) = u(t) ˙ mit Hilfe der urspr¨ unglichen Form des Differentiationssatzes aus L{ε(t)} herzuleiten, so w¨aren wir zu dem (falschen) Ergebnis 1 L{δ(t)} = L{u(t)} ˙ = pL{ε(t)} − ε(0+) = p − 1 = 0 p gekommen, w¨ahrend die Anwendung von (3.48) wegen ε(0−) = 0 sofort das richtige Resultat liefert, n¨amlich L{δ(t)} = 1. Als weiteres Beispiel betrachten wir ein System mit der Sprungantwort a(t) = (1 − αe−βt )ε(t) mit α = 1 und β > 0 und der sich daraus ergebenden Impulsantwort h(t) = a(t) ˙ = (1 − α)δ(t) + αβ e−βtε(t) . Die Laplace-Transformierte von a(t), die wir mit A(p) bezeichnen wollen, ergibt sich zu A(p) =
α (1 − α)p + β 1 − = . p p+β p(p + β)
136-3.4
Deltaimpulse im Zeitbereich
Laplace-Transformation
¨ F¨ ur die Laplace-Transformierte der Impulsantwort h(t), die ja gleich der Ubertragungsfunktion H(p) ist, erhalten wir H(p) = (1 − α) +
αβ (1 − α)p + β = . p+β p+β
(3.51)
Wir k¨onnen leicht u ufen, daß wir H(p) aus A(p) nur dann mit dem Differentiationssatz ¨berpr¨ ableiten k¨onnen, wenn wir diesen in der Form (3.48) verwenden. Wegen a(0−) = 0 gilt dann einfach H(p) = pA(p). Da die Sprungantwort an der Stelle t = 0 springt, und zwar von a(0−) = 0 auf a(0+) = 1−α, bezeichnet man das zugeh¨orige System als sprungf¨ahig. Aufgrund des Anfangswertsatzes (3.40) k¨onnen wir die Sprungf¨ahigkeit allgemein daran erkennen, daß der Grenzwert lim H(p) a(0+) = p→∞ lim pA(p) = p→∞ p>0
p>0
existiert und ungleich null ist, das Z¨ahler- und das Nennerpolynom von H(p) also den gleichen Grad haben. Ist ein System sprungf¨ahig, so ist es eigentlich auch impulsf¨ahig, d. h., die Impulsantwort enth¨alt an der Stelle t = 0 einen (gewichteten) Deltaimpuls. Gelegentlich steht man vor der Aufgabe, auch Ableitungen des Deltaimpulses in den Bildbereich zu transformieren. Setzen wir voraus, daß wir den Differentiationssatz zur L¨osung dieser Aufgabe verwenden k¨onnen, so folgt f¨ ur t0 ≥ 0 und m = 0, 1, 2, · · · L{δ (m+1)(t − t0)} = pL{δ (m) (t − t0)} mit L{δ(t − t0)} = e−pt0 und somit, per Induktion, L{δ (m) (t − t0)} = pm e−pt0 .
3.4.2
(3.52)
Im Unendlichen nicht verschwindende Bildfunktionen
Bei der Ausf¨ uhrung der Laplace-R¨ ucktransformation mit Hilfe des Residuenkalk¨ uls waren wir im Abschnitt 3.2.1 davon ausgegangen, daß die Bildfunktion f¨ ur p → ∞ verschwindet. Diese ¨ Bedingung erf¨ ullt die Ubertragungsfunktion (3.51) offenbar nicht. Wir k¨onnen sie aber additiv zerlegen in eine Konstante und eine rationale Funktion, die im Unendlichen verschwindet und sich folglich mit Hilfe des Residuenkalk¨ uls in den Zeitbereich transformieren l¨aßt. Die Konstante im Bildbereich sollte nach der R¨ ucktransformation einen Deltaimpuls an der Stelle t = 0 ergeben; denn es galt ja L{δ(t)} = 1. Wir wollen dies durch formale R¨ ucktransformation best¨atigen, und zwar betrachten wir gleich den etwas allgemeineren Fall σ+ j∞ −pt 1 −1 0 ep(t−t0 )dp . (3.53) e = L 2π j σ− j∞ Hier tritt nun dasselbe Problem auf wie bei der inversen Fourier-Transformation des Signals e− jωt0 : Wir stehen vor einem divergenten Integral. Mit der Substitution p = σ + jω (σ = const.) geht (3.53) u ¨ ber in ∞ −pt −1 σ(t−t0 ) 1 0 L e jω(t−t0 ) dω . (3.54) e =e 2π −∞ Interpretieren wir dieses Integral nun in gleicher Weise wie in (2.178), d. h., ersetzen wir das uneigentliche Integral durch eine Folge aus eigentlichen Integralen mit den Grenzen −nΩ und
Laplace-Transformation
Deltaimpulse im Zeitbereich
nΩ, so folgt −1
L
e
−pt0
=e
σ(t−t0 )
1 2π
3.4-137
nΩ
e
jω(t−t0 )
dω
−nΩ
= eσ(t−t0 ) δ(t − t0)
und weiter, unter Ber¨ ucksichtigung der Ausblendeigenschaft f(t)δ(t − t0) = f(t0)δ(t − t0), L−1 e−pt0 = δ(t − t0) , so daß f¨ ur t0 ≥ 0 die Formel (3.46) best¨atigt wird. Wir sind nun auch in der Lage, eine Bildfunktion X(p), die rational in einer Variablen z = e−pT mit T > 0 ist oder in eine konvergente Potenzreihe der Form ∞ X(p) = Xν z ν , z = e−pT ν=0
entwickelt werden kann, in den Zeitbereich zu transformieren. F¨ ur die Zeitfunktion x(t) erhalten wir ∞ ∞ −1 ν x(t) = L Xν z Xν δ(t − νT ) , z = e−pT . (3.55) = ν=0
ν=0
Als ein Beispiel f¨ ur eine derartige Bildfunktion betrachten wir 1 2e−pT = cosh pT 1 + e−2pT und entwickeln diese Funktion in die (geometrische) Reihe ∞ ∞ −pT ν −2νpT (−1) e =2 (−1)ν e−(1+2ν)pT , X(p) = 2e X(p) =
ν=0 −2pT
die f¨ ur |e also
ν=0
| < 1 bzw. Re p > 0 absolut konvergent ist. Die zugeh¨orige Zeitfunktion lautet −1
L
1 cosh pT
=2
∞
(−1)ν δ(t − T − 2νT ) .
(3.56)
ν=0
Wir wollen nun noch, wie zu Ende des Abschnitts 3.2.1 angek¨ undigt, die Bildfunktion pm oder – allgemeiner – pm e−pt0 (m = 1, 2, 3, · · · ) in den Zeitbereich transformieren. Mit Blick auf (3.52) erwarten wir, daß in diesem Fall Ableitungen des Deltaimpulses auftreten. Mit der Substitution p = σ + jω (σ = const.) geht das Integral der Laplace-R¨ ucktransformation u ¨ber in ∞ ∞ m m −pt 1 1 ∂ (σ+ jω)(t−t0 ) −1 m (σ+ jω)(t−t0) 0 (σ + jω) e dω = e dω . p e = L 2π −∞ 2π −∞ ∂tm Wir interpretieren dieses (divergente) Integral nun wieder als verallgemeinerte Funktion und stellen es dar durch eine Folge von eigentlichen Integralen: nΩ nΩ m m −pt dm ∂ (σ+ jω)(t−t0 ) 1 1 −1 (σ+ jω)(t−t0 ) 0 e dω = m e dω . p e = L 2π −nΩ ∂tm dt 2π −nΩ Klammern wir aus den Elementen der rechten Folge den Faktor eσ(t−t0 ) aus, der ja bez¨ uglich der Integration eine Konstante ist, so erkennen wir nach Anwendung der Ausblendeigenschaft, urfen wir also daß auch diese Folge ein Repr¨asentant von δ(t − t0) ist. Erwartungsgem¨aß d¨ schreiben: L−1 pm e−pt0 = δ (m) (t − t0) . (3.57)