Biosignalverarbeitung
Peter Husar
Biosignalverarbeitung
1C
Univ.-Prof. Dr.-Ing. habil. Peter Husar Technische Universität Ilmenau Institut Biomedizinische Technik und Informatik Gustav-Kirchhoff-Str. 2 98693 Ilmenau Deutschland
[email protected]
ISBN 978-3-642-12656-7 e-ISBN 978-3-642-12657-4 DOI 10.1007/978-3-642-12657-4 Springer Heidelberg Dordrecht London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag Berlin Heidelberg 2010 Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandentwurf: WMXDesign GmbH, Heidelberg Gedruckt auf säurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)
Vorwort Sehr geehrte Leserinnen und Leser1, ich lege Ihnen ein Fachbuch vor, dessen Ziel es ist, Studierenden, Praktikern und Forschern in Medizin, Technik und Medizintechnik eine Orientierung in Biosignalverarbeitung zu bieten. Die Biosignalverarbeitung als eigenständiges Fachgebiet nimmt in dem immer breiter und interdisziplinärer werdenden Gebiet der Medizintechnik an Wichtigkeit zu. Ihre wachsende Bedeutung lässt sich erklären: Zur Heilung von Krankheiten ist eine zuverlässige Diagnose notwendig. Eine zuverlässige Diagnose baut auf der Gewinnung, Aufbereitung und Analyse von objektiven und verlässlichen Messdaten sowie ihrer Interpretation auf. Daher ist die Biosignalverarbeitung ganzheitlich als ein Methoden- und Technologiespektrum zu sehen, welches am Biosensor beginnt und in der Darstellung und Interpretation von verarbeiteten Biosignalen (nicht unbedingt) endet. Dieses Buch behandelt die diagnostische Messkette beginnend am Biosensor, über die Signalverstärkung und -aufbereitung, Abtastung und Digitalisierung, analoge und digitale Filterung, Methoden der Zeit-, Frequenz- und Zeit-Frequenzanalyse sowie der Raum-Zeit-Analyse bis zur Biostatistik und medizinisch orientierten Analyse stochastischer Prozesse. Die methodische und experimentelle Basis entstand in meiner langjährigen Tätigkeit am europaweit ältesten und einem der bedeutsamsten medizintechnischen Institute – dem Institut für Biomedizinische Technik und Informatik der Technischen Universität in Ilmenau. Inhaltlich flossen sowohl Vorlesungen, Seminare und Praktika als auch zum Teil neueste Forschungsergebnisse ein. Ich erhebe keinen Anspruch auf Vollständigkeit und restlose mathematische Exaktheit. Es ging primär darum, ein methodisch gut begründetes sowie ein praktikables Instrumentarium zu schaffen. Für Hinweise und konstruktive Kritiken, die zur Verbesserung des Werkes führen können, wäre ich dankbar. Man kann namentlich nicht alle nennen, die zur Realisierung dieses Buches beigetragen haben. Daher danke ich zunächst den Lehrern und Forschern am Institut BMTI, die mit Kompetenz und Geduld meinen wissenschaftlichen Werdegang gefördert haben. An der inhaltlichen und formalen Gestaltung des Buches waren Studenten, Doktoranden und Kollegen beteiligt. Dafür meinen herzlichen Dank! Am Ende, für die Form aber von entscheidender Bedeutung, möchte ich die akribische Editierarbeit meiner Frau Darina hervorheben, die sämtliche Grafiken und das gesamte Buch in eine veröffentlichungsfähige Fassung gebracht hat. Ilmenau, den 3. Mai 2010
1
Ab hier wird für beide Geschlechter im Sinne einer guten Lesbarkeit die männliche Form verwendet.
Inhaltsverzeichnis
1 Entstehung bioelektrischer Signale..................................................................9 1.1 Das Neuron .................................................................................................9 1.2 Elektrische Erregungsleitung und Projektion............................................15 2 Verstärkung und analoge Filterung in der medizinischen Messtechnik.....23 2.1 Eigenschaften von Biosignalen und Störungen..........................................23 2.1.1 Eigenschaften von Biosignalen und Störungen im Zeitverlauf ..........24 2.1.1.1 Periodische Verläufe.................................................................24 2.1.1.2 Stochastischer Verlauf ..............................................................27 2.1.1.3 Transienter zeitlicher Verlauf ...................................................28 2.1.2 Eigenschaften von Biosignalen und Störungen im Spektrum.............30 2.1.3 Einkopplung von Störungen in die Messanordnung...........................32 2.1.3.1 Galvanische Störungseinkopplung............................................32 2.1.3.2 Kapazitiv eingekoppelte Störungen ..........................................34 2.1.3.3 Induktiv eingekoppelte Störungen ............................................39 2.1.3.4 Elektromagnetisch eingekoppelte Störungen ............................41 2.2 Medizinische Messverstärker.....................................................................45 2.2.1 Spezifik der medizinischen Messtechnik ...........................................45 2.2.1.1 Zugänglichkeit der Biosignalquelle ..........................................45 2.2.1.2 Komplexität des biologischen Messobjekts ..............................46 2.2.1.3 Rückwirkung auf das biologische Messobjekt..........................46 2.2.1.4 Ankopplung des Messsystems an das biologische Messobjekt.47 2.2.1.5 Eingangswiderstände medizinischer Messverstärker................51 2.2.1.6 Gleichtaktunterdrückung medizinischer Messverstärker ..........54 2.2.1.7 Amplitudengang und Rauschen medizinischer Messverstärker 56 2.2.2 Differenzverstärker.............................................................................60 2.2.3 Operationsverstärker, Instrumentationsverstärker ..............................71 2.2.4 Isolationsverstärker ............................................................................81 2.2.5 Guardingtechnik .................................................................................83 2.2.6 Aktive Elektroden...............................................................................87 2.3 Analoge Filter ............................................................................................89 2.3.1 Grundlagen .........................................................................................89 2.3.2 Filtertheorie und Systementwurf ........................................................96 2.3.2.1 Amplitudenorientierter Entwurf.................................................96 2.3.2.2 Phasenorientierter Entwurf ......................................................100 2.3.3 Aktive Filter mit Operationsverstärkern...........................................101 2.3.4 Phasenfrequenzgang.........................................................................106
4
Inhaltsverzeichnis
2.4 Übungen ................................................................................................. 110 2.4.1 Aufgaben ......................................................................................... 110 2.4.2 Lösungen ......................................................................................... 114 3 Erfassung, Abtastunng und Digitalisierung von Biosignalen .................... 121 3.1 Erfassung von Biosignalen ..................................................................... 121 3.1.1 Ableittechnik ................................................................................... 121 3.1.1.1 Erdung ..................................................................................... 125 3.1.1.2 Elektrische Masse .................................................................... 125 3.1.1.3 Referenz................................................................................... 125 3.1.2 Referenzen in der Biosignalerfassung ............................................. 127 3.1.2.1 Ableitsysteme mit realen Referenze ........................................ 128 3.1.2.2 Ableitsysteme mit virtuellen Referenzen................................. 128 3.1.2.3 Referenzfreie Ableitungen....................................................... 129 3.2 Abtastung von Biosignalen..................................................................... 132 3.2.1 Spektrale Eigenschaften der Abtastung........................................... 132 3.2.2 Abtastung von bandbegrenzten Signalen ........................................ 137 3.2.3 Abtastung in Mehrkanalsystemen ................................................... 141 3.3 Digitalisierung von Biosignalen ............................................................. 145 3.3.1 Integrierende Wandler..................................................................... 145 3.3.2 Sukzessive Approximation.............................................................. 149 3.3.3 Delta-Sigma-Wandlung................................................................... 151 3.4 Übungen ................................................................................................. 156 3.4.1 Aufgaben ......................................................................................... 156 3.4.2 Lösungen ......................................................................................... 160 4 Zeit-, Frequenz- und Verbundbereich......................................................... 173 4.1 Signalanalyse im Zeitbereich.................................................................. 173 4.1.1 Merkmalsidentifikation ................................................................... 174 4.1.1.1 Artefakte: Entstehung, Detektion und Elimination.................. 174 4.1.1.2 Deterministische Merkmalsidentifikation................................ 185 4.1.2 Ermittlung von Kurvenparametern.................................................. 187 4.1.2.1 Amplitudendetektion ............................................................... 187 4.1.2.2 Flankendetektion...................................................................... 194 4.1.2.3 Bestimmung von Frequenz und Rate ....................................... 197 4.2 Signalanalyse im Frequenzbereich ......................................................... 203 4.2.1 Fouriertransformation...................................................................... 203 4.2.1.1 Eigenschaften der FT und IFT ................................................. 204 4.2.1.2 Fensterung ............................................................................... 208 4.2.1.3 Faltung im Zeitbereich und Korrelationsfunktion.................... 211 4.2.2 Diskrete Fouriertransformation ....................................................... 213 4.2.2.1 Kontinuierliche und diskrete Zeit ............................................ 213 4.2.2.2 Diskrete Fouriertransformation als Kreuzkorrelation .............. 216 4.2.2.3 Diskrete Fouriertransformation als Filterbank ......................... 218 4.2.2.4 Berechnung der DFT über die FFT.......................................... 220 4.2.2.5 Fehlerquellen der DFT............................................................. 224
Inhaltsverzeichnis
5
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich...................................229 4.3.1 Einführung zu Zeit-Frequenz-Verteilungen ....................................230 4.3.2 Fourierbasierte Zeit-Frequenz-Verteilungen ...................................234 4.3.2.1 Short-Time-Fourier-Transform................................................234 4.3.2.2 Spektrogramm..........................................................................237 4.3.2.3 Wigner-Verteilung ...................................................................241 4.3.3 Wavelets ..........................................................................................258 4.3.3.1 Skalierung und Fourier-basierte Zeit-Frequenz-Verteilungen .258 4.3.3.2 Wavelet-Transformation ..........................................................261 4.3.3.3 Wavelets als Filterbank............................................................267 4.3.3.4 Typen und Anwendungen von Wavelets .................................274 4.4 Übungen...................................................................................................286 4.4.1 Aufgaben .........................................................................................286 4.4.2 Lösungen .........................................................................................292 Literatur ................................................................................................313 5 Digitale Filter .................................................................................................315 5.1 Einführung in die digitale Filterung........................................................315 5.2 LTI-Systeme: FIR und IIR......................................................................317 5.2.1 Einführung zur Impulsantwort und Filterstruktur............................317 5.2.2 Filter mit unendlicher Impulsantwort, IIR.......................................318 5.2.2.1 Analoge und digitale Filterung – Impulsinvariante Technik....318 5.2.2.2 Rekursive Filter........................................................................322 5.2.3 Filter mit endlicher Impulsantwort, FIR..........................................326 5.2.3.1 Grundlagen...............................................................................326 5.2.3.2 Kausalität von FIR-Filtern .......................................................329 5.2.3.3 Phasenfrequenzgang von FIR-Filtern ......................................330 5.3 LTV-Systeme: zeitvariable und adaptive Filter ......................................333 5.3.1 Grundlagen der zeitvariablen Filterung...........................................333 5.3.2 Zeitvariable Filter ............................................................................334 5.3.3 Adaptive Filter.................................................................................338 5.3.3.1 Theoretische Grundlagen der adaptiven Filterung ...................338 5.3.3.2 Gradientenverfahren, LMS-Algorithmus .................................341 5.3.3.3 Adaptive Störungsunterdrückung, ANC ..................................346 5.4 Räumlich-zeitliche Filterung ..................................................................351 5.4.1 Grundlagen der räumlich-zeitlichen Filterung.................................351 5.4.2 Beamforming...................................................................................354 5.4.3 Räumliche Filter ..............................................................................357 5.4.3.1 Spezifik der Biosignalquellen ..................................................357 5.4.3.2 Modellfreie räumliche Filter ....................................................358 5.4.3.3 Adaptive räumliche Filterung ..................................................362 5.4.4 Mittelwertreferenz ...........................................................................367 5.4.4.1 Theorie der Mittelwertreferenz ................................................368 5.4.4.2 Die Mittelwertreferenz als räumliches Filter ...........................369 5.4.4.3 Auswirkungen der Mittelwertreferenz .....................................372 5.5 Übungen..................................................................................................377
6
Inhaltsverzeichnis
5.5.1 Aufgaben ......................................................................................... 377 5.5.2 Lösungen ......................................................................................... 380 Literatur ................................................................................................ 389 6 Stochastische Prozesse .................................................................................. 391 6.1 Grundlagen der analytischen Statistik .................................................... 392 6.1.1 Verteilungen von Zufallsgrößen...................................................... 392 6.1.1.1 Stetige und diskrete Verteilungen............................................ 392 6.1.1.2 Verteilungen und Deskriptionsmaße........................................ 394 6.1.1.3 Quantile und grafische Darstellung ......................................... 400 6.1.1.4 Ausgewählte Verteilungen....................................................... 403 6.1.1.5 Zentraler Grenzwertsatz........................................................... 410 6.1.2 Statistischer Zusammenhang............................................................ 412 6.1.2.1 Grundgesamtheit und Stichprobe............................................. 413 6.1.2.2 Korrelation und Darstellung von Zusammenhängen ............... 414 6.1.3 Schätzverfahren............................................................................... 427 6.1.3.1 Grundlagen .............................................................................. 427 6.1.3.2 Methoden ................................................................................. 432 6.1.3.3 Konfidenzintervall ................................................................... 436 6.2 Statistische Tests..................................................................................... 440 6.2.1 Grundlagen...................................................................................... 440 6.2.2 Hypothesen für statistische Tests .................................................... 442 6.2.3 Güte statistischer Tests, ROC.......................................................... 444 6.2.4 Parametrische Tests......................................................................... 448 6.2.4.1 Der t-Test................................................................................. 448 6.2.4.2 Wilcoxon-Test ......................................................................... 455 6.2.4.3 Wilcoxon-Test vs. t-Test.......................................................... 458 6.2.4.4 Vorzeichentest ......................................................................... 459 6.3 Statistische Analyse von Zeitreihen........................................................ 462 6.3.1 Von statischen Daten zu Prozessen ................................................. 462 6.3.1.2 Stichprobe und Ensemble ........................................................ 464 6.3.1.3 Stationarität und Ergodizität .................................................... 465 6.3.2 Schätzung des Leistungsdichtespektrums ....................................... 469 6.3.2.1 Das Parseval-Theorem............................................................. 469 6.3.2.2 Das Periodogramm, direkte spektrale Schätzung..................... 470 6.3.2.3 Indirekte spektrale Schätzer..................................................... 472 6.3.2.4 Methoden zur Schätzung der spektralen Leistungsdichte ........ 476 6.3.3 Spektrale Kreuzleistungsdichte und Kohärenz................................. 482 6.3.3.1 Spektrale Kreuzleistungsdichte, das KLDS ............................. 482 6.3.3.2 Kohärenz.................................................................................. 484 6.3.3.3 Das KLDS in der Systemidentifikation ................................... 487 6.4 Statistiken und Spektren höherer Ordnung ............................................. 489 6.4.1 Momente und Kumulanten.............................................................. 489 6.4.1.1 Definitionen von Momenten und Kumulanten ........................ 490 6.4.1.2 Eigenschaften von Momenten und Kumulanten ...................... 491 6.4.2 Spektren höherer Ordnung ............................................................... 494
Inhaltsverzeichnis
7
6.4.2.1 Definition von Spektren höherer Ordnung...............................494 6.4.2.2 Eigenschaften von Spektren höherer Ordnung.........................494 6.4.2.3 Schätzung der Spektren höherer Ordnung ...............................496 6.4.3 Lineare und Quadratische Phasenkopplung......................................497 6.4.3.1 Lineare Phasenkopplung..........................................................498 6.4.3.2 Quadratische Phasenkopplung .................................................499 6.5 Übungen..................................................................................................503 6.5.1 Aufgaben .........................................................................................503 6.5.2. Lösungen ........................................................................................506 Literatur ................................................................................................514 Glossar................................................................................................................515 Index ................................................................................................................... 521
Kapitel 1
Entstehung bioelektrischer Signale
1.1 Das Neuron Das Neuron (Nervenzelle) ist der Grundbaustein aller sensorischen (visuell, akustisch, somatisch) und motorischen Systeme (motorische Endplatte) sowie des zentralen (ZNS) und peripheren Nervensystems (PNS). Sein Grundaufbau und Verbindungen zu anderen Neuronen sind in Abb. 1.1 dargestellt. Aus der signalanalytischen Sicht besitzt das Neuron mehrere Signaleingänge - Synapsen und einen Signalausgang - das Axon -, so dass man es als ein MISO-System (Multi-Input-Single-Output) bezeichnen kann. Die Signalaufnahme, -verarbeitung und -ausgabe finden primär biochemisch statt: Die semipermeable Zellmembran ist für Na+ und K+-Ionen durchlässig. In Ruhe ist die Konzentrationen der Ionen innen und außen unterschiedlich, so dass sich über der Membran eine Potentialdifferenz von 50 mV bis 100 mV bildet, innen negativ gegen außen (Abb. 1.2, Abb. 1.3). Diese Potentialdifferenz wird mit
Dendriten
Myelinscheide Axon
Zellkern
Synapse
Synapse
Dendriten
Abb. 1.1 Das Neuron als Grundbaustein der sensorischen und motorischen Systeme sowie des ZNS und des PNS
P. Husar, Biosignalverarbeitung, DOI 10.1007/978-3-642-12657-4_1, © Springer-Verlag Berlin Heidelberg 2010
10
1 Entstehung bioelektrischer Signale
40 20
Depolarisation
AP / mV
0
Repolarisation
yNa
-20
yK
-40
Hyperpolarisation
-60
Ruhepotential
-80 -100
0
1
2
3
t/s
4
5
6 x 10
-3
Abb. 1.2 Zeitverlauf eines Aktionspotentials. Die Leitfähigkeit der Membran für Na+ (yNa) hat einen schnelleren Anstieg als die für K+ (yK). Dadurch wird das Zellinnere zunächst positiver (Depolarisation), anschließend wieder negativer (Repolarisation). Bis das Gleichgewicht wieder hergestellt ist, folgt eine dritte Phase der Hyperpolarisation. Das AP (Aktionspotential) hat im Mittel eine Breite von 1,5 ms
Hilfe der sogenannten Na-K-Pumpen aufrecht erhalten, es bildet sich ein dynamisches Gleichgewicht aus. Durch Einflüsse von außen (über die Synapsen) wird das Gleichgewicht verschoben, bis es ab einer Schwelle nicht mehr haltbar ist, die NaK-Kanäle öffnen den Weg für die Ionenflüsse. Die Flussdynamik besteht aus drei Phasen (Abb. 1.2, Abb. 1.4): -
Depolarisation: Die von den Synapsen kommenden Signale summieren sich zeitlich und räumlich auf und überschreiten die Schwelle. Na-Kanäle öffnen und Na+-Ionen fließen lawinenartig ein (positiver Strom in Abb. 1.4). Danach schließen Na-Kanäle und bleiben über eine bestimmte Zeit die absolute Refraktärzeit - geschlossen. In dieser Zeit kann kein weiteres AP ausgelöst werden.
-
Repolarisation: Na-Kanäle sind geschlossen (Refraktärphase) und KKanäle öffnen (negativer Strom in Abb. 1.4).
-
Hyperpolarisation: K+-Ionen fließen nach außen und K-Kanäle schließen verzögert im Vergleich zu Na-Kanälen, so dass es zum Überschwingen kommt und anschließend sich das Gleichgewicht wieder einstellt. In dieser
1.1 Das Neuron
11
Phase ist die Schwelle angehoben, so dass höhere Intensitäten von außen nötig sind, um ein nächstes AP auszulösen. Daher bezeichnet man diese Phase als relative Refraktärzeit. Dieser dreiphasige Verlauf hat eine konstante Signalform und wird als Aktionspotential (AP) bezeichnet. Es hat im Mittel eine Breite von 1,5 ms (kardiale Zellen bis zu 300 ms) und eine Amplitude von bis zu 100 mV (quer zur Membran). Das AP setzt sich entlang der Membran fort: Bei der elektrotonischen Ausbreitung kontinuierlich (Abb. 1.3), bei der saltatorischen Ausbreitung in räumlichen Sprüngen zwischen Ranvierschen Schnürringen und erreicht dabei Geschwindigkeiten in den Größenordnungen von 1 m/s bis 100 m/s. Die Na+/K+-Ionenflüsse durch die Membrankanäle sind aus der elektrischen Sicht eine Ladungsverschiebung, es entsteht ein (von den Na-K-Kanälen) aktiv eingeprägter elektrischer Strom quer durch die Membran - der Membranstrom (Abb. 1.3, Abb. 1.4, Abb. 1.5). Aus dem Zeitverlauf der Spannung über der Membran
+ + -
+ + + + - K+ Na+ + + + + + +
Repolarisation
+ +
- Na+
Depolarisation
-
+ +
Ruhepotential
-
+ +
K+ Aktionspotential
Ionentransport Lokale Ausgleichsströme Abb. 1.3 Verlauf des Aktionspotentials entlang der Membran. Links elektrotonische Ausbreitung (kontinuierlich), rechts saltatorische Ausbreitung über die Myelinscheide (räumlich sprunghaft)
12
1 Entstehung bioelektrischer Signale
40 20
AP / mV
0 -20 -40 -60 -80 -100 0
1
2
3
4
5
Strom / relative Einheiten
t/s
6 x 10
-3
40 20 0 -20 -40 0
1
2
3
4
5
t/s
+ + + + - -
-
-
6 x 10
-3
- + + + +
- - + + + + - Na+ K+
-
-
AP - Fortleitung Abb. 1.4 Zeitverlauf des Aktionspotentials (Potentialdifferenz über der Membran, oben) und des elektrischen Stromes durch die Membran (unten). Zu beachten ist, dass der Stromverlauf sich qualitativ aus der ersten zeitlichen Ableitung der Potentialdifferenz ergibt (die Membran wirkt elektrisch wie eine Kapazität)
und den Strom durch die Membran lässt sich erkennen, dass die Membran wie eine Kapazität wirkt. Das Signal durchquert auf dem Weg von der primären Quelle(AP der Zelle) nach außen (Körperoberfläche) einen Hochpass bzw. einen Differenzierer. Diese Eigenschaft wird ausführlich im Kapitel "4.1.2 Ermittlung von Kurvenparametern" behandelt. An dieser Stelle sei angemerkt, dass Flanken von
1.1 Das Neuron
13
iM iA
iA
+ + + + -
-
-
- -
- + +
- + + + + Na+ K+
-
+ + -
iI
-
iI AP - Fortleitung
iM +
-
-
+
Abb. 1.5 Ströme und Potentialdifferenzen bei der AP-Fortleitung entlang einer Membran: Elektrische Interpretation der AP-Fortleitung: Die primäre Signalquelle sind die Na-K-Ionenströme, die den elektrischen Membranstrom iM erzeugen. Dieser kann als Stromquelle quer zur Membran dargestellt werden. Die äußere lokale Negativität der Zelle präsentiert sich wie zwei entgegen gerichtete Dipole bzw. wie ein Tripol
Biosignalen (Anstiege und Abfälle von Wellen, Latenzzeiten) ein wesentlich stabilerer Parameter sind als die Wellenamplituden. Die Fortleitung eines AP präsentiert sich nach außen wie eine räumlich und zeitlich lokale Negativität. Durch den lokalen Potentialabfall außen entsteht eine Stromsenke, die man als zwei gegensinnig gerichtete Dipole (Tripol) interpretieren kann (Abb. 1.5). In Folge der äußeren lokalen Stromsenke fließen extrazelluläre, passive Ströme iA. Im Inneren der Zelle entsteht spiegelbildlich zur äußeren Stromsenke eine räumlich und zeitlich lokale Positivität. Diese hat intrazelluläre Ströme iI zur Folge, die ihrem Wesen nach als aktiv gelten. Der Effekt der außen beobachteten lokalen Negativität bei der Ausbreitung eines APs liefert im makroskopischen Maßstab (Oberflächenableitung am Menschen) eine Erklärung dafür, warum man in der Neurologie entgegen den in der Elektrotechnik/Signalanalyse üblichen Konventionen im Zeitverlauf die negative elektrische Aktivität auf der Potentialachse nach oben gerichtet darstellt.
14
1 Entstehung bioelektrischer Signale
Axon präsynaptischer Teil Synaptischer Spalt Axonterminal
Dendrit Vesikel postsynaptischer Teil
Neurotransmitter
Rezeptoren Abb. 1.6 Synapse und ihre Anbindung
Eine weitere Quelle von messbaren Potentialen ist die Synapse bzw. ihre Kontaktstelle zu anderen Neuronen (Abb. 1.6). Im präsynaptischen Axonanschluss löst das AP einen Ca2+-Einstrom aus, der eine Neurotransmitter-Ausschüttung zur Folge hat. Die Neurotransmitter öffnen an Dendriten Ionenkanäle, die je nach Ionenstrom das Membranpotential verändern. Da das Membranpotential hinter dem synaptischen Spalt verändert wird, bezeichnet man es als postsynaptisches Potential (PSP). Je nach der Funktion der Synapse wird zwischen anregenden (EPSP, exzitatorisches PSP) und hemmenden (IPSP, inhibitorisches PSP) unterschieden. Die PSP bestimmen direkt das Gewicht des über die Synapse empfangenen Signals an der Gesamtsumme aller Synapsen, die dann mit der Schwelle zum Auslösen eines AP verglichen wird. Das Neuron mit seinen Synapsen ist in hohem Maße ein dynamisches und nichtlineares System. Die Gewichte (PSP) einzelner Synapsen ändern sich mit der Zeit, womit das Neuron auf veränderte Bedingungen und Informationen reagiert. Die räumlich und zeitlich integrierten Informationen von den Synapsen werden über eine nichtlineare Übertragungsfunktion einer Schwelle zugeführt. Wird die Schwelle überschritten, so löst sich ein AP. Dieses Verhalten eignet sich dazu, Informationsmuster zu speichern, zu vergleichen und ähnliche Muster zu verallgemeinern. Genau das wird auf dem Gebiet der künstlichen neuronalen Netzwerke
1.2 Elektrische Erregungsleitung und Projektion
15
(ANN, Artificial Neural Network) genutzt, um dynamische, nichtlineare und unscharfe Probleme der Klassifikation, Erkennung und Verallgemeinerung zu lösen.
1.2 Elektrische Erregungsleitung und Projektion Aktivitätsmessungen einzelner Neurone werden zu Forschungszwecken oder bei sehr spezifischen medizinischen Fragestellungen durchgeführt. Im Normalfall untersucht man die Reizleitung an Makrostrukturen, wie Nerven, kortikale Zentren oder motorische Einheiten. Zu diesem Zweck ist es sinnvoll, die Aktivität von vielen Neuronen (von bis zu 100.000) im Raum und/oder Zeit zu überschaubaren elektrischen Quellen zusammen zu fassen. Eine verbreitete, wenn auch sehr stark vereinfachende Interpretation der neuroelektrischen Aktivität ist die Modellierung mit Hilfe eines elektrischen Dipols. Dazu sollen zunächst einige grundlegenden Ansätze betrachtet werden. Befindet sich eine Dipolquelle in einem unendlich großen, homogenen und isotropen (Leitfähigkeit in allen Richtungen gleich) Medium, so sind die Stromlinien längs und die Äquipotentiallinien quer zur Dipolachse kugelsymmetrisch verteilt (Abb. 1.7).
i(r,t)
M(r,t)
Abb. 1.7 Stromlinien i(r,t) (volle Linie) und Äquipotentiallinien M(r,t) (gestrichelte Linie) des elektrischen Feldes einer Dipolquelle in einem unendlich ausgedehnten, homogenen und isotropen Medium (r ist der Radius, t die Zeit)
16
1 Entstehung bioelektrischer Signale
Y
'M (r,t)
'M (r,t)
xi
xj
Körpergrenze
xi
xj
i1(r,t)
M(r,t) M (r,t) i2(r,t)
Körpergrenze
X
Abb. 1.8 Stromlinien i(r,t) (volle Linien) und ÄquipotentiallinienM(r,t) (gestrichelte Linien) der elektrischen Felder von zwei gleich starken Dipolquellen in einem endlich räumlichen, homogenen und isotropen Leiter (r ist der Radius, t die Zeit). Die Körpergrenzen markieren den Volumenleiter. Die räumliche Dimension ist auf eine Flächendarstellung reduziert
In der Praxis muss man mit realen, räumlich begrenzten Volumenleitern rechnen. Diese Situation ist in Abb. 1.8. dargestellt. Durch die Endlichkeit des Körpers kommt es zu Stauchungen der elektrischen Felder. Dadurch können an der Körperoberfläche Projektionen entstehen, die für unterschiedliche Quellen identisch sind. Mathematisch ausgedrückt lassen sich die Potentialdifferenzen an der Körperoberfläche wie folgt beschreiben (Gl. 1.1.): 'M y, i
f M i i, r , t , x, y
(1.1)
Die Beziehung Gl. 1.1 drückt aus, dass es einen Zusammenhang zwischen der Tiefe und der Intensität einer Quelle und der an der Oberfläche ableitbaren Potentialdifferenzen gibt. Hält man in der Beziehung nach Gl. 1.1 die Koordinate x und die Zeit t konstant - was dem Vergleich von zwei Quellen in verschiedenen Tiefen y bzw. mit verschiedenen Intensitäten i entspricht - so stellt man Folgendes fest: Die an der Körperoberfläche gemessene Potentialdifferenz an den Stellen (xi, xj) kann bei verschiedenen Tiefen y der Quellen und verschiedenen Intensitäten i identisch sein. Daraus folgt, dass man allein aus der Potentialdifferenz an der Körperober-
1.2 Elektrische Erregungsleitung und Projektion
17
fläche keine Schlussfolgerung über die Quellentiefe herleiten kann. Mathematisch lässt sich aus der Beziehung nach Gl. 1.1 die Beziehung mit einem zweidimensionaler Unbestimmtheitsfaktor herleiten (Gl. 1.2):
M y, i c y ci ³ f M i, r , t , x, y dydi
(1.2)
Aus dieser Überlegung heraus folgt für die flächenhafte bzw. räumliche Analyse von Biosignalen: Eine identische flächenhafte oder räumliche Projektion von neuroelektrischen Aktivitäten führt nicht zwangsläufig zu der Schlussfolgerung, dass die Quellen gleich tief im Gewebe liegen oder dass sie gleich stark sind.
Ein weiterer wesentlicher Faktor der realen Körper, der die elektrischen Felder beeinflusst, ist die Anisotropie bzw. Inhomogenität der elektrischen Leitfähigkeit (Abb. 1.9). Die Leitfähigkeitsunterschiede im menschlichen Körper betragen drei Dekaden. Die höchste Leitfähigkeit bzw. den geringsten spezifischen Widerstand besitzen die Körperflüssigkeit (V = 15 mS/cm, U = 67 :.cm) und das Blut (V = 6,7 mS/cm, U = 150 :.cm), wohingegen der Knochen (V = 0,05...0,2 mS/cm, U = 5000...20000 :.cm) und die trockene Haut (V = 0,03...0,1 mS/cm, U = 1.104...3. 104 :.cm) sehr schlechte elektrische Leiter sind. Eine Übersicht über die menschlichen elektrischen Leitfähigkeiten gibt Tab. 1.1. Wegen der extrem hohen Differenzen der elektrischen Leitfähigkeit ist es sehr schwierig, menschliche Organe und Strukturen zu modellieren. Daher sind die meisten Modelle (Schädel/Gehirn, Brustkorb/Herz) nur qualitativ bzw. begrenzt quantitativ anwendbar. Nun wie kann diese relativierende Erkenntnis praktisch genutzt werden? Man kann von der qualitativ gegebenen Anatomie ausgehen. So ist es beispielsweise hinreichend bekannt, wo der Hörnerv oder die visuellen NerTabelle 1.1 Spezifische Leitfähigkeit und spezifischer Widerstand ausgewählter Stoffe, Organe und Gewebe des menschlichen Körpers
Gewebe, Stoff, Flüssigkeit Physiologische Kochsalzlösung Körperflüssigkeit Blut Herzmuskel Gehirn Niere Skelettmuskel Lunge Fett Knochen Haut
Spez. Leitfähigkeit
Spez. Widerstand
VmS/cm
U:.cm
20 15 6,7 1...2 1,7 1,6 0,8...2,5 0,7...2,5 0,2...1,0 0,06...0,2 0,03...0,1
50 67 150 500...1000 590 600 400...1250 400...1430 1000...5000 500...16000 1.104... 3.104
18
1 Entstehung bioelektrischer Signale
i(r,t)
M(r,t) V1 V2
Abb. 1.9 Deformation des elektrischen Feldes durch Anisotropie des Volumenleiters. Im rechten Teil des Körpers ist die elektrische Leitfähigkeit V2 horizontal geringer als V1 vertikal. Dies führt zur Stauchung der Potentiallinien
SEMG
EP
Abb. 1.10 Eindimensionale Ableitung eines Oberflächen-EMG (SEMG, Surface-EMG). Die motorische Endplate (EP) in der Muskelfaser löst Aktionspotentiale aus, die sich entlang der Muskelfaser ausbreiten und an der Körperoberfläche über Elektroden erfasst werden
1.2 Elektrische Erregungsleitung und Projektion
19
Abb. 1.11 Zweidimensionale Ableitung eines Oberflächen-EKG. Bei einer hinreichenden Elektrodendichte lassen sich Störungen der Erregungsleitung im Herzen relativ genau lokalisieren. Für eine bildliche Darstellung der Aktivität interpoliert man zwischen den Sensoren und erstellt eine Bildmatrix. Dies wird als EKG-Mapping bezeichnet
radiale Quellen
EEG Schädel
gemischte Quellen
tangentiale Quellen
Abb. 1.12 Dreidimensionale Ableitung eines Oberflächen-EEG. Die Elektroden befinden sich auf einer näherungsweise kugelförmigen Fläche. Die Erregung breitet sich entlang der Windungen und Furchen und bilden Signalquellen, die radial, tangential und gemischt auftreten
20
1 Entstehung bioelektrischer Signale
venbahnen und die sensorischen kortikalen Zentren liegen. Man kann sich auf den räumlichen sowie den zeitlichen Verlauf der elektrophysiologischen Erregungsleitung einstellen. Aus Sicht der Projektion der neuroelektrischen Aktivität auf die Körperoberfläche und ihrer Erfassung mittels Elektroden stellt sich die Funktionskontrolle von langen Muskelfasern dar (Abb. 1.10). Da lange Muskeln (z.B. in den Extremitäten) im Wesentlichen neuronal nur eindimensional gesteuert werden (entlang der Fasern), reicht für die Diagnostik eine Sensorenreihe entlang des untersuchten Muskels. Auf diese Weise kann sowohl die Fortleitungsgeschwindigkeit als auch eine mögliche Unterbrechung relativ genau ermittelt werden. Eine flächenhafte Erfassung der Projektion kann notwendig sein, wenn es sich um Organe (Herz) oder flache Muskeln (Brust, Rücken) handelt (Abb. 1.11). Oft interpoliert man die Potentiale zwischen den Sensoren und erstellt so eine Bildmatrix, die dann als "Map" (EKG-Mapping) bezeichnet wird. Die für die Projektion, Ableitung und Interpretation schwierigste Struktur ist das Gehirn. Die neuronalen Erregungen breiten sich in Windungen und Furchen des kortikalen Gewebes aus (Abb. 1.12) und bilden Signalquellen, die im Allgemeinen jede räumliche Position einnehmen können. Aus Sicht der Signalanalyse klassifiziert man oft zwischen radialen oder tangentialen Quellen (Abb. 1.13). Diese strenge Trennung ist in der Realität nicht vorhanden, alle kortikalen Quellen bilden immer eine Mischung aus beiden Typen. Mit einem EEG-Ableitsystem erfasst man nicht mehr als etwa ein Drittel der Kopfoberfläche. Daher kommt es vor allem bei radialen Quellen (Abb. 1.13 links)
+
+
Okzipitale Projektion einer radialen Quelle
-
Okzipitale Projektion einer tangentialen Quelle
Abb. 1.13 Okzipitale Projektionen einer radialen (links) und einer tangentialen (rechts) Quelle, wie sie z.B. bei den Ableitungen von visuell evozierten Potentialen entstehen
1.2 Elektrische Erregungsleitung und Projektion
21
vor, dass sie lediglich als monopolare Verteilungen auftreten, da der andere Pol gar nicht mit erfasst werden kann (in diesem Fall im Gesicht). Besonders schwierig ist die Analyse und Interpretation von gemischten Quellen, vor allem wenn sie sich bei der Erregungsausbreitung in den Bögen zwischen Windungen und Furchen befinden (Abb. 1.12). Aus signalanalytischer Sicht handelt es sich um eine bewegte Quelle, die sich während der Bewegung auch noch dreht. Solche Quellen erzeugen auf der Kopfoberfläche Projektionen, die uneindeutig sind, d.h. man kann nicht eindeutig zwischen Translation und Rotation unterscheiden.
Kapitel 2
Verstärkung und analoge Filterung in der medizinischen Messtechnik
Dieses Kapitel behandelt messtechnisch relevante, charakteristische Eigenschaften von Biosignalen und Störungen im Zeit- und Frequenzbereich. Dabei sollen Mechanismen der Störungseinkopplung in den Messkreis analysiert und Maßnahmen zur Reduktion vorgeschlagen und erörtert werden. Aufbauend auf den Kenntnissen zum Entstehungsmechanismus der Biosignale und in Abhängigkeit der von außen einwirkenden Störungen lassen sich Anforderungen an medizinische Messverstärker und an die Messanordnung formulieren. Basis der wissenschaftlichen Betrachtung sind eine detaillierte Analyse und Simulation des Differenzverstärkers als grundlegenden Baustein der biomedizinischen Messtechnik. Komplexere Ausbaustufen, wie Instrumentationsverstärker, Isolationsvestärker und Guardingtechnik, sowie aktive Elektroden werden hinsichtlich ihrer schaltungstechnischen Vor- und Nachteile ausführlich bewertet. Zur analogen Signalaufbereitung sind analoge spektrale Filter notwendig, mit deren Dimensionierung sich dieses Kapitel sowohl theoretisch als auch praktisch beschäftigt. Die Forderung nach einem linearen Phasenfrequenzgang der Filter sowie der gesamten Messkette werden begründet und Realisierungsmöglichkeiten dieser Forderung erörtert. Dabei stehen evaluierte spezifische Beispiele zur technischen Gestaltung und deren praktischen Umsetzung im Mittelpunkt des Interesses.
2.1 Eigenschaften von Biosignalen und Störungen Das biomedizinische Messsystem ist von vielen Störquellen umgeben. Die meisten sind dem Bereich der Medien- und Energieversorgung, Industrie, Verkehr und Nachrichtentechnik zuzuschreiben.
Für die Biosignalverarbeitung sind periodische (Stromversorgungsnetz, Monitore) und quasiperiodische (rotierende Maschinen, Straßenbahn) Störungen noch ein vergleichsweise geringes Problem, denn diese lassen sich gezielt mit spektralen Filtern in der analogen Messkette (Abschn. 2.3) oder digital (Abschn. 5.2) nach der Analog-Digital-Wandlung (Abschn. 3.3) unterdrücken. Wesentlich schwieriger ist die Situation, wenn transiente Störungen vorliegen. Diese haben einen unP. Husar, Biosignalverarbeitung, DOI 10.1007/978-3-642-12657-4_2, © Springer-Verlag Berlin Heidelberg 2010
24
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
bekannten und nicht deterministischen2 Verlauf. Solange eine transiente Störung die Signalerfassung durch Übersteuerung des Messverstärkers nicht beeinträchtigt und deutlich von der Form des Biosignals abweicht, kann sie erkannt und eventuell beseitigt werden. In der Regel ist das jedoch nicht möglich. In diesem Abschnitt stehen die Eigenschaften von Biosignalen und Störungen aus Sicht der medizinischen Messelektronik im Mittelpunkt der Betrachtung. Für die technische Komponente der Biosignalverarbeitung (Sensorik, Verstärkung, Filterung, ADWandlung) werden Biosignale zunächst in den beiden Domänen Zeit und Frequenz klassifiziert. Diese beiden Domänen sind für die Herleitung der Anforderungen an die Technik und an die zu entwickelnden Schaltungslösungen maßgeblich.
2.1.1 Eigenschaften Zeitverlauf
von
Biosignalen
und
Störungen
im
2.1.1.1 Periodische Verläufe Entsprechend den Zielen und Aufgaben der Biosignalverarbeitung werden die Signalverläufe klassifiziert (Tabelle 2.1). Ein harmonischer Verlauf ist gegeben, wenn das Signal einen sinusförmigen Charakter besitzt, wobei eine oder mehrere ganzzahlige Vielfache der Grundwelle vorliegen können. So produziert das Stromversorgungsnetz eine Grundwelle mit der Frequenz von 50 Hz und die zweite Oberwelle (dritte Harmonische) mit 150 Hz. Harmonische Verläufe im medizinischen Umfeld sind technischer Herkunft. Tabelle 2.1 Periodischer Verlauf
2
Verlauf
Beispiel
Harmonisch
Stromversorgungsnetz
Nichtharmonisch
Pulskurve, Röhrenmonitor
Impulsartig
EKG, Schaltnetzteil
Rechteckförmig
Datenübertragung
Quasiperiodisch
EEG, hochfrequente Sender
Stochastisch
Rauschen, Zufallssignale
vorbestimmt, hier vorhersehbar, beschreibbar, bekannt
2.1 Eigenschaften von Biosignalen und Störungen
25
15V 10V 5V 0V -5V -10V -15V
0s
10ms V(Uein)
20ms 30ms V(Uaus)
40ms
50ms Zeit
60ms
70ms
80ms
90ms 100ms
Abb. 2.1 Bei zu hoher Störspannung (gestrichelt) am Verstärkereingang (in diesem Fall eine Netzstörung) ist der Messverstärker übersteuert und geht aus dem Arbeitsbereich in die Begrenzung über (volle Linie), so dass eine weitere Verarbeitung des Biosignals nicht möglich ist (Pspice-Simulation BSV_2.1) 20V
1.0V
10mV
100uV 0Hz V(Netz)
100Hz 200Hz V(Gleich)
300Hz Frequenz
400Hz
500Hz
585Hz
Abb. 2.2 Spektrum nach einer Zweiweg-Gleichrichtung der Netzspannung am Gleichrichter bzw. Glättungskondensator (gepunktet) und seine Rückwirkung auf das Netz in Folge des endlichen Innenwiderstandes (volle Linie). Zu beachten ist, dass durch die Nichtlinearität des Gleichrichters im Netz ungerade Harmonische produziert werden, von denen man üblicherweise die erste (50 Hz) und die dritte Harmonische (150 Hz) bewertet (Pspice-Simulation BSV_2.2). Beachten Sie, dass die gleichgerichtete Spannung gerade Harmonische enthält, wie im Spektrum dargestellt. Durch die Gleichrichtung hat sich die Periode halbiert
26
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
1
x
0.5
0
-0.5
-1 0
1
2
3
4
5
t Abb. 2.3 Periodischer, sägezahnförmiger Verlauf, wie er in der Horizontalablenkung in Röhrenmonitoren oder in seiner symmetrischen Form (Dreieck) zur elektrischen Muskelstimulation verwendet wird
1.5
EKG / uV
1 0.5 0 -0.5 -1 0 Abb. 2.4 (EKG)
0.5
1
1.5 Zeit / s
2
2.5
3
Impulsförmiger Verlauf des Kammerkomplexes QRS des Elektrokardiogramms
2.1 Eigenschaften von Biosignalen und Störungen
27
Bei entsprechend starker Einkopplung und Intensität können sie den Messverstärker bis zur Begrenzung übersteuern und die Messung verhindern (Abb. 2.1, Abb. 2.2, Übung 2.1), so dass am Verstärkerausgang ein nichtharmonischer Verlauf erscheint. Ein nichtharmonischer Verlauf liegt vor, wenn zwar eine Periodizität vorhanden ist, der Verlauf aber nicht sinusförmig ist. Ein typischer Vertreter dieser Klasse ist die Zeilenablenkspannung in Röhrenmonitoren, die einen sägezahnförmigen Verlauf hat und daher stark oberwellenbehaftet ist (Abb. 2.3). Die plethysmographische Pulskurve (zeitlicher Verlauf einer Volumenänderung, hier der Volumenänderung von Arterien) des Herz-Kreislauf-Systems oder die zur elektrischen Reiztherapie verwendete dreieckförmigen Ströme sind auch solche Signale. Impulsartiger Verlauf liegt vor, wenn energiereiche, kurze Zeitverläufe vor einem sonst relativ ruhigen Hintergrund auftreten. Eine typische technische Störung dieser Kategorie ist das elektromagnetische Feld, das von Schaltnetzteilen ausgesendet wird. Auch mehrere Biosignale haben impulsartigen periodischen Charakter: Das Elektrokardiogramm (EKG) (Abb. 2.4), das die elektrische Aktivität des Herzens, oder das Elektromyogramm (EMG), das die elektrische Aktivität von Muskeln repräsentiert. Rechteckförmiger Verlauf ist für den Bereich der Nachrichtentechnik in der Datenübertragung typisch. Dieser tritt sowohl in der kabelgebundenen (ComputerDatennetze, ISDN, DSL) als auch in der kabellosen (Funktelefon, RFID) Kommunikation auf. Die Nachrichtentechnik ist eine der stärksten Störquellen im medizinischen Bereich, obwohl der verwendete Frequenzbereich um mehrere Dekaden über dem der Biosignale liegt (Funktelefone werden bei 900 und 1800 MHz betrieben, Biosignale reichen bis maximal 10 kHz). Die Störung kommt durch die unerwünschte Eigenschaft der Amplitudendemodulation der Messverstärker zustande (s. Abschn. 2.1.3). Als quasiperiodischer Verlauf wird ein Verhalten bezeichnet, bei dem die Periodizität nur in einem beschränkten zeitlichen Rahmen vorherrscht. Dieses Verhalten ist für eine ganze Reihe von Biosignalen typisch, stellvertretend sei hier das Elektroenzephalogramm (EEG) genannt. Das EEG präsentiert sich in abgegrenzten spektralen Bereichen, die für den psychischen und physischen Zustand des Menschen charakteristisch sind. 2.1.1.2 Stochastischer Verlauf Als stochastisch werden Zeitverläufe bezeichnet, die einen zufälligen Charakter haben. Die Struktur der stochastischen Verläufe reicht von tatsächlichen, reinen Zufallsprozessen, wie thermisches oder Halbleiterrauschen, bis hin zu teilweise deterministischen Prozessen, wie das EKG oder EEG. Diese stellen eine Mischung aus scheinbarem Zufall und Determinismus dar. Gerade bei Biosignalen handelt es
28
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
sich nicht um Zufallsprozesse, sondern um komplizierte und kaum überschaubare dynamische und nichtlineare Prozessverkopplungen. Für die Analyse bezeichnet man sie nach einer starken Vereinfachung oft als stochastische Prozesse. 2.1.1.3 Transienter zeitlicher Verlauf Transiente Vorgänge lassen sich auf Grund ihres nicht reproduzierbaren Verlaufs nur schwer differenzieren. Daher bilden wir aus der Erfahrung heraus die folgenden Klassen (empirische Klassifizierung) (Tabelle 2.2). Bewegungsartefakte sind die häufigste transiente Störung im medizinischen Umfeld. Die empfindliche medizinische Messtechnik ist über Sensoren mit dem Patienten verbunden. Diese Kontaktstelle bildet keine starre Verbindung, sondern ist flexibel, wie z.B. Oberflächenelektroden zur Erfassung des EKG. Durch relative Bewegungen zwischen dem Patienten und dem Messkreis (der Patient selbst oder Kabel des Messverstärkers bewegen sich) ändern sich die Koppeleigenschaften an der Anschlussstelle des Sensors und so entsteht im Signal ein Bewegungsartefakt. Bewegungsartefakte können auch entstehen, wenn es keine relative Bewegung zwischen dem Patienten und der Messanordnung gibt. Störquellen aus der Umgebung, am häufigsten aus dem Stromversorgungsnetz (s. Abschn. 2.1.3.2 Kapazitiv eingekoppelte Störungen), wirken immer über vorhandene Streukapazitäten auf den Messkreis ein. Selbst einfache Bewegungen des medizinischen Personals in der Nähe der sehr empfindlichen Messtechnik können zur Bildung von Artefakten führen. Solche Bewegungsartefakte haben einen unbekannten Zeitverlauf, sind nicht reproduzierbar, kaum detektierbar und stellen somit ein signalanalytisches Problem dar. Ausgleichsvorgänge sind transiente Störungen, die zwar von kurzen Störimpulsen oder Sprüngen ausgelöst werden, aber auf Grund sehr großer Zeitkonstanten der analogen Filter im Messkreis (s. Abschn. 2.3) lange nachwirken können (Abb. 2.5). In medizinischen Verstärkern werden zur Elimination der hohen ElektrodenTabelle 2.2 Transienter Verlauf Verlauf
Beispiel
Bewegung
Patientenbewegung, Kabel
Ausgleichsvorgang
Kondensatorentladung
Spitzen und Sprünge
Funken, mechanische Kontakte
Schaltvorgänge
Ab- und Maschinen
Einschalten
von
2.1 Eigenschaften von Biosignalen und Störungen
29
EKG / mV 2.5 2 1.5 1 0.5 0
Ausgleichsvorgang
Sprung
-0.5 -1 -1.5 0
2
4
6
8 t/s
10
12
14
16
Abb. 2.5 Typische transiente Störung im EKG: Durch Bewegungsartefakt verursachter Sprung (bei t = 4 s), der zum Ausgleichsvorgang (hier mit einer Zeitkonstante von 2 s) führt. (PSpiceSimulation BSV_2.42)
spannungen (100 mV bis 1 V) analoge Hochpassfilter verwendet, die wegen der sehr niedrigen Grenzfrequenz von 0.01 Hz Zeitkonstanten von bis zu 20 Sekunden besitzen. Dies führt dazu, dass selbst ein kurzer Spannungsimpuls mit einer Dauer von wenigen Millisekunden (Schaltspitzen) oder ein Sprung einen Ausgleichsvorgang von einer Dauer von bis zu einer Minute verursacht. Ausgleichsvorgänge sind – falls sie den Messverstärker nicht übersteuern – teilweise eliminierbar. Spitzen und Sprünge sind technischer Herkunft und unterscheiden sich meist deutlich vom Biosignal, so dass sie auch gut erkennbar und detektierbar sind (Abb. 2.5). Falls sie keinen Ausgleichsvorgang nach sich ziehen, so beeinträchtigen sie das Biosignal nur kurzzeitig und stellen somit kein signalanalytisches Problem dar. Sie sind, wie die meisten transienten Störungen, nicht korrigierbar, aber auf Grund ihrer kurzen Dauer können die betroffenen Signalabschnitte aus der weiteren Auswertung ohne große Informationsverluste ausgeschlossen werden. Schaltvorgänge sind der Herkunft nach transiente technische Störungen. Beim Ein- und Ausschalten von elektrischen Anlagen entstehen energiereiche Störun-
30
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
gen, die sich vor allem über die Stromversorgung oder magnetisch als Induktionsspitzen verbreiten. Die konkrete Signalform hängt von den technischen und technologischen Gegebenheiten ab (angeschlossen Anlage, An- und Auslaufzeiten, sekundäre Störeffekte über kapazitive und induktive Einkopplung). Schaltvorgänge bedecken die gesamte Breite transienter Störungen zwischen Spannungsspitzen und -sprüngen bis hin zu Ausgleichsvorgängen. Deswegen sind sie nicht detektierbar und nicht eliminierbar.
2.1.2 Eigenschaften von Biosignalen und Störungen im Spektrum Grundsätzlich gilt für Biosignale, dass sich ihr Spektrum zwischen 0 Hz und etwa 10 kHz erstreckt, wobei das Energiemaximum zwischen 1 Hz und 100 Hz liegt.
Für die Biosignalverarbeitung ist dies sehr ungünstig, da die meisten technischen Störungen entweder direkt in diesem Bereich liegen (Stromversorgungsnetz, Röhrenmonitore, rotierende Maschinen) oder in diesem Bereich nach der ungewollten Amplitudendemodulation auftreten (Funktelefon, Computernetze, nahe Sender, Hochfrequenzchirurgie). Das Linienspektrum tritt nur im technischen Bereich auf, typischerweise als spektrale Nadeln der Harmonischen der Netz- oder der Bildfrequenz bei Röhrenmonitoren (siehe Abb. 2.2). Harmonische Störungen – da ihre Frequenz konstant und bekannt ist – lassen sich mit Hilfe spektraler Filter (Bandsperren) wirksam unterdrücken. Signalanalytisch korrekt konstruierte Bandsperren beeinträchtigen das Biosignal nur unwesentlich, obwohl sie mitten im Spektrum der Biosignale liegen (s. Abb. 2.6). Tabelle 2.3 Klassifizierung von Signalen und Störungen im Spektrum Spektrum
Beispiel
Linien
Netz mit Oberwellen, Röhrenmonitore
kontinuierlich
EEG, Bewegungsartefakt
schmalbandig
Pulskurve, Funktelefon
breitbandig
EMG, Impulsartige Störungen
kombiniert
EKG, mehrere Störungen
2.1 Eigenschaften von Biosignalen und Störungen
31
120
E E G /d B
100
80
60
40
20 0
100
200
300
400
500
f/Hz
Abb. 2.6 Eine EEG-Aufnahme überlagert mit fünf Harmonischen der Netzfrequenz und dem Verstärkerrauschen. Das Netz produziert das markante Linienspektrum, während das EEG zusammen mit dem Verstärkerrauschen ein gleichmäßig abfallendes kontinuierliches Spektrum aufweist (Abtastrate 1000 sps3, kein analoges Filter vor der AD-Wandlung)
Kontinuierliche Spektren sind typisch für quasiperiodische Signale wie EEG (zwischen 0 Hz und etwa 100 Hz) oder Bewegungsartefakte. Die kontinuierlichen Spektren von Störungen und Biosignalen überlappen sich vollständig, daher ist eine Trennung mit Hilfe spektraler Filter nicht möglich. Schmalbandige Spektren (Bandbreite etwa 0.01 bis 0.1 der Gesamtbreite, absolut zwischen 1 bis 10 Hz) entstehen bei periodischen Signalen, deren Form nichtharmonisch ist bzw. sich zeitlich ändert, beispielsweise bei der plethysmografischen Pulskurve. Schmalbandig sind jedoch auch einige technische Störungen, die häu-figste ist die durch die Amplitudendemodulation entstehende Hüllkurve der Funktelefone. Solange das störende Spektrum vom Biosignalspektrum ausreichend ent-fernt ist, lässt es sich mit spektralen Filtern unterdrücken. In der Praxis ist dies aber nur selten möglich. Breitbandige Spektren (Bandbreite über 0.1 der Gesamtbreite, absolut ab etwa 10 Hz) in der medizinischen Messtechnik sind meistens Produkte von impulsartigen 3
Sample-Per-Second, Abtastrate
32
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
Biosignalen oder Störungen. Das breiteste Spektrum bei Biosignalen weist das EMG (Elektromyogramm) auf, da es signalanalytisch eine quasizufällige Folge von sehr kurzen Aktionspotentialen der Länge von einigen Millisekunden ist und bis in den Kilohertzbereich reicht. Impulsstörungen technischer Herkunft sind sehr breitbandig und ragen deutlich über den Bereich der Biosignale hinaus. Diese sind mit spektralen Filtern nicht beherrschbar. Die einzige Möglichkeit zur Beseitigung besteht darin, den gestörten Signalabschnitt aus der weiteren Verarbeitung auszuschließen. Kombinierte Spektren entstehen dann, wenn die Form des Biosignals oder der Störung mehrere der genannten Charakteristiken enthält. Das elektrophysiologische Signal EKG (Elektrokardiogramm) setzt sich aus sehr schmalen implusartigen QRS-Komplexen zusammen (Kammeraktionen des Herzens), die ein breites Linienspektrum erzeugen. Die langsameren P- und T-Wellen als quasiperiodische Signale erzeugen ein kontinuierliches Spektrum, dem das Linienspektrum überlagert ist, so dass in der Summe ein kombiniertes Spektrum entsteht.
2.1.3 Einkopplung von Störungen in die Messanordnung Störungen können in die Messanordnung auf unterschiedlichen Wegen gelangen: Galvanisch, kapazitiv, induktiv oder als hochfrequente (über etwa 50 kHz) elektromagnetische Welle. Im Folgenden werden die Wege der Störungseinkopplung analysiert und Möglichkeiten zu ihrer Beseitigung oder zumindest ihrer Reduktion erörtert. 2.1.3.1 Galvanische Störungseinkopplung Galvanische Einkopplung heißt, dass diese auf einem Gleichstromweg – über einen reellen ohmschen Widerstand, auch über den Isolationswiderstand – stattfindet. Wie groß der reelle Widerstand ist, hängt von den konkreten Bedingungen im Messkreis ab (Isolationswiderstand, Luftfeuchtigkeit, Kondenswasser, Kriechstrecken). Die Störung kann auf dem Signalweg (Abb. 2.7) oder über die Masse eingekoppelt werden. Der Einfachheit der Darstellung wegen wurde nur eine Signalleitung über Re2 berücksichtigt. Natürlich wirkt das Netz auf alle Leitungen über die jeweiligen Isolationswiderstände. Die Gesamtwirkung summiert sich dann entsprechend dem Superpositionsprinzip4 auf. Diese Vorgehensweise wird auch in den folgenden Analysen fortgesetzt:
4
Das Superpositionsprinzip besagt, dass man in einem linearen System die Wirkung von Quellen einzeln untersuchen und diese dann für die Gesamtwirkung aufsummieren kann.
2.1 Eigenschaften von Biosignalen und Störungen
33
Gezeigt wird ein exemplarischer Wirkungsweg, wobei dieser auf alle anderen Zweige und Bauelemente entsprechend dem Superpositionsprinzip erweiterbar ist.
Wie Abb. 2.8 zeigt, ist die über den Isolationswiderstand galvanisch eingekoppelte Störung relativ stark und beeinträchtigt das Biosignal. Daher muss sie wirksam reduziert werden. Die Maßnahmen sind konstruktiver Art, die bereits bei der Geräteentwicklung umgesetzt werden müssen: doppelte bzw. verstärkte Isolation aller Netzspannung führenden Teile inklusive kompaktes Vergießen des Netztransformators bzw. des Netzteils (Übung 2.3). Eine häufige, aber nur schwer identifizierbare Störungseinkopplung entsteht über der Masseleitung des Messgerätes. In der Fachsprache wird sie auch als „Masseschleife“ genannt und ist schematisch in Abb. 2.9 dargestellt. (Die Spannungsverläufe sind qualitativ die gleichen wie in Abb. 2.8). Da am Patienten in der Regel
Messverstärker
R4 1MEG
Ub+
Messobjekt Re1
R2
2k
10k
U1 +
Ri
0
1k
V+ V-
OS2
Ausgang
OS1
Uekg
+ -
Ub-
Re2 2k
R3 10k
R1 1MEG
Ris 10G +
Unetz
-
0
Netzstörung
Abb. 2.7 Das Messobjekt (EKG-Ableitung am Patienten) ist über Elektroden (Re1 und Re2) an den Messverstärker angeschlossen. Vom Netz wird über den Isolationswiderstand Ris auf den Signalweg galvanisch eine Störung eingekoppelt (PSpice-Simulation BSV_2.6)
34
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
200mV
160mV
120mV
80mV 0s
V(Ausgang)
0.2s
0.4s
Zeit
0.6s
0.8s
1.0s
Abb. 2.8 Simuliertes EKG mit einer galvanisch eingekoppelten Netzstörung, wie in Abb. 2.7 gezeigt (PSpice-Simulation BSV_2.6)
mehrere Geräte angeschlossen sind, kann es vorkommen, dass der Betriebsstrom eines Medizingerätes über die Masseleitung eines anderen Gerätes fließt (Strom durch Rg, in der Simulation BSV_2.7 beträgt etwa 5 A, Abb. 2.9). Dieser erzeugt über dem ohmschen Widerstand des Betriebsleiters des Messgerätes einen zusätzlichen Spannungsabfall Uschleife. Diese Spannung wirkt entsprechend der Maschengleichung (daher die Bezeichnung Masseschleife) direkt am Eingang des Messverstärkers, als wäre es eine vom Patienten kommende Spannung. Eine Masseschleife in der praktischen Messtechnik aufzuspüren, wenn z.B. in der Intensivstation etwa 20 Geräte an einem Patienten angeschlossen sind, ist sehr schwierig. Die wirksamste Maßnahme zur Vermeidung von Masseschleifen besteht darin, dass man alle verwendeten Geräte auf dem kürzesten Weg in einem einzigen Punkt (Stromverteiler) der Stromversorgung anschließt. Beim Verdacht auf eine Masseschleife ist es daher sinnvoll, die komplette Installation bzw. die Anschlussbelegung neu und von Beginn an nach dem genannten Prinzip durchzuführen (Übung 2.4). 2.1.3.2 Kapazitiv eingekoppelte Störungen Aus der Elektrotechnik ist bekannt, dass zwei leitfähige Teile (auch Flüssigkeiten und Elektrolyte) miteinander eine Kapazität bilden. Die Größe der Kapazität hängt von der wirksamen Fläche der Teile, von ihrem Abstand und von dem zwischen den Teilen befindlichen Stoff, entsprechend der Gln. (2.1), ab
2.1 Eigenschaften von Biosignalen und Störungen
C
35
H
A d
(2.1)
In Gl. 2.1 ist C Kapazität zwischen zwei leitfähigen Teilen; H Permitivität des Dielektrikums zwischen den Teilen, Materialkonstante, niedrigster Wert besteht für das Vakuum; A wirksame Fläche der Teile; d Abstand zwischen den Teilen.
Wenn in der medizinischen Praxis z.B. ein EKG abgeleitet werden soll, so geschieht dies in Räumen mit Netzinstallation. Der Patient bildet sowohl mit dem Außenleiter (Phase) als auch mit dem Neutralleiter (Nullleiter) eine Streukapazität. Diese Situation ist in Abb. 2.10 schematisch dargestellt. Vereinfachend wird angenommen, dass die Streukapazitäten C1 und C2 gleich sind und der Patient weder geerdet noch mit der Betriebsmasse des Messverstärkers verbunden ist (der Widerstand Rm ist nicht vorhanden). In diesem Fall liegt der Patient auf etwa dem Messverstärker R4 1MEG Messobjekt Re1
Ub+
U1
R2
+ V+ OS2
10k
2k
Ri 1k
OS1
+ -
Ub-
Re2 R3 10k
2k
Re3
R1 1MEG
Uschleife U+
Rg
+
Ub+
+
U0
-
2k
Unetz
Ausgang
V-
Uekg
0
Ub-
12V
12V
44
+ -
Medizingerät 0
Uschleife
Rm 0.3 0
Abb. 2.9 Störungseinkopplung über die Masseverbindung, Entstehung einer Masseschleife. Der Patient ist über eine Elektrode Re3 geerdet. Der Masseanschluss eines Gerätes hat immer einen endlichen reellen Widerstand Rm. Über Rm fließt unter ungünstigen Umständen der Betriebsstrom eines anderen Gerätes, der über Rm einen Spannungsabfall Uschleife erzeugt. Dieser wird direkt auf den Patienten verschleppt (PSpice-Simulation BSV_2.7)
36
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
L1 C1
1p
LH
Ri 1k
-
Unetz
+ -
+
Uekg
5k
LF
Rm 1p
C2
N
0 Abb. 2.10 Patient im elektrischen Feld der Stromversorgung bei einer EKG-Ableitung, bei der die vom Herzen erzeugte Potentialdifferenz zwischen LH (linke Hand) und LF (linker Fuß) gemessen werden soll. L1 ist der Außenleiter der Stromversorgung („Phase“), N der Neutralleiter („Null“), die Kapazitäten C1 und C2 sind modellierte Streukapazitäten des Patientenkörpers zu den Leitern der Stromversorgung. Der Widerstand Rm repräsentiert die Masseelektrode. Ist diese nicht vorhanden, so muss ihr Widerstand in der PSpice-Simulation erhalten bleiben und auf ausreichend hohen Wert (z.B. 50 G:) gesetzt werden (ohne Rm hätte Uekg keine leitfähige Verbindung zur Masse und das ist in PSpice unzulässig; PSpice-Simulation BSV_2.8)
2.1 Eigenschaften von Biosignalen und Störungen
37
halben Potenzial5 der Versorgungsspannung, also auf 115 V. Dies scheint zunächst eine gefährliche Lage für den Patienten zu sein. Bei näherer Betrachtung wird jedoch Folgendes deutlich: Die Gefahr für den Menschen entsteht dann, wenn zwischen zwei Punkten seines Körpers eine Potentialdifferenz von außen erzeugt wird, die größer als 24 V ist und eine im biologischen Spektrum liegende Frequenz von 10 Hz bis 1 kHz besitzt. Natürlich spielt auch der Stromweg eine große Rolle – die durch das Herz längs der Achse führenden Stromwege sind die gefährlichsten. Ist eine Potentialdifferenz vorhanden ist, kann diese nur gefährlich werden, wenn der Stromkreis geschlossen ist. Dies ist dann gegeben, wenn der Strom von der Quelle über den Patienten hindurch zurück zur Quelle fließen kann. Dabei ist es unerheblich, ob eine Verbindung zur elektrischen Masse bzw. zur Erde besteht. Ein weit verbreiteter Irrtum besagt, dass der Strom immer zur Erde bzw. zur Masse fließt. Für die potentiell gefährliche Wirkung des elektrischen Stromes ist allein die Tatsache entscheidend, ob der Stromkreis durch den Patienten geschlossen ist. Ist diese Bedingung nicht erfüllt, so sind – wie in diesem Falle – selbst hohe Potentiale ungefährlich. Betrachtet man die Schleife hinsichtlich der Netzspannung, so bilden die Kapazitäten C1 und C2 mit dem Innenwiderstand des Körpers Ri einen Spannungsteiler nach der Gl. 2.2. Dabei fallen über den Kapazitäten, deren Betrag der Impedanz bei der Netzfrequenz 320 M: erreicht, Spannungen von 115 V ab. Über der Körperimpedanz Ri = 1 k: bildet sich eine Spannungsdifferenz von 0.4 mV aus. Diese
1.2mV
0.8mV
0.4mV
0V
-0.4mV 0s
0.1s
0.2s
0.3s
0.4s
0.5s Zeit
0.6s
0.7s
0.8s
0.9s
1.0s
Abb. 2.11 EKG-Ableitung (Differenzspannung zwischen LH und LF) am Patienten bei kapazitiver Einstreuung von der Netzinstallation und fehlender Masseelektrode Rm (PSpice-Simulation BSV_2.8, dort Rm >10 G:)
5
Unter Potenzial wird hier immer die Differenz eines betrachteten Punktes zur Erde verstanden.
38
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
ist für den Menschen völlig ungefährlich. Allerdings reicht bereits diese niedrige Spannung dazu aus, die Messung deutlich zu beeinträchtigen (s. Abb. 2.11).
u LH , LF Rm of
u L1, N u C1 uC 2 Zc
u Netz
Ri Ri Z C1 Z C 2
1
(2.2)
(2.3)
ZC
Wird der Patient auf Masse gelegt (über den Widerstand Rm, der die Masseelektrode mit 5 k:simuliert), so ändern sich die Verhältnisse aus Sicht der Messtechnik wesentlich. Die Störspannung am linken Fuß (LF) wird durch den Massenanschluss Rm zwar wesentlich kleiner als im ungeerdeten Fall und beträgt nur etwa 0,5 mV. Allerdings wird sich das Signal-Rausch-Verhältnis (SNR, Signal-toNoise-Ratio; für eine EKG-Messung s. Gl. (2.5)) im Vergleich mit der Messanordnung am ungeerdeten Patienten verschlechtern. Zwar bleibt die EKGAmplitude mit etwa 1 mV konstant, jedoch die über dem Patienten abfallende Störspannung steigt auf das Doppelte an (s. Gl. (2.4)), da folgendes gilt: Rm Z C 2 Rm || Z C 2 | Rm .
u LH , LF Rm Z C 2 | u L1, N uC1 u Rm SNR EKG SNR EKG / dB
u Netz
Ri Ri Z C1 Rm
uˆ EKG uˆ Ri ( Netz ) 20 log10 SNR EKG
(2.4)
(2.5) (2.6)
Damit verschlechtert sich das SNR auf die Hälfte bzw. es sinkt um 6 dB ab, s. Gl. (2.6). Die Ursache für die Zunahme der Störung liegt darin, dass die Streukapazität C2 durch die Masseelektrode Rm niederohmig überbrückt wurde. Dadurch halbiert sich der Gesamtwiderstand des Spannungsteilers und demzufolge fließt der doppelte Querstrom. Infolgedessen verdoppelt sich der vom Netz verursachte Spannungsabfall über dem Patienten am Innenwiderstand Ri und die Störung im Messsignal wird stärker. Die Maßnahmen zur Reduktion der kapazitiv eingekoppelten Störungen sind prinzipiell einfach, in der Praxis aber nur schwierig realisierbar: Zunächst müssen alle Netzspannung führenden Teile (Kabel und Geräte), die zur Messung nicht notwendig sind, aus der Nähe des Patienten entfernt werden. Damit wird der die Streukapazitäten bestimmende Abstand vergrößert. Bei extremen Anforderungen an die Messanordnung (medizinische Forschung, experimentelle Untersuchungen vor allem im neurologischen Bereich) kann sogar die Abschirmung der Netzinstallation oder des Messkreises (Faradayscher Käfig) notwendig sein. Schaltungs-
2.1 Eigenschaften von Biosignalen und Störungen
39
technisch sind kapazitiv eingekoppelte Störungen beherrschbar, wie in Abschn. 2.2.2 gezeigt wird. 2.1.3.3 Induktiv eingekoppelte Störungen
Während kapazitiv eingekoppelte Störungen auch statisch vorhanden sind, treten induktiv eingekoppelte Störungen nur dann auf, wenn die störende Quelle einen Stromfluss oder eine elektromagnetische Welle produziert. Diese Situation ist in Abb. 2.12 dargestellt: Das Netz versorgt die Last Rl mit einem Betriebsstrom der Stärke 1 A. Der Patient ist elektrisch leitfähig, so dass er mit den Anschlusskabeln des Messverstärkers an der linken Hand und am linken Fuß eine Leiterschleife bildet. Das vom Stromkreis des Netzes erzeugte magnetische Feld durchfließt die Fläche des Patientenmesskreises und induziert am Eingangswiderstand des Messverstärkers entsprechend Gl. 2.7 eine Störspannung. Entsprechend Gl. 2.7 zur Entstehung einer induzierten Spannung kann diese sowohl in Folge der zeitlichen Änderung der magnetischen Induktion als auch der durchflossenen Fläche entstehen. Die zeitliche Änderung der magnetischen Induktion ist bereits dadurch gegeben, dass in der Installation der Stromversorgung ein mit der Netzfrequenz harmonisch veränderlicher Strom fließt. In der medizinischen Messanordnung kann es vorkommen, dass sich auch die vom magnetischen Fluss durchflossene Fläche ändert, z.B. durch Bewegung des Patienten oder der Kabel. uind
d) , dt
)
A B
(2.7)
In Gl. 2.7 ist uind die induzierte Spannung in einer offenen Leiterschleife, ) magnetischer Fluss, B magnetische Induktion, A Fläche der Leiterschleife.
Die magnetische Kopplung zwischen der Stromversorgung und dem Messkreis ist in Abb. 2.12 mit dem Transformator T nachgebildet. Die in den Messkreis induzierten Spannungen liegen im Millivoltbereich und sind damit im Vergleich zu den kapazitiv eingestreuten Störungen sehr klein, jedoch wirken sie direkt auf den Eingang des Messverstärkers. Das gewünschte EKG und die induktiv eingekoppelte Störung überlagern sich additiv, was einer Reihenschaltung im elektrischen Ersatzschaltbild entspricht. Die Schwierigkeiten mit induktiv eingekoppelten Störungen ergeben sich aus ihrem Wirkprinzip: Sie gelangen an den Verstärkereingang auf demselben Weg wie die gewünschten Signale – von einer differentiellen Körperquelle. Sie können schaltungstechnisch voneinander nicht getrennt werden. Die Möglichkeiten zur Reduktion der induzierten Störungen sind begrenzt: Die induzierte Spannung hängt von der Größe der magnetisch durchflossenen Fläche, der Stromstärke in der Installation sowie von der Entfernung zur störenden Quelle ab. In der Praxis besteht bestenfalls die Möglichkeit, die Fläche zu beeinflussen. Sie lässt sich
40
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
durch Verdrillen der Messkabel zwischen dem Patienten und dem Messverstärker verkleinern. Diese Maßnahme ist jedoch nur teilweise umsetzbar und bringt wegen der immer vorhandenen Patientenfläche und der notwendigen Flexibilität der Anschlusskabel keine wesentliche Verbesserung der Messsituation. Eine Ab-
L1
LH
Ri
Unetz
+ -
+ -
1k
Uekg
5k Rm
Re
Rl
1MEG
230
LF
T
N
0
Abb. 2.12 Patient im magnetischen Feld der Stromversorgung bei einer EKG-Ableitung, bei der die durch die Herzaktivität erzeugte Potentialdifferenz zwischen LH (linke Hand) und LF (linker Fuß) gemessen werden soll. L1 ist der Außenleiter der Stromversorgung („Phase“), N der Neutralleiter („Null“), Rl der Lastwiderstand eines Gerätes am Netz, Re der Eingangswiderstand eines medizinischen Messverstärkers, mit dem die EKG-Ableitung zwischen der linken Hand und dem linken Fuß gemessen werden soll. Der Transformator T repräsentiert die induktive Kopplung zwischen der stromführenden Netzinstallation und dem Patientenmesskreis (PSpice-Simulation BSV_2.9)
2.1 Eigenschaften von Biosignalen und Störungen
41
1.2mV
0.8mV
0.4mV
0V
-0.4mV
0s
0.1s V(LH,LF)
0.2s
0.3s
0.4s
0.5s Zeit
0.6s
0.7s
0.8s
0.9s
1.0s
Abb. 2.13 EKG-Ableitung (Differenzspannung zwischen LH und LF) am Patienten bei induktiver Einkopplung von der Netzinstallation (PSpice-Simulation BSV_2.9)
schirmung ist im Bereich der Frequenzen von 16 Hz bis 60 Hz bei magnetischen Feldern nicht vertretbar. Für eine wirksame Unterdrückung wäre eine Dicke der metallischen Wände in der Größenordnung von 50 cm Eisen und mehr notwendig. Abschirmungen mit Speziallegierungen bleiben einigen wenigen Sonderkonstruktionen vorbehalten, wie z.B. in magnetisch abgeschirmten Kammern für biomagnetische Messungen. Wirksame Maßnahmen können jedoch im Vorfeld des Baus eines Krankenhauses bei der Projektierung getroffen werden: Man sorgt schon bei der Planung dafür, dass Räume mit empfindlicher Messtechnik von leistungsstarken Anlagen und ihrer Stromversorgung, wie CT, MRT, Radiologie und HFChirurgie, voneinander hinreichend weit entfernt sind. 2.1.3.4 Elektromagnetisch eingekoppelte Störungen
Elektromagnetische Einkopplung hochfrequenter Störungen findet auf demselben Weg statt, wie Radiosignale empfangen werden: Die Anschlusskabel der Messanordnung, die eine Länge von ein bis zwei Metern haben, funktionieren wie Staboder Rahmenantennen. Der empfangene Frequenzbereich erstreckt sich über das gesamte Spektrum der Radiokommunikation, von 50 kHz (Langwellen) bis weit in den Gigahertzbereich (WLAN bei 2.4 GHz und 5 GHz). Bei so immensen Frequenzen stellt sich die Frage, warum derartig hochfrequente Schwingungen Biosignale stören können, die weit im tieffrequenten Bereich bis höchstens 10 kHz liegen. Die Erklärung ist die ungewollte und unerwünschte Amplitudendemodulation am Verstärkereingang des Messsystems. Doch wieso demoduliert ein Verstärkereingang hochfrequente Signale, wenn er eigentlich für tiefste Frequenzen
42
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
bestimmt ist? Beginnend mit Ausführungen zu den Grundlagen der AM (Amplitudenmodulation) wird dieses Problem schaltungstechnisch erläutert. Um niederfrequente Signale (Sprache, Bilder, Biosignale) über größere Entfernungen drahtlos übertragen zu können, ist es notwendig, diese Signale einem Parameter (Amplitude, Frequenz, Phase) eines hochfrequenten Trägers aufzuprägen. Dieses Prinzip ist so alt wie der Funk selbst. Die AM ist die älteste Modulationsart. Mathematisch ist die AM, entsprechend Gl. (2.8), über die Multiplikation des NF-Signals (niederfrequent, UNF ) mit dem HF-Träger (hochfrequent, UHF > UNF) realisierbar. Diese Möglichkeit wurde auch in der Simulation in Abb. 2.14 gewählt. u AM
Uˆ
HF
Uˆ NF cosZ NF t cosZ HF t
(2.8)
Nach der Multiplikation beider Signale im AM-Modulator entsteht ein AM-Signal mit der Frequenz des HF-Trägers und der Einhüllenden des NF-Signals, wie in der unteren Grafik der Abb. 2.15 dargestellt. Die Transferstrecke (Verstärkung, Antenne, Übertragungsmedium) wurde hier mit einem einfachen Verstärker nachgebildet. Die Aufgabe eines AM-Demodulators besteht nun darin, aus dem AMmodulierten HF-Träger die Einhüllende zurück zu gewinnen. Da das HF-Signal nullsymmetrisch ist, muss es zunächst gleichgerichtet werden, sonst würde sich die Einhüllende nach der beabsichtigten Tiefpassfilterung aufheben. Dazu dient die Diode Dam im Demodulator in Abb. 2.14. Nach der Gleichrichtung ist es notwendig, die kurzen Perioden der HF-Schwingung mit einer geeigneten Zeitkonstante zu überbrücken, am Einfachsten mit einem Tiefpass. Dieser wird mit der RC-Kombination aus Rd und Cd realisiert. Die Anordnung des Demodulators ist schaltungstechnisch gesehen ein Hüllkurverndetektor mit einer geeigneten Zeitkonstante (groß genug zum Überbrücken der HF-Periode, aber klein genug, um dem NF-Signal zu folgen). Der resultierende Verlauf ist in der oberen Grafik der Abb. 2.15 dargestellt. Diese schaltungstechnische Lösung ist sehr einfach und das war auch einer der Gründe für die Verbreitung der AM in den Anfängen der Nachrichtentechnik. Im Folgenden stellt sich die Frage, welcher Zusammenhang zwischen einem AMDemodulator und einem medizinischen Messverstärker besteht. Am Eingang jedes Verstärkers befinden sich als aktive Bauelemente Transistoren. Die Basis-EmitterStrecke (Gate-Source-Strecke eines FETs) ist als PN-Übergang einerseits eingleichrichtendes Element, andererseits ist der PN-Übergang in der Durchlassrichtung eine relativ große Kapazität (bis einige nF). Die Transistoren der Eingangsstufe des Messverstärkers sind mit Widerständen zur Festlegung ihrer Betriebsparameter bestückt. Damit enthält die Eingansstufe des Messverstärkers alle notwendigen Bauelemente eines AM-Demodulators (Gleichrichter, Widerstand, Kapazität). Sie funktioniert bei hochfrequenten Störsignalen mit veränderlicher
2.1 Eigenschaften von Biosignalen und Störungen
43
Transfer
AM-Modulator
AM-Demodulator
0
+
R3 10k
0
hf
R4 5k
Multiplikator
-
IN1+
Ub+ + V+
IN1-
IC1
IN2+
-
0 +
nf
Dam OS2 OS1
VRq
IN2-
10
-
R1 10k
Rd 100k
Cd 100n
Ub0
0
R2 100k
Abb. 2.14 Prinzip der Amplitudenmodulation und -demodulation. Mit dem NF-Signal wird die Amplitude des HF-Signals multipliziert (moduliert), das HF-Signal wird zusätzlich als Grundwelle (Träger) addiert. Der Transferblock repräsentiert den Sender und die Übertragungsstrecke. Zur Rückgewinnung des NF-Signals reichen drei passive Elemente (D, R, C) im Demodulator (PSpice-Simulationen BSV_2.10, a, b)
2.0V 0V -2.0V 4.0V
0V
-4.0V
0s
20ms
40ms
60ms
80ms
100ms 120ms 140ms 160ms 180ms Zeit
Abb. 2.15 Zeitverläufe bei der Amplitudenmodulation und -demodulation. In der oberen Grafik das AM-demodulierte Signal am Demodulatorausgang, in der unteren Grafik das AM-HF-Signal am Demodulatoreingang (PSpice-Simulation BSV_2.10). Zu beachten ist, dass der AMDemodulator als Hüllkurvendetektor arbeitet und daher die Amplitude jeder – nicht unbedingt AM-modulierter – HF-Schwingung wiedergibt
44
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
Einhüllenden auch wie ein AM-Demodulator. Dabei müssen die HF-Signale nicht einmal einer gewollten AM entstammen. Es reicht schon aus, wenn sich die Amplitude eines beliebigen HF-Signals in Folge veränderlicher Ausbreitungsbedingungen von selbst ändert. Dies kann z.B. durch Bewegung im Gelände bei einem FM-Signal (Frequenzmodulation im UKW-Rundfunk) oder durch eine bewegungsbedingte veränderliche Amplitude der HF-Schwingung im OP bei der HFChirurgie geschehen. Das Fazit dieser Analyse ist, dass jede beliebige HFSchwingung mit veränderlicher Amplitude die Messung von Biosignalen beeinträchtigen kann. Wirksame Maßnahmen gegen elektromagnetische Störungen sind nur schwierig realisierbar. Schaltungstechnisch wäre es denkbar, die Eingänge des Messverstär0 +15v
C1 100n + L1 R5 10k
IC1
100uH
V+OS2 V-
-
R1
R2
1k
10k
Ra 10k +15v
-15v R12 Vg
+
50k Rc
+ -
0
IC3
1k
-
R13 50k -15v R6
L2 100uH
VIC2 V+
10k
0
OS1
OS1
V+OS2 V-
OS1
-15v Rb 10k R3
R4
1k
10k
OS2
+ C2 100n
+15v 0
Abb. 2.16 Medizinischer Messverstärker als Instrumentationsverstärker mit Tiefpässen am Eingang zur Unterdrückung hochfrequenter Störungen. Der Eingangswiderstand des Verstärkers wird durch die Tiefpässe von ursprünglich 600 M: auf 10 k:R5, R6 bei ihrer Grenzfrequenz reduziert (Pspice-Simulation BSV_2.11)
2.2 Medizinische Messverstärker
45
kers mit Tiefpässen auszustatten, wie es in der technischen Messtechnik oder Telekommunikation üblich ist (Abb. 2.16). Derartige Filter würden jedoch die geforderte hohe Eingangsimpedanz des Verstärkers stark herabsetzen, was im medizinischen Bereich nicht akzeptabel ist. Umsetzbare Maßnahmen sind organisatorischer Art: Der medizinische Raum muss weit entfernt von kommerziellen Sendern eingerichtet werden und mobile Funkanlagen (Funktelefon) dürfen in solchen Räumen nicht betrieben werden, wie es auch in der Luftfahrt üblich ist.
2.2 Medizinische Messverstärker In der medizinischen Messtechnik besteht die Aufgabe darin, Biosignale zu erfassen und zu verstärken, deren Pegel im Bereich von einigen Mikrovolt bis Millivolt liegen und einen sehr tieffrequenten Bereich zwischen 0 Hz bis etwa 10 kHz einnehmen. Dies sind zunächst Eigenschaften, die im technischen Bereich keine Probleme bereiten und mit einem üblichen Messverstärker beherrschbar wären. Die Spezifik der medizinischen Messtechnik ergibt sich im Wesentlichen aus dem zu messenden Subjekt – dem Menschen – mit vielen körpereigenen Biosignalen und den ihn umgebenden Störquellen.
2.2.1 Spezifik der medizinischen Messtechnik Einer der wichtigsten Grundsätze der medizinischen Messtechnik gebietet uns, für minimale Patientenbelastung möglichst nichtinvasiv zu messen. Die Folge dieser Forderung ist, dass im Normalfall keine der zu messenden Biosignalquellen direkt erreichbar ist. 2.2.1.1 Zugänglichkeit der Biosignalquelle
Vor allem die lebenswichtigen Funktionen wie die Herztätigkeit (EKG), die Hirnaktivität (EEG) und die Aktivität des Nervensystems, sind nur als Summenpotentiale von der Körperoberfläche messbar. Die Atmung und die mit ihr zusammenhängenden Blutgase (pH, pO2, pCO2), sowie der Blutdruck und Blutfluss, sind nur indirekt messbar. Indirekte Messung bedeutet, dass nicht die interessierende Größe selbst, sondern eine oder mehrere mit ihr in Zusammenhang stehende Hilfsgrößen gemessen werden. Ein typisches Beispiel ist die Blutdruckmessung am Oberarm: Gemessen wird der Luftdruck der Manschette unter der Annahme, dass dieser unter bestimmten Bedingungen dem arteriellen Druck gleich ist. Ein Beispiel zur Darstellung des Sachverhalts ist die kardiologische Untersuchung der
46
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
Reizleitung am AV-Knoten6. Hierbei wirken sich sämtliche anderen elektrischen Aktivitäten außerhalb der betrachteten Struktur störend aus. Auf Grund der Tatsache, dass die Messung allein nicht am Herzen abgeleitet werden kann (Herzkatheter), sondern von der Brustoberfläche, werden zwangsläufig alle elektrischen Aktivitäten des Herzens erfasst. Weitere Störsignale entstehen bei dieser Messung aus der biologischen und technischen Umgebung. Die Situation wird noch schwieriger, wenn das zu erfassende Biosignal selbst keine elektrische Aktivität ist, so dass noch ein Transverter zur Umsetzung der untersuchten Größe in ein elektrisches Signal notwendig ist (invasive Blutdruckmessung, Atemvolumina, Blutgaskonzentration). 2.2.1.2 Komplexität des biologischen Messobjekts Im technischen Bereich ist es möglich und üblich, Baugruppen einer Anlage zur Funktionskontrolle aus dem System heraus zu nehmen und gezielt zu prüfen, ob sie als Funktionseinheit intakt sind. Dies ist in der Medizin am Patienten natürlich nicht machbar, so dass die Messung von Biosignalen immer am vollständig funktionierenden Messobjekt stattfinden muss. Dies ist eines der größten messmethodischen Probleme: Man kann die dynamisch und nichtlinear verkoppelten und verschachtelten Regelkreise des menschlichen Organismus nicht ausschalten und nicht unterbrechen, so dass die Messergebnisse unter ungünstigen Umständen große Messfehler aufweisen und zu falschen Diagnosen führen können. Mit aufwändigen Methoden der Modellierung wird gegenwärtig versucht, die einzelnen Regelkreise so zu beschreiben, dass die unerwünschten Einflüsse auf die Messung herausgerechnet werden können. Diese Lösungsansätze sind von praktikablen Lösungen jedoch noch weit entfernt. Einige einfache Methoden haben sich dennoch etabliert. So ist es heute beispielsweise realisierbar, den Lidschlag und die Augenbewegungen (EOG) aus einem gemessenen EEG zu eliminieren. 2.2.1.3 Rückwirkung auf das biologische Messobjekt Messmethodisch ist es wichtig, das Messobjekt nicht zu beeinflussen, zumindest aber die Rückwirkung zu minimieren. In der Technik ist diese Forderung ohne weiteres umsetzbar. In der medizinischen Messtechnik gibt es zwei Problemkreise, die dieser Forderung nicht gerecht werden können. Zum einen sind die meisten Sensoren und Transverter zur Messung nichtelektrischer Größen vom Prinzip her nicht rückwirkungsfrei. Ein typisches Beispiel liefert die Blutdruckmessung – Manschettenmethoden am Oberarm. Die Arterie wird unter massiver Druckeinwirkung verschlossen, was messmethodisch fraglich ist, von anderen Messfehlern einmal abgesehen. Durch die Unterbrechung des Blutflusses wird der Kreislauf einem kurzzeitigen Strömungswiderstand ausgesetzt, der zwangsläufig Einfluss 6
AV-Knoten oder Atrio-Ventrikulärer Knoten ist eine Durchschaltestelle im Reizleitungssystem des Herzens
2.2 Medizinische Messverstärker
47
auf die Messung hat. Zum anderen ist eine weitere Fehlerquelle hinsichtlich der Rückwirkung auf das Messobjekt ist die Psyche des Patienten: Der Besuch im Krankenhaus erzeugt bei den Patienten Angst- und Stresszustände, die psychosomatischen Einfluss auf die diagnostisch interessanten Parameter haben, so dass auch hier nicht quantifizierbare Fehler auftreten. 2.2.1.4 Ankopplung des Messsystems an das biologische Messobjekt
Der Schwerpunkt der Biosignalerfassung und -verarbeitung in diesem Beitrag liegt im Bereich der elektrophysiologischen Signale, insbesondere des EEG, EKG, EMG, EOG, etc. Anhand dieser Selektion soll demonstriert werden, welche grundsätzlichen Probleme auf dem Weg vom Sensor über die Verstärkung, Filterung, AD-Wandlung und digitale Signalverarbeitung zu bewältigen sind. Natürlich Rer 2k
0
0 R3 500k
Masse
Ub+
+
Rel
R1
IC1 -
2k RH
LH Uekg
V-
OS1
Ub-
R2
5MEG
+ -
1k
500k linkeHand
V+OS2
Ri
Abb. 2.17 Elektrisches Modell einer einkanaligen EKG-Ableitung: Der Innenwiderstand Ri der Signalquelle Uekg und die Elektrodenübergangsimpedanzen (hier zu Widerständen vereinfacht) Rer und Rel entsprechen in etwa der Realität. Das EKG wird mit einem einkanaligen massebezogenen Verstärker – wie er in der technischen Messtechnik üblich – verstärkt (PSpice-Simulation BSV_2.3)
48
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
gelten die hier behandelten Prinzipien und Lösungsansätze auch für nichtelektrische Größen, wie Blutdruck, Sauerstoffsättigung oder Atmungsvolumina. Allerdings werden sich für diese Größen die Messsituation und die Auswertung jeweils noch um die notwendige Größentransformation erschweren. Der wesentlichste Unterschied zu elektrotechnischen Messobjekten besteht darin, dass das biologische Messobjekt – der Mensch – im elektrischen Sinne keinen „Masseanschluss“ und schon gar keinen „Erdanschluss“ besitzt. Der Mensch ist elektrisch gesehen ein geschlossener, dreidimensionaler Volumenleiter, gewissermaßen ein Elektrolytgefäß. In diesem Volumenleiter befinden sich elektrisch leitfähige Bahnen (Nerven), die die elektrischen Signale (Aktionspotentiale, Reize) von und zu den Steuerungszentren (Gehirn, Rückenmark) leiten. Um Aussagen über die Art und die lokale Begrenzung der elektrischen Aktivität in diesem dreidimensionalen Elektrolyten zu treffen, sind mindestens zwei Sensoren – in diesem Fall zwei Elektroden – anzubringen und die elektrische Aktivität zwischen den Elektroden zu messen. Aus Sicht der Elektrotechnik misst man am Menschen immer eine Potentialdifferenz und damit – mathematisch gesehen – die erste räumliche Ableitung bzw. den ersten räumlichen Gradienten. Die Elektroden sind hinsichtlich der elektrischen Aktivität, die sie erfassen, vollkommen gleichwertig. Es gibt keine Stelle am menschlichen Körper, die – elektrisch gesehen – eine Vorzugsstellung im Sinne einer Referenz hätte. Ausgehend davon, dass der menschliche Körper in seiner Gesamtheit aus lebenden Zellen besteht, werden alle Vorgänge in den Zellen (Metabolismus, Ladungsträgerbewe10V
5V
0V
-5V 0s
0.1s 0.2s 0.3s V(linkeHand) V(Ausgang)
0.4s
0.5s Zeit
0.6s
0.7s
0.8s
0.9s
1.0s
Abb. 2.18 Simuliertes EKG als einkanaliges Signal an der Elektrode der linken Hand (gestrichelte Linie) und am Ausgang eines einkanaligen Verstärkers (volle Linie) nach der Schaltung in Abb. 2.17
2.2 Medizinische Messverstärker
49
gung) von elektrischen Effekten (lokale Stromflüsse) begleitet. Vor diesem Hintergrund gibt es keinen Anlass dafür, irgendeine Stelle des Körpers als elektrisch inaktiv zu bezeichnen und sie für die Anbringung von indifferenten Elektroden oder als Bezugspunkt – wie es in der Technik üblich ist – vorzusehen. In mehrkanaligen Messsystemen (EKG, EEG, EMG) ist es zwar notwendig, eine Referenzelektrode bzw. einen Bezugspunkt festzulegen, an dem oben genannten Prinzip ändert das jedoch nichts. Wird ausschließlich von den Pegeln der zu verstärkenden Signale und ihren Spektren ausgegangen, genügt ein in der technischen Messtechnik üblicher Verstärker. Eine solche Anordnung zeigt Abb. 2.17. An den Händen des Patienten sind zwei Elektroden angebracht, die das zu verstärkende Biosignal (EKG) von der Körperoberfläche ableiten und an d en Verstärkereingang über Kabel weitergeben. Die Elektroden sind als Schnittstellen zwischen dem Ionenleiter Mensch und dem Elektronenleiter metallisches Kabel komplizierte elektrochemische Gebilde, auf deren Eigenschaften an dieser Stelle nicht näher eingegangen wird (für Details 0 Unetz
+ Rer 2k
0
0 R3 500k
Masse
Ub+
+
C1
C2
100p
100p
Rel
R1
IC1 -
2k RH
LH Uekg
Uaus
OS1
V-
Ub-
R2
5MEG
+ -
1k
500k linkeHand
V+OS2
Ri
Abb. 2.19 Über die Streukapazitäten der Arme zur Netzinstallation wird auf den Patienten eine Netzstörung übertragen, die in dem einkanaligen Verstärker mit verarbeitet wird (PSpiceSimulation BSV_2.4)
50
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
siehe Abschn. 1). Für diese Analyse soll zunächst die Feststellung genügen, dass die Elektroden eine Impedanz besitzen, deren Betrag mit etwa 2 k: simuliert werden kann. Die simulierten Signalverläufe der vereinfachten EKG-Ableitung ohne äußere Störungen sind in Abb. 2.18 dargestellt. In der messtechnischen Praxis wir jedoch immer (mindestens) eine Netzstörung auftreten, die zunächst als kapazitiv eingekoppelte Störung betrachtet wird. Diese Situation wird vereinfachend mit zwei Streukapazitäten simuliert, die auf die Arme des Patienten wirken, wie in Abb. 2.19 dargestellt. Die simulierte Messanordnung in Abb. 2.19 ist ideal in dem Sinne, dass die Elektrodenimpedanzen Rer und Rel, sowie die auf die Arme wirkenden Streukapazitäten C1 und C2 jeweils gleich groß sind. Aus Sicht der Patientenanschlüsse „linke Hand“ und „Masse“ liegt in Bezug auf die Störquelle eine vollkommen symmetrische Anordnung vor. Daher kann man davon ausgehen, dass die Netzstörung an beiden Anschlüssen dieselbe Amplitude und Phase besitzt, ihre Differenz wäre ohne den angeschlossenen Verstärker und die Masse demzufolge gleich Null. Die an der rechten Hand eingekoppelte Störung wird jedoch auf Masse geleitet und die der linken Hand, wie auch das gewollte EKG, verstärkt. Den simulierten Verlauf zeigt Abb. 2.20. Aus dieser Analyse zum gewünschten Signal (EKG) und zur unerwünschten Störung (Netz) ergibt sich die Schlussfolgerung, dass es sinnvoll wäre, eine Schal12V
8V
4V
0V
-4V
0s 0.1s V(linkeHand)
0.2s 0.3s V(Ausgang)
0.4s
0.5s Zeit
0.6s
0.7s
0.8s
0.9s
1.0s
Abb. 2.20 Durch die kapazitive Einstreuung der Netzstörung wird diese mit dem gewünschten Signal zusammen verstärkt. In der Realität kann die Störung viel stärker als das Signal selbst werden. Hier wurden allein die Streukapazitäten an den Armen des Patienten berücksichtigt
2.2 Medizinische Messverstärker
51
tungsmaßnahme zu realisieren, mit der das Biosignal als Differenzsignal zwischen den beiden Elektroden verstärkt, während die an beiden Elektroden identisch anliegende Störung eliminiert würde. Man braucht also eine Schaltung, die massefrei nur die Potentialdifferenz an beiden Anschlüssen (linke und rechte Hand, LH undRH) verstärkt und die identisch anliegende massebezogene Störspannung ignoriert. Die analoge Schaltungstechnik bietet für diesen Fall den Differenzverstärker, der in seiner einfachsten Form (Abb. 2.21 oder 2.27) dargestellt ist. 2.2.1.5 Eingangswiderstände medizinischer Messverstärker
In der Messtechnik wird im Allgemeinen ein sehr hoher Eingangswiderstand am Eingang des Messverstärkers in Bezug auf den Innenwiderstand der Signalquelle gefordert, um die zu messende Spannung nicht zu verfälschen. Diese Forderung hängt maßgeblich von der Genauigkeitsklasse des Messsystems ab. In der medizinischen Messtechnik wird in der Regel gefordert, dass der Eingangswiderstand des Messverstärkers mindestens das Hundertfache des Innenwiderstands der Bio-
0 RH
LH Rg+ 1k
Uekg
linkeHand
-
+
Ri
100MEG
Rel 2k
Rd 1MEG
rechteHand
Rer 2k
Rg100MEG
0
Abb. 2.21 Elektrisches Ersatzschaltbild einer einkanaligen EKG-Ableitung und Verstärkung mit einem Differenzverstärker. Der Eingangskreis des Differenzverstärkers wird mit drei Widerständen modelliert: Rd für die massefreie Differenzspannung und Rg+,- für die massebezogene Gleichtaktspannung am jeweiligen Eingang (Details im Kapitel Differenzverstärker). Die modellierten Widerstände entsprechen den realen Werten (PSpice-Simulation BSV_2.15)
52
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
signalquelle beträgt. Um diese Forderung zu quantifizieren, ist zunächst von einem ungestörten Messkreis auszugehen (s. Abb. 2.21). Aus Sicht des Messverstärkers müssen die Elektrodenwiderstände Rel und Rer zum Innenwiderstand Ri der Biosignalquelle addiert werden, so dass sich ein globaler Innenwiderstand von 5 k: ergibt. Der Eingangswiderstand des Differenzverstärkers beträgt etwa 1 M: (die Reihenschaltung der beiden Gleichtaktwiderstände Rg+,- liegt parallel zum Differenzeingangswiderstand, so dass dieser nur etwas weniger als 1 M:beträgt). Mit diesem Wert des Differenzeingangswiderstandes ist die pauschale Forderung nach mindestens 100-mal höherem Eingangswiderstand gut erfüllt und in der Praxis akzeptiert. Nun stellt sich die Frage nach der notwendigen Größe der Gleichtaktwiderstände Rg+,-. Dazu wird der Messkreis unter der Bedingung einer netzseitigen Gleichtaktstörung untersucht, die in Abb. 2.22 schematisch dargestellt ist.
0 LH
RH 1k
Uekg
Rg+ 100k
E+ linkeHand
+ -
Ri
Rel 2k
Rd 1MEG
rechteHand
Rg100k
Rer 1.5k E0
Rm 5k + Um 0
Abb. 2.22 Elektrisches Ersatzschaltbild einer einkanaligen EKG-Ableitung, die mit einem Differenzverstärker verarbeitet wird. Die Spannungsquelle Um simuliert den Spannungsabfall über der Masseelektrode Rm, der sich durch kapazitive Einstreuung aus dem Stromversorgungsnetz bildet, wie in Abb. 2.10 dargestellt (PSpice-Simulation BSV_2.16)
2.2 Medizinische Messverstärker
53
Wie in Abb. 2.10 dargestellt, entsteht über der Masseelektrode Rm ein Spannungsabfall im unteren Millivoltbereich, der in Abb. 2.22 mit einer Spannungsquelle Umsimuliert wird. Diese Störspannung wirkt auf beide Eingänge des Differenzverstärkers: Auf den invertierenden Eingang E- über den Zweig der rechten Hand und ruft damit einen Spannungsabfall über dem Gleichtaktwiderstand Rg- hervor; Auf den nichtinvertierenden Eingang E+ über den Zweig der linken Hand und ruft damit einen Spannungsabfall über dem Gleichtaktwiderstand Rg+ hervor. Da es sich bei Um um eine Gleichtakt-Störspannung handelt (wirkt identisch auf beide Eingänge), soll die durch die Störspannung verursachte Differenz zwischen den beiden Eingängen E+ und E- möglichst Null sein. In der theoretischen Analyse stellt dies kein Problem dar, da man beide Zweige vollkommen identisch gestalten kann. In der praktischen Messtechnik werden jedoch die Elektrodenwiderstände Rel und Rer immer unterschiedlich sein. Dies ergibt sich allein aus der Tatsache, dass es keine zwei identischen Elektroden gibt und dass die Kontaktstellen am Körper immer unterschiedliche Kontakteigenschaften, Feuchtigkeit, Temperatur, etc. aufweisen. Dadurch sind Unterschiede zwischen Elektrodenimpedanzen im Bereich von mehr als hundert Prozent möglich. Es stellt sich also die Frage, wie die Forderung nach minimaler Differenzspannung zwischen den Eingängen E+ und E- praktisch zu erfüllen ist. Mathematisch lässt sich die Differenzspannung entsprechend Gl. (2.9) und (2.10) formulieren. Unter der Voraussetzung, dass die beiden Gleichtaktwiderstände Rg+ und Rg- identisch sind, die grundsätzlich erfüllt ist, gilt:
U E U m
R g Rg Rd
U E U m Ud
Rm Ri Rel R g Rg Rd
Rm Rer Rg R g Rd
R g Rg Rd
U E U E o 0 Rg o f
(2.9)
(2.10) (2.11)
Nach Gleichung (2.11) lässt sich die störende Differenzspannung berechnen und minimieren. Hieraus ergeben sich theoretisch mehrere Lösungsansätze. Schaltungstechnisch lassen sich jedoch nur die Widerstände Rg und Rd beeinflussen. Zur Minimierung der Differenzspannung muss also der Widerstand Rg maximiert werden. Ein Kompromiss zwischen der theoretischen Maximalforderung und der elektronischen Realisierbarkeit liegt bei etwa 100 M: pro GleichtaktEingangswiderstand. Die Erkenntnis, dass die störende Differenzspannung maßgeblich durch den Gleichtakteingangswiderstand bestimmt wird, erscheint zunächst widersprüchlich. Durch die schaltungstechnische Interpretation von Gl. (2.9) bis (2.11) wird jedoch klar, dass die beiden Gleichtakteingangswiderstände mit den Elektroden und dem Patienten zwei Spannungsteiler bilden. Zwischen den Spannungsteilern soll die Spannung Ud minimal werden und demzufolge darf es praktisch zu gar keiner Spannungsteilung kommen, d.h. UE+=UE-. Das geht aber
54
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
nur dann, wenn die Gleichtakt-Eingangswiderstände unendlich groß sind, praktisch um etwa 100 M: 2.2.1.6 Gleichtaktunterdrückung medizinischer Messverstärker
Biosignalquellen sind wegen der messtechnischen Notwendigkeit, ihre elektrische Aktivität als Potentialdifferenz abzuleiten, differentielle Signalquellen. Mathematisch lässt sich dies als Bildung der ersten räumlichen Ableitung interpretieren. Viele Störungen, vor allem kapazitiv eingekoppelte, treffen auf den Messkreis mit gleichem Pegel, Frequenz und Phase ein – in dem so genannten Gleichtakt, wie in Abb. 2.19 dargestellt. Die Aufgabe eines medizinischen Messverstärkers liegt darin, die gewollten Differenzsignale zu verstärken (Gl. 2.12) und die ungewollten Gleichtaktsignale zu unterdrücken (Gl. 2.13). Bei einem einzelnen diskreten Differenzverstärkers (Abb. 2.27) mit einer symmetrischen Ausgangsspannung wäre das Problem des Gleichtakts durch ideale Symmetrie und Differenzbildung zwischen den massebezogenen Ausgangsspannungen gelöst (Gl. 2.13). u as
Vd u es
Rd 1 T1 U g1
Vd u g1 u g 2
Rd 2 ½ ° ° T2 ¾ U d 1 ° U g 2 ¿°
U d 2 U as
(2.12)
0
(2.13)
In den Gl. 2.12 und 2.13 stehen die Indizes d für Differenz, g für Gate, e für Einfang, a für Ausgang, s für symmetrisch, d1,2 für Drain.
In der Praxis sind diese beiden Lösungsansätze jedoch nicht realisierbar. Eine vollkommene Symmetrie ist selbst in der integrierten Elektronik nicht erreichbar, so dass das Gleichtaktsignal immer zu einem gewissen Teil in ein Differenzsignal umgewandelt wird (Gl. 2.14).
Rd1 z Rd 2 ½ ° ° T1 z T2 ¾ U d1 z U d 2 U as z 0 ° U g1 U g 2 °¿
(2.14)
Da die Ausgangsspannung in weiteren Stufen der Messkette (AD-Wandlung, Anzeige) verarbeitet wird, ist ein Übergang von der symmetrischen massefreien Ausgangsspannung auf eine massebezogene Spannung notwendig. Daher ist eine Elimination des Gleichtakts durch bloße Differenzbildung nicht möglich, der Gleichtakt muss mit anderen schaltungstechnischen Maßnahmen wirksam reduziert werden Gl. (2.15).
2.2 Medizinische Messverstärker
u es u eg
55
u g1 u g 2
u g1 u g 2
½° ¾ ua / 2°¿
°Vd !! 1 Vd u es V g u eg ® °¯V g o 0
(2.15)
Bei der Beurteilung der Differenz- (Vd) und Gleichtaktverstärkung (Vg) eines Differenzverstärkers sind nicht so sehr die absoluten Werte der Verstärkungen von Interesse, als vielmehr deren Quotient – die Gleichtaktunterdrückung (Gl. 2.16). CMRR
Vd , CMRR / dB Vg
20 log10 CMRR
(2.16)
In Gl. 2.16 steht CMRR für Common Mode Rejection Ratio, Vd für Differenzverstärkung, Vg für Gleichtaktverstärkung.
Diese Formulierung ergibt sich aus der Sichtweise der Beziehungen zwischen Signalen und Störungen: In der Signalverarbeitung sind nicht pauschal die absoluten Pegel der Signale von Interesse. Wichtiger ist, wie gut sich ein Signal von einer Störung unterscheidet. Das Maß für die Güte der Unterscheidung ist das Signal-Rausch-Verhältnis, auch als SNR bezeichnet (Signal-to-Noise Ratio). In seiner allgemeinen Form wird es aus dem Quotienten der Effektivwerte bzw. der mittleren Leistungen von Signal und Rauschen gebildet (Gl. 2.17). In der medizinischen Signalverarbeitung ist diese allgemeine Form kaum anwendbar, da die Biosignale in der Regel stark instationär sind. Die zeitliche Mittelwertbildung spiegelt entsprechend (Gl. 2.17) beim Pegel bzw. bei der Leistung die Eigenschaften der Biosignale nur geglättet wider, was auf die Tiefpasswirkung der zeitlichen Integration zurück zu führen ist. Es ist deshalb sinnvoll, die allgemeine Definition 2.17 der konkreten Fragestellung anzupassen, wie z.B. bei der EKG-Messung nach den Gln. (2.5) und (2.6). SNR
seff neff
, SNR / dB
20 log10
seff neff
10 log10
s2 n2
(2.17)
Für den medizinischen Bereich werden für das CMRR 100 bis 120 dB gefordert. Das heißt für die Verstärkungen, dass die Differenzverstärkung Vd um den Faktor 105 bis 106 höher sein muss als die Gleichtaktverstärkung Vg. Solch einen Wert schaltungstechnisch zu realisieren, ist eine Herausforderung an die Konstruktion. Mit der heutigen Technologie werden diese Werte mit sinnvollem Aufwand nur mit der integrierten Elektronik erreicht. Wie bequem die dB-Darstellung vom SNR und CMRR ist, demonstriert folgendes Beispiel: Bei einer EKG-Messung beträgt die Amplitude der R-Zacke um 1 mV, die vom Netz kommende Gleichtaktstörung verursacht an den Verstärkeranschlüssen eine Spannung von 100 mV, so dass das SNR am Eingang -40 dB erreicht (SNRE = -40 dB). Wenn das CMRR 120 dB beträgt, so wird das EKG als Diffe-
56
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
renzsignal 106-mal mehr verstärkt, als die Störung (der Wert der Differenzverstärkung liegt in der Größenordnung 103 bis 104) und am Ausgang wird ein SNRA = SNRE + CMRR = 80 dB erreicht. Das heißt, am Ausgang ist das EKG 104-mal stärker als die Gleichtaktstörung, was mit den Verhältnissen am Eingang eine enorme Verbesserung bedeutet. Dies ist natürlich eine rein rechnerische Verbesserung des SNR, die in der Praxis auch wegen zusätzlicher Unsymmetrien (s. Abschn. 2.2.2) nie erreicht wird. Weiterhin ist zu beachten, dass das CMRR frequenzabhängig ist und insbesondere zu höheren Frequenzen hin stark abnimmt. 2.2.1.7 Amplitudengang und Rauschen medizinischer Messverstärker
Die Anforderungen an den Amplituden- und Phasenfrequenzgang eines Messverstärkers hängen primär von der gewünschten Messgenauigkeit und der Forderung nach Erhaltung der Signalform ab. Bei der Erfassung von Biosignalen sind die Forderungen nach der Messgenauigkeit im Vergleich zur technischen Messtechnik relativ niedrig. Ausgehend davon, dass die inter- und intraindividuellen Schwankungen der Biosignale bzw. ihrer Parameter in der Größenordnung von bis zu 100% betragen können und die Messbedingungen kaum reproduzierbar sind, genügt im Normalfall eine Messgenauigkeit im unteren Prozentbereich. Dies bedeutet für den Amplitudenfrequenzgang, dass er im spektralen Arbeitsbereich eine Welligkeit von bis zu 1 dB aufweisen darf. Weiterhin stellt sich die Frage nach der notwendigen spektralen Breite des Arbeitsbereiches. Einerseits darf der spektrale Arbeitsbereich nicht wesentlich breiter sein, als notwendig ist, da das Eigenrauschen entsprechend (Gl. 2.18) direkt proportional der spektralen Breite zunimmt.
10
1.0
100m
10m
1.0m 10mHz
100mHz
1.0Hz
10Hz 100Hz Frequenz
1.0KHz
10KHz
100KHz
Abb. 2.23 Spektraler Arbeitsbereich eines medizinischen Messverstärkers. Die untere Grenzfrequenz von 0.1 Hz wird mit einem Hochpass, die obere Grenzfrequenz von 2 kHz mit einem Tiefpass realisiert, beide linearphasig zweiter Ordnung, (PSpice-Simulation BSV_2.17)
2.2 Medizinische Messverstärker
57
Andererseits muss der Arbeitsbereich breit genug sein, damit die Biosignale keine relevante Bestandteile verlieren. Ein typischer Arbeitsbereich ist in Abb. 2.23 dargestellt. Untere Grenzfrequenz Im tieffrequenten Bereich gestaltet sich die Wahl der unteren Grenzfrequenz besonders schwierig. Eines der wesentlichen schaltungstechnischen Probleme hängt mit der Elektrodenspannung zusammen: Die zunächst als statisch angenommene Elektrodenspannung erreicht je nach Elektrodenmaterial Werte bis zu mehreren hundert Millivolt. Sie liegt demnach um mehrere Zehnerpotenzen über den zu messenden Biosignalen im Mikro- und Millivoltbereich. Selbst wenn man bei einer Ableitung gleiche Elektroden verwendet, hebt sich die Elektrodenspannung 0
R3 500k
R4 5MEG +
-
+
Rer
Ur 0.25V
2k
V-
2k Ul 0.2V
OS2 OS1
-
-
+ + -
1k
V+
IC1
Rel
Uekg
Ub+
R1 500k
Ub-
Ri R2 5MEG
Abb. 2.24 Einfluss der Elektrodenspannung auf das Biosignal. Die Gleichspannungsquellen Ur und Ul simulieren die Elektrodenspannungen an den Kontaktstellen zwischen Elektroden und Haut. Da sie aus gleichem Material bestehen, hebt sich der Großteil der Elektrodenspannung auf. Durch unterschiedliche Bedingungen an den Kontaktstellen unterscheiden sich die Elektrodenspannungen dennoch relativ stark. Diese Spannungsdifferenz wird dem Biosignal additiv überlagert und muss mit einem Hochpass nach der ersten Verstärkerstufe unterdrück werden. (PSpiceSimulation BSV_2.43)
58
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
500mV
0V
-500mV 0s
0.1s
0.2s
0.3s
0.4s
0.5s Zeit
0.6s
0.7s
0.8s
0.9s
1.0s
Abb. 2.25 Zeitverlauf des simulierten EKG unter Berücksichtigung der Elektrodenspannungen in der Schaltung nach Abb. 2.24. Durch die Differenz der Elektrodenspannungen ist die Nulllinie nach unten verschoben und könnte bei höherem Betrag der Differenz zur Begrenzung des Messverstärkers führen. Daher muss der ersten Verstärkerstufe ein Hochpass folgen
zwischen Elektrodenpaaren nur teilweise auf. Das liegt daran, dass die Kontaktstellen unter den Elektroden nicht gleich beschaffen sind (Feuchtigkeit, Salze, mechanischer Druck). Selbst zwischen identischen Elektroden entstehen Restdifferenzen der Elektrodenspannung, die deutlich über dem Pegel der Biosignale liegen. Konstrukteure lösen dieses Problem damit, dass bereits nach der Eingangsstufe, die eine relativ niedrige Verstärkung hat (Vd = 1...100), Hochpassfilter eingebaut werden, die die Elektrodenspannung weitgehend unterdrücken, s. Abb. 2.24 und Abb. 2.25. Verstärkerrauschen Ein wesentlicher Gesichtspunkt bei der Wahl der unteren Grenzfrequenz des Hochpassfilters ist das Verstärkerrauschen. Spektral setzt sich das Rauschen aus zwei wesentlichen Komponenten zusammen – dem thermischen und dem Halbleiterrauschen. Das thermische Rauschen hat eine konstante spektrale Leistungsdichte („weißes Rauschen“7) und hängt von der Bandbreite 'f, der absoluten Temperatur T und dem ohmschen Widerstand R entsprechend Gl. 2.18 ab (kB – BoltzmannKonstante). Konstruktiv lassen sich die Bandbreite und der Widerstand beeinflussen. Die Temperatur wird nur in Ausnahmefällen und in Spezialanfertigungen reduziert, z.B. durch Helium-Kühlung der Magnetometer in biomagnetischen Mess7
Eine im Mittel konstante Leistung bei allen Wellenlängen ergibt in der Summe weißes Licht
2.2 Medizinische Messverstärker
59
kammern. Aus der Rauschcharakteristik ergeben sich schaltungstechnische Konsequenzen für die Wahl der Bandbreite und der realen (ohmschen) Widerstände, die dementsprechend möglichst gering sein sollten. 4 k B T R 'f
u eff
(2.18)
Im tieffrequenten Bereich addiert sich zum thermischen Rauschen das so genannte 1/f-Rauschen. Dieses hat seine Bezeichnung aus dem Verlauf erhalten, in dem es im doppelt-logarithmischen Maßstab (Pegel vs. Frequenz) zu höheren Frequenzen hin linear abnimmt (im linearen Maßstab hyperbolisch nach 1/f). Dieses Rauschen ist insbesondere für MOSFET typisch, die in den Verstärkern – zumindest in den Eingangsstufen – häufig eingesetzt werden. Das 1/f-Rauschen besitzt sein Leis150
500 400
100
300 200
50
100 0
0
2
4
6
8
10
0 -15
-10
-5
0
5
10
15
-10
-5
0
5
10
15
-10
-5
0
5
10
15
150
500 400
100
300 200
50
100 0
0
2
4
6
8
10
0 -15 150
500 400
100
300 200
50
100 0
0
2
4
6
Frequenz / Hz
8
10
0 -15
Amplitude / PV
Abb. 2.26 Spektrum des Verstärkerrauschens (linke Spalte) und die dazugehörige Amplitudenverteilung (rechte Spalte). Die erste Zeile zeigt ein zu tiefen Frequenzen hin unbegrenztes Spektrum, bei dem eine Rauschamplitude USS = 34 PV auftritt (der Index SS steht für Spitze-Spitze, eine übliche Rauschgröße). Eine Hochpassfilterung bei 1 Hz (mittlere Zeile) führt zur Reduktion der Rauschamplitude auf 27 PV und eine Begrenzung ab 2 Hz (untere Zeile) reduziert die Amplitude auf 18 PV. Allein durch die Verschiebung der unteren Grenzfrequenz von 0 Hz auf 2 Hz konnte die Rauschspannung fast halbiert werden, allerdings auf Kosten des Informationsgehaltes des Biosignals
60
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
tungsmaximum bei Tiefstfrequenzen bis hin zu 0.001 Hz, wo sein Pegel wesentlich höher über dem des weißen Rauschens liegt und sinkt mit steigender Frequenz ab, bis es in den Dekaden zwischen 1 Hz bis 100 Hz den Pegel des weißen Rauschens erreicht (Abb. 2.26). Das Eigenrauschen eines Verstärkers ist einer der wichtigsten Betriebsparameter und gleichzeitig ein kennzeichnender Qualitätsfaktor, denn je weniger ein Verstärker rauscht, umso höher ist auch die Qualität des verstärkten Signals. Deswegen versucht man natürlich, die untere Grenzfrequenz möglichst weit zu höheren Frequenzen hin zu legen, damit das starke tieffrequente Eigenrauschen weniger ins Gewicht fällt. Dieses Bestreben ist allerdings konträr zu der Forderung, möglichst viel von relevanten Eigenschaften der Biosignale zu erhalten. Es ist schon seit längerem bekannt, dass einige Biosignale im DCBereich (Gleichspannung) sehr wichtige Merkmale besitzen, z.B. die so genannten SCP im EEG (Slow Cortical Potentials). Daher muss man im Allgemeinen darauf achten, welcher Verstärker die geforderte Qualität besitzt. Die Angaben über die Rauschspannung (Angaben in PV als absolutes Maß des Spitzen- oder Effektivwertes oder in PV2/Hz als spektrale Leistungsdichte) allein ist nicht informativ genug. Der gemessene und verwendete spektrale Bereich sollte ebenfalls als Information vorliegen. Die heutige Spitzentechnik bietet Messverstärker der Klasse „fullband“, die bei DC beginnend bis weit in den Kilohertzbereich konstante Verstärkung bieten. Die Wahl der oberen Grenzfrequenz ist dagegen unproblematisch. Sie richtet sich nach dem gewünschten Spektrum des Biosignals. Phasenfrequenzgang Beide Grenzfrequenzen des Arbeitsbereiches des Messverstärkers werden mit analogen Filtern, meistens mit Operationsverstärkern oder in der SC-Technik (Swiched Capacitors) realisiert. Es gibt grundsätzlich viele Möglichkeiten der analogen spektralen Filterung. Es stellt sich jedoch die Frage, welche Filter für Biosignale geeignet sind, insbesondere die Frage nach deren Phasenfrequenzgang ist von entscheidender Bedeutung. Die diagnostisch wichtigste Eigenschaft der Biosignale ist ihre sowohl physiologisch als auch pathologisch typische Signalform. Daher darf die Signalform durch die gesamte Messstrecke nicht verfälscht werden. Dies kann nur erreicht werden, wenn die Gruppenlaufzeit konstant ist, was zu der Forderung nach einem linearen Phasenfrequenzgang führt. Nur wenige Filter erfüllen diese Forderung. Die analogen Filter werden ausführlich im Abschn. 2.3, die digitalen im Kapitel 5.2 behandelt. Die Forderung nach linearem Phasenfrequenzgang ist im Abschn. 2.3.4 detailliert begründet.
2.2.2 Differenzverstärker Wie bereits im vorangegangenen Kapitel festgestellt, besteht die Aufgabe eines medizinischen Verstärkers darin, die von Biosignalquellen am/im Körper produ-
2.2 Medizinische Messverstärker
61
Abb. 2.27 Differenzverstärker mit FET. Die Spannungen Ug1,2 und Ud1,2 sind massebezogen, die Spannungen Ues und Uas sind als Differenzspannungen massefrei
+15v
Rd1
Rd2
10k
10k
Uas
Ud1
Ud2
T1
T2
10k
Rs
-15v Ues Ug1
Ug2
zierten Potentialdifferenzen zu verstärken, während Gleichtaktsignale unterdrückt werden sollen. Für diese Aufgabe eignet sich besonders gut der Differenzverstärker. Die einfachste Variante eines Differenzverstärkers zeigt Abb. 2.27. Dieser besteht aus zwei Transistorstufen, die am Emitter bzw. am Source miteinander verkoppelt sind. Diese Art Kopplung ist auch in der digitalen Schaltungstechnik als ECL bekannt (Emitter Coupled Logic). Der Differenzverstärker weist im Vergleich zu einer einfachen Transistorstufe mehrere Besonderheiten auf, die hier detailliert behandeln werden. Der Analyse des Messkreises und des Verstärkers steht die Begriffsklärung und Einführung von Grundbeziehungen vor. Mit Gleichtaktspannung, oder Gleichtakt, wird eine massebezogene Spannung bezeichnet, die an zwei oder mehr betrachteten Punkten der Schaltung gleich anliegt (mit identischem Pegel, bei Wechselspannungen mit gleichem zeitlichen Mittelwert, Amplitude, Frequenz und Phase). Mathematisch ist der Gleichtakt entsprechend der Gln. (2.19) der momentane arithmetische Mittelwert der betrachteten Spannungen u1(t) und u2(t). Dies gilt sowohl für den Eingang als auch für den Ausgang eines Differenzverstärkers. u G t
u1 t u 2 t 2
(2.19)
62
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
Unter einer Differenzspannung ist eine Spannung zu verstehen, die aus der Differenz von zwei massebezogenen Spannungen oder nach Verstärkung aus einer anderen Differenzspannung gebildet wird. Die mathematische Formulierung (Gl. 2.20) wurde dem betrachteten Differenzverstärker in Abb. 2.27 angepasst (Vd ist die Differenzverstärkung). u es t u g1 t u g 2 t , u as t u d1 t u d 2 t Vd ues t
(2.20)
In der praktischen Messtechnik treten beide Spannungsformen immer gemischt auf, reiner Gleichtakt und reine Differenz finden lediglich in der theoretischen Analyse Anwendung. Zunächst wird der Differenzverstärker in der Betriebsart „reine Differenzansteuerung“ analysiert, wie in Abb. 2.28. dargestellt. Ausgangspunkt der Betrachtung ist, dass der Verstärker (identische Transistoren und DrainWiderstände) und auch die Ankopplung der differentiellen Signalquelle ud ideal symmetrisch sind (Widerstände Ri1,2 gleich groß). Die Widerstände Ri1,2 sind
+15v Rd1
Rd2
10k
10k Uas
Ud1
Ud2
T1
T2
Rs
-15v Ues Ug1
Ug2 Ud
Ri1 100k 0
+ -
Abb. 2.28 Ein diskreter, mit Transistoren aufgebauter Differenzverstärker in der Betriebsart „reine Differenzansteuerung“. Die Widerstände Ri1 und Ri2 sind theoretisch nicht notwendig, praktisch jedoch müssen die Gates der Transistoren über diese Widerstände einen definierten Gleichspannungspegel erhalten. Durch die beiden Widerstände wird auch eine massesymmetrische Eingangsspannung für die echte Differenzansteuerung erzwungen (PSpice-Simulation BSV_2.5)
10k
Ri2 100k 0
2.2 Medizinische Messverstärker
63
8.0V
4.0V
0V
-4.0V 0s
0.5ms Vd
Uas
1.0ms V(Ud2)
V(Ud1)
1.5ms Zeit
2.0ms
2.5ms
3.0ms
Abb. 2.29 Die am Eingang anliegende Differenzeingangsspannung ud = ues ist massesymmetrisch (erzwungen durch identische Widerstände Ri1 und Ri2, Abb. 2.28). Besonders zu beachten ist die Lage der Ausgangsspannungen der Transistorstufen: Die massebezogenen Drainspannungen Ud1 und Ud2 haben identischen Gleichspannungspegel (zeitlicher Mittelwert), der mit dem Gleichtakt identisch ist (UG = 6.4 V). Die Wechselspannungsanteile sind von gleicher Amplitude, aber gegenphasig, d.h. mit umgekehrten Vorzeichen des Wechselanteils. Die massefreie symmetrische Ausgangsspannung Uas ergibt sich aus der Differenz der beiden massebezogenen Drainspannungen Ud1 und Ud2 und ist massesymmetrisch
schaltungstechnisch notwendig, damit die Gates der Transistoren ein definiertes Potential erhalten, am Einfachsten das Massepotential. Gleichzeitig dienen sie dazu, die Signalquelle ud symmetrisch um das Massepotential anzuordnen und auf diese Weise die für die reine Differenzaussteuerung notwendige Massesymmetrie zu erzwingen. Im Weiteren gilt für die Bezeichnung von Spannungen: ein anschlussbezogener Index (z.B. ug1) bezeichnet eine massebezogene Spannung, zwei anschlussbezogene Indizes (z.B. ugs1) bezeichnen die Differenzspannung zwischen den jeweiligen Anschlüssen. Zur Herleitung der Betriebsparameter wird der Differenzverstärker mit einem linearisierten Modell in der Kleinsignal-Ersatzschaltung simuliert, wie in Abb. 2.30 dargestellt. Startpunkt der Betrachtung ist der Signalstrom, den die Quelle du produziert. Ein Stromweg führt durch die Widerstände Ri1 und Ri2, die in Bezug auf dieses Modell dafür sorgen sollen, dass die an sich massefreie Quellspannung ud um die Masse symmetrisch ist (Achtung: Die elektrische Masse ist hier keine Signalsenke; aus Sicht der Biosignalquelle ud bildet sie lediglich eine Verbindung zwischen den Widerständen Ri1 und Ri2). Der zweite Signalweg von und zurück zu ud führt durch
64
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
0
0
Ri1
Rd1
100k
10k
0
0
Rd2 10k
Ri2 100k
Uas Ug1
Ud2
Ud1
Rgs1
+
1G
-
SUgs1
SUgs2
Us
Ug2
+
Rgs2
-
1G
Rs 10k
0
-
+
Ud
Abb. 2.30 Kleinsignalersatzschaltbild des Differenzverstärkers in der Betriebsart Differenzansteuerung. Die FET wurden für diesen Frequenzbereich ohne den Ausgangswiderstand simuliert, da dieser im Vergleich mit der Aussenbeschaltung vernachlässigt werden kann
die Widerstände Rgs1 und Rgs2. Da sie gleich groß sind, ist die (massebezogene) Spannung us an den Sources gleich Null. Daraus folgt, dass der Widerstand Rs in der Betriebsart Differenzansteuerung keine Rolle spielt, da er vom Signalstrom nicht durchflossen wird. Man kann den Knoten us bei der Differenzansteuerung als virtuelle Masse betrachten. Für die Drainspannungen gilt daher u d1
u gs1 S Rd 1 u d 2
u gs 2 S Rd 2 .
(2.21)
In Gl. 2.21 ist S die Steilheit (ursprünglich aus der Röhrentechnik), hier die Übertragung eines FETs (in mA/V). Sie gibt an, wie stark eine Eingangsspannung den Drainstrom beeinflusst.
Da die Eingangsspannungen der Transistorstufen um die Masse symmetrisch sind, gilt
2.2 Medizinische Messverstärker
ues
65
ud ,ug2 2
u g1 u g 2 u g1
ud 2
(2.22)
und bei vollkommener Symmetrie gilt für die Ausgangsspannung u as
ud1 ud 2
S Rd u es ,
(2.23)
woraus sich die Differenzverstärkung zu Vd
S Rd
(2.24)
abschätzen lässt. Zu beachten ist, dass (2.21) allein über die Wechselspannung an den Drains Auskunft gibt. Die Höhe der Gleichtaktspannung bzw. des DC-Anteils wird hier nicht berücksichtigt (s. Abb. 2.29.).
+15V
Rd1
Rd2 10k
10k Ud1
Uas
Ud2 T2
T1
Rs
10k -15V
+
Abb. 2.31 Diskreter Differenzverstärker in der Betriebsart Gleichtaktansteuerung. Die Widerstände RG1 und RG2 sind zur Festlegung der Gleichspannung für die Gates der FET notwendig. Der Widerstand Ri der Gleichtaktquelle Ug simuliert reale Verhältnisse durch Netzeinstreuung
Rg1 1G
0
Ug
Ri
Rg2
10G
1G
0
0
66
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
Genauso wichtig, wie die gewollte Verstärkung der Differenzspannung am Eingang des Differenzverstärkers, ist seine Fähigkeit, die ungewollte Gleichtaktspannung zu ignorieren. Die simulierte Schaltung ist in Abb. 2.31 dargestellt. Auf Grund der völligen Symmetrie kann man virtuell den Source-Widerstand in zwei gleiche, parallel liegende, doppelt so große Widerstände aufteilen, so dass zwei faktisch unabhängige, identische Stufen entstehen (Abb. 2.31, Abb. 2.32). Daher reicht es für die Zwecke der Berechnung der Gleichtaktverstärkung aus, nur eine der beiden Stufen zu betrachten. Aus der Maschengleichung des Eingangs und des Source-Widerstandes Rs folgt, dass die Sourcespannung in etwa gleich der Gatespannung ist (Sourcefolger, Spannungsfolger-Prinzip), entsprechend der Gln. (2.25). 0
0
0
0
Rd1 10k
Rg1 1G
Rd2
Rg2
10k
1G
Uas Ug1
Ud2
Ud1 +
Rgs1 1G
SUgs1 SUgs2
-
+
Rgs2
-
1G
Rs1
Rs2
20k
20k 0
Ug2
0 Ug + Ri 10G
0
Abb. 2.32 Linearisiertes Ersatzschaltbild des Differenzverstärkers in der Betriebsart Gleichtaktansteuerung. Da der Verstärker vollkommen symmetrisch ist, kann man den ursprünglichen Sourcewiderstand Rs in zwei doppelt so große, parallel liegende Widerstände Rs1 und Rs2 aufteilen, ohne dass sich in der Schaltung etwas ändert
2.2 Medizinische Messverstärker
u g1
67
u gs1 1 SRs1 | u gs1 SRs1
u gs1 u s
(2.25)
Für die Drainspannung gilt ud1
Su gs1 Rd 1 ,
(2.26)
so dass nach einigen Umstellungen von (2.25) und (2.26) für die Spannungsverstärkung am Drain gilt Vg |
Rd . 2 Rs
(2.27)
Bei einem ideal symmetrischen Verstärker sind beide Stufen völlig identisch, so dass die Ausgangs-Differenzspannung Uas unabhängig von der Eingangsgleichtaktspannung Null wäre. +15v Rd1
Rd2 10k
10k
Ud2
Ud1
T1
T2
Ug1
Ug2
Rs 10k -15v Rd 10k + -
Ud
Abb. 2.33 Idealer Differenzverstärker mit gemisc hter (differentieller und gleichtaktmäßiger) Ansteuerung. Die Ausgangs-differenzspannung ist Null, die massebezogenen Drainspannungen zeigen einen starken Gleichtaktanteil (s. Abb. 2.34). (PSpice BSV_2.20)
Rg1
Rg2 10k
10 Hz, 10 mV
10k
+
Ug 50 Hz, 0.1V
-
0
68
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
In der praktischen Messtechnik treten beide genannten Ansteuerungsmodi immer gemischt auf. Auch die Schaltungstechnik zeigt, dass es keinen ideal symmetrischen Differenzverstärker gibt. Im Folgenden soll der Differenzverstärker in gemischten Ansteuerungsmodi, mit unsymmetrischer Einkopplung von Signalen und Störungen betrachtet werden. Ein symmetrischer Differenzverstärker mit gemischter Ansteuerung und symmetrischem Gleichtakt am Eingang ist in Abb. 2.33 dargestellt. Unter diesen idealen Bedingungen ist die Ausgangs-Differenzspannung erwartungsgemäß Null. Die Gleichtaktverstärkung beträgt in etwa eins, so dass die vom Eingang kommende Gleichtaktspannung etwa in gleicher Größe in der massebezogenen Drainspannung erscheint (Abb. 2.34). Zur wirksamen Unterdrückung des Gleichtakts im massebezogenen Ausgang müsste der Sourcewiderstand deutlich (dynamisch, mit einer Gleichstromquelle) vergrößert werden. Für die weiteren Betrachtungen wird von einem ideal symmetrischen Differenzverstärker ausgegangen (Abb. 2.35). Hierbei bilden die Auswirkungen unsymmetrisch eingekoppelter Gleichtaktspannungen, die unter realen Bedingungen immer vorhanden sind, die Grundlage aller Überlegungen. Auf den Messkreis wirkt von außen – meistens kapazitiv eingekoppelt – ihrem Entstehungsmechanismus nach eine Gleichtaktspannung, hier auf zwei Punkte der Messanordnung. Die Widerstände Rg1, 2,3,4 simulieren reale Impedanzverhältnisse bei Ankopplung über Elektroden, die Widerstände Ri1, 2 den Innenwiderstand der Biosignalquelle. Zu beach-
6.6V
6.5V
6.4V
6.3V
6.2V 0s
20ms
40ms
60ms
80ms
100ms 120ms 140ms 160ms 180ms 200ms Zeit
Abb. 2.34 Zeitverlauf der Spannung Ud2 am Drain von T2. Die schnellere Gleichtaktspannung (50 Hz) behält in etwa ihre Amplitude entsprechend der Gleichtaktverstärkung nach (2.27). Die langsamere Differenzspannung (10 Hz) wird in etwa um den Faktor 10 verstärkt. Dieses Bild zeigt, dass selbst ein ideal symmetrischer Differenzverstärker die massebezogene Gleichtaktspannung vom Eingang an seinem Ausgang nicht unterdrücken kann
2.2 Medizinische Messverstärker
69 +15v
Abb. 2.35 Symmetrischer Differenzverstärker mit gemischter Ansteuerung (Differenz und Gleichtakt) und unsymmetrischer Einkopplung des Gleichtakts (PSpice-Simulation BSV_2.21)
Rd1 10k
Rd2 10k
Ud2
Ud1 T1
T2
Ug1
Ug2
Rs
-15v Ri1
Ri2
ud
Rg4 10k
+ -
Rg3 10k
30k
1k
0
1k
Rg1 5k
0 Rg2 7k
ug
+ 0
200mV
100mV
0V
-100mV
-200mV 0s
20ms
40ms
60ms
80ms
100ms 120ms 140ms 160ms 180ms 200ms Zeit
Abb. 2.36 Zeitverlauf der Ausgangs-Differenzspannung eines Differenzverstärkers mit unsymmetrischer Einkopplung einer Gleichtaktstörung am Eingang. Die durch die Unsymmetrie verursachte Störung im Ausgangssignal beträgt 20 mV, während die Gleichtaktspannung am Eingang 100 mV stark ist. Der Rest der Gleichtaktspannung am Eingang wird durch die Symmetrie weiterhin eliminiert
70
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
ten ist, dass der Widerstand Rg2 um 40% größer ist als der Widerstand Rg1. Durch diese Ungleichheit wird die Gleichtaktspannung ug auf die Eingänge unsymmetrisch eingekoppelt, so dass zwischen den Eingängen zusätzlich zu ud eine Differenzspannung entsteht, als würde sie parallel zur Signalquelle ud liegen. Diese störende Differenzspannung kann mit Schaltungsmaßnahmen nicht mehr eliminiert werden (aber durch spektrale Filter, s. Abschn. über analoge und digitale Filter). Der Signalverlauf der Ausgangs-Differenzspannung ist in Abb. 2.36 dargestellt. Die Ausgangsspannung enthält neben dem gewünschten Biosignal auch die ver+15v
Rd1 5k
Rd2 10k
Ud2
Ud1 T1
T2
Ug1
Ug2
T3
Rs 30k
0 Ri1
-15v Ri2
ud
Rg4 10k
+ -
Rg3 10k
Rg5 100k
1k
0
0
1k
Rg1 5k
Rg2 5k ug + 0
Abb. 2.37 Differenzverstärker mit einer Konstantstromquelle an Stelle des Sourcewiderstandes. Auf die Betriebsparameter wirkt die Stromquelle wie ein sehr hoher dynamischer Widerstand, der mit einem realen Widerstand nicht realisierbar wäre (PSpice-Simulation BSV_2.22)
2.2 Medizinische Messverstärker
71
stärkte Differenzspannung der Störung, die durch Unsymmetrie am Eingang aus der ursprünglichen Gleichtaktspannung entstanden ist. Der Anteil der Gleichtaktspannung, der weiterhin als Gleichtakt erhalten bleibt, wird durch die Verstärkersymmetrie unterdrückt und in der Ausgangs-Differenzspannung eliminiert. In der praktischen Messtechnik muss man auch damit rechnen, dass reale Differenzverstärker nie ideal symmetrisch sind, selbst in der integrierten Elektronik ist das Ideal nicht erreichbar. Allerdings verursacht die schaltungstechnische Unsymmetrie weniger Störspannung als die Unsymmetrie am Eingang bei der Einkopplung der Gleichtaktspannung (Übung 2.7). Neben der möglichst guten Verstärkersymmetrie ist eine weitere Schaltungsmaßnahme notwendig, um den Einfluss des Gleichtakts auf die massebezogenen Drainspannungen zu minimieren. Entsprechend Gl. 2.27 wäre es notwendig, den Sourcewiderstand mit einem sehr großen Wert zu versehen, etwa in der Größenordnung von 1…10 M:. Durch den Sourcewiderstand fließt jedoch auch die Summe aus beiden Ruheströmen der Transistoren, die im Normalfall etwa im Bereich von 0.1…1 mA liegt. Dies würde bedeuten, dass die negative Versorgungsspannung zum Erreichen des notwendigen Ruhestromes im Bereich von Ub- = RS.(IS1+IS2) = 100 V bis 10 kV liegen müsste. Dies ist schaltungstechnisch natürlich nicht machbar. Andererseits würde ein großer realer Widerstand das Rauschen unnötig vergrößern. Eine Lösung bietet die Konstantstromquelle: Diese hat einen sehr hohen Innenwiderstand, der faktisch dem Transistorwiderstand Rds gleich ist, wobei zu ihrer Dimensionierung nur relativ niedrige Widerstände notwendig sind (Abb. 2.37). Der Differenzverstärker ist die Grundstruktur, mit der integrierte Operationsverstärker und weitere spezialisierte Schaltungen (Instrumentationsverstärker, Isolationsverstärker) aufgebaut werden. Natürlich benötigen die integrierten Verstärker auch noch andere elektronischen Funktionsstufen, wie Pegelverschiebung, Rückkopplung, Stromspiegel, symmetrische Endstufen, Frequenzgangkompensation, Temperaturkompensation und weitere. Diese Stufen gehören zu den Grundlagen der analogen Schaltungstechnik, so dass bei Bedarf die entsprechende Fachliteratur zu empfehlen ist. Im Weiteren werden Schaltungen behandelt, die in der medizinischen Messtechnik spezifische Anforderungen erfüllen müssen.
2.2.3 Operationsverstärker, Instrumentationsverstärker Der Differenzverstärker ist als Funktionseinheit zur Erfassung von Biosignalen im gestörten Umfeld besonders gut geeignet. Allerdings ist ein diskreter Aufbau – dazu noch eines mehrstufigen Verstärkers – eine konstruktive Herausforderung, die heute nur noch bei speziellen Konstruktionen Sinn macht und dem Forschungsbereich vorbehalten bleibt. In der konventionellen analogen Schaltungstechnik macht man sich eine in der
72
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
Ub+ + ud
V+
+ -
ua
V-
UbAbb. 2.38 Symbol eines OV und prinzipielle Funktionsweise: Die Ausgangsspannung ist massebezogen, ua = Vd*ud. Im Idealfall ist Vd unendlich groß, in der Realität größer als 105. Die Differenzspannung ud am Eingang eines Verstärkers ergibt sich meistens aus der Differenz zweier massebezogenen Spannungen
Regelungstechnik gut bekannte Eigenschaft gegengekoppelter Systeme zunutze: Ist die Vorwärtsverstärkung eines offenen Systems sehr hoch (>100.000), so definieren sich die Eigenschaften des gegengekoppelten Systems allein aus der Rückkopplung. Das bringt der Dimensionierung und Realisierung enorme Vorteile und Erleichterung im Vergleich mit diskreten Schaltungen: Man muss sich nicht mehr um die (nichtlinearen) Parameter oder Auswahl diskreter aktiver Bauelemente kümmern und man kann die gewünschte Funktion mathematisch exakt formulieren und über die Rückkopplung umsetzen. Ein solches System, das einerseits nur die gewünschte Potentialdifferenz verstärkt, andererseits hinreichend hohe Verstärkung besitzt, ist der Operationsverstärker (OV). Symbolisch ist der OV mit einer angeschlossenen Differentialquelle in Abb. 2.38 dargestellt. In den weiteren Betrachtungen wird zunächst ein idealer OV betrachtet, der eine unendlich hohe Verstärkung besitzt. Würde der OV allein und ohne zusätzliche Beschaltung zur Verstärkung der gewünschten Differenzspannung ud verwendet, so erreicht er sofort (beim realen OV bei einigen wenigen Mikrovolt, d.h. bereits durch eigenes Rauschen) die Begrenzung an der Spannungsversorgung Ub+,-. Das ist nicht das Ziel, man möchte die Eingangs-Differenzspannung mit einem definierten und bekannten Faktor verstärken. Deswegen wird eine Gegenkopplung eingeführt, um im Sinne der oben genannten Eigenschaft der Gegenkopplung einen definierten Verstärkungspegel zu erreichen. Dieser Ansatz ist in Abb. 2.39 dargestellt. Bei der Analyse und Dimensionierung ist es notwendig, sich den folgenden
2.2 Medizinische Messverstärker
0
73
Ub+
u1 +
-
+ ua
V+ V-
0 +
-
R1 1k
u2
Ub-
R3 1k Abb. 2.39 OV mit Gegenkopplung zur definierten Verstärkung der Differenz zwischen den massebezogenen Spannungen u1 und u2. Die Differenzverstärkung des Systems (OV) ist theoretisch unendlich groß, so dass die realisierte Verstärkung sich allein aus der Gegenkopplung zu (R3+R1)/R1 ergibt (Reziprokwert des Gegenkopplungsfaktors), s. PSpice-Simulation BSV_2.23
Grundsatz zu merken: In einer Schaltung mit einem idealen OV und einer Gegenkopplung (Verbindung vom Ausgang des OV zum invertierenden Eingang) ist die Differenzspannung zwischen den beiden OV-Eingängen gleich Null. Daraus könnte man fälschlicherweise ableiten, dass auch die Ausgangsspannung des OV gleich Null sein müsste. Hier muss man kausal vorgehen: Die EingangsDifferenzspannung des OV (E+-E-) wird erst nach der Einstellung des OVAusgangs auf diese Bedingung zu Null. Ausgehend von diesem Analyseprinzip kann man für die Ausgangsspannung der Schaltung nach Abb. 2.39. schreiben ud
u u
0 u1
u2
R1 u a u 2 , R1 R3
(2.28)
nach Auflösung gilt für die Ausgangsspannung ua
§ R3 · R ¸¸u1 3 u 2 . ¨¨1 R R1 1 ¹ ©
(2.29)
Nun besitzt die Schaltung für beide Eingangsspannungen eine definierte Verstärkung. Allerdings bilden die Spannungen keine echte Differenz, sondern sind mit unterschiedlichen Gewichten behaftet. Damit bleibt das eigentliche Problem – die Gleichtaktspannung am Eingang zu eliminieren – ungelöst. Deswegen muss auch
74
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
0 R4 1k
0
Ub+
u1 +
-
+ V+
R2 1k
ua
V-
0 -
+
-
u2
R1 1k Ub-
R3 1k
Abb. 2.40 Verstärker der Spannungsdifferenz zwischen u1 und u2, wobei die Wichtung beider Spannungen über die beiden Spannungsteiler R2, 4 und R1, 3 unabhängig voneinander einstellbar ist (PSpice-Simulation BSV_2.24)
die Eingangsspannung u1 am nichtinvertierenden Eingang E+ einen Freiheitsgrad erhalten, wie in Abb. 2.40 dargestellt. Für die Ausgangsspannung nach Abb. 2.40 gilt die folgende Beziehung: u
u u1
R4 R2 R4
u 2 u a u 2
R1 . R1 R3
(2.30)
Nach Umstellung von 2.30 erhält man für die Ausgangsspannung ua
u1
R4 R1 R3 R u2 3 . R1 R2 R4 R1
(2.31)
Entsprechend der Gln. (2.31) sind es zwei Freiheitsgrade, die jeweils Bezug auf die Eingangsspannungen haben. Diese beiden Freiheitsgrade sind notwendig um zu der Festlegung zu gelangen, dass die Ausgangsspannung ua allein von der Differenz der beiden Eingangsspannungen abhängen soll, nicht aber von deren Gleichtakt. Das heißt, es ergibt sich somit aus der Bedingung für den Gleichtakt:
2.2 Medizinische Messverstärker
75
u1
u2 ua
0,
(2.32)
nach Einsetzen von (2.32) in (2.31) R1 R3
R2 . R4
(2.33)
Aus schaltungstechnischen Gründen (Offsetkompensation) werden die Widerstände so gewählt, dass R1=R2 und R3=R4. Damit gilt für die Ausgangsspannung ua
u1 u 2 R3 u1 u 2 R4 . R1
(2.34)
R2
Mit (2.34) wurde erreicht, dass die Ausgangsspannung am OV allein von der Differenz der beiden massebezogenen Eingangsspannungen abhängt, wobei diese Differenz mit einem definierten Faktor verstärkt wird. Es schließt sich die Prüfung an, ob die Forderung nach einem hinreichenden Eingangswiderstand erfüllt ist (s. Abschn. 2.2.1.5 Eingangswiderstände medizinischer Messverstärker). Ausgehend von der Schaltung in Abb. 2.40 lassen sich die Eingangswiderstände wie folgt abschätzen: Aus Sicht der Differenzspannung am Eingang ist der DifferenzeinUb+ us 0 +
-
+ V+
ua
V-
Ub-
Abb. 2.41 Spannungsfolger mit OV. Da der Au sgang die Eingangsdifferenzspannung des OV auf Null einstellt, ist die Ausgangsspannung ua gleich der Eingangsspannung us. Der Eingangswiderstand ist theoretisch unendlich groß, praktisch gleich dem Eingangswiderstand des OV. Der Ausgangswiderstand ist idealerweise Null, praktisch in der Größenordnung von 100 :. Daher wird diese Stufe auch als Impedanzwandler bezeichnet
76
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
gangswiderstand unter der Annahme eines idealen OV gleich der Summe der beiden Widerstände R1 und R2. Dabei ist immer davon auszugehen, dass die Eingangsdifferenzspannung am OV Null ist, also liegen die beiden Eingänge am selben Potential und zwischen den beiden Knoten fließt kein Strom. Vd o f ued
0 Re
R1 R2
(2.35)
Da die realen Widerstände in der Größenordnung von 100 k: liegen, ist dies für die medizinische Messtechnik zu wenig. Daher ist es notwendig, den Eingangswiderstand deutlich zu erhöhen. Die analoge Schaltungstechnik bietet hierfür eine zunächst sehr einfache Lösung: den Impedanzwandler mit einem OV, wie in Abb. 2.41 dargestellt. Der Impedanzwandler lässt sich jedem Eingang des Spannungsdifferenzverstärkers vorschalten, so dass der Eingangswiderstand auf ein akzeptables Niveau angehoben wird, wie in Abb. 2.42 dargestellt. Im Weiteren wird die Gleichtaktunterdrückung, CMRR, für den Fall eines idealen OV betrachtet. Die Schaltung in Abb. 2.42 ist ein mehrstufiger Verstärker, wobei die beiden Impedanzwandler die erste (symmetrische) Stufe, der SpannungsdiffeUb+ Rq1 + V+
200k
0 V-
R4 1k
U3A Rq3
Ub+
Ub-
50k
+ V+
R2 1k
-
+
ug
+ -
0
ud
ua
VUb+
R1 1k Ub-
VR3 1k
Rq2 +
V+
200k Ub-
Abb. 2.42 Spannungsdifferenzverstärker mit Impedanzwandlern am Eingang zur Sicherung eines hohen Eingangswiderstandes. Am Eingang werden die Gleichtakt- und Differenzspannungsquellen simuliert
2.2 Medizinische Messverstärker
77
renzverstärker die zweite Stufe bilden. Es lässt sich zeigen, dass in einem mehrstufigen Verstärker mehrere wichtige Eigenschaften (Rauschen, Drift), und so auch die Gleichtaktunterdrückung, durch die erste Stufe maßgeblich bestimmt werden. Da die erste Stufe in Abb. 2.42 Impedanzwandler enthält, die gleichzeitig als Spannungsfolger funktionieren, wird vom Eingang sowohl die Gleichtakt- als auch die Differenzspannung auf den massefreien Differenzausgang zwischen den OV-Ausgängen durchgereicht. Die Gleichtakt- und die Differenzverstärkung der ersten Stufe sind gleich eins, folglich ist das CMRR ebenfalls eins (Gl. 2.36). Hinsichtlich der im Kapitel 2.2.1.6 erhobenen Forderungen ist dies völlig unzureichend. CMRR1
Vd 1 V g1
1
(2.36)
Daher ist es notwendig, bereits in der ersten Stufe eine hinreichend hohe Differenzverstärkung zu realisieren, denn die Gleichtaktverstärkung bleibt in jedem Falle gleich Eins. Am einfachsten wird die Differenzverstärkung mit Hilfe von Widerständen erreicht, die eine Querverbindung zwischen den beiden OVAusgängen bilden und gleichzeitig Bestandteile der Gegenkopplungen sind, wie in Abb. 2.43 dargestellt. Die Differenzverstärkung lässt sich dann an Hand des Querstromes zwischen den beiden OV-Ausgängen mit Hilfe der Gln. (2.37) und (2.38) zu (2.39) berechnen. iQ u ad
u R6 R6
u IC1 u IC 2 R6
ud R6
iQ R5 R6 R7 u d
u aIC1 u aIC 2 Vd
1
(2.37)
R5 R6 R7 R6
R5 R7 R6
(2.38) (2.39)
In Gl. 2.37 bis 2.39 ist u+ICi die Spannung am nichtinvertierenden Eingang des OVs i, uaICi die Spannung am Ausgang des OVs i.
Da die erste Stufe nach wie vor nur die Differenzspannung verstärken soll, darf in der massefreien Ausgangsspannung uad kein durch Unsymmetrie verursachter Anteil der Gleichtaktspannung erscheinen. Diese Forderung führt zur Widerstandsdimensionierung R5 = R7. Aus Gl. (2.39) ergibt sich direkt der Wert für das CMRR der ersten Stufe zu CMRR1
Vd 1 V g1
1 2
R5 R |2 5 , R6 R6
(2.40)
78
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
der nur unter der Voraussetzung eines idealen OV gilt. In der Realität wird dieser Wert in Abhängigkeit vom CMRR der eingesetzten OV und der Genauigkeit der Widerstände geringer ausfallen. Die zweite Stufe des Instrumentationsverstärkers besitzt theoretisch ein unendliches CMRR, da hier die Gleichtaktverstärkung per Definition Null beträgt. Daher werden die Stufen einzeln simuliert betrachtet (BSV_2.27). Die gewünschte Differenzspannung ud hat am Verstärkereingang (Abb. 2.43) eine Amplitude von 0.8 mV (10 Hz), die störende Gleichtaktspannung ug eine Amplitude von 10 V (50 Hz), so dass das SNR (2.25) am Eingang der ersten Stufe -82 dB beträgt. Die Gleichtaktverstärkung der ersten Stufe ist Vg1 = 1, die Differenzverstärkung beträgt nach (2.39) Vd1 = 101, so dass rechnerisch ein CMRR1 = 40 dB vorliegt. Bei einer Eingangsdifferenzspannung von 0.8 mV (die Differenzspannung ud = 1 mV wird am Spannungsteiler der Quellenwiderstände Rq1,2,3 reduziert) und einer Ausgangsdifferenzspannung der ersten Stufe von 80 mV, bei gleich bleibender Gleichtaktspannung von 10 V, wird demnach am Ausgang der ersten Stufe ein SNR = -42 dB erreicht. Am Ausgang der zweiten Stufe (massebezogene Spannung ua) wird bei 10 Hz (gewünschtes Signal) ein Pegel von 9,1 V, bei 50 Hz (Störung) ein Pegel von 32 mV gemessen, was einem SNR von 49 dB entspricht. Die Differenz des SNR zwischen dem Ausgang und dem Eingang der zweiten Stufe beträgt demnach 91 dB. Diese Differenz ist als CMRR2 der Ub+ Rq1 + V+
200k
IC1 V-
-
0
OS2 OS1
R2 1k
R4 100k
R5 Rq3
R8
50k
+
ug + -
50k ud + -
0
V+
R6 1k
R9
IC3 -
50k
Ub-
R7
V-
OS2
ua
OS1
Ub-
50k
VRq2
Ub+
Ub- 50k
IC2 V+ +
OS1 OS2
R1 1k
R3 100k
200k Ub+
Abb. 2.43 In der ersten Stufe des Verstärkers wurde zusätzlich zu ihrer Funktion als Impedanzwandler mit Hilfe der Widerstände R5, 6,7 Differenzverstärkung realisiert. Die Widerstände R8, 9 sind funktionell nicht notwendig, jedoch für die Offsetreduktion in bipolarer Technologie sinnvoll. Diese Schaltung wird Instrumentationsverstärker genannt. (PSpice-Simulation BSV_2.27)
2.2 Medizinische Messverstärker
79
zweiten Stufe anzurechnen. Dies ist kein besonders guter Wert, aber im Normalfall akzeptabel. Zusammen mit der ersten Stufe wird insgesamt ein theoretisches CMRR von 131 dB erreicht. Das ist auch für die medizinische Messtechnik ein sehr guter Wert – natürlich unter den idealen Bedingungen der PSpice-Simulation. In der Praxis wird man mit realen Bauelementen dieser Schaltung jedoch höchstens 100 dB erreichen. Die bisherigen Überlegungen geschahen auf der Grundlage idealer OVs oder zumindest ideale Simulationsbedingungen zu haben. Diese Annahmen sind von der messtechnischen Realität weit entfernt. Im Folgenden werden realistische Betriebsparameter als Basis dienen. Die Differenzverstärkung Vd kommt mit ihrem realen Pegel von meistens mehr als Vd = 106 dem Ideal einer unendlichen Verstärkung für die realen Verhältnisse sehr gut heran. Allerdings ist dieser Wert in einem nur sehr begrenzten Spektralbereich haltbar, bereits am oberen Ende des Biosignalspektrums (1 kHz bis 10 kHz) sinkt die Verstärkung der meisten OVs und Instrumentationsverstärker dramatisch ab (Abb. 2.44). Dabei gilt der aus der allgemeinen Elektronik bekannte Effekt: Die Bandbreite eines gegengekoppelten Verstärkers nimmt mit der Stärke der Gegenkopplung zu. Geht man jedoch davon aus, dass in der medizinischen Messtechnik Verstärkungen von mindestens 1000 benötigt werden, so ist der Spielraum zwischen Verstärkung und Bandbreite gering. Entsprechend der Grafik in Abb. 2.44 würde bei einer Differenzverstärkung von Vd = 1000 eine Bandbreite von
100
1.0
10m
100u
1.0u 10mHz
1.0Hz
100Hz
Frequenz
10KHz
1.0MHz
100MHz
Abb. 2.44 Verlauf der Differenzverstärkung eines OV in Abhängigkeit von der Frequenz und von der durch die Gegenkopplung eingestellte Verstärkung als Parameter: Von oben nach unten Vd = 1000, 101, 11, 2 (PSpice-Simulation BSV_2.28)
80
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
0.001 Hz bis 1 kHz erreicht, womit gerade noch die Minimalforderung für das EKG erfüllt wäre. Man muss allerdings berücksichtigen, dass hier der betagte OV vom Typ 741 analysiert wurde (Studentenversion PSpice-Simulation BSV_2.28). Natürlich gibt es heute wesentlich bessere Bauelemente, allerdings wird sich an der Bandbreite nichts Wesentliches ändern. Die Gleichtaktunterdrückung CMRR variiert zwischen 60 dB bis 120 dB, wobei für die medizinische Messtechnik Bauelemente mit dem höchsten CMRR zu wählen sind. Instrumentationsverstärker sollten ein CMRR von 120 dB erreichen. Beim Entwurf und Konstruktion sollte man beachten, dass das CMRR auch bei sehr guten OV wegen des Abfalls der Differenzverstärkung mit der Frequenz relativ schnell abnimmt (Abb. 2.45). Das liegt vor allem an den unvermeidbaren parasitären Kapazitäten, die mit steigender Frequenz die für hohes Vd und CMRR notwendigen großen Widerstände durch ihre abnehmende Impedanz herabsetzen. Bei relativ hohen Frequenzen der Gleichtaktstörung (z.B. 100 kHz von DC-DCWandlern) erreicht das CMRR bereits sehr niedrige Werte (weniger als 40 dB). Das kann dazu führen, dass in einem schlecht konstruierten Messverstärker, oder einem Messkreis mit hochfrequenten Störungen aus der Umgebung, die höheren Frequenzen zu einem viel größeren Problem werden, als die sonst üblichen Netzstörungen. Der Verlauf der Gleichtaktverstärkung des OVs aus Abb. 2.44 ist in Abhängigkeit von der Frequenz in Abb. 2.45. dargestellt. Es lässt sich feststellen, dass unabhängig von der Differenzverstärkung der Abfall bei etwa 10 Hz beginnt, jedoch mit einem geringeren Anstieg als bei der Differenzverstärkung.
10K
100
1.0
10m 10mHz
1.0Hz
100Hz
Frequenz
10KHz
1.0MHz
100MHz
Abb. 2.45 Verlauf der Gleichtaktverstärkung Vg in Abhängigkeit von der Frequenz und der Differenzverstärkung Vd als Parameter desselben OV, dessen Differenzverstärkung in Abb. 2.43 dargestellt ist. Von oben nach unten beträgt Vd = 2, 11, 101, 1000
2.2 Medizinische Messverstärker
81
Beim Vergleich der frequenzabhängigen Verläufe in den Abb. 2.44 und 2.45 stellt man fest, dass während der Abfall der Gleichtaktverstärkung bereits bei 1 Hz einsetzt, so fängt der Abfall der Differenzverstärkung bei Vd = 1000 erst bei etwa 1 kHz an, dafür ist er aber wesentlich steiler. Daraus folgt, dass das CMRR als Quotient aus der Differenz- und Gleichtaktverstärkung im Bereich zwischen etwa 1 Hz und 1 kHz sein Maximum erreicht, um dann ab dem Knick der Differenzverstärkung rapide zu sinken. Dieses Verhalten ist für den Frequenzbereich der zu erwartenden Gleichtaktstörungen (Netze, Röhrenmonitore) günstig, aber schlecht bei hochfrequenten Störungen ab etwa 10 kHz.
2.2.4 Isolationsverstärker Der Isolationsverstärker ist ein besonderer Instrumentationsverstärker, dessen Eingangs- und Ausgangskreis sowie ihre Stromversorgungen voneinander galvanisch getrennt sind, wie in Abb. 2.46 dargestellt. Die galvanische Trennung im Isolationsverstärker verkompliziert die Schaltungstechnik enorm, da sowohl für die Stromversorgung, als auch für die Signalübertragung modulierte Wechselspannungen notwendig sind (auch optische Übertra-
Messverstärkerkreis
Patientenkreis E+
Biosignal
Demodulator
Modulator
C Netz
Netz
EStromversorgung
Schaltnetzteil 100kHz
CTrenn
Stromversorgung
Gleichrichter Regler
galvanische Trennung Abb.2.46 Galvanische Trennung in einem Isolationsverstärker. Sowohl der Signalweg als auch die Stromversorgung des Patiententeils sind vom Netz galvanisch getrennt. CNetz stellt die Streukapazität zwischen den Wicklungen des Netztransformators, CTrenn zwischen den Wicklungen des Transformators im Schaltnetzteil dar
82
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
gung ist möglich). Die Analyse der Schaltung in Abb. 2.46 führt zur Fragestellung, wozu die zusätzliche transformatorische Kopplung zur galvanischen Trennung im Isolationsverstärker notwendig ist, da der Verstärker bereits mittels des Netztransformators vom Netz galvanisch getrennt ist. Die Messsituation ist in Abb. 2.47 dargestellt. Aus Sicht der medizinischen Messtechnik bringt die galvanische Trennung im Isolationsverstärker keine Verbesserung der Messsituation. Im Gegenteil, durch die fehlende Erdverbindung kann die Netzstörung sogar noch größer werden. Zwischen der Primär- und der Sekundärwicklung des Netztransformators besteht eine relativ große Streukapazität CTrenn (große gemeinsame Fläche zwischen Primärund Sekundärwicklung), die eine wechselstrommäßige Verbindung zwischen dem Netz und dem Messverstärker darstellt. Der Strom vom Netz kann über die Streukapazität der Wicklungen und den Patienten zur Erde abfließen und ist daher potentiell gefährlich (im Kardiobereich bereits 10 PA als Grenze). Da das Schaltnetzteil mit einer Frequenz um 100 kHz arbeitet, sind die Abmessungen des Schaltnetzteil-Transformators um Größenordnungen geringer als die des Netztransformators. Folglich ist auch seine Streukapazität wesentlich geringer und schließlich auch der dadurch verursachte Patientenstrom. Deswegen hat die galvanische Trennung im Isolationsverstärker insbesondere sicherheitstechnische Relevanz, für die Messtechnik stellt sie in der Regel keine Verbesserung dar. Bezieht man in diese methodischen Überlegungen die Frage der zusätzlichen Kosten für
L1
CNetz CTrenn
U
störr st
N PE
Abb. 2.47 Galvanische Trennung und ihre Auswirkung auf den Messkreis: Der Patient ist vom Netz und von der Erde galvanisch getrennt. Die kapazitiv eingekoppelten Störungen vom Netz sind nach wie vor vorhanden. Die wechselstrommäßige Verbindung zum Netz über CNetz wurde durch die hochfrequente Energieübertragung und demzufolge geringeren Transformatorabmessungen in der galvanischen Trennung des Isolationsverstärkers auf CTrenn reduziert
2.2 Medizinische Messverstärker
83
den Isolationsverstärker ein, die ein Mehrfaches der konventionellen Instrumentationsverstärker betragen, so könnte sich ein guter Trenntransformator an Stelle des üblichen Netztransformators als die günstigere Variante erweisen.
2.2.5 Guardingtechnik Die aus der Umgebung auf den Messkreis einwirkenden Störungen lassen sich zum Teil mit Hilfe der Abschirmung von Signalleitungen (geschirmte Messkabel) reduzieren. Vor allem niederfrequente kapazitiv eingekoppelte und hochfrequente elektromagnetisch eingekoppelte Felder werden durch die Schirmung der Signalleitungen wirksam unterdrückt. Auf diese Weise wird aber nur die auf die Signalleitung, jedoch nicht die auf den Patienten wirkende Störung reduziert. Da die Messkabel in der Regel um einen Meter lang sind und die durch die Schirmung eingeschlossene Fläche über der Signalleitung relativ groß ist, bildet die Schirmung zusammen mit dem Innenleiter eine Kapazität in der Größenordnung von bis zu 100 pF. Diese Kapazität liegt parallel zum Gleichtakteingangswiderstand,
0 RH
LH
1k
Uekg
0
C1 100
Rg+ 100MEG
linkeHand
+ -
Ri
Rel 2k
Rd 1MEG
rechteHand
Rg-
Rer 2k
100MEG C2 100 0
0
0
Abb. 2.48 Einkanalige Messanordnung zur EKG-Erfassung. Die Anschlusskabel sind geschirmt und die Schirmung ist geerdet (gestrichelt um die Signalleitungen dargestellt). Die Schirmung bildet mit den Signalleitungen die Kapazitäten C1, 2, die parallel zum Eingangswiderstand liegen und diesen herabsetzen (PSpice-Simulation BSV_2.31)
84
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
+15v + Rq1
IC1
100k Rg1 100k
V+ OS2 V-
OS1
-
Ra 10k -15v Rm1 10k Ro1 50k
ug + -
Rq3
glt
Rc 1k
50k Ro2 50k
0
ud + -
Rm2 10k -15v Rb 10k
VIC2 V+
OS1 OS2
+ Rq2 100k
Rg2
+15v +15v
100k
+ OS2 OS1
V+ IC3 V-
-15v
Abb. 2.49 Guardingtechnik mit Gleichtaktsignal. Widerstände Rg1, 2 simulieren die Impedanz der Kabelkapazität. Das Gleichtaktsignal wird schaltungstechnisch mit Rm1, 2 gewonnen und über den Impedanzwandler IC3 auf den Kabelschirm geführt. Dadurch ergibt sich über der Kabelkapazität im Idealfall eine Spannungsdifferenz von Null. Die Gleichtakt-Spannungsquelle „sieht“ die Kapazität nicht. (PSpice-Simulation BSV_2.30)
so dass dieser mit zunehmender Frequenz enorm reduziert wird (Bei einer Frequenz von 100 Hz beträgt die Impedanz der Kapazitäten C1, 2 in Abb. 2.48 nur noch 32 M:). Das verschlechtert einen der wichtigsten Betriebsparameter des Messverstärkers – den Eingangswiderstand. Daher sind schaltungstechnische Maßnahmen notwendig, um den reduzierenden Einfluss der Schirmung zu elimi-
2.2 Medizinische Messverstärker
85
nieren. Die Kabelkapazität ist physisch immer vorhanden und ihre Reduktion ist konstruktiv nicht möglich. Es besteht jedoch die Möglichkeit, die Wirkung der Kapazität zu minimieren. Durch Umlegen des geerdeten Endes der Kapazität auf die Gleichtaktspannung ug bleibt über der Kapazität nur noch die halbe Differenzspannung übrig. Für den Gleichtakt würde demnach die Kapazität als unendlich hohe Impedanz erscheinen, denn durch sie fließt kein Gleichtaktstrom. Die schaltungstechnische Realisierung dieses sog. Guarding-Prinzips ist in Abb. 2.49 dargestellt. In Abb. 2.49 ist die erste Stufe eines Instrumentationsverstärkers dargestellt, in der mit Hilfe der Widerstände Rm1 und Rm2 das massebezogene Gleichtaktsignal gewonnen wird. Das Gleichtaktsignal wird zur Entkopplung über den Impedanzwandler IC3 auf die Kabelschirme (gestrichelt um die Signalleitungen dargestellt) geführt. Der Impedanzwandler darf keine höhere Verstärkung als eins haben, denn er bildet eine Mitkopplung und das würde zur Instabilität bzw. zu Oszillationen führen. Da die Signalleitung und der Kabelschirm dieselbe Gleichtaktspannung führen, erscheint die Impedanz der Schirmkapazität vom Eingang her unendlich hoch, während die Kapazität nach wie vor physisch vorhanden ist. Dieses Prinzip der dynamischen Anhebung der Impedanz ist bekannt und wurde in den ersten Entwicklungsphasen der analogen Schaltungstechnik als bootstrap bezeichnet. Hier stellt sich die Frage, ob der Schirm auch seine ursprünglich vorgesehene Funktion des Schutzes gegen Störungseinkopplung erfüllt. In der konventionellen Anwendung nach Abb. 2.48 erfasst der Schirm die Störungen und leitet sie zur Masse ab. In der Guardingtechnik (Abb. 2.49) liegt der Schirm am Ausgang eines OV (IC3) und ist daher über den Ausgangswiderstand des OV mit der Masse niederohmig verbunden (Ra um etwa 100 : . Aus Sicht der Störungseinkopplung hat sich durch das Guarding nichts Wesentliches geändert. Allerdings blieb der Gleichtakteingangswiderstand der Schaltung erhalten und wird durch den Schirm nicht reduziert. Da jetzt der Schirm aber nicht auf Masse liegt, könnte er messund sicherheitstechnisch zum Problem werden. Daher legt man um das Kabel und seinen Guarding-Schirm einen zweiten Schirm, der geerdet bzw. mit der Masse verbunden ist. Natürlich bildet sich zwischen den beiden Schirmen erneut eine Kapazität. Diese hat jedoch keinen Einfluss auf die Signalleitung, denn sie ist bereits durch den ersten Schirm geschützt. Bei der schaltungstechnischen Realisierung der Guardingtechnik nach Abb. 2.49 muss man beachten, dass die Kabelkapazität weiterhin auf die Differenzspannung wirkt. Da ihre Impedanz frequenzabhängig ist, wird sie negative Auswirkungen auf den Amplitudenfrequenzgang des Messsystems haben. Man nimmt in Kauf, dass die Amplitude des Biosignals zu höheren Frequenzen hin abnimmt, weil die mit steigender Frequenz abnehmende Impedanz die Differenz-Eingangs-Spannung reduziert. Werden an den Amplitudenfrequenzgang der gesamten Messkette hohe Anforderungen gestellt, so müssen sie auch an dieser Stelle berücksichtigt werden. Hier wäre die in Abb. 2.50 dargestellte Schaltungsvariante vorzuziehen.
86
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
+15v + V+ OS2 OS1
IC3
V-
-15v Rg1 100k
+15v +
Rq1 100k
IC1
V+ OS2 OS1
V-
-
Ra 10k
-15v Rq3
ug -
+
0
50k
Ro1 50k
ud
Ro2 50k
Rc 1k
+ -
-15v
Rb 10k
VIC2 V+
OS1 OS2
+ Rq2 100k
+15v Rg2
+15v
100k
+ OS2 OS1
V+ IC4 V-
-
-15v
Abb. 2.50 Guardingtechnik für jeden Kanal einzeln. Die Kabelimpedanzen werden sowohl für den Gleichtakt als auch für die Differenz dynamisch angehoben, so dass weder die Gleichtakt-, noch die Differenzspannungsquelle die Kabelimpedanz „sehen“. Geeignet für sehr empfindliche und genaue Messverstärker mit hohen Anforderungen an den Amplitudenfrequenzgang. (PSpiceSimulation BSV_2.32)
Für besonders anspruchsvolle Messverstärkertechnik kann jeder Messkanal einen eigenen Guard bekommen, wie in Abb. 2.50 dargestellt. Mit dieser Schaltungsva-
2.2 Medizinische Messverstärker
87
riante wird erreicht, dass die Kabelimpedanzen nicht nur hinsichtlich des Gleichtakts, sondern auch für die Differenzspannung dynamisch angehoben werden. Allerdings steigt in dieser Variante bei mehrkanaligen Messsystemen der Schaltungsaufwand enorm. Dieser Aufwand ist daher nur in Messsystemen gerechtfertigt, die eine hohe Messgenauigkeit und konstanten Amplitudenfrequenzgang über die ganze Messkette erfordern. Eine Option wäre das Anbringen der ersten Verstärkerstufe direkt an den Sensor, damit ist kein Guard notwendig. Wenn wir direkt am Sensor die erste Verstärkerstufe anbringen könnten, wäre kein Guard notwendig. Diese Variante wird im nächsten Kapitel behandelt.
2.2.6 Aktive Elektroden Dieser schaltungstechnische Lösungsansatz beruht auf dem Fakt, dass ein Messverstärker einen niederohmigen Ausgang besitzt. Der Ausgang ist im Gegensatz zu hochohmigen Eingängen unempfindlich gegen Störungen, da diese über den niedrigen Ausgangswiderstand zur Masse geleitet werden. Hierbei verlagert man die erste Verstärkerstufe gewissermaßen direkt auf den Sensor, so dass die Signalverbindung nicht mehr in dem Maße gestört wird, wie das bei den bisherigen Alternativen der Fall war. Schematisch ist eine solche Anordnung in Abb. 2.51 dargestellt. Technologisch wird die aktive Elektrode aus einer üblichen Elektrode und einem OV oder Instrumentationsverstärker gebildet, meistens in einem kompakten Gehäuse vergossen, um Biokompatibilität zu gewährleisten. Zwar wird damit das Ri
ud
100
Re
+ Ck
-
10MEG
100p
0
0
0
Abb. 2.51 Schematische Darstellung einer aktiven Elektrode: Die Signalquelle ud repräsentiert den Verstärker, der direkt auf dem Sensor befestigt ist. Die Kabelkapazität Ck und die beiden Widerstände Ri (Ausgangswiderstand des Verstärkers) und Re (Eingangswiderstand des Hauptverstärkers) bilden einen Tiefpass mit der Grenzfrequenz von ca. 10 MHz, was für Biosignale völlig ausreichend ist. (PSpice-Simulation BSV_2.33)
88
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
Problem der Kabelschirmung gelöst und die Anforderungen an den Eingangswiderstand des Hauptverstärkers sind wegen des vorgelagerten Sensorverstärkers nicht mehr so hoch. Dafür ergeben sich neue methodische und schaltungstechnische Probleme: Eine passive Elektrode ist elektrisch ein einziger Anschlusspunkt am Körper und die Potentialdifferenz zwischen zwei oder mehr Elektroden wird erst im Messverstärker gebildet. Eine aktive Elektrode jedoch benötigt entweder die elektrische Masse des Hauptverstärkers (s. Abb. 2.51) oder als Differenzsignal-Quelle einen weiteren Anschluss am Körper (s. Abb. 2.48), in beiden Fällen inklusive Versorgungsspannung. Das bedeutet, jeder aktiven Elektrode muss neben der Versorgungsspannung auch noch ein Bezugspotential zugeführt werden, ob die elektrische Masse oder das Potential einer benachbarten Elektrode. Dies ist
Spannungsfolger Ub+
Elektrode +
-
Rq1
V+OS2 IC1 OS1 V-
Spannungsdifferenz-Verstärker 0
UbR4 100k
200k
Ub+
Rq3 50k
+
ud
Kabelschirmung R2 1k
+ -
Rq2
R1 1k
V+ OS2 IC3 OS1 V-
ua
Ub-
200k + -
ug Ub-
R3 100k
-
0
Patient
Elektrode
VIC2 V+ +
OS1 OS2
Ub+
Spannungsfolger
Abb. 2.52 Schematische Darstellung eines Messverstärkers mit vorgelagertem Eingangsteil als aktive Elektroden (IC1 und IC2). Die notwendige Aussenbeschaltung und Verkabelung der aktiven Elektroden beinhaltet bei ihrer Konstruktion als Spannungsfolger lediglich einen OV, zwei Stromversorgungsleitungen, eine Masseleitung und eine Signalleitung zum Hauptverstärker. Die Eingänge der Spannungsfolger sind direkt mit den Elektroden verbunden. (PSpice-Simulation BSV_2.34)
2.3 Analoge Filter
89
technologisch und elektronisch eine Herausforderung. Eine wesentliche Vereinfachung dieses Problems kann man erreichen, wenn aktive Elektroden lediglich als Spannungsfolger ausgelegt werden (Abb. 2.52). Eine schaltungstechnisch und technologisch anspruchsvolle, aber aus Sicht der Signalverarbeitung eine sehr gute und robuste Lösung ergibt sich aus dem bekannten Fakt, dass die größte Störungsresistenz digitale bzw. binäre Signale besitzen. Daher ist es praktisch, auf der Elektrode nicht nur den Verstärker, sondern auch den ohnehin notwendigen AD-Wandler anzubringen. Bei dieser Lösung werden von der aktiven Elektrode bereits digitale Daten zum Hauptgerät übertragen.
2.3 Analoge Filter Analoge Elektronik im Allgemeinen und analoge Filterung im Speziellen sind auch heute noch, trotz der immer weiter fortschreitenden Digitalisierung, unverzichtbare und für die Signalqualität entscheidende Bestandteile der Verarbeitungskette. Die Theorie und Praxis der analogen Filterung ist ein Jahrhundert alt, die theoretischen Grundlagen, der mathematische Apparat und die Entwurfsmethoden sind gut durchgearbeitet, literarisch weit verbreitet und verfügbar. Wesentliche Beiträge zur analogen Filterung kamen in den letzten Jahren vor allem aus dem technologischen Bereich mit analoger integrierter Elektronik und Mikrotechnik, wie SC-Filter (Switched Capacitors), SAW-Filter (Surface Acoustic Wave Filters, akustische Oberflächenwellen-Filter) oder programmierbare Filter. Der folgende Abschnitt wird sich mit den spezifischen Problemen der Biosignalverarbeitung im medizinischen Bereich und den dazugehörigen notwendigen theoretischen Grundlagen beschäftigen.
2.3.1 Grundlagen In der analogen Elektronik versteht man unter dem Begriff Filter eine frequenzselektive Schaltung, die unerwünschte Frequenzbereiche dämpft und gewünschte Frequenzbereiche durchlässt bzw. hervorhebt. Analoge Filter realisieren vier Grundfunktionen der spektralen Filterung: Tiefpass, Hochpass, Bandpass und Bandsperre (Abb. 2.53). Ideale Filtercharakteristiken sind praktisch nicht realisierbar. Daher werden zunächst die Grenzen (Toleranzbereiche) definiert, die ein gewünschtes Filter erfüllen muss (Abb. 2.55). Analysiert man die Filtercharakteristiken in Abb. 2.53, so stellt man fest, dass der Bandpass und die Bandsperre nicht unbedingt als separate Filter definiert sein müssen. Beide können durch geeignete Kombination aus einem Tiefpass und einem Hochpass konstruiert werden: der Bandpass durch Überlappung der Charak-
90
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
A
Bandpass 1
Tiefpass
Hochpass
0
A
f Bandsperre
1
0
f
Abb. 2.53 Charakteristiken idealer Frequenzfilter: Tiefpass, Hochpass, Bandpass, Bandsperre. Die Übertragungsfunktion A lässt den gewünschten Frequenzbereich unverändert durch (Übertragungsfaktor gleich 1) und sperrt vollständig den unerwünschten Frequenzbereich (Übertragungsfaktor gleich 0). Der Phasenfrequenzgang wird nicht verändert
teristiken in Reihenschaltung, die Bandsperre durch nichtüberlappende Addition der Charakteristiken in Parallelschaltung (Abb. 2.54). Das wird in der Praxis auch gemacht, da die Konstruktion auf diese Weise oft viel einfacher ist. Die in Abb. 2.53 dargestellten idealen Charakteristiken analoger Filter sind nicht realisierbar. Daher werden zunächst die Grenzen vorgegeben (Toleranzbereiche) und realisierbare Alternativen untersucht. Ein typisches Toleranzschema für einen Tiefpass ist in Abb. 2.55 dargestellt. Der Tiefpass darf eine Welligkeit im Durchlassbereich von Apass = 3 dB aufweisen und im Bereich zwischen 250 Hz und 350 Hz soll seine Übertragung auf mindestens Astop = -80 dB abfallen. Würde man keine zusätzlichen Forderungen stellen, so wäre dieser Tiefpass mit einem elliptischen Filter 6. Ordnung realisierbar, wie dargestellt (s. Abschn. 2.3.2). In der analogen Filterung kommt es zur grundsätzlichen Unterscheidung in zwei Filterklassen: passive und aktive Filter. Das Klassifikationskriterium ist demnach, ob das Filter ein aktives Bauelement (Transistor, OV) oder nur passive Elemente enthält. Passive Filter sind insofern vorteilhaft, dass sie außer den die Übertragungsfunktion bestimmenden Bauelementen sonst nichts weiter benötigen. Da kein aktives Element vorhanden ist, sind sie frei von Fehlern durch Stromversor-
2.3 Analoge Filter
91
fo
fu fu
fo + fu
fo
Abb. 2.54 Konstruktion von Bandpass (oben) und Bandsperre (unten) durch Kombination eines Tiefpasses und eines Hochpasses. Beim Bandpass multiplizieren sich die Übertragungsfunktionen durch die Reihenschaltung, bei der Bandsperre addieren sich die Übertragungsfunktionen durch die Parallelschaltung. Aus Sicht der Übertragungsfunktion des Bandpasses durch die Reihenschaltung ist die Reihenfolge der Filter unwichtig. Unter praktischen Gesichtspunkten ist die skizzierte Reihenfolge - erst Tiefpass, dann Hochpass - jedoch günstiger. Die Störungen aus der Umgebung sind breitbandig und liegen weit über dem Biosignalspektrum, so dass sie in der Verarbeitungskette möglichst vorn unterdrückt werden sollen
gung und vom Rauschen der Halbleiter. In der medizinischen Messtechnik werden in der Regel Filter von mindestens 4. Ordnung benötigt (s. Abb. 2.55). Da ein passives Netzwerk von 4. und höherer Ordnung eine sehr komplizierte Schaltung werden kann, sind ihre Dimensionierung und vor allem ihre Realisierung enorm aufwendig. Hinzu kommt, dass in einem tieffrequenten Bereich, wie dem der Biosignale, Induktivitäten auf Grund der konstruktiven Größe überhaupt nicht in Frage kommen. Daraus folgt, dass passive Filter für Biosignale ausschließlich als RCNetzwerke realisiert werden können, wobei die Anzahl der RC-Kombinationen sich im Vergleich zu theoretisch notwendigen LC-Stufen verdoppelt (eine LCStufe besitzt die 2. Ordnung, eine RC-Stufe die 1. Ordnung). Dies ist jedoch kein technologisches Problem, denn RC-Netzwerke lassen sich heute in integrierter Technologie Platz sparend herstellen. In Abb. 2.56 sind drei Varianten von Tiefpässen dargestellt. Obwohl die frequenzbestimmenden Bauelemente in jeder Variante identisch sind, hängt die Grenzfrequenz von der konkreten Schaltung ab. Das liegt zum einen daran, dass die Grenzfrequenz als die Frequenz definiert ist, bei der ein Abfall der Übertragung
92
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
um 3 dB erreicht wird (Abb. 2.57). Allein durch die Reihenschaltung sinkt die Grenzfrequenz der einzelnen Stufen von 1600 Hz auf 1020 Hz (entkoppelte Kaskaden). Zum anderen kommt die gegenseitige Beeinflussung der einzelnen, nicht entkoppelten Stufen zum Tragen. Dadurch verursacht die zusätzliche Zeitkonstante R1C2 eine weitere Absenkung der Grenzfrequenz auf 600 Hz. Mathematisch kann die Filtercharakteristik des Tiefpasses 2. Ordnung mit nicht entkoppelten Stufen entsprechend den Gln. (2.41) bzw. (2.42) formuliert werden (T1 = R1C1, T2 = R2C2, T12 = R1C2). G Z
G Z
ua us
1
(2.41)
1 jZ T1 T2 T12 j 2Z 2T1T2
1 Z T T 2
1
2
1 2
(2.42)
Z T1 T2 T12
2
2
In Gl. 2.42 wird deutlich, dass durch die Verkopplung der beiden Grundstufen die Übertragung / dB 0 -10
Apass
-20 -30 -40 -50
fstop
fpass
-60 -70
Astop
-80 -90 0
50
100
150
200
250
300
350
400
450
Frequenz / Hz
Abb. 2.55 Toleranzschema eines Tiefpasses. Für den Entwurf sind die Eckfrequenzen fpass und fstop maßgeblich sowie die zulässige Welligkeit im Durchlassbereich Apass und die geforderte Sperrdämpfung Astop. Der Übergang vom Durchlassbereich zum Sperrbereich zwischen den Frequenzen fpass und fstop wird Filterflanke genannt. Je steiler die Filterflanke, umso näher kommt das Filter an das Ideal heran, aber umso schwieriger ist auch die Realisierung. Beispielhaft wurde das Toleranzschema mit einem elliptischen Filter 6. Ordnung erfüllt
2.3 Analoge Filter
93
Zeitkonstante T12 = R1C2 zusätzlich die Grenzfrequenz herabsetzt. Dieser Effekt stellt jedoch kein Problem dar, da er sich bei der Dimensionierung des Netzwerkes berücksichtigen lässt. Zum Problem wird das passive Netzwerk dann, wenn der Innenwiderstand Ri der Signalquelle und der Lastwiderstand Ra – so wie in Abb. 2.56 dargestellt – nicht vernachlässigt werden können und unbekannt oder veränderlich sind. Die beiden Widerstände beeinflussen direkt das frequenzselektive Netzwerk (Ri in Reihe mit R1, Ra parallel zu C2), folglich besteht keine Kontrolle mehr über die gewünschte Grenzfrequenz. In der praktischen Messtechnik kann R1 1k
Ri 1 us
R2 1k
Ra
C2 100n
C1 100n + -
0
100k 0
0
0 Ub+
R1a 1k
R2a 1k
U1 + V+ O S2 V-
C1a 100n
Ra2 100k
C2a 100n
O S1
0
0
0
Ub-
R1b 1k
Ra3
C1b 100n
100k 0
0
Abb. 2.56 Analoge Tiefpassfilter: Die RC-Kombination R1bC1b des Tiefpasses 1. Ordnung ergibt eine Grenzfrequenz von 1600 Hz. Die entkoppelte Reihenschaltung 2. Ordnung mit denselben Tiefpässen 1. Ordnung (R1aC1a, R2aC2a) besitzt eine Grenzfrequenz von 1020 Hz. Wenn die beiden Stufen nicht entkoppelt sind (R1C1, R2C2), kommt die gegenseitige Beeinflussung der Stufen zum Tragen, so dass die Grenzfrequenz nur noch 600 Hz beträgt. Der Innenwiderstand der Signalquelle Ri = 1 : und der Lastwiderstand Ra = 100 k: können im Vergleich zu den frequenzbestimmenden Elementen vernachlässigt werden. (PSpice-Simulation BSV_2.35a)
94
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
1.0V -3dB
1. Ordnung 2. Ordnung nicht entkoppelt
2. Ordnung entkoppelt
100mV
10mV
100Hz
300Hz
1.0KHz Frequenz
3.0KHz
10KHz
Abb. 2.57 Amplitudencharakteristiken von Tiefpässen aus Abb. 2.56: Tiefpass 1. Ordnung mit einer Grenzfrequenz 1600 Hz (volle Linie), Tiefpass 2. Ordnung mit entkoppelten Stufen und den gleichen Zeitkonstanten wie bei der 1. Ordnung und einer Grenzfrequenz von 1020 Hz (gestrichelte Linie), Tiefpass 2. Ordnung mit direkt verkoppelten Stufen 1. Ordnung und gleichen Zeitkonstanten mit einer Grenzfrequenz von 600 Hz (gepunktete Linie)
dieser Fall beispielsweise dann auftreten, wenn am Eingang eines Messverstärkers Tiefpässe zur Unterdrückung von hochfrequenten Störungen eingesetzt werden (Abb. 2.16). Da die Impedanzen der angeschlossenen Elektroden nicht bekannt sind und über zwei Größenordnungen schwanken können (1 bis 100 k:), kann sich die Grenzfrequenz der Tiefpässe ebenfalls in dieser Dimension ändern. Auch aus diesem Grund empfiehlt sich ein Tiefpass am Verstärkereingang nicht. Um einerseits kaskadierte (in Reihe geschaltete) Stufen voneinander und andererseits das Filter sowohl vom Eingangs- als auch vom Ausgangswiderstand zu entkoppeln, ist der Einsatz von aktiven Bauelementen notwendig. Diese werden als Impedanzwandler oder Spannungsverstärker (hoher Eingangswiderstand, niedriger Ausgangswiderstand) eingesetzt. Aktive Filter werden vorwiegend mit OV konstruiert, die die notwendige Entkopplung sowohl nach außen als auch zwischen den Filterkaskaden realisieren. Ein typisches Beispiel ist in Abb. 2.58 dargestellt. Das aktive Filter besteht aus zwei Filterkaskaden, einem Tiefpass und einem Hochpass. Der Tiefpass begrenzt das Spektrum nach oben, einerseits um bei der nachfolgenden AD-Wandlung Aliasing zu vermeiden, andererseits um das Rauschen zu minimieren (s. Abschn. 2.2.1). Der Hochpass unterdrückt die ElektrodenOffsetspannung und langsame Artefakte. Die Stufen sind untereinander und vom Ausgang entkoppelt. Um auch eine Entkopplung von der Biosignalquelle zu erreichen, deren Innenwiderstand direkt in R3,4 eingeht, müsste man dem Filter noch
2.3 Analoge Filter
95
R3 C3
C4
10u
10u
C2
100k Ub+ U4
10n R2 10k
R1 10k
+
+ V+
+ Ubio 1mV
R4 100k
0
V-
V+
OS2 OS1
0
Rv4 148k
Rv3
0
OS2 OS1
C1 10n
V0
Ub-
100k
Ub+
U2
UbRv2 148k
Rv1 100k 0
Abb. 2.58 Aktives analoges Filter mit OV: Die erste Kaskade ist ein Hochpass, die zweite ein Tiefpass. Insgesamt ergeben sie einen Bandpass mit Grenzfrequenzen fu = 0.2 Hz und fo = 1.2 kHz (PSpice-Simulation BSV_2.36). Der Hochpass eliminiert die hohe Gleichspannung des Elektrodenoffsets, der Tiefpass begrenzt das Spektrum nach oben für minimales Rauschen und als Antialiasing-Filter vor dem eventuell nachfolgenden AD-Wandler
einen Spannungsfolger oder einen Verstärker vorschalten. Aus dem Beispiel in Abb. 2.58 sind die Vorteile eines aktiven Filters sichtbar: Die einzelnen Kaskaden bzw. Filterfunktionen können voneinander unabhängig dimensioniert werden, was bei passiven Netzwerken nicht möglich war. Durch den Einsatz von OV und geeigneter Netzwerke ist die Wahl der Bauelemente sehr einfach, in beiden Kaskaden 2. Ordnung sind die frequenzkritischen Widerstände und Kapazitäten identisch. Außerdem kann über die Gegenkopplung eine Verstärkung zunächst beliebig eingestellt werden. Im nächsten Kapitel wird gezeigt, welchen Einfluss die Verstärkung auf die Filtercharakteristik hat. Die aktiven Filter besitzen natürlich auch Nachteile. Wie im Abschn. 2.2.3 gezeigt, ist der spektrale Arbeitsbereich von OV stark begrenzt. Ab etwa 10 kHz kann die Filterfunktion nicht mehr gewährleistet werden, was insbesondere bei hochfrequenten Störungen problematisch werden kann. Hinzu kommt, dass die OV ein tieffrequentes Rauschen produzieren, welches das Signal-RauschVerhältnis verschlechtert. Insbesondere in der medizinischen Messtechnik ist auch das Thema der Widerstandsfähigkeit gegen starke Störungen (Defibrillationsspizen bei Herzkammerflimmern, massive hochfrequente Störungen bei der HFChirurgie) von hoher Relevanz. Deswegen sind weitere Maßnahmen notwendig – im Gegensatz zu passiven Filtern – um die Halbleiter auch vor zu hohen Spannungen zu schützen.
96
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
2.3.2 Filtertheorie und Systementwurf Inhalt dieses Abschnitts sind die notwendigen theoretischen Grundlagen der spektralen Filterung. Um den Filterentwurf von konkreten Einsatzbedingungen unabhängig durchzuführen, ist es sinnvoll, die Frequenz und die Parameter der Bauelemente zu normieren. Diesem Prinzip folgt die Theorie der analogen sowie der digitalen Filterung. Zunächst soll nur ein Tiefpass betrachtet werden, da dieser über Frequenztransformationen auf die übrigen drei Grundcharakteristika transformiert werden kann. Beim Filterentwurf stehen zwei Optionen zur Wahl: Man versucht entweder den gewünschten Amplituden- oder Phasenfrequenzgang möglichst nahe an die ideale Charakteristik (Abb. 2.53), oder an die Toleranzbereiche (Abb. 2.55) zu approximieren. 2.3.2.1 Amplitudenorientierter Entwurf
Das Quadrat der Amplitudencharakteristik eines allgemeinen Tiefpasses [1] kann formal nach Gl. 2.43 beschrieben werden (das Quadrat der Amplitude ist für die theoretische Analyse und die Optimierung günstiger als die lineare Amplitude). Die Polynomkoeffizienten am und bn werden später bei der Realisierung des Filters die Dimensionierung der Bauelemente bestimmen. Die Konstante N ( M d N ) bestimmt die Ordnung des Filters [1]. M
G Z
¦ a mZ 2 m
2
m 0 N
1
¦ bnZ
(2.43)
2n
n 0
Die Berechung der Polynomkoeffizienten ist ein Optimierungsproblem, wobei das Optimierungsziel zunächst frei definiert werden kann (Idealfilter oder Filtertoleranzen). Eine legitime Forderung der Signalanalyse heißt, dass sowohl das Passband als auch das Stoppband einen möglichst flachen Verlauf haben sollen (üblich in der exakten Messtechnik zur Parameterbestimmung). Das Passband erstreckt sich im Bereich Z = 0 bis Z = Zpass, das Stoppband zwischen Z = Zstop bis Z o f . Daher wird mathematisch formuliert verlangt, dass möglichst viele der Ableitungen von G jZ nach Z für Z 2
tungen bei Z
0 und Z o f verschwinden. Für (2N-1) Ablei-
0 erhält man ai
und bei Z o f
bi
i 1,2,..., N 1 ,
(2.44)
2.3 Analoge Filter
97
am
0 m 1,2,..., N 1 .
(2.45)
Durch Kombination von Gl. 2.45 und 2.44 und anschließendem Einsetzen in (2.43) erhält man
G Z
a0
2
.
1 bN Z 2 N
(2.46)
Diese Filtercharakteristik ist auch als Butterworth-Filter bekannt. Ohne den qualitativen Verlauf der Charakteristik zu verändern, kann man die Koeffizienten a0 und bN gleich Eins setzen (normieren), so dass gilt
GZ
1
2
1 Z 2N
.
(2.47)
Die Filterflanke des Butterworth-Filters ist nicht besonders steil. Daher wird gefordert, dass sie steiler wird, dabei das Stoppband flach bleibt und das Passband eine zulässige Welligkeit aufweist darf. Dies kann erreicht werden, in dem die Forderung Gl. 2.44 durch die folgende Lösung erfüllt wird: |G(jw)|
2
1 0.8 N=4 N=3 N=2
0.6 0.4 0.2 0 0
0.2 0.4 0.6 0.8
1
Z
1.2 1.4
1.6 1.8
2
Abb. 2.59 Quadrat der Amplitudencharakteristik eines Butterworth-Tiefpasses. Sowohl das Passband als auch das Stoppband sind flach. Die Steilheit der Filterflanke nimmt mit der Filterordnung N zu und erreicht die Idealcharakteristik bei unendlichem N. Bei der Grenzfrequenz Z=1 fällt die Charakteristik um den Faktor 0.5 ab
98
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
G Z
2
1
(2.48)
1 H TN2 Z 2
Die Filterfunktion (2.48) ist auch als Tschebyschew-Filter vom Typ I bekannt. Ein Tschebyschew-Filter vom Typ II ist spiegelbildlich zum Typ I: Dieser besitzt im Passband einen flachen Verlauf, während das Stoppband wellig ist. Wegen der Symmetrie wird der Typ II nicht gesondert betrachtet. Das Polynom TN(Z) ist so konstruiert, dass das Filter im Passband beim Typ I eine kontrollierte Welligkeit aufweist, während im Stoppband die gewünschte Abschwächung erreicht wird. Für das Tschebyscheff-Polynom gilt
cosh N cosh Z
TN Z cos N cos 1 Z TN Z
1
0 d Z d1
(2.49)
Z !1
Das Polynom (2.49) kann rekursiv nach folgender Vorschrift berechnet werden: Tn 1 Z 2Z Tn Z Tn 1 Z
(2.50)
wobei T0 Z 1, T1 Z Z . Im Passband oszilliert die Amplitude zwischen 1 und 1/(1+H2). Ein typischer Tschebyscheff-Tiefpass 5. Ordnung vom Typ I ist in Abb. |G(jZ)|2
1 2
1/(1+e )
0.8 0.6 0.4 0.2 0 0
0.2 0.4 0.6 0.8
1
Z
1.2 1.4 1.6 1.8
2
Abb. 2.60 Amplitudencharakteristik eines Tschebyschew-Filters 5. Ordnung vom Typ I. Die Filterflanke ist steiler als die eines Butterworth-Filters gleicher Ordnung. Das Passband ist wellig und das Stoppband flach
2.3 Analoge Filter
99
2.60 dargestellt. Konvergiert die Welligkeit des Stoppbandes beim TschebyscheffFilter vom Typ I oder die des Passbandes vom Typ II zu Null, so wird es zum Butterworth-Filter. Eine Alternative zu Gl. 2.48 bietet die folgende Formulierung: G Z
1
2
(2.51)
1 H Rn2 [ , Z 2
In der Gln. (2.51) steht Rn für die elliptische Funktion (Jacobi-Integral), daher wird dieses Filter auch elliptisches Filter oder Cauer-Filter genannt. Der Parameter [charakterisiert den sog. Selektivitätsfaktor, der die Steilheit der Filterflanke bestimmt. Aus dem Abstand zwischen [ und Z = 1 ergibt sich die Breite der Filterflanke (Abb. 2.61). Lässt man die Welligkeit im Passband Null werden, so wird das elliptische Filter zum Tschebyscheff-Filter vom Typ I, wird die Welligkeit im Stoppband Null, so wird es zum Tschebyscheff-Filter vom Typ II. Werden beide Welligkeiten nullwertig, so wird es zum Butterworth-Filter.
|G(jZ)| / dB 0
H
-10 -20 -30 -40
Zp
-50
[
-60 0
0.25 0.50 0.75
1.0
1.25 1.50 1.75 2.0
2.25
Z
Abb. 2.61 Amplitudencharakteristik eines elliptischen Filters (Cauer-Filter). Das Passband und das Stoppband sind wellig. Bei gleicher Ordnung hat dieses Filter die steilste Filterflanke von allen (H = 3 dB, [ = 1.25)
100
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
2.3.2.2 Phasenorientierter Entwurf
Der Frequenzgang eines Filters lässt sich als Kombination aus Amplituden- und Phasenfrequenzgang (Gl. 2.52) ausdrücken. G Z
G Z exp jM Z
(2.52)
Damit es zu keinen Verzerrungen der Signalform kommt, ist es notwendig, dass die Gruppenlaufzeit im Passband Z Z pass konstant ist, s. Gln. (2.53). dM Z dZ
Tg Z
(2.53)
konst
Wird Gl. 2.52 logarithmiert und umgestellt, so erhält man M Z
1 G jZ j ln 2 G jZ
(2.54)
und für die Gruppenlaufzeit Tg Z
dM Z dZ
§ d · Re¨¨ ln G jZ ¸¸ . d j Z © ¹
(2.55)
Um die Forderung (Gl. 2.53) möglichst gut zu erfüllen, wird eine Übertragungsfunktion gesucht, deren Gruppenlaufzeit sehr flach ist bzw. in die Nähe des Ideals einer Konstante kommt. Die beste Lösung dieses Optimierungsproblems für einen Tiefpass stellt die Übertragungsfunktion nach (2.56) dar. Bn 0 Bn Z / Z P
H Z
(2.56)
Bn ist das so genannte inverse Bessel-Polynom, für das gilt Bn x
n
2n k ! x k nk 0 n k ! k! 2
¦
k
.
(2.57)
Das Bessel-Filter hat bei gleicher Ordnung die flachste Filterflanke von allen bisher behandelten Filtern, besitzt aber als einziges Filter eine (nahezu) konstante Gruppenlaufzeit. Das macht das Bessel-Filter besonders wichtig für die Biosignalverarbeitung, s. Abb. 2.62. Wie aus Abb. 2.62 ersichtlich, ist die Gruppenlaufzeit auch beim Bessel-Filter nicht ideal konstant. Insbesondere in Nähe der Grenzfrequenz nimmt sie mit der
2.3 Analoge Filter
101
Amplitudengang Bessel-Tiefpass
0
10
1
-5
10
3
-10
10
7
5
-15
10
-20
10
10
-1
10
0
10
1
10
2
10
3
Gruppenlaufzeit Bessel-Tiefpass 1 7
0.8
5 0.6 3
0.4 0.2 0 -1 10
1 10
0
1
10 10 normierte Kreisfrequenz / rad
2
10
3
Abb. 2.62 Bessel-Tiefpass: Amplitudenfrequenzgang (oben) und Gruppenlaufzeit (unten) für die Ordnungen 1 bis 7. Die Grenzfrequenz des Tiefpasses ist fpass = 1 Hz, die Kreisfrequenz Zpass = 6,28 rad/s. Der Verlauf der Gruppenlaufzeit krümmt sich in Nähe der Grenzfrequenz zunehmend mit der Ordnung des Filters, hat jedoch von allen Filtern den flachsten Verlauf
Ordnung des Filters zu. Allerdings ist der Verlauf der Gruppenlaufzeit beim Bessel-Filter mit Abstand der flachste von allen Filtern. Aus diesem Grund sollen in Anwendungen, in denen die Signalform nicht verzerrt werden darf, ausschließlich nur Bessel-Filter eingesetzt werden.
2.3.3 Aktive Filter mit Operationsverstärkern Die einfachste Maßnahme zur Entkopplung von frequenzselektiven Netzwerken untereinander und vom Eingang bzw. Ausgang ist in Abb. 2.63 dargestellt. Falls in der Schaltung nach Abb. 2.63 der Innenwiderstand der Signalquelle Ri vernachlässigt werden kann, so gilt für die Grenzfrequenz des Tiefpasses
102
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
fg
1 2SR1C1
(2.58)
Die Stufe 1. Ordnung nach Abb. 2.63 lässt sich zu Filtern höherer Ordnung kaskadieren. Allerdings muss dabei berücksichtigt werden, dass jede Stufe durch Addition der Dämpfung von jeweils 3 dB bei der Grenzfrequenz diese weiter herabsetzt. So haben beispielsweise zwei kaskadierte Stufen nach Abb. 2.64 bei derselben Grenzfrequenz der einzelnen Kaskaden eine Dämpfung von 6 dB, so dass die neue Grenzfrequenz bei 3 dB Abfall niedriger liegt, in Abb. 2.64 bei 1020 Hz. Da man in der Biosignalverarbeitung im analogen Bereich Filter mit einer Ordnung von vier bis acht braucht, ist die Kaskadierung von einfachen Stufen nicht effektiv. Daher folgen effizientere Stufen 2. Ordnung (Abb. 2.65). Für den Amplitudenfrequenzgang eines Tiefpasses 2. Ordnung (eine Stufe in Abb. 2.65) gilt G Z
20 log10 k
Z4 Z2 2 d 2 1 , Z g4 Z g2
(2.59)
. 1 Z / Z g 2
(2.60)
und für den Phasenfrequenzgang M Z arctan
d Z / Zg
In Gl. 2.59 und 2.60 gilt Z 2Sf , wobei Z g 1 / RC die Grenzfrequenz des Tiefpasses ist, d ist der Dämpfungsfaktor (bei d = 1.41 wird die ideale Dämpfung reicht), Rv2/Rv1 = 2-d, Verstärkung k = 3-d, R1 = R2, C1 = C2. Fügt man der ersten Stufe eine weitere Kaskade hinzu (Abb. 2.65), so multiplizieren sich die Frequenzgänge, nach Gl. 2.59 verdoppelt sich die Amplitudenübertragung in dB. Das heißt, aus dem Abfall von -3 dB bei der Grenzfrequenz wird nach zwei Stufen ein Abfall von -6 dB, nach drei Stufen (6. Ordnung) ein Abfall von -9 dB, usw. Daraus folgt, dass die Grenzfrequenz – die auf den Abfall von -3 dB bezogen ist – immer weiter zu tiefen Frequenzen hin wandert. Die Grenzfrequenz eines kaskadierten Filters tritt also dort auf, wo der Abfall einer Kaskade bei -3dB/N liegt, wobei N die Anzahl der Kaskaden ist. Bei der Dimensionierung eines kaskadierten Filters muss man daher die einzelnen Stufen so konstruieren, dass sie bei der gewünschten Grenzfrequenz der Kaskaden diese lediglich einen Abfall von -3dB/N aufweisen, damit das Filter nach der Addition auf genau -3 dB kommt. Dazu kann man Gl. 2.59 so verwenden, dass für die Amplitude -3dB/N eingesetzt und daraus die Grenzfrequenz der Einzelstufen berechnet wird. Nun stellt sich die Frage, welcher Wert für die Dämpfung eingestellt werden soll. Die Dämpfungskonstante hat
2.3 Analoge Filter
103
Ub+
R1 1k
U1 + V+
C1 100n
Ri
OS2 OS1
V-
1 0 Ub-
+
us
R3
Ra 100k
9k
R4 1k
0
0
0
Abb. 2.63 Das Tiefpassfilter 1. Ordnung ist mit einem OV von der nächsten Stufe entkoppelt. Die Verstärkung ist mit R3 und R4 unabhängig von der Filtercharakteristik einstellbar. Die Grenzfrequenz liegt bei 1600 Hz
hier dieselbe Bedeutung, wie in Schwingkreisen, d.h. in Netzwerken 2. Ordnung. Allerdings werden hier keine schwingfähigen Kreise im konventionellen Sinne Ub+
R1 1k
U1
Ub+
R5 1k
U2
+
+ V+ OS2
C1 100n
Ri 1
us
-
V-
OS1
V+ OS2 C5 100n
0
-
OS1
0 Ub-
+ -
Ub-
R3 9k
R7 9k R6 1k
R4 1k 0
V-
0
Ra 100k 0
0
Abb. 2.64 Tiefpass zweiter Ordnung, kaskadiert aus Einzelstufen nach Abb. 2.63. Die Grenzfrequenz sinkt von 1600 Hz der Einzelstufen auf 1020 Hz der Kaskade. Der Phasenfrequenzgang ergibt sich aus der Summe der Phasenfrequenzgänge der beteiligten Stufen
104
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
C2a R2a 10k
C2b
10n R1a 10k
10n
Ub+
R2b 10k
U1
R1b 10k
U2
+
+ V+ OS2
+ -
Ubio 1mV
C1a 10n
-
V-
V+
OS1
C1b 10n
0
0
Ub+
-
OS2 OS1
V-
0 Ub-
UbRv2a 27k
Rv1a 100k
Rv2b 27k
Rv1b 100k 0
0
Abb. 2.65 Zwei Kaskaden aus Tiefpässen 2. Ordnung, insgesamt 4. Ordnung. Stufen 2. Ordnung können beliebig oft kaskadiert werden, wobei man beachten muss, dass die Grenzfrequenz mit jeder weiteren Stufe sinkt. (s. Abb. 2.66)
verwendet, sondern die Schwingfähigkeit wird elektronisch mit Hilfe des OV und der positiven Rückkopplung realisiert. In Abb. 2.67 sind die drei typischen Amplitudencharakteristika analoger Filter dargestellt.
1.0mV 2. Ordnung 100uV
4. Ordnung 6. Ordnung
10uV
770Hz 920Hz 1.3kHz 1.0uV
100Hz
300Hz
1.0kHz Frequenz
3.0kHz
10kHz
Abb. 2.66 Amplitudenfrequenzgänge von Bessel-Tiefpässen 2. Ordnung (nach der ersten Stufe in Abb. 2.65), 4. Ordnung (nach der zweiten Stufe in Abb. 2.65) und 6. Ordnung. Bei identischen Bauelementen liegt die Grenzfrequenz bei 1.3 kHz der 2. Ordnung, bei 920 Hz der 4. Ordnung und bei 770 Hz der 6. Ordnung. Die Verstärkungen betragen in derselben Reihenfolge 1.27, 1.61 und 2.05
2.3 Analoge Filter
105
10mV
d=1.06 d=1.41
1.0mV d=1.73 100uV
10uV
1.0uV
100Hz
300Hz
1.0KHz
3.0KHz Frequenz
10KHz
30KHz
100KHz
Abb. 2.67 Amplitudencharakteristika eines Tiefpasses 2. Ordnung nach Abb. 2.66. Die unterkritische Dämpfung von d = 1.06 hat eine Überhöhung bei der Grenzfrequenz von 1 dB zur Folge. Dies ist das Tschebyscheff-Filter vom Typ I (volle Linie). Die als optimal bezeichnete Dämpfung von d = 1.41 führt zu maximal flacher Amplitude (gestrichelte Linie), typisch für das Butterworth-Filter. Die Dämpfung von d = 1.73 führt zur maximal flachen Verzögerung bzw. Gruppenlaufzeit, bekannt als Bessel-Filter (gepunktete Linie). Eine Dämpfung von d = 2 würde schaltungstechnisch eine Trennung der beiden Zeitkonstanten (Entkopplung von R1C1 und R2C2) bedeuten und zum entkoppelten Filter 2. Ordnung führen (s. Abb. 2.56 Mitte)
Die schaltungstechnische Lösung nach Abb. 2.65 bietet vor allem unter praktischen Gesichtspunkten wesentliche Vorteile: Man kann in allen Kaskaden des Filters zur Frequenzselektion identische Bauelemente verwenden, was bei passiven Filtern der konventionellen Filtertechnik und in anderen aktiven Filtern gar nicht möglich ist. Wie aus der Gln. (2.59) und Abb. 2.67 ersichtlich ist, kann man mit Hilfe eines einzigen einstellbaren (programmierbaren) Widerstandes (Rv1 oder Rv2) nicht nur einen der Filtertypen Tschebyschew, Butterworth oder Bessel wählen, sondern auch kontinuierlich entlang der Skala je nach Bedarf zwischen den Typen durchstimmen. Zur Dimensionierung dieser schaltungstechnischen Filterlösung können folgende Parameter genutzt werden: Tabelle 2.4 Betriebsparameter zur Dimensionierung von Filtern 2. Ordnung
Bessel
Butterworth
Tschebyscheff (1dB)
H
1.267
1.586
1.941
J
0.618
1.0
1.663
106
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
H 1 Rv1 ,
Für die Widerstände der Verstärkungskette gilt Rv 2 Grenzfrequenz eines Tiefpasses f g
ua
H ue , für die
J / 2SRC , für die Grenzfrequenz eines
Hochpasses f g 1 / 2SRC J . Ein Hochpass ist an Hand der bisher betrachteten Schaltung einfach realisierbar: In der Schaltung nach Abb. 2.65 werden die frequenzbestimmenden Elemente R1, 2 und C1, 2 gegeneinander vertauscht.
2.3.4 Phasenfrequenzgang Die Form der Biosignale ist in der medizinischen Diagnostik von entscheidender Bedeutung. Die Mediziner im kardiologischen, neurologischen, ophthalmologischen, audiologischen, somatosensorischen und motorischen, sowie in benachbarten Bereichen, begründen ihre Diagnose zum größten Teil auf qualitativen MerkC2 50n
C3 50n
R3 32k C1 100n
Ub+ +
R1 64k
V+
R2 64k
IC
+ ubio
OS2 OS1
V-
uaus
10mV
Ub-
0 Rv2 1k Rv1 1k 0 Abb. 2.68 Bandsperre 2. Ordnung zur Unterdrückung der Netzstörung bei 50 Hz. Für die Grenzfrequenz gilt: f 0 1 / SRC , wobei R = R1 = R2 = 2R3, C = C1 = 2C2 = 2C3 (PSpice-Simulation
BSV_2.41)
2.3 Analoge Filter
107
malen der aufgenommenen Biosignale, z.B. Absenkung der ST-Strecke im EKG beim Herzinfarkt. Deswegen gehört es zu grundlegenden Pflichten der Biosignalverarbeitung, die Signalform unter keinen Umständen relevant zu verändern. Es stellt sich also die Frage nach der Abhängigkeit von Biosignal und Phasenfrequenzgang. Um diese Abhängigkeit zu demonstrieren, folgt die Betrachtung der in der medizinischen Messtechnik oft angewandten Bandsperre, die auch als „50 HzFilter“ bekannt ist. Eine schaltungstechnische Variante einer solchen Bandsperre ist in Abb. 2.68 dargestellt. Es ist ein Filter 2. Ordnung, dass die Netzfrequenz wirksam unterdrücken soll. Das frequenzselektive Netzwerk besteht aus zwei TGliedern (Wegen der Form der Schaltungsanordnung von C2, C3 und R3 sowie R1, R2 und C1, die den Buchstaben T bilden), einem Hochpass und einem Tiefpass mit identischen Frequenzen, die ein Notch-Filter bilden. Die Verstärkung kann mit Rv1 und Rv2 eingestellt werden und hat – wie auch beim exemplarisch behandelten Tiefpass – Einfluss auf den Filtertyp. Die Bandsperre unterdrückt die Netzfrequenz wirksam, die Dämpfung erreicht weit mehr als 60 dB, was für die praktische Messtechnik ausreichend ist (obere Grafik in Abb. 2.69). Wenn eine analoge Bandsperre verwendet werden soll, dann
0 dB
Amplitudenfrequenzgang
-25 -50 -70 1.0
Phasenfrequenzgang
0.5 rad 0 75 ms
50
Gruppenlaufzeit
25 0
1.0Hz
3.0Hz
10Hz
30Hz Frequenz
100Hz
300Hz
1.0kHz
Abb. 2.69 Amplitudenfrequenzgang der Bandsperre aus Abb. 2.68 (oben) zeigt eine akzeptable Dämpfung der Netzstörung von mehr als 60 dB. Der Phasenfrequenzgang (Mitte) weist bei 20 Hz und 100 Hz starke Krümmungen auf, die auf eine deutliche Nichtlinearität des Phasenverlaufs zurück zu führen sind. Der nichtlineare Phasenverlauf hat im Bereich zwischen 10 Hz und 300 Hz eine stark schwankende Gruppenlaufzeit (unten) mitten im Biosignalbereich des Spektrums zur Folge (das lokale Maximum bei 100 Hz fällt wegen der linearen Darstellung kleiner aus, als das Maximum bei 20 Hz, obwohl sie als lokale Maxima beide gleich sind). Dies führt zur Formveränderung des Biosignals (PSpice BSV_2.41)
108
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
möglichst am Anfang der Messkette, damit eine Übersteuerung des Messverstärkers früh vermieden wird (Abb. 2.1). Der Phasenfrequenzgang (Abb. 2.69, Mitte) zeigt abschnittsweise linearen Verlauf, allerdings auch starke Krümmungen bei 20 Hz und 100 Hz. Diese Krümmungen der Phase haben lokal stark erhöhte Gruppenlaufzeiten im Bereich 10 Hz bis 300 Hz zur Folge, also mitten im Spektrum des Biosignals (Abb. 2.69, unten). Beginnend mit der Betrachtung des zeitlich veränderlichen Spektrums eines typischen EKG (Abb. 2.70) stellt man fest: Die R-Zacke bzw. der QRS-Komplex sind
1 .5
EKG/mV
1
0 .5
0
- 0 .5 0
0 .2
0 .4
0 .6
0 .8
1 1 .2 Z e it / s
1 .4
1 .6
1 .8
2
1 .6
1 .8
2
E K G - S p e k tr o g r a m m
60 50
f/Hz
40 30 20 10 0
0
0 .2
0 .4
0 .6
0 .8
1 t / s
1 .2
1 .4
Abb. 2.70 EKG als Zeitverlauf (oben) und im Spektrogramm (unten, Zeitverlauf des Spektrums). Die Graustufen repräsentieren die in der Zeit-Frequenz-Ebene verteilte Signalenergie. Zu beachten ist insbesondere die große Bandbreite des QRS-Komplexes
2.3 Analoge Filter
109
impulsartige, kurzzeitige Vorgänge, die spektral sehr breitbandig sind und im realen Signal bis zu 200 Hz erreichen (beim EKG in Abb. 2.70 wurde ein Tiefpass bei 50 Hz verwendet). Wird ein derartiges Signal durch die Bandsperre nach Abb. 2.68 gesendet, so werden die tieffrequenten Anteile des EKG (0 Hz bis 10 Hz, s. Abb. 2.69) mit etwa 30 ms verzögert und die hochfrequenten Anteile (10 Hz bis
1
EKG/mV
0 .5
0
- 0 .5
-1
0
0 .5
1
1 .5
2
t/s E K G - S p e ktro g ra m m m it n ich tlin e a re r P h a se 60 50
f /Hz
40 30 20 10 0 0
0.2
0.4
0.6
0.8
1 t / s
1.2
1.4
1.6
1.8
2
Abb. 2.71 Durch die unterschiedliche Gruppenlaufzeit werden die hochfrequenten Anteile des EKG mehr verzögert als die niederfrequenten Anteile (Spektrogramm, unten), vgl. mit Abb. 2.70. Das hat Signalverzerrungen zur Folge, die als schnelle Schwingungen nach dem QRSKomplex im EKG erscheinen (oben)
110
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
40 Hz) mit bis zu 70 ms verzögert. Das heißt, dass die hochfrequenten Anteile des EKG doppelt so stark verzögert werden wie die niederfrequenten. Durch die größere Verzögerung der Bandsperre bei höheren Frequenzen erscheinen die hochfrequenten EKG-Anteile am Ausgang des Filters später als die nie derfrequenten Anteile. Das hat zur Folge, dass erst nach dem Ende des QRSKomplexes die hochfrequenten Anteile zur Geltung kommen und als schnelles Nachschwingen sichtbar sind (Abb. 2.71). Das Nachschwingen hat natürlich gar nichts zu tun mit dem ursprünglichen EKG. Die schnellen Nachschwingungen („ringing“) täuschen das Vorhandensein einer Herzaktivität vor, die es in der Realität gar nicht gibt. Das kann zu fatalen Folgen in der Diagnoseerstellung und der darauf aufbauenden Therapie führen. Aus diesem Beispiel wird deutlich, wie wichtig die Erhaltung der Signalform ist. Daher muss gewährleistet werden, dass alle Frequenzen (Gruppen) mit möglichst gleicher Laufzeit verzögert werden, woraus sich nach der Gl. 2.53 ergibt, dass der Phasenfrequenzgang im spektralen Arbeitsbereich linear sein muss (Gl. 2.61).
M Z | kZ
(2.61)
Das Fazit dieser Überlegungen ist, dass bei Biosignalen, die mit ihrer Signalform zur Diagnostik genutzt werden, zur Signalverarbeitung ausschließlich linearphasige Filter (Bessel) eingesetzt werden dürfen. Da einige Hersteller der medizinischen Messtechnik diese Forderung ignorieren, ist beim klinischen Einsatz auch diesbezüglich Vorsicht geboten.
2.4 Übungen
2.4.1 Aufgaben 1 Analyse des Einflusses einer harmonischen Störung auf das Verhalten eines medizinischen Messverstärkers Gehen wir von einem einfachen nichtinvertierenden OV-Verstärker aus. Dazu öffnen Sie in PSpice-Schematics die Datei BSV_2.1.sch. Die Verstärkung ergibt sich rechnerisch aus dem Verhältnis Vd = (R2+R1)/R1 = 11. Die harmonische Störspannung am Eingang Unetz beträgt 2 V, so dass rechnerisch am Ausgang eine Spannung von 22 V erscheinen müsste. Da aber die Versorgungsspannung 15 V beträgt, geht die Verstärker-Ausgangsspannung bei etwa 14.6 V in die Begrenzung (Abb. 2.1). Zur Anzeige der Spannungsverläufe starten wir die Simulation mit voreingestellten Parametern. Welche Spannung darf am Eingang des Verstärkers
2.4 Übungen
111
höchstens auftreten, damit es zu keiner Verzerrung des Ausgangssignals kommt? Überprüfen Sie die Berechnung mit Hilfe der Simulation, in dem Sie die Eingangsspannung Unetz in der Spannungsquelle auf den berechneten Wert setzen. (Doppelklick auf das Symbol der Spannungsquelle und Änderung des Parameters). 2 Ausgleichsvorgänge Einen störenden Spannungssprung können wir mit einer geschalteten Spannungsquelle und einen Hochpass 1. Ordnung am Verstärkereingang simulieren, wie in der Simulation BSV_2.42 dargestellt. Das simulierte Signal besteht aus einem Rechteck, das bei 100 ms eine ansteigende, bei 600 ms eine abfallende Flanke mit 1 V Amplitude aufweist. Dieser Spannungsverlauf wird auf einen Hochpass mit einer Zeitkonstante von 100 ms gelegt. Der Ausgleichsvorgang entspricht einer eFunktion in erster Potenz, aus der sich ergibt, dass der Vorgang nach einer Dauer von etwa fünf Zeitkonstanten abgeschlossen ist. Starten Sie dazu die voreingestellte Simulation BSV_2.42. Wie ändert sich der Zeitverlauf bei einer zehnmal größeren Zeitkonstante? Was folgt daraus für die Übertragung von kurzen Impulsen im Verstärker? 3 Galvanische Störungseinkopplung, Isolationswiderstand Unter Berücksichtigung des Superpositionsprinzips werden wir exemplarisch die Wirkung der Netzspannung über den Isolationswiderstand auf eine Signalleitung des Messkreises untersuchen (Abb. 2.18). Im Normalfall (trockene Luft, trockenes Gerät) können wir von einem Isolationswiderstand von mindestens 10 G: ausgehen (BSV_2.6). Simulieren Sie die Einkopplung der Netzstörung und messen den Anteil der Störung im Ausgangssignal des Verstärkers. Als Nächstes soll die Reduktion des Isolationswiderstandes in Folge hoher Luftfeuchtigkeit oder des Kondenswassers nach Aufstellen eines kalten Gerätes nach einem Transport im warmen Zimmer simuliert werden. Setzen Sie dazu den Isolationswiderstand Ris auf ein Zehntel seines ursprünglichen Wertes. Wie wirkt sich die reduzierte Isolation auf das Ausgangssignal aus? Setzen Sie einen weiteren Isolationswiderstand von 9 G: bzw. BSV 2.6a zwischen das Netz und die andere Signalleitung des Messkreises. Welchen Einfluss wird die erweiterte Simulation auf das Ausgangssignal haben? Welchen Signal-Rausch-Abstand besitzen die Ausgangssignale bei jeder Simulation? 4 Galvanische Störungseinkopplung, Masseschleife Der zweite mögliche Weg galvanischer Störungseinkopplung führt über die Masseleitung bzw. die Erdleitung (Abb. 2.9). Der Einfachheit halber steht das Masse-
112
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
symbol hier für beides – für die elektrische Masse und/oder die Erde. Untersuchen Sie unter dem Aspekt der möglichen Netzinstallationen, wann eine Masseschleife auftreten kann und wann sie messtechnisch und wann sicherheitstechnisch relevant ist (PSpice-Simulation BSV_2.7, a). Für diese Analyse sind Grundkenntnisse über die Arten der Netzinstallationen notwendig, die Sie bei Bedarf der einschlägigen Literatur entnehmen können. 5 Hochfrequente Störungen Hochfrequente Störungen sind in der medizinischen Messtechnik insbesondere deswegen problematisch, weil sie in der Praxis nicht abgeschirmt werden können. Selbst im Messverstärker können die in der Technik sonst üblichen Maßnahmen, wie Tiefpassfilter am Eingang, nicht realisiert werden. Daher werden wir analysieren, wie sich diese Störungen auf die Messelektronik auswirken können. Der im Abschn. 2.1.3 prinzipiell dargestellte AM-Demodulator (Abb. 2.14) wurde in der Schaltung BSV_2.10b mit einer einfachen Transistorstufe ersetzt, um die Realität möglichst gut zu simulieren. Untersuchen Sie in PSpice, wie sich die eingekoppelte Störung im spektralen Bereich der Biosignale auswirkt. Insbesondere soll der Einfluss der Amplituden vom NF- und HF-Anteil des AM-Signals analysiert werden. Dazu stellen Sie mit dem Widerstand R2 = 100 : zunächst eine Amplitude des AM-Signals am Ausgang des OV auf etwa 2 mV ein, um die folgende Transistorstufe möglichst linear im Kleinsignalbereich auszusteuern. Nach der Simulation stellen Sie im PSpice den Zeitverlauf dar, anschließend das Spektrum mit Hilfe der FFT. Zoomen Sie den Bereich zwischen 0 Hz und 100 Hz zur Begutachtung der Störung. Beachten Sie, dass beide Signale reine Harmonische sind, so dass sie im Spektrum als Nadeln sichtbar sind, falls sie überhaupt vorhanden sind. Sonst sind nur Zufallssignale bzw. Rauschen der Bauelemente sichtbar. Führen Sie diese Analyse wiederholt für eine starke Störung durch, wobei R2 auf etwa 1 k eingestellt werden soll. Im Weiteren versuchen Sie mit schaltungstechnischen Maßnahmen die Transistorstufe gegen diese Störungen unempfindlicher einzustellen. Wie schon behandelt, kommt es zur AM-Demodulation an nichtlinearen Kennlinien (PN-Übergang), so dass das Ziel darin besteht, die Transistorstufe zu linearisieren. Schaltungstechnisch ist das wirksamste Mittel zur Linearisierung die Gegenkopplung. 6 Signal-Rausch-Verhältnis, SNR In der Messtechnik werden an die Signal- und Störungseigenschaften mehrere Forderungen gestellt, um zuverlässige Messwerte zu erhalten. Da man davon ausgehen muss, dass der zu messende Pegel vorab nicht bekannt ist und auch über mehrere Größenordnungen variieren kann, kann man bezüglich der Störung keine Pegelgrenzen setzen. Ein sinnvolles Maß zur Beurteilung der Messwertqualität ist der Signal-Rausch-Abstand (SNR), der angibt, wie groß das Verhältnis zwischen dem zu messenden Signal und der Störung ist. Das geforderte SNR ist von der
2.4 Übungen
113
konkreten Messaufgabe abhängig, in der Medizin wird ein SNR von mindestens 40 dB am Ausgang erwartet. Berechnen Sie, welche Verstärkung (Gleichtakt- und Differenztaktverstärkung) und welches CMRR ein Messverstärker haben muss, um beim EKG (von 1 mV) und einer angenommenen Gleichtaktstörung von 1 V am Eingang diese Forderung zu erfüllen. Welche zulässige Gleichtaktstörspannung am Eingang darf auftreten, falls ein Messverstärker mit einem CMRR von nur 60 dB vorhanden ist? 7 Diskreter Differenzverstärker Zur Verstärkung von Differenzsignalen und Unterdrückung von Gleichtaktsignalen ist der Differenzverstärker besonders gut geeignet. Die wichtigsten Parameter des Differenzverstärkers und die bei realer Messanordnung erreichbaren Eigenschaften werden im Folgenden untersucht: Ermitteln Sie mit Hilfe der Simulationen BSV_2.21 und BSV_2.22 die Betriebsparameter Vd, Vg, CMRR eines ideal symmetrischen diskreten Differenzverstärkers. Untersuchen Sie getrennt die massefreie (zwischen den Drains) und die massebezogene (d1 oder d2) Ausgangsspannung. Fangen sie mit einer zunächst ideal symmetrischen Signaleinkopplung an (alle Widerstände im Eingangsnetzwerk seien symmetrisch). Im nächsten Schritt untersuchen Sie, wie sich eine Eingangsunsymmetrie auf die Ausgangsspannungen auswirkt. Zum Erzeugen der Eingangsunsymmetrie verändern Sie einen der Eingangswiderstände, die Einfluss auf den Gleichtakt haben (z.B. Rg1 auf 7 k: setzen). Wie wirkt sich der Ersatz des Widerstandes RS durch eine Konstantstromquelle auf das CMRR aus? In der Realität muss man mit Unsymmetrien sowohl in der Einkopplung von Signalen und Störungen als auch in der Schaltung selbst rechnen und diese vorab abschätzen. Vergleichen Sie, wie sich äußere und innere Unsymmetrien auf die Verstärkereigenschaften auswirken. 8 Instrumentationsverstärker Für die Gleichtaktunterdrückung ist die Symmetrie des mehrstufigen Differenzverstärkers, folglich auch das CMRR, von entscheidender Bedeutung. Untersuchen Sie den Einfluss der Differenzverstärkung der ersten Stufe eines Instrumentationsverstärkers auf das CMRR in den zwei behandelten Varianten Impedanzwandler und Verstärker. Welchen Einfluss haben übliche Widerstandstoleranzen im Instrumentationsverstärker (5%, 1% und 0,1%) und Unsymmetrien in der Einkopplung der Gleichtaktstörung (Variabilität der Impedanzen bis zu 100%) auf das Gleichtaktverhalten? Verwenden Sie dazu die Simulationen BSV_2.26 und BSV_2.27. Vergleichen Sie die Folgen innerer (im Verstärker) und äußerer Unsymmetrien (Einkopplungsbedingungen der Störungen).
114
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
2.4.2 Lösungen Beschreibungen und gespeicherte Simulationsergebnisse der Lösungen sind in .doc- und .pdf - Dateien im Verzeichnis /Übungen des Kapitels 2 enthalten und können zur Kontrolle und besserem Verständnis ergänzend genutzt werden. Ihre Nummerierung ist identisch mit der Nummerierung der Übungen. 1 Analyse des Einflusses einer harmonischen Störung auf das Verhalten eines medizinischen Messverstärkers Aus der Simulation ergibt sich die obere Grenze der Ausgangsspannung, bei der es zur Begrenzung kommt zu Uaus = 14.6 V. Zur Sicherheit vor Nichtlinearitäten in der Nähe der Begrenzung wird die maximale Ausgangsspannung auf 14 V gesetzt. Da die Verstärkung bekannt ist, lässt sich die maximale Eingangsspannung zu Ueimax = Uausmax/Vd = 14 V /11 = 1.27 V berechnen. Diesen Wert tragen wir als Parameter in die Spannungsquelle Unetz ein und simulieren zur Kontrolle. 2 Ausgleichvorgang Bei einer Zeitkonstante des Hochpasses von 100 ms und der Pulsbreite von 500 ms klingt der Ausgleichsvorgang an der absteigenden Flanke fast vollständig ab. Wird die Zeitkonstante größer (in der Realität bis in die Größenordnung von 10 s), oder die Impulsbreite schmaler, so kommt der Ausgleichsvorgang immer weniger in Gang, so dass der Impuls immer mehr unverfälscht übertragen wird. Qualitativ folgt daraus, dass beim ausschließlichen Hochpassverhalten des Messverstärkers Impulse, deren Breite kleiner ist als die Zeitkonstante des Hochpasses, nahezu unverfälscht übertragen werden. 3 Galvanische Störungseinkopplung, Isolationswiderstand In der Praxis passiert es oft, dass man ein Gerät nach dem Transport in kalter Umgebung anschließend bei Raumtemperatur aufstellt. Die Luftfeuchtigkeit im Gerät nimmt stark zu und es kann sich sogar eine Schicht aus Kondenswasser bilden. Das setzt den Isolationswiderstand stark ab, nicht selten unter ein Zehntel seines ursprünglichen Wertes. In dieser Simulation sollte der Wert von 10 G: auf 1 G: reduziert werden. Dies hat einen Anstieg der Störung im Ausgangssignal von 6.5 mV auf 65 mV zur Folge. Nach der Gln. (2.6) verschlechtert sich das SNR von 24 dB auf 3.7 dB, ein in der Messtechnik nicht mehr akzeptabler Wert. Ausgehend von der ursprünglichen Simulation mit Ris = 10 G: wird auch auf der anderen Signalleitung ein Isolationswiderstand von 9 G: simuliert. Entsprechend den realen Bedingungen sind die Isolationswiderstände nie identisch, so dass sich hier eine Differenz von 1 G: ergibt. Wie man an Hand der Schaltung erkennen kann (s.
2.4 Übungen
115
Abschn. 2.2.3), wird zwischen den beiden Eingängen des Messverstärkers eine Spannungsdifferenz gebildet, so dass im Falle ideal identischer Isolationswiderstände sich ihre Wirkung aufheben würde. Sind die Isolationswiderstände ungleich, so kommt lediglich ihre Differenz zum Tragen, in diesem Fall 1 G:. Daher beträgt der Störungsanteil im Ausgangssignal nur noch 0.65 mV und das SNR steigt auf 44 dB, was für die medizinische Messtechnik einen akzeptablen Wert darstellt, allerdings nur unter Berücksichtigung der bisher simulierten Isolationswiderstände. 4 Galvanische Störungseinkopplung, Masseschleife Zur Simulation starten wir die Schaltung BSV_2.7. Als erstes werden wir prüfen, ob eine Masseschleife vorliegt. Dies ist in der Praxis oft sehr schwierig oder unmöglich und funktioniert nur dann, wenn ein mit Sicherheit störungsfreies Bezugspotential zur Verfügung steht, z.B. eine direkte Verbindung zur Erde oder zum Sternpunkt der Stromversorgung. Weiterhin muss man die Möglichkeit haben, kontrolliert und gezielt Geräte in Betrieb zu nehmen, die über die Masseschleife versorgt werden, denn sonst würde kein messbarer Spannungsabfall entstehen. In dieser Simulation ist das störungsfreie Bezugspotential die mit einem Dreiecksymbol versehene analoge Masse, die Betriebsmasse des Verstärkers liegt in der Mitte der Spannungsversorgung zwischen Ub+ und Ub-. Wenn wir in der simulierten Schaltung am beliebigen Knoten einen Spannungsmarker platzieren, so ist überall die Netzstörung sichtbar, am stärksten an der Betriebsmasse des Verstärkers mit einer Amplitude von mehr als 2 V. Die Potentialmessung der Betriebsmasse gegen ungestörte Referenz ist der sicherste Indikator dafür, ob der Messkreis über eine Masseschleife gestört wird. Allerdings muss gleichzeitig der Widerstand der Betriebsmasse zum Sternpunkt bzw. zur Erde gemessen werden, um zu sichern, dass tatsächlich eine niederohmige Verbindung Rm besteht und die Betriebsmasse nicht allein durch Streukapazitäten gestört wird. Nun stellt sich die Frage, wie man die Wirkung der Masseschleife beseitigen kann. Die Antwort ist einfach: Die Betriebsmasse des Verstärkers darf keine leitende Verbindung zur netzseitigen Stromversorgung haben. Dies wäre mit dem Netztransformator vermeintlich erledigt. Allerdings müssen Geräte der Schutzklasse I über den Schutzleiter geerdet werden. In Netzen vom Typ TNC (gemeinsamer Schutz- und Neutralleiter PEN) führt der Schutzleiter aber den Betriebsstrom der Netzversorgung, so dass in TNC-Netzen die Masseschleife immer und unvermeidbar vorliegt. Der einzige Weg zur Vermeidung der Störung in Folge von Masseschleifen ist die galvanische Trennung des Patiententeils von allen Leitern (also auch vom Schutzleiter) der Stromversorgung (s. Abschn. 2.2.4 Isolationsverstärker). Aus Sicht der medizinischen Messtechnik nicht entscheidend, dennoch sicherheitstechnisch relevant ist die Frage, ob mit der galvanischen Trennung des Patiententeils auch die Sicherheit gewährleistet wird. Die Antwort ist nicht zufrie-
116
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
den stellend: Man muss damit rechnen, dass der Patient – gewollt oder ungewollt – geerdet ist und deswegen kann auf ihn die von der Masseschleife erzeugte Spannung direkt verschleppt werden. Deshalb ist in medizinisch genutzten Räumen zur Energieversorgung medizinischer Geräte das TNC-Netz verboten. Im häuslichen Bereich greift dieses Verbot nicht und daher ist dies als sicherheitsrelevanter Mangel einzustufen. 5 Hochfrequente Störungen Bei der Einstellung von R2 = 100 : liegt am Eingang der Transistorstufe eine Spannung von 3 mV an, an ihrem Ausgang 300 mV, so dass die Verstärkung V = 100 beträgt. Die Stufe arbeitet im Bereich der so genannten Kleinsignalaussteuerung. Dieser Bereich ist charakteristisch dadurch, dass die Signale am Eingang und am Ausgang im Vergleich mit den Transistorkennlinien sehr viel kleiner sind und daher macht man die Annahme, dass der Transistor in diesem Bereich um seinen Arbeitspunkt linear ist. Diese Annahme ist notwendig, um die Stufen mit linearen mathematischen Methoden analysieren und dimensionieren zu können. Oft vergisst man aber, dass die Nichtlinearitäten nach wie vor – also auch im Kleinsignalbereich – vorhanden sind, wie unsere Simulation auch zeigt. Nach der Simulation kann man im Zeitverlauf des PSpice zunächst ein nahezu ideales AM-Signal sehen. Führen wir mit Hilfe der FFT eine Spektralanalyse durch, so zeigen sich im Bereich 0 Hz bis 100 Hz mindestens sechs Harmonische des NF-Signals. Dies ist der spektrale Nachweis der Nichtlinearitäten, die bereits bei der Erzeugung des AM-Signals (Multiplikator, OV), aber vor allem in der Transistorstufe wirksam sind. Stellen wir mit R2 = 1 k: eine Eingangsspannung am Transistor von 30 mV ein, müsste dieser entsprechend seiner Verstärkung von V = 100 am Ausgang eine Wechselspannung von 3 V liefern. Dies wird er auch schaffen, allerdings kann man bereits im Zeitverlauf erkennen, dass das Signal nicht mehr symmetrisch ist, dass es also nichtlinear verzerrt wurde. Offensichtlich gilt hier nicht mehr die Annahme der Kleinsignalaussteuerung. Die Spektralanalyse mit Hilfe der FFT zeigt bei Harmonischen des NF-Signals Pegel zwischen 4 bis 10 mV, die selbst bei den stärksten Biosignalen eine massive Störung darstellen und das Biosignal unbrauchbar machen. Eine nachträgliche Filterung wird keine Verbesserung bringen, da im Normalfall der NF-Anteil gar nicht bekannt und schon gar nicht harmonisch ist, wie in dieser Simulation. Da eine wirksame Störungsunterdrückung außerhalb des Verstärkers kaum möglich ist, können wir versuchen, diese mit schaltungstechnischen Maßnahmen zu reduzieren. Ohne an dieser Stelle den Nachweis zu führen, gehen wir davon aus, dass eine Gegenkopplung grundsätzlich zur Verbesserung der Linearität führt. In der simulierten Schaltung können wir in der Transistorstufe eine Gegenkopplung sehr einfach dadurch einführen, dass der wechselspannungsmäßige Kurzschluss des Widerstandes Re4 aufgehoben wird. Dazu löschen wir die Kapazität C4 oder setzen diese auf einen vernachlässigbar kleinen Wert, z.B. 1 pF. Durch die nun wirksame Gegenkopplung sinkt die Verstärkung natürlich ab, in diesem Beispiel
2.4 Übungen
117
auf etwa V = Rc4/Re4 = 1. Dadurch reduziert sich der NF-Anteil auf ca. 0.1 mV, was noch kein besonders guter Wert ist, allerdings um zwei Dekaden besser (ursprünglich 10 mV), als in der Originalschaltung. Fazit ist, schaltungstechnisch kann man den Einfluss einer ungewollten AMDemodulation durch Linearisierung der Messelektronik mit Hilfe der Gegenkopplung erreichen, auch wenn das auf Kosten zusätzlicher Verstärkungsstufen gehen sollte. 6 Signal-Rausch-Verhältnis, SNR Unter der EKG-Amplitude wird normalerweise der Spitzenwert der R-Zacke verstanden. Dieser beträgt im Mittel 1 mV, so dass für den üblichen analogen Pegel für weitere Verarbeitung mit 1 V eine Differenzverstärkung von Vd = 1000 notwendig sein wird. Am Ausgang soll das SNR 40 dB bzw. 100 betragen, so dass die zulässige Störung am Ausgang eine Amplitude von höchstens 1V/100 = 10 mV erreichen darf. Daher darf die Gleichtaktverstärkung nicht größer als Vg = 10mV/1V = 0.01 sein. Daraus folgt für das CMRR = Vd/Vg = 1000/0.01 = 105, das entspricht 100 dB. Falls ein Messverstärker mit einem CMRR von nur 60 dB vorhanden ist, so wird sich die zulässige Störung deutlich reduziert werden müssen. Hier kann man den Vorteil der logarithmischen Darstellung nutzen – die Multiplikationen und Divisionen der Übertragungen reduzieren sich auf die einfache Addition: SNRE/dB + CMRR/dB = SNRA/dB, oder detailliert wie folgt SNR A
Diff U Aus Gleich U Aus
Diff Vd U Ein Gleich Vg U Ein
CMRR SNRE .
Im konkreten Beispiel gilt: SNRE /dB = SNRA/dB – CMRR/dB = 40 dB – 60 dB = -20 dB. Daraus folgt, dass bei einem Pegel des EKG von 1 mV die Störung höchstens 1mV/10 = 0.1 mV betragen darf und das ist in der Praxis kaum machbar. Bei der Messung vom EEG würden wir mit diesem schwachen CMRR in den Mikrovoltbereich geraten, in dem bereits das Verstärkerrauschen liegt, so dass die Forderung nach 40 dB aus Sicht der Störung technologisch nicht erfüllbar wäre. Daraus folgt, dass die Forderung nach einem CMRR von mindestens 100 dB für die Praxis durchaus belegt ist.
118
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
7 Diskreter Differenzverstärker Da es sich in dieser Simulation um einen diskreten Differenzverstärker handelt, bei dem noch nicht klar ist, wie die Ausgangsspannung ausgekoppelt wird, betrachten wir beide Alternativen – massefreie (symmetrische, Index S) UAS und massebezogene Ausgangsspannung UAM (Index M) Entsprechend der Schaltung gilt UAS = Ud2-Ud1, UAM = Ud2 (oder UAM = Ud1). Die gleichtaktbezogene Ausgangsspannung erhält den Index G, die differenzbezogene den Index D. Nach der Simulation von BSV_2.21 können wir aus dem Zeitverlauf für die Amplitude der Ausgangsspannung ablesen UASD = 130 mV und UASG = 0 V. Das Ablesen der Amplituden der massebezogenen Ausgangsspannung im Zeitbereich gestaltet sich wegen der additiven Zusammensetzung aus Gleichanteil, der langsamen Differenzspannung (10 Hz) und der schnellen Gleichtaktspannung (50 Hz) schwierig. Deswegen übertragen wir die Darstellung mit der FFT in den Frequenzbereich, in dem jede Komponente einzeln mit ihrer zugehörigen Amplitude dargestellt wird. Im Spektrum können wir dann für die Amplituden ablesen: UAMG = 22 mV (34 mV) und UAMD = 66 mV. Für die massefreien Verstärkungen gilt in Bezug auf die Spannungsquellen: VDS = UASD/UD = 13, VGS = UASG/UG = 0. Daher ist das CMRRS theoretisch unendlich groß. Für die massebezogenen Verstärkungen gilt: VDM = UAMD/UD = 6,6 und VGM = UAMG/UG = 0,22. Daraus ergibt sich für die massebezogene Gleichtaktunterdrückung CMRRM = VDM/VGM = 30 bzw. 30 dB. Dies ist ein Wert, der in der medizinischen Messtechnik inakzeptabel wäre, allerdings liegt hier zunächst nur ein einstufiger Differenzverstärker vor. Vergleichen wir die Ergebnisse mit denen des Differenzverstärkers mit Konstantstromquelle, dazu starten wir die Simulation BSV_2.22. Für die massefreien Ausgangsspannungen und die zugehörigen Parameter ändert sich nichts. Für die massebezogenen Spannungen gilt UAMD = 66 mV und UAMG = 12.4 mV, so dass hier eine deutliche Verbesserung des Gleichtaktverhaltens zu erkennen ist. Die Differenzspannung hat sich erwartungsgemäß nicht geändert, denn diese hängt von dem Sourcewiderstand nicht ab. Durch die dynamische Vergrößerung des Sourcewiderstandes wurde die Gleichtaktspannung auf etwa die Hälfte reduziert. Die Verstärkungen betragen VDM = UAMD/UD = 6,6 und VGM = UAMG/UG = 0,12, so dass für das CMRRM ein Wert von 55 bzw. 35 dB erreicht wird. Daraus folgt, dass die Konstantstromquelle das CMRR auf fast das Doppelte verbessern konnte. Nun schauen wir uns den Einfluss der Unsymmetrie auf die Betriebsparameter an. Die Unsymmetrie in der Einkopplung der Gleichtaktstörung wird mit der Herabsetzung des Widerstandes Rg2 (oder Rg1) auf die Hälfte simuliert. Für die Ausgangsspannungen können wir im Spektrum ihre Amplituden ablesen: UASD = 124 mV, UASG = 62 mV, UAMD = 62 mV und UAMG = 45 mV. Daraus folgt, dass selbst bei einem idealen Differenzverstärker durch die Unsymmetrie am Eingang in diesem konkreten Fall das Verhältnis des Differenz- und des Gleichtaktsignals im massefreien Ausgang von theoretisch Unendlich auf UASD/UASG = 2 bzw. 6 dB absinken kann, im massebezogenen Ausgang von 55 auf UAMD/UAMG = 1,4 bzw. 2,8 dB. An dieser Stelle müssen wir uns allerdings bewusst sein, dass diese relativ schlechten Werte nicht von der Schaltungstechnik, sondern von der real unsym-
2.4 Übungen
119
metrischen Ankopplung zu verantworten sind. Nun möchten wir der von uns unbeeinflussbaren Unsymmetrie der Ankopplung die elektronisch gegebene Unsymmetrie im Verstärker gegenüberstellen: Dazu wird die Schaltung (Symmetrie am Eingang wieder hergestellt) so simuliert, dass der bewusst übertrieben herabgesetzte Drainwiderstand Rd1 auf die Hälfte gesetzt wird. Nach der Simulation erhalten wir aus dem Spektrum die Amplituden zu UASD = 100 mV, UASG = 6 mV, UAMD = 67 mV und UAMG = 12 mV. Die Verstärkungen betragen VDS = UASD/UD = 10, VGS = UASG/UG = 0.06, VDM = UAMD/UD = 6.7 und VGM = UAMG/UG = 0.12, so dass für das CMRRS ein Wert von 166 bzw. 44 dB, für CMRRM ein Wert von 56 bzw. 35 dB erreicht wird. Vergleichen wir diese Werte mit denen bei Unsymmetrie der Einkopplung, so stellen wir fest, dass die (unrealistisch starke) Schaltungsasymmetrie einen fast vernachlässigbaren Einfluss auf die Betriebsparameter im Vergleich mit der Unsymmetrie bei der Einkopplung der Störung am Eingang aufweist. Die schaltungsbedingte Unsymmetrie reduziert zwar deutlich die massefreie Verstärkung, die massebezogene Verstärkung bleibt aber unverändert. Fazit dieser Analyse ist, dass eine extreme Schaltungsoptimierung der Elektronik hinsichtlich der Symmetrie keinen wesentlichen Nutzen bringen wird, wenn man nicht gleichzeitig den Messkreis vor dem Verstärker hinreichend symmetrisch gestalten kann – und das kann man in der Praxis in der Regel nicht. 8 Instrumentationsverstärker Die Simulation BSV_2.26 zeigt, dass selbst bei idealen Simulationsbedingungen (symmetrische Störungseinkopplung, identische Widerstände im Verstärker) im PSpice keine ideale Gleichtaktunterdrückung möglich ist. Das liegt daran, dass der verwendete OV vom Typ 741 auch nur ein begrenztes CMRR bietet, das am massebezogenen Ausgang sichtbar wird. Das SNR am Eingang beträgt SNRE
u DE uGE
1mV 10V
10 4 { 80dB ,
am Ausgang gemessenes SNR (im Frequenzbereich nach der FFT) beträgt u DA 90mV SNR A 2,8 { 9dB . Daraus folgt, dass das CMRR des Instrumenu GA 32mV tationsverstärkers in der Variante Impedanzwandler einen Wert von CMRR
VD VG
u DAu GE u DE uGA
SNR A SNRE
2,8 10 4 { 80dB 9dB
89dB .
Aus dieser Rechnung folgt, dass das CMRR des Instrumentationsverstärkers nach BSV_2.26 etwa 90 dB beträgt, was bei den heutigen Anforderungen ein unbefriedigender Wert ist. Beachten Sie, dass man bei Kenntnis der SNR am Eingang und
120
2 Verstärkung und analoge Filterung in der medizinischen Messtechnik
am Ausgang des Verstärkers das CMRR durch einfache Subtraktion der in dB angegebenen Werte ermitteln kann.
Kapitel 3
Erfassung, Abtastunng und Digitalisierung von Biosignalen
3.1 Erfassung von Biosignalen Dieses Kapitel behandelt die Gewinnung von Biosignalen aus Sicht der technisch orientierten Elektrophysiologie und Übertragung der Biosignale in eine computergerechte Form. Der Mensch als lebendes Objekt ist signalanalytisch zunächst ein räumliches Gebilde mit unzähligen und stets aktiven, räumlich verteilten Signalquellen. Ihre elektrische Aktivität soll möglichst nichtinvasiv von der Körperoberfläche, die magnetische Aktivität kontaktlos in einem gewissen Abstand vom Körper gewonnen werden. Bei der Erfassung der elektrischen Aktivität spielt die Frage nach der Positionierung der elektrischen Masse des Messverstärkers und der Referenz der Ableitsysteme für die medizinische Interpretation eine zentrale Rolle. Die für Techniker und Mediziner gleichermaßen wichtigen Fragen der Erdung, des Masseanschlusses und der Referenzierung werden hier behandelt.
3.1.1 Ableittechnik Der menschliche Körper ist elektrotechnisch gesehen ein geschlossener, elektrolytischer Volumenleiter, in dem an zahlreichen räumlichen Positionen lokale (Nervenbündel), aber auch ausgedehnte Stromquellen (Herz) stets aktiv sind. Diese Stromquellen erzeugen im gesamten Volumenleiter Stromschleifen, die im Körperinneren und an der Körperoberfläche Potentialdifferenzen erzeugen (Abb. 3.1). Diese Potentialdifferenzen verstärkt man mit Differenz-, Isolations- oder Instrumentationsverstärkern (siehe Kapitel 2). Ein solcher Verstärker besitzt neben den massefreien Differenzeingängen auch eine elektrische Betriebsmasse, die ebenfalls mit dem Patienten galvanisch verbunden sein muss. Ohne diese Verbindung würden die Differenzeingänge gegenüber der Masse auf einem undefinierten Potential liegen und den Verstärker in die Begrenzung treiben. Eine technisch einfache Möglichkeit (Abb. 2.22) bietet der direkte Anschluss der Masse über eine Masseelektrode. Die Masseelektrode soll dabei nicht zu weit vom eigentlichen Messkreis angeschlossen sein, um unnötige Gleichtaktstörungen zu vermeiden.
P. Husar, Biosignalverarbeitung, DOI 10.1007/978-3-642-12657-4_3, © Springer-Verlag Berlin Heidelberg 2010
122
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
+ ua -
Ub+
Ub-
Abb. 3.1 Eine Stromquelle (gekennzeichnet durch einen Pfeil) im Gehirn erzeugt räumliche Ströme, dargestellt durch Stromlinien (gestrichelt). Der Stromfluss erzeugt im Volumen und an der Oberfläche Potentiale, die Äquipotentiallinien sind gepunktet markiert. Die Potentialdifferenzen sind zwischen Sensoren an der Oberfläche messbar. Die elektrische Masse des Verstärkers (Mittelpunkt der Versorgungsspannungen Ub+ und Ub-) muss ebenfalls am Patienten angeschlossen sein
Beim EKG ist es standardmäßig der rechte Fuß, beim EEG ein Punkt auf der Kopfoberfläche oder in Kopfnähe (Hals, Stirn, Nase, Ohr). Es ist – vor allem für die nachfolgenden Überlegungen zur Referenzproblematik – wichtig festzuhalten, dass die in Abb. 3.1 für einen Kanal dargestellten physischen Anschlüsse immer vorhanden sein müssen. Der Masseanschluss kann allerdings auch hochohmig sein und indirekt erfolgen, da lediglich ein Potentialbezug bestehen soll und kein Messstrom fließen muss. Eine technische Minimallösung zur Erfassung von EKG ist in Abb. 3.2 dargestellt. Die nach Einthoven benannte Extremitätenableitung entsteht durch Differenzbildung zwischen den Händen und dem linken Fuß, während der rechte Fuß an die elektrischen Masse des Messverstärkers angeschlossen und eventuell geerdet ist. Da die Potentialdifferenzen zwischen jeweils zwei elektrisch aktiven und anatomisch gleichrangigen Stellen gebildet werden, spricht man von einer bipolaren Ableitung. Auf der Suche nach Möglichkeiten, die elektrische Aktivität im Körper unipolar darzustellen, versucht man schaltungstechnisch eine indifferente Elektrode herzu-
3.1 Erfassung von Biosignalen
123
stellen. Der häufigste Ansatz besteht darin, aus zwei oder mehreren Kanälen mittels Spannungsteiler das arithmetische Mittel in der Annahme zu bilden, dass dieses elektrisch inaktiv, oder zumindest minimalaktiv ist (Theorie siehe Abschnitt 3.1.2). Unter bestimmten Voraussetzungen ist dieser Ansatz theoretisch richtig.
5 5
0(* 8E 8 9
N
5+
/+
9
N 5
5 N
5 N
,
5 N
5 N
26 26
5
5
(.*
5
8E
0(* 0(* 8E 8
N
9 26
5
9
,,
26
N 5 N
5 5 N N
5
8E
0(* 5 5 N
/)
5
0(*
8E
8 9 26
N 5
9
,,,
26
8E
8E
9
9
N 5
8E
0(*
Abb. 3.2 EKG-Ableitung nach Einthoven. Die Extremitätenableitungen erfasst man als Potentialdifferenzen zwischen beiden Händen und dem linken Fuß, der rechte Fuß ist mit der elektrischen Masse des Messverstärkers verbunden. Die EKG-Signalquelle und das Widerstandsnetzwerk simulieren die internen Ströme und Potentialdifferenzen am Patienten. Die EinthovenAbleitungen I, II, III entstehen durch Differenzbildung und Verstärkung mit Hilfe von Operationsverstärkern (PSpice-Simulation BSV_3.1). Im Modell sind wegen der Knotenbegrenzung der Studentenversion von PSpice keine Vorstufen der Differenzverstärker mit hohem Eingangswiderstand enthalten. Bei der Simulation ist daher darauf zu achten, dass die Differenzverstärker einen niedrigen Eingangswiderstand haben (Größenordnung 100 k:)
124
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
Eine Ableitung im messtechnischen Sinne ist immer bipolar, da sie als Differenz von mindestens zwei Potentialen gebildet wird, die man von der elektrisch aktiven Oberfläche des menschlichen Körpers abgreift Dann wäre eine Aktivitätsmessung der funktionell interessanten neuronalen Strukturen (sensorische und motorische Zentren) an der Körperoberfläche unipolar möglich. Die Messaufgabe einer echten Potentialmessung ist vielen Gebieten gemeinsam. In der medizinischen Messtechnik resultiert sie aus dem Wunsch, quantitative Informationen über die untersuchte neuronale Struktur allein zu erhalten, unabhängig von diversen, funktionell uninteressanten Referenzgebieten. Ein Beispiel für die schaltungstechnische Realisierung dieses Ansatzes zeigt Abb. 3.3 (In der Elektroenzephalographie als Referenz „verbundene Ohren“, in der Kardiologie als indifferente Elektrode der Goldberger- oder Wilson-Ableitung bekannt). Mit Hilfe identischer Widerstände bildet man aus zwei oder mehreren abgeleiteten, massebezogenen Potentialen eine virtuelle Elektrode. Unter idealen Bedingungen des Mediums (Homogenität, Isotropie) und der Elektrodenanordnung (symmetrisch und ausreichend dicht über die gesamte Oberfläche verteilt) würde die virtuelle Elektrode tatsächlich in der geometrischen Mitte zwischen den Ableitpunkten liegen und wäre elektrisch inaktiv. Allerdings ist in der Realität und der messtechnischen Praxis keine dieser Annahmen erfüllt, so dass indifferente Elektroden nicht als elektrisch inaktiv gelten können.
+
-
ua Ub+
Ub-
Abb. 3.3 Bildung einer virtuellen Referenzelektrode: Aus zwei oder mehreren Kanälen (verbundene Ohren) wird über identische Widerstände eine Referenz gebildet, die als indifferent angenommen wird. Unter dieser Annahme werden solche Ableitungen als unipolar bezeichnet. Diese Annahme ist jedoch unrealistisch und kann zu Fehlinterpretationen führen
3.1 Erfassung von Biosignalen
125
Die Problematik der Referenz- und Masseanschlüsse sowie der Erdung ist komplex und nicht nur aus Sicht der Biosignalerfassung, sondern auch für die elektrische Sicherheit der Patienten von fundamentaler Bedeutung. Vor den weiteren Ausführungen zur Ableittechnik folgt hier eine Übersicht über die Funktion und Realisierbarkeit der Anschlüsse Erdung, elektrische Masse und Referenz. 3.1.1.1 Erdung
Erdung ist sicherheitsrelevant und für Geräte der Schutzklasse I zwingend notwendig. Der Patient ist nur geerdet, wenn dies die Gerätetechnik erfordert. Bei sicherheits- und messtechnischen Analysen ist aber immer davon auszugehen, dass er geerdet sein kann, gewollt oder ungewollt. Erdung ist für die Signalerfassung nicht notwendig und auch nicht sinnvoll, da sie die Signalqualität herabsetzen kann (siehe Abschn. 2.1.3 Einkopplung von Störungen in die Messanordnung). Ein Beispiel zur Wirkung der Erdung zeigt Abb. 2.10, wobei hier der Masseanschluss am Fuß des Patienten als Erdung zu interpretieren ist. In der Ableittechnik ist daher Erdung, wenn möglich, zu vermeiden. 3.1.1.2 Elektrische Masse
Eine galvanische Verbindung zwischen dem Patienten und der elektrischen Masse des Messverstärkers ist funktionell notwendig. Bei fehlender Masseverbindung würden die Verstärkereingänge vor allem bei FET8-Eingansstufen potentialfrei im Raum schweben und der Verstärker könnte sich unkontrolliert verhalten. Diese potentielle Gefahr rührt aus den Eigenschaften eines Feldeffekttransistors: Das Gate ist eine isolierte leitfähige Fläche, die mit dem Substrat einen Kondensator bildet. Besitzt das Gate kein definiertes Potential, so lädt sich der Kondensator zufällig auf und steuert damit den Transistorstrom in unkontrollierter Weise. Damit das Gate ein definiertes Potential erhält, ist eine galvanische Verbindung zur Masse notwendig. Diese Verbindung muss nicht zwangsläufig direkt über ein Kabel, sie kann auch indirekt und hochohmig über die eigentliche Schaltung realisiert werden. Der Masseanschluss des Messverstärkers kann daher entweder direkt erfolgen (Abb. 3.1, 3.2, 3.3) oder schaltungstechnisch über eine innere Masse sowie indirekt über die Schaltung (Abb. 3.4). 3.1.1.3 Referenz
Eine Referenz ist für die Signalerfassung nicht notwendig. Die technisch einfachste Lösung bietet eine Messanordnung, bei der von allen Ableitpunkten am Patienten gegen die elektrische Masse Differenzen gebildet werden. Da aus Sicht der 8
Feld-Effekt-Transistor
126
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
Ableittechnik jede Ableitung bipolar ist, hat eine Referenz zunächst nur einen rein deklarativen Charakter. Für unipolare Ableitungen (im medizinischen Sinne) ist es allerdings notwendig, einen der Ableitpunkte als Referenz zu definieren und alle anderen Potentialdifferenzen auf diesen Punkt zu beziehen. Eine Referenz kann auch schaltungstechnisch (Abb. 3.3) oder rechnerisch (Abschn. 3.1.2) als virtueller Bezugspunkt realisiert werden. Zur Bildung einer inneren elektrischen Masse (ohne Patientenelektrode) oder einer virtuellen Referenz finden Lösungen der Schaltungstechnik Anwendung (Abb. 3.4).
5 5 N /+
5+ 5 N
5 N
5
0(* 8E 8 9 26 X$ 26 9
N 5
5 N
5 N
,
5
(.*
5
0(*
8E
8 9
N 5
8E
0(*
X$ 9
26
,,
26
N 5
5
5 5 N N
N
5 N /)
5 N
5 5 N 5
5 N
N
0(* 8E 8 9 26 X$ 26 9
8E
,,,
N 5
5
8E
0(*
8E
8E
0(* 9
9
Abb. 3.4 Innere elektrische Masse durch Bildung des arithmetischen Mittels aller Extremitätenpotentiale mit Hilfe identischer Widerstände (R21, R22, R23). Außer den Extremitätenelektroden sind keine weiteren Anschlüsse am Patienten notwendig. Dieselbe Lösung kann zur Bildung einer Bezugselektrode für unipolare Ableitungen verwendet werden (Wilson). Der Sternpunkt der Widerstände würde in dem Fall nicht auf Masse liegen, sondern das gemeinsame Eingangspotential der Messverstärker bilden. Wird der Sternpunkt als Referenzelektrode verwendet, so ist auch weiterhin die galvanische Verbindung des Patienten über den Eingangskreis der Differenzverstärker über R5,6,7 bzw. R14,15,16 gesichert
3.1 Erfassung von Biosignalen
127
Obwohl die grundlegenden Ableitsysteme zur Erfassung von EKG, EEG, EMG oder EOG hinsichtlich der Elektrodenpositionierung weitgehend standardisiert sind, herrscht in Fragen der Referenzierung und Erdung sowie elektrischer Masse im medizinischen, aber auch im technischen Bereich, Uneinigkeit und Unsicherheit. Im Sinne einer Vereinfachung der Handhabung der Messtechnik und zur Minimierung von Fehlableitungen ist es deshalb sinnvoll zu versuchen, diese Probleme vorab schaltungstechnisch zu lösen. Einen plausiblen Ansatz zeigt Abb. 3.4. Die Notwendigkeit eines patientenseitigen Masseanschlusses wird dadurch aufgehoben, dass die Anschlüsse über gleiche Widerstände einen Sternpunkt bilden, der auf die elektrische Masse des Verstärkers gelegt wird. Dasselbe Prinzip könnte man auch auf die Bildung einer virtuellen Referenz (Abb. 3.3) anwenden, in dem der Sternpunkt nicht auf Masse gelegt wird, sondern für alle anderen Ableitpunkte als gemeinsame Referenz dient. Eine solche Referenz wird mit CAR9 bezeichnet und ist in einigen kommerziellen Geräten bereits irreversibel eingebaut. Die CAR kann bei einigen Fragestellungen (anatomiebezogenes, räumlich aufgelöstes EEG) allerdings zu Fehlableitungen und Falschinterpretationen führen (siehe Abschn. 3.1.2), so dass sie als eine fest eingebaute Option des Ableitsystems grundsätzlich abzulehnen ist. Es empfiehlt sich, ein zur Anwendung vorgesehenes Ableitsystem auch in dieser Hinsicht gründlich zu prüfen.
3.1.2 Referenzen in der Biosignalerfassung Wie im vorigen Kapitel erläutert, ist aus Sicht der Ableittechnik jede Ableitung bipolar. In der Elektrophysiologie werden jedoch bipolare und unipolare Ableitungen unterschieden. Unter einer unipolaren Ableitung versteht man Potentialdifferenzen zwischen aktiven Ableitpunkten und einer wunschgemäß inaktiven Referenz, während man als bipolare Ableitung die Potentialdifferenz zwischen zwei aktiven Ableitpunkten bezeichnet. Elektrophysiologisch sind beide Ableitungsarten von Interesse. Unipolare Ableitungen repräsentieren eine eher globale Aktivität, die sich zwischen die Ableitpunkte und die meistens relativ weit entfernte Referenz projizieren. Bipolare Ableitungen stellen eher lokale Aktivitäten dar, da sie naturgemäß räumlich kürzere Projektionsstrecken repräsentieren. Die Annahme eines inaktiven Bezugspunktes ist bei virtuellen Referenzen (mit Ausnahme der Hjorth-Ableitung, die als berechnete Ableitung ohne eine Referenz auskommt, siehe Referenzfreie Ableitungen) jedoch kaum erfüllt, bei physisch vorhandenen Bezugspunkten schon gar nicht. Das ist auch der Grund, warum Mediziner selbst bei unipolaren Ableitungen immer genau wissen möchten, welcher Ableitpunkt bei der Messung als Referenz verwendet wurde. Implizit behandeln sie also auch unipolare Ableitungen als bipolare, jedoch mit dem Unterschied der oben genannten Projektion.
9
Common-Average-Reference
128
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
Abb. 3.5 Elektrodenmatrix zum EMG-Potentialmapping über dem unteren Teil des Rückens. Als Referenz kann grundsätzlich jeder Ableitpunkt gewählt werden, dies hängt von der konkreten Fragestellung ab. Pauschal gilt, dass markante Punkte als Referenz geeignet sind: Rand oder Mitte der Elektrodenmatrix
Unter dem Gesichtspunkt der Referenzierung lassen sich Ableitsysteme der Elektrophysiologie in drei Gruppen einordnen: Ableitsysteme mit realen und virtuellen Referenzen sowie referenzfreie Ableitungen. 3.1.2.1 Ableitsysteme mit realen Referenzen
Als Referenz wird ein physisch vorhandener Ableitpunkt auf der Körperoberfläche deklariert. Üblich sind bei EEG-Ableitungen Ohrläppchen (A1, A2) für unipolare Interpretation oder Positionen des 10-20-Standardsystems Cz oder Fz (Abschn. 3.1.4) sowie ausgewählte Positionen der Elektrodenmatrix bei EMGAbleitungen (Abb. 3.5). 3.1.2.2 Ableitsysteme mit virtuellen Referenzen
Das Bezugspotential wird schaltungstechnisch (Abb. 3.3) oder rechnerisch (Gl. 3.1) gebildet und als virtuelle Referenzelektrode eingesetzt. Standardmäßig verwendet man elektronisch gebildete Referenzen bei EKG-Ableitungen nach Wilson und Goldberger, eine elektronische oder rechnerische gemeinsame Referenz als CAR bei EEG- und EMG-Ableitungen. car k
1 M
M
¦ xi k
(3.1)
i 1
In Gl. 3.1 ist k der Zeitindex, i der Index der Ableitpunkte.
xic k
xi k car k
(3.2)
3.1 Erfassung von Biosignalen
129
In Gl. 3.2 ist k der Zeitindex, i Index der Ableitpunkte, xi(k) unipolare Ableitungen, aus den die car(k) gebildet wird, car(k) die Referenz nach Gl. 3.1, xci(k) Ableitungen bezogen auf die gemeinsame Referenz car(k)
Referenzierung der einzelnen Ableitungen nach Gl. 3.2 hat einige positive Auswirkungen auf die Signalerfassung. Die CAR nach Gl. 3.1 entspricht dem Gleichtaktsignal eingekoppelter Störungen in allen Messkanälen. Wenn es elektronisch gelingt, die CAR möglichst vorn am Eingang des Messverstärkers zu bilden und sie nach Gl. 3.2 von den Kanälen zu subtrahieren (siehe Guarding-Technik), entspräche das einer sehr wirksamen Gleichtaktunterdrückung. Dies ist vor allem bezüglich der eingekoppelten Störungen aus der Umgebung (Netz, Röhrenmonitore) von Bedeutung. Nach demselben Prinzip werden im gemessenen Biosignal körpereigene, aber störende, vom Ableitort entfernte Biosignale gedämpft, z.B. Artefakte durch Augen- und Lidbewegungen im okzipitalen EEG. Allerdings kann die CAR zu elektrophysiologisch problematischen Analyseeffekten führen, die später behandelt werden. Daher sollte sie hardwaremäßig nicht irreversibel eingebaut sein, sondern nur als rechnerische Option der Signalauswertung zur Verfügung stehen. 3.1.2.3 Referenzfreie Ableitungen
Alle technischen und signalanalytischen Probleme der Referenzierung wären gelöst, könnte man die Aktivität der Biosignale referenzfrei erfassen. Es wurde jedoch schon gezeigt, dass zur messtechnischen Erfassung immer ein Bezugspotential notwendig ist. Man könnte aber auf die gemessenen Daten eine Operation anwenden, bei der sich das Referenzpotential eliminiert. Dafür eignet sich grundsätzlich die Differentiation, bei der der Bezug zu Absolutwerten verloren geht.
M ir
Mi M r
(3.3)
Ii und Ir sind Potentiale an den Stellen i und r, Iir sind die technisch messbaren unipolaren Potentialdifferenzen.
Man kann zunächst von einem einfachen, aber realistischen Modell einer dreikanaligen unipolaren Ableitung ausgehen (Abb. 3.6). Gemessen werden unipolar Potentialdifferenzen zwischen den Ableitpunkten und der Referenzelektrode (Gl. 3.3). Im Weiteren geht man von der Vereinfachung aus, dass die Messpunkte auf einer Linie liegen und sich die Referenz orthogonal zu dieser Linie im Unendlichen befindet. Man kann die erste räumliche Ableitung bilden, in deren Ergebnis die unipolaren zu bipolaren Ableitungen werden (Gl. 3.4).
M ix
d M ir | ^M 0r M1r ; M 0r M 2r ` dx
(3.4)
130
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
x1
x0 r x2
x
Abb. 3.6 Dreikanalige unipolare Ableitung mit Referenz am Ohr. Vereinfachend wird angenommen, dass die Ableitpunkte auf einer Linie liegen, die als x-Achse bezeichnet wird, x0 ist der Mittelpunkt der Anordnung. Bei der unipolaren messtechnischen Erfassung misst man die Potentialdifferenzen I1r = I1 - Ir, I2r = I2 - Ir, I0r = I0 - Ir
Der Bezug zur Referenz r geht mit der Differentiation zwar verloren, dennoch wird die elektrische Aktivität immer noch als Potentialdifferenz an zwei Ableitpunkten gebildet. Um eine referenzfreie Ableitung zu erhalten, die die elektrische Aktivität auf einen einzigen Ableitpunkt x0 bezieht, ist eine weitere Differentiation otwendig (Gl. 3.5). Der Ausdruck nach Gl. 3.5 ist die eindimensionale Variante des Laplace-Operators.
M Qx
d2 dx 2
M ir | M 0r M1r M 0r M 2r
(3.5)
Nach der zweiten Differentiation erhält man ein Potential, das ein Maß für die elektrische Aktivität allein am Ableitpunkt x0 und daher referenzfrei ist. Diese Größe wird als Quellenpotential bezeichnet, da sie ein Maß für die Stromquellendichte ist (CSD, Current Source Density). In Abb. 3.7 ist die Ermittlung der CSD eindimensional dargestellt: Im Körper befinden sich elektrisch aktive Stromquellen und -senken, die an der Oberfläche entsprechende Potentialverläufe erzeugen. Die zweite räumliche Differentiation der Potentialverläufe erreicht ihre Maxima über den Stromquellen und ihre Minima über den Stromsenken. Die Potentialver-
3.1 Erfassung von Biosignalen
131
läufe werden in Bezug auf eine Referenz r an den Ableitpunkten x0, x1, x2 gemessen. Dies entspricht einer räumlichen Abtastung. Die Berechnung des Quellenpotentials nach Gl. 3.5 lässt sich auf den zweidimensionalen Fall (Abb. 3.8, Gl. 3.6) erweitern:
MQ
M 0r M1r M 0r
§ w2 w2 · ¨ 2 2 ¸M xy | ¨ wx wy ¸¹ © M 2r M 0r M 3r M 0 r M 4 r
(3.6)
4M 0r M1r M 2r M 3r M 4 r
Die Beziehung nach G. 3.6 ist als Hjorth-Operator bekannt und gilt für Sensoranordnungen mit gleichen Abständen zum betrachteten Ableitpunkt und näherungsweise planarer Projektion der elektrischen Aktivität. Diese lässt sich auf beliebig viele Sensoren mit unterschiedlichen Abständen erweitern, in dem die einzelnen Potentiale nach ihrem Abstand zum betrachteten Ableitpunkt gewichtet werden. Mit der Hjorth-Ableitung (Abb. 3.8) steht somit eine (berechnete oder schaltungstechnisch realisierte) referenzfreie Ableitung zur Verfügung, die auch die theoretischen Annahmen gut erfüllt. Allerdings entstehen dabei einige wesentliche Nachteile. In der Abb. 3.7 ist ersichtlich, dass nach dem räumlichen Abtasttheorem die Dichte der Ableitpunkte höher sein müsste als die Dichte der Stromquel-
IQmax
Ix
x1
x0
IQmin
Stromsenke
x2
IQmin
Stromquelle
Stromsenke
Abb. 3.7 Eindimensionales Modell zum Quellenpotential. Elektrisch aktive Stromquellen und Stromsenken erzeugen auf der Oberfläche einen Potentialverlauf. Die zweite Differenz des Potentialverlaufs (Krümmung) erreicht über den Stromquellen lokale Maxima, über den Stromsenken lokale Minima. Die Sensoren realisieren die räumliche Abtastung
132 Abb. 3.8 Zweidimensionales Modell zum Quellenpotential. Die Potentiale an den Ableitpunkten werden unipolar gegen die Referenz r gemessen. Die Abstände zwischen den Ableitpunkten sind konstant. Für jede betrachtete Elektrode ergibt sich das Quellenpotential zu 4I0-I1-I2-I3-I4. Auf diese Weise erhält man ein referenzfreies Abbild der elektrischen Aktivität an der Oberfläche. Die Anzahl der referenzfreien Punkte reduziert sich wegen der Randeffekte von 21 auf 9
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
1 3 r
0
4
2
len. Dies ist in der Praxis nicht realisierbar, man nimmt die Verletzung des Abtasttheorems bewusst in Kauf. Weiterhin ist an Hand des Modells deutlich, dass nur radial liegende Stromquellen bzw. nur radiale Anteile von Stromquellen erfasst werden können. Dies wirkt sich nachteilig auf Untersuchungen aus, in den vorwiegend tangential liegende Stromquellen auftreten. Durch die Sensoranordnung nach Abb. 3.8 verringert sich die Gesamtfläche der referenzfreien Ableitung um eine Sensorreihe am Rand der Matrix, womit ein Teil der Information verloren geht. Aus den ursprünglichen 21 Potentialableitungen entstehen nach Gl. 3.6 neun Quellenpotentiale.
3.2 Abtastung von Biosignalen
3.2.1 Spektrale Eigenschaften der Abtastung Die Abtastung von Signalen ist ein mathematisch und technologisch gut aufgearbeitetes Thema, das zahlreiche Publikationen behandeln. An dieser Stelle werden daher selektiv nur Themen erörtert, die direkt mit Biosignalen zusammenhängen. Mathematisch entspricht die Abtastung der Multiplikation des Eingangssignals mit einer Diracpuls-Folge (Abb. 3.9):
3.2 Abtastung von Biosignalen
133
y t
f
xt ¦ G t nTA
(3.7)
n f
In Gl. 3.7 ist x(t) das Eingangssignal, y(t) das Abtastsignal, G(t) ein Diracimpuls, TA die Abtastperiode.
Der Multiplikation von Signalen im Zeitbereich entspricht die Faltung ihrer Spektren im Frequenzbereich: Y f
X f
1 TA
f § 1 · ¦ G ¨¨ f n ¸¸
n f
©
TA ¹
1 TA
f
§
1 ·
¦ X ¨¨ f n ¸¸ TA ¹ n f ©
(3.8)
Das Spektrum der Diracimpuls-Folge besteht ebenfalls aus Diracimpulsen, deren Abstand 1/TA beträgt. Das ursprüngliche Spektrum des Originalsignals ist nach der Abtastung periodisch mit den Harmonischen der Abtastrate (Abb. 3.10). Dadurch kann es zur Überlappung (Aliasing) der Spektren kommen, wenn die Abtastrate niedriger ist, als die doppelte Höchstfrequenz des Originalsignals. Es muss also gelten TA
1 2 f max
.
(3.9)
Die Bedingung nach Gl. 3.9 ist das Abtasttheorem. Wird sie nicht eingehalten, überlap10 pen sich die Spektren nach der Abtastung. Das führt im Basisband zu Fehlinterpretationen, die nicht korrigierbar sind. Ein typisches Beispiel zeigt Abb. 3.11.
Das EKG wird oft durch die Atmung beeinflusst, sowohl in der Herzrate (respiratorische Arrhythmie), als auch in der Amplitude der EKG-Zacken und Wellen. Letzteres lässt sich signaltheoretisch auf die Amplitudenmodulation zurückführen (s. Abschn. 2.1.3). Im korrekt abgetasteten EKG (Abb. 3.11 oben) ist die Amplitudenänderung in Folge der Atmung als Einhüllende deutlich sichtbar. Verletzt man die Abtastbedingung, so verfälschen die überlappenden Anteile des Spektrums das Signal im Basisband in unkontrollierbarer Weise (z.B. Moiree bei Bildern mit Feinstrukturen im Fernsehen) und täuschen damit Verläufe vor, die real nicht vorhanden sind. Im unteren Teil der Abb. 3.11 ist dasselbe abgetastete EKG nach Verletzung der Abtastbedingung dargestellt. Die Herzaktionen bleiben zwar erhalten, ihre Amplituden haben jedoch einen stochastischen Charakter. Die von der Atmung erzeugte Einhüllende und damit ein wichtiges diagnostisches Merkmal ging komplett verloren. Hinzugekommen ist der stochastische Charakter der Amplituden, welcher zu falschen diagnostischen Schlüssen führen kann. Aus den oben genannten Gründen ergibt sich die Notwendigkeit, die Abtastrate so hoch zu wählen oder das Spektrum des abzutastenden Signals mit einem Antialiasingfilter 10
Basisband ist das Frequenzband, in dem sich das Originalspektrum des unmodulierten (hier des nicht abgetasteten) Signals befindet.
134
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
1.5
EKG / mV
1
0.5
0
-0.5 3
3.05
3.1
Zeit / s
3.15
3.2
3.25
Abb. 3.9 Ein reales EKG multipliziert mit Dirac-Pulsen (markiert durch Kreise). Die Abtastperiode beträgt TA = 20ms
8000 6000 4000 2000 0
-100
-50
-100
-50
0
50
100
0
50
100
4000 3000 2000 1000 0
Frequenz / Hz
Abb. 3.10 Spektrum des realen (oben) und des abgetasteten EKG aus Abb. 3.9 (unten). Die Abtastperiode betrug TA = 8 ms. Das EKG wurde vor der Abtastung mit einem Tiefpass 2. Ordnung mit einer Grenzfrequenz von 20 Hz gefiltert
3.2 Abtastung von Biosignalen
135
korrekte Abtastung
EKG / mV
2 1 0 -1 0
2
4
6
8
10
12
14
16
10
12
14
16
Aliasing
EKG / mV
2 1 0 -1 0
2
4
6
8
Zeit / s
Abb. 3.11 Korrekt abgetastetes EKG (oben) und unterabgetastetes EKG (Aliasing, unten). Während im oberen Bild die Einhüllende (Verbindungskurve der R-Zacken im positiven und der SZacken im negativen Bereich) deutlich ausgeprägt ist, da sie von der Atmung stammt (Amplitudenmodulation, s. Abschn. 2.1.3), zeigen im unteren Bild die Zacken einen stochastischen Verlauf. Die unkontrollierte Veränderung der Signalform unten ist auf die Verletzung der Abtastbedingung zurückzuführen
(Tiefpass) so zu beschränken, dass die Abtastbedingung (Gl. 3.9) eingehalten wird. Ein Tiefpass mit einer möglichst niedrigen Grenzfrequenz ist immer sinnvoll, da er auch oberhalb des Biosignalspektrums liegende Störungen unterdrückt. Allerdings muss er die Anforderungen an den Phasenfrequenzgang erfüllen (s. Abschn. 2.3.4). Man versucht die Forderung nach linearem Phasenfrequenzgang oft damit zu relativieren, dass mit einer wesentlich höheren Abtastrate als nötig gearbeitet wird. Dann setzt man einen sehr steilen Antialiasing-Tiefpass ein, dessen Phasenfrequenzgang zwar nichtlinear ist, dies jedoch weit außerhalb des Biosignalspektrums. Diese Situation ist in Abb. 3.12 dargestellt. Soll der Antialiasing-Tiefpass L(f) nur das Biosignalspekrum B(f) durchlassen, so muss er auch auf Kosten der relativ niedrigen Flankensteilheit eine lineare Phase besitzen (Bessel-Filter). Wünscht man sich dennoch eine steile Filterflanke N(f), die zwangsläufig mit nichtlinearer Phase einhergeht (Butteworth, Tschebyschew, Cauer), so muss die Grenzfrequenz so hoch gewählt werden, dass die Nichtlinearität der Phase das Biosignalspektrum B(f) nicht beeinflusst.
136
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
|G|
B(f)
L(f)
N(f)
1/TN
1/TL
f
Abb. 3.12 Das abzutastende Signal B(f) kann mit einem Antialiasing-Tiefpass L(f) mit linearer Phase und flacher Filterflanke gefiltert und mit der Periode TL abgetastet werden. Es kann mit einem steileren Filter N(f), aber nichtlinearer Phase, bei höherer Frequenz gefiltert und mit einer kleineren Periode TN abgetastet werden. Die Nichtlinearität der Phase von N(f) muss sich auf B(f) nicht auswirken, wenn TN klein genug ist (mindestens eine Dekade kleiner als TL). Allerdings können alle Störungen, die spektral zwischen L(f) und N(f) liegen, die Messung beeinträchtigen
G
N(f)
N*(f)
I (f)
I(f)
B(f)
1/2TN
1/TN
f
Abb. 3.13 Wirkung einer Unterabtastung auf die halbe Abtastrate: Der Amplitudenfrequenzgang des Tiefpasses staucht sich von N(f) entlang der Frequenzachse auf die Hälfte N*(f), die Filterflanke wird steiler. Der Phasenfrequenzgang staucht sich von I(f) ebenfalls auf die Hälfte I (f), wodurch er als verstärkt nichtlineare Phase mitten im Signalspektrum liegt
3.2 Abtastung von Biosignalen
137
Nach der analogen Filterung mit N(f) kann das Signal digital gefiltert (s. Abschn. Digitale Filterung) und unterabgetastet werden (die Abtastrate wird reduziert). Methodisch sind beide Möglichkeiten – Filterung mit L(f) oder mit N(f) und Unterabtastung – gleichwertig, wobei die letztere eine steilere Filterflanke bietet. Aus Sicht der Störungsresistenz ist die erste Alternative L(f) zu bevorzugen: Gelangt erst einmal eine Störung zwischen L(f) und N(f) in den Verstärker, so kann sie ihn übersteuern und die Messung wertlos machen. Ein wesentlicher Nachteil der Variante N(f) besteht weiterhin darin, dass wegen der Abhängigkeit des Rauschens von der Bandbreite (Gl. 2.18, s. Abschn. 2.2.1) dieses deutlich höher ausfällt als beim Filter L(f). Das Fazit dieser Analysen ist: Die Abtastrate soll nicht höher als notwendig sein und der AntialiasingTiefpass einen linearem Phasenfrequenzgang haben. In einigen kommerziellen Lösungen versucht man das Problem des Rauschens bei der Variante N(f) dadurch zu lösen, dass nach der Abtastung mit TN das abgetastete Signal digital gefiltert und anschließend unterabgetastet11 wird (s. Abschn. Digitale Filterung). Dadurch wird zwar das Rauschen reduziert, die Phase aber wird im Bereich des Signals B(f) nichtlinear. In Folge der Unterabtastung wird das Signalspektrum B(f) gespreizt und liegt schließlich im nichtlinearen Übertragungsbereich des Filters N(f). Dieser Effekt ist in Abb. 3.12 ersichtlich: Geht man zunächst von beiden Alternativen aus, so liegt einerseits ein mit L(f) gefiltertes und mit TL abgetastetes, andererseits ein mit N(f) gefiltertes und mit TN abgetastetes Signal vor (hier mit TL = 2TN). Nach der Unterabtastung auf die halbe Abtastrate staucht sich die Kennlinie N(f) in Richtung der Frequenzachse auf die Hälfte und liegt genau über der Kennlinie B(f) mit der Konsequenz der nichtlinearen Phase, welche vor der Unterabtastung weit entfernt rechts lag (Abb. 3.13). Aus der Abb. 3.13 wird auch deutlich, dass ein digitales Filter zur Spektrumsbegrenzung vor der Unterabtastung im Sinne der nichtlinearen Phase nichts bewirken kann, außer dass eventuellen Verletzungen der Abtastbedingung vorgebeugt wird. Aus diesen Überlegungen ergeben sich für die Entwicklung und praktische Analyse folgende Konsequenzen: Man sollte grundsätzlich linearphasige Filter (Bessel) verwenden, auch auf Kosten der Flankensteilheit. Zur Minimierung des Rauschens sollte immer die niedrigstmögliche Abtastrate verwendet werden, die inklusive der Filterflanke die Abtastbedingung erfüllt, lineare Phase aller Filter vorausgesetzt.
3.2.2 Abtastung von bandbegrenzten Signalen Biosignale sind im Allgemeinen mehrkanalige Signale, die vor allem in drahtlosen Telemetrieanlagen analog moduliert und übertragen werden. Ein typisches Szena11
Unterabtastung ist eine Reduktion der Abtastrate, z.B. durch Weglassen jedes zweiten Abtastwertes bei einer Reduktion auf die halbe Abtastrate
138
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
rio entsteht bei dem Vorhaben, drei EKG-Kanäle drahtlos in der Zentrale einer Reha-Klinik zu überwachen, während die kardiologischen Patienten sich draußen frei bewegen. Ein vereinfachtes Blockschaltbild einer solchen Anlage ist in Abb. 3.14 dargestellt. Eine dreikanalige EKG-Ableitung (Einthoven) wird verstärkt und jede einzelne auf einen niederfrequenten Unterträger (Kilohertzbereich) amplitudenmoduliert. Die AM-modulierten EKG-Kanäle liegen nebeneinander im Spektrum, dies wird als Frequenzmultiplex bezeichnet. Sie werden aufsummiert und auf einen hochfrequenten Hauptträger (Megahertzbereich) frequenzmoduliert. Anschließend verstärkt man das Frequenzgemisch auf eine hinreichende Leistung und strahlt über die Antenne aus. Auf der Empfangsseite müssen diese Schritte in der umgekehrten Reihenfolge vollzogen werden. Durch die immer schnellere Digitalisierung ist es heute möglich, im Empfänger bereits nach dem FMDemodulator das Frequenzmultiplex-Signal zu digitalisieren und alle nachfolgenden Schritte im Prozessor auszuführen (Frequenz-Demultiplex, AM- Demodulation). Das aus dem FM-Demodulator kommende Signal muss zunächst abgetastet werden. Die spektrale Lage eines AM-modulierten EKG-Kanals ist in Abb. 3.15 unten dargestellt. Um dem Abtasttheorem (Gl. 3.9) entsprechend abzutasten, müsste die Abtastperiode für das AM-Signal die Bedingung erfüllen (die Bandbreite des EKG-Spektrums beträgt hier 120 Hz) TA
1 2 f max
1 2500 Hz 120 Hz
0.8ms .
Daraus ergibt sich eine minimale Grundfrequenz der Abtastrate von 1240 Hz. Dies ist technisch kein Problem, kann jedoch bei wesentlich mehr Kanälen und höheren Frequenzen zum Problem werden. Daher ist die Frage zu beantworten, ob die Forderung nach Gl. 3.10 eine notwendige und/oder eine hinreichende Bedingung ist. Aus den bisherigen Ausführungen folgt, dass diese Bedingung eine hinreichende Bedingung ist: Wenn sie erfüllt ist, tritt Aliasing nicht auf. Aus dem Vergleich der Spektren in Abb. 3.15 Mitte und unten folgt, dass sich das Originalspektrum sowohl nach der Abtastung als auch nach der Amplitudenmodulation um die Harmonischen der Abtastrate bzw. des Trägersignals spiegelt (unteres und oberes Seitenband). Allerdings gibt es im AM-Signal keine Periodizität wie im Abtastsignal. Das Spektrum des AM-modulierten EKG deckt sich mit einem der Spektren des abgetasteten Signals, wenn die Frequenz des AM-Trägers einer Harmonischen der Abtastrate gleich ist. Für die Analyse ist es daher gleichgültig, mit welcher Abtastrate das AM-modulierte EKG abgetastet wird, wenn diese dem ganzzahligen Vielfachen der minimalen Abtastrate im Basisband entspricht. Man kann daher das AM-Signal auf einem Träger von 500 Hz auch mit der Abtastrate des Basisbandes von 240 sps12 (s. Abb. 3.10) abtasten, denn das abgetastete Signal wird ohnehin im Basisband verarbeitet. Für d ie Abtastbedingung ist 12
Da die Abtastrate kein harmonisches Signal ist, eignet sich die Einheit Hz nicht. International wird daher die Einheit „sps“ verwendet: samples-per-second
3.2 Abtastung von Biosignalen
139
EKG1 AM
PA
EKG2
6
AM
FM
EKG3 AM
HT
UT
EKG1 AMD
EKG2 MIX
FMD
AMD
EKG3 AMD
HT
UT
Abb. 3.14 Blockschaltbild des Sendeteils (oben) und des Empfängerteils (unten) einer Anlage für die Biotelemetrie. UT ist Unterträger (ZF), HT Hauptträger (HF). AM sind Amplitudenmodulatoren, FM Frequenzmodulator, PA Leistungsverstärkung (oben). FMD und AMD sind Frequenz- und Amplitudendemodulatoren. Die Signalverarbeitung nach dem FMD kann digital erfolgen, z.B. in einem DSP
140
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
Originalspektrum
4
10
x 10
B
B
5 0 -1000
-800
-600
10
-400
-200
0
200
400
600
800
1000
600
800
1000
Spektrum nach Abtastung
4
x 10
5 0 -1000
-800 4
4
x 10
-600
-400
-200
0
200
400
Spektrum nach Amplitudenmodulation 2B=fmax-fmin
2 0 -1000
-800
-600
-400
-200
0
200
Frequenz / Hz
400
600
800
1000
Abb. 3.15 Spektrale Lage des Originalsignals im Basisband (oben) und des mit TA = 4 ms abgetasteten Signals (Mitte). Das amplitudenmodulierte Signal auf einem Unterträger von 500 Hz ist unten dargestellt. Es ist zu beachten, dass das Originalspektrum sich um den Unterträger (unten) spiegelt, wie bei der Abtastung auch (Mitte). Allerdings liegt (unten) keine Periodizität der Spektren vor, da der Unterträger ein harmonisches Signal ist und somit nur eine Nadel im Spektrum produziert
demnach nicht die höchste im Signal vorhandene Frequenz wichtig, sondern die tatsächliche Bandbreite B des abzutastenden Signals (Gl. 3.10). Ähnlich wie beim Antialsiasing-Tiefpass muss das Spektrum in diesem Fall vor der Abtastung mit einem Bandpass begrenzt werden. TA
1 2B
1
f max f min
(3.10)
Auf dieses konkrete Beispiel angewendet bedeutet das, dass selbst das AM-Signal, dessen höchste Frequenz bei 620 Hz liegt, mit der ursprünglichen Abtastrate von 125 sps abgetastet werden kann, da seine Breite nicht mehr als 62,5 Hz beträgt. Die Abtastbedingung nach Gl. 3.9 ist bei bandbegrenzten Signalen keine notwendige Bedingung. Für bandbegrenzte Signale gilt die Abtastbedingung nach Gl. 3.10.
3.2 Abtastung von Biosignalen
141
3.2.3 Abtastung in Mehrkanalsystemen Abtastsysteme sind technisch aus Abtast- und Haltegliedern (S&H – sample-andhold) aufgebaut. Neben der Grundfunktion der Abtastung ist auch das Halten notwendig (analoge Speicherung des Abtastwertes), da der nachfolgende AD- Wandler eine bestimmte Zeit zur Digitalisierung benötigt (Abb. 3.16). In Mehrkanalsystemen kann man den technischen Aufwand der Digitalisierung aller Kanäle enorm reduzieren, in dem man für alle Kanäle nur einen AD-Wandler verwendet. Die einzelnen Kanalsignale erscheinen zeitlich sequentiell am Eingang des ADWandlers, man wandelt im Zeitmultiplex. Der technische Aufwand lässt sich weiter reduzieren, in dem der Zeitmultiplex bereits bei der Abtastung angewandt wird (Abb. 3.17, 18). Man verlagert die nicht zwangsläufig gleichzeitig auszuführende Funktion aus der Simultanverarbeitung auf die Zeitachse in die sequentielle Verarbeitung. Dadurch muss die Funktion statt mehrfach nur einmal vorhanden sein. Mit sequentieller Abtastung kann der Aufwand vor allem bei vielkanaligen Systemen (256-Kanal-EEG) minimiert werden. Allerdings kann diese Hardwarestruktur zu signalanalytischen Problemen führen. Zwischen benachbarten Kanälen beträgt der Zeitversatz TV d
1 TA , N
(3.11)
zwischen dem ersten und dem letzten Kanal (N-1)TV, TA ist die Abtastperiode und N die Anzahl der Kanäle. In vielen Methoden der topographischen und räumlichen Signalverarbeitung werden jedoch Simultanwerte benötigt. Am Beispiel der CAR zeigen sich die Auswirkungen des Zeitmultiplex. In die Berechnungsvorschrift (Gl. 3.1) für die CAR gehen zeitverschobene Abtastwerte ein: ck
1 M ¦ xi kTA i 1 TV . Mi 1
(3.12)
In Gl. 3.12 ist k der Zeitindex, i der Kanalindex, TA die Abtastperiode, TV der Zeitversatz zwischen zwei benachbarten Kanälen, xi Signal im Kanal i, M Anzahl der Kanäle, c(k) die CAR.
Nach der Fouriertransformation in den Frequenzbereich gilt C f
1 M j 2Sf i 1 TV . ¦ X i f e Mi1
(3.13)
Unter der vereinfachenden Annahme, dass alle Kanalsignale formidentisch sind, kann der Phasenteil der Beziehung nach Gl. 3.13 als Übertragungsfunktion interpretiert werden:
142
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
1 0.8 0.6 EKG / mV
0.4 0.2 0 -0.2 -0.4 -0.6 -0.8
0.55
0.6
0.65
0.7
Zeit / s
0.75
0.8
0.85
Abb. 3.16 Zeitdiskretes, werteanaloges EKG nach Abtastung und analoger Speicherung. Das Biosignal liegt zwischen zwei Abtastpunkten als konstanter Pegel eines analogen Speichers für die Digitalisierung vor (S&H, Sample-and-Hold)
G f
1 M j 2Sf i 1 TV . ¦e Mi1
(3.14)
Der Betrag der Übertragungsfunktion nach Gl. 3.14 entspricht dem Amplitudenfrequenzgang eines Tiefpassfilters. Der Tiefpass erreicht die erste Nullstelle im Amplitudenfrequenzgang bei einer Frequenz von f = 1/MTV. Da für den Versatz die Gl. 3.11 gilt, liegt die erste Null des Amplitudenfrequenzganges von G(f) oberhalb der ersten Harmonischen der Abtastrate und erreicht bei der Nyquistfreqquenz13 einen Abfall von 3 dB. Dies ist unkritisch, da das Biosignal bei der Nyquistfrequenz ohnehin mit mindestens 60 dB unterdrückt sein soll, um Aliasing zu vermeiden. Dennoch sollte die sequentielle Abtastung gut geprüft und mit Vorsicht verwendet werden. In einigen speziellen Anwendungen, vor allem bei der EKG-Erfassung, spielen Zeitverschiebungen von wenigen Bruchteilen der Abtastperiode eine wichtige Rolle. Ein Standard-EKG mit 12 Kanälen wird beispielsweise mit 1000 sps je Kanal abgetastet (TV = 1 ms). Das ergibt eine Abtastperiode TA von mindestens 12 ms bzw. eine Abtastrate von 83.3 sps. Wählt man eine Abtastperiode von 12.5 ms, liegt die erste Harmonische der Abtastrate bei 80 Hz, die Nyquistfrequenz beträgt 40 Hz. 13
Nyquistfrequenz ist gleich der halben ersten Harmonischen der Abtastrate
3.2 Abtastung von Biosignalen
143
1 S&H
2
1
S&H ANALOG MUX
8...24 ADC
TA/N N
S&H
TA/N
TA
Abb. 3.17 Mehrkanaliges System mit Simultanabtastung. Alle Kanalsignale werden gleichzeitig abgetastet und dem AD-Wandler im Zeitmultiplex sequentiell zugeführt
1
2
1 ANALOG MUX
1 S&H
TA/N
8...24 ADC
TA/N
N
TA/N Abb. 3.18 Mehrkanaliges System mit sequentieller Abtastung. Über den analogen Zeitmultiplexer werden die Kanalsignale sequentiell abgetastet, zwischengespeichert und gewandelt
144
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
1 0.9 0.8 0.7
|G|
0.6 0.5 0.4 0.3 0.2 0.1 0 0
0.5
Z7S
1
1.5
Abb. 3.19 Amplitudenfrequenzgang der Übertragungsfunktion der CAR nach sequentieller Abtastung. Der Tiefpass erreicht die erste Null bei einem Zeitversatz von TV/2M
Auf Grund der Sequenzierung kann der Zeitversatz zwischen dem ersten und dem letzten Kanal 11 ms erreichen. Und dies wäre für bestimmte Anwendungen (Herzschrittmacher) ein zu großer Fehler. Der Zeitversatz und damit auch die Phasenverschiebung im Frequenzbereich sind normalerweise bekannt. Daher kann man ihn mit Hilfe einer Phasenkorrektur nach Gl. 3.15 auch ohne Kenntnis des Biosignals ausgleichen. X i* f
X i f e j 2Sf i 1 TV
(3.15)
Die Phasenkorrektur ist signaltheoretisch korrekt und kompensiert auch in realen Signalen die durch die Sequenzierung verursachte Verschiebung TV. Allerdings ist diese Korrektur nicht echtzeitfähig, da die meistens angewandte FFT14 eine hinreichende Blocklänge benötigt. Hinzu kommen Probleme bei der Berechnung der Fouriertransformation, die durch die Transformation selbst (Randeffekte, Leakage) als auch durch den Signalcharakter (instationär, EKG und EMG impulsartig) verursacht werden. Fazit dieser Überlegungen ist, dass man bei wenigen Kanälen zur Biosignalerfassung (M<30) simultan abtasten und eine sequentielle Abtastung 14
FFT – Fast Fourier Transform, schneller Algorithmus der DFT
3.3 Digitalisierung von Biosignalen
145
erst bei sehr vielen Kanälen (M>100) erwägen sollte, dies aber mit vertretbaren Folgen für die Signalanalyse.
3.3 Digitalisierung von Biosignalen In diesem Kapitel werden ausgewählte Digitalisierungsverfahren behandelt, die für die Biosignalverarbeitung relevant sind. Biosignale sind niederfrequente Prozesse (obere Grenzfrequenz bei etwa 1 kHz) mit großer Dynamik (bis etwa 120 dB). Dementsprechend werden AD-Wandler15 mit niedriger Abtastrate und großer Bitbreite benötigt.
3.3.1 Integrierende Wandler Das Grundprinzip integrierender Wandler besteht darin, dass die Eingangsspannung bis zum Erreichen einer Schwelle integriert wird, während man die Integrationszeit digital messen kann. Entsprechend der Abb. 3.20 integriert OVA die Eingangsspannung Ue während der Zeit TI (Gl. 3.16) und OVB vergleicht sie mit der Referenzspannung Uref. Ui
1 ³ U e t dt Ri Ci TI
(3.16)
Die Integrationszeit TI misst man digital über die Zählung von Taktimpulsen zwischen dem Beginn der Integration und dem Zeitpunkt, bei dem die integrierte Eingangsspannung Ui die Referenzspannung Uref erreicht (Abb. 3.21). Die Anzahl der gezählten Impulse ist daher ein digitales Maß für die Eingangsspannung. Integrierende Verfahren besitzen aus Sicht der Signalanalyse zwei wesentliche Vorteile. Zum einen sind das Rauschen und die meisten Störungen stochastische oder periodische Prozesse, deren zeitlicher Mittelwert Null beträgt. Die zeitliche Integration führt daher zur Unterdrückung der unerwünschten Anteile. Zum anderen hat die Integration über eine bestimmte Zeit TI spektral gesehen einen Kammfiltercharakter (s. Abschn. Digitale Filter). Man kann also die Integrationszeit TI so einstellen, dass beispielsweise die Harmonischen der Netzfrequenz unterdrückt werden (Abb. 3.22). Allerdings entspricht die tatsächliche Integrationszeit TAD der Wandlung nicht der fest eingestellten Zeit TI, sondern ist immer kleiner. Die Länge von TAD ist durch
15
Analog-Digital-Wandler, ADC – Analog Digital Converter
146
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
Abb. 3.20 Analoger Teil eines integrierenden Wandlers. Die Eingangsspannung Ue wird mit der Zeitkonstante RiCi beginnend bei Null integriert und im Komparator mit der Referenzspannung Uref verglichen. Die Zeit zwischen dem Integrationsbeginn und dem Erreichen der Referenzspannung wird durch Zählen von Taktpulsen digital gemessen
den Zeitpunkt bestimmt, in dem der Komparator den Zähler stoppt, ist also von der aktuellen Eingangsspannung abhängig (Gl. 3.17). U ref
T AD
Ue
Ri Ci d TI
Uref
(3.17)
Stop
Ue
Zähler Ui
Start
Steuerung Ue
Ui
t
Takt
Zähltakt
t
Start
Stop
t
Abb. 3.21 Blockschaltbild eines integrierenden AD-Wandlers nach dem Einrampenverfahren. Die Steuerung startet die Integration und den Digitalzähler. Erreicht die integrierte Spannung Ui der Referenzspannung Uref, wird das Zählen gestoppt
3.3 Digitalisierung von Biosignalen
147
1
|G|
0.8
0.6
0.4
0.2
0 0
100
200
300
Frequenz / Hz
400
500
Abb. 3.22 Die zeitliche Integration über eine feste Zeit hat im Spektrum einen Kammfiltercharakter. Bei einer Integrationszeit von TAD = 20 ms sind alle Harmonischen der Netzfrequenz beseitigt
Trotz der Ungleichung in Gl. 3.17 kann man eine Unterdrückung unerwünschter Frequenzen erreichen, in dem TI als Vielfaches der Periode der zu unterdrückenden Frequenz gewählt wird. Hinsichtlich der Störungsunterdrückung bietet das Zweirampenverfahren die bessere Lösung. Aus der Beziehung Gl. 3.17 ist ersichtlich, dass die gemessene Zeit TAD von der Zeitkonstante RiCi abhängt. Damit bestimmen die Toleranzen und Schwankungen der Bauelemente die Genauigkeit der Wandlung. Selbst mit präzisen und stabilen Bauelementen ist mit dem Einrampenverfahren und Integrationszeiten bis zu einer Sekunde eine effektive Auflösung von höchstens zehn Bit erreichbar. Eine Lösung des Problems der Schwankungen (Drift) und der nicht konstanten Integrationszeit bietet das Zweirampenverfahren (Dual Slope Conversion). In Abb. 3.23 ist das Blockschaltbild des Zweirampenverfahrens dargestellt. Die erste Phase Ti, in der die Eingangsspannung Ue integriert wird, ist konstant und kann entsprechend den vorherigen Überlegungen so eingestellt werden, dass unerwünschte Störfrequenzen unterdrückt werden. Beträgt Ti beispielsweise 100 ms, so werden alle Harmonischen der Grundwelle von 10 Hz eliminiert.
148
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
U i Ti T AD
RC
1 ³ U e t dt RC Ti U i Ti Ti U ref
Ti Ue RC
(3.18)
§ U · Ti ¨ e 1¸ ¨ U ref ¸ © ¹
(3.19)
In der zweiten Phase wird die interne, ungestörte Referenzspannung Uref integriert und die Zeit TAD zum Erreichen der Nulllinie digital gemessen. Da die Integrationszeit Ti konstant ist, hängt die integrierte Spannung Ui allein von der Eingangsspannung Ue und von der Zeitkonstante RC ab (Gl. 3.18). Durch die anschließende entgegen gesetzte Integration mit der konstanten Referenzspannung Uref hebt sich nach Gl. 3.19 der Einfluss der Zeitkonstante RC auf. Damit sind die Parameterschwankungen der Bauelemente weitgehend wirkungslos und man erreicht eine effektive Auflösung von bis zu 17 Bit. Integrative Wandler sind sehr langsam, sie erreichen Abtastraten von weniger als 100 sps. Ihre effektive Auflösung ist für die meisten Ansprüche hinreichend hoch, so dass sie für langsame Biosignale und Parameter mit einer Dynamik von bis zu 80 dB geeignet sind. Ein wesentlicher Nachteil der integrativen Wandlungsverfahren ist, dass die Wandlungszeit variabel ist und von der konkreten Eingangsspannung abhängt. Daher muss man immer mit der längsten Integrationszeit bzw. mit der höchsten Eingangsspannung rechnen, obwohl diese in der Realität nie ausgenutzt wird.
Stop
Ue
Zähler Ui
Uref
Start
Steuerung
Takt
Ue1>Ue2 Zähltakt Ue2 Ti
TAD2
TAD1
t
Start (Ti)
Stop (TAD)
t
Abb. 3.23 Integrierender AD-Wandler nach dem Zweirampenverfahren. Die Integrationszeit Ti ist konstant. Die Spannung Ui entspricht dem zeitlichen Integral der Eingangsspannung Ue nach Ti. In der zweiten Integrationsphase ist die Eingangsspannung gleich Uref, so dass die Zeit TAD zum Erreichen der Nulllinie direkt proportional der Eingangsspannung Ue ist. Die Taktzählung beginnt bei Ti und endet gesteuert durch den Komparator beim Erreichen der Nulllinie bei TAD
3.3 Digitalisierung von Biosignalen
149
Typische Anwendungsbereiche sind Messung der Körpertemperatur, des Gewichts, der Atmung oder der Sauerstoffsättigung. Integrierende Wandler sind technologisch wenig anspruchsvoll und werden oft direkt mit Treibern für Displays hergestellt, so dass sie insbesondere für tragbare Geräte geeignet sind.
3.3.2 Sukzessive Approximation Das Wandlungsprinzip besteht darin, dass eine digital gewichtete Spannung UDAC16 (Abb. 3.24 und 3.25) sich auf die Eingangsspannung Ue sukzessive (schrittweise) approximiert. Grundsätzlich sind verschiedene Approximationsverfahren möglich. Ausgehend von der Zielstellung, dass der absolute Digitalisierungsfehler höchstens ULSB/2 betragen darf (Quantisierungsrauschen) und die Wandlungszeit mini- mal sein soll, approximiert der Wandler beginnend mit dem MSB17 sukzessive zum LSB18. Bei jedem Bit vergleicht man die aktuell anliegende Spannung UDAC mit der Eingangsspannung Ue und das aktuelle Bit wird so gesetzt bzw. rück- gesetzt, dass man stets unterhalb der Eingangsspannung liegt. Ue
UAH S/H + -
Uref DA-Wandler
UDAC 0/1
Shift Steuerung
SAR
Abb. 3.24 AD-Wandlung durch sukzessive Approximation. Beginnend mit der Spannung UDAC für das MSB wird die Eingangsspannung Ue verglichen und das entsprechende Bit gesetzt. Im Shiftregister SAR (Sukzessive Approximation Register) steht nach dem Vergleichen mit allen Bits das digitale Äquivalent von Ue.
16
DAC – Digital-Analog-Converter, DA-Wandler MSB – Most Significant Bit, höchstwertiges Bit 18 LSB – Least Significant Bit, niedrigstwertiges Bit 17
150
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
URef/16 1111
1100
Ue
1011 1010 B3=1
B2=0
B1=1
B0=1
1000 UDAC
0100 0010 0000 tMSB
tMSB-1
tMSB-2
tMSB-3
tLSB
Abb. 3.25 Sukzessive Approximation im Zeitdiagramm. Beginnend mit dem höchstwertigen Bit MSB vergleicht der Komparator zu Zeitpunkten tMSB-k die Eingangsspannung Ue mit der Ausgangsspannung UDAC des DA-Wandlers (DAC). Liegt Ue über UADC, wird das Bit gesetzt, anderenfalls nicht
Damit ist gesichert, dass man sich der Spannung Ue mit einem monotonen Verlauf von UDAC nähert und nach dem Durchlauf aller Bits die bestmögliche Approximation erhält. Da für die Approximation eine bestimmte Zeit benötigt wird, muss gesichert sein, dass sich die Spannung am Komparatoreingang UAH während dieser Zeit nicht ändert. Dazu muss die Eingangsspannung Ue abgetastet und gehalten werden (S/HModul in Abb. 3.24). Dies ist im Vergleich zu integrierenden Verfahren ein Nachteil, da Rauschen und Störungen hier nicht reduziert werden können. Allerdings besitzt das SAR19-Verfahren wesentliche Vorteile gegenüber den integrierenden Verfahren. Die analogen Funktionsteile S/H und Komparator sind von Schwankungen und äußeren Einflüssen weitgehend unabhängig und der DA-Wandler ist Da für die Approximation eine bestimmte Zeit benötigt wird, muss gesichert sein, dass sich die Spannung am Komparatoreingang UAH während dieser Zeit nicht ändert. Dazu muss die Eingangsspannung Ue abgetastet und gehalten werden (S/HModul in Abb. 3.24). Dies ist im Vergleich zu integrierenden Verfahren ein Nachteil, da Rauschen und Störungen hier nicht reduziert werden können. Allerdings
19
Successive Approximation Register
3.3 Digitalisierung von Biosignalen
151
besitzt das SAR20-Verfahren wesentliche Vorteile gegenüber den integrierenden Verfahren. Die analogen Funktionsteile S/H und Komparator sind von Schwankungen und äußeren Einflüssen weitgehend unabhängig und der DA-Wandler ist mit einer hohen Stabilität herstellbar (integrierte R-2R-Netzwerke). Damit erreicht der SAR-Wandler insgesamt eine hohe Stabilität. Die Wandlungszeit ist auf Grund der größtenteils digitalen und digital gesteuerten Schaltungstechnik sehr kurz und konstant. Die SAR-Wandler erreichen Abtastraten von 104 sps bis 106 sps und Bitbreiten bis etwa 16 Bit. Damit besitzen sie für die meisten Biosignale hinreichend gute Auflösung und Dynamik und eignen sich auf Grund ihrer Wandlungsgeschwindigkeit auch für mehrkanalige Zeitmultiplex-Abtastsysteme.
3.3.3 Delta-Sigma-Wandlung Bei einigen Biosignalen wird ein Dynamikbereich von bis zu 120 dB benötigt. Man möchte beispielsweise evozierte Potentiale mit Amplituden im Mikrovoltbereich mit einem True-DC-EEG-System21 erfassen. Da die Elektrodenspannung (Differenz zwischen Elektroden als Folge der Drift) mehrere hundert Millivolt betragen kann, erreicht die notwendige Dynamik einen Bereich von bis zu 1:106 bzw. 120 dB. Die integrierenden und die SAR-Wandler können diesen Bereich aus technologischen Gründen (Genauigkeit und Stabilität der wandlungskritischen Bauelemente) nicht abdecken. Die beiden bisher behandelten Verfahren basieren auf simultan ausgeführten Funktionen im Zeitbereich (Abtastung bzw. Zeitmultiplex von Kanalsignalen). Daraus folgt, dass die Auflösung, das Quantisierungsrauschen, das SNR und die Genauigkeit direkt von der Bitbreite abhängen. Da die xD(t) x(t)
+
D
-
Q T
xI(t)
³
Takt
Abb. 3.26 Delta-Modulator, Blocksschaltbild
20 21
Successive Approximation Register Ein solches System erfasst unverfälscht Signale ab 0 Hz
152
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
analogen Funktionsteile mit bestenfalls 0.01% Genauigkeit und Stabilität an ihre Grenzen stoßen, sind kaum mehr als 16 Bit Wandlungsbreite erreichbar. Man kann die digitale Information jedoch auch seriell generieren. Dies ist nicht zu verwechseln mit AD-Wandlern mit serieller Datenübertragung. Der Grundansatz besteht darin, wie auch schon im Kapitel 3.2.3 Abtastung in Mehrkanalsystemen gezeigt, eine nicht unbedingt parallel auszuführende Operation zu sequenzieren. Man verlagert das hardwaremäßig aufwendige Problem einer N-fachen Parallelverarbeitung auf das technisch erheblich vereinfachte Problem einer seriellen Verarbeitung in Zeitsequenz (Zeitmultiplex). Die konsequente Umsetzung dieser Idee mündet in einem Ein-Bit-Wandler, dessen Basisfunktion in der Nachrichtentechnik als Delta-Modulator ('-Modulator) bekannt ist (Abb. 3.26, Abb. 3.27). Man bildet vom Eingangssignal x(t) und seiner integrierten Binärvariante xi(t) die Differenz, die mit einem Komparator (1-bit-Quantisierer) auf ihr Vorzeichen ausgewertet wird. Das Vorzeichen erscheint getaktet am Ausgang eines D-Flip-Flops (1-bit-Speicher) als binäre Folge. Diese Folge entspricht qualitativ einem Signal nach Pulsbreitenmodulation, ihr zeitlicher Mittelwert ergibt das Eingangssignal wieder. Bei der Rekonstruktion (Demodulation) eines delta-modulierten Signals (Abb. 3.28 Mitte) müssen die bei der Modulation (Abb. 3.28 oben) ausgeführten Operationen rückgängig durchgeführt werden. Zum einen wird bei der DeltaModulation in der Gegenkopplung integriert, was sich auf die gesamte Übertragungsfunktion wie eine Differentiation auswirkt. Daher ist im Demodulator eine Integration notwendig. Zum anderen binarisiert im Modulator der Komparator die Differenz (Vorzeichen) und gibt sie getaktet weiter. Daher bleiben im Demodula-
500mV 0V -500mV 4.0V 2.0V 0V 500mV 0V -500mV 550ms
600ms
650ms Time
700ms
750ms
Abb. 3.27 Zeitverläufe der Signale im Delta-Modulator: Das Eingangssignal x(t) (Sinusschwingung) bildet mit dem integrierten Ausgangssignal xD(t) eine Differenz. Diese wird binär verglichen, es liegt ein Ein-Bit-Quantisierer vor. Die Signalinformation liegt im Zeitabstand der Ausgangsimpulse kodiert vor
3.3 Digitalisierung von Biosignalen
153
tor nach der Integration hochfrequente Anteile des Taktes übrig, die durch einen Tiefpass beseitigt werden müssen. Aus Sicht der gesamten Strecke ModulationDemodulation lässt sich daher die Integration aus dem Demodulator ganz nach vorn vor die Differenzbildung im Modulator verschieben, ohne dass sich am Ende etwas ändert (Linearität, Superpositionsprinzip). Schließlich können beide Integra-
xD(t)
+-
x(t)
D
Q T
xI(t)
³
xD(t)
x(t)
+-
Takt
³
x(t)
xD(t)
³
D
Q T
xI(t) Takt
Abb. 3.28 Delta-Modulation und Delta-Sigma-Modulator: Das Eingangssignal x(t) wird mit einem Delta-Modulator in die binäre Folge xd(t) überführt (oben). Zur Rekonstruktion (Demodulation) muss es integriert und mit einem Tiefpass gefiltert werden (Mitte). Die Integration des Demodulators kann man wegen ihrer Linearität ganz nach vorn vor die Differenzbildung im Modulator vorziehen, dadurch reduziert sich die Demodulation auf eine Tiefpassfilterung. Anschließend kann man den Integrator am Eingang des Modulators mit dem Integrator in seiner Rückführung vereinen und auf das Differenzsignal anwenden (unten). Dies ist ein Delta-SigmaModulator
154
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
N(Z) X(Z)
+-
³
Y(Z)
+ +
Y(Z)/N(Z)
Y(Z)/X(Z)
Z
Abb. 3.29 Filterwirkung der Integration im Delta-Sigma-Modulator: Auf das Eingangssignal wirkt sie wie ein Tiefpass, auf das Quantisierungsrauschen wie ein Hochpass. Der Komparator wurde für die lineare Signalanalyse durch die Summation mit additivem Quantisierungsrauschen ersetzt
tionen – die in der Gegenkopplung und die vor der Differenzbildung – zusammengefasst und hinter die Differenzbildung gesetzt werden. Dadurch ist die Gesamtfunktion einfacher und im Demodulator benötigt man lediglich einen Tiefpass (Simulink-Simulation BSV_3_1.mdl). Diese Funktion wird wegen der Differenzbildung und anschließender Integration als Delta-Sigma-Modulator bezeichnet. Y jZ
X jZ Y jZ
Y jZ Y jZ
1 jZT
1 Y jZ jZ T X jZ
N jZ
Y jZ N jZ
1 1 j ZT
(3.20)
jZT 1 j ZT
(3.21)
Die Integration im Modulator bewirkt zwei günstige Effekte hinsichtlich der spektralen Eigenschaften. Auf das Eingangssignal wirkt sie wie ein Tiefpass und kann bereits als ein einfaches Antialiasing-Filter genutzt werden (Abb. 3.29, Gl. 3.20). Auf das Quantisierungsrauschen wirkt sie wie ein Hochpass, den man so dimensionieren kann, dass das Rauschen im genutzten Frequenzband minimiert wird (Abb. 3.29, Gl. 3.21). Die Rauschminimierung ist bei dem geforderten Dynamikbereich von 120 dB auch dringend erforderlich.
3.3 Digitalisierung von Biosignalen
155
0 1
-20 -40
2
SNR / dB
-60 3
-80 -100
Ordnung eines D-S-Wandlers
4
-120 -140 -160 -180 -3 10
-2
10
-1
normierte Frequenz
0
10
10
Abb. 3.30 Hochpasswirkung eines '6-Wandlers auf das Quantisierungsrauschen in Abhängigkeit von der Ordnung des Wandlers (Anzahl der '6-Glieder) bei identischer Integrationszeitkonstante
x(t)
64:1
'-6-Modulator 1
AR = 256 ksps
fB
f
4:1
Kammfilter
16
FIR-Filter
AR = 4 ksps
fB
f
24
AR = 1 ksps
fB
f
Abb. 3.31 Blockschaltbild eines '6-Wandlers als Beispiel zur Wandlung von Biosignalen. Der gestrichelte Bereich stellt das Basisband fB eines Biosignals dar. Die Tiefpasswirkung des '-6Modulators darf das Basisband des Biosignals nicht beeinträchtigen, daher ist eine ausreichend hohe Abtastrate zu wählen. Die anschließende digitale Filterung über 64 binäre Werte hat die spektrale Wirkung eines Kammfilters (Mitte), die das Spektrum des Biosignals beeinträchtigt. Daher muss dies in dem nachfolgenden FIR-Filter korrigiert werden (rechts). Gleichzeitig wird mit einer weiteren Unterabtastung um den Faktor 4 die endgültige Breite von 24 bit erreicht
156
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
Durch eine Reihenschaltung von mehreren Delta-Sigma-Stufen lässt sich die Filterwirkung (Gl. 3.21) auf das Quantisierungsrauschen erheblich steigern und dadurch der SNR und der Dynamikumfang erhöhen (Abb. 3.30). In der medizintechnischen Praxis sind Delta-Sigma-Wandler von bis zur vierten Ordnung ausreichend. Der limitierende Parameter für weitere SNR-Verbesserung ist das Eigenrauschen des Messverstärkers sowie der verwendeten Elektroden, die insgesamt eine Rauschspannung von bis zu 10 Mikrovolt erzeugen. Daher bringt eine weitere Reduzierung des Quantisierungsrauschens unter diesen Pegel keine weitere Verbesserung der Signalqualität. Das Eingangssignal x(t) eines '6-Modulators ist in der binären Ausgangssequenz xD(t) so kodiert (Abb. 3.28 unten), dass der zeitliche Mittelwert dieser Sequenz dem Eingangssignal entspricht. Zur Signalrekonstruktion (Demodulation) würde daher ein einfaches Interpolationsfilter in Form eines Tiefpasses ausreichen. Soll der '6-Modulator als Wandler eingesetzt werden, so ist es notwendig, die Bitsequenz in eine parallele binäre Information zu überführen. Dazu wird zunächst – wie auch bei der Rekonstruktion – der zeitliche Mittelwert gebildet, hier allerdings digital. Man zählt die Anzahl der logischen Einsen in einem Zeitfenster der Länge von N Bitstellen. Dadurch reduziert sich die Abtastrate um den Faktor N und man erhält ein binäres Wort mit log2N Bits. Ein typisches Beispiel ist in der Abb. 3.31 dargestellt. Der '6-Modulator arbeitet mit einer Abtastrate von 256 ksps und hat die spektrale Charakteristik eines Tiefpasses (Gl. 3.20). Aus der Bitfolge wird digital der Mittelwert über 64 Binärwerte ermittelt und digital gefiltert. Dies entspricht der spektralen Charakteristik eines Kammfilters mit 16 Bit Breite und einer 64-fachen Unterabtastung. Damit die Filtercharakteristik im Basisband flach bleibt, wird sie mit dem nachfolgenden FIR-Filter korrigiert (Abb. 3.31 rechts) und die Daten um einen weiteren Faktor 4 unterabgetastet. Insgesamt erreicht man für Biosignale eine Breite von 24 bit und eine Abtastrate von 1 ksps.
3.4 Übungen
3.4.1 Aufgaben 1 Potentialverteilung auf der Oberfläche eines räumlichen Leiters Unter der Annahme eines geschlossenen, homogenen, isotropen, kugelförmigen, räumlichen Leiters, in dem sich eine nahezu punktförmige elektrische Stromquelle befindet und aus dem kein Strom nach außen fließen kann, ist zu prüfen, welchen
3.4 Übungen Abb. 3.32 Modell einer homogenen, isotropen, leitfähigen Kugel mit einer elektrischen Stromquelle. Die Stromlinien sind gestrichelt, die Äquipotentiallinien gepunktet markiert. Die Potentialdifferenzen I12 und I23 bilden zwei bipolare Ableitungen, die in diesem Modell betragsmäßig gleich sind
157
1
2
3
Wert die Summe aller oberflächlichen Ableitungen annimmt. Dabei wird angenommen, dass über der Kugeloberfläche hinreichend viele Sensoren (Elektroden) mit identischen Abständen zueinander so angeordnet sind, dass das Abtasttheorem erfüllt ist. Es empfiehlt sich, von einem zunächst sehr einfachen Modell auszugehen und die Erkenntnisse anschließend zu verallgemeinern. Das einfachste Modell der Potentialverteilung ist in Abb. 3.32 dargestellt. Welchen vorzeichenbehafteten Wert erreicht die Summe der Potentialdifferenzen zwischen den Messpunkten 1 und 2 bzw. 2 und 3? Lässt sich diese Erkenntnis auf beliebige Quellenpositionen und ein Sensornetz über der Oberfläche verallgemeinern? 2 Elektrische Masse eines Messverstärkers und Körperanschluss Biosignale leitet man massefrei als Potentialdifferenzen von der Körperoberfläche ab. Da jeder Differenzverstärker eine elektrische Betriebsmasse besitzt, muss diese auch eine galvanische Verbindung zum Körper des Patienten haben . Prinzipiell ist dies in Abb. 3.1 dargestellt. Sind bei einer EKG-Ableitung nach Abb.3.2 ein Masseanschluss und/oder Erde am rechten Fuß des Patienten schaltungstechnisch immer erforderlich? Welche Mindestbedingung muss erfüllt sein? Ist eine „innere Masse“ nach Abb. 3.4 schaltungstechnisch notwendig? 3 Einfluss der elektronisch gebildeten CAR auf Signal und Störung Untersuchen Sie den Einfluss von CAR in einer Extremitätenableitung des EKG. Wie wirken sich Netzstörungen auf die monopolaren und bipolaren Ableitungen
158
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
aus? Verwenden Sie dazu das Modell nach Abb. 3.33. Welche Auswirkungen hätte die Verbindung der gemeinsamen Referenz CAR mit der Betriebsmasse des Messverstärkers?
Abb.3.33 Schaltungsmodell einer Extremitätenableitung des EKG. Die Kapazitäten C1,2,3 repräsentieren die Streukapazitäten der Extremitäten gegenüber der Netzinstallation. Die Widerstände R22,23,24,25 bilden die simultane gemeinsame Referenz (PSpice-Simulation BSV_3.3)
3.4 Übungen
159
4 Einfluss der rechnerisch gebildeten CAR auf Signal und Störung Untersuchen Sie den Einfluss der CAR auf eine simulierte mehrkanalige EEGAbleitung. Dazu werden in einer quadratischen Matrix 16 Elektroden angeordnet. Alle Elektroden erhalten normalverteiltes weißes Rauschen mit identischem Pegel. Vier Elektroden enthalten additiv zum Rauschen ein simuliertes transientes EP (evoziertes Potential), wie in der Abb. 3.34 dargestellt. Berechnen Sie die CAR und beziehen alle Elektrodensignale auf die Referenz, um rechnerisch eine unipolare Ableitung zu erhalten. Die simulierten Daten können Sie mit der MatlabFunktion BSV_3_4.m generieren oder bereits generierte Daten aus der MatlabDatei BSV_3_4.mat laden. Erläutern Sie den Einfluss der CAR als Basis einer unipolaren Ableitung auf Störungen und gewünschte Signale. 5 Einfluss der Abtastrate auf die Signalform Nach dem Abtasttheorem (Gl. 3.9) muss die Abtastperiode kürzer sein als der reziproke Wert der doppelten Signalfrequenz. Dies gilt grundsätzlich für alle unmodulierten Biosignale, da ihr Spektrum in etwa bei Null beginnt. Da die Daten bereits abgetastet und digitalisiert vorliegen, können verschiedene Abtastraten durch einfache Reduktion simuliert werden. Zu Details der Abtastratenreduktion siehe
K1
K2
K3
K4
10
10
10
10
0
0
0
0
-10
0
500 K5
10
-10
0
500 K6
10
-10
0
500 K7
10
-10
0
0
0
0
-10
-10
-10
500 K9
0
500 K 10
0
500 K 11
10
10
10
10
0
0
0
0
-10
0
500 K 13
-10
0
500 K 14
-10
0
500 K 15
-10
10
10
10
10
0
0
0
0
-10
0
500
-10
0
500
-10
500 K8
0
500 K 12
0
500 K 16
0
500
10
-10
0
0
0
500
-10
Abb. 3.34 Quadratische Elektrodenmatrix mit identisch verteiltem Rauschen in allen Kanälen und einem additiv überlagerten, simulierten transienten EP in den Kanälen 13 bis 16
160
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
Kapitel Digitale Filterung. Für diese Aufgabe ist es ausreichend, die Reduktion der Abtastrate durch Weglassen der entsprechenden Anzahl von Abtastwerten zu realisieren. Beispielsweise werden bei einer Reduktion um den Faktor 3 immer zwei Abtastwerte ausgelassen und nur jeder dritte berücksichtigt. Untersuchen Sie den Einfluss des Reduktionsfaktors auf die Signalform eines EKG. Verwenden Sie zur Analyse das EKG aus der Matlab-Datei e23.mat (Die Abtastrate betrug 250 sps). 6 Einfluss des Antialiasingfilters auf die Signalform Vor einer Signalabtastung bzw. vor einer Unterabtastung muss das abzutastende Signal in seiner Bandbreite mit einem Antialiasingfilter begrenzt werden, um das Abtasttheorem einzuhalten. Das Antialiasingfilter muss einen linearen Phasenfrequenzgang haben, um Verzerrungen der Signalform zu vermeiden. Untersuchen Sie den Einfluss eines Butterworth-Tiefpasses auf die Signalform eines EKG hinsichtlich der Grenzfrequenz. Für die Analyse verwenden Sie die SimulinkFunktion analogfilter_sampler.mdl zur Simulation der analogen Filterung und Abtastung, sowie Matlab zur Analyse digitalisierter Daten (BSV_3_6_solve.m). In dieser Aufgabe soll die Abtastung mit 256 sps und die Digitalisierung mit 12 bit erfolgen.
3.4.2 Lösungen 1 Potentialverteilung auf der Oberfläche eines räumlichen Leiters Die Potentialverteilung auf der Oberfläche eines räumlichen Leiters mit einer internen Stromquelle lässt sich mit entsprechenden Methoden und dem mathematischen Apparat der Feldtheorie beschreiben. Der Wert der Potentialsumme lässt sich auch durch folgende Überlegungen ermitteln: Geht man zunächst von dem einfachen Flächenmodell nach Abb. 3.32 aus, so erzeugt die elektrische Stromquelle symmetrische Stromlinien. Diese wiederum erzeugen im homogenen und isotropen Leiter Spannungsabfälle, die mit Äquipotentiallinien beschrieben sind. Auf Grund der bisher idealen Symmetrie kennzeichnet die horizontale Äquipotentiallinie (zum Sensor 2) das Nullpotential. Demzufolge sind die Potentialdifferenzen I12 und I23 betragsmäßig identisch, aber mit entgegen gesetzter Polarität. Da man die Ableitpunkte 1 und 3 beliebig über den Rand des Flächenleiters symmetrisch verschieben bzw. mehrere Punkte symmetrisch anbringen kann, bleibt die vektorielle Summe stets nullwertig (Abb. 3.35). Diese Eigenschaft wird sich nicht ändern, wenn man den Flächenleiter nach Abb. 3.32 um die dritte Dimension auf einen Volumenleiter erweitert. Eine allgemeine elektrische Stromquelle wird nicht in der Mitte liegen. Aus dem Modell in Abb.
3.4 Übungen Abb. 3.35 Erweiterung des Flächenmodells auf ein symmetrisches Sensorennetz. Die Äquipotentiallinien sind um die horizontale Achse (Nullpotentiallinie) betragsmäßig symmetrisch. In der oberen Hälfte sind die Potentiale positiv, in der unteren Hälfte negativ, daher hebt sich ihre Summe auf der Oberfläche auf
161 8
7
1
2
6
5
3
4
3.32 ist ersichtlich, dass auf der Körperoberfläche immer eine Nullpotentiallinie vorhanden sein muss. Unter der Annahme, dass kein Strom nach außen dringt, muss die Summe der positiven Potentiale oberhalb der Nullpotentiallinie mit der Summe der negativen Potentiale im gegenüberliegenden Körperbereich unterhalb der Nullpotentiallinie identisch sein (Abb. 3.33). Diese Tatsache lässt sich nun auf
8
1
Abb. 3.36 Modell einer allgemeinen Stromquelle im Volumenleiter. Die Stromschleifen (gestrichelt) und daher auch die Äquipotentiallinien (gepunktet) sind im Körper unsymmetrisch verteilt. Da die Nullpotentiallinie (gepunktet quer zur Stromquelle) die beiden Polaritätsbereiche voneinander trennt, muss die (diskrete) Potentialsumme des positiven Bereiches mit der Potentialsumme des negativen Bereiches betragsmäßig identisch sein
7
2
6
3
5
4
162
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
beliebige Quellenpositionen und Stromrichtungen im Volumenleiter ergänzen. Fazit ist, die Potentialsumme über der Oberfläche eines räumlichen Leiters ist unter den genannten Voraussetzungen gleich Null. Aus diesen Überlegungen folgt, dass eine beliebige Stromquelle im geschlossenen Volumenleiter auf seiner Oberfläche eine Potentialverteilung erzeugt, deren flächenhafte Summe nullwertig ist. Dies lässt sich entsprechend dem Superpositionsprinzip auf beliebig viele Quellen erweitern. Dieser Ansatz ist natürlich auch auf diskrete räumliche Abtastung (Oberflächensensoren) übertragbar, wenn das Abtasttheorem erfüllt ist. 2 Elektrische Masse eines Messverstärkers und Körperanschluss Die schaltungstechnisch begründete Forderung bezüglich der elektrischen Masse des Messverstärkers ist, dass dieser eine galvanische Verbindung zum Körper des Patienten hat. Dies ist insbesondere bei Verstärkern mit FET-Eingängen unbedingt notwendig, sonst würden die Eingänge potentialfrei in der Luft schweben. Setzt man zur Ableitung von Biosignalen einen Verstärker nach Abb. 3.2 ein, so ist ein Masseanschluss am rechten Fuß nicht notwendig. Über die Widerstände R14,15,16 und R5,6,7 hat der Verstärker einen galvanischen Kontakt zum Patientenkörper, gleichgültig, wie groß die Widerstände sind. Im Normalfall ist diesen Differenzverstärkern eine weitere Eingangsstufe vorgeschaltet (siehe Kapitel 2). Das Prinzip bleibt dennoch erhalten. Sollten massefreie Differenzverstärker mit FETEingang eingesetzt werden, so wäre die Forderung nach einem Masseanschluss nicht erfüllt. Dann muss entweder die Verstärkermasse am rechten Fuß angeschlossen (Abb. 3.2) oder eine „innere Masse“ gebildet werden (Abb. 3.4). Zur detaillierten Schaltungsanalyse simulieren Sie die Schaltungen einthoven.sch, einthoven_1.sch, einthoven_fet.sch und einthoven_1_fet.sch. 3 Einfluss der elektronisch gebildeten CAR auf Signal und Störung Die PSpice-Simulation für die Schaltung nach Abb. 3.33 zeigt folgende Signalverläufe der unipolaren Extremitätenableitungen (gegen die CAR) und der gemeinsamen Referenz CAR (Abb. 3.37). Die CAR erreicht Amplituden von ca. 0.17mV und enthält zum größten Teil die Netzstörung. Bildet man mit Hilfe dieser virtuellen Referenz „unipolare“ Ableitungen, also Potentialdifferenzen zwischen Extremitäten und der CAR, so zeigen sie für die rechte Hand (mittig) und die linke Hand (unten) den erwarteten simulierten EKG-Verlauf. Allerdings sind die Ableitungen zum Teil vom Netz noch gestört, jedoch wesentlich weniger, als ohne die CAR. In der Signalform der CAR kann man EKG-Anteile erkennen. Durch die Differenzbildung der Extremitätensignale mit der CAR kommt es daher auch zur Abschwächung des gewünschten Signals. Würde man die CAR zusätzlich mit der elektrischen Masse des Messver-
3.4 Übungen
163
400uV
0V SEL>> -400uV 200uV
V(car)
0V
-200uV 20uV
V(RH)- V(car)
0V
-20uV
0s
0.1s V(LH)- V(car)
0.2s
0.3s
0.4s
0.5s Time
0.6s
0.7s
0.8s
0.9s
1.0s
Abb. 3.37 Signalverläufe der gemeinsamen Referenz CAR (oben), der unipolaren Extremitätenableitungen der rechten (Mitte) und der linken (unten) Hand
stärkers verbinden, also eine innere Masse erzeugen, so hätte diese Maßnahme grundsätzlich positive Auswirkungen auf das Gleichtaktverhalten des Verstärkers. Da die elektrische Masse des Verstärkers mit dem störenden Netzanteil mitschwingen würde, wäre der tatsächliche Pegel des störenden Gleichtakts insgesamt niedriger. Dieser Ansatz zeigt Wirkung natürlich nur dann, wenn die Verstärkermasse nicht mit dem Netz verbunden ist. 4 Einfluss der rechnerisch gebildeten CAR auf Signal und Störung Die CAR bildet man als simultanes arithmetisches Mittel (Gln. 3.1, ensemble average), auf die alle Kanäle referenziert werden (Gln. 3.2). Das führt einerseits dazu, dass eine Gleichtaktstörung (kapazitiv eingekoppelte Netzstörung) zum Teil eliminiert wird, wenn die Störpegel in den Kanälen nicht zu unterschiedlich sind. Dieses bei Störungen durchaus gewollte Verhalten kann bei der Analyse gewünschter Signale zu ungewollten Veränderungen führen. Bei der CAR muss man immer berücksichtigen, dass jeder Kanal den N-ten Teil (N – Anzahl der Sensoren) an die CAR abgibt und durch die Referenzierung dieser Anteil mit umgekehrten Vorzeichen in allen anderen Kanälen erscheint, obwohl er dort vor der Referenzierung nicht enthalten war. Dies ist beispielhaft in der folgenden Simulation dargestellt. Synthetische Daten der Länge 750 enthalten in 16 Kanälen unkorreliertes Rauschen (BSV_3_4.m, .mat) und in den letzten vier Kanälen ein transientes EP mit identischem Pegel und Phase (Abb. 3.34, Abb. 3.38). Wird entsprechend Gl. 3.1 die CAR berechnet und diese dann nach Gln. 3.2 von den Kanälen
164
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
abgezogen, so verändern sich die Signalformen deutlich (Abb. 3.39). Die Signalamplitude in den Kanälen 13 bis 16 wird kleiner (auf 75%), dafür erscheinen Teile des transienten EP (25%) mit umgekehrten Vorzeichen in den Kanälen 1 bis 12, in den sie ursprünglich gar nicht vorhanden waren. Dies kann für die weitergehende Analyse fatale Fehlinterpretationen zur Folge haben. So kann beispielsweise bei der Quellenlokalisation auf diese Weise eine bipolare Quelle detektiert werden, obwohl in der Realität gar keine vorhanden ist. In Extremfällen – die in der Biosignalanalyse gar nicht so selten sind – kann ein starkes Signal unter einem einzigen Sensor auf diese Weise alle Signale der Sensormatrix beeinträchtigen. Auch der Vergleich der mittleren Signalleistung mit Hilfe der Varianz zeigt eine deutliche Verschiebung innerhalb der Sensormatrix (Lösung mit der MatlabFunktion BSV_3_4_solve.m): Kanäle 1 bis 8 var(data) 0.9523 1.0458 1.0043 1.0048 0.9668 1.0705 0.9707 0.9616 var(dcar) 1.5527 1.4587 1.5868 1.5042 1.4859 1.4367 1.4400 1.4930 Kanäle 9 bis 16 var(data) 1.0287 0.9613 1.1333 1.0618 9.4514 9.4470 9.3730 9.1526 var(dcar) 1.3794 1.5102 1.3966 1.4026 5.3405 5.8320 5.5260 6.0022
Kanäle 1 bis 12
reelle Zahl
10 5 0 -5 -10 0
100
200
400
500
600
700
500
600
700
Kanäle 13 bis 16
10 reelle Zahl
300
5 0 -5 -10 0
100
200
300
400
Zeitindex
Abb. 3.38 Zeitverläufe an den Elektroden einer quadratischen Matrix mit reinem Rauschen in den Kanälen 1 bis 12 und additivem Gemisch aus Rauschen und transientem EP in den Kanälen 13 bis 16. Daten wurden simuliert, enthalten daher keine physikalische Einheit
3.4 Übungen
165
Kanäle 1 bis 12 mit CAR
10 reelle Zahl
5 0 -5 -10 0
100
200
300
400
500
600
700
600
700
Kanäle 13 bis 16 mit CAR
10 reelle Zahl
5 0 -5 -10 0
100
200
300
400
Zeitindex
500
Abb. 3.39 Zeitverläufe an den Elektroden einer quadratischen Matrix nach Referenzierung mit der gemeinsamen Referenz CAR. In den Kanälen 1 bis 12 sind Signalanteile des transienten EP (umgekehrtes Vorzeichen) enthalten, die vor der Referenzierung nicht enthalten waren
10
K1
10
K2
10
K3
10
0
0
0
0
-10 0
-10 0
-10 0
-10 0
10
500
K5
0 -10 0 10
10
500
K6
0 500
K9
-10 0 10
10
500
K7
0 500
K 10
-10 0 10
10
500
K 11
-10 0 10
0
0
0
-10 0
-10 0
-10 0
-10 0
10
500
0 -10 0
10
500
K 14
0 500
-10 0
10
500
K 15
0 500
-10 0
500
K8
0
0
K 13
K4
10
500
K 12
500
K 16
0 500
-10 0
500
Abb. 3.40 Wirkung der Referenzierung mit der CAR auf die Signalform der Kanäle. Ein Vergleich der Signalformen mit den Originalverläufen in Abb. 3.34 zeigt, dass während das EP in den Kanälen 13 bis 16 abgeschwächt ist, so tritt es in den Kanälen 1 bis 12 mit umgekehrtem Vorzeichen auf, in den es ursprünglich gar nicht vorhanden war
166
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
Die Veränderung der Signalform in den Kanälen und der mittleren Signalleistung lässt sich so interpretieren, dass das gewünschte Signal über die CAR künstlich auf alle Sensoren ausgebreitet wird, während die mittlere Signalleistung nivelliert wird. 5 Einfluss der Abtastrate auf die Signalform Unterschiedliche Abtastraten kann man an bereits abgetasteten Signalen realisieren, in dem die Originalrate um einen Faktor reduziert (angehoben) wird. Ein beispielhaftes EKG, das mit 250sps abgetastet wurde, liegt in der Datei e23.mat vor. Vorgefertigte Funktionen hierzu befinden sich in der Matlab-Funktion BSV_3_5_solve.m. Das Original-EKG ist in Abb. 3.41 und sein Spektrum in Abb. 3.41 dargestellt. Im Zeitverlauf des EKG kann man deutlich die Atmung erkennen, die sich als Einhüllende der R- und S-Zacken präsentiert und eine Periode von ca. 4s aufweist. Die Harmonischen der Herzaktion als Vielfaches von ca . 1.7Hz, sowie die Grundwelle der Atmung bei ca. 0.25Hz sind im Spektrum (Abb. 3.42) erkennbar. Für eine korrekte Unterabtastung im Sinne der Signalanalyse wäre vor der Ratenreduktion eine Tiefpassfilterung unterhalb der Nyquist-Frequenz notwendig. Hier soll allerdings die Verletzung des Abtasttheorems simuliert werden, so dass der Tiefpass bewusst weggelassen wurde. Das Spektrum des EKG (Abb. 3.42) zeigt, dass eine Abtastratenreduktion bereits um den Faktor 2 eine Verletzung des AbZeitverlauf des Original-EKG
150
Digitalwerte
100
50
0
-50
-100 0
2
4
6
8 Zeit / s
10
12
14
16
Abb. 3.41 Kurzzeitaufnahme eines EKG. Die Herzrate betrug ca. 1.7s-1 bzw. 101min-1
3.4 Übungen
167
Spektrum eines EKG
80 70 60
Pegel / dB
50 40 30 20 10 0 -10 0
50
100 150 Frequenz / Hz
200
250
Abb. 3.42 Originalspektrum eines EKG (e23.mat), das mit 250sps abgetastet wurde, die Nyquist-Frequenz beträgt daher 125Hz
tasttheorems nach sich ziehen wird. Wie sie sich auf die Signalform auswirkt, ist in den folgenden Abbildungen dargestellt. Fazit dieser Untersuchung ist, dass bereits eine leichte Verletzung des Abtasttheorems zu Beeinträchtigungen der Signalform führen kann. Da die Signalform diagnostisch sehr wichtig ist, kann in der Praxis eine Verletzung des Abtasttheorems nicht hingenommen werden. 6 Einfluss des Antialiasingfilters auf die Signalform Zur Analyse des Einflusses des Antialiasingfilters auf die Signalform wird für gute Vergleichbarkeit dasselbe EKG verwendet, wie in der Aufgabe 5. Im Simulator (Abb. 3.45) wird das reale EKG aus der Datei ekg.mat eingelesen und mit dem zu variierenden Butteworth-Tiefpass gefiltert. Die Samplingrate soll 256 sps (Block Abtastung TP-EKG) und die Wandlungsbreite (Block AD Wandler) 12 bit betragen. Das Spektrum des originalen EKG ist in Abb. 3.42 dargestellt. Es ist offenbar bereits gefiltert, wobei man die höchste relevante Frequenz mit etwa fmax = 40Hz schätzen kann. Da in diesem Fall die Nyquist-Frequenz bei fN = 128 Hz liegt, legt
168
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
man die Grenzfrequenz des Butterworth-Tiefpasses möglichst in ihre Nähe. Es ist bekannt, dass Butterworth-Filter vor allem in Nähe ihrer Grenzfrequenz nichtlineare Phase besitzen, so dass die Grenzfrequenz möglichst weit entfernt vom Signal sein soll, jedoch unterhalb der Nyquist-Frequenz liegen muss. Das EKG für diese Alternative für eine Grenzfrequenz von 100Hz ist in Abb. 3.46 dargestellt. Die Signalform ist trotz der nichtlinearen Phase des Butterworth-Tiefpasses korrekt wiedergegeben. Das liegt daran, dass die Grenzfrequenz von 100 Hz und der nichtlineare Teil der Phase noch weit entfernt vom EKG sind. Das EKG ist verrauscht, deutlich ist dies sichtbar zwischen den T- und P-Wellen in Zeiten des inaktiven EKG. Dieses Rauschen produziert zum großen Teil das unnötige Frequenzband zwischen 40Hz und 100Hz. Die Signalform ist nach der Filterung bei 30Hz im Vergleich zum EKG nach Abb. 3.46 deutlich verzerrt. Die S-Zacke weist eine höhere Amplitude auf, nach der SZacke treten hochfrequente Nachschwingungen auf, die im Originalsignal nicht vorhanden sind. Sie sind die Folge der nichtlinearen Phase des Filters im Spektrum des EKG, die eine längere Gruppenlaufzeit bei hohen Frequenzen nach sich zieht. Die energiestarken hochfrequenten Komponenten des QRS-Komplexes erscheinen im Zeitverlauf später und verursachen das Nachschwingen (auch als Ringing bekannt). Das Rauschen ist trotz der Absenkung der Grenzfrequenz von 100Hz auf 30Hz nicht wesentlich schwächer, lediglich tieffrequenter. Es ist daher zum großen Teil dem Quantisierungsrauschen des AD-Wandlers zuzuschreiben,
150
Zeitverlauf des unterabgetasteten EKG, Reduktionsfaktor 2
Digitalwerte
100
50
0
-50
-100 0
2
4
6
8 Zeit / s
10
12
14
16
Abb. 3.43 Das Original-EKG aus Abb. 3.41 wurde um den Faktor 2 ohne ein Antialiasingfilter unterabgetastet. In der Einhüllenden der R-Zacken kann man Veränderungen bereits erkennen
3.4 Übungen
150
169
Zeitverlauf des unterabgetasteten EKG, Reduktionsfaktor 5
Digitalwerte
100
50
0
-50
-100 0
2
4
6
8 Zeit / s
10
12
14
16
Abb. 3.44 Das Original-EKG aus Abb. 3.41 wurde um den Faktor 5 ohne ein Antialiasingfilter unterabgetastet. Die Einhüllende der R-Zacken ist nur noch ein chaotischer Prozess. Die RZacken selbst wurden durch die Unterabtastung so verunstaltet, dass sie nicht mehr auswertbar sind
Original EKG EKG nach Butterworth Tiefpass Digitalisiertes EKG
butter
Scope
ekg.mat aus der Datei ekg.mat
Analoges Butterworth Tiefpassfilter
Abtastung TP-EKG
AD Wandler Spektrum TP-EKG
Original EKG
simout Abtastung Original EKG
Spectrum original/sample
zu Matlab
Abb. 3.45 Simulation der analogen Tiefpassfilterung (Antialiasing), der Abtastung und Digitalisierung in Simulink. Die Zeitverläufe stellt „Oszi“, die Spektren des abgetasteten Originalsignals „Spektrum Original EKG“ und des gefilterten, abgetasteten und digitalisierten Signals „Spektrum TP-EKG“ dar
170
3 Erfassung, Abtastunng und Digitalisierung von Biosignalen
EKG nach TP-Filterung mit 100Hz
4000 3500
ADC
3000 2500 2000 1500 1000 0
100
200
Zeitindex
300
400
500
Abb. 3.46 EKG abgetastet mit 256 sps, gefiltert mit Butterworth-Tiefpass bei 100 Hz
EKG nach TP-Filterung mit 30Hz
3500
3000
ADC
2500
2000
1500
1000 0
100
200
Zeitindex
300
400
Abb. 3.47 EKG abgetastet mit 256 sps, gefiltert mit Butterworth-Tiefpass bei 30 Hz
500
3.4 Übungen
171
das hier im redundanten Bereich zwischen 30Hz und 128Hz erzeugt wird. Das Fazit dieser Analyse ist, dass ein Antialiasingfilter mit nichtlinearer Phase eine hohe Grenzfrequenz haben muss, um das Signal nicht zu beeinträchtigen. Dann entsteht aber unnötig viel Rauschen, sowohl durch die Quantisierung als auch von außen. Sinnvoll wäre daher die Alternative, einen linearphasigen Tiefpass möglichst nah an der spektralen Obergrenze des Biosignals zu verwenden.
Kapitel 4
Zeit-, Frequenz- und Verbundbereich
Traditionell nutzt man in der medizinischen Diagnostik schwerpunktmäßig Zeitverläufe körpereigener Signale. Dies ist auch berechtigt und sinnvoll, da das über Jahrzehnte akkumulierte Wissen wie eine Datenbank mit typischen Verlaufsmustern in physiologischen Fällen und pathologischen Veränderungen gespeichert vorliegt. Bei einigen Biosignalen wird dennoch von Anfang an eine zumindest grobe spektrale Klassifikation vorgenommen (spektrale Bänder GTDEJ des EEG), die Frequenz aber im Zeitbereich bestimmt. Auch empirische Methoden der Zeit-Frequenz-Analyse werden implizit verwendet, wenn auch auf einer subjektiven Basis (Inspektion des Herzschalls und der Atemgeräusche durch den Arzt). Neben der Methoden der Zeitreihenanalyse finden daher auch die spektrale und Zeit-Frequenz-Analyse insbesondere in der computergestützten Diagnostik immer mehr Anwendung und Akzeptanz. Technologisch bedingt kommen immer mehr auch Sensorarrays zum Einsatz (2D- und 3D-Signale), so dass auch Methoden der spatiotemporalen22 Analyse vor allem in der Bildgebung Anwendung finden. Schließlich versucht man zunächst im Forschungsbereich geeignete Verbundrepräsentationen für Biosignale zu entwickeln, die eine Verbunddarstellung in RaumZeit-Frequenz (spatiotemporale Spektralanalyse) oder Raum-Zeit-Phase (Korrelationsanalyse) ermöglichen. Die vier genannten Methodengruppen werden in diesem Kapitel behandelt.
4.1 Signalanalyse im Zeitbereich Die typischen Verläufe des physiologischen und pathologischen EKG und EEG bilden die diagnostische Basis der Kardiologen und der Neurologen. Das Ziel einer computerbasierten Biosignalanalyse soll daher darin bestehen, einerseits das kumulierte Wissen zu erhalten und zur Methodenentwicklung zu nutzen, andererseits die Routinearbeit der Mediziner zu automatisieren und sie auf diese Weise zu entlasten.
22
Räumlich-zeitlich
P. Husar, Biosignalverarbeitung, DOI 10.1007/978-3-642-12657-4_4, © Springer-Verlag Berlin Heidelberg 2010
174
4 Zeit-, Frequenz- und Verbundbereich
4.1.1 Merkmalsidentifikation Bei der auf Biosignalen basierten Diagnostik besteht für den Mediziner die Aufgabe darin, bekannte physiologische und pathologische Muster von Zeitverläufen in einer Aufzeichnung zu identifizieren und sie diagnostisch zu bewerten. Aus Sicht der Signalanalyse ist die Aufgabe der ersten Phase daher die Merkmalsidentifikation als Teil der Mustererkennung. In Bezug auf den Lösungsansatz lassen sie sich in zwei Gruppen einteilen: -
deterministische, bei den der gesuchte Verlauf quantitativ bekannt ist, z.B. das EKG in physiologischen und bekannten pathologischen Fällen, unscharfe, bei den der gesuchte Verlauf bestenfalls qualitativ bekannt ist, z.B. das EEG in Stadien der Wachsamkeit und den Schlafphasen.
Biosignale unterliegen in der Praxis immer dem Einfluss von technischen Störungen (siehe Kapitel 2) und von subjektiv verursachten Artefakten. Daher müssen die Methoden der Mustererkennung nicht nur die gewünschten Anteile der Biosignale, sondern auch Artefakte identifizieren, um sie zu korrigieren oder zumindest aus der Auswertung auszuschließen. 4.1.1.1 Artefakte: Entstehung, Detektion und Elimination
Artefakte sind Produkte biologischer und technischer Prozesse, die nicht von der untersuchten physiologischen oder pathologischen Signalquelle und dem Umfeldrauschen stammen. Das von einem medizinischen Messsystem gewonnene Signal lässt sich zunächst vereinfacht mit einem additiven Signalmodell (Gl. 4.1) beschreiben. xt st nt at
(4.1)
In Gl. 4.1 ist x(t) das gemessene Signal, s(t) das Biosignal von Interesse, n(t) das Rauschen und technische Störungen, a(t) Artefakte.
Das Rauschen und technische Störungen behandelt das Kapitel 2 Verstärkung und analoge Filterung in der medizinischen Messtechnik. Naturgemäß kann es keine scharfe Abgrenzung zwischen den rein technisch erzeugten Störungen und Störungen im unmittelbaren Umfeld des Patienten geben. Daher können Artefakte zunächst in zwei Klassen eingeteilt werden:
4.1 Signalanalyse im Zeitbereich
175
Artefakte biologischen Ursprungs -
Herztätigkeit im EEG: Muskelaktivität im EKG: Augenbewegungen im EEG:
s(t) = EEG; a(t) = EKG s(t) = EKG; a(t) = EMG s(t) = EEG; a(t) = EOG
Artefakte technischen Ursprungs -
Elektrodenpotential und seine Drift Bewegungen des Patienten und/oder des Messaufbaus Energieanwendung am Patienten (HF-Chirurgie, Diathermie)
Aus dieser Aufstellung geht hervor, dass insbesondere bei Artefakten biologischen Ursprungs es von der konkreten Messaufgabe abhängt, welches Biosignal gewünscht ist und welches als Artefakt gilt. Beispielsweise ist das EKG einmal das gewünschte Signal, das vom EMG gestört ist, bei einer EEG-Messung ist es aber ein Artefakt. Daher wird im Weiteren zwischen erwünschten und unerwünschten
a3(t) x(t)
s(t) = EEG
n1(t)
a1(t)
a2(t)
n3(t)
n2(t)
Abb. 4.1 Störungen und Artefakte bei einer EEG-Ableitung während einer optischen Stimulation mit einem Monitor. Auf das EEG des Patienten wirken nach dem Modell in Gl. 4.1 Störungen aus dem Stimulationsmonitor n1(t) (Bildfrequenz), aus der Stromversorgung n2(t) (Netzfrequenz), aus dem Steuerrechner n3(t) (Datentransport), sowie Artefakte Herztätigkeit a1(t) (EKG), Atmung und Muskeltätigkeit a2(t) (EMG) sowie Elektrodendrift a3(t)
176
4 Zeit-, Frequenz- und Verbundbereich
Tabelle 4.1 Klassifizierung von Artefakten Klasse
Beispiel
Extremwerte und Ausreißer
110% SpO2 im Pulsoximeter, 10mV im EKG
Langsame Schwankungen der Nulllinie
Kopfdrehung bei EEG-Messung
Schnelle Schwankungen der Nulllinie
Muskelaktivität im EKG
Nichtlinearitäten im Biosignal
EKG-Amplitudenänderung durch Atmung
Die Klassen sind von oben nach unten nach dem Schwierigkeitsgrad der Erkennung und Elimination angeordnet.
Signalen unterschieden, im Sinne der Signaltheorie zwischen Signal und Rauschen. Eine typische Messsituation einer EEG-Ableitung bei optischer Stimulation zeigt Abb. 4.1. Während die technischen Störungen auf Grund ihres vorwiegend periodischen Charakters beherrschbar sind, sind die Detektion und vor allem die Elimination von Artefakten problematisch. Die biologischen sowie die patientennahen technischen Artefakte sind ihrer Natur nach einmalig, im messtechnischen Sinne transient und nicht reproduzierbar. Um einen Lösungsansatz für die Signalanalyse zu erhalten, ist es (immer) sinnvoll, die Sprache des Mediziners auf einem geeigneten Weg in einen Algorithmus zu übersetzen. Aufbauend auf diesem pragmatischen Zugang ergeben sich für die Erkennung von Artefakten folgende Klassen: (s. Tabelle 4.1). Extremwerte und Ausreißer Im Sinne der Biostatistik ist zwischen Extremwerten und Ausreißern deutlich zu unterscheiden: Extremwerte sind ungewöhnlich hohe bzw. niedrige Werte eines Biosignals, dennoch physiologisch und auch pathologisch nicht unmöglich, wenn auch unwahrscheinlich. Ein Beispiel dafür ist ein systolischer Blutdruckwert von 180 mmHg. Dieser ist zwar ungewöhnlich hoch, kann aber durchaus vorkommen. Als Ausreißer bezeichnet man offensichtlich unmögliche Messwerte, die eindeutig ein Artefakt als Ursache haben müssen, wie zum Beispiel ein Blutdruckwert von 500 mmHg. Zur Detektion beider Größen verwendet man im einfachsten Fall einen Spitzenwertdetektor bzw. einen Amplitudendiskriminator. Analytisch gilt ein Artefakt im Sinne eines Extremwertes oder eines Ausreißers als erkannt, wenn das Biosignal eine vorgegebene Schwelle überschreitet (Gln. 4.2). xt W , H 0 : at 0 xt ! W ,
H 1 : at ! 0
(4.2)
4.1 Signalanalyse im Zeitbereich
177
In Gl. 4.2 entsprechen x(t) und a(t) nach dem Signalmodell in Gl. 4.1 dem gemessenen Biosignal und dem Artefakt, W ist eine Diskriminanzschwelle, H0 und H1 sind Hypothesen eines statistischen Tests zur Detektionsentscheidung mit einer vorgegebenen statistischen Unsicherheit.
Die in Gl. 4.2 mathematisch formulierte Detektion eines Artefakts in der praktischen Analyse umzusetzen ist schwierig. Für kein Biosignal kann man exakte Bereichsgrenzen für Extremwerte und Ausreißer angeben. Das ist auch der Grund, warum beispielsweise auf Patientenmonitoren in den Intensivstationen für alle überwachten Parameter die Alarmgrenzen in weiten Bereichen einstellbar sind. Die Frage, welcher Wert des Blutdrucks, der Herzrate, der Sauerstoffsättigung und der Atmung als extrem und daher als Alarmgrenze gilt, muss schließlich der Mediziner an Hand eines jeden konkreten Falls entscheiden. Im Sinne des Detektors nach Gl. 4.2 legt der Mediziner aufbauend auf seinen Kenntnissen und Erfahrungen (Häufigkeitsverteilungen von x(t) unter den Hypothesen H0 und H1) die Entscheidungsschwelle W fest. Fazit ist, man kann keine allgemeingültigen Grenzen für Parameter angeben. Sie sind individuell unterschiedlich und von der Signalanalyse daher als variabel zu behandeln. Langsame Schwankungen der Nulllinie Der Begriff Nulllinie ist in der medizinischen Diagnostik seit langem eingeführt, R
P
T
Q
S
Abb. 4.2 Bezug der einkanaligen EKG-Ableitung zu Erregungsphasen im Herzen: Während der P-Welle breitet sich die Erregung vom Sinus-Knoten über die Vorhöfe aus. Im Intervall zwischen Ende P- und Anfang der Q-Welle sind die Vorhöfe vollständig erregt, die Potentialdifferenz liegt auf Null-Niveau. Das Gleiche trifft für die Kammern zwischen Ende S- und Anfang TWelle zu. Elektrisch erregte Strukturen sind schraffiert dargestellt
178
4 Zeit-, Frequenz- und Verbundbereich
aus der technischen Sicht jedoch nicht eindeutig definiert. Die Signalanalyse versteht unter Nulllinie einen Parameterverlauf entlang des Pegels Null, ob es sich um eine Messgröße selbst oder um eine von ihr abgeleitete Größe handelt. Medizinisch versteht man unter Nulllinie den Pegel einer Größe, der sich in Intervallen der Inaktivität des untersuchten Organs oder als ihr zeitlicher Mittelwert einstellt. Diese weit offenere Interpretation führt zu Missverständnissen. Das Problem der Nulllinie soll beispielhaft an einem EKG-Abschnitt erläutert werden (Abb. 4.2). Geht man von einer einkanaligen Ableitung aus, so kann man sie als die erste räumliche Differenz betrachten. Dies bedeutet hinsichtlich der erregbaren Strukturen, dass die Differenz sowohl im Ruhezustand als auch im Zustand der maximalen Erregung nahezu Null beträgt. Hinzu kommt, dass man in medizinischen Messverstärkern einen Hochpass am Eingang zur Unterdrückung der Elektrodenspannung verwendet. Ein solcher Hochpass besitzt für die tieffrequenten Biosignale differenzierendes Verhalten. Damit wirken gleichzeitig räumlich und zeitlich differenzierende Anteile, die das komplizierte dreidimensionale elektrische Feld des Herzens schließlich auf eine Nulldifferenz zu Zeiten der maximalen Erregung führen. Dadurch relativiert sich der Begriff der Nulllinie bei Biosignalen. Ein qualitativ ähnliches Verhalten der Nulllinie lässt sich bei EEG-Ableitungen feststellen. Die Nulllinie entsteht allein als Folge eines Hochpasses am Verstärkereingang. Es ist seit mehreren Jahren bekannt, dass das EEG auch diagnostisch interessante DC23-Anteile besitzt, die durch den Hochpass verloren gehen. Auf 1.5 1
EKG / mV
0.5 0 -0.5 -1 -1.5 0
2
4
6
8
Zeit / s
10
12
14
16
Abb. 4.3 Langsame Schwankungen der Nulllinie in Folge von Bewegungsartefakten. Der Ausgleichsvorgang hatte im Anstieg eine Zeitkonstante von 1s, im Abfall 3s. Spektral liegt das Artefakt unterhalb von 1Hz
23
DC – direct current, Gleichstrom, Gleichanteil
4.1 Signalanalyse im Zeitbereich
179
5 4.5
spektrale Amplitude
4 3.5 3 2.5 2 1.5 1 0.5 0 0
1
2
3
Frequenz / Hz
4
5
Abb. 4.4 Amplitudenspektrum eines ungestörten EKG (gestrichelt) und desselben EKG (volle Linie), das durch ein Bewegungsartefakt (Abb. 4.3) gestört ist. Die Harmonischen der Herzrate liegen bei 1.6 Hz, 3.2 Hz und 4.8 Hz, die Harmonischen der Atmung bei 0.25 Hz, 0.5 Hz, 0.75 Hz. Durch das Bewegungsartefakt nimmt der tieffrequente Anteil unterhalb von 2 Hz stark zu
diese Weise wird eine nullwertige tieffrequente Aktivität vorgetäuscht, obwohl real DC-EEG und SCP24 vorhanden sind. Unter langsamen Schwankungen der Nulllinie versteht man Artefakte, deren Dauer bzw. Periode sich etwa im Sekundenbereich bewegt. Die häufigste Ursache der Schwankungen sind Bewegungsartefakte. Jede Bewegung des Patienten wirkt sich direkt auf die Übergangsimpedanzen der angelegten Elektroden und die Elektrodenspannung aus, die das Biosignal aus der Ruhelage verschieben. Bei besonders empfindlicher Messtechnik (EEGAbleittechnik) führen sogar Bewegungen des Personals bzw. Veränderungen des Messaufbaus (Eingriffe in die Gerätetechnik) zu Bewegungsartefakten. Diese Klasse von Artefakten mit statistischen Detektoren zu identifizieren ist auf Grund ihres zufälligen transienten Charakters kaum möglich. Ein typisches Beispiel zu langsamen Schwankungen der Nulllinie in Folge von Bewegungsartefakten zeigt Abb. 4.3. Langsame Schwankungen lassen sich auch ohne sie zu detektieren bereits während der Messung oder später in der Analyse eliminieren. Geht man davon aus, dass sie spektral unter 1 Hz liegen, so können sie durch eine entsprechende Einstellung des Hochpasses am Verstärkereingang stark reduziert werden. Wird der 24
SCP – slow cortical potential
180
4 Zeit-, Frequenz- und Verbundbereich
5 4.5
spektrale Amplitude
4 3.5 3 2.5 2 1.5 1 0.5 0 0
1
2
3
4
Frequenz / Hz
5
Abb. 4.5 Das tieffrequente Artefakt wurde mit einem digitalen Hochpass reduziert (gestrichelt). Dadurch gehen auch die tieffrequenten Anteile des Originalspektrums (voll) verloren. Die Auswirkung zeigt Abb. 4.6 1.5 1
EKG / mV
0.5 0 -0.5 -1 -1.5 3
3.5
4
4.5
Zeit / s
5
5.5
6
Abb. 4.6 Das Bewegungsartefakt beginnt etwa zum Zeitpunkt t=4s (gestrichelt). Durch die Hochpassfilterung ist das Artefakt weitgehend eliminiert (voll). Dadurch steigt relativ der hochfrequente Anteil im EKG, den man als schnelle Schwankungen in den Ruhephasen zwischen Ende-T- und Anfang-P-Welle beobachten kann (uebung_4_1_.m)
4.1 Signalanalyse im Zeitbereich
181
Verstärker durch ein solches Artefakt nicht übersteuert, so kann die Hochpassfilterung auch digital und offline erfolgen. Allerdings muss man sich im Klaren sein, dass eine solche Hochpassfilterung zu starken Verlusten möglicherweise wichtiger diagnostischer Merkmale des Biosignals führen kann. Leitlinien von mehreren medizinischen Gesellschaften (Kardiologie, Elektrophysiologie) lehnen eine solche Maßnahme sogar ab. Im Einzelfall muss also geprüft werden, ob die Eliminierung von langsamen Schwankungen mittels Hochpass diagnostisch vertretbar ist (Abb. 4.4, 4.5, 4.6). Die Analyse der Hochpasswirkung zeigt, dass neben dem ungewollten Artefakt auch wesentliche Anteile des Biosignals unterdrückt werden. Daher wird sich die Frage der Filterung an der konkreten Aufgabe orientieren müssen. So wäre beispielsweise eine Hochpassfilterung vor der R-Zacken-Erkennung zur Bestimmung der Herzrate sinnvoll und wirksam, während sie als Vorstufe zur EKGVermessung nicht angewandt werden dürfte. Schnelle Schwankungen der Nulllinie Als schnelle Schwankungen der Nulllinie bezeichnet man periodische und/oder stochastische Verläufe, die offensichtlich nicht vom untersuchten Biosignal stammen, weil sie hochfrequenter sind bzw. in inaktiven Perioden des Biosignals auftreten. Ein typisches Beispiel zeigt Abb. 4.7. Die EKG-Ableitung I nach Eintho-
0.2
EKG / mV
0.1 0 -0.1 -0.2 -0.3 -0.4 0
0.5
1
1.5
Zeit / s
2
2.5
3
Abb. 4.7 EKG-Ableitung I nach Einthoven mit Muskelartefakten. Das Spektrum der Muskelpotentiale reicht bis zur Nyquistfrequenz von 250 Hz
182
4 Zeit-, Frequenz- und Verbundbereich
0.2
EKG / mV
0.1 0 -0.1 -0.2 -0.3 -0.4 1
1.5
2
2.5
Zeit / s
3
3.5
4
Abb. 4.8 EKG-Ableitung I nach Einthoven (aus Abb. 4.7) nach einer Tiefpassfilterung mit der Grenzfrequenz von 30 Hz (Die Aufzeichnung beginnt nach einer Sekunde, da das digitale Filter Randeffekte verursacht)
ven enthält ein hochfrequentes stochastisches Signal, das insbesondere zwischen den Zacken des EKG sichtbar ist. Es handelt sich um Muskelartefakte, die spektral sehr breit verteilt sind (bis zu 10 kHz) und naturgemäß einen stochastischen Charakter aufweisen. Die üblichen elektrophysiologischen Signale EEG, EKG, EOG und EP (evozierte Potentiale) liegen spektral zwischen 0 Hz bis maximal etwa 100 Hz, wobei die Signalenergie ihr Maximum am unteren Rand des Spektrums erreicht. Da die störenden Muskelartefakte ihr Maximum (abhängig von der mechanischen Anspannung) zwischen etwa 100 Hz und 1 kHz aufweisen und bis ca. 10 kHz reichen, kann mit einem geeigneten Tiefpass die meiste Energie der Artefakte reduziert werden. In Abb. 4.8 ist das EKG aus Abb. 4.7 nach einer Tiefpassfilterung bei einer Grenzfrequenz von 30 Hz dargestellt. Die Muskelartefakte sind fast komplett eliminiert, während die Form des EKG erhalten bleibt. Die gleiche Wirkung zeigt eine Tiefpassfilterung eines EEG, welches von Muskelartefakten gestört ist. Nichtlinearitäten im Biosignal In diese Kategorie ordnen sich Artefakte ein, die nicht dem Signalmodell nach Gl. 4.1 entsprechen, dennoch einen störenden Einfluss auf das untersuchte Biosignal haben. Ein typisches Beispiel zeigt Abb. 4.9. Die Amplituden der R- und S-
4.1 Signalanalyse im Zeitbereich
183
1
EKG / mV
0.5
0
-0.5 0
5
10
Zeit / s
15
20
Abb. 4.9 EKG-Ableitung V6. Die Einhüllende der R- und S-Zacken zeigt eine Periode von etwa 5 s und stammt von der Atmung. Sie bleibt nach der Hochpassfilterung dennoch erhalten. Das Atemsignal ist auf das EKG amplitudenmoduliert. Es liegt daher in Nähe der Harmonischen der Herzrate und dadurch oberhalb der Grenzfrequenz des Hochpasses (siehe Abb. 4.10)
Zacken bilden eine Einhüllende, deren Periode bei etwa 5s liegt. Dieser Effekt ist offensichtlich dem Einfluss der Atmung auf das EKG zuzuschreiben. Eine quantitative Vermessung des EKG wird durch diese Störung problematisch. Da die Periode der Atmung bekannt ist, könnte man sie mit einem Hochpass eliminieren. Die Abb. 4.10 zeigt, dass die Grundwelle der Atmung bei 0.2 Hz liegt, so dass sie mit einem geeigneten Hochpass von der Grundwelle des EKG bei 1.1 Hz getrennt werden müsste. Mit einem steilen Hochpass (Grenzfrequenz bei 0.8 Hz) eliminiert man den spektralen Anteil der Atmung mit mindestens 40 dB, so dass ihr Einfluss auf die EKG-Amplitude verschwinden sollte (Abb. 4.10). Allerdings zeigt der zeitliche Verlauf des gefilterten EKG einen fast identischen Verlauf wie in Abb. 4.9. Die Erklärung für die Wirkungslosigkeit der Hochpassfilterung hinsichtlich der Einhüllenden liefert die Amplitudenmodulation (siehe Kapitel 2). Die Atmung ist dem EKG nach dem Signalmodell in Gl. 4.1 nicht additiv überlagert, sondern multiplikativ. Das EKG ist von der Atmung amplitudenmoduliert. Dies kann man auch daran erkennen, dass um die Grundwelle des EKG bei 1.1 Hz (Abb. 4.10) die Harmonischen der Atmung symmetrisch angeordnet liegen. Dieser Eigenschaft der Amplitudenmodulation ist in der Nachrichtentechnik auch als Seitenband (sideband) bekannt. Für diesen Einfluss der Artefakte auf das untersuchte Biosignal muss daher das Signalmodell aus Gl. 4.1 erweitert werden:
184
4 Zeit-, Frequenz- und Verbundbereich
60 55
Hochpassgefiltertes EKG Original-EKG
50
EKG / dB
45 40 35 30 25
EKG Grundwelle
20 15
Atmung LSB
Atmung Grundwelle
10 0
0.5
Frequenz / Hz
Atmung USB 1
1.5
Abb. 4.10 Amplitudenspektrum eines EKG V6 in dB. Die Grundwelle der Atmung liegt bei 0.2 Hz, die des EKG bei 1.02 Hz. Zu beachten ist, dass sich um die Grundwelle des EKG im Abstand von 0.2 Hz symmetrisch zwei lokale Maxima befinden (Atmung LSB, USB). Nach der Hochpassfilterung mit einer Grenzfrequenz von 0.8 Hz verschwindet der spektrale Anteil der Grundwelle der Atmung, jedoch die Seitenbänder der Atmung um die EKG-Grundwelle bleiben erhalten (uebung_4_2.m)
xt
A st at M s t at nt
(4.3)
In Gl. 4.3 ist A der Faktor für die additive Mischung des Biosignals und der Artefakte, M der Faktor für die multiplikative Mischung und n(t) das additive Rauschen.
Im Fall nach Abb. 4.9 und 4.10 setzt man im Signalmodell nach Gl. 4.3 den additiven Teil A = 0 und den multiplikativen Teil M = 1. Ohne eine theoretische Herleitung folgt dieser Ansatz aus der Erkenntnis, dass der Zeitverlauf des mit einem Hochpass gefilterten Signals sich kaum verändert hat, der additive Anteil also vernachlässigbar ist. Daraus kann man schlussfolgern, dass der Einfluss der Atmung nur durch einen multiplen Bandpass (Kammfilter) für die Harmonischen der Herzrate beseitigt werden kann. Aus der nachrichtentechnischen Sicht würde man den Träger ohne Seitenbänder herausfiltern. Das würde allerdings nur eine (oder mehrere) harmonische Schwingung ergeben, die ihre Amplitude kaum ändert. Für Details siehe Übungen.
4.1 Signalanalyse im Zeitbereich
185
1 0.8
R
EKG / mV
0.6 0.4 0.2
P
T
0 -0.2
Q
-0.4 -0.6 0
S 0.2
0.4
Zeit / s
0.6
0.8
1
Abb. 4.11 Abschnitte eines regulären Zeitverlaufs der EKG-Ableitung aVF. Kriterien zur Mustererkennung sind die gestrichelt markierten Zeitintervalle, in den die Wellen auftreten
4.1.1.2 Deterministische Merkmalsidentifikation
Mehrere Biosignale besitzen einen deterministischen Zeitverlauf, dessen Parameter zwar natürliche Schwankungen aufweisen, jedoch bleibt die Signalform weitgehend konstant (EKG, Pulswelle). In pathologischen Fällen verändert sich die Signalform zwar, aber oft ist sie immer noch deterministisch beschreibbar (Extrasystolen, pathologische Pulswelle). Zu dieser Klasse gehören insbesondere Biosignale, die einen direkten Bezug zum Herz-Kreislauf-System haben: EKG, Pulswelle, Blutfluss, Blutdruck oder IKG25. Die deterministische Herangehensweise soll am Beispiel des EKG erläutert werden (Abb. 4.11). Im normalen physiologischen Verlauf sind die Wellen P und T einphasisch, der QRS-Komplex dreiphasisch. Sowohl die Wellen als auch die Intervalle zwischen den Wellen liegen in bestimmten Zeitfenstern. Zur Erkennung einer regulären Herzaktion ist es daher notwendig, die Anfangs- und Endzeiten der Wellen zu bestimmen und den Wellenverlauf zu kontrollieren. Die Bestimmung der Anfangs- und Endzeitpunkte einer Welle bzw. einer Flanke ist bei realen Biosignalen, die keine klare Nulllinie besitzen und verrauscht bzw. gestört sind, eine komplexe Aufgabe. Die Wellengrenzen sind unklar ausgeprägt und verschwinden im Rauschen. Zur Bestimmung der Anfangs-/Endzeiten können zunächst folgende Möglichkeiten genutzt werden: 25
Impedanzkardiogramm
186
4 Zeit-, Frequenz- und Verbundbereich
Feste Pegelschwelle Für den Anfang und das Ende einer Welle wird eine feste Schwelle eingestellt. In Abb. 4.11 könnte es für das EKG ein Pegel von xabs = 0.02 mV sein. Dieses Kriterium ist sehr einfach und auch in Echtzeit realisierbar, was beispielsweise für Geräte auf kleinstem Raum und schnelle Analyse (Herzschrittmacher) von Vorteil ist. Allerdings schwanken die Zeiten erheblich, da diese Schwelle auch von Störungen, Rauschen und Artefakten häufig überschritten wird (Abb. 4.11). Relative Pegelschwelle Das aus dem technischen Bereich bekannte Prinzip zur Bestimmung der Anfangs/Endzeit bei 10% bzw. 90% des maximalen Pegels kommt hier zum Einsatz. Dieses Messprinzip berücksichtigt den bekannten Effekt, dass gerade die unteren und die oberen 10% einer Flanke relativ flach verlaufen und daher für Schwankungen in der Zeitmessung sorgen. In technischen Bereichen (Datenübertragung, digitale Schaltungstechnik) ist der maximale Pegel bekannt, so dass die Schwellen 10 %/90 % vorab eingestellt werden können. Bei Biosignalen kennt man die Amplitude nur ausnahmsweise (Aktionspotentiale), so dass die Wellenerkennung erst nach der Aufnahme erfolgen kann und ist damit für die echtzeitfähige Verarbei-
xmax x90% x(t)
x10% xabs tanabs tan10% tan90% tantan
tab90%
tmaxtan
tab10%tababs tabtan
Abb. 4.12 Bestimmung der Anfangs-/Endzeiten einer Welle, sowie des Zeitpunkts des Maximums: xabs ist die absolute Schwelle, xmax der maximale Pegel der Welle, x10% und x90% die jeweiligen relativen Pegel von xmax. Die oberen Indizes bei tan, tmax und tab geben die Zeitpunkte der Anstiegsflanke, des Maximums und der Abstiegsflanke an, die unteren Indizes tabs, t10%, t90% und ttan die jeweilige Methode, mit der sie ermittelt werden
4.1 Signalanalyse im Zeitbereich
187
tung nur bedingt geeignet. Vor der Schwellenbestimmung muss die Amplitude detektiert werden. Dies ist mit mehreren Ansätzen möglich, siehe Kapitel 4.1.2 Parameterbestimmung. Tangentenbasierte Schwellenbestimmung Sowohl die feste als auch die relative Schwelle sind sehr empfindlich gegen Rauschen und Störungen und können daher starken zeitlichen Schwankungen ausgesetzt sein. Der tangentenbasierte Ansatz zur Bestimmung der Anfangs-/Endzeiten von Wellen (Abb. 4.12) ist elektrophysiologisch begründet: Die Flanke einer Welle repräsentiert die höchste projizierte Geschwindigkeit der Erregungsausbreitung, im elektrotechnischen Sinne den Höhepunkt einer Ladungsverschiebung. Da die Erregung sich entlang anatomisch stabiler Bahnen ausbreitet, ist das zeitliche Auftreten von Flanken direkt mit der untersuchten neuronalen Aktivität verbunden. Daher sind Wellenflanken gegen Störungen wesentlich unempfindlicher als pegelbasierte Wellendetektion. Diese Eigenschaft ist auch in der Nachrichtentechnik bekannt und kann am Vergleich der Frequenz- und Amplitudenmodulation beobachtet werden. Vergleicht man die Zeitpunkte vom Anfang/Ende der Welle in Abb. 4.12, die von den jeweiligen Methoden ermittelt werden, so lässt sich folgendes feststellen: Die Zeitpunkte sind naturgemäß unterschiedlich und bei den beiden pegelbasierten Methoden (feste und relative Schwelle) stark vom Rauschen und Störungen abhängig. Die sicherste Methode ist die tangentenbasierte Bestimmung der Zeitpunkte, da sie mit wesentlich höheren Pegeln arbeitet. Die Störung müsste die Größe der Welle erreichen, damit es zur Fehlmessung kommt. Allerdings benötigt diese Methode einen viel höheren rechentechnischen Aufwand als pegelbasierte Verfahren, so dass sie für echtzeitfähige Verarbeitung nur bedingt verwendbar ist. Die Bestimmung der Tangente ist im Kapitel 4.1.2 Parameterbestimmung beschrieben.
4.1.2 Ermittlung von Kurvenparametern 4.1.2.1 Amplitudendetektion
Die Detektion von Amplituden hat zum Ziel, sowohl den lokalen maximalen Betrag eines Pegels, als auch den Zeitpunkt seines Auftretens zu bestimmen. Mathematisch lässt sich die Aufgabe mit Hilfe der bekannten Beziehungen zur Extremasuche formulieren (Gl. 4.4).
188
4 Zeit-, Frequenz- und Verbundbereich
dxt dt
d 2 xt 0, xmax ° 2 °° dt 0o® ° d 2 xt ! 0, xmin ° 2 ¯° dt
xt (4.4)
xt
Die Beziehung nach Gl. 4.4 eignet sich zu theoretischen Analysen, kann aber in einigen Spezialfällen auch in der analogen Elektronik (Analoge Signalprozessoren) umgesetzt werden. Zur computergestützten Analyse ist der Übergang in den zeitdiskreten Bereich (Abtastperiode auf 1 normiert) notwendig (Gl. 4.5):
'xn 'n
'2 x n 0, xmax ° 2 °° 'n 0o® ° '2 xn ! 0, xmin ° °¯ 'n 2
xn .
(4.5)
xn
Die Ableitungen von x(n) exakt an der Stelle n nach Gl. 4.5 zu ermitteln ist gar nicht möglich, da sie durch Differenzen nur näherungsweise bestimmt werden können. Für die erste Ableitung stehen bereits zwei mögliche Differenzen zur Auswahl (Gl. 4.6), die nach der Normierung der Abtastperiode dem theoretischen Gradienten ungefähr proportional sind: dxt 'xn °' 1 n |® | 'n dt °¯' 1 n
xn xn 1 x n 1 xn
(4.6)
Zur Schätzung26 der ersten Ableitung wird sich daher eine Kombination der beiden diskreten Differenzen aus Gl. 4.6 anbieten, am einfachsten deren arithmetischer Mittelwert (Abb. 4.13), bekannt auch als zentraler Differenzenquotient: 'xn ' 1 n ' 1 n | 'n 2
1 xn 1 xn 1 . 2
(4.7)
Zu beachten ist, dass in Gl. 4.7 der Wert x(n) durch die Bildung von Differenzen gar nicht mehr erscheint. Spektral gesehen ist dies eine Tiefpassfilterung mit der ersten Nullstelle bei f = 1/2TA, wobei TA die Abtastperiode ist. Vor allem bei verrauschten Biosignalen kann eine stärkere Glättung, d.h. eine niedrigere Grenzfrequenz des Tiefpasses, notwendig sein. Dazu muss die Schätzung der ersten Ableitung auf mehrere Abtastwerte ausgedehnt werden: 26
Eine exakte Berechnung ist nicht möglich, daher wird geschätzt
4.1 Signalanalyse im Zeitbereich
189 L 1
0
'x n | 'n
¦ ' 1 n k ¦ ' 1 n k
k L 1
k 0
2L
1 xn L xn L . (4.8) 2L
Die Grenzfrequenz der Glättung nach Gl. 4.8 liegt bei f = 1/2LTA. Allerdings hat die Differenzierung auch eine Hochpasswirkung. In Abb. 4.13 sind exemplarisch spektrale Eigenschaften von Differenzierern nach Gl. 4.8 dargestellt. Ab der Ordnung 3 bildet sich spektral ein Kammfilter. Aus Sicht der Abtastung (siehe Kapitel 3.2 Abtastung von Biosignalen) entspricht die Formel nach Gl. 4.8 einer Unterabtastung um den Faktor 2L. Daher muss der Differenzierung ein Antialiasingfilter (Tiefpass) mit der Grenzfrequenz von f = 1/2LTA vorangestellt werden. Faktisch bilden der Tiefpass und der Differenzierer insgesamt einen Bandpass. Aus Sicht einer praktischen Realisierung wäre es ohnehin effektiver einen Bandpass zu verwenden, so dass die Formel nach Gl. 4.8 indirekt enthalten wäre. Allerdings muss der Hochpassteil dem Verlauf einer Differenzierung entsprechen (Siehe Kapitel Digitale Filterung). Die Berechnung der ersten Ableitung muss nicht mit dem arithmetischen Mittelwert erfolgen, wie in Gl. 4.8 angegeben. Betrachtet man die zeitdiskreten Differenzen '+,-1(n) als eine Stichprobe, so bieten sich zur Schätzung der Ableitung auch weitere statistische Maße an, beispielsweise der Median oder der Modus. Näheres siehe Kapitel Analyse stochastischer Prozesse. Unabhängig davon, mit welchen Methoden die erste Ableitung bestimmt wird, kann sie im zeitdiskreten und digitalen Bereich nur sehr unwahrscheinlich nullwertig werden. In Bezug auf die zeitliche Diskretisierung muss man immer davon ausgehen, dass Rauschen vorhanden ist, welches durch die Abtastung nicht reduziert wird. Zwar ist das Rauschen mittelwertfrei, aber einzelne Abtastwerte sind reelle Zahlen, so dass ihre Auftrittswahrscheinlichkeit nullwertig ist. In Bezug auf die Digitalisierung nimmt die theoretische Auftrittswahrscheinlichkeit einer exakten Null mit der Bitbreite der AD-Wandlung stark ab. Sie beträgt bei den heutigen Wandlungsbreiten von 24 bit theoretisch 6.10-8. Das bedeutet, dass man bei Anwendung der theoretischen Bedingung einer nullwertigen ersten Ableitung zur Extremasuche bei realen Biosignalen (Gl. 4.4) und einer großen Wandlungsbreite kaum eine Chance hat, die tatsächlichen Extrema zu identifizieren. Im entgegengesetzten Extremfall einer sehr niedrigen Abtastrate (unter 100sps) und einer niedrigen Wandlungsbreite (unter 10 bit) erreicht die erste Differenz häufig den Wert Null, jedoch auch dann, wenn gar kein Extremwert vorliegt. Daraus folgt, dass man bei der ersten Differenz nicht nach ihrer Identität mit Null suchen sollte, sondern nach einem Nulldurchgang. Für die praktische Analyse besteht also die Aufgabe darin, aus zeitdiskreten Werten der ersten Differenz (Gl. 4.5) möglichst genau den Zeitpunkt zu bestimmen, zu dem ein Vorzeichenwechsel stattfand (Abb. 4.14). Reale Biosignale sind verrauscht und gestört, wobei die Differenzierung den Rauschanteil noch erhöht. Daher folgt zwar die erste Differenz dem qualitativen Verlauf des Signals (Abb. 4.15 Mitte), durch den hohen Rauschanteil aber
190
4 Zeit-, Frequenz- und Verbundbereich
5 0 -5
|G(f)|
-10 -15 -20 -25 -30
2T 4T 8T
-35 -40 0
0.1
0.2
0.3
0.4
relative Frequenz
0.5
Abb. 4.13 Spektrale Übertragungsfunktion von Differenzierern mit den Ordnungen L = 2T, 4T und 8T
xmax xn-1-xn-2
xn+1-xn
xn-2-xn-3 xn+3-xn+2
x(t)
n-4
n-3
n-2
Vorzeichen
n-1
n
n+1 n+2
n+3
n+4
(+) (-)
Abb. 4.14 Ermittlung der ersten Differenzen aus zeitdiskreten Signalwerten. Das Vorzeichen der ersten Ableitung wechselt zum Zeitpunkt des Maximums, das Vorzeichen der ersten Differenz wechselt entweder zum diskreten Zeitpunkt n-1 oder n
4.1 Signalanalyse im Zeitbereich
191
mV
EKG 1 0.5 0 -0.5
diff(EKG)/2T
mV
0.5 0 -0.5
sign(diff(EKG)/2T) 1 0 -1 1
1.5
2
Zeit / s
2.5
3
Abb. 4.15 Das EKG (obern), seine erste Differenz über zwei Abtastperioden (Mitte) und das Vorzeichen der ersten Differenz (unten). Durch das Rauschen zeigt das Vorzeichen eher einen stochastischen Verlauf mit Ausnahme des QRS-Komplexes und der T-Welle (TA = 2 ms)
wechselt das Vorzeichen im Wesentlichen wie in einem stochastischen Prozess (Abb. 4.15 unten). Für den Vorzeichenwechsel müssen daher Regeln aufgestellt werden, damit die Amplitude des untersuchten Biosignals erkannt wird und nicht auf jeden Nulldurchgang des Rauschens reagiert. Diese Regeln sind nicht allgemeingültig, vielmehr werden sie typische Verläufe berücksichtigen müssen. Zur Detektion der Amplitude von R- und S-Zacken im EKG kann man die folgende formabhängige Regel für Vorzeichenwechsel (TA = 2ms) aufstellen (Gl. 4.9). 4
5
k 0 4
k 1 5
¦ sgn' 1 n k ! 4 ¦ sgn ' 1 n k 4 x max ¦ sgn ' 1 n k 4 ¦ sgn ' 1 n k ! 4 xmin
k 0
xn xn
(4.9)
k 1
Die formabhängige Auswertung des Vorzeichenwechsels nach Gl. 4.9 und Gl. 4.10 ist vor allem dann notwendig, wenn ein Biosignal Ruhephasen aufweist, in den Rauschen und Störungen allein vorhanden sind, beispielsweise im EKG, Nadel-EMG oder EOG. Insbesondere zur automatischen Detektion von R-Zacken im EKG gibt es mehrere
192
4 Zeit-, Frequenz- und Verbundbereich
1.2 1 0.8
EKG / mV
0.6 0.4 0.2 0 -0.2 -0.4 -0.6 2
2.5
3
3.5
Zeit / s
4
4.5
5
Abb. 4.16 Amplitudendetektion von lokalen Maxima (o) und Minima (*) in einem EKG (aVF). Vorzeichenkriterium 5-/5+. R- und S-Amplituden sind zuverlässig erkannt, von P- und T-Wellen nur vereinzelt
Bandpass
Differenzierer
dxt dt
Quadrierer
Tiefpass
x 2 t
MA
Abb. 4.17 EKG-Erkennung nach Pan und Tompkins. Das Ausgangssignal nach Moving Average kann mit einer festen oder flexiblen (adaptiven) Detektionsschwelle diskriminiert werden. Der Bandpass filtert das Band zwischen 5 Hz und 11 Hz aus, in dem sich der größte Energieanteil des QRS-Komplexes befindet. Der Differenzierer ist mit Gl. 4.10 beschrieben. Das Moving Average (MA) mittelt die Signalleistung über 80ms. Alle Zeitverläufe stellen die jeweiligen Ausgangssignale der Funktionsblöcke dar. Die Grafik beim MA vergleicht das Original-EKG und den Detektorausgang
4.1 Signalanalyse im Zeitbereich
193
formabhängige Detektoren, die zum Teil auch echtzeitfähig und daher für Herzschrittmacher geeignet sind. Ein effizientes Verfahren haben Pan und Tompkins entworfen [1], das schematisch in Abb. 4.17 dargestellt ist. Seit der ersten Veröffentlichung wurde dieses Verfahren häufig modifiziert und auf spezielle Fragestellungen angepasst. Der Bandpass ist mit 5 Hz bis 11 Hz bei den üblichen Abtastraten (500...1000 sps) sehr schmal und tieffrequent, so dass er nur schwer zu realisieren ist. Eine umsetzbare Variante besteht in einer Reihenschaltung aus einem Tiefpass mit einer Grenzfrequenz von 11 Hz und einem Hochpass mit 5 Hz. In diesem Frequenzband besitzt das normale EKG die größte Energie. Der Differenzierer und der Quadrierer liefern die Momentanleistung der ersten Ableitung, so dass sie ein energetisches Maß für die Flanken des QRS-Komplexes ist. Der Differenzierer stellt eine Besonderheit dar, da er im Bereich nur bis etwa 30 Hz differenziert, danach aber steil nach unten abfällt (Abb. 4.18). Damit soll gesichert werden, dass nur der spektrale Bereich des QRS-Komplexes in der ersten Ableitung erscheint. Aus dieser absoluten Vorgabe des spektralen Bereiches des Bandpasses sowie des Differenzierers und der von Pan-Tompkins vorgegebenen festen Koeffizienten nach Gl. 4.10 ergibt sich für die Abtastrate ein fester Wert von 200 sps. Möchte man diesen Detektor bei anderen Abtastraten einsetzen, so müssen entweder der frequenzabhängige Differenzierer (Abb. 4.18, Gl. 4.10) sowie der Bandpass und der MA-Tiefpass für die aktuelle Abtastrate neu berechnet werden, oder (praktisch einfacher) das mit der aktuellen Abtastrate abgetastete Signal auf 200 sps umgerechnet (resampling) werden.
20 10
|G| / dB
0 -10 -20 -30 -40 -3 10
-2
10
normierte Frequenz
-1
10
Abb. 4.18 Übertragungsfunktion des Differenzierers nach Gl. 4.10. Im Bereich bis etwa 0.15 der relativen Frequenz funktioniert er wie ein idealer Differenzierer, danach wie ein steiler Tiefpass
194
4 Zeit-, Frequenz- und Verbundbereich
0.2
EKG / mV
0.1 0 -0.1 -0.2
EKG I outMA
-0.3 0
0.5
1
1.5
2
Zeit / s
Abb. 4.19 Das Original-EKG I im Vergleich zum Detektorsignal am Ausgang des Moving Average (Abb. 4.17). Das Detektorsignal kann mit einer festen oder adaptiven Schwelle diskriminiert werden
d n
xn 2 2 xn 1 2 xn 1 xn 2 8T A
(4.10)
In Gl. 4.10 ist x(n) das gemessene und bandpassgefilterte EKG, TA die Abtastperiode und d(n) das Detektorsignal einer erkannten R-Zacke.
4.1.2.2 Flankendetektion
Wie im Kapitel 4.1.1.2 ausgeführt, sind tangentenbasierte Methoden der Schwellenbestimmung sicherer als pegelbasierte. Theoretisch kann man im Wellenverlauf in jedem Punkt eine Tangente setzen, wobei ihr Anstieg der ersten Ableitung entspricht (Gl. 4.11). Der Quotient im zeitdiskreten Fall ist nach der Normierung auf Abtastperiode 1 proportional dem realen Anstieg. tan D t
dxt 'xn | dt 'n
(4.11)
4.1 Signalanalyse im Zeitbereich
195
Jede Flanke einer Welle mit kontinuierlichem Verlauf besitzt auch einen Wendepunkt, der sich mathematisch mit Hilfe der zweiten Ableitung ermitteln lässt (Gl. 4.12). d 2 xt dt 2
0|
'2 xn 'n 2
w
n
(4.12)
In Gl. 4.12 ist x(t) das untersuchte Signal, n der Zeitindex, w der Zeitindex im Wendepunkt der Flanke.
Bei realen Signalen kann man jedoch nicht davon ausgehen, dass der Wendepunkt wunschgemäß in der Mitte der Flanke liegt. Im Gegenteil, dieser kann sich auf der gesamten Strecke zwischen den lokalen Extrema befinden. Da der Wellenverlauf selbst bei deterministischen Biosignalen im Detail vorab nicht bekannt ist, kann man die Tangente an die Flanke mittels der Methode der kleinsten Quadrate (lineare Regression) legen. Vorher muss der Bereich für die Gerade automatisch (siehe Amplitudendetektion, Schwellendetektion) oder interaktiv festgelegt werden. Eine typische Aufgabe stellt die Vermessung der ST-Strecke dar (Abb. 4.20). Aus der Auswertung der ersten Differenz ergibt sich, dass die S-Zacke ihr Maximum beim Index 136 und ihr Ende beim Index 149 erreicht. Das Polynom für die Regressionsgerade enthält demnach die Koeffizienten p = (0.0416, -6.2474). Auf diese
1 0.8
EKG / mV
0.6 0.4 0.2 0 -0.2 -0.4 -0.6 0
50
100
150
Zeitindex
200
250
300
Abb. 4.20 Tangentenmethode zur Bestimmung der Anfangs/Endzeiten der S-Zacke und der TWelle im EKG, sowie des Pegels der S-T-Strecke. Zur besseren Sichtbarkeit liegen die Tangenten versetzt parallel zu den Kurvenabschnitten
196
4 Zeit-, Frequenz- und Verbundbereich
Weise werden alle drei für die Erhebung der ST-Strecke notwendigen Teilabschnitte berechnet. Die Erhebung der ST-Strecke, die im Normalfall nicht größer als 0.2 mV sein darf, kann sehr genau und zuverlässig überprüft werden. Die Überprüfung ist daher von unterschiedlichen Interpretationen der Nulllinie unabhängig. Nach der medizinischen Auslegung beginnt die Nulllinie per Definition am Anfang der ST-Strecke, also faktisch am Ende der S-Zacke. Diese so definierte Nulllinie stimmt im Allgemeinen nicht mit der Nulllinie eines hochpassgefilterten EKG überein, wie in Abb. 4.20 dargestellt. Daher ist es stets notwendig, neben den signalanalytisch korrekten Detektionen und linearen Approximationen, die Interpretation der medizinischen Auslegung anzupassen. Noch aufwendiger ist die Vermessung von Biosignalen, die naturgemäß keine Inaktivitäten in Zeit aufweisen, beispielsweise das EEG oder EMG. Auch nach einer Hochpassfilterung kann man nicht davon ausgehen, dass der analytische Nullpegel der tatsächlichen Nulllinie entspricht. Eine typische Aufgabe in der Analyse von EP besteht in der Vermessung der Wellen hinsichtlich ihrer Amplituden und Latenzen27. Da die Flanken der Wellen gegen Störungen wesentlich unempfindlicher sind als den relativ flachen lokalen Extrema, ist die Tangentenmethode die robusteste Methode, rechentechnisch allerdings auch die aufwendigs-
10 8
EP / uV
6 4 2
N90
0
P120
P250
-2 -4 0
50
100
150
200
Zeit / ms
250
300
350
400
Abb. 4.21 VEP (Visuell evoziertes Potential) mit charakteristischen Wellen. Eine mögliche Wellenbezeichnung orientiert sich an der Polarität und an der Latenz der Wellenamplitude. Die Tangentenmethode ist robuster als die Suche nach einer nullwertigen ersten Differenz
27
Als Latenz bezeichnet man in der Neurologie die Verzögerung einer Welle der Reizantwort nach einem sensorischen Reiz.
4.1 Signalanalyse im Zeitbereich
197
te. Mit der Tangentenmethode wird das Problem der Nulllinie jedoch nicht gelöst. Um Unabhängigkeit von der unsicheren Nulllinie zu erreichen, ist es üblich, die Amplituden auch als Differenzen benachbarter Wellen anzugeben, z.B. N90P120 (s. Abb. 4.21), P120N170, oder entsprechend ihrer Reihenfolge im EP mit N1P1, P1N2. Die Kombination der Tangentenmethode mit der Vermessung von Amplitudendifferenzen benachbarter Wellen ist hinsichtlich des Rauschens und der Störungen sowie Schwankungen der Nulllinie die sicherste Methode der Vermessung. 4.1.2.3 Bestimmung von Frequenz und Rate
Zur Spektralanalyse von Signalen verwendet man üblicherweise geeignete Transformationen und Methoden zur Schätzung der spektralen Leistungsdichte. Bei Biosignalen besteht die Messaufgabe oft darin, eine „dominante“ (fälschlicherweise auch als momentane) Frequenz zu bestimmen, die in nur einer oder wenigen Perioden vorhanden ist. So treten beispielsweise im Wachzustand-EEG kurze DWellenzüge auf (einige Perioden), die diagnostisch interessant sind, gehen aber bei einer Spektralanalyse in Folge der Integration über einen langen Zeitabschnitt im Rauschen unter. Bei der Bestimmung der Herzratenvariabilität28 (HRV) gehen 1.5
EKG / mV
1
0.5
0
-0.5
-1 0
820
992
1
876
806
2
3
Zeit / s
1036
1034
4
5
6
Abb. 4.22 EKG (Ableitung III) nach Amplitudendetektion von R-Zacken und Vermessung der R-R-Abstände in Millisekunden (Herzperioden). Der Reziprokwert jeder Periode ergibt die momentane Herzrate
28
Fälschlicherweise wird der Begriff Herzfrequenzvariabilität verwendet. Frequenz ist ein Begriff, der allein für harmonische Signale reserviert ist
198
4 Zeit-, Frequenz- und Verbundbereich
14
absolute Häufigkeit / T=43s
12 10 8 6 4 2 0
50
55
60
65
Herzrate / 1/min
70
75
Abb. 4.23 Histogramm der Herzrate einer EKG-Ableitung über eine Aufnahmedauer von 43s
80
Herzrate / 1/min
75 70 65 60 55 50 0
5
10
15
20
Zeit / s
25
30
35
40
Abb. 4.24 Zeitverlauf der Herzrate der EKG-Ableitung nach Abb. 4.22 und 4.23. Die Periode der Herzratenänderung beträgt etwa 5s und ist demnach der Atmung zuzuschreiben. Über die Messzeit sind jedoch auch ein Trend und Schwankungen sichtbar, so dass offensichtlich auch weitere Regelmechanismen des Organismus wirksam sind. Zu beachten ist, dass die zeitlichen Abstände der diskreten Ratenwerte nicht äquidistant sind
4.1 Signalanalyse im Zeitbereich
199
in ihre Berechnung sogar nur einzelne Herzperioden mit ihrem reziproken Wert ein, so dass hier spektralanalytische Methoden gänzlich unbrauchbar sind. Die Aufgabe besteht daher darin, aus dem Zeitverlauf eines Biosignals die Frequenz oder die Rate direkt zu bestimmen. In Abb. 4.22 sind die ersten sechs Sekunden einer EKG-Aufnahme (Ableitung III) dargestellt, nachdem die Amplituden der RZacken algorithmisch detektiert und die Herzperioden vermessen wurden. Die Periodendauer ändert sich hier im Bereich von etwa 20%, was bei einem gesunden Organismus normal ist. Die Originalaufnahme war 43 s lang, so dass man über die Herzrate bereits eine Statistik in Form eines Histogramms angeben kann (Abb. 4.23). Da die aktuelle Herzrate sich als Reziprokwert der Herzperiode berechnet, ist sie im Zeitverlauf erst am Ende der jeweiligen Herzperiode bekannt und daher auf der Zeitachse nicht äquidistant. Für eine Spektralanalyse der HRV ist es jedoch notwendig, dass die Werte zu Zeitpunkten der Abtastung vorliegen. Weiterhin ist es notwendig, dass auch der Bereich zwischen den Ratenangaben, die in der Form nach Abb. 4.24 noch eine nichtäquidistante Impulsfolge darstellen, mit adäquaten Werten gefüllt wird. Eine der einfachsten Methoden, die auch breit eingesetzt wird, ist die lineare Interpolation zwischen den Ratenwerten (Abb. 4.25). Die lineare Interpolation ist in der Durchführung zwar relativ einfach, weist jedoch signalanalytische Probleme auf. Der wichtigste Mangel besteht darin, dass zu Zeitpunkten der ermittelten Herzrate durch die lineare Interpolation (Berger-Algorithmus, [5]) Knicke im Verlauf entstehen (rechts- und linksseitige Ableitung nicht gleich), die zur Be80
Herzrate / 1/min
75 70 65 60 55 50 1
1.5
2
2.5
3
Zeit / s
3.5
4
4.5
5
Abb. 4.25 Lineare Interpolation der aktuellen Herzrate. Der interpolierte Verlauf wird formal mit der gewünschten Rate abgetastet. Faktisch füllt man die bereits vorhandenen Abtastpunkte mit den interpolierten Daten
200
4 Zeit-, Frequenz- und Verbundbereich
einträchtigung der Fouriertransformierten führen. Daher sollten zur Berechnung von Zwischenwerten der Herzrate Verfahren eingesetzt werden, die einen möglichst glatten (differenzierbaren) Verlauf erzeugen. Ein anderer Ansatz zur Berechnung der HRV besteht im kombinierten AM/FM29 Signalmodell der Grundwelle der Herzrate und der Modulationssignale (Gl. 4.13). ekg t at sin Z 0t hrvt .
(4.13)
In Gl. 4.13 ist ekg(t) die modellierte Grundwelle einer EKG-Ableitung, a(t) das AMModulationssignal, 0 die Grundfrequenz des EKG, hrv(t) die gesuchte HRV, hier als Phasenmodulator.
Ausgehend vom Signalmodell nach Gl. 4.13 interessiert die HRV, während der Einfluss der AM mit a(t) ausgeschaltet werden muss. Das erreicht man wie auch in der Nachrichtentechnik durch Konstanz der Amplitude der Grundwelle. Praktisch ersetzt man das Original-EKG durch eine Cosinus-Welle mit der Periode des aktuellen Abstandes R-R, wie in Abb. 4.26 dargestellt. Durch die KosinusInterpolation in den R-R-Perioden ist gesichert, dass das Modellsignal stetig und differenzierbar ist. Die Spektralanalyse führt direkt zu Informationen über die Herzrate und ihre Variabilität (Abb. 4.27). In Übereinstimmung mit der Signaltheorie enthält das Spektrum der HR/HRV viele Seitenschwingungen. Bei dem modellierten Signal nach Gl. 4.13 beträgt ihr Pegel jedoch weniger als -20 dB in Be1.5 1
EKG / mV
0.5 0 -0.5 -1 -1.5 0
EKG Grundwelle 1
2
Zeit / s
3
4
5
Abb. 4.26 Die Grundwelle des EKG (gestrichelt) modelliert die Frequenzmodulation
29
AM/FM – Amplitudenmodulation, Frequenzmodulation
4.1 Signalanalyse im Zeitbereich
201
9
spektrale Amplitude
8 7
VLF
6
LF
5
HF
4 3
HR
2 1 0 0.8
0.85
0.9
0.95
1
1.05
Frequenz
1.1
1.15
1.2
1.25
Abb. 4.27 Herzrate HR und Herzratenvariabilität HRV. Symmetrisch um die Herzrate befinden sich die Bänder der HRV VLF (Very Low Frequency, < 0.04 Hz), LF (Low Frequency, 0.04 Hz...0.15 Hz) und HF (High Frequency, 0.15 Hz...0.4 Hz). Die Klassifikation der spektralen Bänder erfolgt nach Empfehlungen der AHA (American Heart Association)
zug auf die Spektralbänder der HRV, so dass sie zur Bestimmung der HRV unberücksichtigt bleiben können. Bei einigen Biosignalen (EEG, Pulswelle) kann man die Grundfrequenz aus dem Zeitverlauf durch Periodenzählung direkt ablesen. Es ist üblich, die Zeit von mehreren aufeinander folgenden Perioden zu messen bzw. in einem angemessenen Zeitintervall die Anzahl der Perioden zu zählen. In beiden Fällen erhält man eine gemittelte Grundfrequenz (Gl. 4.14). f0
1 1 N
N
¦ t^xm i 1 ` t^xm i `
(4.14)
i 1
In Gl. 4.14 ist xm(i) ein Kurvenmerkmal des Biosignals (lokales Maximum, lokales Minimum, Nulldurchgang, Wendepunkt), i der Zeitindex des Merkmals, t{xm(i)} der Zeitpunkt des Auftretens eines Merkmals xm(i).
Durch die Mittelwertbildung nach Gl. 4.14 reduziert sich der zufällige Fehler um den Faktor N . In der praktischen Analyse liegt N im Bereich 10 < N < 100, wo-
202
4 Zeit-, Frequenz- und Verbundbereich
POz
200 150
EEG / uV
100 50 0 -50 -100 -150 -200 0
500
1000
Zeit / ms
1500
2000
Abb. 4.28 Ausschnitt einer unipolaren EEG-Aufnahme an der Position POz. Im rechten Teil (t = 1000 ms...2200 ms) verläuft ein typischer Wellenzug im D-Band. Für diesen Wellenzug ist die Frequenzbestimmung durch Zählung der Nulldurchgänge mit hoher Zuverlässigkeit möglich. Die mittlere Grundfrequenz liegt nach Gl. 4.14 bei f0 = 11 Hz
bei man eine höhere statistische Sicherheit natürlich bei höheren N erreicht. Für niedrigere Werte von N<20 empfiehlt sich, statt des arithmetischen Mittels in Gl. 4.14 den Median zu verwenden, da dieser bei wenigen Messwerten besonders robust ist. Von entscheidender Bedeutung für die Schätzgüte ist die Wahl eines geeigneten Kurvenmerkmals xm. Mit Ausnahme der R-Zacke im EKG zeigen lokale Extrema in Biosignalen einen relativ flachen Verlauf, so dass die Ermittlung des zugehörigen Zeitpunktes rauschbedingt einen großen statistischen Fehler aufweist. Wie bereits im vorherigen Kapitel erläutert, sind Flanken im Signalverlauf hinsichtlich der Zeitmessung sicherer als alle anderen Kurvenmerkmale. Daher sollte man zur Bestimmung der Grundfrequenz nach Gl. 4.14 unter der Voraussetzung eines Nullmittelsignals möglichst die Nulldurchgänge wählen. Eine typische Messsituation zeigt Abb. 4.28. Im rechten Teil des EEG-Ausschnitts verläuft ein Wellenzug aus dem D-Band. Da das EEG normalerweise mit einem Hochpass am Verstärkereingang aufgenommen wird, ist es ein Nullmittelsignal. Man wählt ein Zeitfenster, in dem dieser Wellenzug offenbar vorhanden ist, hier mit t = 1000 ms...2000 ms und detektiert die Nulldurchgänge der Anstiegs- oder Abfallflanken. Möchte man der Einfachheit halber alle Nulldurchgänge auswerten, so muss der Normierungsfaktor N in Gl. 4.14 verdoppelt werden. Im linken Teil der Aufnahme in Abb. 4.28 verläuft das EEG im E-Band. Dieses Band ist relativ hochfrequent
4.2 Signalanalyse im Frequenzbereich
203
und zeichnet sich durch einen teilweise stochastischen Charakter aus. Daher eignet sich die hier beschriebene Methode zur Frequenzbestimmung im E-Band nicht. Anmerkung: Die Terminologie in Bezug auf Frequenzen in Biosignalen, insbesondere im EEG, ist uneinheitlich und führt zu kontroversen Diskussionen und Interpretationen. Im Sinne einer ingenieurwissenschatlich korrekten Beschreibung verwendet werden hier die in der Signalanalyse eingeführten Begriffe Grundwelle, Grundfrequenz, Oberwelle, Harmonische verwendet. Appliziert man diese Sichtweise auf das obere Beispiel der Bestimmung der Grundfrequenz an Hand der Zählung von Nulldurchgängen, so ergibt die Zählung unter Anwendung der Gl. 4.14 die Grundfrequenz (Grundwelle). Der Wellenzug im D-Band ist aber keine Monokomponente, sondern ein Signal mit einem kontinuierlichen Spektrum. Ein kontinuierliches Spektrum enthält unendlich viele Frequenzen, so dass an dieser Stelle die Bezeichnung Momentanfrequenz und ähnliche Begriffe zu verwenden, nicht korrekt wären. Streng genommen, kann es Momentanfrequenz nur bei harmonischen Monokomponenten geben, die ihre Frequenz eventuell ändern, beispielsweise bei frequenzmodulierten Trägern. Sinngemäß wird mit Momentanfrequenz derjenige Anteil in Biosignalen charakterisiert, der von Interesse ist und die höchste Leistung bzw. das beste SNR aufweist.
4.2 Signalanalyse im Frequenzbereich Der Übergang vom Zeit- in den Frequenzbereich ist vor allem dann sinnvoll, wenn theoretische System- und/oder Signalanalyse sowie Spektralanalyse notwendig oder Methoden der praktischen Signalverarbeitung im Frequenzbereich effektiver umsetzbar sind. Daher wird im Folgenden schwerpunktmäßig die Fouriertransformation in ihrer theoretischen kontinuierlichen und praktischen diskreten Form behandelt.
4.2.1 Fouriertransformation Die Fouriertransformation (FT) ist allgemein bekannt und hinreichend untersucht, so dass hier nur Eigenschaften und Merkmale behandelt werden, die für die Biosignalverarbeitung relevant sind. Die Basis bilden die kontinuierliche FT und ihre inverse Variante (IFT) nach Gl. 4.15 (mit einem * ist die Faltung gekennzeichnet). Xf
f
³ xt e
f
j 2Sft
dt , xt
f
³ X f e
f
j 2Sft
df
(4.15)
204
4 Zeit-, Frequenz- und Verbundbereich
4.2.1.1 Eigenschaften der FT und IFT
Multiplikation von zwei Zeitfunktionen z t
xt y t
FT o IFT m
Z f
X f Y f
(4.16)
Entsprechend dem Signalmodell nach Gl. 4.3 kommt es vor, dass starke Störungen auf das Messsignal multiplikativ wirken. Ist die Störung harmonisch oder zumindest periodisch, so lässt sie sich mit aufwendigen Methoden aus dem Messsignal beseitigen. Eine solche Messsituation ist in Abb. 4.29 dargestellt. Ist eines der Signale nach Gl. 4.16 harmonisch, so bewirkt die spektrale Faltung eine Verschiebung und Spiegelung des anderen Spektrums. Sind beide Spektren kontinuierlich und überlappen sich – bei Biosignalen immer – so ist ihre Trennung nicht mehr möglich (siehe Abb. 4.27). Faltung von zwei Zeitfunktionen z t
xt y t
FT o IFT m
Z f
X f Y f
(4.17)
Im zeitkontinuierlichen Bereich lassen sich Signale und Systeme mit Hilfe ihrer Fouriertransformierten beschreiben. Einen typischen Abschnitt der analogen Biosignalverarbeitung zeigt Abb. 4.30. Ein Messsignal durchläuft einen analogen Hochpass zur Abtrennung der Elektrodenspannung und einen Tiefpass zur Bandbegrenzung. Da die Übertragungsfunktionen im Frequenzbereich bekannt sind, kann man jeden Systemausgang einfach beschreiben. Eine Beschreibung im zeitkontinuierlichen Bereich mit Hilfe der Faltung ist nicht üblich, meistens bleibt sie theoretischen Analysen vorbehalten. Zeitverschiebung einer Zeitfunktion xt t 0
FT o IFT
m
e j 2Sft0 X f
(4.18)
Die Zeitverschiebung eines Biosignals ist vor allem dann von Bedeutung, wenn zeitkritische Vorgänge verarbeitet werden (on-demand-Herzschrittmacher) oder
4.2 Signalanalyse im Frequenzbereich
205
50 45
Signalpegel / dB
40 35 30 25 20 15 10 48.5
49
49.5
50
50.5
Frequenz / Hz
51
51.5
Abb. 4.29 Amplitudenspektrum einer EKG-Aufnahme (Einthoven III), die vom Netz stark gestört wurde und auf das EKG multiplikativ einwirkte. Da die Störung harmonisch ist, bewirkt die Faltung nach Gl. 4.16 nur eine Verschiebung des EKG-Spektrums symmetrisch um 50 Hz
x(t)
hHP(W)
y(t)
hTP(W)
hHP(W)*x(t)
X(f)
HHP(f)
Y(f) HHP(f).X(f)
z(t) hTP(W)*y(t)
HTP(f)
Z(f) HTP(f).Y(f)
Abb. 4.30 Eine Signalverarbeitungskette besteht aus einer Reihe von Signalen (x(t), y(t), z(t)) und Systemen (hHP(W), hTP/(W)). Entsprechend der Beziehung Gl. 4.17 multipliziert man im Frequenzbereich die Übertragungsfunktionen, im Zeitbereich faltet man über eine unabhängige Hilfsvariable W der Zeit
206
4 Zeit-, Frequenz- und Verbundbereich
Phase(EEG(t) Phase(EEG(t-t0)
0 -10
Phase / Winkelgrad
-20 -30 -40 -50 -60 -70 -80 -90 0
5
10
15
20
25
Frequenz / Hz
30
35
40
45
Abb. 4.31 Phasenfrequenzgang eines EEG-Abschnitts. Das ursprüngliche Messsignal (volle Linie) wurde durch diverse Übertragungen um 400 ms verzögert (gestrichelte Linie). Das Amplitudenspektrum bleibt unverändert, der Phasengang verschiebt sich entsprechend Gl. 4.18
50
Phase( EEG) Phase(-EEG)
40
Phase / Winkelgrad
30 20 10 0 -10 -20 -30 -40 0
5
10
15
20
25
Frequenz / Hz
30
35
40
45
Abb. 4.32 Phasenfrequenzgang eines EEG-Abschnitts mit starken D- und E-Wellen (volle Linie) und seiner zeitlich gespiegelten Variante (gestrichelte Linie). Während der Amplitudenfrequenzgang konstant bleibt, ändert die Phase ihr Vorzeichen. Eine nachträgliche Korrektur ist daher durch Vorzeichenumkehr jederzeit machbar
4.2 Signalanalyse im Frequenzbereich
207
die Koinzidenz30 eine notwendige Bedingung ist (Ensemble-Mittelung in Sensorarrays). Wenn die Zeitverschiebung bekannt ist, lässt sie sich mit Hilfe der Beziehung Gl. 4.18 a posteriori korrigieren (siehe Kapitel 3.2.3 Abtastung in Mehrkanalsystemen). Zeitverschiebung hat keinen Einfluss auf das Amplitudenspektrum eines Signals (translationsinvariant), so dass sie bei Spektralanalysen (EEGBänderleistung, HRV) keine Bedeutung hat. Wie sich eine Zeitverschiebung auf den Phasenfrequenzgang eines Biosignals auswirkt, zeigt Abb. 4.31. Zu beachten ist, dass der Phasenfrequenzgang sich qualitativ im Wesentlichen nicht ändert, sondern entsprechend Gl. 4.18 mit zunehmender Frequenz linear abnimmt. Frequenzverschiebung einer Zeitfunktion xt e j 2Sf 0t
FT o IFT m
X f f0
(4.19)
Die Frequenzverschiebung einer Zeitfunktion entspricht nachrichtentechnisch einer Amplitudenmodulation des harmonischen Trägers mit der Frequenz f0 mit einem Modulationssignal x(t). Man kann sie als Spezialfall der Beziehung nach Gl. 4.16 interpretieren. Eine unerwünschte Frequenzverschiebung als Folge einer harmonischen Störung zeigt Abb. 4.29, eine gewollte Frequenzverschiebung behandelt das Kapitel 3.2.2 Abtastung von bandbegrenzten Signalen (Abb. 3.15). Skalierung einer Zeitfunktion xat
FT o 1 § f · X¨ ¸ IFT m a © a ¹
(4.20)
Die Skalierung ist in ihrer praktischen Umsetzung als Zoom bekannt. Während sie in vielen Bereichen kontinuierlich realisierbar ist (Optik, Physik), spielt sie bei Biosignalen in ihrer kontinuierlichen Fassung eine rein theoretische Rolle. Dafür ist sie in ihrer zeitdiskreten Variante (Abtastung, Unter- und Überabtastung) für die Biosignalverarbeitung von fundamentaler Bedeutung. Zeitspiegel einer Zeitfunktion x t
30
Zeitliche Synchronität, Simultanaität
FT o IFT m
X f
(4.21)
208
4 Zeit-, Frequenz- und Verbundbereich
Die Zeitspiegelung einer Zeitfunktion ist in der realen Biosignalverarbeitung natürlich nicht realisierbar, bildet aber die theoretische Grundlage für mehrere signalanalytische Lösungsansätze (siehe Kapitel 4.2.1.3 Faltung im Zeitbereich und Korrelationsfunktion). Die Wirkung der Zeitspiegelung zeigt Abb. 4.32. Während der Amplitudenfrequenzgang konstant bleibt, ändert die Phase ihr Vorzeichen. Daher kann man die Zeitspiegelung vor allem in der Korrelationsanalyse nutzen, da die Korrelationsfunktion und die Faltung sich formelmäßig allein im Vorzeichen der Verschiebung unterscheiden (Gl. 4.25). Da dies bekannt ist, kann die Vorzeichenumkehr an jeder Stelle der Signalverarbeitung korrigiert werden. 4.2.1.2 Fensterung
Selbst in der theoretischen Signalanalyse kann man nicht davon ausgehen, dass die Integrationsgrenzen der FT realisierbar sind. Daher muss man von vornherein ein endliches Signal betrachten. Mathematisch entspricht das einer impliziten Fensterung des Signals mit einem Rechteckfenster nach Gl. 4.22 (Abb. 4.33). x w t rect t x t , rect t V t t m T / 2 V t t m T / 2
(4.22)
In Gl. 4.22 ist V ein Einheitssprung, tm der zeitliche Mittelpunkt des Fensters, T die Fensterlänge.
100
EEG / uV
50
0
-50 sigma1 sigma2 EEG Fenster
-100
2.2
2.4
2.6
2.8
3
3.2
Zeit / s
3.4
3.6
3.8
4
Abb. 4.33 Realisierung eines Signalausschnitts im EEG zwischen den Integrationsgrenzen t1 und t2 mit Hilfe der Sprungfunktion V(t-t1,2) nach Gl. 4.22 (tm = (t1 + t2)/2, T = t2 - t1)
4.2 Signalanalyse im Frequenzbereich
209
Die FT der Fensterfunktion nach Gl. 4.22 und Abb. 4.33 ergibt die Sinc-Funktion o rect t FT
sin SfT j 2St m f e SfT
sinc fT e j 2St m f ,
(4.23)
wobei T die Fensterlänge und tm die Fenstermitte sind. Für den allgemeinen Fall von t2 und t1 ist Gl. 4.18 zu berücksichtigen. Die Übertragungsfunktion nach Gl. 4.23 ist in Abb. 4.34 dargestellt. Die Übertragung erreicht bei ganzzahligen Vielfachen der reziproken Fensterlänge Null. Dieser Effekt kann bei bestimmten Fragestellungen der Signalverarbeitung gezielt genutzt werden, beispielsweise zur Unterdrückung störender periodischer Interferenzen (Netzfrequenz, Bildrate von Monitoren, siehe dazu Kapitel 3.3.1, integrierende AD-Wandler). Die Nulldurchgänge sind unabhängig von der Fensterform immer vorhanden und ihre Position hängt allein von der Fensterlänge ab. Da die Übertragungsfunktion mit dem Signalspektrum gemäß Gl. 4.16 gefaltet wird, sollte sie im Idealfall die Form eines Dirac-Pulses haben, um das Spektrum nicht zu verändern. In der Praxis würde das bedeuten, dass die Fensterlänge möglichst groß sein soll, was aus Praktikabilitätsgründen nicht machbar ist. Daher versucht man, die Fensterform so zu gestalten, dass sie signalspezifische spektrale Eigenschaften aufweist. Die bekanntesten Fenstertypen sind in Abb. 4.35 und 4.36 dargestellt. Wie bereits in Abb. 4.34 erkennbar, beträgt die Übertragungsfunktion ein Hauptmaximum und mehrere Nebenmaxima. Das Ziel einer Fensterfunktion besteht darin, das Haupt1.2 1 0.8
G(f)
0.6 0.4 0.2 0 -0.2 -0.4 -6
-4
-2
0
pi.fT
2
4
6
Abb. 4.34 Übertragungsfunktion im Frequenzbereich eines Rechteckfensters im Zeitbereich. Bei ganzzahligen Vielfachen der reziproken Fensterlänge erreicht die Übertragung Null
210
4 Zeit-, Frequenz- und Verbundbereich
Blackman Bartlett Hamming Hanning
1 0.8
w(t)
0.6 0.4 0.2 0 -60
-40
-20
0
20
Zeitindex
40
60
Abb. 4.35 Fenstertypen Blackman, Bartlett, Hamming und Hanning mit der Fensterlänge 101
0
Blackman Bartlett Hamming Hanning
-10 -20
|W(f)| / dB
-30 -40 -50 -60 -70 -80 -90 -100 0
0.01
0.02
0.03
0.04
0.05
0.06
relative Frequenz
0.07
0.08
0.09
0.1
Abb. 4.36 Übertragungsfunktion der Fenster nach Blackman, Bartlett, Hamming und Hanning im Frequenzbereich
4.2 Signalanalyse im Frequenzbereich
211
Tabelle 4.2 Ausgewählte Fenstertypen und Formeln für kontinuierliche Zeitfunktion Fenstertyp
Formel für w(t)
Blackman
0.42 0.5 cos2St / T 0.08 cos4St / T
Bartlett
1 2 t / T
Hamming
0.54 0.46 cos2St / T
Hanning
0.51 cos2St / T
Für diskrete Zeit (abgetastete Biosignale) t durch n und T durch N ersetzen (Abb. 4.35).
maximum möglichst schmal zu halten und die Nebenmaxima möglichst stark zu unterdrücken. Da beides gleichzeitig nicht machbar ist, muss für jeden Signaltyp ein geeigneter Kompromiss gesucht werden. Vergleicht man die vorgestellten Fenstertypen (Abb. 4.36), so lässt sich Folgendes feststellen: Blackman unterdrückt die Nebenminima im Spektrum am besten, hat aber das breiteste Hauptmaximum, Bartlett hat das schmalste Hauptmaximum aber die schlechteste Unterdrückung der Nebenmaxima. Hanning zeigt nur geringfügig breiteres Hauptmaximum als Bartlett aber die zweitbeste Unterdrückung der Nebenmaxima. Für die meisten Fälle ist daher Hanning die beste Alternative. Hamming hat die zweitbeste Breite des Hauptmaximums, dafür aber eine nahezu konstante Unterdrückung der Nebenmaxima, wobei die ersten beiden besser unterdrückt werden, als bei Hanning. Damit eignet sich Hamming besser für eine gute spektrale Auflösung. Das Rechteckfenster - das implizit immer vorliegt, wenn man gar kein der genannten Fenster verwenden möchte - hat von allen Fenstertypen die schmalste Hauptkeule. 4.2.1.3 Faltung im Zeitbereich und Korrelationsfunktion
Die Kreuzkorrelationsfunktion (KKF) von zwei Zeitfunktionen wird wie folgt berechnet (Gl. 4.24).
U xy W
f
³ xt yt W dt
(4.24)
f
Spiegelt man eine der Zeitfunktionen in Gl. 4.24 auf der Zeitachse, so erhält man mit Gl. 4.24 ihr Faltungsintegral (Gl. 4.25).
U xy W U yx W
f
³ xt y t W dt xt y t
f
(4.25)
212
4 Zeit-, Frequenz- und Verbundbereich
Überträgt man Gl. 4.24 und 4.25 in den Frequenzbereich, so ergibt sich
\ f X f Y f .
(4.26)
Mit Hilfe der IFT lässt sich demnach die KKF nach Gl. 4.27 berechnen.
U W FT 1^X f Y f `
(4.27)
Nach Gl. 4.25 lässt sich die KKF als Faltung von zwei Zeitfunktionen interpretieren, von den eine auf der Zeitachse gespiegelt ist. Daher kann die KKF nach Gl. 4.27 auch indirekt aus der FT der einzelnen Zeitfunktionen berechnet werden. Diese theoretische Herleitung wird später zur effizienten Berechnung der KKF mit Hilfe der FFT31 genutzt. Die KKF \(f) nach Gl. 4.26 wird in der Spektralanalyse von stochastischen Signalen auch als Kreuzleistungsdichte (Gl. 4.28) bezeichnet. Verwendet man die Beziehungen nach Gl. 4.24 bis 4.27 auf ein einzelnes Signal x(t), so spricht man von Autokorrelationsfunktion (AKF) und Autoleistungsdichte (Gl. 4.29).
U xy W
FT o IFT
m
U xx W
X f Y * f
FT o IFT m
X f Y f
X f X * f
Xf
2
(4.28)
(4.29)
In Gl. 4.28 und 4.29 ist Uxx,y der quadratische Mittelwert im Sinne der Statistik, äquivalent der KKF/AKF im Sinne der Systemanalyse deterministischer Signale. Ein * bei komplexen Größen bezeichnet die konjugiert Komplexe. Für reele Signale gilt Y(-f) = Y*(f).
Die Beziehungen nach Gl. 4.26 sowie Gl. 4.28 und 4.29 sind auch als das WienerKintchine-Theorem bekannt. Das Theorem sagt aus, dass beide Wege zur Berechnung des Leistungsdichtespektrums äquivalent sind: Erstens, zunächst über die FT das komplexe Spektrum (Periodogramm) zu berechnen und anschließend das Betragsquadrat bilden (direkte Methode), oder zweitens, zunächst die KKF zu berechnen und diese dann über die FT in den Frequenzbereich zu übertragen (indirekte Methode). In der praktischen Analyse sind diese Wege allerdings nicht äquivalent. Der Zusammenhang zwischen der Korrelationsfunktion (Gl. 4.24) und der zeitlichen Faltung (Gl. 4.25) bildet auch die theoretische Basis für die Interpretation der FT als Korrelation zwischen einer harmonischen Schwingung (Analysefunktion im komplexen Zeiger, Gl. 4.15) und dem untersuchten Signal. Die Dualität der FT besteht zwischen der Leistungsdichte und der Korrelations31
FFT – Fast Fourier Transform, schneller Algorithmus zur Berechnung der DFT
4.2 Signalanalyse im Frequenzbereich
G(t)
213
Diracimpuls
Uxx(W)
Diracimpuls
AKF(G(t)) AKF(n(t))
W
t n(t)
pxx(f)
weißes Rauschen
FT
IFT
|FT(G(t))|2 |FT(n(t))|2 t
f
Abb. 4.37 Berechnung der spektralen Leistungsdichte vom Diracimpuls und vom weißen Rauschen über die AKF (indirekte Methode) und über das Betragsquadrat der FT (direkte Methode). Die Dualität der FT besteht zwischen der AKF und der Leistungsdichte. Eine Rekonstruktion des Zeitsignals ist nicht mehr möglich, da die Phaseninformation verloren geht
funktion, jedoch nicht mehr in Bezug auf das untersuchte Signal als Zeitverlauf. Durch die Betragsquadrate bei der direkten Methode und die Berechnung der Korrelationsfunktion bei der indirekten Methode geht die Phaseninformation verloren, so dass das untersuchte Signal nicht mehr rekonstruiert werden kann. Ein anschauliches Beispiel bieten die elementaren analytischen Signale Diracimpuls und weißes Rauschen (Abb. 4.37). Dieses Beispiel zeigt, dass an Hand der spektralen Leistungsdichte allein ein Rückschluss auf das Zeitsignal nicht mehr eindeutig ist. An dieser Stelle wird deutlich, wie wichtig die Phaseninformation für die Signalanalyse und –synthese ist – sie bestimmt neben den Amplituden die Signalform.
4.2.2 Diskrete Fouriertransformation 4.2.2.1 Kontinuierliche und diskrete Zeit
Biosignale werden nach der Erfassung, analoger Filterung und Verstärkung abgetastet (noch nicht digitalisiert). Daher ist es notwendig, für zeitdiskrete Biosignale ein entsprechendes Instrumentarium der diskreten Mathematik aufzustellen. Geht man von der zeitkontinuierlichen FT aus (Gl. 4.15) und setzt ein abgetastetes Sig-
214
4 Zeit-, Frequenz- und Verbundbereich
nal ein, so ergibt sich die Formulierung nach Gl. 4.30. Nach der Multiplikation des Zeitsignals x(t) mit der Dirac-Impulsfolge erhält man ein kontinuierliches Spektrum. Xf
f
f
j 2Sft dt ³ xt ¦ G t nT e
f f
n f
f
j 2Sft dt ³ ¦ xnT G t nT e
(4.30)
f n f
f ½ F ® ¦ xnT G t nT ¾ ¯n f ¿ In Gl. 4.30 ist X(f) die Fouriertransformierte von x(nT), T die Abtastperiode, nT die Abtastzeitpunkte, x(nT) die Werte des Signals x(t) zu Abtastzeitpunkten nT, f die kontinuierliche Frequenz.
Durch die Abtastung wandelt sich das unendlich schmale Zeitintervall dt aus Gl. 4.15 in die konstante Abtastperiode T. Damit verliert das kontinuierliche Integral seinen Sinn und man kann es durch eine Summe über die Abtastzeitpunkte ersetzen. Gleichzeitig wendet man aus Praktikabilitätsgründen zunächst ein Rechteckfenster an (Gl. 4.31). Die Abtastperiode T im Exponenten ersetzt man durch den Reziprokwert der Abtastrate. Xf
N 1
¦ xnT e
j 2Sn
f fA
(4.31)
n 0
In Gl. 4.31 ist n der Zeitindex, dieser beginnt bei Null, um Äquivalenz mit der Zeitachse zu sichern; fA ist die Grundfrequenz der Abtastrate, N die Anzahl der Abtastwerte.
Die FT von x(nT) kann man trotz der Abtastung für unendlich viele Frequenzen f berechnen. Je mehr Frequenzen berechnet werden, d.h. je dichter diese Frequenzen beieinander liegen, umso weniger unterscheiden sich benachbarte Fourierkoefizienten. Damit sind sie sich sehr ähnlich, oder im Sinne der Statistik zweiter Ordnung stark korreliert und daher redundant. Für eine effektive Berechnung der FT und eine minimal notwendige Datenmenge ist daher einer korrelationsfreie, oder – geometrisch ausgedrückt – eine orthogonale Transformation notwendig. Zwei Zeitreihen sind unkorreliert – oder als Vektoren orthogonal – wenn ihr Skalarprodukt nullwertig ist (Gl. 4.32).
U xy 0
N 1
& &
¦ x>n@ y>n@ x y 0
(4.32)
n 0
Da die Fensterlänge zwangsläufig ein ganzzahliges Vielfaches der Abtastperiode beträgt, kann Gl. 4.32 nur erfüllt werden, wenn die orthogonalen Zerlegungsvekto-
4.2 Signalanalyse im Frequenzbereich
215
ren ebenfalls ein ganzzahliges Vielfaches der Abtastperiode und identisch der Fensterlänge sind (siehe Integrale trigonometrischer Funktionen). Daraus lässt sich Gl. 4.31 im Sinne des Übergangs von einer kontinuierlichen auf eine diskrete Frequenz wie folgt umwandeln (Gl. 4.33):
N 1
§ f · X¨k A ¸ © N ¹
¦ xnT e
j 2Sn
k
fA N fA
(4.33)
n 0
Aus Gl. 4.33 folgt, dass nicht mehr die Grundfrequenz der Abtastrate fA von Bedeutung ist, sondern ihre ganzzahligen diskreten Anteile fA/N. Man kann daher Gl. 4.33 auf die Frequenzauflösung fA/N normieren und erhält eine von der konkreten Abtastrate unabhängige Formulierung (Gl. 4.34). Dies ist die Diskrete Fouriertransformation (DFT). X >k @
N 1
¦ x>n@e
jkn
2S N
(4.34)
n 0
In Gl. 4.34 ist k der Index der normierten diskreten Abtastrate, n der Zeitindex der Abtastpunkte mit dem Abstand TA, eckige Klammern werden für frequenz- und zeitdiskrete Größen verwendet.
Entsprechend der Dualität der FT (Gl. 4.15) lautet die Inverse DFT wie folgt (Gl. 4.35): x>n@
1 N
N 1
¦
X >k @e
jkn
2S N
(4.35)
k 0
Die Beziehungen nach Gl. 4.34 und 4.35 sind die dualen diskreten Formulierungen der FT. Der Transformationsfaktor 1/N in Gl. 4.35 kann auch in Gl. 4.34 vorab verwendet werden, um bspw. die tatsächliche Amplitude im Spektrum anzugeben. Rechnerisch kann er in jeder der beiden Beziehungen 4.34 und 4.35 eingesetzt werden, und das eventuell auch symmetrisch über N , nur muss die Dualität erhalten bleiben. Führt man einen Drehfaktor ein (Gl. 4.36), so lässt sich die DFT wie folgt ausdrücken (Gl. 4.37) WN X >k @
N 1
e
j
2S N
¦ x>n@ WNkn , x>n@
n 0
(4.36) N 1
1 ¦ X >k @ WN kn , Nk 0
(4.37)
216
4 Zeit-, Frequenz- und Verbundbereich
und in effektiver Matrizenschreibweise XN
WN1X N .
WN x N , x N
(4.38)
4.2.2.2 Diskrete Fouriertransformation als Kreuzkorrelation
Die Formel Gl. 4.34 lässt sich mit Hilfe trigonometrischer Funktionen ausdrücken wie folgt (Gl. 4.39): X k
2S · N 1 § 2S · ¸ ¸ j ¦ x>n@ sin ¨ kn N ¹ n 0 N ¹ © © n 0 Re^X >k @` j Im^X >k @` N 1
§ ¦ x>n@ cos¨ kn
(4.39)
In Gl. 4.39 bestehen beide Terme aus elementweisen Produkten von zwei Zeitreihen. Auf diese Weise berechnet man auch die Kreuzkorrelation. Ersetzt man die trigonometrischen Funktionen in Gl. 4.39 mit einer verallgemeinerten Zeitreihe y[n], so kann man formulieren: rxy >0@
N 1
¦ x>n@ y>n@ .
(4.40)
n 0
Aus Sicht der Statistik kann man die Fourierkoeffizienten entsprechend Gl. 4.41 so interpretieren, dass für k = 0 der erste Koeffizient dem arithmetischen Mittelwert des Signals entspricht, alle anderen (k > 0) der Kreuzkorrelation zwischen dem Signal und der Harmonischen an der Stelle k für eine nullwertige Verschiebung. k
0 X >0@ P x
k ! 0 X >k @ rW k x >0@
(4.41)
N
Die Beziehung nach Gl. 4.40 beschreibt die Kreuzkorrelation zwischen zwei Prozessen. Ist einer der beiden Prozesse ein Nullmittelsignal, so ist die Kreuzkorrelation identisch der Kreuzkovarianz. Da die trigonometrischen Funktionen nullsymetrisch sind, kann man die Fourierkoeffizienten als Kreuzkovarianzen interpretieren (Gl. 4.41). Diese Interpretation ist für viele statistische Analysen von großer Bedeutung, die am folgenden Beispiel demonstriert wird.
4.2 Signalanalyse im Frequenzbereich
217
2500
absolute Häufigkeit
2000
1500
1000
S
T
R
500
0 -0.8
-0.6
-0.4
-0.2
0
0.2
EKG / mV
0.4
0.6
0.8
1
Abb. 4.38 Absolute Häufigkeitsverteilung (Histogramm) digitalisierter EKG-Messwerte einer Aufnahme mit 21500 Abtastpunkten. Eine solche Verteilung ist für statistische Analysen äußerst ungeeignet. Lokale Maxima (modi) über den Zacken R und S und der Welle T
120
absolute Häufigkeit
100 80 60 40 20 0
-20
-15
-10
-5
0
5
sum(EKG*W) / mV
10
15
20
Abb. 4.39 Absolute Häufigkeitsverteilung (Histogramm) von 215 Fourierkoeffizienten, die aus einer Summe von jeweils 100 elementweisen Produkten berechnet wurden. Die Normalverteilung ist näherungsweise erreicht
218
4 Zeit-, Frequenz- und Verbundbereich
Diskrete Fouriertransformation einer EKG-Aufnahme Die absolute Häufigkeitsverteilung digitalisierter Werte einer EKG-Aufnahme mit 21500 Messwerten (43 Sekunden) ist in Abb. 4.38 dargestellt. Die Verteilung zeigt ein für das EKG typisches Muster: Das absolute Maximum (Modus, Wert der größten Auftrittswahrscheinlichkeit) liegt in der Nähe der Nulllinie und repräsentiert die inaktiven Zeiten im EKG. Die Zacken R und S sowie die T-Welle besitzen relativ hohe Amplituden, dafür sind ihre Werte wenig häufig vertreten. Das führt zu lokalen Maxima (modi) im Histogramm mit niedrigen Häufigkeiten. Eine solche Verteilung ist für die statistische Analyse äußerst ungeeignet. Nach der DFT sind die Fourierkoeffizienten allerdings näherungsweise normalverteilt(Gaußverteilung, Abb. 4.39). Dieser positive Effekt tritt bei einer Signallänge ab etwa N=100 ein und ist auf den Zentralen Grenzwertsatz zurückzuführen. Da die DFT eine lineare Transformation ist, können viele statistische Analysen an normalverteilten Fourierkoeffizienten statt an ungünstig verteilten Zeitwerten durchgeführt werden. 4.2.2.3 Diskrete Fouriertransformation als Filterbank
Der Term y[n] in Gl. 4.40 ist bei der DFT ein harmonisches Signal, so dass dementsprechend gilt: z>m@
N 1
¦ x>n@y>n m@ z>n@
n 0
M
¦ x>n@y>n m@ .
(4.42)
m M
Mit Gl. 4.42 wird die Äquivalenz der Kreuzkorrelation und der Faltung mit zeitgespieltem Signal deutlich. Da y[m] als die Impulsantwort eines transversalen digitalen Filters interpretiert werden kann, die mit der harmonischen Analysefunktion identisch ist, ist die DFT der Länge 2M+1 für ein Signal der Länge N faktisch eine Filterbank. Demnach stellt die DFT 2M+1 parallel liegende Filter dar, die jeweils die aktuelle Frequenz k durchlassen (Abb. 4.40). Diese Filter sind natürlich nicht ideal, sie besitzen eine endliche Bandbreite32 und Nebenmaxima. Betrachtet man die DFT als eine Parallelkonfiguration von spektralen Filtern entsprechend Abb. 4.41, so kann man Folgendes beobachten und schlussfolgern: 1.
32
Außer bei k = 0 betragen die Maxima (Hauptkeulen) -6 dB, also eine Reduktion der Amplitude auf die Hälfte. Das liegt daran, dass die DFT (ihr Betrag) eine gerade Funktion ist und die Amplituden demzufolge zwischen den positiven und negativen Frequenzbereich hälftig geteilt werden.
Wenn nicht anders angegeben, ist es die Differenz der Frequenzen, bei denen die Übertragung um 6 dB abfällt.
4.2 Signalanalyse im Frequenzbereich
219
2.
Die Übertragungsfunktionen (Filtercharakteristiken) überlappen sich mit ihren Nachbarn spektral zu jeweils 50%. Damit ist die Eindeutigkeit der spektralen Zerlegung nicht immer gesichert. Frequenzanteile, die nicht genau auf die Stützstellen der DFT fallen (in Abb. 4.41 die Ganzzahligen Vielfachen von 1/N = 0.01), erfassen benachbarte Durchlasskurven. Eine harmonische Schwingung mit der relativen Frequenz von 0.015 (15 Hz bei 1000 sps) wird gleich drei Koeffizienten angerechnet: Dem Gleichanteil (k = 0) und den ersten beiden Harmonischen k = 1 und k = 2 (und weiteren). Dies ist insbesondere für den Gleichanteil gut sichtbar: seine erste Nebenkeule im positiven Bereich liegt über der relativen Frequenz von 0.015. Dies ist kein methodischer Fehler; der harmonischen Schwingung bei 0.015 fehlt zum vollzähligen Auffüllen des Fensters eine halbe Periode bzw. eine halbe Periode ist zu viel vorhanden, daher weist sie einen Gleichanteil auf. Dieser wird daher zu Recht dem Gleichanteil angerechnet, allerdings um etwa 12 dB gedämpft.
3.
Die DFT ist eine lineare Transformation, so dass sie alle Frequenzanteile abbilden muss, auch solche, die nicht genau auf die Stützstellen der DFT fallen. Daraus folgt, dass wenn die Summe der DFT-Koeffizienten das Originalsignal ergeben muss (IDFT), so muss das Spektrum in der Summe ebenfalls einen kontinuierlichen Verlauf haben. Durch die Überlappung der Filterfunktionen in Abb. 4.41 ist diese Eigenschaft gesichert.
2M+1 A
x[n] k=0 k=1
.................. k=2M k Abb. 4.40 Interpretation der DFT als Filterbank. Jede harmonische Schwingung der diskreten Frequenz k stellt die Impulsantwort eines transversalen Filters dar. Damit wird bei jeder Frequenz k selektiv der entsprechende Signalanteil herausgefiltert und liegt parallel am Ausgang an
220
4 Zeit-, Frequenz- und Verbundbereich
10 0
k=0 k=1 k=2
N = 100
-10
|G| / dB
-20 -30 -40 -50 -60 -70 -0.03
-0.02
-0.01
0
relative Frequenz
0.01
0.02
0.03
Abb. 4.41 Übertragungsfunktionen der DFT-Koeffizienten für eine Länge von N = 100. Stützstellen der DFT liegen auf den ganzzahligen Vielfachen der relativen Frequenz von 1/N = 0.01. Die Durchlassbänder der Filter überlappen sich spektral jeweils zu 50% mit ihren Nachbarn
4.2.2.4 Berechnung der DFT über die FFT
Mit FFT (Fast Fourier Transform) bezeichnet man Algorithmen, die die DFT effektiver und schneller berechnen, als dies nach den Formeln Gl. 4.34 und Gl. 4.35 möglich ist. Um die Effektivität einer Berechnung steigern zu können, muss man zunächst untersuchen, ob in den konventionellen Formeln Redundanzen vorhanden sind. Man kann den Drehfaktor nach Gl. 4.36 wie folgt interpretieren (Abb. 4.42): Die volle Drehung des Einheitskreises teilt sich auf N Winkel auf. Unter der Annahme, dass N eine 2er-Potenz ist, besteht auf Grund der geraden Funktion Cosinus und der ungeraden Funktion Sinus der Kreis aus Oktanten, so dass betragsmäßig höchstens N/4 (zwei Werte für jeden Punkt in einem Oktanten) unterschiedliche Werte zu seiner Beschreibung notwendig sind. Damit kann die Redundanz rechnerisch zunächst auf 1/8 reduziert werden. Aus der Beziehung Gl. 4.37 ist weiterhin ersichtlich, dass der Exponent - k.n sich immer auf nur eine der Positionen des Einheitskreises projiziert (Abb. 4.42). Damit zeigt sich ein weiteres Potential zur Reduktion der Redundanz. Die meisten Algorithmen der FFT basieren allerdings auf einem anderen Ansatz (Gl. 4.43), mit dem die genannten Redundanzen auch reduziert werden.
4.2 Signalanalyse im Frequenzbereich
X >k @
221
N / 2 1
N / 2 1
¦ x>2n@W N2 kn ¦ x>2n 1@W N2 n1 k
n 0 N / 2 1
n 0 N / 2 1 x1 n W N2 kn W Nk x2 n 0 n 0 N / 2 1 N / 2 1 x1 n W Nnk/ 2 W Nk x2 n 0 n 0
¦
>@
¦
>n@WN2nk
¦
>@
¦
>n@WNnk/ 2
(4.43)
X 1 >k @ W Nk X 2 >k @
Das Prinzip des Verfahrens (nach Cooley und Tukey benannt, mathematische Basis von Gauß) nach Gl. 4.43 besteht darin, dass die Eingangssequenz nach geraden und ungeraden Indizes halbiert wird. Für eine Stufe dieser Teilung bei N = 4 ist dieses Vorgehen in Abb. 4.43 dargestellt. Die Teilung kann man rekursiv für alle Potenzen der Basisfolge realisieren. Für die Signalverarbeitung ist die günstigste Konfiguration nach dem Wurzel-2-Algorithmus, wie in Abb. 4.44 dargestellt. Diese Teilung lässt sich verallgemeinern und nimmt für N = 2 die Form eines Schmetterlings nach Abb. 4.45 an. Der Algorithmus nach Gl. 4.43 wurde häufig verbessert und optimiert, heute liegen zahlreiche Implementierungsvarianten vor. Als Standardmethode der Signal-
Im{W8} k=1, n=3 k=3, n=1
k=1, n=4 k=4, n=1 k=2, n=2 -1 k=1, n=5 k=5, n=1
1
3I
I
1 Re{W8}
5I
-1 Abb. 4.42 Graphische Interpretation des Drehfaktors WN nach Gl. 4.36 für N = 8. Der Einheitskreis teilt sich auf acht Winkel auf. Wegen der Rotationssymmetrie liegen betragsmäßig nur zwei unterschiedliche Werte für alle Winkel vor. Für k.n = konst. sind die Winkel identisch
222
4 Zeit-, Frequenz- und Verbundbereich
X1[0]
x[0]
X[0] W0N
N/2-DFT X1[1]
x[2]
X[1] W1N
x[1] X2[0]
W 2N
X2[1]
W3N
X[2]
N/2-DFT x[3]
X[3]
Abb. 4.43 FFT-Algorithmus nach dem Prinzip der Teilung der Eingangssequenz in gerade und ungerade Indizes. Für Sequenzen mit 2N-Eingangswerten kaskadierbar. Pfeile ohne Drehvektor besitzen die Übertragung 1, an Pfeilenden findet Addition statt
X1[0]
x[0] W0N x[2]
X1[1] W2 N
W0N
W2 N
X[1] W1N
x[1]
x[3]
X[0] W0N
X2[0]
W2N
X2[1]
W3 N
X[2]
X[3]
Abb. 4.44 Die DFT-Blöcke aus Abb. 4.43 wurden durch eine weitere Zerlegung nach Gl. 4.43 ersetzt. Dies wird für alle Potenzen von N durchgeführt, bis schließlich die gesamte Struktur nur noch aus Schmetterlingen besteht (Abb. 4.45)
4.2 Signalanalyse im Frequenzbereich
223
x[0]
X[0] = x[0]+WrNx[1] WrN
x[1]
X[1] = x[0]+W(r+N/2)Nx[1]
W(r+N/2)N
WNr N / 2
WNr
WNN / 2WNr
x[0]
x[1]
X[0]
WrN
X[1]
-1
Abb. 4.45 Verallgemeinerung des Grundelements der FFT zu einem Schmetterling (r ist die Potenz des Algorithmus)
12
10
FFT DFT
10
10
# Operationen
8
10
6
10
4
10
2
10
0
10
0
10
1
10
2
10
3
10
Sequenzlänge N
4
10
5
10
Abb. 4.46 Rechenaufwand zur Berechnung der DFT und FFT in Abhängigkeit von der Sequenzlänge als Anzahl der Operationen Multiplikation und Addition. Der Datentransport wurde hier nicht berücksichtigt, da er von der konkreten Portierung abhängig ist
224
4 Zeit-, Frequenz- und Verbundbereich
verarbeitung gehört es zur Grundausstattung von DSP33-, FPGA34- und Controllerbasierten technischen Lösungen sowie zu jedem Programmpaket der Signalanalyse. Die genannten Plattformen verwenden neben einer ALU35 üblicherweise einen Hardware-Multiplikator (MUL). Daher lässt sich der algorithmische Aufwand zur Berechnung der DFT nach Gl. 4.34 mit 2.N2 schätzen (exakt N2 Multiplikationen und N(N-1) Additionen). Durch die komplette Zerlegung der Berechnungsstruktur auf Schmetterlinge (Abb. 4.45) lässt sich der Aufwand auf 2N.log2(N) reduzieren. Dies bedeutet bei einer Sequenzlänge von 1024 Abtastwerten eine Reduktion des Aufwandes von mehr als 99%, bei N = 65536 (2^16) eine Reduktion um 99.99% (Abb. 4.46). Aus Gründen der korrekten Begriffsanwendung ist festzuhalten, dass die FFT ein Algorithmus zur schnellen Berechnung der DFT, jedoch keine Transformation ist. 4.2.2.5 Fehlerquellen der DFT
Endliche Fensterlänge und Fensterfunktion Entsprechend der Berechnungsformel der DFT nach Gl. 4.34 liegen nach der Transformation N diskrete Fourierkoeffizienten vor, die auf die im Abstand von fA/N liegenden Stützstellen verteilt sind (fA ist die erste Harmonische der Abtastrate). Wird eine Harmonische transformiert, deren Periode exakt dem Vielfachen der Abtastperiode entspricht, so wird sie korrekt als eine spektrale Nadel interpretiert (Abb. 4.47). Wendet man auf dasselbe Signal allerdings eine andere Fensterlänge an, die nicht dem ganzzahligen Vielfachen der Signalperiode gleicht, so entspricht keine der diskreten Frequenzen der Harmonischen. Da die DFT eine Lineartransformation ist, approximiert sie die Harmonische durch eine Linearkombination von mehreren diskreten Fourierkoeffizienten. Die Signalenergie verteilt sich auf mehrere Stützstellen im Spektrum (Abb. 4.48). In der Signalverarbeitung wird dies als Leck-Effekt (leakage effect) bezeichnet. Durch diesen Effekt täuscht die DFT ein kontinuierliches Spektrum mit einem Maximum vor, das der Realität nicht entspricht und die tatsächliche Amplitude der Harmonischen ist reduziert. In der Biosignalverarbeitung sind Harmonische vor allem dann von Interesse, wenn man die sensorischen und die motorischen Systeme des Menschen mit periodischen Folgen stimuliert (visuelle Stimulation des Auges mit Musterumkehr, akustische Stimulation mit Sinusschwingungen) oder periodische Biosignale untersucht (Herzrate und ihre Variabilität). Vor allem bei der Stimulation ist die Periodendauer vorab bekannt, so dass man für die Verarbeitung eine entsprechende 33
DSP – Digitaler Signalprozessor FPGA – Field Programmable Gate Array, Programmierbare Hardwarelogik 35 ALU – Arithmetic and Logic Unit 34
4.2 Signalanalyse im Frequenzbereich
225
1
Pegel
0.5 0 -0.5 -1 0
10
20
30
-40
-30
-20
40
50
60
70
80
90
100
-10
0
10
20
30
40
50
Zeitindex n
Pegel
40 20 0 -50
diskrete Frequenz k
Abb. 4.47 Zeitverlauf einer Harmonischen (oben) mit der Periode T=25TA und einer Fensterlänge von N=100. Die Fourierkoeffizienten auf den Stützstellen k=-5,5 betragen 50 (unten)
1
Pegel
0.5 0 -0.5 -1 0
10
20
30
40
50
60
Zeitindex n
70
80
Pegel
30 20 10 0 -40
-30
-20
-10
0
10
diskrete Frequenz k
20
30
40
Abb. 4.48 Zeitverlauf einer Harmonischen mit der Periode von T = 25*TA (wie in Abb. 4.47, oben) und einer Fensterlänge von N = 88. Da die Fensterlänge dem ganzzahligen Vielfachen der Signalperiode nicht entspricht, wird die Harmonische auf mehrere Stützstellen verteilt (unten)
226
4 Zeit-, Frequenz- und Verbundbereich
Fensterlänge wählen kann. Bei körpereigenen Signalen ist die Periode vor der Analyse nicht bekannt, so dass man nach Möglichkeit ein sehr langes Fenster wählen sollte, denn mit der Fensterlänge nimmt der Leck-Effekt ab. Bei einem langen Fenster kommt allerdings der folgende Effekt hinzu. Auffüllen mit Nullen (zero padding) Wie im vorherigen Kapitel beschrieben, kann die FFT zur Berechnung DFT nur genutzt werden, wenn die Eingangssequenz eine bestimmte Länge hat, die eine Potenz von 2, 4, usw. entsprechend dem FFT-Algorithmus annimmt. In der praktischen BSV hat man nur selten Einfluss auf die exakte Signallänge. In der Praxis verwendet man am häufigsten den Potenz-2-Algorithmus, bei dem folgende Fensterlängen zur Anwendung kommen: r
2oN
2n
^2,4,...128,256,512,1024,...,16384,65536...`
(4.44)
Eine Möglichkeit, die Länge des Biosignals einer Zweierpotenz anzupassen, besteht darin, die nächste niedrigere Zweierpotenz zu wählen (Gl. 4.45) NW
2n d N S
(4.45)
In Gl. 4.45 ist NW die Fensterlänge, n die nächste niedrige Potenz in Bezug auf NS, NS die Signallänge.
Die Lösung zur Anpassung der Fensterlänge nach Gl. 4.45 ist zwar analytisch korrekt, praktisch bedeutet er aber einen möglicherweise großen Informationsverlust. Dies ist vor allem bei Biosignalen mit ihrer starken Dynamik ungünstig und nicht zu empfehlen. Ein alternativer Ansatz besteht darin, die nächste höhere Zweierpotenz zu verwenden (Gl. 4.46). NW
2n t N S
(4.46)
Um diesen Ansatz praktisch nutzen zu können, füllt man die fehlenden Daten mit Nullen auf (zero padding, Gl. 4.47).
^xr >n@` ^x>1@,..., x>N S @,0,...,0`
(4.47)
Ist der Phasenfrequenzgang von Bedeutung, so sollte symmetrisch aufgefüllt werden (Gl. 4.48).
^xr >n@` ^0,...,0, x>1@,..., x>N s @,0...,0`
(4.48)
4.2 Signalanalyse im Frequenzbereich
227
Die Wirkung des Auffüllens mit Nullen demonstriert folgendes Beispiel. Transformiert man die Sinusschwingung aus Abb. 4.47 mit 100 Koeffizienten, so erhält man korrekt allein im Imaginärteil an den Stellen k = -4,4 einen Pegel von 50 (Abb. 4.49 oben). Zur Anwendung einer FFT füllt man die Harmonische mit 28 Nullen auf, um die nächste höhere Zweierpotenz von 128 zu erreichen. Dadurch ändern sich der Real- und der Imaginärteil der Koeffizienten, der Betrag bleibt jedoch erhalten (Abb. 4.49 unten). Entgegen den Hinweisen in mehreren Büchern, dem FFT-Algorithmus wäre die Anzahl der Nullen gleichgültig, ist hier eine Veränderung unstrittig und nachweisbar. Das symmetrische oder unsymmetrische Auffüllen mit Nullen ändert die Fourier-Koeffizienten. Da man die zusätzlichen Nullen, ihre symmetrische bzw. asymmetrische Anordnung als Zeitverschiebung des Originalsignals deuten kann, kommt die Gl. 4.18 (Verschiebungssatz) zum Tragen (Abb. 4.50). Da die Phase bzw. die Latenz von Biosignalen ein diagnostisch sehr wichtiger Parameter ist, muss bei der Anwendung dieser Methode angemessene Vorsorge getroffen werden. Im Normalfall ist die Anzahl und die Verteilung der Nullen bekannt, so dass sich die richtige Phasenlage oder die Latenz an Hand der Beziehung nach Gl. 4.18 rückwirkend korrigieren lässt. Siehe dazu auch Kapitel 3.2.3 Abtastung in Mehrkanalsystemen. Man kann den Einfluss der aufgefüllten Nullen (Abb. 4.50) dadurch reduzieren, dass eine wesentlich höhere Zweierpotenz der FFT gewählt wird, als notwendig
50
Re Im
Re/Im
N=100
0
-50 -20
-15
-10
-5
0
5
diskrete Frequenz k
10
15
50
Re Im
N=128
Re/Im
20
0
-50 -20
-15
-10
-5
0
5
diskrete Frequenz k
10
15
20
Abb. 4.49 Wirkung des Auffüllens mit Nullen in einem Signal, um eine Fensterlänge zu erhalten, die einer Zweierpotenz entspricht. Realteil und Imaginärteil der DFT der Harmonischen aus Abb. 4.47 bei k = 4 und N = 100 (oben) sowie N = 128 (unten). Die diskrete Frequenz von k = 5 unten ergibt sich aus der Fensterlänge von 128
228
4 Zeit-, Frequenz- und Verbundbereich
50 40 30 20
Pegel
10 0 -10 -20 -30 symm. unsymm.
-40 -50 -20
-15
-10
-5
0
5
diskrete Frequenz k
10
15
20
Abb. 4.50 Imaginärteil von DFT-Koeffizienten der Sinusschwingung aus Abb. 4.47 beim symmetrischen (volle Linie, jeweils 14 Nullen vor und nach dem Signal) und unsymmetrischen (gestrichelte Linie, alle Nullen nach dem Signal) Auffüllen mit 28 Nullen
60
imag real abs
40 N=1024
Re/Im
20 0 -20 -40 -60 -100
-50
0
diskrete Frequenz k
50
100
Abb. 4.51 Betrag, Real- und Imaginärteil von Fourierkoeffizienten des Signals aus Abb. 4.47 für eine Fensterlänge von N = 1024, wobei 924 Nullen aufgefüllt wurden
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
229
ist. Für das Signal aus Abb. 4.47 mit der Länge von NS = 100 kann man eine FFT mit der Länge NW = 1024 einsetzen, also mehr als die zehnfache Originallänge (Abb. 4.51). Dadurch wird die rein optische Auflösung zwar besser, aber die sich aus der ursprünglichen Signallänge von NS = 100 ergebende tatsächliche Auflösung (oder Bandbreite des Fourierkoeffizienten bei der relativen Frequenz von 0.04) bleibt erhalten. Dies ist eine fundamentale Erkenntnis für die DFT-basierte Analyse nach Auffüllen mit Nullen: Die charakteristischen Eigenschaften des ursprünglichen Analysefensters und des analysierten Signals, wie spektrale Zusammensetzung, Bandbreite und statistische Eigenschaften ändern sich bei der Anwendung einer FFT nach dem Auffüllen von Nullen. Durch eine Erhöhung der Fensterlänge kann man zwar die Fehler reduzieren, aber den Informationsgehalt im gefensterten Signal nicht erhöhen. Im Sinne der statistischen Signalanalyse nimmt mit einer zunehmenden Fensterlänge die Datenredundanz zu, aber nicht der Inhalt.
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich Zwar ist die Biosignalanalyse im Zeitbereich immer noch die wichtigste Methode der klinischen Routine zur Vermessung von diagnostischen Merkmalen. Allerdings sind einige wichtige Parameter im Zeitbereich allein entweder nicht messbar (Herzratenvariabilität) oder gar nicht erst sichtbar (periodische Reizantworten im EEG). Zum Teil können die interessierenden Parameter mit Methoden der Spektralanalyse ermittelt werden. Allerdings führt die Spektralanalyse nur dann zum Erfolg, wenn das untersuchte Signal in seiner spektralen Zusammensetzung stationär ist oder die spektralen Anteile allein, ohne einen Zeitbezug wichtig sind. Dies ist beispielsweise dann der Fall, wenn das sensorische oder das motorische System des Menschen mit einer periodischen Folge von Impulsen stimuliert wird. Im Normalfall hat man jedoch keinen Einfluss auf die Form der Biosignale, die stark instationär sind und deren Spektrum sich demzufolge dynamisch ständig verändert. Für die Analyse von solchen Signalen bietet sich ein Verbund aus beiden Domänen an – die Verbundrepräsentation aus Zeit und Frequenz. In folgenden Kapiteln werden Methoden behandelt, die eine dynamische Spektralanalyse ermöglichen. Das methodische Spektrum solcher Methoden ist heute riesig. Die Auswahl für dieses Buch erfolgte nach der Relevanz für die Biosignalanalyse. Die Signaltheorie wurde der Auswahl angepasst und auf ein notwendiges Minimum reduziert.
230
4 Zeit-, Frequenz- und Verbundbereich
4.3.1 Einführung zu Zeit-Frequenz-Verteilungen Soll der zeitliche Verlauf eines Spektrums untersucht werden, so muss das zur Spektralanalyse verwendete Fenster (Abb. 4.52) kürzer und entlang der Zeitachse äquidistant verschoben werden (Abb. 4.53). Da die Fensterlänge sich verkürzt, ändert sich entsprechend Gl. 4.49 auch die spektrale Auflösung. 'f
1 L TA
(4.49)
In Gl. 4.49 ist 'f die spektrale Auflösung eines Analysefensters im Zeitbereich mit der Länge von L Abtastwerten und der Abtastperiode TA.
Für den Übergang von der Spektralanalyse zur Zeit-Frequenz-Analyse muss das Analysefenster verkürzt werden, wodurch die zeitliche Auflösung besser, die spektrale Auflösung aber schlechter wird. Dieser Zusammenhang ist in Abb. 4.52 bis 4.55 dargestellt. An Hand der Darstellung in Abb. 4.54 kann man die durch die Fensterung grundsätzlich immer schlechtere zeitliche Auflösung im Vergleich zum Zeitverlauf beobachten. Vor allem bei wichtigen kurzzeitigen Vorgängen (R-Zacke des EKG) ist die Verschmierung entlang der Zeitachse sehr ungünstig. Für die spektrale Auflösung ist es dabei
EKG Hann
1.2 1
Pegel / mV
0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 0
5
10
15
20
Zeit / s
25
30
35
40
Abb. 4.52 Eine EKG-Aufnahme über 43 Sekunden mit einem Hann-Fenster. Spektralanalyse erfolgt dann mit einer Auflösung von 0.023 Hz
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
231
1.2 1
Pegel / mV
0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 0
1
2
3
Zeit / s
4
5
6
Abb. 4.53 Segmentierung einer EKG-Aufnahme. Die Segmentlänge beträgt 2s, die Überlappung benachbarter Segmente 50% bzw. 1s. Die spektrale Auflösung ist entsprechend der Segmentlänge 0.5 Hz (L = 1000, TA = 2ms)
unerheblich, welche Länge die zur Transformation verwendete DFT hatte (in Abb. 4.54 und 4.55 war N = 1000), sondern allein die Länge des Analysefensters (in Abb. 4.55 L = 101 oben, L = 51 unten). An Hand der Darstellung in Abb. 4.55 kann man die Wirkung der Halbierung der Fensterlänge beobachten: Die zeitliche Auflösung ist bei dem kürzeren Fenster wesentlich besser (doppelte Auflösung), jedoch die spektrale Auflösung halbiert sich (halbe Auflösung). Dies ist besonders an der T-Welle gut sichtbar. Daher wäre es von Vorteil, wenn man die zeitliche und die spektrale Auflösung unabhängig voneinander festlegen könnte. Diese Möglichkeit bietet die Klasse der Wigner-basierten Zeit-Frequenz-Verteilungen. Man kann die beiden Auflösungen bis an die theoretische Grenze bringen, die durch die signalanalytische Interpretation der Heisenbergschen Unschärferelation gegeben ist (Gl. 4.50). 't 'f t
1 4S
(4.50)
In Gl. 4.50 ist t die Länge des Analysefensters entlang der Zeitachse oder die Beobachtungszeit, f die spektrale Auflösung oder die Bandbreite.
4 Zeit-, Frequenz- und Verbundbereich
1 0.5 0 -0.5 0 50
Frequenz / Hz
mV
232
0.5
1
1.5
0.5
1
1.5
2
2.5
3
3.5
4
2
2.5
3
3.5
4
0
-50 0
Zeit / s
Abb. 4.54 Zeitverlauf eines EKG (oben) und seine Zeit-Frequenz-Verteilung (unten). Fensterlänge L = 101, FFT-Länge N = 1000, Fensterfunktion Hanning, lineare Grauwertskala der Amplitude, Fensterverschiebung jeweils um eine Abtastperiode TA = 2ms
Frequenz / Hz
50
0
-50 0
0.5
1
1.5
0.5
1
1.5
2
2.5
3
3.5
2
2.5
3
3.5
Frequenz / Hz
50
0
-50 0
Zeit / s
Abb. 4.55 Zeit-Frequenz-Verteilung eines EKG mit der Fensterlänge L = 101 (oben) und L = 51 (unten), FFT-Länge N = 1000. Die zeitliche Auflösung ist dementsprechend unten besser, aber die spektrale Auflösung schlechter
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
2
233
dynamische HRV (L=1e4, N=1e6, Hann, step=1e3) HF
1.8
LF
HR
1.6
Frequenz / Hz
1.4 1.2 1 0.8 0.6 0.4 0.2 0 0
5
10
15
20
Zeit / s
25
30
35
40
Abb. 4.56 Dynamisches Spektrum der HRV aus Abb. 4.23 (Kapitel 4.1.2.3). Die HanningFensterlänge ist L = 104, die Länge der DFT N = 106, der Abstand zwischen den Fenstern betrug 103 Abtastwerte bzw. 2 s
Die Wirkung der Unschärferelation kann am Beispiel der HRV in Abb. 4.56 beobachtet werden. Die HRV ist wie jeder physiologische Parameter eine zeitveränderliche Größe, derer dynamische Änderungen von diagnostischer Bedeutung sind. Man kann die HRV auch als ein frequenzmoduliertes Signal nach Gl. 4.13 auffassen, so dass man ihre Momentanfrequenz zu bestimmten Zeitpunkten messen möchte. Die Länge des Analysefensters in Abb. 4.56 war 20 s, so dass entsprechend der Beziehung nach Gl. 4.50 die Frequenz nicht genauer als mit 4 mHz Unsicherheit ermittelt werden kann (Breite der dargestellten spektralen Anteile). Dies gilt unabhängig davon, dass mit einer Länge der DFT von N = 106 theoretisch eine Auflösung von 'f = fA/106 = 0.5 mHz möglich gewesen wäre. Eine weitere Konsequenz der Unschärferelation besteht darin, dass während die spektralen Bänder HF und LF der HRV für die dynamische Spektralanalyse erfasst werden (graue Streifen um die HR in Abb. 4.56), so ist das Analysefenster zu kurz für das Band VLF. Daher erscheint die HR als zeitveränderlicher Verlauf mit einer Periode von etwa 30 s. Das Fazit aus dieser Analyse ist, dass obwohl die rechnerischen Mittel extreme Auflösungen bzw. Genauigkeiten ermöglichen, setzt die Unschärferelation der Signalanalyse eine klare physikalische Grenze. Weiterhin ist an Hand des Beispiels in Abb. 4.56 zur dynamischen Spektralanalyse der HRV eine weitere Konsequenz deutlich:
234
4 Zeit-, Frequenz- und Verbundbereich
Sollen auch die tiefsten spektralen Anteile eines Biosignals nicht nur als Zeitverlauf, sondern auch als Teil des dynamischen Spektrums abgebildet werden, so muss das Analysefenster entsprechend der notwendigen Auflösung eine hinreichende Mindestlänge besitzen.
Klassifikation von Zeit-Frequenz-Verteilungen nach dem Exponenten das analysierten Signals (TFD36, Time-Frequency-Distribution): 1. Lineare: 2. Quadratische: 3. Höhere Ordnungen:
Short-Time-Fourier-Transform (STFT), Wavelets Spektrogramm, Wigner-Verteilungen Bispektrum
Klassifikation von Zeit-Frequenz-Verteilungen nach der Analysefunktion: 1. Komplexe Harmonische: 2. Basisfunktion:
STFT, Spektrogramm, Wigner-Verteilungen Wavelet
4.3.2 Fourierbasierte Zeit-Frequenz-Verteilungen 4.3.2.1 Short-Time-Fourier-Transform
Um im zeitkontinuierlichen Bereich die Dynamik des Spektrums darzustellen, ist die Erweiterung der konventionellen Fouriertransformation um eine weitere ZeitvariableW notwendig. Entsprechend der Beziehung nach Gl. 4.51 legt man zum Zeitpunkt t auf das Signal x(t) ein Analysefenster w(W) und berechnet anschließend das Spektrum in diesem Fenster mit der Fouriertransformation über die Zeitvariable W. Da die Berechnung des Spektrums im Vergleich zur reinen Spektralanalyse mit einem kürzeren Fenster erfolgt, bezeichnet man diese Zeit-Frequenzverteilung auch als Short-Time-Fourier-Transform (STFT) oder Kurzzeitige Fouriertransformation. STFTxw t , f
f
* j 2SfW dW ³ xW w W t e
(4.51)
W f
Die STFT ist eine lineare, Fourier-basierte Transformation, so dass alle Eigenschaften der Fouriertransformation (Kapitel 4.2.1) auch auf den Verbundbereich 36
TFD ist eine in der Fachliteratur übliche Bezeichnung von Zeit-Frequenz-Verteilungen
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
235
Zeit-Frequenz entsprechend übertragbar sind. So fasst man beispielsweise die Zeitverschiebung nach Gl. 4.18 und die Frequenzverschiebung nach Gl. 4.19 zur Zeit-Frequenz-Verschiebung im Verbundbereich zusammen (Gl. 4.52). STFTxw t , f e j 2S f Q W STFTxw t W , f Q
(4.52)
Analog zur konventionellen Fouriertransformation ist wegen der Linearität auch die inverse Transformation der STFT möglich (Gl. 4.53). xt
f
w 2Sft ³ STFTx t , f H f e df
(4.53)
f
Die Fensterfunktion h(W) (Synthesefenster) ist die reziproke Funktion (inverse Fouriertransformierte von H(f)) des Analysefensters im Zeitbereicht w(W), so dass gelten muss (Gl. 4.54): f
³ wW hW dW 1
(4.54)
f
Die Beziehungen nach Gl. 4.51 bis 4.54 bilden die theoretische Basis für eine Reihe von praktikablen Methoden der Signalanalyse und -synthese. Wie bereits erläutert, sind insbesondere bei Biosignalen viele Merkmale nur in der Verbundebene Zeit-Frequenz darstellbar. Daher kann man sie in der Verbundebene mit entsprechenden zeitvariablen Filtern hervorheben bzw. unterwünschte Anteile gezielt unterdrücken und anschließend zum üblichen Zeitverlauf zurück transformieren (zeitvariable Filter behandelt das Kapitel Digitale Filterung). Aus Sicht der praktischen Analyse wird die Umsetzung der Bedingung nach Gl. 4.54 die größten Probleme bereiten. Die meisten Analysefenster w(W) konvergieren an ihren Rändern gegen Null, so dass das Synthesefenster an diesen Stellen theoretisch gegen Unendlich divergiert. Die praktischen Aspekte werden im Folgenden behandelt. Nach dem Übergang in den zeitdiskreten Bereich gilt für die STFT die Beziehung nach Gl. 4.55. STFTxw n, k
M 1
¦ xn m M 1 / 2 wm e j 2Skm / M
(4.55)
m 0
In Gl. 4.55 ist n der Zeitindex, k der Frequenzindex, m Index der Hilfsvariable in Zeit, M die ungerade Fensterlänge.
Dementsprechend gilt für die diskrete inverse STFT die Beziehung nach Gl. 4.56.
236
4 Zeit-, Frequenz- und Verbundbereich
xn
M 1
¦ STFTxw n, k H k e j 2Skm / M
(4.56)
k 0
Die Bedingung nach Gl. 4.54 gilt entsprechend auch im zeitdiskreten Bereich (Gl. 4.57). M
¦ wn hn 1
(4.57)
n 1
Wie bereits in den Kapiteln 4.2.1.2 Fensterung und 4.2.2.3 Diskrete Fouriertransformation als Filterbank erläutert, ist die spektrale Auflösung bzw. die Bandbreite des Analysefensters umgekehrt proportional von der Fensterlänge abhängig. Im Verbundbereich Zeit-Frequenz kommt ein wichtiger Parameter hinzu – die Zeitauflösung. Diese ist direkt proportional von der Fensterlänge abhängig, so dass die Frequenz- und die Zeitauflösung miteinander über die Fensterlänge verkoppelt sind (Gl. 4.58). 't ~ M ~
1 'f
(4.58)
Die Wirkung der Fensterlänge ist in Abb. 4.54 für einen EKG-Ausschnitt dargestellt (Betrag der Fourierkoeffizienten). Für die praktische Analyse bedeutet diese Abhängigkeit, dass man für jedes Biosignal bzw. seine Merkmale einen Kompromiss zwischen der gewünschten spektralen und der zeitlichen Auflösung finden muss. Eine typische Analyseaufgabe ist in Abb. 4.57 dargestellt. Das Auge einer Versuchsperson wurde mit 8 pps (kurze Lichtblitze mit 125 ms Abstand) stimuliert, aus dem EEG wurde das visuell evozierte Potential (VEP) mit Hilfe der reizsynchronen Mittelung gewonnen. Bei einer Fensterlänge von M = 255 bzw. 1020 ms sind die einzelnen spektralen Komponenten gut identifizierbar (Abb. 4.57 oben): Die gesuchte, zeitlich veränderliche Amplitude des VEP bei 8 Hz, eine D-Welle (11 Hz) zwischen t = 0.5 s...1 s, ein transienter Anteil bei ca. 1 Hz (verschmiert zwischen 0 s...1.2 s). Im Vergleich dazu zeigt ein halb so langes Fenster mit M = 127 bzw. 508 ms (Abb. 4.57 unten) zwar eine schlechtere spektrale Auflösung, dafür aber eine deutlich bessere Zeitauflösung. Dies ist insbesondere an dem kurzen transienten Anteil des VEP bei t = 0.2 s...0.6 s gut sichtbar. Der transiente Anteil liegt tatsächlich in etwa im Bereich von 0.1 s bis 0.6 s, so dass die untere Darstellung der Realität bezüglich dieses Signalmerkmals besser entspricht. Allerdings ist hier die spektrale Auflösung so schlecht, dass es zur Verwechslung der Reizantwort mit der D-Welle kommen könnte.
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
M=255
Frequenz / Hz
30 20 10 0 0
0.5
1
1.5
2
2.5
3
3.5
4
2.5
3
3.5
4
M=127
30
Frequenz / Hz
237
20 10 0 0
0.5
1
1.5
2
Zeit / s
Abb. 4.57 STFT eines visuell evozierten Potentials nach einer optischen Reizung mit 8 pps37 und einer Fensterlänge von M = 255 (oben) und M = 127 (unten). Die DFT-Länge war N = 1000, dargestellt ist der Betrag der Fourierkoeffizienten (Die Grauwertskala ist negativ, d.h. hohe Leistung ist schwarz dargestellt)
4.3.2.2 Spektrogramm
In vielen Bereichen der spektralen Signalanalyse stehen nicht die (komplexen) Fourierkoeffizienten im Vordergrund, sondern entsprechend der physikalischen Natur der Signalquelle ihre Leistung bzw. Energie. Diese Signale werden von Energiequellen produziert (Schall, Licht, Wärme, Strahlung), aber auch Biosignale kann man bei bestimmten Fragestellungen als Leistungssignale betrachten. So ist beispielsweise der Effektivwert (rms, root-mean-square) eines EMG ein Maß für die aktuelle mechanische Kraft des untersuchten Muskels oder die Momentanleistung in einem EEG-Band Ausdruck einer spezifischen Hirnaktivität. Natürlich möchte man wissen, wie sich die Muskelkraft und die spektrale EEG-Leistung im Zeitverlauf ändern. Dafür eignen sich dynamische Spektren der Leistung bzw. Energie. In die Berechnung der Leistung gehen Spannungen und/oder Ströme in ihrer zweiten Potenz ein. Solche Größen bezeichnet man als Leistungs- (z.B. periodische Signale konstanter Leistung) bzw. Energiesignale (zeitlich begrenzte Signale) (Gl. 4.59).
37
pps = pulse-per-second, Anzahl Impulse pro Sekunde
238
4 Zeit-, Frequenz- und Verbundbereich
pt E
u 2 t R
i 2 t R
1 2 ³ u t dt RT
o x 2 t
R ³ i 2 t dt o ³ x 2 t dt T
(4.59)
T
In Gl. 4.59 ist u(t) die Spannung über dem Widerstand R, i(t) der Strom durch den Widerstand R, p(t) die Momentanleistung, E die Energie, x(t) ein Signal, das die Spannung u(t) oder den Strom i(t) für die Signalverarbeitung abstrahiert. Der Widerstand R ist für die Signalverarbeitung ein konstanter Faktor, der jederzeit eingefügt werden kann und daher für die Signalverarbeitung als solche unwichtig ist. Das energetische Äquivalent der STFT ist das Spektrogramm (Gl. 4.60). Der Betrag der Fourierkoeffizienten wird quadriert, wodurch man ein dynamisches Leistungsspektrum erhält. Allerdings geht durch diese Operation die Phaseninformation verloren, so dass eine Rekonstruktion des Signals nicht mehr möglich ist. SG xw t , f
STFTxw t , f
2
(4.60)
Das Spektrogramm des VEP aus Abb. 4.57 ist in der Abb. 4.58 dargestellt. Hier ist die Verteilung der Signalenergie in der Zeit-Frequenz-Ebene deutlich sichtbar. Der Realität entsprechend besitzt die höchste Signalenergie der transiente Anteil im VEP um 0.5 nach dem Reiz. Die Darstellung ist logarithmisch (in dB), wie bei der Darstellung von Signalleistungen üblich. Das Leistungsspektrum lässt sich allerdings auch auf einem anderen – auf dem indirekten Weg – berechnen (Die Berechnung nach Gl. 4.60 wird als direkter Weg bezeichnet). Da Biosignale und/oder Störungen neben periodischen Komponenten immer einen stochastischen Anteil besitzen, verwendet man ab hier, wo es sinnvoll ist, die verallgemeinerte Darstellung mit statistischen Maßen. Damit sind deterministische Signale implizit mit eingeschlossen. Man kann die Signalleistung bereits im Zeitbereich durch die Autokorrelationsfunktion (AKF) bzw. die Kreuzkorrelationsfunktion ausdrücken (Gl. 4.61).
U xx W
f
³ xt xt W dt
f f
U xy W ³ xt y t W dt
(4.61)
f
Da sich die Korrelationsfunktionen nach Gl. 4.61 nur in der Kombination der Signale unterscheiden, wird der Einfachheit wegen im Weiteren allein die AKF be-
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
M=255
Frequenz / Hz
30 20 10 0 0
0.5
1
1.5
2
2.5
3
3.5
4
2.5
3
3.5
4
M=127
30
Frequenz / Hz
239
20 10 0 0
0.5
1
1.5
2
Zeit / s
Abb. 4.58 Spektrogramm des VEP aus Abb. 4.56. Die Grauwerte entsprechen dem Logarithmus der Signalleistung. (Die Grauwertskala ist negativ, d.h. hohe Leistung ist schwarz dargestellt)
Direkter Weg, Spektrogramm, M=255
Frequenz / Hz
30 20 10 0
0.5
1.5
2
2.5
3
3.5
Indirekter Weg, spektrale Leistungsdichte, M=255
30
Frequenz / Hz
1
20 10 0
0.5
1
1.5
2
Zeit / s
2.5
3
3.5
Abb. 4.59 Spektrogramm eines VEP (oben) auf dem direkten Weg (aus Abb. 4.56 und Abb. 4.57) und spektrale Leistungsdichte auf dem indirekten Weg (unten). In beiden Verteilungen ist die Fensterlänge gleich M = 255 (Die Grauwertskala ist negativ, d.h. hohe Leistung ist schwarz dargestellt)
240
4 Zeit-, Frequenz- und Verbundbereich
handelt. Die AKF ist eine gerade Funktion, so dass eine zeitliche Spiegelung möglich ist (Gl. 4.62). f
f
f
f
³ xt xt W dt
³ xt xW t dt
(4.62)
Der rechte Teil der Formel nach Gl. 4.62 entspricht der Faltung des Signals x(t) mit sich selbst. Dies kommt der Multiplikation des Spektrums mit sich selbst, also dem Betragsquadrat, gleich (Gl. 4.63). S xx f S x f S x* f
(4.63)
Transformiert man also die Korrelationsfunktion in den Frequenzbereich, so erhält man die Auto- bzw. Kreuzleistungsdichte (Gl. 4.64). S xx f S xy f
f
³ U xx W e
j 2SfW
dW
f f
j 2SfW dW ³ U xy W e
(4.64)
f
Die Beziehung nach Gl. 4.64 ist auch als das Wiener-Kintschine-Theorem bekannt. Für eine Zeit-Frequenz-Darstellung ist wie bei der STFT eine weitere Hilfsvariable in der Zeit notwendig (Gl. 4.65). Diese Funktion wird auch als die temporale (momentane) Korrelationsfunktion (TCF38) bezeichnet.
U xx t ,W xt xt W
(4.65)
Natürlich kann man verschiedene Fenster verwenden, wie im Kapitel 4.2.1.2 Fensterung beschrieben. Dann lässt sich die Beziehung nach Gl. 4.65 verallgemeinern zu Gl. 4.66. w t ,W U xx
f
³ xt xt W wt 't dt '
(4.66)
f
In Gl. 4.66 ist t die aktuelle Zeit, W die Zeitverschiebung der AKF und t’ die Zeitvariable zur Integration über die Fensterfunktion w(t).
Ausgehend von der lokalen AKF lässt sich die dynamische spektrale Leistungsdichte nach Gl. 4.67 formulieren.
38
Temporal Correlation Function
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
S xx t , f
f
241
³ U xx t ,W e
j 2SfW
dW
(4.67)
f
Obwohl theoretisch beide Wege – der direkte sowie der indirekte – zur gleichen Energieverteilung in der Zeit-Frequenz-Ebene führen, ergibt die praktische Berechnung erwartungsgemäß unterschiedliche Ergebnisse, wie in Abb. 4.59 dargestellt. Während die spektrale Auflösung bei gleicher Fensterlänge zwangsläufig gleich ist, ist die zeitliche Auflösung des indirekten Weges geringfügig besser. Allerdings zeigen sich in der Zeit-Frequenz-Verteilung (TFD, time-frequencydistribution) des indirekten Weges lokale Instationaritäten, die als Störungen zu werten sind. Im zeitdiskreten Bereich kann man die AKF und die Leistungsdichte (diskretes Leistungsspektrum) mit Hilfe der Formeln Gl. 4.68 und Gl. 4.69 berechnen.
U xx n, m xn xn m
(4.68)
In Gl. 4.68 ist n der aktuelle Zeitindex, m der Index der AKF, M die ungerade Fensterlänge. S xx n, k
M
¦ U xx n, m wm e j 2Smk
(4.69)
m 0
In Gl. 4.69 ist w(m) eine Fensterfunktion, im einfachsten Fall ein Rechteck. Eine andere Fensterfunktion reduziert die lokalen Instationaritäten (Abb. 4.59 unten) durch Glättung, dadurch verschlechtert sich allerdings auch die spektrale Auflösung. 4.3.2.3 Wigner-Verteilung
Die AKF nach Gl. 4.65 lässt sich so modifizieren, dass die Verschiebezeit W halbiert wird und symmetrisch um den Zeitpunkt t variiert (Gl. 4.70). Außerdem verwendet man hier ein sogenanntes analytisches Signal, das Ville eingeführt hat (Erläuterung folgt). § W· § W· U t ,W x¨ t ¸ x* ¨ t ¸ ©
2¹
©
2¹
(4.70)
Transformiert man über die Zeitvariable W in den Frequenzbereich, so erhält man das Wigner-Ville-Spektrum [2] (Gl. 4.71).
242
4 Zeit-, Frequenz- und Verbundbereich f
Wx t , f
W
§
W·
j 2SW f dW ³ ¨t 2 ,t 2 ¸ e
f ©
(4.71)
¹
Offensichtlich besteht zwischen den AKF nach Gl. 4.65 und Gl. 4.70 ein Unterschied darin, wie die Zeitverschiebung W um den aktuellen Zeitpunkt t verteilt ist. Man kann sie mit Hilfe eines Parameters D verallgemeinern (Gl. 4.72). §
§1
· ·
§
§1
· ·
©
©
¹ ¹
©
©
¹ ¹
U D t ,W x¨¨ t ¨ D ¸W ¸¸ x * ¨¨ t ¨ D ¸W ¸¸ 2 2
(4.72)
Nach der Fouriertransformation der verallgemeinerten AKF über die Zeitverschiebung W erhält man das generalisierte Wigner-Ville-Spektrum (Gl. 4.73). f
W xD t , f
j 2SWf D dW ³ U t ,W e
(4.73)
f
Für D=0 erhält man das gewöhnliche Wigner-Ville-Spektrum (Gl. 4.71, Gl. 4.74), für D=1/2 das Rihaczek-Spektrum (Gl. 4.74). f
W
W
· j 2SWf 0 § dW ³ U ¨t 2 ,t 2 ¸ e
W x0 t , f W x1/ 2 t , f
f f
³
©
¹
U 1/ 2 t , t W e j 2SWf dW
(4.74)
f
Das methodische Ziel bei der Entwicklung der Wigner-Verteilung war ursprünglich, einen Signalkern (Analysefunktion) so zu formulieren, dass mit seiner Hilfe die Momentanfrequenz möglichst genau bestimmt werden kann [2]. Dieser Ansatz wurde vom Wigner 1932 in der Quantenmechanik entwickelt und findet in der Signalanalyse unter seinem Namen Anwendung. Die Wigner-Verteilung lässt sich (gemäß dem ursprünglichen Ansatz) für ein Einkomponenten-Signal (z.B. ein FM-Signal) wie folgt formulieren (Gl. 4.75). WDs t , f
f
W
W
§ · *§ · j 2SfW dW ³ s ¨ t 2 ¸ s ¨ t 2 ¸e
f f
©
¹
©
¹
Q · *§ Q · j 2SfQ § dQ ³ S ¨ f 2 ¸ S ¨ f 2 ¸e ¹ © ¹ f ©
(4.75)
In Gl. 4.75 ist zu beachten, dass eine lokale Korrelationsfunktion (Gl. 4.76) berechnet wird, so dass (auch in der praktischen Analyse) über die gesamte Signallänge integriert werden muss.
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
243
§ W· § W· U t ,W s¨ t ¸ s * ¨ t ¸ ©
2¹
©
2¹
(4.76)
Die Besonderheit der lokalen Korrelationsfunktion (Gl. 4.76) besteht darin, dass über die Zeit nicht integriert wird, dass sie also gewissermaßen eine Momentanaufnahme der Korrelation darstellt. Da das Ziel darin besteht, die Momentanfrequenz exakt zu bestimmen, wird die Wirkung der WD39 auf ein linear moduliertes harmonisches Signal nach Gl. 4.77 untersucht. s t
§ § D ·· A cos¨¨ 2St ¨ f 0 t ¸ ¸¸ 2 ¹¹ © ©
(4.77)
In Gl. 4.77 ist f0 die Anfangsfrequenz und D/2 der lineare Frequenzanstieg.
Setzt man die Beziehung nach Gl. 4.77 in Gl. 4.75 ein, so erhält man als Ergebnis Gl. 4.78. WDs t , f
A2 G f f i t G f f i t 4 § 2 ·½ A 2 ° F ®cos 2S ¨¨ DW 2 f 0t Dt 2 ¸¸°¾ 2 °¯ © 4 ¹°¿
(4.78)
In Gl. 4.78 ist F die Fouriertransformierte, fi(t) die Momentanfrequenz des Signals nach Gl. 4.77.
Die Beziehung nach Gl. 4.78 zeigt, dass das Vorhaben einer exakten Bestimmung der Momentanfrequenz fi(t) gelungen ist, die Terme G(f-fi(t)) und G(f+fi(t)) beschreiben erwartungsgemäß den Frequenzverlauf spiegelbildlich im Bereich der positiven und negativen Frequenzen. Der letzte Term ist allerdings unerwünscht, es ist ein Artefakt, welches durch die Nichtlinearität der quadratischen Signalrepräsentation zusätzlich entstanden ist. Die Artefakte sind als hochfrequente Störungen symmetrisch um die Frequenzachse angeordnet, wie in Abb. 4.60 dargestellt. Man kann dieses Problem mit Hilfe der Erweiterung des reellen Signals s(t) in ein analytisches Signal x(t) lösen. Das analytische Signal x(t) ist komplex, wobei der Imaginärteil aus dem Realteil – der das reelle Signal enthält – so gebildet wird, dass alle Frequenzen um S/2 verschoben werden. Signaltheoretisch entspricht diese Operation der Hilbert-Transformation (Gl. 4.79).
39
WD = Wigner-Distribution, in der Fachliteratur übliche Abkürzung.
244
4 Zeit-, Frequenz- und Verbundbereich
S f F^st `
(4.79)
F^H^st `` j sgn f S f
Das komplexe analytische Signal x(t) setzt sich zusammen aus dem reellen Signal s(t) im Realteil und seiner Hilberttransformierten im Imaginärteil zusammen (Gl. 4.80). xt s t j H^s t `
(4.80)
Durch die Hilbert-Transformation, die erstmalig Ville zu diesem Zweck durchgeführt hat (Gl. 4.70, 4.71), verschwindet die Verteilung im negativen Frequenzbereich und damit auch die unerwünschten Artefakte, die positiven Anteile verdoppeln sich (Abb. 4.61). Die Wigner-Ville-Transformation ist damit die ideale Analysemethode für harmonische Einkomponentensignale mit linearem Frequenzanstieg bzw. -abfall. Die Momentanfrequenz ist in jedem Augeblick exakt ablesbar, da sich die Formel nach Gl. 4.78 für das analytische Signal auf einen einzigen Diracpuls-Zug vereinfacht (Gl. 4.81). WDx t , f
A2 G f f i t 2
(4.81)
1 0
Frequenz
-1 0
20
40
60
80
100
120
-100
-100
-50
-50
0
0
50
50
100
100
0
20
40
60
Zeit
80
100
120
0
50
Abb. 4.60 Wignerverteilung (WD) eines harmonischen Signals mit linear ansteigender Frequenz. Der Zeitverlauf (oben) und das Amplitudenspektrum (rechts) zeigen die eindimensionalen Repräsentationen des Signals. Im Verbundbereich (unten links) zeigen die Delta-Folgen korrekt den Frequenzverlauf in der Zeit. Zwischen den Rampen sind die störenden Artefakte angeordnet
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
245
1 0
Frequenz
-1 0
20
40
60
80
100
120
-100
-100
-50
-50
0
0
50
50
100
100
0
20
40
60
Zeit
80
100
120
0
50
Abb. 4.61 Wignerverteilung (WD) eines analytischen Signals, das mit Hilfe der HilbertTransformation aus dem reellen Signal in Abb. 4.60 gebildet wurde. Nach der Transformation fällt die Komponente im Bereich der negativen Frequenz weg und damit auch die Artefakte. Zu beachten ist, dass die spektrale Amplitude doppelt so groß ist wie in Abb. 4.60
Spektrogramm
1000 900
Frequenzindex
800 700 600 500 400 300 200 100 0 0
200
400
Zeitindex
600
800
1000
Abb. 4.62 Spektrogramm einer Dreikomponente-Rampe (lineare Chirps) als drei Harmonische eines Grundchirps. Die Interferenzen sind schwach, die Zeit-Frequenz-Auflösung ist schlecht (Verschmierung in Zeit- und Frequenzrichtung)
246
4 Zeit-, Frequenz- und Verbundbereich
Testsignale mit linear veränderlicher Frequenz bieten zum Funktionstest der sensorischen Systeme des Menschen nicht nur signaltheoretisch (Gl. 4.81), sondern auch elektrophysiologisch nahezu ideale Analyseeigenschaften. Allerdings sind die Biosignale des Menschen keine Monokomponenten. Auf Grund der immer vorhandenen Nichtlinearitäten und technischen sowie biologischen Störungen sind im Messsignal mehrere gestörte Oberwellen enthalten. Im Folgenden wird zunächst die Wigner-Ville-Verteilung (WVV) einer Dreikomponenten-Rampe untersucht. Eine Dreikomponenten-Rampe kann z.B. aus einem Grundchirp40 in Folge einer Nichtlinearität dritter Ordnung entstehen, wie in Abb. 4.62 dargestellt. Das Spektrogramm repräsentiert die drei Chirps zwar korrekt, aber die Zeit-Frequenz-Auflösung ist unzureichend. Die WVV repräsentiert die Chirps mit einer idealen Zeit-Frequenz-Auflösung, allerdings treten zwischen den Chirps Interferenzen auf. Grundsätzlich gilt, dass jedes Komponentenpaar eine Interferenz erzeugt. In diesem Beispiel führt das dazu, dass der erste und der dritte Chrip in ihrer Mitte Interferenzen erzeugen, die direkt den zweiten Chirp beeinträchtigen. Zusätzlich erzeugt der zweite Chirp mit dem ersten und dem dritten weitere Interferenzen. Mathematisch lassen sich die Interferenzen analog zu Gl. 4.75 bis 4.78 erklären. Diese Darstellung zeigt das wesentliche Problem der Wigner-basierten Verteilungen: In der Wigner-Verteilung erzeugt jedes Komponentenpaar eine Interferenz. Diese Interferenzen erschweren die Interpretation, in Extremfällen machen sie sie sogar unmöglich. Unter einem Komponentenpaar versteht man nicht nur zwei voneinander isolierte Chirps, sondern auch Teile eines nichtlinearen Chirps, die eine gemeinsame Projektion haben. Diese Situation ist in Abb. 4.64 dargestellt: Die Schenkel der Sinusschwingung sind für die WVV unterschiedliche Komponenten, so dass jedes Paar eine Interferenz erzeugt. Dieses Beispiel zeigt, dass auch Einkomponentensignale Interferenzen erzeugen können. Dies erschwert weiterhin die Interpretation von Biosignalen, z.B. der Herzrate und der Herzratenvariabilität, bei den die Momentanfrequenz vom grundlegenden Interesse ist (s. Abschn. 4.1.2.3 Bestimmung von Frequenz und Rate). Um die zuverlässige Bestimmung der Momentanfrequenz zu erhalten, muss nach Möglichkeiten gesucht werden, die Interferenzen zu eliminieren, oder zumindest zu unterdrücken. Erwartungsgemäß müssen die Korrelationsfunktionen der Chirps und der Interferenzen unterschiedlich sein. Aus der eindimensionalen Signalanalyse ist die duale Beziehung zwischen der spektralen Leistungsdichte und dem Verschiebungsoperator der Korrelationsfunktion bekannt (Gl. 4.29).
40
Chirp ist ein harmonisches Signal mit zeitlich veränderlicher Frequenz
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
247
Wigner-Ville-Verteilung
1000 900
Frequenzindex
800 700 600 500 400 300 200 100 100
200
300
400
500
Zeitindex
600
700
800
900
1000
Abb. 4.63 WVD, Wigner-Ville-Verteilung einer Dreikomponenten-Rampe (s. Abb. 4.62). Die Basis bildet die lokale Korrelationsfunktion nach Gl. 4.76, die eindimensional mit Hilfe der Fouriertransformation in den Zeit-Frequenz-Bereich übertragen wird (Gl. 4.75)
WVV eines sinusmodulierten Chirps 120
Frequenzindex
100 80 60 40 20
20
40
60
Zeitindex
80
100
120
Abb. 4.64 Wigner-Ville-Verteilung eines sinusmodulierten Chirps. Die Schenkel der Sinusschwingung erzeugen paarweise Interferenzen als wären sie unterschiedliche Komponenten
248
4 Zeit-, Frequenz- und Verbundbereich
Da die zweidimensionale Korrelationsfunktion Ax(W,Q) ein Funktional in Abhängigkeit von der Zeitverschiebung W und der Frequenzverschiebung Q ist, kann sie nach Gl. 4.82 berechnet werden. Ax W ,Q
³³ Wx t , f e
j 2S Qt Wf
dfdt
(4.82)
t, f
Sie wird auch als Ähnlichkeitsfunktion (Ambiguity Function) bezeichnet. Ihre Bedeutung wird am folgenden Beispiel demonstriert. Aus den Chirps (erster und dritter) nach Abb. 4.62 werden mit Hilfe von Gauss-Fenstern zwei isolierte Monokomponenten (Autoterme) in der Zeit-Frequenz-Ebene gebildet (Abb. 4.65). Diese Monokomponenten erzeugen in ihrer Mitte eine Interferenz (Kreuzterm41). Ihre Zeit-Frequenz-Verteilung wird zweidimensional über die Fouriertransformation (Gl. 4.82) in die Ähnlichkeitsebene transformiert (Abb. 4.66). In der Ähnlichkeitsebene sind die Autoterme (erwünschte Anteile) um den Ursprung versammelt, während die Kreuzterme (Interferenzen) vom Ursprung und von den Autotermen entfernt sind. Man kann in diesem Fall um die Autoterme eine Maske (eine zweidimensionale Filterfunktion) so setzen, dass die Autoterme erhalten bleiben und die Kreuzterme eliminiert oder zumindest unterdrückt werden. Eine binäre Maske in Form eines Kreises wäre hier bereits anwendbar (innerhalb des Kreises mit EinWigner-Verteilung von zwei Gauss-Chirps
1000 900
Autoterm
Frequenzindex
800 700 600
Kreuzterm
500 400 300
Autoterm
200 100 100
200
300
400
500
Zeitindex
600
700
800
900
1000
Abb. 4.65 Wigner-Verteilung von zwei Gauss-modulierten linearen Chirps (Autoterme). Zu beachten ist die in der Mitte zwischen den Chirps liegende Interferenz (Kreuzterm)
41
Kreuzterme entstehen in Folge von Nichtlinearen Operationen, hier zweiter Ordnung
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
Zeit-Frequenz-Korrelation (Ähnlichkeitsfunktion)
500
nue-Index (Frequenzverschiebung)
249
400
Kreuzterme
300 200 100
Autoterme
0 -100
Kreuzterme
-200 -300 -400 -500
-400
-300
-200
-100
0
100
200
tau-Index (zeitliche Verschiebung)
300
400
Abb. 4.66 Ähnlichkeitsfunktion (ambiguity function) der gaussmodulierten Chirps aus Abb. 4.65. Die Autoterme (erwünschte Anteile) sind um den Ursprung angeordnet. Die Kreuzterme (Interferenzen) liegen vom Ursprung und den Autotermen entfernt. Der Kreis um Autoterme stellt eine (binäre) Maske dar, mit der die Autoterme durchgelassen und die Kreuzterme eliminiert werden
sen gefüllt, außerhalb Nullen). Diese Tiefpass-Filteroperation wirkt sich durch Verschlechterung der Auflösung in der Zeit-Frequenz-Ebene (Tiefpass glättet, daher schlechtere Auflösung) aus. Die zur Trennung von Auto- und Kreuztermen einsetzbaren Masken werden auch SignalKern, oder einfach Kern, genannt. Analog zu Analysefenstern in der Spektralanalyse (s. Abschn. 4.2.1.2 Fensterung) gibt es verschiedene Möglichkeiten der Kern-Gestaltung. Da die Kerne zweidimensional sind, können sie in jeder Dimension einzeln, von der anderen Dimension unabhängig, konstruiert werden. Zu einem zweidimensionalen Kern können sie anschließend durch Fusion in der Verbunddarstellung zusammengeführt werden. Dies bedeutet aber auch, dass man für beide Dimensionen – Zeit und Frequenz – die Analysefenster unabhängig voneinander definieren kann. Und dies ist der fundamentale Unterschied zum Spektrogramm. Im Spektrogramm hängen die zeitliche und die spektrale Auflösung unmittelbar von der Länge des Analysefensters M und damit voneinander ab (Gl. 4.83).
250
4 Zeit-, Frequenz- und Verbundbereich
't ~ M ~
1 'f
(4.83)
Wie bereits in Abb. 4.62 gezeigt, führt im Spektrogramm eine gute zeitliche zu einer schlechten spektralen Auflösung und umgekehrt. In Wigner-basierten Verteilungen können die zeitliche und die spektrale Auflösung unabhängig voneinander eingestellt werden. Die Auflösungsgrenze ist jedoch durch die Heisenbergsche Unschärferelation bestimmt. Dies ist der wesentlichste Vorteil der Wigner-Verteilungen im Vergleich zu allen anderen Methoden der Zeit-Frequenz-Analyse. In der praktischen Analyse wird die durch die Heisenbergsche Unschärferelation (Gl. 4.50) gegebene Grenze kaum erreicht, da vorher bereits bekannte Beschränkungen der digitalen Signalanalyse wirksam werden (Bandbreite, spektrale Auflösung, Randeffekte). Ein Kern wird analog zum eindimensionalen Fenster (s. Abschn. 4.2.1.2 Fensterung) auf die Ähnlichkeitsfunktion angewandt (Gl. 4.84). AxK W ,Q
Ax W ,Q K W ,Q
(4.84)
Die gefilterte Ähnlichkeitsfunktion ergibt nach der Fouriertransformation die von Kreuztermen bereinigte WVV (Gl. 4.85, Abb. 4.65). WxK t , f
K j 2S Qt Wf dQdW ³³ Ax W ,Q e
(4.85)
t, f
Nach der Fouriertransformation (Gl. 4.85) der maskierten Ähnlichkeitsfunktion (Gl. 4.84) verschwinden die Kreuzterme und die gewünschten Autoterme bleiben übrig (Abb. 4.67). Bei realen Signalen ist die Filterwirkung natürlich nicht so wirksam, wie in diesem simulierten Fall. Die Beseitigung der Kreuzterme wird schwieriger, wenn sich die Autoterme in Zeit oder in Frequenz oder in beiden überlappen. Daher wurden von mehreren Forschern spezifische Kerne entwickelt, die für eine bestimmte Gruppe von Signalen geeignet und nach ihren Erfindern benannt sind. Das klassische Spektrogramm (s. Abschn. 4.3.2.2 Spektrogramm, Gl. 4.60) lässt sich mit Hilfe der WV wie folgt formulieren (Gl. 4.86). SG xw t , f
Ww t ' t , f ' f W x t ' , f ' df ' dt ' ³³ ' '
t f
(4.86)
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
251
In Gl. 4.86 ist Ww die Wignerverteilung des konventionellen Analysefensters durch 2D-Filterung. Da nur ein Fenster W mit einem einzigen Freiheitsgrad (Fensterlänge) vorhanden ist, von dessen Länge auch die spektrale Auflösung abhängig ist (Gl. 4.83), ist die Einhaltung der Unschärfebedingung vorab gesichert. Allerdings hat ein solches Fenster eine starke Glättungswirkung, die zwar die Interferenzen wirksam unterdrückt, aber auch eine Verschmierung der Autoterme zur Folge hat (Abb. 4.62). Im Sinne des zweidimensionalen Kerns kann man die Zeitund Frequenzauflösung entkoppeln, in dem man für jede Dimension ein eigenes Fester einführt. Dieser Ansatz führt zur geglätteten Pseudo-Wigner-Verteilung42 (Gl. 4.87). SPWD x g , H t , f
g t t ' H f f ' W x t ' , f ' df ' dt ' ³³ ' '
(4.87)
t f
Der Glättungskern in der Zeit-Frequenz-Ebene ergibt sich demnach zu (Gl. 4.88) K SPWD t , f
g t H f ,
(4.88)
wobei g(t) und H(f) zwei voneinander unabhängige, frei wählbare 8 sind. In Gl. 4.88 ist weiterhin zu beachten, dass der Kern in der Zeit-Frequenz-Ebene definiert Zeit-Frequenz-Verteilung mit Kernel 900
Frequenzindex
800 700 600 500 400 300 200 100 0 0
100
200
300
400
500
Zeitindex
600
700
800
900
Abb. 4.67 WVV der Signals aus Abb. 4.65 nach Anwendung einer Filtermaske (binärer Kern) auf die Ähnlichkeitsfunktion in Abb. 4.66
42
SPWD – Smoothed Pseudo Wigner Distribution
252
4 Zeit-, Frequenz- und Verbundbereich
ist. Hier kann er entsprechend Gl. 4.86 verwendet oder als Maske in die Ähnlichkeitsebene transformiert und dort auf die Ähnlichkeitsfunktion der Chirps angewandt werden. Ein Spezialfall der SPWD ist die PWD43, also eine ungeglättete WD, bei der g(t) = G(t). Die PWD ist insbesondere dort geeignet, wo die fundamentalen Eigenschaften der Wignerverteilung erhalten bleiben sollen, aber die (sehr große) Länge des Signals ihre Berechnung nicht erlaubt. Daher wird – wie beim Spektrogramm – über das Signal ein Analysefenster geschoben, so dass immer nur der für das Analysefenster notwendige Signalabschnitt vorhanden sein muss. In der Realität sind die Autoterme und Kreuzterme der Biosignale natürlich nicht so günstig verteilt, wie in Abb. 4.65 und 4.66. dargestellt. Im Gegenteil, die Kreuzterme überlappen sich in Zeit und Frequenz stark mit den Autotermen, so dass ihre Trennung auch an die Empirie eine große Herausforderung darstellt. Gegenwärtig sind in etwa 20 verschiedene Signalkerne bekannt. Einige typische Verteilungen mit einem dreifachen Chirp als Testsignal sind in den Abb. 4.68 bis 4.71 dargestellt. Die PWD unterscheidet sich von der konventionellen WD in Hinsicht auf die unerwünschten Kreuzterme nicht wesentlich. Weil zur Analyse nur ein Fenster in Zeitrichtung angewandt wird, hat es eine eher praktische als analytische Bedeutung. Durch die relative kurze Fensterlänge (im Vergleich zur Signallänge) ist die PWD (Abb. 4.68) daher auch in der praktischen Analyse anwendbar. WähPWD, Pseudo-Wigner-Verteilung 250
c3
200
Frequenzindex
c23 c2+c13
150
c12 100
c1
50
100
200
300
400
500
Zeitindex
600
700
800
900
1000
Abb. 4.68 PWD, Pseudo-Wigner-Verteilung von drei harmonischen Chirps: c1, c2, c3 sind Autoterme, c12, c13, c23 sind Kreuzterme bzw. Interferenzen. Die Interferenzen und ihre Wirkung auf den zweiten Chirp sind deutlich stärker als bei der konventionellen Wignerverteilung (Abb. 4.63). Hier wurde das Analysefenster Hann(255) verwendet
43
PWD – Pseudo Wigner Distribution
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
253
SPWD, geglättete Pseudo-Wigner-Verteilung 500 450
Frequenzindex
400 350 300 250 200 150 100 50 100
200
300
400
500
Zeitindex
600
700
800
900
1000
Abb. 4.69 SPWD, geglättete Pseudo-Wigner-Verteilung von drei harmonischen Chirps. Im Vergleich zur PWD sind die Inteferenzen gedämpft, allerdings ist die Auflösung schlechter. Fenster in Zeitrichtung war Hann(511), in Frequenzrichtung Hann(31). Die Interferenzen sind mit denen des Spektrogramms vergleichbar (Abb. 4.62), aber die Auflösung ist besser WVV mit Konuskern
Frequenzindex
200
150
100
50
0 0
100
200
300
400
500
Zeitindex
600
700
800
900
Abb. 4.70 Wigner-Ville-Verteilung von drei harmonischen Chirps mit einem Konuskern. Vertikale Komponenten der Interferenzen sind wirksamer unterdrückt als horizontale. Horizontale Auflösung ist besser als vertikale
254
4 Zeit-, Frequenz- und Verbundbereich
RID mit Hamming-Fenster 900 800
Frequenzindex
700 600 500 400 300 200 100 0 0
100
200
300
400
500
Zeitindex
600
700
800
900
Abb. 4.71 Reduced-Interference-Distribution (RID) von drei harmonischen Chirps mit einem Hamming-Fenster. Die Interferenzen sind stark gedämpft mit orthogonalen Resten. Die Auflösung ist schlechter als bei anderen Verteilungen, aber noch besser als beim Spektrogramm
rend man für die echte WD vor der Berechnung zunächst das ganze Signa abwarten musste, kann die PWD gleitend, ähnlich wie bei der STFT bzw. dem Spektrogramm, berechnet werden. Allerdings ist es mit Hilfe des Analysefensters nicht möglich, die störenden Kreuzterme wirksam zu unterdrücken. Zur Unterdrückung von Kreuztermen bzw. Interferenzen ist ein weiteres Fenster entlang der Frequenzachse notwendig. Dies wird mit der geglätteten PWD (SPWD) realisiert (Gl. 4.88, Abb. 4.69). Das zusätzliche Fenster bewirkt, dass die Kreuzterme zum Teil reduziert werden, wobei sich die ursprüngliche Zeit-Frequenz-Auflösung nicht wesentlich ändert. Zum Vergleich mit den beiden bisher untersuchten Verteilungen wurden die WVV mit einem Konuskern und die RID mit einem HammingFenster herangezogen. Die WVV mit einem Konuskern (Abb. 4.70) unterdrückt bei harmonischen linearen Chirps vorwiegend die frequenzbasierten Interferenzen, dafür ist die Zeitauflösung besser. Die beste Unterdrückung der Kreuzterme zeigt die RID mit einem Hamming-Fenster (Abb. 4.71) mit wenigen orthogonalen Resten. Allerdings geht die gute Unterdrückung auf Kosten der Auflösung. Die Zeitund Frequenzauflösung ist schlechter als bei den vorherigen Verteilungen, dennoch besser als beim Spektrogramm. Aufbauend auf eigenen Untersuchungen zu geeigneten Kernen für Biosignale können folgende geprüfte Alternativen empfohlen werden [3]:
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
255
§W · § W· K W ,Q K ¨ ¸ K * ¨ ¸ G Q ©2¹ © 2¹
-
Kern der SPWD
-
Konuskern
K W ,Q
-
Choi-Williams-Kern
§ 2SWQ 2 K W ,Q exp¨ ¨ V ©
-
Reduced-Interference-Kern
K W ,Q S WQ
-
Optimalkern nach Baraniuk-Jones
Signalabhängiger adaptiver Kern [4]
g W W
sin SWQ
SWQ · ¸ ¸ ¹
Beispiele zur Anwendung verschiedener Kerne auf VEP nach Burst-Stimulation44
Abb. 4.72 Spektrogramm einer visuellen Reizantwort. Reizbeginn bei t = 4 s, Reizrate 8 pps bzw. 16 Wechsel/s. Spektrale Auflösung gut, zeitliche Auflösung schlecht
44
Burst – Eine Folge von Stimulationspulsen mit definierter Länge bzw. Anzahl
256
4 Zeit-, Frequenz- und Verbundbereich
Abb. 4.73 Geglättete Pseudo-Wigner-Verteilung (SPWD) einer visuellen Reizantwort wie in Abb. 4.72. Gute Zeit- und Frequenzauflösung. Transienter Anteil des VEP (hyperbolischer Bogen zwischen t = 4s und 5s) sehr gut ausgeprägt. Starke Interferenzen auch auf Grundwelle 8 Hz
Abb. 4.74 Konuskern-Verteilung (CKR) einer visuellen Reizantwort wie in Abb. 4.72. Vertikale Interferenzen gut gedämpft, horizontale Reste verfälschen weiterhin das reale Signal. Gute spektrale Auflösung
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
257
Abb. 4.75 Reduced Interference Distribution (RID) mit Choi-Williams-Kern einer visuellen Reizantwort wie in Abb. 4.72. Für diesen Signaltyp die beste Verteilung. Gute Zeit- und Frequenzauflösung, wichtige Komponenten sehr gut sichtbar, wenige Interferenzreste
sind in Abb. 4.72 bis 4.75 dargestellt. Untersucht wurde das VEP nach einer Burst-Stimulation mit 8 pps (pulse per second, Lichtblitze pro Sekunde) während einer Zeit von 4 s. Die EEG-Aufnahme begann 4 s vor dem Burstbeginn, so dass insgesamt 8 s (8192 ms) Aufnahmen gemittelt wurden (Mittelungsordnung M =16). Das Spektrogramm (Abb. 4.72) zeigt erwartungsgemäß eine gute Frequenz-, aber eine schlechte Zeitauflösung, der transiente Teil des VEP ist über drei Sekunden verschmiert (t = 3 s...6s). Die SPWD zeigt eine sehr gute Zeit- und Frequenzauflösung (Abb. 4.73), ist jedoch mit starken Interferenzen behaftet. Der typische hyperbelförmige Verlauf des transienten Anteils des VEP ist gut ausgeprägt (t = 4.5 s ... 6 s). Die Konus-Kern WVV unterdrückt sehr gut die vertikalen Komponenten der Interferenzen, allerdings auch die des transienten Anteils des VEP. Für diesen Signaltyp zeigt die RID mit einem Choi-Williams-Kern (Abb. 4.75) optimale Eigenschaften: Die Interferenzen sind wirksam unterdrückt, die gesuchten Anteile des VEP (transient und periodisch) sind gut sichtbar und scharf ausgeprägt und die Zeit- und Frequenzauflösung hinreichend gut.
258
4 Zeit-, Frequenz- und Verbundbereich
4.3.3 Wavelets 4.3.3.1 Skalierung und Fourier-basierte Zeit-Frequenz-Verteilungen
In den Kapiteln Short-Time Fourier Transform (STFT) und Spektrogramm wurde erläutert, wie wichtig die Wahl der Fensterfunktion und der Fensterlänge für die Zeit- und Frequenzauflösung sowie die spektralen Eigenschaften des Analysefensters für eine zuverlässige Signalanalyse ist. Das grundsätzliche Problem mit der Fensterlänge ist, dass die Zeit- und die Frequenzauflösung miteinander umgekehrt proportional verbunden sind. Bei einer guten Zeitauflösung erhält man eine schlechte Frequenzauflösung und umgekehrt. Dieses Problem konnte zum Teil mit Hilfe der Wigner-Verteilungen behoben werden (unabhängige Einstellung der Zeit- und Frequenz-Auflösung z.B. in der SPWD), allerdings auf Kosten von störenden Kreuztermen bzw. Interferenzen. Einen anderen Weg eröffnet die folgende Überlegung: Zur Spektralanalyse eines Signals reichen wenige – im Extremfall eine einzige – Perioden der zu bestimmenden Frequenzen aus. Wenn beispielsweise die mittlere Periode der Atmung 5 s beträgt, so braucht man zur Bestimmung der Atemrate ein Analysefenster von mindestens 5 s Länge. Bei einer solchen Fensterlänge erhält man zwar eine relativ gute Frequenzauflösung von 'f = 0.2 Hz, jedoch eine sehr schlechte Zeitauflösung von 't = 5 s. Werden parallel zur Atmung
0.2s
5Hz
EKG
'f
EEG
1Hz
Atmung 1s
t
0.2Hz 5s
Abb. 4.76 Unterschiedliche Fensterlängen zur Signalanalyse und ihre Bandbreiten. Je länger das Fenster, desto besser die Frequenzauflösung, aber umso schlechter die Zeitauflösung und vice versa (der Bereich 'f = 5 Hz ist wegen der Ausdehnung im Bild grafisch nicht korrekt skaliert)
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
259
STFT
skaliertes Fenster
f
f
t Symmetrische Struktur
t Dyadische Struktur
Abb. 4.77 Konstante Fensterlänge bei der STFT (links) und zu höheren Frequenzen hin sich halbierende Fensterlänge bei der skalierten (dyadischen) Struktur. Das skalierte Fenster ist insbesondere für Signale mit kurzzeitigen, im oberen Frequenzbereich breitbandigen Anteilen geeignet (z.B. EKG, EMG, EOG)
auch das EKG und das EEG aufgenommen (üblich z.B. bei der Polygraphie), so wären Fensterlängen von etwa TEKG = 0.2 s für das EKG (5 Hz bis 10 Hz) und TEEG = 1 s für das EEG (1 Hz bis 100 Hz) ausreichend. Da aber bisher nur eine Fensterlänge von TA = 5 s angenommen wurde, wäre sie für das EKG und das EEG von einer inakzeptabel schlechten Zeitauflösung. Der Lösungsansatz für dieses Problem ergibt sich aus der Tatsache, dass für höhere Frequenzen zur Frequenzbestimmung entsprechend kürzere Analysefenster (mit identischer Anzahl von Perioden) ausreichend sind, die eine bessere Zeitauflösung bieten. Auf diese Weise könnte man in dem betrachteten Fenster für die Atemanalyse von TA = 5 s Länge fünf Fenster für das EEG (TA = 5TEEG) und 25 Fenster für das EKG (TA=25TEKG) unterbringen. Die Verkürzung der Fenster geht allerdings mit einer schlechter werdenden spektralen Auflösung einher ('f ~ 1/'t). Dieses Verhalten ist qualitativ in Abb. 4.76 dargestellt. Solche Strukturen, die sich durch kürzere Fenster bei höheren Frequenzen auszeichnen, kann man natürlich auch auf Einzelsignale anwenden. Qualitativ entspricht dieser Ansatz der STFT mit einer veränderlichen, zu höheren Frequenzen hin kürzer werdenden Fensterlänge. Eine solche Fensterstruktur eignet sich daher besonders gut für Signale, bei denen im tieffrequenten Bereich eine gute Frequenzauflösung, im hochfrequenten Bereich eine gute Zeitauflösung gewünscht wird, z.B. beim EKG. Der direkte Vergleich der STFT mit konstanten und skalierten Fenstern ist in Abb. 4.77 dargestellt. Bei der STFT ist die absolute spektrale Bandbreite konstant und von der Frequenz unabhängig (Gl. 4.89).
260
4 Zeit-, Frequenz- und Verbundbereich
't
TF ½° ¾ 'f 2 f 2 ! f1 °¿
'f1 ~
1 't
(4.89)
In Gl. 4.89 ist TF die Fensterlänge, 't die Zeitauflösung, f die absolute Frequenz, 'f die Bandbreite.
Bei einem skalierten Fenster nimmt die absolute Bandbreite mit zunehmender Frequenz umgekehrt proportional zur Fensterlänge zu, so dass die relative spektrale Bandbreite bei allen Frequenzen konstant ist (Gl. 4.90). 't1 1 ½ , 'f ~ 'f 2 ° 't ¾ s f2 f 2 ! f1 , 'f 2 s 'f1 °¿
't 2
'f1 f1
(4.90)
In Gl. 4.90 ist 't die Zeitauflösung, 'f die Frequenzauflösung, f die absolute Frequenz und s der Skalierungsfaktor.
Für den Übergang von der konstanten zur skalierten Fensterlänge eignet sich als Fensterfunktion besonders gut das Gauß-Fenster. Dieses Fenster besitzt mehrere signaltheoretisch sehr günstige Eigenschaften (unendlich oft differenzierbar, Identität in der Unschärferelation). Die dynamische Spektralanalyse lässt sich analog zur STFT (Gl. 4.51) wie folgt formulieren (Gl. 4.89): X Gauss t , f
f
³ xW e
t W 2 2
e j 2SfW dW
(4.91)
f
Das Produkt aus der (Gauß-) Fensterfunktion und der spektralen Analysefunktion in Gl. 4.91 fasst man zusammen zu (Gl. 4.92):
\ W e
1 t W 2 j 2SfW 2
(4.92)
In Gl. 4.92 ist in Bezug auf Gl. 4.91 t der konstante betrachtete Zeitpunkt und W die Hilfsvariable der Fensterfunktion zur Integration. Für die weiteren Betrachtungen werden die Rollen der Variablen vertauscht: W repräsentiert eine Zeitverschiebung bezüglich des Startzeitpunktes t = 0 und t ist die Zeitvariable. Im Unterschied zur STFT ist hier die Frequenz f nicht mehr die unabhängige Variable, sondern die Fensterlänge, aus der sich über den Skalierungsfaktor (Gl. 4.90) die aktuelle Frequenz ergibt. Zur Variation der Fensterlänge führt man daher einen Skalierungsfaktor s so ein, dass beginnend mit dem kürzesten Fenster bei höchsten Frequenzen dieses zu niedrigen Frequenzen hin immer länger wird (Abb. 4.77).
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
261
Nach diesen Überlegungen kann man die Beziehung Gl. 4.92 modifizieren (Gl. 4.93): 2
\ s ,W t
W 1 § t W · ¨ ¸ j 2Sf m s e 2© s ¹
(4.93)
In Gl. 4.93 ist t die unabhängige Zeitvariable, W die Zeitverschiebung in Bezug auf t = 0, s der Skalierungsfaktor, fm die (konstante) höchste zu untersuchende Frequenz. 4.3.3.2 Wavelet-Transformation Die Zeit-Frequenz-Verteilung mit einem skalierten Fenster kann man ausgehend von Gl. 4.91 und Gl. 4.93 wie folgt formulieren (Gl. 4.94): X s,W
f
³ xt \ s ,W t dt
(4.94)
f
Der interpretative Zusammenhang zwischen den konventionellen Zeit-Frequenz-
f
Stauchen, scaling s
t zeitliche Verschiebung W, dilation
Abb. 4.78 Beziehung zwischen der Interpretation einer Zeit-Frequenz-Verteilung (Zeit- und Frequenzachsen, t und f) und der Verteilung mit skalierten Fenstern (Zeitverschiebung und Skalierung, W und s) für das Morlet-Wavelet. Es ist zu beachten, dass die Skalierung und die Frequenz zueinander umgekehrt proportional sind
262
4 Zeit-, Frequenz- und Verbundbereich
Verteilungen und den Verteilungen mit einem skalierten Fenster nach Gl. 4.94 ist in Abb. 4.78 dargestellt. In diesem Beispiel sind in einem Gauß-Fenster sieben Perioden der Grundfrequenz f vorhanden (Gl. 4.93, Abb. 4.78). Beginnend mit dem kürzesten Fenster (s = 1) passt dieses Fenster viermal in den Zeitverlauf des Signals (W = 0, 1, 2, 3). Bei der folgenden Verdoppelung des Skalierungsfaktors (s = 2) verdoppelt sich auch die Fensterlänge, so dass das Fenster nur noch zweimal auf dem Signalabschnitt segmentiert werden kann (W = 0, 1). Gleichzeitig halbiert sich durch die Skalierung der Zeit die ursprüngliche Frequenz f und die absolute Bandbreite 'f. Dies ist das Prinzip der Wavelet-Transformation (WT). Aufbauend auf der Analysefunktion mit einem Gauß-Fenster und einer harmonischen (komplexen) Schwingung nach Gl. 4.93 erhält man einen direkten funktionellen und interpretativen Bezug zu den bisher behandelten Zeit-Frequenz-Verteilungen: Die WT mit einer Analysefunktion nach Gl. 4.93 kann als eine dynamische Spektralanalyse mit skalierten Fenstern interpretiert werden. Die Funktion nach Gl. 4.93 wird als Morlet-Wavelet45 bezeichnet und ist das einzige Wavelet, bei dem der Begriff „Spektralanalyse“ im Sinne einer harmonischen Zerlegung des analysierten Signals korrekt ist. Die Formulierung für Wavelets lässt sich ausgehend von Gl. 4.93 hinsichtlich der analytischen Funktion verallgemeinern zu (Gl. 4.95):
\ s ,W t
1 s
§ t W · ¸ © s ¹
\¨
(4.95)
In der Formulierung nach Gl. 4.95 ist der Faktor 1/s0.5 zur Wichtung des Wavelets aus folgendem Grund notwendig: Ähnlich wie beim Spektrogramm, ist auch bei der Wavelet-Analyse eine Energieverteilung in der Skala-Zeitverschiebung-Ebene (s,WEbene) üblich, die als Skalogramm bezeichnet wird. Im inhaltlichen Sinne sind daher das Spektrogramm und das Skalogramm verwandt, da beide die Energieverteilung des analysierten Signals spektro-temporal46 darstellen (Gl. 4.96). Allerdings ist beim Spektrogramm die Länge des Analysefensters konstant, so dass auch die Darstellung der spektro-temporalen Energieverteilung die qualitativen Beziehungen zwischen spektralen Bändern zeitvariant aufrechterhalten und korrekt wiedergeben kann (Gl. 4.60 bzw. Gl. 4.66). Ganz anders ist es mit der Skalierung bei der Wavelet-Transformation: Die Fensterlänge ist nicht konstant, sie hängt von der Skalierung s ab. Das würde beim allgemeinen Wavelet (Gl. 4.95) ohne den Korrekturfaktor 1/s0.5 dazu führen, dass die Energie einer und derselben Signalkomponente mit der Skalierung um den Skalierungsfaktor s zunehmen würde (Gl. 4.96). Das ist natürlich nicht zulässig, daher wurde der Korrekturfaktoreingeführt.
45 46
Jean Morlet, Geophysiker spektro-temporal: zeitvariables Spektrum
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
.
263 2
SG xw t , f
STFTxw t , f ,
SC xw s,W
2
WTxw s,W ,
TW
konst.
TS
sTW
(4.96)
In Gl. 4.96 ist x das analysierte Signal, w das Analysefenster bzw. das Wavelet, STFT die Kurzzeit-Fouriertransformation, SG das Spektrogramm, WT die WaveletTransformation, SC das Skalogramm, TW und TS die Fensterlängen beim SG bzw. beim SC.
Die Verallgemeinerung nach Gl. 4.95 sagt aus, dass im Wesentlichen jede beliebige (auch eine nicht differenzierbare und eine unstetige) Funktion, die sich verschieben und skalieren lässt, als Wavelet angewandt werden kann. Man kann sich also für jedes signalanalytische Problem ein geeignetes Wavelet entwerfen. f
³\ t dt
f
F \ t f
0
0
(4.97)
Da jedes Wavelet durch die Skalierung im gewissen Sinne auch eine spektrale Zerlegungsfunktion hat, muss der zeitliche Mittelwert bzw. der Fourierkoeffizient bei f = 0 nullwertig sein (Gl. 4.97). Diese Eigenschaft wird bei dem im Folgenden betrachteten Wavelet („Mexikohut“) erläutert. Aus bereits genannten Gründen ist die Gauß’sche Glocke für Analysen besonders gut geeignet. Ihre negative zweite Ableitung ist in Abb. 4.79 dargestellt. Offensichtlich besitzt das Wavelet „Mexikohut“ explizit keinen harmonischen Signalanteil. Dies war hinsichtlich der mathematischen Formulierung der negativen zweiten Ableitung der Gauß-Funktion jedoch auch nicht zu erwarten (Gl. 4.98).
\ mexhat t
1 t e 2
t2 2
(4.98)
Nun stellt sich die Frage, wie die Wavelet-Zerlegung mit Zeit und Skala in Bezug auf bisher behandelte Methoden der harmonischen Zeit-Frequenz-Analyse interpretiert werden kann. Dazu kann man die Filterfunktionen des noch als spektrale Zerlegung interpretierbaren Morlet-Wavelets und des Mexikohuts vergleichen (Abb. 4.80, 4.81). Das Morlet-Wavelet zeigt erwartungsgemäß ein Bandpassverhalten (Abb. 4.80), wie es bereits im Kapitel Diskrete Fouriertransformation behandelt wurde. Mit einer zunehmenden Skalierung s (und abnehmenden Frequenz) wird das Analysefenster immer länger und die Bandbreite schmaler, dennoch bleibt der Charakter einer harmonischen Analyse wegen einer harmonischen Grundwelle unter dem Gauß-Fenster erhalten. Im Unterschied zum MorletWavelet zeigt das Mexikohut-Wavelet (und alle anderen) zwar auch einen Bandpasscharakter (Abb. 4.81), die untere Grenzfrequenz jedes Bandpasses liegt jedoch bei der Frequenz Null bzw. in ihrer Nähe. Aus diesem Grund handelt es sich bei Wavelets mit Ausnahme des Morlet-Wavelets nicht mehr um eine harmonische
264
4 Zeit-, Frequenz- und Verbundbereich
2.5
x 10
-6
2
1
2
diff2(exp(-t ))
1.5
0.5 0 -0.5 -1 -1.5 -4
-3
-2
-1
0
1
2
3
4
t
Abb. 4.79 Negative zweite Ableitung der Gauß’schen Glocke – Wavelet „Mexikohut“
Morlet Wavelet s=4 s=2 s=1
1
|G|
0.8
0.6
0.4
0.2
0 -0.06
-0.04
-0.02
0 frel
0.02
0.04
0.06
Abb. 4.80 Filtercharakteristik von Morlet-Wavelets bei dyadischen Skalen. Zu beachten ist der Bandpasscharakter um eine mittlere jeweils normierte Frequenz von frel /s = 0.28/s im Sinne einer harmonischen Analyse
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
265
Mexican Hat Wavelet s=4 s=2 s=1
1
|G|
0.8
0.6
0.4
0.2
0 -0.03
-0.02
-0.01
0
frel
0.01
0.02
0.03
Abb. 4.81 Filtercharakteristik von Mexican-Hat-Wavelets bei dyadischen Skalen. Zu beachten ist der Bandpasscharakter der Filter, der immer bei der Frequenz Null beginnt
Zerlegung, daher ist die Interpretation der Wavelet-Transformation als spektrotemporale Darstellung nicht mehr korrekt. An dieser Stelle ist es für weitere Überlegungen wichtig festzuhalten, dass zwar in beiden Fällen die Bandbreite mit zunehmender Skalierung abnimmt, beim Mexikohut (und allen anderen) jedoch das Band immer bei Null beginnt. Dieser Effekt kann so interpretiert werden, dass bei einer Verdoppelung der Skalierung die obere Hälfte des Signalspektrums unterdrückt wird. Dies ist eine fundamentale Erkenntnis auf dem Wege zur Interpretation der spektralen Eigenschaften von Wavelets. Da diese Eigenschaft vorab bekannt ist, lässt sich die spektrale Zusammensetzung mit Hilfe der linearen Algebra dennoch ermitteln. Dies ist aber gar nicht notwendig, denn dazu stehen die Methoden der Zeit-Frequenz-Analyse zur Verfügung. Dann stellt sich aber die Frage, was das Besondere an Wavelets ist, das die ZeitFrequenz-Analyse bisher nicht erfassen konnte. Das Besondere an Wavelets ist die Möglichkeit, für jedes signalanalytische Problem und jeden denkbaren Signalcharakter ein spezifisches Wavelet zu konstruieren. Auf diesem weiten Feld darf man jedoch nicht aus den Augen verlieren, dass bei jedem Wavelet nur dann ein signalanalytischer Vorteil gegenüber den bisherigen
266
4 Zeit-, Frequenz- und Verbundbereich
Methoden der Zeit-Frequenz-Analyse besteht, wenn der Signalcharakter in etwa dem des EKG entspricht. Bei tiefen Frequenzen ist eine gute spektrale Auflösung gefragt (z.B. Herzrate, Atmung), bei hohen Frequenzen eine gute Zeitauflösung und nicht unbedingt eine gute spektrale Auflösung (z.B. R-Zacken, Aktionspotentiale). Soll im hochfrequenten Bereich gezielt nach bestimmten Frequenzen mit einer guten spektralen Auflösung gesucht werden, z.B. bei der visuellen oder akustischen Stimulation der sensorischen Systeme mit definierten Reizfolgen, so sind Wavelets dafür ungeeignet. Zwei typische Beispiele zur Berechnung nach Gl. 4.94 und Darstellung der Wavelet-Koeffizienten zeigen Abb. 4.82 und Abb. 4.83. Das Skalogramm für die EKG-Aufnahme in Abb. 4.82 zeigt deutlich die Vorteile von Wavelets im Vergleich zu bisherigen Methoden der spektro-temporalen Analyse: Während im tieffrequenten Bereich eine gute spektrale Auflösung zur Analyse langsamer kardiologischer Vorgänge vorherrscht, liegt bei hohen Frequenzen eine gute Zeitauflösung zur genauen Lokalisierung von R-Zacken vor. Um auch die unterschiedliche spektrale Breite der zugehörigen Skalen deutlich zu machen, entspricht die Höhe der Balken der tatsächlichen absoluten Bandbreite der Fenster. Das folgende Beispiel mit einem VEP nach periodischer Reizung mit 8 pps und spontanen D-Wellen zeigt das Skalogramm in Abb. 4.83. Die gesuchten Harmonischen der Reizrate (n x 8 Hz) sowie die D-Wellenzüge sind in dieser Darstellung gar nicht identifizierbar, selbst der transiente Anteil ist kaum deutlicher ausgeprägt. An dieser Stelle wird deutlich, dass auch die Wavelet-Transformation nicht
EKG / mV
1 0 -1 0
5
10
15
Skalogramm, Mexican Hat
Skala
1 2 3 4 5 0
5
Zeit / s
10
15
Abb. 4.82 Zeitverlauf eines EKG (oben) und das Skalogramm mit dem Wavelet "Mexikohut" (unten). Details siehe Übungen und uebung_4_12.m
EEG(VEP) / uV
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
267
10 0 -10 -4
-3
-2
-1
0
1
2
3
4
2
3
4
Skalogramm, Mexican Hat
Skala
1 2 3 4 5 -4
-3
-2
-1
0
Zeit / s
1
Abb. 4.83 Zeitverlauf eines EEG/VEP (oben) und das Skalogramm mit dem Wavelet "Mexikohut" (unten)
die ultimative Methode der spektro-temporalen Analyse ist, sondern – wie jede andere Methode auch – Vorteile nur in bestimmten Bereichen der Signaleigenschaften bietet. 4.3.3.3 Wavelets als Filterbank Während das Morlet-Wavelet (Abb. 4.80) aus Sicht der harmonischen Zerlegung eine spektro-temporale Interpretation erlaubt, so ist diese Interpretation bei allen anderen Wavelets nicht mehr zulässig (z.B. Mexikohut, Abb. 4.81). Da man aber in der Signalanalyse trotz der theoretisch völlig beliebigen Gestalt eines Wavelets, das dem aktuellen Analyseproblem durchaus sehr spezifisch angepasst sein kann eine spektrale Zerlegung des Signals braucht, nicht zuletzt aus Referenzgründen, wird nach einer geeigneten spektralen Zerlegung gesucht. Betrachtet man das allgemein gültige qualitative spektrale Verhalten eines Wavelets, wie in Abb. 4.81 dargestellt, so lässt sich dieses wie ein Tiefpass interpretieren, dessen Gleichanteil, eliminiert wurde. Die Beseitigung des Gleichanteils (bzw. des ersten Fourierkoeffizienten) ist aus signaltheoretischen Gründen notwendig (spektrale Abgrenzung benachbarter Wavelets) und führt zur Interpretation des Wavelets als Bandpass. Im weiteren Vorgehen wird der Hochpasscharakter der Gleichanteilelimination nicht betrachtet. Dementsprechend kommt man zu dem Schluss, dass das Spekt-
268
4 Zeit-, Frequenz- und Verbundbereich
0.6
Hochpass Tiefpass
0.5
Filterkoeffizienten
0.4 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4
-10
-8
-6
-4
-2
0
nTa
2
4
6
8
10
Abb. 4.84 Filterkoeffizienten eines idealen Tiefpasses (Ringe) und eines idealen Hochpasses (Kreuze). Die relative Grenzfrequenz beträgt 0.25 (erste Halbierung des Signalspektrums). Dargestellt sind diskrete Werte für Filter der Länge L = 21
rum durch den Tiefpass geteilt, aus pragmatischen Gründen (praktische Algorithmen) sinnvollerweise halbiert wird (dyadische Struktur). Nun würde man nach jeder Halbierung unnötigerweise immer wieder den tieffrequenten Anteil mitnehmen, was zur enormen Redundanz führen würde. Es bietet sich an, das Spektrum bei jeder Verdopplung der Fensterlänge mit Hilfe eines Tief- und eines Hochpasses zu halbieren. Dazu braucht man die spektral inverse Variante eines Wavelets – einen Hochpass. Bevor aus einem Wavelet seine Hochpassvariante konstruiert wird, sind folgende Überlegungen notwendig. Man kann jedes Spektrum mit Hilfe von spektralen Filtern teilen. Weiß man vorher, dass es im nächsten Schritt halbiert werden soll (dyadische Struktur), so kann man einen entsprechenden Tiefpass (Abb. 4.85) und zu diesem einen äquivalenten Hochpass (Abb. 4.86) konstruieren. Idealerweise haben beide Filter eine Rechteckcharakteristik, aus der sich die ideale Impulsantwort ergibt (Abb. 4.84). Die Länge beider Impulsantworten in Abb. 4.84 betrug L = 1001, mit der die idealen spektralen Filtercharakteristiken näherungsweise realisiert werden können (Volle Linien in Abb. 4.85 und Abb. 4.86). Natürlich sind solche Filterlängen in der praktischen Signalanalyse nur schwer realisierbar, der Rechenaufwand und die notwendige Übertragungskapazität würden unangemessen steigen. Für praktische Anwendungen ist eine Reduktion der Filterlänge etwa um den Faktor 100 notwendig. Dass das Basisband (-fA/2 < f < fA/2, fA ist die Grundfrequenz der Abtastrate) mit dem Tiefpass und dem Hochpass halbiert werden soll (fG = +/- fA/4, fG ist die
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
269
Grenzfrequenz beider Filter), hat den folgenden rechentechnisch sehr günstigen Effekt zur Folge. Durch die sich aus der Abtastung ergebende Periodizität der Spektren kann der Halbband-Hochpass als ein um f = fA/2 nach beiden Seiten verschobener Halbband-Tiefpass interpretiert werden (s. Kapitel Abtastung, Gl. 4.99). f · § GHP f GTP ¨ f r n A ¸ 2 ¹ ©
(4.99)
Nach dem Frequenzverschiebungssatz der Fouriertransformation (Gl. 4.19) entspricht der Ausdruck in Gl. 4.99 der Multiplikation der Impulsantwort des Tiefpasses mit einer Harmonischen der Frequenz fA/2 (Gl. 4.100). g HP t
g TP t e
r j 2S
fA t 2
(4.100)
Überträgt man die Beziehung Gl. 4.100 in den zeitdiskreten Bereich, so gilt (Gl. 4.101): g HP n
g TP n 1 n
(4.101)
Die Beziehung nach Gl. 4.101 bietet eine denkbar einfache rechentechnische Realisierung des Halbband-Hochpasses: Man berechnet die Filterkoeffizienten des Halbband-Tiefpasses und wechselt das Vorzeichen bei ungeraden Koeffizienten (Abb. 4.84). Da nach der Filterung mit den Halbbandfiltern die resultierenden Frequenzbänder nur noch halb so breit sind, wie das ursprüngliche Spektrum, wäre für ihre Abtastung auch nur noch die halbe Abtastrate notwendig. Da die Daten bereits abgetastet vorliegen, kann die Abtastrate nach der Filterung ohne Informationsverlust auf die Hälfte reduziert werden. In der praktischen Verarbeitung wird jeder zweite digitale Wert der Sequenz weggelassen. Damit erreicht man eine spektrale Zerlegung des analysierten Signals ohne die Redundanz zu erhöhen (Anzahl der Werte bleibt konstant) und ohne einen Informationsverlust (Abb. 4.87 und Abb. 4.88). In der frühen Fachliteratur bezeichnet man die Impulsantwort des Hochpasses als Wavelet und die des Tiefpasses als „scaling function“ (Skalierungsfunktion). Beide Begriffe gehen auf die Bezeichnung von Meyer zurück, der sie als erster im Zusammenhang mit dieser Zerlegung verwendet hat. Im weniger strengen Sinne verwendet man heute den eingeführten Begriff Wavelet jedoch für alle benötigten Filter. Die in der Fachliteratur verwendete Nomenklatur der Zerlegung in „Approximations“ und „Details“ lehnt sich an die Eigenschaften der tieffrequenten und hochfrequenten Signalanteile an. Die tieffrequenten Anteile sind für langsame Verläufe (großflächige Strukturen in Bildern) typisch, sie geben den mittleren oder geglätteten Anteil – daher Approximationen – wieder. Die hochfrequenten
270
4 Zeit-, Frequenz- und Verbundbereich
5
Halbband-Tiefpass
0 -5
|G| / dB
-10 -15 -20
L = 21 L = 11 L = 1001
-25 -30 -35 -40 -45 -0.5
0
relative Frequenz
0.5
Abb. 4.85 Halbband-Tiefpass (Grenzfrequenz 0.25) mit verschiedenen Filterlängen der zeitdiskreten Sinc-Funktion (L = 11, 21, 1001). Die Impulsantwort ist in Abb. 4.84 dargestellt (L = 21)
5
Halbband-Hochpass
0 -5
|G| / dB
-10
L = 21 L = 11 L = 1001
-15 -20 -25 -30 -35 -40 -45 -0.5
0
relative Frequenz
0.5
Abb. 4.86 Halbband-Hochpass (Grenzfrequenz 0.25) mit verschiedenen Filterlängen der zeitdiskreten Sinc-Funktion (L = 11, 21, 1001). Die Impulsantwort ist in Abb. 4.83 dargestellt (L = 21)
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
fA = 100 Hz
fA1 = 50 Hz
271
fA2 = 25 Hz
A1
x(n)
fA3 = 12,5 Hz
A2
A3
2
2
2
2
2
2
D1
D2
D3
Abb. 4.87 Halbbandfilterung und Unterabtastung eines EKG. Beginnend mit der Grundfrequenz der Abtastrate fA = 100 Hz wird diese in jedem Schritt halbiert. Die Filterkoeffizienten bleiben in jeder Stufe gleich. Die Signalverläufe gehören zu den im Blockschaltbild markierten Komponenten
Anteile sind Ausdruck von kurzzeitigen und lokalen Verläufen (Feinheiten in Bildern), daher werden sie als Details bezeichnet.
|G|
Approximations Details A1 D1
|G|
|G|
f
f
A2
D2
f
A3
D3
Abb. 4.88 Interpretation von Wavelets als Filterbank. Mit steigender Skalierung (hier dyadische Struktur) wird das aktuelle Spektrum jeweils auf den niederfrequenten (Approximations) und auf den hochfrequenten Bereich (Details) halbiert
272
4 Zeit-, Frequenz- und Verbundbereich
Wie aus der Abb. 4.88 ersichtlich, ist das Spektrum eines Signals durch Approximationen bei der größten Skalierung (A3) und allen Details (D1, D2, D3) vollständig beschrieben. Eine Rekonstruktion des Signals ist im spektralen Sinne daher durch Summation aller Details und der letzten Approximation möglich (Gl. 4.102). Sx f
N
AN ¦ Dn
(4.102)
n 1
Es ist zu beachten, dass jedes Detail Dn spektral ein Passband repräsentiert, welches sich aus der Approximation der Vorstufe An-1 und dem Hochpass der aktuellen Stufe n ergibt. Dies kann vor allem beim konventionellen EKG leicht überprüft werden. Wird das EKG nach dem Schema in Abb. 4.87 zerlegt, so liegt das Detail D2 nach der zweiten Zerlegung spektral im Bereich zwischen 6.25 Hz und12.5 Hz, da man Halbbandfilter verwendet und die Grundfrequenz der Abtastrate nach der Reduktion 25 Hz beträgt. Genau in diesem Band liegt das energetische Maximum des EKG (5 Hz bis 11 Hz). Dies wird mit der größten Amplitude von allen Details bei D2 bestätigt. Wie aus der Abb. 4.87 ersichtlich, ergibt sich jede Approximation auf der Stufe N aus einer Reihenschaltung von N Tiefpässen und jedes Detail aus einer Reihenschaltung von N-1 Tiefpässen und eines Hochpasses (Gl. 4.103). N
AN f
n f X f GTP
DN f
N f G n f X f GHP TP
n 1
N 1
(4.103)
n 1
Man könnte daher für die Zerlegung auf der Stufe N eine gemeinsame Impulsantwort über N Tiefpässe bzw. N-1 Tiefpässe und einen Hochpass berechnen. Da die einzelnen Impulsantworten theoretisch einer Sinc-Funktion entsprechen (Abb. 4.84), müsste man für die resultierende Sinc-Funktion dementsprechend alle beteiligten Impulsantworten falten. Man bezeichnet solche Wavelets auch als SincWavelets (Shannon-Wavelets). Bekanntlich ist die Sinc-Funktion theoretisch unendlich lang, praktisch muss man mit etwa 1000 Koeffizienten rechnen. Diese Wavelets sind wegen ihrer Länge kaum praktikabel, man benötigt vor allem für Echtzeitanwendungen wesentlich kürzere Wavelets. Die Wavelet-Transformation ist eine lineare Transformation, daher ist eine Rekonstruktion des zerlegten Signals bzw. eine Synthese aus einer anderweitig generierten Zerlegung theoretisch und praktisch möglich. Liegen also Details und Approximationen entsprechend der Formulierung nach Gl. 4.102 vor, so wird für die Synthese die in Abb. 4.87 dargestellte Struktur in der umgekehrten Reihenfolge abgearbeitet. Beginnend bei der größten Skalierung werden die Details und die
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
273
Approximation auf die doppelte Abtastrate durch Zwischeneinschieben von Nullen gebracht (Überabtastung um den Faktor 2) und dann mit den selben Hoch- und Tiefpässen (bei symmetrischer Impulsantwort) gefiltert, die auch für die Analyse verwendet wurden (Abb. 4.89). Zwischen der Analyse (Abb. 4.87) und der Synthese (Abb. 4.89, Gl. 4.103) befindet sich ein Übertragungs- und/oder ein Verarbeitungssystem. Ob dieses System einer Datenkomprimierung zur Übertragung, einer Rauschunterdrückung oder einer Merkmalsdetektion dient, ist eine Frage der konkreten Anwendung. Ein komplettes Wavelet-System zur Analyse und Synthese mit einem allgemeinen Verarbeitungssystem des zerlegten Signals ist schematisch in Abb. 4.90 dargestellt. Man benötigt bis zu vier verschiedene Filter der Analyse und der Synthese, wobei sie sich alle aus einem Basisfilter (AnalyseHalbband-Tiefpass) herleiten lassen. Wie ein Analyse-Hochpass konstruiert werden kann, wurde bereits gezeigt (Gl. 4.101). Falls die Impulsantworten dieser Filter nicht symmetrisch sind (wie es bei Wavelets oft der Fall ist), so entspricht der Synthese-Tiefpass einer zeitlich gespiegelten Variante das Analyse-Tiefpasses (Gl. 4.104). Synth t gTP
Anal t gTP
(4.104)
Im zeitdiskreten Fall bedeutet die Anwendung der Formel nach Gl. 4.104 eine Umkehrung der Reihenfolge der Filterkoeffizienten (Gl. 4.105). Synth n g TP fA3 = 12,5 Hz A3
D3
2
fA2 = 25 Hz
+
A2
2
2
Anal n g TP fA1 = 50 Hz
+
A1
fA = 100 Hz x(n)
2
+
2
2 D2
(4.105)
D1
Abb. 4.89 Synthese aus Approximationen und Details, die aus einer Analyse nach Abb. 4.87 stammen. Die Signalverläufe gehören zu den im Blockschaltbild markierten Komponenten
274
4 Zeit-, Frequenz- und Verbundbereich
y(n)
x(n) ATP(f)
2
Transfer
2
STP(f)
2
SHP(f)
+
Denoising Detektion AHP(f)
2
Kompression
Abb. 4.90 Blockschaltbild zur Analyse und Synthese von Signalen mittels Wavelets. Grundsätzlich werden die hier aufgeführten vier unterschiedlichen Filtertypen benötigt: jeweils ein Hochpass und ein Tiefpass für die Analyse und die Synthese. Diese Filter werden entsprechend der Strukturen in Abb. 4.87 und Abb. 4.89 kaskadiert. Ist die Impulsantwort symmetrisch, sind die Tiefpässe und Hochpässe für jeweils die Analyse und die Synthese identisch. Der Hochpass wird nach Gl. 4.96 aus dem Tiefpass abgeleitet
Die Beziehung nach Gl. 4.105 gilt im Falle einer unsymmetrischen Impulsantwort auch für die übrigen Filter. Aus den Beziehungen nach Gl. 4.105 und Gl. 4.101 ergibt sich für den Analyse-Hochpass (Gl. 4.106): Anal n g HP
Anal n 1 n g TP
(4.106)
Für den Synthese-Hochpass gilt schließlich (Gl. 4.107): Synth n g HP
Anal n 1 n g TP
(4.107)
Aus den Beziehungen nach Gl. 4.105 bis 4.107 folgt, dass man für die komplette Analyse und Synthese ein einziges Basis-Wavelet benötigt (S. Gl. 4.121, 4.122). Alle seinen spektralen, dilatierten und skalierten Varianten lassen sich mit einfachen Operationen berechnen. Es ist zu beachten, dass in den Beziehungen nach Gl. 4.101, 4.105, 4.106 und 4.107 der Index n immer mit einer Eins beginnt, damit die eindeutige Zuordnung zu geraden und ungeraden Indizes gesichert ist. Das negative Vorzeichen vor dem Index n deutet formal auf die umgekehrte Reihenfolge der Indizes hin, da sie nicht negativ sein können, wenn sie mit einer Eins beginnen (Details siehe Übungen). 4.3.3.4 Typen und Anwendungen von Wavelets Wie bereits gezeigt wurde, ist die Analyse und Synthese mit Sinc-Wavelets als mit nahezu idealen spektralen Filtern möglich. Die Sinc-Wavelets sind jedoch wegen ihrer Länge unpraktikabel. Aus diesem Grund hat man nach wesentlich kürzeren
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
275
Meyer: Skalierungsfunktion und Wavelet
10
Wavelet Skalierung
5
Übertragung / dB
0 -5 -10 -15 -20 -25 -30 -35 -40 -8
-6
-4
-2
0
2
relative Frequenz
4
6
8 -4
x 10
Abb. 4.91 Meyer-Wavelet als Spektralfunktion: Die Filterfunktionen für den Tiefpass (Skalierung) und den Hochpass (Wavelet) sind stückweise approximiert, erkennbar an Ecken der Charakteristiken im Bereich der Grenzfrequenz
Wavelets gesucht. Der Kompromiss zwischen der spektralen Filterfunktion und der Anzahl der Koeffizienten bestand darin, dass die Filterfunktion auf Kosten der Länge der Impulsantwort deutlich vom Ideal abweicht. Meyer rundete die sonst gewünscht scharfen Ecken der Filterfunktion durch stückweise Approximationen ab (Gl. 4.108, 4,109), die in Abb. 4.91 an Stellen der Grenzfrequenzen sichtbar sind (die kantigen Übergänge der sonst runden Verläufe bei der Grenzfrequenz sind eine Folge der Meyer-Approximation). Diese deutliche Abschwächung der spektralen Schärfe führt dazu, dass Meyers Wavelets mit wenigen Koeffizienten auskommen. Dies ist eine wesentliche Vereinfachung im Vergleich zu den SincWavelets, die ein Vielfaches an Koeffizienten benötigen. Die sehr niedrige relative Frequenz in Abb. 4.91 ergibt sich aus der sehr hohen Skalierung, die für diese Berechnung verwendet wurde. Sie war notwendig, um die stückweise Approximation nach Meyer zu veranschaulichen. Bei dyadisch skalierten Wavelets sind alle Filterfunktionen Halbbandfilter. Meyers Wavelet Meyers Wavelet – Definition im Frequenzbereich (Aus Gründen der Übersichtlichkeit wird im Weiteren die Frequenz f zum Teil durch die Kreisfrequenz Z ersetzt):
276
4 Zeit-, Frequenz- und Verbundbereich
1 §S § 3 · · e jZ / 2 sin ¨¨ J ¨ Z ¸ 1¸¸, ° 2 2 S © ¹ ¹ © ° 2S °° 1 §S § 3 · · jZ / 2 sin ¨¨ J ¨ e Z ¸ 1¸¸, ® © 2 © 4S ¹ ¹ ° 2S ° °0, ¯°
\ FT Z
2S 4S dZ d 3 3 4S 8S dZ d 3 3 ª 2S 8S º Z « , » ¬ 3 3 ¼
(4.108)
Meyers Skalierungsfunktion – Definition im Frequenzbereich: 1 , ° S 2 ° §S § 3 ·· ° 1 Z 1¸ ¸¸, cos¨¨ J ¨ ® S 2 2 © ¹¹ © ° 2S ° °0, ¯
I FT Z
Z d
2S 3
2S 4S dZ d 3 3 4S Z ! 3
(4.109)
Meyers Hilfsfunktion J(x):
J x x 4 35 84 x 70 x 2 20 x 3 , x >0,1@
(4.110)
Meyer: Skalierungsfunktion und Wavelet
1.5
Skalierung Wavelet
Filterkoeffizienten
1
0.5
0
-0.5
-1 -8
-6
-4
-2
0
Zeitindex
2
4
6
8
Abb. 4.92 Meyers Skalierungsfunktion (Tiefpass, gestrichelt) und Wavelet (Hochpass, durchgezogen)
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
277
Aus den Definitionen für Meyers Skalierungsfunktion und Wavelet im Frequenzbereich (Index FT in den Formeln) lassen sich durch die inverse Fouriertransformation die entsprechenden Funktionen ermitteln (Abb. 4.92). Mit der Hilfsfunktion J(x) (Gl. 4.110) kann man beliebige Meyer-Wavelets-Familien erzeugen. Haars Wavelet Das Haar-Wavelet (1909) ist das einfachste und das älteste Wavelet (Abb. 4.93, 4.94), das je bekannt wurde. Dennoch findet es auch heute noch in mehreren Varianten eine breite Anwendung (z.B. in der Bildkompression). Seine Einfachheit wird deutlich, wenn man die Anzahl der relevanten Koeffizienten betrachtet (Gl. 4.111, 4.112). Für beide Funktionen, die Skalierung und das Wavelet, sind zwei Koeffizienten ausreichend, hinzu kommt, dass sie betragsmäßig identisch sind. Die Einfachheit des Haar-Wavelets wird durch eine sehr flache Filtercharakteristik des Hochpasses (Wavelet) und des Tiefpasses (Skalierung) erkauft (Abb. 4.94). Haars Wavelet:
\ t 1,
t >0,0.5
\ t 1, t >0.5,1 \ t 0,
(4.111)
t >0,1
Haars Skalierungsfunktion:
I t 1, t >0,1@ I t 0, t >0,1@
(4.112)
Den Beziehungen nach Gl. 4.111, 4.112 sowie der Darstellung in Abb. 4.93 kann man entnehmen, dass das Haar-Wavelet unstetig und daher auch nicht differenzierbar ist. Daher ist es insbesondere in der theoretischen Analyse problematisch, dieses Wavelet hinsichtlich seiner Eigenschaften zu analysieren und mit anderen Wavelets zu vergleichen. Im Zuge der Entwicklung neuer Wavelet-Familien wurde in den 90-er Jahren das Haar-Wavelet zur Teilmenge der neuen Wavelet-Klasse von Ingrid Daubechies. Allerdings besitzt diese Wavelet-Klasse auch keine geschlossene mathematische Formulierung, wie z.B. die Wavelets nach Morlet oder der Mexikohut.
278
4 Zeit-, Frequenz- und Verbundbereich
Haars Skalierungsfunktion und Wavelet 0.5 0.4
Koeffizienten
0.3 0.2 0.1 0 -0.1 -0.2 -0.3
Skalierung Wavelet
-0.4 -0.5 -0.5
0
0.5 t
1
1.5
Abb. 4.93 Haar-Wavelet: Skalierungsfunktion und Wavelet. Zu beachten ist, dass beide Funktionen unstetig und daher nicht differenzierbar sind. Entgegen der Definition nach Gl. 4.111 und 4.112 betragen die zwei diskreten Koeffizienten 0.5, damit ihre Anwendung als Filter insgesamt eine Übertragung von |G(f)| = 1 erhält (s. Abb. 4.94)
10
Filtercharakteristik von Haars Skalierung und Wavelet Skalierung Wavelet
5 0 -5
|G(f)|
-10 -15 -20 -25 -30 -35 -40 -0.5
0
relative Frequenz
0.5
Abb. 4.94 Haar-Wavelet: Halbband-Filtercharakteristiken der Skalierung und des Wavelets. Die Grenzfrequenzen sind identisch, jedoch der Überlappungsbereich sehr breit
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
279
Daubechies’ Wavelet Für das Daubechies-Wavelet gibt es weder eine explizite mathematische Formulierung noch eine stückweise Approximation. Vielmehr definiert Daubechies einzuhaltende Bedingungen und Eigenschaften auf dem Weg zur Generierung von Wavelets [6]. Zur Berechnung benötigt man zunächst ein Polynom mit Binomialkoeffizienten (Gl. 4.113) PN x
1 k · ¸ xk ¸ k ¹
N 1 § N
¦ ¨¨
k 0©
(4.113)
und ein trigonometrisches Polynom (Gl. 4.114): LZ
n
¦ bk e jkZ
(4.114)
k 0
Für die Generierungsfunktion gilt (Gl. 4.115) § 1 e jZ m0 Z ¨ ¨ 2 ©
N
· ¸ LZ ¸ ¹
(4.115)
und für m(Z): mZ
1 2
f
¦ cn e jnZ
.
(4.116)
f
Setzt man die Beziehungen Gl. 4.115 und 4.116 gleich, können die Koeffizienten cn berechnet werden. Daubechies-Wavelet für N=1 Aus Gl. 4.113 folgt für PN(x) = 1 und aus Gl. 4.114 für L(Z) = 1, so dass für die Generierungsfunktion nach Gl. 4.115 gilt (Gl. 4.117): m0 Z
1 1 e jZ 2
(4.117)
Die Generierungsfunktion nach Gl. 4.117 entspricht dem Haar-Wavelet im Frequenzbereich. Hiermit wird deutlich, dass das Haar-Wavelet auch ein DaubechiesWavelet für N = 1 ist.
280
4 Zeit-, Frequenz- und Verbundbereich
Daubechies-Wavelet für N=2 Aus Gl. 4.113 folgt für PN(x) mit N = 2 P2 x
1
§ k 1· k ¸x 0© k ¸ ¹
¦ ¨¨
k
1 2x
und aus Gl. 4.114 für L(Z) LZ L Z 2
1 jZ e e jZ . 2
(4.118)
Setzt man die Beziehungen nach Gl. 4.114 und 4.118 gleich, so erhält man durch den Koeffizientenvergleich (Gl. 4.119) b0
1 1 3 , b1 2
1 1 3 . 2
(4.119)
Setzt man Gl. 4.119 in Gl. 4.116 ein, so erhält man (Gl. 4.120) c0 c2
1 3 , 4 2 1 3 3 , 4 2 1
c1 c3
1
3 3 . 1 3 2
4 2 1 4
(4.120)
Mit Hilfe der Koeffizienten cn aus Gl. 4.120 kann man die Skalierungsfunktion (Gl. 4.121) und das Wavelet (Gl. 4.122) formulieren.
I x \ x
2 >c0I 2 x c1I 2 x 1 c 2I 2 x 2 c3I 2 x 3 @
(4.121)
2 > c3I 2 x c2I 2 x 1 c1I 2 x 2 c0I 2 x 3 @ (4.122)
In der praktischen Analyse muss man natürlich nicht jedes Mal die DaubechiesKoeffizienten auf diese komplizierte Weise berechnen. Die Koeffizienten der Skalierung und des Wavelets sind für die Ordnungen N = 2,..., 20 bekannt (aber für weitere Ordnungen berechenbar) und tabelliert, was für den Normalfall ausreicht. Es ist zu beachten, dass man nur gerade Ordnungen verwendet (die Anzahl der Koeffizienten ist gerade und die Signallänge eine Potenz von 2), da bei ungeraden Ordnungen sowohl die Theorie als auch die Implementierung kaum noch zu bewältigen wären. In der praktischen Berechnung der Wavelet-Koeffizienten bedeu-
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
281
Daubechies N=2
2
Skalierung, phi Wavelet, psi
1.5
phi(x), psi(x)
1 0.5 0 -0.5 -1 -1.5 0
0.5
1
1.5
x
2
2.5
3
Abb. 4.95 Daubechies-Wavelet und Skalierung für N=2
Daubechies N=8
1.5
Skalierung, phi Wavelet, psi
phi(x), psi(x)
1 0.5 0 -0.5 -1 -1.5 0
5
x
Abb. 4.96 Daubechies-Wavelet und Skalierung für N=8
10
15
282
4 Zeit-, Frequenz- und Verbundbereich
tet dies, dass z.B. ein Daubechies-Wavelet mit N = 3 eine Länge von 6 Koeffizienten besitzt (s. Gl. 4.120 für N = 2). In den Abb. 4.95 und 4.96 sind zwei ausgewählte, häufig verwendete Wavelets dargestellt, Daubechies mit N = 2 und N = 8. In beiden Beispielen ist erkennbar, dass diese Wavelets stark unsymmetrisch sind, was in einigen Spezialfällen von Vorteil sein kann, z.B. bei einem schnell veränderlichen Spektrum. Dies ist jedoch für die Analyse der üblichen Biosignale (EKG, EEG, evozierte Potentiale, Pulsverlauf) nicht unbedingt geeignet. Bekanntlich sind z.B. im EKG der QRSKomplex sowie die P- und T-Welle als Zeitverlauf – zumindest qualitativ – weitgehend symmetrisch, so dass ein unsymmetrisches Wavelet leicht zu Fehlinterpretationen führen kann. Eine typische Analysesituation ist in Abb. 4.97 (EKG) und Abb. 4.98 (EEG / VEP) dargestellt. Anwendung von Wavelets Betrachtet man die Zerlegung mittels Wavelets als eine Bandpassfilterung, so wird in diesem Sinne faktisch eine Spektralanalyse durchgeführt, die sich von der STFT bzw. vom Spektrogramm durch die variable Länge des Analysefensters unterscheidet. Durch das zu hohen Frequenzen hin immer kürzer werdende Analysefenster wird die Zeitauflösung besser als beim der STFT. Damit eignen sich Wavelets – insbesondere das Morlet-Wavelet – zur dynamischen Spektralanalyse von Biosignalen, die teilweise einen Impulscharakter haben, z.B. das EKG, EMG oder EOG. Durch das kürzer werdende Analysefenster wird allerdings auch die spektrale Auflösung schlechter als bei tiefen Frequenzen, so dass Wavelets zur Spektralanalyse hochfrequenter Biosignale mit guter Frequenzauflösung nicht geeignet sind, z.B. bei otoakustischen Emissionen (OAE) im Frequenzbereich von mehreren Kilohertz. Durch die stürmische Entwicklung der Wavelets vor allem in den Achtzigern und Neunzigern hat man ihnen eine Bedeutung zugestanden, die den realen Bedürfnissen nicht angemessen war. Sie werden z.B. zur Reduktion des Rauschens in Signalen oder Bildern sowie zur Kompression eingesetzt (siehe auch Wavelet-Toolbox in Matlab, Mathworks). Beiden Anwendungen ist gemeinsam, dass ein Teil der Signalenergie, den man dem Rauschen bzw. den vermeintlich nicht benötigten Details zuschreibt, eliminiert wird. Durch die Unterdrückung des Rauschens wird eine bessere Signalqualität erreicht, durch die Kompression wird die Datenmenge zum Teil erheblich reduziert. Diese Vorteile sind jedoch auf einige Voraussetzungen gebunden. Bevor man ein Biosignal vom Rauschen befreit, muss der Signal-Rausch-Abstand (SNR) bereits relativ hoch sein (mindestens 10 dB). Ist diese Bedingung nicht erfüllt, so wird mit dem zu eliminierenden Rauschen auch ein erheblicher Anteil des Biosignals besei-
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
283
tigt, was im Ergebnis sogar eine Verschlechterung des SNR nach sich ziehen kann. In diesem Sinne sind die Methoden der Zeit-Frequenz-Analyse (STFT, Wignerverteilung und Wavelets) gleichwertig, man kann mit allen das Rauschen durch Elimination unterhalb einer Diskriminanzschwelle reduzieren (siehe Übungen). Eine ähnliche Situation entsteht bei der Datenkompression. Man stellt eine Schwelle ein, ab der niedrigere Signalenergien eliminiert werden und dadurch die Datenmenge abnimmt. Dies geht grundsätzlich auf Kosten von Details bzw. kurz-
EKG
mV
1 0.5 0 -0.5 0
1
2
3
4
5
Approximationen, Daubechies N=4 1 Skala
2 3 4 5 0
1
2
3
4
5
4
5
Details, Daubechies N=4 1 Skala
2 3 4 5 0
1
2
3 Zeit / s
Abb. 4.97 Zerlegung eines EKG-Abschnitts mit Daubechies-Wavelet db4 und Zerlegungsniveau S = 5. Vor allem in den Approximationen ist der asymmetrische Charakter des DaubechiesWavelets sichtbar. Hoche Signalenergie ist dunkel dargestellt. Es ist zu beachten, dass eine hohe Skalierung tiefen Frequenzen entspricht
284
4 Zeit-, Frequenz- und Verbundbereich
EEG/VEP 4
uV
2 0 -2 -4
0
200
400
600
800
1000
Approximationen, Daubechies N=4 1 Skala
2 3 4 5 0
200
400
600
800
1000
800
1000
Details, Daubechies N=4 1 Skala
2 3 4 5 0
200
400
600 Zeit / ms
Abb. 4.98 Zerlegung eines EEG-Abschnitts mit VEP mit Daubechies-Wavelet db4 und Zerlegungsniveau S = 5. Hoche Signalenergie ist dunkel dargestellt. Es ist zu beachten, dass eine hohe Skalierung tiefen Frequenzen entspricht. Die Abtastrate beträgt 250 sps. Die Bänder A5 (0...4 Hz) sowie D1 (62.5 Hz ...125 Hz) und D2 (31.25 Hz...62.5 Hz) enthalten sehr wenig Signalenergie, da das VEP mit einem Hochpass fG = 7 Hz und einer Bandsperre fS = 45 Hz...55 Hz gefiltert wurde
zeitiger Vorgänge im Signal, die man bezüglich des Signalcharakters mit dem Rauschen durchaus vergleichen kann. Eine solche Datenkompression ist demzufolge verlustbehaftet und kann im Extremfall wichtige Einzelheiten in Biosignalen bzw. medizinischen Bildern unzulässigerweise unterschlagen.
4.3 Signalanalyse im Zeit-Frequenz-Verbundbereich
EKG
Daubechies N=4
mV
1 0.5 0 -0.5 0
2
285
4
D1 D2 D3 D4 D5 A5 0
2
A5 1
1
0
0
-1 0
2
4
-1 0
2
D4 1
0
0
2
4
-1 0
D2 1
0
0
2 Zeit / s
2
4 D1
1
-1 0
4 D3
1
-1 0
4 D5
4
-1 0
2 Zeit / s
4
Abb. 4.99 Zerlegung eines EKG mit Daubechies-Wavelet db4. Die Zeit-Frequenzdarstellung (oben rechts) zeigt die sechs Komponenten, die nach einer Zerlegung auf dem Niveau S = 5 das Signal komplett beschreiben. Die Signalrekonstruktion ist durch Addition dieser Komponenten möglich (Gl. 4.102). Während A5 durch einen Tiefpass gebildet wird, entstehen alle Details D1,..., D5 als Bandpasssignale (Abb. 4.88)
Den wesentlichsten Vorteil bieten Wavelets mit der Möglichkeit, sich für nahezu jedes spezifisches Problem der Biosignalanalyse ein eigenes, nach eigenen Kriterien optimiertes Wavelet zu konstruieren. Man kann beispielsweise für die Suche nach epileptischen Mustern im EEG (z.B. Spike-Wave-Komplexe) dafür ein entsprechendes Signalmuster als Wavelet formulieren. Bekanntlich liegen solche Signalmuster beliebig über die Zeitachse verteilt und haben variable Ausdehnung
286
4 Zeit-, Frequenz- und Verbundbereich
und Dauer. Für die automatische Suche nach solchen Mustern würde sich ein Wavelet mit Spike-Wave-Muster als Template sehr gut eignen. Im Sinne der Statistik der zweiten Ordnung würde sich hier also um eine Kreuzkorrelationsanalyse mit einem Template variabler Länge und eines untersuchten EEG-Abschnitts handeln.
4.4 Übungen
4.4.1 Aufgaben 1 Elimination langsamer Ausgleichsvorgänge in einem EKG Laden Sie das gespeicherte EKG (e23.mat). Stellen Sie es mit den Parametern TA = 4 ms und Verstärkungsfaktor V = 100 als reales EKG dar. Im Weiteren soll wegen der einfacheren Handhabung mit Indizes und nicht mit physikalischen Einheiten gearbeitet werden. Dies erleichtert die Analyse, denn die Einheiten können im Ergebnis hinzugefügt werden. -
Erzeugen Sie einen Ausgleichsvorgang aus zwei e-Funktionen, wobei die am Anfang aktive Abfallzeitkonstante 1s und die ihr folgende Anstiegszeitkonstante 3s betragen sollen. Addieren Sie diesen Ausgleichsvorgang zum EKG so, dass er bei t = 4s bzw. Zeitindex 1001 beginnt. Stellen Sie den Zeitverlauf dar, er sollte dem Verlauf in Abb. 4.3 entsprechen.
-
Berechnen Sie die Spektren des Original-EKG, des Ausgleichsvorgangs und des gestörten EKG und stellen diese dar (s. Abb. 4.4). Entscheiden Sie an Hand der Spektren, an welcher Stelle die Grenzfrequenz eines Hochpasses liegen kann, mit dem der Ausgleichsvorgang unterdrückt werden soll. Beachten Sie dabei, dass die Grundwelle des EKG mit ihren Seitenbändern (die erste Harmonische der Herzrate mit benachbarten spektralen Spitzen der Atmung) nicht beeinträchtigt werden darf. In welchem Bereich könnte die Grenzfrequenz liegen?
-
Entwerfen Sie einen Hochpass mit Hilfe der Matlab-Pakete SPtool oder FDAtool als ein FIR und ein IIR-Filter. Vergleichen Sie die Wirkung der Hochpässe auf das Artefakt und auf die Signalform des EKG. Welches Filter verursacht die kürzeste Verzögerung? Welches Filter kann die Signalform des EKG eventuell verzerren? Welches Filter mit welcher Grenzfrequenz wäre für diese Messaufgabe unter Berücksichtigung der Anforderungen an die Messkette besser geeignet?
4.4 Übungen
287
500 450
Modulationssignal
Träger
spektraler Pegel
400 350 300 250 200
USB
LSB
150 100 50 0 0
50
Frequenz / Hz
100
150
Abb. 4.100 Spektrale Lage des Modulationssignals (10Hz), des Trägers (100Hz) und der nach der Amplitudenmodulation entstehenden Seitenbänder (90 Hz, 110 Hz). Diese Abbildung soll die grundlegenden spektralen Beziehungen bei der AM darstellen. Die Frequenzen in einem realen EKG liegen wesentlich tiefe
2 Nichtlinearitäten im Biosignal Überprüfen Sie, wie gut das Signalmodell nach Gl. 4.3 der Realität entspricht mit dem Signal ekg.mat. Beginnen Sie mit dem additiven Anteil des Signalmodells A(s(t)+a(t)). Als erwünschtes Signal s(t) gilt das aufgenommene EKG ohne Veränderungen der Amplitude, als Artefakt a(t) gilt die Atmung, die offensichtlich die EKG-Amplitude verändert. Da die Perioden der Herztätigkeit und der Atmung sich deutlich unterscheiden, kann man versuchen, sie spektral voneinander zu trennen. -
Konstruieren Sie an Hand des berechneten Spektrums ein Filter (MatlabToolbox Signal Processing: SPTool), mit dem die additive Komponente der Atmung beseitigt werden kann. Schätzen Sie die Wirkung des Filters ein.
-
Untersuchen Sie weiter den multiplikativen Anteil des Signalmodells Ms(t)a(t), der eine Amplitudenmodulation repräsentiert. Zu diesem Zweck beachten Sie die spektrale Wirkung einer Amplitudenmodulation, wie sie beispielhaft in Abb. 4.100 dargestellt ist.
288
-
4 Zeit-, Frequenz- und Verbundbereich
Prüfen Sie, ob ein qualitativ vergleichbares Bild (eine dominante Trägerfrequenz mit symmetrisch liegenden Seitenbändern) im Spektrum des realen EKG vorhanden ist. Beachten Sie dabei, dass im realen EKG die Grundfrequenz der Herzrate als Träger (in der Nähe von 1 Hz), die Grundfrequenz der Atmung (in der Nähe von 0.2 Hz) als Modulationssignal zu interpretieren ist. Falls ein solches Bild vorhanden ist, kann man versuchen, das EKG so zu demodulieren, dass der Träger und das Modulationssignal getrennt werden. Verwenden Sie dazu die Matlab-Funktion amdemod.m, die eine Amplitudendemodulation durchführt. Die Trägerfrequenz Fc ermitteln Sie als die Grundfrequenz der Herzrate aus dem Spektrum, die Abtastrate Fs betrug 500 sps. Stellen Sie das Spektrum des Modulationssignals dar und schätzen, ob es den Seitenbändern des Original-EKG entspricht. Stellen Sie fest, ob das untersuchte Signalmodell der Realität entspricht.
3 Schwellenbasierte Merkmalsidentifikation Untersuchen Sie die Zuverlässigkeit von festen und relativen Pegelschwellen bei der Detektion von R-Zacken in einem realen EKG (ekg.mat). Vereinfachend gehen Sie davon aus, dass das EKG keine Sprünge und Ausgleichsvorgänge aufweist und dass die R-Zacke die höchste Amplitude von allen Wellen besitzt. Stellen Sie die detektierten Ereignisse „Schwelle überschritten“ in Abhängigkeit von dem Schwellenwert dar. Bestimmen Sie aus dieser Darstellung den zuverlässigsten Amplitudenbereich. Wäre eine in der technischen Messtechnik übliche relative Detektionsschwelle auch bei Biosignalen anwendbar? Wenn ja, unter welchen Voraussetzungen? 4 Pan-Tompkins-Algorithmus Der Pan-Tompkins-Algorithmus ist eine der ältesten Methoden zur automatischen Detektion von Herzaktionen, dennoch gehört er für das reguläre EKG zu den zuverlässigsten. Vereinfacht kann er so interpretiert werden (Abb. 4.17), dass im Band der maximalen Signalenergie des QRS-Komplexes (5 Hz bis 11 Hz) die Steilheit der Flanken in einem Zeitfenster bewertet und mit einem Diskriminator zum R-Zacken-Detektor umgesetzt wird. Untersuchen Sie, ob dieser Detektor unabhängig vom Typ der EKG-Ableitung arbeitet und welchen Einfluss die aktuelle Abtastrate hat. Zum Test wird zunächst ein reguläres EKG ohne Artefakte und Arrhythmien verwendet (uebung_4_4.m). In der Matlab-Funktion ist eine Umabtastung auf 200 sps enthalten, die für den Pan-Tompkins-Algorithmus notwendig ist. Modifizieren sie die Funktion so, dass nicht umabgetastet wird, um festzustellen, wie sich die ursprüngliche Abtastrate von 500 sps auf das Ergebnis auswirken wird.
4.4 Übungen
289
5 Ermittlung lokaler Extrema Am Beispiel eines gespeicherten VEP (vep.mat) ermitteln Sie automatisiert mit Hilfe eines eigenen Programms (Matlab-Funktion) lokale Extrema und ihre Latenzen mit Hilfe der Ableitungen und der Tangentenmethode. Addieren Sie zu dem VEP einen Trend (Ausgleichsvorgang) und untersuchen Sie, wie sich dieser auf die zu ermittelnden Parameter auswirkt. Beschränken Sie die Analyse auf einen Zeitbereich von 0 ms bis 300 ms. Zur Tangentenberechnung an der Hauptwelle P100 können Sie Matlab-Funktionen (polyfit.m) für lineare Regression verwenden. 6 Ermittlung der momentanen Herzrate und ihrer Variabilität Die momentane Herzrate (IHR, Instanteneous Heart Rate) ergibt sich theoretisch aus der reziproken momentanen Herzperiode (Gl. 4.14, N = 1). Praktisch besteht das Problem darin, dass man die Länge der aktuellen Herzperiode erst an ihrem Ende kennt und rückwirkend die Herzrate berechnen kann. Da die Herzperioden nicht konstant lang sind, erhält man eine nicht äquidistante Folge von unterschiedlichen Werten (Abb. 4.24). Um das Verhalten der Herzrate zu untersuchen ist es notwendig, diese Folge auf eine äquidistante Sequenz zu überführen. Untersuchen Sie die Ergebnisse der linearen Interpolation und der Kosinus-Interpolation zur Ermittlung der Herzrate und ihrer Variabilität. Nutzen Sie dazu das gespeicherte EKG (ekg.mat) und Matlab-Funktionen (interp1.m, hrv_cosinusinterpolation.m). Zur Detektion von R-Zacken mit einer binären Detektionsfolge als Ausgangssignal verwenden Sie einen Algorithmus eigener Wahl. 7 Einfluss von Analysefenstern auf die spektrale Auflösung Wie im Abschnitt 4.2.1.2 erläutert, sind die theoretischen Grenzen der Fouriertransformation nicht realisierbar und deswegen eine Fensterung notwendig. Standardmäßig stehen in etwa 20 verschiedene Fenster zur Verfügung. Sie lassen sich grob klassifizieren in nicht differenzierbare Fenster (Rechteck, Dreieck, Bartlett, Tukey), Kosinusfenster (Hamming, Hann), Gauss-Fenster (Gauss, Parzen) und andere (Tschebyschew, Flat Top). Generieren Sie eine Summe aus zwei Harmonischen mit den relativen Frequenzen 0.1 und 0.11 bei einer Länge von N = 100. Der spektrale Abstand der beiden Harmonischen entspricht exakt der theoretischen Auflösung der DFT (1/N = 0.01). Untersuchen Sie welchen Einfluss verschiedene Fenster auf die theoretisch erreichbare spektrale Auflösung haben. Aus jeder der genannten Fenstergruppen suchen Sie das beste Fenster aus, das nicht nur die Auflösung aufrecht erhält, sondern auch die niedrigsten Nebenmaxima aufweist. Zur Berechnung und Visualisierung der Fensterfunktionen können die Matlab-Funktionen des Signal Processing Tools wintool.m und wvtool.m verwendet werden.
290
4 Zeit-, Frequenz- und Verbundbereich
8 Länge des Analysefensters im Spektrogramm Die Zeitauflösung hängt direkt und die Frequenzauflösung umgekehrt proportional von der Fensterlänge ab. Die Wellen eines EKG, insbesondere der QRS-Komplex, sind kurzzeitige Vorgänge, so dass für eine gute Zeitauflösung ein kurzes Analysefenster benötigt wird. Soll neben dem EKG selbst auch die Herzrate und ihre Variabilität untersucht werden, so ist eine sehr gute Frequenzauflösung (bis zu 0.01 Hz) notwendig, so dass ein langes Analysefenster benötigt wird. Untersuchen Sie, welche Fensterlängen für die beiden Messaufgaben geeignet sind. Gibt es eine Kompromisslänge, mit der beide Fragen beantwortet werden können? Als Signal verwenden Sie das gespeicherte EKG (ekg.mat) und schreiben eine eigene MatlabFunktion zur Berechnung des Spektrogramms (Gl. 4.60, 4.55). Zur Kontrolle verwenden Sie die Matlab-Funktion aus uebung_4_8.m und aus der SignalProcessing-Toolbox spectrogram.m. 9 Vergleich von direktem und indirektem Spektrogramm Der direkte Weg zum Spektrogramm über die STFT (Gl. 4.60) und der indirekte Weg über die AKF (Gl. 4.69) sind im Sinne des Ergebnisses theoretisch gleichwertig. In der praktischen Signalanalyse, insbesondere bei Signalen mit hoher Dynamik (Instationarität) und nur wenigen oder einzelnen Realisierungen können die unterschiedlichen Wege zu teilweise beträchtlich unterschiedlichen Ergebnissen führen. Vergleichen Sie die beiden Möglichkeiten an einem der dynamischsten Biosignale überhaupt – am EKG. Verwenden Sie dazu das bereits in vorherigen Aufgaben analysierte EKG aus der Matlab-Datei ekg.mat. Zum Vergleich ist es notwendig, dass die Längen der Analysefenster und der FFT identisch sind. Beachten Sie dabei, dass die AKF doppelt so lang wird, wie der analysierte Signalabschnitt (Gl. 4.68). Zur Berechnung der AKF können Sie die Funktionen der Matlab-Toolbox Signal Processing xcov.m bzw. xcorr.m verwenden. Führen die beiden Wege zu vergleichbaren Ergebnissen? 10 Diskrete Wigner-Verteilungen Die Basis aller Wigner-basierten Verteilungen bildet die lokale Korrelationsfunktion (LKF, Gl. 4.76) bzw. die AKF (Gl. 4.70). In der DSV, in der mit zeitdiskreten Werten gearbeitet wird, ist eine Verschiebung um W/2 natürlich nur mit ganzen Zahlen realisierbar. Daher ist für W eine Schrittweite von mindestens zwei Abtastwerten notwendig. Untersuchen Sie, wie sich die Verdopplung der minimalen Schrittweite auf die Forderungen aus dem Abtasttheorem bzw. an die zulässige Bandbreite des analysierten Signals auswirken. Berechnen Sie dazu die Wignerverteilung bzw. die Wigner-Ville-Verteilung nach Gl. 4.75 für den diskreten Fall. Verwenden Sie dazu als Testsignal eine Summe aus drei linearen Chirps, wobei der dritte Chirp sich spektral aus der Summe der ersten beiden ergibt (Abb. 4.62).
4.4 Übungen
291
11 Beseitigung von Kreuztermen Wie bereits bei der Lösung der 10. Aufgabe deutlich wurde (Abb. 4.121), entstehen in der WVV Kreuzterme (Interferenzen), die die Interpretation in der ZeitFrequenz-Ebene erschweren. Unter bestimmten Voraussetzungen lassen sich die Kreuzterme relativ einfach beseitigen. Um dies zu prüfen, generieren Sie zunächst zwei Chirps in der Zeit-Frequenz-Ebene so, dass sie sich weder in Zeit noch in Frequenz überlappen. Berechnen Sie die WVV und stellen diese dar. In der Mitte zwischen den Chirps (Autoterme) treten Kreuzterme auf. Transformieren Sie die WVV in die Ähnlichkeitsebene und filtern mit einer geeigneten Maske die Autoterme aus. Überprüfen Sie die Wirkung der Maskierung durch Rücktransformation in die Zeit-Frequenz-Ebene. Wiederholen Sie den Vorgang für zwei Chirps, die sich in Zeit oder in Frequenz (oder in beiden) überlappen. 12 Harmonische und spektrale Übertragungsfunktion von Wavelets Die konventionelle harmonische (Morlet) und die spektrale Zerlegung (Mexikohut) mit Wavelets sollen im Spektralbereich untersucht werden. Konstruieren Sie dazu ein Morlet-Wavelet mit sieben Perioden einer harmonischen Schwingung sowie einen Mexikohut in einem angemessen langen Fenster (L ~ 250...1000). Stellen Sie die Übertragungsfunktion der Wavelets im Frequenzbereich dar. Beachten Sie dabei die zentrale Frequenz (Frequenz des Maximums) und die spektrale Breite der Filtercharakteristiken. Skalieren Sie die Wavelets zweimal dyadisch durch Halbierung der Abtastrate (bei jeder Halbierung wird jeder zweite Wert der Sequenzen weggelassen). Bei jeder Halbierung stellen Sie die Filtercharakteristiken mit derselben FFT-Länge dar, wie bei der ersten Skalierung. Vergleichen Sie die Übertragungsfunktionen in Abhängigkeit von der Skalierung. Welcher wesentliche Unterschied besteht zwischen den Übertragungsfunktionen des MorletWavelets und des Mexikohuts? 13 Sinc-Wavelets zur EKG-Analyse Ausgehend von den Übertragungsfunktionen eines idealen Hochpasses und eines idealen Tiefpasses als Halbbandfilter berechnen Sie ihre Impulsantworten der Länge L = 1001. Stellen Sie die Übertragungsfunktionen im Frequenzbereich für die Längen der Impulsantwort für L = 11, 101 und 1001 dar und vergleichen die Güte der Filterfunktion. Laden Sie das gespeicherte EKG (ekg.mat) und stellen sein Spektrum dar (Abtastrate 500 sps). Anhand des Spektrums und der verfügbaren Impulsantworten entscheiden Sie sich für eine Länge der Impulsantwort L und eine geänderte Abtastrate des EKG so, dass das Spektrum nach einer dreifachen dyadischen Skalierung durch die Filter möglichst vollständig erfasst wird. Führen Sie anschließend durch Synthese eine Funktionskontrolle durch.
292
4 Zeit-, Frequenz- und Verbundbereich
4.4.2 Lösungen 1 Elimination langsamer Ausgleichsvorgänge in einem EKG Die einzelnen Lösungsschritte sind in der Matlab-Datei uebung_4_1.m beschrieben. Die Berechnung der Spektren ergibt ein folgendes Bild (Abb. 4.101). Aus dem Vergleich der Spektren folgt, dass die optimale Grenzfrequenz im Bereich von etwa 0.7 Hz bis 1.2 Hz liegt. Höher darf sie nicht werden, damit das EKG nicht beeinträchtigt wird, wäre sie niedriger, würde das Artefakt nur unzureichend unterdrückt. Das Ergebnis nach der Filterung mit einem FIR-Hochpass zeigt Abb. 4.102. Der Ausgleichsvorgang ist eliminiert, die Signalform des EKG blieb erhalten. Die Zeitverschiebung zwischen dem Original und dem gefilterten Signal beträgt eine halbe Filterlänge (L-1)/2 = 302 bzw. 1208 ms. Eine solche Zeitverschiebung wäre für zeitkritische Probleme, z.B. für die R-Zacken-Detektion im Herzschrittmacher, inakzeptabel, jedoch für konventionelle Aufnahmen hinnehmbar. Mit einem IIR-Hochpass (Abb. 4.103) erreicht man wegen der niedrigen Filterordnung eine kurze Zeitverzögerung, allerdings verursachen die meisten IIR-Filter eine Formverzerrung des Biosignals. Wie stark die Formverzerrung ist, hängt vom
6000
EKG Ausgleich
spektrale Amplitude
5000 4000 3000 2000 1000 0 0
1
2
3
4
Frequenz / Hz
5
6
7
Abb. 4.101 Spektrum des Original-EKG und des Ausgleichsvorgangs. Im Bereich von etwa 0.7 Hz bis 1.2 Hz liegt die optimale Grenzfrequenz eines Hochpassfilters
4.4 Übungen
293
150
Pegelindex
100 50 0 -50 -100
EKG gefiltert EKG mit Ausgleich 900
1000
1100
1200
1300
Zeitindex
1400
1500
1600
Abb. 4.102 EKG nach der Hochpassfilterung mit einem FIR-Filter mit der Grenzfrequenz von 1 Hz. Der Pfeil zeigt die Zeitverschiebung als Folge der Filterung (Halbe Filterlänge (L-1)/2 = 302)
150
EKG Ausgleich EKG gefiltert
Pegelindex
100 50 0 -50 -100
900
1000
1100
1200
1300
Zeitindex
1400
1500
1600
1700
Abb. 4.103 EKG nach der Hochpassfilterung mit einem IIR-Filter (elliptisch, 4. Ordnung) mit der Grenzfrequenz von 1 Hz. Die Zeitverschiebung durch die Filterung beträgt 16 ms (Filterordnung L=5), was auch für die Echtzeitverarbeitung akzeptabel ist. Die Signalform ist geringfügig verändert, vor allem die Amplitude
294
4 Zeit-, Frequenz- und Verbundbereich
realen Signalspektrum und Instationaritäten ab. In Abb. 4.103 sind bereits Formverzerrungen erkennbar: Reduktion der Amplitude, Form der S-Zacke, usw. Daher ist ein IIR-Hochpass für zeitkritische Aufgaben geeignet, jedoch nicht für Aufnahmen, in den die Signalform zur Vermessung unverfälscht bleiben muss. 2 Nichtlinearitäten im Biosignal Das vom gespeicherten EKG berechnete Spektrum ist in Abb. 4.104 dargestellt. Den additiven Anteil entsprechend dem Signalmodell nach Gl. 4.3 kann man mit Hilfe eines Hochpasses mit einer Grenzfrequenz von etwa 0.5 Hz unterdrücken. Nach der Hochpassfilterung zeigt der zeitliche Verlauf (Abb. 4.105), dass die Unterdrückung der additiven Komponente der Atmung a(t) auf die Variabilität der Amplitude der R-Zacken keinen merklichen Einfluss hatte. Daraus lässt sich schließen, dass das oft angenommene additive Modell praktisch eine untergeordnete Rolle spielt. Verschlechternd kam die Formverzerrung hinzu, weil ein IIRHochpass eingesetzt wurde. Da die Amplitude der R-Zacken ein diagnostisch relevanter Parameter ist, kann man im Weiteren versuchen, sie von der Amplitudenmodulation zu befreien. Dazu wird die Matlab-Funktion amdemod.m verwendet, in die als Parameter die Grundfrequenz der Herzrate Fc = 1.03 Hz und der Abtastrate Fs = 500 Hz eingesetzt werden. Das Spektrum des Modulationssignals
1000
EKG-Originalspektrum im tieffrequenten Bereich
900
spektraler Pegel
800 700 600 500 400 300 200 100 0 0
0.5
Frequenz / Hz
1
1.5
Abb. 4.104 Spektrum eines gespeicherten EKG. Die Atmung zeigt eine spektrale Nadel bei 0.18 Hz und als Seitenband nach der Amplitudenmodulation auch spiegelsymmetrisch um die Grundfrequenz der Herzrate bei 1.03 Hz
4.4 Übungen
295
1.5
Original-EKG EKG nach Hochpassfilter
Pegelindex
1
0.5
0
-0.5
-1 0
1000
2000
3000
Zeitindex
4000
5000
Abb. 4.105 Zeitverlauf eines EKG nach einer Hochpassfilterung mit einer Grenzfrequenz von 0.5 Hz. Die Grundfrequenz der Atmung ist zwar hinreichend unterdrückt, aber die Amplitude der R-Zacken änderte sich kaum
nach der Amplitudendemodulation ist in Abb. 4.106 dargestellt. Das Spektrum zeigt ein globales Maximum bei 0.18 Hz, der Grundfrequenz der Atmung. Weitere lokale Maxima treten bei 0.03 Hz und 0.08 Hz auf konform zum Originalspektrum in Abb. 4.104. Da diese spektralen Maxima im Unterschied zur Atemfrequenz als tieffrequente Anteile im Originalspektrum nicht enthalten sind, kann man davon ausgehen, dass sie allein dem multiplikativen Anteil (Modulation) des Signalmodells zuzuschreiben sind (s. Abb. 4.27). Im Spektrum des Modulationssignals kann man weiterhin relativ starke Komponenten zwischen 0.7 Hz und 1.2 Hz beobachten. Für diese Komponenten sind keine physiologischen Gründe bekannt, so dass man davon ausgehen muss, dass sie als Produkte weiterer Modulationsalternativen (Phasen-, Frequenzmodulation) entstehen. Daraus folgt weiterhin, dass das Signalmodell mit einem additiven und einem multiplikativen Anteil sowie Rauschen noch nicht präzise genug ist. Im Ergebnis der Amplitudendemodulation erhält man zwar das Modulationssignal, wie in der Nachrichtentechnik üblich. Allerdings wäre auch das Trägersignal (EKG) von Interesse, das hier implizit als harmonisch angenommen wurde. Theoretisch gibt es zwei weitere Möglichkeiten, beide Komponenten – den Träger und das Modulationssignal – zu erhalten. Einerseits über die Hilberttransformation und andererseits mit einem Kammfilter. Beide Möglichkeiten werden in entsprechenden Kapiteln behandelt.
296
4 Zeit-, Frequenz- und Verbundbereich
800
Spektrum des Modulationssignals
700
spektraler Pegel
600 500 400 300 200 100 0 0
0.5
Frequenz / Hz
1
1.5
Abb. 4.106 Spektrum des Modulationssignals nach einer Amplitudendemodulation. Neben der Atemfrequenz 0.18 Hz sind weitere Komponenten bei 0.03 Hz (VLF) und 0.08 Hz (LF) enthalten
3 Schwellenbasierte Merkmalsidentifikation Mit Hilfe der Matlab-Funktion uebung_4_3.m kann der Wertebereich des gespeicherten EKG mit wählbar großen Schritten zwischen dem niedrigsten und dem höchsten Pegel untersucht werden. Dabei werden die niedrigste Schwelle, bei der falsche Detektionen gerade verschwinden, sowie die höchste Schwelle, bei der die ersten R-Zacken nicht mehr erkannt werden, ermittelt. Die niedrigste Schwelle (Abb. 4.107) beträgt in dem konkreten Beispiel 0.63 (gefilterte digitalisierte Werte), die höchste Schwelle 0.8 (Abb. 4.108). In Anbetracht der Spannweite der Werte zwischen -0.6 und 1.16 ist der Schwellenabstand von 0.17 für die RZacken-Detektion sehr knapp, er beträgt etwa 10% der Spannweite. Dies ist für eine zuverlässige Detektion sehr wenig, da bereits geringe Schwankungen der Basislinie und leichte Ausgleichsvorgänge diesen Bereich erreichen können. Wenn keine weiteren Forderungen bezüglich Risikofunktionen (Verhältnis von falsch positiven zu falsch negativen Detektionen) vorliegen, so wird man die Diskriminanzschwelle in die Mitte des Bereiches zwischen die minimale und maximale Detektionsschwelle legen, also auf 0.71. Natürlich müssen die mehrfachen Detektionen einer R-Zacke, die sich aus der Abtastrate ergeben, zu einer einzigen Detektion einer Herzaktion zusammengefasst werden.
4.4 Übungen
297
1.5
EKG-Pegelindex
1
0.5
0
-0.5
-1 0
1000
2000
3000
Zeitindex
4000
5000
Abb. 4.107 Nach Erreichen der niedrigsten Detektionsschwelle (gestrichelt) von 0.63 wird keine T-Welle mehr detektiert aber noch alle R-Zacken. Über der Schwelle liegende Werte sind durch Kreise markiert
1.5
EKG-Pegelindex
1
0.5
0
-0.5
-1 0
1000
2000
3000
Zeitindex
4000
5000
Abb. 4.108 Nach Überschreiten der oberen Detektionsschwelle (gestrichelt) von 0.8 werden die ersten R-Zacken nicht mehr erkannt (dritte Herzaktion)
298
4 Zeit-, Frequenz- und Verbundbereich
120 100
EKG-Pegelindex
80 60 40 20 0 -20 -40 -60 -80 0
100
200
Zeitindex
300
EKG Mittelwert Detektion 10% Schwelle 400 500
Abb. 4.109 Detektionen im EKG nach der Einführung einer 10%-Schwelle
In der technischen Messtechnik verwendet man zur Detektion der Zeitpunkte des Beginns und des Endes einer Flanke bzw. einer Welle die 10% und 90%Schwellen des Bereiches zwischen Nulllinie und Amplitude. Dies hängt damit zusammen, dass die unteren bzw. die oberen 10% meistens durch Rauschen überlagert sind und die Start- bzw. Endphasen der Flanken relativ flach verlaufen. Wendet man dieses Prinzip auf das EKG an, so ergibt sich das folgende Bild (Abb. 4.109). Da es bei Biosignalen keine Nulllinie gibt, kann dafür der zeitliche Mittelwert verwendet werden. Die 10%-Schwelle ergibt sich aus dem Abstand zwischen dem Mittelwert und dem Maximalwert. Dies ist beim EKG problematisch, da auch die P-Welle diese Schwelle überschreitet. Man könnte zusätzlich als Kriterium die 90%-Schwelle ansetzen, um allein die R-Zacken zu detektieren. Diese aber schwanken in Folge der Atmung um mehr als 10%. Dieses Kriterium wäre also ohne weitere Vorverarbeitung ungeeignet. Bei Biosignalen, die im Unterschied zum EKG gar keine Inaktivitätsphasen aufweisen, z.B. das EEG oder die Pulskurve, ist dieses Kriterium gar nicht anwendbar. 4 Pan-Tompkins-Algorithmus Der Pan-Tompkins-Algorithmus ist in der Matlab-Funktion uebung_4_4.m implementiert. Mit Hilfe eines Hochpasses bei 5Hz und eines Tiefpasses bei 11 Hz
4.4 Übungen
299
60
Original EKG Tiefpass Hochpass
50
Spektraler Pegel in dB
40 30 20 10 0 -10 -20 -30 -40 0
5
10
Frequenz / Hz
15
20
Abb. 4.110 Spektren des EKG nach Schritten des Pan-Hompkins-Algorithmus: Original-EKG (gepunktet), nach Tiefpassfilterung (gestrichelt) und anschließender Hochpassfilterung (volle Linie)
EKG-Pegel / 5*MA-Ausgang
1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 0
Original EKG Pan-Tompkins 1
2
Zeit / s
3
4
5
Abb. 4.111 Original-EKG (gestrichelt) und der Ausgang des Pan-Tompkins-Algorithmus (volle Linie). Zum Zwecke einer binären R-Zackendetektion muss das Maximum des Ausgangssignals des Algorithmus’ ermittelt werden
300
4 Zeit-, Frequenz- und Verbundbereich
wird das EKG auf den spektralen Bereich der maximalen Signalenergie begrenzt (Abb. 4.110). Der Bandpassfilterung folgt die bandbegrenzte Differenzierung und Quadrierung, sowie ein Glättungsfilter in Form eines gleitenden Mittelwertes. Zu beachten ist, dass der Differenzierer sowie der gleitende Mittelwert auf eine Abtastrate von 200 sps abgestimmt sind. Deswegen ist vor dem Algorithmus eine Umabtastung auf 200 sps notwendig. Alternativ können die beiden Operationen auf die aktuelle Abtastrate umkonfiguriert werden. Für den praktischen Einsatz kann dem Ausgang des gleitenden Mittelwerts (MA) ein Maximumsdetektor folgen, der den Zeitpunkt des QRS-Komplexes in Echtzeit und exakt ermitteln kann. 5 Ermittlung lokaler Extrema Theoretisch kann man bei der Suche nach lokalen Extrema so vorgehen, dass auf der Zeitachse Stellen gesucht werden, an den die erste Ableitung nullwertig ist und nach der Polarität der zweiten Ableitung erkannt wird, ob es sich um ein lokales Maximum oder Minimum handelt. In der praktischen Analyse mit digitalen Werten ist eine nullwertige erste Ableitung die Ausnahme (Abb. 4.112), so dass zunächst nach einem Nulldurchgang der ersten Ableitung gesucht werden muss. Ist dieser identifiziert, ergibt die zugehörige zweite Ableitung den Typ des lokalen
1
Pegelindex
0.5 0 -0.5 -1 VEP d(VEP)/dT d2(VEP)/dT
-1.5 60
65
70
75
80
85
Zeit / ms
90
95
100
105
Abb. 4.112 Zwei Wellen eines VEP (P70, N85), ihre erste und zweite Differenz. Beim Nulldurchgang der 1. Ableitung liegt ein Extrem vor, bei negativer 2. Ableitung ein lokales Maximum, bei positiver ein lokales Minimum
4.4 Übungen
301
6 5
VEP / Pegelindex
4 3 2 1 0 -1 -2 -3 -4 -5 70
80
90
100
110
Zeit / ms
120
130
140
150
Abb. 4.113 Tangenten an der Hauptwelle des VEP. Lokale Maxima sind mit Kreisen, Minima mit Rechtecken markiert
Extrems. Dies ist natürlich auch beim Rauschen der Fall, so dass man lokale Extrema des Signals und des Rauschens nicht unterscheiden kann. Dazu muss ein zusätzliches Kriterium eingeführt werden, bspw. ein Amplitudendiskriminator für das Rauschen (uebung_4_5.m). Mit Hilfe der Tangentenmethode können die Extrema mit gleicher Zuverlässigkeit ermittelt werden, wie mit Ableitungen. Durch den Schnittpunkt der Tangenten ergeben sich der Zeitpunkt, zu dem das Extrem auftritt und daraus auch der Extremwert. Allerdings gilt dies nur für ungestörte Signale. Vergleicht man die beiden Methoden an Hand gestörter Signalverläufe (Ausgleichsvorgang), so lässt sich feststellen, dass die Tangentenmethode robuster ist (s. uebung_4_5.m). 6 Ermittlung der momentanen Herzrate und ihrer Variabilität Zur Bestimmung der Herzrate ist zunächst die Ermittlung der Zeitpunkte der Herzaktionen (R-Zacken) notwendig. Dazu kann man den hier beschriebenen PanTompkins-Algorithmus, die Matlab-Funktion MaximumSuche.m oder ein eigenes Programm verwenden. Als Ausgangssignal wird eine binäre Folge (Nullfolge mit Einsen an Stellen der detektierten Herzaktionen) oder eine Indexfolge (Indizes der Zeitpunkte detektierter Herzaktionen) benötigt. Als Ausgangsbasis dient eine in Abb. 4.22 dargestellte Auswertung. Das Ergebnis der linearen Interpolation (zwi-
302
4 Zeit-, Frequenz- und Verbundbereich
Äquidistante linear interpolierte aktuelle HR
1.3 1.25 1.2 1.15 Herzrate / Hz
1.1 1.05 1 0.95 0.9 0.85 0.8
5
10
15
20
Zeit / s
25
30
35
40
Abb. 4.114 Lineare Interpolation zur Ermittlung der momentanen Herzrate. Die interpolierten Werte ergeben sich aus der nicht äquidistant ermittelten Herzrate nach Abb. 4.24
1200
Kosinusinterpolation Lineare Interpolation
EKG-Spektralindex
1000 800 600 400 200 0 0
0.1
0.2
0.3
Frequenz / Hz
0.4
Abb. 4.115 Spektrum nach der linearen und der Kosinusinterpolation der Herzrate
0.5
4.4 Übungen
303
schen den diskreten Werten der Herzrate) zeigt Abb. 4.114. In diesem Zeitverlauf der Herzrate lässt sich deutlich der dominierende respiratorische Rhythmus erkennen (Periode etwa 5 s). Die Spektralanalyse des HR-Verlaufs wird die Modulationssignale aufzeigen, nicht aber die HR-Grundfrequenz. Das liegt daran, dass durch die lineare Interpolation lediglich die Einhüllende der Herzrate erfasst wurde, was einer AM-Demodulation gleich kommt. Das gesamte Spektrum der Herzrate kann nach der Kosinusinterpolation dargestellt werden (Abb. 4.27). Um die beiden Methoden auf Aussagefähigkeit zu den Bändern der HRV zu untersuchen ist es notwendig, die HR nach der Kosinusinterpolation ins Basisband zu übertragen. Da nach der Kosinusinterpolation die Amplitude konstant ist, die Frequenz sich aber ändert, wir das interpolierte Signal mit Hilfe der FM-Demodulation (Matlab-Funktion fmdemod.m) behandelt. Dies ist auch ein indirekter Nachweis dafür, dass das additive und multiplikative Signalmodell nicht hinreichend genau ist, eine Frequenz verändernde Komponente müsste ergänzend implementiert werden. Die Auswertungen der linearen und der Kosinusinterpolation hinsichtlich der Spektren sind in Abb. 4.115 dargestellt. Bis auf den niederfrequenten Anteil der linearen Interpolation sind die Spektren weitgehend identisch. Allerdings bietet die Kosinusinterpolation die Möglichkeit eines direkten Vergleichs zur Grundfrequenz der Herzrate, so dass sie für die Analyse besser geeignet ist. Außerdem zeigt die Kosinusinterpolation (im Gesamtspektrum) wesentlich weniger Störungen bzw. Rauschen und Randeffekte als die lineare Interpolation. 7 Einfluss von Analysefenstern auf die spektrale Auflösung Die gewünschten Fensterfunktionen können für die vorgegebene Länge an Hand ihrer Definitionsformeln oder komfortabel mit Hilfe der Matlab-Toolbox Signal Processing (wintool, wvtool) generiert werden. Nach der Multiplikation der Fensterfunktion mit der Summe der Harmonischen erhält man mit Hilfe der DFT (FFT) das Amplitudenspektrum der jeweiligen Fensterung. Das Spektrum gibt Auskunft über die Auflösung, die Breite der Hauptmaxima (Hauptkeule) bei den relativen Frequenzen 0.1 und 0.11, sowie über den Abstand der unerwünschten Nebenmaxima (Nebenkeulen). Die für diese Kriterien wesentlichsten Fensterfunktionen sind in Abb. 4.116 dargestellt: Die beste Auflösung mit den (wunschgemäß) schmalsten Hauptmaxima besitzt das Rechteckfenster, allerdings mit den stärksten (unerwünschten) Nebenmaxima. Die stärkste Unterdrückung der Nebenmaxima weist das Tschebyschew-Fenster auf, bei gleicher Auflösung aber auch die breitesten Hauptmaxima. Einen Kompromiss beider Extreme zeigt (wie auch alle anderen) das Gaussfenster. Welche Fensterfunktion zur Analyse optimal ist, hängt in der praktischen Analyse von der konkreten Fragestellung ab. Wie hier gezeigt wurde, muss immer ein Kompromiss zwischen der Breite der Hauptkeulen und der Unterdrückung der Nebenkeulen gefunden werden. Insbesondere bei realen Spektren ist besondere Vorsicht geboten, da eine breite Hauptkeule wichtige harmonische spektrale Nadeln zum Verschmelzen bringen kann. Das kann dazu führen,
304
4 Zeit-, Frequenz- und Verbundbereich
10
spektraler Pegel / dB
0
Rechteck Gauss Tschebyschew
-10 -20 -30 -40 -50 -60 -70 0
0.05
0.1
normierte Frequenz
0.15
0.2
Abb. 4.116 Spektrum von drei Fensterfunktionen (Rechteck, Gauss, Tschebyschew)
dass ein ursprünglich diskretes Mehrkomponenten-Nadelspektrum zu einem kontinuierlichen Verlauf umgewandelt wird und dadurch im Ernstfall völlig falsche Interpretation entstehen kann. 8 Länge des Analysefensters im Spektrogramm Bekanntlich beträgt die Länge der EKG-Wellen 100 ms (QRS) bis 200 ms (TWelle), womit die notwendige Zeitauflösung gegeben ist. Zur Abschätzung der notwendigen spektralen Auflösung wertet man zunächst das Gesamtspektrum aus (Abb. 4.117). Obwohl das normale EKG sein Energiemaximum im Bereich von 5 Hz bis 11 Hz aufweist, wirken sich im Spektrum die Herzrate mit ihren Seitenbändern sowie ihre Oberwellen weitgehend dominant aus, so dass für diese Zwecke der Bereich bis 3 Hz ausreichend ist. Im Spektrum erkennt man deutlich die Grundfrequenz der Atmung von 0.2 Hz, die auch in den Seitenbändern der Herzrate enthalten ist. Daraus ergibt sich für die HRV-Analyse die Forderung nach einer Fensterlänge von mindestens 5 s. Diese Forderung ist im krassen Unterschied zur notwendigen Zeitauflösung. In Abb. 4.118 ist das Spektrogramm mit einer Fensterlänge von 10s und einer Frequenzauflösung von 0.05Hz dargestellt. Alle spektralen Anteile, die im Gesamtspektrum identifiziert wurden, sind auch im Spektrogramm enthalten. Zusätzlich kann man im Spektrogramm eine deutliche Periodizität der Grundfrequenz der Herzrate erkennen (Atmungsperiode). Diese ist
4.4 Übungen
305
10 9
spektraler Pegel
8 7 6 5 4 3 2 1 0 0
0.5
1
1.5
Frequenz / Hz
2
2.5
3
Abb. 4.117 Spektrum einer EKG-Aufnahme der Länge 42 s. Beachten Sie die Grundfrequenz der Herzrate (1.025 Hz) mit ihren Seitenbändern sowie ihre ersten Oberwellen. Die spektrale Nadel bei 0.2 Hz stammt von der Atmung
Spektrogramm L=5000, N=1e4 -2.5 -2
Frequenz / Hz
-1.5 -1 -0.5 0 0.5 1 1.5 2 0
5
10
15
20
Zeit / s
25
30
35
40
Abb. 4.118 Spektrogramm eines EKG mit einer Fensterlänge von 5000 Abtastwerten bzw. 10s und einer FFT-Länge von 104 bei einer Abtastrate von 500 sps
306
4 Zeit-, Frequenz- und Verbundbereich
Spektrogramm L=100, N=1e3
-100 -80 -60
Frequenz / Hz
-40 -20 0 20 40 60 80 100 0
2
4
Zeit / s
6
8
10
Abb. 4.119 Spektrogramm eines EKG (Abb. 4.117, 4.118) mit einer Fensterlänge von 100 Abstastwerten bzw. 200ms und einer FFT-Länge von 103 bei einer Abtastrate von 500 sps
ein direkter Nachweis dafür, dass die Herzrate nicht nur amplitudenmoduliert, sondern auch frequenzmoduliert ist (s. Kosinusinterpolation). Zur Darstellung des dynamischen Spektrums der Herzaktionen muss das Analysefenster deutlich verkürzt werden. In Abb. 4.119 ist das Spektrogramm des bisher analysierten EKG mit einer Fensterlänge von 200 ms dargestellt. Hier ist die Zeitauflösung für eine Dynamikanalyse hinreichend gut, allerdings reicht die spektrale Auflösung für eine HRV-Analyse nicht mehr aus (Abb. 4.118). Aus dem Vergleich der Spektrogramme folgt, dass ein Kompromiss für eine gute spektrale und Zeitauflösung nicht möglich ist. Daher wird man sich bei der Wahl einer geeigneten Fensterlänge nach der primären Fragestellung orientieren müssen. 9 Vergleich von direktem und indirektem Spektrogramm Im Vergleich der direkten Methode zur Berechnung des Spektrogramms (Gl. 4.60, Abb. 4.119) und der indirekten Methode (Gl. 4.69, Abb. 4.120) lässt sich feststellen, das mit der indirekten Methode ein besserer Signal-Rausch-Abstand (Bildkontrast), eine bessere Darstellung der tatsächlich vorhandenen spektralen Breite sowie eine zum Teil bessere Zeitauflösung (bei identischer Fensterlänge) erreicht werden kann. Dies sind typische Eigenschaften indirekter Methoden in der Bio-
4.4 Übungen
307
Indirektes Spektrogramm des EKG mit Fensterlänge 200ms und FFT 1e3 -100
-80 -60
Frequenz / Hz
-40 -20 0 20 40 60 80 100 0
2
4
Zeit / s
6
8
10
Abb. 4.120 Indirektes Spektrogramm (Gl. 4.69) mit sonst identischen Parametern wie im direkten Spektrogramm (Abb. 4.119)
signalanalyse, insbesondere bei instationären sowie verrauschten bzw. gestörten Signalen. Die Erklärung für das bessere Bild (Abb. 4.120) ist die glättende Wirkung der zeitlichen Integration bei der Berechnung der AKF in der indirekten Methode. Zwar ist die DFT auch eine zeitliche Integration, diese transformiert jedoch das Zeitsignal in den Frequenzbereich linear, d.h. ohne eine Glättungswirkung. 10 Diskrete Wigner-Verteilungen Um die Formeln nach Gl. 4.70 und Gl. 4.75 im zeitdiskreten Bereich umzusetzen, ist eine Verdopplung der minimalen Schrittweite für die Zeitverschiebung W notwendig. Im allgemeinen Fall nach Gl. 4.72 kann sogar eine Vervielfachung der minimalen Schrittweite notwendig sein, wie z.B. beim Wigner-Bispektrum mit einer Verdreifachung. Eine Vervielfachung der Schrittweite entspricht einer faktischen Unterabtastung des analysierten Signals. Daraus ergibt sich für die Analyse eine Modifikation des Abtasttheorems (Gl. 4.123). TA d
1 2Q f max
(4.123)
308
4 Zeit-, Frequenz- und Verbundbereich
WVV des überabgetasteten gefilterten Chirps
-500 -400 -300
Frequenz
-200 -100 0 100 200 300 400 100
200
300
400
500
Zeit
600
700
800
900
1000
Abb. 4.121 Wigner-Ville-Verteilung der Summe von drei linearen Chirps. Das modifizierte Abtasttheorem wurde nicht eingehalten, daher kommt es zum Aliasing (in der Grafik rechts oben
WVV des Originalchirps
-250 -200 -150
Frequenz
-100 -50 0 50 100 150 200 100
200
300
400
500
Zeit
600
700
800
900
1000
Abb. 4.122 Wigner-Ville-Verteilung der Summe von drei linearen Chirps. Das modifizierte Abtasttheorem wurde eingehalten, nachdem das Originalsignal doppelt überabgetastet und gefiltert wurde
4.4 Übungen
309
In Gl. 4.123 ist fmax die höchste im Signal enthaltene Frequenz, Q der Vervielfachungsfaktor zur Anwendung von Gl. 4.72, TA ist die maximale Abtastperiode.
Im Normalfall sind die Biosignale in ihrer Bandbreite bereits so begrenzt, dass eine weitere Bandreduktion im Sinne des modifizierten Abtasttheorems nach Gl. 4.89 nicht möglich ist, ohne den Informationsgehalt des Biosignals zu beeinträchtigen. Eine nachträgliche Überabtastung ist jedoch auch in bereits gespeicherten Signalen möglich. Zur Überabtastung kann eine eigene Funktion oder die MatlabFunktion resample.m verwendet werden (uebung_4_10.m). Beim doppelt überabgetasteten Signal (Abb. 4.122) verdoppelt sich auch die spektrale Bandbreite und im Sinne der normierten Frequenz kommt es zur Stauchung des Originalspektrums. Die anschließende Unterabtastung als Bestandteil der Berechnung der WVV führt nicht mehr zum Aliasing wie beim Originalsignal (Abb. 4.121). 11 Beseitigung von Kreuztermen Idealerweise lassen sich Autoterme und Kreuzterme in der Ähnlichkeitsebene mit einer zweidimensionalen Filterfunktion (Kernel, Maske) voneinander trennen. In Abb. 4.123 ist die Ähnlichkeitsfunktion von zwei linearen Chirps mit Gaussfenster, die sich weder in Zeit noch in Frequenz überlappen, dargestellt. In dieser einfachen Darstellung lassen sich die Autoterme mit einem Filter in Form einer binären rechteckigen Maske (-50:50, -150:150) herausfiltern (uebung_4_11.m). Überlappen sich die Chirps in Zeit, so sind die Kreuzterme in der Ähnlichkeitsebene auch entsprechend um die Zeitverschiebung angeordnet (Abb. 4.124). Um die Autoterme herauszufiltern, wäre eine entsprechende Filterfunktion (schiefe Ellipse, schiefes Rechteck) notwendig. Aus diesem Beispiel folgt, dass es keine allgemein gültige Filterfunktion (Kernel) geben kann, sie muss dem aktuellen Signalcharakter angepasst werden. 12 Harmonische und spektrale Filterfunktion von Wavelets Der Lösungsweg ist in der uebung_4_12.m detailliert beschrieben. Während die Berechnung des Morlet-Wavelets und des Mexikohuts keine wesentlichen Probleme bereiten dürfte, ist bei der Berechnung der Spektren und ihrer Darstellung Folgendes unbedingt zu berücksichtigen. Bei der dyadischen Skalierung spreizt man nach der Halbierung der Abtastrate das Spektrum auf die doppelte Breite. In umgekehrter Reihenfolge erhält man sog. Halbbandfilter. Die Filtercharakteristiken sowie die Filterkoeffizienten sind bei jeder Halbierung jedoch völlig identisch. Dies ist für die Filteranwendung ein großer Vorteil, da man die Koeffizienten (Morlet oder Mexikohut) nur einmal berechnen muss und dann nur noch unterbzw. überabtasten. Wieso sind aber die Spektren nach jeder Halbierung gleich? Weil sich die Filterkoeffizienten nicht geändert haben. Wenn man also die Wir-
310
4 Zeit-, Frequenz- und Verbundbereich
AF des Originalchirps
Zeitverschiebung Index
-300 -200 -100 0 100 200 300 -200
-150
-100
-50
0
50
Frequenzverschiebung Index
100
150
200
Abb. 4.123 Ähnlichkeitsfunktion (AF, ambiguity function) von zwei linearen Chirps mit Gaussfenster, die sich weder in Zeit noch in Frequenz überlappen. Die Autoterme sind in der Mitte angeordnet, die Kreuzterme außen
AF des Originalchirps
Zeitverschiebung Index
-300 -200 -100 0 100 200 300 -200
-150
-100
-50
0
50
Frequenzverschiebung Index
100
150
200
Abb. 4.124 Ähnlichkeitsfunktion (AF, ambiguity function) von zwei linearen Chirps mit Gaussfenster, die sich zeitlich vollständig überlappen. Die Autoterme sind in der Mitte angeordnet, die Kreuzterme außen
4.4 Übungen
311
Morletwavelet s = 1,2,4 s=4 s=2 s=1
1
psi(x)
0.8
0.6
0.4
0.2
0 -0.06
-0.04
-0.02
0
relative Frequenz
0.02
0.04
0.06
Abb. 4.125 Übertragungsfunktion des Morletwavelets im Frequenzbereich für die Skalierungen s = 1, 2, 4. Die Länge der FFT war NFFT = 104. Die Filter haben identische Koeffizienten und bei ihrer aktuellen Abtastrate auch identische Übertragungsfunktion
kung der Halbierung darstellen möchte, so muss man alle Spektren auf das Originalsignal beziehen. Das geht nur so, dass man alle Spektren mit der gleichen Länge der FFT berechnet, die sicherheitshalber wesentlich größer sein soll, als die ursprüngliche Signallänge. In diesem konkreten Beispiel z.B. NFFT = 104 ( Abb. 4.125). 13 Sinc-Wavelets zur EKG-Analyse Die idealen Verläufe der Halbbandfilter für den Tiefpass und den Hochpass definiert man als Rechteckfunktionen mit der Grenzfrequenz von 0.25 auf der Skala der relativen Frequenz (Abb. 4.85, 4.86). Aus diesem idealen Verlauf lassen sich die Koeffizienten der Impulsantwort über die IFFT für die gewünschte Länge berechnen (Abb. 4.84). Für Details siehe uebung_4_13.m. Aus den Verläufen der Übertragungsfunktionen im Frequenzbereich lässt sich schlussfolgern, dass dem idealen Verlauf erwartungsgemäß die längste Impulsantwort mit L = 1001 am nächsten kommt. Nur bedeutet eine lange Impulsantwort auch eine schlechte Zeitauflösung. Das Originalspektrum des EKG ist in Abb. 4.126 dargestellt. Analysiert man das Spektrum des gemessenen EKG, so kann man bereits einige Schlüs-
312
4 Zeit-, Frequenz- und Verbundbereich
60 50 40
EKG / dB
30 20 10 0 -10 -20 -30 0
50
100
150
Frequenz / Hz
200
250
Abb. 4.126 Spektrum eines EKG-Abschnitts der Länge 45 s, Abtastrate 500 sps
se ziehen. Offensichtlich wurde bereits ein Filter mit einer sehr niedrigen Grenzfrequenz eingesetzt (etwa 20 bis 30 Hz), mit dem eine Sperrdämpfung von 40 dB ab etwa 50 Hz erreicht wird. Daraus ergibt sich die Schlussfolgerung, dass die spektralen Anteile oberhalb von 50 Hz außer Rauschen ohnehin nichts mehr zur Information beitragen und daher die Abtastrate auf ein Fünftel (100 sps) reduziert werden kann (die NyquistFrequenz entspricht dann 50 Hz). Das mach Sinn, weil durch die Unterabtastung der informationtragende Anteil des Spektrums über das ganze Basisband gespreizt wird (0...50 Hz) und man nun die Halbbandfilter bereits auf die volle Bandbreite ansetzen kann. Nun ergibt sich die Frage nach einer geeigneten Länge der Impulsantworten der Halbbandfilter. Die Impulsantwort mit der Länge L = 1001 kommt zwar an das ideale Filter gut heran, ist aber zur Echtzeitverarbeitung ungeeignet. Bei der Länge der Impulsantwort von L = 11 erhält man zwar spektrale Filter, die man wohlwollend noch als Tiefpass und Hochpass bezeichnen kann und die durchaus nicht schlechter sind, als übliche Wavelets. Allerdings besteht hier die Aufgabe in einer harmonischen Zerlegung bzw. einer Sinc-WaveletKonstruktion und daher ist diese kurze Impulsantwort nicht akzeptabel. Einen Kompromiss bietet dann die Länge von L = 101, mit der das gespeichert EKG gefiltert wurde. Die Ergebnisse sind in Abb. 4.127 dargestellt. Die Abstufung der Längen ist mit Absicht in Zehnerdekaden vorgenommen worden, damit die Größenordnungen sichtbar werden. In der Praxis kann man sich natürlich eine eigene Länge als Kompromisslösung aussuchen.
4.4 Übungen
313
A3
2 1 0 -1
0
5
10
15
20
0
5
10
15
20
0
5
10
15
20
0
5
10 Zeit / s
15
20
D3
1 0 -1
D2
1 0 -1
D1
1 0 -1
Abb. 4.127 Zerlegung eines EKG mit Sinc-Wavelets als Halbbandfiltern in drei Stufen bei einer Abtastrate von 100 sps. Die Bandbereiche sind dementsprechend: D1 (25 Hz ...50Hz), D2 (12,5 Hz...25 Hz), D3 (6,25 Hz...12,5 Hz) und A3 (0 Hz...6,25 Hz)
Literatur [1] Pan, J., Tompkins, W.J.: A real-time QRS detection algorithm. IEEE Trans. Biomed. Eng., BME-32 (3):230-236, 1985. [2] Boashash, B. (ed.): Time Frequency Signal Analysis and Processing. A comprehensive Reference. Elsevier, 2003. [3] Henning,G., Hoenecke,O., Husar,P., Schellhorn,K.: Time-Frequency Analysis in Objective Perimetry, Applied Signal Processing 3, 1996, pp.95-103, Springer Verlag London
314
4 Zeit-, Frequenz- und Verbundbereich
[4] Baraniuk, R.G., Jones, D.L.: A signal-dependent time-frequency representation: fast algorithm for optimal kernel design, IEEE Trans. Signal Processing, vol.38, 1994 [5] Berger, R.D., Akselrod, S., Gordon, D., Cohen, R.J.: An Efficient Algorithm for Spectral Analysis of Heart Rate Variability, IEEE Transactions on Biomed. Engineering, Vol. 33, No.9, September 1986 [6] Daubechies, I.: Multiresolution Analysis and Construction of Wavelets, in: Debnath, L.: Wavelet Transforms and Their Applications, Birkhäuser, Boston, 2002
Kapitel 5
Digitale Filter
5.1 Einführung in die digitale Filterung In der digitalen Biosignalverarbeitung spielen digitale Filter eine zentrale Rolle. Einerseits wurde ihre Bedeutung durch die langfristig fortschreitende Digitalisierung immer größer. Andererseits ist es mit digitalen Filtern möglich, eine enorme Zahl von speziellen Funktionen zu realisieren, die es bei analogen Filtern nicht gab. Die Grundlagen zur Theorie der analogen Filter sowie zu ihrem Entwurf und Realisierung behandelt das Kapitel „2.3 Analoge Filter“. Auch hier wird deutlich, dass in der analogen Welt nur sehr beschränkte Anzahl von Funktionen realisierbar ist. Neben den konventionellen spektralen Filtern, wie Tiefpass, Hochpass, Bandpass und Bandsperre, können einige weitere Funktionen, wie Differentiator oder Integrator, als Filter interpretiert werden. Damit lässt sich der Bereich der analogen Filterung im Wesentlichen auf das Spektrum begrenzen. Allerdings wird dieser Bereich seine funktionelle Bedeutung noch so lange behalten, wie eine Signalaufbereitung vor der Digitalisierung notwendig ist. Und da es nicht absehbar ist, wann und ob es überhaupt Sensoren mit einem direkten digitalen Ausgang geben wird, muss einem digitalen Filter immer eine analoge Signalkonditionierung vorangestellt sein. Nach der Digitalisierung öffnet sich allerdings eine kaum noch übersehbare Bibliothek an digitalen Funktionen und Algorithmen. Hier verliert der Begriff „Filter“ seinen ursprünglichen Sinn einer spezifischen spektralen Funktion. Mit Filter werden beispielsweise auch Blöcke zur Transformation (z.B. Hilbert-Filter) oder Phasenkorrektoren (z.B. Allpass-Filter) bezeichnet, die gar keine spektrale Wichtungsfunktion besitzen. Nun stellt sich die Frage, was führt zu einer solchen enormen Steigerung der Möglichkeiten in der digitalen Welt? Durch die zeitliche Diskretisierung (s. Abschn. 3.2 Abtastung von Biosignalen) werden aus analogen Signalen Sequenzen von Werten, die man auch als Vektoren oder Matrizen interpretieren kann. Dadurch verliert man den Bezug zur analogen Zeitachse, die Kenntnis über die Abtastperiode ist nur noch zur richtigen Skalierung von Darstellungen bzw. zur Signalrekonstruktion notwendig. Und weil sich im Prinzip jede mathematische Formulierung mit Hilfe der numerischen Mathematik diskretisieren und in eine Matrizenform umwandeln lässt, ist sie auch zeitdiskret realisierbar. Der Vollständigkeit halber muss man aber auch feststellen, dass mathematische Formeln auch in der analogen Welt prinzipiell realisierbar wären (z.B. mit analogen Rechnern in den 70er Jahren), allerdings mit einem ungerechtfertigten P. Husar, Biosignalverarbeitung, DOI 10.1007/978-3-642-12657-4_5, © Springer-Verlag Berlin Heidelberg 2010
316
5 Digitale Filter
Aufwand. Den Übergang von der kontinuierlichen zur diskreten Zeit ermöglicht die Z-Transformation. Die Z-Transformation einer Signalsequenz x(n) ergibt sich aus (Gl. 5.1): X z
f
Z ^xn ` ¦ xn z n
(5.1)
n f
In Gl. 5.1 ist z eine komplexe Variable.
Zur Berechnung der Z-Transformation (ZT) müssen mehrere Bedingungen erfüllt werden, insbesondere die Konvergenzbedingung [1]. Dann kann man einen direkten Bezug zur FT herstellen, wobei z auf dem Einheitskreis liegt (Gl. 5.2). z z
1 ½° ¾ o X z e jZ °¿
X jZ
F ^xnTA ` ¦ xnTA e jZnT
A
(5.2)
Die ZT hat folgende wichtige Eigenschaften: Linearität (Einhaltung des Superpositionsprinzips) Z axn byn mo aX z bY z
(5.3)
Zeitverschiebung Z xn N mo z N X z
(5.4)
Frequenzverschiebung (Multiplikation mit einer Exponentialreihe) § z Z z 0n xn mo X ¨¨ © z0
· ¸ ¸ ¹
(5.5)
Zeitspiegel §1· Z x n mo X¨ ¸ ©z¹
(5.6)
Z xn y n mo X z Y z
(5.7)
Faltung
5.2 LTI-Systeme: FIR und IIR
317
Komplexe Konjugation
Z x n mo X z
(5.8)
Zum Entwurf digitaler Filter gibt es eine lange Reihe von Methoden und Algorithmen. Hier werden exemplarisch ausgewählte Methoden vorgestellt, die das grundsätzliche Vorgehen veranschaulichen sollen. Zum Studium weiterer Möglichkeiten empfiehlt sich die einschlägige Literatur.
5.2 LTI-Systeme: FIR und IIR
5.2.1 Einführung zur Impulsantwort und Filterstruktur In der digitalen Filterung kann man die Filterklassifizierung nach verschiedenen Merkmalen vornehmen. Hier werden zunächst die Merkmale realisierbare Filterstruktur und Länge der Impulsantwort behandelt. Nach der Filterstruktur unterscheidet man Filter mit Rückführung – rekursive Filter – und Filter ohne Rückführung – nichtrekursive oder transversale Filter. In Abb. 5.1 sind beide Filterstrukturen aus Sicht der Systemanalyse im zeitkontinuierlichen Bereich dargestellt. Damit wird deutlich, dass vor allem bei rekursiven Filtern auch Aspekte der Systemstabilität berücksichtigt werden müssen. Aus der Systemanalyse ist bekannt, dass eine Gewichtsfunktion (Impulsantwort) im Allgemeinen unendlich
x(t) X(Z) x(t)
g(t)
y(t)
X(Z)
G(Z)
Y(Z)
+
gv(t)
y(t)
Gv(Z)
Y(Z)
g(t) G(Z) gr(t) Gr(Z)
Abb. 5.1 Filterstrukturen ohne Rückführung (links) zur Realisierung transversaler und mit Rückführung (rechts) zur Realisierung rekursiver Filter. Es ist zu beachten, dass eine Rekursion im zeitdiskreten Bereich (Abb. 5.3) systemanalytisch einem rückgekoppelten System (rechts) entspricht
318
5 Digitale Filter
lang ist, da sie dynamische Vorgänge beschreibt, die grundsätzlich durch die eFunktion charakterisiert sind. Vor allem aus Sicht der Praktikabilität ist es jedoch oft notwendig, eine endliche Impulsantwort zu generieren. Dazu kann man vor allem in der Signalverarbeitung die Möglichkeit der Fensterung nutzen. Aus diesen Ausführungen folgt, dass die Länge einer Impulsantwort (endlich oder unendlich) von der Filterstruktur grundsätzlich nicht abhängig ist. Mit beiden Strukturen können im analogen Bereich beide Typen der Impulsantwort realisiert werden. In der praktischen digitalen Signalverarbeitung ist es jedoch sinnvoll, transversale Filter zur Realisierung von Impulsantworten endlicher Länge, rekursive Filter zur Realisierung von Impulsantworten unendlicher Länge zu verwenden. Diese Aufteilung ergibt sich aus pragmatischen Überlegungen: Eine Rekursion ist ohnehin ein unendlich wiederholbarer Vorgang, eignet sich also auch zur Realisierung von unendlichen Impulsantworten. Ein Transversalfilter besitzt keine Rückführung, hat also nur eine begrenzte zeitliche Länge zur Verfügung, eignet sich daher zur Realisierung von endlichen Impulsantworten. Im Weiteren werden des halb zwei Gruppen von Filtern behandelt – Filter mit unendlicher Impulsantwort realisierbar mit rekursiven Filtern und Filter mit endlicher Impulsantwort realisierbar mit transversalen Filtern.
5.2.2 Filter mit unendlicher Impulsantwort, IIR 5.2.2.1 Analoge und digitale Filterung – Impulsinvariante Technik Für ein zeitkontinuierliches Filter (System) mit zeitkonstanten Systemparametern (LTI, Linear Time Invariant) gilt für die Eingangs-Ausgangs-Beziehung und die Impulsantwort (Systemfunktion, Gl. 5.9) y t
xt g t ,
(5.9)
sowie im Frequenzbereich (Gl. 5.10) Y jZ
X j Z G jZ .
(5.10)
In Gl. 5.9 und 5.10 ist x(t) bzw. X(Z) das Eingangssignal, y(t) bzw. Y(Z) das Ausgangssignal und g(t) bzw. G(Z) die Impulsantwort bzw. die Übertragungsfunktion des Filters.
Am Beispiel eines Tiefpasses (Abb. 5.1) mit der Zeitkonstante W = RC = 0.2 s soll der Übergang in den zeitdiskreten Bereich und eine Entwurfsmethode digitaler Filter erläutert werden. Die Impulsantwort des Tiefpasses ist eine Exponentialfunktion nach Gl. 5.11, die man aus der Rücktransformation der Übertragungsfunktion im Frequenzbereich erhält.
5.2 LTI-Systeme: FIR und IIR
319 t
1 1 W IFT o g t e 1 jZW W
G jZ
(5.11)
Für den Übergang in den zeitdiskreten Bereich tastet man die Impulsantwort wie ein analoges Signal ab (unter Einhaltung des Abtasttheorems). Analog zur Abtastung eines beliebigen Signals kann man die abgetastete Folge als eine DiracpulsReihe formulieren, hier wegen des exponentiellen Verlaufs als eine Exponentialfolge mit p = exp(-T/W) (Gl. 5.12). g t
p0 G t pG t T p 2G t 2T ... p N G t NT
(5.12)
Überträgt man die Impulsantwort eines Tiefpasses nach Abb. 5.2 in den Frequenzbereich, so erhält man ausgehend von der Gleichung (Gl. 5.13) für die Impulsantwort den Ausdruck nach Gl. 5.14.
G jZ
F G t T
p0 1 pe
jZT
e jZT
2 jZ 2T
p e
N jZNT
... p e
(5.13) (5.14)
Entsprechend der Formel für die Summe einer geometrischen Folge kann man Gl. 5.14 für ein großes N auch folgendermaßen schreiben (Gl. 5.15): G jZ
p0
1 1 pe jZT
.
(5.15
Unter der Annahme, dass alle Voraussetzungen für die Z-Transformation erfüllt sind, kann man entsprechend der Beziehung nach Gl. 5.2 für die Übertragungsfunktion des zeitdiskreten Filters im z-Bereich schreiben (Gl. 5.16): G z
p0
1 1 pz 1
.
(5.16)
Aus Sicht der digitalen Signalverarbeitung lässt sich die Formel Gl. 5.16 bereits algorithmisch bzw. schaltungstechnisch umsetzen. Der Ausdruck z-1 bedeutet für die praktische Realisierung eine Verzögerung um eine Abtast- bzw. Taktperiode. Damit kann man den Tiefpass nach Gl. 5.11 (Abb. 5.2) direkt in den Algorithmus einer einfachen Rekursionsformel (Gl. 5.17) oder in eine Schaltung (Abb. 5.4, digitale Schaltkreise, FPGA) überführen. y0 y n 1
p 0 x0 p0 xn 1 pyn
(5.17)
320
5 Digitale Filter
5
x(t)
g(t)
y(t)
X(Z)
G(Z)
Y(Z)
4
g t
g(t)
3
1
W
e
t
W
2
R
1
C
RC = 0.2 s
0 0
0.2
0.4
t/s
0.6
0.8
1
Abb. 5.2 Ein analoges Filter als LTI-System (Linear Time Invariant). Beispiel eines Tiefpasses 1. Ordnung und seine Impulsantwort (Gewichtsfunktion)
Nun stellt sich die Frage, wie man die bisherigen Beziehungen auf ein beliebiges, allgemein formuliertes Filter anwenden kann. Ohne hier den Beweis zu liefern kann man davon ausgehen, dass jede Impulsantwort sich als eine Summe aus unendlich vielen e-Funktionen darstellen lässt. Daher kann man die Beziehung nach Gl. 5.16 für N+1 Summanden entsprechend verallgemeinern (Gl. 5.18). Gz
ki
N
¦
(5.18)
pi z 1
i 01
Für die Realisierung im z-Bereich ist eine Formulierung mit Hilfe von Produkten bzw. Quotienten notwendig, so dass die Summe nach Gl. 5.18 auf einen gemeinsamen Nenner gebracht und als Quotient zweier Polynome dargestellt wird. Dabei ist der Quotient gleich dem Verhältnis des Ausgangssignals zum Eingangssignal (Gl. 5.19). M
G z
Y z X z
¦ bi z i
i 0 N
1 ¦ a j z
(5.19) j
j 1
Die größere der beiden Ordnungen der Polynome M und N bezeichnet man als Ordnung des Filters. Durch die inverse z-Transformation der Beziehung nach Gl. 5.19 und eine Umstellung kann man den aktuellen Ausgangswert eines Filters wie folgt ausdrücken (Gl. 5.20):
5.2 LTI-Systeme: FIR und IIR
321
5 4.5 4 3.5
g(t)
3 2.5 2 1.5 1 0.5 0 0
0.1
0.2
0.3
0.4
0.5
0.6
t/s
0.7
0.8
0.9
1
Abb. 5.3 Abgetastete Impulsantwort des Tiefpasses aus Abb. 5.1. Die Abtastrate beträgt 10 sps. Die Parameter nach Gl. 5.14 betragen für diesen Tiefpass p0 = 5 und p = exp(-T/W) = 0.61
y n
N
M
i 0
j 1
¦ bi xn i ¦ a j yn j .
(5.20)
Die Rekursionsformel nach Gl. 5.20 liefert die Filterkoeffizienten bi und aj und eine Vorschrift zur Realisierung von beliebigen Filtern, die man im zeitkontinuierlichen Bereich mit Hilfe der Übertragungsfunktion G(jZ) beschreiben kann. Daraus
xn+1
p0
+
p
yn+1 yn
zͲ1
Abb. 5.4 Algorithmische oder schaltungstechnische Realisierung eines Tiefpasses nach Gl. 5.16 und 5.17. Der Block mit z-1 stellt die Verzögerung um eine Abtast-/Taktperiode dar
322
5 Digitale Filter
folgt, dass jedes Filter, das im zeitkontinuierlichen Bereich existiert, auch ein zeitdiskretes Äquivalent besitzt. Dies ist aus Sicht der Filtertheorie und -praxis eine sehr wichtige Erkenntnis: Es gibt eine direkte funktionelle Äquivalenz zwischen dem analogen und dem digitalen Bereich. Allerdings unterscheiden sich digitale Filter von den analogen durch ihre Periodifizierung im Frequenzbereich. Da mit der hier vorgestellten Methode die Impulsantwort sowohl im zeitanalogen als auch im zeitdiskreten Bereich identisch bleibt (invariant) und beim Übergang vom analogen in den diskreten Bereich lediglich abgetastet wird, bezeichnet man diese Methode als Impulsinvariante Technik.
5.2.2.2 Rekursive Filter Grundsätzlich gilt für analoge Filter, dass ihre Impulsantworten theoretisch unendlich lang sind. Da digitale IIR-Filter einen rekursiven Anteil besitzen (Gl. 5.20), ist gesichert, dass auch die zeitdiskrete Impulsantwort unendlich werden kann. Wegen der Rekursion bezeichnet man solche Filter auch als Rekursive Filter. Die direkte Struktur eines rekursiven Filters ist in Abb. 5.5 dargestellt. Diese Struktur ist übersichtlich, aber für die Realisierung ungeeignet. Zur Realisierung mit einem DSP oder einem FPGA ist die kanonische Direktform (Abb. 5.6) besser geeignet, da sie im Shiftregister47 (DSP) bzw. durch Taktung (FPGA) effektiv realisiert werden kann und in der Datenverarbeitung sehr schnell ist. Die Rekursion ist im Sinne der Systemanalyse eine Rückkopplung, so dass sie sowohl aus der Sicht der System- als auch der numerischen Stabilität untersucht und entsprechend sicher konstruiert werden muss. Während die Systemanalyse bewährte Werkzeuge einsetzt,
Y(z) rekursiver Teil
nichtrekursiver Teil X(z)
b0
z-1
X
b1
z-1 X
b2
z-1 X
bM
X
z-1
z-1
z-1
-a1 X
-a2 X
-aN X
6
Abb. 5.5 Direkte Struktur zur Realisierung eines rekursiven Filters nach Gl. 5.20
47
Schieberegister
5.2 LTI-Systeme: FIR und IIR
323
um die Parameter (Filterkoeffizienten) im Bereich der Stabilität zu berechnen (z.B. Stabilitätskriterium nach Nyquist), ist die Sicherung der numerischen Stabilität problematisch. Diese lässt sich kaum in Formeln oder Empfehlungen fassen, weil sie entscheidend von den konkreten zeitlichen und wertmäßigen Diskretisierungen sowie von den Werten der berechneten Filterkoeffizienten abhängt. Beim Entwurf digitaler rekursiver Filter ist es keine Seltenheit, dass das berechnete Filter zwar systemanalytisch stabil ist, aber in seiner wertediskreten numerischen Variante divergiert. Die Praxis lehrt, dass die numerische Stabilität am besten mit relativ wenigen Koeffizienten der Rückführung (niedrige Ordnung des Nennerpolynoms in Gl. 5.19) zu erreichen ist (siehe Übungen zum Kapitel). Rekursive IIR-Filter sind verhältnismäßig kurz (Abb. 5.6), d.h. sie kommen mit nur wenigen Koeffizienten bzw. niedrigen Ordnungen der Polynome (Gl. 5.19) aus. In der Praxis liegen die Ordnungen im Bereich N, M = 4...20. Dadurch sind sie mit den oben genannten Einschränkungen bezüglich der Stabilität auch für die Echtzeit-Verarbeitung gut geeignet. Allerdings ist der Phasenfrequenzgang der Filter im Allgemeinen nichtlinear. Bei Biosignalen ist die Linearität der Phase jedoch eine fundamentale Forderung, wie bereits im Kapitel 2.3.4 „Phasenfrequenzgang“ erörtert. Zur Veranschaulichung wurde mit derselben Zielstellung, wie in dem genannten Kapitel, eine Bandsperre mit einer Mittenfrequenz von 50 Hz konstruiert. Der Amplituden- und Phasenfrequenzgang der Bandsperre ist in Abb. 5.7 dargestellt. Der Amplitudenfrequenzgang erfüllt die gestellten Anforderungen in nahezu idealer Weise (Bandsperre zwischen 45 Hz bis 55 Hz mit 60 dB Dämpfung). Der Pha-
X(z) x bN + -aN x
z-1
x bN-1 + -aN-1x
z-1
x b1 + -a1 x
z-1
x b0 +
Y(z)
Abb. 5.6 Kanonische Direktform eines rekursiven Filters nach Gl. 5.20. Im Vergleich zur direkten Struktur nach Abb. 5.5 spart man die Hälfte der Verzögerungsglieder und einen globalen Summierer. Diese Struktur ist besonders für Realisierungen mit Schieberegistern (DSP) und mit FPGA (parallelisierbar) geeignet
324
5 Digitale Filter
1.2
gefiltertes Rechteck Originalrechteck
1
Pegelindex
0.8 0.6 0.4 0.2 0 -0.2 0
50
100
150
Zeitindex
200
250
300
Abb. 5.7 Amplituden- und Phasenfrequenzgang einer rekursiven digitalen Bandsperre zwischen 45 Hz und 55 Hz. Filtertyp IIR, elliptisch, 10. Ordnung. Die Phasensprünge ergeben sich aus der 2S-Periodizität
80
Amplitude Phase
|G| / db, 10*Phase / Grad
60 40 20 0 -20 -40 -60 -80 -100 0
20
40
60
Frequenz / Hz
80
100
120
Abb. 5.8 Zeitverlauf eines gefilterten Rechteckes. Das digitale Filter ist eine IIR-Bandsperre nach Abb. 5.7
5.2 LTI-Systeme: FIR und IIR
325
senfrequenzgang ist im Vergleich mit der analogen Sperre (Abb. 2.68) jedoch um eine Größenordnung schlechter. Selbst wenn man die Forderung nach einer linearen Phase allein auf den Durchlassbereich des Amplitudenfrequenzganges beschränkt, liefert das IIR-Filter ein inakzeptables Ergebnis. Die Bandsperre wurde mit einem Rechteck als Testsignal geprüft, das gefilterte Signal zeigt Abb. 5.8. Hier ist das typische Verhalten der IIR-Filter deutlich sichtbar: Da die Phase in der Nähe der Grenzfrequenz stark abfällt, kommt es zur entsprechend langen Verzögerung der hohen Frequenzen. Das hat zur Folge, dass impulsartige, sprungförmige und sonst hochfrequente Signalanteile auf der Zeitachse nach hinten verrutschen und die Signalform deutlich beeinträchtigen. Es gibt zwei Möglichkeiten, den ungünstigen Phasenfrequenzgang zu korrigieren. Zum einen kann man ihn mit einem inversen Phasenfrequenzgang linearisieren. Dazu konstruiert man einen Allpass, der die Funktion eines Phasenschiebers hat. Dies ist mit einem FIR-Filter realisierbar (siehe nächstes Kapitel). Die zweite Möglichkeit kann bei der Offline-Verarbeitung genutzt werden. Das aufgenommene Signal filtert man zunächst wie gewohnt in Richtung der Zeitachse und anschließend in der umgekehrten Richtung noch einmal. Entsprechend der Zeitspiegelung nach Gl. 4.21 hebt sich die Phase des Filters auf diese Weise vollständig auf und man erhält ein nullphasiges Filter (Gl. 5.21). Die Nullphasigkeit führt dazu, dass das gefilterte und das Originalsignal im Zeitbereich gegeneinander keine Verschiebung aufweisen. Der Amplitudenfrequenzgang ist dementsprechend zu multiplizieren bzw. in logarithmischer Darstellung zu addieren. y n z n
xn hn mo Y jZ DFT
X jZ H jZ
y n h n mo Z jZ Y jZ H jZ DFT
M Z jZ M X jZ M H jZ M H jZ M X jZ Z jZ
Y jZ H jZ
X jZ H jZ
(5.21)
2
In Gl. 5.21 steht * für die Faltung von zwei Vektoren, die als Zeitreihen das abgetastete Signal und die Impulsantwort des Filters repräsentieren, n ist der Zeitindex der Signalsequenz, h(n) ist die Impulsantwort eines Filters, x(n) ist das Eingangssignal, y(n) das Ausgangssignal des Filters nach der ersten Filterung, z(n) das Ausgangssignal der Filters nach der zweiten, zeitgespiegelten Filterung.
Für die Nullphasigkeit eines Filters ist es gleichgültig, ob das Signal y(n) oder die Impulsantwort des Filters h(n) auf der Zeitachse gespiegelt werden, nur muss dies durch eine eventuell notwendige zusätzliche Spiegelung des Ausgangssignals z(n) berücksichtigt werden. In der praktischen Signalverarbeitung geht man algorithmisch folgendermaßen vor:
326
5 Digitale Filter
1.
Filterung des Eingangssignals
y n
xn hn
2.
Filterung des gespiegelten Ausgangssignals
z n
3.
Spiegelung des Ausgangssignals
z n : z n
y n hn
Dieser Algorithmus ist mathematisch äquivalent zur Gl. 5.21, jedoch aus praktischen Gründen ist es einfacher, das zu filternde Signal zu spiegeln als die Impulsantwort des Filters (siehe Übungen).
5.2.3 Filter mit endlicher Impulsantwort, FIR 5.2.3.1 Grundlagen Wie in der Einführung erläutert, realisiert man FIR-Filter in der Regel mit einer transversalen Struktur. Ein Transversalfilter erhält man aus einem Rekursionsfilter durch Weglassen der Rückführung (Abb. 5.1) bzw. durch Weglassen der Rekursion (Abb. 5.5), so dass sich eine vereinfachte Struktur ergibt, die in Abb. 5.9 dargestellt ist. Dementsprechend vereinfacht sich die Gl. 5.19 auf die Beziehung nach Gl. 5.22. G z
Y z X z
M
¦ bi z i
(5.22)
i 0
Nach der z-Rücktransformation ergibt sich für den diskreten Zeitbereich als Vereinfachung der Beziehung nach Gl. 5.20 die Formulierung nach Gl. 5.23. y n
N
¦ bi xn i
(5.23)
i 0
Überführt man die Formulierung nach Gl. 5.23 in den zeitkontinuierlichen Bereich (Gl. 5.24), so wird deutlich, dass die Filterkoeffizienten mit der abgetasteten Impulsantwort identisch sind. g t b0G t b1G t T ... bN G t NT
(5.24)
Aus den Beziehungen nach Gl. 5.22 bis 5.24 ergibt sich für die Konstruktion von transversalen Filtern die folgende Konsequenz:
5.2 LTI-Systeme: FIR und IIR
327
X(z)
Y(z) z-1
b0
X
b1
z-1
z-1 X
b2
X
bM
X
6
Abb. 5.9 Struktur zur Realisierung eines transversalen FIR-Filters
Die Filterkoeffizienten eines transversalen Filters sind mit den Abtastwerten der Impulsantwort identisch. Einerseits kann man aus einer Impulsantwort direkt ein transversales Filter konstruieren. Andererseits – und das ist der wesentliche Vorteil von FIR-Filtern – kann man zu jeder beliebigen Funktion im Frequenzbereich eine Impulsantwort berechnen, die es im zeitkontinuierlichen Bereich gar nicht gibt. Die Realisierung eines transversalen Filters, welche von einer gewünschten spektralen Funktion ausgeht, stellt das folgende Beispiel dar. Ein idealer Tiefpass soll digital realisiert werden. Die Übertragungsfunktion und die Impulsantwort eines idealen Tiefpasses sind in Abb. 5.10 dargestellt. Die Impulsantwort entspricht der sinc-Funktion, die theoretisch unendlich lang ist. Um sie realisieren zu können, ist ihre Begrenzung mit einem endlichen Zeitfenster notwendig, z.B. mit einem Rechteck, einem Dreieck, dem Cosinus, usw. Ein Beispiel zur Fensterung der annähernd idealen Impulsantwort (N = 1001) mit einem Rechteck der Länge N = 11 und N = 101 zeigt Abb. 5.11. Die Verläufe des Amplitudenfrequenzgangs zeigen, dass mit der abnehmenden Länge der Impulsantwort sich die Übertragungsfunktion immer mehr vom Ideal entfernt. Dieses Beispiel demonstriert eine grundlegende Eigenschaft von Transversalfiltern: Mit der steigenden Ordnung eines transversalen Filters nähert man sich dem idealen Verlauf einer Funktion. In der Praxis sind ideale Filter jedoch gar nicht notwendig. Normalerweise verlangt man von einem Filter, dass vorgegebene Grenzen bzw. Toleranzbereiche der
328
5 Digitale Filter
Übertragungsfunktion eines idealen Tiefpasses
|G(f)|
1
0.5
Filterkoeffizienten
0 -0.5
-0.4
-0.3
-0.2
-40
-30
-20
-0.1
0
0.1
0.2
0.3
0.4
0.5
-10
0
10
20
30
40
50
relative Frequenz Impulsanwort
0.2 0.1 0 -0.1 -0.2 -50
Index von Filterkoeffizienten
Abb. 5.10 Übertragungsfunktion eines idealen Tiefpasses mit der relativen Grenzfrequenz von 0.125 (oben) und seine Impulsantwort in Form der sinc-Funktion (unten, gezoomt auf 101 von 1001 Koeffizienten)
10
N=101 N=11
Übertragung / dB
0 -10 -20 -30 -40 -50 -60 -0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
relative Frequenz
0.2
0.3
0.4
0.5
Abb. 5.11 Übertragungsfunktionen von zwei Realisierungen eines digitalen Tiefpasses, dessen Impulsantwort (N = 1001) mit einem Rechteck der Länge N = 101 und N = 11 gefenstert wurde
5.2 LTI-Systeme: FIR und IIR
329
Dämpfung und Frequenz eingehalten werden, wie bereits im Abschn. 2.3.1 erläutert wurde (Abb. 2.55). Im Allgemeinen kann mit einem FIR-Filter nahezu jede beliebige Funktion realisiert werden, wobei in der Regel der beschränkende Parameter die Filterlänge bzw. die Filterordnung ist. Für Details zum Filterentwurf wird an dieser Stelle auf die einschlägige Literatur verwiesen. 5.2.3.2 Kausalität von FIR-Filtern Während man bei den bisherigen Formeln (Gl. 5.22 bis 5.24) und Filterstrukturen (Abb. 5.9) davon ausgegangen ist, dass alle zu verarbeitenden Daten n vorliegen – man hat also die Kausalität angenommen –, wurde in dem Beispiel zur Entwurf eines idealen Tiefpasses deutlich (Abb. 5.10), dass die Impulsantwort auf der Zeitachse nullsymmetrisch (gerade) ist. Das bedeutet, dass die halbe Impulsantwort im negativen Zeitbereich liegt. Bei einer praktischen Anwendung müsste man demzufolge N/2 digitalisierte Signalwerte aus der Zukunft besitzen, was auf eine sichere Vorhersage hinaus liefe. Das ist natürlich nicht machbar, so dass Maßnahmen zur Sicherung der Kausalität folgen müssen. Eine mögliche Maßnahme könnte sein, die Impulsantwort so zu berechnen, dass sie nur für nichtnegative Zeiten verschieden von Null ist. Dies ist theoretisch machbar, aber sehr aufwändig und signalanalytisch ausgesprochen ungünstig. Die zeitlich nullsymmetrische Impulsantwort besitzt wichtige Eigenschaften: Da sie eine gerade Funktion ist, sind ihre Fourierkoeffizienten real (Spezielle Funktionen können jedoch komplexe Koeffizienten besitzen, z.B. Hilbert-Filter). Damit sie zur kausalen Filterung von Signalen eingesetzt werden kann, muss sie um die halbe Filterlänge in den positiven Zeitbereich verschoben werden (Abb. 5.12). Praktisch bedeutet dies, dass bevor x(n) Eingangssignal 1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
x
x
x
x
x
Multiplikation mit Filterkoeffizienten
1
2
3
4
5
g(m) Filterkoeffizienten
+
Summe von Produkten
1
y(n) Ausgangssignal
diskrete Faltung
y 1
5
¦ xi g i i 1
Wegen der Kausalität Verschiebung um eine halbe Filterlänge
Abb. 5.12 Verschiebung der Filterkoeffizienten (hier ihre Indizes) um eine halbe Filterlänge zur Herstellung der Kausalität. Bei einer ungeraden Filterlänge beträgt die Verschiebung genau (N1)/2 Abtastperioden (N ist die Filterordnung)
330
5 Digitale Filter
x(n) 1
2
3
4
5
6
7
8
Eingangssignal
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
g(m) Filterkoeffizienten
5
y 20
¦ x19 i g i
Ausgangssignal
x
x
x
x
x
1
2
3
4
5
+
i 1
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
Abb. 5.13 Durch die diskrete Faltung ist das Ausgangssignal bei ungeraden Filterlängen um N-1 Werte kürzer (N ist die Filterordnung, dargestellt sind die Indizes)
am Ausgang eines FIR-Filters der erste Wert erscheint, müssen zunächst (N-1)/2 Werte in seinen Eingang einlaufen (N ist die ungerade Filterordnung). Derselbe Effekt tritt am Ende des Eingangssignals auf: Weil (N-1)/2 Werte aus der „Zukunft“ benötigt werden, endet das Ausgangssignal eine halbe Filterlänge früher (Abb. 5.13). Daraus folgt, dass das gefilterte Signal um N-1 Werte kürzer ist, als das Original. Dies ist für die Analyse unpraktikabel, weil sich dadurch die Signallängen ständig ändern würden und es zu unkontrollierten Zeitverschiebungen kommen kann (der Index 1 des Ausgangssignals in Abb. 5.12 tritt zeitlich um die halbe Filterlänge später auf als der Index 1 des Eingangssignals, nämlich beim Index 3 des Eingangssignals). Dieser Mangel lässt sich dadurch abstellen, dass das Eingangssignal vorab nach links und nach rechts mit Nullen entsprechend der halben Filterlänge erweitert wird, so dass das Ausgangssignal dann exakt dieselbe Länge besitzt wie das Eingangssignal. Man muss jedoch berücksichtigen, dass auch danach die Zeitverschiebung des Ausgangssignals um eine halbe Filterlänge erhalten bleibt. 5.2.3.3 Phasenfrequenzgang von FIR-Filtern Wie im vorigen Abschnitt gezeigt wurde, beträgt die Zeitverschiebung zwischen dem Ausgangssignal und dem Eingangssignal eines FIR-Filters mit einer zeitlich nullsymmetrischen Impulsantwort die halbe Filterlänge. Dieser Fakt ist von den im Signal enthaltenen Frequenzen unabhängig, die Gruppenlaufzeit ist also konstant und entspricht der halben Filterlänge (Gl. 5.25). d Z
N 1 TA 2
(5.25)
5.2 LTI-Systeme: FIR und IIR
331
Für den Phasenfrequenzgang gilt dann entsprechend (Gl. 2.26): Z
M Z ³ d Z dZ f
N 1 T AZ 2
(5.26)
In Gl. 5.25. und 5.26 ist N die ungerade Filterlänge, TA die Abtastperiode, Z die Kreisfrequenz.
Die Beziehung nach Gl. 5.26 zeigt, dass der Phasenfrequenzgang eines FIR-Filters mit einer zeitlich nullsymmetrischen Impulsantwort immer linear ist. Dies gilt unabhängig vom Amplitudenfrequenzgang. Dieser Fakt stellt den wesentlichsten Vorteil gegenüber den IIR-Filtern dar. Bedauerlicherweise findet man für FIRFilter in der zeitanalogen Signalverarbeitung (analoge Elektronik) keine Funktionsäquivalente, wie das bei den IIR-Filtern der Fall war. Man muss auch damit rechnen, dass die Filterlängen der FIR-Filter – vor allem bei hohen Anforderungen an den Amplitudenfrequenzgang – um zwei bis drei Dekaden größer werden können, wie die Ordnungen vergleichbarer IIR-Filter. Dies kann vor allem in der Echtzeitverarbeitung (Herzschrittmacher, Neurochirurgie) ein ernstes Problem werden. Wie bereits erwähnt, lassen sich mit FIR-Filtern nahezu alle beliebigen Funktionen realisieren, die sich mit Methoden der numerischen Mathematik in die Matrixform überführen lassen. Aus Sicht des Phasenfrequenzganges ist insbesondere die Möglichkeit interessant, einen Allpass bzw. einen Phasenschieber zu konstruieren. Für den Allpass gelten folgende Konstruktionsvorgaben (Gl. 5.27): G jZ
G jZ e jM Z
G jZ
1 M Z
f Z
(5.27)
Entsprechend der Beziehung nach Gl. 5.27 besteht das Ziel darin, ein FIR-Filter zu konstruieren, dessen Amplitudenfrequenzgang gleich 1 ist und der einen vorgegebenen Phasenfrequenzgang I(Z) besitzt. Soll der Allpass zur Korrektur der nichtlinearen Phase eines IIR-Filters eingesetzt werden, so setzt man als Forderung die invertierte Phase des IIR-Filters ein. Ein Beispiel zur Phasenkorrektur zeigt Abb. 5.14. Es soll der Phasenfrequenzgang der in Abb. 5.7 dargestellten Bandsperre korrigiert werden. Die Impulsantwort der Bandsperre (Abb. 5.14 oben links) ist kausal, jedoch die Gruppenlaufzeit (oben rechts) ist im Durchlassbereich in der Nähe der Grenzfrequenzen stark abfallend (Die Spitzen der Gruppenlaufzeiten im Sperrbereich entstehen durch numerische Rundung und sind real nicht vorhanden). Zur Konstruktion des Phasenschiebers wurde die Phase der Bandsperre invertiert und nach Gl. 5.27 die Impulsantwort des Allpasses (Mitte links) sowie die Gruppenlaufzeit (Mitte rechts) berechnet (Gl. 5.28). In dieser Darstellung wurde die halbe
332
5 Digitale Filter
Filterlänge des Allpasses noch nicht berücksichtigt, daher ist die Gruppenlaufzeit positiv. Die Bandsperre und der Allpass sind in Reihe geschaltet, so dass die resultierende Impulsantwort sich durch Faltung ergibt (Abb. 5.14, unten links, gl. 5.29). Aus dieser wird die resultierende Gruppenlaufzeit berechnet (Abb. 5.14, unten rechts, Gl. 5.30). Zu beachten ist, dass weder die Impulsantwort des Allpasses noch die Impulsantwort der Bandsperre symmetrisch sind, die gesamte Impulsantwort jedoch Symmetrie aufweist. Die resultierende Gruppenlaufzeit ist konstant (ohne Berücksichtigung der Laufzeit des Allpasses sogar nullwertig).
IIR-Bandsperre
Impulsantwort / Koeffizienten
Gruppenlaufzeit / Abtastperiode
0.6
0
0.4
-0.2 -0.4
0.2
-0.6
0
-0.8
-0.2 0
50
100
Allpass
0.2
0.3
0.4
0.1
0.2
0.3
0.4
0.8
0.4
0.6
0.2
0.4
0
0.2
-0.2
0 0
50
0 0.1
0.6 Gesamt
0.1
1
0.6
-50
-1 0
0.05
0.4 0.2
0
0
-0.05
-0.2 -50
0 Zeitindex
50
-0.1 0
0.1
0.2 0.3 0.4 relative Frequenz
Abb. 5.14 Impulsantworten (linke Spalte) und Gruppenlaufzeiten (rechte Spalte) einer IIRBandsperre (obere Zeile, s. Abb. 5.7), eines FIR-Allpasses bzw. eines Phasenschiebers (mittlere Zeile) und Gesamtverhalten der beiden hintereinander geschalteten Filter (untere Zeile). Die Störimpulse in der Darstellung der Gruppenlaufzeit (rechte Spalte) sind rechentechnisch bedingt und existieren in der Realität nicht
5.3 LTV-Systeme: zeitvariable und adaptive Filter
G BS k o G AP k
333
1, M AP k M BS k
(5.28)
In Gl. 5.28 ist k der Index der diskreten Frequenz der DFT, BS die Bandsperre, AP der Allpass. g Gesamt n
g BS n g AP n
(5.29)
In Gl. 5.29 ist g(n) die Impulsantwort, BS die Bandsperre, AP der Allpass. d Gesamt k
'M Gesamt k 'k
d BS k d AP k konst
(5.30)
In Gl. 5.30 ist d(k) dieGruppenlaufzeit, BS die Bandsperre, AP der Allpass.
Der Allpass in diesem Beispiel benötigt für die Phasenkorrektur eine Filterlänge von N = 500…1000. Hier wird die Problematik der Korrektur deutlich: Für den gewünschten Amplitudenfrequenzgang benötigt man für ein IIR-Filter der Ordnung 10, für die Phasenkorrektur ein FIR-Filter mit der hundertfachen Länge. Die Konsequenz aus diesem Vergleich wäre, dass man gleich eine FIR-Bandsperre konstruieren kann, die beide Forderungen erfüllt und vergleichbar lang ist.
5.3 LTV-Systeme: zeitvariable und adaptive Filter
5.3.1 Grundlagen der zeitvariablen Filterung Im Unterschied zu den technischen Bereichen (Nachrichtentechnik, Telekommunikation, Maschinenbau, Ingenieurwissenschaften), in den man zumindest in einem überschaubaren Zeitbereich von stationären48 Signalen ausgehen kann, sind Biosignale extrem dynamisch. In diesem Abschnitt wird die Signaldynamik hinsichtlich des zeitlich veränderlichen Spektrums behandelt. Wie bereits im Abschn. 2.1 „Eigenschaften von Signalen und Störungen“ erläutert, ist es für die Trennung des gewünschten Biosignals von den äußeren (technischen) und inneren (körpereigenen Biosignalen) Störungen notwendig, mindestens einen Teil der beteiligten Komponenten komplett zu kennen. Da man die Biosignale meistens als unbekannt annehmen muss, funktioniert dieser Ansatz nur bei periodischen bzw. bekannten Störsignalen. Sind beide Klassen – gewünschte und störende Signale – veränderlich bzw. spektral dynamisch, reichen die Methoden der LTI49-Analyse nicht mehr 48 49
Stationär bedeutet, dass die Signalparameter zeitlich (im betrachteten Intervall) konstant sind. LTI – Linear Time Invariant, Analyse mit linearen zeitkonstanten Systemen
334
5 Digitale Filter
aus. In diesem Fall benötigt man ein Filter, dessen Spektralcharakteristik sich entsprechend den Signaleigenschaften ändert. Die Übertragungsfunktion eines solchen Filters im kontinuierlichen Bereich ist daher entsprechend der Formulierung nach Gl. 5.31 zeitvariabel (Übergang von einem LTI zu einem LTV-System). G Z o G Z , t g W o g W , t
(5.31)
Das Ausgangssignal eines LTV-Filters ergibt sich dann aus (Gl. 5.32) W
y t
xt g W , t
f
³ xt W g W , t dW .
(5.32)
f
Da solche Filter nur im diskreten Zeitbereich praktikabel sind, benötigt man dementsprechend die diskrete Variante der Formulierung nach Gl. 5.32 zur Berechnung des Ausgangssignals (Gl. 5.33). y n
( M 1) / 2
¦ xn m g ( M 1) / 2 m 1, n
(5.33)
m ( M 1) / 2
Die Beziehung nach Gl. 5.33 lässt sich vereinfacht in Matrizenform ausdrücken (Gl. 5.34). y
GT x
(5.34)
In Gl. 5.34 sind x und y Spaltenvektoren, G ist die Matrix der diskreten zeitvariablen Impulsantworten (in Spalten).
Zur Berechnung der Impulsantworten g(n,m) gibt es mehrere Möglichkeiten. Man kann von einem bekannten Signal oder einer bekannten Störung ausgehen und für diese an Hand einer Maske (ROI, Region Of Interest) die zeitveränderliche Übertragungsfunktion ermitteln. Diesen Ansatz verfolgt der Abschnitt „Zeitvariable Filter“. Man kann aber auch – vor allem in der Echtzeitverarbeitung – die Übertragungsfunktion den sich dynamisch verändernden Signaleigenschaften anpassen, wie im Abschnitt „Adaptive Filter“ beschrieben.
5.3.2 Zeitvariable Filter Der Ansatz zur Trennung von gewünschten und unerwünschten Signalkomponenten beruht darauf, dass man sie in der Zeit-Frequenz-Ebene durch Vorgabe einer
5.3 LTV-Systeme: zeitvariable und adaptive Filter
335
ROI50 abgrenzen kann. Das Vorgehen wird am folgenden Beispiel verdeutlicht. Mit synthetischen Daten wurde eine realistische Situation aus der objektiven Funktionsdiagnostik des Gehörs simuliert (Abb. 5.15). Das akustische System wird mit einem linearen Chirp (harmonischer Ton mit linear ansteigender Frequenz, Abb. 5.15) stimuliert, wobei die AEP (akustisch evozierte Potentiale) aus dem spontanen EEG gewonnen und ausgewertet werden (hyperbolischer Chirp in Abb. 5.15). Wenn sich der Lautsprecher sehr nah am Gehörgang befindet, kann der lineare Chirp in das EEG-Aufnahmesystem einstreuen und man erhält eine Mischung aus beiden Chirps, wie in Abb. 5.15 dargestellt. Man kann nun auf beliebige Weise ROI so vorgeben, dass die gewünschten Signalkomponenten innerhalb der ROIs und die unerwünschten Signalkomponenten außerhalb der ROIs liegen. Die einfachste (aber signalanalytisch nicht unbedingt die optimale) Herangehensweise besteht darin, eine binäre Maske so zu setzen, dass die gewünschten Signalanteile (hyperbolischer Chirp) mit einer Eins, die unerwünschten Signalanteile (linearer Chirp) mit einer Null bewertet werden. Eine solche Maske für diesen Fall ist in Abb. 5.16 dargestellt (helle Felder entsprechen einer Gewichtung mit 1.0, dunkle Felder mit einer Gewichtung mit 0.0). Ausgehend von einem additiven Signalmodell kann man die Maskierung im Zeit-Frequenz-Bereich wie folgt formulieren (Gl. 5.35). Aus der Darstellung in Abb. 5.16 folgt, dass es sich bei dieser einfachen Maskierung um zwei Grundfilter handelt: Zwischen den Zeitindizes 1 bis 80 liegt ein Hochpass mit einer Grenzfrequenz von fgHP = 0.11 und zwischen den Zeitindizes 81 bis 256 liegt ein Tiefpass mit einer Grenzfrequenz von fgTP = 0.13. Das Ergebnis der Maskierung in der Zeit-Frequenz-Ebene zeigt Abb. 5.17. x
sn
GT s
s
GT n
0
(5.35)
Die Matrix der diskreten Impulsantworten G(m,n) erhält man aus der ZeitFrequenz-Ebene durch die inverse DFT der ROIs (Gl. 5.36). g m, n IDFTk G k , n
(5.36)
In Gl. 5.36 ist G(k,n) die binäre Maske in der Zeit-Frequenz-Ebene mit der diskreten Frequenz k und dem Zeitindex n, G(m,n) die Matrix den diskreten Impulsantworten (spaltenweise) mit dem Verschiebungszeitindex m und dem Zeitindex n.
Die nach Gl. 5.36 berechnete Matrix der Impulsantworten kann in den Berechnungsformeln nach Gl. 5.33 bzw. 5.34 direkt eingesetzt werden. Einen Ausschnitt aus der Matrix der Impulsantworten zeigt Abb. 5.18.
50
Region of Interest
336
5 Digitale Filter
0.4
relative Frequenz
0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4 -0.5 0
50
100
150
200
Zeitindex
250
Abb. 5.15 Linearer und hyperbolischer Chirp in der Zeit-Frequenz-Ebene
0.4
relative Frequenz
0.3
ROI
0.2 0.1
ROI
0 -0.1 -0.2 -0.3
ROI
-0.4 -0.5 0
50
100
150
Zeitindex
200
Abb. 5.16 Maskierung der gewünschten Signalkomponenten als ROI
250
5.3 LTV-Systeme: zeitvariable und adaptive Filter
337
0.4
relative Frequenz
0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4 -0.5 0
50
100
150
200
Zeitindex
250
Abb. 5.17 Zeit-Frequenz-Verteilung des simulierten Signals aus Abb. 5.15 nach der Maskierung mit binären ROIs aus Abb. 5.16
Impulsantwort h(n,m)
1
0.5
0
-0.5 30 20 10
Zeitindex n
0
0
10
20
30
40
50
Verschiebungsindex m
Abb. 5.18 Impulsantworten der Maske aus Abb. 5.16 an der Übergangsstelle vom Hochpass zum Tiefpass (Zeitindex zwischen 65 und 85). Dargestellt sind +/- 20 Koeffizienten um die Mitte der Impulsantworten
338
5 Digitale Filter
Aus den bisherigen Ausführungen folgt, dass zur Anwendung eines LTV-Filters mindestens eine der Signalkomponenten bekannt und in ihrer Form weitgehend stabil sein muss. Für einige Biosignale (evozierte Potentiale der sensorischen und motorischen Systeme, Alpha-Wellen im EEG, Normal-EKG, Atmung) und viele Störungen (Stimulationssignale der Funktionsdiagnostik, technische Störungen) trifft diese Annahme zu. Damit bieten die LTV-Filter für die Trennung gewünschter und unerwünschter Signalanteile eine wirksame Alternative zu LTI-Filtern. In der praktischen Signalanalyse muss man einige Besonderheiten der LTVFilterung berücksichtigt (s. Übungen). Zum einen dürfen die ROIs bzw. die Masken nicht zu schmalbandig sein, sondern nach Möglichkeit ein breites Feld der Zeit-Frequenz-Ebene bedecken. Zu schmale LTV-Filter würden dazu führen, dass man mit ihnen selbst aus dem weißen Rauschen gewünschte Signalkomponenten generieren würde, obwohl in der Realität gar keine vorhanden wären. Weiterhin würde eine zu enge ROI dazu führen, dass gewünschte Komponenten der Biosignale, die natürlichen, relativ starken Schwankungen unterliegen, verloren gehen könnten. Aus diesen Überlegungen folgt für den Maskenentwurf, dass die ROIs zwar das gewünschte Signal erfassen und von den unerwünschten Anteilen trennen sollen, dennoch (wie in Abb. 5.16 dargestellt) möglichst breit und offen in der Zeit-Frequenz-Ebene bleiben müssen. Die praktische Anwendung der LTV-Filter geht über diesen Rahmen hinaus, daher sei bei Interesse auf die Arbeiten in [3] verwiesen.
5.3.3 Adaptive Filter 5.3.3.1 Theoretische Grundlagen der adaptiven Filterung Bei vielen Fragestellungen der Biosignalanalyse ist das gesuchte Signal bzw. die zu beseitigende Störung vorab nicht bekannt, so dass eine Festlegung von ROIs nach Gl. 5.35 gar nicht möglich ist. Da sich die Eigenschaften von Signalen und Störungen in solchen Fällen ändern, ist eine Adaption des Filters (Gl. 5.34) an die aktuellen Signalparameter notwendig. Für eine Adaption benötigt man eine Zielfunktion (Sollwert, Modellfunktion, desired function), auf die sich das Filter adaptieren soll. Zur Beurteilung der Güte einer Adaption (Restfehler, Adaptionsgeschwindigkeit) benötigt mein einen Indikator, in der Signalverarbeitung ist dies meistens der mittlere quadratische Fehler (mse, mean squared error). Im Folgenden geht man davon aus, dass als Filterstruktur ein transversales Filter dienen soll. Die Systemstruktur eines adaptiven Filters ist in Abb. 5.19 dargestellt. Diese Systemstruktur gleicht einem Regelkreis, allerdings ist der methodische Systemansatz ein anderer: In beiden Fällen ist eine Zielfunktion (Sollwert) d(n) vorgegeben, mit der der Filterausgang y(n) (Istwert) ein Fehlersignal e(n) bildet, das minimiert werden soll. Während in der Regelungstheorie diese Signale als dynamische Prozesse behandelt werden, nimmt man sie in der Signalverarbeitung zunächst als sta-
5.3 LTV-Systeme: zeitvariable und adaptive Filter
xn
wn m
339
y n
L
¦ xn m w m
m L
n
'wm Adaptionsalgorithmus
en d n y n
+
+
d n
Abb. 5.19 Systemstruktur eines adaptiven Filters mit einem transversalen Filter w(m). Das Eingangssignal x(n) enthält Anteile des Modellsignals d(n) und additive Störungen
tionäre Prozesse an. Dies vereinfacht die Herleitung der Algorithmen erheblich, führt jedoch zu Problemen bei nichtstationären Prozessen, wie später gezeigt wird. Unter der Annahme, dass das Transversalfilter w - und damit das Analysefenster eine Länge von M = 2L+1 besitzt, gilt für das Ausgangssignal (Gl. 5.37): y n wn L x n L ... wn L x n L xT w n
(5.37)
In Gl. 5.37 ist wn Vektor der Filterkoeffizienten der Länge 2L+1 zum Zeitpunkt n, x Vektor der Eingangsdaten an der Stelle n (die Vektoren sind Spaltenvektoren).
Für das zu minimierende Fehlersignal gilt (Gl. 5.38): en d n y n .
(5.38)
Der Einfachheit der Formeln wegen wird im Folgenden der Zeitindex n weggelassen. Weiterhin gilt für den Fehler (Gl. 5.39): e
dy
d xT w .
(5.39)
Anmerkung: In der Signalverarbeitung braucht man zur Entwicklung von Algorithmen und zur numerischen Berechnung keine physikalischen Einheiten. Daher interpretiert man Signale in ihrer ersten Potenz als Spannungen bzw. Ströme und
340
5 Digitale Filter
in ihrer zweiten Potenz als Leistung oder nach einer zeitlichen Summation als Energie. Man muss davon ausgehen, dass zumindest die Störungen in den Biosignalen stochastische Prozesse sind (s. Abschn. „Stochastische Prozesse“), so dass der Fehler (ohne Einschränkung der Allgemeinheit) als ein Nullmittelsignal angenommen werden kann. Deswegen würde es nicht ausreichen, den Fehler als solchen zu minimieren, da er beide Polaritäten annehmen kann und im Mittel ohnehin bereits nullwertig ist. Als Maß für die Adaptionsgüte wird daher das Fehlerquadrat herangezogen, das die momentane Signalleistung repräsentiert (Gl. 5.40). e2
d 2 2d xT w w T xxT w
(5.40)
Die momentane Signalleistung des Fehlers nach Gl. 5.40 ist auf Grund des stochastischen Charakters der Störungen im Einganssignal x(n) ebenfalls eine stochastische Größe. Um eine sichere Konvergenz der Fehlerleistung auf ein Minimum zu gewährleisten, ist es notwendig, den mittleren quadratischen Fehler mse zu ermitteln. Dazu führt man formal den Erwartungsoperator E{.} ein (Gl. 5.41). Der Erwartungsoperator wird in der numerischen Berechnung durch den arithmetischen Mittelwert (entlang der Zeitachse) ersetzt (s. Abschn. „Stochastische Prozesse“). F
^ ` E^d ` 2E^d x `w w E^x x `w
E e2
2
T
T
T
(5.41)
Ausgehend vom Produkt der Modellfunktion d(n) und des Eingangsdatenvektors xn kann man den Erwartungswert des Vektors dxT als Kreuzkorrelation interpretieren (Gl. 5.42).
p
E^d n x n `
d n xo,n ½ ° ° ° ° E® ¾ ° ° °¯d n x 2 L ,n °¿
(5.42)
Äquivalent dazu interpretiert man den dritten Term in Gl. 5.41 als Autokorrelation (Gl. 5.43).
R
^
E x n xTn
`
x0 , n x0 , n ° ° x1, n x0, n ° E® ° ° °¯ x2 L, n x0, n
x0, n x 2 L , n ½ ° ° ° ¾ ° ° x2 L, n x2 L, n °¿
x0, n x1, n x1, n x1, n
(5.43)
5.3 LTV-Systeme: zeitvariable und adaptive Filter
341
Mit Hilfe der Korrelationsmatrizen kann man das Fehlerfunktional wie folgt vereinfacht ausdrücken (Gl. 5.44): F
^ ` E^d ` 2pw
E e2
2
T
w T Rw
(5.44)
Das Fehlerfunktional F nach Gl. 5.44 soll minimiert werden. Daher setzt man alle partiellen Ableitungen des Fehlerfunktionals nach den Filterkoeffizienten gleich Null (Gl. 5.45). wF w wwi
2p 2Rw opt
0
(5.45)
Aus der Beziehung nach Gl. 5.45 ergibt sich die Bedingung für den minimalen mse (Gl. 5.46) und die optimalen Filterkoeffizienten.
w opt
R 1 p
(5.46)
Ein Filter, dessen Koeffizienten die Bedingung nach Gl. 5.46 erfüllen, bezeichnet man als Wiener-Filter oder als Optimalfilter. Mit Hilfe der Wiener-Hopf-Formel erhält man mit Hilfe der spektralen Leistungsdichten eine äquivalente Formulierung im Spektralbereich (Gl. 5.47). Wf
S xd f S xx f
(5.47)
Welche der beiden Formeln nach Gl. 5.46 bzw. Gl. 5.47 zur Anwendung kommt, hängt von der konkreten Fragestellung ab. Allerdings sind beide Formeln für den praktischen Einsatz ungeeignet. Sowohl zur Berechnung der Korrelationen (Gl. 5.46), als auch zur Berechnung der spektralen Leistungsdichten (Gl. 5.47) benötigt man ein Analysefenster mit einer festen und vorab festgelegten Länge. Daher sind diese beiden Alternativen nur in Offline-Analysen einsetzbar, bei denen die Daten statisch vorliegen. Aber auch unter dem Gesichtspunkt der bei Biosignalen nicht erfüllten Forderung nach Stationarität zur Berechnung der Korrelationen bzw. der Leistungsdichten sind die beiden Lösungsansätze nicht praktikabel. Man benötigt einen Ansatz, mit dem es möglich ist, die Filterkoeffizienten w den sich verändernden Signaleigenschaften anzupassen. Eine Möglichkeit bietet das Gradientenverfahren [2].
5.3.3.2 Gradientenverfahren, LMS-Algorithmus Den Gradienten in einem Punkt w0 an der mehrdimensionalen Fehlerparabel (Abb. 5.20) kann man direkt aus Gl. 5.45 ermitteln (Gl. 5.48):
342
5 Digitale Filter
^ `
0
wE e 2 ½ ° ° °° ww1 °° ® ¾ ° wE e 2 ° ° ° °¯ ww2 L 1 ¿°
(5.48)
^ `
Mit dem Gradienten ist das Problem einer hinreichenden Länge des Analysefensters zur Berechnung des Erwartungswertes (Mittelwert) allerdings noch nicht gelöst. An dieser Stelle macht man die folgende Überlegung: Unter der Annahme der Stationarität des Fehlersignals e(n) kann man den aktuellen Momentanwert der Fehlerleistung e2(n) als Schätzung des Gradienten interpretieren (Gl. 5.49).
ˆ 0
we 2 ½ ° ° °° ww1 °° ® ¾ ° we 2 ° ° ° ¯° ww2 L 1 ¿°
we ½ ° ° °° ww1 °° 2e® ¾ ° we ° ° ° °¯ ww2 L 1 °¿
2ex
(5.49)
Entsprechend der Methode des steilsten Anstiegs nähert man sich iterativ dem Fehlerminimum durch die folgende Rekursion (Gl. 5.50).
Abb. 5.20 Fehlerparabel für zwei Filterkoeffizienten (w2 = -0.2, w1 = 0.4)
5.3 LTV-Systeme: zeitvariable und adaptive Filter
343
w n P n
w n 1
(5.50)
In Gl. 5.50 ist P die Adaptionskonstante, die die Iterationsgeschwindigkeit und die Restvarianz des Fehlers bestimmt. Für den Gradienten in Gl. 5.50 setzt man seine Schätzung aus Gl. 5.49 ein (Gl. 5.51). w n 1
w n 2 Pen xn
(5.51)
Die Rekursion nach Gl. 5.51 ist als Widrow-Hoff-LMS51-Algorithmus bekannt und ist sehr einfach auch in Echtzeit realisierbar. Da die Rekursion systemanalytisch eine Gegenkopplung darstellt, ist eine Stabilitätsanalyse notwendig, aus der sich die folgende Konvergenz- und Stabilitätsbedingung ergibt (Gl. 5.52): 0P
1
(5.52)
Omax
In Gl. 5.52 ist Omax der größte Eigenwert der Autokorrelationsmatrix R. Nach der Gl. 5.52 ist die Stabilitätsbedingung zwar exakt vorgegeben, jedoch die Matrix R steht der Rekursion nicht zur Verfügung. Es lässt sich zeigen, dass die folgende Beziehung gilt (Gl. 5.53). n L
OR
Sp R n 1
¦ x 2 n
n L
2L 1
(5.53)
In Gl. 5.53 ist Sp(R) die Spur der Autokorrelationsmatrix R (Summe der Elemente auf der Hauptdiagonale), x(n) das Eingangssignal, 2L+1 die Länge des Transversalfilters w sowie des Eingangsvektors x an der Stelle n (x = {x(n-L),…, x(n+L)}), OR ist die Obergrenze für die Adaptionskonstante entsprechend der mittleren Leistung des Eingangssignals.
Der Eingangsvektor x steht der Rekursion in Echtzeit zur Verfügung, so dass man in jedem Iterationsschritt die Stabilitätsbedingung prüfen bzw. die Adaptionskonstante neu setzen kann (Gl. 5.54). 0P
1
OR
(5.54)
Es lässt sich zeigen, dass OR > Omax, so dass die Stabilitätsbedingung nach Gl. 5.52 auch ohne die Berechnung der Autokorrelationsmatrix R sicher eingehalten werden kann. Für die praktische Analyse ist es sinnvoll, die obere Grenze für die A51
LMS – Least Mean Squares, Methode der kleinsten Quadrate
344
5 Digitale Filter
daptionskonstante zu normieren, damit man sie vom aktuellen Signal unabhängig ist (Gl. 5.55). 0 P N 1, P
P N OR
(5.55)
Ein LMS-Algorithmus mit einer normierten Adaptionskonstante wird auch als NLMS52-Algorithmus bezeichnet (Normed Least Mean Squares). Für die Adaptionskonstante P1 kann man keinen exakten Wert vorgeben, sondern nur qualitative Zusammenhänge darstellen. Die Adaptionskonstante hat einen direkt proportionalen Einfluss auf die die Adaptionsgeschwindigkeit und auf die Restvarianz des Fehlers. Der LMS-Algorithmus konvergiert zwar gegen den minimalen quadratischen Fehler, ist aber nicht konsistent. Das liegt daran, dass in der Nähe des Fehlerminimums (globales Minimum der 2L+1-dimensionalen Parabel) der Gradient sehr klein wird, so dass er noch stochastischen Schwankungen folgt. Die Funktionsweise eines LMS-Filters ist im folgenden Beispiel erläutert. Simuliert wurde ein Eingangssignal x(n) der Länge LN = 1000 als weißes, normalverteiltes Rauschen, also ein idealer, stationärer, stochastischer Prozess im Sinne der Statistik zweiter Ordnung. Das bedeutet, dass die Autokorrelationsmatrix R eine Einheitsmatrix ist (Gl. 5.56). xn n
N 0,1 ½° ¾R °¿ S xx f 1 1..1000
I
(5.56)
Das Eingangssignal x wurde mit einem Filter wx = (-0.2, 0.4, -0.2) gefiltert und dem Adaptionsalgorithmus als Modellsignal zugeführt. Dieses Filter hat einen Hochpasscharakter (Abb. 5.21). Die Anfangsbedingung für die Filterkoeffizienten ist für die Iteration unkritisch und daher beliebig (hier wstart = (0, 0)), da das Fehlerfunktional ein einziges Minimum besitzt. In Abhängigkeit von der Adaptionskonstante braucht das LMS-Filter eine unterschiedliche Anzahl von Iterationsschritten, um das Fehlerminimum zu erreichen (Abb. 5.22). Grundsätzlich gilt, dass eine höhere Adaptionskonstante das Filter schneller adaptieren lässt, dies jedoch auf Kosten deutlich höherer Schwankungen, die auch in der Nähe des globalen Minimums erhalten bleiben (Abb. 5.23). In diesem Beispiel sind beide Signale des adaptiven Filters stationär, so dass man die reale Adaptionszeit relativ genau ermitteln kann. Diese Erfahrungswerte können zur Konstruktion von adaptiven Filtern für Biosignale genutzt werden, falls die immer vorhandenen Instationaritäten herausgefiltert bzw. unterdrückt werden sollen (bspw. R-Zacken im EKG von einer Netzstörung trennen). Die Darstellung in Abb. 5.23 zeigt, dass die ursprünglichen Filterkoeffizienten (0.4, -0.2) mit dem Adaptionsalgorithmus perfekt erreicht werden. Wegen der 52
NLMS – Normed Least Mean Squares
5.3 LTV-Systeme: zeitvariable und adaptive Filter
345
x / dB
10 0 -10 -0.5
-0.4
-0.3
-0.2
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4
0.5
-0.1
0
0.1
0.2
0.3
0.4
0.5
d / dB
10 0 -10 -0.5
relative Frequenz
Abb. 5.21 Spektrum des Eingangssignals x (oben) und des Modellsignals d (unten) nach einer Filterung mit w = (-0.2, 0.4, -0.2) 0.6 0.4
w2
0.2 0 -0.2 -0.4 -0.6 -0.2
0
0.2
0.4
w1
0.6
0.8
1
Abb. 5.22 Iteration der Filterkoeffizienten w vom Startpunkt wstart = (0, 0) zum Fehlerminimum wmin = (0.4, -0.2) im Konturplot der Fehlerparabel aus Abb. 5.20. Dargestellt sind die ersten 500 Rekursionsschritte, die normierte Adaptionskonstante betrug PN = 0.02
5 Digitale Filter
w, mu=0.005
346
0.4 0.2 -0.2 -0.4 0
w, mu=0.02
w1 w2
0
200
400
600
800
1000
0.4 0.2
w1 w2
0 -0.2 -0.4 0
200
400
600
Anzahl Iterationsschritte
800
1000
Abb. 5.23 Adaption der Filterkoeffizienten aus Abb. 5.22 bei einer normierten Adaptionskonstante von P N= 0.005 (oben) und P N = 0.02 (unten). Bei der größeren Adaptionskonstante (unten) benötigt man für die Iteration wesentlich weniger Schritte als bei der niedrigeren Adaptionskonstante (oben), allerdings sind auch die Schwankungen wesentlich höher
Darstellung wurde der Adaptionsverlauf nur für zwei Koeffizienten dargestellt. Dies ist auch unproblematisch, da nach abgeschlossener Adaption der erste und der dritte Koeffizient identisch sind, wie beim Originalfilter. Allerdings muss man sich die Frage stellen, warum ein adaptives Filter verwendet werden soll, wenn das Modellsignal d(n) bzw. die Filterkoeffizienten bereits vor der Filterung bekannt sind. Die Antwort auf diese Frage ist: Das Optimalfilter ist in seiner klassischen Form praktisch nicht anwendbar. Es gibt jedoch signalanalytische und systemstrukturelle Varianten und Ergänzungen, mit den Optimalfilter in der Systemidentifikation, Parameterschätzung, Störungsunterdrückung oder Optimierung Anwendung finden.
5.3.3.3 Adaptive Störungsunterdrückung, ANC Geht man von der Basisaufgabe eines Filters aus, gewünschte und störende Signalanteile voneinander zu trennen, so ist die Kenntnis mindestens eines der Anteile notwendig. Bei Biosignalen kann man nicht davon ausgehen, dass der
5.3 LTV-Systeme: zeitvariable und adaptive Filter
347
gewünschte Anteil vorab bekannt ist. In vielen Fällen kennt man jedoch die Störung, die keine Anteile des Biosignals enthält. Daher kann man den Lösungsansatz des Optimalfilters, ein bekanntes Signal aus einem Gemisch mit Störungen herauszufiltern, umändern. Der neue Ansatz besteht darin, eine bekannte Störung zu unterdrücken, damit nach der Filterung nur das gewünschte, aber unbekannte, Signal übrig bleibt. An dieser Stelle soll die Funktionsweise eines Optimalfilters im Sinne der Statistik ausführlicher erläutert werden (s. Abb. 5.19). Wenn man davon ausgeht, dass die Adaption abgeschlossen ist, so entsprechen die Filterkoeffizienten w einem Wiener-Filter (Gl. 5.46), das Optimum im Sinne einer linearen Trennung von Signal und Störung ist erreicht. Im Ausgangssignal y(n) erscheinen diejenigen Anteile vom Eingangssignal x(n), die eine hohe Korrelation mit dem Modellsignal d(n) aufweisen. Das Fehlersignal e(n) bildet sich aus dem Rauschen aus, das mit dem Modellsignal d(n) nicht korreliert. Hier wird auch deutlich, warum man für die Schätzung des Gradienten nach Gl. 5.49 Stationarität des Fehlersignals e(n) verlangen muss: Zumindest für die Adaptionszeit gilt die Aussage über Korrelationen nur für stationäre Prozesse. Diesel ben statistischen Beziehungen gelten auch für andere Anwendungen des Optimalfilters. Der Lösungsansatz eines ANC53 besteht darin, das adaptive Filter auf eine bekannte Störung einzustellen (Abb. 5.24). Der Eingang des Transversalfilters hat hier die Funktion einer Rauschreferenz rR(n). Die Rauschreferenz muss gut mit
wn m
rR n
y n rR n wn Filterausgang
Referenzeingang
'wm Adaptionsalgorithmus
sn xn y n ANC-Ausgang
xn sn rS n
+
+
Primäreingang
Abb. 5.24 Systemstruktur eines ANC (Adaptive Noise Canceller, Adaptive Störungsunterdrückung). Der Eingang des Transversalfilters hat die Funktion einer Rauschreferenz rR(n), das Modellsignal ist hier das verrauschte gesuchte Signal s(n) in x(n), der ANC-Ausgang ist gleich dem Fehlersignal
53
ANC – Adaptive Noise Canceller
348
5 Digitale Filter
der Störung rS(n) im Eingangssignal x(n) und darf nicht mit dem gesuchten Signal s(n) in x(n) korrelieren (Gl. 5.57). RrR s
0,
RrR rS !! 0
(5.57)
ANC-Ausgang
Filterausgang y(n)
Primäreingang d(n)
Rauschreferenz x(n)
Entsprechend den oben genannten Korrelationsbeziehungen erscheint am Filterausgang y(n) (Abb. 5.24) allein die Störung rS(n) bzw. ihr im rR(n) enthaltener Anteil. Ist die Bedingung nach Gl. 5.57 erfüllt, so enthält das Ausgangssignal der Filters y(n) keine Anteile des gesuchten Signals s(n), so dass dieses nach abgeschlossener Adaption als Fehlersignal am ANC-Ausgang übrig bleibt. Im statistischen - aber nicht im algebraischen - Sinne wird vom Eingangssignal x(n) die
ANC
2 0 -2
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
0
0.2
0.4
0.6
0.8
1 Zeit / s
1.2
1.4
1.6
1.8
2
2 0 -2 2 0 -2 2 0 -2
Abb. 5.25 Verläufe im ANC bei der Unterdrückung der Netzstörung in einem Impedanzplethysmogramm. Die Filterung fand offline statt, so dass zwischen dem ANC-Ausgang und dem gestörten Signal d(n) keine Zeitverschiebung vorhanden ist. Die Totzeit von 167 ms zu Beginn der Adaption im Filterausgang y(n) und im ANC-Ausgang entspricht der halben Filterlänge von 50 Abtastperioden
5.3 LTV-Systeme: zeitvariable und adaptive Filter
349
Störung rS(n) subtrahiert, so dass das gesuchte Signal s(n) als Ergebnis der ANCFilterung zur Verfügung steht. Die Funktionsweise des ANC demonstriert das folgende Beispiel: Ein Impedanzplethysmogramm (IPG) ist vom Netz stark gestört (Abb. 5.25, Primäreingang d(n)). Am vorhandenen Verstärker ist ein Kanal frei. Dieser wird dazu genutzt, eine Störungsreferenz (Netzstörung) zu erfassen, die keine Anteile des IPG enthalten darf. Bei der praktischen Messung ist dies technisch sehr einfach realisierbar: Man schließt ein Elektrodenkabel an und lässt es frei im Messaufbau liegen. Dadurch wird die Netzstörung kapazitiv (statisches elektrisches Feld) eingekoppelt und man bildet die Rauschreferenz (Abb. 5.25, Rauschreferenz x(n)). Da das freiliegende Elektrodenkabel keine Verbindung zum Patienten hat, enthält diese Referenz mit Sicherheit keine plethysmographischen Anteile. Nach dem Start der Adaption (Adaptionskonstante PN = 0.01) erscheint am Filterausgang bereits nach einer Sekunde die Störung stabil (Abb. 5.25, Filterausgang y(n)) und das erwünschte und bis dahin unbekannte IPG ist ab etwa 1.5 s nach dem Start völlig störungsfrei (Abb. 5.25, ANC-Ausgang). Mit einer Adaptionskonstante von P = 0.1 wäre die Adaption bereits nach 100 ms abgeschlossen und schon die erste Welle des IPG störungsfrei. Es ist nicht immer möglich, eine Rauschreferenz zu gewinnen (OfflineAuswertung, keine geeigneten bzw. freien messtechnischen Ressourcen). Zumin-
AKF(s(n))
40 20 0 -20
AKF(noise)
-5
-4
-3
-2
-0.4
-0.3
-0.2
-1
0
1
2
3
4
5
-0.1
0
0.1
0.2
0.3
0.4
0.5
20 0 -20 -0.5
Zeitverschiebung / s
Abb. 5.26 Autokorrelationsfunktion eines impedanzplethysmographischer Pulskurve (oben) und einer Netzstörung (unten). Zu beachten sind die unterschiedlichen Zeitskalen und die Periodendifferenzen
350
5 Digitale Filter
dest gegen periodische Störungen hilft in solchen Fällen der folgende Lösungsansatz: Wie oben erläutert, basiert die Funktionsweise eines LMS-Filters auf der Korrelation zwischen dem Eingangssignal des Transversalfilters x(n) und des Modellsignals d(n). Ist die Korrelation für den Störungsanteil hoch, so erscheint die Störung am Filterausgang y(n) und fehlt wunschgemäß am ANC-Ausgang s(n). Geht man davon aus, dass die Störung periodisch ist, so ist auch ihre Autokorrelationsfunktion (AKF) periodisch. Biosignale dagegen sind nur sehr selten periodisch, und falls ja, dann mit starken Schwankungen. Hinzu kommt, dass die Perioden der Biosignale wesentlich länger sind als die der Störungen (Abb. 5.26). Aus der Darstellung in Abb. 5.26 folgt, dass die Autokorrelationen der Störung mit 20 ms (Netzstörung), die der Pulskurve aber mit etwa 1 s (Herzperiode) periodisch sind. Wenn man also das gestörte Signal d(n) um eine Zeit von bspw. Wv = 0.25 s verschiebt, so ist die Korrelation der Pulswelle in etwa nullwertig, während die der periodischen Störung sehr hoch. Natürlich kann man die geeignete Verschiebungszeit Wv nicht jedes Mal von Hand und dem aktuellen Signal anpassen. Für eine konkrete Messaufgabe muss man sich vorher auf eine Verschiebung festlegen, oder diese adaptiv gestalten. Dies ist gerade bei Biosignalen auf Grund ihrer Variabilität besonders schwierig. Daher lässt es sich nicht vollständig vermeiden, dass es eine Korrelation zwischen der Rauschreferenz und dem Primäreingang des ANC gibt. Dies führt dazu, dass nicht nur die Störung unterdrückt, sondern auch das erwünschte Signal beeinträchtigt wird (Abb. 5.28). Daher muss in solchen Fällen sorgfältig abgewogen werden, ob eine Verzerrung des gesuchten Signals mit einem ANC ohne Rauschreferenz (Abb. 5.27) akzeptabel ist.
Referenzeingang
rR n
wn m
y n rR n wn Filterausgang
WV Adaptionsalgorithmus
s n x n y n ANC-Ausgang
xn s n rS n
+
+
Primäreingang
Abb. 5.27 ANC-Filter mit einem verzögerten Einganssignal als Rauschreferenz. Die Verzögerung WV muss so dimensioniert sein, dass die periodische Störung eine hohe, das gesuchte Signal eine niedrige Korrelation besitzen
5.4 Räumlich-zeitliche Filterung
351
Original
2 1 0 -1 0
1
2
1
2
3
4
5
3
4
5
ANC-Ausgang
2 1 0 -1 0
Zeit / s
Abb. 5.28 Originalsignal (oben) und Ausgang des ANC-Filters (unten) nach Abb. 5.27. Die Störung ist nach 3 s eliminiert, allerdings zeigt das gesuchte Signal Formveränderungen
5.4 Räumlich-zeitliche Filterung
5.4.1 Grundlagen der räumlich-zeitlichen Filterung Bei vielen medizinischen Fragestellungen setzt man mehrkanalige Ableitsysteme ein, z.B. bei der Messung des EEG oder beim EKG- und EMG-Mapping. Daher ist es sinnvoll, auf der Suche nach bestimmten räumlich-zeitlichen Signalmustern auch räumliche Filter einzusetzen. Um den bisherigen mathematischen Apparat und die verfügbaren Algorithmen zur Analyse, zum Entwurf und zur Konstruktion von Filtern weiterhin zu nutzen, wäre es von Vorteil, Filterstrukturen beizubehalten. Dies ist mit der Struktur der Transversalfilter machbar (Abb. 5.29): Während im Zeitbereich die Eingangsdaten aus zeitlich verzögerten Signalwerten bestehen (Abb. 5.29 oben), sind es im Raum simultane Signalwerte entlang der Raumkoordinaten (Abb. 5.29 unten). Damit ergibt sich das Ausgangssignal unabhängig von der Domäne aus der diskreten Faltung der Filterkoeffizienten mit den Eingangsdaten bzw. aus dem Skalarprodukt der entsprechenden Vektoren (Gl. 5.58).
352
5 Digitale Filter M
y k ¦ xi k wi* l y
wT x
(5.58)
i 1
In Gl. 5.58 kennzeichnet der Index i in der Zeitdomäne die hintereinander folgenden zeitlichen Abtastwerte in Bezug auf den Zeitpunkt k, in der Raumdomäne die Abtastwerte in den Sensorkanälen zum selben Zeitpunkt k (s. Abb. 5.29).
Über die Beziehung nach Gl. 5.58 ist ein struktureller Zusammenhang zwischen den Filtern in der Zeitdomäne und im Raum hergestellt. Nun stellt sich die Frage, welcher Parameter im Raum dem Spektrum bei Zeitsignalen äquivalent ist. Zur Herleitung der analytischen Beziehungen kann man von einem zunächst einfachen
w*1
x1(k) = x(k) Z-1
w*2
x2(k) = x(k-1)
+
y(k)
Z-1 xM(k) = x(k-(M-1))
w*M
y x1(k)
w*1
x2(k)
w*2
xM(k)
w*M
+
w Tx
y(k)
Abb. 5.29 Strukturelle Gleichheit eines FIR-Transversalfilters (oben) und eines räumlichen Filters (unten). Ein * bedeutet konjugiert komplexe Koeffizienten, die im Allgemeinen auftreten können
5.4 Räumlich-zeitliche Filterung
353
T
x1(k)
w*1
d x2(k)
w*2
+
y(k)
(M-2)d xM(k)
m 1 d cosT
w*M
Abb. 5.30 Räumliches Filter beim Empfang einer Welle an den Sensoren. Die Sensoren liegen äquidistant auf einer Linie mit einem Abstand von d
Signalmodell ausgehen (Abb. 5.30). Auf einer geraden Linie sind im Abstand von d äquidistant M Sensoren angeordnet. Aus einer unendlich weit entfernten Quelle fallen Wellen mit der Wellenlänge O auf die Sensorzeile ein (die Ausbreitungsgeschwindigkeit des Signals ist c), wobei der Winkel der Wellenfront und der Sensorzeile 4 beträgt. Für das Ausgangssignal des Filters gilt (Gl. 5.59) y k
1 M ¦ xm k W m , M m1
(5.59)
wobei sich die Signalverzögerung Wm im Kanal m aus Gl. 5.60 ergibt.
Wm
m 1 d cosT c
dm cosT c
(5.60)
Die Übertragungsfunktion eines Kanals im Raum-Frequenzbereich ergibt sich aus Gl. 5.60 zu (Gl. 5.61): Gm Z ,T e
jZ
dm cos T c wm
.
(.5.61)
Ausgehend von Gl. 5.59 gilt für die Übertragungsfunktion des Filters (Gl. 5.62)
354
5 Digitale Filter
G Z ,T
1 M jZ ¦e Mm1
dm cosT c wm
.
(5.62)
Geht man von einem harmonischen Signal aus, so ist die Wellenlänge O in Gl. 5.62 konstant und die Übertragungsfunktion G(Z) nur noch vom Winkel 4 abhängig. Daher kann man die Beziehung nach Gl. 5.62 auch als Winkeltransformation interpretieren und nach Gl. 5.63 formulieren. Die Beziehung nach Gl. 5.62 entspricht im Zeitbereich einer zeitdiskreten Fouriertransformation. Deswegen kann man sie für das räumlich abgetastete Signal als Richtcharakteristik interpretieren (siehe Haupt- und Nebenkeulen bei der DFT). G T
1 M j 2S ¦e M m1
dm
O
cos T
wm
(5.63)
Soll die Übertragungsfunktion ihr Hauptmaximum in einer bestimmten Richtung Q besitzen, so modifiziert sich die Beziehung nach Gl. 5.62 zu (Gl. 5.64): G Z ,T
1 M jZ ¦e M m1
dm cos T cos- c wm
.
(5.64)
Stellt man entsprechend der Abb. 5.28 eine Analogie des räumlichen Filters zu einem FIR-Filter her (wobei hier Z konstant ist), so entspricht die Formel nach Gl. 5.63 einem Rechteckfenster bei der Frequenz null (Winkel 90o) und die Formel nach Gl. 5.64 einem Recheckfenster bei einer Frequenz ungleich null (Winkel X).
5.4.2 Beamforming Die Funktion eines Filters nach Gl. 5.61 verdeutlicht das folgende Beispiel: Für den Fall, dass alle Filterkoeffizienten reell und identisch sind, besitzt das Filter die maximale Übertragung senkrecht zur Sensorzeile (4 = 90o) mit einer sincFunktion in Abhängigkeit vom Einfallswinkel (Abb. 5.31). Die Breite der Hauptkeule der Richtcharakteristik nimmt mit der Frequenz der harmonischen Schwingung ab. Dargestellt ist die räumliche Filterfunktion einer Sensorzeile mit vier Mikrofonen im Abstand von jeweils d = 2 cm in Abhängigkeit von der Frequenz f und vom Einfallswinkel 4, die den Schall einer in der Luft liegenden, sehr weit entfernten akustischen Quelle aufnehmen (c = 330 m/s). Ausgehend von der Beziehung nach Gl. 5.60 kann man die Formel Gl. 5.64 auch wie folgt schreiben (Gl. 5.65):
5.4 Räumlich-zeitliche Filterung
355
G Z ,T
1 M jZ W m G m . ¦e Mm1
(5.65)
In Gl. 5.65 ist Wm der Laufzeitunterschied beim Eintreffen des Wellenzuges auf die Sensoren (Abb. 5.30), Gm die hinter die Sensoren einzubauende Verzögerung, um eine räumliche Vorzugsrichtung unter dem Winkel X zu erreichen. Eine dieser Forderung entsprechende Filterstruktur ist in Abb. 5.33 dargestellt. In Abhängigkeit vom gewünschten Einfallswinkel X berechnet man für jeden Kanal seine Verzögerung Gm. Fällt auf die Sensorzeile ein Wellenzug unter dem Winkel X ein, so heben sich die Verzögerungen an den Sensoren Wm und die der Kanäle Gm auf (Gl. 5.65) und die Übertragung erreicht ihr Maximum |G| = 1 (Abb. 5.32). Mit Hilfe der Kanalverzögerungen Gm kann man also – ohne die räumlichen Positionen der Sensoren zu verändern – die Richtcharakteristik der Sensorzeile elektronisch bzw. rechnerisch verändern. Man formt einen Beam, daher bezeichnet man solche Strukturen als Beamformer. Die einfachste Filterstruktur (Abb. 5.33) verwendet lediglich Kanalverzögerungen und einen Summierer und wird als Delay-and-Sum-Beamformer bezeichnet (DSBF). In der praktischen Anwendung des DSBF sind zwei Ansätze denkbar: Einerseits kann man die Kanalverzögerungen für eine Einfallsrichtung einstellen, wenn sie für eine Quelle bekannt ist und
Abb. 5.31 Betrag der Übertragungsfunktion eines räumlichen Filters nach Gl. 5.64 (Abb. 5.30) mit vier identischen Filterkoeffizienten (Rechteckfenster)
356
5 Digitale Filter
1
90 Grad 75 Grad
0.9 0.8 0.7
|G|
0.6 0.5 0.4 0.3 0.2 0.1 0 0
20
40
60
80
100
120
Einfallswinkel in Grad
140
160
180
Abb. 5.32 Übertragungsfunktion (f = 4000 Hz) eines räumlichen Filters mit vier Sensoren und identischen Koeffizienten (volle Linie) sowie mit zusätzlichen Kanalverzögerungen (gestrichelt)
T
x1(k)
G 1 - W M
x2(k)
G 2 - W M 1
d
+
y(k)
(M-2)d
d M cosT o W M
xM(k)
G M - 0
Abb. 5.33 Statt Filterkoeffizienten erhält im DSBF jeder Kanal eine definierte Verzögerung G(X). Diese ergibt sich aus dem gewünschten Einfallswinkel 4 der eintreffenden Welle. Die Übertragung erreicht ihr Maximum bei dem Einfallswinkel, der den eingestellten Kanalverzögerungen entspricht
5.4 Räumlich-zeitliche Filterung
357
auf diese Weise die aus anderen Richtungen kommenden, störenden Wellen unterdrücken. Andererseits kann man durch Veränderung der Kanalverzögerungen den Raum nach unbekannten Quellen abtasten und erhält so ein Winkelspektrum (Gl. 5.63).
5.4.3 Räumliche Filter 5.4.3.1 Spezifik der Biosignalquellen Bei der Erfassung von mehrkanaligen Biosignalen sind die Ausgangsbedingungen wesentlich schwieriger, als im Modell nach Abb. 5.33. Die Problematik ist stark vereinfacht in Abb. 5.34 dargestellt. Ein Sensorarray ist an (elektrische Felder) oder über (magnetische Felder) der Körperoberfläche angeordnet und ermöglicht eine zwei- oder dreidimensionale Signalerfassung. Die Sensorsignale verarbeitet ein Arrayprocessor, der je nach Struktur und Technologie grundsätzlich als ein Beamformer (BF) oder ein Spatial Filter (SF, räumliches Filter) funktionieren kann. Die Signalquelle q(t,r) ist aus der elektrophysiologischen Sicht eine lokale elektrische Negativität (Signal und Stromrichtung r veränderlich in Zeit t), die nach außen wie eine elektrische Stromquelle wirkt. Sie wird oft als ein lokaler
q(t,r) c(r) v(r)
Array processor
• Beamformer • Spatial Filter
Abb. 5.34 Signalmodell einer bewegten elektrischen Quelle im menschlichen Körper: Die Quelle q(t,r) erzeugt einen zeitlich instationären Verlauf, ändert die Stromrichtung und bewegt sich mit der Geschwindigkeit v(r). Die von der Quelle erzeugtes elektrisches und magnetisches Feld (dargestellt ist das elektrische Feld) breitet sich mit der Geschwindigkeit c(r) aus (r ist die Raumkoordinate, t die Zeit)
358
5 Digitale Filter
elektrischer Dipol modelliert, der in Richtung des stärksten Stromes orientiert ist. Diese Quelle bewegt sich entlang der sensorischen und motorischen Nervenbahnen mit der Geschwindigkeit v(r), die je nach Typ der Nervenbahn im Bereich von 1 m/s bis 20 m/s liegt (v ist der Vektor der Geschwindigkeit, der vom aktuellen Ort der Signalquelle r abhängig ist). Der von der Quelle erzeugte elektrische Strom produziert elektrische und magnetische Felder, die sich mit der Geschwindigkeit c(r) ausbreiten (c ist der Vektor der Ausbreitungsgeschwindigkeit des elektrischen oder magnetischen Feldes, der wegen der Anisotropie des Mediums abhängig vom Ort r ist). Die Geschwindigkeit c(r) ist zwar geringfügig niedriger als die des Lichts, allerdings ist sie groß genug, dass die Bewegungsgeschwindigkeit der Signalquelle v(r) im Zusammenhang mit der Quellenfrequenz (< 10 kHz) vernachlässigt werden kann (Der Geschwindigkeitsunterschied beträgt etwa acht Dekaden, während die Periode der Quellenschwingung über 100 Ps liegt). Man könnte die Quellenbewegung zwar theoretisch mit bekannten Technologien (Radar, Laser) verfolgen. Dafür ist jedoch die medizinische Messtechnik nicht ausgelegt, diese ist für Frequenzen von maximal 10 kHz konzipiert. Daher kommen die zahlreichen Methoden und Algorithmen des Beamforming, wie sie im Mobilfunk, Richtfunk, Sonar, Radar, Quellenortung und -verfolgung üblich sind, in der medizinischen Signalverarbeitung nicht in Frage, denn diese bauen auf den folgenden wesentlichen Voraussetzungen auf: -
Bekannte und technisch beherrschbare Ausbreitungsgeschwindigkeit c, homogenes und isotropes Medium, in dem sich die Wellen ausbreiten, bekannte Eigenschaften des Signalquelle, definierte und exakte Sensoranordnung und eine unendliche bzw. hinreichend große Ausdehnung des Mediums.
Reale Biosignalquellen und das Medium (menschlicher Körper), in dem sich ihre Signale ausbreiten, erfüllen nicht annähernd diese Bedingungen. Daher sind Methoden des Beamforming ihrem Prinzip nach nicht anwendbar.
5.4.3.2 Modellfreie räumliche Filter Als Alternative zum Beamforming bieten sich räumliche Filter an, die an die o. g. strengen Bedingungen nicht geknüpft sind. Grundsätzlich gilt für räumliche Filter dieselbe Feststellung, wie für transversale FIR-Filter (Abb. 5.29): Jede mathematisch beschreibbare Funktion ist realisierbar, wobei die Genauigkeit der Realisierung nur von der Anzahl der verfügbaren Filterkoeffizienten abhängt.
5.4 Räumlich-zeitliche Filterung
359
Diese ist bei räumlichen Filtern wegen der relativ wenigen verfügbaren Sensoren naturgemäß stark eingeschränkt. Die Problematik soll am Beispiel des DSBF verdeutlicht werden. Eine der wichtigsten Aufgaben der Biosignalverarbeitung besteht darin, den zur Parameterschätzung, oder zumindest zur Detektion, notwendigen Signal-RauschAbstand (SNR) zu sichern. Die effektivste Methode im Zeitbereich ist das synchrone bzw. simultane Averaging (Mittelwertbildung, s. Abschn. Stochastische Prozesse). Für ein räumliches Filter (DSBF) geht man von einem additiven Signalmodell aus (Gl. 5.66). x m k s k nm k ,
y k
1 M 1 M ¦ xm k s k ¦ nm k M m1 M m1
(5.66)
In Gl. 5.66 ist s(k) das erwünschte Biosignal, nm(k) das weiße Rauschen im Kanal m, wobei die Rauschkomponenten der Kanäle untereinander unkorreliert sind, y(k) ist das Ergebnis der Ensemblemittelung.
Unter der Voraussetzung, dass das gesuchte Signal s(k) formgleich in allen Kanälen vorhanden und die Rauschleistung var(nm) gleich und unkorreliert ist, nimmt sie im Ausgangssignal y(k) mit der Mittelungsordnung M umgekehrt proportional ab, so dass für den SNR im gemittelten Signal y(k) gilt (Gl. 5.67): snr xm
vars vars , snr y M varnm varnm
M snr xm .
(5.67)
Die Verbesserung des SNR nach Gl. 5.67 findet aber nur dann statt, wenn das Signalmodell nach Gl. 5.66 der Realität entspricht, d. h. nur dann, wenn das gesuchte Signal s(k) in allen Kanälen simultan vorhanden ist. Bezüglich des Signals s(k) darf es also keine Zeitverschiebungen zwischen den Kanälen geben. In der Realität muss man jedoch mit Zeitverschiebungen rechnen, wie bereits in Signalmodellen in Abb. 5.30 bzw. Abb. 5.33 gezeigt. Daher wird im weiteren Vorgehen untersucht, wie sich eine Zeitverschiebung zwischen Kanälen auswirkt. Geht man zunächst von zwei Kanälen aus, die ein zeitlich verschobenes Signal s(k) enthalten, so gilt die folgende Beziehung (Gl. 5.68): x 2 k y k
x1 k W 1 x1 k x2 k 2
. 1 x1 k x1 k W 2
(5.68)
In Gl. 5.68 ist x1(k) der erste Kanal einer Zweisensorenanordnung, x2(k) der zweite Kanal derselben Anordnung, W ist die zeitlich diskrete Verschiebung zwischen den beiden Kanälen, ein ganzzahliger Index.
360
5 Digitale Filter
Transformiert man Gl. 5.68 in den Frequenzbereich, so erhält man (Gl. 5.69): Y Z
1 X 1 Z X 2 Z 2
1 X 1 Z 1 e jZW . 2
(5.69)
Die Phasenverschiebung in Gl. 5.69 kann zwei Extrema annehmen (Gl. 5.70): 1 e jZW
21 cosZW
°2, W ® °¯0, W
0 T /2
.
(5.70)
In Gl. 5.70 ist W die Zeitverschiebung aus Gl. 5.68, T ist die Periode des hier als harmonisch angenommenen Signals s(k). Aus der Formel nach Gl. 5.70 folgt, dass ein empfangenes Signal s(k) je nach seiner spektralen Zusammensetzung in Abhängigkeit von der Zeitverschiebung zwischen den Sensoren bzw. Kanälen vollständig erhalten (Gl. 5.66), aber auch vollständig ausgelöscht (Gl. 5.70) werden kann. Geht man vereinfachend davon aus, dass das gesuchte Signal s(k) sich aus einer Summe von Harmonischen zusammensetzt (Fourierreihe), so führt eine Zeitverschiebung von mehr als einer halben
1 0.9
Übertragung |G|
0.8 0.7 0.6 0.5 0.4 0.3 0.2
2,5 ms 5,0 ms 10 ms
0.1 0 0
20
40
60
Frequenz / Hz
80
100
Abb. 5.35 Spektrale Wirkung einer Zeitverschiebung zwischen zwei Signalen xm(k), in den das gesuchte Signal s(k) verschoben und das Rauschen nm(k) enthalten ist. Bei einer Verschiebung von bis zu einer halben Periode hat sie die Wirkung eines Tiefpasses. Beträgt die Verschiebung mehr als eine halbe Periode, so stellt sich ein Verhalten ein, wie bei einer Bandsperre
5.4 Räumlich-zeitliche Filterung
361
1 0.8
Pegelindex
0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 0
100
200
Zeitindex
300
400
500
Abb. 5.36 Summe aus acht verschobenen Kanalsignalen, deren Frequenz zeitlich abnimmt: Wegen der Verschiebung ist die Summe insgesamt (dicke Linie) kleiner, als jedes Kanalsignal. Ihre Amplitude nimmt mit der Zeit und der abnehmenden Frequenz zu, was auf das Tiefpassverhalten der Zeitverschiebung zurück zu führen ist
Periode zum kombinierten Tiefpass-/Hochpassverhalten bzw. zu einer Bandsperre (Abb. 5.35). Ein realitätsnahes Modell eines mehrkanaligen VEP ist in Abb. 5.36 dargestellt. Es ist bekannt, dass beim VEP am Anfang die Frequenz relativ hoch ist (bis 30 Hz) und anschließend auf etwa 5 Hz abnimmt, während die Amplitude der Wellen etwa in der Mitte ihres Zeitverlaufs ihr Maximum erreicht. Dementsprechend sind die Amplituden der stärksten negativen und der positiven Wellen in Abb. 5.36 vergleichbar. Durch den realitätsnahen Zeitversatz zwischen den (EEG-) Kanälen ist das Summenpotenzial zunächst schwächer, als die einzelnen Kanalsignale. Wie man der Darstellung aber entnehmen kann, nehmen die Amplituden der Summenwelle bei vergleichbaren Amplituden der Kanalsignale mit der Zeit und mit der abnehmenden Frequenz zu. Dies ist ein Nachweis dafür, dass die Zeitverschiebung in den Kanälen im Summensignal einen Tiefpasscharakter besitzt (Abb. 5.35). Daraus folgt, dass im Sinne einer Verbesserung des SNR die Kanalverzögerungen ausgeglichen werden müssen, um die Bedingung der Simultanität (Gl. 5.66) zu erfüllen. Für die Kompensation der Kanalverzögerungen eignet sich grundsätzlich der DSBF (Gl. 5.65, Abb. 5.33). Der DSBF ist aus oben genannten Gründen auf das elektrische oder das magnetische Feld der Quelle nicht
362
5 Digitale Filter
anwendbar, kann aber im Bereich der Bewegungsgeschwindigkeit v(r) der Quelle und des Zeitverlaufs des gesuchten Signals s(k) eingesetzt werden (Abb. 5.34). Allerdings sind die Eigenschaften des Mediums menschlicher Körper und der körpereigenen Signalquellen für einen analytischen Lösungsansatz kaum verwendbar. Die folgende Übersicht beschreibt qualitativ die Eigenschaften der Biosignalquellen und des menschlichen Körpers aus Sicht der Signalverarbeitung: -
Der menschliche Körper ist elektrisch inhomogen, die Unterschiede der elektrischen Leitfähigkeit verschiedener Gewebetypen betragen mehrere Potenzen,
-
Die Fortleitungsgeschwindigkeit v(r) der nervalen Erregung schwankt je nach Art der Nervenfaser um den Faktor 20,
-
Die anatomische Variabilität ist so hoch, dass die Körperbeschreibung analytisch nicht möglich ist (keine Kugel- oder Zylindersymmetrie),
-
Die exakte Zuordnung der Sensoren zu anatomischen Strukturen und die Reproduzierbarkeit der Sensorpositionierung ist nicht möglich,
5.4.3.3 Adaptive räumliche Filterung Die Projektion der Felder auf der Körperoberfläche ergibt sich aus der multimodalen Aktivität im Körper (Bewegung der Quelle, Zeitverlauf des Quellensignals, Orientierung des Quellenstromes). Aus den oben genannten Gründen ist eine analytisch ermittelte Einstellung der Kanalverzögerungen Gm nicht möglich. Eine Möglichkeit zur Verfolgung der Quellendynamik und des instationären Quellensignals s(k) an Hand der Oberflächenprojektion bieten adaptive Verfahren (s. Abschn. 5.3.3). Allerdings erschwert sich hier das Problem dadurch, dass weder eine Modellfunktion noch eine Rauschreferenz vorhanden sind. Zur Herleitung des Adaptionsalgorithmus geht man von einem additiven Signalmodell aus (Gl. 5.71): xm k
Am s k W m nm k .
(5.71)
In Gl. 5.71 ist xm(k) ein Sensor/Kanalsignal, Am die Amplitude des gesuchten Signals s(k) im Kanal m, nm(k) das Sensor/Kanalrauschen.
Das Ausgangssignal des Averagers ergibt sich zu (Gl. 5.72):
5.4 Räumlich-zeitliche Filterung
363
1 M ¦ xm k G m . Mm1
y k
(5.72)
Der SNR des Averagers soll maximiert werden, so dass gilt: snr y o max W ,
wsnr y wW m
0,
w 2 snr y wW m2
0.
(5.73)
Auf der Suche nach dem maximalen SNR ist auch die Bedingung der zweiten partiellen Ableitungen zu erfüllen, da im Unterschied zu konventionellen adaptiven Filtern hier die Gestalt des multidimensionalen Fehlerfunktionals unbekannt ist. Aus den Bedingungen in Gl. 5.73 folgt, dass alle Zeitverschiebungen Wm nullwertig sein müssen. Dies ist praktisch natürlich nicht machbar, da die einzelnen Sensorsignale bereits beim Eintreffen der Wellen verschiedene Laufzeiten aufweisen. Daher ist eine zusätzliche Kanalverzögerung notwendig, die die Differenzen zwischen den Kanälen ausgleicht (Gl. 5.72. und 5.74, Abb. 5.33):
Gm
W m
o į
IJ .
(5.74)
Setzt man die Forderung nach Gl. 5.74 um, so erhält man den bereits beschriebenen DSBF, allerdings mit variablen Kanalverzögerungen, die analytisch unbekannt sind. Das Fehlerfunktional ist zwar auch unbekannt, aber in Anlehnung an den LMS-Algorithmus (Gl. 5.50) kann man hier nach der Gradientenmethode verfahren (Gl. 5.75): įk 1 įk P k .
(5.75)
Da der Gradient analytisch nicht beschreibbar ist, muss er geschätzt werden (Gl. 5.76):
k
wsnr y ½ ° ° °° wG1 °° ˆ ® ¾, k ° wsnr y ° ° ° °¯ wG M °¿
'snr y ½ ° ° °° 'G1 °° ® ¾. ° 'snr y ° ° ° °¯ 'G M °¿
(5.76)
In der praktischen Analyse besteht die Schwierigkeit in der Ermittlung des aktuellen SNR. Dazu kann man folgende zwei Ansätze nutzen: Zum einen kann man den aktuellen SNR schätzen, wenn Zeitabschnitte bekannt sind, in den das gesuchte Signal s(k) nicht enthalten ist, also eine signalfreie Rauschreferenz vorhanden ist (Gl. 5.77).
364
5 Digitale Filter
snr y
vars varn
var x 1 varn
(5.77)
In Gl. 5.77. ist s das gesuchte Signal s(k), n ein Abschnitt des Summensignals x(k), in dem sich nur das Rauschen n(k) befindet, x das Summensignal aus s(k) und n(k), y der arithmetische Mittelwert über die Kanalsignale xm(k). Die Varianz wird in einem angemessenen Zeitfenster berechnet.
Liegt eine Rauschreferenz nicht vor bzw. signalfreie Abschnitte sind nicht bekannt, so setzt man für den SNR die gesamte Signalleistung bzw. Signalenergie ein, d.h. man normiert nicht auf die Rauschreferenz (Gl. 5.78). snr y varx
(5.78)
Die einzelnen Komponenten (j ist der Kanalindex) des Gradienten nach Gl. 5.76 kann man wie folgt schätzen (Gl. 5.79) kj
'snr y k 'G j
snr y j k snr y k 'G j
,
(5.79)
wobei man die aktuellen Signalanteile nach Gl. 5.80 berechnet: y j k
1 M
§ ¨ ¨i ©
M
·
1,i z j
¹
¦ xi k x j k 'G j ¸¸, yk
1 M
M
¦ xi k .
(5.80)
i 1
In Gl. 5.79 und 5.80 entspricht 'Gj mindestens einer Abtastperiode, wobei grundsätzlich gilt nTA = 'Gj. Man kann also für den Zeitindex auch folgende Gleichung nutzen (Gl. 5.81):
x j k 'G j
x j k n
n t1
.
(5.81
In den Beziehungen zur Ermittlung des SNR (Gl. 5.77 bis 5.79) soll die Fensterlänge zur Berechnung der Varianz groß genug für eine zuverlässige Schätzung, aber klein genug für die Signaldynamik sein (empirische Schätzung der Fensterlänge). Das Vorgehen ist an simulierten Daten im folgenden Beispiel dargestellt. Die Grafik in Abb. 5.37 zeigt ein realitätsnahes Modell eines 16-kanaligen VEP vom okzipitalen EEG mit unterschiedlichen Kanalverzögerungen und Amplituden entsprechend der Formulierung nach Gl. 5.71. Zu beachten ist, dass die Amplituden des gemittelten Signals deutlich später auftreten als die einzelnen Anteile mit den größten Pegeln. Nach der abgeschlossenen Adaption (Abb. 5.38) befinden sich
5.4 Räumlich-zeitliche Filterung
365
0.8 0.6
Pegelindex
0.4 0.2 0 -0.2 -0.4 -0.6 0
100
200
Zeitindex
300
400
500
Abb. 5.37 Simuliertes VEP mit einem weißen, normalverteilten, additiv überlagerten Rauschen in 16 Kanälen vor der Adaption. Das gemittelte Signal ist dick markiert
0.8 0.6
Pegelindex
0.4 0.2 0 -0.2 -0.4 -0.6 0
100
200
Zeitindex
300
400
500
Abb. 5.38 Simuliertes VEP aus Abb. 5.36 nach abgeschlossener Adaption. Das gemittelte Signal ist dick markiert
366
5 Digitale Filter
dieSignalwellen komplett in Phase, so dass die Simultanität des gesuchten Signals s(k) nach Gl. 5.66 gesichert ist. Die Anzahl der für die Adaption notwendigen Iterationsschritte (Abb. 5.40) ist relativ hoch, um ein akzeptables Ergebnis zu erreichen. Den variablen Verlauf kann man auch an den eingebauten Kanalverzögerungen (Abb. 5.39) beobachten: Nicht alle Kanäle adaptieren gleichzeitig, sondern verzögert bzw. sequentiell. Dieser Effekt hängt mit der notwendigen Vorsicht zusammen, die Konstante P so zu wählen, dass die Adaption stabil bleibt (Gl. 5.75). Eine Obergrenze – wie im LMS-Algorithmus – gibt es bei dieser Methode nicht, da keiner der Signalanteile analytisch beschreibbar ist. Daher bleibt dieser Teil der Methode der Empirie überlassen und kann dadurch zu sehr langen Adaptionen bzw. zu Instabilitäten führen. In der Praxis muss eine geeignete Adaptionskonstante bzw. ein geeigneter Bereich der Konstante für eine Messanordnung und einen Signaltyp jedoch nur einmal ermittelt werden (s. Übungen). Mit Hilfe des Adaptionsalgorithmus (Gl. 5.75) kann das maximale SNR erreicht und die Bedingungen nach Gl. 5.73 erfüllt werden. Allerdings ist nach abgeschlossener Adaption nicht sicher, dass tatsächlich das globale Maximum des SNR erreicht wurde. Besteht das gesuchte Signal s(k) aus mehreren Wellen – wie im Beispiel nach Abb. 5.37 – so kann es bei einer ungünstigen Wahl des Bezugskanals (Im Bezugskanal ist Wm = Gm = 0 gesetzt) und bei einem großen Abstand d zwischen den Sensoren vorkommen, dass die Phasendifferenz zwischen den Kanälen mehr als S/2 bzw. der Laufzeitunterschied mehr als T/4 beträgt. In einem solchen Fall wird möglicherweise nur ein lokales, aber kein globales Maximum des SNR
Kanalverzögerung in Abtastperiden
20 10 0 -10 -20 -30 -40 -50 -60 -70 -80 0
2000
4000
6000
Iterationsschritte
8000
10000
Abb. 5.39 Verlauf der Kanalverzögerungen während der Adaption. Unterschiedliche Vorzeichen beziehen sich auf den Referenzkanal. Ein positives/negatives Vorzeichen deutet auf einen Vorlauf/Nachlauf des betrachteten Kanals bezüglich des Referenzkanals
5.4 Räumlich-zeitliche Filterung
367
1.8 1.7 1.6
SNR
1.5 1.4 1.3 1.2 1.1 1 0.9 0
2000
4000
6000
Iterationsschritte
8000
10000
Abb. 5.40 Verlauf des SNR während der Adaption. In diesem Fall konnte fast eine Verdoppelung des SNR bzw. eine Anhebung um 6 dB erreicht werden
erreicht. Daher ist bei der Adaption stets zu prüfen, ob die erreichten Ergebnisse des SNR und der Kanalverzögerungen Gm plausibel sind. Die Plausibilitätsprüfung ist bei intakten sensorischen und motorischen Nervenbahnen und -zentren unproblematisch, da die einzelnen Wellen der Signale anatomisch eindeutig zugeordnet werden können und die Laufzeitunterschiede vorab zumindest in ihrer Größenordnung abschätzbar sind. Bei Störungen der Erregungsleitung und -verarbeitung nehmen die Wellen unvorhersehbare Formen an, so dass die Ergebnisse der adaptiven räumlichen Filterung auf jeden Fall elektro- und neurophysiologisch konsultiert werden sollten.
5.4.4 Mittelwertreferenz Die Bildung der Mittelwertreferenz (CAR) wurde bereits im Abschnitt „3.1.2 Referenzen in der Biosignalerfassung“ beschrieben und ihre Wirkung aus Sicht der medizinischen Messtechnik erläutert. Hier soll sie unter dem Aspekt der räumlichen Filterung erläutert werden.
368
5 Digitale Filter
5.4.4.1 Theorie der Mittelwertreferenz Der theoretische Ansatz für die CAR basiert auf dem Fakt, dass das Flächenintegral des elektrischen Potentials über einer Kugel nullwertig sein muss, wenn die Kugel nur interne Stromquellen besitzt und kein Ladungsaustausch mit der Umgebung stattfindet (Gl. 5.82):
³³ H r , I ,T { 0 .
(5.82)
I ,T
In Gl. 5.82 ist H das elektrische Oberflächenpotential, r, IT sind die Kugelkoordinaten der räumlichen Biosignalquelle bzw. des von ihr erzeugten elektrischen Potentials.
Die Gleichung Gl. 5.82 gilt für eine Sensoranordnung zur Erfassung des elektrischen Potentials nur unter den folgenden Bedingungen: -
Die Sensoren sind gleichmäßig (äquidistant) über die gesamte Kugeloberfläche verteilt,
-
Die Sensordichte ist höher als die Quellendichte (räumliches Abtasttheorem),
-
Die Kugel ist hinsichtlich der elektrischen Leitfähigkeit homogen und isotrop.
Könnte man die o. g. Bedingungen in der Praxis erfüllen, so wäre die CAR entsprechend der Formulierung nach Gl. 5.82 eine ideale (virtuelle) Referenz. Leider sind die Verhältnisse bei einer realen Biosignalableitung vom Ideal weit entfernt: -
Keine anatomische Struktur einer Biosignalquelle entspricht dem Kugelmodell, am besten jedoch noch das Gehirn,
-
Keine Flächenprojektion der elektrischen Aktivität einer Biosignalquelle kann über die gesamte Oberfläche erfasst werden, beim EEG sind es nicht mehr als etwa 30%,
-
Selbst unter Berücksichtigung der räumlichen Tiefpasswirkung des menschlichen Körpers auf die oberflächlichen Biosignale ist im Normalfall die Sensordichte nicht höher als die Quellendichte, das räumliche Abtasttheorem wird nicht eingehalten,
-
Die elektrische Leitfähigkeit des menschlichen Körpers ist im Bereich von mehreren Potenzen inhomogen und anisotrop.
5.4 Räumlich-zeitliche Filterung
369
Aus den genannten Gründen muss die CAR für ihre Anwendung als virtuelle Referenz abgelehnt werden. Betrachtet man sie jedoch als eine Alternative der räumlichen Filterung, so ergeben sich auch für die praktische Signalverarbeitung verwertbare Ansätze.
5.4.4.2 Die Mittelwertreferenz als räumliches Filter Die CAR berechnet man nach derselben Formel wie das Ausgangssignal eines Averagers (Gl. 5.72). Allerdings ist hier das Vorhaben ein grundsätzlich anderes – Unterdrückung der von fern liegenden Quellen kommenden Signale. Beim Averager setzt man darauf, dass die von der interessierenden Quelle kommenden Signale in etwa gleichphasig sind und man auf diese Weise das SNR verbessern kann. Diese Annahme ist nur in dem Fall hinreichend gut erfüllt, wenn das Sensorarray lokal über einem zugänglichen Bereich angebracht ist, während die Signalquelle relativ weit entfernt ist. Eine solche Situation ist gegeben, wenn man beispielsweise im EEG oder im MEG Hirnstammpotentiale nachweisen möchte. Sehr häufig wird aber ausgehend von der theoretischen Annahme nach Gl. 5.82 das Mittelwertsignal als CAR genutzt, um eine vermeintlich indifferente Referenz zu erzeugen. Die Kanalsignale bezieht man dann auf diese Referenz und interpretiert sie als eine unipolare Ableitung (Gl. 5.83). car k
1 M ¦ xm k , xmcar k Mm1
xm k car k
(5.83)
1 1 CAR
Rauschen
1 Signal
1 1
Abb. 5.41 Räumliches Signalmodell zur Wirkung der Mittelwertreferenz
6M
370
5 Digitale Filter
Die Wirkung der CAR (Gl. 5.83, Abb. 5.41) auf mehrkanalige Biosignale präsentiert sich zunächst als eine Elimination von gleichphasigen Anteilen im Summensignal. Die Gleichphasigkeit ergibt sich im Wesentlichen aus der großen Entfernung der Signalquellen zum Sensorarray. Man kann daher die Referenzierung der mehrkanaligen Ableitung auf die CAR als ein räumliches Filter interpretieren, das fern liegende Quellen unterdrückt und nah liegende Quellen hervorhebt. Dies ist vom Vorteil vor allem dann, wenn oberflächennahe Potentiale erfasst werden sollen, z.B. evozierte Potentiale des sensorischen Systems. Interpretiert man die Wirkung der CAR vektoriell, so unterdrückt diese die radialen und erhält die tangentialen Komponenten der Biosignale. Man kann die Wirkung der CAR auf die tangentialen und die radialen Signalanteile steuern in dem man in die Kanäle – ähnlich wie beim DSBF – zusätzliche Verzögerungen einbaut (Abb. 5.42). Diese Kanalverzögerungen sind jedoch nicht adaptiv ausgelegt, sondern werden je nach Bedarf fest eingestellt. Im stark vereinfachten räumlichen Modell nach Abb. 5.42 kann man die Wirkung der Kanalverzögerungen als eine Schaffung von virtuellen Sensoren interpretieren, die je nach Einstellung den Fokus näher an die oder ferner von der Körperoberfläche verschieben. Welche Auswirkungen die gezielte Kanalverzögerung haben kann, ist in Abb. 5.43 und Abb. 5.44 dargestellt. Ein mit konventionellen Mitteln abgeleitetes VEP (Abb. 5.43, durchgängige Kurve) wurde zunächst reizsynchron über 50 Einzelantworten gemittelt und anschließend simultan mit dem Averager nach Gl. 5.66 bzw. Gl. 5.72. Für einen lokalen Lichtreiz ist die sehr schwache Antwort mit einer Amplitude von 0.2 PV bei 120 ms nach dem Reiz typisch, aber kaum noch vom
virtuelle Elektroden
Signal - fern
Rauschen Signal - nah
G3< G G2< G G1
6M
CAR*
G2< G G3< G
Abb. 5.42 Räumliches Modell zur Mittelwertreferenz mit zusätzlichen Kanalverzögerungen
5.4 Räumlich-zeitliche Filterung
1
VEP mit CAR nach zusätzlicher Kanalverzögerung Delay 1ms Delay 25ms
0.5
VEP / uV
371
Stimulus
0
-0.5 -200
-100
0
100
200
Zeit / ms
300
400
500
Abb. 5.43 Zeitverlauf eines VEP, das 16-kanalig über dem okzipitalen Kortex abgeleitet wurde. Die Angaben zur Verzögerung beziehen sich auf die zweite äußerste Elektrodenreihe nach Abb. 5.42, die erste Reihe hat keine Verzögerung. Jede weitere Elektrodenreihe erhält eine linear inkrementierte Verzögerun 80 75 70 65
SNR
60 55 50 45 40 35 30 0
10
20
30
40
Kanalverzögerung der ersten Reihe / ms
50
Abb. 5.44 Verlauf des SNR in Abhängigkeit von der zusätzlichen Kanalverzögerung der zweiten Sensorenreihe. Durch die gezielte Steuerung konnte das SNR mehr als verdoppelt werden
372
5 Digitale Filter
Rauschen zu trennen. Anschließend wurde die CAR auf ihre Wirkung auf den SNR bzw. das VEP in Abhängigkeit von den Kanalverzögerungen untersucht. Dabei zeigt sich, dass – wie schon oben erwähnt – der SNR mehrere Maxima aufweisen kann, so dass auf der Suche nach dem globalen Maximum der komplette (plausible) Bereich abgefahren werden muss. Für diese Person, diese Reiz- und Ableitungsbedingungen findet man das globale Maximum bei einer Kanalverzögerung von 25 ms (Abb. 5.44). Dieser Wert ist individuell bei gleichbleibenden Untersuchungsbedingungen konstant, so dass er nur einmal ermittelt werden muss. Stellt man für die CAR die ermittelte optimale Verzögerung ein, so erhält man in diesem konkreten Versuch eine etwa fünffache VEP-Amplitude (Abb. 5.43, gestrichelte Kurve). Wurde einmal die optimale Einstellung ermittelt, kann man mit Hilfe der CAR das VEP sogar in Echtzeit darstellen, was mit den bisherigen Methoden nicht möglich war.
5.4.4.3 Auswirkungen der Mittelwertreferenz Im Abschn. 5.4.4.1 wurden die theoretischen Voraussetzungen zur Anwendung der CAR als indifferente Bezugselektrode sowie die realen Verhältnisse erörtert, die diesen Ansatz faktisch verhindern. Hier sollen die häufigsten Fehler erläutert werden, die in der praktischen Analyse vorkommen und bei der medizinischen Interpretation zu Fehlschlüssen führen können. Störungen an der physischen und der physiologischen Referenzelektrode Die physische Referenzelektrode (Abb. 3.1) des medizinischen Verstärkers und die physiologische Referenzelektrode (Abb. 3.3) sind aus der Sicht möglicher Störungen des Sensorarrays die empfindlichsten Punkte der Messanordnung. Alle technischen (z.B. Netzeinstreuung) und biologischen Störungen (z.B. Referenz über einem arteriellen Gefäß positioniert) erscheinen direkt im Messsignal. Über die eingebaute, elektronisch realisierte, oder über die bei der DSV berechnete CAR können die Störungen in sämtliche Kanalsignale gelangen. Dieser Effekt lässt sich mathematisch wie folgt erklären: Die in der Formel nach Gl. 5.83 verwendeten Kanalsignale xm(k) sind theoretisch monomodal, praktisch jedoch immer Potentialdifferenzen zu einer physischen Referenz (s. Abschn. 2) oder Differenzen zwischen zwei Messpunkten (Gl. 5.84). xm k M m k M R k
(5.84)
In Gl. 5.84 ist xm(k) das Signal im Kanal m, Mm(k) das Potential am Sensor m und MR(k) das Potential am Referenzsensor.
5.4 Räumlich-zeitliche Filterung
373
Für eine unipolare54 Ableitung folgt aus der Beziehung nach Gl. 5.84, dass jede Störung am Referenzsensor bzw. am Masseanschluss direkt in sämtliche Kanäle des Sensorarrays übertragen wird. Hier kann die CAR zunächst Abhilfe schaffen, da unter Berücksichtigung von Gl. 5.83 und Gl. 5.84 zunächst Folgendes gilt (Gl. 5.85): xmcar
M m M R §¨¨ M R ©
1 M
M
·
i 1
¹
¦ Mi ¸¸ M m
1 M
M
¦ Mi .
(5.85)
i 1
(In Gl. 5.85 und in den weiteren Formulierungen wurde der Zeitindex k wegen einer besseren Übersichtlichkeit weggelassen). Nach der Formulierung in Gl. 5.85 trägt also die CAR – zumindest theoretisch mit den genannten Vorbehalten – dazu bei, dass die auf der CAR referenzierten Messdaten von der tatsächlichen Referenz x*R(k) unabhängig sind. Allerdings führt dieser Ansatz zu Problemen, die anschließend behandelt werden. Bei der weit häufiger angewandten bipolaren Ableitung gilt (Gl. 5.86): xmn
xm xn
M m M R car M n M R car
Mm Mn .
(5.86)
Aus der Beziehung nach Gl. 5.86 folgt, dass auf ein bipolares Biosignal weder die tatsächliche Referenz (Voraussetzung ist eine vorab unipolare Ableitung nach Gl. 5.84) noch die CAR (falls vorhanden) irgendeinen Einfluss haben. Die bisherigen Ausführungen lassen sich in den folgenden Thesen zusammenfassen: -
Eine (physische oder physiologische) Referenz beeinflusst ein unipolares Biosignal im selben Maße wie das Signal selbst (Gl. 5.84). Die Mittelwertreferenz CAR eliminiert den Einfluss von physischen und physiologischen Referenzen (Gl. 5.85). Ein bipolares Biosignal ist von physischen, physiologischen und virtuellen (CAR) Referenzen (falls vorhanden) unabhängig und daher das robusteste Mittel gegen Störungen (Gl. 5.86).
Übertragung lokaler Aktivitäten auf das Sensorarray Die Anwendung der CAR zur Referenzierung von mehrkanaligen Biosignalen nach Gl. 5.85 kann neben positiven Effekten hinsichtlich der Störungen auch zu Problemen bei der Interpretation der räumlichen Verteilung der untersuchten Sig-
54
ne
Die Unterscheidung zwischen unipolar und bipolar erfolgt hier im elektrophysiologischen Sin-
374
5 Digitale Filter
nale führen. Interpretiert man die CAR-Referenzierung zunächst nur signalanalytisch, so stellt man fest, dass -
jedem Sensorpotential ein Teil (1/M) aller anderen Sensorpotentiale additiv (mit umgekehrten Vorzeichen) überlagert wird,
-
dass dadurch der Einfluss der einzelnen unerwünschten Kanäle reziprok mit der Kanalanzahl zunimmt,
-
dass durch die Vermischung die Kreuzkorrelation zwischen den Kanälen zunimmt,
F1
0.6
Fz
0.6
0.6
0.4
0.4
0.4
0.2
0.2
0.2
0
0
10
20
0
0
C1
10
20
0
0
Cz 0.4
0.4
0.2
0.2
0.2
0
10
20
0
0
P1
10
20
0
0
Pz 0.4
0.4
0.2
0.2
0.2
0
10 O1
20
0
0
10 Oz
20
0
0
0.4
0.4
0.4
0.2
0.2
0.2
0
0
10
20
0
0
10
20
10
20
P2
0.4
0
10 C2
0.4
0
F2
20
0
0
10 O2
20
10
20
Abb. 5.45 Spektrum (relative Amplitude vs. Frequenz in Hz) eines simulierten EEG mit AlphaWellen im okzipitalen Bereich (O1, Oz, O2). Die Bezeichnung der Elektrodenpositionen entspricht dem EEG-Standard
5.4 Räumlich-zeitliche Filterung
-
375
und in der Summe aller genannten Effekte jedes Sensorpotential das Vorhandensein von Signalanteilen vortäuscht, die real nicht vorhanden sind.
Diese Effekte demonstriert das folgende realitätsnahe Simulationsbeispiel. Man geht von einem 4x3-Sensorarray aus, mit dem eine Projektion der elektrischen neuronalen Aktivität erfasst werden soll, wie sie beim Mapping55 von Muskelaktivität (EMG), der Herztätigkeit (EKG) oder der kortikalen Aktivität (EEG) üblich ist. Hier wurde die im okzipitalen Kortex entstehende Alpha-Welle (Frequenz 10
F1
0.6
Fz
0.6
0.4
0.4
0.4
0.2
0.2
0.2
0
0
10
20
0
0
C1
10
20
0
0.4
0.2
0.2
0.2
10
20
0
0
P1
10
20
0
0.4
0.2
0.2
0.2
10 O1
20
0
0
10 Oz
20
0
0.4
0.4
0.4
0.2
0.2
0.2
0
0
10
20
0
0
10
20
10
20
P2
0.4
0
0
Pz
0.4
0
10 C2
0.4
0
0
Cz
0.4
0
F2
0.6
20
0
0
10 O2
20
0
10
20
Abb. 5.46 Spektrum (relative Amplitude vs. Frequenz in Hz) eines simulierten EEG mit AlphaWellen im okzipitalen Bereich (O1, Oz, O2) nach einer Referenzierung auf die CAR. Die Bezeichnung der Elektrodenpositionen entspricht dem EEG-Standard. Die Amplitude der AlphaWellen beträgt im okzipitalen Bereich 75%, in den übrigen Bereichen 25% des ursprünglichen Wertes
55
Flächenhafte oder räumliche Darstellung von Biosignalen und ihren Parametern
376
5 Digitale Filter
Hz) simuliert, die mit einem normalverteilten stationären Rauschen additiv eingebettet ist (Abb. 5.45). Alle anderen Bereiche Frontal (F1, Fz, F2), Central (C1, Cz, C2) und Parietal (P1, Pz, P2) enthalten zunächst nur Rauschen. Referenziert man die Kanäle nach der Gl. 5.85 auf die CAR, so verändern sich auch die Spektren auf allen Sensorpositionen (Abb. 5.46). Die Amplituden der Alpha-Wellen in ihrem Ursprungsbereich (okzipital) sind reduziert, dafür erscheinen Alpha-Wellen in allen anderen Bereichen mit einer entsprechend geringeren Amplitude. Die Folge der CAR-Referenzierung ist, dass aus einem lokalen Bereich der untersuchten Struktur Signalanteile in alle übrigen Bereiche hineingetragen wurden, in den sie ursprünglich gar nicht enthalten waren und damit ihr Vorhandensein nur vortäuschen. Bei simulierten Signalen, wie in diesem Beispiel, kann man das Problem noch früh und eindeutig erkennen. Bei realen Daten ist es jedoch gar nicht möglich, den Wahrheitsgehalt der Signalanalyse zu überprüfen, da weder das gesuchte Signal noch die Störungen vorab bekannt sind. Die F olge einer solchen fehlerhaften Interpretation können im medizinischen Bereich teilweise bizarre Schlussfolgerungen bis fatale Diagnosen sein. Ein wichtiger Bestandteil der Biosignalverarbeitung ist die statistische Analyse der Daten und der Ergebnisse (s. Abschn. Stochastische Prozesse). Einen besonderen Stellenwert in der BSV genießt die Korrelationsanalyse, mit der statistisch gesicherte Zusammenhänge untersucht und nachgewiesen werden können. Eine erste gute Orientierung bietet der wohl bekannte Korrelationskoeffizient (KK) nach Pearson. In Abb. 5.47 sind die KK-Matrizen der im Beispiel simulierten Kanalsignale dargestellt. CAR-Referenzierung
Kanalnummer
Original 2
2
4
4
6
6
8
8
10
10
12
12 2
4 6 8 10 12 Kanalnummer
2
4 6 8 10 12 Kanalnummer
Abb. 5.47 Kreuzkorrelationsmatrix (Betrag des Kreuzkorrelationskoeffizienten) des simulierten Signals (links) aus Abb. 5.45 mit Alpha-Wellen im okzipitalen Bereich (Kanalnummern 10 bis 12) und desselben Signals (Abb. 5.46), das auf der CAR referenziert wurde (rechts). Die Grauwerte auf der Hauptdiagonale entsprechen dem Korrelationskoeffizienten 1.0 (Autokorrelation), weiß entspricht einem Korrelationskoeffizienten von 0.0
5.5 Übungen
377
Der Grauwert entspricht dem Betrag des KK, wobei schwarz (Hauptdiagonale) den Wert von KK = 1.0 und weiß den Wert von KK = 0.0 repräsentieren. Im Originalsignal enthalten die okzipitalen Kanäle (Kanalnummern 10 bis 12) verrauschte Alpha-Wellen, so dass sie miteinander sehr gut korrelieren (hohe Ähnlichkeit). Die übrigen Kanäle enthalten nur Rauschen, das bekanntlich theoretisch eine nullwertige Korrelation besitzt, die hier den natürlichen Schwankungen des Rauschens folgt. Nach der CAR-Referenzierung nimmt die Korrelation zwischen den bisherigen Rauschkanälen (Kanalnummern 1 bis 9) und den okzipitalen Kanälen stark zu. Damit wird ein gesicherter statistischer Zusammenhang vorgetäuscht, der in den Originaldaten gar nicht vorhanden war. Die möglichen Folgen eines solchen Fehlschlusses wurden bereits genannt.
5.5 Übungen
5.5.1 Aufgaben
1 Analoge und digitale Filter – Impuls-Invariante Technik Entwerfen Sie einen analogen Tiefpass 3. Ordnung mit einer Grenzfrequenz von 45 Hz. Vergleichen Sie die berechnete analoge mit der digitalen Impulsantwort sowie mit der Impulsantwort einer simulierten elektronischen Schaltung. Berechnen Sie die Filterkoeffizienten eines Butterworth-Tiepasses für eine Abtastrate von 250 sps mit Hilfe der Impuls-Invarianten Technik nach dem folgenden Schema: 1. Analoge Übertragungsfunktion G a s
bs a s
b1s N ... bN 1 s N ... a N 1
2. Partialbruchzerlegung Ga s
ki 1 s pi
N
¦
i
3. Analoge Impulsantwort über die inverse Laplace-Transformation
378
5 Digitale Filter N
g a t ¦ k i e pi t , i 1
4. Abgetastete Impulsantwort (T ist die Abtastperiode) N
g s n Tg a nT T ¦ k i e pi nT , 1
5. Z-Transformation von N
gs(n) G z ¦ i
Tk i
1 1 1 pi z
,
6. Polynomiale Umstellung Gz
b0 b1 z 1 ... bm z m 1 a1 z 1 ... an z n
,
7. Rekursivformel y (n) b 0 x(n) b1 x(n 1) ..... a1 y (n 1) a 2 y (n 2) ...
2 Entwurf eines FIR-Filters nach der Fenstermethode Ein digitaler Tiefpass mit einer Grenzfrequenz von 45 Hz zur Begrenzung des Spektrums eines mit 250 sps abgetasteten EKG und vor allem zur Unterdrückung der Netzstörung soll entworfen werden. Untersuchen Sie den Einfluss der Fensterfunktion und der Fensterlänge auf den Amplituden- und Phasenfrequenzgang bzw. die Gruppenlaufzeit für die Fensterfunktionen Rechteck, Dreieck (Bartlett), Hamming und Blackman für die Fensterlängen 11, 101 und 1001. Welches Filter erfüllt am besten die Forderung nach der Bandbegrenzung? Welches Filter wäre für eine echtzeitfähige Signalverarbeitung (z.B. für einen Herzschrittmacher) geeignet? 3 LTV, lineare zeitvariable Filter Simulieren Sie den Verlauf eines akustisch evozierten Potentials mit Hilfe eines hyperbolischen Chirps. Überlagern Sie diesen Chirp additiv mit einem linearen Chirp mit ansteigender Frequenz, der die Einstreuung aus dem akustischen Stimulator simulieren soll (Abb. 5.15). Stellen Sie die überlagerten Chirps mit Hilfe des
5.5 Übungen
379
Spektrogramms in der Zeit-Frequenz-Ebene dar. Entwerfen Sie eine beliebige (nicht zwangsläufig eine binäre) Maske so, dass der lineare Chirp unterdrückt wird und die ROI den hyperbolischen Chirp einschließt (s. Abb. 5.16). Berechnen Sie aus dieser Maske die zeitvariable Impulsantwort des LTV-Filters (Gl. 5.36) und wenden Sie sie auf das Zeitsignal an (Gl. 5.33). Durch eine erneute Berechnung des Spektrogramms überprüfen Sie die Wirkung des LTV-Filters. 4 LTV, adaptive Filter Ein gespeichertes IPG (Impedanzplethysmogramm) mit Störungen vom Netz und von einem Röhrenmonitor sowie eine Rauschreferenz liegen gespeichert vor (ipgnois.mat). Die Werte des IPG sind auf m: und die Zeitachse auf die Abtastrate von 300 sps normiert. Entwerfen Sie ein adaptives Filter, mit dem die Störungen aus dem IPG beseitigt werden. Eine simple Bandsperre wäre für die Netzfrequenz denkbar, jedoch nicht für die Störung aus dem Monitor, da dieser seine Bildrate ändern kann. Untersuchen Sie den Einfluss der Filterlänge und der Adaptionskonstante auf das gefilterte IPG. 5 Adaptive räumliche Filterung Entwerfen Sie ein praktikables adaptives räumliches Filter. Ein simuliertes, 16kanaliges verrauschtes evoziertes Potential mit Laufzeitdifferenzen in den einzelnen Kanälen liegt vor und kann aus der Datei vepnois16ch.mat geladen werden. Beachten Sie, dass die Laufzeitunterschiede bezüglich der Hauptwelle mehr als eine halbe Periode betragen. Dimensionieren Sie die Adaption so, dass der Algorithmus weder divergiert noch instabil ist. Beachten Sie, dass die Adaptionsschrittweite der Kanalverzögerung im Sinne der Stabilität auch kleiner sein kann, als die Abtastperiode. Durch Akkumulation der kleinen Schritte kann man die notwendige Veränderung im Raster der Abtastperioden erreichen. Untersuchen Sie den Einfluss der Rauschleistung auf die Adaption und bestimmen Sie das niedrigste SNR, bei dem die Adaption noch funktioniert. 6 Einfluss der Mittelwertreferenz Untersuchen Sie die Wirkung der Mittelwertreferenz auf die Übertragung von lokalen Aktivitäten auf das gesamte Sensornetz. Simulieren Sie dazu ein Sensornetz (Sensormatrix), wobei die einzelnen Sensoren zunächst nur weißes und räumlich unkorreliertes Rauschen produzieren bzw. empfangen sollen. Simulieren Sie weiterhin eine deterministische lokale Aktivität im Sensornetz, in dem um eine ausgewählte Stelle wenige Sensoren ein dem Rauschen additiv überlagertes, deterministisches Signal enthalten (z.B. eine harmonische Schwingung oder einen transienten Verlauf). Diese Simulation stellt eine ideale unipolare Ableitung dar,
380
5 Digitale Filter
da sowohl das Rauschen als auch das deterministische Signal unabhängig von jeglicher Referenz generiert wurden. Referenzieren Sie das Sensornetz auf die Mittelwertreferenz, in dem diese nach Gl. 5.85 berechnet und von den Sensorsignalen nach Gl. 5.84 subtrahiert wird. Untersuchen Sie die Wirkung der Mittelwertreferenz sowohl im Zeit- als auch im Frequenzbereich sowie der Korrelation zwischen den Sensoren.
5.5.2 Lösungen 1 Analoge und digitale Filter – Impuls-Invariante Technik Im einfachsten Fall besteht ein Tiefpass 3. Ordnung aus einer Reihenschaltung von fünf identischen Tiefpässen 1. Ordnung. Für die Übertragungsfunktion einer solchen Reihenschaltung gilt (T = RC) 1
G jZ
1 jZT 3
.
Nach der Potenzierung erhält man für die Übertragungsfunktion G jZ
1 2
2
1 3Z T j 3ZT Z 3T 3
und mit Hilfe der inversen Fouriertransformation die analoge Impulsantwort g t
t2 2T 3
e
t T
.
Bei der Grenzfrequenz Zg fällt der Amplitudenfrequenzgang um 3 dB ab, so dass gilt
G jZ g
1 . 2
Wendet man diese Forderung auf die Übertragungsfunktion an, so erhält man für die Zeitkonstante 3
T
2 1
Zg
.
5.5 Übungen
381
80 70 60
g(t)
50 40 30 20 10 0 0
0.005
0.01
t/s
0.015
0.02
0.025
Abb. 5.48 Abgetastete Impulsantwort eines Tiefpasses 3. Ordnung, der aus drei identischen Tiefpässen erster Ordnung besteht. Abtastrate ist 1000 sps. Die analoge und zeitdiskrete Impulsantwort werden in der Matlab-Funktion uebung_5_1.m berechnet
6.0mV 5.0mV
1. Ordnung
4.0mV 3.0mV 2. Ordnung
2.0mV 1.0mV
3. Ordnung
0V -1.0mV 0s
2ms
4ms
6ms
8ms
10ms Time
12ms
14ms
16ms
18ms 20ms
Abb. 5.49 Impulsantworten einzelner Stufen des Tiefpasses 3. Ordnung im analogen Bereich (PSpice-Simulation BSV_5.1)
382
5 Digitale Filter
abgetastete Impulsantwort Butterworth 3. Ordnung
0.6 0.5
gs(t)
0.4 0.3 0.2 0.1 0 -0.1 0
0.01
0.02
0.03
t/s
0.04
0.05
0.06
Abb. 5.50 Abgetastete Impulsantwort des Butterworth-Tiefpasses 3. Ordnung mit einer Grenzfrequenz von 45 Hz und einer Abtastrate von 250 sps
Bei der geforderten Grenzfrequenz von 45 Hz beträgt die Zeitkonstante T = 1.8 ms und die Grenzfrequenz der einzelnen Tiefpässe 1. Ordnung fg = 88 Hz. Die analoge Impulsantwort muss abgetastet werden. Dazu ist zunächst die Wahl einer geeigneten Abtastrate erforderlich. Bekannt ist, dass die Grenzfrequenz des gesamten Filters 45 Hz und das Filter die Ordnung drei besitzt. Dies bedeutet, dass in einem Abstand von einer Dekade, d.h. bei 450 Hz, das Filter eine Unterdrückung von 60 dB aufweist. Dies ist hinreichend viel, um hier die NyquistFrequenz zu setzen, woraus sich eine Abtastrate von etwa 1000 sps ergibt. Die abgetastete Impulsantwort ist in Abb. 5.50 dargestellt (s. uebung_5_1.m). Zum Vergleich kann man diesen Tiefpass im PSpice simulieren (s. BSV_5.1.sch). Nach dem vorgegebenen Schema kann man mit Hilfe der Impuls-Invarianten Technik die Filterkoeffizienten wie folgt berechnen: 1. Mit Hilfe der Matlab-Funktion butter.m erhält man die Koeffizienten der analogen Übertragungsfunktion Ga s
bs as
2.26 10 7 s 3 565s 2 1.5989 10 5 s 2.26 10 7
,
5.5 Übungen
383
2. Partialbruchzerlegung 282.7 141.4 81.6i 141.4 81.6i Ga s , s 282.7 s 141.7 244.8i s 141.7 244.8i 3. Analoge Impulsantwort über die inverse Laplace-Transformation g a t 282.7e 282.7t 141.4 81.6i e 141.4 244.8i t , 141.4 81.6i e 141.4 244.8i t 4. Abgetastete Impulsantwort (s. Abb. 5.50), § 282.7 e 282.7n0.004 · ¸ ¨ g s n 0.004 ¨ 141.4 81.6i e 141.4 244.8i n0.004 ¸ ¸ ¨ ¸ ¨ 141.4 81.6i e 141.4 244.8i n0.004 ¹ © 5. Z-Transformation von gs(n) N Tk i G z ¦ 1 i 1 1 pi z 0.5656 0.3264i 0.5656 0.3264i · § 1.13 ¨ ¸ 1.13 1 0.5656 0.9792i 1 1 e z 1 e 0.5656 0.9792i z 1 ¹ ©1 e z
,
6. Polynomiale Formulierung 0.0004 z 2 0.3148 z 1 0.1498 , G z z 3 0.9563 z 2 0.5271z 1 0.1041 7. Filtergleichung 0.1041 y n 0.1498 xn 0.3148 xn 1 0.0004 xn 2 . 0.527 y n 1 0.956 y n 2 y n 3
2 Entwurf eines FIR-Filters nach der Fenstermethode Die Übertragungsfunktion eines idealen Tiefpasses und seiner abgetasteten Impulsantwort für die ersten 1001 Stützstellen sind in Abb. 5.10 dargestellt. Diese Impulsantwort wird mit den vorgegebenen Fensterfunktionen und Fensterlängen multipliziert (maskiert) und der zugehörige Amplitudenfrequenzgang dargestellt (s. uebung_5_2.m). Die Filterfunktionen für die Fensterlänge von N = 11 sind in Abb. 5.51, für die Fensterlänge von N = 101 in Abb. 5.52 dargestellt. Pauschal kann man zunächst feststellen, dass ab einer Fensterlänge von etwa 1000 Koeffizienten die gewünschte Übertragungsfunktion in den meisten Fällen nahezu ideal erreicht wird. Allerdings ist diese Filterordnung für schnelle Berechnungen ungeeignet. Für die praktische Signalverarbeitung sind deutlich kürzere Filter notwen-
384
5 Digitale Filter
G / dB
Rechteck
Bartlett
0
0
-20
-20
-40
-40
-60
-60
-80
-80
-0.5
0
0.5
-0.5
G / dB
Hamming
0.5
Blackman
0
0
-20
-20
-40
-40
-60
-60
-80 -0.5
0
-80 0 relative Frequenz
0.5
-0.5
0 relative Frequenz
0.5
Abb. 5.51 Amplitudenfrequenzgänge bei verschiedenen Fensterfunktionen und einer Fensterlänge von N = 11
G / dB
Rechteck
Bartlett
0
0
-20
-20
-40
-40
-60
-60
-80 -0.5
-80 0
0.5
-0.5
G / dB
Hamming
0.5
Blackman
0
0
-20
-20
-40
-40
-60
-60
-80 -0.5
0
-80 0 relative Frequenz
0.5
-0.5
0 relative Frequenz
0.5
Abb. 5.52 Amplitudenfrequenzgänge bei verschiedenen Fensterfunktionen und einer Fensterlänge von N = 101
5.5 Übungen
385
dig. Vergleicht man die Fensterlängen von N = 11 und N = 101, so wird die bessere Filterwirkung erwartungsgemäß mit der höheren Filterordnung von N = 101 erreicht. Vergleicht man bei dieser Filterordnung die (vorgegebenen) Fensterfunktionen, so ist der eindeutige Favorit das Blackman-Fenster (Abb. 5.52). Für eine Echtzeitanwendung wäre eine Fensterlänge von N = 101 jedoch völlig ungeeignet, da sie zu einer Zeitverzögerung von mindestens td = TA*(N-1)/2 = 200 ms führen würde (td ist die Gruppenlaufzeit bzw. die Verzögerung, TA ist die Abtastperiode, hier 4 ms). Daher muss die Fensterlänge noch einmal deutlich verkürzt werden. Vergleicht man die Filterfunktionen für die Fensterlänge von N = 11 (s. Abb. 5.51), so ist der Favorit nicht mehr so klar ersichtlich, wie bei N = 101. Das Blackman-Fenster bietet die höchste Sperrdämpfung, hat aber die breiteste Filterflanke. Das Rechteck-Fenster hat die steilste Filterflanke, aber die niedrigste Sperrdämpfung. Sucht man zwischen diesen Extremen nach einem mittleren Kompromiss, bietet diesen das Hamming-Fenster. Dagegen ist das Bartlett-Fenster unter beiden Gesichtspunkten gänzlich ungeeignet. 3 LTV, lineare zeitvariable Filter Grundsätzlich kann man das LTV-Filter auf zwei Wegen berechnen: Ist das gesuchte Signal bekannt, so kann man die ROI dazu als Durchlassfilter definieren. Öfter jedoch ist die Störung bekannt, wie in diesem Fall, zu der kann man
Maske zum Ausblenden des linearen Chirps 0.4
relative Frequenz
0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4 -0.5 0
50
100
150
Zeitindex
200
250
Abb. 5.53 Zeitvariable Bandsperre zum Ausblenden des linearen Chirps in Abb. 5.15
386
5 Digitale Filter
Maskiertes Spektrogramm 0.4
relative Frequenz
0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4 -0.5 0
50
100
150
Zeitindex
200
250
Abb. 5.54 Spektrogramm der additiven Überlagerung aus einem linearen und einem hyperbolischen Chirp nach Anwendung der zeitvariablen Bandsperre auf den linearen Chirp
einSperrfilter formulieren. Geht man von einer additiven Überlagerung eines hyperbolischen (Sollsignal) und eines linearen (Störsignal) Chirps aus (Abb. 5.15), so kann man für den linearen Chirp eine zeitvariable Bandsperre berechnen (Abb. 5.53). Zur Berechnung des Filters kann dieselbe Formel verwendet werden, mit der der Chirp generiert wurde. Damit die Sperre den Chirp auch sicher überdeckt, wendet man bei ihrer Übertragung in die Zeit-Frequenz-Ebene ein kürzeres Fenster als bei der Transformation des linearen Chirps (Abb. 5.53). Anschließend invertiert man die Zeit-Frequenz-Verteilung mit dem kürzeren Fenster und binarsiert die Sperre (s. uebung_5_3.m). Nach Anwendung der Maske auf das Spektrogramm ist der lineare Chirp weitgehend eliminiert, allerdings auch ein Teil des hyperbolischen Chirps (Abb. 5.54). Für die zeitvariable Bandsperre kann man nach Gl. 5.36 die zeitvariable Impulsantwort berechnen. Diese ist allerdings nicht praktikabel, da sie dieselbe Länge besitzt, wie das Signal selbst. Für ein praktikables Filter müsste man mit einem speziellen Entwurfsverfahren wesentlich kürzere zeitvariable Impulsantworten berechnen, damit sie auf das Zeitsignal auch im Verlauf angewandt werden können. Für Details eines Filterentwurfs wird auf die Literatur [3] verwiesen. Eine Variante zur Berechnung der Filterkoeffizienten bieten die Adaptiven Filter.
5.5 Übungen
387
IPG / mOhm
Adaptionskonstante 0.01 40 20 0 -20 0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
4
4.5
5
IPG / mOhm
Adaptionskonstante 0.005 40 20 0 -20 0
0.5
1
1.5
2
2.5
Zeit / s
3
3.5
Abb. 5.55 IPG nach adaptiver Filterung mit einer Adaptionskonstante von 0.01 (oben) und 0.005 (unten)
4 LTV, adaptive Filter Zunächst legt man die Länge des Transversalfilters fest. Sinnvoll sind ungerade Zahlen, damit die Impulsantwort um den Startwert bei W = 0 symmetrisch ist. Sonst kann man die Filterlänge frei wählen. Bei ihrer Wahl spielen vor allem Überlegungen zur spektralen Auflösung und zur Dynamik eine entscheidende Rolle. Mit steigender Filterlänge nimmt die spektrale Auflösung zu und die Dynamik ab. Als Anfangswert für diese Aufgabe ist N = 101 zu empfehlen. Die normierte Adaptionskonstante muss im Bereich 0 < P < 1 liegen, sonst ist ihre Wahl zunächst frei (s. uebung_5_4.m). Eine hohe Konstante führt zur schnellen Adaption aber auch zu größeren Störungsresten im gefilterten Signal (Abb. 5.55). 5 Adaptive räumliche Filterung Beim Entwurf des adaptiven räumlichen Filters sind die Beziehungen nach Gl. 5.74 bis 5.81 algorithmisch umzusetzen. Dabei sind aus Sicht der numerischen Mathematik folgende Randbedingungen zu berücksichtigen, die sich aus der theoretischen Formulierung ergeben: 1. Zur Berechnung der Gradientenschätzung nach Gl. 5.79 unter Anwendung der Gl. 5.80 darf sich die Datenmenge bzw. die Daten der kanalbezogenen Analy-
388
5 Digitale Filter
sefenster nicht verändern. Hierzu kann man die Analysefenster der Kanäle nach beiden Seiten mit Nullsequenzen hinreichender Länge auffüllen. Eine Veränderung in den Kanaldaten würde einen Gradienten vortäuschen, der sich aber nicht aus der Zeitverschiebung ergäbe. 2. Die Adaption der Kanalverzögerung nach Gl. 5.81 kann natürlich nur in den kleinsten zur Verfügung stehenden Schritten – mit der Abtastperiode – erfolgen. Doch die Abtastperiode als Quantisierungsschritt kann bereits zur Instabilität führen. Daher ist es ratsam, im Algorithmus eine deutlich kleinere Schrittweite 'Gj zu wählen und diese zu akkumulieren, bis sie die Länge der Abtastperiode erreicht. Daher kann man die Gl. 5.81 für die algorithmische Lösung ergänzen:
¦ P 'G i ! TA n : n 1 . i
Die Untersuchung der Abhängigkeit der Adaption vom SNR zeigt, dass das grenzwertige SNR (der Kanäle) bei etwa SNR = 5 dB liegt. Unterhalb dieses Wertes ist der Gradient kaum noch ermittelbar und der durch die Adaption erreichte Zuwachs nur noch unwesentlich. Zur Kontrolle der eigenen vorgeschlagenen Lösung kann die Funktion uebung_5.5.m genutzt und ihre Parameter entsprechend geändert werden.
6 Einfluss der Mittelwertreferenz Man wählt eine Sensormatrix mit ähnlichen Dimensionen, wie sie in der EEGoder Mapping-Technik eingesetzt werden, z.B. S(m,n), m = 4, n = 3. Jedem Sensor wird eine Signalsequenz der Länge L zugeordnet, zunächst das geforderte weiße und räumlich unkorrelierte Rauschen: sm,n = {N1(0,1),…, NL(0,1)}, wobei N(0,1) die Normalverteilung mit Mittelwert P = 0 und Streuung V = 1 repräsentiert. Für die Korrelationsanalyse empfiehlt sich eine Sequenzlänge von mindestens L = 1000. Eine lokale Aktivität kann simuliert werden, in dem beispielsweise die letzte Sensorreihe (m = 4) eine harmonische Schwingung erhält. Dieser Ansatz würde in der Realität der Entstehung von D-Wellen im okzipitalen Kortex entsprechen (s. Abb. 5.45). Nach der Berechnung der CAR und ihrem Abzug von allen Sensorsequenzen stellt man fest (s. Abb. 5.46): 1. Das ursprünglich nur lokal vorhandene deterministische Signal ist in allen Sensoren enthalten. 2. Die Amplitude des deterministischen Signals nahm in der originären lokalen Aktivität ab. Die Amplitudenverhältnisse der aktiven und passiven Regionen verhalten sich entsprechend dem Quotienten der Sensorenzahl in der aktiven zu der passiven Region.
5.5 Übungen
389
3. Die Signale in der passiven Region haben im Vergleich zu den Signalen der aktiven Region eine entgegen gesetzte Phase bzw. ein umgekehrtes Vorzeichen (Folge der CAR-Subtraktion) 4. Die Korrelation zwischen Sensoren der aktiven Region nimmt ab, in der passiven Region zu. Die Korrelation zwischen Sensoren der aktiven und der passiven Region liegt zwischen den beiden genannten Korrelationen (s. Abb. 5.47). Zur Kontrolle oder zur Untersuchung des Einflusses verschiedener Parameter kann die Funktion uebung_5_6.m verwendet werden.
Literatur [1] Ingle, V.K., Proakis, J.G.: Digital Signal Processing using MATLAB, Thomson, 2007 [2] Widrow, B., Glover, J.R., McCool, J.M., Kaunitz, J., Williams, C.S., Hearn, R.H., Zeidler, J.R., Dong, E., Goodlin, R.C.: Adaptive Noise Cancelling: Principles and Applications, Proceedings IEEE, 63(12), 1692-1716, December 1975 [3] Boashash, B.: Time Frequency Signal Analysis and Processing, Elsevier, 2003.
Kapitel 6
Stochastische Prozesse
Als stochastisch bezeichnet man in der Technik und Naturwissenschaft Prozesse, die einen Zufallscharakter besitzen bzw. den man einen Zufallscharakter zuschreibt. Streng genommen – entsprechend dem Kausalitätsprinzip – gibt es keinen Zufallsprozess. An dieser Stelle werden von den weiteren Überlegungen die Relativitätstheorie sowie die Quantenphysik und alle philosophisch begründeten Theorien ausgenommen. Das besprochene Gebiet grenzt sich relativ schmal auf die Biologie, Elektroneurophysiologie und die elektrisch basierte Biosignalanalyse ein. Dass man einen Vorgang nicht im Stande oder wegen des zu hohen Aufwandes nicht gewillt ist, analytisch (kausal) zu beschreiben, heißt noch nicht, dass es sich um einen puren Zufallsprozess handelt. Einen indirekten Beweis dafür, dass vermeintliche Zufallsprozesse dennoch gewissen Gesetzmäßigkeiten gehorchen, liefern bekannte und verifizierte Zusammenhänge. In der Signalverarbeitung ist es beispielsweise ein allgemein akzeptierter Usus, dass das thermische Rauschen ein Zufallsprozess ist, der in nahezu idealer Weise auch noch weiß und normalverteilt ist. Dennoch gibt es in diesem Prozess klare, physikalisch begründete Gesetzmäßigkeiten: Mit steigender Temperatur und spektraler Bandbreite nimmt die Rauschleistung zu. Diese Gesetzmäßigkeiten ließen sich im Extremfall bis auf das Niveau von einzelnen Elektronen bzw. Ionen weiterverfolgen. Im Normalfall ist diese analytische Exaktheit in der Signalverarbeitung nicht notwendig und schon gar nicht sinnvoll. Für die Theorie und auch für die Praxis reicht zur Beschreibung des thermischen Rauschens ein einziger Parameter aus: Die Rauschleistung bzw. die Varianz im Sinne der Statistik zweiter Ordnung. Fazit dieser Überlegungen ist, dass zwar alle Prozesse (unter der oben genannten Einschränkung) kausalen Zusammenhängen unterworfen sind. Für die Analyse nimmt man aber aus Gründen der Simplifikation oder einfach der Unkenntnis der Kausalität an, dass es Zufallsprozesse sind. Diese Sichtweise der konventionellen Signaltheorie wurde zunächst großflächig und unverändert auch in die Biosignalverarbeitung übernommen. Die praktische Analyse von Biosignalen zeigte jedoch sehr schnell die Grenzen dieser Herangehensweise auf: Nicht eine einzige Annahme zu Signaleigenschaften, die in technischen und naturwissenschaftlichen Bereichen Gültigkeit haben (Stationarität der Prozesse, weißes bzw. bekannt modifiziertes Spektrum, Gaußsche bzw. bekannte Verteilung der Zufallsgrößen), trifft auch auf die Biosignale zu. Dennoch kann man aus Mangel an akzeptablen Alternativen auf das umfangreiche, über Jahrzehnte kumulierte Instrumentarium der stochastischen Prozessanalyse nicht verzichten. Daher kann der Ausweg zunächst darin bestehen, die etablierten Me-
P. Husar, Biosignalverarbeitung, DOI 10.1007/978-3-642-12657-4_6, © Springer-Verlag Berlin Heidelberg 2010
392
6 Stochastische Prozesse
thoden den realen Signaleigenschaften anzupassen. Mit dieser Herangehensweise beschäftigt sich das folgende Kapitel: Aufbauend auf der konventionellen analytischen Statistik und Prozessanalyse werden Wege zu ihrer Anwendung auf Biosignale gezeigt. Einen anderen Ausweg bietet die Alternative, völlig neue Analysemethoden zu entwickeln, die von vornherein von realen Signaleigenschaften ausgehen. Dieser Zugang ist Gegenstand der gegenwärtigen Forschung – auch am Institut BMTI der TU Ilmenau - und kann bei Interesse in entsprechenden Quellen nachgeschlagen werden.
6.1 Grundlagen der analytischen Statistik
6.1.1 Verteilungen von Zufallsgrößen 6.1.1.1 Stetige und diskrete Verteilungen Eine Zufallsgröße bezeichnet man als stetig, wenn sie sämtliche reelle Werte annehmen kann. Dann bezeichnet man die Funktion (Gl. 6.1) F x : P X x ,
x f, f
(6.1)
als Verteilungsfunktion von X (P ist die Wahrscheinlichkeit, X ist die Zufallsgröße, x ist ein konkreter Wert der Zufallsgröße X). Die Wahrscheinlichkeit des Auftretens von Werten im Intervall (a, b) lässt sich durch Berechnung der Fläche der Verteilungsfunktion in diesem Intervall ermitteln (Gl. 6.2). P a d X d b F b F a
b
³ f x dx
(6.2)
a
Aus Gl. 6.2 folgt f x
d F x , dx
(6.3)
wobei man f(x) als Verteilungsdichte (Wahrscheinlichkeitsdichtefunktion) bezeichnet. Die wohl bekannteste und für die Statistik eine der wichtigsten Verteilungen ist die Gauß-Verteilung (Gl. 6.4), auch Normalverteilung genannt.
6.1 Grundlagen der analytischen Statistik
393 x P
2
f x | P , V
1
V 2S
e
2V 2
(6.4)
In Gl. 6.4 ist P der Lageparameter, V der Streuungsparameter.
Der Zusammenhang zwischen der Verteilungsfunktion und der Verteilungsdichte ist in Abb. 6.1 dargestellt. Aus den Beziehungen Gl. 6.1 bis Gl. 6.3 folgt, dass man bei stetigen Zufallsgrößen die Wahrscheinlichkeit für einen einzelnen reellen Wert nicht angeben kann, da dieser asymptotisch nullwertig ist (siehe Übungen). Die Wahrscheinlichkeit für das Auftreten von Werten kann daher immer nur für ein Intervall ermittelt werden. Für eine Standardnormalverteilung N(PV) = N(0,1) gilt, dass F(1) - F(-1) = 68% der Werte im Bereich von -V < X < V liegen, so dass die Wahrscheinlichkeit für das Auftreten eines Wertes innerhalb dieses Intervalls F(1) – F(-1) = 0.84 - 0.16 = 0.68 beträgt (Abb. 6.1). Eine Verteilung bezeichnet man als diskret, wenn sie nur isolierte, diskrete Werte annehmen kann. Dabei können diese Werte durchaus reelle Zahlen sein, wie auch bei einer stetigen Verteilung (Gl. 6.5).
1
F(x)
0.9
F(1)
0.8
f(x), F(x)
0.7
P(-1<X<1) = F(1) - F(-1)
0.6 0.5 0.4 0.3 0.2
f(x)
F(-1)
0.1 0 -4
-3
-2
-1
0
x
1
2
3
4
Abb. 6.1 Verteilungsdichte f(x) und Verteilungsfunktion F(x) einer Gauß-Verteilung mit P = 0 und V = 1 (Standardnormalverteilung)
394
6 Stochastische Prozesse
X ^x1 , x 2 , x3 ,...`,
p1 : P X
xj R
x1 ,..., p n : P X
(6.5)
xn
(6.6)
so dass die Folge dieser Wahrscheinlichkeiten die Verteilungsdichte beschreibt (Gl. 6.7). f xn
^p1 , p2 , p3 ,..., pn `
'F x n , 'x
F x
¦ f x j n
(6.7)
j 1
Die Unterscheidung zwischen stetigen und diskreten Verteilungen ist in der Theorie eindeutig und klar, wie oben beschrieben. In der praktischen Analyse stößt man jedoch schnell auf das Problem, an welcher Stelle der Datenerfassung und Verarbeitung man dieses Unterscheidungskriterium ansetzen soll. Einerseits gibt es Zufallsgrößen, die bereits ihrem Ursprung nach diskret sind, so zum Beispiel die Geburtenzahlen. Andererseits gibt es Größen, die ihrem Wesen nach stetig sind, aber im Laufe der Erfassung und Verarbeitung diskretisiert werden. So wird beispielsweise der Blutdruck als ganzzahliger Wert in mmHg angegeben, obwohl er eine stetige Größe ist. Auf diese Weise wird eine unendlich lange Druckskala auf einige wenige diskrete Stufen reduziert (etwa 50 bis 200 mmHg). Eine noch gröbere Diskretisierung findet bei der in der Praxis beliebten Ermittlung der Pulsrate statt: Man zählt die Pulsschläge (Palpation am Handgelenk) in einer relativ kurzen Zeit (10 oder 15 Sekunden) und multipliziert diese mit dem jeweiligen Faktor (6 oder 4), um die Herzrate in der Minute zu erhalten. Durch diese Quantisierung erhält man – von dem Messfehler einmal abgesehen – ein sehr grobes Raster an diskreten Werten (Sechser- bzw. Viererstufen). Eine weitere Dimension der Diskretisierung öffnet sich durch die automatisierte bzw. computergestützte Datenerfassung. Da sämtliche Patientendaten digitalisiert werden (in einem Patientenmonitor bis zu 20 Parameter), kann man grundsätzlich nur noch von diskreten Größen ausgehen. Allerdings muss man an dieser Stelle berücksichtigen, mit welcher Auflösung die Daten digitalisiert werden. Einerseits kann man beispielsweise die mit einem Pulsoximeter ermittelte stetige Sauerstoffsättigung mit einer Digitalisierungsbreite von 24 bit durchaus (16.8 Millionen Quantisierungsschritte) weiter als eine stetige Größe betrachten. Andererseits kann man Größen, die aus Geschwindigkeits- oder Kapazitätsgründen im Bereich von bis zu 10 bit nur grob digitalisiert werden (EKG-Mapping, Ultraschallbilder), nur noch als diskrete Größen (maximal 1024 Quantisierungsschritte) ansehen.
6.1.1.2 Verteilungen und Deskriptionsmaße In der Biostatistik kann man nur sehr selten von einer Gauß-Verteilung ausgehen. Sie tritt vor allem bei Größen technischen Ursprungs auf, beispielsweise als Rauschspannung eines medizinischen Verstärkers (Abb. 6.2). Zur Beschreibung von normalverteilten Größen reichen entsprechend der Beziehung nach Gl. 6.4
6.1 Grundlagen der analytischen Statistik
395
4
12
x 10
Ueff
absolute Häufigkeit
10 8 6 4
Upp 2
0
-8
-6
-4
-2
0
2
Rauschspannung / uV
4
6
8
Abb. 6.2 Absolute Verteilungsdichte der Rauschspannung eines medizinischen Verstärkers aus einer Million Messwerten. Die Breite der Histogrammklassen beträgt 0.5 PV. Die elektrischen Größen effektive Rauschspannung ueff = 2 PV und Spitze-Spitze-Spannung upp = 14 PV entsprechen den statistischen Maßen Standardabweichung s bzw. Spannweite R 5
3
x 10
Modus = 0
absolute Häufigkeit
2.5
Median = 0.33 2
Mittelwert = 1.0 1.5 1 0.5
0 -5
0
xp
5
10
Abb. 6.3 Absolute Verteilungsdichte des Produktes von zwei normalverteilten Zufallsgrößen aus einer Million Werten, deren Korrelationskoeffizient nach Pearson U = 0.5 beträgt. Vergleich von drei verschiedenen Lagemaßen für eine rechtsschiefe, doppelt exponentielle Verteilung
396
6 Stochastische Prozesse
zwei normalverteilte Zufallsgrößen mit ro = 0.5
6 4
x2
2 0 -2 -4 -6 -6
-4
-2
0
x1
2
4
6
Abb. 6.4 Zwei normalverteilte Zufallsgrößen, deren Korrelationskoeffizient nach Pearson U = 0.5 beträgt. Dargestellt sind 103 Wertepaare von insgesamt 106 Werten
zwei Parameter aus: der Lageparameter P (der beim Rauschen nullwertig ist) und der Streuungsparameter V. Da die wahren Parameter nicht bekannt sind, schätzt man sie mit Hilfe des empirischen Mittelwertes m und der Standardabweichung s bzw. der Varianz v (Gl. 6.5). m
x
1 N
N
¦ xn v
n 1
1 N 2 ¦ xn x N 1 n 1
s
v
(6.5)
Oft verwendet man in der Biostatistik und der Biosignalverarbeitung Statistiken zweiter Ordnung, beispielsweise zur Berechnung der Korrelation (Pearsons Korrelationskoeffizient) oder der Leistung bzw. Varianz. Dazu muss das Produkt aus zwei Zufallsgrößen gebildet werden. Das Produkt ist nicht mehr normalverteilt (Abb. 6.3), selbst wenn die Zufallsgrößen ursprünglich einer Normalverteilung entstammen (Abb. 6.4.). Pauschal gilt, dass Produkte (zweiter und höherer Ordnungen) von Zufallsgrößen doppelt exponentiell verteilt sind (siehe Exponentialverteilung). Sind die Zufallsgrößen voneinander unabhängig, so sind die Produktverteilungen symmetrisch. Sind sie aber voneinander abhängig, so ist die Produktverteilung schief (Abb. 6.3). Dann reichen die zwei Parameter (Lage und Streuung) der Normalverteilung nicht mehr aus, um eine solche Verteilung zu
6.1 Grundlagen der analytischen Statistik
397
beschreiben. Um die Unsymmetrie zu erfassen, führt man das statistische Maß dritter Ordnung Schiefe (Gl. 6.6) und um die Abweichung von der Normalverteilung zu quantifizieren, das statistische Maß vierter Ordnung Exzess (Gl. 6.7) ein. N
¦ xn x
c
3
n 1
(6.6)
Ns 3
In Gl. 6.6 ist s die Standardabweichung nach Gl. 6.5. Bei symmetrischen Verteilungen entspricht c = 0, bei rechtsschiefen c > 0 (Abb. 6.3), bei linksschiefen c < 0. N
e
P4 3 V4
¦ xn x
4
n 1
Ns 4
3
(6.7)
In Gl. 6.7 ist s die Standardabweichung nach Gl. 6.5. Der Quotient in Gl. 6.7 nimmt bei der Normalverteilung den Wert 3 an. Da man die Normalverteilung oft als Referenz verwendet, subtrahiert man die 3 vom Quotienten, um für die Normalverteilung einen Exzess von e = 0 zu erhalten. Dem entsprechend gilt, dass schmalere bzw. steilere Verteilungen als die Normalverteilung (Abb. 6.3) einen positiven Exzess e > 0, flachere bzw. breitere Verteilungen einen negativen Exzess e < 0 besitzen.
Berechnet man die Schiefe und den Exzess für die Produktverteilung nach Abb. 6.3, so erhält man Werte c = 2.3 (deutlich rechtsschief) und e = 10 (deutlich steiler als die Normalverteilung). Damit stehen der deskriptiven Statistik vier Maße (erste vier Ordnungen) zur Verfügung (arithmetischer Mittelwert, Varianz bzw. Standardabweichung, Schiefe und Exzess), um eine nicht normalverteilte Zufallsgröße zu beschreiben. Allerdings zeigt dieses Beispiel (Abb. 6.3), dass der arithmetische Mittelwert als aussagekräftiges Lagemaß nicht unbedingt geeignet ist. Er ist zwar ein für die nachfolgende statistische Analyse sehr wichtiges Mittel, da er eine lineare Operation an Daten realisiert (lineare Algebra), allerdings beschreibt er keinen markanten Punkt der Verteilung. Als Lageparameter eignet sich besser der Modus (oder Modalwert), der den häufigsten Wert der Verteilung repräsentiert (Gl. 6.8). xmod : x P X x omax
(6.8)
Es kommt häufig vor, dass eine empirische Verteilung mehre Modi (mehrere lokale Wahrscheinlichkeitsmaxima) besitzt, so dass der Lageparameter Modus nicht eindeutig ist. Als ein weiterer Lageparameter kommt der Median in Frage. Der Median ist das 50%-Quantil (siehe Quantile) und gehört daher der Gruppe der Rangsstatistiken an. Rangstatistiken besitzen die besondere Eigenschaft, dass auf
398
6 Stochastische Prozesse
ihnen begründete statistische Maße nicht von den empirischen Werten selbst, sondern von ihrer Rangzahl (Stelle in der nach Werten geordneten Reihe) abhängig sind (Gl. 6.9). ~ x ^x1 d x 2 d ... d x N 1 d x N `, ~ x
N 2M 1 x M 1 , ° ® x M x M 1 , N 2M °¯ 2
(6.9)
Der Median lässt sich ähnlich wie der Modus mit Hilfe der Verteilungsfunktion beschreiben (Gl. 6.10). ~ x : x P X d x
0.5
(6.10)
In theoretischen Analysen mit analytisch beschreibbaren Verteilungen ließe sich die Formel für den Median nach Gl. 6.10 verwenden. In der praktischen Analyse jedoch ist die zugrunde liegende Verteilung normalerweise unbekannt, so dass der Median nach Gl. 6.9 ermittelt wird. Grundsätzlich gilt für den Median, dass er ein nichtlineares Maß der Daten darstellt und daher in der Analyse nur bedingt weiter verwendbar ist. Im Gegensatz zum arithmetischen Mittelwert ist er jedoch wesentlich robuster gegen Extremwerte und Ausreißer. Diese Eigenschaft soll das folgende Beispiel demonstrieren Beispiel zur Anwendung von Median und Mittelwert Man generiert eine Zufallsfolge x mit 10 Werten, die einer Gleichverteilung (alle Werte gleich wahrscheinlich) im Intervall (0, 1) entstammen: x = {0.95, 0.23, 0.60, 0.48, 0.89, 0.76, 0.45, 0.01, 0.82, 0.44} Für den arithmetischen Mittelwert und den Median gilt: x
0.56, ~ x
0.54
Man simuliert einen Ausreißer, in dem der fünfte Wert mit dem Faktor 10 multipliziert wird: y = {0.95, 0.23, 0.60, 0.48, 8.91, 0.76, 0.45, 0.01, 0.82, 0.44} Für den arithmetischen Mittelwert und den Median der modifizierten Reihe gilt: y 1.37, ~y
0.55 .
6.1 Grundlagen der analytischen Statistik
399
5
3
x 10
absolute Häufigkeit
2.5 2
1-T 1.5
T/2
T/2 1 0.5
0 -5
0
xp
5
10
Abb. 6.5 Funktionsweise des symmetrisch getrimmten Mittelwertes: Der Anteil von T/2 vom linken und T/2 vom rechten Rand der Verteilung der empirisch gewonnenen Werte wird aus der Berechnungsformel Gl. 6.5 für den Mittelwert abgewiesen. In die Berechnung geht der in der Mitte übrig gebliebene Teil 1-T der Werte ein (Die Anzahl der empirischen Werte in diesem Beispiel N = 106, T = 0.25)
Dieses Beispiel zeigt die Empfindlichkeit der Lageparameter arithmetischer Mittelwert und Median: Während ein einziger Ausreißer den Mittelwert auf 241% des tatsächlichen Wertes ansteigen lässt, ändert sich der Median überhaupt nicht. Daher zählt der Median zu den robustesten Lageschätzern der deskriptiven Statistik. Aus Sicht der statistischen Analyse wäre es sinnvoll, die Vorteile des arithmetischen Mittelwertes (Lineares Maß der empirischen Daten) und des Medians (Robustheit gegen Extremwerte) in einem gemeinsamen Parameter zu verbinden. Einen möglichen Kompromiss bietet der getrimmte Mittelwert (Gl. 6.11, 6.12). xT
N NT / 2 1 1 ¦ x NT / 21 d xn d ... d x N NT / 2 1 N 1 T n NT / 2 1
(6.11)
In Gl. 6.11 ist N die Anzahl der Werte, 0 < T < 1 der Trimmanteil, der zum symmetrischen Trimmen jeweils zur Hälfte am linken und am rechten Ende der geordneten Reihe aufgeteilt wird.
xL, R
N NR 1 1 ¦ x NL 1 d xn d ... d x N NR 1 N 1 L R n LN 1
(6.12)
400
6 Stochastische Prozesse
In Gl. 6.12 ist N die Anzahl der Werte, 0 < L < 1 und 0 < R < 1 die Anteile am linken bzw. rechten Rand der geordneten Reihe zum asymmetrischen Trimmen.
Wendet man den symmetrisch getrimmten Mittelwert (Gl. 6.11) auf die empirischen Daten in Abb. 6.3 an, so erhält man folgende Werte (Abb. 6.5): ~ x
0.33, xT
0.8
0.35, xT
0.5
0.46, xT
0.1
0.8, x 1 .
Dieser Vergleich zeigt beispielhaft das qualitative Verhalten des getrimmten Mittelwertes in Abhängigkeit vom Trimmanteil (also vom Anteil der aus der Berechnung ausgeschlossenen Werte): Mit der Zunahme des Trimmanteils konvergier der arithmetische Mittelwert auf den Median zu. Beim maximalen Trimmen T = (N-1)/N (N ist die Anzahl aller Werte), bei dem alle Werte außer dem mittleren der geordneten Reihe abgewiesen werden, ist der getrimmte Mittelwert dem Median identisch. Beim minimalen Trimmen T = 0 ist der getrimmte gleich dem arithmetischen Mittelwert.
6.1.1.3 Quantile und grafische Darstellung Zur Darstellung (Abb. 6.2, 6.3) und qualitativen Beurteilung der einem Datensatz zugrunde liegenden Verteilung (Histogramm) sind verhältnismäßig viele Datennotwendig (N > 103…106). In der praktischen Analyse liegt eine solche Daten-
1 0.9 0.8
F(x)
p = 0.75
f(x), F(x)
0.7 0.6 0.5 0.4 0.3
p = 0.25
0.2
f(x)
0.1 0 -5
Q1 0
Q3
x
5
10
Abb. 6.6 Das erste Q1 = -0.13 und das dritte Quartil Q3 = 1.59 der doppelt exponentiellen, rechtsschiefen Verteilung aus Abb. 6.3
6.1 Grundlagen der analytischen Statistik
401
Tabelle 6.1 Quartile, 25%-Quantile
p = 0.25 p = 0.50 p = 0.75
unteres Quartil Mittleres Quartil, Median oberes Quartil
Q1 = Q0.25 Q2 = Q0.50 Q3 = Q0.75
6
Ausreißer
5
4
1.5 IQ 3
Quantile
2
1.5 IQ
KI
Q3
KI 1
Q3 0
Q2
Q2
Q1
Q1 -1
1.5 IQ
1.5 IQ
-2
-3
-4
Gauss
Exponentiell rechtschief
Abb. 6.7 Box-Whisker-Plot von zwei Verteilungen mit jeweils 200 Werten: Gauß- (links) und doppelt exponentielle rechtsschiefe Verteilung (rechts) aus Abb. 6.3. Q1,2,3 sind Quartile (horizontale Linien der Boxen), gestrichelte vertikale Linien mit horizontalen Querstrichen („Whisker“) geben oben und unten den Bereich für das 1.5-fache des IQ = Q3 – Q1 an. Daraus folgt, dass die Whisker zusammen das dreifache IQ repräsentieren. Daher interpretiert man Werte, die außerhalb der Whisker liegen, auch als Ausreißer und markiert sie extra (oberhalb des oberen Whiskers der exponentiellen Verteilung). Die Einkerbungen um den Median Q2 repräsentieren das Konfidenzintervall KI des Medians für die statistische Unsicherheit die standardmäßig 5% beträgt
402
6 Stochastische Prozesse
menge nur selten vor, so dass alternative Maße notwendig sind. Zur parametrischen Beschreibung von Verteilungen eignen sich Quantile. Das p-Quantil ist der Wert, unterhalb dessen der Anteil 0 < p < 1 aller Werte liegt (Gl. 6.13).
QP : x P X x
(6.13)
p
Man verwendet einige typischen Quantile, meistens solche in 25%-Abstufung, die man als Quartile bezeichnet. Den Abstand zwischen dem unteren und dem oberen Quartil bezeichnet man als Interquartil, IQ = Q0.75 – Q0.25. Das Interquartil gibt also an, wie breit die Verteilungsmitte mit 50% aller Werte ist. Appliziert man diese Maße auf die bereits behandelte doppelt exponentielle rechtsschiefe Verteilung aus Abb. 6.3, so erhält man für das IQ = 1.72, in dem sich 50% aller Werte befinden. Mit Hilfe der drei Quartile ist eine sehr kompakte, parametrische Beschreibung und Darstellung der empirischen Daten möglich, vor allem bei Verteilung mit relativ wenigen Werten (N < 102…103). Die übliche grafische Darstellung ist der Box-Whisker-Plot, der für zwei typische Verteilungen (Gauß und doppelt exponentielle, rechtsschiefe) in der Abb. 6.7 dargestellt ist. Auf diese Weise erhält man ein sehr anschauliches und übersichtliches Bild über die zu analysierenden empirischen Verteilungen. 0.06 0.05
f(x)
0.04 0.03 0.02 0.01 0 -1.5
-1
-0.5
0
Phase / pi
0.5
1
1.5
Abb. 6.8 Verteilungsdichte der Phase von komplexen Fourierkoeffizienten eines unkorrelierten Rauschens ( Anzahl der Werte 104, Anzahl der Histogrammklassen N = 21)
6.1 Grundlagen der analytischen Statistik
403
In diesem Plot kann man wahlweise auch die Konfidenzintervalle des Medians eintragen, so dass ein statistischer Test (siehe Hypothesentests) bereits in diesem Stadium möglich ist: Wenn sich die Konfidenzintervalle der Verteilungen nicht überlappen, so kann man mit einer statistischen Unsicherheit von = 0.05 die Nullhypothese verwerfen. Praktisch bedeutet dies, dass man von unterschiedlichen Medianen der Verteilungen ausgehen kann. 6.1.1.4 Ausgewählte Verteilungen Dieses Kapitel gibt einen Überblick über die häufigsten Verteilungen der Biostatistik und der Biosignalanalyse. Im Folgenden wird aus bereits genannten Gründen (Diskretisierung bzw. Digitalisierung von Parametern und Biosignalen) grundsätzlich von diskreten Verteilungen ausgegangen, auch weil man gegenwärtig von computergestützten Analysen ausgehen kann. Gleichverteilung Die Verteilungsdichte der Gleichverteilung entspricht einer Folge von identischen Werten (Gl. 6.14). P X
x
f x
1 ° , x x1,..., N ®N °¯ 0, sonst
(6.14)
Für die Verteilungsfunktion gilt entsprechend (Gl. 6.15):
P X d x F x
x x1 0, °° x ® , x1 d x d x N °N xN x °¯ 1,
(6.15)
Eine oft auftretende Größe, die der Gleichverteilung unterliegt, ist die Verteilung der Phase von komplexen Fourierkoeffizienten eines unkorrelierten Rauschens (Abb. 6.8). Je nach Anzahl der empirischen Werte unterliegen die diskreten Wahrscheinlichkeiten natürlichen Schwankungen, der theoretische Wert beträgt f(x) = 2S/N. Allerdings besitzt die Phase die problematische Eigenschaft der Periodizität um 2S. Bei realen Signalen ist es gar nicht möglich, die durch die Periodizität verursachten Phasensprünge zu vermeiden. Daher reicht die Phase allein, trotz der statistisch guten Eigenschaften, für die Analyse nicht aus.
404
6 Stochastische Prozesse
Binomialverteilung Die Binomialverteilung beschreibt die Verteilungsdichte einer binären Zufallsgröße, also einer Größe, die nur zwei unterschiedlichen Zustände annehmen kann. Die theoretische Wahrscheinlichkeit für das Auftreten eines Ereignisses beträgt p. Die Binomialverteilung gibt die Wahrscheinlichkeit dafür an, dass bei n Versuchen, die mit der Wahrscheinlichkeit p auftreten können, x Versuche positiv ausgehen werden. Ihre Verteilungsdichte beschreibt die Formel Gl. 6.16. P X
x
§n· f x | n, p ¨ ¸ p x 1 p n x ¨ x¸ © ¹
(6.16)
In Gl. 6.16 ist n die Anzahl aller Versuche, p die theoretische Wahrscheinlichkeit für das Auftreten des untersuchten Merkmals, x ist die untersuchte Anzahl der Versuche, f(x) die Wahrscheinlichkeit dafür, dass bei insgesamt n Versuchen das Merkmal genau bei x Versuchen auftritt.
Die Binomialverteilung ist eine asymmetrische Verteilung, so dass zu ihrer (empirischen) Beschreibung auch die Schiefe und der Exzess herangezogen werden müssen. Für große n konvergiert sie gegen die (symmetrische) Normalverteilung. Die praktische Bedeutung der Binomialverteilung soll am folgenden Beispiel demonstriert werden: Hinreichend große Statistiken belegen (Deutschland, 80 Milli-
Wahrscheinlichkeit P(X=x) = f(x)
0.25
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
Anzahl Hypertoniker
12
14
16
18
Abb. 6.9 Wahrscheinlichkeit für das Auftreten von x Hypertonikern in einer internistischen Praxis bei 18 Patienten täglich und einem Anteil von 30% der Hypertoniker in der Bevölkerung
6.1 Grundlagen der analytischen Statistik
405
onen Einwohner), dass 30% der Bevölkerung übergewichtig ist und Probleme mit dem Blutdruck hat (Hypertonie). Wegen der sehr hohen Zahl der erfassten Personen kann man die relative Häufigkeit von 30% gleich der theoretischen Wahrscheinlichkeit setzen, daher p = 0.3. Für einen niedergelassenen Internisten, der täglich 18 Patienten behandelt, stellt sich die Frage, wie viel Hypertoniker mit der höchsten Wahrscheinlichkeit zur Behandlung kommen werden. Alternativ kann man sich fragen, wie hoch die Wahrscheinlichkeit dafür ist, dass unter den Patienten überhaupt kein Hypertoniker dabei ist. Daher setzt man n = 18 (für die Gesamtzahl der Versuche) und x = 0,…,18 als untersuchte Anzahl von Versuchen. Die Ergebnisse sind in der Abb. 6.9 dargestellt. Aus der Grafik folgt, dass mit der höchsten Wahrscheinlichkeit täglich fünf Hypertoniker zur Behandlung kommen. Allerdings ist zu berücksichtigen, dass die Wahrscheinlichkeit für vier bzw. sechs Hypertoniker nur unwesentlich geringer ist. Die Wahrscheinlichkeit dafür, dass kein Hypertoniker dabei ist, ist verschwindend gering. Poisson-Verteilung Die Binomialverteilung konvergiert für große n und kleine p gegen die PoissonVerteilung. Der Parameter O der Poisson-Verteilung ergibt sich aus dem Produkt O = np, wobei er für große n und kleine p von n unabhängig ist (n > 50, p < 0.05). Daher kann man die Poisson-Verteilung als Grenzfall der Konvergenz der Bino-
0.18 0.16 0.14
P(X=x) = f(x)
0.12 0.1 0.08 0.06 0.04 0.02 0
0
2
4
6
8
10
Geburtenzahl / Tag, x
12
14
16
Abb. 6.10 Wahrscheinlichkeit von Geburtenzahlen zwischen 0 und 15 bei einem langfristigen Mittel von 5 Geburten pro Tag (Poisson-Verteilung mit O = 5)
406
6 Stochastische Prozesse
mialverteilung interpretieren (Gl. 6.17). Die Poisson-Verteilung ist vor allem aus Sicht des Gesetzes der kleinen Zahlen wichtig. P X
x
f x
Ox x!
e O
(6.17)
Das folgende Beispiel soll die Poisson-Verteilung veranschaulichen: In der Entbindungsstation einer Frauenklinik wurde aus langfristigen Daten ermittelt (n >104), dass täglich im Mittel fünf Geburten zu erwarten sind (O = 5). Für die Personal- und Ressourcenplanung ist es wichtig zu wissen, wie wahrscheinlich Abweichungen von dem Mittelwert sind, zunächst für die Extremfälle „keine Geburt“ oder „10 Geburten am Tag“. Die Verteilung ergibt das folgende Bild (Abb. 6.10). Während die Wahrscheinlichkeit für vier und fünf Geburten pro Tag gleich groß ist und 17.5% beträgt (also etwa 1/3 für vier bis fünf Geburten pro Tag), liegt sie für x = 0 (keine Geburt) bei 0.6% und für x = 10 bei 1.8%. Daraus folgt, dass extrem niedrige oder extrem hohe Geburtenzahlen sehr unwahrscheinlich sind, dennoch nicht ausgeschlossen. Die Poisson-Verteilung als theoretischer Hintergrund für das Gesetz der kleinen Zahlen soll am folgenden Beispiel demonstriert werden. Beispiel zum Gesetz der kleinen Zahlen Mit einem ANN (Artificial Neural Network, künstliches neuronales Netzwerk), welches aus 100 Neuronen besteht, soll eine Mustererkennung von graphischen Strukturen durchgeführt werden. Bekanntlich besteht das Problem des Lernens eines ANN auch darin, dass sich die Adaption der neuronalen Gewichte an das Lernziel in einem mehrdimensionalen nichtlinearen Raum abspielt. Daher muss man nach effektiven Methoden suchen, diesen nichtlinearen Raum nach Möglichkeit vollständig – oder zumindest repräsentativ – nach dem globalen Minimum des Fehlerfunktionals abzusuchen. Eine in der Stochastik bekannte Methode zur zufälligen Suche ist die Monte-Carlo-Methode (MC-Methode). Diese besteht darin, dass man – in diesem konkreten Fall – den 100 Biaseingängen der Neurone jeweils eine gleich wahrscheinliche Zufallszahl zwischen 1 und 100 zuordnet (und oft auf den Bereich [-1,1] normiert). Die Verteilung der vergebenen Zahlen im ANN in einem solchen Versuch zeigt die Poisson-Verteilung (Abb. 6.11) mit dem Parameter O = 1 (100 Zahlenwerte für 100 Biaswerte, im Mittel also eine Zahl pro Bias). Trotz der gleich wahrscheinlichen Zahlen (Gleichverteilung) zwischen 1 bis 100 tritt etwa ein Drittel der Zahlen (x =0, fPoisson(0) = 0.37) gar nicht und etwa ein Drittel genau einmal (x = 1, fPoisson (1) = 0.37) auf. Anders interpretiert, es treten nur etwa zwei Drittel der Zahlen (1 – f(0) = 0.63) mindestens einmal auf. Deswegen wird das Gesetz der kleinen Zahlen auch Zwei-Drittel-Gesetz genannt. An dieser Stelle wird der Unterschied in der Interpretation der Gesetze der großen und der kleinen Zahlen deutlich (Gl. 6.18):
6.1 Grundlagen der analytischen Statistik
407
relative Häufigkeit des Autretens, f(x)
0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0
0
1
2
3
Anzahl, x
4
5
6
7
Abb. 6.11 Relative Häufigkeit (Auftrittswahrscheinlichkeit) des Auftretens von Zahlen zwischen 1 und 100 bei 100 Versuchen (Gesetz der kleinen Zahlen)
Während das Gesetz der großen Zahlen besagt, dass bei einer theoretisch bekannten Eintrittswahrscheinlichkeit eines Ereignisses die relative Häufigkeit seines Auftretens mit der Versuchsanzahl auf diesen Wert konvergiert, entspricht die relative Häufigkeit des Auftretens bei einer kleinen Anzahl der Versuche der Poisson-Verteilung.
h N N of o p hr
hr
(6.18)
N f o PPoisson O hr
In Gl. 6.18 ist h die absolute Häufigkeit eines Ereignisses, hr die relative Häufigkeit, p die theoretische Wahrscheinlichkeit eines Ereignisses, P(O) die Verteilungsdichte der PoissonVerteilung mit dem Parameter O.
408
6 Stochastische Prozesse
Exponentialverteilung Der Exponentialverteilung unterliegen asymptotisch56 die meisten Zeitintervalle, z.B. die Lebensdauer von Röntgenröhren, die Halbwertszeit des Zerfalls von radioaktiven Isotopen oder die Lebenserwartung der Menschen (Lebensversicherung). Sie ist ihrem Wesen nach eine kontinuierliche Verteilung, die man mit der Formel nach Gl. 6.19 beschreiben kann (Abb. 6.12). P X
x
f x | P
1
P
e
x
P
O e Ox
(6.19)
In Gl. 6.19 ist P die Lebensdauer, O die Ausfallrate, wobei O = 1/P. Die Verwendung der Definition ist nicht einheitlich, daher soll immer auch der Erwartungswert P angegeben werden.
Die diskrete Variante der Exponentialverteilung ist die geometrische Verteilung, die die Wahrscheinlichkeitsverteilung von unabhängigen BernoulliExperimenten57 beschreibt (Gl. 6.20). 1 0.9 0.8
f(x), F(x)
0.7
F(x)
0.6 0.5
P
0.4 0.3
f(x)
0.2 0.1 0 0
2
4
x
6
8
10
Abb. 6.12 Verteilungsdichte f(x) und Verteilungsfunktion F(x) einer Exponentialverteilung mit dem Parameter P = 2
56
Man nimmt an, dass die Grundgesamtheit der Ereignisse exponential verteilt ist, obwohl das im konkreten Fall kaum überprüft werden kann. 57 Ein Bernoulli-Prozess ist ein zeitlich diskretisierter stochastischer Prozess, bei dem der binäre Ausgang eines Experiments mit der Wahrscheinlichkeit p zum Erfolg führt.
6.1 Grundlagen der analytischen Statistik
409
P X d n F X 1 1 p n
(6.20)
In Gl. 6.20 ist p die Wahrscheinlichkeit für einen Erfolg bei unabhängigen BernoulliExperimenten, n die Anzahl der Versuche, P(X<=n) die Wahrscheinlichkeit dafür, dass man mindestens n Versuche braucht, um zum Erfolg zu kommen.
Die Exponentialverteilung (diskret die geometrische Verteilung) besitzt als einzige eine wichtige Eigenschaft, die man in der Prozessanalyse als Markow-Eigenschaft bezeichnet (Gl. 6.21). P X t x y | X t x
P X t y
(6.21)
Interpretiert man die Beziehung nach Gl. 6.21 zunächst aus Sicht der Prozessanalyse, so hängt die Zukunft eines Prozesses (oder Systems) allein vom aktuellen Zustand ab und nicht von seiner Vergangenheit. Da man die Information über die Vergangenheit nicht benötigt, bezeichnet man diese Eigenschaft auch als Gedächtnislosigkeit. Dieses Verhalten demonstriert das folgende Beispiel. Beispiel zur Exponentialverteilung Aus den Unterlagen eines Herstellers von Herzschrittmachern geht hervor, dass die Lebensdauer im Mittel fünf Jahre beträgt. Ein Patient, der einen solchen Herzschrittmacher bereits seit vier Jahren trägt, fragt sich, wie groß die Wahrscheinlichkeit ist, dass er mit weiteren zwei Jahren der Funktionsfähigkeit rechnen kann. Für die Wahrscheinlichkeit im linken Teil der Beziehung nach Gl. 6.21 gilt P X t x y | X t x
P X t x y 1 P X d x y P X t x 1 P X d x 1 F 6 | 5 0.67 1 F 4 | 5
.
Die Wahrscheinlichkeit für weitere zwei Jahre Benutzung lässt sich allein aus diesem Parameter und der bekannten Lebensdauer berechnen (rechte Seite der Beziehung 6.21): P X t y 1 P X d y 1 F 2 | 5 0.67 .
Bei einer mittleren Lebensdauer des Herzschrittmachers von fünf Jahren kann man nach Ablauf von vier Jahren mit einer Wahrscheinlichkeit von 67% damit rechnen, dass er weitere zwei Jahre funktionieren wird. Die Information, dass der Schrittmacher bereits vier Jahre in Benutzung ist, geht in die Berechnung jedoch gar nicht ein, ist also irrelevant.
410
6 Stochastische Prozesse
6.1.1.5 Zentraler Grenzwertsatz Die mathematische Formulierung des ZGWS (Zentraler Grenzwertsatz) lautet: Xi (i=1,…,n) seien n unabhängige, identisch verteilte Zufallsvariable mit dem Erwartungswert P und der Varianz V2. Dann ist die Summe 6Xi asymptotisch normalverteilt mit dem Erwartungswert nP und der Varianz nV2. Zentriert und normiert man die Summe der Zufallsvariablen, so konvergiert diese auf die Standardnormalverteilung (Gl. 6.22).
¦ X i nP i
V n
of n o N 0,1
(6.22)
Die Beziehung Gl. 6.22 lässt sich auch mit Hilfe der Verteilungsfunktion formulieren (Gl. 6.23). § X P · ¸ lim P¨ ¸ nof ¨ V n ¹ ©
F z N 0,1
(6.23)
In Gl. 6.22 und 6.23 ist P der Lageparameter (Erwartungswert), V die Streuung, n Anzahl der Variablen, Xi eine Zufallsvariable, z die zentrierte und normierte Zufallsvariable der Standardnormalverteilung.
Der ZGWS demonstriert die herausragende Bedeutung der Normalverteilung. In der Praxis ist es oft so, dass man die Verteilung der analysierten Daten aus verschiedenen Gründen gar nicht kennt. Die Ursache kann ein zu geringer Datenumfang sein (n < 103) oder eine kombinierte bzw. verschachtelte Verteilung durch Vermischung mehrerer Zufallsgrößen bzw. ihrer Einflüsse. Der ZGWS bietet in solchen Fällen ab einem Datenumfang von etwa n > 30 den Ausweg, wenn man statt der Daten ihre Summe analysiert (oder auch andere Maße, in den die Summe enthalten ist, z.B. den arithmetischen Mittelwert). Für die praktische Analyse lässt sich der ZGWS pragmatischer formulieren: Die Summe einer großen Zahl von beliebig verteilten Zufallsgrößen ist normalverteilt. Bei der Analyse stellt sich die Frage, welche Auswirkungen die Nichteinhaltung von Bedingungen des ZGWS (Unabhängigkeit und identische Verteilung, u.i.v.) haben kann. Praktisch ist es kaum möglich, die Verteilungen auf ihre Gleichheit und Unabhängigkeit zu prüfen. Erfreulicherweise ist der ZGWS gegen die Verletzung der beiden Annahmen relativ robust, wie das folgende Beispiel demonstriert.
6.1 Grundlagen der analytischen Statistik
411
0.4
V1 V2 V3
0.35 0.3
f(x)
0.25 0.2 0.15 0.1 0.05 0 -10
-5
0
x
5
10
Abb. 6.13 Verteilungen von unabhängigen, zentrierten Zufallsgrößen V1 (exponential, rechtsschief), V2 (exponential linksschief) und V3 (gleichverteilt)
Beispiel zum ZGWS Es liegen zwei exponential verteilte, zentrierte Zufallsgrößen V1 und V2 mit dem Parameter P = 1, die spiegelsymmetrisch sind und eine gleichverteilte, zentrierte Zufallsgröße V3 (Abb. 6.13) vor. Zwei neue Zufallsgrößen V13 und V23 bildet man, in dem V13 = V1 +V3 und V23 = V2+V3. Damit erreicht man einerseits, dass die Zufallsgrößen V13 und V23 nicht identisch verteilt sind (gespiegelte Exponentialverteilung), andererseits entsteht durch die Summation mit V3 eine statistische Abhängigkeit der Zufallsgrößen V13 und V23 mit einem Korrelationskoeffizienten nach Pearson von U = 0.7. Beide Voraussetzungen zur Anwendung des ZGWS sind für Zwecke dieses Beispiels gezielt verletzt. Anschließend summiert man die Zufallsgrößen V13 und V23 gleichanteilig über n = 10, 30, 100 Realisierungen. Das Ergebnis der Summation zeigt Abb. 6.14. Bereits ab der Summandenordnung von n = 10, spätestens aber ab n = 30 kann man von einer Normalverteilung der Summe ausgehen. Dieses Beispiel zeigt, dass die Forderungen des ZGWS hinsichtlich der Verteilung der Zufallsgrößen und ihrer Unabhängigkeit nicht zu streng zu nehmen sind, da sie praktisch ohnehin nicht erfüllbar wären. Es ist vielmehr so, dass die Summandenordnung, ab der der ZGWS anwendbar ist, im konkreten Fall davon abhängt, wie stark man von diesen Forderungen abweicht. Bei den in der Praxis häufig vorkommenden Verteilungen und
412
6 Stochastische Prozesse
0.18 n = 10 n = 30 n = 100
0.16 0.14
f(x)
0.12 0.1 0.08 0.06 0.04 0.02 0 -4
-3
-2
-1
0
x
1
2
3
4
Abb. 6.14 Verteilungsdichte (empirisches Histogramm) der zentrierten und normierten Summe von zwei abhängigen (U = 0.7), nicht identisch verteilten Zufallsgrößen aus Abb. 6.13 (exponentialverteilt, gespiegelt, mit Gleichverteilung additiv überlagert). Bereits ab einer Summandenordnung von n = 10 kann man von einer näherungsweise Normalverteilung ausgehen
Abhängigkeiten kann man davon ausgehen, dass zur Erfüllung der Voraussetzungen des ZGWS eine Summandenordnung von n = 30 ausreichend ist.
6.1.2 Statistischer Zusammenhang Die meisten Zusammenhänge zwischen Größen und Parametern in der Biomedizin und der Biosignalverarbeitung sind stochastischer Natur. Das liegt einerseits daran, dass die Größen selbst zufälligen Schwankungen unterliegen (exakter ausgedrückt – wir können sie deterministisch nicht beschreiben), andererseits daran, dass ihr Zusammenhang ebenfalls einen Zufallscharakter besitzt. So gibt es beispielsweise zwei nichtinvasive Methoden zur Messung des Blutdrucks: Oszillometrische Manschettenmethode (OMM) und die PTT-Methode (Pulse-TransitionTime). Der Blutdruck selbst unterliegt starken Schwankungen und wird daher vereinfachend zunächst als eine Zufallsgröße betrachtet. Die beiden genannten Methoden messen den Blutdruck nicht direkt, sondern über Hilfsgrößen (Manschettendruck bei der OMM, Laufzeit bei der PTT), derer Zusammenhang zum Blutdruck nicht deterministisch, sondern auch stochastisch ist. Im Sinne des Methodenvergleichs wird schließlich der statistische Zusammenhang der Ergebnisse
6.1 Grundlagen der analytischen Statistik
413
beider Methoden ermittelt. Als Ergebnis erhält man ein Maß für den Zusammenhang von zwei Messmethoden (Korrelationskoeffizient), zu dessen Ermittlung bereits zwei (oder mehr) stochastische Größen und Zusammenhänge einbezogen wurden. Das kann dazu führen, dass am Ende zwar ein statistischer Zusammenhang nachweisbar vorhanden ist, aber gar kein funktionaler Zusammenhang besteht. Im Folgenden wird erläutert, wie ein statistischer Zusammenhang nachgewiesen werden kann und gezeigt, dass man daraus a priori keinen funktionalen Zusammenhang ableiten kann. 6.1.2.1 Grundgesamtheit und Stichprobe In der medizinischen Diagnostik und Therapie (Biostatistik) sowie in der Biosignalverarbeitung müssen wichtige Entscheidungen statistisch abgesichert sein. Das bedeutet, dass man Entscheidungen mit einer vorgegebenen Unsicherheit (meistens 5%) mit statistischen Daten begründen bzw. belegen können muss. Man braucht demnach genügend Daten, um die geforderte statistische Sicherheit (erlaubte Unsicherheit) vom Umfang her abzusichern. Der methodisch einfachste Weg wäre, die gesamte Menge aller Mitglieder einer Gruppe zu erfassen, die das interessierende Merkmal aufweisen. Wenn die Fragestellung z.B. heißt, wie viele Hypertoniker (Menschen mit einem hohen Blutdruck) länger als 10 Jahre in Behandlung sind, so könnte man sie danach alle befragen. Eine solche Gruppe von Mitgliedern mit dem untersuchten Merkmal bezeichnet man als Grundgesamtheit (Abb. 6.15). Die Erfassung des Merkmals „10 Jahre Behandlung vom hohen Blutdruck“ würde jedoch eine logistische Spitzenleistung erfordern, die wirtschaftlich nicht vertretbar wäre. Man müsste allein in Deutschland etwa 20 Millionen Menschen befra-
vollständige Information, aber kaum realisierbar
Grundgesamtheit
Stichprobe repräsentative Stichprobe
Analyse, inferentielle Statistik
Beschreibung, deskriptive Statistik Abb. 6.15 Zusammenhang zwischen der vollständigen Information über die Grundgesamtheit und der Erhebung einer repräsentativen Stichprobe
414
6 Stochastische Prozesse
gen. Daher muss man sich damit zufrieden geben, dass man aus der Grundgesamtheit der Hypertoniker nur eine Stichprobe ziehen kann. Diese muss für statistische Zwecke dennoch groß genug sein. Grundsätzlich gilt, dass nicht jede Stichprobe die Verteilung des untersuchten Merkmals auch tatsächlich so wiedergibt, wie es in der Grundgesamtheit verteilt ist. Befragt man Mitglieder eines Zentrums für Leistungssport und eines Adipositas-Vereins nach ihrem Blutdruck bzw. dessen Behandlung, so wird man mit Sicherheit extrem unterschiedliche Ergebnisse erhalten. Damit eine Stichprobe die tatsächliche Merkmalsverteilung in der Grundgesamtheit widerspiegelt, muss sie repräsentativ sein. Nur dann kann man aus den Deskriptionsmaßen der Stichprobe auf die Grundgesamtheit schließen. Diese legitime Forderung kann in der Praxis jedoch auf ein Praktikabilitätsproblem stoßen: Damit man beurteilen kann, ob eine Stichprobe repräsentativ ist, müsste man die tatsächliche Verteilung des Merkmals in der Grundgesamtheit kennen. Wenn man die Merkmalsverteilung kennt, muss man keine Stichprobe mehr ziehen. Fazit ist, eine Stichprobe muss so geplant sein (Versuchsplanung), dass sie a priori repräsentativ ist. Dazu verwendet man Methoden der empirischen Statistik und Planung. Liegt nach der erforderlichen Versuchsplanung und Erhebung die repräsentative Stichprobe vor, so beschreibt man ihre Eigenschaften (deskriptive Statistik), vor allem die der interessierenden Merkmale. Anschließend untersucht man die gewonnenen Parameter auf Zusammenhänge und Gesetzmäßigkeiten (statistische Analyse). Diesen Analysen folgen entsprechende Eingriffe und Maßnahmen in der Grundgesamtheit. 6.1.2.2 Korrelation und Darstellung von Zusammenhängen Zur Visualisierung von Verteilungen und Zusammenhängen höchstens zweidimensionaler (eine oder zwei) Zufallsgrößen verwendet man Histogramme (z.B. Abb. 6.13, 6.14), Balken- oder Kreisdiagramme sowie Punktwolken. Einige Darstellungsmöglichkeiten (Kreisdiagramm) eignen sich besonders gut zur Visualisierung von genormten Zufallsgrößen. Vor allem Wahrscheinlichkeiten bzw. relative Häufigkeiten sowie Verteilungsdichten sind ihrem Wesen nach genormte Größen (siehe z.B. Gl. 6.18). Die Notwendigkeit der Normierung verdeutlicht das folgende Beispiel. Beispiel zur Darstellung von Zufallsgrößen Die Anzahl männlicher und weiblicher Neugeborener trägt man in eine Tabelle ein (Abb. 6.16). Um die Geschlechteranteile darzustellen, kann man ein Kreisdiagramm verwenden. Dazu müssen die absoluten Geburtenzahlen (zweite Spalte der Tabelle in Abb. 6.16) normiert (dritte Spalte) und auf die Variable Winkel (vierte Spalte) übertragen werden. Nach der Normierung erhält man für männliche/weibliche Neugeborene einen Anteil von 51% / 49%, der dem bundesdeutschen Durchschnitt entspricht. Im nächsten Monat kann in Folge natürlicher Schwankungen die absolute Zahl der weiblichen Geburten geringfügig zunehmen,
6.1 Grundlagen der analytischen Statistik
männlich 51%
weiblich 49%
415
Geschlecht
Anzahl
Anteil %
Winkel o
weiblich
54
49
176
männlich
56
51
184
6
110
100
360
Abb. 6.16 Statistik einer Geburtsstation. Diese Tabelle stellt eine Stichprobe der Grundgesamtheit aller Geburten in Deutschland dar. Es ist eine repräsentative Stichprobe, da die Anteile exakt dem Bundesdurchschnitt entsprechen
z.B. auf 58. Durch die Normierung kehrt sich das Verhältnis zu Gunsten der weiblichen Neugeborenen um: weiblich 51%, männlich 49%. Aus der Veränderung der absoluten Zahl weiblicher Neugeborener ergab sich eine relative Veränderung des Anteils der männlichen Neugeborenen. Dieses Verhalten lässt sich verallgemeinern zu (Abb. 6.16). Normierung
Durch die Normierung von Zufallsgrößen verursacht jede Änderung der absoluten Zahl eines Merkmals eine Änderung aller relativen Maße. Bleibt dieser Effekt bei der Interpretation von Ergebnissen statistischer Analysen unberücksichtigt, so kann er zu fatalen Fehlschlüssen führen (siehe formale Korrelation). Auch in der Biosignalverarbeitung normiert man stochastische Größen, so z.B. die Anteile von spektralen Leistungsbändern des EEG. Hier kann eine häufig vorkommende Zunahme der Leistung im D-Band dazu führen, dass die Anteile der übrigen Bänder stark absinken, obwohl sich ihre absolute Bandleistung nicht geändert hat. Fazit dieser Überlegungen ist: Eine Normierung von Zufallsgrößen ist sinnvoll und notwendig, um eine Basis für Vergleiche von Größen und Zusammenhängen zu erhalten. Bei der Analyse und Interpretation von Verhalten und Zusammenhängen müssen die absoluten Zahlen mit einbezogen werden, um Fehlschlüsse zu vermeiden.
Visuelle Inspektion
416
6 Stochastische Prozesse
Eine Punktwolke ist ein anschauliches Mittel zur visuellen Analyse der Verteilungen und des Zusammenhangs von zwei Zufallsgrößen bzw. von Paaren von mehreren Zufallsgrößen. Die visuelle Inspektion ist ein legitimes Mittel der statistischen Analyse, die im ersten Schritt der Analyse zu beurteilen hat, ob x x x
die Stichprobe homogen ist, Ausreißer vorhanden sind und welche Art von Zusammenhang besteht.
In der Biostatistik und vor allem in der Biosignalverarbeitung sind homogene Stichproben eher eine Seltenheit. Daher ist es oft notwendig, die Verteilungen vor der Analyse mit geeigneten Klassifizierungsmethoden zu separieren, im einfachsten Fall durch Trennlinien. Ein typisches Beispiel zeigt Abb. 6.17. Bereits visuell kann man sehr gut erkennen, dass die Stichprobe (Wertepaare der Zufallsgrößen X und Y) aus zwei Teilverteilungen besteht, z.B. Körpergröße X und Gewicht Y von Frauen (unten links) und Männern (oben rechts). Eine solche Stichprobe ist inhomogen und muss in zwei Teile getrennt werden, am einfachsten mit einer diagonalen Trennlinie. Ohne Trennung würde der Korrelationskoeffizient U xy = 0.78, nach Trennung in den einzelnen Punktwolken jedoch nur Uxy= 0.03 (Siehe Korrelationskoeffizient nach Pearson). Dieses Beispiel zeigt eine der häufigsten Fehlerquellen in der Literatur und in Fachzeitschriften. 8
6
y
4 2 0 -2
-4 -4
-2
0
2
x
4
6
8
Abb. 6.17 Punktwolke einer inhomogenen Verteilung. Die Teilverteilungen, die man durch Trennung entlang der Hauptdiagonale erhält, sind homogen
6.1 Grundlagen der analytischen Statistik
417
7 6 5 4
Y
3 2 1 0 -1 -2 -3 -4
-2
0
X
2
4
6
Abb. 6.18 Homogene Stichprobe aus 100 Wertepaaren der Zufallsgrößen X und Y mit zwei durch Kreise markierten „Ausreißern“ bzw. Extremwerten
Eine wichtige Aufgabe ist die Beurteilung einer Stichprobe dahingehend, ob Ausreißer vorhanden sind. Sowohl der Begriff als auch seine Anwendung werden in der Literatur sehr unterschiedlich gehandhabt. Einige Quellen empfehlen, als Ausreißer Werte zu behandeln, die vom Mittelwert um die zwei- bis dreifache Standardabweichung entfernt liegen. Für die Beurteilung würde das bedeuten, dass im Schnitt jeder 20. bis jeder 500. Wert als Ausreißer qualifiziert und aus der Auswertung ausgeschlossen würde (Abb. 6.18). Dieses Vorgehen wäre aus Sicht der Theorie und der Empirie nicht korrekt. Für Zwecke der Biostatistik und der Biosignalverarbeitung werden hier zwei verschiedene Begriffe verwendet, deren Definition und Anwendung sich an klaren Kriterien orientiert: Als Extremwert bezeichnet man einen Wert einer Stichprobe, der unwahrscheinlich und weit entfernt vom Mittelwert, aber theoretisch und der empirischen Verteilung entsprechend möglich ist. Die in Abb. 6.18 dargestellte Punktwolke zeigt 100 Wertepaare der normalverteilten Zufallsgrößen X und Y, die voneinander unabhängig sind. Die beiden eingekreisten Werte (3; 5) und (5; 6) sind sehr unwahrscheinlich, aber möglich und treten bei entsprechend großen Stichproben im Mittel mindestens einmal auf. Daher sind sie den Verteilungen zugehörig und dürften aus der Auswertung als Ausreißer
418
6 Stochastische Prozesse
nicht ausgeschlossen werden, sie gelten als Extremwerte. Ein typisches Beispiel ist die Messung der äquivalenten Rauschspannung eines medizinischen Messverstärkers. Diese ist normalverteilt und beträgt durchschnittlich etwa 20 PV. Bei einer hinreichend langen Messung (mehrere Minuten) treten jedoch auch Extremwerte von 100 PV und mehr auf. Diese gehören der Stichprobe an und müssen mit ausgewertet werden. Sollte jedoch vereinzelt ein Messwert von 10 V auftreten, so ist dieser einer Störung zuzuschreiben und als Ausreißer (siehe Ausreißer) auszuschließen. Als Ausreißer bezeichnet man einen Wert einer Stichprobe, der dieser Stichprobe weder theoretisch noch empirisch angehören kann. In der Erfassung von biomedizinischen Daten, insbesondere in der von Biosignalen, treten zum Teil Störungen auf, die wesentlich stärker sind, als die Messdaten selbst (siehe Kapitel 2). In der Regel treten in den Messdaten auch Werte auf, die mit Sicherheit von der gemessenen Datenquelle nicht stammen können. Misst man beispielsweise täglich die Kraft eines Muskels eines in der Rehabilitation behandelten Patienten, um den Fortschritt zu beobachten, so ist im Normalfall eine mittelfristige (Wochen) Steigerung zu erwarten. Dass aber von einem Tag auf den anderen die Kraft von 102 N auf 104 N ansteigt, ist nicht möglich. Daher würde man diesen Messwert als Ausreißer aus der Auswertung ausschließen. Mit weiteren Messungen (an Folgetagen) würde man diesen Ausschluss vorsichtshalber verifizieren. 0.5 0.45 0.4 0.35
Y
0.3 0.25 0.2 0.15 0.1 0.05 0
-0.4
-0.2
0
X
0.2
0.4
0.6
Abb. 6.19 Punktwolke der Wertepaare der Zufallsgrößen Y und X, wobei Y von X quadratisch abhängig ist (der funktionale Zusammenhang zweiter Ordnung ist vor der Erhebung Stichprobe bekannt)
6.1 Grundlagen der analytischen Statistik
419
Bei der visuellen Inspektion kann man aus der Punktwolke oft den qualitativen Zusammenhang der Zufallsgrößen erkennen (Abb. 6.19). Im Idealfall ist dieser Zusammenhang bereits – zumindest qualitativ – bekannt. Man weiß, dass beispielsweise die sensorischen Systeme des Menschen (subjektive Empfindung beimSehen, Hören, Tasten) von der Reizintensität (Helligkeit, Lautstärke, Druck) logarithmisch abhängig sind. Daher ist es eine relativ einfache Aufgabe, den Messdaten eine entsprechend Regressionskurve anzupassen. In der praktischen Analyse sind die qualitativen Zusammenhänge im Normalfall jedoch nicht bekannt. Daher versucht man zunächst einen linearen oder überhaupt einen vorhandenen Zusammenhang zu finden. Als erste Orientierung bieten sich die Korrelationskoeffizienten an. Korrelationskoeffizienten nach Pearson und Spearman Zur Quantifizierung der Ähnlichkeit von Zufallsgrößen braucht man ein Maß, das den höchsten Wert erreicht, wenn die Größen gleich (am ähnlichsten) sind. In Anlehnung an die analytische Geometrie lässt sich dieses Problem auf ein Rechteck übertragen, das die größte Fläche erreicht, wenn die beiden Seitenlängen gleich sind und so das Rechteck zum Quadrat wird (Gl. 6.23).
N XY
X Y
(6.23)
Da die Zufallsgrößen X und Y Schwankungen unterliegen (Abb. 6.20), ermittelt 6 4
Y
2 0 -2 -4
-6 -6
-4
-2
0
X
2
4
6
Abb. 6.20 Punktwolke von Wertepaaren von zwei linear abhängigen Variablen X und Y
420
6 Stochastische Prozesse
man N mit Hilfe des Erwartungswertes. Dazu wird der Erwartungsoperator eingeführt (Gl. 6.24). E^X Y `
N
(6.24)
Der Erwartungswert entspricht asymptotisch dem arithmetischen Mittelwert der Messwerte. Damit ist N nach Gl. 6.24 ein statistisches Maß für den linearen Zusammenhang der Zufallsgrößen X und Y, welches als Korrelation bezeichnet wird. Die Korrelation erreicht ihr Betragsmaximum, wenn die Zufallsgrößen völlig identisch sind, sie ist nullwertig beim fehlenden Zusammenhang von zentrierten Größen. Für die Beurteilung des linearen Zusammenhangs an Hand der Punktwolke ist allein die Neigung (positiv oder negativ) und die Breite der Wolke entscheidend (Abb. 6.20), aber nicht die Lage der Wolke über den Achsen. Um Unabhängigkeit von der Lage zu erreichen, müssen die Zufallsgrößen zentriert werden (Gl. 6.25).
NZ
E^ X E^X ` Y E^Y ` `
(6.25)
Die Korrelation von zentrierten Größen bezeichnet man als Kovarianz. Aus der Beziehung nach Gl. 6.25 folgt, dass wenn mindestens einer der Mittelwerte nullwertig ist, so sind die Kovarianz und Korrelation identisch. Die Kovarianz kann Werte im gesamten Bereich der reellen Zahlen erreichen, da das Produkt von konkreten Werten der Zufallsvariablen abhängt. Mit NZ ist daher ein Vergleich zwischen Zusammenhängen nicht möglich, eine Normierung ist notwendig. Mit einer Normierung wird üblicherweise der Wertebereich im Intervall [0; 1] oder [-1; 1] angestrebt. Da die Kovarianz positiv und negativ sein kann (positive oder negative Steigung der Punktwolke), normiert man sie auf den Bereich [-1; 1]. Weil die Kovarianz die Varianz der zentrierten Produkte repräsentiert (Gl. 6.25), normiert man sie auf das Produkt der Varianzen. Wegen der einheitsfreien Normierung (im Zähler und im Nenner gleich große Exponenten) wird aus dem Produkt zusätzlich die Wurzel gezogen (Gl. 6.26).
U XY
E^ X E^X ` Y E^Y ` `
^
` ^
E X E^X ` E Y E^Y ` 2
2
`
covx, y
varx var y
(6.26)
Die normierte Kovarianz nach Gl. 6.26 ist auch als Korrelationskoeffizient nach Pearson bekannt. Für eine Stichprobe lässt sich dementsprechend der empirische Koeffizient berechnen (Gl. 6.27).
6.1 Grundlagen der analytischen Statistik
421 n
¦ xi x yi y
i 1
rxy
n
n
(6.27)
¦ xi x ¦ yi y 2
i 1
2
i 1
Obwohl der KK (Korrelationskoeffizient) nach Pearson eine Statistik der zweiten Ordnung ist (die höchste Exponentensumme im Zähler und im Nenner beträgt 2), ist er ein Maß nur für den linearen Zusammenhang bzw. nur für seinen linearen Anteil. Diese Tatsache ergibt sich daraus, dass für eine Abhängigkeit der Ordnung n die n+1-te Ordnung einer Statistik notwendig ist. Eine notwendige Bedingung ist eine Normalverteilung der untersuchten Daten. Sind die Bedingungen nicht erfüllt, so benötigt man Alternativen zur Quantifizierung des statistischen Zusammenhangs. Für praktische Analysen sind Rangstatistiken bzw. Rangtransformationen besonders gut geeignet (siehe Quartile, Median). Der wesentlichste Vorteil von rangbasierten Statistiken besteht darin, dass in die Berechnung nicht mehr die konkreten Werte der Zufallsgrößen eingehen, sondern ihre Rangzahl in der geordneten Reihe. Diese Transformation sichert eine weitgehende Unabhängigkeit von(unbekannten) nichtlinearen Zusammenhängen und von Extremwerten. Nachteilig ist allerdings, dass die Rangtransformation selbst einen nichtlinearen stochastischen Charakter besitzt. Deswegen ist sie für die Analyse, aber nicht für Rückschlüsse auf Originaldaten geeignet (das Superpositionsprinzip ist verletzt). Die rangbasierte Alternative zum KK nach Pearson ist der KK nach Spearman (Gl. 6.28).
¦ R xi R X R yi R Y n
rxy
i 1
¦ R xi R X ¦ R yi R Y n
i 1
2
n
(6.28)
2
i 1
In Gl. 6.28 ist R(xi) die Rangzahl des Wertes xi in der geordneten Reihe der Zufallsgröße X.
Zur Berechnung des KK nach Spearman ist weder eine Normalverteilung der Daten noch ein linearer Zusammenhang notwendig. Allerdings muss eine eventuell vorhandene Nichtlinearität monoton (fallend oder steigend) sein. Ein Beispiel zu Korrelationskoeffizienten ist in Abb. 6.21 dargestellt. Die Zufallsgröße Y ist in fünfter Ordnung von der Zufallsgröße X abhängig. Der KK nach Pearson beträgt 0.95, nach Spearman 0.99. Da jede Nichtlinearität auch einen linearen Anteil besitzt, ist dieser im Pearsons KK enthalten, wobei dieser im Vergleich zum Spearmans KK den Zusammenhang leicht unterschätzt. In der Literatur werden die Korrelationskoeffizienten zusammen mit der (meistens linearen) Regression zur Quantifizierung und Darstellung von Ergebnissen ver-
422
6 Stochastische Prozesse
1.1 1 0.9
Y
0.8 0.7 0.6 0.5 0.4 0
0.2
0.4
X
0.6
0.8
1
Abb. 6.21 Nichtlineare Abhängigkeit der Zufallsgröße Y von der Zufallsgröße X fünfter Ordnung, monoton, degressiv steigend
wendet. Bei der Auswertung der Korrelation kann es jedoch auch durch die Nichteinhaltung der genannten Voraussetzungen zu Fehlinterpretationen kommen. Im Folgenden sind die häufigsten Interpretationsfehler im Überblick dargestellt.
Grippe 25%
¦
G : 2500 o 5000 HerzKreislauf 75%
10000
hG : 25% o 40%
Grippe 40%
H : 7500 o 7500 hH : 75% o 60%
¦
HerzKreislauf 60%
12500
Abb. 6.22 Datenbeispiel zur formalen Korrelation: Eine absolute Zunahme der Grippenerkrankungen von G = 2500 auf 5000 führt zur relativen Zunahme von hG = 25% auf 40%. Gleichzeitig verringert sich der Anteil von Herz-Kreislauferkrankungen von hH = 75% auf 60%, obwohl die absolute Anzahl H = 7500 konstant geblieben ist
6.1 Grundlagen der analytischen Statistik
423
Formale Korrelation Durch die oben erläuterte Normierung eines Merkmals hat die Veränderung einer absoluten Ausprägung Einfluss auf alle anderen relativen Ausprägungen [1]. Diesen Zusammenhang verdeutlich das Beispiel in Abb. 6.22. Eine absolute Zunahme der Grippefälle erhöht ihren Anteil und reduziert dadurch zwangsläufig den Anteil von Herz-Kreislauf-Fällen, obwohl deren absolute Zahl konstant blieb. Die normierten Größen würden einen formalen Zusammenhang aufweisen, obwohl an Hand der absoluten Zahlen klar ist, dass kein faktischer Zusammenhang vorhanden ist. Man könnte zu der völlig falschen Interpretation gelangen, dass eine Erhöhung der Grippefälle zur Absenkung von Herz-Kreislauf-Erkrankungen führt. Man darf sich also nie nur auf normierte Daten verlassen, sondern sollte sich auch immer die absoluten Daten min ansehen. Selektionskorrelation Als Selektionskorrelation wird ein statistischer Zusammenhang bezeichnet, der sich dadurch ergibt, dass man aus der ursprünglichen Stichprobe „gewünschte“ Daten selektiert. Die Selektion kann einerseits als Folge einer legitimen Forderung nach einem linearen, aber robustifizierten Deskriptionsmaß erfolgen (siehe Kapitel 6.1.1.2, getrimmter arithmetischer Mittelwert). Ein Beispiel dazu ist in Abb. 6.23 dargestellt. Aus der Grundgesamtheit der bereits in Abb. 6.14 verwendeten Daten
5 4 3 2
V2
1 0 -1 -2 -3 -4 -5 -5
0
V1
5
Abb. 6.23 Punktwolke von 100 Realisierungen der Paare von Zufallsgrößen V1 und V2. Die gestrichelten Linien repräsentieren Grenzen bei 10%-Trimmen (getrimmter Mittelwert)
424
6 Stochastische Prozesse
wurden 100 Wertepaare zufällig ausgewählt. Der KK nach Pearson für diese Stichprobe beträgt 0.65, nach einem 10%-Trimmen (dargestellt durch gestrichelte Linien) steigt er auf einen Wert von 0.88. Dieses Beispiel zeigt, dass eine sinnvolle Maßnahme (Trimmen) der deskriptiven Statistik für die Analyse nicht grundsätzlich geeignet ist. Die beim Trimmen aus der Auswertung ausgeschlossenen Datenpaare (links von der oberen und rechts von der unteren gestrichelten Linie) gehören der Stichprobe an. Zwar sind sie Extremwerte, aber keine Ausreißer. In der analytischen Praxis finden unkorrekterweise bereits während der laufenden Studien subjektiv motivierte (Medizin, Pharmaindustrie, aber auch Technik und Naturwissenschaft), aber objektiv vorab nicht begründete Selektionen statt, die zu einem „Wunschergebnis“ verhelfen sollen. Ein solches Vorgehen ist außer der Option, klare Ausreißer auszuschließen, (nicht nur) methodisch verwerflich. Ausreißerinduzierte Korrelation In Abb. 6.18 sind exemplarisch zwei (sehr unwahrscheinliche) Extremwerte dargestellt. Der KK nach Pearson beträgt für alle Daten rxy = 0.9, nach Ausschluss der beiden Extremwerte rxy = 0.2 (ein realistischer Wert). Hier gehören die Extremwerte zwar zur Stichprobe, aber nach dem Kriterium der Homogenität muss man sie aus der weiteren Bearbeitung ausschließen. Die Problematik der Unterscheidung zwischen Extremwerten und Ausreißern wurde bereits behandelt. An dieser Stelle soll darauf hingewiesen werden, dass es – wie bei allen anderen Grenzproblemen auch – keine Schwelle gibt, nach der man eindeutig unterscheiden könnte. Vielmehr ist der Übergangsbereich zwischen den beiden Merkmalen immer eine Grauzone mit einer problemabhängigen Breite. Und daher kommt es in der Analysepraxis vor, dass man nicht nur Extremwerte, sondern auch offensichtliche Ausreißer aus der Auswertung gewollt nicht ausschließt, nur weil sie den Korrelationskoeffizienten in die „gewünschte“ Richtung treiben. Inhomogenitätskorrelation Die Homogenität einer Stichprobe ist die notwendige Voraussetzung für die weitere statistische Analyse, wie bereits erläutert und in Abb. 6.17 dargestellt. Geht man von diesem konkreten Beispiel der Gewicht-Körpergröße-Beziehung bei Männern und Frauen aus, so lässt sich feststellen: Es ist plausibel und nicht überraschend, dass Männer im Mittel größer und schwerer als Frauen sind, daher ist der KK über die gesamte Stichprobe relativ hoch (rxy = 0.78). Die Stichprobe ist offensichtlich inhomogen, daher betrachtet man die Teilgruppen (Frauen und Männer) getrennt. Dabei ist es wiederum plausibel, dass es weder bei den Frauen noch bei den Männern einen klaren Zusammenhang zwischen Körpergröße und Gewicht gibt, da die individuelle Variabilität deutlich überwiegt (rxy = 0.03). Diese Variante der falschen Interpretation eines Zusammenhangs ist weit verbreitet in den meisten Fällen ohne den Versuch zu unternehmen, einen funktionalen bzw. kausalen Zusammenhang nachzuweisen.
6.1 Grundlagen der analytischen Statistik
425
Gemeinsamkeitskorrelation Ein strapaziertes Beispiel für Gemeinsamkeitskorrelation ist seit Jahren der sehr hohe Korrelationskoeffizient von mehr als 0.9 zwischen den Geburtenzahlen und der Storchendichte. Trotz dieses sehr hohen Wertes ist es nicht schwer nachzuweisen (falls es nicht a priori offensichtlich ist), dass kein funktionaler bzw. kein kausaler Zusammenhang besteht. Dass trotz des fehlenden funktionalen ein statistischer Zusammenhang besteht, liegt daran, dass beide untersuchten Merkmale von einer dritten Größe abhängen. In der heutigen neurologischen Forschung untersucht man unter anderem Zusammenhänge zwischen Hirnregionen. Dabei wird ein nachgewiesener statistischer Zusammenhang zwischen zwei Regionen (z.B. zwischen der linken und der rechten Hemisphäre) oft als ein funktionaler Zusammenhang interpretiert. Dabei können bereits bei der Messdatenerfassung (EEG) methodische Fehler auftreten, die eine hohe Korrelation zwischen Hirnregionen verursachen, die offensichtlich keine funktionale Verbindung besitzen (siehe Kapitel „3.1.2 Referenzen in der Biosignalerfassung“ und „5.4.4 Mittelwertreferenz“). Typische Beispiele für solche Fehlinterpretationen sind die „paradoxe Lateralisierung“ und die „Spiegelung von D-Wellen im Frontalbereich“. Spannweitenkorrelation Bei Methodenentwicklungen ist es üblich, die Ergebnisse einer neuen Methode mit einem Goldstandard58 zu vergleichen. Wo es keinen Goldstandard gibt, vergleicht man mit bisherigen, etablierten Methoden. Beim Methodenvergleich ist der Arbeitsbereich (Spannweite) von entscheidender Bedeutung. Man kann davon ausgehen, dass wenn die Spannweite beim Methodenvergleich nur groß genug bzw. viel größer als notwendig ist, kann eine hohe Korrelation herbeigeführt werden. Diesen Effekt verdeutlicht das folgende Beispiel: Die Größe SaO2 (arterielle Sauerstoffsättigung) ist ein lebenswichtiger Parameter, der im Normalfall über 95% liegt. Als Goldstandard gilt die Labormessung der Blutgase einer arteriellen Blutprobe. Da die Entnahme von Blutproben invasiv und diskontinuierlich ist, entwickelt man nichtinvasive und kontinuierliche Methoden. Die bekannteste ist die Pulsoximetrie, die einen berechneten Parameter SpO2 liefert. Sie ist eine messmethodische Alternative zur Labormessung von SaO2. Der Vergleich von Messwerten beider Methoden bietet ein zunächst befriedigendes Bild (Abb. 6.24), der KK nach Pearson mit r = 0.96 zeigt eine nahezu perfekte Übereinstimmung. Allerdings erstreckt sich der kontrollierte Messbereich zwischen 40% und 100%, der den in der Praxis benötigten Bereich von 90% bis 100% um Vielfaches übersteigt. Im Normalfall liegt SaO2 oberhalb von 90%, wenn sie in den Bereich 80% bis 90% absinkt, ist der Notarzt gefragt. Daher haben Messwerte unterhalb von 80% keine praktische Bedeutung. Für den Vergleich unter realen Bedingungen muss man daher auf den Bereich von 90% bis 100% fokussieren (Abb. 6.25). In diesem Arbeitsbereich fällt der KK in diesem Beispiel auf einen Wert von r = 0.49 58
Eine objektive, anerkannte Referenzmethode mit hinreichender Genauigkeit
426
6 Stochastische Prozesse
100 90
O2 Pulsoximeter in %
80 70 60 50 40 30 20 10 0 0
20
40
60
O2 Labor in %
80
100
Abb. 6.24 Vergleich von Messwerten zwischen dem Goldstandard (Labormessung von Gasen des arteriellen Blutes) und einer Methode der Pulsoximetrie im gesamten Bereich. Der KK nach Pearson beträgt r = 0.96 100 99
O2 Pulsoximeter in %
98 97 96 95 94 93 92 91 90 90
92
94
96
O2 Labor in %
98
100
Abb. 6.25 Vergleich von Messwerten zwischen dem Goldstandard (Labormessung des arteriellen Blutes) und einer Methode der Pulsoximetrie im realen Arbeitsbereich von 90% bis 100%. er KK nach Pearson beträgt r = 0.49
6.1 Grundlagen der analytischen Statistik
427
ab, also auf etwa die Hälfte. Bei einigen anderen Methoden der Pulsoximetrie erreicht der KK noch niedrigere Werte. Das Fazit dieser Überlegungen ist, dass beide Angaben rein statistisch zwar korrekt sind. Der höhere KK präsentiert aber ein „besseres“ Ergebnis, geht jedoch von einem praxisfernen Messbereich aus und ist daher messmethodisch unglaubwürdig.
6.1.3 Schätzverfahren 6.1.3.1 Grundlagen Die Beschreibung statistischer Daten als Grundlage für die Analyse dient dazu, das Datenmaterial mit wenigen Parametern möglichst umfassend zu charakterisieren. Die wichtigsten Parameter und ihre Berechnung wurden im Kapitel „6.1.1.2 Verteilungen und Deskriptionsmaße“ erläutert. Das Ziel besteht also im Wesentlichen darin, den wahren, aber unbekannten, Parameter - der untersuchten Daten zu ermitteln. Da man im Normalfall aus einer Grundgesamtheit nur eine Stichprobe zur Verfügung hat, muss man den Parameter - mit geeigneten Mitteln schätzen. Die Aufgabe besteht nun darin, eine Schätzfunktion (Schätzer) g(X) so zu konstruieren, dass man den wahren Parameter möglichst genau und zuverlässig ermittelt (Gl. 6.29).
-ˆ
gX o -
(6.29)
In Gl. 6.29 ist - der wahre Parameter, -ˆ die Schätzung von -, g die Schätzfunktion und X eine Zufallsgröße mit dem Parameter -.
Man möchte beispielsweise den Lageparameter P der Verteilungsdichte der Zufallsgröße X ermitteln, wobei man hier die Verteilung der Stichprobe nach Abb. 6.3 annimmt. Wie in der Abbildung bereits dargestellt, gibt es für die Schätzfunktion drei Möglichkeiten: den Modus (Gl. 6.8), den Median (Gl. 6.10) und den Mittelwert (Gl. 6.5). Da der Modus und der Median quantilbasierte Maße und daher grundsätzlich nichtlinear sind, kommt für die weitere Analyse nur der arithmetische Mittelwert in Frage. Ohne den Beweis zu führen, gilt für den Mittelwert (Gl. 6.30), dass er asymptotisch (für unendlich großes n) dem Lageparameter P entspricht.
Pˆ
X
^`
1 n nof ¦ X i o E X ni 1
P
(6.30)
428
6 Stochastische Prozesse
In Gl. 6.30 ist Xi die mathematische (theoretische) Stichprobe, bei einer empirischen Stichprobe verwendet man an dieser Stelle Kleinbuchstaben xi. E{.} ist der Erwartungsoperator, P der wahre Lageparameter, Pˆ der Schätzwert von P.
Für die Streuung einer Stichprobe (Streuungsparameter) gilt äquivalent zum Lageparameter (Gl. 6.31): S2
1 n ¦ Xi X n 1 i 1
2 nof o E^S 2 `
V2 .
(6.31)
Da der Schätzer des Parameters P die Summe von Zufallsvariablen enthält (Gl. 6.30), kann man ausgehend vom Zentralen Grenzwertsatz annehmen, dass ab einem Stichprobenumfang von n > 30 der Schätzwert Pˆ normalverteilt ist (Gl. 6.32). X
§
Pˆ ~ N¨¨ P , ©
V 2 ·¸ n ¸¹
(6.32)
In Gl. 6.32 beträgt die Varianz des Mittelwertes V2/n. Dies ist eine Folge der Mittelung von n u.i.v. (unabhängige, identisch verteilte) Zufallsvariablen – die Varianz nimmt mit der Mittelungsordnung umgekehrt proportional ab. Siehe stochastische Prozesse.
Bei der Berechnung der Streuung (Gl. 6.31) wird die Summe aus Quadraten der Stichprobe berechnet, daher findet hier der ZGWS keine Anwendung. Unter der Annahme, dass die Daten der Stichprobe einer standardnormalverteilten Grundgesamtheit entstammen (Gl. 6.34, Abb. 6.26), ist die Streuung F2-verteilt (Gl. 6.33). S2
Vˆ 2 ~ F 2
(6.33)
n
¦ Z i2 ~ F n2 , Z i ~ N 0,1
(6.34)
i 1
Bei einem Stichprobenumfang von n > 100 nimmt die Quadratensumme näherungsweise eine Normalverteilung ein (Gl. 6.35).
¦ Z i2 ~ N P n, V 2 2n
n !100
(6.35)
i 1
Am Beispiel der empirischen Verteilung der Daten nach Abb. 6.3 ist deutlich, dass es für einen Parameter durchaus sehr unterschiedliche Schätzer geben kann. Um die Güte der Schätzer einschätzen und diese untereinander vergleichen zu können, sind Kriterien notwendig. Im Folgenden werden die drei wichtigsten Gütekriterien erläutert.
6.1 Grundlagen der analytischen Statistik
429
0.1
n-1=9
0.09 0.08 0.07
f(x)
0.06 0.05 0.04 0.03 0.02 0.01 0
0
5
10
15
x
20
25
30
35
Abb. 6.26 Verteilungsdichte der Summe von 10 quadrierten, standardnormalverteilten Zufallsgrößen entspricht einer F2-Verteilung mit n - 1 = 9 Freiheitsgraden
Erwartungstreue Einen Schätzer bezeichnet man als erwartungstreu, wenn er die Bedingung nach Gl. 6.36 erfüllt. Erwartungstreu bedeutet also, dass der Erwartungswert der Zufallsgröße X mit dem gesuchten Parameter übereinstimmt. E^g X ` J -
(6.36)
In Gl. 6.36 ist - der gesuchte Parameter der Zufallsgröße X, J (.) ein Funktional des Parameters - und g(.) eine Schätzfunktion. Das Funktional J ist im einfachsten Fall der Parameter - selbst. Beispielsweise bei sensorischen Größen oder spektralen Schätzungen verwendet man den dekadischen Logarithmus einer sensorischen Größe log10(X) und gibt diesen in dB an (Helligkeit, Lautstärke).
Ist die Bedingung für die Erwartungstreue nicht erfüllt, entsteht ein Fehler, den man als Bias (Verzerrung) bezeichnet (Gl. 6.37). b-
E^g X J - `
(6.37)
Zum Bias findet man mehrere Analogien in der Elektronik (Bias als Ruhestrom am Verstärkereingang, Offsetspannung als Störgröße eines Operationsverstärkers) oder in der Messtechnik (systematischer Messfehler). Zur Schätzung der Varianz
430
6 Stochastische Prozesse
verwendet man vor allem in der Prozessanalyse das zweite zentrale Moment (siehe Momente) S m2
1 n ¦ Xi X ni 1
2 ,
das sich im Vergleich zur Definition nach Gl. 6.31 im Normierungsfaktor unterscheidet. Aus dem Vergleich der beiden Gleichungen ergibt sich ein Bias von bS
^ ` ^ `
E S m2 E S 2
n 1 2 V V 2 n
1 V2. n
Daraus folgt, dass das zweite zentrale Moment als Schätzer der Varianz nicht erwartungstreu ist, es unterschätzt die wahre Varianz. Bei einem sehr großen n verschwindet der Bias, lim bS 0 . Diese Eigenschaft bezeichnet man als asymptotin of
sche Erwartungstreue. Man muss bei der Bewertung von Schätzern zwischen einer a priori vorhandenen und einer asymptotischen Eigenschaft unterscheiden. Oft liegen nur kleine Stichproben vor, so dass die Asymptotik gar nicht zum Tragen kommen kann und einen eher theoretischen Charakter besitzt. Konsistenz Einen Schätzer bezeichnet man als konsistent, wenn die Varianz (var(X) = S2(X)) seiner Schätzung mit steigendem Umfang der Stichprobe abnimmt (Gl. 6.38). Ein solches Verhalten ist auch als stochastische Konvergenz bekannt. n2 ! n1 varn
2
^g X ` varn 1^g X `
(6.38)
Im Sinne der mathematischen Statistik ist ein Schätzer entweder konsistent, oder er ist es nicht. Aus Sicht der praktischen Analyse ist natürlich auch interessant, wie schnell ein Schätzer konvergiert bzw. wie schnell die Varianz der Schätzung mit zunehmendem Stichprobenumfang abnimmt. Im Kapitel „5.3.3.2 Gradientenverfahren, LMS-Algorithmus“ ist ein Schätzer für den Gradienten des Fehlerfunktionals beschrieben (Gl. 5.49). Die Varianz dieses Schätzers hängt offensichtlich nur von der Adaptionskonstante P ab und nicht von der Anzahl der geschätzten Werte (siehe Abb. 5.22). Daher ist dieser Schätzer inkonsistent. Ein Beispiel für zwei konsistente Schätzer, die unterschiedlich schnell konvergieren, zeigt Abb. 6.27. Auf die simulierten Daten aus Abb. 6.3 wendet man als Schätzer den arithmetischen Mittelwert und den Median an. Es ist deutlich, dass der Median schneller als der Mittelwert konvergiert. Dieses Verhalten, auf die praktische Analyse einer konkreten Stichprobe angewandt, bedeutet, dass man mit dem Median bei exponential verteilten Daten eine niedrigere Varianz der Schätzung erhält.
6.1 Grundlagen der analytischen Statistik
431
0.5
arithmetischer Mittelwert Median
log10(var(g(x)))
0
-0.5
-1
-1.5
-2 0
20
40
n
60
80
100
Abb. 6.27 Logarithmus der Varianz der Schätzer „arithmetischer Mittelwert“ und „Median“ von doppelt exponential und rechtsschief verteilten Daten aus Abb. 6.3 in Abhängigkeit vom Stichprobenumfang. Beide Schätzer sind konsistent. Der Median konvergiert schneller und ist daher auch effizienter
Effizienz Die Effizienz eines Schätzers steigt mit der abnehmenden Varianz seiner Schätzung bei sonst gleichen Bedingungen (Gl. 6.39). e^g X `
1 F - var g X
(6.39)
In Gl. 6.39 ist X die Zufallsgröße, g(.) der Schätzer, F(.) die Fischer-Information und e{.} die Effizienz.
Vergleicht man zwei Schätzer, so ist derjenige effizienter, der bei einem identischen Stichprobenumfang n die niedrigere Varianz aufweist (Abb. 6.27). Man kann beispielsweise zeigen, dass bei exponential verteilten Daten der Median effizienter ist, als der arithmetische Mittelwert (Gl. 6.40). n2
n1 , varg 2 X varg1 X e^g 2 X ` ! e^g1 X `
(6.40)
432
6 Stochastische Prozesse
6.1.3.2 Methoden Für eine Vereinfachung der Gütekriterien ist es sinnvoll, ein gemeinsames Maß zu definieren. In der Statistik verwendet man unterschiedliche Maße, die je nach Fragestellung angewandt werden. Daher betrachtet man hier ein allgemeines Maß, das vor allem für die Zwecke der Biosignalverarbeitung eine gute Vergleichsgrundlage bildet – den mittleren quadratischen Fehler mse (mean squared error). Dieser verbindet additiv die Quadrate des Bias und der Streuung bzw. die Varianz (Gl. 6.41).
mse -ˆ
2 E ® -ˆ - ½¾ ¯ ¿
^`
var -ˆ E -ˆ -
2
S 2 b2
(6.41)
Der mse(.) soll am Beispiel des Mittelwertes und der Streuung einer normalverteilten Zufallsgröße demonstriert werden: X ~ N P , V 1 n Pˆ X ¦ Xi ni 1 2 msePˆ varPˆ E^Pˆ ` P
V2 /n
Da der arithmetische Mittelwert ein erwartungstreuer Schätzer für P ist, verschwindet der Bias. Daher hängt die Varianz des Mittelwertes, auch sem (standard error of the mean) genannt, allein von der Streuung V der Originaldaten und der Mittelungsordnung n ab. Für den mse der Streuung S gilt entsprechend
Vˆ 2
mse Vˆ
2
S2
1 n ¦ Xi X n 1 i 1
2
E^Vˆ ` Vˆ
var Vˆ
2
2
2 2
2Vˆ 4 n 1
.
Die Schätzer von Verteilungsparametern können nach verschiedenen Methoden entwickelt werden. Im Folgenden werden die drei bekanntesten Methoden erläutert: Momentenmethode, Maximum-Likelihood-Methode (Methode nach der größten Wahrscheinlichkeit) und LS-Methode (Least Squares, Methode der kleinsten Fehlerquadrate). Momentenmethode Ein Moment der Ordnung k ist wie folgt definiert (Gl. 6.42): mk
^ `
E Xk .
(6.42)
6.1 Grundlagen der analytischen Statistik
433
Die Momente schätzt man grundsätzlich mit dem arithmetischen Mittelwert (Gl. 6.43). 1 n k ¦ xi ni 1
mˆ k
(6.43)
Während das erste Moment einen direkten Bezug zum Lageparameter P besitzt (Gl. 6.44), kann man ab dem zweiten Moment keine direkte Analogie zu den bisher behandelten deskriptiven Maßen herstellen.
Pˆ
mˆ 1
1 n 1 ¦ xi ni 1
x
(6.44)
Zur Herstellung der Vergleichbarkeit mit der Streuung ist eine Zentrierung des zweiten Momentes notwendig (Gl. 6.45).
Vˆ 2
mˆ 2 mˆ 12
1 n 2 § 1 n 1· ¦ xi ¨¨ ¦ xi ¸¸ ni 1 ©ni 1 ¹
2
1 n 2 ¦ xi x ni 1
(6.45)
Vergleicht man die momentbasierte Schätzung der Varianz (Gl. 6.45) mit der Definition nach Gl. 6.5, so stellt man fest, dass die Normierungsfaktoren n – 1 bzw. n unterschiedlich sind. Aus diesem Grund ist der momentbasierte Schätzer nach Gl. 6.45 nicht erwartungstreu, er ist jedoch asymptotisch erwartungstreu. Maximum-Likelihood-Methode (ML-Methode) Zur Schätzung eines Parameters - einer Stichprobe verwendet man einen Teil (Realisierungen der Zufallsgröße X) oder die ganze Stichprobe. Da die einzelnen Realisierungen einer Wahrscheinlichkeitsdichte f(xi|-) unterliegen, ergibt sich die Wahrscheinlichkeitsdichte von n Realisierungen dem Produkt der einzelnen Dichten (Gl. 6.46), also einer n-dimensionalen Verteilungsdichte. n
f x1 , x 2 ,..., xn | - f xi | -
(6.46)
i 1
Die Funktion nach Gl. 6.46 gibt die Wahrscheinlichkeitsdichte für das Auftreten einer n-dimensionalen Zufallsgröße bei einem gegebenen (bekannten) Parameter - an. In der Analyse benötigt man jedoch genau das Gegenteil – die Wahrscheinlichkeitsdichte des gesuchten Parameters - bei einer gegebenen Realisierung {x1,…,xn}. Dies formuliert man analog zur Beziehung nach Gl. 6.46 (Gl. 6.47).
434
6 Stochastische Prozesse n
L- | x1 ,..., xn f - | xi
(6.47)
i 1
Die Formulierung nach Gl. 6.47 bezeichnet man als ML-Schätzer. Im Sinne der besten Schätzung muss nun die Funktion L(.) maximiert werden. Natürlich hängt die Schätzfunktion von der konkreten Verteilungsdichte der Zufallsgröße bzw. ihrer Realisierungen ab. Am Beispiel einer normalverteilten Größe X wird die Herleitung des ML-Schätzers für die Parameter P und V demonstriert. f x | P , V
1
V 2S
e
x P 2 2V 2
LP , V | x1 ,..., xn
n
i 1V
1 2S
e
xi P 2 2V 2
Nun müsste man die Funktion L(.) nach P und V partiell differenzieren, um die Bedingungen für das Maximum von L(.) zu ermitteln. Da aber die Anzahl der Realisierungen n vorab nicht bekannt ist, ist diese Aufgabe so nicht lösbar (abgesehen vom Rechenaufwand). Die folgende Überlegung vereinfacht das Optimierungsproblem enorm: Findet man eine Funktion L*(.), die mit L(.) monoton ansteigend zusammenhängt (eine lineare Funktion löst das Problem nicht), so erreichen beide Funktionen ihr Maximum beim identischen Argument. Die Funktion L*(.) muss das problematische Produkt beseitigen, so dass sich hier grundsätzlich der Logarithmus anbietet. Da die bekannte Verteilung einer Normalverteilung entspricht, wählt man wegen der intrinsischen e-Funktion den natürlichen Logarithmus.
n 1 n x P 2 ln LP , V | x1 ,..., xn ln 2SV 2 2 ¦ i 2 V 2 i1
Nach der partiellen Ableitung dieses Ausdrucks ergeben sich direkt die beiden ML-Schätzer: wL wP
0 Pˆ
x
wL wV
0 Vˆ 2
1 n 2 ¦ xi x . ni 1
Der ML-Schätzer für P ist erwartungstreu, jedoch für die Streuung V, wie auch bei der Momentenmethode, ist er es nicht. ML-Schätzer sind in der Regel die effizientesten und wenn die Annahme der Verteilungsdichte erfüllt ist, sind sie auch konsistent. In der praktischen Analyse ist die Annahme jedoch oft nicht erfüllt, so dass der Schätzer inkonsistent werden kann. Außerdem muss die Verteilung der Daten vorher bekannt sein, was praktisch sehr selten der Fall ist.
6.1 Grundlagen der analytischen Statistik
435
LS-Methode (Methode der kleinsten Quadrate) Das Prinzip der LS-Methode besteht darin, dass man den empirischen Daten ein Datenmodell so anzupassen versucht, dass die Summe (oder der Mittelwert) der Fehlerquadrate minimal wird (Gl. 6.48). n
min ¦ y m yi 2 x
(6.48)
i 1
In Gl. 6.48 ist ym die modellierte Größe, yi und xi empirische Wertepaare, deren Zusammenhang modelliert werden soll.
Die einfachste Abhängigkeit ist der lineare Zusammenhang, der über die bekannte lineare Regression quantifiziert werden kann. Für den linearen Fall lässt sich das Optimierungsproblem aus dem linearen Gleichungssystem Ax
ym
durch Minimierung der zweiten Norm (Summe der Fehlerquadrate) lösen: min Ax y m x
2
.
Zwar reichen für die Beschreibung einer Regressionsgerade zwei Punkte aus, wegen der stochastischen Schwankungen der empirischen Daten muss das Gleichungssystem jedoch überbestimmt sein. Das heißt, es müssen deutlich mehr als zwei Gleichungen (Länge der Vektoren z und b) vorliegen. Die Lösung des Minimierungsproblems sind die Parameter der Regressionsgerade yˆ
mit b yx
cov xy s x2
rxy
sy sx
und a yx
ym
a yx b yx x
y b yx x . (sx,y sind Standardabweichungen,
rxy ist der KK nach Pearson, covxy die Kovarianz von x und y, die Parameter der Geraden sind Elemente des Vektors z = (ayx, byx)). Es ist zu beachten, dass der Anstieg der Regressionsgerade byx direkt vom KK rxy abhängt. Das bedeutet, dass man zwar über jede Punktwolke der Wertepaare (xi, yi) eine Regressionsgerade bis zu dem Extremfall rxy =0 legen kann. Bei der Interpretation der Ergebnisse sollte man jedoch neben dem linearen Zusammenhang auch berücksichtigen, dass bei einem abnehmenden KK das lineare Modell dementsprechend unsicherer wird. Natürlich sind in der praktischen Analyse die Zusammenhänge nur selten linear, so dass man ein entsprechendes Datenmodell (z.B. mit einem Polynom) entsprechend der bekannten Nichtlinearität aufstellen kann. Dann ist jedoch eine Minimierung der Fehlerquadrate mit dem oben genannten Gleichungssystem nicht
436
6 Stochastische Prozesse
mehr möglich, denn das gilt nur für den linearen Fall. Eine numerische Lösung bieten Iterationsverfahren nach Gauß-Newton, Levenberg-Marquardt und weitere. 6.1.3.3 Konfidenzintervall Bisher wurden Deskriptionsgrößen (Mittelwert, Streuung, Schiefe, Exzess) und Abhängigkeitsparameter (Korrelationskoeffizienten nach Pearson und Spearman) als einmalige Werte berechnet, die man daher als Punktschätzungen bezeichnet. Bei Punktschätzungen hat man aber keine Information darüber, wie zuverlässig der berechnete Wert ist bzw. in welchem Bereich man ihn als zuverlässig annehmen kann. Um diese wichtige Information zu erhalten, führte man Konfidenzintervalle (Vertrauensintervalle) ein (Gl. 6.49). Ein Intervall I(X1,…,Xn) = (IL, IR) heißt Konfidenzintervall (Vertrauensintervall) für einen Parameter - mit Sicherheit 1 – D wenn gilt P I L d - d I R t 1 D (6.49) In Gl. 6.49 ist - der zu schätzende Parameter, 0 < D < 1 die zulässige statistische Unsicherheit, IL,R die Intervallgrenzen (links und rechts), P die Wahrscheinlichkeit.
Das Konfidenzintervall (KI) interpretiert man oft falsch, in dem man behauptet, liege mit einer Wahrscheinlichkeit (WS) von 1 – D im Konfidenzintervall. Richtig ist, dass der wahre Parameter - seinen Platz auf der Zahlenachse hat, der unabhängig von einem berechneten Intervall ist, er ist eine feste Größe. Was man aus einer Stichprobe bestenfalls berechnen kann, sind die Intervallgrenzen IL,R, die auf Grund des zufälligen Charakters der Daten auch zufällig sind. Die richtige Interpretation lautet daher, dass man ein Konfidenzintervall erhält, welches mit einer WS von 1 – D den unbekannten Parameter einschließt (überdeckt). Konfidenzintervall für den Mittelwert Die Herleitung und Interpretation des KI soll am folgenden Beispiel demonstriert werden: Es liegt eine normalverteilte Zufallsgröße X vor, für deren Mittelwert das KI angegeben werden soll. Entsprechend den folgenden Beziehungen ist der zentrierte und normierte Mittelwert standardnormalverteilt: § V · X P ¸¸ o X ~ N P , V o X ~ N ¨¨ P , ~ N P n / n V © ¹
0, V
1
(6.50)
Damit lässt sich das KI an Hand der Quantile P zD / 2 d Z d zD / 2 1 D
(6.51)
6.1 Grundlagen der analytischen Statistik
437
der Standardnormalverteilung ermitteln: I
§ V V · ¨¨ X zD / 2 ¸¸ . , X zD / 2 n n¹ ©
(6.52)
Diese Vorgehensweise setzt allerdings voraus, dass die wahre Streuung V bekannt ist. In der praktischen Analyse sind die wahren Parameter natürlich nicht bekannt, sonst müsste man die Daten ja nicht analysieren. Daher muss man von der empirischen Streuung S ausgehen, was zur Folge hat, dass statt der Standardnormalverteilung z(0,1) die t-Verteilung (Student-Verteilung) zur Anwendung kommt (Abb. 6.28). Unter Einbeziehung der empirischen Streuung gilt für die Verteilung des Mittelwertes der Stichprobe einer normalverteilten Zufallsgröße X P S/ n
~ t n 1,D / 2 .
(6.53)
Das KI des Mittelwertes einer standardnormalverteilten Größe für n = 5 und D = 0.05 ist in Abb. 6.29 dargestellt. Die statistische Unsicherheit D teilt sich hälftig auf beide Intervallgrenzen. Wie die Grafik zeigt, das KI von I = [-2.57, 2.57] schließt den wahren Mittelwert von P = 0 mit einer Sicherheit von 95% ein. Die 0.45 0.4
n =1 n=3 n = 10 n = 30
0.35
f(x)
0.3 0.25
n
0.2 0.15 0.1 0.05 0 -5
-4
-3
-2
-1
0
x
1
2
3
4
5
Abb. 6.28 Student-Verteilung (t-Verteilung) für verschiedene Stichprobenumfänge. Ab einem n = 30 kommt der ZGWS zum Tragen und die t-Verteilung geht in die Normalverteilung über
438
6 Stochastische Prozesse
1
D
0.9 0.8 0.7
F(t)
0.6
I = (-1.24, 1.24)
0.5 0.4 0.3 0.2 0.1 0 -6
D -4
-2
0
2
t
4
6
Abb. 6.29 Konfidenzintervall des Mittelwertes einer standardnormalverteilten Größe mit n = 5 und D = 0.05 aus der Verteilungsfunktion der t-Verteilung
Breite des KI für den Mittelwert beträgt mehr als 2V der Originaldaten vor der Mittelwertbildung, ist also ein relativ breiter Bereich. Für die praktische Analyse ergibt sich daraus die Konsequenz, dass jeder zentrierte und normierte Mittelwert, der für ein konkretes n im Bereich der 95% Sicherheit liegt, dem wahren Parameter P entsprechen kann. Konfidenzintervall für die Varianz Wie bereits behandelt, ist die Varianz V2 einer normalverteilten Zufallsgröße F2verteilt:
n 1 S 2 V
2
~ F n21 .
(6.54)
Aus der F2-Verteilung lassen sich die Grenzen für eine gewünschte Unsicherheit D ermitteln:
6.1 Grundlagen der analytischen Statistik
439
§ · n 1 S 2 d F 2 ¸ 1D . P¨ F n21;D / 2 d n D 1 ; 1 / 2 ¨ ¸ V2 © ¹
(6.55)
Durch Umstellung erhält man für das KI I
§ n 1 s 2 n 1 s 2 ¨ ; ¨ F n21;1D / 2 F n21;D / 2 ©
· ¸. ¸ ¹
(6.56)
Eigenschaften von Konfidenzintervallen Für die Länge eines aus der t-Verteilung berechneten Konfidenzintervalls gilt L
t n 1,D / 2
2s n
.
(6.57)
Daraus ergeben sich folgende Eigenschaften: -
Mit steigendem Stichprobenumfang n nimmt die Länge L ab. Aus statistischer Sicht nimmt mit größerer Datenmenge die Sicherheit zu bzw. die Unsicherheit ab, so dass der berechnete Parameter - sicherer wird und daher sein Variationsbereich schmaler.
-
Mit steigender Streuung s nimmt die Länge zu. Je mehr die Daten bzw. der aus ihnen berechnete Parameter - streuen, umso mehr Variationsbreite muss man bei gleicher Unsicherheit auch dem KI zugestehen.
-
Mit abnehmender Unsicherheit D nimmt die Länge L zu. Diese Eigenschaft ist direkt auch aus der Grafik in Abb. 6.29 ablesbar. Je sicherer eine Schätzung sein soll, umso sicherer muss man vermeiden, dass der geschätzte Parameter - das KI zufällig verlässt, also muss das KI dementsprechend länger werden.
440
6 Stochastische Prozesse
6.2 Statistische Tests
6.2.1 Grundlagen Das Ziel eines statistischen Tests besteht darin, ausgehend von erhobenen Daten und einer vorgegebenen statistischen Unsicherheit zu entscheiden, welche der vor dem Test aufgestellten Hypothesen angenommen und welche verworfen wird. Bevor ein statistischer Test durchgeführt wird, sind mehrere methodische Schritte notwendig: -
Zum ersten sollte man mit Hilfe der verfügbaren Mittel (Theorie, Empirie, Heuristik) untersuchen, ob ein Zusammenhang in den erhobenen bzw. in zu erhebenden Daten bestehen kann und ggf. welcher Art der Zusammenhang ist. Lässt man diesen ersten Schritt aus, so kann es zu bizarren Schlussfolgerungen kommen, z.B. zu dem berühmten, statistisch signifikanten, Zusammenhang zwischen der Geburtenrate und der Storchendichte.
-
Besteht die Möglichkeit eines Zusammenhangs, formuliert man mindestens zwei Hypothesen, um Entscheidungsmöglichkeiten vorzubereiten. Am häufigsten – auch und vor allem in der Signalanalyse – sind zwei Hypothesen üblich: Eine Nullhypothese (kein Effekt nachweisbar) und eine Alternativhypothese (Effekt nachweisbar).
-
Ausgehend vom erwarteten Zusammenhang und den aufgestellten Hypothesen plant man eine oder mehrere Stichproben. Ein typisches Beispiel sind Untersuchungen zur Wirksamkeit von Medikamenten, bei den man den Vergleich Vorher-Nachher (Medikamenteneinnahme) an Hand von zwei Stichproben durchführt. Häufig hat man gar nicht die Wahl, Stichproben zu planen, wenn es sich um Daten handelt, auf deren Generierung man keinen Einfluss hat, bspw. bei der Erfassung der Zahl der Sonnenflecken in täglichen Messungen.
-
Ausgehend von dem erwarteten Zusammenhang, der aufgestellten Hypothesen und den Stichproben bzw. den Eigenschaften der erhobenen Daten wählt man einen oder mehrere statistische Tests aus. Im Testergebnis werden die aufgestellten Hypothesen angenommen oder verworfen. Bei mehreren Tests muss man damit rechnen, dass die Entscheidungen über die Annahme oder Ablehnung von Hypothesen unterschiedlich ausfallen.
6.2 Statistische Tests
441
Welche der Entscheidungen angenommen wird, ist ein vielschichtiges Problem, das später behandelt wird. Die Vorgehensweise und die zu beantwortenden Fragen soll das folgende Beispiel verdeutlichen. Beispiel Ein neues, blutdrucksenkendes Mittel soll auf seine Wirksamkeit getestet werden. Man hat sich vorher biochemisch vergewissert, dass das neue Mittel auf Grund seiner Zusammensetzung wirksam sein könnte. Daher stellt man die Hypothese auf, dass das Mittel wirkt. Eine Arztpraxis erhält Mittel zum Testen von 20 Hypertonikern. Um die Wirksamkeit zu prüfen, ist ein Vergleich des Blutdrucks vor und nach der Einnahme des neuen Mittels notwendig, ein typisches ZweistichprobenProblem. Den gemessenen Blutdruck in mmHg zeigt die folgende Tabelle.
vorher: 178, 149, 164, 159, 176, 170, 158, 141, 173, 158, 165, 172, 177, 170, 147, 156, 177, 177, 156, 176, Mittelwert 165 nachher: 122, 134, 153, 120, 126, 128, 128, 144, 131, 128, 121, 150, 138, 157, 139, 137, 154, 141, 128, 147, Mittelwert 136 Bereits die visuelle Inspektion der Daten und der Vergleich der Mittelwerte deuten darauf hin, dass der Blutdruck nach der Medikation gesunken ist. Dies muss jedoch statistisch abgesichert werden. Die Praxis verfügt über ein einfaches statistisches Programm, das einen t-Test mit der (in der Medizin üblichen) Standardunsicherheit von D = 5% durchführt. Dieser Test bestätigt die Wirksamkeit des Medikaments. Es stellt sich die Frage, wie zuverlässig diese Entscheidung aus methodischer Sicht ist, unabhängig von der vorgegebenen statistischen Unsicherheit D. Die Einhaltung von Annahmen und Voraussetzungen ist zu prüfen. Der t-Test setzt eine Normalverteilung der Daten voraus, wie später gezeigt wird. Demzufolge müssten die Daten dahingehend geprüft werden, ob sie normalverteilt sind. Dies ist bei einem Stichprobenumfang von 20 praktisch kaum möglich. Daher dürfte man den t-Test vorsichtshalber gar nicht anwenden. Ein weitaus schwierigeres Problem ist, dass man hier nur eine Hypothese aufstellen kann – die Nullhypothese. Diese nimmt der Test an oder er verwirft sie. Warum das so ist, wird im Folgenden gezeigt.
442
6 Stochastische Prozesse
6.2.2 Hypothesen für statistische Tests Im Weiteren geht man von dem in der Signaltheorie häufigsten Fall von (mindestens) zwei Hypothesen aus. Als Nullhypothese H0 bezeichnet man die Möglichkeit, dass sich kein erwarteter Effekt eingestellt, dass es keine Veränderung gibt. Als Alternativhypothese H1 (also eine Alternative zur H0) bezeichnet man die Möglichkeit, dass ein erwarteter Effekt eintritt, es gibt eine Veränderung. Aus zwei möglichen Entscheidungen eines statistischen Tests bei zwei Hypothesen ergeben sich vier Möglichkeiten, die in der folgenden Tabelle dargestellt sind. Die statistischen Unsicherheiten D (Wahrscheinlichkeit für falsch positive Entscheidung des Tests, FPR, fault positive rate) und E (Wahrscheinlichkeit für falsch negative Entscheidung des Tests, FNR, fault negative rate) hängen voneinander ab, so dass vor dem Test nur eine der beiden (meistens D) fest vorgegeben wird. Den Anteil richtig positiver Entscheidungen 1 - E bezeichnet man als Sensitivität eines statistischen Tests, den Anteil richtig negativer Entscheidungen 1 – D als Spezifität. Im Normalfall erwartet man von einem statistischen Test, dass er sowohl eine hohe Sensitivität (mehr als 90%) als auch eine hohe Spezifität besitzt (mehr als 90%). Diese Wunschwerte erreichen in der Medizin nur wenige Tests. In der ophthalmologischen Diagnostik wird bspw. der Augeninnendruck als Indikator des Glaukoms (grüner Star) verwendet, wobei seine Sensitivität bei etwa 65% und seine Spezifität bei etwa 50% liegen. Das bedeutet, dass das Glaukom mit Hilfe der Augendruckmessung nur bei zwei von drei Betroffenen erkannt wird, aber jeder zweite Gesunde als krank eingestuft wird. Dies sind inakzeptable Werte, daher müssen weitere Tests erfolgen (z.B. Messung des Gesichtsfeldes). Bei vielen Tests hängen die Sensitivität und die Spezifität voneinander ab, wie im folgenden Beispiel gezeigt wird. Tabelle 6.2 Möglichkeiten der Testergebnisse und der tatsächlichen Gültigkeit von Hypothesen, D und E sind die statistischen Unsicherheiten bei der Annahme der jeweiligen Hypothese
Testergebnis
H0 wahr
H1 wahr
H0 angenommen
richtig negativ 1-D
E , Fehler 2. Art
H1 angenommen
falsch positiv
D, Fehler 1. Art
falsch negativ
richtig positiv 1-E
6.2 Statistische Tests
443
Beispiel Aus einer Grundgesamtheit erwachsener Menschen entnahm man zwei große Stichproben (jeweils n = 106), um das Körpergewicht von Frauen und Männern zu ermitteln. Die Verteilung der beiden Merkmale ist in Abb. 6.30 dargestellt. An Hand der Anzeige einer Patientenwaage soll man entscheiden, ob ein neuer Zugang im Krankenhaus ein Mann oder eine Frau ist. Die Testgröße in diesem Fall ist also das gemessene Körpergewicht. Weiterhin muss ein kritischer Wert (Schwelle) der Testgröße festgelegt werden, mit dessen Hilfe entschieden wird, ob die Hypothese H0: „Neuzugang ist eine Frau“ oder die Hypothese H1: „Neuzugang ist ein Mann“ angenommen wird. Die Schwelle wurde zunächst willkürlich auf xS = 72 kg gesetzt. Um die Anteile entsprechend der Tabelle 6.1 direkt ablesen zu können, integriert man die absoluten Häufigkeiten aus Abb. 6.30 und normiert zur Verteilungsfunktion (Abb. 6.31). Aus der Grafik kann man direkt ablesen, dass bei dem kritischen Wert von xS = 72 kg ein Neuzugang mit einem höheren Körpergewicht mit einer WS von 72% richtig als Mann, ein Neuzugang mit einem niedrigeren Gewicht mit einer WS von 92% richtig als Frau eingestuft wird. Demgegenüber wird ein Mann, der weniger als 72 kg wiegt, mit einer WS von 18% falsch als Frau, eine Frau, die mehr als 72 kg wiegt mit einer WS von 8% falsch als Mann klassifiziert. Aus diesem Beispiel wird deutlich, dass alle vier Anteile (Tabelle 6.1) von der Entscheidungsschwelle abhängen. Man kann daher die Schwelle einer konkreten Fragestellung anpassen, je nach Wichtigkeit der Spezifität und der Sensitivität bzw. der FPR und der FNR. 4
f(x), absolute Häufigkeit bei n = 1e6
10
x 10
9
Frauen Männer
Schwelle
8 7 6 5 4 3 2 1 0 45
50
55
60
65
70
75
x, Körpergewicht / kg
80
85
90
95
Abb. 6.30 Verteilung der Körpergewichte von Frauen und Männern aus einer Stichprobe von jeweils n = 106. Die Mittelwerte betragen bei den Frauen 65 kg, bei den Männern 75 kg, die Streuung ist gleich und beträgt 5 k
444
6 Stochastische Prozesse
1 0.9
FPR 8%
0.8 0.7
F(x)
0.6
Spezifität 92%
Sensitivität 72%
0.5 0.4 0.3 0.2
0 45
FNR 18%
Schwelle
0.1 50
55
60
65
70
75
x, Körpergewicht / kg
80
85
90
95
Abb. 6.31 Verteilung der Wahrscheinlichkeiten bei einer Entscheidungsschwelle von 72 kg. Die Sensitivität und die Spezifität sowie die FPR und FNR beziehen sich auf die Entscheidung, dass bei einem größeren Gewicht als 72 kg der Patient ein Mann ist. Man würde sie bei der Frage, ob ein Patient mit weniger als 72 kg Körpergewicht eine Frau ist, gegeneinander vertauschen
6.2.3 Güte statistischer Tests, ROC Ein Maß und eine anschauliche grafische Darstellung des Zusammenhangs zwischen der Sensitivität und der Spezifität von der Entscheidungsschwelle bietet die ROC (Receiver Operating Characteristic). Diese Bezeichnung stammt aus der nachritentechnisch orientierten Statistik und hat sich in allen anderen Bereichen etabliert. Die ROC für das obige Beispiel (Abb. 6.30, 6.31) ist in Abb. 6.32 dargestellt. Aus der Grafik folgt, dass die Steigerung der Sensitivität auf Kosten der Spezifität geht und umgekehrt. Daher ist die Entscheidung über die Diskriminanzschwelle immer von der konkreten Fragestellung abhängig: Ist es wichtig, möglichst viele positive zu finden, auch wenn fälschlicherweise viele negative mit in die Auswahl geraten, oder ist es eher wichtig, negative möglichst richtig einzustufen auch wenn viele positive nicht erkannt werden. Typischerweise stellen sich solche Fragen in der medizinischen Diagnostik (möglichst viele Kranke als krank zu identifizieren, wenn auch Gesunde in die Auswahl geraten) ganz anders, als in einer radikalen Therapie, bspw. in der Strahlenbehandlung oder Amputation (möglichst wenige Gesunde fälschlicherweise bestrahlen bzw. amputieren). Aus der Grafik der ROC in Abb. 6.32 kann man unter diesem Gesichtspunkt aus den drei markierten Punkten schlussfolgern: Bei einer Schwelle von 65 kg werden
6.2 Statistische Tests
445
Sensitivität, RPR, Richtig-Positiv-Rate
1 0.9 0.8 ROC schw = 65 kg schw = 70 kg schw = 75 kg
0.7 0.6 0.5
ROC-Güte
0.4 0.3 0.2 Spezifität 86%
0.1 0 0
0.2
0.4 0.6 0.8 FPR, Falsch-Positiv-Rate
1
Abb. 6.32 Die ROC in Abhängigkeit von der Entscheidungsschwelle schw = 65, 70, 75 kg, dass ein Neuzugang ein Mann ist (siehe Abb. 6.30, 6.31). Bei einer Schwelle von 70 kg beträgt die Sensitivität 82% und die Spezifität 86% (FPR = 14%)
über 95% Männer richtig als Mann erkannt, allerdings fast die Hälfte der Frauen fälschlicherweise als Mann eingestuft. Bei einer Schwelle von 75 kg ist es umgekehrt: Etwa 99% der Frauen werden richtig als Frau eingestuft, aber weniger als 50% der Männer als solche erkannt. Eine ausgewogene Erfolgsquote bietet die Schwelle von 70 kg, bei der 82% der Männer und 86% der Frauen richtig klassifiziert werden. Die Güte einer ROC (die statistische Sicherheit der Sensitivität und der Spezifität) nimmt zu, wenn sich die Grafik möglichst gut der linken oberen Ecke des Diagramms nähert. Verfolgt man den Weg zu Verteilungsdichten zurück (Abb. 6.30), so lässt sich pauschal feststellen, dass je weiter die beiden Verteilungsdichten auseinander liegen, umso besser ist die ROC. Weder in der medizinischen Statistik noch in der Biosignalverarbeitung hat man jedoch auf die erhobenen Daten irgendeinen Einfluss. Daher kann man versuchen, statt der Originaldaten ihre Funktionale oder andere statistische Größen zu verwenden, die einen größeren Abstand von Verteilungen unter den betrachteten Hypothesen in Aussicht stellen. In diesem konkreten Beispiel könnte man davon ausgehen, dass neben dem Gewicht auch die mittlere
446
6 Stochastische Prozesse
200
Körpergröße / cm
190
Frauen Männer
180 170 160 150 140 40
50
60
70
Körpergewicht / kg
80
90
100
Abb. 6.33 Verteilungen der statistischen Größen Körpergewicht und Körpergröße für die Klassen Frauen und Männer
Körpergröße als Unterscheidungskriterium dienen könnte, da die Frauen im Mittel kleiner sind als Männer. Anschließend stellt sich die Frage, wie man die beiden statistischen Größen Körpergewicht und Körpergröße miteinander kombinieren sollte, um eine bessere Trennschärfe in der ROC zu erreichen. Dazu betrachtet man zunächst die beiden Verteilungen Körpergröße und Körpergewicht, wie in Abb. 6.33 dargestellt. Die beiden Verteilungen für Frauen und Männer sind voneinander relativ klar unterscheidbar, man kann sie mit einer linearen Funktion (Gerade) voneinander trennen (gestrichelte Linie in Abb. 6.33). Da eine lineare Trennung59 ausreichend ist, bietet sich als Klassifizierungskriterium eine statisti- sche Größe zweiter Ordnung an: Das Produkt aus Körpergröße und Körperge-wicht, in Anlehnung an die Kreuzkorrelation. Obwohl Produkte an sich doppelt- exponentiell verteilt sind, zeigen die empirischen Häufigkeiten in Abb. 6.34 nahezu normale Verteilungen, insbesondere auf Grund der sehr großen Stichprobe. Vergleicht man die Verteilungen in Abb. 6.34 mit denjenigen aus Abb. 6.30, so stellt man fest, dass sie für die Produkte in Abb. 6.34 deutlich entfernter auseinander liegen. Genau das war durch die Bildung einer neuen statistischen Größe beabsichtigt: In Folge der Abstandsvergrößerung zwischen den Verteilungen hat sich auch die ROC deutlich näher an das Ideal angenähert (Abb. 6.35).
59
Zu Lösung linearer Probleme reichen Statistiken zweiter Ordnung aus
6.2 Statistische Tests
447
Grundgesamtheit N = 1e6
4
6
x 10
Frauen Männer
absolute Häufigkeit
5 4 3 2 1 0 0.6
0.8
1
1.2
1.4
1.6
Körpergröße x Körpergewicht / kg*cm
1.8
2 x 10
4
Abb. 6.34 Verteilungen der statistischen Größe Produkt aus Körpergröße und Körpergewicht bei Frauen und Männern
Sensitivität, RPR, Richtig-Positiv-Rate
1 0.9 0.8 0.7 0.6 0.5
Körpergewicht Körpergewicht * Körpergröße
0.4 0.3 0.2 0.1 0 0
0.2
0.4
0.6
0.8
FPR, Falsch-Positiv-Rate
1
Abb. 6.35 Die ROC der statistischen Größe Körpergewicht*Körpergröße im Vergleich zum Körpergewicht allein zur Unterscheidung der Klassen Frauen und Männer
448
6 Stochastische Prozesse
6.2.4 Parametrische Tests Es wurde bereits gezeigt (Abschn. 6.1.1), dass man theoretische bzw. bekannte Verteilungen mit wenigen Parametern eindeutig beschreiben kann. Im Normalfall reichen bereits zwei Parameter aus, z.B. P und V bei der Normalverteilung, um auch große Datenmengen zu charakterisieren. Das Ziel von parametrischen Tests besteht darin, die Lage oder die Varianz einer empirischen Verteilung mit einer vorgegebenen statistischen Unsicherheit bezüglich der aufgestellten Hypothesen zu prüfen. Normalerweise vergleicht man die aus den empirischen Daten gewonnenen Testgrößen mit theoretischen Verteilungen, wobei mehrere Voraussetzungen erfüllt sein müssen. Für die praktische Analyse bietet sich auch ein empirischer Zugang, wie er an Hand von zwei Verteilungen für die Hypothesen H0 und H1 behandelt wurde (Abb. 6.30, 6.34). Im Folgenden werden die bekanntesten Tests vorgestellt, die in der Praxis auch am häufigsten verwendet werden. 6.2.4.1 Der t-Test Der t-Test basiert auf der t-Verteilung (Abb. 6.28) und ist faktisch gleich der Fragestellung, ob das nach Gl. 6.53 ermittelte Konfidenzintervall für den Mittelwert den unter H0 vorgegebenen Wert einschließt. Eine wichtige Voraussetzung zur Anwendung des t-Tests ist die Normalverteilung der Grundgesamtheit. Methodisch müsste man daher mit einem sog. Anpassungstest prüfen, ob diese Bedingung erfüllt ist. Standardmäßig verwendet man hierfür den F2-Anpassungstest. Seine Anwendung ist jedoch sehr problematisch, wie das folgende Beispiel zeigt. Beispiel zum F2-Anpassungstest Es wurde eine Grundgesamtheit von 1000 Werten generiert, die doppelt exponentiell und rechtsschief verteilt sind (Abb. 6.36). Der Anpassungstest wird für unterschiedliche Stichprobenumfänge durchgeführt (Abb. 6.37). Die Nullhypothese lautet, dass die untersuchte empirische Verteilung eine Normalverteilung ist. Das Ergebnis des Anpassungstests besagt, dass bis zu einem Stichprobenumfang von 29 die Nullhypothese nicht abgelehnt werden kann. Dies wird in der Praxis fälschlicherweise als Bestätigung der Nullhypothese und demnach der Annahme einer Normalverteilung interpretiert. Die richtige Interpretation dieses Ergebnisses ist, dass man bis zu einem Umfang von 29 die Nullhypothese zur vorgegebenen Unsicherheit von D = 5% zwar nicht ablehnen kann, aber auch nicht annehmen. Der Grund für dieses Problem liegt darin, dass man für die Alternativhypothese (faktisch immer) keine Verteilung zur Verfügung hat und daher der Fehler E unbekannt ist. Dieser kann bei kleinen Stichproben sehr groß werden. Da die Gefahr einer falschen Interpretation solcher Ergebnisse insbesondere in der Biostatistik groß ist, da man meistens nur kleine Stichproben zur Verfügung hat, ist der An-
6.2 Statistische Tests
449
250
200
h
150
100
50
0 -5
0
5
xp
10
15
Abb. 6.36 Absolute Häufigkeit von 1000 doppelt exponentiell rechtsschief verteilten Werten. Betrachtet man sie als eine Grundgesamtheit für den Anpassungstest im Beispiel, so ist bereits nach einer visuellen Inspektion klar, dass es sich um keine Normalverteilung handeln kann
passungstest für kleine Stichproben (n < 30) grundsätzlich abzulehnen. Dann erhebt sich aber die Frage, wie man anders vorgehen kann. Wie das vorangegangene Beispiel zeigt, sind Anpassungstests insbesondere bei kleinen Stichproben dafür ungeeignet zu prüfen, ob eine Annahme über eine theoretische Verteilung vorliegt. Geht man von der Testgröße aus (Gl. 6.67), so kann man Folgendes feststellen: T
X P0 S/ n
(6.67)
Der empirische arithmetische Mittelwert wird zentriert (Differenzbildung zu P0) und normiert (Quotient mit der normierten empirischen Streuung), sonst aber ist er eine Punktschätzung des Lageparameters der untersuchten Stichprobe. Würde man mehr solche Mittelwerte berechnen, so könnte man sich bei einem Stichprobenumfang von mehr als etwa 30 auf den ZGWS60 verlassen: Zwar sind möglicherweise die Daten der Grundgesamtheit nicht normalverteilt (wie in dem obigen Bei60
Zentraler Grenzwertsatz
450
6 Stochastische Prozesse
1
Hypothese
0.8 0.6 0.4 0.2 0 -0.2 0
20
40
60
Stichprobenumfang
80
100
Abb. 6.37 Ausgang des F2-Anpassungstests in Abhängigkeit vom Stichprobenumfang für Daten aus Abb. 6.36. Zu beachten ist, dass die Nullhypothese bis zu einem Stichprobenumfang von 29 nicht abgelehnt wird. Oft wird ein solches Ergebnis fälschlicherweise so interpretiert, dass normalverteilte Daten vorliegen. Doch die Tatsache, dass die Nullhypothese nicht abgelehnt wird, bedeutet lediglich, dass nicht sicher ist, dass eine andere als die Normalverteilung vorliegt. Die Nichtablehnung der Nullhypothese ist noch keine Bestätigung dafür, dass eine Normalverteilung vorliegt
spiel), aber ihr Mittelwert, der in den Test hineingenommen wird, ist es in einer guten Näherung. Das Fazit für die Analyse ist, wenn der Stichprobenumfang hinreichend groß ist (n > 30), so muss man die Verteilung der Daten gar nicht prüfen, da der ZGWS sie a priori sichert. Vorgehen beim t-Test Für eine Stichprobe wird die folgende Nullhypothese formuliert (P0 ist ein theore tischer, ein hinreichend sicherer empirischer oder ein hypothetischer Wert): H0 : P
P0
Liegt eine (theoretische oder empirische) Verteilung für die Alternativhypothese nicht vor, so wird als Alternativhypothese die Negation der Nullhypothese aufgestellt:
6.2 Statistische Tests
451
H1 : P z P 0
Entsprechend der Testgröße nach Gl. 6.67 wird die empirische Testgröße berechnet (Gl. 6.68). x P0
t
(6.68)
s/ n
Für einen zweiseitigen Test (Abb. 6.38, 6.39) werden die kritischen Werte für n-1Freiheitsgrade und die halbierte statistische Unsicherheit D ermittelt (aus Tabellen oder Software). Für einen einseitigen Test geht D jeweils nur links oder nur rechts ein, je nach Fragestellung. Prüfung des empirischen t-Wertes hinsichtlich der kritischen Werte erfolgt nach dem folgenden Schema: 1.
t t n1,D / 2 , Ablehnungsbereich von H0 mit Unsicherheit D/2
2. t n 1,D / 2 d t d t n 1,1D / 2 , H0 wird nicht abgelehnt (H1 wird angenommen61) 3. t ! t n 1,1D / 2 , Ablehnungsbereich von H0 mit Unsicherheit D/2 0.4 0.35
n = 10
0.3
tpdf
0.25 0.2 0.15 0.1
H0 ablehnen
H0 nicht ablehnen
H0 ablehnen
0.05 0 -4
D
D -3
-2.26
-1
0
x
1
2.26
3
4
Abb. 6.38 Bereiche zum Ablehnen und Nichtablehnen der Nullhypothese bei einem zweiseitigen t-Test bei einem Stichprobenumfang von 10. Bei einer so geringen Stichprobe müsste sicher sein, dass die Daten einer Normalverteilung entstammen (der kritische Wert für n = 10 und D = 0.025 bzw. 0.975 beträgt -1.81 bzw. 1.81)
61
Zur Annahme von H1 siehe Beispiel zum Anpassungstest
452
6 Stochastische Prozesse
D
1 0.9
H0 ablehnen n = 10
0.8 0.7
tcdf
0.6 0.5
H0 nicht ablehnen
0.4 0.3 0.2
D
0.1 H0 ablehnen 0 -4
-3
-2.26
-1
0
x
1
2.26
3
4
Abb. 6.39 Bereiche zum Ablehnen und Nichtablehnen der Nullhypothese bei einem zweiseitigen t-Test bei einem Stichprobenumfang von 10 (der kritische Wert für n = 10 und D = 0.025 bzw. 0.975 beträgt -1.81 bzw. 1.81)
Bei einem einseitigen Test wird entsprechend der Fragestellung links oder rechts getestet: 1. t t n 1,D , Ablehnungsbereich von H0 mit Unsicherheit D beim linksseitigen Test62 2. t ! t n 1,1D , Ablehnungsbereich von H0 mit Unsicherheit D beim rechtsseitigen Test
Beispiel Man bezeichnet Abschnitte in Biosignalen, in den keine physiologische Aktivität vorhanden ist, als Nulllinie. Zu prüfen ist, ob diese Bezeichnung gerechtfertigt ist. Daher wird die Nullhypothese wie folgt formuliert: H0: Der Mittelwert eines EKG-Abschnitts ist Null 62
Da die t-Verteilung symmetrisch ist, wird immer mit 1 - D bzw. 1 - D/2 gearbeitet
6.2 Statistische Tests
453
H1: Der Mittelwert eines EKG-Abschnitts ist nicht Null Zur Verfügung steht ein EKG-Abschnitt mit 2000 Werten (Abb. 6.40). Trotz sehr schlechten Verteilungseigenschaften (Exzess 4.29, Schiefe 0.33) kann man auf Grunde der großen Stichprobe von n = 2000 davon ausgehen, dass in Folge des ZGWS der Mittelwert normalverteilt ist. Aus den Daten wird nach Gl. 6.68 der tWert berechnet und mit dem kritischen Wert verglichen: t = 5.38 > t1999,0.975 = 1.96 Da vor dem Test nicht klar war, ob der Mittelwert kleiner oder größer Null werden kann, wurde ein zweiseitiger Test durchgeführt. Der empirische t-Wert ist deutlich höher als der rechtsseitige Grenzwert, so dass die Nullhypothese abgelehnt und Alternativhypothese angenommen wird. Unter rein statistischen Gesichtspunkten ist die Bezeichnung „Nulllinie“ daher nicht gerechtfertigt. Allerdings weicht der empirische Mittelwert mit 0.02 mV nur unwesentlich von Null ab, er liegt bereits im Bereich des Rauschens. Für die praktische Analyse würde man ihn daher als nullwertig annehmen. An dieser Stelle wird deutlich, dass nicht alles, was statistisch nachgewiesen werden kann, auch einen praktischen Sinn hat. In diesem Beispiel kommt ein bekannter Effekt zum Tragen, der bei statistischen Tests zu berücksichtigen ist: Ist die Stichprobe groß genug, wird die Nullhypothese fast immer abgelehnt.
EKG / mV
1 0.5 0 -0.5
absolute Häufigkeit
0
500
1000
1500
Zeitindex
2000
400 300 200 100 0 -0.5
0
EKG / mV
0.5
1
Abb. 6.40 EKG-Abschnitt und absolute Häufigkeit der Werte. Die Verteilung ist multimodal mit einem hohen Exzess von 4.29 und ist rechtsschief (1.33)
454
6 Stochastische Prozesse
Das gegenteilige Extrem, wie im Beispiel zum Anpassungstest gezeigt wurde, führt zur folgenden Feststellung: Ist die Stichprobe sehr klein, wird die Nullhypothese fast nie abgelehnt. Anm.: Dass die Nullhypothese nicht abgelehnt wird, heißt noch nicht, dass sie richtig ist, also angenommen werden soll. Der t-Test für zwei verbundene Stichproben Man bezeichnet als verbundene Stichproben n Wertepaare {xi; yi}, die aus Grundgesamtheiten mit Erwartungswerten P1 und P2 stammen. Ein typisches Beispiel ist eine Gruppe an Hypertonikern, an den die Wirkung eines neuen Blutdruck senkenden Mittels getestet werden soll. Von Interesse ist also der Vergleich des Blutdrucks vorher - nachher im Sinne der Medikamenteneinnahme. Man bildet zwischen den Wertepaaren Differenzen, die dann wie bei einer Stichprobe auf eine signifikante Differenz von Null geprüft werden: di
xi y i
(6.69)
200
x -y
h
150 100 50 0 -15
-10
-5
-10
-5
0
5
10
15
0
5
10
15
x,-y
h
100
50
0 -15
d
Abb. 6.41 Häufigkeitsverteilungen von zwei verbundenen Stichproben (oben) x und –y, wie sie in die Differenzbildung d = x – y eingehen. Zu beachten ist, dass x rechtsschief, -y linksschief sind. Häufigkeitsverteilung der Differenzen (unten) zeigt eine gute Symmetrie
6.2 Statistische Tests
455
Dementsprechend stellt man die Hypothesen auf: H0: P1
P2 d
0
H1: P1 z P 2 d z 0 Die Testgröße wird analog zu Formel nach Gl. 6.68 berechnet (Gl. 6.70): t
d sd / n
(6.70)
Der große praktische Vorteil der Differenzbildung besteht darin, dass sich die Schiefe bei verbundenen Stichproben zum Teil aufhebt und die Differenz weitgehend symmetrisch ist (Abb. 6.41). Dadurch ist die Forderung bezüglich der Normalverteilung der Daten nicht mehr so streng und man kann bereits ab einem Stichprobenumfang von n = 30 mit dem ZGWS rechnen. 6.2.4.2 Wilcoxon-Test Der Wilcoxon-Test gehört der Gruppe der Rangsummen-basierten Tests an. Das wesentliche Merkmal dieser Gruppe ist die Rangtransformation von Daten auf Rangzahlen einer den Werten nach geordneten Datenreihe. Es gibt mehrere Rangtransformationen, hier soll die grundlegende, auf der geordneten Wertereihe basierende Rangtransformation behandelt werden. Rangtransformation Die Basis jeder Rangtransformation bildet die Reihung der Daten in eine den Werten nach aufsteigende (oder absteigende) Folge. Die Daten verlieren ihre Werte und erhalten dafür Rangzahlen aus der geordneten Folge (Gl. 6.9). Grundsätzlich gilt für rangbasierte Statistiken und Analysemethoden, dass sie robust und gegen Extremwerte sowie Ausreißer resistent sind. Sie besitzen jedoch auch einen wesentlichen Nachteil: Die Rangtransformation ist eine stochastisch-nichtlineare Transformation, die irreversibel ist und keine Rückschlüsse im Sinne linearer Zusammenhänge auf Originaldaten ermöglicht. Stochastische Nichtlinearität bedeutet, dass die transformierten Daten zu den Originaldaten eine nichtlineare Beziehung haben, wobei der Grad der Nichtlinearität stochastisch ist. Daraus folgt, dass hier selbst etablierte Methoden der nichtlinea-
456
6 Stochastische Prozesse
ren Analyse nicht anwendbar sind. Die Wirkung der Rangtransformation demonstriert das folgende Beispiel. Beispiel Die Wirkung der Rangtransformation auf simulierte und reale Daten zeigt Abb. 6.42. Diese Daten kann man vom Zeitindex entkoppelt betrachten, die Wirkung ist nicht zeitabhängig. Beide Beispiele zeigen, dass die Rangtransformation grundsätzlich einen Kompressionscharakter besitzt: Hohe Pegel werden gedämpft, niedrige Pegel relativ angehoben. Der wesentliche Unterschied zu herkömmlichen Kompressionsmethoden (z.B. in der Telekommunikation) besteht darin, dass der Grad der Kompression von aktuellen Daten abhängt und daher einen Zufallscharakter besitzt. Bei realen Signalen (Abb. 6.42 rechts) kommt erschwerend hinzu, dass das immer vorhandene Rauschen verstärkt wird und dadurch den ohnehin relativ schlechten SNR weiter reduziert. Vorgehen beim Wilcoxon-Test Bei der Anwendung des Wilcoxon-Tests müssen die Daten nicht normalverteilt, jedoch symmetrisch verteilt und stetig sein. Die Bedingung der Stetigkeit ergibt sich daraus, dass sich die Werte nicht wiederholen sollen. In der praktischen Ana1
1
EKG / mV
VEP
0.5 0 -0.5 -1 0
0.5 0 -0.5
50
100
n
150
200
250
0
100
200
300
400
100
200
300
400
n
Rang(EKG)
Rang(VEP)
400 200 150 100 50 0 0
50
100
n
150
200
250
300 200 100 0 0
n
Abb. 6.42 Synthetisches (links, VEP) und reales (rechts, EKG) Signal (oben) und ihre Rangtransformationen (unten)
6.2 Statistische Tests
457
lyse ist diese Forderung unkritisch, da man Rangzahlen auch gleichen Werten vergeben kann, bspw. durch Mittelwertbildung. Die Nullhypothese für verbundene Stichproben lautet:
H 0 : P1
P 2 bzw. d
0 , bei d i
xi y i
Liegt eine (theoretische oder empirische) Verteilung für die Alternativhypothese nicht vor, so wird als Alternativhypothese die Negation der Nullhypothese aufgestellt: H1 : P1 z P 2 bzw. d z 0
Die Differenzbildung bei verbundenen Stichproben hat den positiven Nebeneffekt, dass sie symmetrisierend wirkt. Daher wird in der praktischen Analyse die Symmetriebedingung auf diese Weise aufgeweicht und als erfüllt angesehen. Die Daten werden ihrem Betrag nach sortiert und erhalten Rangzahlen entsprechend ihrer Stelle in der geordneten Reihe. Originaldaten: 4.8399 -0.0065 -1.3318 0.0550 0.0142 -0.1834 0.9504 0.5498 0.2762 Geordnete Reihe (nach dem Betrag): -0.0065 0.0142 0.0550 -0.1834 0.2762 0.5498 0.9504 -1.3318 4.8399 1 2 3 4 5 6 7 8 9 Für P0 = 0 werden die Rangsummen ermittelt: RP
¦ Ri 32
xi ! P 0
RN
¦ Ri 13
xi P 0
Die kleinere der beiden Rangsummen wird mit dem zugehörigen kritischen Wert verglichen: R
min RP , R N ,
R 13 ! R9,0.05
10
Ist die ermittelte Rangsumme größer als der kritische Wert, so wird die Nullhypothese nicht abgelehnt. Wie in diesem Beispiel gezeigt, bauen Rangsummentests auf der Annahme einer symmetrischen Verteilung. Dann sind die Summen unter der Nullhypothese in etwa gleich. Unterschreitet die kleinere Summe den kritischen Wert, so kann man davon ausgehen, dass die Annahme von P0 nicht zutrifft, die empirische Verteilung liegt signifikant seitlich von P0. Wegen der Rangtrans-
458
6 Stochastische Prozesse
formation wird hier nicht der Erwartungswert getestet (wie im t-Test), sondern der Median. Dies ist auch der Grund für die besondere Robustheit des WilcoxonTests. Betrachtet man die geordnete Reihe im obigen Beispiel, so ist der neunte Wert offensichtlich ein Ausreißer, zumindest ein Extremwert. Allerdings behält er seinen Rang, ob nun der Originalwert entsprechend korrigiert wird (z.B. durch wiederholte Messung) oder sogar noch größer wird. 6.2.4.3 Wilcoxon-Test vs. t-Test
Die Robustheit von Rangsummentests führt dazu, dass diese in ihren Entscheidungen konservativ sind. Sie neigen dazu, die Nullhypothese nicht abzulehnen, sind also der Ablehnung gegenüber eher skeptisch eingestellt. Das hat zwangsläufig zur Folge, dass der E-Fehler (falsch negative Entscheidungen) stark ansteigen kann, obwohl er quantitativ weiterhin unbekannt ist. Diese Eigenschaft zeigt der Vergleich des t-Tests mit dem Wilcoxon-Test in Abb. 6.43. Für Testdaten aus Abb. 6.41 (doppelt-exponentiell, rechtsschief) wurde der Lageparameter P zwischen 0.0 und 2.0 variiert, wobei der Stichprobenumfang n = 30 betrug. Der t-Test lehnte die Nullhypothese bei P = 0.8 ab, der Wilcoxon-Test erst bei P = 0.97. Da die Daten simuliert wurden, ist es bekannt, dass der t-Test richtig entschieden hat, auch weil der Stichprobenumfang für die Anwendung des ZGWS t-Test
H
1 0.5 0 0
0.2
0.4
0.6
0.8
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
1
1.2
1.4
1.6
1.8
2
d Wilcoxon-Test
H
1 0.5 0 0
d
Abb. 6.43 Ergebnisse (Hypothese) des t-Tests (oben) und des Wilcoxon-Tests (unten) in Abhängigkeit von d = 0…2 von verbundenen Stichproben bei einem Stichprobenumfang von n = 30. Die Stichprobe wurde aus den Daten in Abb. 6.41 entnommen
6.2 Statistische Tests
459
t-Test
H
1 0.5 0 0
10
20
30
40
50
60
70
80
90
100
10
20
30
40
50
60
70
80
90
100
n Wilcoxon-Test
H
1 0.5 0 0
n
Abb. 6.44 Ergebnisse (Hypothese) des t-Tests (oben) und des Wilcoxon-Tests (unten) in Abhängigkeit vom Stichprobenumfang n von verbundenen Stichproben bei d = 0.6. Die Stichproben wurden aus den Daten in Abb. 6.41 entnommen (doppelt exponentiell, rechtsschief)
hinreichend groß ist. In der praktischen Analyse kennt man den wahren Parameter P allerdings nicht, daher würde man bei kleinen Stichprobenumfängen eher den Rangsummentests vertrauen. Die Abhängigkeit der Testergebnisse vom Stichprobenumfang für beide Tests ist in Abb. 6.44 dargestellt. Erwartungsgemäß lehnt der Wilcoxon-Test die Nullhypothese später ab als der t-Test. Dass die Testergebnisse zwischen den beiden Hypothesen schwanken ist ein Hinweis darauf, dass die standardmäßig vorgegebene Unsicherheit D = 0.05 grenzwertig ist. Bei einem D = 0.01 würden die Ergebnisse nicht schwanken, allerdings wäre zur Ablehnung der Nullhypothese ein größerer Stichprobenumfang notwendig. 6.2.4.4 Vorzeichentest
Der Vorzeichentest ist der robusteste statistische Test überhaupt. Diese Eigenschaft ergibt sich aus dem Ansatz, dass bei der Verteilung unter der Nullhypothese in etwa gleich viele positive und negative Differenzen vorhanden sind. Außer der Stetigkeitsbedingung müssen keine weiteren Voraussetzungen erfüllt sein. Selbst die Stetigkeitsbedingung lässt sich in der praktischen Analyse durch geeignete Maßnahmen aufweichen, z.B. durch Zugabe von zusätzlichem Rauschen.
460
6 Stochastische Prozesse
Vorzeichentest
H
1 0.5 0 0
10
20
30
40
50
60
n
70
80
90
100
70
80
90
100
Wilcoxon-Test
H
1 0.5 0 0
10
20
30
40
50
60
n
Abb. 6.45 Ergebnisse (Hypothese) des Vorzeichentests (oben) und des Wilcoxon-Tests (unten) in Abhängigkeit vom Stichprobenumfang n von verbundenen Stichproben bei d = 0.8. Die Stichprobe wurde aus den Daten in Abb. 6.45 entnommen (doppelt exponentiell, rechtsschief)
Die Nullhypothese für verbundene Stichproben lautet: H 0 : P1
P 2 bzw. d
0 , bei d i
xi y i
Liegt eine (theoretische oder empirische) Verteilung für die Alternativhypothese nicht vor, so wird als Alternativhypothese die Negation der Nullhypothese aufgestellt: H1 : P1 z P 2 bzw. d z 0
Ähnlich wie beim Rangsummentest werden die Summen über die Vorzeichen ermittelt: R
¦1
R
d i !0
¦1
di 0
Die kleinere der beiden Summen wird mit dem kritischen Wert verglichen: R
min R , R l Rn,D
6.2 Statistische Tests
461
Die Nullhypothese wird abgelehnt, wenn die berechnete Vorzeichensumme außerhalb des kritischen Bereiches liegt. Dieser lässt sich für kleine Stichproben aus der Binomialverteilung ermitteln, P X
§n· k ¨ ¸ 0.5 n ¨k ¸ © ¹
für große Stichproben (n > 30) kann man den Annahmebereich der Nullhypothese an Hand der Standardnormalverteilung angeben 0.5 n r 1.96 0.25n r 0.5 .
Durch seine extreme Robustheit ist der Vorzeichentest auch der konservativste von allen (Abb. 6.45). Daraus folgt, wenn dieser die Nullhypothese ablehnt, ist die Ablehnung auch sehr sicher, allerdings auf Kosten eines sehr hohen E-Fehlers. Deswegen sollte dieser Test nur als Vorstufe von weiteren Untersuchungen im Sinne einer ersten Orientierung angewandt werden. Lehnt er allerdings die Nullhypothese ab, so sind praktisch keine weiteren Tests auf Ablehnung notwendig. Die Testrobustheit ist im Vergleich zum Wilcoxon-Test in Abb. 6.45 dargestellt. Der Vorzeichentest lehnt die Nullhypothese viel später ab, als der Wilcoxon-Test, daher kann man sich aber auf diese Ablehnung gut verlassen. Teststrategie Unter Berücksichtigung der Eigenschaften der behandelten Tests lässt sich eine Empfehlung für die Vorgehensweise formulieren: Ist es nicht sicher, dass die Daten normalverteilt sind (praktisch der Normalfall), so fängt man mit dem Vorzeichentest an. Lehnt dieser die Nullhypothese ab, so ist diese Entscheidung sehr sicher. Lehnt er die Nullhypothese nicht ab, so setzt man bei niedrigen Stichprobenumfängen mit Rangsummentests fort. Bei großen Stichproben (n > 30) wird der progressivere t-Test bevorzugt, bei dem der niedrigste E-Fehler zu erwarten ist.
462
6 Stochastische Prozesse
6.3 Statistische Analyse von Zeitreihen
6.3.1 Von statischen Daten zu Prozessen In den vorangegangenen Kapiteln wurden Verteilungen, statistische Maße und Daten behandelt, die man als statisch63 bezeichnen kann. Das bedeutet, die simulierten bzw. empirischen Daten können in der Stichprobe ihren Platz (Index) wahllos verändern, ohne dass sich an den statistischen Maßen irgendetwas verändert. Man bezeichnet solche Daten im Sinne der Ausprägung eines Merkmals (z.B. Körpergewicht) als eindimensional. Werden zwei oder mehrere Zufallsvariablen untersucht (z.B. Körpergewicht und Körpergröße, Abb. 6.35), so spricht man von zweioder mehrdimensionalen Daten. Bei Zeitreihen (zeitlich diskrete Werte, Abtastwerte) kommt eine Abhängigkeit hinzu – die Reihenfolge der Daten kann nicht mehr verändert werden, der Datenindex entspricht dem Zeitindex. Dies war für die Statistik ein zunächst einfacher Übergang von statischen Daten zu Zeitreihen: Man interpretiert eine Zeitreihe als eine nach dem Zeitindex geordnete Sequenz von Zufallsvariablen (Gl. 6.58).
^X >n@`nZ ^X >0@, X >1@,..., X >n@`
(6.58)
In Gl. 6.59 sind X[n] Zufallsvariable, n ist der Zeitindex.
Entsprechend der bisherigen Sichtweise von mehrdimensionalen Zufallsgrößen bezeichnen Statistiker die Datenanalyse von Strukturen nach Gl. 6.58 als ein ndimensionales Problem. Diese Bezeichnungsweise führt oft zu Missverständnissen, da aus Sicht der Signalanalyse eine Zeitreihe nach Gl. 6.58 ein eindimensionales Signal ist (z.B. Zeitverlauf einer Spannung). Im weiteren Vorgehen wird die Sequenz nach Gl. 6.58 zunächst als eine mehrdimensionale Zufallsgröße betrachtet, welche aus mehreren Zufallsvariablen besteht, die nach dem Zeitindex geordnet sind. Dementsprechend sind auch die statistischen Maße mehrdimensional, so dass man sie für jede Zufallsvariable formulieren kann: -
Mittelwert
P x >n@ E ^X >n@` -
Auto- und Kreuzkorrelationsfunktion rxx >n1 , n2 @ E^X >n1 @X >n2 @`
63
(6.59)
statisch bedeutet hier ohne einen zeitlichen Zusammenhang
(6.60)
6.3 Statistische Analyse von Zeitreihen
463
rxy >n1 , n2 @ E^X >n1 @Y >n2 @`
-
(6.61)
Auto- und Kreuzkovarianzfunktion c xx >n1 , n2 @ E^ X >n1 @ P >n1 @ X >n2 @ P >n2 @ ` c xy >n1 , n2 @ E X >n1 @ P x >n1 @ Y >n2 @ P y >n2 @
^
(6.62)
`
(6.63)
Die Umsetzung der Formeln 6.59 bis 6.63 verdeutlich das folgende Beispiel: Es liegen jeweils zehn Realisierungen (Datensimulation) von zwei Zufallsvariablen X und Y mit einer Dimension (Anzahl der Zeitindizes) von N = 1000 vor (Abb. 6.46). Berechnet werden soll die Autokorrelationsfunktion rxx[100, 300] und die Kreuzkovarianzfunktion cxy[900, 700]. Dazu kann man folgende Formeln verwenden: rxx >100,300@ c xy >900,700@
1 M 10 ¦ xm >100@ xm >300@ M m1 1 M 10 ¦ xm >900@ x >900@ y m >700@ y>700@ . M m1
Y
10
10
9
9
8
8
Realisierungen m
Realisierungen m
X
7 6 5 4
7 6 5 4
3
3
2
2
1
1
0
200
400
x[100] x[300]
600
800
1000
Zeitindex n x[900]
0
200
400
600
800
1000
Zeitindex n y[700]
Abb. 6.46 Realisierungen der Zufallsvariablen X (n = 100, 300, 900) und Y (n = 700) mit m = 1,..,10. Theoretisch stehen zu jedem diskreten Zeitpunkt n zehn unabhängige Messwerte (Realisierungen) der Zufallsvariablen X und Y
464
6 Stochastische Prozesse
Dieses Beispiel macht deutlich, dass theoretisch für jede Zufallsvariable zu jedem Zeitpunkt n mehrere Realisierungen der Zufallsvariable verfügbar sein müssen. Für eine praktische Messung würde es bedeuten, dass ein lokaler Messwert simultan von mehreren Sensoren erfasst werden müsste. Dies würde auf eine absurde Erfassung z.B. eines Extremitäten-EKG hinauslaufen, bei der an jeder Extremität über einem identischen Punkt mit bspw. zehn Elektroden gemessen werde müsste. Eine solche Messung wäre aus praktischen Gründen nicht realisierbar, abgesehen davon, dass im Extremfall die Heisenbergsche Unschärferelation verletzt werden würde. 6.3.1.2 Stichprobe und Ensemble
In der Realität muss man mit einer einzigen Realisierung der ZV (Zufallsvariablen) auskommen – mit einer abgetasteten bzw. mit einer von vornherein zeitdiskreten Reihe. Dies kann z.B. ein diskretisiertes Biosignal (EKG, EEG) oder eine zeitdiskrete Erfassung des Blutdrucks (alle 15 Minuten) sein. Natürlich gibt es in der Technik und Physik multisensorische Messanordnungen, wie z.B. in der Teilchenphysik, die mittels zahlreicher Detektoren auf die gleichzeitige Erfassung eines Ereignisses ausgerichtet sind. Allerdings dienen diese multisensorischen Messsysteme entsprechend der Wahrscheinlichkeitstheorie dazu, die Wahrscheinlichkeit dafür zu erhöhen, dass ein Ereignis überhaupt detektiert wird. Dies ist also ein Problem der Detektionssicherheit und nicht einer hinreichend großen Zahl von Realisierungen. Daten, die entsprechend der theoretischen Vorstellung nach Abb. 6.46 generiert werden, bezeichnet man als Datenschar oder Ensemble. Wie bereits ausgeführt, sind solche Daten in der realen Welt kaum erfassbar. Da aber ein beträchtlicher Teil der statistischen Analysetheorie auf dieser Vorstellung aufbaut, versucht man ihr in der praktischen Analyse mit akzeptablen Einschränkungen nahe zu kommen. Ein praktikabler und praktizierter Ansatz besteht darin, das nicht lösbare Problem der Parallelität (Ensemble) auf der Zeitachse zu verteilen – zu sequenzieren. Die für die Bildung einer Datenschar notwendigen Realisierungen werden nicht gleichzeitig, sondern nacheinander erfasst. Dieses Vorgehen ist typisch bei repetitiven Stimulationen des visuellen, akustischen oder somatosensorischen Systems, bei dem reizsynchron EEG-Abschnitte untereinander angeordnet werden (Abb. 6.47). Problematisch ist, dass die einzelnen Reizantworten nicht identisch und dadurch die theoretischen Annahmen verletzt sind. Das Ausmaß der Verletzungen ist allerdings bekannt und im Ergebnis kalkulierbar, so dass dieser Ansatz in der praktischen Analyse eine breite Anwendung fand. Bei einer pragmatischen Einschätzung stellt man fest, dass es besser ist, ein nicht ganz korrektes Ensemble zu erhalten, als gar keins. In vielen Fällen hat man aber gar nicht die Möglichkeit, das untersuchte System zu stimulieren bzw. reizsynchron zu messen. Dies ist vor allem bei Biosignalen der
6.3 Statistische Analyse von Zeitreihen
1
465
5
2
1 2
5 Abb. 6.47 Repetitive Stimulation (Pfeile nach oben) und Umgruppierung von konsekutiven Reizantworten in eine Datenschar
Fall, die eine spontane Aktivität repräsentieren, z.B. das EKG, das EMG, etc. In diesem Fall ist selbst eine tolerante Ensemble-Bildung nicht möglich. Man muss von einer einzigen Realisierung ausgehen. In solchen Fällen kann das Prinzip der Ergodizität angewandt werden. 6.3.1.3 Stationarität und Ergodizität
Betrachtet man die Daten in Abb. 6.47 bzw. 6.48, so stellt man fest, dass die einzelnen Realisierungen im Ensemble sich von denjenigen einer Realisierung entlang der Zeitachse im Mittel nicht unterscheiden. Daraus ergibt sich der Ansatz, dass man die statistischen Maße nicht im Ensemble bestimmen muss, denn sie sind ja in einer einzigen Realisierung enthalten. Daher interpretiert man eine Realisierung entlang der Zeitachse so (Realisierung i in Abb. 6.48), als wäre sie eine Realisierung einer ZV beim Index von beispielsweise n = 300. Diesen Ansatz bezeichnet man auch als das Ergodizitätsprinzip. Mathematisch lässt es sich wie folgt ausdrücken (Gl. 6.64). m xe >n@ m xe i m xe
(6.64)
466
6 Stochastische Prozesse
In Gl. 6.64 ist me ein statistisches Moment der Ordnung e, n der Zeitindex im Ensemble, i der Index einer Realisierung im Ensemble, X die analysierte ZV. Da bei einer einzigen Realisierung i = 1, entfällt der Index.
Wenn die Bedingung für die Ergodizität nach Gl. 6.64 erfüllt sein soll, so muss zwangsläufig gelten, dass die statistischen Maße vom Zeitindex n unabhängig sind. Diese Forderung ist aber nur zu erfüllen, wenn gilt (Gl. 6.65): P x >n@ P x rxx >n, n m@ rxx >m@ .
(6.65)
c xx >n, n m@ c xx >m@
Die Formeln nach Gl. 6.65 sind so zu interpretieren, dass die Statistiken der ersten und der zweiten Ordnung vom konkreten Zeitpunkt n unabhängig sind bzw. allein von der Verschiebung m abhängen. Verallgemeinert bedeutet dies, dass die statistischen Prozessgrößen zeitunabhängig sind und der Prozess daher stationär sein muss. In der Statistik wird diese Eigenschaft als schwache Stationarität bezeichnet. Im Gegensatz dazu liegt eine starke Stationarität vor, wenn die Verteilungen der Zufallsgröße X[n] identisch sind. Da diese Eigenschaft praktisch nicht überprüfbar ist, gibt es die starke Stationarität nur in der Theorie. Schwach stationäre Signale gibt es in der Natur, Technik und Physik. Allerdings kann man die Biosignale dazu nicht zählen. Ganz im Gegenteil: Die elektrophy-
1 2
x(i)
i
0
200
400 x[300]
n
600
800
1000
Abb. 6.48 Ensemble von simulierten Daten. Verteilung der Zufallsvariable X bei n = 300 und die Stichprobe als Zeitreihe bei m = i
6.3 Statistische Analyse von Zeitreihen
467
siologischen Signale sind nach diesem Kriterium in höchstem Maße instationär. Diese Eigenschaft ist einem biologischen System immanent, sie erschwert die Analyse der Biosignale im Sinne der gewünschten Ergodizität. Beispiel Eine in der Signalanalyse oft verwendete Statistik ist die Auto- oder Kreuzkorrelationsmatrix (Gl. 6.66). stationäres Rauschen
instationäres Signal + Rauschen
50
50
100
100
150
150
200
200
250
50 100 150 200 250
250
50
50
100
100
150
150
200
200
250
50 100 150 200 250
250
50
50
100
100
150
150
200
200
250
50 100 150 200 250
250
50 100 150 200 250
50 100 150 200 250
50
100 150 200 250
Abb. 6.49 Autokorrelationsmatrizen eines stationären Rauschens (links) und eines verrauschten instationären Signals (rechts) in drei gleich langen Segmenten der Länge L = 250
468
6 Stochastische Prozesse
60 50
Pegelindex
40 30 20 10 0 0
100
200
300
400
500
Zeitindex
600
700
Abb. 6.50 Ensemble simulierter Daten bestehend aus einem instationären Signal (simuliertes VEP zwischen n = 250..500) additiv verknüpft mit stationärem Rauschen. Dargestellt ist jede zehnte Realisierung von insgesamt 100, welche zur Berechnung der Autokorrelationsmatrizen in Abb. 6.49 (rechte Spalte) verwendet wurden
R xx
E^x>n@ x>n@`
rxx 1 ª rxx 0 « « rxx 1 rxx 0 « « « «rxx N 1 rxx N 2 ¬
rxx N 1 º » rxx N 2 » » » » rxx 0 »¼
(6.66)
In Gl. 6.66 ist rxx(m) die Autokorrelation für die Verschiebung m:
^
`
rxx m E x>n@ x >n m@
rxx m .
Entsprechend der Bedingung nach Gl. 6.65 müssen die ersten beiden Momente – und daher auch die Autokorrelationsmatrix nach Gl. 6.66 – von der aktuellen Zeit unabhängig sein. In Abb. 6.49 sind die Autokorrelationsmatrizen für drei gleich lange Zeitsegmente der Länge L = 250 dargestellt. Erwartungsgemäß erreicht die Autokorrelation ihr Maximum für m = 0, in der Grafik als maximaler (schwarzer)
6.3 Statistische Analyse von Zeitreihen
469
Pegel entlang der Hauptdiagonale der Matrizen sichtbar. Für ein stationäres Rauschen sind die Matrizen gleich, voraus man auf Stationarität schließen kann. Liegt ein instationäres Signal vor (rechte Spalte in Abb. 6.49), so zeigen die Matrizen ein deutlich abweichendes Bild, das mittlere Segment unterscheidet sich von den sonst gleichen Randsegmenten. Und dies ist ein Lösungsansatz zur Analyse von Biosignalen: In der praktischen Analyse kann die Ergodizitätsbedingung näherungsweise auch bei instationären Biosignalen erreicht werden, in dem man Zeitsegmente mit etwa konstanten Momenten bildet. Die Segmentierung ist kein exakt beschreibbares Vorgehen, da sie im Wesentlichen datenabhängig ist und daher unter empirischen Gesichtspunkten durchgeführt wird. Im Falle von simulierten Daten (Abb. 6.50), die zur Berechnung der Autokorrelationsmatrizen im Beispiel nach Abb. 6.49 verwendet wurden, ist die Aufgabe relativ einfach. Bereits visuell kann man einschätzen, dass das mittlere Drittel (n = 251…500) im Vergleich zum ersten (n = 1…250) und zum letzten Drittel (n = 501:750) der Zeitreihen unterschiedliche Pegel aufweist. Daher würde man hier drei Segmente (die genannten Drittel) bilden und jedes für sich analysieren. Eine allgemeingültige Regel für die Segmentierung kann allerdings nicht formuliert werden. Automatische Segmentierungsalgorithmen sind in der Regel datenspezifisch und arbeiten nach empirischen Kriterien.
6.3.2 Schätzung des Leistungsdichtespektrums 6.3.2.1 Das Parseval-Theorem
Sowohl Biosignale als auch Rauschen besitzen im Wesentlichen kontinuierliche Spektren, die zum Teil von Linienspektren (periodische Störungen, Reizantworten) überlagert sein können. Da die Signalverarbeitung heute grundsätzlich im zeitdiskreten Bereich (und digitalisiert) durchgeführt wird, verwendet man zur Beschreibung der spektralen Zusammensetzung die DFT. Durch die Transformation darf sich entsprechend dem Energieerhaltungssatz die Energiemenge nicht ändern. Es muss also gelten, dass die Energie im Zeitbereich der Energie im Frequenzbereich identisch ist. Da das Signal auch periodische Komponenten enthalten kann (also Leistungssignale64), ist es sinnvoller, die Identität der Leistung in beiden Domänen zu verlangen (Gl. 6.67). Die Beziehung nach Gl. 6.67 besagt, dass die mittleren Leistungen im Zeit- und im Frequenzbereich identisch sind; sie ist als das Parsevals-Theorem bekannt. Unter dem Gesichtspunkt der Verfügbarkeit von FFT-Algorithmen bietet sich als effiziente Variante zur Schätzung des Leistungs64
Ein Leistungssignal besitzt eine unendliche Energie, ein Energiesignal eine endliche.
470
6 Stochastische Prozesse
dichtespektrums (LSD) der rechte Teil der Beziehung nach Gl. 6.67, den man als Periodogramm bezeichnet (Gl. 6.68). X k
½
N 1
¦ xn e j 2Skn / N °
° ¾ Px ° 1 N 1 ¦ X k e j 2Skn / N ° Nk 0 ¿ n 0
xn
N 1
2 ¦ xn
n 0
1 N
N 1
2 ¦ X k
(6.67)
k 0
6.3.2.2 Das Periodogramm, direkte spektrale Schätzung
Da das Periodogramm (Gl. 6.68) auf Grund seiner Praktikabilität als Schätzer der spektralen Leistungsdichte oft verwendet wird, sollen hier seine statistischen Eigenschaften untersucht werden. I x k
1 2 X k N
(6.68)
dB, N = 1e4
dB, N = 1e3
dB, N = 1e2
Periodogramm der Rohdaten 40 20 0 -20 0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
40 20 0 -20 0 40 20 0 -20 0
relative Frequenz
Abb. 6.51 Periodogramm vom weißen Rauschen mit drei Harmonischen in Abhängigkeit von der Fensterlänge für N = 102 (oben), 103 (mittig), 104 (unten). Die Varianz des Rauschens bleibt bei allen Fenstern gleich
6.3 Statistische Analyse von Zeitreihen
471
In Gl. 6.68 dient der Faktor 1/N der Normierung. Dieser richtet sich immer nach der konkreten Realisierung der DFT nach Gl. 6.67. Bei der Analyse der Signaleigenschaften kann man zunächst vom weißen, normalverteilten Rauschen ausgehen, das mit drei Harmonischen mit den relativen Frequenzen f1 = 0.19, f2 = 0.21 und f3 = 0.25 überlagert ist (w(n) ist weißes Rauschen, n = 0…N-1, Pw ist die spektrale Leistungsdichte): wn ~ N P , V , Pw k V 2 , si
sin 2Sf i n / N
Es soll zunächst der Einfluss der Fensterlänge auf die Varianz der spektralen Schätzung nach Gl. 6.68 ermittelt werden (Abb. 6.51). Da die Leistungsdichte des weißen Rauschens konstant ist, gilt: Iw
1 N
N 1
¦ I w k V 2 varI w
k 0
1 N
¦ I w k I w
N 1
2
V 4 (6.69)
k 0
Aus der Gl. 6.69 folgt, dass die Varianz des Periodogramms konstant und von der Länge N der DFT unabhängig ist (Abb. 6.51). Daher ist das Periodogramm als Schätzer der spektralen Leistungsdichte nicht konsistent. Man kann die spektrale Varianz mit Hilfe eines gleitenden Glättungsfensters (moving average) reduzieren (Gl. 6.70): Pˆx Z k
1 Ll
( L 1) / 2
¦ l
Ix k ( L 1) / 2
(6.70)
Die Varianz des Periodogramms ist danach um den Faktor 1/L geringer. Allerdings verschlechtert sich in Folge der Glättung die spektrale Auflösung (Abb. 6.52). Während im Beispiel nach Abb. 6.51 und Abb. 6.52 die Varianz des Periodogramms bei einer Fensterlänge von L = 11 um 21 dB abnimmt, reicht die Frequenzauflösung nicht mehr, um die Harmonischen bei f1 und f2 zu unterscheiden. Bei einer Fensterlänge von L = 31 ist die Varianz um 30 dB reduziert und das Rauschen weitgehend eliminiert, jedoch eine spektrale Trennung von f2 und f3 ist auch nicht mehr möglich. Für die Analyse ergibt sich daraus die Notwendigkeit, im konkreten Fall nach einem Kompromiss zu suchen, oder nach Möglichkeit ein besser geeignetes Fenster zu verwenden. Da zur Schätzung der spektralen Leistungsdichte mit Hilfe des Periodogramms direkt die Fouriertransformation verwendet wird und das zweite Moment erst im Frequenzbereich gebildet wird, wird hier dieser Weg als der direkte Wege bezeichnet. Im Gegensatz dazu werden Schätzer, die das zweite Moment zunächst im Zeitbereich bilden, als Schätzer auf dem indirekten Weg bezeichnet.
472
6 Stochastische Prozesse
N = 1000 60 L=1
dB
40 20 0 -20 0.1
0.15
0.2
0.25
0.3
0.35
0.4
60 dB
40
L = 11
20 0 -20 0.1
0.15
0.2
0.25
0.3
0.35
0.4
60 dB
40
L = 31
20 0 -20 0.1
0.15
0.2 0.25 0.3 normierte Frequenz
0.35
0.4
Abb. 6.52 Glättung des Periodogramms mit Rechteckfenstern der Länge L = 1, 11, 31. Die Varianz der spektralen Schätzung nimmt mit der Fensterlänge ab, die spektrale Leistungsdichte des Rauschens wird konstant, aber die spektrale Auflösung wird schlechter. Bei L = 11 können die Harmonischen bei f1 = 0.19 und f2 = 0.21 nicht mehr unterschieden werden, bei L = 31 geht auch die Trennschärfe von f2 = 0.21 und f3 = 0.25 verloren
6.3.2.3 Indirekte spektrale Schätzer Die Glättung mit einem Fenster nach Gl. 6.70 ist der diskreten Faltung mit einem Rechteck der Länge L äquivalent. Nach dem Faltungssatz entspricht sie einer Multiplikation mit der Fourier-Transformierten des Fensters und der Autokorrelationsfunktion des Signals im Zeitbereich (Gl. 6.71).
6.3 Statistische Analyse von Zeitreihen
Pˆx Z k
473 N 1
jZ n / N ¦ w>n@ rˆxx >n@ e k
(6.71)
n 0
In Gl. 6.71 ist w[n] eine Fensterfunktion (in Gl. 6.70 implizit ein Rechteck) und rxx[n] die Autokorrelationsfunktion.
Die Beziehung nach Gl. 6.71 (mit Rechteckfenster) bezeichnet man auch als das Wiener-Chintchin-Theorem, die inverse Formulierung gibt Gl. 6.72. rˆxx >m@
N 1
jZ m / N ¦ Pˆx Z k e k
(6.72)
k 0
Setzt man in Gl. 6.72 m = 0, so enthält man die mittlere quadratische Leistung, welche nach Gl. 6.73 eine andere Interpretation des Parseval-Theorems darstellt (Gl. 6.67). N 1
rˆxx >0@
¦ Pˆx Z k
(6.73)
k 0
Ist eine physikalische Interpretation der spektralen Leistungsdichte bzw. der Korrelation vorgesehen bzw. sollen diese Größen für verschiedene Abtastraten verglichen werden, so ist die Einbeziehung der Abtastperiode TA notwendig (Gl. 6.74). Pˆx Z k TA
N 1
¦ w>n@ rˆxx >n@ e jZk n / N
(6.74)
n 0
Die Fensterfunktionen w[n] wurden im Kapitel „4.2.1.2 Fensterung“ behandelt, so dass hier auf diese nicht näher eingegangen wird. Weiterhin ist für die Schätzung der spektralen Leistungsdichte eine Schätzung der AKF (Autokorrelationsfunktion) rxx[m] notwendig. Theoretisch ergibt sich die AKF als zweites Moment aus Gl. 6.75. rxx >m@ E ^X >n@ X >n m@`
(6.75)
Normiert man bei der Schätzung die Summe der Produkte auf ihre tatsächliche Anzahl, so erhält man eine erwartungstreue (b = 0)65 Schätzung (Gl. 6.76). Dieser Schätzer ist erwartungstreu, da die Summe der Produkte zweiter Ordnung in Gl. 6.76 auf ihre tatsächliche Anzahl normiert wird. rˆxx >m@ 65
1 N m 1 ¦ x>n@x>n m@ N m n 0
b ist der Bias (systematischer Fehler) einer Schätzung, siehe Schätzgüte
(6.76)
474
6 Stochastische Prozesse
Eine alternative Möglichkeit bietet die Normierung auf die Gesamtzahl der Werte (Gl. 6.77). rˆxx >m@
1 N
N m 1
¦ x>n@x>n m@
(6.77)
n 0
Der Schätzer nach Gl. 6.77 ist nicht erwartungstreu ( b z 0 ). Vergleicht man die Varianzen der beiden Schätzer nach Gl. 6.76 und 6.77 (Abb. 6.53), so stellt manfest: Die Varianz der erwartungstreuen Schätzung nach Gl. 6.76 nimmt mit steigendem m hyperbolisch zu (Gl. 6.78, Abb. 6.53 unten). var§¨ rxx >m@ b ©
·¸
0¹
1 varx>n@x>n m@ N m
(6.78)
Demgegenüber nimmt die Varianz der nicht erwartungstreuen Schätzung nach Gl. 6.77 (Abb. 6.53 oben) mit steigendem m linear ab (Gl. 6.79). var§¨ rxx >m@ ·¸ bz0 ¹ ©
N m N2
varx>n@x>n m@
(6.79)
In beiden Beziehungen nach Gl. 6.78 und 6.79 wurde angenommen, dass der Prozess x[n] stationär, ergodisch und weiß ist.
Die Gegenüberstellung dieser beiden Schätzer der AKF (Gl. 6.78 und 6.79) demonstriert das grundsätzliche Dilemma der Parameterschätzung: Erwartungstreue und Varianzminimierung sind gegensätzliche Forderungen an Schätzer von statistischen Momenten. Daher kann man pauschal nicht entscheiden, welcher Schätzer besser geeignet ist. Dies ist von der konkreten Fragestellung abhängig. Da aber die AKF in den meisten Fällen zur Schätzung der spektralen Dichte eingesetzt wird, kann man die Auswirkungen der unterschiedlichen Varianzen auf das LDS vergleichen (Abb. 6.54). Da die Varianz des erwartungstreuen Schätzers (Abb. 6.53 unten) im Vergleich zu dem anderen Schätzer sehr hoch ist und an den Rändern der AKF Unstetigkeiten aufweist (Randeffekte), ist auch eine höhere Varianz der spektralen Schätzung zu erwarten. Zwar sind beide LDS (Abb. 6.54) qualitativ identisch, die Varianz des LDS nach dem erwartungstreuen Schätzer der AKF ist jedoch etwa fünfmal höher. Für die Schätzung der spektralen Leistungsdichte ergibt sich daraus die Schlussfolgerung, dass für diesen Zweck der nicht erwartungstreue Schätzer der AKF nach Gl. 6.77 besser geeignet ist.
6.3 Statistische Analyse von Zeitreihen
475
nicht erwartungstreue Schätzung 1
rxx
0.5 0 -0.5 -1000
-800
-600
-400
-200
0
200
400
600
800
1000
600
800
1000
erwartungstreue Schätzung 1
rxx
0.5 0 -0.5 -1000
-800
-600
-400
-200
0
m
200
400
Abb. 6.53 Schätzung der AKF nicht erwartungstreu (oben) und erwartungstreu (unten) einer Sequenz vom normalverteilten, weißen Rauschen der Länge N = 1000
LDS nicht erwartungstreu
Pxx
0.2 0.15 0.1 0.05 0 -0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4
0.5
0.2
0.3
0.4
0.5
LDS erwartungstreu
Pxx
0.2 0.15 0.1 0.05 0 -0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
relative Frequenz
Abb. 6.54 Leistungsdichtespektren des Rauschens aus Abb. 6.53 für die nicht erwartungstreue Schätzung (oben) und die erwartungstreue Schätzung (unten)
476
6 Stochastische Prozesse
Da die Berechnung der Korrelationsfunktionen nach Gl. 6.76 und Gl. 6.77 sehr rechenaufwendig ist, kann man sie mit Hilfe der Beziehung nach Gl. 6.80 effektiver realisieren. x> n@ y>n@
f
¦ x> m@y>n m@
m f f
¦ x>m@y>n m@ rxy >m@
(6.80)
m f
In Gl. 6.80 ist die Korrelationsfunktion rxy(m) Gründen von der Zeit abhängig. Für die praktische Berechnung ist dies nicht von Belang, da sie unabhängig von der Variablenbezeichnung allein von der Verschiebung m abhängt.
Aus der Beziehung nach Gl. 6.80 folgt, dass die Korrelationsfunktion und die Faltung eines Signals mit dem zeitgespiegelten Signal identisch sind. Nach dem Faltungssatz gilt für den Frequenzbereich Gl. 6.81: R xy >k @
X > k @ Y >k @
(6.81)
voraus sich die Beziehung für die Korrelationsfunktion ergibt (Gl. 6.82). rxy >m @
F 1^X > k @ Y >k @`
(6.82)
Die Fouriertransformation für die Beziehung nach Gl. 6.81 und ihre inverse nach Gl. 6.82 sind rechentechnisch mit schnellen Algorithmen der FT realisierbar, so dass sich die Korrelationsfunktion effektiv nach dem folgenden Algorithmus (Gl. 6.83) berechnen lässt: X >k @ FFT x> n@ Y >k @ FFT y>n @ Rˆ xy >k @
X >k @ Y >k @
(6.83)
rˆxy m IFFT Rˆ xy >k @
6.3.2.4 Methoden zur Schätzung der spektralen Leistungsdichte
Wie bereits ausgeführt, ist das Periodogramm nach Gl. 6.68 ein inkonsistenter Schätzer des LDS, daher sind geeignete Methoden zur Varianzreduktion des LDS notwendig. Wird zur Reduktion eine Fensterfunktion verwendet, so bezeichnet man dies als ein modifiziertes Periodogramm oder als Methode nach Blackman-
6.3 Statistische Analyse von Zeitreihen
477
Tukey. Ein weiterer Ansatz besteht darin, dass man das Signal segmentiert und die aus den Segmenten berechneten Periodogramme mittelt (Gl. 6.84). Auf diese Weise kann die Varianz durch die Wirkung des arithmetischen Mittelwertes reduziert werden: 1 M
Pˆ Z
M
¦ I m Z o Pˆ >k @
m 1
1 M
M
¦ I m >k @ .
(6.84)
m 1
In Gl. 6.84 ist Z die Frequenz im kontinuierlichen Bereich, k die diskrete Frequenz, M Anzahl der Segmente, L die Segmentlänge.
Im einfachsten Falle teilt man das Signal in M sich nicht überlappende (und nicht zwangsläufig angrenzende) Segmente auf, berechnet die Periodogramme und mittelt sie anschließend (Abb. 6.55). Dieses Vorgehen wird auch als Methode nach Bartlett bezeichnet. Die Varianz der Schätzung wird entsprechend der Mittelungsordnung (Gl. 6.84) um den Faktor M reduziert. Allerdings wird auch die spektrale Auflösung reduziert, da 'f ~ 1/'t (TA ist die Abtastperiode, N ist die Anzahl aller Werte):
var Pˆ >k @
1 §1 · var¨ I m >k @¸, 'f M M L © ¹
M
1 NT A
Der Nachteil der verschlechterten spektralen Auflösung lässt sich dadurch relativieren, dass man längere Segmente wählt. Dadurch würde aber ihre Anzahl M und damit die Varianzreduktion sinken. Einen Kompromiss bietet die Möglichkeit, die Segmente zu überlappen. Dieses Verfahren bezeichnet man auch als Methode
Datenreihe
Pˆ Z
1 M
M
¦ I Z m
m 1
Segment i
Segment j
Ii[k]
Ij[k]
6Im[k]/ML Pˆ >k @
Abb. 6.55 Segmentierung einer Datenreihe und Mittelung der Periodogramme. Die Segmente überlappen sich nicht, ihre Anzahl ist M und ihre Länge L. Bekannt auch als Bartlett’s Methode
478
6 Stochastische Prozesse
Datenreihe
Pˆ Z
1 M
M
¦ I Z m
Segment i
Segment j
Ii[k]
Ij[k]
6Im[k]/ML
m 1
Pˆ >k @ Abb. 6.56 Segmentierung einer Datenreiche und Mittelung der Periodogramme. Die Segmente überlappen sich, ihre Anzahl ist M und ihre Länge L. Bekannt auch als Welch’s Methode
nach Welch (Abb. 6.56). Der Überlappungsanteil ist grundsätzlich frei wählbar, jedoch aus mehreren Gründen auf 50% zu setzen. Beträgt die Überlappung mehr als 50%, so kommt es zur Datenredundanz und daher zur Überbewertung einigerSignalanteile. Beträgt er weniger als 50%, kann es zur statistischen Benachteiligung lokal wichtiger Daten kommen. Um diesen Effekt zu beleuchten, sind zunächst folgende Ausführungen notwendig: Einfluss der Fensterung auf die Segmentüberlappung Aus bereits genannten Gründen ist die Fensterung der Daten im Zeitbereich notwendig, wobei implizit eine Rechteckfensterung vorliegt, wenn man gar keine Fensterfunktion wählt. Bei nichtüberlappenden Segmenten (Abb. 6.55 oben) ist die Fensterwahl grundsätzlich frei, sie richtet sich nach bekannten Eigenschaften der Fensterfunktionen. Aus signalanalytischer Sicht kann es jedoch problematisch werden, dass die Daten zum Fensterrand hin immer weniger gewichtet werden. Daher kann es dazu kommen, dass wichtigen Prozessereignissen, die in diesen Bereichen auftreten, eine reduzierte bzw. gar keine Bedeutung zugeordnet wird. Vor diesem Hintergrund wäre es wichtig, eine Fensterung zu nutzen, die den Daten bei der Auswertung a priori die gleiche Bedeutung zuordnet. Der Lösungsansatz besteht darin, dass man überlappende Segmente verwendet, wobei die kombinierte Fensterfunktion (Addition überlappender Fenster) in ihrem Ergebnis immer Eins ergeben muss. Dafür kommen von den bekannten Fenster-
6.3 Statistische Analyse von Zeitreihen
479
Bartletts Methode, nichtüberlappende Segmente 1 0.5 0 -0.5 -1 0
500
1000
1500
2000
2500
3000
Welchs Methode, Überlappung der Segmente 50% 1 0.5 0 -0.5 -1 0
500
1000
1500
Zeitindex n
2000
2500
3000
Abb. 6.57 Segmentierung nichtüberlappend bei der Methode nach Bartlett (oben, L = 1000) und zu 50% überlappende Segmentierung bei der Methode nach Welch (unten, L = 2000), beide mit einem Hann-Fenster. Zu beachten ist die doppelte Segmentlänge bei Welch im Vergleich zu Bartlett sowie die Wichtung der Daten. Originaldaten sind normalverteiltes, weißes Rauschen, die Fensterfunktionen nach Hann sind fett dargestellt
funktionen nur Bartletts und Hanns Fenster in Frage (siehe Fensterung). Die Wirkung eines zu 50% überlappenden Hann-Fensters zeigt Abb. 6.57 unten. Die Bedingung der konstanten Wichtung ist erfüllt, womit allen Daten die gleiche Bedeutung zukommt. Wie oben bereits erwähnt, die spektrale Auflösung verdoppelt sich im Vergleich zur Methode nach Bartlett. Ein formales, aber kein analytisches Problem besteht in der doppelten Datenredundanz. Daher ist – wie dieses Beispiel zeigt – in der Analyse die Segmentüberlappung mit 50% und einem Fenster nach Bartlett oder Hann zu bevorzugen. Natürlich hat auch die verwendete Fensterfunktion Einfluss auf die Varianz der spektralen Schätzung und die spektrale Auflösung (siehe Abschn. „4.2.1.2 Fensterung“). Ein qualitativer Vergleich ausgewählter Fensterfunktionen (Abb. 6.58) zeigt, dass mit dem Rechteckfenster die beste spektrale Auflösung, aber die größte Varianz des LDS zu erreichen ist. Alle weiteren Fenster (Hann, Blackman) reduzieren wirksam die Varianz des LDS, dies jedoch auf Kosten der spektralen Auflösung, die bei gleicher Fensterlänge mit dem Hann-Fenster noch am besten ist. Bei realen Biosignalen sind die durch verschiedene Fensterfunktionen verursachten Unterschiede nicht so markant (Abb. 6.59).
480
6 Stochastische Prozesse
Rechteck, dB
10
Hann, dB
10
0
0
-10
-10
-20
-20
-30
-30
-40
-40
-50 0
0.2
0.4
-50 0
10
10
0
0
-10
-10
-20
-20
-30
-30
-40
-40
-50 0
Blackman, dB
100 Periodogramme
0.2
0.4
-50 0
10
10
0
0
-10
-10
-20
-20
-30
-30
-40
-40
-50 0
0.2 0.4 relative Frequenz
-50 0
gemitteltes Periodogramm
0.2
0.4
0.2
0.4
0.2 0.4 relative Frequenz
Abb. 6.58 Periodogramme von 100 nichtüberlappenden Segmenten (linke Spalte) und ihre Mittelung (rechte Spalte) für die Fensterfunktionen Rechteck (oben), Hann (mittig) und Blackman (unten). Zu beachten ist die beste spektrale Auflösung, aber die schlechteste Varianz beim Rechteckfenster (oben), sowie die schlechteste spektrale Auflösung aber die beste Varianz beim Blackmanfenster (unten). Das oft verwendete Hannfenster zeigt eine akzeptable Varianz (unwesentlich schlechter als Blackman) und eine mittlere spektrale Auflösung (mittig). Daten aus Abb. 6.52 (weißes, normalverteiltes Rauschen additiv überlagert mit Harmonischen bei den relativen Frequenzen 0.19, 0.21 und 0.25)
Dies liegt zum Teil daran, dass das simulierte Signal (Abb. 6.58) eine Extremkombination aus weißem, stationärem Rauschen und spektralen Nadeln (Harmoni-
6.3 Statistische Analyse von Zeitreihen
481
sche auf Stützstellen der FFT) bildet, so dass jede Verschlechterung der spektralen Auflösung und der Schätzvarianz sofort sichtbar ist. Reale Biosignale besitzen ein eher kontinuierliches Spektrum, in dem sich das Rauschen und Störungen mit den gesuchten Signalen über weite Bereiche überlappen, so dass keine extremen Diffe5
10 Periodogramme
5
dB, Rechteck
0
0
-5
-5
-10
-10
-15
-15
-20
-20
dB, Hann
-25 0
10
-25 0 5
0
0
-5
-5
-10
-10
-15
-15
-20
-20
-25 0
dB, Blackman
20
5
10
20
-25 0
5
5
0
0
-5
-5
-10
-10
-15
-15
-20
-20
-25 0
Gemitteltes Periodogramm
10 Frequenz / Hz
20
-25 0
10
20
10
20
10 Frequenz / Hz
20
Abb. 6.59 Periodogramme von 10 nichtüberlappenden Segmenten der Länge L = 2000 bzw. TL = 4s (Abtastperiode TA = 2ms, spektrale Auflösung f = 0.25 Hz) linke Spalte und ihre Mittelwerte (rechte Spalte) bei Fensterfunktionen Rechteck (oben), Hann (mittig) und Blackman (unten). Die Herzrate liegt bei etwa 1 Hz bzw. 60 bpm66 und weist Harmonische bis zur 15. Ordnung (15 Hz) auf. Die spektrale Kerbe bei ca. 5 Hz ist unphysiologisch und wurde durch implementierte Signalverarbeitung im Verstärker verursacht
66
bpm – beats per minute
482
6 Stochastische Prozesse
renzen entstehen können. Dennoch zeigt das Rechteckfenster (Abb. 6.59 oben) erwartungsgemäß die beste spektrale Auflösung, aber die schlechteste Schätzvarianz. Die übrigen Fensterfunktionen Hann (Abb. 6.59 Mitte) und Blackman (Abb. 6.59 unten) weisen keine wesentlichen Unterschiede auf.
6.3.3 Spektrale Kreuzleistungsdichte und Kohärenz 6.3.3.1 Spektrale Kreuzleistungsdichte, das KLDS
Die spektrale Kreuzleistungsdichte, im Folgenden als KLDS bezeichnet (KreuzLeistungsdichtespektrum), stellt eine Erweiterung der Beziehung nach Gl. 6.71 auf zwei Signale x und y (Gl. 6.85) dar. Pˆxy Z k
N 1
jZ n / N ¦ w>n@ rˆxy >n@ e k
(6.85)
n 0
Da man die Beziehungen nach Gl. 6.72 bis Gl. 6.79 zunächst auf die Autokorrelationsfunktion (AKF) und die Autoleistungsdichte angewandt hat, kann man sie als Spezialfall der KKF und des KLDS betrachten. Daher sind sie ohne weitere Einschränkung auch im Weiteren anwendbar, wobei sich durch die Erweiterung auf zwei Signale einige wesentliche Unterschiede ergeben: Da die AKF bereits per Definition eine gerade Funktion ist, ist das ALDS (Auto-LeistungsdichteSpektrum) reell und nichtnegativ. Dies trifft auf die KKF natürlich nicht zu, diese muss weder gerade noch ungerade sein. Daher ist das KLDS im Allgemeinen eine komplexe Größe (Gl. 6.85). Dies hat für die Analyse weitgehende Folgen: Trotz der Bildung von zweiten Momenten bleibt im Gegensatz zum ALDS die Phase im KLDS erhalten (genauer die Phasendifferenz zwischen x[n] und y[n]). Da man das KLDS als spektrale Kreuzkorrelation interpretieren kann, bietet es eine Information über gemeinsame Leistungsanteile in x und y sowie über ihren zeitlichen Versatz. Ähnlich wie bei der Schätzung des ALDS wird das KLDS auf dem direkten Weg (Gl. 6.86, siehe auch Gl. 6.68) oder auf dem indirekten Weg nach Blackman-Tukey (Gl. 6.85) oder mit Hilfe der segmentierenden Methoden nach Bartlett oder Welch (Gl. 6.87, siehe auch Gl. 6.84) ermittelt. 1 X k Y * k N 1 M xy 1 M xy ¦ I m Z o Pˆxy >k @ ¦ I m >k @ Mm1 Mm1
Pˆxy Z k Pˆxy Z k
I xy k
(6.86) (6.87)
Das KLDS liefert Informationen über den linearen Zusammenhang (genauer ausgedrückt: über den linearen Anteil eines Zusammenhangs) zwischen spektralen
6.3 Statistische Analyse von Zeitreihen
483
Anteilen von zwei Signalen. Die Interpretationsmöglichkeiten sollen am folgenden Beispiel verdeutlicht werden. Beispiel Das EKG und die Atmung (elektrisch mit einem DMS gemessen) eines Patienten wurden aufgenommen. Zum Zwecke der Kurvenvermessung des EKG möchte 250
Atmung
200 150 100 50 0 0
0.5
1
1.5
1000
EKG
800
linear, additiv
600
nichtlinear, multiplikativ
nichtlinear, multiplikativ
400 200 0 0 7 6
x 10
0.5
1
1.5
1
1.5
4
KLDS
5 4 3 2 1 0
0.5 Frequenz / Hz
Abb. 6.60 Das KLDS zwischen der Atmung und dem EKG bei simultaner Aufnahme. Die Atmung allein (oben) liegt spektral bei ca. 0.2 Hz, was einer Ruheatemrate von 12 /min entspricht. Sie ist dem EKG additiv (Mitte) und multiplikativ überlagert. Das KLDS zeigt ein Maximum für die linearen Anteile (spektrale Korrelation) der Atmung
484
6 Stochastische Prozesse
man den Einfluss der Atmung eliminieren. Dazu muss man zunächst wissen, ob die Atmung denn im EKG überhaupt vorhanden ist. Daher bildet man zwischen beiden Signalen das KLDS (Abb. 6.60). Zwar ist das Spektrum der Atmung im Original-EKG bereits erkennbar (Abb. 6.60 Mitte, als „linear, additiv“ gekennzeichnet). Dies ist jedoch ein unzuverlässiger Indikator, da die Atmung nicht in jedem EKG nachweisbar ist. Man berechnet deswegen das KLDS für die Kombination aus der Atmung (Abb. 6.60 oben) und dem EKG (Abb. 6.60 Mitte). Das KLDS (Abb. 6.60 unten) zeigt einen eindeutigen spektralen Zusammenhang zwischen den beiden Signalen bezüglich des gemeinsamen Signalanteils Atmung. Der Signalanteil Atmung ist allerdings auch noch symmetrisch um die Herzrate verteilt (Abb. 6.60 Mitte), was durch die Amplitudenmodulation des EKG durch die Atmung verursacht wird. Es handelt sich demnach um eine multiplikative, also eine nichtlineare Verknüpfung. Das KLDS kann man als ein absolutes Maß für den linearen Zusammenhang zwischen Spektralanteilen von zwei Signalen interpretieren. Nun stellt sich jedoch dieselbe Frage, wie im Falle der Korrelation: Wie kann man verschiedene KLDS miteinander vergleichen? Die methodisch zunächst richtige, aber nicht restlos klärende Antwort ist die Normierung. Mit Hilfe der Normierung erhält man aus dem KLDS die Kohärenz. 6.3.3.2 Kohärenz
Die Kohärenz ist entsprechend der Beziehung nach Gl. 6.88 definiert und stellt das normierte KLDS dar. C xy Z
Pxy Z
2
Pxx Z Pyy Z
, 0 d C xy Z d 1
(6.88)
Man könnte die Kohärenz nach Gl. 6.88 als das spektrale Analogon zum Korrelationskoeffizienten nach Pearson interpretieren. Doch die Interpretation der Kohärenz ist vor allem wegen der Variablen Zeit bzw. Frequenz schwieriger und zum Teil irreführend. Das grundlegende Interpretationsproblem soll das folgende Beispiel verdeutlichen. Beispiel Gegeben sind zwei harmonische Schwingungen x(n) und y(n) mit identischen Frequenzen von frel = 0.1 und identischen Phasen. Berechnet man für diese Schwingungen die Kohärenz nach Gl. 6.88, so hat diese über das gesamte Spektrum den Wert Cxy(f) = 1 (Abb. 6.68 oben). Dies ist weder ein methodischer noch ein rechnerischer Fehler. Zwar ergibt sich bei allen Frequenzen außer bei frel = 0.1 für Cxy ein unbestimmter Ausdruck von
6.3 Statistische Analyse von Zeitreihen
485
C xy f
f z 0.1
0 o 1, 0
allerdings lässt sich durch Grenzwertrechnung zeigen, dass der Quotient stets Eins ist. Dieses zunächst überraschende Ergebnis kann man mit Hilfe der Analogie zum Korrelationskoeffizienten begründen: Da die Kohärenz ein Maß für die lineare Ähnlichkeit zwischen zwei Signalen bei einer bestimmten Frequenz ist, ist sie
Zwei Sinusschwingungen in Phase
Cxy
1
0.5
0 0
0.1
0.2
0.3
0.4
0.5
Zwei Sinusschwingungen mit starkem Rauschen
Cxy
1
0.5
0 0
0.1
0.2
0.3
0.4
0.5
Zwei Sinusschwingungen mit schwachem Rauschen
Cxy
1
0.5
0 0
0.1
0.2 0.3 relative Frequenz
0.4
0.5
Abb. 6.61 Kohärenz von zwei identischen harmonischen Signalen bei der relativen Frequenz 0.1 (oben), überlagert mit starkem Rauschen (Mitte) und mit schwachem Rauschen (unten). Die Breite des Maximums von etwa 'f = 0.01 der Cxy(f) = 1 bei f = 0.1 ergibt sich aus der Länge des Analysefensters, siehe Fensterung
486
6 Stochastische Prozesse
zwangsläufig auch dann sehr hoch (normiert gleich Eins), wenn die Leistungsdichten der Signale bei dieser Frequenz nullwertig sind. Denn nullwertige Leistungsdichten sind sich genauso ähnlich, wie hohe Leistungsdichten. Ein Lösungsansatz für dieses Problem wäre, dass man den Harmonischen unkorreliertes Rauschen additiv überlagert, damit dieses die Ähnlichkeit außerhalb der Frequenzen der Harmonischen gezielt verletzt. Intuitiv wird man zunächst ein schwaches Rauschen addieren, um den im Allgemeinen ohnehin schon schlechten SNR nicht noch weiter zu reduzieren. Allerdings führt ein sehr schwaches Rauschen (Abb. 6.61 unten) dazu, dass die Ähnlichkeit nur wenig verletzt wird und die Kohärenz demzufolge nur wenig von Eins abweicht. Die Konsequenz ist, dass man für eine klare Kohärenzbeziehung den Harmonischen ein starkes Rauschen (Abb. 6.61 Mitte) additiv überlagern muss. Dies ist aber im Sinne eines guten SNR eine konträre Forderung. Bei realen Biosignalen tritt das o.g. Problem selten auf, da ihr Spektrum kontinuierlich ist und ohnehin mit relativ starken Störungen überlagert ist. Normiert man beispielsweise das KLDS zwischen der Atmung und dem EKG (Abb. 6.62 oben) entsprechend der Gl. 6.88, so wird in der Kohärenzdarstellung (Abb. 6.62 unten) ein bei realen Biosignalen typisches Problem sichtbar. Während das KLDS die gemeinsamen spektralen Anteile korrekt darstellt undoberhalb von ca. 0.5 Hz nullwertig ist, zeigt die Kohärenz neben den korrekt hohen Werten unterhalb 0.5 Hz auch oberhalb dieser Frequenz relativ hohe Kohä-
P(f) / dB
1
Spektrale Kreuzleistungsdichte EKG gegen Atmung
0.5
0 0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
1.6
1.8
2
f / Hz
Kohärenz EKG gegen Atmung
Cxy
1
0.5
0 0
0.2
0.4
0.6
0.8
1
f / Hz
1.2
1.4
Abb. 6.62 Das KLDS zwischen EKG und Atmung (oben) und die dazugehörige Kohärenz (unten)
6.3 Statistische Analyse von Zeitreihen
487
renzen. Dieser Effekt tritt dann auf, wenn eines der ALDS im Nenner des Quotienten in Gl. 6.88 wesentlich kleiner ist als das andere. Durch die Normierung gleichen sich die Gewichte der Spektren aus, so dass die Bedeutung des viel schwächeren Signals heraufgesetzt wird. Dies ist der Grund, warum die spektralen Anteile der Atmung, die oberhalb von 0.5 Hz etwa 60 dB unter dem EKG liegen (Abb. 6.62), trotzdem zu Kohärenzen von bis zu 0.4 führen. 6.3.3.3 Das KLDS in der Systemidentifikation
Die Modellierung und Identifikation von Systemen ist auch bei Biosignalen ein wichtiges Gebiet. Typische Anwendungen sind die Untersuchung der Dynamik des Herz-Kreislaufsystems oder die Funktionsprüfung von sensorischen Systemen (visuell, akustisch, somatisch). Aus Sicht der Systemtheorie ist die Ermittlung der Systemfunktion h(t) mit Hilfe der Faltung nach Gl. 6.89 eine methodisch simple Aufgabe: Legt man an den Systemeingang einen Dirac-Impuls G(t) an, so erhält man am Ausgang direkt die Impulsantwort des System h(t). Dies ist zwar in technischen Systemen machbar, aber nicht in biologischen, in den ein solcher Impuls zur Zerstörung von Gewebe führen kann. Als Testsignal muss daher ein biologisch verträglicher Prozess gewählt werden. y t
xt ht
(6.89)
Signalanalytisch eignet sich besonders gut das weiße Rauschen, da es eine konstante spektrale Leistungsdichte besitzt. Die deterministische Beziehung nach Gl. 6.89 muss daher auf stochastische Prozesse ergänzt werden. Zunächst faltet man (Gl. 6.90) beide Seiten der Gleichung mit x(-t), x t y t
x t x t ht
(6.90)
wodurch der Übergang zu statistischen Momenten ermöglicht wird (Gl. 6.91). rxy W rxx W hW
(6.91)
Nach dem Übergang in den Frequenzbereich lässt sich die Systemfunktion aus dem KLDS und dem ALDS ermitteln (Gl. 6.92). Pxy Z
Pxx Z H Z o H Z
Pxy Z Pxx Z
(6.92)
Die Systemantwort im Zeitbereich ergibt sich nach der inversen Transformation (Gl. 6.93).
488
6 Stochastische Prozesse
ht
F -1 ^H Z `
(6.93)
Wird als Eingangssignal weißes Rauschen mit bekannter Leistung verwendet, so reduziert sich die Systemidentifikation auf die Ermittlung des Ausgangsspektrums (Gl. 6.92): H Z
Pyy Z
V w2
Als weißes Rauschen im visuellen Bereich könnte das Bild eines Fernsehers ohne Signal dienen (Bildrauschen), im akustischen Bereich z.B. das Rauschen eines Wasserfalls. Aus Sicht der Sinnesphysiologie sind solche Reize allerdings nicht adäquat. Zum einen ist das weiße Rauschen ein analoges Signal mit stochastisch verteilten Pegeln, zum anderen mit undefinierten und ebenfalls stochastisch verteilten Flanken der Wellen. Da die Empfindlichkeit der Sinne aber sowohl vom Reizpegel als auch von seiner Steilheit abhängt, müssen beide einen bekannten und vorbestimmten Wert haben. Daher scheidet das weiße Rauschen als Sinnesreiz aus. Einen definierten Pegel mit einer definierten Flanke bieten binäre Folgen (Abb. 6.64). Im Sinne der Systemanalyse wäre es dennoch sinnvoll, wenn diese Folgen bezüglich zweiter statistischer Momente dem weißen Rauschen gleich wären. Speziell für diesen Zweck wurden solche Folgen entwickelt, z.B. MLS-Folgen (Maximum Length Sequences). Sie sind aus Sicht der Sinnesphysiologie für die Reizung auch deswegen besonders gut geeignet, weil sie dem Gewöhnungseffekt und Habituation vorbeugen. In der Funktionskontrolle der sensorischen Systeme werden auch heute noch zum Teil periodische Reize verwendet. Die periodische Reizung führt sehr schnell (im Sekundenbereich) dazu, dass sich das sensorische System auf die Periodizität einstellt (adaptiert) und die Aufmerksamkeit (Vigilanz) und in der Folge auch die Amplitude der evozierten Potentiale rasch nachlassen. Eine pseudo-zufällige binäre Folge (PRBS, Pseudo Random Binary Sequence) wird mit einem Algorithmus generiert, sie ist für die Zwecke der Signalanalyse also bekannt. Den Untersuchten erscheint die Folge dennoch als zufällig, verhindert also eine
x(t)
h(t)
Abb. 6.63 Systembeschreibung im Zeitbereich
y(t)
6.4 Statistiken und Spektren höherer Ordnung
489
A
ton
toff TW
TP
Abb. 6.64 Sinnesphysiologisch relevante Parameter eines Reizes: A – Amplitude, ton - Anstiegsflanke, toff – Abfallflank e, TP – Pulsdauer, TW – Wiederholperiode
Adaption des sensorischen Systems und erhält die Vigilanz67 auf einem nahezu gleichen Niveau.
6.4 Statistiken und Spektren höherer Ordnung
6.4.1 Momente und Kumulanten Wie bereits im Kapitel „6.1 Grundlagen der analytischen Statistik“ ausgeführt wurde, kann man bei Biosignalen, biologischen Größen und ihren Parametern im Allgemeinen nicht davon ausgehen, dass sie normalverteilt sind. Die Annahme der Normalverteilung trifft ausnahmsweise und nur auf einige wenige Prozesse zu, beispielsweise auf das thermische Rauschen eines medizinischen Messverstärkers. Bei der Herleitung einiger statistischer Maße (arithmetischer Mittelwert, Summe) kann man auf die Wirkung des ZGWS vertrauen, der zur Normalverteilung führt. Zur Charakterisierung von normalverteilten Größen reichen zwar die ersten beiden zentralen Momente Mittelwert und Varianz. Bei allen anderen Verteilungen werden jedoch auch die weiteren Momente 3. und 4. Ordnung – Schiefe und Exzess – benötigt. Im Allgemeinen braucht man Maße bis zur Ordnung n, wobei zwischen zwei Klassen – Momenten und Kumulanten – unterschieden werden muss. Ab hier wird wegen der einfacheren Schreibweise die Kreisfrequenz Z statt 2Sf verwendet.
67
Aufmerksamkeit, Konzentration, Anspannung
490
6 Stochastische Prozesse
6.4.1.1 Definitionen von Momenten und Kumulanten
^
`
Für einen Satz von n Zufallsvariablen x1k1 , x 2k 2 ,..., xnkn sind die Momente der Ordnung r = k1 + k2 + …+ kn gegeben durch (Gl. 6.94)
>
mr x1k1 , x2k 2 ,..., x nk n
@ E^x
`
k1 k 2 kn 1 x 2 ...x n w r ) Z1 , Z2 ,..., Z n j r wZ1k1 wZ2k 2 ...wZnk n1
, (6.94) Z1 Z 2 ... Z n 0
wobei ) Z1 , Z 2 ,..., Z n E^exp j Z1 x1 Z 2 x 2 ... Z n x n ` ihre erste charakteristische Funktion ist. So ergeben sich beispielsweise für einen Satz von Zufallsvariablen {x1, x2} und die Ordnung r = 2 folgende Momente m2 x1 , x2
E^x1 x2 `
E^x ` m x E ^x ` 2 1
m2 x1 2
.
2 2
2
Der natürliche Logarithmus der ersten charakteristischen Funktion ergibt die zweite charakteristische Funktion < Z1 , Z 2 ,..., Z n ln)Z1 , Z 2 ,..., Z n , durch deren Ableitung im Ursprung man die Kumulanten erhält (Gl. 6.95).
>
cr x1k1 , x2k 2 ,..., xnk n
@
j r w
r
< Z1 , Z 2 ,..., Z n
wZ1k1 wZ 2k 2 ...wZnk n1
Z1 Z 2 ... Z n 0
(6.95)
Zwischen den Kumulanten und Momenten besteht eine Determinantenbeziehung (Gl. 6.96).
cn
1 n 1
m1
1
m2
m1
.
mn
0
.
m2
1
(6.96)
m1
Für die ersten vier Ordnungen gilt für die Beziehung zwischen Kumulanten und Momenten
6.4 Statistiken und Spektren höherer Ordnung
c1
m1
c2
m2 m12
c3
m3 3m2 m1 2m13
c4
m4 4m3 m1 3m22 12m2 m12 6m14
491
.
Im Normalfall kann man die Größen zentrieren, so dass m1 = 0. Dann sind die ersten drei Kumulanten und Momente identisch und für den vierten gilt c4 = m4 – 3m2, was als Exzess bereits bekannt ist. Zur Erweiterung der Kumulanten und Momente auf Prozesse muss die mehrdimensionale Verschiebung W1,…,n eingeführt werden (Gl. 6.97). Dadurch werden aus Zufallsgrößen zeitlich verschobene Varianten eines (oder mehrerer) Prozesse. mnx W 1 ,W 2 ,...,W n 1 E^X k X k W 1 X k W n 1 ` cnx W 1 ,W 2 ,...,W n 1 cn ^X k X k W 1 X k W n 1 `
(6.97)
Unter der normalerweise zulässigen Annahme m1 = 0 (Prozesszentrierung) gilt für die ersten vier Ordnungen (Gl. 6.98) c1x
m1x
E ^X k ` 0
c2x W 1 m2x W 1 c3x W 1 ,W 2 m3x W 1 ,W 2 c4x W 1 ,W 2 ,W 3 m4x W 1 ,W 2 ,W 3 m2x W 1 m2x W 3 W 2
(6.98)
m2x W 2 m2x W 3 W 1 m2x W 3 m2x W 2 W 1
6.4.1.2 Eigenschaften von Momenten und Kumulanten Sind die Sätze von Zufallsvariablen {x1, x2,..., xn} und {y1, y2,..., yn} voneinander unabhängig, so gelten folgende Beziehungen cn x1 y1 , x2 y 2 ,..., xn y n cn x1 , x2 ,..., xn cn y1 , y 2 ,..., y n , mn x1 y1 , x2 y 2 ,..., xn y n z mn x1 , x2 ,..., xn mn y1 , y2 ,..., y n .
Aus diesen Beziehungen folgt, dass man die Kumulanten – im Gegensatz zu den Momenten – dazu nutzen kann, entweder die Unabhängigkeit von Prozessen zu prüfen oder diese dazu zu nutzen, Prozesse voneinander unabhängig zu machen
492
6 Stochastische Prozesse
(siehe Signalzerlegung). Eine weitere wichtige Eigenschaft der Kumulanten ist, dass sie für einen normalverteilten Prozess ab der dritten Ordnung nullwertig sind. Liegt die Summe zi = xi + yi (i = 1, 2, …, n) aus zwei Zufallsgrößen x und y vor, wobei x nichtnormal und y normalverteilt und voneinander unabhängig sind, so gelten unter der Annahme von Nullmittel-Prozessen E{x} = E{y} = 0 ohne Einschränkung der Allgemeinheit folgende Beziehungen cn z1 , z 2 ,..., z n cn x1 , x2 ,..., xn mn z1 , z 2 ,..., z n mn x1 , x2 ,..., xn mn y1 , y 2 ,..., y n
.
Aus dieser Eigenschaft ergeben sich für die Prozessanalyse wichtige Konsequenzen: Unabhängige, normalverteilte Prozesse (meistens technisches Rauschen und Störungen) verschwinden in Kumulanten ab der Ordnung r = 3, aber nicht in Momenten. Zur Analyse von Zusammenhängen wurden bisher Statistiken zweiter Ordnung verwendet (Korrelationskoeffizient, Korrelationsfunktion, Kohärenz), die allein über den linearen Zusammenhang bzw. über den linearen Anteil eines Zusammenhangs Auskunft geben. Bei Biosignalen muss man jedoch davon ausgehen, dass sie selbst sowie auch ihre Abhängigkeiten untereinander starken Nichtlinearitäten unterworfen sind. Hier soll der niedrigste Grad der Nichtlinearität – die zweite Ordnung – behandelt werden. Zur Analyse von quadratischen Nichtlinearitäten werden Momente und Kumulanten dritter Ordnung (Gl. 6.99) benötigt (unter der Annahme m1 = 0). c3x W 1 ,W 2 m3x W 1 ,W 2
E^X k X k W 1 X k W 2 `
(6.99)
Die Erweiterung der Dimension der Verschiebung W zur Berechnung des dritten Kumulanten demonstriert das folgende Beispiel. Beispiel Ein harmonischer Träger mit fT = 50 Hz wird mit einem harmonischen Modulationssignal fm = 5Hz amplitudenmoduliert, wobei der Modulationsindex m = 1 (100%) beträgt. Die AM ist eine nichtlineare Operation zweiter Ordnung (Multiplikation der beiden Signale), daher besteht zwischen dem Träger und dem Modulationssignal eine quadratische Beziehung. Zusätzlich enthält das AM-Signal weißes, normalverteiltes Rauschen (Abb. 6.65 oben). Der zweite Kumulant (AKF) zeigt erwartungsgemäß beide Periodizitäten (Abb. 6.65 unten), wobei das Rauschen in Folge der Mittelwertbildung bei der Kumulantenschätzung reduziert ist. Der zweite Kumulant ist eine gerade Funktion, so dass das ALDS reell ist und die Phasenbeziehung zwischen den beiden Harmonischen verloren geht. Der dritte
6.4 Statistiken und Spektren höherer Ordnung
493
AM-Signal 2
AM
1 0 -1 -2 0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
t/s
Kumulant 2. Ordnung
1
rxx
0.5 0 -0.5 -1 -0.2
-0.15
-0.1
-0.05
0
tau / s
0.05
0.1
0.15
0.2
Abb. 6.65 Ein amplitudenmoduliertes Signal (fT = 50 Hz, fm = 5 Hz) mit Rauschen (oben) und sein Kumulant 2. Ordnung (unten)
0.2
Kumulant 3. Ordnung
0.15 0.1
tau2 / s
0.05 0 -0.05 -0.1 -0.15 -0.2 -0.2
-0.1
0
tau1 / s
0.1
0.2
Abb. 6.66 Kumulant 3. Ordnung des AM-Signals aus Abb. 6.65. Zu beachten sind drei Symmetrieachsen bei W1 = 0, W2 = 0 und W1 = W2, in der Grafik gestrichelt dargestellt
494
6 Stochastische Prozesse
Kumulant (Abb. 6.66) stellt die Abhängigkeit des Produktes dritter Ordnung von zwei unabhängigen Verschiebungen W1 und W2 dar. Wie man in Abb. 6.66 erkennen kann, weist der dritte Kumulant drei Symmetrieachsen auf, so dass er in keiner der orthogonalen Richtungen gerade ist. Das lässt vermuten, dass das zweidimensionale Spektrum, das man mit Hilfe einer 2D-FFT berechnet, komplex ist und daher die Phaseninformation erhält.
6.4.2 Spektren höherer Ordnung In der Literatur wird zwar der Begriff „Spektrum höherer Ordnung“ (HOS, Higher-Order Spectrum, polyspectrum) verwendet, gemeint ist aber die spektrale Leistungsdichte höherer Ordnung (also ab Ordnung 2). Im Weiteren wird hierfür der Begriff HOS verwendet.
6.4.2.1 Definition von Spektren höherer Ordnung Die Ordnung der Momente und Kumulanten richtet sich nach der Summe der Exponenten r, so dass die Dimension der unabhängigen Verschiebungen Wi um einen Freiheitsgrad niedriger ist und r-1 beträgt. Daher kann aus dem dritten Kumulanten das Bispektrum berechnet werden und so fort. Analog dem LDS (Wiener-Kintchine Theorem) berechnet man zunächst die Momente im Zeitbereich und transformiert diese anschließend in den Frequenzbereich (Gl. 6.100). C nx Z1 ,..., Z n 1 M nx
Z1 ,..., Z n 1
f
f
¦ ... ¦ cnx W 1 ,...,W n 1 exp j Z1W 1 .. Z n 1W n 1
W 1 f W n1 f f
f
mnx f
¦ ... ¦
W 1 f W n1
W 1 ,...,W n 1 exp j Z1W 1 .. Z n 1W n 1
(6.100)
wobei folgende Bedingungen erfüllt sein müssen:
Zi d S ,
i 1,2,..., n 1
und
Z1 Z 2 ... Z n 1 d S .
6.4.2.2 Eigenschaften von Spektren höherer Ordnung Die HOS sind im Allgemeinen komplex und lassen sich daher mit Hilfe des Betrages und der Phase darstellen (Gl. 6.101).
6.4 Statistiken und Spektren höherer Ordnung
C nx Z1 ,..., Z n 1
495
C nx Z1 ,..., Z n 1 exp j
(6.101)
Das Kumulantenspektrum 2. Ordnung ist bereits bekannt als das LDS (Gl. 6.102). Da der zweite Kumulant eine gerade Funktion von W ist, ist das HOS 2. Ordnung reell und die Phase geht verloren. f
C 2x Z
¦ c2x exp j ZW
(6.102)
W f
Das Kumulantenspektrum 3. Ordnung oder das Bispektrum wird zunächst aus dem dritten Kumulanten über die zweidimensionale FT berechnet (Gl. 6.103). C3x Z1 , Z 2
f
f
¦ c3x W 1 ,W 2 exp j Z1W 1 Z 2W 2
¦
(6.103)
W 1 f W 2 f
Da der dritte Kumulant (Gl. 6.99) weder eine gerade noch eine ungerade Funktion von (W1, W2) ist, ist das Bispektrum komplex und das erste HOS, das die Phaseninformation (Phasendifferenz) beibehält. Da der dritte Kumulant drei Symmetrien
Bispektrum
150 100
f2 / Hz
50 0
-50 -100 -150 -150
-100
-50
0
50
100
150
f1 / Hz Abb. 6.67 Bispektrum des AM-Signals aus Abb. 6.65. Das Bispektrum weist 6 Symmetrieachsen auf, so dass 12 Symmetriebereiche (dick eingerahmt) entstehen. Für die Analyse eines AutoBispektrums (eines Signals) reicht daher der erste Oktant aus
496
6 Stochastische Prozesse
aufweist (wegen der Produkte 3. Ordnung, Abb. 6.66), ergeben sich durch die 2DFT (Gl. 6.103) doppelt so viele – also sechs – Symmetrien (Abb. 6.67). Für die Signalanalyse eines Signals x(t) reicht daher der erste Oktant bzw. der erste Quadrant des Bispektrums aus. In Abb. 6.67 ist das Bispektrum eines AM-Signals dargestellt, das durch die AM eines harmonischen Trägers bei fT = 50 Hz mit einem harmonischen Modulationssignal mit der Frequenz von fm = 5 Hz entstanden ist. Das Bispektrum zeigt Maxima sowohl bei den Harmonischen selbst, als auch bei den Modulationsprodukten (Mischfrequenzen). Welchen Einfluss die quadratische Kopplung auf die spektralen Spitzen hat, wird im Weiteren untersucht.
6.4.2.3 Schätzung der Spektren höherer Ordnung Die HOS lassen sich analog zum LDS indirekt (über die Momente) oder direkt (Periodogramm) schätzen. Die Vorgehensweise wird exemplarisch an der Berechnung des Bispektrums verdeutlicht. Indirekte Schätzung des Bispektrums Repräsentiert xi(k), k = 0, 1,…, M-1 die Daten des i-ten Segments, so wird das dritte Moment nach (Gl. 6.104) m3i W 1 ,W 2
1 M
s2
¦ xi k xi k W 1 xi k W 2
(6.104)
k s1
berechnet, wobei i = 1, 2,.., K, W = ...-2, -1, 0, 1, 2,..., s1 = max(0, -W1, -W2) und s2 = min(M-1, M-1-W1, M-1-W2). Aus diesen für jedes Segment berechneten Momenten lässt sich über die Mittelung das dritte Moment schätzen (Gl. 6.105). mˆ 3x W 1 ,W 2
1 K
K
¦ m3i W 1 ,W 2
(6.105)
i 1
Der dritte Kumulant kann äquivalent zu dem dritten Moment nach Gl. 6.104 und Gl. 6.105 geschätzt werden. Das Bispektrum berechnet sich nach Gl. 6.103. Direkte Schätzung des Bispektrums Analog zum Periodogramm lässt sich das Bispektrum über die Fouriertransformierten direkt berechnen (Gl. 6.106). C3x Z1 , Z 2 M 3x Z1 , Z 2
X Z1 X Z 2 X Z1 Z 2
(6.106)
6.4 Statistiken und Spektren höherer Ordnung
497
Bei mehreren Realisierungen mittelt man das Bispektrum im polyspektralen Bereich (Gl. 6.107). Cˆ 3x Z1 , Z 2
1 K
K
¦ C3i x Z1 , Z 2
(6.107)
i 1
Eine Fensterung sowohl bei der direkten als auch bei der indirekten Schätzung des Bispektrums ist möglich, aber nicht sinnvoll. Nur wenige - aus dem eindimensionalen Bereich bekannte - Fenster sind auch zweidimensional anwendbar. Hinzu kommt, dass das Bispektrum meistens dazu genutzt wird, Phasenverkopplungen zwischen Harmonischen zu untersuchen, spektral also eher harmonische Nadeln im Rauschen zu detektieren. Da diese oft dicht beieinander liegen (siehe Abb. 6.67), würde sie ein Fenster verschmieren und eine Unterscheidung unmöglich machen. Daher verzichtet man in der Praxis auf eine Fensterung, wenn auch die Varianz im polyspektralen Bereich deutlich (wegen der dritten Potenz der Produkte) höher ist, als bei Leistungsdichtespektren.
6.4.3 Lineare und Quadratische Phasenkopplung Bei den meisten Biosignalen ist die Phase mindesten so wichtig, wie die Amplitude. Sie enthält implizit die Information über die Latenz bzw. über die Laufzeit einer neuronalen Erregung. Vergleicht man die statistischen Eigenschaften von Pegeln (Amplituden) und der Phase der Biosignale, so sind die Phasenschwankungen um eine Größenordnung schwächer als die Amplitudenschwankungen. Das liegt einerseits daran, dass die Signalpegel von einer Reihe nicht beeinflussbarer Faktoren abhängig sind, wie z.B. vom individuellen Körperbau oder von den konkreten, nie exakt reproduzierbaren Messbedingungen. Auf der anderen Seite hängen die Laufzeiten der neuronalen Erregungen größtenteils von der Fortleitungsgeschwindigkeit des neuronalen Gewebes und vom qualitativ immer gleichen anatomischen Aufbau ab, sie sind gewissermaßen mechanisch festgelegt und deswegen relativ stabil. Die Phaseninformation kann man zur Untersuchung von Verkopplungen zwischen neuronalen Strukturen nutzen, z.B. der kortikalen Steuerung von Muskeln. Vor allem in der Hirnforschung versucht man mit Hilfe von Phasenverkopplungen Zusammenhänge zwischen Hirnarealen nachzuweisen. Da die Phaseninformation bereits im KLDS (Gl. 6.85, 6.86) enthalten ist, kann neben der Kohärenz (Gl. 6.88) auch die Phasenkohärenz ermittelt werden (Gl. 6.108).
498
6 Stochastische Prozesse
6.4.3.1 Lineare Phasenkopplung
U xy Z
P Z ½ ° xy ° E® ¾ °¯ Pxy Z °¿
I xy Z arctan
^
Ee
jI xy Z
^ ` Re^Pxy Z `
` (6.108)
Im Pxy Z
Aus einer einzigen Realisierung lässt sich nicht ermitteln, ob eine lineare Phasenbeziehung zwischen den Signalen x(n) und y(n) besteht, da die Phase von stochastischen Signalen gleichverteilt und im Mittel nullwertig ist. Deswegen ist eine Mittelung (wie auch beim LDS) über mehrere Segmente notwendig (Gl. 6.109).
Uˆ xy Z
1 M
M
¦e
m Z jI xy
(6.109)
m 1
Die lineare Phasenkopplung (Gl. 6.109) wird am folgenden Beispiel demonstriert. Beispiel Es wurden zwei Harmonische generiert, s1(n) in jedem Segment m mit einer konstanten Phase von S/4 und einer relativen Frequenz von 0.1 und s2(n) mit einer über die Segmente zufällig gleichverteilten Phase und einer relativen Frequenz von 0.2. Die Länge der Segmente ist N = 1000 und die Anzahl der Segmente für x(n) und y(n) jeweils M = 1000. Die Harmonischen sind additiv im weißen Rauschen mit V2 = 1 eingebettet. Berechnet man für die Signalgemische x(n) und y(n) die Kohärenz, so zeigt sie erwartungsgemäß deutliche Nadeln von Cxy = 1 bei den relativen Frequenzen von 0.1 und 0.2 (Abb. 6.68 oben). Dieser Wert ist unabhängig davon, ob eine lineare Phasenbeziehung besteht oder nicht. Berechnet man die Phasenkohärenz für das Signalgemisch, so zeigt diese bei der relativen Frequenz von 0.1 einen deterministischen (und korrekten) Wert von Uxy(0.1) = 1 für Ixy(0.1) = S/4 = 0.78 (Abb. 6.68 unten). Die Phasenkohärenz des Signals mit zufälliger Phase hat bei der relativen Frequenz von 0.2 einen Wert nahe Null, wie auch alle übrigen, zufällig verteilten Phasen. Dieses Beispiel zeigt, dass die Kohärenz allein – insbesondere bei Biosignalen mit weitgehend kontinuierlichem Spektrum – zur Analyse nicht ausreicht, man sollte
6.4 Statistiken und Spektren höherer Ordnung
499
Kohärenz
Cxy
1 0.8 0.6 0
0.05
0.1
0.15
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.2
0.25
0.3
0.35
0.4
0.45
0.5
relative Frequenz Phasenkohärenz
ro(xy)
1
0.5
0 0
relative Frequenz
Abb. 6.68 Kohärenz (oben) und Phasenkohärenz (unten) linear gekoppelter Signale bei der relativen Frequenz von 0.1 und mit zufälliger Phase bei der relativen Frequenz von 0.2
immer auch die Phasenkohärenz untersuchen. Bei einer ausreichend hohen Anzahl (M > 100) von Segmenten (Realisierungen) verschwindet die zufällige Phase und die deterministische (linear verkoppelte) bleibt übrig.
6.4.3.2 Quadratische Phasenkopplung Während die lineare Phasenkopplung ausschließlich durch lineare Operationen (Addition, Multiplikation mit einer Konstante) entsteht, repräsentiert die quadratische Phasenkopplung eine nichtlineare Beziehung zweiter Ordnung (Multiplikation von zwei Termen, Amplitudenmodulation, Frequenzmodulation). Zur Analyse der QPK (Quadratische Phasenkopplung) sind Kumulanten bzw. Spektren dritter Ordnung notwendig. Das Signalmodell kann am Beispiel eines AM-Signals aus Abschn. „6.4.1.2 Eigenschaften von Momenten und Kumulanten“ erläutert werden. Bei der AM wird der Augenblickswert eines Trägersignals mit einem Modulationssignal multiplikativ beeinflusst, was man allgemein nach Gl. 6.110 ausdrücken kann. u AM t a uT t b c uT t u m t
(6.110)
500
6 Stochastische Prozesse
In Gl. 6.110 sind uT(t) = cos(2SfTt + MT) der Träger, um(t) = cos(2Sfmt + Mm) das Modulationssignal, wobei fT > fm; a, b und c sind Konstanten, die unter anderem den Modulationsindex bestimmen. Unter Ausnutzung von trigonometrischen Beziehungen lässt sich die Beziehung nach Gl. 6.110 in ihre Frequenzanteile zerlegen (Gl. 6.111). u AM t a cos2Sf T MT b cos2Sf m M m (6.111) c c cos2St f T f m MT M m cos2St f T f m MT M m 2 2
Durch die Multiplikation von zwei Signalen, die eine Nichtlinearität zweiter Ordnung ist, entstehen neben den ursprünglichen Frequenzanteilen (erster und zweiter Term) Produkte zweiter Ordnung (auch Mischprodukte genannt), deren Frequenzen sich aus der Summe und der Differenz der ursprünglichen Frequenzen ergeben (dritter und vierter Term in Gl. 6.111). Da auch die Phasen des dritten und des vierten Terms durch die Summe bzw. durch die Differenz der ursprünglichen Phasen gebildet werden, also über diese verkoppelt sind, wird dieser Effekt als QPK bezeichnet. Berechnet man zum Signal nach Gl. 6.111 das Bispektrum (Abb. 6.67) aus einer Realisierung, so erscheinen dort sämtliche Frequenzkombinationen zweiter Ordnung. Aus diesem Bild kann man nicht schlussfolgern, welche Frequenzkomponenten quadratisch verkoppelt sind und welche nicht. Im Bispektrum erscheinen in einer Realisierung solche Komponenten, für die gilt, dass sie aus drei Frequenzen bestehen, wobei eine Frequenz sich aus der Summe der beiden anderen ergibt, also f3 = f1 + f2. Man muss – wie auch bei der linearen Phase (Abschn. 6.4.3.1) – mehrere Realisierungen des Bispektrums mitteln, damit der Einfluss der zufälligen Phase verschwindet. Bei mehreren Realisierungen mittelt man das Bispektrum, analog zum Periodogramm (Gl. 6.112). Cˆ 3x Z1 , Z 2
1 M
M
¦ Cˆ 3x m Z1 , Z 2
(6.112)
m 1
Durch die Mittelung des Bispektrums verschwinden die Anteile, die eine zufällige Phase besitzen und übrig bleiben Komponenten, für die zusätzlich zu der Bedingung der Frequenzsumme auch die Bedingung der Phasensumme M3 = M1 + M2 gilt. Damit erklärt sich auch das Bispektrum des AM-Signals aus Abb. 6.67 und Abb. 6.69. Nach der Mittelung des Bispektrums über 10 Realisierungen verschwinden alle Komponenten außer {f1 = fT = 50 Hz; f2 = fm = 5 Hz; f3 = fT + fm = 55 Hz} sowie {f1 = fT – fm = 45 Hz; f2 = fm = 5 Hz; f3 = 50 Hz} sichtbar in Abb. 6.69 als spektrale Nadeln. Daraus folgt, dass das gemittelte Bispektrum zur Detektion von QPK genutzt werden kann. Es ist auch bei Biosignalen effektiv einsetzbar, wie das Beispiel eines EKG, das mit der Atmung amplitudenmoduliert ist, zeigt (Abb. 6.60, Abb. 6.70, Abb. 6.71). Bezeichnet man die Komponenten mittels der Terminologie der Amplitudenmodulation, so beträgt die Trägerfrequenz fT = 1.02 Hz
6.4 Statistiken und Spektren höherer Ordnung
501
Abb. 6.69 Das Bispektrum eines AM-Signals mit der Trägerfrequenz fT = 50 Hz und der Modulationsfrequenz fm = 5 Hz
Bispektrum eines EKG
3
2
f2 / Hz
1
0
-1
-2
-3 -3
-2
-1
0
f1 / Hz
1
2
3
Abb. 6.70 Bispektrum (direkt geschätzt) eines EKG mit Anteilen der Atmung (siehe Abb. 6.60 Mitte). Im eingekreisten Bereich sind die über die quadratische Phasenkopplung verbundenen Anteile markiert
502
6 Stochastische Prozesse
Bispektrum eines EKG
3
2.5
f2 / Hz
2
1.5
1
0.5
0 0
0.5
1
1.5
f1 / Hz
2
2.5
3
Abb. 6.71 Der erste Quadrant des Bispektrums aus Abb. 6.70
Abb. 6.72 Der erste Quadrant des Bispektrums aus Abb. 6.71 in 3D-Darstellung zum Größenvergleich
6.5 Übungen
503
(Grundfrequenz des EKG) und die Modulationsfrequenz fm = 0.2 Hz (Grundfrequenz der Atmung). Die beiden Komponenten der QPK sind in Abb. 6.70 und 6.71 markiert. Neben diesen gesuchten Komponenten enthält das Bispektrum eine Reihe weiterer, relativ starker Anteile, die quadratisch nicht gekoppelt sind. Das liegt daran, dass diese Anteile in der dritten Ordnung wegen des sehr großen Amplitudenunterschiedes zwischen dem EKG und der Atmung extrem hohe Pegel erreichen, die nur mit einer sehr hohen Mittelungsordnung (M > 1000) unterdrückt werde könnten. In diesem Fall standen nicht genügend Realisierungen zur Verfügung (M = 8), deswegen bleiben die störenden spektralen Nadeln relativ stark erhalten.
6.5 Übungen
6.5.1 Aufgaben 1 Verteilungsdichte und Verteilungsfunktion Berechnen Sie die WS für das auftreten des Wertes x = 0, wenn die Verteilungsdichte der kontinuierlichen Zufallsgröße X der Normalverteilung N(0,1) entspricht. Untersuchen Sie den Einfluss der Klassenbreite des Histogramms auf die empirische Verteilungsdichte einer simulierten, normalverteilten Zufallsgröße X. Der Umfang der simulierten Daten soll N = 106 betragen, die Klassenbreite soll zwischen 'x = 0.1 und 0.01 variiert werden. Zeigen Sie, wie man aus den simulierten diskreten Daten die theoretische Verteilungsdichte näherungsweise erhalten kann. 2 Arithmetischer Mittelwert und Median Der Mittelwert und der Median sind Lageschätzer. Der Mittelwert ist theoretisch der beste Schätzer für normalverteilte Daten – die aber in der Realität nur selten vorliegen – während der Median der robusteste Schätzer ist. Untersuchen Sie die Eigenschaften dieser Schätzer für Produkte zweiter Ordnung, die zur Berechnung von statistischen Maßen zweiter Ordnung verwendet werden (Korrelation, Kovarianz, Kohärenz, Phasenkohärenz). Die Ausgangsdaten zur Berechnung der Produkte sollen standardnormalverteilt sein (P = 0, V = 1), das Datenensemble der Produkte soll N = 30 (Stichprobenumfang) mal M = 104 (Anzahl der Realisierungen) groß sein. Überprüfen Sie die Anwendbarkeit des Grenzwertsatzes.
504
6 Stochastische Prozesse
5%
4% 17%
Personal Wartung
33%
21%
32%
Instand 46%
Prüfung
42%
Abb. 6.73 Aufteilung der Kosten der medizintechnischen Abteilung eines Universitätsklinikums in zwei aufeinanderfolgenden Jahren. Die Gesamtsumme belief sich im ersten Jahr (links) auf etwa 6 Mio. €, im zweiten Jahr (rechts) auf etwa 4.75 Mio. €
3 Statistische Maße und Normierung In einem Universitätsklinikum wurde untersucht, wie die Anteile der Personalund Sachkosten der Abteilung Medizintechnik verteilt sind. Die Anteile der Sachkosten wurden weiter auf Wartung, Instandsetzung und gesetzliche Prüfungen(STK, MTK) untersetzt. Die Aufteilung im Zwischenjahresvergleich zeigt die Grafik in Abb. 6.73. Das zum Zweck der Kostenminimierung bestellte externe Beratungsunternehmen legte diese Grafiken der Geschäftsführung der Universitätsklinik vor, ohne auf die absoluten Kosten einzugehen. Im Zuge der verordneten Kosteneinsparung wurde entschieden, die Personalkosten zu senken. Die Begründung für diese Entscheidung war, dass sich bei der Instandhaltung und den gesetzlichen Prüfungen im Wesentlichen nichts geändert hätte, während die Personalausgaben auf Kosten der Wartung um etwa 4 % angestiegen sind. Und da man bei der Wartung nicht sparen dürfe, mussten die Personalkosten gesenkt, also Stellen gestrichen werden. An Hand dieser Darstellung wäre die Entscheidung vertretbar gewesen. Versuchen Sie – zunächst ohne die absoluten Kosten zu kennen – die beiden Diagramme auf unterschiedlichen Ursachen (Kosten) basierend zu interpretieren. Die absoluten Kosten mit entsprechender Erläuterung sind in der Lösung dieser Aufgabe aufgeführt. 4 Statistische Maße und Gemeinsamkeitskorrelation Medizintechnik produzierende Unternehmen stellten nicht überraschend fest, dass das Gewicht der Patienten langfristig zunimmt und deswegen ihre Produkte, insbesondere im mechanischen Bereich (Betten, Trainer, Ergometer, Liegen, CT, MRT, etc.), robuster und sicherer werden müssen. Während man bisher von einem maximalen Patientengewicht von 100 kg ausgegangen ist, muss man dieses dem-
6.5 Übungen
505
nächst auf 120 kg setzen. Da die meisten großen Unternehmen global agieren, haben sie untersucht, von welchen Faktoren das Körpergewicht abhängt, um sich eine unnötige konstruktive und technologische Überdimensionierung und damit Kosten zu sparen. Nach statistischen Analysen wurden unter anderem folgende Korrelationen festgestellt: 1. Das Körpergewicht korreliert stark positiv mit den auf das BIP (Bruttoinnlandsprodukt) bezogenen Gesundheitsausgaben des jeweiligen Landes. 2. Das Körpergewicht korreliert stark positiv mit der geographischen Länge eines Landes der nördlichen Hemisphäre (von Ost nach West), wenn man Japan als Nullreferenz annimmt (aufsteigend Japan, Russland/China, Osteuropa, Westeuropa, USA). Der Korrelationskoeffizient zwischen den Gesundheitsausgaben und dem Gewicht der Patienten ist so hoch, dass die Strategen beschließen, angefangen in Japan mit einer leichten und preiswerten Konstruktion bis hin in die USA mit aufwändigen maschinenbauähnlichen Gerüsten den Markt zu erobern. Die Formel heißt: Je höher die Gesundheitsausgaben, umso finanzkräftiger die Kunden und daher umso aufwändigere und stabilere Technik zum Verkauf. Aus der unternehmerischen Sicht ein nachvollziehbares Vorhaben. Versuchen Sie, die aufgezeigten Korrelationen (besser: Zusammenhänge) nach dem Kausalitätsprinzip zu analysieren. Die zu beantwortenden Fragen lassen sich folgendermaßen formulieren: Sind die aufgezeigten Effekte eine Folge von direkten Zusammenhängen untereinander oder eher die Folge einer dritten Einflussgröße? Falls ja, welcher Effekt ist primär und kausal? 5 Statistische Tests in der Signalanalyse Der Nachweis des Vorhandenseins eines Biosignals im Rauschen und Störungen ist ein Detektionsproblem der Nachrichtentheorie. Doch bereits mit einfachen parametrischen Tests der Statistik lässt sich ein Biosignal im Rauschen nachweisen. Am Beispiel eines synthetischen VEP, das mit einem doppelt exponentiellen rechtsschiefen Rauschen überlagert ist, soll die Zuverlässigkeit des t-Tests und des Wilcoxon-Tests untersucht werden. Laden Sie dazu die Datei vep_for_test.mat. Zur Kontrolle bilden Sie das Ensemblemittel, das in Abb. 6.74 dargestellten Verlauf zeigen muss. Untersuchen Sie die Zuverlässigkeit vom t-Test und WilcoxonTest für die Stichprobenumgänge N = 10, 30 und 100 im Zweistichprobenfall. Als Zeitpunkt zum Testen des Vorhandenseins eines VEP sollte man sich eine der Wellen aussuchen (nN1 = 67, nP1 = 120, nN2 = 180). Beachten Sie, dass sich die Zeitindizes der Wellen auf die Mitte des Signals beim Zeitindex 250 beziehen. Die Indizes N1, P1 und N2 charakterisieren die entsprechend der in der Elektrophysiologie üblichen Praxis die erste, zweite usw. positive oder negative Welle einer
506
6 Stochastische Prozesse
2.5
2
Signalpegel
1.5
1
0.5
0
-0.5 0
50
100
150
200
250
Zeitindex
300
350
400
450
500
Abb. 6.74 Zeitverlauf des synthetischen VEP (beginnt bei Zeitindex 250) mit Rauschreferenz (Zeitindex kleiner 250) gemittelt über 100 Realisierungen. Das Rauschen ist doppelt exponentiell verteilt und rechtsschief
Reizantwort. Da bei realen Signalen nicht unbedingt vom Nullmittelsignal ausgegangen werden kann, ist der Zweistichprobentest durchzuführen. Für diesen Fall dient ein beliebiger Zeitpunkt vor dem Reiz (Zeitindex < 250) als Referenz für die Nullhypothese. Sie erhalten unterschiedliche Testaussagen in Abhängigkeit vom gewählten Zeitpunkt und vom gewählten Test. Welches Ergebnis und warum werden Sie favorisieren?
6.5.2. Lösungen 1 Verteilungsdichte und Verteilungsfunktion Die Verteilungsdichte einer kontinuierlichen, normalverteilten ZG X mit P = 0 und V = 1 ist entsprechend der Gl. 6.4 mit f x P
0, V
1
1 2S
e
x2 2
6.5 Übungen
507
gegeben. Setzt man x = 0, so erhält man für f(x) = 0.4. Dies ist der Wert der Verteilungsdichte an der Stelle x = 0, nicht aber die WS seines Auftretens. Bei einer kontinuierlichen ZG können unendlich viele Werte auftreten, so dass die WS für das Auftreten von genau x = 0 entsprechend der Gl. 6.2 nullwertig ist: P0 d X d 0
F b
0 F a
0 0 .
Daher kann man die WS einer kontinuierlichen ZG immer nur für ein Intervall angeben, wobei a < b, z.B.
P 10 3 d X d 10 3
dF dx
| x 0
'F 'x
F 10 3 F 10 3 x 0
2 10
3
0.4 .
Dieser Wert entspricht zwar dem der Verteilungsdichte für x = 0, gilt aber für das Intervall [-10-3, 10-3] um x = 0. Aus den diskreten simulierten Daten erhält man entsprechend den Vorgaben folgende Histogramme (Abb. 6.75). Da das Histogramm die absoluten Häufigkeitender Klassen angibt, die bei konstanter Datenmenge für verschiedene Klassenbreiten zwangsläufig voneinander abweichen, ist es schwierig, diese auf die normierte Häufigkeit bzw. auf die Verteilungsdichte zu überführen. Dazu kann man den Fakt ausnutzen, dass die Verteilungsfunktion F(x) am Ende immer den Wert 1 errei-
Abb. 6.75 Histogramme einer simulierten, diskreten, normalverteilten ZG mit P = 0 und V = 1 für einen Datenumfang von N = 106
508
6 Stochastische Prozesse
Diskrete, normierte Verteilungsfunktion
1 0.9 0.8 0.7
F(x)
0.6
' F(x)
0.5 0.4
'x
0.3 0.2 0.1 0
-3
-2
-1
0
1
x
2
3
Abb. 6.76 Verteilungsfunktion der simulierten ZG zur Berechnung der Verteilungsdichte
chen muss. Man kann daher die absoluten Häufigkeiten der Histogramme diskret integrieren (kumulativ aufsummieren) und die Summe durch die Anzahl aller Werte normieren (k ist der Klassenindex im Histogramm, h(k) die absolute Häufigkeit einer Klasse). F k
1 N
k
¦ hi .
i 1
Man erhält die diskrete Verteilungsfunktion, wie in Abb. 6.75 dargestellt. Um die diskrete, normierte Verteilungsdichte zu erhalten, differenziert man die Verteilungsfunktion: f k
F k 1 F k xk 1 xk
F k 1 F k . 'x
Auf diese Weise lässt sich aus jeder empirischen Verteilungsdichte über das Histogramm eine normierte Verteilungsdichte gewinnen. Die Normierung ist (wie früher schon erwähnt) wichtig, um ZG untereinander bzw. ihre empirischen Verteilungen mit einer theoretischen Verteilung zu vergleichen (uebung_6_1.m).
6.5 Übungen
509
2 Arithmetischer Mittelwert und Median Man generiert zunächst normalverteilte Daten im Format x(2, N*M) und multipliziert anschließend die Zeilen elementweise miteinander (uebung_6_2.m) x2 k
2
xi, k . i 1
Die Produkte zweiter Ordnung ordnet man in ein Datenensemble entsprechend den Vorgaben um x2 n, m 1d nd N ,1d md M : x2 n m 1 N . Anschließend berechnet man über die Spalten den Mittelwert x2 m
1 N
N
¦ x2 n, m
n 1
und den Median ~ x2 m
x2 n, m P X d x m
0.5
.
Berechnet man die Varianz der Mittelwerte und Mediane (M = 105), so erhält man (im konkreten Fall von den simulierten Daten abhängig) in etwa folgende Ergebnisse: varx2 m 0.0332, var~ x2 m 0.0084 .
Daraus folgt, dass der Median für die Produkte zweiter Ordnung ein etwa viermal effizienterer Schätzer ist als der Mittelwert. Vergleicht man die empirischen Verteilungen der Produkte sowie des Mittelwerts und des Medians, so kann man folgendes feststellen (Abb. 6.77): -
Sind die Ausgangsdaten normalverteilt und unkorreliert, so sind ihre Produkte zweiter Ordnung doppelt exponentiell und symmetrisch verteilt. Deswegen ist der Exzess wesentlich höher als bei der Normalverteilung (etwa 6.0) und der Mittelwert ist nicht mehr der beste Schätzer. Da der Median robuster ist, zeigt er auch eine geringere Varianz, womit sich seine bessere Effizienz begründet.
-
Die Mittelwerte sind normalverteilt (Abb. 6.77 Mitte) mit der Varianz von 1/30 = 0.033, was auf die Wirkung des ZGWS zurückzuführen ist. Dies ist
510
6 Stochastische Prozesse
ein experimenteller Nachweis des ZGWS. Allerdings ist die Varianz etwa viermal höher als die der Mediane (Abb. 6.77 unten). -
Fazit ist, wenn arithmetischer Mittelwert nicht zwingend verwendet werden muss (lineare Operationen gefordert, begrenzte Rechenleistung), so ist der Median zu bevorzugen.
8
x 10
5
Histogramm von Produkten 2. Ordnung
h(x2)
6 4 2 0 -10
-5
h(x2mean)
6000
0 5 x2 Histogramm von Mittelwerten
10
4000 2000 0 -1
h(x2med)
2
x 10
-0.5 4
0 0.5 x2mean Histogramm von Medianen
1
1.5 1 0.5 0 -1
-0.5
0 x2med
0.5
1
Abb. 6.77 Verteilung von Produkten 2. Ordnung (oben), doppelt exponentiell (N = 30, M = 104) für unkorrelierte, normalverteilte Ausgangsdaten; Verteilung von Mittelwerten (Mitte) sowie von Medianen (unten)
6.5 Übungen
511
3 Statistische Maße und Normierung In der medizintechnischen Abteilung des betrachteten Universitätsklinikums wurden durch verschiedene Maßnahmen die absoluten Kosten insbesondere in der Wartung und der Instandhaltung radikal gesenkt (Tab. 6.3). Das Personal wurde demnach um eine Größenordnung effektiver eingesetzt. Durch die Kostenreduktion der beiden Posten Wartung und Instandhaltung und die Normierung auf die Gesamtsumme ist zwangsläufig der relative Anteil der Personalkosten gestiegen. Ohne einen Bezug zu den Ausgangsdaten herzustellen entsteht eine formale Korrelation, die unterschiedlich interpretiert werden kann: -
Die Personalausgaben sind (z.B. wegen neuer Tarifabschlüsse) auf Kosten der Wartung gestiegen, während Instandhaltung und Prüfungen nahezu konstant geblieben sind (Aufgabenstellung),
-
Die Wartungskosten wurden wegen der verbesserten Qualitätssicherung reduziert, dafür sind aber die Personalkosten unangemessen gestiegen,
-
Die Instandhaltung muss effektiver werden, ihre Kosten sanken gerade mal um ein Prozent,
-
Die Prüfungen wurden leicht, aber dennoch teuerer.
Orientiert man sich an den Ausgangsdaten in Tab. 6.3, so stellt man fest, dass alle oben aufgeführten Schlussfolgerungen falsch sind: -
Die Personalausgaben und Prüfungskosten sind konstant geblieben,
-
Die Kosten für Wartung und Instandhaltung sanken deutlich um 27% bzw. um 25%.
In der Summe wurden also bei konstanten Personalkosten etwa 20 % aller Kosten der Medizintechnik eingespart. Ein Ergebnis, das eher für eine verbesserte Wirtschaftlichkeit spricht und überhaupt keinen Anlass für Stellenstreichungen gibt. Dieses Beispiel zeigt, dass selbst korrekt berechnete statistische Maße und erhobene empirische Daten durch eine wirtschaftlich und/oder politisch motivierte Fehlinterpretation zur nahezu beliebigen Argumentation verwendet werden. Tabelle 6.3 Absolute Kosten (gerundet) in Tausend € der medizintechnischen Abteilung eines Universitätsklinikums
1. Jahr 2. Jahr
Personal 1000 1000
Wartung 2750 2000
Instand 2000 1500
Prüfung 250 250
512
6 Stochastische Prozesse
4 Statistische Maße und Gemeinsamkeitskorrelation In der Analyse der Zusammenhänge kann man folgendermaßen vorgehen (es gibt jedoch auch andere Wege): 1. Das Körpergewicht und die Gesundheitsausgaben korrelieren stark positiv. Kann es einen funktionalen Zusammenhang geben? Man könnte die These aufstellen, dass Übergewicht zur erhöhten Morbidität führt, die steigende Kosten zur Folge hat. Dieser Effekt ist jedoch im Vergleich zu anderen Diagnosen nicht signifikant (Herz-Kreislauf, Krebs, Diabetes, etc.). Umgekehrt könnte man vermuten, dass hohe Gesundheitsausgaben die Menschen zur Gewichtszunahme motivieren. Diese Implikation ist jedoch im realen Leben nicht nachweisbar. Es kann also keinen funktionalen Zusammenhang geben. Daher muss es eine gemeinsame Einflussgröße geben, von der beide Parameter abhängen. Gesundheitsausgaben hängen von der Wirtschaftskraft eines Landes ab. Und bekanntlich nimmt das Körpergewicht im Mittel mit dem Wohlstand zu, hängt also auch von der Wirtschaftskraft ab. Dies ist die gemeinsame Einflussgröße. 2. Das Körpergewicht korreliert stark mit der geografischen Lage eines Landes. Es nimmt mit der Entfernung von Japan in Richtung Westen tendenziell zu. Die Wirtschaftskraft der Länder auf diesem Pfad ändert sich jedoch nicht monoton. Es muss also eine weitere Einflussgröße geben, denn die geografische Länge allein kann es nicht sein. Dafür sind die klimatischen und geografischen Bedingungen sowie die Lebensräume nicht unterschiedlich genug. Bereits eine einfache Analyse der möglichen Ursachen zeigt, dass mit hoher Wahrscheinlichkeit die Geschichtsentwicklung, die Mentalität, die Essgewohnheiten und Einstellung zur körperlichen Anstrengung die mögliche Erklärung sind. 3. Bei diesen beiden Überlegungen blieb zunächst offen, wie stark die jeweiligen Einflüsse sind. Um das beurteilen zu können, müsste man die konkreten statistischen Daten einer multivariaten Analyse unterziehen, z.B. der Faktorenanalyse.
5 Statistische Tests in der Signalanalyse Entsprechend der Vorgehensweise bei statistischen Tests wird zunächst untersucht, wie die zu testenden Daten verteilt sind (Abb. 6.78). Die empirische Verteilung der Zufallsgrößen (Datenensemble) entspricht qualitativ einer doppelt exponentiellen, rechtsschiefen Verteilung. Die Verteilung innerhalb der Histogrammklassen ist nicht gleichmäßig. Bereits aus diesem Merkmal lässt sich schlussfolgern, dass die Verteilung der ZG nicht identisch ist. Daher kann man nicht von Stationarität ausgehen, wodurch auch das Ergodizitätsprinzip nicht angewandt werden kann. Diese Schlussfolgerung bestätigt auch die visuelle Inspek-
6.5 Übungen
513
80
Empirische Verteilung eines VEP-Datenensembles
70
absolute Häufigkeit
60 50 40 30 20 10 0 -10
-5
0 5 10 Signalpegel (digital)
15
20
Abb. 6.78 Empirische Verteilung des Datenensembles aus Aufgabe 6.5.1.5 (uebung_6_5.m). Qualitativ zeigt das Histogramm eine doppelt exponentielle, rechtsschiefe Verteilung. Zu beachten ist, dass die Verteilung innerhalb der Klassen nicht gleichmäßig ist.
tion des Datenensembles (Abb. 6.74). Der arithmetische Mittelwert der ZG entlang der Zeitachse ist offensichtlich nicht konstant, so dass weder Stationarität noch Ergodizität angenommen werden kann. Der statistische Test muss daher auf einen signifikanten Unterschied zwischen paarweise einzelnen Zeitpunkten angewandt werden. Sinnvollerweise wählt man zum Testen die Zeitpunkte aus, zu den die zu erwartenden Wellen auftreten können: N = 317, 370, 430. Als Referenz für nicht vorhandenes Signal kann ein beliebiger Zeitpunkt aus dem Rauschen gewählt werden (N = 1...250), hier mit N = 100. Die statistischen Tests der paarweisen Stichproben ergeben folgende Aussagen (eine 1 entspricht einer Ablehnung der Nullhypothese):
514
6 Stochastische Prozesse
x T-Test H0
N = 317
N = 370
N = 430
M = 10
0
0
0
M = 30
0
1
0
M = 100
0
1
0
H0
N = 317
N = 370
N = 430
M = 10
0
0
0
M = 30
0
0
0
M = 100
1
1
1
x Wilcoxon-Test
Der T-Test lehnt die Nullhypothese bereits bei einem Stichprobenumfang von M = 30 und der größten Welle (N = 370) ab. Sie wird jedoch bei den anderen Zeitpunkten selbst bei dem relativ hohen Stichprobenumfang von M = 100 nicht abgelehnt. Der Wilcoxon-Test lehnt die Nullhypothese erst bei M = 100 für alle getesteten Zeitpunkte ab. Da die Voraussetzung von normalverteilten Daten für den T-Test massiv verletzt ist (doppelt exponentiell, rechtschief), sollte man eher dem Wilcoxon-Test vertrauen. Dieser ist zwar sehr konservativ, aber robust gegen die Verteilung der Daten.
Literatur [1] Weiß: Basiswissen Medizinische Statistik
Glossar Ableitung (Messtechnik) Erfassung von elektrischen Biosignalen mittels Elektroden. Da das biologische Objekt aus der Sicht der elektrischen Feldtheorie ein geschlossener Volumenleiter ist, können keine Potentiale, sondern immer nur Potentialdifferenzen erfasst werden. In der Fachsprache wird dennoch der Begriff "Potential" verwendet. Je nach Elektrodenkonfiguration und Messsystem unterscheidet man zwei Ableitungsarten. - Unipolare Ableitung: Eine Elektrode wird als Referenz deklariert (z.B. A1,2 im EEG, Mitte der Extremitätenableitungen bei Wilson im EKG) und alle anderen Elektrodensignale bezieht man auf diese Referenz (Potentialdifferenz zwischen Elektroden und Referenz). - Bipolare Ableitung: Potentialdifferenz zwischen aktiven Elektroden, referenzfrei. Aus einer unipolaren Ableitung lassen sich bipolare Ableitungen berechnen, daher ist sie zu bevorzugen. Aus bipolaren Ableitungen lässt sich die unipolare nicht berechnen. Jede messtechnische Ableitung (Elektroden) entspricht mathematisch der ersten räumlichen Ableitung bzw. der Projektion einer elektrophysiologischen Aktivität auf den Vektor zwischen Ableitpunkten bzw. zwischen Ableitpunkt und Referenz. Abtastrate Anzahl von Abtastperioden in einer Sekunde. Man verwendet die Einheit „sps“ (samples-per-second), die physikalisch der SI-Einheit s-1 entspricht. Oft wird fälschlicherweise der Begriff „Abtastfrequenz“ verwendet und in Hz angegeben (Siehe Frequenz). Die Abtastung erfolgt technisch durch S&H (Sample & Hold), die zeitlich einen impulsartigen oder sprunghaften Charakter haben. Daher ist eher der Begriff "Abtastrate" angemessen. Allpassfilter Filter mit konstantem Amplitudenfrequenzgang (meistens A = 1) und vordefiniertem Phasenfrequenzgang. Wird bspw. zur Korrektur eines ungünstigen Phasenfrequenzganges verwendet. Basisband Das Basisband ist das originale spektrale Band eines Signals. Ein moduliertes Signal (Amplitudenmodulation, Frequenz- und Phasenmodulation, Digitale Modulationen) wird nach seiner Übertragung durch entsprechende Demodulation in sein Basisband zurück gebracht (Radio, Fernsehen, Telefon). Ein abgetastetes Signal wird als Zahlenfolge trotz der theoretisch unendlichen spektralen Periodizität und Spiegelung immer im Basisband verarbeitet.
P. Husar, Biosignalverarbeitung, DOI 10.1007/978-3-642-12657-4, © Springer-Verlag Berlin Heidelberg 2010
516
Glossar
Chirp Ein harmonisches Signal, dessen Frequenz sich mit der Zeit ändert. Die Bezeichnung kommt aus der akustischen Analyse, in der ein solches Signal wie Zirpen klingt, daher „chirp“. In der Natur produzieren z.B. Fledermäuse hochfrequente Chirps (Ultraschall), mit deren Hilfe sie sich im Raum orientieren und die Abmessungen von Objekten schätzen. Drift Sehr langsame, ungewollte Veränderungen von Eigenschaften eines Sensors oder Systems, z.B. temperaturabhängige Veränderung der Verstärkung oder des Elektrodenpotentials. Energiesignal Gebräuchlich vor allem im Verbundbereich Zeit-Frequenz zur Beschreibung von Signalen mit endlicher Energie. Diese bilden in der Zeit-Frequenz-Ebene ein geschlossenes Gebilde, z.B. eine transiente Reizantwort. Fensterung (windowing) Transformationen (Fourier, Hilbert, Laplace) und statistische Maße (Korrelationsfunktion, Wahrscheinlichkeit) sind gewöhnlich über eine unendlich lange Zeit definiert. In der Signalanalyse muss man jedoch mit endlichen Zeiten arbeiten. Deswegen ist es notwendig, jeweils nur einen zeitlichen Ausschnitt des analysierten Signals zu verarbeiten. Man legt über das Signal ein Zeitfenster, schneidet also einen Signalabschnitt aus. Im einfachsten Fall entspricht das mathematisch einer Multiplikation des Signals mit einem Rechteckfenster. Da aber verschiedene Merkmale des Fensters je nach Aufgabe gefordert werden, kann das Fenster eine andere Funktion haben (Hamming, Hann, Blackman, Bartlett, Kaiser, usw.). Filter - spektrales Konventionelle Interpretation des Begriffs "Filter" geht auf seine Fähigkeit zurück, spektrale Anteile eines Signals zu unterdrücken bzw. durchzulassen. - adaptives Filter, dessen Koeffizienten im Zuge einer Optimierung (meistens Fehlerminimierung) sich zeitlich ändern (können) und sich so an veränderte Bedingungen adaptieren. Unter Adaption wird hier die Anpassung eines Systems verstanden (die Systemparameter ändern sich mit der Zeit), nicht die eines Signals. - zeitvariables Filter, dessen Koeffizienten sich ähnlich wie beim adaptiven Filter mit der Zeit ändern. Allerdings adaptieren sie nicht auf Veränderungen, sondern sind vor der Filterung durch verschiedene Vorgaben (ROI, Region-Of-Interest) festgelegt. Frequenz Anzahl von Perioden einer (auch komplexen) harmonischen Schwingung in einer Sekunde.
Glossar
517
- momentane Frequenz: korrekte Anwendung des Begriffs setzt eine harmonische Schwingung mit veränderlichen Frequenz voraus. Fälschlicherweise wird sie bei Biosignalen mit kontinuierlichem Spektrum angewandt. - dominante Frequenz: auch als mittlere Frequenz bezeichnet, bedeutet die Frequenz, die in etwa in der Mitte eines begrenzten Spektrums liegt bzw. bei der das Leistungsmaximum auftritt, z.B. die Mittenfrequenz eines EMG liege bei 200 Hz. Dominante Frequenz ist ein praktikabler Ersatz für die streng definierte Momentanfrequenz. Grundfrequenz Die niedrigste Frequenz eines periodischen Zeitverlaufs, die erste Harmonische. Über ihr liegen die Oberwellen. Die erste Oberwelle ist die zweite Harmonische. Grundwelle Der zur Grundfrequenz gehörende Anteil des Zeitverlaufs eines Biosignals. Harmonische (Schwingung) Sinusförmiger Verlauf (auch komplex) mit einer einzigen spektralen Komponente. Koinzidenz Gleichzeitiges, simultanes Auftreten von Ereignissen, Signalen bzw. ihrer Parameter. Unter gleichzeitig versteht man hier schnell genug, um zwei Ereignisse einem Zeitpunkt zuordnen zu können. Linienspektrum Mehrere harmonische Komponenten, meistens als Oberwellen einer Grundwelle, "spektrale Nadeln". Leistungssignal Gebräuchlich vor allem im Verbundbereich Zeit-Frequenz zur Beschreibung von Signalen ohne zeitliche Beschränkung, d.h. mit unendlicher Energie aber mit endlicher Leistung, z.B. Netzstörung. Momentanfrequenz Aktuelle Frequenz im betrachteten Zeitpunkt. Anwendbar ausschließlich bei Monokomponentensignalen, wie FM. Sinngemäß angewandt bei Biosignalen mit kontinuierlichem Spektrum, wobei meistens die Frequenz der energiereichsten Komponenten gemeint ist. Multiplex Verteilung der zu übertragenden Information in mehreren Kanälen auf verschiedene Frequenzbereiche (Frequenzmultiplex, gleichzeitige Übertragung) oder in Pakete auf der Zeitachse (Zeitmultiplex, sequentielle Übertragung). Optimalfilter Siehe Wienerfilter
518
Glossar
Phase Als Phase (Phasenwinkel) bezeichnet man das Argument einer sinusförmigen Funktion. Das heißt implizit, dass die Funktion harmonisch sein muss (eine diskrete Frequenz), obwohl sich die Frequenz mit der Zeit auch ändern kann. Gerade im Bereich der Biosignalverarbeitung wird der Begriff der Phase oft unkorrekt, sogar missverständlich verwendet. Aus der Nachrichtentechnik ist der Begriff der "Momentanphase" bekannt, der zur Beschreibung der Phase eines harmonischen Signals mit veränderlicher Frequenz oder Phase verwendet wird (Frequenzmodulation, Phasenmodulation, FSK, PSK). Da Biosignale ihrer Natur nach ein kontinuierliches Spektrum besitzen, also keine reinen Harmonischen sind, so ist bei der Verwendung der "Phase" große Vorsicht geboten. Über Phase kann man nur bei tatsächlich harmonischen bzw. periodischen Biosignalen sprechen, so z.B. nach einer akustischen Reizung mit 400 Hz in der Analyse der AEP im EEG. Da im Normalfall die Anfangsbedingungen bezüglich der Phase eines Biosignals auch nicht bekannt sind (Latenz bzw. Anfangsphase), müsste man korrekterweise den Begriff "Phasendifferenz" verwenden. Diese bildet sich meistens zwischen zwei Signalen aus, z.B. zwischen einer Reizfolge und einer Reizantwort. In der Fachsprache wird dennoch der Begriff "Phase" auch für die Phasendifferenz verwendet. Rate Anzahl von Perioden eines nichtharmonischen Zeitverlaufs in einer Zeiteinheit. Ein periodischer, nichtharmonischer Zeitverlauf besteht aus mehreren Harmonischen. Beispielsweise enthält das EKG mit der Rate von 60 min-1 mindestens dreißig Harmonische im Abstand von jeweils 1Hz. Rekursionsfilter Filter, dessen Koeffizienten einen Polynomquotienten bilden. Dem Nenner, der mit Hilfe der Rekursion realisiert wird, verdankt er seinen Namen. Seitenband, sideband Spektrales Band, welches aus dem Basisband symmetrisch um eine Trägerfrequenz (carrier) durch Modulation angeordnet wird. Analog zur Abtastung entstehen bei einer Amplitudenmodulation zwei um die Trägerfrequenz spiegelbildlich angeordnete Bänder (DSB, double sideband). Da beide Bänder identische Information enthalten, reicht zur Übertragung ein einziges Band (SSB, single sideband). Dafür kann man wahlweise das untere (LSB, lower sideband) oder das obere Seitenband (USB, upper sideband) verwenden, um Bandbreite zu sparen. Spektrogramm Quadratische Zeit-Frequenz-Darstellung, Zeitverlauf des Leistungsdichtespektrums. Transversalfilter Ein Filter, dessen Filterkoeffizienten einen einzigen Vektor bilden, also keinen Polynomquotienten wie beim Rekursionsfilter. Der Begriff Transversal kann so ge-
Glossar
519
deutet werden, dass der Vektor quer zur Signalrichtung steht, also zur Berechnung des Ausgangssignals fortlaufend das Skalarprodukt xT(n).h(m) gebildet wird (faktisch eine Faltung).
Vigilanz Aufmerksamkeit, Konzentration vor allem in Erwartung neuer Ereignisse, Informationen. Wienerfilter Filter, dessen Koeffizienten optimal im Sinne der Statistik zweiter Ordnung (Korrelation) so eingestellt sind, dass der statistische Restfehler nach der Trennung zwischen einem gewollten (desired signal) und einem ungewollten (noise) Signal aus einem ursprünglichen Signalgemisch minimal ist.
Index
A Ableitung bipolare 114, 119 unipolar 115 unipolare 119 Abtasttheorem 125 Adaptive Noise Cancelling 338 Aktionspotential 3 Algorithmus LMS 335 NLMS 336 Widrow-Hoff 335 Aliasing 125 Amplitudendemodulation 19, 22, 33 Amplitudenmodulation 34 Anisotropie 9 Arrayprocessor 349 Artefakt Bewegungs- 20 Ausgleichsvorgang 20 Ausreißer 409, 410 Autokorrelationsfunktion 204, 230, 342 Averager 354 Averaging 351 Axon 1
B Basisband 125 Beam 347 Beamformer 347, 349 Delay-and-Sum 347 Delay-And-Sum 347 Bias 421 Bispektrum 487
C CAR 119 CMRR 47 CSD 122
D Datenschar 456 Determinismus 19 Differenz -signal 46
Differenzsignal 43 Differenzspannung 54 Differenzverstärker 43, 53
E Effizienz 423 Elektrode indifferente 114 Elektrodenspannung 49 ensemble 456 Erdung 117 Ergodizitätsprinzip 457 Erwartungstreue 421 asymptotische 422 Extremwert 409 Exzess 389
F FFT 212 Filter adaptives 330 Allpass 317 Bessel 92 Butterworth 89 Cauer, elliptisches 91 nicht rekursiv 309 nullphasig 317 Optimal- 333 räumliches 349 rekursiv 309, 314 Rekursives 314 spatial 349 transversal 309 Tschebyscheff 90 Wiener- 333 Fouriertransformation 195 diskrete 207 diskrete, inverse 207 kurzzeitige 226 Frequenz dominante 189 momentane 189 Nyquist- 134 Frequenzgang Amplituden- 48
522 Phasen- 48, 52 Funktion Modell- 330 sinc 201 Ziel- 330
G Gleichtakt 46 -signal 46 -spannung 53 -unterdrückung 47 Grenzfrequenz -untere 49 Grundgesamtheit 405 Gruppenlaufzeit konstante 92
H Herzrate momentane 281 Herzratenvariabilität 189 Hjorth-Operator 123
I Impulsinvariant 314 Technik 314 Inhomogenität 9 Interquartil 394
K Konfidenzintervall 428 Konsistenz 422 Korrelation 412 Korrelationskoeffizient nach Pearson 412 Kovarianz 412 Kreuzkorrelationsfunktion 203, 230
L Latenz 489 Least Mean Squares 333 Leck-Effekt 216 Leistungsdichte Auto- 204 Kreuz- 204, 474 spektrale 474 Leistungsdichtespektrum 462
M Map 12 Masse elektrische 117 Maximum-Likelihood 425 Median 389 Membranstrom 3 Methode Bartlett 469 Blackman-Tukey 468
Index Welch 469 Mittelwert getrimmter 391 Modulator Delta 144 Multiplex Frequenzmultiplex 130 Zeitmultiplex 133
N Nulllinie 169
P Parseval-Theorem 461 Pegelschwelle feste 178 relative 178 Periodogramm 462 modifiziertes 468 Phasenkohärenz lineare 489 Phasenkopplung linear 491 lineare 491 quadratische 491 Potential exzitatorisch 6 inhibitorisch 6 postsynaptisch 6
Q Quantil 389, 394 Quartil 394 Quellpotential 122
R Rangsstatistik 389 Rangtransformation 447 Referenz 117 -freie 119 reale 119 virtuelle 118, 119 Refraktärzeit absolute 2 relative 3 Regression lineare 427 ROC 436
S Schätzer 419 Maximum Likelihood 426 Schätzfunktion 419 Schiefe 389 Segmentierung 461 Sensitivität 434 Signal
Index analytisches 233 Signal-Rausch-Verhältnis 47 SNR 47 Spektrogramm 230 Spektrum breitbandig 23 höherer Ordnung 486 kontinuierliches 23 Kreuzleistungsdichte- 474 Linien- 22 schmalbandiges 23 Winkel- 346 Spezifität 434 Stabilität numerische 315 systemanalytische 315 stationär 458 Stationarität schwache 458 starke 458 Sternpunkt 119 STFT 226 Stichprobe 406 repräsentativ 406 Störung periodisch 15 transient 15 Störungseinkopplung elektromagnetische 33 galvanische 24 induktive 31 kapazitive 26 Stromquellendichte 122 Synapse 1 Synthesefenster 227
T Test t - 440 Wilcoxon 447 Testgröße 436 TFD Time-Frequency-Distribution 226 Theorem Wiener-Chintchine 232 Transformation
523 Wavelet 254 Z 308 Transversalfilter 318
U Unschärferelation Heisenbergs 223 Unterabtastung 129
V Verbundrepräsentation 221 Verlauf harmonischer 16 impulsartiger 19 nichtharmonischer 19 periodischer 16 quasiperiodischer 19 rechteckförmiger 19 stochastischer 19 transienter 20 Verstärkerrauschen 50 1/f-Rauschen 51 Halbleiterrauschen 50 thermisches 50 Verteilung diskrete 385 Gauß 384 Normal- 384 Student 429 t-Verteilung 429 Verteilungsdichte 384 Verteilungsfunktion 384 Vertrauensintervall 428 Verzerrung 421
W Wavelet 254 Basis 266 Morlet 254 Sinc 266 Wiener-Chintchin-Theorem 465 Wiener-Kintchine-Theorem 204
Z Zeit-Frequenz-Verteilung Wigner 223 Zufallsgröße genormt 406