Messtechnik 7. Auflage
Uwe Kiencke · Ralf Eger
Messtechnik Systemtheorie für Elektrotechniker 7. Auflage
123
Prof. Dr.-Ing. Uwe Kiencke Ralf Eger Universität Karlsruhe Institut für Industrielle Informationstechnik Hertzstr. 16 76187 Karlsruhe Germany
[email protected] [email protected]
ISBN 978-3-540-78428-9
e-ISBN 978-3-540-78429-6
DOI 10.1007/978-3-540-78429-6 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2008, 2005, 2001, 1995 Springer-Verlag Berlin Heidelberg Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Satz: Digitale Druckvorlage der Autoren Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: WMXDesign GmbH, Heidelberg Gedruckt auf säurefreiem Papier 987654321 springer.com
Vorwort zur 7. Auflage
Nach mehreren Jahren überwiegen die guten Erfahrungen im Lehrbetrieb mit der 6. Auflage des Buches Messtechnik. Weil die 6. Auflage aufgrund der hohen Nachfrage bereits wieder vergriffen ist, haben wir uns entschlossen diese 7. Auflage auf den Weg zu bringen. In der Erstellung der 6. Auflage haben sich unglücklicherweise Fehler eingeschlichen, die Dank der interessierten Hörer- und Leserschaft entdeckt werden konnten und nun in dieser Auflage korrigiert worden sind. Die bis vor einiger Zeit verfügbaren Aufgaben zum Buch wurden aus didaktischen Gründen aus dem Internet heraus genommen. In der Übung zur Vorlesung werden Aufgaben zu den behandelten Themen vorgerechnet, um die Theorie und die praktische Berechnungen gezielt zu erlernen und zu vertiefen. Danken möchten wir den Hörern des Faches und Lesern des Buches Messtechnik für die Hinweise zu den Fehlern sowie Herrn Dr.-Ing. Jörg Barrho und Frau Dipl.Ing. Lena Webersinke für die nützlichen Kommentare und die Überarbeitung des Manuskripts.
Karlsruhe, im Frühjahr 2008
Uwe Kiencke, Ralf Eger
Vorwort zur 5. Auflage
Die vorliegende 5. Auflage des Buches Messtechnik ist aus der 4. Auflage durch vollständige Überarbeitung hervorgegangen. Während früher unterschiedliche Messaufgaben fallweise behandelt wurden, ist in Zukunft ein systemorientiertes Vorgehen erforderlich, das auf mathematischen Grundlagen aufbaut. Es sollen nicht spezielle Technologien oder physikalische Effekte untersucht werden, sondern der Weg von dort zu Messsystemen, die Teil von Automatisierungs- und Informationssystemen sind. Eine wesentliche Neuerung dieses Buches ergibt sich aus der besseren Anknüpfung an die Theorie stochastischer Prozesse. Hierzu wurde ein eigenes Kapitel eingefügt, welches die theoretischen Grundlagen und die systematische Einteilung von Signalklassen zusammenfasst. Dies bildet die Basis für die Korrelationsmesstechnik, die um zahlreiche Anwendungen ergänzt wurde. Für die Systemanalyse werden die theoretischen Zusammenhänge von stochastischen Prozessen in LTI-Systemen und der Begriff der Leistungsdichte eingeführt. Mit diesen Grundlagen kann das Wiener-Filter als ein weitergehendes Verfahren vorgestellt werden. Die Signalverarbeitung gehört heute zu den Grundlagen des Elektrotechnikstudiums. Der Übergang von der analogen in die digitale Welt wird hierbei meist idealisiert betrachtet. In diesem Buch wird eine umfassende systemtheoretische Beschreibung von Fehlern bei der digitalen Messdatenerfassung durch Quantisierung, Jitter oder nicht ideale AD-Wandler vorgestellt. Der Erfassung von frequenzanalogen Signalen wurde wegen der wachsenden Bedeutung ein eigenes Kapitel gewidmet. Nach einer theoretischen Definition des Frequenzbegriffes aus dem 2. Moment der Leistungsdichte werden die Fehlereinflüsse durch Abtastung und Quantisierung umfassend mit stochastischen Grundlagen beschrieben. Mit Hilfe eines Least-Squares-Schätzers wird zusätzlich ein dynamisches Fehlerkompensationsverfahren für mechanische Sensorradfehler vorgestellt, das in der Automobiltechnik verwendet wird. Die Übungsaufgaben zur Vertiefung des Stoffes wurden erweitert und an die neuen Inhalte angepasst. Auf eine Aufnahme in dieses Buch wurde dagegen verzichtet. Vielmehr können die Aufgaben mit ausführlicher Musterlösung im Internet unter http://www.iiit.uni-karlsruhe.de bezogen werden. Karlsruhe, im Herbst 2001
Uwe Kiencke, Ralf Eger
Vorwort zur 4. Auflage
Dieses Buch Messtechnik richtet sich an die Studenten der Elektrotechnik nach dem Vordiplom. In dem vorgegebenen Zeitrahmen einer Kernfach-Vorlesung von nur zwei Stunden ist es nicht möglich, die gesamte Breite der Messtechnik zu behandeln, weil diese sich auf die unterschiedlichsten Verfahren und Technologien abstützt. Deshalb erfolgt hier eine Beschränkung auf die systemtechnischen Grundlagen der Messtechnik. Es werden die allen Messsystemen gemeinsamen Verfahren in den Vordergrund gestellt, mit denen • • • •
das physikalische Verhalten durch ein mathematisches Modell beschrieben die statischen und dynamischen Eigenschaften von Messsystemen verbessert stochastische Messgrößen gemessen und verarbeitet Messdaten in Digitalrechnern erfasst
werden können. Die konkrete Anwendung dieser Verfahren auf Messsysteme spezieller Technologien wird an Beispielen und in Übungsaufgaben im 6. Kapitel vorgeführt. Der Leser soll damit in die Lage versetzt werden, sich in spezielle Sensorkonfigurationen selbst einzuarbeiten. Voraussetzung dafür ist die Kenntnis der gebräuchlichen Integraltransformationen und der Grundlagen der Wahrscheinlichkeitsrechnung. Bei der Ausarbeitung dieses Buches fand ich das Buch meines verehrten Vorgängers, Herrn Prof. Heinz Kronmüller Methoden der Messtechnik, Schnäcker-Verlag Karlsruhe, 3. Auflage, 1988, vor, das die Messtechnik in der oben geschilderten, systematischen Weise hervorragend aufbereitet. Ich habe es deshalb als Grundlage herangezogen. Bei den Ableitungen von Formeln sind alle notwendigen Zwischenschritte angegeben, damit der Leser sich den Stoff auch im Selbststudium aneignen kann. Das 4. Kapitel Messungen stochastischer Größen wurde um die statistische Qualitätskontrolle erweitert und das 5. Kapitel Digitale Messdatenerfassung neu aufgenommen. Dabei werden einfache Grundlagen der Signalverarbeitung eingeführt. Besonderer Dank gilt den Herren Dipl.-Ing. Armin Daiß und Dipl.-Ing. Martin Ostertag für Ihre Mithilfe bei der Ausarbeitung, Herrn Ulrich Lang für das Layout und die Zeichnungen, sowie Herrn Frank Kolb für die Ausformulierung der Lösungen zu den Übungsaufgaben. Karlsruhe, im Mai 1995
Uwe Kiencke
Inhaltsverzeichnis
1.
Messsysteme und Messfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Messen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Einheitensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Messsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Physikalische Messkennlinie . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Fehler, ihre Definition und Ursachen . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Definition des Fehlers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Fehlerursachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3 Spezifizierte Normalbedingungen . . . . . . . . . . . . . . . . . . . . . . .
1 1 1 3 4 5 6 7 8
2.
Kurvenanpassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Approximation mit orthonormalen Funktionensystemen . . . . . . . . . . 2.2 Least-Squares-Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Regressionsrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Kennlinieninterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Interpolation durch Lagrange-Polynome . . . . . . . . . . . . . . . . . 2.3.2 Interpolation durch Newton-Polynome . . . . . . . . . . . . . . . . . . 2.3.3 Spline-Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Kennfeld-Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13 14 18 19 21 21 24 27 31
3.
Stationäres Verhalten von Messsystemen . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Stationäre Messkennlinie und deren Fehler . . . . . . . . . . . . . . . . . . . . . 3.1.1 Abgleich, Justierung der Messkennlinie . . . . . . . . . . . . . . . . . 3.1.2 Ideale und reale Messkennlinie . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Kennlinienfehler bei realer Kennlinie . . . . . . . . . . . . . . . . . . . 3.1.4 Abschätzung des Kennlinienfehlers . . . . . . . . . . . . . . . . . . . . . 3.2 Kennlinienfehler unter Normalbedingungen . . . . . . . . . . . . . . . . . . . . 3.2.1 Herabsetzen des Messbereichs . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Hintereinanderschalten zweier nichtlinearer Glieder . . . . . . . 3.2.3 Wahl des günstigsten Messbereichs . . . . . . . . . . . . . . . . . . . . . 3.2.4 Differenzmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.5 Gegenkopplung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen . . 3.3.1 Superponierende Störgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . .
37 37 37 38 39 42 45 46 47 51 57 62 66 66
X
Inhaltsverzeichnis
3.3.2
Eliminierung superponierender Störgrößen mit der Differenzmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Deformierende Störgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Deformierende Störgrößen bei Gegenkopplung . . . . . . . . . . . 3.3.5 Superponierende Störgrößen bei Gegenkopplung . . . . . . . . . . 3.3.6 Kompensation systematischer Störeinflüsse . . . . . . . . . . . . . . 3.3.7 Abschirmung von Störgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.8 Superponierende Störgrößen in Messketten . . . . . . . . . . . . . . 3.3.9 Synchroner Zerhackerverstärker . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Rückwirkung des Messsystems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68 69 72 75 75 76 76 78 81
4.
Dynamisches Verhalten von Messsystemen . . . . . . . . . . . . . . . . . . . . . . 85 4.1 Dynamische Fehler von Messsystemen . . . . . . . . . . . . . . . . . . . . . . . . 85 4.1.1 Empirische Kennwerte der Sprungantwort . . . . . . . . . . . . . . . 85 4.1.2 Nichtlineares Zeitverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.1.3 Bestimmung des Frequenzganges . . . . . . . . . . . . . . . . . . . . . . . 86 4.2 Systembeschreibung von Messsystemen . . . . . . . . . . . . . . . . . . . . . . . 89 4.2.1 Stabilitätskriterium nach Hurwitz . . . . . . . . . . . . . . . . . . . . . . . 92 4.3 Parameteroptimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.3.1 Kriterium verschwindende Momente der Impulsantwort . . . . 96 4.3.2 Kriterium konstanter Amplitudengang für kleine Frequenzen 100 4.3.3 Kriterium konstanter Realteil des Frequenzganges . . . . . . . . 104 4.3.4 ITAE-Kriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 4.3.5 Kriterium „Quadratisches Fehlerintegral“ . . . . . . . . . . . . . . . . 115 4.4 Strukturänderung zur Optimierung des Zeitverhaltens . . . . . . . . . . . . 121 4.4.1 Kompensation des Zeitverhaltens . . . . . . . . . . . . . . . . . . . . . . . 121 4.4.2 Zeitverhalten bei Gegenkopplung . . . . . . . . . . . . . . . . . . . . . . . 126
5.
Zufällige Messfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 5.1 Grundlagen der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . . . . . 136 5.1.1 Wahrscheinlichkeitsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 5.1.2 Wahrscheinlichkeitsdichten abgebildeter Größen . . . . . . . . . . 139 5.1.3 Erwartungswerte 1. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . 140 5.1.4 Erwartungswerte 2. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . 141 5.1.5 Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 5.1.6 Charakteristische Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 5.2 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 5.2.1 Häufigkeitsverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 5.2.2 Stichprobenmittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 5.2.3 Stichprobenvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 5.2.4 Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 5.2.5 Mittelwertbildung bei Störungen . . . . . . . . . . . . . . . . . . . . . . . 153 5.3 Normalverteilte Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 5.3.1 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 5.3.2 Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Inhaltsverzeichnis
XI
5.3.3 χ2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 5.3.4 Student t-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 5.4 Statistische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 5.4.1 Statistische Sicherheit, Konfidenzintervall . . . . . . . . . . . . . . . 162 5.4.2 Hypothese und Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 167 5.4.3 Signifikanztest für den Stichprobenmittelwert . . . . . . . . . . . . 168 5.4.4 χ2 -Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 5.4.5 Beurteilung von Fertigungsprozessen . . . . . . . . . . . . . . . . . . . 173 5.4.6 Bestimmung der Ausfallrate . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 5.4.7 Statistische Prozess-Überwachung . . . . . . . . . . . . . . . . . . . . . . 180 5.5 Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 5.5.1 Gaußsches Fehlerfortpflanzungsgesetz . . . . . . . . . . . . . . . . . . 184 5.5.2 Numerische Berechnung von Mittelwert und Varianz . . . . . . 186 6.
Korrelationsmesstechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 6.1 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 6.1.1 Wahrscheinlichkeitsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 6.1.2 Schar- und Zeitmittelwerte, Momente 1. Ordnung . . . . . . . . . 192 6.1.3 Momente 2. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 6.1.4 Stationäre Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 6.1.5 Ergodische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 6.2 Korrelationsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 6.2.1 Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 6.2.2 Korrelation für Leistungssignale . . . . . . . . . . . . . . . . . . . . . . . . 202 6.2.3 Korrelation für Energiesignale . . . . . . . . . . . . . . . . . . . . . . . . . 204 6.2.4 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 6.3 Anwendung der Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 6.3.1 Messung von Korrelationsfunktionen . . . . . . . . . . . . . . . . . . . . 207 6.3.2 Ähnlichkeit von Signalen, Laufzeitmessung . . . . . . . . . . . . . . 209 6.3.3 Closed-loop Korrelator, Polaritätskorrelation . . . . . . . . . . . . . 212 6.3.4 Ähnlichkeit von Spektren, Dopplermessung . . . . . . . . . . . . . . 216 6.3.5 Selbstähnlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 6.4 Leistungsdichtespektrum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 6.4.1 Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 6.4.2 Verknüpfung von Zufallssignalen . . . . . . . . . . . . . . . . . . . . . . . 226 6.4.3 Leistungsdichtespektrum in LTI-Systemen . . . . . . . . . . . . . . . 227 6.4.4 Systemidentifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 6.4.5 Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
7.
Erfassung amplitudenanaloger Signale . . . . . . . . . . . . . . . . . . . . . . . . . 243 7.1 Abtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 7.1.1 Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 7.1.2 Anti-Aliasing-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 7.1.3 Mittelwertbildung bei endlicher Abtastdauer . . . . . . . . . . . . . 249 7.1.4 Zeitliche Abtastfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
XII
Inhaltsverzeichnis
7.2 Quantisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 7.2.1 Wahrscheinlichkeitsdichten von Signalamplituden . . . . . . . . . 259 7.2.2 Amplitudendichte einer Fourier-Reihe . . . . . . . . . . . . . . . . . . . 261 7.2.3 Quantisierungstheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262 7.2.4 Wahrscheinlichkeitsdichte des Quantisierungsfehlers . . . . . . 267 7.2.5 Dither . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 7.3 Analog-Digital-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 7.3.1 Integrierender AD-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 7.3.2 Verzögert nachlaufender AD–Umsetzer . . . . . . . . . . . . . . . . . . 276 7.3.3 Sigma-Delta-Wandler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277 7.3.4 AD-Umsetzer mit sukzessiver Approximation . . . . . . . . . . . . 284 7.3.5 Ratiometrische Messung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 7.3.6 Nichtlineare Kennlinie des AD–Umsetzers . . . . . . . . . . . . . . . 287 7.4 Digital-Analog-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288 7.4.1 Parallele DA-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 7.4.2 Serielle DA-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 8.
Erfassung frequenzanaloger Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 Allgemeiner Frequenzbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 8.2 Digitale Drehzahlmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 8.2.1 Periodendauermessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 8.2.2 Frequenzzählung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304 8.2.3 Maximaler Quantisierungsfehler für einen Zählvorgang . . . . 304 8.2.4 Mittelwertbildung bei der Drehzahlmessung . . . . . . . . . . . . . . 306 8.2.5 Abtastung bei der Drehzahlmessung . . . . . . . . . . . . . . . . . . . . 309 8.2.6 Quantisierung bei fortlaufenden Periodendauermessungen . . 310 8.2.7 Leistungsdichte des Quantisierungsfehlers . . . . . . . . . . . . . . . 314 8.2.8 Kompensation mechanischer Fehler des Sensorrades . . . . . . . 316 8.3 Kontinuierliche Frequenzmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 8.3.1 Frequenzregelkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322 8.3.2 Phasenregelkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 8.4 Positions- und Richtungserkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 8.4.1 Drehrichtungserkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 8.4.2 Positionsbestimmung mit Inkrementalgebern . . . . . . . . . . . . . 329
Symbole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
1. Messsysteme und Messfehler
Die Grundaufgabe der Messtechnik besteht in der Erfassung physikalisch-technischer Größen mit einer vorgegebenen Genauigkeit. Da prinzipiell jedes Messverfahren fehlerhaft ist, müssen diese Fehler abgeschätzt werden, um Aussagen über die mögliche Messgenauigkeit treffen zu können. Ziel ist es, die entstehenden Messfehler möglichst klein zu halten oder gegebenenfalls zu kompensieren. Dazu bedarf es allerdings einer Systembeschreibung des Messvorgangs mit all seinen Eigenschaften und Einflussgrößen. Liegt diese Beschreibung vor, so können mit systemtheoretischen Untersuchungen die Fehlereinflüsse modelliert und durch Systemoptimierung deren Einfluss minimiert werden.
1.1 Messen Eine Größe zu messen heißt, einen speziellen Wert einer physikalischen Größe zu erfassen. Die Messgröße wird dabei mit einer zuvor vereinbarten Einheit, dem Normal, verglichen. Für eine Messung sind zwei Voraussetzungen notwendig. Zum einen muss die zu messende Größe eindeutig definiert sein. Zum anderen muss die Einheit oder das Normal durch eine Konvention festgelegt werden. Die Festlegung einer Einheit ist im Prinzip willkürlich. Man sollte jedoch die folgenden Bedingungen beachten: • Jede Einheit sollte praktisch sein, d.h. sie sollte sowohl im Alltagsleben als auch in der Wissenschaft verwendbar sein. • Sie sollte gut reproduzierbar sein. • Das Normal sollte möglichst unveränderlich sein. 1.1.1 Einheitensystem Für eine widerspruchsfreie Darstellung aller physikalischen Größen genügt es, aus ihnen nur sieben Basisgrößen auszuwählen, denen per Definition eine bestimmte qualitative und quantitative Eigenschaft zugeordnet wird. Alle anderen physikalischen Größen werden als Verhältnis zu diesen Basisgrößen ausgedrückt.
2
1. Messsysteme und Messfehler
1790 beschloss die französische Nationalversammlung die Schaffung eines neuen Einheitensystems. Es sollte ausschließlich auf objektiven physikalischen Kriterien gründen und allen Nationen zugänglich sein. 1799 wurde mit dem „metre des archives“ und dem „kilogramme des archives“ das erste metrische System vollendet. Bedingt durch politische Umstände kam es jedoch erst 1875 zum Abschluss der Meterkonvention, welche von 17 Staaten unterzeichnet wurde. Das internationale Einheitensystem SI (benannt nach „le Système Internationale d’unités“) stellt das heute gültige Einheitensystem in Deutschland dar. Die sieben Basisgrößen und Basiseinheiten des SI-Systems sind im folgenden dargestellt [2]. Meter: Das Meter ist die Länge der Strecke, die das Licht im Vakuum in einem Intervall von 1/299 792 458 Sekunden zurücklegt. Kilogramm: Das Kilogramm ist die Einheit der Masse. Es ist gleich der Masse des internationalen Kilogrammprototyps. Sekunde: Die Sekunde ist das 9.192.631.770-fache der Periodendauer der dem Übergang zwischen den beiden Hyperfeinstrukturniveaus des Grundzustandes von Atomen des Nuklids 133 Cs entsprechenden Strahlung. Ampere: Das Ampere ist die Stärke eines konstanten elektrischen Stromes, der, durch zwei parallele, geradlinige, unendlich lange und im Vakuum im Abstand von einem Meter voneinander angeordnete Leiter von vernachlässigbar kleinem, kreisförmigen Querschnitt fließend, zwischen diesen Leitern mit je einem Meter Leiterlänge die Kraft 2 · 10−7 Newton hervorrufen würde. Kelvin: Das Kelvin, die Einheit der thermodynamischen Temperatur, ist der 273,16te Teil der thermodynamischen Temperatur des Tripelpunktes des Wassers. Temperaturdifferenzen dürfen auch in Grad Celsius, mit dem Einheitenzeichen ◦ C angegeben werden. Mol: Das Mol ist die Stoffmenge eines Systems, das aus ebenso viel Einzelteilchen besteht, wie Atome in 0.012 Kilogramm des Kohlenstoffmoleküls 12 C enthalten sind. Bei Benutzung des Mol müssen die Einzelteilchen spezifiziert sein und können Atome, Moleküle, Ionen, Elektronen sowie andere Teichen oder Gruppen solcher Teilchen genau angegebener Zusammensetzung sein. Candela: Die Candela ist die Lichtstärke in einer bestimmten Richtung einer Strahlungsquelle, die monochromatische Strahlung der Frequenz 540 · 1012 Hz aussendet und deren Strahlungsstärke in dieser Richtung 1/683 Watt durch Steradiant beträgt. Auch die Definition der Normale ist nicht für alle Zeiten fest vorgegeben. Die Conference Internationale des Poids et Mesures (CIPM) prüft auf regelmäßigen Sitzungen den aktuellen Entwicklungsstand und beschließt gegebenenfalls Veränderungen. Am Beispiel der Längeneinheit Meter sollen die Veränderungen des Normals dargestellt werden: 1889 aus 37 Prototypen wird per Losverfahren das „ Urmeter“ bestimmt. Es handelt sich dabei um einen x-förmigen Stab aus Platin-Iridium, auf welchem der
1.2 Messsysteme
3
Abstand zweier Strichmarken bei einer Stabtemperatur von 0◦ C die Längeneinheit 1 m darstellt. Das Urmeter wird mit sechs weiteren in Sèvres bei Paris aufbewahrt. Die restlichen Normale werden an die Unterzeichnerstaaten der Meterkonvention verteilt. 1960 auf der 11. Generalkonferenz wird das Meter als das 1 650 763,73 fache der Wellenlänge festgelegt, die das Atom 86 Kr (Krypton) beim Übergang vom Zustand 5d5 in den Zustand 2p10 als elektromagnetische Welle aussendet. 1983 auf der 17. Generalkonferenz wird das Meter in seiner bis heute gültigen Form definiert. Seither gilt als ein Meter die Länge, die das Licht im Vakuum in einem Intervall von 1/299 792 458 Sekunden zurücklegt.
1.2 Messsysteme Um physikalische Größen zu messen, benötigt man ein Messsystem. Je nach Art der Messaufgabe handelt es sich hierbei um Systeme unterschiedlichster Komplexität. Die einfachsten Systeme ergeben sich bei so genannten direkten Messverfahren, wo der gesuchte Messwert durch unmittelbaren Vergleich mit einem Bezugswert derselben Messgröße gewonnen wird. Beispiel 1.1 Balkenwaage Bei einer Balkenwaage wird die unbekannte Masse mit der bekannten Masse der Gewichtssteine verglichen. Die meisten physikalischen Größen können hingegen nur indirekt gemessen werden. Die gesuchte Messgröße wird dabei über physikalische Zusammenhänge auf andere Größen zurückgeführt und aus diesen ermittelt. Beispiel 1.2 Federwaage Die Masse soll über die Auslenkung einer Feder bestimmt werden. Über das Kräftegleichgewicht erhält man mg = cx, cx m= . g Die Messgröße ist die Masse m, abgelesen wird allerdings die Auslenkung x, die über den Zusammenhang des Kräftegleichgewichts auf die gesuchte Größe zurückgeführt wird. Um das Verhalten von Messsystemen untersuchen zu können, ist zunächst eine Beschreibung des Systems erforderlich. Man spricht hierbei von Modellbildung. Sie versucht einen mathematischen Zusammenhang zwischen Ein- und Ausgangsgrößen am System zu ermitteln. Die Beschreibung von Messsystemen dient im wesentlichen zur Beschreibung ihrer Fehler. In der Messtechnik bezeichnet man den Zusammenhang zwischen der zu erfassenden Messgröße u und dem angezeigten Wert y als Kennlinie.
4
1. Messsysteme und Messfehler
1.2.1 Physikalische Messkennlinie Die Modellbildung von Messsystemen führt zu einer analytischen Beschreibung des Messsystems. Im allgemeinen erhält man dann Differentialgleichungen der Form x˙ = w (x (t) , u (t) , z (t) , t) .
(1.1)
Neben der Eingangsgröße u(t) wirken Störgrößen z(t) ein, die das Systemverhalten während des Betriebs ändern können. Die Störgrößen sind damit weitere Eingangsgrößen des Messsystems. Dazu zwei Beispiele: Beispiel 1.3 Federwaage Eine Federwaage mit der Kennlinie m = cx/g hat als Systemparameter die Federkonstante c. Ändert sich die Federkonstante im Betrieb aufgrund von Alterungserscheinungen, so ist c eine Störgröße z des Messsystems. Beispiel 1.4 Handelswaage Bei einer Handelswaage sind die Hebelarme Systemparameter, die sich mit der Umgebungstemperatur ändern. Man kann nun entweder die Länge der Hebelarme selbst als Störgröße z auffassen, oder aber die Umgebungstemperatur als zusätzliche Störgröße z betrachten, deren funktionelle Wirkung auf die Hebelarme beschrieben werden muss. Von einem idealen Messsystem wird verlangt, dass es unter den vielen Einflussgrößen allein die Messgröße u in der Ausgangsgröße y abbildet. In der Praxis ist das allerdings unmöglich. Am Beispiel der Handelswaage erkennt man, dass durch eine genaue Modellbildung die Wirkung vieler Störeinflüsse auf das Messergebnis mathematisch beschrieben werden kann. Das ermöglicht in manchen Fällen sogar eine Kompensation der Störungen. Die Grundaufgabe der Messtechnik ist es, eine stationäre Messgröße zu erfassen, die sich während der Messung nicht verändert. Gesucht ist also eine stationäre Kennlinie, die sich ergibt, wenn alle Einschwingvorgänge abgeklungen sind. Im stationären Zustand des Systems gilt: x˙ = 0. Hieraus erhält man die stationäre physikalische Messkennlinie. Abbildung 1.1 zeigt den Aufbau eines Messsystems. u(t) ist die Messgröße und Eingang in das System, y(t) ist die Ausgangsgröße, d.h. diejenige Größe, die von dem Messsystem ermittelt werden soll. Die Auflösung von Gl.(1.1) mit x˙ = 0 ergibt, dass x von der Messgröße u und vom Störgrößenvektor z abhängt. Er ist nur noch indirekt von der Zeit abhängig: x = g (u, z) .
1.3 Fehler, ihre Definition und Ursachen
5
Einsetzen von x in die Ausgangsgleichung y = F (x) führt zur physikalischen Messkennlinie : y = F (x) = F (g (u, z)) = f (u, z) .
(1.2)
z( t )
u( t )
x( t )
x( t )
Zustandsvektor des Messsystems
u( t ) y( t )
Messgröße Ausgangsgröße Störgrößenvektor
z( t )
y( t ) F (x )
w( x , u, z, t )
Abbildung 1.1. Zustandsbeschreibung des Messsystems
Für die physikalische Messkennlinie y = f (u, z) wird im Messbereich eine stetige streng monotone Funktion gefordert, wodurch Mehrdeutigkeiten vermieden werden. Es gilt mit beliebigen ε > 0 im gesamten Messbereich f (u + ε) > f (u)
oder f (u + ε) < f (u) .
1.3 Fehler, ihre Definition und Ursachen Nach Beschreibung der physikalischen Eigenschaften von Messsystemen müssen deren Fehler abgeschätzt werden. Bevor von Fehlern gesprochen werden kann, muss klar herausgestellt werden, welche Größe am Prozess als Messgröße verstanden werden soll. Bei einfachen Aufgaben wie den Abmessungen eines Werkstückes entsteht darüber keine Diskussion. Hat aber die Messgröße von Ort zu Ort verschiedene Werte, so wird man sich auf die Messung an einer oder mehreren repräsentativen Stellen einigen müssen. Bei Messung an mehreren Stellen wird man z.B. den Mittelwert bilden und diesen als Ersatz für den wahren Messwert nehmen. Beispiel 1.5 Temperaturmessung an Dampfturbinen Um Überbeanspruchungen durch Wärmedehnung zu vermeiden, wird die Temperatur von Dampfturbinengehäusen überwacht. Als repräsentative Messorte werden solche ausgewählt, die bei instationären Vorgängen untereinander große Temperaturdifferenzen aufweisen.
6
1. Messsysteme und Messfehler
Beispiel 1.6 Heizwert von Brennstoffen Bei der Bestimmung des Heizwertes von festen Brennstoffvorräten wird der Heizwert einer zufälligen Probe kaum interessieren. Man wird, um erhebliche Fehler zu vermeiden, mehrere Proben aus dem Brennstoffvorrat entnehmen und nach statistischen Methoden einen mittleren Heizwert des Vorrates schätzen. Zur Beurteilung einer bestimmten Messeinrichtung nehmen wir zunächst an, dass die Messgröße mit einem bekannten Wert an der zu untersuchenden Messeinrichtung anliegt. 1.3.1 Definition des Fehlers Der absolute F ehler F eines Messsystems ist nach [3] gleich dem angezeigten oder ausgegebenen Wert yA minus dem richtigen Wert yr : F = yA − yr .
(1.3)
Der relative Fehler Fr ist bezogen auf den richtigen Wert yr : Fr =
yA − yr . yr
(1.4)
Er wird meist in Prozent angegeben. Für das Abschätzen von Messfehlern ist nur der Betrag des relativen Fehlers von Interesse, zur Korrektur der Fehler kann zusätzlich das Vorzeichen wichtig sein. Es erhebt sich natürlich die Frage, wie man den Fehler bestimmen kann, wenn der richtige Wert yr überhaupt nicht bekannt ist. Dazu gibt es im wesentlichen zwei Möglichkeiten (Abb. 1.2).
G
yA
N
G
yA
x
Gn a) Vergleich mit Präzisionsgerät
yr
yr
b) Vermessung eines Normals
Abbildung 1.2. Möglichkeiten, den richtigen Wert festzustellen
a) Als richtiger Wert yr kann der von einem besonders aufwendigen Präzisionsinstrument Gn angezeigte Messwert dienen. b) Mit der Messeinrichtung wird ein bekanntes Normal N (Maßverkörperung) vermessen. Der angezeigte Wert yA wird mit dem bekannten, richtigen Wert des Normals yr verglichen.
1.3 Fehler, ihre Definition und Ursachen
7
Der Fehler des Präzisionsinstruments wird z.B. durch Vermessung des Normals festgestellt. Ein Beispiel für ein Normal ist das Urmeter. 1.3.2 Fehlerursachen Jede Messung ist fehlerhaft. Der Grund liegt in bestimmten Eigenschaften des Messgegenstandes, in Unvollkommenheiten der Messeinrichtung und des Messverfahrens, in wechselnden Umwelteinflüssen und in Fehlern des Beobachters. Man unterscheidet zwischen zwei Fehlerklassen: Systematische Fehler: Die systematischen Fehler sind dadurch charakterisiert, dass die Ursache des Fehlers und die Art der Einwirkung bekannt sind. Mit erhöhtem Aufwand im Messsystem ist deshalb eine Kompensation des systematischen Fehlers zumindest im Prinzip möglich. Zufällige Fehler: Zufällige (stochastische) Fehler weisen bei wiederholten Messungen unter gleichen Bedingungen verschiedene Beträge und Vorzeichen auf. Die Messwerte „streuen“ . Zufällige Fehler sind im einzelnen nicht erfassbar, da ihre Ursachen teilweise unbekannt sind. Bei Messaufgaben interessiert deshalb nicht das Ergebnis einer einzelnen, zufälligen Messung, sondern z.B. der Mittelwert über viele Messungen. Ein Beispiel dafür ist die oben angeführte Bestimmung des Heizwertes von festen Brennstoffen. Andere Beispiele wären die Bestimmung der mittleren Ausfallrate von Bauelementen oder die Messung von elektrischen Spannungen, die von Rauschen überlagert sind. Die Messung solcher stochastischer Größen wird in Kap. 5 behandelt. In dieser Einteilung steckt eine gewisse Willkür. Es kann z.B. passieren, dass ein Fehler aufgrund mangelnder Kenntnis der Messaufgabe zuerst als stochastisch deklariert wurde. Mit besserem Systemverständnis entdeckt man dann aber deterministische Fehlereinflüsse, so dass man nun von einem systematischen Fehler spricht. Es können folgende Fehlerursachen auftreten. Vereinfachtes Modell des Messsystems: Ein System mit verteilten Speichern werde z.B. durch konzentrierte, ideale Komponenten beschrieben. Die Messung einzelner Zustandsgrößen dieses Systems wird die tatsächlichen Abläufe nur näherungsweise erfassen. Als Beispiel kann die oben geschilderte Temperaturmessung an Dampfturbinen herangezogen werden. Innere Störgrößen: Hierbei handelt es sich um Störgrößen im Messgerät selbst. Beispiele dafür sind Alterungseffekte an für die Messung wichtigen Bauteilen. Bei Drehspulinstrumenten oder Waagen ist eine Feder eingebaut, deren Eigenschaften sich im Laufe der Lebensdauer verändert, was sich in einer fehlerhaften Anzeige bemerkbar macht. Äußere Störgrößen: Der physikalische Messeffekt wird zumeist durch eine Reihe von unerwünschten Einflüssen gestört. Ein Beispiel dafür ist die Temperaturabhängigkeit einer Widerstandsbrückenschaltung aus Halbleiterdehnungsmessstreifen zur Druckmessung. Wenn man den nicht erwünschten Einfluss isolieren
8
1. Messsysteme und Messfehler
und deterministisch beschreiben kann, handelt es sich um systematische Fehler, die bei wiederholten Messungen gleichen Betrag und Vorzeichen aufweisen. Eine gezielte Kompensation ist möglich, was in Abschn. 3.3.6 beschrieben wird. Eine andere Art von äußeren Störgrößen sind stochastische Einstreuungen, die man nicht kompensieren kann. Als Technik zu ihrer Unterdrückung wird die Mittelwertbildung (Kap. 5) oder komplexere Filter (Abschn.6.4.5) angewendet. Beobachtungsfehler: Der Beobachter, der eine Messung durchführt, kann als Fehlerquelle in Betracht kommen, wenn er die Anzeige falsch abliest. Dynamische Fehler: Bei vielen Messaufgaben werden zeitlich aufeinander folgende Messwerte benötigt. Ein Beispiel dafür ist der zeitliche Druckverlauf im Zylinder eines Verbrennungsmotors während des Verdichtungshubes. Das Anzeigesignal der Messeinrichtung soll der Messgröße verzögerungsfrei folgen. Abweichungen werden als dynamische Fehler bezeichnet. Eine Diskussion erfolgt in Kap. 4. Rückwirkung: Die Messeinrichtung braucht für den Messvorgang Energie oder Leistung, die dem Prozess entzogen wird. Der Wert der Messgröße mit angeschlossener Messeinrichtung unterscheidet sich von dem Wert, der ohne Messeinrichtung erreicht worden wäre. Die Größe dieses Fehlers hängt davon ab, welche Messgrößenänderung der Energieaustausch im Prozess hervorruft. Dieser Fehler wird Rückwirkung der Messeinrichtung auf den Prozess genannt. Im Abschn. 3.4 wird dieser Fehler behandelt. Beispiel 1.7 Temperaturmessung einer Flüssigkeit Die Temperatur T einer Flüssigkeit der Wärmekapazität cV soll mit einem Berührungsthermometer der Wärmekapazität cF gemessen werden, das vor dem Eintauchen die Temperatur T0 hat. Die gemessene Temperatur Tm errechnet sich aus der Energiebilanz vor und nach dem Eintauchen: Evor = cV T + cF T0 = Enach = (cV + cF ) Tm , cV (Tm − T ) = cF (T0 − Tm ) , cF ∆T = Tm − T = (T0 − Tm ) . cV Der Messfehler ∆T wird klein, wenn die Wärmekapazität des Messfühlers cF klein gegen die der Flüssigkeit cV ist. 1.3.3 Spezifizierte Normalbedingungen In der Spezifikation (technische Beschreibung) eines Messsystems werden die Randbedingungen und Umwelteinflüsse festgehalten, unter denen der Hersteller einen maximalen Fehler garantiert. Dazu gehören Angaben wie
1.3 Fehler, ihre Definition und Ursachen
9
• Messbereich, • Messgenauigkeit, • Betriebsbedingungen, • Einbauvorschriften, • Energieversorgung, • Abmessungen. Entscheidend sind die Angaben über die Fehler, die einen Vergleich mit ähnlichen Geräten und deren Messgenauigkeit ermöglichen. Die im eingeschwungenen Zustand sich einstellenden Fehler werden als „statische Fehler“ gekennzeichnet. Man kann somit zwei Klassen von statischen Fehlern unterscheiden. Statische Fehler unter spezifizierten Normalbedingungen: Die Störgrößen aus der Umgebung sind dabei gemäß der Spezifikation konstant oder auf Null zu halten, z = z0 . Statische Fehler bei Abweichung von den spezifizierten Normalbedingungen: Für jede wichtige systematische Störgröße ist eine definierte Abweichung von den Normalbedingungen herzustellen und die Auswirkung auf die Ausgangsgröße als Fehler festzustellen [48, 4], z = zi . Im folgenden Beispiel sollen die möglichen Fehlerursachen an einer konkreten Messaufgabe dargestellt werden. Beispiel 1.8 Winkelgeschwindigkeitsmessung
& er
ω
& r
ω
P
& ej
O
Abbildung 1.3. Winkelgeschwindigkeitsmessung
Die Winkelgeschwindigkeit ω eines horizontal rotierenden Körpers soll über eine Beschleunigungsmessung bestimmt werden (Abb. 1.3). Die Winkelgeschwindigkeit
10
1. Messsysteme und Messfehler
ω wird über die Kräfte gemessen, die bei einer Rotation auf einen Körper wirken. Aus der Physik sind die folgenden Zusammenhänge bekannt: azp = ω × v
Zentripedalbeschleunigung,
˙ ×r at = ω
Tangentialbeschleunigung.
Angewendet auf den 2-dimensionalen Fall ergibt sich nach Abb. 1.3 unter Verwendung von Polarkoordinaten und den Beträgen ω = |ω|, r = |r|, ω˙ = |ω| ˙ eine Beschleunigung im Punkte P von aP = aO + ω˙ · r · eϕ − ω 2 · r · er ,
(1.5)
wobei aO die Führungsbeschleunigung des Aufpunktes ist. Im Falle einer Rotation um eine feste Achse senkrecht zur Erdoberfläche kann man davon ausgehen, dass die Achse eine reine Drehbewegung ausführt und daher aO = 0 sein wird. Bringt man nun einen idealen Beschleunigungssensor, der nur in einer Richtung empfindlich ist, gemäß Abb. 1.4 an, so erhält man folgende Messgleichung: aM = −ω 2 · r · cos (θ) + ω˙ · r · sin (θ) .
& aM
& r
ω O
P
(1.6)
& er & eϕ
θ Beschleunigungssensor
Abbildung 1.4. Beschleunigungsmessung am rotierenden Objekt
Im stationären Fall, d.h. bei konstanter Winkelgeschwindigkeit (ω˙ = 0) erhält man so folgende statische Messkennlinie: aM = −ω 2 · r · cos (θ) .
(1.7)
Man erkennt sofort, dass die Sensorposition (|r| , θ) das Messergebnis beeinflusst. Aber auch das Auftreten einer Führungsbeschleunigung aO in Gl.(1.5) oder eine veränderliche Winkelgeschwindigkeit (ω˙ = 0) verfälschen das Messergebnis.
1.3 Fehler, ihre Definition und Ursachen
11
Die stationäre Messkennlinie ist in diesem Beispiel quadratisch: y = const · u2 ,
mit u = ω, y = aM .
Die Sensorposition |r| , θ ist eine innere Störgröße des Messsystems. Als Normalbedingung ist dann beispielsweise die konstruktiv vorgegebene Sensorposition |r 0 | , θ0 spezifiziert. Die Führungsbeschleunigung aO ist eine äußere Störgröße, die je nach Anwendung systematischer Natur (Achse steht nicht senkrecht zur Erdoberfläche) oder stochastischer Natur (Unbekannte Vibrationen der Messanordnung) sein kann. Statt einer quadratischen stationären Kennlinie wäre eine lineare Kennlinie wünschenswert. Sie bietet den Vorteil einer konstanten Empfindlichkeit im gesamten Messbereich. Methoden zur Linearisierung werden in Kap. 3 behandelt. Beim Übergang auf eine neue stationäre Winkelgeschwindigkeit ω treten dynamische Fehler auf, die proportional zu ω˙ sind. ändert sich ω sprungförmig, so ist die Messung erst nach einer gewissen Zeit brauchbar, wenn die dynamischen Fehlerterme weitgehend abgeklungen sind. Das dynamische Verhalten von Messsystemen wird in Kap. 4 behandelt.
2. Kurvenanpassung
Die analytische Darstellung einer Messkennlinie erfordert eine Modellbildung des Systems. Da das zugrundeliegende Modell in der Praxis oft unbekannt ist, liegt die stationäre Messkennlinie häufig nicht in analytischer Form, sondern nur in der Form von n Messpunkten (uk , yk ), k = 0 . . . n − 1 vor. Gesucht wird nun eine analytische Darstellung der Kennlinie, welche die gemessenen Punkte in geeigneter Weise nachbildet. Dadurch können für beliebige Zwischenwerte u die zugehörigen Werte y angegeben werden. Des weiteren kann die so gewonnene Messkennlinie mit den in Kap. 3 besprochenen Methoden genauer untersucht und verbessert werden. Bei der Konstruktion einer analytischen Kennlinie aus Messpunkten können zwei grundsätzlich verschiedene Ansätze verfolgt werden. Interpolation: Liegen nur wenige Messwerte vor, so wird man verlangen, dass die analytische Kennlinie exakt durch alle Messpunkte geht. Verwendet man beispielsweise Polynome p(u) zur Interpolation, so erhält man bei n Messpunkten Polynome mit dem Grad {p(u)} ≤ n − 1. Man erkennt sofort, dass eine Interpolation nur für kleine n sinnvoll ist. Für eine große Anzahl von Messwerten wird die Interpolationsfunktion sehr schnell unhandlich. Das Interpolationsproblem wird im Abschn. 2.3 behandelt. Minimierung der Fehlerquadrate: Liegen sehr viele Messpunkte vor, ist die Interpolation ein unpraktischer Ansatz. Man sucht vielmehr einfache Funktionen, welche die Menge der Messpunkte so nachbildet, dass der entstehende Fehler zwischen den Messpunkten und der analytischen Funktion möglichst klein wird. Als Stichwort sei hier die Regressionsrechnung genannt (Abschn. 2.2.1) . Will man für beliebige Zwischenwerte u die zugehörigen Werte y angeben, so wird die Kennlinie als Approximation in einer endlichen Reihe analytischer Funktionen Φi (u) dargestellt: yˆ(u) =
m−1
ai Φi (u) bzw. yˆk =
i=0
m−1
ai Φi (uk ), k = 1 . . . n.
(2.1)
i=0
Die Koeffizienten ai werden dann bestimmt über die Minimierung eines Gütemaßes Q, wobei üblicherweise die Summe der Approximationsfehlerquadrate herangezogen wird, 2 n−1 m−1 yk − ai Φi (uk ) ⇒ min. (2.2) Q= k=0
i=0
14
2. Kurvenanpassung
Der Vorteil dieser Vorgehensweise liegt in der Tatsache, dass man mit einer begrenzten Anzahl m einfacher Basisfunktionen Φi (u) die Kennlinie bereits nachbilden kann, wobei im allgemeinen m << n gilt. Die so gewonnene analytische Kennlinie geht allerdings nicht exakt durch die gemessenen Punkte. y(u)
y3 y2 y1
y0
y(u)
Interpolation
yn-1
*
*
Approximation
* y0
*
u0
u1
u2
u3
u
* * u0
*
* *
**
* * *
* * * * **
un-1 u
Abbildung 2.1. Kennlinie in Form von n Messpunkten
2.1 Approximation mit orthonormalen Funktionensystemen Es stellt sich natürlich die Frage, warum man orthogonale Funktionensysteme für die Kennlinienapproximation verwenden möchte. Zur Verdeutlichung erinnern wir uns zunächst an die Vektorrechnung. Im dreidimensionalen Raum IR3 wird jeder Vektor durch seine Komponenten in x, y und z-Richtung dargestellt. Beispielsweise sei der Vektor T
a = (a0 a1 a2 )
gegeben. Die Richtungsvektoren bilden dabei das Basissystem des Vektorraumes ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 e0 = ⎝ 0 ⎠ e 1 = ⎝ 1 ⎠ e 2 = ⎝ 0 ⎠ , 0 0 1 mit denen sich nun unser Vektor darstellen lässt zu a = a 0 e0 + a 1 e1 + a 2 e2 =
2 i=0
a i ei .
2.1 Approximation mit orthonormalen Funktionensystemen
15
Das Basissystem (e0 ; e1 ; e2 ) bildet dabei ein orthonormales Basissystem. Es hat die besondere Eigenschaft, dass das Innenprodukt zwischen zwei verschiedenen Basisvektoren immer verschwindet (die Vektoren stehen senkrecht aufeinander) und dass der Betrag eines Basisvektors gleich eins ist, ei , ej =
n−1
ei,k · ej,k = δij =
k=0
1 , i = j, 0 , i = j.
Der große Vorteil des orthonormalen Basissystems ist die Tatsache, dass bei Hinzunahme einer neuen Dimension (in unserem Beispiel eine Komponente a2 ) lediglich der Basisvektor e2 zur Darstellung des Vektors hinzugenommen werden muss, ohne dass sich dabei eine Änderung der Komponenten a0 und a1 ergibt. Bei der Approximation von Messkennlinien macht man sich genau diese Eigenschaft orthonormaler Basissysteme zu nutze. Man verwendet zur Approximation Funktionensysteme mit der Eigenschaft Φi , Φe =
n−1
Φi (uk ) ·
Φ∗e
(uk ) = δie =
k=0
1 , i = e, 0 , i = e.
(2.3)
Die Funktionswerte Φi (uk ) an den Stützstellen uk liefern also orthonormale, n-dimensionale Vektoren. Voraussetzung ist allerdings, dass die Stützstellen äquidistant über dem gesamten Orthogonalitätsintervall des Funktionensystems verteilt sind. Zur Bestimmung der Koeffizienten wird die Gütefunktion Q von Gl.(2.2) nach den gesuchten Koeffizienten ae abgeleitet: Q=
n−1
yk −
m−1
yk −
ai Φi (uk )
∗ ae Φe (uk )
,
n−1 m−1 ∂Q = −2 ai Φi (uk ) Φ∗e (uk ) yk − ∂ae i=0 k=0 n−1 n−1 m−1 ∗ ∗ = −2 yk Φe (uk ) − ai Φi (uk )Φe (uk ) = 0,
yk Φ∗e (uk ) −
m−1
ai
i=0
k=0
(2.5)
k=0 i=0
k=0 n−1
(2.4)
e=0
i=0
k=0
m−1
n−1 k=0
Φi (uk )Φ∗e (uk ) = 0
δie
⇒ ae =
n−1 k=0
yk Φ∗e (uk ).
(2.6)
16
2. Kurvenanpassung
Man erkennt sofort den Vorteil der Funktionen Φi . Die Koeffizienten ae zur Darstellung der Kennlinie hängen nur von der zugehörigen Basisfunktion Φe (uk ) ab. Werden weitere Funktionen Φi zur Approximation verwendet, so bleiben die bisher berechneten Koeffizienten unverändert. Der quadratische Fehler zwischen den Messpunkten und der approximierten Kennlinie berechnet sich zu Q=
=
n−1 k=0 n−1
yk −
yk −
ai Φi (uk )
yk2 −
m−1
ai
i=0
m−1 m−1
ai a∗e
i=0 e=0
m−1
∗ ae Φe (uk )
e=0
i=0
k=0
+
m−1
n−1
Φi (uk )yk∗ −
k=0
n−1
m−1 e=0
a∗ i
a∗e
n−1 k=0
Φ∗e (uk )yk
(2.7)
ae
Φi (uk )Φ∗e (uk ),
k=0
δie
Q=
n−1 k=0
yk2 −
m−1
|ai |2 .
(2.8)
i=0
Mit wachsendem Grad m der Funktionenreihe wird der Approximationsfehler geringer. Aus Q ≥ 0 ergibt sich die bekannte Besselsche Ungleichung. Es stellt sich nun die Frage, welche Funktionensysteme die Orthogonalitätsbedingung nach Gl.(2.3) erfüllen. Die bekanntesten Funktionen sind die Funktionen der FourierReihe, u−ua 1 Fi (u) = √ · ej2πi ue −ua . n
(2.9)
Die Funktionen Fi (uk ) bilden im Intervall des Messbereiches [ua , ue ] bei n + 1 äquidistanten Stützstellen im Abstand ∆u ein orthonormales Funktionensystem, Fi (uk ) , Fe (uk ) =
n−1 −ua u −u 1 j2πi uuk −u −j2πe uk −u a e a · e e a . e n k=0
n .∆u ∆u
u0 ua
u1
...
ui
un-1
un ue
Abbildung 2.2. Stützstellenabstände einer gemessenen Kennlinie
u
2.1 Approximation mit orthonormalen Funktionensystemen
17
Mit dem Stützstellenabstand ∆u und der Intervallbreite (ue − ua ) = n · ∆u gilt uk = k · ∆u + ua
k (uk − ua ) = . (ue − ua ) n
→
Damit lässt sich das Innenprodukt schreiben und die Orthogonalität zeigen: Fi (uk ) , Fe (uk ) =
n−1 1 j2π(i−e) k n = δ . e ie n
(2.10)
k=0
Zur Veranschaulichung der Orthogonalität von Gl.(2.10) hilft ein Zeigerdiagramm in der komplexen Ebene. Für i = e ergibt sich ein geschlossenes n-Eck, d.h. die Summe der Zeiger verschwindet. Nur für i = e ergibt sich ein Wert ungleich Null. Die Approximation einer Messkennlinie mit den Funktionen aus Gl.(2.9) entspricht
Im e e
j 2π
3 6
e=i
4 6
e
5 6
e
j 2π
j 2π
2 6
n =6
1 6
e=i
~
e
j 2π
j 2π
e j0
e j0
e j0
e j0
Re
Abbildung 2.3. Zeigerdiagramm zur Orthogonalität der Fourier-Funktionen
gerade der Fourier-Reihe bei periodischen Funktionen. Der Nachteil dieses Funktionensystems für die Anwendung im Digitalrechner ist die notwendige Rechnung mit komplexen e-Funktionen. Geradezu ideal für die Implementierung im Mikrorechner ist hingegen das orthonormale System der Walsh-Funktionen geeignet. Sie sind im Intervall [0, 1] definiert und nehmen nur die Funktionswerte +1 und −1 an: wal (i, u)
mit
wal (i, u) , wal (e, u) =
n−1 1 wal (i, uk ) · wal (e, uk ) = δie . n k=0
Abbildung 2.4 zeigt einige Funktionen innerhalb des Funktionensystems. Von der Orthogonalität dieser Funktionen überzeugt man sich leicht durch Summenbildung über äquidistant verteilte Stützstellen. Die Berechnung der Koeffizienten ae nach Gl.(2.6) reduziert sich bei diesem Basissystem auf eine einfache Summe über die
18
2. Kurvenanpassung
1
wal(0,t) t
-1 1
wal(1,t) t
-1 1
wal(2,t) t
-1 1
wal(5,t) t
-1 0
1
Abbildung 2.4. Walsh-Funktionen
Funktionswerte yi und ist somit ohne aufwendige Multiplikation implementierbar. Für das Rechnen mit Walsh-Funktionen und die Erzeugung beliebiger Basisfunktionen wal (i, u) sei auf die entsprechende Fachliteratur verwiesen [9]. An dieser Stelle soll noch auf eine Eigenschaft hingewiesen werden. Wie man aus Abb. 2.4 erkennt, sind die i Nulldurchgänge der Funktionen wal (i, u) nicht gleichmäßig über das Intervall verteilt. Um dennoch einen Frequenzbegriff wie bei Sinus- und Cosinus-Funktionen zu erhalten, kann man die Häufigkeit der Nulldurchgänge im Intervall heranziehen. Damit gelangt man zur verallgemeinerten Frequenz. Sie soll später in Kap. 8 eingeführt werden.
2.2 Least-Squares-Schätzer In vielen Anwendungen ist eine Approximation mit allgemeinen Basisfunktionen Φi (u) gewünscht, die nicht orthogonal sind. Dazu verwendet man den LeastSquares-Schätzer (kurz LS-Schätzer), der ebenfalls auf der Minimierung der Fehlerquadrate basiert. Die Summe der Approximationsfehlerquadrate lautet in Vektorschreibweise Q=
n−1
(yk − yˆk )2 = (y − yˆ)T (y − y ˆ).
k=0
(2.11)
2.2 Least-Squares-Schätzer
19
Es wird folgender Approximationsansatz für n Messpunkte verwendet: ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ yˆ0 Φ0 (u0 ) · · · Φm−1 (u0 ) a0 ⎢ .. ⎥ ⎢ ⎥ . . .. .. .. y ˆ=⎣ . ⎦=⎣ ⎦ · ⎣ . . . ⎦ = Ψ a. (2.12) . am−1 Φ0 (un−1 ) · · · Φm−1 (un−1 ) yˆn−1 Einsetzen von Gl.(2.12) in (2.11) ergibt Q = (y − Ψ a)T (y − Ψ a) = y T y − 2aT Ψ T y + aT Ψ T Ψ a.
(2.13)
Zur Bestimmung von a wird das Gütekriterium minimiert: dQ = −2Ψ T y + 2Ψ T Ψ a = 0, da a = (Ψ T Ψ )−1 Ψ T y.
(2.14)
Der gesuchte Parametervektor a berechnet sich aus dem Produkt der Pseudoinversen (Ψ T Ψ )−1 Ψ T von Ψ und dem Messpunktevektor y. Der LS-Schätzer ist von großer praktischer Bedeutung, denn er wird oft benutzt, um aus Messungen, die von starkem Rauschen überlagert sind, Kennlinienfunktionen zu bestimmen. Dies wird auch als Regressionsrechnung (Abschn. 2.2.1) bezeichnet. Der LS-Schätzer kann damit einerseits als Optimalfilter angesehen werden [51], (Abschn. 6.4.5), das eine gewisse a-priori Kenntnis über die herauszufilternde Funktion benötigt, z.B. ein Polynom 2. Grades, um die Ausgangsfunktion angeben zu können. Diese a-priori Kenntnis bezeichnet man oft auch als Signalmodell. Es bestimmt den Aufbau der Matrix Ψ . Andererseits wird ein funktionaler Zusammenhang zwischen Abszissenund Ordinatenvariablen hergestellt. Damit ist das Verfahren auch zur Extrapolation geeignet, d.h. zukünftige Funktionswerte können vorhergesagt werden (Prädiktion, [19, 20]). Eine Anwendung hierzu findet der LS-Schätzer in der statistischen Prozessüberwachung, die in Abschn. 5.4.7 besprochen wird. 2.2.1 Regressionsrechnung Ein in der Praxis häufig auftretender Fall ist die Suche nach einer Geraden durch eine Menge von Messpunkten (Abb. 2.5). Die Gerade habe die Form yˆ (u) = a1 u + a0 . Die unbekannten Parameter a1 und a0 werden durch Minimierung der Fehlerquadrate Gl.(2.2) bestimmt. Mit der Gütefunktion Q=
n−1 k=0
2
(yk − a1 uk − a0 )
20
2. Kurvenanpassung
y(u) yn-1
*
y0
* * * * * * * * * * ** *
*
u0
un-1
u
Abbildung 2.5. Lineare Regression
können die Parameter durch Differentiation bestimmt werden, dQ = −2 uk (yk − a1 uk − a0 ), da1 n−1
dQ = −2 da0
k=0 n−1
(yk − a1 uk − a0 ).
(2.15)
k=0
Durch Nullsetzen der beiden Ableitungen gelangt man schließlich zu folgendem Gleichungssystem a1
n−1
u2k + a0
k=0
a1
n−1
n−1
uk =
k=0
uk + na0 =
k=0
n−1
u k yk ,
k=0 n−1
yk ,
(2.16)
k=0
und erhält durch Auflösen die gesuchten Parameter der Regressionsgeraden: a0 =
n−1 n−1 1 1 y k − a1 · uk , n n k=0
n· a1 =
n−1
k=0
u k yk −
k=0
n·
n−1 k=0
n−1
uk
k=0
u2k
−
n−1
n−1 k=0 2
yk .
(2.17)
uk
k=0
Die Berechnung der Parameter a0 und a1 mit dem LS-Schätzer nach Gl.(2.14) führt auf das gleiche Ergebnis. Das zugehörige Signalmodell lautet für eine Geradengleichung
2.3 Kennlinieninterpolation
21
⎤ ⎡ ⎤ 1 u0 yˆ0 ⎥ a0 ⎢ .. ⎥ ⎢ .. . . y ˆ=⎣ . ⎦=⎣. ⎦ · a = Ψ a. . 1 yˆn−1 1 · · · un−1 ⎡
Die Übereinstimmung von Gl.(2.17) mit dem LS-Schätzer möge der Leser als Übung durchführen. Es können natürlich auch Polynome höherer Ordnung für die Regressionsrechnung verwendet werden. Im Gegensatz zur Approximation mit orthonormalen Funktionen müssen bei der Regressionsrechnung alle Koeffizienten ak neu berechnet werden, wenn die Ordnung des Regressionspolynoms erhöht werden soll. An dieser Stelle sollen noch einige Bemerkungen zu den Ergebnissen der Regressionsrechnung gemacht werden. Sieht man sich das Ergebnis aus Gl.(2.17) an, so findet man dort Terme der Form n−1 1 uk n
bzw. n ·
k=0
n−1
u2k
−
n−1
k=0
2 uk
.
k=0
Wie später in Kap.5 gezeigt wird, handelt es sich hierbei um die Größen Mittelwert und die mit dem Faktor (n − 1)/n gewichtete Varianz der Größe u. Die Regressionsrechnung findet daher oft in der Statistik Verwendung.
2.3 Kennlinieninterpolation Hat man eine experimentelle Kennlinie nur in wenigen Punkten gegeben, wird man verlangen, dass die Approximation in diesen Punkten die Werte (ui , yi ) exakt wiedergibt und zusätzlich, dass die Kurve zwischen den Stützstellen (ui , yi ) einen glatten Verlauf zeigt. Diese Aufgabenstellung führt zum klassischen Interpolationsproblem. 2.3.1 Interpolation durch Lagrange-Polynome Zur Kennliniendarstellung wird meist ein Polynomansatz in der Messgröße u gewählt, yˆ(u) =
n
ai ui = aT u.
(2.18)
i=0
Zur Bestimmung der (n + 1) Koeffizienten ai stehen (n + 1) Gleichungen in den Stützstellen zur Verfügung, yj (uj ) =
n i=0
ai uij , j = 0, ..., n.
(2.19)
22
2. Kurvenanpassung
Die (n + 1) Gleichungen lassen sich in Matrix-Schreibweise angeben, ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ 1 u0 u20 · · · un0 a0 y0 ⎜ y1 ⎟ ⎜ 1 u1 u21 · · · un1 ⎟ ⎜ a1 ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ y=⎜ . ⎟=⎜. . . . . ⎟ · ⎜ . ⎟ = V · a, ⎝ .. ⎠ ⎝ .. .. .. . . .. ⎠ ⎝ .. ⎠ yn
1 un u2n · · · unn
(2.20)
an
wobei y der Messvektor ist. Die Gleichung lässt sich lösen, wenn die Determinante |V | der Vandermonde-Matrix V ungleich Null ist. Die Determinante lässt sich geschlossen berechnen, indem man sie rekursiv in Unterdeterminanten auflöst. Die Matrix V hat den Rang r = (n + 1). Man multipliziert jeweils die vorherige Spalte mit un−r+1 und subtrahiert sie von der gerade betrachteten Spalte: r = n+1: 1 0 1 u1 − u0 |V | = . .. .. . 1 un − u0
··· 0 · · · un1 − un−1 · u 0 1 .. .. . . n n−1 ··· u − u · u0 n
n
2.Spalte − 1.Spalte × u0 3.Spalte − 2.Spalte × u0 . .. . (n + 1).Sp. − n.Sp. × u0
Die Determinante wird nach der ersten Zeile entwickelt, bei der nur das erste Element ungleich Null ist. Die Terme (uj − u0 ) werden aus den Zeilen herausgezogen (j = 1, . . . , n): r=n: 1 |V | = (u1 − u0 ) (u2 − u0 ) · · · (un − u0 ) ... 1
u21 · · · un−1 1 .. . . .. . . . . 2 un un · · · un−1 n u1 .. .
Das Verfahren wird mit r = n bzw. u1 wiederholt usw. Man erhält schließlich (u1 − u0 ) (u2 − u0 ) (u3 − u0 ) · · · (un − u0 ) · (u2 − u1 ) (u3 − u1 ) · · · (un − u1 ) · (u3 − u2 ) · · · (un − u2 ) · . |V | = .. .
(2.21)
(un − un−1 ) Die Determinante berechnet sich somit aus dem Produkt aller möglicher Differenzen zweier Stützstellen zur Interpolation. Die Matrizeninversion von V ist genau dann gut konditioniert (numerisch gut berechenbar), wenn es kein sehr eng beieinander liegendes Stützstellenpaar gibt. Die Koeffizienten berechnen sich dann mittels a = V−1 y, wodurch die Interpolationgleichung Gl.(2.18) folgende Form annimmt :
2.3 Kennlinieninterpolation
yˆ = aT u = uT a = uT V−1 y.
23
(2.22)
Bei praktischen Aufgaben arbeitet man anstelle des Polynomansatzes in Gl.(2.18) mit Lagrange-Polynomen yˆ =
n
yi Li (u) ,
oder in Vektorschreibweise yˆ = LT y.
(2.23)
i=0
Aus einem Vergleich von Gl.(2.22) und Gl.(2.23) sieht man, dass sich die LagrangePolynome gerade aus der invertierten Vandermonde-Matrix entsprechend T L = V−1 u
(2.24)
ergeben. Die Lagrange-Polynome sind damit Li (u) =
(u − u0 ) · · · (u − ui−1 )(u − ui+1 ) · · · (u − un ) . (ui − u0 ) · · · (ui − ui−1 )(ui − ui+1 ) · · · (ui − un )
(2.25)
Sie haben die Eigenschaften Li (uj ) = δij , d.h. yˆ (uj ) =
n
yi Li (uj ) = yj ,
(2.26)
i=0 n
Li (uj ) = 1.
(2.27)
i=0
Mit Gl.(2.23) folgt hieraus, dass die Stützstellen eines Lagrange-Polynoms exakt interpoliert werden. Beispiel 2.1 Lagrange-Interpolation mit drei Stützstellen Die Messkennlinie sei durch drei Stützstellen ua , um , ue gegeben, die äquidistant liegen mögen (s. Abb. 2.6): um − ua = ue − um = h. Die Lagrange-Polynome sind damit L0 (u) =
1 (u − um ) (u − ue ) = 2 (u − um ) (u − ue ) , (ua − um ) (ua − ue ) 2h
L1 (u) =
1 (u − ua ) (u − ue ) = − 2 (u − ua ) (u − ue ) , (um − ua ) (um − ue ) h
L2 (u) =
1 (u − ua ) (u − um ) = 2 (u − ua ) (u − um ) . (ue − ua ) (ue − um ) 2h
Die Interpolation lautet dann
24
2. Kurvenanpassung
y ye
y$ ym
ya
ua
um
yˆ =
2
ue
u
Abbildung 2.6. Skizze der zu interpolierenden Messkurve
yi Li (u)
i=0
ym ya (u − um )(u − ue ) − 2 (u − ua )(u − ue ) 2 2h h ye + 2 (u − ua )(u − um ). 2h
=
Mit ua = 0, ya = 0 sowie um = h, ue = 2h erhält man y 2 ym ye ym e . yˆ = u − − + u2 h 2h 2 h2 h2
(2.28)
Liegen die drei Stützstellen auf einer Geraden, d.h. ist ym = ye /2, so wird die Kurve linear, ye . ylin = u · 2h 2.3.2 Interpolation durch Newton-Polynome Für die Interpolation durch die Punkte (ui , yi ) der Messkennlinie wird der Ansatz yˆ = a0 + a1 (u − u0 ) + a2 (u − u0 ) (u − u1 ) + · · · + an (u − u0 ) (u − u1 ) · · · (u − un−1 )
(2.29)
gemacht. Die Koeffizienten werden rekursiv aus den Interpolationsbedingungen in den Stützstellen berechnet: y 0 = a0 , y1 = a0 + a1 (u1 − u0 ) , .. . yn = a0 + a1 (un − u0 ) + a2 (un − u0 ) (un − u1 ) + · · · + an (un − u0 ) (un − u1 ) · · · (un − un−1 ) .
(2.30)
2.3 Kennlinieninterpolation
25
Es werden Differenzen eingeführt: 1. Differenzen 1. Ordnung, ∆y0 = y1 − y0 , ∆y1 = y2 − y1 , ∆y2 = y3 − y2 , · · · . 2. Differenzen 2. Ordnung, ∆2 y0 = ∆y1 − ∆y0 = y2 − 2y1 + y0 , ∆2 y1 = ∆y2 − ∆y1 = y3 − 2y2 + y1 . 3. Allgemeine Differenzen, ∆j yi = ∆j−1 yi+1 − ∆j−1 yi .
(2.31)
Für das Rechnen mit Differenzoperatoren gilt folgende Beziehung: i
yi = (1 + ∆) y0 .
(2.32)
Beweis: Der Beweis erfolgt durch vollständige Induktion: • i = 1: y1 = (1 + ∆)y0 = y0 + ∆y0 = y0 + y1 − y0 = y1 . • Schluss von i auf (i + 1): yi+1 = (1 + ∆)i+1 y0 = (1 + ∆) (1 + ∆)i y0 yi
= (1 + ∆)yi = yi + yi+1 − yi = yi+1 .
In ausmultiplizierter Darstellung lautet Gl.(2.32) yi = y0 +
i i (i − 1) 2 i! ∆y0 + ∆ y0 + · · · + ∆i y0 . 1! 2! i!
(2.33)
Bei konstantem Stützstellenabstand h erhält man nach Gl.(2.30) y 0 = a0 , y1 = a0 + a1 h, .. . yi = a0 + a1 i h + a2 i (i − 1) h2 + · · · + ai i ! hi , .. . yn = a0 + a1 n h + a2 n (n − 1) h2 + · · · + an n ! hn .
(2.34)
26
2. Kurvenanpassung
Vergleicht man Gl.(2.34) mit den Differenzen aus Gl.(2.33) in ausmultiplizierter Darstellung, so erhält man für die Koeffizienten der Ordnung j jeweils aj · i (i − 1) · · · (i − j + 1) · hj = i (i − 1) · · · (i − j + 1) · ∆j y0 /j!. Die Koeffizienten des Newton-Polynoms lassen sich damit aus den Differenzen als aj =
∆j y0 j! hj
berechnen. Mit den Differenzen wird die Newtonsche Interpolationsformel für äquidistante Stützstellen zu yˆ = y0 + +
∆y0 ∆2 y0 (u − u0 ) + (u − u0 )(u − u1 ) + · · · h 2h2
∆n y0 (u − u0 ) · · · (u − un−1 ) . n!hn
(2.35)
Die höheren Differenzen lassen sich auf einfache Weise mit dem DifferenzenSchema durch fortlaufende Subtraktion gewinnen: u y ∆y ∆2 y ∆3 y ∆4 y 0 y0 ∆y0 ∆2 y0 h y1 ∆y1 ∆3 y0 2 ∆ y1 ∆4 y0 2h y2 3 ∆y2 ∆ y1 ∆2 y2 3h y3 ∆y3 4h y4
(2.36)
Bei nicht-äquidistanten Stützstellen lässt sich das Differenzenschema verallgemeinern, indem man die Funktionsdifferenzen durch den Stützstellenabstand teilt. Beispiel 2.2 Newton-Interpolation mit drei Stützstellen Gegeben sei eine Messkennlinie mit drei Stützstellen ua , um , ue . Es gelte wieder ua = 0 , um = h , ue = 2h , ya = 0 . Das Differenzen-Schema ist u y 0 ya h ym 2h ye
∆y ym − ya ye − ym
∆2 y ye − 2ym + ya
2.3 Kennlinieninterpolation
27
wodurch sich folgende Interpolationsfunktion ergibt : yˆ =
ye − 2ym ym u+ u (u − h) . h 2h2
Das Ergebnis stimmt mit dem Ergebnis der Lagrange-Interpolation aus Gl.(2.28) überein. Für ye = 2ym verschwindet wieder das quadratische Glied. 2.3.3 Spline-Interpolation Wie bereits eingangs erwähnt, ist die klassische Polynominterpolation bei einer großen Anzahl von Messpunkten sehr unpraktisch, weil man dann Interpolationspolynome von hoher Ordnung erhält. Ein anderes Interpolationsverfahren ordnet deshalb den Teilintervallen verschiedene Polynome niedriger Ordnung zu. Das einfachste Verfahren verbindet hierbei benachbarte Messpunkte linear (Abb. 2.7). Bei n Messpunkten besteht die Interpolationsfunktion aus n − 1 Geradenstücken in den Bereichen [xi , xi+1 ],
i = 0 . . . n − 1.
y
u Abbildung 2.7. Lineares Interpolieren zwischen den Stützstellen
Ein großer Nachteil dieser Methode ist die Tatsache, dass die erste Ableitung der Interpolationsfunktion bereits nicht mehr stetig ist. Für die Anwendung in der Messtechnik ist diese Art der Interpolation daher nicht geeignet, weil man sich für die erste Ableitung der Messkennlinie (entspricht der Empfindlichkeit, s. Abschn. 3.1) eine stetige Funktion wünscht. Abhilfe schafft die Interpolation mit Spline-Funktionen. Die Spline-Funktion geht zurück auf das mechanische Modell von dünnen Latten (engl. splines). Das Modell geht davon aus, dass durch die gegebenen Stützstellen eine dünne, homogene Latte gelegt sei. In den Stützstellen sei die Latte so gelagert, dass dort keine äußeren Kräfte einwirken. Die so entstehende Biegelinie der Latte soll die Lösung s(x) der Interpolationsaufgabe sein. Die aufgrund der Biegekraft in der Latte gespeicherte Energie lässt sich, abgesehen von
28
2. Kurvenanpassung
physikalischen und geometrischen Konstanten, als das Integral über die Krümmung s (x) beschreiben, 1 E= 2
xn
s (x) dx.
(2.37)
x0
Der stabile Arbeitspunkt eines Systems stellt sich dann ein, wenn die Energie des Systems ihr Minimum annimmt. Auf unser Modell übertragen wird genau die Biegelinie s(x) angenommen, die den Ausdruck (2.37) minimiert: xn
s (x) dx
⇒ min .
(2.38)
x0
Die gesuchte Spline-Funktion s(x) minimiert also obige Gleichung unter der Voraussetzung, dass s(x) mindestens einmal stetig differenzierbar ist. Aus diesen Bedingungen ergeben sich nach Lösung von Gl.(2.38) mit Hilfe der Variationsrechnung [7, 29] folgende Eigenschaften der Spline-Interpolierenden: si (xi ) = yi , si (xi + 0) = si−1 (xi − 0),
i = 0, 1, . . . , n, i = 1, 2, . . . , n − 1,
s0 (x0 ) = sn−1 (xn ), s (x) = 0,
(2.39) (2.40) (2.41)
x = x0 , . . . , xn .
(2.42)
Gleichung (2.39) ist gerade die Interpolationsbedingung. Aus Gl.(2.40) folgt, dass nicht nur die erste, sondern auch die zweite Ableitung der Interpolationsfunktion stetig ist. Wegen Gl.(2.42) ist s(x) in jedem Teilintervall ein kubisches Polynom. Die interpolierende Spline-Funktion setzt sich also stückweise aus Polynomen dritten Grades zusammen. Man bezeichnet daher s(x) auch als kubischen Spline. Natürlich können auch Splines höherer Ordnung durch Erweiterung von Gl.(2.38) auf höhere Ableitungen erzeugt werden. Diese Erweiterung ist dann rein mathematischer Natur, ohne physikalische Motivation. Berechnung der kubischen Spline-Interpolierenden: Mit den Eigenschaften von Gl.(2.39) bis (2.42) kann nun die gesuchte Interpolationsfunktion s(x) konstruiert werden. Für jedes Teilintervall [xi , xi+1 ] der Länge hi = xi+1 − xi wählt man als Ansatz ein allgemeines Polynom 3. Grades, si (x) = ai (x − xi )3 + bi (x − xi )2 + ci (x − xi ) + di .
(2.43)
2.3 Kennlinieninterpolation
29
Für den Funktionswert und die ersten beiden Ableitungen an den Enden des Intervalls, d.h. an den Stützstellen erhält man si (xi ) = di si (xi+1 ) = ai h3i + bi h2i + ci hi + di si (xi ) = ci , si (xi+1 ) = 3ai h2i + 2bi hi + ci , si (xi ) = 2bi si (xi+1 ) = 6ai hi + 2bi
= yi , = yi+1 , = yi , = yi+1 .
Die unbekannten Parameter ai , bi , ci und di können damit durch die gegebenen Stützpunkte yi und yi+1 sowie die noch unbekannten zweiten Ableitungen yi und yi+1 ausgedrückt werden: 1 (y − yi ), 6hi i+1 1 bi = yi , 2 1 1 ci = (yi+1 − yi ) − hi (yi+1 + 2yi ), hi 6 di = yi .
ai =
(2.44)
Die unbekannten zweiten Ableitungen sollen nun aus der Bedingung für die Stetigkeit der ersten Ableitung an den inneren Stützstellen berechnet werden. Für die erste Ableitung am Intervallende xi+1 ergibt sich nach Einsetzen der Parameter ai , bi , ci si (xi+1 ) =
1 hi (yi+1 − yi ) + (2yi+1 + yi ). hi 6
Die Forderung nach Stetigkeit der ersten Ableitung an den inneren Stützstellen ergibt si (xi+1 ) = si+1 (xi+1 ) mit si+1 (xi+1 ) = ci+1 =
1 hi+1 (yi+2 + 2yi+1 (yi+2 − yi+1 ) − ). hi+1 6
Setzt man beide Gleichungen gleich und ordnet nach den unbekannten zweiten Ableitungen, so erhält man hi yi +2(hi +hi+1 )yi+1 +hi+1 yi+2 =
6 6 (yi+2 −yi+1 )− (yi+1 −yi ). hi+1 hi
Berücksichtigt man Gl.(2.41), also y0 = yn = 0, so erhält man ein System von (n− 1) linearen Gleichungen für die unbekannten zweiten Ableitungen y1 , y2 , . . . , yn−1 :
30
2. Kurvenanpassung
⎤⎡ ⎤ ⎡ y1 2(h0 +h1 ) h1 0 ··· 0 ⎥⎢ y2 ⎥ ⎢ h 2(h +h ) h 0 · · · 0 1 1 2 2 ⎥⎢ ⎢ ⎥ ⎥⎢ .. ⎥= ⎢ .. .. .. ⎦ ⎣ ⎣ . . ⎦ . . 0 ··· 0 0 hn−2 2(hn−2 +hn−1 ) yn−1 ⎡ ⎢ ⎢ ⎢ =⎢ ⎢ ⎢ ⎣
6 h1 (y2 6 h2 (y3
6 hn−1 (yn
− y1 ) − − y2 ) − .. .
− yn−1 ) −
6 h0 (y1 6 h1 (y2
− y0 ) − y1 )
6 hn−2 (yn−1
− yn−2 )
⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎦
(2.45)
Der Rechengang zur Bestimmung der kubischen Spline-Interpolierenden s(x) liegt nun auf der Hand. Aus den gegebenen Stützstellen (xi , yi ), i = 0, . . . , n, werden die Längen der Intervalle hi bestimmt und das Gleichungssystem (2.45) zur Bestimmung der yi aufgestellt. Nach dessen Lösung werden nach Gl.(2.44) die Koeffizienten ai , bi , ci und di der zum Teilintervall [xi , xi+1 ] gehörenden kubischen Polynome si (x) bestimmt. Beispiel 2.3 Interpolation einer sin-Funktion Im folgenden soll die Funktion sin( π2 x) im Intervall [−2, 2] durch LagrangePolynome und Spline-Funktionen interpoliert werden. Die Stützstellen sind xi = [−2 , −1 , 0 , 1 , 2], yi = [0 , −1 , 0 , 1 , 0]. Die Lagrange-Interpolation liefert das Polynom 1 4 yˆL = − x3 + x, 3 3
−1 ≤ x < 1.
Mit Gl.(2.45) erhält man bei der Spline-Interpolation für die zweiten Ableitungen yi = [0 , +3 , 0 , −3 , 0] und gelangt damit zu folgender Interpolationsfunktion: ⎧ 1 3 9 ⎪ ⎪ x + 3x2 + x + 1 , x < −1, ⎪ ⎪ 2 2 ⎨ 1 3 yˆs (x) = s(x) = − x3 + x , −1 ≤ x < 1, ⎪ 2 2 ⎪ ⎪ ⎪ ⎩ 1 x3 − 3x2 + 9 x − 1 , x ≥ 1. 2 2 Abbildung 2.8 zeigt das Ergebnis. Man erkennt, dass die Spline-Interpolation ein deutlich besseres Ergebnis liefert.
2.4 Kennfeld-Interpolation
31
y 1
sin π 2x
( )
Spline-Interpolation Lagrange-Interpolation
-2
-1.5
-1
-0.5
0.5
1
1.5
2 x
-1
Abbildung 2.8. Vergleich von Spline- und Lagrange-Interpolation
2.4 Kennfeld-Interpolation In den Abschn. 2.1 bis 2.3.3 wurde eine analytische Kennliniendarstellung aus Messpunkten bestimmt. Dies geschah vor der eigentlichen Messung bei der Auslegung des Messsystems. Wenn die physikalische Kennlinie des Messsystems eine nichtlineare Funktion von einer unabhängigen Messgröße u und einer systematischen Störgröße z ist, kann man die Ausgangsgröße y in jedem Messvorgang durch eine zweidimensionale Interpolation berechnen. Dabei wird der bekannte Einfluss der Störgröße z auf die Ausgangsgröße kompensiert. Dazu werden die zuvor bestimmten Kennfeldwerte y in den äquidistanten Stützstellen (ui , zj ) Messtechnisch erfasst und abgespeichert. Die Zwischenwerte in den Stützstellen-Intervallen werden für feiner aufgelöste Eingangsgrößen interpoliert. Zur Ableitung der Interpolationsvorschrift wird die Ausgangsgröße y im Intervall (ui , zj ) in eine Taylor-Reihe entwickelt. Zur besseren Übersicht wird eine verkürzte Schreibweise verwendet, z.B. ∂ f (ui , zj ) ∂ f (u, z) . ⇒ ∂ u ui ,zj ∂u Es ergibt sich y(u, z) = f (ui + ∆u, zj + ∆z) ∂f (ui , zj ) ∂f (ui , zj ) · ∆u + · ∆z = f (ui , zj ) + ∂u ∂z 2 2 ∂ f (ui , zj ) ∂ 2 f (ui , zj ) ∂ f (ui , zj ) 2 + ∆u∆z + (∆u ) + (∆z 2 ). 2 · ∂u2 ∂u∂z 2 · ∂z 2
32
2. Kurvenanpassung
Approximiert man die partiellen Ableitungen durch Differenzenquotienten erster Ordnung, so folgt y(u, z) ≈ y (ui , zj ) + +
∆y (ui ) ∆y (zj ) · ∆u + · ∆z ∆ui ∆zj
∆2 y(ui ) ∆2 y(ui , zj ) ∆2 y(zj ) (∆u)2 + ∆u∆z + (∆z)2 . 2 2(∆ui ) ∆ui ∆zj 2(∆zj )2
Die zweiten Differenzen ∆2 y (ui ) = [y (ui+2 , zj ) − y (ui+1 , zj )] − [y (ui+1 , zj ) − y (ui , zj )] ≈ 0, ∆2 y (zj ) = [y (ui , zj+2 ) − y (ui , zj+1 )] − [y (ui , zj+1 ) − y (ui , zj )] ≈ 0, und Differenzen höherer Ordnung werden im allgemeinen vernachlässigt. Kennfeld-Berechnung im Mikrorechner: Neben dieser allgemeinen Darstellung der Kennfeld-Interpolation interessiert vor allem eine geschickte Darstellung der Interpolation für die Implementierung auf einem Mikrorechner. Hierbei wird man nicht beliebige Zwischenwerte interpolieren, sondern sich auf ein festes Raster der Breite qu bzw. qz zwischen den Stützstellen beschränken. Mit einer Rasterung des Intervalls in Potenzen von zwei, ∆ui = ui+1 − ui = 2r qu , ∆zj = zj+1 − zj = 2r qz , und der Annahme, dass die Intervallbreiten beider unabhängiger Variablen u und z die gleiche Auflösung 2r bei vorgegebener Quantisierung qu , qz besitzen, lässt sich die Approximation folgendermaßen darstellen: y (u, z) = y (ui , zj ) y (ui+1 , zj ) − y (ui , zj ) ∆u y (ui , zj+1 ) − y (ui , zj ) ∆z + + 2r qu 2r qz y (ui+1 , zj+1 ) − y (ui , zj+1 ) − y (ui+1 , zj ) + y (ui , zj ) ∆u∆z + . 22r qu qz Ordnet man die Summanden nach Elementen der Stützstellen, so ergibt sich 1 ∆u 1 ∆z 1 ∆u ∆z − r + 2r · y (u, z) = y (ui , zj ) · 1 − r + 2 qu 2 qz 2 qu qz 1 ∆u 1 ∆u ∆z − 2r · + + y (ui+1 , zj ) · r 2 qu 2 qu qz 1 ∆z 1 ∆u ∆z + y (ui , zj+1 ) · r − 2r · + 2 qz 2 qu qz 1 ∆u ∆z + y (ui+1 , zj+1 ) 2r · . 2 qu qz
2.4 Kennfeld-Interpolation
33
Ausklammern des Faktors 22r führt auf 1 ∆u ∆z ∆u ∆z r r y (u, z) = 2r y (ui , zj ) 2 − 2 − + y (ui+1 , zj+1 ) 2 qu qz qu qz ∆u ∆z ∆u ∆z r r +y (ui+1 , zj ) 2 − + y (ui , zj+1 ) 2 − . qu qz qu qz In Summenschreibweise ergibt sich die Form y (u, z) =
1 1 1 · km,n ·y (ui+m , zj+n ) . 22r m=0 n=0
(2.46)
Man erhält als Interpolationsfunktion y(u, z) eine gewichtete Mittelwertbildung, bei der die Funktionsamplituden y (ui+m , zj+n ) an den Ecken des Intervall-Quadrats mit dem Produkt m ∆u n ∆z r r km,n = (m − 1) 2 + (−1) · (n − 1) 2 + (−1) qu qz der gegenüberliegenden Teilintervalle gewichtet werden (s. Abb. 2.9). y ( ui +1 , z j +1 )
y ( ui , z j +1 )
z y ( u, z )
z j +1
y ( ui , z j )
∆ ui
∆ zj zj ui
∆u
e2
r
qu − ∆ u
j
ui +1
∆z
u
Abbildung 2.9. Interpolation in einem Intervall
34
2. Kurvenanpassung
Die Funktionsamplitude y (ui , zj+1 ) wird beispielsweise mit ∆u ∆z (2r qu − ∆u) ∆z r · − = k0,1 = −2 + qu qz qu qz gewichtet, d.h. mit dem Produkt der Teilintervalle (ui+1 − ∆u) · ∆z. Je näher der Funktionswert y (u, z) an eine der vorab gemessenen Funktionsamplituden an den Intervallgrenzen y (ui+m , zj+n ) heranrückt, desto stärker geht diese in das Interpolationsergebnis ein. Wegen der Vernachlässigung der zweiten Differenzen ∆2 y (ui ), ∆2 y (zj ) und der linearen Interpolation im Intervall weist das Interpolationskennfeld an den Intervallgrenzen Unstetigkeiten in der Steigung auf. Die Summe der Koeffizienten ist begrenzt auf 1 1 ∆u ∆z ∆u ∆z km,n = 22r − 2r − 2r +2 q q qu qz u z m=0 n=0 ∆u ∆u ∆z ∆z ∆u ∆z = 22r . + 2r − + 2r − qu qu qz qz qu qz Im folgenden soll der Aufwand für die numerische Berechnung abgeschätzt werden. Zur Berechnung der Koeffizienten innerhalb eines Teilintervalles ist je eine Multiplikation der Wortlänge r × r erforderlich, mit der Ergebniswortlänge 2r. Sind die Funktionsamplituden y(ui+m , zj+n ) mit der Wortlänge s gegeben, so ist zur Berechnung der Produkte km,n · y (ui+m , zj+n ) je eine Multiplikation der Wortlängen 2r × s erforderlich, mit der Ergebnis- Wortlänge (2r + s). Mit der Voraussetzung y (ui+m , zj+n ) ≤ 2s kann der Funktionswert insgesamt als 1 1 2r 2 |y (u, z)| = km,n y (ui+m , zj+n ) m=0n=0 1 1 ≤ 2s km,n = 2(2r+s) m=0n=0
abgeschätzt werden. Das Ergebnis y (u, z) kann durch Schieben um 2r - Stellen auf die Wortlänge s zurückgeführt werden.
2.4 Kennfeld-Interpolation
35
Beispiel 2.4 7 × 7-Kennfeld in einem Mikrorechner Als Beispiel sei ein Kennfeld mit i = 1, ...7,
j = 1, ..., 7.
Intervallen betrachtet, die in jeweils 2r = 16 Inkremente der Quantisierung qu , qz unterteilt seien. Es müssen (imax + 1) (jmax + 1) = 64 Funktionsamplituden y (ui+m , zj+n ) abgespeichert werden. Die vier Wichtungskoeffizienten innerhalb eines Intervalls km,n werden mit 4 Bit x 4 Bit- Multiplikationen berechnet. Wenn die Funktionsamplituden die Wortlänge s = 8 Bit haben, so sind zur Berechnung des Funktionswertes y (u, z) vier 8 Bit * 8 Bit- Multiplikationen erforderlich, deren Summe eine Wortlänge von 16 Bit hat. Durch Schieben um 2r Stellen, d.h. 8 Bit kann die ursprüngliche Wortlänge von 8 Bit wieder hergestellt werden.
3. Stationäres Verhalten von Messsystemen
In diesem Kapitel wird das stationäre Verhalten von Messsystemen untersucht. Im stationären Fall sind alle Einschwingvorgänge des Messsystems abgeklungen und es stellt sich eine stabile Anzeige am Messsystem ein. Das Verhalten des Messsystems wird nun alleine durch die stationäre Messkennlinie bestimmt.
3.1 Stationäre Messkennlinie und deren Fehler 3.1.1 Abgleich, Justierung der Messkennlinie Vor dem Abgleich werden die Normalbedingungen des Messsystems gemäß seiner Spezifikation eingestellt. Äußere Störgrößen werden dabei auf den spezifizierten Werten konstant gehalten oder durch Abschirmung bzw. Filterung ferngehalten. Der Einstellvorgang, der das Messsystem gemäß seiner technischen Beschreibung tauglich macht für die vorgesehene Messaufgabe, ist der Abgleich oder die Justierung. Unter Abgleichen oder Justieren versteht man einen Eingriff in das Gerät oder seine Maßverkörperung mit dem Ziel, den Messbereich auf den vorgesehenen Bereich der Ausgabeeinrichtung, des Ausgangssignals oder der Anzeige abzubilden. Beispiel 3.1 Justierung eines Temperaturmessgerätes Eine digitale Temperaturanzeige soll etwa im Messbereich 20 . . . 100◦ C auf einen Bereich von 0 bis 100 % gebracht werden. Die Anzeigegröße ist eine elektrische Spannung U zwischen 2 und 300 mV . Eine vorhandene Skala eines Zeigerinstrumentes soll auf möglichst kleine Fehler justiert werden. D.h. bei U = 2mV soll der Zeiger im Anfangspunkt der Skala stehen (20◦ C) und bei U = 300mV im Endpunkt der Skala (100◦ C). Messgeräte haben im allgemeinen zwei Möglichkeiten für den Abgleich, die additive Verschiebung und die multiplikative Drehung der Kennlinie. Zwei Verfahren sind bei der Justierung gebräuchlich: Fixpunktjustierung Nach der Fixpunktjustierung geht die Kennlinie durch den Anfangspunkt (ua , ya ) und durch den Endpunkt (ue , ye ) hindurch. Der Messbereich (ue − ua ) wird auf den Anzeigebereich (ye − ya ) abgebildet. Im Messanfang und Messende ist damit der Fehler Null.
38
3. Stationäres Verhalten von Messsystemen
Toleranzbandjustierung Die Toleranzbandjustierung entsteht durch eine zusätzliche additive Verschiebung der Fixpunktjustierung. Ziel ist es, den maximalen Fehler im Messbereich möglichst klein zu machen. Der maximale Fehler wird im Vergleich zur Fixpunktjustierung auf die Hälfte reduziert. Die Kennlinie geht dann allerdings nicht mehr durch den Anfangs- und Endpunkt. y
y
Fixpunkteinstellung
Toleranzbandeinstellung
ye
ye
F F
F ya
ya
ua
ue
u
F ua
ue
u
Abbildung 3.1. Fixpunkt- und Toleranzbandjustierung
In der Praxis wird der Fixpunktjustierung der Vorzug gegeben, weil die Justierung erheblich weniger arbeitsaufwendig ist. Der Abgleich unter Normalbedingungen bedeutet, dass er für den festen, spezifizierten Störgrößenvektor z0 vorgenommen wird. Die physikalische Messkennlinie y = f (u, z)
(3.1)
wird bei Fixpunktjustierung so justiert, dass die resultierende Kennlinie durch den gewünschten Anfangspunkt !
ya = f (ua , z0 )
(3.2)
geht. Der Nullpunktfehler (Offsetfehler) e (z) = f (ua , z) − ya
(3.3)
ist unter Normalbedingungen, d.h. für den Störgrößenvektor z0 , aufgrund der Justierung Null, e (z0 ) = f (ua , z0 ) − ya = 0.
(3.4)
Vom Justieren oder Abgleichen zu unterscheiden ist das Eichen. Das Eichen ist eine gesetzliche Maßnahme, die durch eine Prüfbehörde erfolgt. 3.1.2 Ideale und reale Messkennlinie Die Messkennlinie beschreibt den funktionalen Zusammenhang zwischen den Messwerten u und den Anzeigewerten y. Die wesentlichen Begriffe werden im folgenden definiert.
3.1 Stationäre Messkennlinie und deren Fehler
39
Messanfang, Messende, Messbereich, Anzeigebereich: • Messanfang: ua . • Messende: ue . • Messbereich: ue − ua . • Anzeigebereich: ye − ya . Messspanne, Anzeigespanne: • ideale Messspanne: ui − ua . • ideale Anzeigespanne: yi − ya . Ideale Messkennlinie: Zur Vereinfachung wird in Messsystemen zumeist eine lineare Kennlinie yi verwendet, die den Messanfang und das Messende durch eine Gerade miteinander verbindet. Man nennt diese Kennlinie auch ideale Kennlinie. Die ideale Kennlinie besitzt über dem gesamten Messbereich ue − ua eine gleich hohe Steigung. Änderungen des Messeffektes gehen mit gleich großer Empfindlichkeit in die Messwertanzeige ein. Diese Eigenschaft wird gerade durch eine lineare Kennlinie gewährleistet. Die reale Kennlinie ist dagegen im allgemeinen nichtlinear (Abb. 3.2). Die Fehler, die durch Verwendung der idealen Kennlinie statt der realen, nichtlinearen Kennlinie entstehen, sind in Abschn. 3.1.3 beschrieben. Empfindlichkeit: Die Empfindlichkeit (Sensitivity) S(u, z) ist die Steigung der Kennlinie y (u, z): S(u, z) =
∂f (u, z) ∂y = . ∂u ∂u
(3.5)
Die Empfindlichkeit ist im allgemeinen eine Funktion der Messgröße u und der Störgröße z. Die Abhängigkeit von u charakterisiert das nichtlineare Verhalten der realen Kennlinie. Die Empfindlichkeit der idealen Kennlinie ist hingegen von der Messgröße u unabhängig. Man bezeichnet die Empfindlichkeit der idealen Kennlinie als ideale Empfindlichkeit Si =
ye − ya , ue − ua
(3.6)
Damit kann die ideale Messkennlinie beschrieben werden: yi − ya = Si · (u − ua ) .
(3.7)
3.1.3 Kennlinienfehler bei realer Kennlinie Die Kennlinie von Messsystemen erstreckt sich nach der Justierung über den Messbereich. Alle systematischen Fehler werden als Kennlinienfehler interpretiert.
40
3. Stationäres Verhalten von Messsystemen
y ye
∂y S= ∂u Si
y yi
ya
ua
u
ui
ue
u
Abbildung 3.2. Messkennlinie und Empfindlichkeit
Zu den Fehlern gehören die unerwünschten Nichtlinearitäten, die im Vergleich zur idealen Messkennlinie auftreten und die Einflüsse von Störgrößen z. Zwischen beiden Fehlern wird zunächst keine Unterscheidung gemacht. Der Reduzierung von Fehlern durch Nichtlinearitäten ist Abschn. 3.2 gewidmet, während Störgrößeneinflüsse in Abschn. 3.3 diskutiert werden. Zu einem Anzeigewert des Messgerätes y gehört der richtige Messwert u aufgrund der physikalischen Gesetzmäßigkeiten. Die ideale Kennlinie des Messgerätes ordnet hingegen dem Anzeigewert y einen fehlerhaften Messwert ui zu. Umgekehrt ordnet die ideale Kennlinie dem richtigen Messwert u einen fehlerhaften Anzeigewert yi zu. Relativer Kennlinienfehler: Bezieht man die Größen u und y auf den Messanfang (Unterdrückung der Anfangswerte), so wird der relative Fehler nach Gl.(1.4) zu Fr =
(ui − ua ) − (u − ua ) ui − u = . u − ua u − ua
Mit der idealen Kennlinie (Abb. 3.2) y − ya = Si (ui − ua ) , yi − ya = Si (u − ua ) , y − yi = Si (ui − u) , kann man den relativen Fehler von den Messgrößen auf die Anzeigegrößen umrechnen: Fr =
y − yi Si y − yi · = . Si yi − ya yi − ya
Auf dieser Basis werden die folgenden Fehler definiert:
(3.8)
3.1 Stationäre Messkennlinie und deren Fehler
41
1. Relativer Kennlinienfehler, bezogen auf die Anzeigespanne Fr SS =
y − yi . yi − ya
(3.9)
2. Relativer Kennlinienfehler, bezogen auf den Anzeigebereich Fr ES =
y − yi . ye − ya
(3.10)
Für ua = 0 und ya = 0 ergeben sich entsprechende Definitionen. 3. Relativer Kennlinienfehler, bezogen auf den Anzeigewert yi (Sollwert), der über die ideale Kennlinie dem Messwert u zugeordnet ist: Fr S =
y − yi . yi
(3.11)
4. Relativer Kennlinienfehler, bezogen auf den Anzeigeendwert ye : Fr E =
y − yi . ye
(3.12)
Hysterese: Steigert man die Messgröße langsam und beobachtet dabei die Ausgangsgröße, und nimmt dann die Messgröße wieder langsam auf den alten Wert zurück, wird man oft –besonders bei Geräten mit feinwerktechnischen Teilen –feststellen, dass der alte Wert der Ausgangsgröße vor dem Versuch nicht mehr erreicht wird. Durch den Messvorgang sind im Messgerät langsam veränderliche Vorgänge ausgelöst worden, die noch nachwirken. Es werden je nach Durchführung des Versuchs zwei Kenngrößen bestimmt. Zur Feststellung der Hysterese wird die Messgröße langsam vom Messanfang bis zum Messende gesteigert und wieder langsam auf den Messanfang zurückgenommen. Die größte dabei auftretende Differenz H zwischen den richtungsabhängigen Kennlinien wird auf den Messbereich bezogen und als Hysterese h angegeben, h=
H . ue − ua
(3.13)
Umkehrspanne: Die Umkehrspanne wird ähnlich wie die Hysterese ermittelt. Die Messgröße wird aber dazu nur um einige wenige Prozent geändert. Der größte Fehler U zwischen Auf- und Abwärtsgang wird auf den Messbereich bezogen und als Umkehrspanne angegeben (Abb. 3.3), x=
U . ue − ua
(3.14)
Beide Erscheinungen können viele Ursachen haben. Eine Umkehrspanne ist immer dann vorhanden, wenn im Messsystem Hemmungen existieren, die es hindern, bei
42
3. Stationäres Verhalten von Messsystemen
y
y
ideale Kennlinie
ye
Reibung
H
Lose
h=
ya
H ue − ua
ua
U ue
u
x=
U ue − ua u
Abbildung 3.3. Hysterese und Umkehrspanne
stationärer Messgröße den Gleichgewichtszustand einzunehmen. Solche Hemmungen sind z.B. mechanische Reibung und Lose. In der Abbildung sind Umkehrspannen durch Reibung und Lose eingezeichnet. Bei Reibung ändert sich die Anzeige sprunghaft, wenn die größere Haftreibung überwunden wird. Existiert eine Umkehrspanne, wird man auch eine Hysterese messen. Das gleiche gilt nicht umgekehrt. Oft wird Hysterese durch innere Störgrößen hervorgerufen, wie z.B. durch die elastische Nachwirkung von Messfedern. Die Größe der Hysterese-Schleife ist in solchen Fällen abhängig von der Größe und der Dauer der Belastung, sie verschwindet für kleine Messgrößenänderungen. 3.1.4 Abschätzung des Kennlinienfehlers Der relative Kennlinienfehler, bezogen auf die Anzeigespanne, ergibt sich nach Gl.(3.9) aus der Differenz von physikalischer zu idealer Kennlinie. Bei dieser Betrachtung werden sowohl Störgrößen z von außen als auch Nichtlinearitäten der Kennlinie als Fehler erfasst: Fr SS =
y − yi . yi − ya
Mit der Empfindlichkeit S(u, z) aus Gl.(3.5) lässt sich die reale, stationäre Kennlinie im Messbereich ua . . . ue aufintegrieren: u
y = f (ua , z) +
S (u, z) du.
(3.15)
ua
Die physikalische Kennlinie y sei im ausgewählten Messbereich möglichst linear, weiche also nur wenig von der idealen Kennlinie yi ab. Zieht man von beiden Seiten der Gl.(3.15) ya ab, so erhält man
3.1 Stationäre Messkennlinie und deren Fehler
z1
y
z0
z2
43
U| V| Störgrößen W
ye
z
ue
ye −ya = S ( u, z0 ) du
e( z1 )
ua
ya
ua
u
ue
Abbildung 3.4. Physikalische Messkennlinie für unterschiedliche Störgrößenvektoren u
y − ya = ua
u
S (u, z) du + {f (ua , z) − ya } =
e(z)
S (u, z) du + e (z) .(3.16) ua
Der Nullpunktfehler e (z) im Messanfang ist durch Abgleich für den Störgrößenvektor z 0 gerade Null. Die mittlere Empfindlichkeit der realen nichtlinearen Kennlinie des Messgerätes erhält man aus dem Ansatz u ! S (u, z 0 ) du = S¯ (u, ua, z 0 ) · (u − ua ) ,
y − ya =
(3.17)
ua u
S¯ (u, ua, z 0 ) =
1 u − ua
S (u, z 0 ) du = ua
y − ya . u − ua
(3.18)
Für das Messende u = ue stimmt diese mittlere Empfindlichkeit mit der idealen Empfindlichkeit überein, S¯ (ue , ua, z 0 ) =
1 ue − ua
ue
S (u, z 0 ) du = Si .
(3.19)
ua
Die Empfindlichkeitsdifferenz ∆S¯ (u, z 0 ) = S¯ (u, ua , z 0 ) − Si hängt ab von der jeweiligen Position des Messwertes im Messbereich und von der Wahl des Messanfangs. Der relative Kennlinienfehler, bezogen auf die Anzeigespanne, ist nach Gl.(3.9)
44
3. Stationäres Verhalten von Messsystemen
y
ye
y S ( u, ua , z0 )
yi
Si
S ( ua , z0 )
ya
ua
u
ue
u
Abbildung 3.5. Definition einer mittleren Empfindlichkeit unter spezifizierten Normalbedingungen
y − yi (y − ya ) − (yi − ya ) = yi − ya yi − ya ¯ S (u, ua , z 0 ) − Si · (u − ua ) ∆S¯ (u, z 0 ) = = . Si · (u − ua ) Si
Fr SS =
(3.20) (3.21)
Aus Gl.(3.20) erhält man (y − ya ) = (yi − ya ) · (1 + Fr SS ) = Si · (u − ua ) · (1 + Fr SS ) .
(3.22)
Der relative Kennlinienfehler ist am Messanfang gerade gleich der Empfindlichkeitsdifferenz ∆S¯ (ua , z 0 ), bezogen auf die Empfindlichkeit Si . Am Messanfang ist die physikalische Kennlinie y zwar gleich der idealen Kennlinie yi , d.h. die Differenz ist Null. Der dennoch von Null abweichende Kennlinienfehler Fr SS am Messanfang liegt am Bezug auf die Anzeigespanne, die dort ebenfalls Null ist. Die Kennlinie nach Gl.(1.2) wird zur Abschätzung des Fehlers in eine Taylor- Reihe um den Messanfang u = ua entwickelt: ∂f (u, z 0 ) 1 ∂ 2 f (u, z 0 ) 2 y = f (ua , z 0 ) + (u − ua ) + 2! (u − ua ) + ∂u ∂u2 u=ua u=ua 1 ∂ (ν+1) f (u, z 0 ) ν+1 (u − ua ) + ···. +· · · (ν + 1)! ∂u(ν+1) u=ua Durch Einsetzen der Empfindlichkeit nach Gl.(3.5) erhält man
3.2 Kennlinienfehler unter Normalbedingungen
y = f (ua , z 0 ) + S (ua , z 0 ) · (u − ua ) + +
1 S (ua , z0 ) · (u − ua )2 + · · · 2!
1 ν+1 S (ν) (ua , z 0 ) · (u − ua ) + ···, (ν + 1)!
oder
45
(3.23)
(y − ya ) = (u − ua )
1 S (ua , z 0 ) · (u − ua ) + . . . 2! % 1 (ν) ν + S (ua , z 0 ) · (u − ua ) + . . . . (ν + 1)!
S(ua , z 0 ) +
¯ S(u,u a ,z0 )
Durch Vergleich mit der mittleren Empfindlichkeit der realen Kennlinie in Gl.(3.17) wird diese näherungsweise 1 S¯ (u, ua , z 0 ) ≈ S (ua , z 0 ) + S (ua , z0 ) · (u − ua ) + · · · 2! 1 ν S (ν) (ua , z 0 ) · (u − ua ) . + (ν + 1)! Die Glieder zweiter und höherer Ordnung werden vernachlässigt. Der relative Kennlinienfehler, bezogen auf die Anzeigespanne, ist dann nach Gl.(3.21) S (ua , z 0 ) + 12 S (ua , z 0 ) · (u − ua ) − Si Si ∆S¯ (ua , z 0 ) 1 S (ua , z 0 ) ≈ + (u − ua ) . Si 2 Si
Fr SS ≈
(3.24) (3.25)
Über die Definition der mittleren Empfindlichkeit S¯ und über deren näherungsweisen Berechnung mittels der Taylorreihenentwicklung lässt sich jetzt der relative Kennlinienfehler Fr SS gemäß Gl.(3.24) in Abhängigkeit der Empfindlichkeit und deren Ableitungen angeben.
3.2 Kennlinienfehler unter Normalbedingungen In diesem Abschnitt wird das Messsystem unter den spezifizierten Normalbedingungen betrieben. Der Störgrößenvektor hat dabei konstant den Wert z 0 . Das Gerät ist so justiert, dass der Nullpunktfehler e (z 0 ) = 0 ist. Die auftretenden Messfehler werden als Abweichung der Messkennlinie von der idealen Messkennline interpretiert. Durch die im folgenden geschilderten Verfahren soll die Kennlinie der idealen Grundform angenähert werden und damit die Messfehler reduziert werden. Ziel ist also eine möglichst lineare Kennlinie mit konstanter Empfindlichkeit, S = Si = const.
46
3. Stationäres Verhalten von Messsystemen
3.2.1 Herabsetzen des Messbereichs Abbildung 3.6 zeigt das Blockschaltbild der Anordnung. Das Glied mit nichtlinearer Kennlinie hat die Empfindlichkeit S(u). Angestrebt wird eine lineare Kennlinie mit S = const über den Messbereich hinweg. Die Verbesserung soll mit einem vorgeschalteten linearen Übertragungsglied der Empfindlichkeit S0 1 und einem nachgeschalteten linearen Übertragungsglied der Empfindlichkeit S1 1 erreicht werden. u
S0
u1
S(u)
u2
S1
y
Abbildung 3.6. Herabsetzen des Messbereichs
Mit den Bezeichnungen aus Abb. 3.6, Gl.(3.7) und (3.22) wird u1 − u1a = S0 · (u − ua ) , u2 − u2a = Si · (1 + Fr SS ) (u1 − u1a ) , y − ya = S1 · (u2 − u2a ) . Daraus erhält man die Kennlinie der gesamten Kette zu y − ya = S0 S1 Si · (1 + Fr SS ) (u − ua ) .
(3.26)
Der relative Fehler des nichtlinearen Gliedes kann nach Gl.(3.25) approximiert werden als ∆S¯ (u1a , z 0 ) 1 S (u1a , z 0 ) + (u1 − u1a ) Si 2 Si 1 S (u1a , z 0 ) S (u1a , z 0 ) −1+ S0 (u − ua ) , = Si 2 Si
Fr SS =
(3.27)
≈0
wobei der zweite Term für S0 1 vernachlässigt werden kann. Die Ausgangsgröße in Gl.(3.26) wird damit (y − ya ) ≈ S0 S1 S (u1a , z 0 ) (u − ua ) .
(3.28)
Sie hängt nur noch von der konstanten Empfindlichkeit S (u1a , z 0 ) im Messanfang des nichtlinearen Gliedes ab. Zur Kompensation des kleinen S0 muss S1 entsprechend groß gewählt werden, damit die Bedingung S0 · S1 = 1
(3.29)
eingehalten wird. Die Messkennlinie ist linearisiert worden. Diese Vorgehensweise entspricht einer Linearisierung um einen Arbeitspunkt (hier u1 = u1a ). Dabei stellt
3.2 Kennlinienfehler unter Normalbedingungen
47
das Glied mit der Empfindlichkeit S0 1 sicher, dass sich die Eingangsgröße des nichtlinearen Systems u1 nur wenig vom Arbeitspunkt wegbewegt. Beispiel 3.2 Wegmessung mit Dehnmessstreifen Mit Hilfe von Dehnmessstreifen soll ein Wegmesser mit einem Messbereich von etwa 1 mm Weg realisiert werden. Die Aufgabe kann mit einer Anordnung nach Abb. 3.7 gelöst werden. Eine Blattfeder formt den für einen Dehnmessstreifen zu großen Weg x in eine kleine Dehnung ε = ∆ / um. Diesen kleinen Ausschlag ε · wandelt der Dehnmessstreifen fast linear in ein elektrisches Signal um, das in einem Verstärker auf das gewünschte Niveau gebracht wird. Das Strukturbild zeigt die geschilderte Methode.
U S 0 << 1
ε x
DMS
∆R R
ε = ∆l l
Blattfeder
S 1 >> 1
∆U U
DMS
x
Abbildung 3.7. Beispiel für das Herabsetzen der Messspanne
Vorgehen zur Linearisierung: a) Umsetzung des Weges x in eine kleine Längenänderung ∆ / mittels der Biegefeder: S0 1. b) Umsetzen der Längenänderung ∆ / in eine Widerstandsänderung ∆R/R. Es wird im linearen Teil der Kennlinie des Dehnungsmessstreifens gearbeitet (Abb. 3.8). c) Umsetzung von ∆R/R in eine Spannung ∆U /U mit anschließender Verstärkung: S1 1.
3.2.2 Hintereinanderschalten zweier nichtlinearer Glieder Hier werden die Bedingungen untersucht, die zwei nichtlineare Glieder mit den Empfindlichkeiten Sj (uj ) , j = 1, 2 in einer Messkette erfüllen müssen, damit insgesamt eine lineare Kennlinie resultiert (Abb. 3.9). Die Kennlinien und deren Ableitungen sind u2 = f1 (u1 ),
y = f2 (u2 ),
∂u2 ∂f1 (u1 ) = = S1 (u1 ), ∂u1 ∂u1
∂y ∂f2 (u2 ) = = S2 (u2 ). ∂u2 ∂u2
(3.30)
48
3. Stationäres Verhalten von Messsystemen ∆R R
Hysterese Nichtlinearitäten Linearer Bereich 0 , 4 ⋅ 10 - 2
4 ⋅ 10 - 2
∆l l
Abbildung 3.8. Kennlinie eines Dehnungsmessstreifens (DMS)
Man erhält ∂y ∂f2 (u2 ) ∂f1 (u1 ) = · = S1 (u1 ) S2 (u2 ) . ∂u1 ∂u2 ∂u1
u1
u2
S 1(u1 )
S 2(u 2 )
y
(3.31)
Abbildung 3.9. Hintereinanderschalten von zwei nichtlinearen Gliedern
Wird Linearität der Gesamtanordnung verlangt, so muss folgender Zusammenhang gelten: !
S = S1 (u1 ) S2 (u2 ) = const.
(3.32)
Formal erhält man die Lösung, wenn man die Umkehrfunktion der Kennlinie des ersten Gliedes bildet u2 = f (u1 ) , y = f −1 (u2 ). Als Näherung entwickelt man Gl.(3.32) in eine Taylor-Reihe um den Arbeitspunkt, wobei die innere Ableitung du2 /du1 = S1 eingesetzt wird. Die ersten Koeffizienten der Taylor-Reihe werden zu Null gesetzt (Bedingung für Linearität), dS du2 = S1 S2 + S1 S2 = S1 S2 + S12 S2 = 0. du1 du1
(3.33)
Entsprechend erhält man d2 S = S1 S2 + 3S1 S1 S2 + S13 S2 = 0, du21
(3.34)
d3 S 2 = S1 S2 + 4S1 S1 S2 + 3S1 S2 + 6S12 S1 S2 + S14 S1 = 0. du31
(3.35)
3.2 Kennlinienfehler unter Normalbedingungen
49
Die Gleichungen sind mit steigenden Ansprüchen an die Linearisierung der Reihe nach zu erfüllen. Die Reihenfolge der nichtlinearen Glieder in der Messkette ist für die Linearisierung wesentlich: Die Beziehungen sind nicht symmetrisch in S1 und S2 . Aus Gl.(3.33) sieht man z.B., dass die Steigung S2 entgegengesetztes Vorzeichen zu S1 haben muss, also S2 = −
S2 S . S12 1
Beispiel 3.3 Widerstandsthermometer in Brückenschaltung Gegeben sei ein temperaturabhängiger Widerstand mit der Kennlinie nach Abb. 3.10. Die Kennlinie kann wie folgt beschrieben werden: ∆RT = f1 (T ) = RT − RT0 . 2 = a (T − T0 ) + b (T − T0 ) RT
S 1′ ≥ 0
RT0 T0
T
Abbildung 3.10. Kennlinie eines Widerstandsthermometers
Die Brückenschaltung ist in Abb. 3.11 dargestellt. Hierin ist seriell zum Temperaturwiderstand RT ein konstanter, temperaturunabhängiger Justierwiderstand Ri geschaltet, so dass mit R = RT0 + Ri die Brücke im Messanfang ∆RT = RT − RT0 = 0 auf U = 0 abgeglichen ist. Die Brücken-Ausgangsspannung ist U = f2 (∆RT ) R 1 RT + Ri RT0 + ∆RT + Ri − − = U0 = U0 , RT + Ri + R R + R RT0 + ∆RT + Ri + R 2 U = f2 (∆RT ) ∆RT + R 1/2 ∆RT + R 1 ∆RT = U0 − · . = U0 T ∆RT + 2R ∆RT + 2R 4R 1 + ∆R 2R Beide Kennlinien ∆RT = f1 (T ) und U = f2 (∆RT ) sind nichtlinear. Die Gesamtanordnung soll lineares Verhalten haben.
50
3. Stationäres Verhalten von Messsystemen
Ri R RT
U
R
R
Abbildung 3.11. Brückenschaltung zur Linearisierung
U0
Die Empfindlichkeit S1 erhält man aus der Widerstandskennlinie ∆RT = f1 (T ) durch Differentiation: d (∆RT ) S1 (T = T0 ) = = a, dT T=T0 d2 (∆RT ) = 2b. S1 (T = T0 ) = dT 2 T =T0 Die Empfindlichkeit S2 erhält man aus der Kennlinie der Brückenschaltung U = f2 (∆RT ), wobei für T = T0 der Wert ∆RT = 0 gilt: dU U0 S2 (∆RT = 0) = , = d∆RT ∆RT =0 4R d2 U U0 S2 (∆RT = 0) = = − 2. d∆RT2 ∆RT =0 4R Aus der Bedingung Gl.(3.33), S1 S2 + S12 S2 = 0 erhält man 2b
U0 U0 − a2 2 = 0 4R 4R
→
R=
a2 2b
Der Justierwiderstand wird damit Ri = R − RT0 =
a2 − RT0 . 2b
Die Beziehung für den Justierwiderstand Ri zeigt, dass bei dieser Schaltung der Koeffizient b positiv sein muss und weiter, dass der Quotient a2 /2b ≥ RT0 sein muss. Für Platinwiderstandsthermometer z.B. ist b negativ, die Linearisierung kann nicht erreicht werden.
3.2 Kennlinienfehler unter Normalbedingungen
51
Nickel-Thermometer: Bei einem Nickel-Thermometer mit einem Widerstand von RT0 = 100Ω
bei T0 = 0◦ C
und einem Messbereich von 100◦ C sind die beiden Koeffizienten a = 0.574Ω/◦ C
und b = 0.0007Ω/(◦C)2 .
Der Koeffizient b ist positiv. Der Justierwiderstand wird damit Ri = 135.34Ω. Im folgenden sollen die resultierenden Kennlinien des Nickel-Widerstandsthermometers ohne und mit Linearisierung verglichen werden. Eine Approximation durch Newton-Polynome ergibt: a. keine Linearisierung (Ri = 0): R = RT0
T U = 100Ω → = 1.87 · 10−3 ◦ U0 C
−2 T 1 − 1.7 · 10 ◦ . C
b. Linearisierung (Ri = 135.34Ω): U a2 T = 235.34Ω → R= = 0.61 · 10−3 ◦ 2b U0 C
−4 T 1 − 2.0 · 10 ◦ . C
Die Nichtlinearität ist um zwei Größenordnungen reduziert worden. Dafür ist allerdings die Empfindlichkeit auf ein Drittel verringert worden. 3.2.3 Wahl des günstigsten Messbereichs Bei Messsystemen stehen oft Kennlinien mit einem großen Bereich der Eingangsgröße zur Verfügung. Für den gewünschten kleineren Messbereich ist daraus nun ein möglichst linearer Teil von hoher Empfindlichkeit auszuwählen. Bei höheren Ansprüchen ist für die Wahl des Arbeitsbereiches der einfache Blick auf die Kennlinie unzureichend. Besser ist es, die Empfindlichkeit in Abhängigkeit von der Eingangsgröße aufzutragen, oder, wenn diese nicht analytisch gegeben ist, auch die Differenzen erster Ordnung ∆yi oder die Steigung ∆yi /h, mit h als dem Stützstellenabstand aufzutragen. Im Bereich u = [ua , ue ] sei die Empfindlichkeit Si der physikalischen Messkennlinie ausreichend hoch und wenig veränderlich. Dieser Bereich d = ue − ua wird deshalb als Arbeitsbereich des Messsystems ausgewählt.
52
3. Stationäres Verhalten von Messsystemen
S
gewählter Bereich ∆ yi h
Si
h
d
ue = ua + d
ua
u
Abbildung 3.12. Wahl des günstigsten Messbereichs
Entsprechend der Fixpunktjustierung wird die mittlere Empfindlichkeit in diesem Bereich als ideale Empfindlichkeit Si gewählt Gl.(3.6). Neben der graphischen Behandlung ist auch eine analytische Berechnung des günstigsten Messbereichs möglich. Dazu wird als Gütemaß das Integral über dem Messbereich gebildet: ua +d 2
(S (u, z 0 ) − Si ) du.
Q=
(3.36)
ua
Gesucht ist der Messanfang ua , der mit Rücksicht auf die Nebenbedingung 1 Si = d
ua +d
S (u, z 0 ) du
(3.37)
ua
den Wert Q zu einem Minimum macht. Das Gütemaß kann man schreiben als ua +d
ua +d
S (u) du − 2Si 2
Q= ua
S (u) du +Si2 d, ua
bzw.
(3.38)
Si d ua +d
S 2 (u) du − Si2 d.
Q= ua
Die Differentiation von Gl.(3.38) nach ua gibt die notwendige Bedingung ∂Q = S 2 (ua + d) − S 2 (ua ) − 2Si {S (ua + d) − S (ua )} ∂ua = {S (ua + d) − S (ua )} · {(S (ua + d) + S (ua )) − 2Si } = 0. (3.39)
I
II
3.2 Kennlinienfehler unter Normalbedingungen
53
Daraus erhält man zwei Bedingungen, von denen eine erfüllt sein muss. I) Arbeitsbereich um einen Wendepunkt: S (ua + d) − S (ua ) = y (ua + d) − y (ua ) = 0.
(3.40)
Der Arbeitspunkt ist möglichst „um einen Wendepunkt der Kennlinie herum“ zu legen. Geht man von einem Wendepunkt der Kennlinie im Messbereich aus, so nimmt die Steigung S (u) unabhängig von der Richtung steigender oder fallender Eingangsgröße u immer entweder zu oder ab. Man findet also meistens zwei Punkte ua und ua + d, für die sich Gl.(3.40) erfüllen lässt. Die diese Endpunkte verbindende lineare Kennlinie konstanter Empfindlichkeit geht nicht unbedingt durch den Wendepunkt. y ′( ua +d )
y ( u) y ( ua +d )
b y( ua )
Arbeitskennlinie mit konstanter Empfindlichkeit S y ′( ua ) = y ′( ua +d )
g
y ′( ua )
ua
ua + d
u
Abbildung 3.13. Wahl des besten Messbereiches nach dem Kriterium I mit Wendepunkt
II) Arbeitsbereich ohne Wendepunkt: 1 1 {S (ua + d) + S (ua )}−Si = {y (ua + d) + y (ua )}−Si = 0.(3.41) 2 2 Der Arbeitsbereich ist so zu wählen, dass der arithmetische Mittelwert der Steigungen in den Anfangs- und Endpunkten gerade der mittleren Steigung Si entspricht. Die gewählte Kennlinie geht in praktischen Fällen nicht exakt durch den Endpunkt, d.h. die gefundene ideale Kennlinie ist nicht identisch mit der bei Fixpunktjustierung. Will man neben der Linearität auch eine möglichst hohe Empfindlichkeit haben, so arbeitet man anstelle des Gütemaßes Q Gl.(3.36) mit dem Gütemaß
54
3. Stationäres Verhalten von Messsystemen y ( u)
y ′ ( ua + d ) y ( ua + d ) S i = 1 ( y ′ ( ua ) + y ′ ( ua + d )) 2
y ( ua )
y ′ ( ua )
ue
ua
u
Abbildung 3.14. Wahl des besten Messbereiches nach dem Kriterium II ohne Wendepunkt
1 R= 2 Si d
ua +d
1 {S (u) − Si } du = 2 Si d
ua +d
2
ua
S 2 (u) du − 1.
(3.42)
ua
Die Ableitung von R nach ua ergibt ⎧ ⎫ ua +d ⎨ ⎬ {S (ua +d)− S (ua )} Si d {S (ua +d)+ S(ua )}− 2 S 2 (u) du = 0. ⎭
⎩ I
ua
Der erste Faktor entspricht gerade wieder der Bedingung I in Gl.(3.40). Hat die physikalische Kennlinie im ausgewählten Messbereich einen Wendepunkt, so hat auch das Gütemaß R ein Extremum. Durch Abschätzung der Empfindlichkeiten an zwei Messwerten kann man entscheiden, ob es sich um ein Maximum handelt. Beispiel 3.4 Kurbelantrieb Als Beispiel für das analytische Verfahren wird das Problem der Umformung eines Drehwinkels Φ mit dem Hub π/2 in eine lineare Hubbewegung mit Hilfe zweier Hebel behandelt (Abb. 3.15). In Abhängigkeit von der Anbringung wählt man einen Teil der Kennlinie als Messbereich aus. Mit den Bezeichnungen des Bildes erhält man für den Ausschlag y: ) y = r sin Φ + l2 − r2 cos2 Φ. Das Verhältnis der Hebellängen√r/l sei erheblich kleiner als 1. Die Gleichung vereinfacht sich mit der Näherung 1 − x ≈ 1 − x/2 für x 1 zu y r r2 = sin Φ + 1 − 2 cos2 Φ. l l 2l Für die Empfindlichkeit der Anordnung gilt
3.2 Kennlinienfehler unter Normalbedingungen
55
Anbringung 2
h
Anbringung 1
Φ
l r
h = r cos Φ
y
r sin Φ
Abbildung 3.15. Umformung eines Drehwinkels in einen Hub mit einem Kurbeltrieb
S=
r r2 d (y/l) = cos Φ + 2 sin Φ cos Φ. dΦ l l
Im Beispiel gelte ua = Φa , d =
π π π , sin Φa + = cos Φa , cos Φa + = − sin Φa . 2 2 2
a) Wenden wir die Bedingung I Gl.(3.40) an, gilt im Beispiel: r r2 r r2 − sin Φa − 2 sin Φa cos Φa = cos Φa + 2 cos Φa sin Φa , l l l l 1 2r 1 =− + . l cos Φa sin Φa Für ein Hebelverhältnis von r/l = 0, 4 ergibt sich ein Messbereich von Φa ≈ −30.7◦ bis Φe = 59.3◦ (die Lösung erfolgt mit einem numerischen Näherungsverfahren oder grafisch). Die Kennlinie und die Empfindlichkeit sind in Abb. 3.16 gezeichnet. Man erkennt, dass die Kennlinie einen Wendepunkt in der Nähe von Φ = 0 besitzt und kann hieraus schließen, dass Kriterium I anwendbar ist. In Abb. 3.17 ist die ideale Kennlinie eingezeichnet als Sia .
b) Bedingung II aus Gl.(3.41) ist erfüllt, wenn gilt, dass r {cos Φa − sin Φa } = Si . 2l Die ideale Empfindlichkeit erhält man aus der Forderung nach Fixpunktjustierung zu Si =
y(Φa + d) − y(Φa ) . d
56
3. Stationäres Verhalten von Messsystemen
S
y/l
0.4
1.3
0.3
1.2
0.2
1.1
0.1
1
0
0.9
-0.1 -0.2
0.8
-0.3
0.7
-0.4 -180
0
-90
Φ[°]
Φ[°]
0.6
180 -180
90
0 18
-90
90
180
Abbildung 3.16. Kennlinie und Empfindlichkeit beim Kurbeltrieb
Hiermit ergibt sich aus Bedingung II: + r 2r * r 2 {cos Φa − sin Φa } = cos Φa − sin Φa + cos Φa − sin2 Φa 2l πl 2l % r 2r 2r2 − − (cos Φ + sin Φ ) {cos Φa − sin Φa } a a 2l πl 2πl2 = 0.
y/l 1.3
Sia
1.2 1.1 1
Sib
0.8 0.7
-52
-30
0
38
60 Φ[°]
Abbildung 3.17. Ausschnittsvergrößerung von Abb. 3.16 mit den beiden möglichen idealen Kennlinien
3.2 Kennlinienfehler unter Normalbedingungen
57
Kriterium II ist somit erfüllt, wenn entweder {cos Φa − sin Φa } = 0 oder
cos Φa + sin Φa =
π 4
−1
2l r
ist. Beide Gleichungen sind wieder nur mit Näherungsverfahren lösbar. Für die erste Lösung ergibt sich als Minimum ein Bereich von Φa ≈ −52◦, ◦ Φe = 38 , eingezeichnet in Abb. 3.17 als Sib . Für die zweite Lösung Φa ≈ 45◦ , Φe = 135◦ wird das Gütemaß Q maximal (keine Lösung). Man sieht in Abb. 3.17, dass ein Wendepunkt des Empfindlichkeitsverlaufs bei Φ ≈ 18◦ vorliegt. Durch Vergleich der beiden Lösungen kann man entscheiden, dass der Bereich aus Kriterium I der bessere Arbeitsbereich ist. Man erkennt, dass Q im Bereich von Sia einen kleineren Linearisierungsfehler besitzt als im Bereich von Sib . 3.2.4 Differenzmethode Die Struktur der Schaltung zeigt Abb. 3.18. Das Eingangssignal ∆u = (u − u0 ) wirkt auf ein Element mit der Empfindlichkeit S (∆u) = ∂y(∆u)/∂∆u. Gleichzeitig wird das Eingangssignal mit dem negativen Vorzeichen auf ein paralleles Element mit der gleichen Empfindlichkeit S (∆u) gegeben. Die Kennlinie wird um den Arbeitspunkt der Messgröße u0 herum betrachtet. Als Eingangssignal verwendet man deshalb praktischerweise nur die Abweichungen ∆u = (u − u0 ) um den Arbeitspunkt.
S ( ∆ u)
y1
∆ u = u − u0
− −1
S ( − ∆ u)
y y2
Abbildung 3.18. Parallelschaltung gleichartiger Messsysteme
Am Ausgang wird die Differenz y1 − y2 gebildet. Zum Übertragungsverhalten der Anordnung kommt man am einfachsten mit den Begriffen „gerade und ungerade Funktionen“. Eine beliebige Funktion f (u) lässt sich um einen Arbeitspunkt u0 als Summe einer geraden und einer ungeraden Funktion g (∆u) und v (∆u) darstellen, f (u − u0 ) = g (u − u0 ) + v (u − u0 ) = f (∆u) . Konstante, systematische Fehler sind hierbei ausschließlich im geraden Funktionsteil enthalten. Den geraden Funktionsteil erhält man als Summe f (∆u) + f (−∆u) = 2g (∆u) , den ungeraden Funktionsteil als Differenz
(3.43)
58
3. Stationäres Verhalten von Messsystemen
f (∆u) − f (−∆u) = 2v (∆u) .
(3.44)
Wir wählen einen Arbeitspunkt u0 ungefähr in der Mitte des Messbereichs und bilden die Differenzkennlinie als ungeraden Funktionsteil von ∆u = u − u0 : yD = f (∆u) − f (−∆u) = y1 − y2 = 2v (∆u) .
(3.45)
Die geraden Funktionsteile sind ohne Einfluss auf die Differenzkennlinie. Den Linearisierungseffekt erkennt man in Abb. 3.19, wo für eine Funktion f (∆u) der ungerade Anteil 2v (∆u) konstruiert ist. Entwickelt man die Funktionen y1 und y2 nach Gl.(3.23) in eine Taylor-Reihe um den Arbeitspunkt u0 , y1 = y (∆u)
% S (u0 ) ∆u S (u0 ) ∆u2 · + · + ··· , = y (u0 ) + S (u0 ) ∆u 1 + S (u0 ) 2! S (u0 ) 3! y2 = y (−∆u) , 2 S (u0 ) −∆u S (u0 ) (−∆u) + + ··· , = y (u0 )+S (u0 )(−∆u) 1+ S (u0 ) 2! S (u0 ) 3! so erhält man mit yD = y1 − y2 für die Differenzkennlinie % S (2v) (u0 ) ∆u2v S (u0 ) ∆u2 yD = 2S (u0 ) ∆u 1 + + ···+ + ··· . S (u0 ) 3! S (u0 ) (2v + 1)! (3.46) Die Krümmung der Messkennlinie wird durch den Term 1 S (u0 )(∆u)2 2 der Taylor-Reihe repräsentiert. Als gerade Funktion fällt er bei der Differenzbildung heraus. Damit erklärt sich die linearisierende Wirkung der Differenzmethode. Der relative Fehler der ursprünglichen Kennlinie ist nach Gl.(3.24) Fr SS =
S (u0 , z 0 ) 1 S (u0 , z 0 ) −1+ (∆u) . Si 2 Si
Die ideale Kennlinie hat jetzt die doppelte Empfindlichkeit yDi = 2Si · ∆u, so dass der relative Fehler der Differenzkennlinie aus Gl.(3.46) entsprechend
3.2 Kennlinienfehler unter Normalbedingungen y1
59
f ( u - u0 )
a
2v ( u - u0 )
f ( u0 )
a
u
u0
u f ( u0 )
a
a
- f (- ( u - u0 ))
FDr S =
y2
Abbildung 3.19. Graphische Konstruktion der Kennlinie in Differenzschaltung
yD − yDi yDi
2S (u0 , z 0 ) · ∆u + 13 S (u0 , z 0 ) · ∆u3 − 2Si · ∆u = 2Si · ∆u
(3.47)
wird. Die Empfindlichkeit der ursprünglichen Kennlinie im Arbeitspunkt u0 ist gerade gleich der halben Empfindlichkeit der linearen Differenzkennlinie: S (u0 , z 0 ) =
1 2
(2Si ) = Si .
(3.48)
Der relative Fehler der Differenzkennlinie wird damit zu FDr S =
1 S (u0 , z 0 ) ∆u2 . 6 Si
(3.49)
Er ist proportional zur zweiten Ableitung der Empfindlichkeit der ursprünglichen Kennlinie im Arbeitspunkt, und wächst quadratisch nach beiden Seiten an. Diesen Betrachtungen zugrunde liegen Taylor-Entwicklungen, die nach dem 3. Term abgebrochen werden. Diese Näherung ist bei den meisten physikalischen Messkennlinien ausreichend. Im Arbeitspunkt u0 ist der Kennlinienfehler Null. Diese Aussage gilt exakt! Das Verhältnis des Fehlers der Differenzkennlinie zu dem der ursprünglichen Kennlinie ist
60
3. Stationäres Verhalten von Messsystemen
FDr S 1 S (u0 , z 0 ) · (u − u0 ) . ≈ Fr SS 3 S (u0 , z 0 )
(3.50)
Die Differenzkennlinie wird um den Arbeitspunkt herum stabilisiert. Beispiel 3.5 Kapazitiver Beschleunigungssensor Mit einer mikromechanischen Technologie wird eine kammartige Struktur geätzt, die beweglich an 4 Punkten aufgehängt ist (Abb. 3.20). Die Struktur bildet ein FederMasse-System, das durch die Beschleunigung a um ∆d ausgelenkt wird, m ∆d¨ + δ ∆d˙ + c · ∆d = m · a = Fm .
fest
C1
C2 Beschleunigung a beweglich
C1
C2
Bewegliche Aufhängung Abbildung 3.20. Kapazitiver Beschleunigungssensor
Im stationären Zustand (∆d = const) ist Fm = m · a = FC = c · ∆d, woraus man die Auslenkung ∆d =
m 1 a = 2a c ω0
erhält. Aufgrund der hohen Eigenfrequenz ω0 sind die Auslenkungen ∆d klein. Zwischen den Kämmen liegen jeweils zwei ortsfeste Strukturen, welche gegen den Kamm die Kapazitäten C1 und C2 bilden. Bei Auslenkung um ∆d nach links wird z.B. C2 größer und gleichzeitig C1 kleiner: 1 d 1 1 ∆d 1 · (d + ∆d) = = a , 1+ 1+ = C1 εA εA d C0 dω02 d 1 1 1 ∆d 1 · (d − ∆d) = = a . 1− 1− = C2 εA εA d C0 dω02
3.2 Kennlinienfehler unter Normalbedingungen
61
Die Kapazitätsänderung kann in einem Spannungsteiler erfasst werden, der von der Wechselspannung u∼ gespeist wird (siehe Abb. 3.21). Mit Hilfe einer Maschenanalyse ergibt sich u1 ∼ =
1/C1 1 + ∆d/d u∼ . u∼ = 1/C1 + 1/C0 2 + ∆d/d
C0
C2
u∼
u2 ∼
u∼ C1
u1∼
C0
Abbildung 3.21. Schaltbild zur Beschleunigungsmessung
Zusammen mit einem zweiten Spannungsteiler u2 ∼ =
1/C2 1 − ∆d/d u∼ = u∼ 1/C2 + 1/C0 2 − ∆d/d
kann die Differenzspannung ∆u∼ = u1 ∼ − u2 ∼ =
2 ∆d d ∆d 2 u∼ 4− d
gebildet werden. Für kleine Auslenkungen ∆d/d 1 gilt für ∆u∼ die Beziehung ∆u∼ ≈
1 ∆d u∼ . 2 d
Somit besteht eine lineare Abhängigkeit zwischen der Differenzspannung ∆u∼ und der Auslenkung ∆d. Die separaten Spannungsteiler nach Abb. 3.21 mit nachfolgender Differenzbildung sind für praktische Anwendungen allerdings weniger geeignet. Daher verwendet man eine Brückenschaltung nach Abb. 3.22, in der zwei veränderliche Kapazitäten C1 und C2 in Serie geschaltet sind. Mit ihr kommt man zu einem entsprechenden Ergebnis: 1 1 + ∆d/d 1 1 ∆d u∼ = u∼ + u∼ , ∆u∼ + u∼ = 2 2 2 2 d 1 ∆d . ∆u∼ = u∼ 2 d
62
3. Stationäres Verhalten von Messsystemen
C0
C2
u∼ 1u ∼
1u ∼ + ∆ u∼ 2
2
C0
C1
∆ u∼
Abbildung 3.22. Brückenschaltung der Messkondensatoren
Die Differenzspannung ∆u∼ bildet eine lineare Messkennlinie in Abhängigkeit von ∆d. Nach der Gleichrichtung erhält man im stationären Zustand die Ausgangsspannung als |∆u∼ | =
1 1 1 ∆d m 1 |u∼ | = |u∼ | a = |u∼ | 2 a = m Si a. 2 d 2 c·d 2 ω0 d
Die Empfindlichkeit Si beschreibt den Zusammenhang zwischen der Beschleunigungskraft Fm auf die Masse des beweglichen Kammes und der Ausgangsspannung |∆u∼ |, Si =
|u∼ | 1 |∆u∼ | |u∼ | ∆d = · . = Fm 2Fm d 2d c
Die Frequenz der Speisewechselspannung u∼ sei höher als die mechanische Resonanzfrequenz ω0 der Feder-Masse-Anordnung des Sensors. Die Speisewechselspannung führt dann nicht zu nennenswerten Ausschlägen ∆d. 3.2.5 Gegenkopplung Die Messgröße u wird mit einer von dem Ausgangssignal y abgeleiteten Größe K (y) verglichen und der Abgleich bis auf Null oder eine verschwindend kleine Differenz v durchgeführt. Man spricht von einem Kompensationsverfahren. Die Gegenkopplung ist eine wirkungsvolle Methode, um eine ideale Kennlinie zu bekommen. Ihr Kennzeichen ist der geschlossene Kreis (Abb. 3.23). Voraussetzung für die Anwendung ist die Existenz eines Übertragungs-, bzw. Messgliedes K (y) im Kompensationszweig, das ein Signal in der gleichen physikalischen Größe wie die Messgröße u liefert. Nur dann ist ein Vergleich mit der Messgröße möglich. Ist f (v) die physikalische Messkennlinie, so kann die Empfindlichkeit
3.2 Kennlinienfehler unter Normalbedingungen
u
v
S (v )
−
V
63
y y
K ( y)
S (v) =
Abbildung 3.23. Strukturbild der Gegenkopplung
∂f (v) ∂v
wegen des kleinen Messbereiches ve − va als konstant angesehen werden: S (ve ) = S (va ) = Si > 0.
(3.51)
Aus dem Strukturbild 3.23 erhält man die beiden Beziehungen y = Si V · v,
(3.52)
v = u − K (y) .
(3.53)
Daraus kann man folgende Gleichungen gewinnen: 1 y = u − K (y) , Si V 1 K (y) = u − y. Si V v=
Für große Verstärkungen V 1 ist K (y) ≈ u,
(3.54)
d.h. für monoton steigende Kennlinien K (y) geht die Kennlinie der gesamten Anordnung gerade in die inverse Rückkopplungsfunktion y = K −1 (u)
(3.55)
über. Die Messkennlinie des geschlossenen Kreises wird bei ausreichend hoher Verstärkung ausschließlich vom Rückkopplungszweig bestimmt. Kann man K (y) auftrennen in K (y) = K (y) · y = u − so erhält man
K (y) · 1 +
1 K (y) Si V
1 y, Si V
(3.56)
y=u
oder
64
3. Stationäres Verhalten von Messsystemen
y=
1 u · . 1 (y) 1 + K (y)S iV
K
(3.57)
Mit der Näherung 1/(1+x) ≈ 1−x für x 1, was einer Potenzreihenentwicklung und Abbruch nach dem ersten Glied entspricht, ergibt sich u 1 y≈ · 1− . K (y) K (y) Si V Mit der idealen Kennlinie yi =
1 ·u K (y)
(3.58)
wird der relative Kennlinienfehler der gesamten Rückkopplungsanordnung zu FrV ≈
y − yi 1 =− . yi K (y)Si V
(3.59)
Bei ausreichend hoher Verstärkung V wird ein Linearisierungseffekt der Kennlinie wie im Abschn. 3.2.1 durch Herabsetzen des Messbereichs erreicht. Es muss jedoch darauf hingewiesen werden, dass in vielen Fällen geeignete Gegenkopplungsglieder K (y) fehlen, die die Ausgangsgröße y auf die Messgröße u abbilden. So ist z.B. kein Übertragungsglied K (y) bekannt, das eine elektrische Ausgangsgröße unmittelbar in eine Temperatur abbildet und so einen gegengekoppelten TemperaturMessumformer ermöglicht. Ein Nachteil der Gegenkopplung ist die durch den Regelkreis hinzukommende Dynamik. Bei zu hoher Verstärkung V kann das System sehr lange Einschwingzeiten besitzen oder sogar instabil werden (Abschn. 4.4.2). Beispiel 3.6 Druck-Messumformer Ein Beispiel für die Gegenkopplung ist der Druck-Messumformer im Abb. 3.24. Die Gegenkopplung wird nicht wie gewünscht unmittelbar als Druckvergleich, sondern als Kraftvergleich durchgeführt, weil es nur dafür ein geeignetes Übertragungsglied gibt. Für V 1 und damit ∆F ≈ 0 erhält man aus dem Kräftegleichgewicht Fp ≈ FI die Ausgangsgröße in Abhängigkeit von der Messgröße, I=
A p. B
Die Gegenkopplung wird auch gerne dazu verwendet, um nichtlineare Kennlinien zu realisieren. Fällt die Messgröße über mehreren Größenordnungen an, wie z.B. bei Teilchen-Raten in der Kerntechnik, so verwendet man logarithmische Verstärker. Die Messkennlinie wird dann durch Kompensationsglieder K (y) im Gegenkopplungszweig mit exponentieller Charakteristik realisiert (z.B. Dioden-Kennlinie). In der Durchflussmesstechnik nach dem Wirkdruckverfahren ist der Druck
3.2 Kennlinienfehler unter Normalbedingungen
65
Abbildung 3.24. Druck-Messumformer mit Rückkopplung über Kraftvergleich
p = 12 ρv 2 proportional zum Quadrat der Durchflussgeschwindigkeit v. Gibt man der Messkennlinie durch eine Rückkopplung insgesamt eine Wurzel-Charakteristik, so erhält man gerade den gewünschten Durchfluss . 2 √ · p = v. y= ρ Die Wurzel-Charakteristik wird durch eine quadratische Kennlinie im Rückkopplungszweig erzeugt: K (y) = K · y 2 . Die Messkennlinien des gegengekoppelten Kreises beruhen in diesem Kapitel auf rein stationären Beziehungen. Bei Stabilitätsproblemen muss man auf die Methoden der Regelungstechnik zurückgreifen [6].
66
3. Stationäres Verhalten von Messsystemen
3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen Im vorherigen Abschnitt wurden die stationären Eigenschaften der Messkennlinie bei den spezifizierten Normalbedingungen behandelt und Verbesserungen für die Kennlinie durchgeführt. Weichen die Betriebsbedingungen von den Normalbedingungen ab, so ändert sich der Störgrößenvektor von z 0 auf z und bringt eine Änderung des Kennlinienabgleichs mit sich. Beispiele für sich ändernde Störgrößen sind: • Temperatur, Temperaturgradient, • Feuchte, • Mechanische Erschütterungen, Stöße, • Aussteuerung des Messsystems über den Messbereich hinaus, • Änderung von Hilfsenergien. Nach ihrer Wirkung auf die Messkennlinie lassen sich superponierende (additive) und deformierende (multiplikative) Störgrößen unterscheiden. 3.3.1 Superponierende Störgrößen Abbildung 3.25 zeigt ein Beispiel für einen superponierenden Fehler. Er ist dadurch gekennzeichnet, dass sich der Betrag des absoluten Fehlers nicht in Abhängigkeit vom aktuellen Messwert ändert. Der Nullpunktfehler ändert sich in Abhängigkeit des Störgrößenvektor z mit e (z) = e (z 0 ) +∆ e (z) . =0
Die Empfindlichkeit der Kennlinie ändert sich dagegen bei rein superponierenden Fehlern nicht: !
∆ S (u, z) = 0.
(3.60)
Die physikalische Messkennlinie wird dann u
(y − ya0 ) =
S (u, z 0 ) du + ∆ e (z) . ua
Die Änderung des Nullpunktfehlers wird durch eine Taylor-Reihe im StörgrößenAbgleichpunkt z 0 abgeschätzt:
3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen
67
y zj
S ( u, z j ) S ( u , z 0) ye0
z0
Si ya ( z j )
ya0
ue
ua
u
Abbildung 3.25. Superponierender Fehler durch Störgrößenänderung
∆e (z) = y (ua , z) − ya0 ≈
∂y (ua , z 0 ) ∂zj
j
∆ zj .
Der superponierende Fehler, bezogen auf die Anzeigespanne, ist dann ∂ y (ua ,z0 ) ∆ zj ∂ zj ∆e(z) j FrSupSS = = u y (u, z 0 ) − ya0 S (u, z 0 ) du ua
Für eine vereinfachte Abschätzung des Fehlers wird im folgenden angenommen, dass die Empfindlichkeit im Messbereich konstant sei: S (u, z 0 ) ≈ Si , ya (zj ) − ya0 ∂y (ua , z 0 ) ≈ . ∂zj ∆ zj Damit wird der superponierende Kennlinienfehler, bezogen auf die Messspanne FrSupSS =
1 (ya (zj ) − ya0 ). Si (u − ua ) j
(3.61)
Weil FrSupSS im Messanfang gegen Unendlich strebt, verwendet man auch den superponierenden Fehler, bezogen auf den Anzeigebereich:
68
3. Stationäres Verhalten von Messsystemen
FrSupES =
ya (zj ) − ya0 j
Si (ue − ua )
=
ya (zj ) − ya0 j
ye0 − ya0
.
(3.62)
Bei gleichzeitigem Vorhandensein von superponierendem und deformierendem Fehler wird der superponierende Fehler am Messanfang betrachtet. 3.3.2 Eliminierung superponierender Störgrößen mit der Differenzmethode Es handelt sich um die Anordnung in Abb. 3.18. Aus der Gl.(3.45) erkennt man, dass in die Differenzkennlinie nur der ungerade Teil eingeht, wenn gleiche Bauelemente verwendet werden. Superponierende Störgrößen gehören zum geraden Teil der Messkennlinie, werden also bei der Differenzmethode eliminiert. Die Kennlinien der Einzelmesssysteme 1 und 2 und der überlagerte Fehler zj seien durch yj = (−1)(j−1) · Sj · (u − u0 ) + zj dargestellt, wobei die erste Kennlinie y1 = S · (u − u0 ) + z1 positives Vorzeichen und die zweite Kennlinie derselben Empfindlichkeit y2 = −S · (u − u0 ) + z2 negatives Vorzeichen haben soll. Die Parallelschaltung ist y = y1 − y2 = 2S · (u − u0 ) + z1 − z2 % z1 − z2 = 2S · (u − u0 ) 1 + . 2S · (u − u0 )
(3.63)
Der relative Fehler bezogen auf die Messspanne Fr supp SS =
z1 − z2 2S (u − u0 )
(3.64)
ist bei gleichartig einwirkenden Störgrößen z1 = z2 gerade Null. Dieser Eigenschaft und dem Linearisierungseffekt auf die Kennlinie (Abschn. 3.2.4) verdankt das Differenzverfahren seine weite Verbreitung in der Messtechnik. Eine superponierende Störgröße zj (Nullpunktverschiebung) wirkt sich gleichmäßig auf beide Kennlinien aus. Dieser Hub fällt gemäß Gl.(3.63) bei der Differenzbildung wieder heraus. Beispiel 3.7 Absolutdruckmesser Der Druck wird in einer Membrandose gemessen, die eine Kraft proportional zur Differenz Messdruck/Luftdruck p1 − p0 erzeugt. Nimmt man an, dass der Luftdruck p0 konstant bleibt, kann der durch den Messdruck erzeugte Ausschlag auch
3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen
p1 - ( p0 + D p0 )
Luftdruck p0 - ( p0 + D p0 )
p= 0
p
1
S1
S2
69
y1 - y0 + -
y1
- y0
Messdruck S1 = S 2
Abbildung 3.26. Absolutdruckmesser als Beispiel für die Differenzmethode
auf einer Skala, die in Absolutdruckwerten geteilt ist, angegeben werden. Ändert sich hingegen der Luftdruck p0 gegenüber den Normalbedingungen, bewirkt diese additive Störgröße ∆ p0 einen Fehler, der durch ein zweites Messwerk kompensiert werden kann. Die zweite Dose ist evakuiert (p = 0). Sie erfährt eine Messkraft, die allein dem Umgebungsluftdruck p0 + ∆p0 entspricht. Im Messgerät (Abb. 3.26) kommt insgesamt die Differenz der Messkräfte von Dose 1 und 2 zur Anzeige. 3.3.3 Deformierende Störgrößen Die Empfindlichkeit der physikalischen Messkennlinie ändere sich in Abhängigkeit vom Störgrößenvektor z (Abb. 3.27): S (u, z) = S (u, z 0 ) + ∆ S (u, z) .
(3.65)
Der Nullpunktfehler ändert sich bei rein deformierenden Fehlern nicht: !
∆ e (z) = 0.
(3.66)
Die physikalische Messkennlinie wird damit u
y − ya =
u
S (u, z 0 ) du+ ua
∆ S (u, z) du
ua u
= y (u, z 0 ) − ya +
(3.67) ∆ S (u, z) du.
ua
Die Empfindlichkeitsänderung wird durch eine Taylor-Reihe im Störgrößenabgleichpunkt z 0 abgeschätzt, ∆ S (u, z) ≈
∂S (u, z 0 ) k
∂zk
∆zk .
70
3. Stationäres Verhalten von Messsystemen y
ye ( zk )
S i ( zk )
ye ( z j )
y e0
Si 0
ya ( z j )
ya 0
ua
ue
u
Abbildung 3.27. Einfluss eines deformierenden Fehlers auf die Messkennlinie
Der absolute Kennlinienfehler ergibt sich mit dieser Näherung zu ∆y = y − y (u, z 0 ) =
k
u
ua
∂S (u, z 0 ) ∆ zk du. ∂zk
Der deformierende Kennlinienfehler, bezogen auf die Anzeigespanne, wird damit FrDef SS =
y − y (u, z 0 ) = y (u, z 0 ) − ya
k
u
ua
/u
∂S (u, z 0 ) ∆ zk du ∂zk . S (u, z 0 ) du
ua
Für eine vereinfachte Abschätzung des Fehlers wird im folgenden angenommen, dass zur Berechnung der Anzeigespanne mit konstanten Empfindlichkeiten im Messbereich gerechnet werden kann: S (u, z 0 ) ≈ Si0 .
3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen
71
Desweiteren seien die Empfindlichkeitsänderungen durch die Störgrößen näherungsweise ∂Si (u, z 0 ) Si (zk ) − Si0 ∆Si (zk ) ≈ = . ∂zk ∆ zk ∆ zk Damit wird der Fehler, bezogen auf die Anzeigespanne FrDef SS =
1 ∆ Si (zk ). Si0
(3.68)
k
Mit diesen Abschätzungen kann der Einfluss einer einzelnen deformierenden Störgröße zk auf die Steigung der Messkennlinie angegeben werden. Dabei wird als Anzeigewert nun aber nicht der Abgleichpunkt z 0 herangezogen, sondern die Kennlinie unter gleichzeitiger Einwirkung der superponierenden Störung zj . Der Anfangswert ist damit ya (zj ) und Si (zk ) − Si0 Si0 [ye (zk ) − ya (zj )] − [ye (zj ) − ya (zj )] = ye (zj ) − ya (zj ) [ye (zk ) − ya (zj )] − (ye0 − ya0 ) . = ye0 − ya0
FrDef SS =
(3.69)
(3.70)
Ohne den zusätzlichen superponierenden Fehler könnte ya (zj ) = ya0 gesetzt werden. Wirken je ein superponierender und ein deformierender Fehler gleichzeitig auf die Messkennlinie ein, so können beide Fehler überlagert werden. Die Taylorreihe im Störgrößenabgleichpunkt z 0 lautet dann allgemein y = y (u, z 0 ) +
∂y (u, z 0 ) ∂y (u, z 0 ) ∆ z1 + ∆ z2 ∂ z1 ∂ z2
(3.71)
und für lineare Kennlinien y = ya0 + Si0 (u − ua ) + ∆ e (zj ) +
∆ Si (zk ) · Si0 (u − ua ) , Si0
y = ya0 + Si0 (u − ua ) + [ya (zj ) − ya0 ] +
y(u,z0 )
[ye (zk ) − ya (zj )] − (ye0 − ya0 ) + Si0 (u − ua ) . ye0 − ya0
(3.72)
72
3. Stationäres Verhalten von Messsystemen
Der relative Kennlinienfehler, bezogen auf die Anzeigespanne ist damit Fr SS =
y −y (u, z 0 ) ya (zj )−ya0 [ye (zk )−ya (zj )] − (ye0 −ya0 ) + = . y (u, z 0 ) − ya0 Si0 (u − ua ) ye0 − ya0
Im Messanfang geht dieser Fehler wieder gegen Unendlich. Der relative Fehler bezogen auf den Anzeigebereich ist Fr ES =
y − y (u, z0 ) ye (zk ) − ye0 = . ye0 − ya0 ye0 − ya0
(3.73)
3.3.4 Deformierende Störgrößen bei Gegenkopplung Im folgenden soll der Einfluss einer deformierenden Störgröße zk auf die Steigung Si der Messkennlinie durch eine Gegenkopplung reduziert werden. Die Messkennlinie des gegengekoppelten Messsystems ist nach Gl.(3.57) y=
1 ·u· K (y) 1+
1
.
1
K (y)·S
i
V
Die Empfindlichkeit Si ändere sich im Messbereich Si (zk ) = Si0 + ∆ Si (zk ) aufgrund einer deformierenden Störgröße zk . Die Differentiation der Messkennlinie nach Si ist ∂y K (y) · V u · = . ∂Si K (y) (1 + K (y) · Si V )2 Zur Abschätzung des Kennlinienfehlers wird die Ausgangsgröße in eine Taylor-Reihe um Si0 herum ∂y y ≈ y (Si0 ) + · ∆ Si (zk ) + · · · ∂Si Si0 ≈
u K (y) · Si0 V · K (y) 1 + K (y) · Si0 V
1+
∆ Si (zk ) 1 · 1 + K (y) · Si0 V Si0
(3.74)
entwickelt. Der relative Fehler bei Gegenkopplung, bezogen auf die Anzeigespanne, ist dann FrgDef SS =
1 ∆ Si (zk ) y − y (Si0 ) = · . y (Si0 ) 1 + K (y) · Si0 V Si0
(3.75)
Bildet man das Verhältnis der Fehler des gegengekoppelten zum nicht gegengekoppelten Messsystem in Gl.(3.69), so erhält man
3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen
1 FrgDef SS . = FrDef SS 1 + K (y) Si0 V
73
(3.76)
Durch die Gegenkopplung wird der Kennlinienfehler aufgrund einer deformierenden Störgröße zk um die Verstärkung V reduziert. Beispiel 3.8 Kapazitiver Beschleunigungsmesser Auf das Beispiel des kapazitiven Beschleunigungsmessers in Abschn. 3.2.4 soll eine Gegenkopplung angewendet werden. Die Empfindlichkeit Si0 =
|u∼ | 2dc
hängt ab von der Wechselspannung |u∼ |, mit der die kapazitive Brücke gespeist wird. Änderungen von |u∼ | gehen unmittelbar als deformierende Störgröße in die Ausgangsspannung |∆u∼ | ein. Durch eine nichtlineare Gegenkopplung nach Abb. 3.28 mit 0 ) uC = V |∆ u∼ | = V 12 |u∼ | ∆dd soll der Einfluss der Spannung |u∼ | auf die Ausgangsgröße |∆u∼ | verringert werden. Das resultierende lineare Übertragungsglied K bewirkt, dass durch Zurückkopplung der verstärkten Ausgangsspannung uk auf die Kammstruktur eine kompensierende Anziehungskraft Fk ausgeübt wird, welche diese in die Nullage zurückholt, und welche so die Beschleunigungskraft Fm ausgleicht. Für eine große Verstärkung V geht die Differenzkraft FC gegen Null, siehe Abschn. 3.2.5.
a
m
Fm
FC −
Si
∆ u∼
uk
V
Fk uC Fk ( uC )
K’ Abbildung 3.28. Kapazitiver Beschleunigungssensor mit Gegenkopplung
74
3. Stationäres Verhalten von Messsystemen
Die zurückgeführte Spannung uC wird auf beide Kondensatoren C1 und C2 verteilt:
uc =
V
C2
uC2
C1
uC1
∆ u∼
Abbildung 3.29. Spannungsrückkopplung
uC1 uC2
1 ∆d 1+ uc = 1+ d 2 1 1 ∆d = 1− uc = 1− 2 d 2 1 = 2
∆d d ∆d d
√ √
. V . V
1 ∆d |u∼ | , 2 d 1 ∆d |u∼ |. 2 d
Die Energie auf den Kondensatoren E1/2
1 C0 V |u∼ | = C1/2 · u2C1/2 = 2 16
∆d ∆d 1± d d
wird nach ∆d differenziert, was zu den Kräften 1 ∆d C0 V |u∼ | ± 2 Fk1,2 = 8 2d d führt. Deren Differenz Fk zieht die bewegten Kondensatorplatten in Richtung der Nullage zurück: Fk = Fk1 − Fk2 =
V C0 V C0 ∆d C0 |u∼ | = |∆u∼ | = uk = K · uk . 4d d 2d 2d
Die Übertragungskonstante des Rückführungsgliedes ist damit insgesamt K =
C0 . 2d
Bildet man das Kräftegleichgewicht der rückgekoppelten Anordnung, so ergibt sich Fm = FC + Fk , C0 m · a = c ∆d + uk , 2d c 2 d uk C0 m·a = + uk . |u∼ | V 2d
3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen
75
Bei einer großen Verstärkung V und somit einer Auslenkung von ∆d ≈ 0 ist Fm ≈ Fk . Die Empfindlichkeit des gegengekoppelten Beschleunigungssensors ist gerade gleich der inversen Übertragungskonstante der Rückführung: uk =
1 2md Fm = · a. K C0
Die Schwankungen der Speisewechselspannung |u∼ | und der Federsteifigkeit c gehen nur noch um den Verstärkungsfaktor V reduziert in das Messergebnis ein. Die Masse des bewegten Kammes m, der Abstand in Ruhelage d und die Kapazität C0 können mit den heute verfügbaren lithographischen Prozessen sehr genau eingehalten werden. Beim gegengekoppelten Beschleunigungssensor kann auf eine übermäßig genaue Stabilisierung der Speisewechselspannung |u∼ | verzichtet werden. 3.3.5 Superponierende Störgrößen bei Gegenkopplung Dem Messsystem seien additive Störungen z überlagert. Es soll nun untersucht werden, ob diese Störeinflüsse durch eine Gegenkopplung reduziert werden können. z
u
+
v −
S(v)
+
+
V
y
K(y) Abbildung 3.30. Superponierende Störgrößen bei Gegenkopplung
Bei großer Verstärkung V 1 ist die Kennlinie des gegengekoppelten Systems nach Gl.(3.55) z −1 y=K u+ . (3.77) Si Superponierende Störgrößen lassen sich demnach nicht grundsätzlich durch eine Gegenkopplung eliminieren. Sie bleiben im wesentlichen erhalten. 3.3.6 Kompensation systematischer Störeinflüsse Das Verfahren kompensiert den Einfluss einer einzigen dominanten Störgröße z. Dazu muss der Einfluss dieser Störgröße auf die Messgröße vorab bekannt sein.
76
3. Stationäres Verhalten von Messsystemen
Eine Möglichkeit zur Korrektur der Ausgangsgröße y in Abhängigkeit von der Störgröße z ist die in Abschn. 2.4 gezeigte Kennfeld-Interpolation. Während bislang allein die physikalische Kennlinie y = f (u) Basis der Messkennlinie war, wird nun die physikalische Abhängigkeit der Ausgangsgröße y = f (u, z)
(3.78)
vom Messsignal u und zusätzlich von der dominanten Störgröße z gleichzeitig vorab vermessen und in einem Kennfeld abgespeichert. Bei der tatsächlichen Messung wird die Störgröße z neben der eigentlichen Messgröße u erfasst und im gespeicherten Kennfeld die aktuelle Ausgangsgröße nach Gl.(2.46) y (u, z) =
1 1 1 · km,n ·y (ui+m , zj+n ) 22r m=0 n=0
(3.79)
interpoliert. Das Verfahren entspricht einer fortlaufenden Adaption der Ausgangsgröße an die sich ändernde dominante Störgröße. Es können reproduzierbare Messergebnisse hoher Genauigkeit erzielt werden, wenn der Einfluss der Störgröße konstant bleibt (systematische Störgröße). 3.3.7 Abschirmung von Störgrößen Das Verfahren ist schnell beschrieben. Es zielt darauf ab, die wesentlichen Störgrößen vom Messsystem fernzuhalten. Beispiele sind etwa die Thermostatisierung von Baugruppen, um Temperaturfehler auszuschalten oder die luftdichte Verpackung, um einen Einfluss der Luftfeuchte zu vermeiden. Auch eine magnetische Abschirmung gehört zu dieser Maßnahme. Die Methode wird oft angewendet. Sie bringt manchmal einen beträchtlichen Mehraufwand mit sich. 3.3.8 Superponierende Störgrößen in Messketten Das Signal u(t) wird in einer Messkette in einer Richtung übertragen. An den Schnittstellen sei jeweils ein Fehler zj überlagert (Abb. 3.31). z1
y0 = u
S1
+
z2
S2 y1
+
z3
S3 y2
+
zn
S4 y3
Abbildung 3.31. Superponierende Fehler in der Messkette
Sn
+
yn
3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen
77
Die Kennlinie des Gliedes j sei durch yj = Sj yj−1 + zj gegeben. Die Kennlinie der gesamten Anordnung wird dann, beginnend mit y0 = u, durch wiederholte Elimination der yj yn = (Sn Sn−1 · · · S1 ) u + (Sn Sn−1 · · · S2 ) z1 + · · · Sn zn−1 + zn . Der absolute Messfehler des Ausgangsignales der Kette wird damit F =
n−1 n−1 1
Sk+1 zj + zn .
(3.80)
j=1 k=j
Für den relativen Fehler bezogen auf den Messbereich d erhält man mit der idealen Kennlinie y =u·
n 1
Sj
(3.81)
j=1
FrES =
n z2 zn 1 zj z1 · + + ···+ = j d j=1 2 S1 d S1 S2 d S1 S2 · · · Sn · d Sk k=1
=
n
FrESj .
(3.82)
j=1
Im absoluten Fehler F summieren sich die Fehler der einzelnen Glieder j jeweils multipliziert mit der Verstärkung vom Glied j + 1 bis zum letzten Glied der Kette (Gl.(3.80)). Der Beitrag eines Übertragungsgliedes zum Fehler ist abhängig von seiner Position in der Kette! Der relative Fehler FrES einer Messkette infolge superponierender Störgrößen setzt sich nach Gl.(3.82) additiv aus den relativen Fehlern der einzelnen Glieder zusammen. Bei einem mehrstufigen Verstärker ist immer Sj > 1. Der superponierende Fehler wird wirksam herabgesetzt, wenn die 1. Stufe die höchste Verstärkung S1 Sj aufweist. Oft lässt sich allerdings die Verstärkung der ersten Stufe nicht beliebig erhöhen. Dann ist darauf zu achten, dass in der ersten Stufe hochwertige Verstärker zum Einsatz kommen, die nur minimal von superponierenden Störgrößen (z.B. Drift) beeinflusst werden. Diese Regel wird beim Entwurf jedes Gleichspannungsverstärkers beachtet. In der 1. Stufe wird immer einiger Aufwand getrieben, um den Einfluss superponierender Störgrößen herabzusetzen, indem etwa durch die Differenzschaltung (Abschn. 3.2.4) oder durch einen „Zerhacker“ (Abschn. 3.3.9) oder durch Thermostatisierung (Abschn. 3.3.7) der Fehler der 1. Stufe herabgesetzt wird.
78
3. Stationäres Verhalten von Messsystemen
Beispiel 3.9 Zweistufiger Verstärker Zum Bau eines zweistufigen Spannungsverstärkers stehen zwei Stufen mit der gleichen Spannungsverstärkung Sa = Sb = 30 zur Verfügung. Bei Stufe a ist mit einer „Nullpunktdrift“ von 0,5 mV, bei Stufe b mit einer solchen von 1 mV zu rechnen. Mit Gl.(3.80) erhält man für die Anordnung a, b einen Fehler von F = (30 · 0, 5 + 1) mV = 16 mV , bei der Anordnung b, a einen Fehler von F = (30 · 1 + 0, 5) mV = 30, 5 mV . 3.3.9 Synchroner Zerhackerverstärker Abbildung 3.32 zeigt die Wirkungskette der synchronen Zerhackung und Gleichrichtung. Die Modulatoren M werden zeitlich gleich angesteuert, d.h. sie arbeiten synchron zueinander. z
V
u
M
M
y1
T
y2
y
p ( t ), ω 0 Abbildung 3.32. Synchrone Zerhackung und Gleichrichtung
Die erste Modulation entspricht dann der Multiplikation des Eingangssignals mit einem Rechtecksignal p (t), das den Mittelwert E {p(t)} = 0 hat. Die Störung z (t) wird zuerst nicht moduliert (z.B. Offset des Verstärkers), y1 (t) = u (t) · p (t) + z (t) .
(3.83)
Die Umschaltfunktion p (t) habe die Frequenz ω0 = 2π/T (Abb. 3.33). p( t ) 1
−
π 2ω0
π 2ω0
3π 2ω0
−1
Abbildung 3.33. Umschaltfunktion p (t)
5π 2ω0
7π 2ω0
9π 2ω0
t
3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen
79
Die nochmalige Modulation des Signals y1 mit der Umschaltfunktion p (t) ergibt y2 (t) = V · y1 (t) · p (t) = V u (t) · p2 (t) +V · z (t) p (t) = V · u (t) + V · z (t) p (t) .
(3.84)
=1
Das Eingangssignal u (t) wird unverzerrt übertragen, während die Störung mit der mittelwertfreien Umschaltfunktion p (t) moduliert bleibt. Die Störung kann deshalb mit einem einfachen Tiefpass weggefiltert werden, auch wenn der Erwartungswert E {z (t)} = 0 ist, d.h. wenn die Störung einen konstanten, superponierenden Anteil enthält. Die Umschaltfunktion p (t) erzeugt kein eigenes superponierendes Störsignal, da über einer Periode das Integral verschwindet: T
p (t) dt = 0.
(3.85)
0
Der Übersichtlichkeit wegen soll im folgenden nur mit der Grundschwingung von p(t) gerechnet werden. Die höherfrequenten Anteile der Fourier-Reihe von p(t) und deren Faktor 4/π werden vernachlässigt: p(t) ≈ cos ω0 t. Modulation: Die erste Modulation entspricht der Multiplikation des Eingangssignals u (t) mit p (t). Aufgrund der Faltung mit P (ω) erscheint das Spektrum des Eingangssignals U (ω) an den Frequenzen der Modulationsschwingung ±ω0 . Die überlagerte Störung z (t) greift am Eingang des Verstärkers an: y1 (t) = u(t) · cos ω0 t + z(t), Y1 (ω) = 12 U (ω − ω0 ) + 12 U (ω + ω0 ) + Z(ω). Synchrongleichrichtung: Die Synchrongleichrichtung entspricht der nochmaligen Modulation mit p (t), die zeitgleich synchron zur ersten Modulation erfolgt. Unter Berücksichtigung der Verstärkung V erhält man dann y2 (t) = V u(t) cos2 ω0 t + V z(t) cos ω0 t. Mit der Beziehung cos2 x = y2 (t) =
1 2
+
1 2
cos 2x kann man das Signal schreiben als
V V u(t) + u(t) cos(2ω0 t) + V z(t) cos ω0 t. 2 2
Im Spektralbereich bedeutet das wieder eine Verschiebung des Störspektrums Z(ω) um ±ω0 (Abb. 3.35) und ein zusätzliches Auftreten des Nutzsignals bei ±2ω0 : Y2 (ω) =
V V V U (ω) + U (ω ± 2ω0 ) + Z(ω ± ω0 ). 2 4 2
(3.86)
80
3. Stationäres Verhalten von Messsystemen |U(ω)| , |Z(ω)| Nutzsignal
Störsignal −ωz −ωu
ωu
ωz
ω
Abbildung 3.34. Bandbreite von Nutzsignal und Störsignal
Tiefpass: Aus dem Signal Y2 (ω) in Gl.(3.86) müssen jetzt noch die hochfrequenten Anteile entfernt werden. Dies geschieht mit einem Tiefpass, der die Filtercharakteristik 1 für |ω| ≤ |ωu | (3.87) |T (ω)| = 0 für |ω| > |ω0 | − |ωz | besitzt. Hierin ist ωu die Bandbreite des Eingangssignals und ωz die der Störung (Abb. 3.34). Die Störungen werden damit aus dem Ausgangssignal herausgefiltert: Y (ω) = Y2 (ω) · T (ω) =
V · U (ω) . 2
(3.88)
Die Umschaltfrequenz ω0 muss dazu sehr viel höher sein als die Summe der Bandbreiten des Nutzsignals und des Störsignals: |ω0 | > |ωu | + |ωz | .
(3.89)
Durch die Zerhackung wird die nutzbare Signalbandbreite ωu eingeschränkt. Zerhackerverstärker werden insbesondere verwendet, wenn ein Offset in der Verstärkereingangsstufe kompensiert werden soll. |Y( ω )| Tiefpass Störspektrum
−ω 0 −ω z
−ω 0
−ω u
ω u ω 0 −ω z
ω0
Abbildung 3.35. Nutzsignal- und Störspektrum beim Zerhackerverstärker
ω 0+ω z
ω
3.4 Rückwirkung des Messsystems
81
3.4 Rückwirkung des Messsystems Beim Abgriff einer Messgröße durch das Messsystem findet ein Energiefluss zwischen Prozess und Messsystem statt, der die ursprüngliche Messgröße verfälschen kann. Die daraus resultierenden Fehler sollen im folgenden untersucht werden. An die vorgesehene Messstelle werde eine Schnittstelle gelegt. Die Schnittstelle teilt den Prozess in Teil 1 und Teil 2 auf (s. Abb. 3.36). Die Messgröße sei die verallgemeinerte Kraft F1 . Es wird mit den verallgemeinerten, konjugierten Größen ˙ gerechnet. Beispiele dafür sind Spannung und Kraft (F ) –und Flussvariablen (Q) Strom oder Federkraft und Auslenkungsgeschwindigkeit.
Prozess Q10
Q20
F10
F20
1
2
Q1
Q2
F1
F2
Qm
Fm
1
2
Messschnittstelle
Prozess ohne Messsystem
M Prozess mit Messgerät
Abbildung 3.36. Prozess und Messsystem
Für die Flussvariablen ohne Messsystem gilt Q˙ 10 = Q˙ 20 bzw. mit Messsystem entsprechend Q˙ 1 = Q˙ 2 + Q˙ m
oder Q˙ 10 + ∆Q˙ 1 = Q˙ 20 + ∆Q˙ 2 + Q˙ m .
(3.90)
Für die Kraftvariablen ohne bzw. mit Messsystem gilt F10 = −F20
bzw. F1 = −F2 = −Fm .
(3.91)
Die physikalischen Gesetzmäßigkeiten ergeben allgemeine Zusammenhänge zwischen Kraft und Flussgrößen der Form Q˙ i = fi (F1 , F2 , . . .).
82
3. Stationäres Verhalten von Messsystemen
Kleine Abweichungen der Flussgrößen ∆Q˙ i lassen sich dann näherungsweise durch ˙i Q ∆Fi berechnen. Für das Messsystem nimmt man einen lineadas Differential ∂∂F i ren Zusammenhang Fm = Q˙ m Wm zwischen den konjugierten Größen an. Die Bezeichnung Wm des Proportionalitätsfaktors soll dabei auf den Innenwiderstand des Messgerätes hinweisen. Die Gl. (3.90) wird damit ∂ Q˙ 2 Fm ∂ Q˙ 1 ∆ F1 = ∆ F2 + , ∂F1 ∂F2 Wm oder mit Gl.(3.91) ∂ Q˙ 1 ∂ Q˙ 2 F1 ∆F1 = − ∆F1 − , ∂F1 ∂F2 Wm woraus man ∆ F1 1 =− · F1 Wm
1 ˙1 ∂Q ∂F1
+
(3.92)
˙2 ∂Q ∂F2
erhält. Durch den endlichen Energie- oder Leistungsverbrauch des Messsystems ändert sich die Messgröße F1 um ∆F1 . Ist die Messgröße der verallgemeinerte Fluss, so lassen sich analoge Beziehungen herleiten. Beispiel 3.10 Spannungsmessung an einem Widerstandsteiler
Im Ri
I1 I2
U
U1
U2 Um
Rm >> Ri , Ra
Ra
Rm
Abbildung 3.37. Widerstandsteiler
An die Schnittstelle wird eine Messeinrichtung mit dem Innenwiderstand Rm gelegt, d.h. parallel zu Ra . Es entsprechen sich ∂ Q˙ 1 1 ∂ Q˙ 2 1 = , = , F1 ∼ U1 , Q˙ 1 ∼ I1 , Wm ∼ Rm , ∂F1 Ri ∂F2 Ra was mit Gl.(3.92)
3.4 Rückwirkung des Messsystems
1 ∆ U1 =− · U1 Rm
1 Ri
1 +
83
1 Ra
ergibt. Der Fehler geht gegen Null, wenn Rm → ∞ geht. Eine genaue Ableitung ergibt im Nenner noch einen zusätzlichen Term 1/Rm . Die Entwicklung von Gl.(3.92) nach den Kräften stellt lediglich eine Näherung dar, weil die höheren Glieder der Taylor-Reihe vernachlässigt werden. Beispiel 3.11 Längenmesstaster Eine vergleichbare Abschätzung des Fehlers erhält man, wenn eine Reihenschaltung vorliegt. Ein Werkstück der Länge x soll mit einem Längenmesstaster gemessen werden, der die Federcharakteristik Fm = cm xm hat. Das Werkstück habe die Federkonstante c, mit c cm . x F
C
Fm
cm xm
Abbildung 3.38. Längenmesstaster
Das System umfasst die beiden Baugruppen Werkstück und Längenmesstaster. Die Messgröße ist die Zustandsvariable x. Der stabile Arbeitspunkt ist erreicht, wenn beide Längen gleich sind, x = xm . Die beiden Federkräfte sind dann ebenfalls entgegengesetzt gleich groß: F = −Fm
oder
F0 +∆F = −Fm . =0
Ohne Anlegen des Längenmessadapters ist die Kraft im Werkstück F0 = 0. Die Entwicklung der Kraftänderung ∆F nach dem Weg ∆ x ergibt ∆F = −Fm
oder
∂F ∆ x = −cm x, ∂x
woraus man mit ∂F / ∂x = c die relative Wegänderung erhält: ∆x cm cm =− =− x ∂F /∂x c Für cm c ist die Wegänderung erwartungsgemäß klein.
4. Dynamisches Verhalten von Messsystemen
4.1 Dynamische Fehler von Messsystemen Im idealen Messgerät soll das Ausgangssignal fehlerlos den zeitlichen Verlauf der Messgröße wiedergeben. Zur Beschreibung des dynamischen Verhaltens von Messsystemen wird an den Eingang ein Sprungsignal aufgegeben und die Abweichung der Ausgangsgröße von der idealen Sprungantwort als Fehler festgestellt. Abb. 4.1 zeigt die Anordnung für einen Druckmesser und die Auswertung der Sprungantwort. Beim Aufbau der Anordnung muss darauf geachtet werden, dass der Messgrößensprung in einer Zeit erfolgt, die etwa eine Größenordnung unter der Einstellzeit des Druckmessers liegt. Parallel dazu wird ein schneller Druckmesser mit elektrischem Ausgang Gn benötigt. Weiter muss die Einstellzeit des Datenerfassungsgerätes erheblich unter der Einstellzeit des Messgerätes liegen. 4.1.1 Empirische Kennwerte der Sprungantwort Beim Auswerten der Sprungantwort kann zwischen schwingender und aperiodischer Einstellung unterschieden werden (Abb. 4.1). • Bei schwingender Einstellung werden folgende Kennwerte abgelesen: T1 die Zeit, die vergeht, bis der stationäre Wert zum ersten mal erreicht ist. τ
die Zeit, die vergeht, bis ein Toleranzband von 1% der Sprunghöhe nicht mehr verlassen wird.
yu¨ die maximale Überschwingweite, angegeben in Prozent der Sprunghöhe. • Bei aperiodischer Einstellung werden diese Kennwerte abgelesen: Tg die Ausgleichszeit zwischen den Schnittpunkten der Wendetangente mit der Null-Linie und dem stationären Wert. Tu die Verzugszeit zwischen dem Sprungeinsatz und dem Schnittpunkt der Wendetangente mit der Null-Linie.
86
4. Dynamisches Verhalten von Messsystemen
a) Schwingende Einstellung
1% Toleranzband
p, I
yü
T1
p2
ym =
yü ⋅100 % y∞
y∞
τ
p2
p1
p1 T Schalter
t
b) Aperiodische Einstellung
Testgerät
Gn
p, I In
Tg
I
p2 dyn. Fehler
Datenerfassungsgerät
Tu p1 tw
t
Abbildung 4.1. Messeinrichtung und Kennwerte der Sprungantwort
4.1.2 Nichtlineares Zeitverhalten Viele Messeinrichtungen, die statisch eine gute lineare Kennlinie haben, erweisen sich bei dynamischen Messungen als nichtlinear. Eine Messeinrichtung zeigt ein lineares Verhalten, wenn dem Eingangssignal mit der k–fachen Amplitude zu jedem Zeitpunkt auch das k–fache Ausgangssignal entspricht. In Abb. 4.2 ist neben linearem Verhalten auch nichtlineares Verhalten demonstriert. Dem doppelt so hohen Sprung entspricht im eingeschwungenen Zustand ein doppelt so großer Ausschlag. Der stationäre Wert wird aber für beide Sprunghöhen mit der gleichen Maximalgeschwindigkeit erreicht. Ein solches nichtlineares Zeitverhalten findet man oft bei Messeinrichtungen nach dem Kompensationsverfahren, wenn ein Stellmotor in seinen möglichen Geschwindigkeiten begrenzt ist. Doch auch hier ist die Sprungfunktion ein geeignetes Signal, das Zeitverhalten zu charakterisieren. Die Versuche sind dann mit verschiedenen Sprunghöhen und mit zu- und abnehmender Messgröße durchzuführen. 4.1.3 Bestimmung des Frequenzganges Eine andere Methode zur Bestimmung des dynamischen Fehlers ist das Aufnehmen des Frequenzganges mit Hilfe harmonischer Anregungen der Messgröße. Der
4.1 Dynamische Fehler von Messsystemen
Eingangssignal x(t)
87
Eingangssignal x(t) x2
x2
x 2 ( t ) = k x1( t )
x 2 ( t ) = k x1( t ) x1
Ausgangssignal y(t)
x1
t
Ausgangssignal y(t)
t
y2 y2
y 2 ( t ) = k y1 ( t )
y 2 ( t ) = k y1 ( t ) y1 y1
t
a.) Lineares System
b.) Nichtlineares System
t
Abbildung 4.2. Lineares und nichtlineares Zeitverhalten
Zeitaufwand ist beträchtlich, wenn viele Frequenzen der Messgröße angefahren und jeweils der stationäre Zustand des Messsystems abgewartet werden muss. Von vielen technischen Messgrößen lassen sich kaum harmonische Signale erzeugen, weil lineare Stellglieder fehlen. Abbildung 4.3 zeigt die Anordnung für einen Druckmesser und die Auftragung der Ergebnisse im Bode-Diagramm. Ein Sinusgeber mit mechanischem oder elektrischem Ausgangssignal steuert einen Druckgeber, der mit linearer Kennlinie und kurzer Ansprechzeit ein harmonisches Druck-Signal p liefert. Dieses Signal p = |p0 | sin(2πf t) wirkt auf das zu untersuchende Messgerät und parallel dazu auf einen erheblich schnelleren Druckaufnehmer Gn . Die Ausgangssignale im eingeschwungenen Zustand x = |x0 | sin(2πf t + Φx )
und
y = |y0 | sin(2πf t + Φy )
werden in einem schnellen Datenerfassungsgerät aufgezeichnet. Für verschiedene Frequenzen f wird man am untersuchten Messgerät verschiedene Amplituden y0 und Phasen Φy erwarten, so dass man frequenzabhängige Amplituden- und Phasenfunktionen erhält: |y0 | = |y0 (f )|
und Φy = Φy (f ).
Das Referenz-Messgerät hingegen sollte im betrachteten Frequenzbereich dem Eingangssignal möglichst ideal folgen, d.h.
88
4. Dynamisches Verhalten von Messsystemen
Φ = -arg G(f)
|G(f)| G ( 0)
1
0
0.1
45
Sinusgeber 90
0. 01 fe
V Druckgeber
0. 01
10
100 f /f0
0. 01
1
10
100 f /f0
10
100 f /f0
0
45 90
fR
yr
0. 01
0.1
Φ = -arg G(f)
1
Daten- 0.1 yR erfassung 0. 01 xr
1
|G(f)| G ( 0)
Gn(f) G(f) Testgerät p
0.1
fe
0.1
fR
1
10
100 f /f0
0. 01
0.1
1
Abbildung 4.3. Aufnahme des Frequenzganges eines Druckmessers
|x0 | = p = const
und Φx = 0 für alle f.
Den gesuchten Frequenzgang des Messsystems G(f ) erhält man damit zu G(f ) =
|y0 (f )| −j Φy (f ) |y0 (f )| −j(Φy (f )−Φx (f )) ·e ·e = . |x0 (f )| p
(4.1)
Messtechnisch gesehen betrachtet man einfach im eingeschwungenen Zustand das Amplitudenverhältnis und die Phasenverschiebung des untersuchten Messgerätes zum Referenzgerät bei verschiedenen Sinussignalen, unter der Voraussetzung, dass sich das Referenzgerät näherungsweise ideal verhält. Der gefundene Frequenzgang wird im so genannten Bode-Diagramm dargestellt. Dazu wird sowohl das Amplitudenverhältnis |G(f )| als auch die Phase Φ = − G(f ) über der Frequenz aufgetragen. Als Frequenzachse wird der Logarithmus des Frequenzverhältnisses f/f0 mit der Bezugsfrequenz f0 verwendet. Amplitudengang: Der Betrag der Übertragungsfunktion |G(f )| des Messsystems heißt Amplitudengang und wird in Dezibel aufgetragen, mit GdB = 20 · log |G(f )|. Meist wird der Betrag zuvor noch auf den Wert |G(0)| normiert, um eine einheitliche Darstellung des Amplitudenganges für Systeme mit unterschiedlichen statischen Verstärkungen V = |G(0)| zu erreichen. Phasengang: Der Phasengang, also die Phase Φ = − G(f ) der Übertragungsfunktion wird linear über der logarithmischen Frequenzachse aufgetragen (Abb. 4.3).
4.2 Systembeschreibung von Messsystemen
89
PT1 -Verhalten: Aus dem Bode-Diagramm können nun wichtige Kennwerte über das dynamische Verhalten des untersuchten Messsystems abgelesen werden. Bei mit wachsender Frequenz monoton fallendem Amplitudengang wird die Eckfrequenz fe und die zugehörige √ Phase Φe abgelesen. Die Eckfrequenz ist erreicht, wenn die Amplitude auf 2/2 oder um 3 dB abgefallen ist. Bei Systemen mit P T1 − V erhalten ergibt sich dabei eine Phase von Φe = −45◦. PT2 -Verhalten: Bei einer Resonanzerhöhung wird der größte Wert der Amplitude yR als Resonanzerhöhung abgelesen und die zugehörige Resonanzfrequenz fR und die Phase ΦR festgestellt und angegeben. Bei Systemen mit P T2 − V erhalten ergibt sich dabei eine Phase von ΦR ≈ −90◦ . Die in den Bildern gezeichneten Frequenzgänge zeigen alle Tiefpassverhalten. Es gibt Messgeräte für dynamische Messungen, die Hoch- oder Bandpassverhalten zeigen. Dort werden die entsprechenden Werte für die untere Grenzfrequenz mit angegeben. Zu beachten ist hierbei, dass eine Normierung auf |G(0)| natürlich keinen Sinn macht, wenn die Übertragungsfunktion für f = 0 den Wert Null besitzt. Die aus dem Frequenzgang ermittelten Kennwerte geben die Abweichungen vom idealen Zeitverhalten wieder. Als „ideal“ wird ein Messsystem verstanden, das für beliebige Frequenzen Betrag und Phase richtig wiedergibt: Gideal (f ) = 1 ⇒ |G(f )| = 1
und
G(f ) = 0
∀ f.
Bei nichtlinearem Zeitverhalten müssen zusätzlich verschiedene Sprunghöhen der Eingangsgröße untersucht werden. Die Angabe eines Frequenzganges ist dann allerdings nicht mehr allgemein möglich. Neben der schrittweisen Anregung eines Messsystems mit harmonischen Schwingungen gibt es noch eine Reihe anderer Verfahren zur Identifikation des dynamischen Systemverhaltens [27, 16]. Ein weiteres Verfahren zur Identifikation von Übertragungsfunktionen ist in Abschn. 6.4.4 dargestellt.
4.2 Systembeschreibung von Messsystemen Die Beschreibung des dynamischen Verhaltens eines Messsystems geschieht über die Übertragungsfunktion 1+ G(s) = G(0) 1+
m j=1 n
a j sj ,
m ≤ n,
b i si
i=1
im Frequenzbereich, mit den Systemparametern
(4.2)
90
4. Dynamisches Verhalten von Messsystemen
a = [a1 , a2 , . . . , am ]T , b = [b1 , b2 , . . . , bn ]T . Beispiel 4.1 System 2. Ordnung Bei einem System 2. Ordnung laute die Übertragungsfunktion G(f ) =
T 2 s2
1 . + 2dT s + 1
Ein solches System hat die Sprungantwort 1 1 s∞,1 t 1 s∞,2 t h(t) = 1 + 2 e − e . T (s∞,1 − s∞,2 ) s∞,1 s∞,2 Der Parameter d beeinflusst maßgeblich das Einschwingverhalten des Systems. Für Parameter d ≥ 1 ergeben sich zwei reelle Polstellen s∞,1 , s∞,2 . Für d < 1 erhält man dagegen zwei konjugiert komplexe Polstellen, was zu einer schwingenden Einstellung der Sprungantwort führt. Ist für eine gegebene Anwendung kein Überschwingen erlaubt, so wird man den aperiodischen Grenzfall mit d = 1 einstellen. Für große d wird der stationäre Endwert hingegen nur sehr langsam erreicht. An diesem Beispiel wird die Bedeutung der Systemparameter a und b in der Übertragungsfunktion G(s) klar. Sie beeinflussen das Einschwingverhalten eines Messsystems. Damit ist die Optimierungsaufgabe gestellt. Die Parameter sind so einzustellen, dass das Zeitverhalten des Messsystems die gestellten Forderungen an Schnelligkeit und Überschwingen erfüllt. Die Aufgabe, das Zeitverhalten eines Messsystems zu verbessern, wird in Abb. 4.4 dargestellt. Das Messsignal u(t), überlagert von einem Störsignal n(t), wirkt auf das Messsystem, mit der Übertragungsfunktion G(s, a, b). Das Ausgangssignal y(t) wird mit dem idealen, unverfälschten Signal yideal(t) verglichen. Das Fehlersignal (engl. error) e(t) = y(t) − yideal(t) wird nun verschiedenen Kriterien unterworfen, um geeignete Parameter a und b für ein gewünschtes Zeitverhalten des Systems zu erhalten. In diesem Kapitel wird der Einfluss der Störgröße zunächst vernachlässigt, n(t) = 0. Die Größe G(0) der Übertragungsfunktion in Gl.(4.2) ist von besonderer Bedeutung, wie im folgenden gezeigt werden soll. Mit dem Endwertsatz der LaplaceTransformation lim y(t) = lim s · Y (s)
t→∞
s→0
folgt für die Sprungantwort eines Messsystems
4.2 Systembeschreibung von Messsystemen Störsignal n(t)
Messsignal u(t)
91
Messsystem: a , b, = Systemparameter
Ausgangssignal y(t)
G(s, a, b)
Gideal(s)=G(0)
Ideales System
yideal(t) -
Fehlersignal e(t) Optimierung
Abbildung 4.4. Verbesserung des dynamischen Verhaltens von Messgeräten
lim y(t) = lim s · G(s)
t→∞
s→0
1 = G(0). s
Der stationäre Messwert wird, nach Beendigung aller Einschwingvorgänge, für unendlich große Zeiten t angenommen. Er entspricht gerade dem Wert der Übertragungsfunktion G(s)an der Stelle s = 0. Der Wert G(0) entspricht der Empfindlichkeit Si der idealen stationären Kennlinie. Damit ergibt sich folgende Forderung für die ideale Übertragungsfunktion eines Messsystems: Gideal (s) = G(0).
(4.3)
Diese Forderung bedeutet, dass das System für alle Frequenzen das gleiche Verhalten zeigen soll, wie im stationären Fall. Aus diesen Betrachtungen ergibt sich sofort, dass für Systeme mit G (0) = 0, also für Hochpässe und Bandpässe, alle Kriterien versagen, die mit Gl.(4.3) arbeiten. Für solche Systeme sind gesonderte Betrachtungen nötig. In der Messtechnik wird man allerdings zumeist Systeme mit G (0) = 0 antreffen. Für sie werden Kriterien zur Optimierung des dynamischen Systemverhaltens abgeleitet. Dabei lassen sich zwei prinzipiell verschiedene Vorgehensweisen unterscheiden: Parameteroptimierung: Die folgenden Kriterien gehen alle von der Darstellung im Frequenzbereich Gl.(4.2) aus. Die Aufgabe ist es, durch gezieltes Verändern der Koeffizienten ai und bi das dynamische Verhalten des Systems zu optimieren. Die Struktur des Systems wird dabei nicht verändert. Momente der Impulsantwort: Das Kriterium der verschwindenden Momente der Impulsantwort sollte man nur dann anwenden, wenn wirklich geschwindigkeitstreue oder beschleunigungstreue Systeme verlangt werden. Sind danach noch freie Parameter verfügbar, kann man zusätzlich eines der anderen anwenden. Konstanter Amplitudengang: Das Kriterium vom konstanten Amplitudengang bringt der Erfahrung nach ein sehr brauchbares Einschwingverhalten. Meist bleiben die Überschwingweiten der Sprungantwort unter 10%.
92
4. Dynamisches Verhalten von Messsystemen
Konstanter Realteil: Beim diesem Kriterium wird ein möglichst konstanter Realteil des Frequenzganges angestrebt. Dahinter steht die allgemeine Aussage, dass Frequenzgänge Überschwingweiten der Sprungantwort von weniger als 20% bewirken, wenn ihr Realteil im Arbeitsbereich konstant ist, um bei höheren Frequenzen abzufallen. Diese Überschwingweiten sind zwar meist größer als beim Kriterium vom konstanten Amplitudengang, aber für Messeinrichtungen durchaus noch akzeptabel. ITAE-Kriterium: Das ITAE-Kriterium gibt, wenn über n − 1 Parameter des Nennerpolynoms verfügt werden kann, sehr brauchbare Übergangsfunktionen mit geringen Überschwingweiten. Stehen weniger Parameter für die Dimensionierung zur Verfügung, ist man auf Simulationen am Digitalrechner angewiesen. Analytische Lösungen existieren nur für Systeme mit verschwindenden Momenten der Impulsantwort. Quadratisches Fehlerintegral: Das Integral über den quadratischen Fehler lässt sich analytisch gut in der Frequenzgangdarstellung behandeln. Oft hat die Anwendung länger andauernde kleine Oszillationen um den stationären Wert zur Folge. Für Systeme höherer Ordnung werden die Beziehungen allerdings unhandlich und erfordern längere numerische Rechnungen. Strukturänderung: Anstatt die Koeffizienten ai , bi des Systems zu verändern, versucht man durch das Hinzufügen weiterer Übertragungsglieder das dynamische Verhalten des resultierenden Gesamtsystems zu verbessern. Dies kann durch Serienschaltung von Kompensationsgliedern oder durch Rückkopplungs-Schleifen erfolgen. Wesentlich ist hierbei, dass die Struktur des ursprünglichen Systems verändert wird. Kompensation: Bei der Kompensation werden die Koeffizienten ai , bi des Messsystems nicht unmittelbar verändert. Vielmehr wird dort versucht, die das Einschwingverhalten bestimmenden dominanten Pole der Übertragungsfunktion durch entsprechende Nullstellen zu kompensieren. Das Verfahren liefert nur dann befriedigende Ergebnisse, wenn die dominanten Pole bekannt sind, und wenn deren Abhängigkeit von Störgrößen kompensiert werden kann. Gegenkopplung: In Abschn. 4.4.2 wird gezeigt, dass die proportionale Gegenkopplung von Messsystemen weniger geeignet ist, das Einschwingverhalten zu verbessern. In vielen Fällen wird das Messsystem durch die Gegenkopplung instabil. 4.2.1 Stabilitätskriterium nach Hurwitz Allen Kriterien zur Optimierung des dynamischen Verhaltens ist gemeinsam, dass die Stabilität gesondert zu prüfen ist. Die Anwendung eines Kriteriums ergibt nicht von vornherein ein stabiles System! Für die Stabilität gilt ohne Beweis (siehe [23])
4.2 Systembeschreibung von Messsystemen
93
Satz 4.1 Stabilität Ein lineares, zeitinvariantes System ist stabil, wenn alle Polstellen der Übertragungsfunktion G(s) in der linken s-Halbebene liegen: {s∞i } < 0. Für Nennerpolynome der Ordnung 3 oder höher ist die Berechnung der Polstellen zur Überprüfung auf Stabilität meist nur noch numerisch möglich. Die explizite Berechnung der Polstellen vermeiden die zahlreichen in der Literatur beschriebenen Stabilitätskriterien [6, 15, 26]. Das Hurwitz-Kriterium ist eine elegante Art, die Stabilität eines Systems anhand der Systemparameter zu prüfen. Es lautet (ohne Beweis) Satz 4.2 Hurwitz-Kriterium Gegeben ist ein Nennerpolynom mit reellen Koeffizienten. P (s) = λ0 sn + λ1 sn−1 + . . . + λn−1 s + λn , Man bildet die Determinante λ1 λ3 λ5 λ7 · · · λ0 λ2 λ4 λ6 · · · 0 λ1 λ3 λ5 · · · H = 0 λ0 λ2 λ4 · · · 0 0 λ1 λ3 · · · 0 0 λ0 λ2 · · · . . . . ···,
λ0 > 0, λi ∈ IR.
, H1 = λ1 , H2 = λ1 λ3 , . . . , λ0 λ2
und von dieser die nordwestlichen Unterdeterminanten H1 , H2 , . . . , Hn . Sind alle Determinanten H1 . . . Hn > 0, so liegen alle Nullstellen von P (s) in der linken s-Halbebene. Andernfalls ist mindestens eine Nullstelle auf der j-Achse oder rechts davon. Lässt sich also das Hurwitzkriterium für das Nennerpolynom einer Übertragungsfunktion G(s) erfüllen, so ist das System stabil. Man beachte die unterschiedliche Indizierung der Koeffizienten bi und λi in den Polynomen N (s) und P (s). Beispiel 4.2 Stabilität bei Systemen 3. Ordnung Gegeben ist eine Übertragungsfunktion G(s) = Z(s)/N (s) 3. Grades mit N (s) = λ0 s3 + λ1 s2 + λ2 s + λ3 = 0,
λ0 > 0.
94
4. Dynamisches Verhalten von Messsystemen
Die Hurwitzdeterminante berechnet sich damit zu λ1 λ3 0 H = λ0 λ2 0 . 0 λ1 λ3 Das System ist stabil, wenn alle nordwestlichen Unterdeterminanten positiv sind: H1 = λ1 > 0! λ1 λ3 = λ1 λ2 − λ0 λ3 > 0! H2 = λ0 λ2 H3 = H = λ3 H2 > 0! Damit sind die Bedingungen für die Parameter festgelegt. Das System 3. Ordnung ist stabil wenn gilt, dass λ0 , λ1 , λ3 > 0 λ1 λ2 > λ0 λ3
und ist.
(4.4)
4.3 Parameteroptimierung In diesem Abschnitt wird auf verschiedene Verfahren zur optimalen Einstellung der Systemparameter a, b eingegangen. Die Anwendung der vorgestellten Verfahren soll jeweils an zwei Beispielen durchgeführt werden. Die Beispielsysteme werden zunächst eingeführt. Beispiel 4.3 Federwaage
c d x
m
Abbildung 4.5. Federwaage
Als einfaches Messsystem 2. Ordnung wird eine Federwaage nach Abb. 4.5 betrachtet. Mit dem mechanischen Gesetz von Newton, wonach die Summe aller Kräfte gleich Null ist,
4.3 Parameteroptimierung
95
Fi = 0,
i
und den einzelnen Kraftkomponenten m g : Gewichtskraft,
mx ¨ : Massenträgheitskraft,
d x˙ : Dämpferkraft,
c x : Federkraft,
erhält man die Differentialgleichung des Systems: F = mg = mx ¨ + d x˙ + c x. Die Übertragungsfunktion der Federwaage wird durch Laplace-Transformation G(s) =
X(s) 1 = . F (s) ms2 + ds + c
Mit den Abkürzungen ω02 =
2δ d = ω0 c
c , m
erhält man eine Darstellung, die den Dämpfungsfaktor δ als Parameter enthält, der Ziel der Optimierung ist: G(s) =
1 · c
s2 ω02
1 . + 2δ ωs0 + 1
(4.5)
Der stationäre Endwert des Systems ist lim sG(s)
s→0
1 1 = G(0) = . s c
Die physikalischen Parameter m, c, d sind immer positiv, so dass nach Satz 4.2 das System immer stabil ist. Beispiel 4.4 Messsystem 3. Ordnung mit 2 freien Parametern Am Beispiele eines Messsystems, das als Regelkreis vorliegt, soll eine komplexere Optimierungsaufgabe mit zwei freien Parametern vorgestellt werden. Die Struktur des Messsystems ist in Abb. 4.6 dargestellt. Es handelt sich um ein System mit zwei reellen Zeitkonstanten T1 , T2 und einem vorgeschalteten PI-Regler mit den wählbaren reellen Parametern V und Tk , wobei Tk = T1 , T2 gelten soll. Die Übertragungsfunktion des offenen Kreises lautet Go (s) = V ·
1 + Tk s , s(1 + T1 s)(1 + T2 s)
T1 , T2 , Tk , V > 0.
96
4. Dynamisches Verhalten von Messsystemen
U (s)
V
1 + Tks s
1 1 + T1s
1 1 + T2 s
Y (s)
Abbildung 4.6. Strukturbild eines Messsystem mit zwei freien Parametern V, Tk
Die Übertragungsfunktion des geschlossenen Kreises ist G(s) =
1 + Tk s 1 =V · , 3 1 + Go (s) T1 T2 s + (T1 + T2 )s2 + (1 + V Tk )s + V
oder in der Form von Gl.(4.2) 1 + Tk s mit 1 + b 1 s + b 2 s2 + b 3 s3 1 + V Tk T1 + T2 T1 T2 b1 = , b2 = , b3 = . V V V
G(s) =
(4.6)
Der stationäre Endwert des Systems ist lim sG(s)
s→0
1 = G(0) = 1. s
Die Stabilitätsbedingung für ein System 3. Ordnung lautet nach Gl.(4.4) b1 b2 > b3 ⇒ Tk > T2 ·
T1 T2 1 + V Tk > , V T1 + T2
1 1 − . 1 + T2 /T1 V
Wenn Tk > T2 gewählt wird, ist die linke Seite der Ungleichung immer erfüllt: Tk > T2 > T2 ·
1 1 − . 1 + T2 /T1 V
Für die Beispiele wird mit den Systemparametern T1 = 0.25s und T2 = 0.4s gearbeitet. Abbildung 4.7 zeigt die Sprungantworten des Beispielsystems für verschiedene Parameter V = 1 und V = 10 sowie Tk = 0.2s und Tk = 4s. Die unterschiedlichen Einschwingvorgänge zeigen die Notwendigkeit geeigneter Kriterien für die Bestimmung der Parameter. 4.3.1 Kriterium verschwindende Momente der Impulsantwort Das Ausgangssignal y(t) des Messsystems erhält man durch Faltung des Eingangssignals u(t) mit der Impulsantwort g(t) des Messsystems:
4.3 Parameteroptimierung
97
V=10, Tk=4s V=10, Tk=0.2s V=1, Tk=4s V=1, Tk=0.2s
Abbildung 4.7. Sprungantworten des Systems 3. Ordnung bei verschiedenen V, Tk ∞
y (t) = g (t) ∗ u (t) =
g (τ ) u (t − τ ) dτ .
(4.7)
−∞
Das Eingangssignal u (t − τ ) wird um t herum in eine Taylor-Reihe n
u(t − τ ) =
(−1)i ui · τ i ,
mit ui =
i=0
1 dui (t) · i! dti
entwickelt. Damit lässt sich das Faltungsintegral als Summe schreiben: y (t) =
n
∞
(−1) ui ·
i=0
i
τ i g (τ ) dτ.
(4.8)
−∞
Analog zur Wahrscheinlichkeitstheorie (Kap. 5) lassen sich auch von einer Impulsantwort g(t) so genannte Momente definieren. Das i-te Moment gi einer Impulsantwort berechnet sich anhand von ∞
τ i g (τ ) dτ.
gi =
(4.9)
−∞
Mit der Bedingung g(τ ) = 0 für τ < 0 bei kausalen Systemen können die Momente der Impulsantwort gi mit der System-Übertragungsfunktion G(s) verknüpft werden. Dazu wird die Laplace-Transformation ∞
g (τ ) e−sτ dτ
G (s) = 0
98
4. Dynamisches Verhalten von Messsystemen
mehrfach nach s abgeleitet, was dGi (s) i = (−1) dsi s=0
∞ i
τ i g (τ ) dτ = (−1) gi
(4.10)
0
ergibt. Die Systemfunktion G (s) ist somit das Analogon zur charakteristischen Funktion der Wahrscheinlichkeitstheorie, aus der sich ebenfalls die Momente einer Wahrscheinlichkeitsdichte berechnen lassen. Mit diesen Definitionen lässt sich das Ausgangssignal in Gl.(4.8) wie folgt darstellen: y(t) =
n (−1)i ui · gi
bzw. y(t) =
i=0
n
ui · G(i) (0),
(4.11)
i=0
y(t) = u (t) · G (0) + u (t) · G (s = 0) + 12 u (t) · G (s = 0) + · · · .(4.12) Idealerweise sollte die Ausgangsgröße der Messgröße verzögerungsfrei entsprechend yi (t) = u (t) · G (0) folgen, so dass alle Ableitungen dGi (s) = 0, i = 1, 2, · · · n, dsi s=0
(4.13)
sein sollten. Statt nun die Ableitungen explizit zu berechnen, wird die Differenz (G (s) − G (0)) zwischen der Übertragungsfunktion des Messsystems G (s) und der idealen Übertragungsfunktion G (0) gebildet: G (s) − G (0) = G (0)
(a1 − b1 ) s + (a2 − b2 ) s2 + · · · . 1 + b 1 s + b 2 s2 + · · ·
Denkt man sich (G (s) − G (0)) in eine Potenzreihe nach s entwickelt, so sind die i-ten Ableitungen (i) (G (s) − G (0)) = G(i) (s) =0 s=0
s=0
gerade Null, wenn die entsprechenden Koeffizienten ai = bi gleich sind. Für a1 = b 1
(4.14)
verschwindet gerade das erste Moment der Impulsantwort
(G (s) − G (0)) |s=0 = G (s = 0) = 0, das Messsystem folgt dem Eingangssignal u(t) geschwindigkeitstreu. Wird zusätzlich für
4.3 Parameteroptimierung
a2 = b 2
99
(4.15)
auch das zweite Moment der Impulsantwort (G (s) − G (0)) |s=0 = G (s = 0) = 0, so folgt das Messsystem dem Eingangssignal u(t) beschleunigungstreu. Die Ableitungen u (t), u (t) gehen dann nicht mehr in die Ausgangsgröße y(t) ein. Das Kriterium ergibt schwach gedämpfte Einschwingvorgänge. Bei Geschwindigkeitstreue ist zwar nach Gl.(4.10) ∞
G (s = 0) = −
τ g (τ ) dτ = 0, 0
bei der Integration können sich aber positive und negative Flächen gegenseitig aufheben (Abb. 4.8). Bei vielen Frequenzgängen ist außerdem das Zählerpolynom vom Grad Null, so dass das Verfahren überhaupt nicht angewendet werden kann.
Abbildung 4.8. Impulsantwort und Moment 1. Ordnung
Beispiel 4.5 Federwaage Für ein geschwindigkeitstreues Messsystem wird nach Gl.(4.14) a1 = b 1 bzw. in Gl.(4.5) b1 = 2δ = 0.
100
4. Dynamisches Verhalten von Messsystemen
Das System wird instabil, d.h. ein geschwindigkeitstreues System ist nicht zu erreichen. Beispiel 4.6 Messsystem 3. Ordnung mit 2 freien Parametern Für ein geschwindigkeitstreues System muss nach Gl.(4.14) Tk =
1 + Tk V V
gelten. Die Bedingung ist nur für V →∞ erfüllbar und lässt sich in der Praxis nur näherungsweise erfüllen. Das System bleibt aber für alle V stabil. 4.3.2 Kriterium konstanter Amplitudengang für kleine Frequenzen Das Verfahren „konstanter Amplitudengang für kleine Frequenzen“ verlangt lediglich, dass für kleine Frequenzen der Betrag des Frequenzganges konstant bleibt. Über den Phasengang wird hierbei nicht verfügt. Diese Forderung ist erheblich schwächer als in Abschn. 4.3.1. Abbildung 4.9 zeigt Amplitudengänge |G(f )| , welche diese Forderung erfüllen, wobei |G(f )|2 = G(f )G∗ (f ) eine in f gerade Funktion |G(f )|2 = F (f 2 ) ist. Um das Kriterium „konstanter Amplitudengang bei kleinen Frequenzen“ zu erfüllen, setzt man die Ableitungen zu Null:
|G(f)|
b) eine Resonanzstelle
a) monoton fallend
f Abbildung 4.9. Konstanter Amplitudengang für kleine Frequenzen
4.3 Parameteroptimierung
∂ (i) F (f 2 ) = 0, ∂ (f 2 )i
101
i = 1, 2, 3, · · · .
Statt die höheren Ableitungen von F (f 2 ) explizit zu berechnen, stellt man die Funktion F (f 2 ) am einfachsten so dar: F (f 2 ) = G2 (0)
Σ Ai (2πf )2i , Σ Bi (2πf )2i
mit A0 = B0 = 1.
(4.16)
Es wird F (f 2 ) − G2 (0) =
Σ (Ai − Bi ) (2πf )2i 2 G (0) . Σ Bi (2πf )2i
Wenn für alle i < j die Beziehung Ai = Bi gilt, dann verschwinden alle i-ten Ableitungen von F (f 2 ) an der Stelle f 2 = 0, i < j. Die Koeffizienten Ai und Bi errechnen sich aus dem Frequenzgang: ν
Σ aν (j2πf ) ν Σ bν (j2πf ) Σ a2ν (−1)ν (2πf )2ν + j2πf Σ a2ν+1 (−1)ν (2πf )2ν = G(0) (4.17) ν ν Σ b2ν (−1) (2πf )2ν + j2πf Σ b2ν+1 (−1) (2πf )2ν
G(f )) = G(0)
mit a0 = b0 = 1 . Für F (f 2 ) muss der Betrag des Zählers und Nenners berechnet werden. Für den Zähler gilt z.B. i
Ai = (−1)
i a2ν a2(i−ν) − a2ν+1 a2(i−ν)−1 .
(4.18)
ν=0
Im 2. Term der Summendarstellung wird der Index von a2(i−ν)−1 für i = 0 negativ. Es gilt a−1 = 0 . Die ersten Koeffizienten Ai lauten ausgeschrieben: A0 A1 A2 A3
= a20 = 1, = −a0 a2 − a2 a0 + a1 a1 , = a4 a0 + a2 a2 + a0 a4 − a1 a3 − a3 a1 , = −a6 a0 − a4 a2 − a2 a4 − a0 a6 + a5 a1 + a3 a3 + a1 a5 .
Entsprechend lassen sich die Bi berechnen. Damit lässt sich das Kriterium für konstanten Amplitudengang angeben. Ein Frequenzgang der Gestalt G(f ) = G(0)
Σ aν (j2πf )ν ν mit a0 = b0 = 1 Σ bν (j2πf )
hat für kleine Frequenzen einen konstanten Amplitudengang, wenn nacheinander folgende Bedingungen
102
4. Dynamisches Verhalten von Messsystemen
a21 − 2a2 a0 = b21 − 2b2 b0 , a22 + 2a0 a4 − 2a1 a3 = b22 + 2b0 b4 − 2b1 b3 , 2 a3 + 2a1 a5 − 2a0 a6 − 2a2 a4 = b23 + 2b1 b5 − 2b0 b6 − 2b2 b4 ,
(4.19)
oder allgemein i i a2ν a2(i−ν) − a2ν+1 a2(i−ν)−1 = b2ν b2(i−ν) − b2ν+1 b2(i−ν)−1 ν=0
ν=0
erfüllt werden. Sind einige Gleichungen erfüllt, so gibt ein „>“ oder ein „<“ Zeichen der ersten nicht erfüllten Gleichung einen Hinweis, ob der Amplitudengang nach dem konstanten Teil für höhere Frequenzen steigt oder fällt. Das Kriterium geht vom Frequenzgang mit den Koeffizienten aν , bν der Potenzen von f aus. Diese Koeffizienten sind durch die analytische Behandlung immer bekannt. Das Kriterium ist deshalb einfach anzuwenden. Eine wiederholte Suche nach den Polen ist nicht notwendig, sofern man sicher ist, dass alle Pole auf der linken Halbebene liegen. Ideal wird das Kriterium von Systemen erfüllt, deren Pole und Nullstellen symmetrisch zur j-Achse liegen: G (s) =
1 (s − αi ) (s − α∗ ) i
(s + αi ) (s + α∗i )
i
,
{αi } > 0 für Stabilität.
Für solche Systeme ist |G(f )| ≡ 1 . In der Systemtheorie werden solche Systeme als „Allpass“ bezeichnet. Messsysteme sind allerdings von Natur aus keine „Allpass-“ sondern „Minimalphasensysteme“. Wendet man das Kriterium auf ein Messsystem mit dem Grad n des Nenners an, so werden sich nicht alle n Gleichungen erfüllen. Beispiel 4.7 Butterworthfilter Als Anwendung wird das Butterworthfilter untersucht. Darunter versteht man ein System mit dem Amplitudengang 1 2n .
|G(f )|2 = 1+
(4.20)
f f0
Die Pole finden sich aus der Gleichung 1+
f f0
2n = 0,
fν = f0 ejΦν mit Φν =
(2ν + 1) π , 2n
ν = 1, 2, · · · , 2n.
Die Pole liegen auf einem Kreis mit dem Radius f0 und dem Ursprung als Mittelpunkt. Für ein stabiles System kommen nur Pole auf der linken Halbebene in Frage. Für n = 2 erhält man mit Φ1 = 34 π, Φ2 = 54 π die Übertragungsfunktion
4.3 Parameteroptimierung
(2πf0 )2 G (s) = 3 5 j 4π j 4π s − 2πf0 e s − 2πf0 e
103
(4.21)
und die Impulsantwort im Zeitbereich √ √ √ g (t) = 2 · 2πf0 e− 2πf0 t sin 2πf0 t.
(4.22)
Die Impulsantwort g(t) und der Amplitudengang |G(f )|2 sind in Abb. 4.10 gezeichnet.
g( t )
|G(f)|
1
2
f0t
2
1
2
3 f /f 0
Abbildung 4.10. Impulsantwort g (t) und Amplitudengang |G(f )|2 für ein Butterworthfilter der Ordnung n = 2
Beispiel 4.8 Federwaage Nach Gl.(4.19) gilt a21 − 2a2 a0 = b21 − 2b2 b0 , was in Gl.(4.5) zu 4δ 2 − 2 = 0 und damit zur Dämpfung √ 2 = 0, 707 δ= 2 führt. In der Messtechnik heißt diese Dämpfung „Oszillographendämpfung“. Die Übergangsfunktion x (t) hat eine leichte Überschwingung von 5 %. Beispiel 4.9 Messsystem 3. Ordnung mit 2 freien Parametern Für das System 3. Ordnung sind zwei Bedingungen für einen konstanten Amplitudengang zu erfüllen:
104
4. Dynamisches Verhalten von Messsystemen
x(t ) δ = 0,7
F∞ c
t
Abbildung 4.11. Übertragungsfunktion des Systems 2. Ordnung mit Oszillographendämpfung
a21 − 2a2 a0 = b21 − 2b2 b0 , (1 + Tk V )2 T1 + T2 Tk = −2 , 2 V 3 V Tk V = V (T1 + T2 ) − 1 2.
(4.23)
Die zweite Bedingung lautet a22 + 2a0 a4 − 2a1 a3 = b22 + 2b0 b4 − 2b1 b3 , T1 T2 1 + Tk V (T1 + T2 )2 , −2 0= V2 V V was mit Gl.(4.23) 1−
1 (T1 + T2 )2 − V (T1 + T2 ) = 2 2T1 T2
ergibt. Daraus berechnen sich die gesuchten Parameter zu T12 + T22 + T1 T2 , 2T1 T2 (T1 + T2 ) (T 2 + T 2 )(T1 + T2 ) Tk = 1 2 2 2 . T1 + T2 + T1 T2 V =
Abbildung 4.12 zeigt die resultierende Sprungantwort und den Amplitudengang. Die Sprungantwort zeigt wie auch die Federwaage nur leichtes Überschwingen von 5%. Man erkennt sehr gut den konstanten Bereich des Amplitudengangs für kleine Frequenzen. 4.3.3 Kriterium konstanter Realteil des Frequenzganges Die Impulsantworten g(t) kausaler Systeme können in einen geraden Teil gg (t) und einen ungeraden Teil gu (t) zerlegt werden, g (t) = gg (t) + gu (t) .
(4.24)
4.3 Parameteroptimierung
105
Sprungantwort h(t)
1 0.8 0.6 0.4 0.2 0
0
0.5
1
1.5
2
2.5
Amplitudengang |G(f)|
Zeit t[sek] 1 0.8 0.6 0.4 0.2 0
−1
0
10
1
10
10
Frequenz [Hz]
Abbildung 4.12. Sprungantwort und Amplitudengang eines Systems 3. Ordnung nach Anwendung des Kriteriums Konstanter Amplitudengangs für kleine Frequenzen
g( t ) g(t )
g g (t )
g g (t ) , gu (t )
t
gu (t )
Abbildung 4.13. Gerade und ungerade Teile einer Impulsantwort
Die Fourier-Transformierte ist ∞
g (t) e
G (f ) =
=
∞
−∞ /∞ −∞
−j2πf t
g (t) (cos 2πf t − j sin 2πf t) dt
dt = −∞
gu (t) cos 2πf t dt − j
=0
/∞ −∞
gg (t) sin 2πf t dt
=0
106
4. Dynamisches Verhalten von Messsystemen ∞
∞
gg (t) cos 2πf t dt − j
+ −∞
gu (t) sin 2πf t dt
−∞
= {G(f )} + j {G(f )}
(4.25)
mit {G(f )} =
/∞ −∞
{G(f )} = −
gg (t) cos 2πf t dt,
/∞
−∞
(4.26) gu (t) sin 2πf t dt.
Der Realteil {G(f )} kann von t = 0 · · · ∞ integriert werden, weil die Impulsantwort gg (t) gerade sein soll: ∞
{G(f )} = 2
gg (t) cos 2πf t dt. 0
Die inverse Fourier-Transformation ist ∞
{G(f )} cos 2πf t df.
gg (t) = −∞
Für t ≥ 0 gilt g (t) = 2gg (t) = 2
/∞ −∞
{G(f )} cos 2πf t df = 4
/∞
{G(f )} cos 2πf t df.
0
Die Impulsantwort g (t) kann für t ≥ 0 allein aus dem Realteil {G(f )} der Übertragungsfunktion G (f ) bestimmt werden. Für ideales Einschwingverhalten kann {Gi (f )} = G (0) = const
(4.27)
gefordert werden, womit die Impulsantwort gi (t) = 4G (0) · δ (t) ,
t ≥ 0,
(4.28)
und die ideale Ausgangsfunktion des Messsystems yi (t) = 4G (0) · δ (t) ∗ u (t) = 4G (0) u (t) ,
t ≥ 0,
(4.29)
wären. Die Forderung nach einem konstanten Realteil des Frequenzganges ergibt entsprechende Bedingungen für die Koeffizienten aν und bν der Übertragungsfunktion G (f ):
4.3 Parameteroptimierung ∞
G (f ) = G (0) ·
ν=0 ∞ ν=0 ∞
= G (0) ·
ν=0 ∞
aν (j2πf ) bν (j2πf )
107
ν
ν
a2ν (−1)ν (2πf )2ν + j2πf ν
b2ν (−1) (2πf )2ν + j2πf
ν=0
∞
a2ν+1 (−1)ν (2πf )2ν
ν=0 ∞
. ν
b2ν+1 (−1) (2πf )2ν
ν=0
Die Erweiterung mit dem konjugiert komplexen Nenner ergibt einen realen Nenner N · N ∗ . Der Realteil der Übertragungsfunktion ist damit (Z · N ∗ ) mit N · N∗ ∞ ∞ ν i ∗ 2ν {ZN } = (a2ν (−1) (2πf ) ) (b2i (−1) (2πf )2i ) +
{G(f )} =
ν=0
+ (2πf )2
i=0 ∞
ν
(a2ν+1 (−1) (2πf )2ν )
ν=0
=
∞ ∞
∞
i
(b2i+1 (−1) (2πf )2i )
i=0
a2ν b2i (−1)
ν+i
(2πf )2(ν+i)
ν=0 i=0
+ (2πf )2
∞ ∞
a2ν+1 b2i+1 (−1)
ν+i
(2πf )2(ν+i) .
ν=0 i=0
Mit der Substitution des Index k = ν + i bzw = ν + i, ν ≤ k, ν ≤ , erhält man {Z · N ∗ } =
k ∞
k
a2ν b2(k−ν) (−1) (2πf )2k
k=0 ν=0
+ (2πf )2
∞
a2ν+1 b2( −ν)+1 (−1) (2πf )2 .
=0 ν=0
In den zweiten Summenterm wird der Faktor (2πf )2 hereingezogen, wodurch sich der Exponent von (2πf ) auf k = + 1 erhöht. Damit wird {Z · N ∗ } =
k ∞ k=0 ν=0
( a2ν b2(k−ν) (−1)k (2πf )2k −a2ν+1 b2(k−ν)−1 (−1)k (2πf )2k .
108
4. Dynamisches Verhalten von Messsystemen
Dabei ist der Koeffizient b−1 für ν = k als b−1 = 0 definiert. Entsprechend erhält man für den Nenner ∞ ∞ ν i ∗ 2ν 2i b2ν (−1) (2πf ) b2i (−1) (2πf ) · N ·N = ν=0
2
+ (2πf )
i=0 ∞
ν
2ν
b2ν+1 (−1) (2πf )
ν=0
=
k ∞ k=0 ν=0
∞
i
2i
b2i+1 (−1) (2πf )
i=0 k
b2ν b2(k−ν) (−1) (2πf )2k k −b2ν+1 b2(k−ν)−1 (−1) (2πf )2k .
Der Realteil der Übertragungsfunktion lässt sich mit Ak = (−1)k ·
k a2ν b2(k−ν) − a2ν+1 b2(k−ν)−1 ,
(4.30)
ν=0
Bk = (−1)k ·
k b2ν b2(k−ν) − b2ν+1 b2(k−ν)−1
(4.31)
ν=0
darstellen als ∞
{G(f )} = G (0)
k=0 ∞
Ak (2πf )2k . Bk
(4.32)
(2πf )2k
k=0
Die Bedingung für einen konstanten Realteil {G(f )} lautet dann Ak = Bk oder k k a2ν b2(k−ν) − a2ν+1 b2(k−ν)−1 = b2ν b2(k−ν) − b2ν+1 b2(k−ν)−1 . ν=0
ν=0
Für die ersten Koeffizienten ist dies b0 = a0 = 1, −a0 b2 + a1 b1 − a2 b0 = b21 − 2b0 b2 , (4.33) 2 a0 b4 − a1 b3 + a2 b2 − a3 b1 + a4 b0 = b2 + 2b0 b4 − 2b1 b3 , −a0 b6 +a1 b5 −a2 b4 +a3 b3 −a4 b2 +a5 b1 −a6 b0 = b23 2b0 b6 +2b1 b5 −2b2 b4 . Die Bedingungen für einen konstanten Realteil {G(f )} sind praktisch nur für kleine Frequenzen f erfüllbar. Der Realteil des Frequenzganges fällt hinter dem konstanten Teil ab, wenn in der 1. unerfüllten Gleichung statt des Gleichheitszeichens ein „<“ Zeichen gilt. Umgekehrt erfährt der Realteil eine Erhöhung, wenn in dieser Gleichung ein „>“ Zeichen gilt.
4.3 Parameteroptimierung
109
Beispiel 4.10 Federwaage Nach Gl.(4.33) gilt −a2 b0 − a0 b2 + a1 b1 = b21 − 2b0 b2 , woraus man die Dämpfung δ=
1 2
erhält. Diese Einstellung bringt größere Überschwinger als im Fall des konstanten Amplitudengangs für kleine Frequenzen. x(t ) F∞ c
δ = 0,5
t
Abbildung 4.14. Übergangsfunktion des Systems 2. Ordnung mit der Dämpfung 0,5.
Beispiel 4.11 Messsystem 3. Ordnung mit 2 freien Parametern Für das System 3. Ordnung sind zwei Bedingungen für einen konstanten Realteil des Frequenzgangs zu erfüllen: −a0 b2 + a1 b1 − a2 b0 = b21 − 2b0 b2 , Tk V = V (T1 + T2 ) − 1
(4.34)
Die zweite Bedingung lautet a0 b4 − a1 b3 + a2 b2 − a3 b1 + a4 b0 = b22 + 2b0 b4 − 2b1 b3 , (T1 + T2 )2 T1 T2 T1 T2 1 + Tk V = , −2 −Tk 2 V V V V was mit Gl.(4.34) V (T1 + T2 ) − 1 =
(T1 + T2 )2 − 2T1 T2 T1 T2
ergibt. Daraus berechnen sich die gesuchten Parameter zu T12 + T22 + T1 T2 , T1 T2 (T1 + T2 ) (T 2 + T 2 )(T1 + T2 ) Tk = 1 2 2 2 . T1 + T2 + T1 T2 V =
110
4. Dynamisches Verhalten von Messsystemen
Abbildung 4.15 zeigt die resultierende Sprungantwort und den Realteil des Frequenzgangs. Die Sprungantwort zeigt wie auch die der Federwaage größeres Überschwingen. Man erkennt sehr gut den konstanten Bereich des Realteils des Frequenzgangs für kleine Frequenzen.
Sprungantwort h(t)
1.2 1 0.8 0.6 0.4 0.2 0
0
0.5
1
1.5
2
2.5
Zeit t[sek]
Realteil von G(s)
1 0.8 0.6 0.4 0.2 0
−1
0
10
10
1
10
Frequenz [Hz]
Abbildung 4.15. Sprungantwort und Realteil des Frequenzgangs eines Systems 3. Ordnung nach Anwendung des Kriteriums Konstanter Realteil des Frequenzgangs
4.3.4 ITAE-Kriterium Der Name kommt aus der Definition: Integral of Time multiplied Absolute of Error Criterion. Als Testsignal u (t) und als ideales Ausgangssignal yideal (t) wird die Sprungfunktion benutzt. Das Gütekriterum wird als Integral über den Betrag der Abweichung e(t) des Ausgangssignals vom idealen Ausgangssignal ∞
Q=
|e(t)| · t dt → min
(4.35)
|g(t) ∗ σ(t) − G(0)σ(t)| · t dt
(4.36)
0 ∞
= 0
angesetzt. Länger andauernde Fehler wirken sich stark aus, da mit der Zeit t gewichtet wird. Fehler zu Beginn werden dagegen kaum gewertet. Die Anwendung
4.3 Parameteroptimierung
111
des Kriteriums führt zu einer leicht schwingenden Einstellung. Die Integration über den Betrag des Fehlersignals ist für Systeme höherer Ordnung nur noch numerisch möglich. System 1. Ordnung: Die Übertragungsfunktion eines Messsystems 1. Ordnung sei G1 (s) = G1 (0) ·
ω0 , s + ω0
die Differenz zur idealen Übertragungsfunktion G1 (0) ∆G1 (s) = G1 (s) − G1 (0) = −G1 (0) ·
s . s + ω0
Die Fehlerfunktion ist die Sprungantwort E(s) = (G1 (s) − G1 (0)) ·
1 1 = −G1 (0) · s s + ω0
(4.37)
bzw. e(t) = −G1 (0) · e−ω0 t . Das ITAE-Kriterium ist damit ∞
G1 (0) · t · e−ω0 t dt =
Q1 = 0
G1 (0) . ω02
(4.38)
Durch eine kleine Einschwing-Zeitkonstante 1/ω0 kann das Kriterium minimiert werden. System 2. Ordnung: Bei einem System 2. Ordnung wird der Rechenaufwand schon wesentlich höher: G2 (s) = G2 (0)
ω02 . s2 + b1 ω0 s + ω02
Die Differenz ist ∆G2 (s) = G2 (s) − G2 (0) = −G2 (0)
s2
s2 + b 1 ω 0 s + b1 ω0 s + ω02
und der Fehler der Sprungantwort E(s) = ∆G2 (s) Mit den Definitionen
1 s + b1 ω0 = −G2 (0) 2 . s s + b1 ω0 s + ω02
(4.39)
112
4. Dynamisches Verhalten von Messsystemen
0 b1 b2 ω0 , ω = ω0 1 − 41 , 2 0 ω α b1 = cos ϕ, δ= = = 1− ω0 2 ω0 α = cot ϕ ω α=
b21 4
= sin ϕ,
erhält man die Fehlerfunktion im Zeitbereich G2 (0) −α t e (ω cos ω t + α sin ω t) ω G2 (0) −α t e =− sin (ω t + ϕ) . sin ϕ
e(t) = −
Es wird die Variablen-Transformation x = ω t + ϕ,
dx = ω dt,
t=
x−ϕ ω
eingeführt, womit man das ITAE-Kriterium ∞
e(t) · t dt
Q2 =
(4.40)
0
nach der Substitution G2 (0) ϕ cot ϕ e Q2 = 2 ω sin ϕ
∞
e−x·cot ϕ (x − ϕ) |sin x| dx ϕ
(4.41)
I(x)
erhält. Das Integral I (x) wird schrittweise berechnet, wobei sich an den Integrationszwischengrenzen jeweils das Vorzeichen des Integranden ändert. Auf diese Weise wird die Betragsbildung berücksichtigt: G2 (0) ϕ cot ϕ e Q2 = 2 ω sin ϕ
−I (ϕ) + 2
∞
(−1)
i−1
I (iπ) .
i=1
Die Integrale sind cos iπ sin2 ϕ (ϕ − iπ − sin 2ϕ) , eiπ cot ϕ 3 sin ϕ I (ϕ) = ϕ cot ϕ 4 sin2 ϕ − 3 . e I (iπ) =
Damit wird das Kriterium
(4.42)
4.3 Parameteroptimierung
G2 (0) sin2 ϕ Q2 = 3− 4 sin2 ϕ+ ω02
2 sin ϕ
∞
113
e
− cot ϕ(iπ−ϕ)
(iπ−ϕ+sin 2ϕ)
i=1
und das Minimum ∂ Q2 =0 ∂ϕ erhält man für ϕ = 0, 72, b1 = 2 cos ϕ = 1, 5. Bei Systemen höherer Ordnung lässt sich das ITAE-Kriterium nicht mehr analytisch geschlossen berechnen. In [8] sind die optimalen Parameter für das Nennerpolynom N (s) angegeben. Dabei wird in Systeme mit konstantem Zähler, in geschwindigkeitstreue und beschleunigungstreue Systeme unterschieden. 4√ Bei einem System 2. Ordnung erhält man eine Dämpfung von ungefähr δ = 1 2 . Zur Anpassung des Nennerpolynoms an die optimalen Polynome wird ω0n =
b0 bn
eingeführt und weiter mit qi =
bi , ω0n−i bn
i = 1, . . . , n,
i gerechnet. Dann ist das Nennerpolynom N (s) = qi (s/ωo ) für die Anwendung der folgenden Gleichungen geeignet: 1 1 wird N (s) : = G (0) a) für Systeme G (s) = G (0) n N (s) b ν sν ν=0
s + ω0 s2 + 1.5ω0 s + ω02 s3 + 1, 75ω0s2 + 2, 15ω02s + ω03 4 s + 2, 1ω0 s3 + 3, 4ω02 s2 + 2, 7ω03 s + ω04 s5 + 2, 8ω0 s4 + 5, 0ω02 s3 + 5, 5ω03 s2 + 3, 4ω04 s + ω05 6 s + 3, 25ω0s5 + 6, 6ω02s4 + 8, 6ω03 s3 + 7, 5ω04 s2 + 4, 0ω05 s + ω06
(4.43)
b0 + b1 s b) für geschwindigkeitstreue Systeme G (s) = G (0) wird N (s) : n b ν sν ν=0
s2 + 3, 2ω0 s + ω02 s + 1, 75ω0 s2 + 3, 25ω02 s + ω03 (4.44) s4 + 2, 4ω0 s3 + 4, 9ω02 s2 + 5, 1ω03 s + ω04 5 s + 2, 2ω0s4 + 6, 5ω02 s3 + 6, 3ω03 s2 + 5, 2ω04 s + ω05 s6 + 6, 1ω0s5 + 13, 4ω02s4 + 17, 2ω03s3 + 14, 1ω04s2 + 6, 8ω05 s + ω06 3
114
4. Dynamisches Verhalten von Messsystemen
c) für geschwindigkeits- und beschleunigungstreue Systeme G (s) = G (0)
b 0 + b 1 s + b 2 s2 wird N (s) : n b ν sν ν=0
s3 + 3, 0ω0 s2 + 4, 9ω02 s + ω03 s + 3, 7ω0 s3 + 7, 9ω02 s2 + 5, 9ω03 s + ω04 (4.45) s5 + 3, 8ω0 s4 + 9, 9ω02 s3 + 13, 4ω03s2 + 7, 4ω04s + ω05 s6 + 3, 9ω0s5 + 11, 7ω02s4 + 18, 6ω03s3 + 19, 3ω04s2 + 8, 1ω05 s + ω06 4
Die Sprungantworten ITAE-optimaler Systeme nach Gl.(4.43) zeigt Abb. 4.16. Der neue stationäre Wert wird nach kurzer Zeit und bei nicht zu starken Überschwingungen erreicht.
h(t )
h∞
n = 2 3 4 5 6
t
Abbildung 4.16. ITAE-optimale Sprungantworten
Beispiel 4.12 Federwaage Nach Gl.(4.43) ist für ein System 2. Ordnung der Koeffizient b1 = 1, 5 d.h. die Dämpfung ist δ = 0, 75, was nahezu der Oszillographendämpfung entspricht.
4.3 Parameteroptimierung
115
Beispiel 4.13 Messsystem 3. Ordnung mit 2 freien Parametern Das Beispielsystem 3.Ordnung mit Gl.(4.6) ist nicht geschwindigkeitstreu. Daher lassen sich die optimalen Nennerpolynome von Gl.(4.44) nicht anwenden. Da die optimalen Nennerpolynome nur für die angegebenen Klassen von Übertragungsfunktionen bekannt sind, muss in allen anderen Fällen die Optimierung numerisch geschehen. 4.3.5 Kriterium „Quadratisches Fehlerintegral“ Als Gütemaß für die Systemparameterwahl wird das Integral über den quadrierten Fehler ∞
e2 (t) dt
Q=
→ min
(4.46)
0
bzw. über die quadrierte Differenz der Sprungantworten ∞ 2
(g (t) ∗ σ (t) − G (0) · σ (t)) dt
Q=
→ min
(4.47)
0
/∞ herangezogen. Das einfache Fehlerintegral 0 e(t) dt wäre nicht sinnvoll, da sich im Integral positive gegen negative Fehler herausheben. Aus Gl.(4.47) lässt sich ablesen, dass große Fehler sehr stark bewertet werden, kleine Fehler dagegen nicht sehr stark zu Buche schlagen. Zur analytischen Berechnung setzen wir voraus, dass e(t) absolut integrierbar sei, dass also eine Fourier-Transformierte existiere. Für die Praxis bedeutet dies, dass limt→∞ e(t) = 0 werden muss, was wegen der beschränkten Fehlersignale |e(t)| < M eine realistische Annahme ist. Damit lässt sich Q aus Gl.(4.46) mit Hilfe des Parsevalschen Satzes mit E ∗ (s) = E(−s) für s = j2πf berechnen, ∞
1 e (t) dt = 2π j
j∞
2
Q= 0
E(s)E(−s) ds.
(4.48)
−j ∞
Das Berechnungsverfahren in [31] nutzt die Symmetrieeigenschaft des Integranden E(s)E(−s) aus. Die Laplace-Transformierte E(s) habe die Form n−1
E(s) =
ν=0 n
aν sν = b ν sν
A (s) . B (s)
ν=0
Der Integrand im Parsevalschen Integral ist dann
(4.49)
116
4. Dynamisches Verhalten von Messsystemen
A (s) A (−s) . B (s) B (−s) Er lässt sich in einen kausalen und einen antikausalen Teil aufspalten: A (s) A (−s) C (s) D (s) = + . B (s) B (−s) B (s) B (−s)
(4.50)
Multipliziert man mit B (s) B (−s) durch und bedenkt, dass A (s) A (−s) eine gerade Funktion ist, gilt mit A (s) A (−s) = A (−s) A (s) C (s) B (−s) + D (s) B (s) = C (−s) B (s) + D (−s) B (−s) bzw. D (s) = C (−s) .
(4.51)
Für ein Messsystem n-ter Ordnung ist das Gütekriterium dann j∞
1 Qn = 2π j
−j∞
j∞
j∞
C (s) C (−s) C (s) 1 2 ds + ds = ds. B (s) 2π j B (−s) 2π j B (s) −j∞ −j∞
kausal
antikausal
Die Zusammenfassung zum zweifachen des kausalen Teils ist möglich, da die Pole des Integranden symmetrisch zur imaginären Achse liegen. Dies lässt sich leicht zeigen, wenn man im zweiten Integral −s = v; −ds = dv substituiert. Man kann Qn als Laplace- Transformierte L−1 für t = 0 schreiben. Mit der komplexen Umkehrformel der Lapalce- Transformation ⎧ j∞ ; t > 0, ⎨ f (t) 1 ; t < 0, F (s) est ds = 0 ⎩1 2πj −j∞ 2 f (+0) ; t = 0, lässt sich Qn schreiben als Qn = 2 · 12 f (+0) = f (+0) . Mit dem Anfangswertsatz der Laplace-Transformation erhält man f (+0) = lim f (t) = lim s · t→+0
s→∞
C (s) . B (s)
(4.52)
B (s) ist ein Polynom n-ter Ordnung, C (s) ist von (n − 1)-ter Ordnung. Zur Bestimmung von Q genügt daher allein die Bestimmung zweier Koeffizienten. Es ist ∞
e2 (t)dt =
Qn = 0
cn−1 . bn
(4.53)
4.3 Parameteroptimierung
117
Beispiel 4.14 System 1. Ordnung Für eine rationale Übertragungsfunktion 1. Ordnung ist z.B. A (s) a0 = und b0 + b1 s B (s)
E(s) =
E(s)E(−s) =
a20 . (b0 + b1 s) (b0 − b1 s)
C (s) erhält man z.B. durch eine Partialbruchzerlegung, C (s) = Res (s1 ) , C (−s) = Res (s2 ) , wobei die Pole s1 = −
b0 b1
und s2 = +
b0 b1
sind. Damit wird C (s) = Res s1 = − bb01 = C (−s) = Res s2 = + bb01 =
a20 b0 + b1 bb01 a20 b0 + b1 bb01
=
a20 , 2b0
=
a20 2b0
und a20 s C (s) a20 . s = lim = s→∞ s→∞ 2b0 (b0 + b1 s) B (s) 2b0 b1
Q1 = lim
Im folgenden soll noch eine allgemeine Berechnungsvorschrift für den Parameter cn−1 angegeben werden. Dazu muss Gl.(4.50) unter Verwendung von Gl.(4.51) gelöst werden: C (s) B (−s) + C (−s) B (s) = A (s) A (−s) bzw. n−1 i=0
ci si
n k=0
k
bk (−s) +
n−1 i=0
i
ci (−s)
n k=0
b k sk =
n−1 i=0
ai si
n
k
(4.54)
ak (−s) .
k=0
Durch Auflösen gelangt man nach einem Koeffizientenvergleich zu folgendem linearen Gleichungssystem:
118
4. Dynamisches Verhalten von Messsystemen
⎡
··· ··· ···
b0 0 0 0 0 ⎢ b2 b1 b0 0 0 ⎢ ⎢ b4 b3 b2 b1 b0 ⎢ ⎢ .. .. ⎣ . . 0 0 ··· ⎡
0 0 0 .. .
⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥·⎢ ⎥ ⎢ ⎦ ⎣
bn bn−1
c0 −c1 c2 .. .
⎥ ⎥ ⎥ ⎥ = B n · cn ⎥ ⎦
(−1)n−1 cn−1
a20 2a0 a2 − a21 −2a1 a3 + a22 .. .
⎢ ⎢ ⎢ = 12 ⎢ ⎢ ⎣
⎤
⎤
(4.55)
⎥ ⎥ ⎥ ⎥. ⎥ ⎦
(−1)n 2an−2 an + (−1)n−1 a2n−1 Die Berechnung von cn−1 erfolgt durch Anwendung der Cramerschen Regel. Das Gleichungssystem sei nach Gl.(4.55) B n · cn = an . Die Matrix B ∗n ergibt sich aus der Matrix B n , indem die letzte Spalte durch den Vektor cn ersetzt wird. Der gesucht Koeffizient ist dann der Quotient der Determinanten (−1)n−1 cn−1 =
1 |B ∗n | . 2 |B n |
Damit erhalten wir die allgemeine Formel für das Quadratische Fehlerintegral: ∞
e2 (t) =
Qn = 0
|B ∗n | cn−1 . = (−1)n−1 bn 2bn |B n |
(4.56)
Im folgenden sind einige Fehlerintegrale allgemein berechnet: a21 b0 + a20 b2 , 2b0 b1 b2 a22 b0 b1 + a21 − 2a0 a2 b0 b3 + a20 b2 b3 Q3 = , 2b0 b3 (b1 b2 − b0 b3 )
Q2 =
Q4 =
(4.57)
a23 (b0 b1 b2 −b20 b3 )+(a22 −2a1 a3 )b0 b1 b4 +(a21 −2a0 a2 )b0 b3 b4 +a20 (b2 b3 b4 −b1 b24 ) . 2b0 b4 (−b0 b23 −b21 b4 +b1 b2 b3 )
Die Beziehungen für größere Grade n findet man in [31]. Mit wachsendem Grad n werden die Gleichungen rasch unhandlich. Zur Minimierung des Kriteriums wird die Gütefunktion Qn nach den Parametern pi abgeleitet, welche den Einschwingvorgang beeinflussen. Man erhält so die gesuchten Systemparameter der Übertragungsfunktion, die das dynamische Einschwingverhalten des Messsystems optimiert: m ∂ Qn i=1
∂ pi
=0
→
pi = [optimaler Parametersatz] .
(4.58)
4.3 Parameteroptimierung
119
Gewichtung des quadratischen Fehlers mit der Zeit: Das Kriterium „quadratisches Fehlerintegral“ bewertet alle Fehler gleich stark, gleichgültig zu welchem Zeitpunkt sie auftreten. Nach praktischen Überlegungen wird man aber Fehler für kleine Zeiten t (d.h. während des Einschwingvorganges) eher tolerieren als Fehler im eingeschwungenen Zustand. In einfacheren Systemen könnte man als Integralkriterium mit der Zeit gewichtete quadratische Fehler einführen. Sie lassen sich zumindest im Prinzip analytisch behandeln. Bei diesen Kriterien gehen Fehler bei großen Zeiten t stärker in das zu minimierende Gütekriterium ein: ∞
e2 (t) tn dt.
Rn =
(4.59)
0
Nach der Parsevalschen Beziehung ist Rn =
1 2πj
∞
n nd
(−1) −∞
E(s) · E(−s) ds. dsn
(4.60)
Mit Hilfe einer Partialbruchzerlegung des Integranden können die Pole in den kausalen und antikausalen Teil sortiert werden. Der kausale Teil wird über die linke Halbebene integriert, der antikausale über die rechte Halbebene. Der Integrand ist nicht mehr unbedingt eine symmetrische Funktion in s. Bei umfangreicheren Systemen kann man die Pole aber nicht mehr analytisch bestimmen, wodurch das Verfahren unpraktisch wird. Die verschiedenen Kriterien führen zu mehr oder weniger gut gedämpftem Einschwingverhalten. In Abb. 4.17 ist der Wert Q über der Dämpfung δ für ein System 2. Ordnung aufgetragen. Q
10 8
Q (quadrat. Fehlerintegral)
6 4
Q (ITAE)
2
0
0.25
0.5
0.75
1 δ
Abbildung 4.17. Gütemaß in Abhängigkeit der Dämpfung (System 2. Ordnung)
120
4. Dynamisches Verhalten von Messsystemen
Beispiel 4.15 Federwaage Es wird der Fehler E(s) der Sprungantwort 1 E(s) = (G(s) − G(0)) = s
− 2δ + ωs0 2 s s cω0 + 2δ + 1 ω0 ω0
gebildet. Nach Gl.(4.57) gilt für ein System 2. Ordnung 1 1 a21 b0 + a20 b2 Q2 = +δ · = , 2b0 b1 b2 4δ ω0 woraus man durch Differentiation dQ2 /dδ = 0 den gesuchten Parameter δ erhält: δ = 1/2.
Beispiel 4.16 Messsystem 3. Ordnung mit 2 freien Parametern Aus Gl.(4.6) bildet man die Fehlerübertragungsfunktion der Sprungantwort 1 (G(s) − G(0)) s −1 − (T1 + T2 )s − T1 T2 s2 = . V + (1 + Tk V )s + (T1 + T2 )s2 + T1 T2 s3
E(s) =
Nach Gl.(4.57) gilt für ein für ein System 3. Ordnung a22 b0 b1 + a21 − 2a0 a2 b0 b3 + a20 b2 b3 . Q3 = 2b0 b3 (b1 b2 − b0 b3 ) Die Gütefunktion lautet hier Q3 =
(T1 T2 )2 V (1+Tk V )+((T1 +T2)2 −2T1T2 )V T1 T2 +(T1 +T2 )T1 T2 . V T1 T2 ((1 + Tk V )(T1 + T2 ) − V T1 T2 )
Durch Differentation nach den beiden Parametern ∂Q3 =0 ∂V
und
∂Q3 =0 ∂Tk
erhält man zwei optimale Parametersätze: Tk1 = 0.25, V1 = 10.4,
Tk2 = 0.4, V2 = 4.06.
Die beiden Lösungen entsprechen einer Polkompensation. Die bessere Wahl für ein schnelles Einschwingverhalten ist die Kompensation des Pols mit der größeren Zeitkonstante. Das Überschwingen ist ähnlich dem Kriterium Konstanter Realteil des Frequenzgangs, wie in Abb. 4.18 zu sehen ist.
4.4 Strukturänderung zur Optimierung des Zeitverhaltens
121
Sprungantwort h(t)
1.5
1
T =0.4 k
0.5
RE=const T =0.25 k
0 0
0.5
1
1.5
2
2.5
Zeit t[sek]
Abbildung 4.18. Sprungantwort bei quadratischem Fehlerintegral und konstantem Realteil des Frequenzganges
4.4 Strukturänderung zur Optimierung des Zeitverhaltens 4.4.1 Kompensation des Zeitverhaltens Alle bisher geschilderten Verfahren hatten die Parameteroptimierung der Übertragungsfunktion zum Ziel. In diesem Abschnitt soll nun ein Verfahren diskutiert werden, welches die Struktur des Frequenzganges durch Kompensation ändert, um ein besseres Zeitverhalten zu erreichen. Dabei wird ein schnelles Einschwingen des Messsystems angestrebt. Das Zeitverhalten eines linearen Systems wird bekanntlich durch die Lage der Pole der Übertragungsfunktion bestimmt. Die Übertragungsfunktion eines Systems ist allgemein m 2
G(s) =
(s − s0j ) Z(s) j=0 =c· 2 , n N (s) (s − s∞i )
m ≤ n.
i=0
Bei der Lösung der Umkehrformel der Laplace-Transformation mit Hilfe des Residuensatzes wird das deutlich: Einfache Pole s∞i führen z.B. im Zeitbereich zu Funktionen es∞i t . Lediglich die Faktoren vor den Exponentialfunktionen werden durch den Zähler der Übertragungsfunktion gegeben. Mit Hilfe der Partialpruchzerlegung erhält man bei einfachen Polen die Übertragungsfunktion in Summendarstellung G(s) =
n i=0
Ai , s − s∞i
122
4. Dynamisches Verhalten von Messsystemen
die man einfach zurücktransformieren kann: g(t) =
n
Ai es∞i t · σ(t).
i=0
Sind die s∞i komplex, so treten auch Pole bei s∗∞i auf, da g(t) eine reelle Funktion ist. Bei stabilen Systemen liegen alle s∞i und s∗∞i in der linken s-Halbebene. Die beiden Pole, welche der imaginären Achse am nächsten liegen, welche also den größten Realteil haben, bezeichnen wir mit s∞0 = −δ0 + j2πf0 und s∗∞0 = −δ0 − j2πf0 . Diese so genannten dominanten Pole bestimmen weitgehend das Zeitverhalten der Impulsantwort für große Zeiten, lim g(t) ≈ e−δ0 t (A0 ej2πf0 t + A∗0 e−j2πf0 t ).
t→∞
(4.61)
Es liegt nun nahe, zu versuchen, diese beiden dominanten Pole durch ein nachgeschaltetes Kompensationsglied GK (s) zu eliminieren (Abb. 4.19). Gges( s )
GK( s )
G( s )
Abbildung 4.19. Strukturbild zur Kompensation des Zeitverhaltens
Der Übertragungsfunktion G(s) =
Z(s) Z(s) = N (s) M (s) · (s2 − (s∞0 + s∗∞0 )s + s∞0 s∗∞0 )
wird in Serienschaltung ein Kompensationsglied mit der Übertragungsfunktion GK (s) =
(s2 − (s0K + s∗0K )s + s0K s∗0K ) (s2 − (s∞K + s∗∞K )s + s∞K s∗∞K )
hinzugefügt. Für die Kompensation und ein insgesamt schnelleres Einschwingverhalten des Gesamtsystems muss gelten: s0K = s∞0 , {s∞K } < {s∞0 }.
(4.62)
Die Übertragungsfunktion der gesamten Anordnung ist damit Gges = G(s) · GK (s) =
Z(s) . M (s) · (s2 − (s∞K + s∗∞K )s + s∞K s∗∞K )
Bei idealer Kompensation sind die dominanten Pole (s∞0 , s∗∞0 ) nicht mehr in Gges enthalten. In der praktischen Anwendung ist die ideale Kompensation aus zwei Gründen nicht möglich:
4.4 Strukturänderung zur Optimierung des Zeitverhaltens
123
1. Die Systemparameter (s∞0 , s∗∞0 ) ändern sich im Betrieb beispielsweise durch Temperatureinflüsse oder Alterung: (s∞0 , s∗∞0 ) ⇒ (s∞ , s∗∞ ). 2. Die Systemparameter (s∞0 , s∗∞0 ) sind nicht exakt bekannt und können z.B. durch eine Systemidentifikation nur ungenau bestimmt werden: s∞ = s∞0 + ∆s∞0 . Die dominanten Pole können jetzt nicht mehr vollständig kompensiert werden. Die Übertragungsfunktion des unvollständig kompensierten Systems ist 2 ∗ ∗ ˜ ges = Gges · s − (s∞0 + s∞0 )s + s∞0 s∞0 . G s2 − (s∞ + s∗∞ )s + s∞ s∗∞
˜ ges ist die Impulsantwort. Sie lässt sich Die inverse Laplace-Transformierte von G nicht allgemein angeben. Durch die unvollständige Kompensation enthält das Nen˜ ges wieder den Term nerpolynom von G s2 − (s∞ + s∗∞ )s + s∞ s∗∞ = s2 + 2δs + δ 2 + (2πf )2 . Dieser bewirkt einen zusätzlichen Einschwingvorgang in der Impulsantwort, der mit e−δt langsam abklingt. Beispiel 4.17 Ideale Kompensation bei der Temperaturmessung Ein Berührungsthermometer steckt in einer Flüssigkeit der Temperatur T . Seine Wärmekapazität sei C, der Wärmeübergang sei durch α gegeben. Tm Temperatur des Thermometers C
Wärmekapazität des Thermometers
α
Wärmeübergang in das Thermometer
T
Temperatur der Flüssigkeit
Tm
T
Tü = C α
Wärmeübergangs-Zeitkonstante
Abbildung 4.20. Temperaturmessung
Der Energieerhaltungssatz besagt, dass die auf das Thermometer übergehende Wärme gleich der Erhöhung der inneren Energie des Thermometers ist, Φ = α(T − Tm ) = C
dE dTm = , dt dT
124
4. Dynamisches Verhalten von Messsystemen
oder Laplace-transformiert Tm (s) =
1 α T (s) = T (s). Cs + α Tu¨ s + 1
Im stationären Zustand ist lim G(s) = lim
s→0
s→0
1 = 1, Tu¨ s + 1
bzw. die Temperaturen t → ∞.
Tm = T,
Mit der Kompensationsübertragungsfunktion (TK << Tu¨ ) Tu¨ s + 1 TK s + 1
GK (s) =
erhält man die ideal kompensierte Gesamtübertragungsfunktion Gges (s) =
1 TK s + 1
und ein schnelles Einschwingen der Impulsantwort gges (t) =
1 · e−t/TK . TK
Beispiel 4.18 Kompensation bei veränderlichen Parametern Der Wärmeübergang α ist nun aber nicht konstant, sondern hängt von der Oberfläche und Form des Thermometers, aber auch von Größen ab, die sich im Betrieb ändern, wie die Anströmgeschwindigkeit, die Dichte und Art des Messstoffes. Betrachtet man die Abhängigkeit von der Strömungsgeschwindigkeit v des Messstoffes, so erhält man nach einem empirischen Gesetz m v α = , m ≈ 0, 8. α0 v0 Für kleine Änderungen ist ∆v ∆α . ≈m α0 v Die Strömungsgeschwindigkeit ändere sich im Betrieb z.B. um ∆v/v = 0.5 , wodurch ∆α/α0 = 0.4 wird. Dadurch ändert sich die Systemzeitkonstante
4.4 Strukturänderung zur Optimierung des Zeitverhaltens
Tu¨ =
125
C C C 1 1 = Tu¨0 · . = = · ∆α α α0 + ∆α α0 1 + ∆α 1 + α0 α0
Die unvollständig kompensierte Übertragungsfunktion ist Tu¨0 s + 1 1 · TK s + 1 Tu¨ s + 1 (Tu¨0 − TK )(1 + ∆α/α0 ) 1 = · − Tu¨0 − TK (1 + ∆α/α0 ) TK s + 1 Tu¨0 ∆α/α0 1 · − Tu¨0 − TK (1 + ∆α/α0 ) Tu¨03 (1 + ∆α/α0 ) s + 1
˜ ges (s) = G
und die Impulsantwort 1 (Tu¨0 − TK )(1 + ∆α/α0 ) −t/T · e K− TK Tu¨0 − TK (1 + ∆α/α0 ) (1 + ∆α/α0 ) −t (1 + ∆α/α0 )∆α/α0 Tu¨0 e . − Tu¨0 − TK (1 + ∆α/α0 )
g˜ges (t) =
Mit wachsender Parameterabweichung ∆α wird der Einschwingvorgang durch die größere Zeitkonstante Tu¨ bestimmt. In Abb. 4.21 sind die verschiedenen Einschwingvorgänge dargestellt. Der Fehler wird im wesentlichen durch den langsam abklingenden zweiten Term bestimmt.
3
1.2 2 Sprungantwort h(t)
1 0.8
4 1: Unkompensiert
0.6 2: Kompensiert, T = 0.1 T K ü0 0.4 0.2
3: Überkompensiert, ∆α/α = −0.4 0
1
4: Unterkompensiert ∆α/α = 0.4 0 0 0
0.1
0.2
0.3
0.4 Zeit t[sek]
0.5
0.6
0.7
0.8
Abbildung 4.21. Sprungantwort eines Berührungsthermometers mit einem Kompensationsnetzwerk in Serie
126
4. Dynamisches Verhalten von Messsystemen
4.4.2 Zeitverhalten bei Gegenkopplung Die Gegenkopplung soll auf die Möglichkeit zur Veränderung des Zeitverhaltens untersucht werden. Dazu wird das System mit der Übertragungsfunktion GR (s) = V · GK (s) in Serie zum Messsystem geschaltet. Der Systemausgang wird auf den Eingang zurückgekoppelt. Diese Anordnung (Abb 4.22) ist auch als Regelkeis bekannt. In der Regelungstechnik bezeichnet man daher GR (s) auch als Regler. Gges( s ) U(s)
+
E( s )
V.GK( s )
−
G( s )
Y( s)
Abbildung 4.22. Strukturbild zur Gegenkopplung
Die Übertragungsfunktion des geschlossenen Kreises ist Gges (s) =
V · GK (s) · G(s) . 1 + V · GK (s) · G(s)
(4.63)
Erhöht man formal die Verstärkung V , so geht die Übertragungsfunktion Gges (s) unabhängig von G(s) und GK (s) in die ideale Übertragungsfunktion über: lim Gges (s) = Gid = 1.
V →∞
Damit scheint eine hohe Verstärkung V im Regelkreis das geeignete Verfahren, das Zeitverhalten von Messsystemen zu verbessern. Leider wird für große Verstärkungen V der Regelkreis meist instabil, selbst wenn die einzelnen Teil-Systeme stabil sind. Daher ist die Gegenkopplung nur bedingt geeignet, das dynamische Verhalten eines Messsystems zu verbessern P-Regler: Um die Problematik zu verdeutlichen, betrachten wir im folgenden einen P-Regler mit der Übertragungsfunktion GR = V und nehmen eine Übertragungsfunktion G(s) des Messsystem ohne Nullstellen an, (−1)n G(s) = 2 n
n 2 i=1
s∞i
(s − s∞i )
i=1
,
4.4 Strukturänderung zur Optimierung des Zeitverhaltens
127
wobei G(s = 0) = 1 ist. Das Nennerpolynom von G(s) wird ausmultipliziert: N (s) = sn − sn−1
n
s∞i + · · ·
i=1 n 1
+ (−1)n−1 s ·
s∞i
i=1
n n 1 1 + (−1)n s∞i . s j=1 ∞j i=1
Die komplexen Pole sind jeweils paarweise konjugiert komplex zueinander, s∗∞i = −δi − j2πfi .
s∞i = −δi + j2πfi ,
Bildet man jeweils die Summe und das Produkt zweier konjugiert komplexer Pole, so führt dies auf s∞ + s∗∞ = −δ + j2πf − δ − j2πf = −2δ = 2{s∞ }, s∞ s∗∞ = δ 2 + (2πf )2 = r2 ,
(4.64)
wobei r der Abstand der Pole vom Ursprung in der komplexen Ebene ist. Damit lassen sich die Summen- und Produktterme des ausmultiplizierten Nennerpolynoms N (s) ausdrücken: n i=1 n 1 i=1
s∞i = s∞i =
n i=1 n 1
{s∞i },
(4.65)
ri .
(4.66)
i=1
Die Übertragungsfunktion des geschlossenen Kreises ist (−1)n V · Gges (s) = 2 n i=1
n 2 i=1
s∞i
(s − s∞i ) + (−1)n V ·
n 2 i=1
s∞i
und man erhält durch Ausmultiplizieren das Nennerpolynom des geschlossenen Kreises: Nges (s) = sn − sn−1
n
sg∞i + · · ·
i=1 n 1
+ (−1)n−1 s ·
i=1
sg∞i
n
1
j=1
sg∞j
+ (−1)n
n 1
sg∞i .
i=1
Durch Vergleich der beiden Nennerpolynome findet man die Beziehung zwischen der Lage der ursprünglichen Pole s∞i und denen im gegengekoppelten Kreis sg∞i .
128
4. Dynamisches Verhalten von Messsystemen
• Koeffizientenvergleich für sn−1 : n
s∞i =
i=1
n
sg∞i .
i=1
Mit Gl.(4.65) ergibt sich, dass die Summe der Realteile aller Pole unverändert ist, n
{s∞i } =
i=1
n
{sg∞i }.
(4.67)
i=1
• Koeffizientenvergleich für s: n 1
s∞i ·
i=1
n n n 1 1 1 = sg∞i · . s s ∞ g∞ j j j=1 i=1 j=1
Aus dem Produkt und der Summe der paarweise konjugiert komplexen Pole wird mit Gl.(4.64) 1 s∗ s∞ 2{s∞ } 1 + ∗ = ∞ + 2 = , s∞ s∞ r2 r r2 so dass man schreiben kann: n 1 i=1
ri
n {s∞j }
rj2
j=1
=
n 1
rgi
i=1
n {sg∞j } j=1
2 rgj
.
(4.68)
• Koeffizientenvergleich für s0 : n 1
sg∞i = (V + 1)
i=1
n 1
s∞i .
i=1
Mit Gl.(4.66) ergibt sich ein Zusammenhang zwischen den Abständen der Pole zum Ursprung: n 1
rgi = (V + 1)
i=1
n 1
ri .
(4.69)
i=1
Führt man einen mittleren Realteil der Pole ein,
{s∞ } r2
1 {s∞j } , n j=1 rj2 n
=
lassen sich die Pole mit und ohne Gegenkopplung vergleichen. Mit Gl.(4.68) und (4.69) erhält man
4.4 Strukturänderung zur Optimierung des Zeitverhaltens
(sg∞ ) rg2
129
1 (s∞ ) = . (V + 1) r2
Aufgrund von Gl.(4.67) kann man grob abschätzen, dass sich die Realteile der Pole 2 der Pole vom Ursprung vergrößern im Mittel wenig verändern. Die Abstände rgj sich dagegen mit wachsender Verstärkung V . Daraus kann man schließen, dass im wesentlichen die Imaginärteile mit der Verstärkung anwachsen, was im Mittel zu wenig gedämpften Eigenschwingungen führt. Der mittlere Realteil wird im Fall der Gegenkopplung evtl. dadurch erhalten bleiben, dass einige Pole sogar auf die rechte Halbebene rücken. Damit wird das System instabil. Beispiel 4.19 Zweistufiger Verstärker Ein zweistufiger Verstärker mit der Übertragungsfunktion G(s) =
V α2 (s + α)2
,
α ∈ IR,
hat die Sprungantwort V Vα V G(s) = − − H(s) = s s (s + α)2 (s + α) •| ◦ h(t) = V (1 − e−α t (α t + 1)), die für α > 0 aperiodisches Einschwingverhalten aufweist. Schließt man nun die Gegenkopplungsschleife, so ist die Übertragungsfunktion des geschlossenen Kreises Gges (s) =
V α2 . (s + α)2 + V α2
Die Sprungantwort des gegengekoppelten Kreises ist damit V α2 Gges (s) = 2 s s (s + α) + V α2 √ 1 s+α Vα V 1 · − = −√ · . 1+V s (s + α)2 + V α2 V (s + α)2 + V α2
Hges (s) =
Daraus berechnet sich die Sprungantwort des gegengekoppelten Kreises zu √ √ V 1 −α t hges (t) = · 1−e cos V α t + √ · sin V α t . (4.70) 1+V V Der stationäre Endwert der Sprungantwort ist lim hges (t) =
t→∞
V < 1. 1+V
130
4. Dynamisches Verhalten von Messsystemen
Stationäre Genauigkeit wird nur für V → ∞ erreicht. Setzt man im Fall der Gegenkopplung V = 100, so wird aus einer aperiodischen Einstellung ist bei etwa gleichen Dämpfungseigenschaften α in der Gegenkopplungsschaltung eine schwingende Einstellung. Abb. 4.23 zeigt beide Sprungantworten.
Sprungantwort h(t)
200
150
100
Ohne Gegenkopplung
50
Mit Gegenkopplung
0 0
0.1
0.2
0.3
0.4
0.5 Zeit t[sek]
0.6
0.7
0.8
0.9
1
Abbildung 4.23. Sprungantwort eines zweistufigen Verstärkers mit und ohne Gegenkopplung
PI-Regler: Die Berechnungen und das Beispiel haben gezeigt, dass allein die Erhöhung der Verstärkung im geschlossenen Regelkreis kein geeignetes Mittel ist, das dynamische Verhalten von Messsystemen zu verbessern. Kombiniert man allerdings die Rückkopplung mit dem Kompensationsverfahren nach Abschn. 4.4.1 zur Kompensation der größten Zeitkonstante in der Übertragungsfunktion G(s) des Messsystems, so gelangt man zum PI-Regler: GR (s) = V
1 + TK s . s
Mit den Grenzwertsätzen der Laplace-Transformation folgt für die Sprungantwort: 1 + TK s 1 · = ∞, s→0 s s 1 + TK s 1 s = ∞, t = 0 lim s · V · = V TK . s→∞ s s s = 0, t = ∞ lim s · V
Damit ist die stationäre Verstärkung ∞, während die Verstärkung für hohe Frequenzen begrenzt ist. Damit treten weniger Stabilitätsprobleme auf als bei konstanter Verstärkung im P-Regler. Zusätzlich ist der Regelkreis stationär genau! Es sind auch andere Funktionen GR (s) denkbar. Die Untersuchung und Dimensionierung dieser Systeme ist allerdings Aufgabe der Regelungstechnik. Für eine genauere Beschreibung sei daher auf die Literatur [6][47, 52] und [39] verwiesen. Hier soll nur an einem Beispiel der Vorteil eines PI-Reglers über den P-Regler demonstriert werden.
4.4 Strukturänderung zur Optimierung des Zeitverhaltens
131
Beispiel 4.20 Gegenkopplung mit P- und PI-Regler Gegeben sei ein Messsystem, das durch drei in Serie geschaltete P T1 Glieder beschrieben ist, G(s) =
1 1 1 , 1 + T1 s 1 + T2 s 1 + T3 s
mit den Zeitkonstanten T1 = 0.53[sec], T2 = 0.055[sec] und T3 = 0.005[sec]. P-Regler: Setzt man einen P-Regler an, mit GR (s) = V, so wird die Übertragungsfunktion des geschlossenen Kreises Gges,P (s) =
V . V + (1 + T1 s)(1 + T2 s)(1 + T3 s)
Für die geforderte Stabilität müssen die Pole von Gges,P (s) in der linken s-Halbebene liegen. Dazu wird der Nenner ausmultipliziert, zu Null gesetzt und man gelangt zur charakteristischen Gleichung T1 T2 T3 s3 + (T1 T2 + T1 T3 + T 2T 3)s2 + (T1 + T2 + T3 )s + V + 1 = 0. Statt die Gleichung explizit zu lösen, bietet sich das Hurwitz-Kriterium an. Für eine allgemeine Gleichung 3. Grades, a0 s3 + a1 s2 + a2 s + a3 = 0, ergibt sich die Hurwitzdeterminante zu a1 a3 0 a0 a2 0 . 0 a1 a3 Das System ist stabil, wenn alle nordwestlichen Unterdeterminanten positiv sind: H1 = a1 > 0! a1 a3 = a1 a2 − a0 a3 > 0! H2 = a0 a2 H3 = a3 H2 > 0! Da alle Zeitkonstanten positiv sind, gilt dies auch für a1 und a3 . Prüft man die Bedingung H2 > 0 so führt dies nach einigen Umformungen auf die Stabilitätsbedingung V < (T1 + T2 + T3 )(
1 1 1 + + ) − 1. T1 T2 T3
132
4. Dynamisches Verhalten von Messsystemen
Setzt man die Zahlenwerte ein, so ist der geschlossene Kreis stabil für V < 128.9. Für die praktische Anwendung wird man V um einiges kleiner wählen, will man starke Einschwingvorgänge vermeiden. Dies ist ein Kompromiss mit der stationären Genauigkeit, die nur für große V erreicht wird. PI-Regler: Setzt man einen PI-Regler ein, so kann die größte Zeitkonstante des Messsystems T1 = 0.53[sec] kompensiert werden. Die Übertragungsfunktion des PI-Reglers lautet dann GR (s) = V
1 + T1 s . s
Damit wird die Übertragungsfunktion des geschlossenen Kreises Gges,PI (s) =
V . V + s(1 + T2 s)(1 + T3 s)
Die Stabilitätsuntersuchung erfolgt ebenfalls mit den Hurwitzkriterium. Man erhält als Stabilitätsbedingung V <
1 1 + = 218.2 = VG . T2 T3
Man erkennt bereits, dass V im Vergleich zum P-Regler viel größer gewählt werden kann. In der Praxis sind allerdings nur Werte V = 0.05VG
bis V = 0.1VG
für ein brauchbares Einschwingverhalten sinnvoll. Abbildung 4.24 zeigt die Sprungantworten für V = 60 bei Einsatz eines P-Reglers und V = 20 beim PI-Reglers. Zum Vergleich ist auch die Sprungantwort des kompensierten und unkompensierten Systems nach Abschn. 4.4.1 ohne Rückkopplung dargestellt. Man erkennt dass die Kompensation sehr gute Resultate liefert. Sie ist allerdings empfindlich gegenüber Schwankungen von T1 . Der PI-Regler zeigt ein schnelleres Anstiegsverhalten bei nur geringem Überschwingen und er ist stationär genau. Der P-Regler zeigt starke Schwingungsneigung. Trotz der großen Verstärkung ist der Regler stationär ungenau.
4.4 Strukturänderung zur Optimierung des Zeitverhaltens
133
1.6
Sprungantwort h(t)
1.4 1.2 1 0.8
P−Regler 0.6
PI−Regler
0.4
Kompensiert
0.2
Unkompensiert
0
0
0.5
1
Zeit t[sek]
Abbildung 4.24. Einschwingverhalten bei verschiedenen Regelkreisen
1.5
5. Zufällige Messfehler
Messfehler lassen sich aufgrund von Versuchen in systematische und zufällige Fehler einteilen. Erhält man bei wiederholten Versuchen das gleiche Ergebnis, spricht man von systematischen, bei voneinander im Betrag und Vorzeichen abweichenden Ergebnissen dagegen von zufälligen Fehlern. Die Fehler einer Messreihe können abhängig vom Standpunkt des Beobachters oder von Versuchsbedingungen zu den zufälligen oder zu den systematischen Fehlern zählen. Dies macht man sich am besten an einem Beispiel klar. Beispiel 5.1 Zufällige Fehler durch ungenaue Modellkenntnis Ein Spannungsmesser werde an ein Spannungsnormal angeschlossen, und im Laboratorium über den Tag verteilt mehrere Messungen durchgeführt. Die Fehler der Messungen unterscheiden sich im Betrag und im Vorzeichen. Sie sind also den zufälligen Fehlern zuzurechnen. Eine eingehende Untersuchung lässt vermuten, dass ein Zusammenhang mit Temperaturänderungen besteht. Die Versuche werden im Temperaturschrank mit einstellbaren Temperaturen wiederholt, ebenso werden die Messungen im Laboratorium bei gleichzeitiger Registrierung der Temperatur noch einmal durchgeführt. Es zeigt sich, dass die Fehler eindeutig von der Raumtemperatur abhängen. Es sind jetzt systematische Fehler. Das Beispiel lässt etwas Grundsätzliches erkennen. Mit verfeinerten Versuchsbedingungen und besserer Systemkenntnis werden immer mehr zufällige Fehler zu systematischen. Das Standardbeispiel der Wahrscheinlichkeitsrechnung für ein zufälliges Ereignis, das Würfeln, braucht grundsätzlich kein zufälliges Ereignis zu sein. Ist die Geschwindigkeit, die Richtung, der Drehimpuls des Würfels beim Wurf bekannt, ließe sich das Ergebnis eigentlich nach den analytischen Gesetzen der Mechanik berechnen. Nach den Erkenntnissen der Chaostheorie führen allerdings winzige Abweichungen in den Anfangsbedingungen bereits zu völlig unterschiedlichen Systemzuständen, so dass die abweichenden Ergebnisse doch als zufällige Fehler gedeutet werden. Diese Art der Fehler kann mit den Methoden der Wahrscheinlichkeitsrechnung und der Statistik näher untersucht werden.
136
5. Zufällige Messfehler
5.1 Grundlagen der Wahrscheinlichkeitstheorie In diesem Abschnitt sollen kurz die Grundlagen der Wahrscheinlichkeitstheorie wiederholt werden. Für eine eingehende Darstellung sei auf die zahlreichen Lehrbücher zur Wahrscheinlichkeitstheorie verwiesen [18, 37, 25, 30, 14]. Für die Beschreibung von zufälligen Ereignissen ist die Einführung einer Zufallsvariablen (ZV) x hilfreich. Mit ihr ordnet man der Ereignismenge eines Zufallsexperiments reellwertige Zahlen zu. Definition 5.1 Zufallsvariable Jede auf der Ereignismenge eines Zufallsexperimentes definierte reelle Funktion wird als Zufallsvariable bezeichnet. Ist x das Symbol einer Zufallsvariablen, so bezeichnet man die reelle Zahl, die dem Ereignis e durch x zugeordnet wird, mit x(e). Es gibt diskrete Zufallsvariable, die bei Zufallsexperimenten mit abzählbaren Ereignissen auftreten (z. B. Werfen einer Münze). Kontinuierliche Zufallsvariable sind immer mit Experimenten verbunden, bei denen die Ereignisse nicht abzählbar sind. Dies ist in der Messtechnik der häufigste Fall. Beispiel 5.2 Diskrete Zufallsvariable In einem Würfelexperiment wird ein Würfel zweimal geworfen. Die Zufallsvariable x bezeichne die Summe der Augenzahlen: x(e1 , e2 ) = e1 + e2
für e1 , e2 = 1, 2, . . . , 6.
x ist also eine diskrete Zufallsvariable, die die Werte 2, 3, . . . , 12 annehmen kann. Beispiel 5.3 Kontinuierliche Zufallsvariable Eine Spannungsquelle mit einer Nennspannung U0 = 5V wird vermessen. Die gemessenen Werte schwanken zufällig in einem Bereich von 4.9V ≤ U ≤ 5.1V . Die Zufallsvariable x sei die Abweichung zur Nennspannung U − U0 . Die Zufallsvariable x ist kontinuierlich und kann alle Werte zwischen −0.1V ≤ x ≤ 0.1V annehmen. In den folgenden Abschnitten beschäftigen wir uns, wenn nicht anders angegeben, mit kontinuierlichen Zufallsvariablen. 5.1.1 Wahrscheinlichkeitsdichte Definition 5.2 Wahrscheinlichkeitsverteilung Die Wahrscheinlichkeitsverteilung Fx (x) = P {x ≤ x} einer Zufallsvariablen x gibt die Wahrscheinlichkeit P an, mit der der Funktionswert von x kleiner oder höchstens gleich x ist.
5.1 Grundlagen der Wahrscheinlichkeitstheorie
137
Die Wahrscheinlichkeitsverteilung besitzt die folgenden wichtigen Eigenschaften: 1. Fx (−∞) = 0. 2. Fx (∞) = 1. 3. Fx (x) nimmt mit wachsendem x nirgends ab. Definition 5.3 Wahrscheinlichkeitsdichte Die Wahrscheinlichkeitsdichte einer Zufallsvariablen x ist fx (x) =
d Fx (x) . dx
Die Wahrscheinlichkeitsdichte besitzt folgenden Eigenschaften: 1. fx (x) ≥ 0. /∞ fx (x) dx = 1. 2. −∞
3.
/b
fx (x) dx = P {a < x < b}.
a
Der Einfachheit halber wird oft der Index der Zufallsvariablen weggelassen, wenn dies zu keinen Verwechslungen führt: fx (x) = f (x)
bzw. Fx (x) = F (x).
Definiert man über derselben Ereignismenge mehrere Zufallsvariable, so kann man für diese gemeinsame Verteilungen und Dichten angeben. Die Darstellung soll auf den häufigen Fall von zwei Zufallsvariablen x, y beschränkt werden. Eine Verallgemeinerung ist jedoch leicht möglich. Definition 5.4 Gemeinsame Wahrscheinlichkeitsverteilung Die Wahrscheinlichkeitsverteilung Fxy (x, y) = P {x ≤ x ∩ y ≤ y} zweier Zufallsvariablen x, y gibt die Wahrscheinlichkeit P an, mit der der Funktionswert von x kleiner oder höchstens gleich x ist und der Funktionswert von y kleiner oder höchstens gleich y ist. Definition 5.5 Gemeinsame Wahrscheinlichkeitsdichte Die Wahrscheinlichkeitsdichte zweier Zufallsvariablen x, y ist fxy (x, y) =
∂ 2 Fxy (x, y) . ∂x ∂y
138
5. Zufällige Messfehler
Die Kurzschreibweise lautet hier analog fxy (x, y) = f (x, y)
bzw. Fxy (x, y) = F (x, y).
Aus der gemeinsamen Dichte kann die gemeinsame Verteilung durch Integration berechnet werden: x
y
Fxy (x, y) =
fxy (u, v) du dv. −∞ −∞
Aus der gemeinsamen Wahrscheinlichkeitsdichte lässt sich ebenfalls die Wahrscheinlichkeitsdichte einer einzelnen Zufallsvariablen, genannt Randdichte berechnen. Definition 5.6 Randdichte Ist die Wahrscheinlichkeitsdichte fxy (x, y) zweier Zufallsvariablen x, y gegeben, so berechnen sich die Randdichten der einzelnen Zufallsvariablen zu ∞
fx (x) =
fxy (x, y) dy, −∞ ∞
fy (y) =
fxy (x, y) dx. −∞
Der umgekehrte Weg ist im allgemeinen nicht möglich. Nur wenn x und y statistisch unabhängig sind, lässt sich aus den Randdichten die gemeinsame Wahrscheinlichkeitsdichte berechnen. Definition 5.7 Statistische Unabhängigkeit Zwei Zufallsvariable x und y sind statistisch unabhängig, wenn gilt: Fxy (x, y) = Fx (x) · Fy (y)
bzw.
fxy (x, y) = fx (x) · fy (y). Statistische Unabhängigkeit ist eine Eigenschaft, die experimentell höchstens näherungsweise nachgewiesen werden kann. Bei der Formulierung eines Modells für ein Messsystem kann sie meist nur als Voraussetzung angenommen werden. Der große Vorteil der statistischen Unabhängigkeit liegt in der wesentlich vereinfachten Modellanalyse. Hilfreich ist auch die Definition einer bedingten Wahrscheinlichkeitsdichte, die nach dem Theorem von Bayes bestimmt werden kann.
5.1 Grundlagen der Wahrscheinlichkeitstheorie
139
Definition 5.8 Bedingte Wahrscheinlichkeitsdichte Die bedingte Wahrscheinlichkeitsdichte fx (x|y) =
fxy (x, y) fy (y)
ist die Wahrscheinlichkeitsdichte der Zufallsvariablen x unter der Bedingung, dass das Ereignis y = y eingetreten ist. Sind x und y statistisch unabhängig, so hängt das Auftreten von x = x in keiner Weise von der Bedingung y = y ab. Die bedingte Wahrscheinlichkeit wird dann fx (x|y) = fx (x). 5.1.2 Wahrscheinlichkeitsdichten abgebildeter Größen Eine Zufallsvariable x kann durch die Funktion g(x) auf eine andere Zufallsvariable abgebildet werden. Dabei interessiert man sich für die Wahrscheinlichkeitsdichte der neuen Zufallsvariablen. Die Berechnung erfolgt nach folgendem Satz: Satz 5.1 Wahrscheinlichkeitsdichten transformierter Variablen Wird eine Zufallsvariable x mit der Wahrscheinlichkeitsdichte fx (x) durch eine Funktion y = g(x) in eine neue Zufallsvariable transformiert, und existiert eine Umkehrfunktion mit n Lösungen xi = g −1 (y),
i = 1 . . . n,
so gilt für die Wahrscheinlichkeitsdichte von y n dg(x) −1 fy (y) = fx (xi ) . dx x=xi i=1
(5.1)
Beweis: Wir beschränken uns hier auf eine graphische Herleitung. Der Beweis kann ausführlich in [37] nachgelesen werden. Aus Abb. 5.1 entnehmen wir für die Wahrscheinlichkeit im Intervall [y ≤ y ≤ y + dy] fy (y)dy = fx (x1 )dx1 + fx (x2 )|dx2 | + . . . . Mit dxi =
dy g(xi )
folgt sofort die Behauptung (5.1).
140
5. Zufällige Messfehler
y=g(x) y+dy y
fx(x)
x1 x1+dx1
x2-dx2 x2
x
Abbildung 5.1. Zur Bestimmung der Wahrscheinlichkeitsdichte
5.1.3 Erwartungswerte 1. Ordnung Eine fundamentale Operation in der Behandlung zufälliger Größen ist die Bildung des Mittelwerts oder der Varianz. Allgemein kann man einen Erwartungswert-Operator E{g(x)} definieren. Definition 5.9 Erwartungswert Der Erwartungswert einer Zufallsgröße mit der Wahrscheinlichkeitsdichte fx (x) ist ∞
g(x) · fx (x) dx.
E{g(x)} = −∞
Der Erwartungswert ist ein linearer Operator mit den folgenden Rechenregeln: 1. E{a g(x)} = a · E{g(x)} 2. E{g(x) + h(x)} = E{g(x)} + E{h(x)}. Setzt man für die Funktion g(x) Potenzen xn so erhält man Definition 5.10 Moment Das n-te Moment einer Zufallsvariablen x ist definiert zu ∞
µx,n = E{xn } =
xn fx (x) dx. −∞
Das erste Moment µx ist der Mittelwert oder auch Schwerpunkt von x. Definition 5.11 Zentrales Moment Das n-te zentrale Moment einer Zufallsvariablen x ist definiert zu ∞
E{(x − E{x}) } =
(x − E{x})n fx (x) dx.
n
−∞
5.1 Grundlagen der Wahrscheinlichkeitstheorie
141
Das zweite zentrale Moment ist die Varianz σx2 . Die Größe σx wird auch als Standardabweichung bezeichnet. fx ( x )
σ12 σ22
fx ( x1)
( x1 − x1 )
2
( x2 − x2 )
2
fx ( x 2 )
x1 x1
x2
x2
Abbildung 5.2. Mittelwert und Varianz von zwei stochastischen Variablen x1 und x2
Der Begriff Schwerpunkt gibt einen anschaulichen Begriff, wo sich die Größe im Mittel finden wird, die Varianz gibt einen Anhalt über die Breite der Dichte (Abb. 5.2). Die schraffierten Flächen stellen die Varianzen der Variablen x1 und x2 dar. 5.1.4 Erwartungswerte 2. Ordnung Der Erwartungswert-Operator lässt sich auch auf das Produkt mehrerer Zufallsvariablen anwenden. Allgemein kann man auch hier Funktionen der Zufallsgrößen, insbesondere deren Potenzen zulassen. Definition 5.12 Gemeinsames Moment Das gemeinsame Moment zweier Zufallsvariablen ist definiert zu ∞
∞
µxy,kn = E{x y } = k n
xk y n fxy (x, y) dx dy. −∞ −∞
Wir beschränken uns in der Anwendung auf das einfache Produkt n = k = 1. Hierbei verwendet man meist das erste zentrale Moment 2. Ordnung, genannt Kovarianz.
142
5. Zufällige Messfehler
Definition 5.13 Kovarianz ∞
∞
Cxy = E{(x − µx )(y − µy )} =
(x − µx )(y − µy ) fxy (x, y) dx dy. −∞ −∞
Die Kovarianz bzw. das erste gemeinsame Moment sagen etwas über die Korrelation, also die statistische Abhängigkeit zweier Zufallsgrößen aus. Es gilt insbesondere Definition 5.14 Unkorrelierte Größen Zwei Zufallsvariable x und y sind unkorreliert, wenn für sie E{xy} = E{x} · E{y}
bzw
Cxy = 0 gilt. Insbesondere gilt für zwei Zufallsvariable xi und xj 0 i = j, 2 Cxi xj = σx δij = σx2 i = j. Die Statistische Unabhängigkeit schließt immer Unkorreliertheit ein. Die Umkehrung gilt nur im Fall, dass beide Zufallsvariable normalverteilt sind, da hier die höheren Momente nur vom 1. und 2. Moment abhängig sind. In allen anderen Fällen können zwei Zufallsvariable zwar unkorreliert, aber statistisch abhängig sein. 5.1.5 Korrelationskoeffizient Die Kovarianz Cxy sagt zwar etwas über die Abhängigkeit statistischer Größen aus, ist allerdings als Vergleichsmaß nicht geeignet. Man führt daher einen Korrelationskoeffizient als Maß für die Korreliertheit zweier stochastischer Größen ein. Definition 5.15 Korrelationskoeffizient Der Korrelationskoeffizient rxy zwischen den Größen x und y ist definiert zu rxy =
Cxy E{(x − µx )(y − µy )} = ) . σx σy E{(x − µx )2 }E{(y − µy )2 }
Der Wertebereich erstreckt sich auf −1 ≤ rxy ≤ 1, wobei rxy bei starrer Bindung von x und y den Wert ±1 und bei unkorrelierten Größen den Wert 0 annimmt.
5.1 Grundlagen der Wahrscheinlichkeitstheorie
143
Beweis: Für den Beweis ist es hilfreich, die Zufallsgrößen x und y als verallgemeinerte Vektoren zu interpretieren. Für Sie gilt das Innenprodukt x|y = E{(x − µx )(y − µy )} und die Norm ) ) x = x|x = E{(x − µx )2 }. Wendet man darauf die Schwarzsche Ungleichung |x|y| ≤ x · y an, so kann man die Kovarianzfunktion abschätzen: 0 ) |E{(x − µx )(y − µy )}| ≤ E{(x − µx )2 } E{(y − µy )2 }, |Cxy | ≤ σx · σy .
(5.2) (5.3)
Mit dem Korrelationskoeffizienten rxy gilt gerade das Gleichheitszeichen, Cxy = rxy · σx σy
mit |rxy | ≤ 1.
1. Starre Bindung zwischen den Größen: y = ±(kx + a). Der Korrelationskoeffizient ist dann E{(x − µx ) · k · (x − µx )} = ±1. rxy = ) E{(x − µx )2 } · k 2 · E{(x − µx )2 } Für die Kovarianz gilt in diesem Fall Cxy = σx · σy .
(5.4)
2. Unkorrelierte oder statistisch unabhängige Größen: Cxy = 0
⇒
rxy = 0.
Beispiel 5.4 Korrelation von Messwerten In Tabelle. 5.1 ist eine Messreihe von 12 Wertepaaren xi , yi dargestellt. Es soll der Korrelationskoeffizient zwischen den Größen x und y berechnet werden. Da nur einzelne Messwerte vorliegen, müssen die statistischen Kennwerte gemäß Abschn. 5.2 geschätzt werden. Die Stichprobenmittelwerte sind 1 xi = 5.14, n i=1 n
x ˆ=
1 yi = 2.57. n i=1 n
yˆ =
144
5. Zufällige Messfehler
Die Kovarianz ist 1 (xi − x ˆ)(yi − yˆ) = 4.8 n − 1 i=1 n
Cxy ≈
und die Standardabweichungen 5 5 6 6 n n 6 1 6 1 2 7 σx ≈ (xi − x ˆ) = 3.08, σy ≈ 7 (yi − yˆ)2 = 1.56. n − 1 i=1 n − 1 i=1 Daraus berechnet sich der Korrelationskoeffizient zu rxy =
Cxy = 0.997. σx σy
Die Wertepaare sind stark voneinander abhängig, was auch aus der graphischen Darstellung (Abb. 5.3) ersichtlich ist. y 5
4 3
2 1
1
2
3
4
5
6
7
8
9
x
10
Abbildung 5.3. Messwertreihe
Ein hoher Korrelationskoeffizient rxy sagt lediglich etwas über die statistische Abhängigkeit der Größen x und y aus. Einen kausalen Zusammenhang kann man daraus allerdings nicht ableiten, was folgendes Beispiel verdeutlichen soll. Tabelle 5.1. Messwertreihe xi
0.8
1.3
2.1
2.8
3.4
4.9
5.5
6.6
7.2
8.1
9.4
9.6
yi
0.3
0.75
1.15
1.2
1.8
2.35
2.65
3.5
3.5
4.15
4.6
4.9
5.1 Grundlagen der Wahrscheinlichkeitstheorie
145
Beispiel 5.5 Korrelation und kausaler Zusammenhang Zwischen der Anzahl der Geburten pro Monat und der Zahl der sich niedergelassenen Störche im gleichen Monat bestehe über das ganze Jahr eine statistische Abhängigkeit. Der Korrelationskoeffizient liege z.B. zwischen 0.5 ≤ r ≤ 1. Dann darf daraus nicht der kausale Zusammenhang geschlossen werden, die Störche seien der Grund für die Geburten. 5.1.6 Charakteristische Funktion Die charakteristische Funktion Φx (f ) einer Wahrscheinlichkeitsdichte fx (x) ist die Fourier-Transformierte ∞
Φx (f ) = E{e
−j2πf x
fx (x)e−j2πf x dx.
}=
(5.5)
−∞
In einigen Büchern ist die charakteristische Funktion abweichend als inverse Fouriertransformierte der Dichte definiert. Dies bringt aber bei der Beschreibung der Quantisierung in Abschn. 7.2 Widersprüche, weshalb die Definition in Gl.(5.5) bevorzugt wurde. Allgemein gilt Φx (0) = 1,
|Φx (f )| ≤ 1.
Für die charakteristische Funktion gibt es zwei wichtige Anwendungsbereiche: Momente: Wahrscheinlichkeitsdichten können näherungsweise durch die Angabe weniger Momente beschrieben werden. Die Momente können leicht aus der charakteristischen Funktion gewonnen werden. Das k–te Moment einer Zufallsvariablen x ist definiert zu ∞
µx,k = E{x } = k
1 dk Φx (f ) x fx (x)dx = . (−j2π)k df k f =0 k
−∞
(5.6)
Addition: Werden unabhängige Zufallsvariable xi addiert, erhält man die Dichte der Summe x durch Faltung der einzelnen Wahrscheinlichkeitsdichten. Die Faltung entspricht einer Multiplikation im Frequenzbereich, so dass man für die charakteristische Funktion eines Summensignals folgenden Ausdruck erhält: Φx (f ) =
n 1 i=1
Φxi (f ).
(5.7)
146
5. Zufällige Messfehler
5.2 Stichproben In der Praxis sind die Größen aus der Wahrscheinlichkeitstheorie meist nicht bekannt. Vor allem die Wahrscheinlichkeitsdichte f (x), aus der sich die Kenngrößen wie Mittelwert µx und Varianz σx2 berechnen lassen, ist nicht gegeben. Man muss sich daher mit einer Stichprobe behelfen. Eine Stichprobe ist ein Zufallsexperiment, bei dem xi , i = 1, . . . , n, Messwerte aus einer Grundgesamtheit zur weiteren statistischen Analyse herangezogen werden. Mit den Werten xi versucht man, Schätzwerte für die zugrundeliegende Wahrscheinlichkeitsdichte, den Mittelwert und die Varianz der Grundgesamtheit zu ermitteln. 5.2.1 Häufigkeitsverteilung Zur Bestimmung der Streuung der Messwerte kann ein Histogramm bzw. eine Häufigkeitsverteilung [25] dienen. Die Häufigkeitsverteilung gibt außerdem einen Hinweis auf die zugrundeliegende Wahrscheinlichkeitsdichte f (x). Für ein Histogramm ordnet man die Messwerte nicht nach ihrer zeitlichen Reihenfolge, sondern in Größenklassen ν · ∆x ≤ xi ≤ (ν + 1)∆x mit der Klassenbreite ∆x an. Von den n Versuchsergebnissen werden diejenigen nν in die Klasse ν eingetragen, deren Werte xi in diesem Bereich liegen. Die relative Häufigkeit nν/n der Messwerte in der Klasse ν ergibt –bezogen auf die Klassenbreite ∆x –die Häufigkeitsverteilung nν , (5.8) hν = n · ∆x die dadurch von der Klassenbreite unabhängig wird. Die Gesamtzahl aller Messwerte ist n=
m
nν .
ν=1
Der in Klassen eingeteilte Bereich von x sollte alle Messwerte umfassen. Die Klassenbreite ∆x ist so zu wählen, dass der Polygonzug durch die Klassenmitte eine einigermaßen glatte Kurve gibt (Abb. 5.4). Für jedes Histogramm ist die Fläche A zwischen Kurve und Abszisse A = 1. Es gilt für die Treppenkurve, die flächengleich mit dem Polygonzug ist: A=
m ν=1
hν ∆x =
m
m 1 nν ∆x = nν = 1. n · ∆x n ν=1 ν=1
Sind dem Signal keine Schwankungen überlagert, fallen bei unserem Versuch alle Messwerte in die eine Klasse, die den Mittelwert x ˆ enthält. Bei beträchtlichen Streuungen der Messwerte wird das Histogramm breit und flach. Die Breite des Histogramms ist also ein Maß für die Streubreite.
5.2 Stichproben
147
Häufigkeitsverteilung h h Polygon durch Klassenmitte
hν =
nν n⋅∆x
∆x ν∆ x
( ν + 1) ∆ x
x Meßgröße x
Abbildung 5.4. Beispiel für ein Histogramm
5.2.2 Stichprobenmittelwert Ist die Wahrscheinlichkeitsverteilung eines Prozesses nicht bekannt, so kann der Mittelwert nicht nach Def. 5.10 berechnet werden. In der Praxis wird man vielmehr eine begrenzte Anzahl von Messwerten haben. Aus ihnen kann man einen Stichprobenmittelwert berechnen. Definition 5.16 Stichprobenmittelwert Der Stichprobenmittelwert aus n Werten xi berechnet sich zu 1 xi . n i=1 n
x ˆ=
Der Stichprobenmittelwert x ˆ ist eine Schätzung des wahren Mittelwertes µx und selbst wieder eine stochastische Größe. Dabei stellt sich die Frage, wie gut diese Schätzung eigentlich ist. Ein Schätzwert wird allgemein mit einem Dach ( ) gekennzeichnet. Hierbei interessieren zwei Forderungen.
^
Erwartungstreue: Eine Schätzung yˆ nennt man erwartungstreu, wenn bei wiederholten Stichproben der wahre Wert y im Mittel richtig geschätzt wird, E{ˆ y } = µy . Konsistenz: Eine Schätzung yˆ ist konsistent, wenn mit wachsendem Stichprobenumfang n der wahre Wert y mit Sicherheit ermittelt wird, lim yˆn = µy ,
n→∞
lim σyˆ = 0.
n→∞
148
5. Zufällige Messfehler
Die beiden Eigenschaften werden nun für den Stichprobenmittelwert untersucht. Der Erwartungswert ist , n n 1 1 1 xi = E{xi } = nµx = µx . (5.9) E{ˆ x} = E n i=1 n i=1 n µx
Der Erwartungswert des Stichprobenmittelwertes xˆ ist gerade der wahre Mittelwert µx . Die Schätzung x ˆ von µx ist erwartungstreu. Die Varianz des Stichprobenmittelwertes ist 9 8 σx2ˆ = E (ˆ x − µx )2 ⎧: ⎧: ;2 ⎫ ;2 ⎫ n n ⎬ ⎬ ⎨ ⎨ 1 1 xi − µx (xi − µx ) =E =E ⎭ ⎭ ⎩ n ⎩ n i=1
=
=
1 n2 1 n2
n n i=1 j=1 n n
i=1
E {(xi − µx )(xj − µx )}
(5.10)
Cxi xj .
i=1 j=1
Für die Kovarianz lassen sich wieder die beiden Extremfälle in der Messwertstatistik unterscheiden. 1. Starre Bindung zwischen xi und xj : Für gleiche Varianzen von xi und xj gilt nach Gl.(5.4) Cxi xj = σxi σxj = σx2 . Damit erhält man σx2ˆ =
1 2 2 n σx n2
⇒
σx2ˆ = σx2 .
(5.11)
Bei starrer Bindung der Messwerte ist die Varianz des Stichprobenmittelwertes gleich der Varianz der Messwerte. Die vielen Messwerte enthalten nicht mehr Information als ein einziger Messwert. 2. Statistisch unabhängige Messwerte xi und xj für i = j: Es gilt nach Def. 5.14 0 i = j, 2 Cxi xj = σx δij = σx2 i = j. Die Varianz des Stichprobenmittelwertes wird damit σx2ˆ =
n n n 1 2 1 2 σ δ = σ ij n2 i=1 j=1 x n2 i=1 x
⇒
σx2ˆ =
σx2 . n
(5.12)
5.2 Stichproben
149
Für statistisch unabhängige Messgrößen nimmt die Varianz des Stichprobenmittelwertes σx2ˆ mit wachsendem Stichprobenumfang n gegen Null ab. Der Stichprobenmittelwert xˆ geht dann gegen den wahren Mittelwert µx . Die Schätzung ist konsistent. 5.2.3 Stichprobenvarianz Bei den meisten messtechnischen Aufgaben ist die Wahrscheinlichkeitsdichte f (x) nicht bekannt. Es liegen lediglich die aktuellen Messwerte xi und der Stichprobenmittelwert x ˆ vor. Die unbekannte Varianz σx2 wird durch die Stichprobenvarianz geschätzt. Definition 5.17 Stichprobenvarianz Die Stichprobenvarianz ist definiert als 1 1 2 n x ˆ2 . (xi − x ˆ)2 = xi − n − 1 i=1 n − 1 i=1 n−1 n
Sx2 =
n
Sx wird Standardabweichung der Stichprobe genannt. Im folgenden soll der Zusammenhang zwischen der Stichprobenvarianz Sx2 und der Varianz σx2 aus der Verteilung betrachtet werden. Die Stichprobenvarianz selbst ist wieder eine stochastische Größe. Der Erwartungswert der Stichprobenvarianz ist , n 8 29 1 2 (xi − x ˆ) E Sx = E n − 1 i=1 , n 1 2 = E ((xi − µx ) − (ˆ x − µx )) n−1 i=1 , n n 1 E (xi − µx )2 − 2 (xi − µx )(ˆ x − µx ) + = n−1 i=1 i=1 + + n (ˆ x − µx )2 . Formt man den Stichprobenmittelwert nach Def. 5.16 um zu n(ˆ x − µx ) =
n
(xi − µx )
i=1
und setzt dies in die obige Geichung ein, so erhält man
150
5. Zufällige Messfehler
⎡ 8 9 E Sx2 =
n * * + + 1 ⎢ ⎢ 2 2 E (xi − µx ) − 2n E (ˆ x − µx ) + ⎢ n − 1 ⎣ i=1
2 σx
⎤
2 σx ˆ
+⎥ * ⎥ + n E (ˆ x − µx )2 ⎥ .
⎦ 2 σx ˆ
Mit Gl.(5.10) erhält man schließlich den Erwartungswert der Stichprobenvarianz 8 9 E Sx2 =
n (σ 2 − σx2ˆ ). n−1 x
(5.13)
Man kann wieder die beiden Extremfälle in der Messwertstatistik unterscheiden. 1. Starre Bindung zwischen xi und xj : Nach Gl.(5.11) gilt σx2ˆ = σx2 und damit 8 9 E Sx2 = 0.
(5.14)
Der Erwartungswert der Stichprobenvarianz ist bei starrer Bindung der Messwerte Null. Das liegt daran, dass der Stichprobenmittelwert xˆ bei starrer Bindung der Messwerte die gleiche Varianz wie die Messwerte selbst aufweist. 2. Statistisch unabhängige Messwerte xi und xj für i = j: Nach Gl.(5.12) gilt σx2ˆ = σx2 /n und damit 8 29 8 9 n 1 2 σ 1− E Sx = ⇒ E Sx2 = σx2 . n−1 x n
(5.15)
Für statistisch unabhängige Messwerte ist die Stichprobenvarianz Sx2 eine erwartungstreue Schätzung für die Varianz σx2 aus der Wahrscheinlichkeitsverteilung. Damit die Schätzung die Eigenschaft der Erwartungstreue besitzt, wurde die Stichprobenvarianz mit dem Faktor 1/(n − 1) anstelle von 1/n definiert. Bei Einzelmessungen (n = 1) kann man keine Stichprobenvarianz bestimmen. Bei der Messung abhängiger Werte ist die Stichprobenvarianz Sx2 kleiner oder höchstens gleich der Varianz der Wahrscheinlichkeitsverteilung σx2 . Beispiel 5.6 Abweichung der Stichprobenvarianz Ein Messgerät zeige im Prüffeld eine sehr geringe Stichprobenvarianz. Bei Einsatz in der eigentlichen verfahrenstechnischen Anlage liege dagegen die Stichprobenvarianz deutlich höher. Dies kann als Indiz für einen stochastischen Fehler gewertet
5.2 Stichproben
151
werden, der nur in der Anlage und nicht im Prüffeld auftritt. Die Messwerte im Prüffeld sind dann weniger voneinander unabhängig als die Messwerte in der verfahrenstechnischen Anlage. Die im Prüffeld ermittelte Stichprobenvarianz Sx2 schätzt die Varianz σx2 der Messwerte im Prozess zu klein. Manchmal werden auch die 3. und 4. Momente betrachtet. Die Schiefe ist ein Maß für die Abweichung der Messwerte-Verteilung von der Symmetrie. Sie ist auf die dritte Potenz der Standardabweichung bezogen. Die Schiefe der Normalverteilung ist Null, n 1 1 3 (5.16) (xi − xˆ) . = 3 · Sx n i=1 Der Exzess ε ist ein Maß für die von der Normalverteilung abweichende Form der Messwerte-Verteilung. Die Werte sind auf die vierte Potenz der Standardabweichung bzw. der Streuung bezogen: n ∞ (x−µx )2 1 1 1 1 4 4 e− 2σ2 dx . (5.17) (xi − x ˆ) − 4 (x − µx ) √ ε= 4 Sx n i=1 σ 2πσ −∞
=3
f ( x)
ε>0 ε = 0 : N ( x) ε<0
µx
x
Abbildung 5.5. Beurteilung von Messwerte-Verteilungen
5.2.4 Gesetz der großen Zahlen Die Wahrscheinlichkeitsdichten können in wenigen Einzelfällen aus den Versuchsbedingungen hergeleitet werden. Öfter kann zumindest aus dem Histogramm der
152
5. Zufällige Messfehler
Typ der Verteilung angegeben werden. Die für die Verteilung wichtigen Parameter müssen dann aus Stichproben experimentell bestimmt werden. Die Ergebnisse der Wahrscheinlichkeitsrechnung, hergeleitet mit Hilfe der Mengen- und Maßtheorie, gelten streng. Die Verbindung dieser Theorie zu Messergebnissen aus Stichproben geschieht über verschiedene Grenzwertsätze, z.B. über das Bernoullische Gesetz der großen Zahlen [30, 10] Es sei x eine Zufallsvariable mit der Wahrscheinlichkeitsdichte f (x). Die Wahrscheinlichkeit für das Ereignis |x − µx | ≥ ε ist µx −ε
P {|x − µx | ≥ ε} =
∞
f (x) dx + −∞
f (x) dx. µx +ε
Mit |x − µx | ≥ ε ist (x − µx )2 ≥1, ε2 so dass man damit die Wahrscheinlichkeit µx −ε
P {|x − µx | ≥ ε} ≤ −∞
≤
1 ε2
∞
(x − µx )2 f (x) dx + ε2
(x − µx )2 f (x) dx ε2
µx +ε ∞
(x − µx )2 f (x) dx = −∞
σx2 ε2
(5.18)
abschätzen kann. Die obige Gleichung nennt man die Tschebyscheffsche Unglei2 chung. Sie besagt, dass die Wahrscheinlichkeit P {|x − µx| ≥ ε} kleiner σx/ε2 dafür ist, dass eine Zufallsvariable x mindestens den Abstand ε vom Mittelwert µx besitzt. Dies kann man auf den Stichprobenmittelwert x ˆ anwenden: P {|ˆ x − µx | ≥ ε} ≤
σx2ˆ σx2 = . ε2 n · ε2
Mit wachsendem Stichprobenumfang n geht die Wahrscheinlichkeit P {|ˆ x − µx | ≥ ε} gegen Null, dass die Schätzung x ˆ um mehr als die beliebig kleine Schranke ε vom wahren Mittelwert µx abweicht. Die Versuchsergebnisse aus großen Stichproben nähern sich den Ergebnissen der Wahrscheinlichkeitsrechnung. Einen entsprechenden Zusammenhang kann man zwischen der Häufigkeitsverteilung einer Stichprobe h(x) und der Wahrscheinlichkeitsdichte f (x) aufzeigen. Dazu werden Indikatorvariablen Jνi betrachtet, welche die Werte 1 für ν∆x ≤ xi ≤ (ν + 1)∆x Jνi = 0 sonst aufweisen. Die Ereignisse seien statistisch unabhängig. Die geschätzte Wahrscheinlichkeit für das Eintreffen des Ereignisses xi ist dann bei n Versuchen gerade der Stichprobenmittelwert über die Indikatorvariablen Jνi
5.2 Stichproben
153
1 Jνi . n i=1 n
∆xhν =
Der Erwartungswert ist gleich der Wahrscheinlichkeit f (xi )∆x, , n n 1 1 E{∆xhν } = E Jνi = E{Jνi } = f (xν )∆x. n n i=1
i=1
f (xν )∆x
Die Varianz der Häufigkeitsverteilung h(x) ist nach Gl.(5.10) und (5.12) E{(h(x) − f (x))2 } =
σJ2 . n
Das Einsetzen in die Tschebyscheffsche Ungleichung (5.18) ergibt mit P {|h(x) − f (x)| ≥ ε} ≤
1 σ2 E{(h(x) − f (x))2 } = J2 2 ε nε
(5.19)
das Bernoullische Gesetz der großen Zahlen. Mit wachsendem Stichprobenumfang n geht die Häufigkeitsverteilung in die Wahrscheinlichkeitsdichte über. 5.2.5 Mittelwertbildung bei Störungen Als Anwendung der Wahrscheinlichkeitstheorie in der Messtechnik soll nun die Filterung von zufälligen Störungen betrachtet werden. Der Messgröße u sei eine zufällige Störung e überlagert. Der Anzeigewert ist dann für eine lineare Kennlinie y = u + e. Der Mittelwert der Störung sei E{e} = µe . Es werden mehrere Messungen i = 1, . . . , n durchgeführt und der Mittelwert gebildet. Die Erwartungswerte sind dann µy = E{y} = E{u + e} = µu + µe . Es können zwei Fälle unterschieden werden: 1. Die Störung ist mittelwertfrei: E{e} = µe = 0. Im Mittelwert des Ausgangssignals µy ist lediglich der Mittelwert des Messsignals µu enthalten. Das Störsignal e ist heraus gefiltert worden. Die Mittelwertbildung ist deshalb die einfachste Methode zur Bestimmung des wahren Messwertes, wenn dieser von mittelwertfreien, stochastischen Störungen überlagert ist.
154
5. Zufällige Messfehler
2. Die Störung habe einen endlichen Mittelwert: E{e} = µe = 0. Der Mittelwert der Störung µe kann als deterministische, überlagerte Störung fest vom Ausgangssignal subtrahiert werden (systematischer Fehler): y˜ = y − µe = u + (e − µe ). Die restliche Störung e − µe in y˜ ist dann wieder mittelwertfrei und es kann der erste Fall angewendet werden. Bei linearen Messkennlinien werden also durch die Mittelwertbildung überlagerte mittelwertfreie Störungen aus dem Ausgangssignal heraus gefiltert. Dies gilt nicht für nichtlineare Messkennlinien oder für deformierende Störgrößen. In Abb. 5.6 ist das Eingangssignal u des Messsystems von einer mittelwertfreien Störung e überlagert. Das Messsystem habe eine gekrümmte Kennlinie f (u) mit der Empfindlichkeit S, die um den Arbeitspunkt u0 herum in eine Taylor-Reihe entwickelt wird: e y +
f (u)
u = u0 + ∆ u
y = y0 + ∆ y
u
Abbildung 5.6. Störung bei nichtlinearer Kennlinie
1 S (u0 ) (∆u + e) + · · · . ∆y = S(u0 )(∆u + e) · 1 + 2 S(u0 ) Der Erwartungswert ist ⎤
⎡
⎥ ⎢ µ∆y = E{∆y} = S(u0 ) ⎣E{∆u} + E{e}⎦ µ∆u
⎡ +
=0
⎤
1 ⎥ ⎢ S (u0 ) ⎣E{∆u2 } + E{e2 }⎦ . 2 2 µ2∆u +σu
σe2
Der Mittelwert der Ausgangsgröße µ∆y weicht bei gekrümmter Kennlinie vom Mittelwert der linearen Kennlinie µ∆u ab, obwohl die Störung e mittelwertfrei ist,
5.3 Normalverteilte Zufallsvariable
1 µ∆y = S(u0 ) · µ∆u + S (u0 ) · (µ2∆u + σu2 + σe2 ). 2
155
(5.20)
Für mittelwertfreie Messgrößenabweichungen µ∆u = 0 erhält man µ∆y =
1 S (u0 ) · (σu2 + σe2 ). 2
Die Abweichung ist proportional zur Kennlinienkrümmung S (u0 ) im Arbeitspunkt und zur Summe der Varianzen von Eingangs- und Störsignal. Möchte man Störungen des Messsignals durch eine Mittelwertbildung heraus filtern, so muss zuvor die Messkennlinie linearisiert werden.
5.3 Normalverteilte Zufallsvariable In der praktischen Anwendung spielen normalverteilte Zufallsvariable eine große Rolle. So wird bei unbekannter Wahrscheinlichkeitsdichte in vielen Fällen eine Normalverteilung angenommen. Der Grund liegt im Zentralen Grenzwertsatz, der in diesem Abschnitt vorgestellt wird. Es werden nun einige wichtige Eigenschaften normalverteilter Zufallsvariablen vorgestellt. 5.3.1 Normalverteilung Gegeben sei eine Zufallsvariable x mit dem Mittelwert µx und der Varianz σx2 . Definition 5.18 Normalverteilung Eine Zufallsvariable x heißt normalverteilt (N (µx ; σx )), wenn ihre Wahrscheinlichkeitsdichte − 1 fx (x) = √ e σx 2π
(x − µx )2 2σx2 = N (µx ; σx )
ist. Eine Normalverteilung mit Mittelwert µx = 0 und Varianz σx2 = 1 nennt man Standardnormalverteilung x2 1 − fx (x) = √ e 2 = N (0; 1). 2π
(5.21)
Die Momente der Normalverteilung lassen sich am einfachsten über die Charakteristische Funktion Gl.(5.5) berechnen. Für eine Normalverteilung gilt 1 −j2πf µx − (πf σx )2 2 Φx (f ) = e .
156
5. Zufällige Messfehler
Für den Mittelwert gilt
1 dΦx (f ) = µx . E{x} = (−j2π)1 df f =0
Das 2. Moment ist
d2 Φx (f ) 1 E{x } = = σx2 + µ2x . (−j2π)2 df 2 f =0 2
Alle höheren Momente sind ebenfalls Funktionen von (µ; σ). Daher ist die Normalverteilung alleine durch den Mittelwert µx und die Varianz σx2 einer Zufallsvariablen x bestimmt. Wichtig ist der Zusammenhang, dass jede lineare Transformation einer normalverteilten Zufallsvariablen y = ax + b,
a, b ∈ IR,
wieder eine Normalverteilung ergibt. Mit der Transformation y=
x − µx σx
kann daher eine Normalverteilung in eine Standardnormalverteilung überführt werden. Dies ist in der Praxis häufig nötig, da viele Statistikprogramme nur mit N (0; 1) arbeiten. 5.3.2 Zentraler Grenzwertsatz In vielen technischen Systemen kann man sich zufällige Fehler e additiv aus einer Reihe von unabhängigen zufälligen Ereignissen en mit unbekannten Wahrscheinlichkeitsdichten zusammengesetzt denken e=
N
en .
n=1
Die Wahrscheinlichkeitsdichte der Summe von unabhängigen Zufallsvariablen xn kann allgemein über die Faltung der einzelnen Wahrscheinlichkeitsdichten berechnet werden: fe (e) = fe1 (e) ∗ fe2 (e) ∗ . . . ∗ feN (e) ◦| • N 1 Φe (f ) = Φei (f ). n=1
Für die Wahrscheinlichkeitsdichte von e ist folgender Satz [37] von Bedeutung:
5.3 Normalverteilte Zufallsvariable
157
Satz 5.2 Zentraler Grenzwertsatz Haben die Zufallsvariablen xn Verteilungen mit beschränktem zweiten und dritten Moment und sind die Zufallsvariablen xn voneinander unabhängig, dann nähert sich die Dichte fx (x) der Summe x=
N
xn
n=1
mit wachsendem Umfang N asymptotisch einer Normalverteilung an: − 1 fx (x) = √ e 2πσx
(x − µx )2 2σx2 .
Die Parameter der Normalverteilung berechnen sich dabei wie folgt: N 1 µx = √ E{xn }, N n=1
σx2 =
N 1 2 σ . N n=1 xn
Aus diesem Satz können einige wichtige Folgerungen getroffen werden, die die Bedeutung der Normalverteilung in der statistischen Qualitätskontrolle unterstreichen. 1. Betrachtet man den Wert eines Stichprobenelementes xn als Zufallsvariable xn so folgt, dass der Stichprobenmittelwert x ˆ näherungsweise normalverteilt ist. 2. Entsteht ein zufälliger Messfehler durch die Überlagerung mehrerer Zufallsereignisse, so kann für den Fehler eine Normalverteilung angenommen werden. Beispiel 5.7 Zentraler Grenzwertsatz Gegeben sind vier Zufallsvariable xn mit Wahrscheinlichkeitsdichten nach Abb. 5.7. Berechnet man die Wahrscheinlichkeitsdichte der Summe mittels Faltung, so erhält man die Wahrscheinlichkeitsdichte in Abb. 5.8. Man erkennt, wie gering die Abweichung zur Normalverteilung nach dem zentralen Grenzwertsatz ist. Daher kann bei beliebig verteilten Zufallsvariablen in den meisten Fällen mit einer Normalverteilung gerechnet werden. 5.3.3 χ2 -Verteilung Bei der Berechnung der Stichprobenvarianz Sx2 werden die Stichprobenwerte xi − x ˆ quadriert und addiert. Führt man die Zufallsvariablen xi = xi − xˆ ein, so erhält man mit yn = x21 + x22 + . . . x2n eine neue Zufallsvariable y, die bis auf einen konstanten Faktor 1/(n − 1) gleich der Stichprobenvarianz Sx2 ist. Die Wahrscheinlichkeitsdichte solcher Quadratsummen ist deshalb in der Statistik von Interesse.
158
5. Zufällige Messfehler
Exp−Verteilung
Gleichverteilung
2
χ Verteilung
Normalverteilung
0.3
0.2
0.2
0.15
0.15
0.1
0.1
0.05
0.05
0.5 0.25 0.4
0.2
0.3
0.15
0.2
0.1
0.1
0.05
0
0
5
10
0 −10
0
10
0 −10
0
10
0
0
5
10
Abbildung 5.7. Wahrscheinlichkeitsdichten einzelner Zufallsvariablen Summenverteilung ——, Normalverteilung − − − 0.1 0.08 0.06 0.04 0.02 0
−10
−5
0
5
10
15
Abbildung 5.8. Wahrscheinlichkeitsdichte der Summe im Vergleich mit einer Normalverteilung
Satz 5.3 χ2 -Verteilung Sind n unabhängige Zufallsvariable xi mit N (0; 1)-Verteilung gegeben, so hat die Quadratsumme yn = x21 + x22 + . . . x2n die folgende Wahrscheinlichkeitsdichte: ⎧ y n 1 ⎨ 2 −1 e− 2 für χ2 ≥ 0, n y 2 n fyn (y = χ ) = Γ ( 2 ) 2 2 ⎩ 0 für χ2 < 0.
(5.22)
Diese Wahrscheinlichkeitsdichte wird χ2 − Verteilung genannt. Dabei ist n ein Parameter. Man sagt, die χ2 -Verteilung hat n Freiheitsgrade. Beweis: Der Beweis erfolgt durch vollständige Induktion. Zunächst wird die Wahrscheinlichkeitsdichte für eine Zufallsvariable, d.h. y1 = x21 berechnet. Nach Satz 5.1 benötigt man die Lösung der Umkehrfunktion x1 = −x2 =
√ y.
5.3 Normalverteilte Zufallsvariable
159
Mit der Annahme einer Standardnormalverteilung der Stichprobe x2 1 e− 2 fx1 (x) = √ 2π
folgt für die Transformation dy(x) −1 dy(x) −1 + fx1 (x2 ) fy1 (y) = fx1 (x1 ) dx x=x1 dx x=x2 y2 1 √ −1 e− 2 |2 y| . = 2· √ 2π Damit erhält man fx (x1 = fy1 (y) = 1 √ y
⎧ ⎨ √ 1 e− y2 für y ≥ 0, 2πy = ⎩ 0 für y < 0.
√ y)
Die charakteristische Funktion 1 Φy1 (f ) = √ 2π
∞
√ − 12 −(1+j4πf ) y2 y e dy
0
√ wird mit Γ (1/2) = π aufintegriert zu Φy1 (f ) = (1 + j4πf )−1/2 . Für die Quadratsumme von n unabhängigen Zufallsvariablen erhalten wir die charakteristische Funktion zur angenommenen Verteilung nach Gl.(5.22) zu 1 Φyn (f ) = n Γ ( n2 )2 2
∞ y
y 2 −1 e− 2 −j2πf y dy. n
0
Mit der Substitution u = (1/2 + j2πf )y erhält man −n 2
Φyn (f ) = (1 + j4πf )
1 Γ ( n2 )
∞
u 2 −1 e−u du = (1 + j4πf )− 2 . n
0
n
Γ(n 2)
Für den Schluss von n auf n+1 wird verwendet, dass die charakteristische Funktion einer Summe von unabhängigen Zufallsvariablen gleich dem Produkt der einzelnen charakteristischen Funktionen ist. Mit yn+1 = yn + y1 erhält man Φyn+1 (f ) = Φyn (f ) · Φy1 (f ) = (1 + j4πf )−
n+1 2
.
160
5. Zufällige Messfehler
Dies ist aber genau die charakteristische Funktion einer χ2 -Verteilung von n + 1 unabhängigen Zufallsvariablen. Man sagt, die χ2 -Verteilung hat n + 1 Freiheitsgrade. Der Mittelwert und die Varianz der χ2 -Verteilung berechnen sich über die charakteristische Funktion: dΦyn (f ) 1 = n, E{yn } = (−j2π)1 df f =0 d2 Φyn (f ) 1 = n2 + 2n. (5.23) E{y2n } = (−j2π)2 df 2 f =0 Die Varianz wird damit 2 σy2n = E{y2n } − E{yn } = 2n.
f ( χ 2)
n=1
0.5 0.4 0.3
n=2 n=3
0.2
n=5 n=10
0.1
n=20
0
2
4
6
8
10
12
14
16
18
20
χ2
Abbildung 5.9. Wahrscheinlichkeitsdichte von χ2
Durch Variablentransformation lässt sich auch für allgemeine Normalverteilungen N (µx ; σx ) die χ2 -Verteilung angeben: χ2n =
(x1 − µx )2 + (x2 − µx )2 + . . . + (xn − µx )2 . σx2
Die Anwendung der χ2 -Verteilung ist die Stichprobenvarianz. Die Verteilung von Sx2 ist eine χ2 -Verteilung mit n − 1 Freiheitsgraden wie die folgende Rechnung zeigt. Die Stichprobenvarianz ist nach Def. 5.17
5.3 Normalverteilte Zufallsvariable
161
1 (xi − x ˆ)2 n − 1 i=1 n
Sx2 =
der Schätzwert für die Varianz einer Grundgesamtheit. Der Stichprobenmittelwert x ˆ=
1 (x1 + x2 + . . . xn ) n
ist die Schätzung des wahren Mittelwertes µx . Dadurch hängt aber xn als Linearkombination von den übrigen xi und dem Stichprobenmittelwert ab, −(xn − x ˆ) =
n−1
(xi − x ˆ).
i=1
Die Verteilung der Quadratsumme aus der Stichprobenvarianz wird damit :n−1 ; n n−1 2 1 1 2 2 2 2 χn = S = 2 (xi − x ˆ) = 2 (xi − x ˆ) + (xn − xˆ) σx2 x σx i=1 σx i=1 ⎡ n−1 2 ⎤ n−1 1 = 2⎣ (xi − x ˆ)2 + (xi − x ˆ) ⎦ σx i=1 i=1 ⎡ ⎤ n−1 n−1 n−1 1 = 2⎣ (xi − x ˆ)2 + (xi − x ˆ)(xj − x ˆ)⎦ σx i=1 i=1 j=1 =
n−1 n−1 n−1 2 1 2 (x − x ˆ ) + (xi − xˆ)(xj − xˆ) . i σx2 i=1 σx2 i=1 j=1,j=i
≈0
Die Wahrscheinlichkeitsdichte der Stichprobenvarianz Sx2 mit n-Stichproben ist damit auf eine χ2 -Verteilung mit n − 1 Freiheitsgraden zurückgeführt: χ2n
n−1 2 = 2 (xi − x ˆ)2 . σx i=1
5.3.4 Student t-Verteilung Die so genannte Studentsche t-Verteilung bildet die Grundlage wichtiger statistischer Tests, die in Abschn. 5.4 besprochen werden. Die Verteilung wurde von W. S. Gosset eingeführt, der sie unter dem Namen „Student“ veröffentlichte.
162
5. Zufällige Messfehler
Satz 5.4 Student t-Verteilung Es sind zwei unabhängige Zufallsvariable x und y gegeben. Dabei besitzt x eine N (0; 1) Normalverteilung, y eine χ2 -Verteilung mit n Freiheitsgraden. Die Zufallsvariable x t= ) y/n hat dann eine Wahrscheinlichkeitsdichte n+1 Γ 1 2 n · ft (t) = √ . 2 (n+1)/2 t nπ Γ 1+ 2 n
(5.24)
Die Verteilung ft (t) wird Student t-Verteilung mit n Freiheitsgraden genannt. Den Beweis des Satzes, der recht umfangreich ist, findet der interessierte Leser z.B. in [25, 43]. Mit wachsendem n strebt die t-Verteilung gegen eine Normalverteilung mit Mittelwert 0 und Varianz 1. Die Bedeutung der t-Verteilung kommt aus der Stichprobenuntersuchung. Der Stichprobenmittelwert x ˆ ist eine normalverteilte Zufallsvariable, die Stichprobenvarianz Sx2 ist eine χ2 -verteilte Zufallsvariable. Dann ist das Verhältnis des Stichprobenmittelwertes zu seiner Varianz xˆ t= ) Sx2 /n gerade t-verteilt.
5.4 Statistische Testverfahren In der Statistik unterscheidet man zwei Beurteilungsarten: das Prüfen und das Schätzen. Beim Prüfen wird beispielsweise untersucht, ob eine Stichprobe mit unbekannter Wahrscheinlichkeitsdichte einer Normalverteilung folgt. Das Schätzen hatten wir schon beim Stichprobenmittelwert kennen gelernt. Hierbei stellt sich die Frage, ob der Schätzwert repräsentativ für den angenommenen Prozess ist. Es liegt im Wesen der Statistik, dass Testverfahren keine absolut sicheren Aussagen geben können, sondern nur Wahrscheinlichkeiten, die allerdings möglichst groß sein sollen. 5.4.1 Statistische Sicherheit, Konfidenzintervall In der Regel ist es notwendig, etwas über die Zuverlässigkeit einer Schätzung auszusagen. Beispielsweise wird die Schätzung des Mittelwertes durch den Stichprobenmittelwert bei einer kleinen Stichprobe weniger vertrauenswürdig sein, als bei einer
5.4 Statistische Testverfahren
163
großen. In vielen Fällen wird dazu eine Aussage über das Konfidenzintervall (auch Vertrauensintervall) getroffen. Man wird feststellen, dass ein bestimmtes Intervall den zu schätzenden Parameter mit einer Irrtumswahrscheinlichkeit α = P {|x| > xα } enthält. Das Konfidenzintervall schließt also mit einer statistischen Sicherheit von 1 − α = P {|x| < xα } den wahren Parameter ein (Abb. 5.10). Das sog. einseitige Problem führt dagegen zu der Aussage, dass ein Parameter mit der Irrtumswahrscheinlichkeit α beispielsweise nicht größer ist als eine bestimmte Grenze. fx(x)
1−α
α/2 -xα
α/2 xα
x
Abbildung 5.10. Zweiseitiges Konfidenzintervall
In der Praxis geht man meist von einer Normalverteilung aus. Das Konfidenzintervall drückt man dann in Vielfachen der Standardabweichung σx aus, µx − cσx ≤ x ≤ µx + cσx .
(5.25)
Die statistische Sicherheit wird damit |x − µx | P (c) = 1 − α = P { ≤ c} = σx
µx +cσx
fx (x) dx. µx −cσx
Die Transformation z=
x − µx σx
führt auf eine Standardnormalverteilung. Die statistische Sicherheit hängt nur noch vom Parameter c ab und kann über die Gaußsche Fehlerfunktion (Abb. 5.13) berechnet werden: c
1 P (c) = √ 2π
−c
z2 e 2 dz = erf(c). −
164
5. Zufällige Messfehler
N( x) 0, 4 c=2 0, 3
0, 2
0,1 P (c , sx ) µx- c sx
µx
µx+ c s x
Abbildung 5.11. Konfidenzintervall bei Normalverteilung
x
Man erhält die folgenden statistische Sicherheiten für den Parameter c: c =1 c =2 c =3
Konfidenzintervall: µx ±σx , Konfidenzintervall: µx ±2σx , Konfidenzintervall: µx ±3σx ,
P =68%, P =95%, P =99.73%.
Der für die Qualität eines Fertigungsprozesses entscheidende Parameter ist jedoch die Standardabweichung σx . Sie bestimmt, wie schmal oder breit der Toleranzbereich der Fertigung ist. Für eine statistische Sicherheit von beispielsweise P = 99.73% (c = 3) erhält man für verschiedenes σx unterschiedlich breite Bereiche der Normalverteilung (Abb. 5.12). Eine schmale Normalverteilung lässt sich aber viel besser in einen spezifizierten Messbereich einpassen, ohne dass es zu großen Ausschusswahrscheinlichkeiten kommt (s. Abschn. 5.4.5). N ( x)
N ( x)
P(c , σx ) µx − c σx µx
P(c , σx ) µx+ c σ x
x
µx − c σx
µx
µx+ c σ x
x
Abbildung 5.12. Schmale Normalverteilung bei kleinem σx und breite Normalverteilung bei großem σx
Das Konfidenzintervall wurde in Gl.(5.25) als Vielfaches c der Standardabweichung ˆ σx angegeben. Möchte man ein Konfidenzintervall für den Stichprobenmittelwert x
5.4 Statistische Testverfahren
165
erf(c) 100%
90%
80%
70%
60% 0,5
1
1,5
2
2,5
3 c
Abbildung 5.13. Gaußsche Fehlerfunktion: Statistische Sicherheit bei Normalverteilung
einer Messreihe von n unabhängigen Messungen ermitteln, so muss zur Berechnung die Varianz des Stichprobenmittelwertes nach Gl.(5.12) herangezogen werden. Das Konfidenzintervall für den Stichprobenmittelwert xˆ ist dann σx σx µx − c √ ≤ x ˆ ≤ µx + c √ (5.26) n n und die Messunsicherheit σx ux = c · σxˆ = c √ . n
(5.27)
In der Praxis ist die Varianz σx2 nicht bekannt. Es bleibt nur die Möglichkeit, in Gl.(5.26) die Stichprobenvarianz Sx2 als Schätzwert für σx2 einzusetzen. Die Transformation x − µx √ t= Sx / n ergibt nach Satz 5.4 eine t-verteilte Zufallsvariable. Man muss daher anstelle der Gaußschen Fehlerfunktion mit dem Integral der t-Verteilung nach Gl.(5.24) arbeiten (Abb. 5.14): n+1 c % Γ |ˆ x − µx | 1 2 n · √ = |t| ≤ c = dt. Pn (c) = P √ 2 (n+1)/2 Sx / n t nπ Γ −c 1+ 2 n
166
5. Zufällige Messfehler
Pn ( c ) = P { t ≤ c }
n n= =20 10 n= n= 5 4
100%
n= 2
n=
3
90%
80%
70% 1
2
3
4 c
Abbildung 5.14. Statistische Sicherheit bei geschätzter Standardabweichung Sx
In der Praxis geht man so vor: • Man wählt eine statistische Sicherheit P {|t| ≤ c} und liest zusammen mit dem Stichprobenumfang n den Wert c aus Abb. 5.14 ab. • Die Standardabweichung der Stichprobe wird nach Def. 5.17 berechnet: 5 6 n 6 1 Sx = 7 (xi − xˆ)2 . n − 1 i=1 • Die Unsicherheit des Stichprobenmittelwertes wird dann Sx c· √ n bzw. das Vertrauensintervall des gemittelten Messergebnisses
5.4 Statistische Testverfahren
167
Sx Sx ˆ ≤ µx + c √ . µx − c √ ≤ x n n Soll die Unsicherheit einer Einzelmessung unabhängig von der Zahl der Messwerte angegeben werden, wird man die Standardabweichung der Stichprobe Sx aus vielen unabhängigen Messwerten aus Def. 5.17 berechnen und den Wert c zu der geforderten statistischen Sicherheit Pn (c) aus Abb. 5.14 ablesen. Die Messunsicherheit der Einzelmessung u x = c · Sx wird größer als die des Stichprobenmittelwertes sein. Für n → ∞ geht die Varianz σx2ˆ des Stichprobenmittelwertes gegen Null, d.h. die statistische Sicherheit Pn (c) konvergiert gegen die Gaußsche Fehlerfunktion P (c). Streng von der Messunsicherheit zu unterscheiden ist der Begriff der Fehlergrenze. Die Fehlergrenzen sind in der Messtechnik die vereinbarten oder garantierten, zugelassenen äußersten Abweichungen von einem vorgeschriebenen Wert der Messgröße. Damit die spezifizierten Fehlergrenzen sicher eingehalten werden können, muss die Messunsicherheit erheblich kleiner als der durch eine Fehlergrenze gegebene Bereich sein. Ist ein Messergebnis mittelbar durch die Funktion der Messwerte gegeben, so ist die Messunsicherheit bei ausreichend großer Stichprobe n nach dem Gaußschen Fehlerfortpflanzungsgesetz gegeben (Abschn. 5.5). 5.4.2 Hypothese und Testverfahren Das Ziel eines Testverfahrens besteht darin, eine präzise formulierte Behauptung, die sog. Nullhypothese H0 zu überprüfen. Der Nullhypothese steht die Alternativhypothese H1 gegenüber. Die Prüfhypothese hängt im wesentlichen von der Aufgabenstellung ab. So kann z.B. als Hypothese angenommen werden, dass eine Stichprobe einer bestimmten Wahrscheinlichkeitsverteilung folgt. Für statistische Testverfahren benötigt man noch den Begriff des Signifikanzniveaus. Das Signifikanzniveau ist identisch mit jener Irrtumswahrscheinlichkeit, die man bereit ist zu akzeptieren, falls das Testverfahren eine Ablehnung der Nullhypothese H0 ergibt (Fehler 1. Art). Es ist also das Risiko, einen Unterschied zu „erfinden“ , einen Unterschied zu behaupten, der in Wirklichkeit nicht vorhanden ist. Daher wird das Signifikanzniveau in der Regel sehr klein gewählt, normalerweise in der Größenordnung 0.001 ≤ α ≤ 0.05. Da α vorgegeben wird, liegt der Gedanke nahe, α so klein wie möglich zu wählen, beispielsweise α = 10−9 , dass es praktisch kaum zu der erwähnten Fehlentscheidung kommt. Bei der Durchführung von statistischen Tests ist aber zu beachten, dass noch eine zweite Art von Fehlentscheidung möglich ist (Tabelle 5.2).
168
5. Zufällige Messfehler
Tabelle 5.2. Fehlentscheidungen bei statistischen Tests Testentscheidung H0 wird abgelehnt bestätigt
tatsächlicher Zustand H0 trifft zu H0 trifft nicht zu Fehler 1. Art Fehler 2. Art
Wenn man also α verkleinert, so steigt die Wahrscheinlichkeit eines Fehlers 2. Art. Während ein Fehler 1. Art als Fehlalarm interpretiert werden kann, ist ein Fehler 2. Art ein unterbliebener Alarm, d.h. trotz signifikanter Abweichung wurde die Hypothese als richtig akzeptiert. Die Wahrscheinlichkeit für den Fehler 2. Art kann nicht allgemein angegeben werden. 5.4.3 Signifikanztest für den Stichprobenmittelwert Ziel des Signifikanztests für den Stichprobenmittelwert ist die Frage, ob eine Stichprobe zu einer vorgegebenen Grundgesamtheit gehört. Dazu geht man von einer Normalverteilung aus und prüft, ob der Stichprobenmittelwert x ˆ nahe genug am wahren Mittelwert µ0 der Verteilung liegt. Ist dies nicht der Fall, so ist die Abweichung nicht zufällig, sondern signifikant. Die Stichprobe wird als nicht repräsentativ abgelehnt. Da man bei diesem Test nicht eine Wahrscheinlichkeitsdichte fx (x), sondern den Parameter xˆ einer vorgegeben Normalverteilung prüft, nennt man diesen Test auch Parametertest. Die Vorgehensweise des Signifikanztests für den Stichprobenmittelwert ist die folgende: 1. Voraussetzungen prüfen: • Unabhängigkeit der Messwerte. • Normalverteilung der Grundgesamtheit mit µ0 . 2. Ermittlung des Stichprobenmittelwertes xˆ und der Standardabweichung der Stichprobe Sx . 3. Aufstellen der Nullhypothese ˆ = µ0 , H0 : x
H1 : x ˆ = µ0 .
4. Festlegen der Prüfgröße: • Ist die Varianz σx2ˆ bekannt, so kann mit einer Normalverteilung gerechnet werden: |ˆ x − µ0 | = c. z= σxˆ
5.4 Statistische Testverfahren
169
• Ist die Varianz nur durch die Stichprobenvarianz gegeben, so muss mit der t-Verteilung gerechnet werden: |ˆ x − µ0 | √ n = c. t= Sx Die Anzahl der Freiheitsgrade beträgt dabei f = n − 1. 5. Festlegen des Signifikanzniveaus α: Aus dem Signifikanzniveaus bestimmt man die maximale statistische Sicherheit P = 1 − α. 6. Bestimmen der Wahrscheinlichkeit der Prüfgröße: Aus einer Tabelle (Abb. 5.13 oder Abb. 5.14) entnimmt man die Werte für P (c) bzw. Pn (c). 7. Testentscheidung: • Annahme der Nullhypothese: P (c) ≤ 1 − α. • Ablehnung der Nullhypothese: P (c) > 1 − α. Beispiel 5.8 Signifikanztest [45] Ein Werkstück habe das Sollmaß µ0 = 12.000 mm. Es wird eine Stichprobe von n = 90 Werkstücken vermessen. Der Stichprobenmittelwert wird als x ˆ = 12.075 mm, die Standardabweichung als Sx = 0.229 mm ermittelt. Wegen des großen Stichprobenumfanges geht die t-Verteilung näherungsweise in eine Normalverteilung über. Die Standardabweichung des Stichprobenmittelwertes ist damit näherungsweise σxˆ ≈ 0.0241 mm. Als Signifikanzniveau wird die ±3σx Spanne der Normalverteilung zugrunde gelegt: α = 0.0027
⇒
1 − α = 0.9973.
Unter der Voraussetzung, die Messwerte hätten eine Gaußsche Normalverteilung, erhält man einen hohen Wert von |ˆ x − µ0 | P (c) = P = P (3.112) = 0.9981 > 1 − α. σxˆ Die Abweichung des Stichprobenmittelwertes xˆ vom wahren Mittelwert µ0 , bezogen auf die Standardabweichung σxˆ ist signifikant, d.h. zu groß. Die Stichprobe muss deshalb als nicht repräsentativ abgelehnt werden.
170
5. Zufällige Messfehler
5.4.4 χ2 -Anpassungstest Im vorherigen Abschnitt haben wir Tests ausgeführt, ob die Werte eines oder mehrerer Parameter einer Stichprobe, z.B. Mittelwerte oder Varianzen signifikant oder rein zufällig voneinander abweichen. Man nennt sie Parametertests. Eine andere Art von Tests, die die Hypothese H0 prüfen, ob eine Stichprobe aus einer Grundgesamtheit mit einer vorgegebenen, beliebigen Wahrscheinlichkeitsdichte fx (x) stammt, nennt man Anpassungstest. Der wichtigste Test aus dieser Gruppe ist der χ2 -Test. Man teilt dabei den gesamten Wertebereich der Zufallsgröße x in k disjunkte Intervalle ∆1 . . . ∆k , den Klassen, ein (siehe auch Histogramm, Abschn. 5.2.1). Die Stichprobe habe den Umfang n. Durch Integration der vorgegebenen Wahrscheinlichkeitsdichte im Intervall ∆i erhalten wir die theoretische Wahrscheinlichkeit pi dafür, dass x in ∆i fällt: pi =
fx (x) dx,
k
pi = 1.
i=1
∆i
Die Wahrscheinlichkeitsdichte fni dafür, dass in die Klasse ∆i gerade ni Elemente anstelle der theoretischen n · pi fallen, ergibt sich aus der Binomialverteilung n ni fni = p (1 − pi )n−ni . ni i Wenn bei fester Wahrscheinlichkeitsdichte pi der Stichprobenumfang n gegen unendlich strebt, so entspricht die Wahrscheinlichkeitsdichte fni nach dem MoivreLaplace-Theorem [37] näherungsweise der Normalverteilung 1 fni ≈ ) e 2πn pi (1 − pi )
(−
(ni − n pi )2 ) 2n pi (1 − pi ) ,
mit dem Mittelwert in der i–ten Klasse ∆i E{ni } ≈ n pi . Für pi 1, d.h. bei einer ausreichend großen Zahl von Klassen, ist die Varianz für die Elementezahl ni gleich σn2 i ≈ n pi . Die Summe der auf die jeweiligen Varianzen σn2 i normierten quadratischen Abweichungen der tatsächlichen Elementezahl ni zum Erwartungswert n · pi genügt nach Satz 5.3 näherungsweise einer χ2 -Verteilung mit (k − 1) Freiheitsgraden, χ ≈ 2
k (ni − n pi )2 i=1
n pi
.
(5.28)
5.4 Statistische Testverfahren
171
Die Klasseneinteilung ist weitgehend willkürlich. Einerseits wünscht man sich viele Klassen, um die Wahrscheinlichkeitsdichte fx (x) möglichst gut zu approximieren. Andererseits sollten die ni genügend groß sein, damit die Testgröße als χ2 -verteilt betrachtet werden kann. Als Faustregel in der Praxis sollten die ni mindestens 1 bei Randklassen, ansonsten mindestens 5 betragen. Die Vorgehensweise des χ2 -
P ( χ2 < χα2 )
1
m= 3
0.99 0.98
m= 4
0.97 0.96 m= 5
0.95 0.94
m= 6
0.93 m = 10
0.92
m = 20
0.91 0.9
5
10
15
20
25
30
35
40
45
χα2
Abbildung 5.15. Wahrscheinlichkeit von χ2 ≤ χ2α bei m = k − 1 Freiheitsgraden
Anpassungstests ist die folgende: 1. Voraussetzungen prüfen: • Unabhängigkeit der Messwerte. • Möglichst großer Stichprobenumfang. 2. Erstellen eines Histogramms: • Festlegen der k Klassen ∆i . • Ermitteln der absoluten Häufigkeiten ni innerhalb der Klassen. Ist die Bedingung ni ≥ 5 bzw. ni,Rand ≥ 1 nicht erfüllt, dann Nachbarklassen zu einer gemeinsamen Klasse zusammenfassen. 3. Aufstellen der Nullhypothese: H0 : fx (x) = f0 (x),
H1 : fx (x) = f0 (x).
172
5. Zufällige Messfehler
4. Festlegen des Signifikanzniveaus α: Aus dem Signifikanzniveau bestimmt man die maximale statistische Sicherheit P = 1 − α. Häufig wird man beim χ2 -Anpassungstest eine gegenüber dem Parametertest auf α = 0.05 vergrößerte Irrtumswahrscheinlichkeit wählen. Da bei Anpassungstests keine Voraussetzungen über die Wahrscheinlichkeitsdichte gemacht werden, sind diese weniger wirksam, als entsprechende Parametertests. 5. Festlegen der Prüfgröße:
χ2 ≈
k (ni − n pi )2 i=1
n pi
.
6. Bestimmung der Freiheitsgrade: m = k − 1 − Anzahl der geschätzten Parameter. Meist sind die Parameter der zu prüfenden Verteilung nur durch Stichproben bex; Sx2 ) kannt. Werden bei einer Normalverteilung die Parameter (µx ; σx2 ) durch (ˆ geschätzt, so verringert sich der Freiheitsgrad zusätzlich um zwei m = k−2−1. 7. Bestimmen der Wahrscheinlichkeit der Prüfgröße: Aus Abb. 5.15 für die statistische Sicherheit bei χ2 -Verteilung entnimmt man den Wert für χ2α für das vorgegebene Signifikanzniveau P (χ2 ≤ χ2α ) = 1 − α. 8. Testentscheidung: • Annahme der Nullhypothese: χ2 ≤ χ2α . • Ablehnung der Nullhypothese: χ2 > χ2α . Beispiel 5.9 χ2 -Test auf Gleichverteilung Für einen Würfel mit 1 bis 6 Augen soll die Hypothese überprüft werden, ob für fx (x) eine Gleichverteilung der Augenzahlen vorliegt (k = 6). H0 : fx (x)
Gleichverteilung.
Es werden n = 120 Testwürfe durchgeführt. Die theoretische Elementezahl n pi = 20 ist bei der angenommenen Gleichverteilung in allen Klassen gleich. Das Signifikanzniveau sei α = 0.05
⇒
P (χ2 ≤ χ2α ) ≤ 1 − α = 0.95.
5.4 Statistische Testverfahren
173
Tabelle 5.3. Würfelexperiment Augenzahl Anzahl ni ni − n pi
1 14 -6
2 27 7
3 15 -5
4 24 4
5 13 -7
6 27 7
Summe 120 0
(ni − n pi )2 n pi
1.8
2.45
1.25
0.8
2.45
2.45
11.2
Zur Wahrscheinlichkeit P (χ2 ≤ χ2α ) = 0.95 bei m = k − 1 = 5 Freiheitsgraden, entnimmt man Abb. 5.15 den Wert χ2α = 11.0. Die Summe der Abweichungsquadrate χ2 = 11.2 nach Tabelle 5.3 ist größer als der Grenzwert χ2 > χ2α . Die Abweichungen sind signifikant und die Hypothese H0 wird deshalb (fälschlicherweise) abgelehnt. Durch Erhöhung der Zahl von Testwürfen kann die Hypothese aber bestätigt werden, dass eine Gleichverteilung vorliegt. 5.4.5 Beurteilung von Fertigungsprozessen Bei der Beurteilung von Fertigungsprozessen wird geprüft, inwieweit 99.73% (±3σx ) der Messergebnisse x im spezifizierten Messbereich 2∆xs liegen. Dazu müssen die Parameter der angenommenen Normalverteilung ausreichend genau bekannt sein, z.B. durch eine ausreichend große Stichproben-Messung (Häufigkeitsverteilung). Dabei ist 2∆xs = xmax − xmin der spezifizierte Messbereich, in dem die Fertigungstoleranzen liegen dürfen, und 1 ∆ˆ x = (xmax + xmin ) − x ˆ 2 die Abweichung des Stichprobenmittelwertes x ˆ der Verteilung von der Mitte des spezifizierten Messbereiches. Als Prozessfähigkeitsindex cp =
∆xs 3σx
(5.29)
174
5. Zufällige Messfehler
Wahrscheinlichkeitsdichte
f ( x) Spezifizierter Messbereich
2 D xs
xmin
xmax x - 3s x ^
x ^
x + 3s x
Spezifizierte
^
Dx ^
x
D xs
Messgröße
Abbildung 5.16. Spezifikation von Fertigungstoleranzen
wird das Verhältnis des spezifizierten Messbereiches 2∆xs zum Vertrauensbereich 2 · 3σx definiert. Je größer der Index cp , desto geringer ist die Streuung der spezifizierten Messgröße x im Verhältnis zum spezifizierten Messbereich, in dem die Messgröße liegen darf. Zur Beurteilung, ob ein Fertigungsprozess geeignet ist, interessiert auch die Lage des Stichprobenmittelwertes xˆ innerhalb des spezifizierten Messbereichs. Eine Abweichung ∆ˆ x engt den Abstand des 3σx -Bereichs zur Grenze des Messbereichs einseitig ein. Zur Abschätzung wird der Prozessbrauchbarkeitsindex definiert: x ∆xs − ∆ˆ ∆ˆ x = cp 1 − cpk = . 3σx ∆xs Für beide Indizes muss cp ≥ 1,
cpk ≥ 1
gelten, damit der Fertigungsprozess einen geringen Ausschuss aufweist. D.h., nur bei einem geringen Prozentsatz der gefertigten Erzeugnisse liegt die Messgröße x außerhalb des spezifizierten Bereichs, so dass das Erzeugnis nicht verkauft werden kann. Betrachtet man nochmals die unterschiedlich breiten Normalverteilungen aus Abb. 5.12, wird sofort anschaulich klar, dass die Güte einer Fertigung unmittelbar mit der Breite der zugrunde liegenden Normalverteilung zusammenhängt. So ist eine schmale Normalverteilung wesentlich robuster gegenüber Schwankungen des Mittelwertes x ˆ, ohne dass dies gleich zu erhöhten Ausschussraten führen muss. Die Ausschussrate p berechnet sich bei Normalverteilung über die Gaußsche Fehlerfunktion erf(x) zu
5.4 Statistische Testverfahren
p=
1 (1 − erf(3 · cpk )). 2
175
(5.30)
Sie wird häufig in „dpm“ (defects per millon) angegeben. Bei einer qualitativ hochwertigen Fertigung wird ein Prozessbrauchbarkeitsindex von cpk > 1.67 . . . 2 gefordert, mit Ausschussraten von p < 0.3 . . . 0.001 dpm. Beispiel 5.10 Länge eines Werkstückes Bei einem feinmechanischen Werkstück sei das Längenmaß auf x = 0.609mm spezifiziert. Der spezifizierte Messbereich für zulässige Fertigungstoleranzen liegt zwischen xmin = 0.591 ≤ x ≤ xmax = 0.627mm. Aus einer Stichprobenmessung werden der Mittelwert x ˆ und die Standardabweichung Sx ermittelt: x ˆ = 0.600mm,
Sx = 0.003mm ≈ σx .
Man erhält mit den Werten 1 (0.627mm − 0.591mm) = 0.018mm, 2 1 ∆ˆ x = (0.591mm + 0.627mm) − 0.600mm = 0.009mm 2
∆xs =
den Prozessfähigkeitsindex cp =
∆xs 0.018mm =2 = 3σx 0.009mm
und den Prozessbrauchbarkeitsindex ∆ˆ x 0.009mm cpk = cp 1 − =2 1− = 1. ∆xs 0.018mm Die Verteilung liegt unsymmetrisch im spezifizierten Messbereich. Für den Ausschuss wird deshalb nur das eine Ende der Wahrscheinlichkeitsverteilung betrachtet, das über den spezifizierten Bereich hinausragt. Die Ausschussrate ist dann p=
1 (1 − erf(3 · cpk )) = 0.00135 = 1350 dpm. 2
176
5. Zufällige Messfehler
5.4.6 Bestimmung der Ausfallrate Die Hersteller von elektronischen Geräten beziehen große Mengen elektronischer Bauelemente, deren Ausfallraten mit den Lieferanten vertraglich festgelegt sind. Zur Überprüfung der Bauelemente-Qualität will der Gerätehersteller die Ausfallraten messtechnisch bestimmen. Wegen des großen Aufwands kann die Überprüfung nur in Stichproben erfolgen. Es seien n die Zahl der Bauelemente in der Stichprobe, p die Ausfallwahrscheinlichkeit des Bauelementes, k die Zahl der in der Stichprobe registrierten Ausfälle. Dann ist die Wahrscheinlichkeit, dass in der Stichprobe zwischen k1 und k2 von n Bauelementen ausgefallen sind, nach [37] durch die Binomialverteilung k2 n i p (1 − p)n−i pn {k1 ≤ i ≤ k2 } = i
(5.31)
i=k1
gegeben. Für np im Bereich 1 gilt das Poissonsche Theorem k2 ni i −np pe . i!
pn {k1 ≤ i ≤ k2 } =
(5.32)
i=k1
Die Wahrscheinlichkeit, dass in der Stichprobe weniger als k Bauelemente ausgefallen sind (k1 = 0, k2 = k), ist dann pn {i ≤ k} = e−np
k (np)i i=0
i!
.
(5.33)
Beispiel 5.11 Ausfallwahrscheinlichkeit Die Stichprobengröße sei n = 3000, die vereinbarte Ausfallwahrscheinlichkeit p = 10−3 . Dann ist die Wahrscheinlichkeit, dass in der Stichprobe nicht mehr als 5 Bauelemente defekt sind, 3
pn {i ≤ 5} = e−3·10
·10−3
5 (3 · 103 · 10−3 )i i=0
i!
= 0.916.
5.4 Statistische Testverfahren
177
Im Prüffeld wird häufig mit der Ausfallrate λ gearbeitet. Bei der Prüfung von Bauelementen definiert man nt Zahl der „Bauelementestunden“ , d.h. das Produkt aus der Zahl der Bauelemente in der Stichprobe n und der Prüfzeit t. λ Ausfallrate p der Bauelemente bezogen auf die Prüfzeit t. Mit λ · (nt) = n · p kann Gl.(5.33) auch geschrieben werden als pn {i ≤ k} = e
−λ(nt)
k (λ · nt)i i=0
i!
.
In der Stichprobenprüfung wird die Zahl der Ausfälle k nach der Zahl der durchlaufenen Bauelementestunden nt gemessen. Daraus soll die Ausfallrate λ bestimmt werden. Man setzt die Wahrscheinlichkeit, dass für die zu berechnende Ausfallrate λ weniger als k Ausfälle in der Stichprobe auftreten, mit pn {i ≤ k} = 0.1 möglichst klein an. Dann ist die sog. Aussagewahrscheinlichkeit pn {i > k} = 1 − pn {i ≤ k} = 0.9 möglichst hoch, dass für den Wert λ in der Stichprobe sogar mehr als die gemessenen k Ausfälle auftreten und damit registriert werden können. Die Bestimmung von λ liegt damit auf der sicheren Seite. Die Gleichung pn {i ≤ k} = 0.1 = e−λ(nt)
k (λ · nt)i i=0
i!
(5.34)
ordnet der im Test registrierten Zahl von k Ausfällen genau einen Wert λ · (nt) zu. Man kann deshalb Gl.(5.34) auch als λ · (nt) = f (k) interpretieren. Durch numerische Berechnung erhält man k = 0 f (0) = 2, 30, k = 1 f (1) = 3, 89, k = 2 f (2) = 5, 32, k = 3 f (3) = 6, 68, k = 4 f (4) = 7, 99, k = 5 f (5) = 9, 27 usw..
(5.35)
178
5. Zufällige Messfehler
Die Beziehung Gl.(5.35) kann in doppelt logarithmisches Papier als Geradenschar log λ = log f (k) − log(nt) eingetragen werden (Abb. 5.17), mit dem Parameter k. Zu Anfang des Tests k = 0 nimmt die Ausfallrate λ mit wachsender Bauelementestunden-Zahl nt entlang der Kurve f (k = 0) ab. Wenn ein Ausfall registriert wurde (k = 1), springt man auf die Kurve f (k = 1) zu einer höheren Ausfallrate λ usw. Nach ausreichend langer Testzeit erreicht man einen asymptotischen Wert für λ. Aufgrund von sog. Frühausfällen ist die Ausfallrate bei kurzen Testzeiten höher als der asymptotische Wert.
λ h
10
−1
−5
10
−6
10
10
k=0
−7
1
2 3 4 5
−8
10
5
10
6
10
7
10 r nt
8
h
Abbildung 5.17. Bestimmung der Ausfallrate von elektronischen Bauelementen
Zur Reduktion der Testzeiten werden die Bauelemente zumeist unter verschärften Testbedingungen geprüft. Man betreibt die Bauelemente z.B. bei höheren Temperaturen oder unterwirft sie Temperaturzyklen. Die erhöhte Beanspruchung lässt sich
5.4 Statistische Testverfahren
179
für spezielle Ausfallmechanismen in einen zeitlichen Raffungsfaktor r umrechnen, um den die Testzeit gekürzt werden kann. Beispiel 5.12 Ausfallrate Eine Firma verarbeitet pro Jahr 3 · 106 Bauelemente eines Typs. Davon werden n = 3000 über 30 Tage, d.h. t = 720h getestet. Der Test findet bei erhöhten Umgebungstemperaturen statt, woraus sich ein Raffungsfaktor von r ≈ 10 gegenüber den normalen Einsatzbedingungen ergibt. Es treten folgende Ausfälle auf (Tabelle 5.4): Bei t = 720h wird der Test abgebrochen, die Ausfallrate beträgt Tabelle 5.4. Gemessene Ausfallzeiten von Bauelementen k
1
2
3
4
5
t/h
33
167
433
567
720
r · nt/h
106
5 · 106
1.3 · 107
1.7 · 107
2.16 · 107
λ=
9.27 f (k) = = 4.3 · 10−7 h−1 . r · nt 2.16 · 107 h
Die Zahl n der in der Stichprobe getesteten Bauteile ist von entscheidender Bedeutung für die Bewertung der Ausfallwahrscheinlichkeit. Dies soll am folgenden Beispiel verdeutlicht werden. Beispiel 5.13 Größe der Stichprobe Es sollen z.B. folgende Ausfälle für 3 Lieferanten gemessen werden: Lieferant A: k = 0 von n = 500, d.h. 0 dpm Lieferant B: k = 1 von n = 2000, d.h. 500 dpm Lieferant C: k = 6 von n = 10000, d.h. 600 dpm Man könnte nun versucht sein, den Lieferanten A aufgrund dieser Messergebnisse als am besten einzustufen, und Lieferanten C als am schlechtesten. Dies ist aber deshalb nicht richtig, da die Zahl n der getesteten Einheiten nicht korrekt berücksichtigt wurde. Die Rechnung muss lauten: Lieferant A: k < 1 Ausfälle von n = 500, d.h. < 2000 dpm Lieferant B: k < 2 Ausfälle von n = 2000, d.h. < 1000 dpm Lieferant C: k < 7 Ausfälle von n = 10000, d.h. < 700 dpm Damit ergibt sich aus der statistisch relevanten Abschätzung der Messresultate eine Umkehrung der Bewertungsskala. Der Lieferant C ist am besten! Bei Lieferant A müssten 1.430 Bauelemente ohne Fehler getestet werden, um die gleiche Bewertung wie Lieferant C zu erlangen. Lieferant A hätte dann k < 1 Ausfälle von 1.430, d.h. 106 /1.430 = 700dpm. Je niedriger die nachzuweisenden Ausfallraten, desto größer muss die Stichprobe sein, die getestet wird. Hohe Produktqualität (d.h. niedrige Ausfallraten) lässt sich deshalb nur bei großen Fertigungsstückzahlen wirtschaftlich realisieren, bei denen man sich große Stichproben leisten kann.
180
5. Zufällige Messfehler
5.4.7 Statistische Prozess-Überwachung In einem Fertigungsprozess unterliegen bestimmte Merkmale eines Fertigungsgutes Schwankungen. Zufällige, mittelwertfreie Störungen wird man im allgemeinen nicht verhindern können. Zur Qualitätskontrolle und -sicherung müssen aber systematische Fehler erkannt werden. Aufgabe ist es nun, aus den Messungen möglichst gut auf die Eigenschaften der Fertigungsfehler zu schließen. Hierbei tritt der Begriff Schätzen auf. Eines der einfachsten Schätzverfahren ist die Mittelwertbildung (Stichprobenmittelwert) 1 xi , n i=1 n
x ˆ=
bei der nach Abschn. 5.2.5 zufällige, mittelwertfreie Fehler herausfallen. Eine systematische Abweichung bleibt dagegen erhalten. Beispiel 5.14 Systematischer Fehler Die Länge eines mechanischen Bauteils hat ein Sollmaß von 100mm. Nun werden 6 Bauteile aus der laufenden Produktion herausgenommen. Sie besitzen folgende Längen: 100,1 mm
100,5 mm
99,8 mm
100,0 mm
99,9 mm
100,3 mm
Hierbei ergibt sich ein Stichprobenmittelwert von x ˆ = 100, 1mm. Unter der Annahme, dass die statistische Sicherheit bei diesem Probenumfang gewährleistet ist, kann man die Aussage treffen, dass bei der Fertigung ein systematischer Fehler von 0, 1mm auftritt. Da systematische Fehler im allgemeinen auch zeitabhängig sind, wird man mit der einfachen Mittelwertbildung nicht weiterkommen. Deshalb wird der gleitende Mittelwert (engl. moving average, MA) eingeführt. Er wird definiert als Mittelwert zum Zeitpunkt t über die letzten m Messungen, die im Abstand T aufgenommen wurden,
x ¯(t) =
m−1 1 x(t − jT ). m j=0
(5.36)
Zum Zeitpunkt t wird also der älteste Wert x(t − mT ) „vergessen“ und der neueste Wert x(t) hinzugenommen. Anschaulich ausgedrückt, wird über die Zeitreihe ein „Fenster“ geschoben, innerhalb dessen der Mittelwert gebildet wird (Abb: 5.18). Die einzelnen Werte x(t) der Zeitreihe werden dabei mit demselben Faktor 1/m gewichtet. Nun schreibt man Gl.(5.36) auf symmetrische Summationsgrenzen um, x ¯(t) =
M 1 x(t − jT ), 2M + 1 j=−M
5.4 Statistische Testverfahren
181
x(t)
x(t)
1
2
3
4
j
5
6
7
8
9
4
3
2
1
0
10
11
12
t/T
Abbildung 5.18. Gleitender Mittelwert (MA) für m = 5
wobei m = 2M +1 gesetzt wird, also eine ungerade Zahl von Werten x(t), was aber keine Einschränkung bedeutet. Auch die Tatsache, dass der gleitende Mittelwert x¯(t) erst M Zeitpunkte später auftritt, bedeutet nur, dass x ¯(t) nicht schritthaltend in Echtzeit, sondern um M Schritte verzögert berechnet werden kann. Beispiel 5.15 MA-Filterung Eine zu untersuchende Zeitreihe x(t) stelle die Differenz zwischen den Messwerten und dem Sollwert dar. Sie bestehe aus einem systematischen Anteil s(t) und einem zufälligen, mittelwertfreien Anteil e(t): x(t) = s(t) + e(t). Wählt man M genügend groß, so wird die zufällige Störung e(t) beim gleitenden Mittelwert unterdrückt, und es bleibt nur der systematische Anteil s(t) übrig: x ¯(t) =
M 1 (s(t − jT ) + e(t − jT )) 2M + 1 j=−M ⎡
⎤
⎥ ⎢ M ⎥ ⎢ M 1 ⎢ = s(t − jT ) + e(t − jT )⎥ ⎥ ⎢ 2M + 1 ⎣ ⎦ j=−M j=−M
≈0
=
1 2M + 1
M
s(t − jT ).
j=−M
Man kann auch sagen, dass der zufällige Anteil e(t) heraus gefiltert wird.
182
5. Zufällige Messfehler
In der weiteren Betrachtung wird nur noch der systematische Anteil behandelt, da der zufällige, d.h. mittelwertfreie Anteil bei genügend großem Umfang M identisch verschwindet. Bis jetzt wurde über den Fehler nur ausgesagt, dass er aus einem systematischen und einem zufälligen, mittelwertfreien Anteil besteht. Im weiteren interessieren die Eigenschaften des systematischen Anteils s(t). Dieser muss nicht nur aus einer Konstanten bestehen, sondern kann auch einen zeitabhängigen Anteil besitzen, der z.B. durch ein Wegdriften der überwachten Messgröße vom Sollwert verursacht wird. Man beschreibt das Verhalten von s(t) durch ein Modell, dem so genannen Signalmodell s(t) = a0 + a1 t + . . . + ak tk .
(5.37)
Allgemein kann das Problem der statistischen Prozessüberwachung wie folgt formuliert werden. Der Modellansatz und die Filterung der zufälligen, mittelwertfreien Störungen e(t) bieten nun die Möglichkeit, den systematischen Fehler s(t) der Messwerte analytisch, durch Bestimmung der Modellkoeffizienten ai , zu beschreiben. Der zeitliche Verlauf von s(t) kann damit prädiziert werden. Dadurch wird ein unerwünschtes Weglaufen der Messgröße rechtzeitig erkannt. Bei der statistischen Prozessüberwachung werden die ai daraufhin kontrolliert, ob sie innerhalb eines vorgegebenen Toleranzintervalls liegen. So kennzeichnet in Gl.(5.37) der Parameter a1 die Drift des Prozesses. Bereits in Abschn. 2.2 wurde der Least-Squares-Schätzer eingeführt. Er findet in der statistischen Prozessüberwachung breiten Einsatz, da zufällige Fehler unterdrückt werden und als Ergebnis die gesuchten Modellkoeffizienten ai geschätzt werden. Dabei ist man nicht, wie in der Regressionsrechnung auf Polynomansätze für den systematischen Fehler s(n) beschränkt. Im Vergleich zu Gl.(2.12) wird bei der statistischen Prozessüberwachung die zeitliche Abfolge der Messwerte y(n) modelliert. Das Signalmodell lautet in zeitkontinuierlicher Form y(t) = a0 Φ0 (t) + a1 Φ1 (t) + . . . + ak Φk (t) + e(t),
t = nT
und für m + 1 vergangene zeitdiskrete Messwerte ⎡
⎤⎡ ⎤ · · · Φk (nT ) a0 (n) Φ0 (nT ) ⎥ ⎢ Φ0 ((n − 1)T ) · · · Φk ((n − 1)T ) ⎥ ⎢ a1 (n) ⎥ ⎥⎢ ⎥ ⎥ ⎢ ⎥ ⎢ .. ⎥ ⎥ = ⎢ .. . . .. ⎦⎣ . ⎦ ⎦ ⎣. . . Φ0 ((n − m)T ) · · · Φk ((n − m)T ) ak (n) yˆ(n − m) = Ψ n an .
yˆ(n) ⎢ yˆ(n − 1) ⎢ y ˆn = ⎢ . ⎣ ..
⎤
⎡
In jedem Messzeitpunkt nT kann damit der Parametervektor an als Pseudoinverse an = (Ψ Tn Ψ n )−1 Ψ Tn y n bestimmt werden. Veränderungen am Prozess können so frühzeitig entdeckt werden (Abb. 5.19).
5.4 Statistische Testverfahren
183
y(t) ^ y(t)
** * * * * * * * * *
*
******* * *
(n-m)T
spezifizierter Bereich
** * **
nT
tkrit
t
Abbildung 5.19. Least-Squares-Schätzer des zukünftigen Messgrößenverlaufs y(t)
Beispiel 5.16 Signalmodell Gegeben sei ein Sinusgenerator, dessen Ausgangsspannung u(t) = a3 · sin(2πfg t) überwacht werden soll. Aus Vorüberlegungen ist bekannt, dass der Ausgangsverstärker durch Temperatureinflüsse eine lineare Drift a1 t und einen Offset a0 zeigt. Zusätzlich ist dem Ausgangssignal eine harmonische Netzstörung (fn = 50Hz) überlagert. Die Phasenlage der harmonischen Schwingungen sei bekannt. Das messbare Signal einschließlich zufälliger Fehler e(t) ist y(t) = a0 + a1 t + a2 sin(2πfn t) + a3 sin(2πfg t) + e(t). Die Parameter a0 , a1 , a2 sind die systematischen Störeinflüsse, die es zu überwachen gilt. Für den zugehörigen LS-Schätzer ergibt sich zum Zeitpunkt t = nT ⎤⎡ ⎤ ⎡ sin(2πfg nT ) 1 nT sin(2πfn nT ) a0 ⎢ 1 (n − 1)T sin(2πfn (n − 1)T ) sin(2πfg (n − 1)T ) ⎥ ⎢ ⎥ ⎥ ⎢ a1 ⎥ ⎢ y ˆn = ⎢ . . ⎥⎣ ⎦. .. .. ⎦ a2 ⎣ .. .. . . a3 1 (n − m)T sin(2πfn (n − m)T ) sin(2πfg (n − m)T ) Durch die Bildung der Pseudoinversen im Zeitpunkt t = nT an = (Ψ Tn Ψ n )−1 Ψ Tn y n kann der Parametervektor an geschätzt und der systematische Störeinfluss überwacht werden. Abbildung 5.20 zeigt ein stark gestörtes Messsignal mit fg = 70Hz und das mittels LS-Schätzer rekonstruierte Signal. Zum Zeitpunkt t = 0.045sek wurde eine Drift aufgeschaltet. Am geschätzten Parameter a1 erkennt man sehr gut die Möglichkeit zur statistischen Prozessüberwachung mittels eines LS-Schätzers
184
5. Zufällige Messfehler Gestörtes Generatorsignal y(t) ——, ungestört u(t) −−−
2 1.5 1 0.5 0 −0.5
0
0.01
0.02 0.03 0.04 0.05 0.06 0.07 Rekonstruiertes Generatorsignal,——, ungestört u(t) −−−
0.08
0.09
0
0.01
0.02
0.03 0.04 0.05 0.06 Geschätzter Parameter a1 für Drift
0.07
0.08
0.09
0
0.01
0.02
0.03
0.07
0.08
0.09
0.2 0 −0.2
40 30 20 10 0
0.04
0.05
0.06
Abbildung 5.20. Statistische Prozessüberwachung eines Signalgenerators mit sprunghafter Änderung des Parameters a1 bei t = 0.045
5.5 Fehlerfortpflanzung 5.5.1 Gaußsches Fehlerfortpflanzungsgesetz Das gesuchte Messergebnis y sei nicht unmittelbar gleich den Messwerten xi , sondern berechne sich aus mehreren Messwerten nach der Funktion y = f (x1 , x2 , . . . , xn ) = f (x). Ein einfaches Beispiel für eine derartige Funktion ist der Stichprobenmittelwert y = xˆ. In einem weiteren Beispiel kann der Wirkungsgrad eines Dampferzeugers nicht direkt gemessen werden, sondern muss aus • Heizwert des Brennstoffes, • Zuführungsrate des Brennstoffes, • Dampftemperatur, • Dampfmenge pro Zeit
5.5 Fehlerfortpflanzung
185
bestimmt werden. Die Abweichungen der gemessenen Werte xi vom richtigen Wert xi0 ergeben die Fehler ∆xi = xi − xi0 . Den Fehler des Messergebnisses y kann man mit Hilfe der Taylor-Entwicklung abschätzen, wenn man die Glieder höherer Ordnung vernachlässigt: ∂f (x) (xi − xi0 ). y − y0 = ∂xi xi0 i Die Fehlergrenze des Messergebnisses ∆yg ergibt sich aus den Fehlergrenzen der Messwerte ∆xgi zu ∆yg =
∂f (x0 ) i
∂xi
∆xgi .
Dabei ist ∂f (x0 )/∂xi die Empfindlichkeit der Funktion für den Messwert xi . Die Varianz des Messergebnisses ist + * 2 σy2 = E (y − y0 ) ⎧ ⎞⎫ ⎛ ⎨ ∂f (x ) ⎬ ∂f (x0 ) 0 =E (xi − xi0 ) ⎝ (xj − xj0 )⎠ ⎩ ⎭ ∂xi ∂xj i
j
∂f (x0 ) ∂f (x0 ) · E {(xi − xi0 ) (xj − xj0 )} = ∂xi ∂xj i j =
∂f (x0 ) ∂f (x0 ) · Cxi xj . ∂xi ∂xj i j
(5.38)
Für statistisch voneinander unabhängige Messwerte xi ist die Varianz nach Def.(5.14) Cxi xj = σx2i δij und man erhält das Gaußsche Fehlerfortpflanzungsgesetz zu σy2 =
∂f (x0 ) 2 i
∂xi
σx2i .
(5.39)
Sind die Messwerte nicht voneinander unbhängig, so verwendet man den Korrelationskoeffizienten zur Berechnung der Fehlerfortpflanzung, σy2
∂f (x0 ) 2 ∂f (x0 ) ∂f (x0 ) = σx2i + σxi σxj · rxi xj . ∂xi ∂xi ∂xj i i j=i
(5.40)
186
5. Zufällige Messfehler
5.5.2 Numerische Berechnung von Mittelwert und Varianz a) Bei der numerischen Berechnung ist es oft vorteilhaft, anstelle der Addition vieler großer Zahlen xi mit den Abweichungen ∆xi von einem Näherungswert x0 zu rechnen: ∆xi = xi − x0 . Der Stichprobenmittelwert nach Def. 5.16 wird dann 1 ∆xi n i=1 n
x ˆ = x0 +
1 ∆xi . n i=1 n
⇒
∆ˆ x = xˆ − x0 =
Die Stichprobenvarianz nach Def. 5.17 wird mit Einsetzen der Differenzen n 1 2 2 Sx2 = (x0 + ∆xi ) − n (x0 + ∆ˆ x) n − 1 i=1 ⎛
(5.41)
⎞
⎜ ⎟ n n ⎟ 1 ⎜ 2 2 2 2⎟ ⎜ nx0 +2x0 ∆ xi + (∆xi ) −nx0 −2nx0 ∆ˆ = x −n(∆ˆ x) ⎟ ⎜ n − 1⎝ ⎠ i=1 i=1 n∆ˆ x n 1 2 2 = (∆xi ) − n (∆ˆ x) . (5.42) n − 1 i=1 b) Für das Gaußsche Fehlerfortpflanzungsgesetz müssen die partiellen Ableitungen gebildet werden. Wenn das Messergebnis y indirekt als Produkt bzw. als Quotient mehrerer Messwerte xi gebildet wird, ist eine Logarithmierung und anschließende Differentiation der Beziehung f (xi ) hilfreich: y = f (xi ) =
n 1
i xα i .
i=1
Durch Logarithmierung entsteht eine Summe ln y =
n
αi · ln xi ,
i=1
womit sich die Differentiation vereinfacht. Mit d(ln y) =
1 1 · dy ≈ ∆y y y
erhält man schließlich
5.5 Fehlerfortpflanzung
187
∆y ∆xi = αi · . y0 xi0 i=1 n
Die relative Varianz ist damit σy2 y02
=E
=
∆y y02
n n i=1 j=1
2
% =E
⎧: n ⎨ ⎩
αi αj E
i=1
;2 ⎫ ∆xi ⎬ αi · xi0 ⎭
% ∆xi ∆xj . xi0 xj0
Cx x i j xi0 xj0
Für statistisch voneinander unabhängige Messwerte xi ist die Varianz nach Def.(5.14) Cxi xj = σx2i δij und man erhält damit die relative Varianz nach dem Gaußschen Fehlerfortpflanzungsgesetz zu n 2 σy2 2 σxi = α i 2 . y02 xi0 i=1
(5.43)
Beispiel 5.17 Fehler bei Masse-Bestimmung Die Masse einer in einem zylindrischen Tank gelagerten Flüssigkeit soll bestimmt werden. Der Durchmesser des Tanks sei d, der gemessene Flüssigkeitsstand der Flüssigkeit h, die Dichte . Die gelagerte Masse bestimmt sich aus der Beziehung 2 d · · h. m=π 2 Mit αd = 2, α = 1, αh = 1 errechnet sich die relative Varianz aus dem Gaußschen Fehlerfortpflanzungsgesetz zu σ 2 m
m
=4
σ 2 d
d
+
σ 2 h
h
+
σ
2 .
Ist der Durchmesser auf σd/d = 1% bestimmt, die Höhe auf σh/h = 0.5% und die Dichte auf σ/ = 0.9%, wird die relative Streuung der Masse: √ σm = 4 + 0.25 + 0.81 % = 2.2%. m
6. Korrelationsmesstechnik
Wir haben bisher zufällige Messfehler kennen gelernt, die einzelne Messwerte stationärer Messgrößen verfälschen. Will man hingegen Funktionsverläufe u(t) messen, so erwartet man auch hier für jeden Zeitpunkt t einen zufälligen Messfehler. Dieser wird gewöhnlich als Rauschen interpretiert. Für Signale wie Rauschen oder chaotische Schwingungen ist die Angabe eines Funktionsverlaufes unmöglich. Herkömmliche Analysemethoden gehen davon aus, dass die Signale durch mathematische Funktionen beschreibbar sind (z.B. durch eine Interpolationsfunktion). Damit kann man mit den Werten der Signalverläufe rechnen, Signale addieren und subtrahieren, verzögern oder Ableitungen und Integrale bilden. Speziell für Fourier-, Laplace- oder Faltungsintegrale ist nicht sichergestellt, ob diese für zufällige Zeitsignale überhaupt existieren. Um dennoch wie gewohnt mit Eingangs- und Ausgangsgrößen von Messsystemen rechnen zu können, muss auch für Zufallssignale eine geeignete Beschreibung gefunden werden. Hier hilft das Konzept der stochastischen Prozesse, die durch Erwartungswerte, Korrelationsfunktionen und Leistungsdichten beschrieben werden.
6.1 Stochastische Prozesse Bei der Beschreibung von Systemen, in denen zufällige Signale auftreten, will man sich nicht auf wenige, explizit bekannte Störungen beschränken. Vielmehr sind allgemeine Lösungen gefordert, die nicht nur für einzelne Signale gelten, sondern für eine große Anzahl möglicher Signale mit gemeinsamen Eigenschaften. Ein mathematisches Modell für eine derartige Schar von Signalen ist der stochastische Prozess. Genaue Ausführungen hierzu findet man in [37, 13, 5]. Definition 6.1 Stochastischer Prozess Ein stochastischer Prozess Y(t, ξ) ist eine Funktion, die jedem Zufallsereignis ξ eine eindeutige Zeitfunktion yξ (t) zuordnet. Für jeden festen Zeitpunkt t = const ist Y(t, ξ) eine Zufallsvariable. Da Y als Zufallsvariable beschrieben werden kann, können alle Gesetze für Zufallsvariable aus der Wahrscheinlichkeitstheorie (Abschn. 5.1) angewendet werden. Ein stochastischer Prozess Y(t, ξ) hat zwei Parameter. Abhängig davon, ob diese jeweils
190
6. Korrelationsmesstechnik
fest oder variabel angenommen werden, ergeben sich vier verschiedene Bedeutungen: 1. ξ ist fest, t ist variabel: Y(t, ξ) ist eine einzelne Realisierung des stochastischen Prozesses, genannt Musterfunktion. Man erhält also eine Zeitfunktion yξ (t), die durchaus eine deterministische Funktion sein kann (vgl. Beispiel 6.2). 2. ξ ist variabel, t ist fest: Y(t, ξ) ist eine Zufallsvariable Y(ξ), die jedem Ereignis ξ den entsprechenden Funktionswert der zugehörigen Musterfunktion yξ (t = const) zuordnet. 3. ξ ist fest, t ist fest: Y(t, ξ) ist ein Zahlenwert (oder eine physikalische Größe). 4. ξ ist variabel, t ist variabel: Y(t, ξ) ist ein stochastischer Prozess, d.h. eine Schar von Musterfunktionen. Beispiel 6.1 Rauschspannung Die Spannung u(t) an einem Widerstand R ist, bedingt durch thermisches Rauschen, verrauscht und kann auch bei Kenntnis des durchfließenden Stromes i(t) nicht vorhergesagt werden. Hierbei handelt es sich um einen stochastischen Prozess, dessen Musterfunktion beliebige Werte annehmen kann. Die Schar aller möglichen Funktionen ist unendlich groß. Beispiel 6.2 Harmonische Schwingung mit zufälliger Phase Ein Zufallsprozess Y erzeugt Musterfunktionen yi = sin(ωt + ϕi ), wobei die Kreisfrequenz ω fest ist, die Phase ϕi aber rein zufällig ist. Für feste Zeiten von t ist Y eine Zufallsvariable, die alle Amplitudenwerte der Sinusschwingung annehmen kann. Jede einzelne Musterfunktion yi (t) ist für feste Phasen ϕi eine deterministische Funktion. 6.1.1 Wahrscheinlichkeitsdichte Die Definition der Wahrscheinlichkeitsdichte folgt unmittelbar aus der klassischen Wahrscheinlichkeitsrechnung. Dazu wird zuerst die Wahrscheinlichkeitsverteilung definiert.
6.1 Stochastische Prozesse
191
Definition 6.2 Wahrscheinlichkeitsverteilung Die Wahrscheinlichkeitsverteilung FY (y, t) = P {yξ (t) ≤ y} eines stochastischen Prozesses Y(t, ξ) gibt die Wahrscheinlichkeit P an, mit der der Funktionswert yξ (t) zum Zeitpunkt t kleiner oder höchstens gleich y ist. Hieraus folgt sofort die Wahrscheinlichkeitsdichte als partielle Ableitung der Wahrscheinlichkeitsverteilung. Definition 6.3 Wahrscheinlichkeitsdichte Die Wahrscheinlichkeitsdichte eines stochastischen Prozesses Y(t, ξ) ist fY (y, t) =
∂FY (y, t) ∂y
∞
fY (y, t) dy = 1.
mit −∞
Sowohl die Wahrscheinlichkeitsverteilung als auch die Wahrscheinlichkeitsdichte hängen im allgemeinen von der Zeit t ab. Die partielle Ableitung in Definition 6.3 ist als verallgemeinerte Ableitung anzusehen. An Stellen, an denen in der Wahrscheinlichkeitsverteilung Sprünge auftreten, enthält die Wahrscheinlichkeitsdichte δ-Distributionen. Diese Definitionen lassen sich auf mehrdimensionale stochastische Prozesse ausdehnen. Wir wollen uns hier auf zweidimensionale Prozesse beschränken. Betrachtet man zwei verschiedene Zufallsprozesse X(t, ξ) und Y(t, ξ) zu festen Zeitpunkten t1 , t2 , so erhält man Definition 6.4 Wahrscheinlichkeitsverteilung zweier stochastischer Prozesse FXY (x, y, t1 , t2 ) = P {xξ (t1 ) ≤ x} ∩ {yξ (t2 ) ≤ y}. Definition 6.5 Wahrscheinlichkeitsdichte zweier stochastischer Prozesse fXY (x, y, t1 , t2 ) =
∂ 2 FXY (x, y, t1 , t2 ) . ∂x∂y
Im Gegensatz zur Wahrscheinlichkeitsdichte zweier Zufallsvariablen lässt sich bei stochastischen Prozessen X(t, ξ) auch eine gemeinsame Wahrscheinlichkeitsdichte bei Betrachtung zweier verschiedener Zeitpunkte t1 , t2 angeben. Definition 6.6 Gemeinsame Wahrscheinlichkeitsverteilung FXX (x1 , x2 , t1 , t2 ) = P {xξ (t1 ) ≤ x1 } ∩ {xξ (t2 ) ≤ x2 }.
192
6. Korrelationsmesstechnik
Definition 6.7 Gemeinsame Wahrscheinlichkeitsdichte fXX (x1 , x2 , t1 , t2 ) =
∂ 2 FXX (x1 , x2 , t1 , t2 ) . ∂x1 ∂x2
Bei zweidimensionalen stochastischen Prozessen kommt noch der Begriff der statistischen Unabhängigkeit hinzu. Definition 6.8 Statistische Unabhängigkeit Zwei stochastische Prozesse X(t, ξ) und Y(t, ξ) nennt man statistisch unabhängig, wenn für alle Zeiten t1 , t2 gilt: FXY (x, y, t1 , t2 ) = FX (x, t1 ) · FY (y, t2 ) bzw. fXY (x, y, t1 , t2 ) = fX (x, t1 ) · fY (y, t2 ). Statistische Unabhängigkeit ist eine Eigenschaft, die experimentell höchstens näherungsweise nachgewiesen werden kann. Bei der Formulierung eines Modells für ein Messsystem kann sie meist nur als Voraussetzung angenommen werden. Diese Voraussetzung ist in der Regel berechtigt, wenn die stochastischen Signale unterschiedliche Ursachen haben. Der große Vorteil der statistischen Unabhängigkeit liegt in der wesentlich vereinfachten Modellanalyse. Man wird daher oft mit statistischer Unabhängigkeit arbeiten, selbst wenn die Quellen der stochastischen Signale nicht völlig unabhängig voneinander sind, vorhandene Abhängigkeiten aber nicht interessieren. 6.1.2 Schar- und Zeitmittelwerte, Momente 1. Ordnung Stochastische Prozesse sind Funktionen von zwei Parametern ξ und t. Bei der Beschreibung zufälliger Signale dominiert meist der Parameter t, der als Zeit interpretiert wird. Es wird daher in der Literatur sehr oft nur dieser Parameter explizit angegeben. Bei der Bildung von Mittelwerten, bzw. allgemeinen Erwartungswerten gibt es entsprechend der beiden Parameter zwei mögliche Vorgehensweisen (Abb. 6.1): 1. Erwartungswert über alle Musterfunktionen yξ (t) bei festem t: Man nennt ihn Scharmittelwert. Er gibt an, welchen Mittelwert der Zufallsprozess zu einem Zeitpunkt t hat, und hängt im allgemeinen von der Zeit ab. 2. Erwartungswert über den Parameter t einer Musterfunktion yi (t) : Man nennt ihn Zeitmittelwert. Im allgemeinen sind die Zeitmittelwerte einzelner Musterfunktionen eines Prozesses verschieden und damit vom Parameter ξ abhängig. Erwartungswerte von stochastischen Prozessen sind immer Erwartungswerte über alle Musterfunktionen zu einem festen Zeitpunkt t. Entsprechend der MomentenDefinition für Zufallsvariable sind die Momente für stochastische Prozesse um den Parameter t erweitert.
6.1 Stochastische Prozesse Musterfunktion
193
x(t)
x1(t)
Scharmittelwerte
t
x2(t)
t Zeitmittelwerte
x3(t) t
x4(t) t
Abbildung 6.1. Mittelwertbildung als Zeitmittelwert oder Scharmittelwert
Definition 6.9 Moment eines stochastischen Prozesses Das n-te Moment eines stochastischen Prozesses Y(t, ξ) ist definiert zu ∞ n
y n fY (y, t) dy.
µy,n (t) = E{y (t)} = −∞
Das erste Moment µy (t) ist der zeitabhängige Mittelwert y(t) oder auch Scharmittelwert. Definition 6.10 Zentrales Moment eines stochastischen Prozesses Das n-te zentrale Moment eines stochastischen Prozesses Y(t, ξ) ist definiert zu ∞ n
E{(y(t) − E{y(t)}) } =
(y − E{y(t)}) fY (y, t) dy.
n
−∞
Das zweite zentrale Moment ist die zeitabhängige Varianz σy2 (t). Es ist einleuchtend, dass die Erwartungswertbildung über alle Musterfunktionen praktisch nicht durchführbar ist. Selbst mit einer begrenzten Zahl von Musterfunk-
194
6. Korrelationsmesstechnik
tionen zu arbeiten wird in der Praxis schwierig sein, benötigt man doch zur gleichen Zeit N identische Systeme, die verschiedene Musterfunktionen des stochastischen Prozesses erzeugen. Unter bestimmten Voraussetzungen können jedoch Scharmittelwerte durch Zeitmittelwerte ersetzt werden (siehe ergodische Prozesse). Dies erleichtert die messtechnische Erfassung der Momente ungemein. 6.1.3 Momente 2. Ordnung Zu den Momenten zweiter Ordnung gelangt man durch das „Festhalten“ von zwei Zeitpunkten t1 und t2 . Betrachtet man ein und denselben stochastischen Prozess, so führt dies auf die Autokorrelation (Moment 2. Ordnung) und die Autokovarianz (zentrales Moment 2. Ordnung). Definition 6.11 Autokorrelationsfunktion Die Autokorrelation (AKF) eines stochastischen Prozesses Y(t, ξ) ist definiert als ∞
∞
Ryy (t1 , t2 ) = E{y(t1 )y(t2 )} =
y1 y2 fYY (y1 , y2 , t1 , t2 ) dy1 dy2 . −∞ −∞
Definition 6.12 Autokovarianzfunktion Die Autokovarianz (AKV) eines stochastischen Prozesses Y(t, ξ) ist definiert als * + Cyy (t1 , t2 ) = E y(t1 ) − E{y(t1 )} y(t2 ) − E{y(t2 )} ∞ ∞
=
y1 − µy (t1 ) y2 − µy (t2 ) fYY (y1 , y2 , t1 , t2 ) dy1 dy2 .
−∞−∞
Die Autokorrelation unterscheidet sich von der Autokovarianz nur um die Mittelwerte: Cyy = Ryy − µy (t1 )µy (t2 ). Betrachtet man zwei stochastische Prozesse zu verschiedenen Zeitpunkten t1 und t2 , so erhält man als Momente zweiter Ordnung die Kreuzkorrelation und die Kreuzkovarianz. Definition 6.13 Kreuzkorrelationsfunktion Die Kreuzkorrelation (KKF) zweier stochastischer Prozesse X(t, ξ), Y(t, ξ) ist definiert als 8
9 Rxy (t1 , t2 ) = E x(t1 )y(t2 ) =
∞
∞
xy fXY (x, y, t1 , t2 ) dxdy. −∞ −∞
6.1 Stochastische Prozesse
195
Definition 6.14 Kreuzkovarianzfunktion Die Kreuzkovarianz (KKV) zweier stochastischer Prozesse X(t, ξ), Y(t, ξ) ist definiert als * + Cxy (t1 , t2 ) = E x(t1 ) − E{x(t1 )} y(t2 ) − E{y(t2 )} ∞
∞
=
x − µx (t1 ) y − µy (t2 ) fXY (x, y, t1 , t2 ) dxdy.
−∞ −∞
Durch die Betrachtung von Prozessen zu verschiedenen Zeitpunkten ist es möglich, Aussagen über die „Zufälligkeit“ des Prozesses zu machen (Erhaltungstendenz). Auch die Ähnlichkeit zweier zufälliger Signale zu unterschiedlichen Zeiten kann mit Hilfe der Momente zweiter Ordnung untersucht werden. Deshalb haben Korrelationsfunktionen in der Praxis eine große Bedeutung. Ihre Eigenschaften und Anwendungen werden daher in Abschn. 6.2 gesondert besprochen. Definition 6.15 Unkorreliertheit Zwei stochastische Prozesse X(t, ξ), Y(t, ξ) sind unkorreliert, wenn für alle Zeiten gilt, dass 8 9 8 9 8 9 E x(t1 )y(t2 ) = E x(t1 ) · E y(t2 ) . Sind zwei Prozesse nach Def. 6.8 statistisch unabhängig, so folgt daraus immer Unkorreliertheit. Die Umkehrung des Satzes ist jedoch allgemein nicht zugelassen. Sie gilt nur für den Spezialfall normalverteilter Prozesse! Unkorreliertheit ist somit –verglichen mit statistischer Unabhängigkeit –die schwächere Eigenschaft. Physikalisch drücken beide fehlende Kopplungen zwischen beiden Prozessen aus, die bei Unkorreliertheit jedoch nur für die Momente 1. Ordnung gesichert sind. 6.1.4 Stationäre Prozesse Allgemein sind die Wahrscheinlichkeitsverteilungen bzw. -dichten eines stochastischen Prozesses zeitabhängig. Dies hat zur Folge, dass die Momente Funktionen der Zeit t sind. Die Korrelation und die Kovarianz sind Funktionen der Zeiten t1 und t2 . Wesentliche Vereinfachungen treten ein, wenn sich die statistischen Eigenschaften eines Prozesses bei Verschiebung der Zeitachse nicht ändern. Definition 6.16 Stationarität Ein stochastischer Prozess heißt stationär, wenn seine statistischen Eigenschaften invariant gegenüber Verschiebungen der Zeit sind. Zwei stochastische Prozesse heißen verbunden stationär, wenn beide stationär und ihre gemeinsamen statistischen Eigenschaften invariant gegenüber Verschiebungen der Zeit sind.
196
6. Korrelationsmesstechnik
Stationarität bedeutet, dass die Zeitabhängigkeit der Wahrscheinlichkeitsdichten und die der Momente verschwindet. So gilt FY (y, t) = FY (y, t + t0 ) = FY (y) und fY (y, t) = fY (y, t + t0 ) = fY (y). Abhängigkeiten von zwei Zeitpunkten t1 und t2 vereinfachen sich bei Stationarität auf die Abhängigkeit von der Differenz τ = t2 − t1 dieser Zeitpunkte: fYY (y1 , y2 , t1 , t2 ) = fYY (y1 , y2 , t1 + t0 , t2 + t0 ) = fYY (y1 , y2 , τ ). Für zwei verbunden stationäre Prozesse gilt zusätzlich fXY (x, y, t1 , t2 ) = fXY (x, y, t1 + t0 , t2 + t0 ) = fXY (x, y, τ ). Insbesondere gilt für die Momente erster und zweiter Ordnung: µy,n (t) = E{y n (t)} = µy,n , Ryy (t1 , t2 ) = E{y(t + τ )y(t)} = Ryy (τ ), Rxy (t1 , t2 ) = E{x(t + τ )y(t)} = Rxy (τ ). Definition 6.17 Schwache Stationarität Ein stochastischer Prozess heißt schwach stationär, wenn die Invarianz gegenüber Verschiebungen der Zeit nur für die Momente erster und zweiter Ordnung gilt. Hieraus folgt, dass die Wahrscheinlichkeitsverteilung bzw. -dichte selbst nicht invariant gegenüber einer Zeitverschiebung sind. Nur die Mittelwerte, Korrelationen und Kovarianzen sind nicht vom absoluten Zeitpunkt abhängig. 6.1.5 Ergodische Prozesse Bei der Bestimmung des ersten Moments eines allgemeinen stochastischen Prozesses wird nach Def. 6.9 zu einem festen Zeitpunkt t über die Schar aller möglichen Musterfunktionen yξ (t) gemittelt. Dies nennt man Scharmittelwert. Mittelt man hingegen über alle Zeiten t bei einer festen Musterfunktion yξ0 (t), so spricht man vom Zeitmittelwert. Dieser kann für jede Musterfunktion verschieden sein. Es gibt jedoch eine, für die Anwendung wichtige Klasse von stationären, stochastischen Prozessen, bei denen Scharmittelwerte und Zeitmittelwerte vertauscht werden dürfen. Man nennt derartige Prozesse ergodisch. Definition 6.18 Ergodizität Ein stochastischer Prozess heißt ergodisch, wenn die Zeitmittelwerte einer beliebigen Musterfunktion mit der Wahrscheinlichkeit eins mit den entsprechenden Scharmittelwerten übereinstimmen.
6.1 Stochastische Prozesse
197
Stationarität ist in jedem Fall die Voraussetzung für Ergodizität. Dies geht schon daraus hervor, dass die Momente instationärer Prozesse zeitabhängig sind und somit nicht für alle Zeiten mit den zeitunabhängigen Zeitmittelwerten übereinstimmen können. Definition 6.19 Schwache Ergodizität Ein stochastischer Prozess heißt schwach ergodisch, wenn die Zeitmittelwerte für die Momente erster und zweiter Ordnung einer beliebigen Musterfunktion mit der Wahrscheinlichkeit eins mit den entsprechenden Scharmittelwerten übereinstimmen. Für die praktische Anwendung bringt die Ergodizität große Vorteile mit sich. Es ist nun möglich, sich auf die Untersuchung einer einzigen Musterfunktion zu beschränken. Ihr zeitlicher Verlauf beinhaltet alle statistischen Eigenschaften des zugrunde liegenden stochastischen Prozesses. Allerdings lässt sich der mathematisch strenge Nachweis der Ergodizität höchstens in Sonderfällen erbringen. In den meisten Anwendungen kann daher die Ergodizität des stochastischen Prozesses nur angenommen werden. Für die Berechnung der Momente eines ergodischen Prozesses gelten folgende Regeln, unter Annahme einer festen Musterfunktion yξ0 (t): Satz 6.1 Moment Das n-te Moment eines ergodischen Prozesses berechnet sich als Zeitmittelwert T
µy,n
1 = lim T →∞ 2T
yξn0 (t) dt. −T
Satz 6.2 Korrelation Die Korrelation zweier ergodischer Prozesse berechnet sich entsprechend zu T
1 Rxy (τ ) = lim T →∞ 2T
xξ0 (t + τ )yξ∗1 (t) dt. −T
Satz 6.3 Kovarianz Die Kovarianz zweier ergodischer Prozesse berechnet sich zu T
1 Cxy (τ ) = lim T →∞ 2T
(xξ0 (t + τ ) − µx )(yξ1 (t) − µy ) dt. −T
Anmerkung Natürlich kann der Grenzübergang T → ∞ in praktischen Anwendungen nicht durchgeführt werden. Bei der Bestimmung der Momente ist man daher bei Auswertung der Integrale auf ein endliches Zeitintervall beschränkt. Man erhält daher nur
198
6. Korrelationsmesstechnik
Schätzwerte für die Momente des Prozesses. So wird beispielsweise der Mittelwert durch folgenden Ausdruck geschätzt: t+T
1 y(t) = T
y(t) dt.
(6.1)
t
Man nennt ihn gleitenden Mittelwert (moving average). Er ist, im Gegensatz zum Mittelwert µy im allgemeinen zeitabhängig. Beispiel 6.3 Schwach stationärer, ergodischer Prozess Gegeben sei der Zufallsprozess Y aus Beispiel 6.2 mit Musterfunktionen yi = sin(ωt + ϕi ), wobei die Kreisfrequenz ω fest ist, die Phase ϕi aber rein zufällig ist. Die Phasenwinkel seien gleichverteilt. Der Prozess ist schwach stationär, weil die Erwartungswerte zweiter Ordnung nur von der Differenz der Beobachtungszeitpunkte abhängen. Für den Scharmittelwert erhält man Ryy (t1 , t2 ) = E{sin(ωt1 + ϕ) sin(ωt2 + ϕ)} 2π
=
1 2π
sin(ωt1 + ϕ) sin(ωt2 + ϕ) dϕ 0
1 1 = cos(ωt1 − ωt2 ) = cos(ωτ ) 2 2 ⇒ schwache Stationarität.
mit τ = t1 − t2
Der Prozess ist darüber hinaus auch ergodisch, was man über die Berechnung des Zeitmittelwertes nach Satz 6.2 zeigen kann: T
1 yi (t + τ )yi (t) = lim T →∞ 2T
sin(ωt + ωτ + ϕ) sin(ωt + ϕ) dt −T
⎡ T ⎤ T 1 ⎣ = lim cos(ωτ ) dt − cos(2ωt + ωτ + 2ϕ) dt⎦ T →∞ 4T −T −T : T ; 1 1 = lim 2T cos(ωτ ) − sin(2ωt + ωτ + 2ϕ) T →∞ 4T 2ω −T =
1 1 cos(ωτ ) − lim [sin(2ωT + ωτ + 2ϕ)] T →∞ 4T ω 2
=0
1 = cos(ωτ ) = Ryy (τ ) ⇒ 2 Schar- und Zeitmittelwerte stimmen also überein.
schwache Ergodizität.
6.2 Korrelationsfunktionen
199
Beispiel 6.4 Schwach stationärer, nicht ergodischer Prozess Gegeben sei der Zufallsprozess Y mit folgenden Musterfunktionen yi = ai sin(ωt + ϕi ), wobei die Kreisfrequenz ω fest ist, die Phase ϕi und die Amplitude ai aber rein zufällig sind. Die Phasenwinkel und Amplituden seien gleichverteilt. Aus dem vorherigen Beispiel ergibt sich die Korrelationsfunktion zu Ryy (t1 , t2 ) = E{a sin(ωt1 + ϕ)a sin(ωt2 + ϕ)} = E{a2 }E{sin(ωt1 + ϕ) sin(ωt2 + ϕ)} 1 1 = E{a2 } cos(ωt1 − ωt2 ) = E{a2 } cos(ωτ ) 2 2 ⇒ schwache Stationarität.
τ = t 1 − t2
Führt man die Berechnung der AKF über die Zeitmittelwerte durch so erhält man analog zum obigen Beispiel: T
1 yi (t + τ )yi (t) = lim T →∞ 2T
a2i sin(ωt + ωτ + ϕ) sin(ωt + ϕ) dt −T
1 = a2i cos(ωτ ) = Ryy (τ ). 2 Der Prozess ist nicht ergodisch, da sich Zeit- und Scharmittelwerte unterscheiden.
6.2 Korrelationsfunktionen 6.2.1 Signalklassen Wir haben kennen gelernt, dass die Erhaltungstendenz von stochastischen Prozessen oder deren Musterfunktionen mit Hilfe der Korrelation beschrieben werden kann. Damit gelingt es, zwei zunächst völlig regellose Signale miteinander zu vergleichen. Es soll nun untersucht werden, wie man die Korrelation für verschiedene Signalklassen anwenden kann. Ausgehend von einem allgemeinen stochastischen Prozess, der alle möglichen Zeitfunktionen als Musterfunktionen beinhalten kann, sollen die Musterfunktionen in 3 Klassen gegliedert werden. Wir betrachten zunächst den allgemeinen Fall von Funktionen auf einem Zeitintervall −∞ . . . ∞.
200
6. Korrelationsmesstechnik
Definition 6.20 Energiesignale Ein beschränktes, stückweise stetiges Signal x(t), für das ∞
x(t)x∗ (t) dt < ∞ −∞
gilt, nennt man Energiesignal. Der Name kommt von der physikalischen Interpretation, da das Integral als Energie interpretiert werden kann. Damit die Konvergenz des Integrals gesichert ist, müssen die Signale für große Zeiten verschwinden, lim x(t) = 0.
t→±∞
Typische Vertreter von Energiesignalen sind beispielsweise Impulsantworten stabiler LTI-Systeme. Definition 6.21 Leistungssignale Ein beschränktes, stückweise stetiges Signal x(t), für das das Integral ∞
x(t)x∗ (t) dt −∞
divergiert, jedoch folgender Grenzübergang T
1 lim T →∞ 2T
x(t)x∗ (t) dt < ∞ −T
existiert, nennt man Leistungssignal. Das Integral mit Grenzübergang lässt sich physikalisch als mittlere Leistung interpretieren. Die Klasse der beschränkten, periodischen Signale sind Leistungssignale. Definition 6.22 sonstige Signale Alle Zeitfunktionen, für die die Integrale ∞
T ∗
x(t)x (t) dt −∞
und
1 lim T →∞ 2T
x(t)x∗ (t) dt −T
nicht existieren, nicht stetig oder unbeschränkt sind, werden als sonstige Signale klassifiziert. In die Klasse der sonstigen Signale fällt ein Großteil der Funktionen. Wir wollen uns im weiteren Verlauf nur mit Energie- und Leistungssignalen beschäftigen, da für diese Signale die Analysemethoden der Systemtheorie anwendbar sind.
6.2 Korrelationsfunktionen
201
Ergodische Prozesse: Nach der Unterteilung in Signalklassen soll kurz erläutert werden, welche Signale Musterfunktionen ergodischer Prozesse sein können. Nach Beispiel 6.3 ist eine harmonische Schwingung mit zufälliger Phase ein ergodischer Prozess. Daraus schließt man, dass Leistungssignale Musterfunktionen ergodischer Prozesse sein können. Die Bildung von Zeitmittelwerten ist also erlaubt. Energiesignale hingegen können keine Musterfunktionen ergodischer Prozesse sein, da sie nicht stationär sind! lim x(t) = 0 ⇒ µx,n (t → ∞) = 0
t→±∞
⇒ keine Stationarität. Da nach Voraussetzung Energiesignale für t → ∞ verschwinden, verschwinden auch deren 1. Momente. Damit ist die Zeitunabhängigkeit der Momente für Energiesignale verletzt. Funktionenräume: Für Energie- und Leistungssignale lassen sich Funktionenräume definieren, wenn man als quadratische Norm x(t)2 den jeweiligen konvergierenden Integralausdruck setzt [23]. Definition 6.23 Norm und Innenprodukt für Energiesignale Die quadratische Norm eines Energiesignals ist ∞
x(t)x∗ (t) dt < ∞.
x(t) = 2
−∞
Für das Innenprodukt gilt ∞
x(t)y ∗ (t) dt.
x(t), y(t) = −∞
Definition 6.24 Norm und Innenprodukt für Leistungssignale Die quadratische Norm eines Leistungssignals ist T
1 x(t) = lim T →∞ 2T
x(t)x∗ (t) dt < ∞.
2
−T
Für das Innenprodukt gilt T
1 x(t), y(t) = lim T →∞ 2T
x(t)y ∗ (t) dt. −T
202
6. Korrelationsmesstechnik
In beiden Funktionenräumen gilt die Schwarzsche Ungleichung, die hier ohne Beweis angegeben wird (Beweis in [23]). Satz 6.4 Schwarzsche Ungleichung |x(t), y(t)|2 ≤ x(t)2 · y(t)2 . In der praktischen Anwendung ist ein Zeitintervall −∞ . . . ∞ zur Messung von Signalen nicht möglich. Man wird es daher immer mit zeitbegrenzten Funktionen zu tun haben. Im endlichen Zeitintervall t1 . . . t2 konvergiert das Integral t2
x(t)x∗ (t) dt < ∞. t1
für beschränkte stückweise stetige Funktionen immer. Für die spätere Anwendung geht man aber implizit von einer periodischen Fortsetzung des Signals außerhalb des Zeitintervalls über alle Zeiten aus (Fourier-Reihe, DFT). Dadurch lassen sich die Signale in die Klasse der Leistungssignale einordnen. Die folgende Tabelle gibt einen Überblick über die Signalklassen und die möglichen Verfahren zur Signalanalyse. Tabelle 6.1. Signalklassen und Verfahren, ⊗: zulässig, [⊗]Dist eingeschränkt zulässig, unter Verwendung der Distributionstheorie, ∗) Korrelation nicht im statistischen Sinn Energiesignale
Leistungssignale
Sonstige
⊗
⊗
⊗
Stochastik
⊗
Ergodizität ⊗∗)
Korrelation mit Zeitfunktion
⊗ ⊗
Fourier-Reihe Fourier-Transformation
⊗
[⊗]Dist
zeitdiskrete Fourier-Transformation
⊗
[⊗]Dist
diskrete Fourier-Transformation
⊗
⊗
6.2.2 Korrelation für Leistungssignale Für Leistungssignale ist die Kreuzkorrelation definiert über das Innenprodukt: Rxy (τ ) = x(t + τ ), y(t) T /2
1 = lim T →∞ T
x(t + τ )y ∗ (t)dt. −T /2
(6.2)
6.2 Korrelationsfunktionen
203
Diese Definition ist identisch mit der Berechnung der Korrelation ergodischer Prozesse nach Satz 6.2. Dies ist auch nicht weiter verwunderlich, da wir zuvor festgestellt haben, dass Leistungssignale Musterfunktionen ergodischer Prozesse sein können. Nach der Schwarzschen Ungleichung |x(t + τ ), y(t)|2 ≤ x(t)2 · y(t)2 gilt 2 T /2 T /2 1 1 ∗ x(t + τ )y (t)dt ≤ lim x(t + τ )x∗ (t + τ )dt · lim T →∞ T T →∞ T −T /2 −T /2 T /2
1 · lim T →∞ T
y(t)y ∗ (t)dt, −T /2
|Rxy (τ )| ≤ Px · Py < ∞. 2
(6.3)
Das bedeutet, das Betragsquadrat des Innenproduktes der Leistungssignale x(t) und y(t) ist kleiner gleich dem Produkt der Signalleistungen Px · Py . Die Leistung eines Signals erhält man mit der Autokorrelationsfunktion für τ = 0: Rxx (0) = x(t), x(t) = x(t)2 = Px . Beispiel 6.5 Korrelation zweier Leistungssignale Gegeben sind die beiden Signale x(t) = sin(2πf0 t),
y(t) = cos(2πf0 t).
Die Kreuzkorrelation für Leistungssignale ist nach Gl.(6.2) T /2
1 Rxy (τ ) = lim T →∞ T
x(t + τ )y ∗ (t)dt −T /2 T /2
1 = lim T →∞ T :
sin(2πf0 (t + τ )) cos(2πf0 t)dt −T /2
T /2 1 sin2 (2πf0 t) + T →∞ 4πf0 T −T /2 T /2 ; 1 t + sin(2πf0 τ ) + sin(4πf0 t) 2T 8πf0 T −T /2
= lim
=
cos(2πf0 τ )
1 sin(2πf0 τ ). 2
(6.4)
204
6. Korrelationsmesstechnik
6.2.3 Korrelation für Energiesignale Da Energiesignale nicht zu den ergodischen Prozessen gehören, ist die Berechnung einer Korrelation nach Satz 6.2 nicht möglich. Für die wichtige Anwendung des Signalvergleichs lässt sich aber auch für Energiesignale eine Korrelationsfunktion über das Innenprodukt angeben. Das Innenprodukt ist für quadratisch integrierbare Funktionen x(t) und y(t) E (τ ) = x(t + τ ), y(t) Rxy ∞
x(t + τ )y ∗ (t) dt < ∞.
=
(6.5)
−∞ E (τ ) kennzeichnet die abweichende Berechnungsvorschrift und Der Zusatz E in Rxy die Tatsache, dass es sich hier nicht mehr um eine Korrelationsfunktion im stochastischen Sinn handelt. Vielfach spricht man bei Gl.(6.5) auch von Impulskorrelation, da es sich bei Energiesignalen im allgemeinen um Impulsantworten stabiler LTISysteme handelt.
Die Korrelation in Gl.(6.5) kann auch als Faltung interpretiert werden: E (τ ) = x(τ ) ∗ y ∗ (−τ ). Rxy
(6.6)
Die Autokorrelationsfunktion ∞ E (τ ) Rxx
x(t + τ )x∗ (t) dt
= x(t + τ ), x(t) =
(6.7)
−∞
ist für τ = 0 E (0) = x(t), x(t) = x(t)2 = Ex Rxx
(6.8)
gerade gleich der Signalenergie. Aufgrund der Schwarzschen Ungleichung
|x(t + τ ), y(t)|2 ≤ x(t)2 · y(t)2 , ∞ ∞ ∗ x(t + τ )y (t)dt ≤ x(t)x∗ (t)dt ·
−∞
−∞
E (τ )|2 |Rxy
∞
y(t)y ∗ (t)dt,
−∞
≤ Ex · Ey < ∞
konvergiert das Korrelationsintegral, wenn x(t) und y(t) eine endliche Norm besitzen, d.h. eine endliche Signalenergie haben. Für Energiesignale geht die Energiedichte im Zeitbereich sxx (t) = x(t)x∗ (t) = |x(t)|2
6.2 Korrelationsfunktionen
205
für große Zeiten gegen Null, weil nur so das Integral konvergiert, lim sxx (t) = 0.
t→±∞
Das gleiche gilt für die Energiedichte im Frequenzbereich: lim Sxx (f ) = 0.
f →±∞
Aufgrund der Parsevalschen Beziehung ist die Signalenergie ∞
∞
sxx (t)dt = x(t) = X(f ) = 2
Ex =
2
−∞
Sxx (f )df.
(6.9)
−∞
E (τ ) konvergiert auch dann, wenn nur eines der beiden Das Korrelationsintegral Rxy Signale x(t) oder y(t) ein Energiesignal ist. Das liegt daran, dass das eine Energiesignal den Integranden x(t + τ )y ∗ (t) für große Zeiten t zu Null werden lässt. Das Energiesignal im Produkt x(t + τ )y ∗ (t) wirkt für das zweite Signal mit unendlich hoher Energie (Leistungssignal) als Fensterfunktion.
Beispiel 6.6 Korrelation von Energie–und Leistungssignal Gegeben sind die beiden Signale x(t) = rT (t),
y(t) = sin(2πf0 t).
Die Signalenergien sind nach Gl.(6.9) ∞
T /2
rT2 (t)dt
Ex = −∞
= −T /2
1 1 dt = , 2 T T
∞
sin2 (2πf0 t)dt =
Ey = −∞
∞ 1 1 t− sin(4πf0 t) = ∞. 2 8πf0 −∞
Dabei ist zu beachten, dass die Fensterfunktion rT (t) auf die Fläche 1 normiert ist, nicht auf die Signalenergie 1. Die Kreuzkorrelation der beiden Signale ist ∞ E (τ ) = Rxy −∞
1 rT (t + τ ) sin(2πf0 t)dt = T
sin(πf0 T ) = sin(2πf0 τ ) . πf0 T
T 2
+τ
sin(2πf0 t)dt − T2
+τ
206
6. Korrelationsmesstechnik
6.2.4 Eigenschaften Im folgenden werden die wichtigsten Eigenschaften der Korrelationsfunktionen stationärer Prozesse zusammengefasst. Die Darstellung erfolgt für allgemeine, komplexwertige Prozesse.
Tabelle 6.2. Eigenschaften von Auto- und Kreuzkorrelation Eigenschaften der Autokorrelationsfunktion Maximalwert:
8
Rxx (0) = σx2 + µ2x
Rxx (τ )
=
∗ Rxx (−τ )
lim Rxx (τ )
=
µ2x
Rxx (τ )
=
Rxx (τ + T )
Symmetrie: Unkorreliertheit für |τ | → ∞:
9
≤
Rxx (τ )
|τ |→∞
Periodische Funktionen (Periode T ):
Eigenschaften der Kreuzkorrelationsfunktion Maximalwert:
8
1
Rxy (τ )
=
∗ ∗ Ryx (−τ ) = Rxy (−τ )
lim Rxy (τ )
=
µx · µ∗y
Rxy (τ )
=
µx · µ∗y
Symmetrie: Unkorreliertheit für |τ | → ∞: Unkorreliertheit von x(t) und y(t):
9
≤
Rxy (τ )
|τ |→∞
/2(Rxx (0) + Ryy (0))
∀τ
Die Maximalwerte der Korrelation lassen sich durch folgende, immer positive Größe abschätzen: 9 8 E |x(t + τ ) − y(t)|2 ≥ 0. Beweis: Spaltet man die Erwartungswerte auf, so führt dies auf 8 9 8 9 8 9 8 9 E |x(t + τ )|2 −E x(t + τ )y ∗ (t) −E x∗ (t + τ )y(t) +E |y(t)|2 ≥ 0,
[x(t+τ )y ∗ (t)]∗
* 8 9 8 9 8 9+ E |x(t + τ )|2 + E |y(t)|2 ≥ 2 E x(t + τ )y ∗ (t) , 9 8 1 Rxy (τ ) ≤ (Rxx (0) + Ryy (0)). 2 Für die Autokorrelation folgt mit y(t) = x(t) 8 9 Rxx (τ ) ≤ Rxx (0).
6.3 Anwendung der Korrelation
207
Die Symmetrie der Autokorrelation Rxx (τ ) bezüglich τ = 0 kann durch Substitution von t = t + τ gezeigt werden. Die Substitution ist erlaubt, da Rxx (τ ) nicht vom absoluten Zeitpunkt t abhängig ist, 8 9 8 9 8 9 E x(t + τ )x∗ (t) = E x(t )x∗ (t − τ ) = E [x(t − τ )x∗ (t )]∗ . Daraus folgt unmittelbar die Symmetrieeigenschaft ∗ (−τ ). Rxx (τ ) = Rxx
Sind zwei Größen unkorreliert, so zerfällt nach Def. 6.15 das Moment 2.Ordnung in das Produkt zweier Momente 1. Ordnung. Es gilt dann für die Korrelation zweier unkorrelierter Größen 8 9 8 9 8 9 E x(t + τ )y ∗ (t) = E x(t + τ ) · E y ∗ (t) . Sind die Signale x(t) und y(t) unkorreliert so folgt daraus 8 9 8 9 Rxy (τ ) = E x(t + τ ) · E y ∗ (t) = µx µ∗y . Die Unkorreliertheit gilt meist nur für τ → ∞, da dann weit auseinander liegende Signalwerte keine Verwandtschaft mehr besitzen. Periodische Signale sind auch für τ → ∞ nicht unkorreliert!
6.3 Anwendung der Korrelation Im folgenden werden einige wichtige Anwendungen der Korrelationsfunktionen in der Messtechnik vorgestellt. Auf die Vielzahl der Anwendungen im Bereich der Signalübertragung und Nachrichtentechnik kann in diesem Rahmen aber nicht eingegangen werden. 6.3.1 Messung von Korrelationsfunktionen Korrelationsfunktionen sind mathematisch und nicht durch eine (physikalische) Messvorschrift definiert. Durch Messungen lassen sich daher immer nur Schätzwerte bestimmen. Hierbei tritt eine Reihe von Schwierigkeiten auf, die in dem Gegensatz zwischen mathematischer Definition und messtechnischen Möglichkeiten begründet liegen. 1. Aus der Schar der Musterfunktionen eines Zufallsprozesses ist in der Regel nur eine einzelne Musterfunktion y(t) für eine Messung verfügbar. 2. Anstelle des Scharmittelwertes muss folglich ein Zeitmittelwert gemessen werden.
208
6. Korrelationsmesstechnik
3. Bei Messungen in Echtzeit, d.h. von nicht zuvor aufgezeichneten Signalen, lassen sich die momentanen Signalwerte nur mit Werten aus der Vergangenheit verknüpfen (kausales System). Es lassen sich also nur negative Werte von τ realisieren. 4. Die Messung ist auf ein endliches Zeitintervall beschränkt. Der erste Punkt dieser Einschränkung bereitet formal dann keine Schwierigkeiten, wenn der zugrundeliegende Prozess ergodisch ist. In diesem Fall kann eine beliebige Musterfunktion für die Messung benutzt werden. Darf für den Prozess Ergodizität nicht angenommen werden, so schließt das nicht aus, dass einzelne Musterfunktionen –aber eben nicht alle möglichen Musterfunktionen –repräsentativ für den Prozess sind. Eine geeignete Auswahl ist notwendig. Der zweite Punkt hängt eng mit dem ersten zusammen. Für einzelne Musterfunktionen lassen sich nur Zeitmittelwerte bestimmen, was bei ergodischen Prozessen keine Einschränkung bedeutet. Es bedeutet aber, dass Korrelationsfunktionen nur für stationäre Prozesse gemessen werden können. Nur die Korrelation für Energiesignale erlaubt für diese spezielle Signalklasse die Messung einer Korrelation für nicht stationäre Signale. Die Echtzeitmessung (dritter Punkt) verlangt negative Zeitverschiebungen τ . Dies stellt aber in sofern keine Einschränkung dar, weil die Symmetrieeigenschaften der Korrelationsfunktionen bekannt sind. Der vierte Punkt enthält das schwerwiegendste Problem bei der Messung aller statistischen Kenngrößen: Die Messung muss nach endlicher Zeit abgebrochen werden. Bei der Messung von Korrelationen bedeutet dies, dass nur Kurzzeitkorrelationsfunktionen gemessen werden können. Man erhält damit einen Schätzwert ˆ xx (τ ) für die Korrelation, der selbst wieder eine Zufallsgröße ist: R T
ˆ xx (τ ) = 1 R T
x(t + τ )x∗ (t) dt. 0
Heute wird die Korrelation meist in einem Rechner ermittelt. Dabei stehen nur N zeitdiskrete Abtastwerte xn des Signals x(t) zur Verfügung. Die Korrelation wird dabei durch die Summe der Abtastwerte geschätzt [21], ˆ xx (k) = 1 R N
N −1−k n=0
xn+k x∗n
mit |k| = 0, 1, 2, . . . M N.
6.3 Anwendung der Korrelation
209
6.3.2 Ähnlichkeit von Signalen, Laufzeitmessung Die Kreuzkorrelation ist ein Maß für die Ähnlichkeit zweier um τ zeitverschobener, reeller Signale x(t) und y(t). Die Distanz der beiden Signale ist die quadratische Norm x(t + τ ) − y(t)2 = x(t + τ ) − y(t), x(t + τ ) − y(t) = x(t + τ ), x(t + τ ) + y(t), y(t) − x(t + τ ), y(t) − y(t), x(t + τ )
2 {x(t+τ ),y(t) }=2 {Rxy (τ )}
= x(t)2 + y(t)2 − 2{Rxy (τ )}.
(6.10)
Bei minimaler Distanz der Signale ist deren Ähnlichkeit maximal, d.h. die Kreuzkorrelation Rxy (τ ) hat ihr Maximum. Für reelle Signale kann die Kreuzkorrelation abgeschätzt werden: x(t + τ ) − y(t)2 ≥ 0, x(t)2 + y(t)2 − 2{Rxy (τ )} ≥ 0 Rxx (0)
Ryy (0)
⇒ Rxy (τ ) ≤
1 (Rxx (0) + Ryy (0)). 2
(6.11)
Für die Autokorrelation gilt, dass sie bei der Verschiebung τ = 0 ihr Maximum erreicht: Rxx (τ ) ≤ Rxx (0).
(6.12)
Die normierte Kreuzkorrelation, welche die Ähnlichkeit zweier zeitlich gegeneinander verschobener Funktion bewertet, heißt Kreuzkorrelationskoeffizient: ˆ xy (k) R Rxy,norm = 0 . ˆ xx (0) · R ˆ yy (0) R
(6.13)
Beispiel 6.7 Orten von Leckagen mit Körperschall-Mikrofonen Eine Anwendung, die ihre praktische Bewährungsprobe bestanden hat, ist die Leckortung an in der Erde verlegten Wasser- oder Gasleitungen. Abbildung 6.2 zeigt das Messprinzip. Zwei Körperschall-Mikrofone sind in bekanntem Abstand l, vorzugsweise an den Schiebern, akustisch an die defekte Rohrleitung gekoppelt. Das ausströmende Medium erzeugt an der Leckstelle Geräusche, die über die Rohrleitung zu den beiden Mikrofonen geleitet werden. Die Schallgeschwindigkeit c wurde vorab an einer anderen Rohrleitung ähnlicher Bauart aufgenommen, und ist deshalb
210
6. Korrelationsmesstechnik
R xy
Korrelator τ
y(t)
x(t)
Sensor A
Sensor B
Leckage
u( t )
ly
lx
l Abbildung 6.2. Anordnung zum Orten von Leckagen an unterirdischen Rohrleitungen mit Hilfe von Körperschall-Mikrofonen
bekannt. Das Geräusch an der Leckstelle u(t) wird auf den Wegen lx und ly zu den beiden Mikrofonen verzögert, also lx ), c ly y(t) = u(t − ). c
x(t) = u(t −
Der Gesamtabstand l = lx + ly der Mikrofone ist bekannt. Eine der beiden Längen, z.B. ly , soll durch die Kreuzkorrelation
6.3 Anwendung der Korrelation
211
T
ˆ xy (τ ) = 1 R 2T
x(t + τ )y(t) dt −T
ˆ xy (τ ) ist dabei der Schätzwert für die Kreuzkorrelation Rxy (τ ), bestimmt werden. R da die Integration auf ein endliches Intervall 2T beschränkt ist. Durch das Einsetzen des ursprünglichen Geräusches u(t) erhält man die Korrelationsfunktion T
ˆ xy (τ ) = 1 R 2T
u(t + τ − −T
ly lx )u(t − ) dt, c c
die ihr Maximum bei der Laufzeitdifferenz τ=
lx ly l − 2ly − = c c c
hat. Durch Ausmessen der Zeit τ erhält man den Ort der Leckage zentimetergenau zu ly =
1 (l − τ c), 2
ohne umfangreiche Ausgrabungen vornehmen zu müssen. Für τ = 0 wäre die Laufzeitdifferenz gerade Null, das Leck läge dann in der Mitte der Strecke l. Abbildung 6.3 zeigt die Korrelationsfunktion einer typischen Messung. ^ (τ) R xy
0
τ
Abbildung 6.3. Typische Korrelationsfunktion bei der Ortung von Leckagen
Beispiel 6.8 Berührungslose Geschwindigkeitsmessung Eine weitere Anwendung der Laufzeitkorrelation ist die berührungslose Geschwindigkeitsmessung. Abbildung 6.4 zeigt die Anordnung zur Geschwindigkeitsmessung von Schüttgut auf einem Förderband. Dazu werden zwei Lichtquellen und zwei optische Sensoren im festen Abstand d montiert. Sie messen die Reflexionen des Schüttgutes an der jeweiligen Sensorposition. Die gemessenen Signale sind ähnlich. Im Idealfall ist das zweite Signal y(t) lediglich um die Laufzeit τ des Förderbandes gegenüber dem ersten Signal x(t) verschoben,
212
6. Korrelationsmesstechnik d Lichtquelle Sensor 2
Lichtquelle Sensor 1
y(t)
x(t)
h
v
Abbildung 6.4. Modell eines Förderbandes zur berührungslosen Geschwindigkeitsmessung über das Laufzeitkorrelationsverfahren
y(t) = x(t − τ ). Das Maximum der Kreuzkorrelation erhält man genau für diese Zeitverschiebung τmax = τ, woraus sich die Fördergeschwindigkeit v=
d τmax
berechnen lässt. Das Verfahren findet Anwendung zur Messung der Transportgeschwindigkeit von Walzgut, Papier oder Textilien, aber auch zur Messung der Strömungsgeschwindigkeit von Gasen oder Flüssigkeiten [28]. 6.3.3 Closed-loop Korrelator, Polaritätskorrelation Das vorgestellte Verfahren zur Laufzeitkorrelation hat in einigen Anwendungen mehrere gravierende Nachteile. 1. Das Ergebnis der Korrelation steht immer erst am Ende des Integrationsintervalles T
ˆxy (τ ) = 1 R 2T
x(t + τ )y(t) dt −T
zur Verfügung. Die Bestimmung des Zeitpunktes τmax ist dadurch sehr träge. Für veränderliche Transportgeschwindigkeiten in Beispiel 6.8 ist das Verfahren nur schlecht geeignet.
6.3 Anwendung der Korrelation
213
“Laufzeit” x(t)
y(t) Gütemaß
tmax
e(t) Modell
t
-
E{e2}=min
x(t-t) Strategie
Abbildung 6.5. Schätzung der Verzögerungszeit τ beim Laufzeitkorrelator
2. Das Verfahren ist numerisch sehr aufwendig. Zum einen müssen die Produkte der zeitverschobenen Signale x(t+τ )·y(t) gebildet werden, zum anderen muss nach der Integration noch eine Maximumsuche durchgeführt werden. Zur Verbesserung des Verfahrens interpretiert man die Laufzeitkorrelation als Identifikationsproblem für die unbekannte Laufzeit τmax = τ [28]. Damit ergibt sich die in Abb. 6.5 dargestellte Blockstruktur. Die wahre Laufzeit τmax wird mit einer Modelltotzeit τ verglichen. Diese wird entsprechend einer Strategie so lange verstellt, bis ein Gütemaß ein Minimum erreicht. Als Gütefunktion wählt man den Erwartungswert des quadratischen Fehlers Q = E{e2 (t, τ )}
⇒ min,
der bezüglich τ minimiert werden soll. Mit e(t) = y(t) − x(t − τ ) erhält man durch Differentiation von Q die notwendige Bedingung für ein Minimum: dQ d E{e2 (t, τ )} de(t, τ ) = = 2E{e(t, τ ) · }=0 dτ dτ dτ oder nach Einsetzen von e(t) und e(t) ˙ E{[y(t) − x(t − τ )]x(t ˙ − τ )} = 0.
(6.14)
Der Erwartungswert aus Gl.(6.14) hat links und rechts vom Abgleichpunkt τmax = τ verschiedene Vorzeichen und verhält sich damit wie die Regelabweichung eines normalen Regelkreises. Damit kann die Maximumsuche in eine einfache Regelung für τ überführt werden (Abb. 6.6). Die Erwartungswertbildung wird von einem Integralregler übernommen, der die Modelltotzeit τ verstellt. Der Regler arbeitet also als Nachlaufkorrelator oder Laufzeit-Tracker. Er sucht die Laufzeit τmax = τ und verfolgt sie bei Änderungen. Veränderliche Transportgeschwindigkeiten in Beispiel 6.8 können damit schneller erfasst werden. Wegen der Regelkreisstruktur des Korrelators nennt man das Verfahren auch closed-loop Korrelator.
214
6. Korrelationsmesstechnik
“Laufzeit”
Differenzierer
x(t)
y(t)
e(t)
−
τmax
d dt
Modell
τ
Multiplizierer
x(t-τ) Ti
Integrator Abbildung 6.6. Schätzung der Verzögerungszeit τ im geschlossenen Regelkreis durch Ableitung der Korrelationsfunktion
Differentiation der KKF: Der Erwartungswert aus Gl.(6.14) soll nun nochmals genauer betrachtet werden. Bekanntlich lässt sich das Maximum einer Funktion durch Differentiation bestimmen. Für die Kreuzkorrelation, deren Maximum für die Laufzeitmessung gesucht ist, gilt: dRxy (τ ) = R˙ xy (τ ) = 0 dτ
⇒ max
für τmax = τ.
Für die Ableitung der Korrelationsfunktion kann man analog zu Gl.(8.6) R˙ xy (τ ) = −Rxy˙ (τ ). schreiben. Multipliziert man Gl.(6.14) aus, so erhält man E{x(t ˙ − τ )y(t)} − E{x(t ˙ − τ )x(t − τ )} = 0, Rxy (−τ ) − R ˙ xx˙ (τ = 0) = 0. Da die Autokorrelation allgemein eine gerade Funktion mit dem Maximum bei τ = 0 ist, folgt daraus für die Ableitung der Korrelationsfunktion R˙ xx (τ = 0) = 0 = Rxx˙ (0) = E{x(t)x(t)} ˙ = 0. Daraus folgt schließlich ˙ Rxy ˙ (−τ ) = Ry x˙ (τ ) = Ryx (τ ) = 0. Die Bildung des Erwartungswert nach Gl.(6.14) ist identisch mit der Differentiation der Kreuzkorrelation.
6.3 Anwendung der Korrelation
215
Polaritätskorrelator: Der closed-loop Korrelator vermeidet die vollständige numerische Berechnung der Kreuzkorrelation und erlaubt die Anpassung an sich ändernde Laufzeiten τmax . Nur die Produkte der zeitverschobenen Signale x(t + τ ) · y(t) müssen noch gebildet werden, was numerisch immer noch aufwendig ist. Abhilfe schafft der Polaritätskorrelator, der mit 1-Bit quantisierten Signalen arbeitet. Es kann gezeigt werden, dass unter bestimmten Voraussetzungen statistische Eigenschaften von quantisierten Signalen mit denen von kontinuierlichen übereinstimmen (Abschn. 7.2, [49, 50]). Insbesondere bleibt bei der Polaritätskorrelation die Lage des Maximums erhalten, so dass daraus weiterhin die Laufzeit bestimmt werden kann (Abb. 6.7). Die Polaritätskorrelation für abgetastete Signale lautet für τ = kta N −1−k ˆ xy (k) = 1 R sign[xn+k ]sign[yn∗ ] mit |k| = 0, 1, . . . M N. (6.15) N n=0
Kontinuierliche Signale
Quantisierte Signale
1 x(t)
x(t)
2 0 −2
−1 t
0
t
0
1 y(t)
2 y(t)
0
0 −2
0 −1
0
Kreuzkorrelation Rxy(τ)
t
0
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
−0.2 0
τmax
τ
−0.2 0
^ (τ) Polaritätskorrelation R xy
τmax
t
τ
Abbildung 6.7. Vergleich zwischen der Kreuzkorrelation kontinuierlicher Signale und der Polaritätskorrelation von 1-Bit quantisierten Signalen
Durch die 1-Bit Quantisierung reduziert sich die Multiplikation der zeitverschobenen Signale auf einfache Operationen, die mit Hilfe von logischen Gattern realisiert werden können. Abbildung 6.8 zeigt das Prinzipbild eines Laufzeitkorrelators mit Polaritätskorrelation. Die Modellaufzeit τ wird durch ein einfaches Schieberegister implementiert, welches durch eine variable Taktfrequenz angesteuert wird. Dazu muss der Ausgang des Integrators in eine entsprechende Frequenz umgesetzt werden. Dies kann z.B. mit einem VCO (Voltage Controlled Oscillator) erfolgen.
216
6. Korrelationsmesstechnik
x(t)
y(t) Laufzeit d dt
SchwellwertDetektoren
+
Schieberegister
Logik
Ti
u/f
Integrator
variable Taktfrequenz
Abbildung 6.8. Laufzeitkorrelator mit Polaritätskorrelation und Realisierung der Modellaufzeit als getaktetes Schieberegister
6.3.4 Ähnlichkeit von Spektren, Dopplermessung In Analogie zur Korrelationsfunktion Rxy (τ ) für um τ zeitverschobene Signale kann im Frequenzbereich eine Korrelationsfunktion XY (ϑ) für um ϑ frequenzverschobene Signale definiert werden: XY (ϑ) = X(f + ϑ), Y (f ) ∞
X(f + ϑ)Y ∗ (f )df < ∞.
=
(6.16)
−∞
Sie ist ein Maß für die Ähnlichkeit der Spektren X(f + ϑ) und Y (f ). Die Distanz der Spektren ist analog zu Gl.(6.10) X(f + ϑ) − Y (f )2 = X(f + ϑ), X(f + ϑ) + Y (f ), Y (f ) − 2{X(f + ϑ), Y (f )} = X(f )2 + Y (f )2 − 2{XY (ϑ)}. Nach dem Satz von Parseval ist ∞
x(t)e−j2πϑt y ∗ (t)dt = x(t)e−j2πϑt , y(t).
XY (ϑ) = −∞
Die Frequenzverschiebung des Spektrums entspricht einer Modulation des Signals im Zeitbereich.
6.3 Anwendung der Korrelation
217
Beispiel 6.9 Geschwindigkeitsmessung über Dopplereffekt Es soll eine berührungslose Geschwindigkeitsmessung durchgeführt werden. Abbildung 6.9 zeigt die prinzipielle Anordnung zur Messung einer Strömungsgeschwindigkeit. Eine Ultraschall-Sonde sendet ein Signal x(t) mit einer Frequenz f0 in das Medium. Die Schallwellen werden vom Medium gestreut und können an der Sonde als y(t) wieder empfangen werden. Durch die Relativbewegung ergibt sich nach dem Dopplereffekt eine Frequenzverschiebung am Empfänger.
Ultraschall- Sonde α Empfänger Sender
v i cos α
y(t) x(t) vi
vi
α
Abbildung 6.9. Geschwindigkeitsmessung nach dem kontinuierlichen Doppler-Verfahren
Bewegt sich der Empfänger mit der Relativgeschwindigkeit v auf den ruhenden Sender zu, so gilt für die registrierte Frequenz v f = f0 1 + . c Die Sendefrequenz ist dabei f0 , die Schallgeschwindigkeit im Medium ist c. Ruht der Empfänger und bewegt sich der Sender auf den Empfänger zu, so gilt für die registrierte Frequenz 1 f = f0 . 1 − vc Bei der Geschwindigkeitsmessung trifft der Ultraschall auf ein Teilchen i mit der Relativgeschwindigkeit vi cos α. Das bewegte Teilchen streut den Ultraschall, ist also gleichzeitig Empfänger und Sender. Das Echo trifft auf den ruhenden Empfänger. Die registrierte Frequenz wird damit f = f0
1 + vci cosα . 1 − vci cos α
Für kleine Strömungsgeschwindigkeiten vi c kann der Nenner in eine geometrische Reihe entwickelt werden. Damit erhält man die Frequenz des empfangenen Signals
218
6. Korrelationsmesstechnik ∞ n vi vi cos α . f = f0 1 + cos α · c c n=0
Berücksichtigt man nur die linearen Terme von vi so lässt sich die Empfangsfrequenz f als Summe der Sendefrequenz f0 und einer Frequenzverschiebung fi darstellen, vi f ≈ f0 1 + 2 cos α = f0 + fi . c Das Empfangssignal ist damit proportional zum frequenzverschobenen Sendesignal Y (f ) = k · X(f + fi ). Das Maximum der Korrelationfunktion der Signalspektren ∞
XY (ϑ) = k ·
X(f + ϑ)X ∗ (f + fi )df
−∞
ergibt sich gerade für ϑ = fi , woraus sich die Strömungsgeschwindigkeit berechnen lässt: vi = ϑ
c . 2f0 cos α
6.3.5 Selbstähnlichkeit Die Autokorrelation eignet sich sehr gut zum Auffinden von periodischen Signalanteilen, die im Vergleich zu einem Störsignal sehr klein sind. Abbildung 6.10 zeigt im Signal x(t) keine sichtbare periodische Schwingung. Es sei Y(t, ξ) = X(t, ξ) + N(t, ξ) ein stochastischer Prozess, der sich aus einem periodischen Anteil X(t, ξ) nach Beispiel 6.3 mit xi (t) = sin(ωt + ϕi ) und einem mittelwertfreien Rauschen N(t, ξ) zusammensetzt. Beide Signale stammen aus nicht gekoppelten Quellen und dürfen daher als unkorreliert angenommen werden. Dann gilt: Ryy (τ ) = Rxx (τ ) + Rnn (τ ) 1 = cos(ωτ ) + Rnn (τ ). 2 Rxx (τ ) ist periodisch, während Rnn (τ ) auch bei nicht idealem weißen Rauschen für große τ verschwindet:
6.4 Leistungsdichtespektrum
Rnn (τ ) ≈ 0,
219
τ = 0.
Es gilt daher für große τ Ryy (τ ) ≈ Rxx (τ ) =
1 cos(ωτ ), 2
τ = 0.
Das Verfahren kann beispielsweise zum Auffinden von Brummstörungen in elektrischen Signalen, zur Schwingungsanalyse oder auch zur rechtzeitigen Diagnose von Maschinenschäden eingesetzt werden [1]. x(t)
t
Rxx( )
Abbildung 6.10. Signal einer im Rauschen verschwundenen harmonischen Schwingung und die zugehörige Autokorrelationsfunktion
6.4 Leistungsdichtespektrum Bei der Beschreibung von Signalen und der dynamischen Eigenschaften von Systemen ist die Beschreibung im Frequenzbereich mit Hilfe von Laplace- und FourierTransformation von großer Hilfe. Für Musterfunktionen stationärer Prozesse existiert im allgemeinen das Fourier-Integral nicht, da sie für |t| → ∞ nicht abklingen. Abhilfe schafft die Transformation der Korrelationsfunktion. Hierbei werden die Eigenschaften des Prozesses zuerst durch Erwartungswertbildung im Zeitbereich ermittelt und dann durch Fourier-Transformation im Frequenzbereich dargestellt. Dadurch wird die Systemanalyse in LTI-Systemen ermöglicht.
220
6. Korrelationsmesstechnik
Definition 6.25 Autoleistungsdichtespektrum Das Autoleistungsdichtespektrum ist die Fourier-Transformierte der Autokorrelationsfunktion: ∞
Rxx (τ )e−j2πf τ dτ.
Sxx (f ) = −∞
Definition 6.26 Kreuzleistungsdichtespektrum Das Kreuzleistungsdichtespektrum (kurz Kreuzspektrum) ist die Fourier-Transformierte der Kreuzkorrelationsfunktion: ∞
Rxy (τ )e−j2πf τ dτ.
Sxy (f ) = −∞
Der Zusammenhang zwischen der Autokorrelationsfunktion und dem Autoleistungsdichtespektrum wird in der Literatur oft auch als Transformation von Wiener und Khintchine bezeichnet. Die Umkehrung der Definitionen 6.25 und 6.26 erhält man nach den Regeln der Fourier-Transformation: ∞
Sxx (f )ej2πf τ df,
Rxx (τ ) = −∞ ∞
Sxy (f )ej2πf τ df.
Rxy (τ ) = −∞
Der Begriff Leistungsdichte kommt daher, dass Sxx (f ) die Leistungsverteilung über den Frequenzen f darstellt. Integriert man Sxx (f ) über einen Frequenzbereich f1 ≤ f ≤ f2 , so ist das Ergebnis proportional zur Leistung des Prozesses in diesem Bereich. Insbesondere gilt Satz 6.5 Leistung Die Leistung Px eines Zufallsprozesses oder eines Leistungssignals ist ∞
Px = E{x(t)2 } = Rxx (0) =
Sxx (f ) df. −∞
Anmerkung 1. Genau genommen müsste man in Satz 6.5 von einer mittleren Leistung des Signals sprechen, da sich die Berechnung der Leistung über alle Zeiten erstreckt. Es wird aber, wie in der Literatur üblich nur der Begriff der Leistung verwendet. Streng hiervon zu unterscheiden ist die Momentanleistung, die über ein begrenztes Zeitintervall ermittelt wird und nicht aus dem Leistungsdichtespektrum eines Signals ermittelt werden kann.
6.4 Leistungsdichtespektrum
221
2. Korrekterweise müsste man noch ein Energiedichtespektrum für die FourierTransformierte der Korrelationsfunktion für Energiesignale einführen, ∞ E (f ) Sxx
E Rxx (τ )e−j2πf τ dτ.
= −∞
Die Unterscheidung in Energie- und Leistungsdichtespektrum wird im weiteren Verlauf allerdings unterlassen, da im Spektralbereich nicht mehr festgestellt werden kann, ob das Spektrum von einem Energie- oder Leistungssignal stammt. Es wird daher nur noch von Leistungsdichtespektren gesprochen. In Gl.(6.6) wurde die Korrelation von Energiesignalen durch eine Faltungsoperation dargestellt. Die Faltung entspricht im Frequenzbereich einer Multiplikation, und man erhält: E Rxx (τ ) = x(τ ) ∗ x∗ (−τ ) ◦| • E Sxx (f ) = X(f )X ∗ (f ) = |X(f )|2 .
(6.17)
Interpretiert man x(t) als Impulsantwort eines stabilen LTI-Systems, so ist die spekE trale Dichte gleich dem Betragsquadrat Sxx (f ) = |X(f )|2 der Übertragungsfunktion X(f ) des Systems. Die Phaseninformation geht dabei verloren. Eigenschaften des Leistungsdichtespektrums: Im folgenden werden die Eigenschaften des Leistungsdichtespektrums zusammengestellt. 1. Sxx (f ) ist für reelle Prozesse eine gerade Funktion: Sxx (f ) = Sxx (−f ).
(6.18)
2. Sxx (f ) ist reell für alle Frequenzen f , ∗ Sxx (f ) = Sxx (f ).
(6.19)
Beide Eigenschaften folgen daraus, dass die Autokorrelation eines reellen, stationären Prozesses selbst reell und gerade ist. 3. Sxx (f ) ist nicht negativ für alle Frequenzen f , Sxx (f ) ≥ 0.
(6.20)
Der quadratische Erwartungswert E{x(t)2 } muss immer größer gleich Null sein. Er wird aber nach Satz 6.5 über das Integral der Leistungsdichte Sxx (f ) berechnet. Die Bedingung E{x(t)2 } ≥ 0 kann allgemein nur für Sxx (f ) ≥ 0 sichergestellt werden.
222
6. Korrelationsmesstechnik
4. Für die Kreuzleistungsdichtespektren gilt die Beziehung Sxy (f ) = Syx (−f ).
(6.21)
Sind die beiden Prozesse x, y reell, so gilt zusätzlich ∗ ∗ (−f ) = Syx (−f ) = Syx (f ). Sxy (f ) = Sxy
Da die Kreuzkorrelation im allgemeinen nicht symmetrisch ist, ist auch das Kreuzleistungsdichtespektrum reellwertiger Prozesse nicht reellwertig. 6.4.1 Rauschen Viele Störeinflüsse wie Verstärkerrauschen oder Störungen bei der Signalübertragung lassen sich durch Zufallsprozesse modellieren, deren Leistungsdichtespektrum über einen weiten Frequenzbereich nahezu konstant ist. Meist verwendet man einen idealisierten Prozess, dessen Leistungsdichte über alle Frequenzen konstant ist. Man nennt einen solchen Prozess weißes Rauschen. Definition 6.27 Weißes Rauschen Ein Signal n(t) nennt man weißes Rauschen, wenn seine Leistungsdichte für alle Frequenzen konstant ist: Snn (f ) = a2 = const ∀ f. Die Bezeichnung n(t) rührt von der englischen Bezeichnung für Störgeräusche (noise) her und deutet an, dass weißes Rauschen häufig zur Beschreibung rauschartiger Störungen verwendet wird. Die Autokorrelation von weißem Rauschen ergibt sich durch inverse Fourier-Transformation zu Rnn (τ ) = F −1 {a2 } = a2 δ(τ ).
(6.22)
Die Autokorrelation verschwindet also für alle Werte τ = 0. Das bedeutet, dass benachbarte Signalwerte von n(t) immer unkorreliert sind, so dass sich das Signal unendlich schnell ändern müsste. Dies ist physikalisch nicht möglich, was sich auch in der Leistung nach Satz. 6.5 zeigt, die für weißes Rauschen unendlich groß wird: ∞
a2 df → ∞.
Pn = Rnn (0) = −∞
Weißes Rauschen ist also eine Idealisierung, die sich physikalisch nicht realisieren lässt. Trotzdem wird dieses Modell in der Praxis gerne verwendet, weil die Autokorrelation und die Leistungsdichte eine einfache Form besitzen. Oft macht man noch
6.4 Leistungsdichtespektrum Snn(f)
Rnn( )
a2
a2 ( )
223
f
Abbildung 6.11. Leistungsdichte und Autokorrelation von weißem Rauschen
den Zusatz eines normalverteilten Prozesses und spricht dann von Gaußschem weißen Rauschen, um aus der Unkorreliertheit von Prozessen auch auf die statistische Unabhängigkeit schließen zu können. Die Verwendung von weißem Rauschen als Modellansatz ist gerechtfertigt, wenn das Störsignal auf Systeme mit Tiefpass- oder Bandpasscharakter trifft. Die hohen Frequenzanteile werden dann unterdrückt und die Leistung am Systemausgang bleibt endlich. Rauschprozesse, deren Leistungsdichtespektrum zu hohen Frequenzen hin abfällt, bezeichnet man als farbiges Rauschen. Beispiel 6.10 Farbiges Rauschen Die hohen Frequenzen eines weißen Rauschsignals mit dem Effektivwert a werden durch einen Tiefpass 1. Ordnung G(f ) =
1 2πf 1 + j 2πf g
gedämpft. Das resultierende farbige Rauschen n(t) hat dann die Leistungsdichte Snn (f ) =
a2 · (2πfg )2 . (2πfg )2 + (2πf )2
Die Berechnung findet sich in Abschn. 6.4.3. Die zugehörige Autokorrelationsfunktion erhalten wir durch inverse Fourier-Transformation % (2πfg )2 −1 2 Rnn (τ ) = F a · = a2 πfg e−2πfg |τ | . (2πfg )2 + (2πf )2 Die Rauschleistung ist endlich mit Pn = Rnn (0) = a2 · πfg . Abbildung 6.12 zeigt die Leistungsdichte und die zugehörige Autokorrelation des farbigen Rauschens. Man erkennt, dass die AKF im Vergleich zum weißen Rauschen breiter geworden ist, d.h. zeitlich benachbarte Werte miteinander korreliert sind.
224
6. Korrelationsmesstechnik Rnn(τ)
Snn(f)
τ
f
Abbildung 6.12. Leistungsdichte und Autokorrelation von farbigem Rauschen
Pseudostochastische Binärfolgen: Neben dem Rauschen als unerwünschtem Störsignal ist es manchmal zweckmäßig, beispielsweise zur Identifikation (Abschn. 6.4.4), ein Rauschsignal auf ein System zu schalten. Es stellt sich die Frage, wie ein möglichst ideales weißes Rauschen praktisch auf einfache Art und Weise erzeugt werden kann. Eine einfache Methode zur Erzeugung von annähernd weißem Rauschen sind pseudostochastische Binärfolgen (engl. PRBS = Pseudo Random Binary Sequence). Dazu wird ein Schieberegister der Länge N benötigt, dessen Information mit der Taktzeit ta entweder nach links oder nach rechts geschoben wird. Abbildung 6.13 zeigt eine Schieberegisterschaltung für die Wortlänge N = 6. a) Rechts-Schieben
x1 D1
x2
x3
D2
D3
D 2 x2
D3
x4
x5
x6
D4
D5
D6
D 4 x4
D 5 x5
D6
b) Links-Schieben
D1
x1
x3
x6
Abbildung 6.13. Rückgekoppelte Schieberegister zur Erzeugung von pseudostochastischen Binärfolgen
6.4 Leistungsdichtespektrum
225
Rechts-Schieben: Am Eingang D1 des ersten Flipflops x1 liegt der Ausgang der Äquivalenz nach Tabelle 6.3a. Links-Schieben: Am Eingang DN des N -ten Flipflops xN liegt der Ausgang der Äquivalenz nach Tabelle 6.3b.
Tabelle 6.3. Beschaltung rückgekoppelter Schieberegister zur Erzeugung von PRBS-Folgen Wortlänge N des Schieberegisters 1 2 3 4 5 6 7 8 9 10 11
Äquivalenz-Beschaltung a. Rechts-Schieben b. Links-Schieben 0 ≡ x1 0 ≡ x1 x1 ≡ x2 x1 ≡ x2 x2 ≡ x3 x1 ≡ x3 x3 ≡ x4 x1 ≡ x4 x3 ≡ x5 x1 ≡ x4 x5 ≡ x6 x1 ≡ x6 x4 ≡ x7 x1 ≡ x5 (x3 ≡ x5 ) ≡ (x7 ≡ x8 ) (x4 ≡ x6 ) ≡ (x1 ≡ x8 ) x5 ≡ x9 x1 ≡ x6 x7 ≡ x10 x1 ≡ x8 x9 ≡ x11 x1 ≡ x10
Periode 1 3 7 15 31 63 127 255 511 1023 2047
Die Beschaltung für größere Wortlängen N findet man in [46]. Die Periode ist immer 2N − 1 und deshalb ungerade, weil durch eine hier nicht gezeigte Zusatzschaltung der Fall ausgeschlossen wird, dass alle Flipflops den Wert Eins haben. Ordnet man den Ausgangswerten des Flipflops xN das Ausgangssignal u(t) wie folgt zu, xN = 1 → u(t) = a, xN = 0 → u(t) = −a, so ist innerhalb der Periode (2N − 1)ta der Fall u(t) = a um eine Taktzeit ta häufiger als der Fall u(t) = −a.
a
u( t )
ta
t
a Abbildung 6.14. Beispiel einer pseudostochastischen Binärfolge
Da die PRBS-Folge periodisch ist, ist auch ihre Autokorrelationsfunktion periodisch mit der Periode (2N − 1)ta . Sie ist gegeben (s. Abb. 6.15) durch die Funktion
226
6. Korrelationsmesstechnik
⎧ ⎨ a2 für τ = k · (2N − 1)ta 2 Ruu (τ ) = −a ⎩ N sonst. 2 −1
k ∈ ZZ,
In der Praxis müssen ausreichend lange Perioden verwendet werden, damit die PRBS-Folgen zur Systemidentifikation geeignet sind. Mit der Wahl der Taktzeit ta lässt sich auch die gewünschte Bandbreite der resultierenden Leistungsdichte einstellen. R uu
a
2
a 2
N
2
1
Abbildung 6.15. Autokorrelationsfunktion einer pseudostochastischen Binärfolgen
6.4.2 Verknüpfung von Zufallssignalen Die additive Überlagerung von Zufallssignalen ist das einfachste, aber auch das am häufigsten verwendete Modell zur Beschreibung rauschähnlicher Störungen. Man kann beispielsweise das Ausgangssignal y(t) eines Messsystems darstellen als die Summe aus einem idealen Messsignal u(t) und einem zufälligen Messrauschen n(t) (Abb. 6.16). Das Modell ermöglicht eine sehr einfache Systemanalyse mit Hilfe des Leistungsdichtespektrums und der Korrelation. n(t) u(t)
y(t)
Abbildung 6.16. Modell zur Überlagerung zufälliger Störsignale
Für das Summensignal y(t) aus Abb. 6.16 gilt y(t) = u(t) + n(t).
6.4 Leistungsdichtespektrum
227
Die Autokorrelation der Summe wird mit den Rechenregeln für den Erwartungswertoperator Ryy (τ ) = E{y(t + τ )y(t)} = E{[u(t + τ ) + n(t + τ )][u(t) + n(t)]} = E{u(t + τ )u(t)} + E{u(t + τ )n(t)} + + E{n(t + τ )u(t)} + E{n(t + τ )n(t)} = Ruu (τ ) + Run (τ ) + Rnu (τ ) + Rnn (τ ). Die Autokorrelationsfunktion Ryy (τ ) setzt sich also aus den Autokorrelationsfunktionen der beiden Eingangssignale u(t) und n(t) und ihren Kreuzkorrelationen zusammen. Für das Leistungsdichtespektrum erhält man entsprechend Syy (f ) = Suu (f ) + Sun (f ) + Snu (f ) + Snn (f ). Mit der Symmetrieeigenschaft der Kreuzleistungsdichte nach Gl.(6.21) erhält man ∗ (f ) = 2{Sun (f )} Sun (f ) + Snu (f ) = Sun (f ) + Sun
und weiterhin für die Leistungsdichte Syy (f ) den reellen Ausdruck Syy (f ) = Suu (f ) + Snn (f ) + 2{Sun (f )}.
(6.23)
Die Verhältnisse werden viel einfacher, wenn die beiden Signale u(t) und n(t) unkorreliert sind und mindestens eines der Signale mittelwertfrei ist (z.B. µn = 0). Dann entfallen nach Abschn. 6.2 die Kreuzterme Run (τ ) = 0
◦−•
Sun (f ) = 0
und man erhält die wichtigen Beziehungen für unkorrelierte Prozesse Ryy (τ ) = Ruu (τ ) + Rnn (τ ), Syy (f ) = Suu (f ) + Snn (f ).
(6.24)
Die Annahme der Unkorreliertheit gilt in vielen Fällen, in denen n(t) ein Störsignal zum Messsignal u(t) darstellt. Beispielsweise wäre das Grundrauschen eines Messverstärkers eine derartige Störung. Da viele überlagerte Störungen ebenfalls mittelwertfrei sind, können die Beziehungen aus Gl.(6.24) verwendet werden, in denen einfach die Autokorrelation bzw. die Leistungsdichten der Signale zu addieren sind. 6.4.3 Leistungsdichtespektrum in LTI-Systemen Für deterministische Signale verwendet man z.B. Sprung- oder Impulsantworten und berechnet damit die Übertragungsfunktion G(f ) eines Systems. Die Systemanwort Y (f ) auf Eingangssignale X(f ) konnte dann mit Y (f ) = G(f )X(f ) beschrieben werden. Wegen der Divergenz der quadratischen Norm für stationäre
228
6. Korrelationsmesstechnik
Zufallsprozesse existiert für sie keine Laplace-Transformierte, die Fourier-Transformation nur in Ausnahmefällen. Es wird daher eine andere Beschreibung erforderlich. Schaltet man Zufallssignale an den Eingang von linearen, zeitinvarianten Systemen (LTI-Systeme), so kann die Übertragungsfunktion aus den Leistungsdichten von Eingangs- und Ausgangssignalen berechnet werden. Wir betrachten zunächst die Klasse der Energiesignale, für die die Fourier-Transformation x(t) ◦−• X(f ) existiert und die Systemantwort wie gewöhnlich mit der Übertragungsfunktion bestimmt werden kann: Y (f ) = G(f )X(f ). Über die Faltungsbeziehung der Korrelation nach Gl.(6.17) erhalten wir für die zugehörigen „Energiedichtespektren“ E Syy (f ) = Y (f )Y ∗ (f ) = G(f )X(f ) · G∗ (f )X ∗ (f ) E = |G(f )|2 Sxx (f ).
Entsprechendes gilt für die „Kreuzenergiedichtespektren“ : E Sxy (f ) = X(f )Y ∗ (f )
= X(f ) · G∗ (f )X ∗ (f ) E (f ). = G∗ (f )Sxx Die eben gefundenen Zusammenhänge lassen sich nicht ohne weiteres auf die Klasse der Leistungssignale übertragen. Für sie existiert in der Regel die FourierTransformation X(f ) des Zeitsignals x(t) nicht. Allenfalls für periodische Signale lässt sich eine Fourier-Transformierte unter Verwendung von δ-Impulsen angeben. Dann steht man allerdings vor dem Problem, das Produkt zweier δ-Impulse zur Berechnung von X(f )X ∗ (f ) angeben zu müssen, welches nicht definiert ist. Beispiel 6.11 Periodisches Signal Gegeben ist eine harmonische Schwingung mit der Frequenz f0 . Das Zeitsignal und seine Fourier-Transformierte sind angebbar mit x(t) = a cos(2πf0 t) ◦| • a X(f ) = [δ(f − f0 ) + δ(f + f0 )]. 2 Die Leistungsdichte lässt sich über das Produkt Sxx (f ) = X(f )X ∗ (f ) nicht angeben, da das Produkt δ(f ) · δ(f ) nicht definiert ist.
6.4 Leistungsdichtespektrum
229
Bei Leistungssignalen muss man daher einen anderen Weg einschlagen. Interpretiert man Leistungssignale als Zeitfunktionen ergodischer stochastischer Prozesse, so ist einleuchtend, dass man erst eine Erwartungswertbildung durchführen muss, bevor man die Systemantwort untersuchen kann. Dies wird anschaulich klar, wenn man die Tatsache berücksichtigt, dass man eine Systemantwort für alle möglichen Zeitfunktionen xξ (t) eines ergodischen Prozesses sucht und nicht nur für eine spezielle Musterfunktion xi (t), die später nicht mehr exakt identisch auftritt. Die Erwartungswertbildung vor dem Systemdurchgang führt auf Satz 6.6 Ergodische Prozesse in LTI-Systemen Durchläuft ein Signal x(t) eines ergodischen Zufallsprozesses (Leistungssignal) ein lineares, zeitinvariantes System mit der Impulsantwort g(t) bzw. der Übertragungsfunktion G(f ), so gelten die folgenden Beziehungen: Rxy (τ ) = Rxx (τ ) ∗ g ∗ (−τ ) ◦−• Sxy (f ) = Sxx (f )G∗ (f ),
(6.25)
Ryy (τ ) = Rxy (τ ) ∗ g(τ ) ◦−• Syy (f ) = Sxy (f )G(f ), E (τ ) ◦−• Syy (f ) = Sxx (f )|G(f )|2 . Ryy (τ ) = Rxx (τ ) ∗ Rgg
(6.26) (6.27)
Beweis: Allgemein ist die Antwort y(t) eines System mit der Impulsantwort g(t) auf ein Eingangssignal x(t) durch die Faltung ∞
x(t − α)g(α) dα
y(t) =
(6.28)
−∞
gegeben. Multipliziert man das konjugiert Komplexe von Gl.(6.28) mit dem verschobenen Signal x(t + τ ) und bildet den Erwartungswert, so erhält man ∞ ∗
E{x(t + τ )x∗ (t − α)}g ∗ (α) dα.
E{x(t + τ )y (t)} = −∞
Da E{x(t + τ )x∗ (t − α)} gleich der AKF Rxx (τ + α) ist, erhält man ∞
∞
Rxx (τ + α)g ∗ (α) dα =
Rxy (τ ) = −∞
◦| • Sxy (f ) = Sxx (f )G∗ (f ).
Rxx (τ − β)g ∗ (−β) dβ −∞
Multipliziert man Gl.(6.28) mit y ∗ (t − τ ) und bildet den Erwartungswert, so führt dies auf ∞ ∗
E{x(t − α)y ∗ (t − τ )}g(α) dα,
E{y(t)y (t − τ )} = −∞
230
6. Korrelationsmesstechnik ∞
Rxy (τ − α)g(α) dα
Ryy (τ ) = −∞
◦| • Syy (f ) = Sxy (f )G(f ). Setzt man Rxy (τ ) aus Gl.(6.25) in Gl.(6.26) ein, so erhält man Ryy (τ ) = Rxx (τ ) ∗ g(τ ) ∗ g ∗ (−τ ) ◦| • Syy (f ) = Sxx G(f )G∗ (f ) = Sxx (f )|G(f )|2 . Die Faltung der Impulsantworten ∞ ∗
E g(t + τ )g ∗ (t) dt = Rgg (τ )
g(τ ) ∗ g (−τ ) = −∞
ist nach Gl.(6.7) gerade gleich der Autokorrelationsfunktion für Energiesignale oder auch Impulskorrelation. Beispiel 6.12 Erzeugung von farbigem Rauschen Es soll hier nochmals das Beispiel 6.10 aufgegriffen werden. Gegeben ist ein weißer Rauschprozess x(t) mit konstantem Leistungsdichtespektrum Sxx (f ) = a2
∀ f.
Das Signal werde auf einen Tiefpass 1. Ordnung mit der Grenzfrequenz fg gegeben. Die Übertragungsfunktion des Filters lautet G(f ) =
1 . 1 + j f/fg
Die Leistungsdichte Syy (f ) am Ausgang des Filters ist nach Gl.(6.27) Syy (f ) = |G(f )|2 Sxx (f ), a2 Syy (f ) = 2 , 1 + f/fg Syy (f ) =
a2 (2πfg )2 . (2πfg )2 + (2πf )2
Das Ergebnis entspricht der in Beispiel 6.10 vorgestellten Leistungsdichte eines farbigen Rauschprozesses. Es kann daher sehr einfach durch Tiefpassfilterung von weißem Rauschen (z.B. PRBS-Folge) erzeugt werden.
6.4 Leistungsdichtespektrum
231
6.4.4 Systemidentifikation Mit Hilfe der Leistungsdichtespektren wird die Identifikation der Übertragungsfunktion G(f ) eines unbekannten Systems leicht möglich. Ein breitbandiges Rauschsignal x(t), wie beispielsweise eine PRBS-Folge wird an den Eingang eines unbekannten Systems gelegt (Abb. 6.17). Das Eingangssignal x(t) kann näherungsweise als weißes Rauschen beschrieben werden, wenn die Bandbreite der Rauschquelle viel größer ist als die des zu untersuchenden Systems. Das Ausgangssignal y(t) des Systems sei zusätzlich von einem unabhängigen, mittelwertfreien Messrauschen n(t) überlagert. Für das weiße Rauschen als Eingangssignal gilt n(t) Rauschquelle
x(t)
G( f )= ? g( t )= ?
~ y(t)
y(t)
Abbildung 6.17. Identifikation einer Übertragungsfunktion
Messung KKF Identifikation
Sxx (f ) = a2
∀ f.
Ohne überlagertes Messrauschen n(t) = 0 erhalten wir die Übertragungsfunktion G(f ) des unbekannten Systems aus der Kreuzleistungsdichte nach Gl.(6.25) Syx (f ) = G(f )Sxx (f ) = a2 G(f ) •| ◦ Ryx (τ ) = g(τ ) ∗ a2 δ(τ ) = a2 g(τ ). Berücksichtigt man nun noch die unabhängige, mittelwertfreie Messstörung n(t), so ergibt sich für die Kreuzkorrelation zwischen gestörtem Ausgang y˜(t) und dem Eingang x(t) Ry˜x (τ ) = E{˜ y(t + τ )x(t)} = E{[y(t + τ ) + n(t + τ )]x(t)} = E{y(t + τ )x(t)} + E{n(t + τ )x(t)}
=0
= Ryx (τ ).
(6.29)
Das bedeutet, dass selbst ein überlagertes Messrauschen die Identifikation nicht stört, solange x(t) und n(t) unkorreliert sind.
232
6. Korrelationsmesstechnik
Reale Messungen: Im folgenden werden einige Effekte diskutiert, die bei der realen Identifikation auftreten. In Abschn. 6.3.1 wurde bereits auf die Schwierigkeit hingewiesen, die beim Messen der Korrelationsfunktion entstehen. Da man auf ein endliches Messintervall beschränkt ist, erhält man auch für die Leistungsdichten nur Schätzwerte Sˆxy (f ). Dadurch kann es passieren, dass trotz vorhandener Unkorreliertheit zweier Prozesse die zugehörigen Kreuzleistungsdichten nicht exakt zu Null werden. Der Vorteil des endlichen Messintervalls ist aber, dass in jedem Fall die Fourier-Transformierte Y (f ) des gemessenen Signals y(t) existiert. Damit kann in der Praxis der Schätzwert für die Leistungsdichte direkt aus der FourierTransformierten berechnet werden: Sˆyy (f ) = Y (f )Y ∗ (f ), Sˆxy (f ) = X(f )Y ∗ (f ).
(6.30)
Den Schätzwert für die Autoleistungsdichte Sˆyy (f ) bezeichnet man auch als Periodogramm. Durch eine Mittelung über mehrere Schätzvorgänge lässt sich die Schätzung der Leistungsdichte verbessern: N N 1 ˆ 1 Sˆyy (f ) = Syy,i (f ) = Yi (f )Yi∗ (f ), N i=1 N i=1 N N 1 ˆ 1 Sˆxy (f ) = Sxy,i (f ) = Xi (f )Yi∗ (f ). N i=1 N i=1
(6.31)
Für die Identifikation der Übertragungsfunktion G(f ) bieten sich nun zwei unterschiedliche Vorgehensweisen an: 1. Quotientenbildung der gemittelten Periodogramme: Für das Periodogramm des Ausgangssignals gilt Sˆyy (f ) = [G(f )X(f ) + N (f )] · [G(f )X(f ) + N (f )]∗ = |G(f )|2 Sˆxx (f ) + G(f )Sˆxn (f ) + G∗ (f )Sˆnx (f ) + Sˆnn (f ) = |G(f )|2 Sˆxx (f ) + 2{G(f )Sˆxn (f )} + Sˆnn (f ). Durch die Mittelwertbildung verschwindet der Erwartungswert des Kreuzterms näherungsweise, da x(t) und n(t) als unkorreliert angenommen werden, 9 8 Sˆyy (f ) = |G(f )|2 Sˆxx (f ) + 2 G(f ) E{Sˆxn } + Sˆnn (f ). ≈0
6.4 Leistungsdichtespektrum
233
Die Übertragungsfunktion wird als Quotient ˆ )|2 = |G(f
Sˆyy (f ) Sˆnn (f ) = |G(f )|2 + Sˆxx (f ) Sˆxx (f )
geschätzt, wobei durch die im Ausgangssignal überlagerte Störung n(t) ein ˆ )| eiFehler auftritt. In Abb. 6.18 ist die geschätzte Übertragungsfunktion |G(f ˆ )| nes VZ2-Gliedes dargestellt. Für große Frequenzen f geht die Funktion |G(f nicht gegen Null sondern in den Quotienten Sˆnn (f ) Sˆxx (f ) über. Ein weiterer Nachteil dieser Methode ist, dass nur der Amplitudengang ˆ ) geschätzt werden kann. ˆ )|, nicht aber der Phasengang G(f |G(f
G( f ) 1,6
1,0
0,6
0
f
Abbildung 6.18. Identifikation der Übertragungsfunktion eines VZ2-Gliedes über Mittelung der Periodogramme
2. Quotientenbildung der gemittelten Kreuzleistungsdichten: Das Kreuzleistungsspektrum Sˆyx (f ) = G(f )Sˆxx (f ) + Sˆnx (f ) ist im Vergleich zum Periodogramm eine komplexe Funktion. Die Mittelung muss daher getrennt nach Betrag und Phase oder getrennt nach Real- und Ima-
234
6. Korrelationsmesstechnik
ginärteil erfolgen. Dies bringt im Vergleich zur 1. Methode einen höheren Rechenaufwand mit sich, Sˆyx (f ) = G(f )Sˆxx (f ) + E{Sˆnx } . ≈0
Die Übertragungsfunktion wird als Quotient ˆ ˆ ˆ ) = Syx (f ) = G(f )Sxx (f ) G(f Sˆxx (f ) Sˆxx (f ) geschätzt. Der Vorteil des höheren Rechenaufwandes liegt zum einen in der verfügbaren Phaseninformation. Aber auch der Einfluss der überlagerten Störung n(t) ist nun wesentlich geringer, wie Abb. 6.19 zeigt.
G( f ) 1,6
1,0 0,6
0
f
Abbildung 6.19. Identifikation der Übertragungsfunktion eines VZ2-Gliedes über Mittelung des Kreuzleistungsspektrums
In vielen Fällen reicht die einmalige Identifikation eines Systems nicht aus. Dies ist vor allem dann der Fall, wenn sich Systemparameter verändern, die das dynamische Verhalten des Systems bestimmen. Möchte man ein solches System messtechnisch überwachen, so muss man die Identifikation während des laufenden Betriebs durchführen, da man nicht ständig das System für Messzwecke stilllegen kann. Bei der Identifikation während des Echtzeitbetriebs wird dem Eingangssignal u(t) ein unkorreliertes weißes Rauschen n(t) als Testsignal überlagert (Abb. 6.20). Die Amplituden a des Testsignals betragen im Vergleich zum Nutzsignal u(t) nur wenige
6.4 Leistungsdichtespektrum
235
Prozent. Das Testsignal n(t) und das Ausgangssignal y(t) werden gemessen und daraus das Periodogramm Sˆnn (f ) und das Kreuzleistungsdichtespektrum Sˆyn (f ) geschätzt. Mit den Fourier-Transformierten der Eingangssignale X(f ) = U (f ) + N (f ) erhält man die Ausgangsfunktion Y (f ) = G(f )U (f ) + G(f )N (f ) und daraus die geschätzte Kreuzleistungsdichte Sˆyn (f ) = G(f )Sˆun (f ) + G(f )Sˆnn (f ). Durch Mittelung über mehrere Einzelmessungen wird die Schätzung verbessert: Sˆyn (f ) = E{G(f )Sˆun (f )} +G(f )Sˆnn (f ).
≈0
Damit erhält man für die geschätzte Übertragungsfunktion ˆ ˆ ˆ ˆ ) = G(f )Snn (f ) = Syn (f ) = Syn (f ) . G(f a2 Sˆnn (f ) Sˆnn (f ) Als Testsignal eignen sich beispielsweise die pseudostochastischen Binärfolgen.
u(t)
x(t)
Rausch- n(t) quelle
G( f )= ? g( t )= ?
Messung KKF Identifikation
y(t)
Abbildung 6.20. Identifikation einer Übertragungsfunktion G(f ) während des Echtzeitbetriebs
6.4.5 Wiener Filter In Abschn. 4.1 wurde diskutiert, wie Messsysteme den zeitlichen Verlauf eines Messsignals u(t) beeinflussen. Ziel der Überlegungen war es, das Messsystem so zu dimensionieren, dass das Fehlersignal e(t) zwischen Systemein- und Systemausgang möglichst klein wird. Dies führte auf das Problem der Parameteroptimierung, die konstruktiv frei wählbaren Parameter einer Übertragungsfunktion so zu wählen, dass die Verfälschung des Messsignals möglichst gering wird.
236
6. Korrelationsmesstechnik
Einen anderen Ansatz verfolgt die Signalschätzung. Die Signalschätzung befasst sich mit der Rekonstruktion eines Signals, das durch die Dynamik des Systems und durch überlagerte Störungen verfälscht wurde. Unter Verwendung von statistischen Eigenschaften der verschiedenen Störquellen soll aus dem verfälschten Signal das ursprüngliche Messsignal soweit wie möglich wieder hergestellt werden. Das Problem der Signalschätzung tritt in vielen technischen Anwendungen auf, wie beispielsweise: Messtechnik: Der Zeitverlauf des Messsignals u(t) soll gemessen werden. Da jede Messung notwendigerweise den zu messenden Vorgang beeinflusst, liefert die Messeinrichtung nicht genau das Originalsignal u(t), sondern eine verfälschte Version, die angezeigte Größe y(t). Zusätzlich treten Messfehler auf, die durch Rauschsignale beschrieben werden können. Signalübertragung: Wenn ein Signal u(t) zu einem anderen Ort hin übertragen wird, so wird es auf dem Weg dorthin durch die nichtidealen Eigenschaften des Übertragungsmediums verändert. Zusätzlich kommen noch Störungen auf dem Übertragunsgweg hinzu, so dass das empfangene Signal y(t) nicht mehr dem Sendesignal u(t) entspricht. Dies ist ein klassisches Problem in der Nachrichtentechnik und der Automatisierungstechnik. Speicherung: Um ein Signal u(t) zu speichern, muss es so verändert werden, dass es den Erfordernissen des Datenträgers entspricht (z.B. Abtastung und Quantisierung in Kap. 7). Das zu einem späteren Zeitpunkt wieder ausgelesene Signal enthält Störungen, die meist auch durch Rauschen modelliert werden können.
n(t) u(t)
dynamisches System G( f )
x(t)
y(t)
Schätzfilter H( f )
u^(t) ^
e(t)=u(t) u(t)
Abbildung 6.21. Signalrekonstruktion durch Schätzfilter
Das Problem der Signalrekonstruktion zeigt Abb. 6.21. Das zu messende Signal u(t) ist nicht direkt zugänglich. Stattdessen kann nur y(t) erfasst werden, das die Einflüsse des dynamischen Systems G(f ) und zusätzliche Störsignale n(t) enthält. Es wird angenommen, dass die Kreuzleistungsdichte Syu (f ) zwischen u(t) und dem Ausgang y(t) bekannt ist (beispielsweise durch eine Messung mit bekanntem Eingangssignal). Das Kreuzleistungsdichtespektrum Syu (f ) beschreibt den Einfluss der Verfälschungen, denen das Originalsignal unterliegt. Die Leistungsdichte Syy (f ) des gemessenen Signals y(t) kann jederzeit durch Messung bestimmt werden und ist damit auch bekannt.
6.4 Leistungsdichtespektrum
237
Das Schätzfilter H(f ) in Abb. 6.21 soll nun so entworfen werden, dass sein Ausgangssignal uˆ(t) dem Originalsignal u(t) möglichst nahe kommt. Dazu muss die Fehlerleistung zwischen beiden Signalen e(t) = u ˆ(t) − u(t) E{e2 (t)} = E{[ˆ u(t) − u(t)]2 }
⇒ min
(6.32)
minimiert werden. Ein so entworfenes Filter heißt Optimalfilter oder nach seinem Erfinder Wiener-Filter [51]. Anmerkung Die Bedingung in Gl.(6.32) wurde in ähnlicher Form bereits an anderer Stelle angewendet. Das Kriterium quadratisches Fehlerintegral in Abschn. 4.3.5 verwendet nach Gl.(4.46) ein Kriterium ∞
Q=
e2 (t) dt
−∞
⇒ min .
Für Energiesignale entspricht der Ausdruck gerade der quadratischen Norm oder E (τ = 0) an der Stelle Null. Damit lässt sich das Kriterium der Autokorrelation Ree auch folgender Form schreiben: ∞
Q= −∞
e2 (t) dt =
∞ −∞
∞
See (f ) df =
−∞
E(f )E(−f ) df ⇒ min .
Eine weitere Anwendung war die Approximation von Kennlinien (Abschn. 2.1) und der Least-Squares-Schätzer (Abschn. 2.2). Herleitung des Wiener-Filters: Obwohl das Eingangssignal u(t) und damit der Rekonstruktionsfehler e(t) nicht bekannt sind, lässt sich dennoch die Fehlerleistung durch statistische Kenngrößen beschreiben. Aus Satz 6.5 ist bekannt, dass die Fehlerleistung E{e2 (t)} mit Hilfe des Leistungsdichtespektrums See (f ) bestimmt werden kann. Für die Leistungsdichte des Rekonstruktionsfehlers erhalten wir mit Gl.(6.23) für die Summe von Zufallsgrößen: See (f ) = Suˆuˆ (f ) − Suˆu (f ) − Suˆu (f ) + Suu (f ). Drückt man See (f ) in Abhängigkeit der Übertragungsfunktion H(f ) des gesuchten Schätzfilters aus, so führt das auf See (f ) = Syy (f )|H(f )|2 − Syu (f )H(f ) − Suy (f )H ∗ (f ) + Suu (f ). (6.33) Das Schätzfilter H(f ), welches zur kleinsten Fehlerleistung führt, erhält man, indem man Gl.(6.33) nach H(f ) ableitet. Dabei ist zu beachten, dass die Größen in Gl.(6.33) und auch H(f ) selbst komplex sind. Die Ableitung muss daher getrennt nach Betrag und Phase erfolgen. Zur Vereinfachung wird das Argument (f ) bis auf weiteres weggelassen. Mit H = |H|ejϕ erhält man
238
6. Korrelationsmesstechnik
See = Syy |H|2 − Syu |H|ejϕ − Suy |H|e−jϕ + Suu . Die Ableitung von See nach der reellen Größe |H| ergibt d See ∗ −jϕ e = 2|H|Syy − Syu ejϕ − Syu d |H| !
= 2|H|Syy − 2{Syu ejϕ } = 0. Den optimalen Amplitudengang |H| des Schätzfilters erhält man durch Nullsetzen der Ableitung zu |H| =
{Syu ejϕ } . Syy
Durch Ableitung von See nach der Phase ϕ erhält man den Phasengang: d See ! ∗ = −j|H|ejϕ Syu + j|H|e−jϕ Syu = −j2|H|{Syuejϕ } = 0. dϕ Der optimale Phasengang folgt aus {Syu ejϕ } = {|Syu |ej(arg{Syu }+ϕ) } = 0. Der Imaginärteil wird gleich Null, wenn ϕ = − arg{Syu }
(6.34)
gilt. Der Phasengang des Wiener-Filters ist also gleich dem negativen Phasengang der Kreuzleistungsdichte Syu . Damit ist auch der optimale Amplitudengang bestimmt und ergibt sich mit Gl.(6.34) zu |H| =
{|Syu |ej(arg{Syu }+ϕ) } |Syu | {Syu ejϕ } = = . Syy Syy Syy
(6.35)
Mit den Gl. (6.34) und (6.35) erhält man die gesuchte Übertragungsfunktion des optimalen Rekonstruktonsfilters zu H(f ) =
∗ (f ) Syu Suy (f ) = . Syy f ) Syy (f )
(6.36)
Rekonstruktion bei linearer Verzerrung und additivem Rauschen: Bei der allgemeinen Herleitung der Wiener-Filters nach Gl.(6.36) wurden keine Annahmen über die Art der Signalverfälschung gemacht. Nimmt man an, dass die Messgröße u(t) wie in Abb. 6.21 durch ein allgemeines LTI-System mit der Übertragungsfunktion G(f ) verzerrt wird und zusätzlich von einer Rauschquelle n(t) überlagert ist, so kommt man auf eine Beschreibung, die für viele reale Messsysteme zutrifft. Das
6.4 Leistungsdichtespektrum
239
Rauschsignal n(t) fasst alle externen Störeinflüsse zusammen und sei nicht mit der Messgröße korreliert. Der Ausgang des LTI-Systems sei mit x(t) bezeichnet. Die Größen Suy (f ) und Syy (f ) können durch das Modell genauer beschrieben werden. Mit Gl.(6.24) erhalten wir für die Leistungsdichte einer Summe unkorrelierter Größen Syy (f ) = Sxx (f ) + Snn (f ) = Suu (f )|G(f )|2 + Snn (f ). Für die Kreuzkorrelation folgt Suy (f ) = Suu (f )G∗ (f ) + Sun (f ) . =0
Damit erhält man ein Wiener-Filter zur Rekonstruktion bei linearer Verzerrung und additivem Rauschen zu H(f ) =
Suu (f )G∗ (f ) . Suu (f )|G(f )|2 + Snn (f )
(6.37)
Die Kenntnis der verzerrenden Übertragungsfunktion G(f ) ermöglicht es hier, die Kreuzleistungsdichte Suy (f ) auf die Leistungsdichten des Messsignals Suu (f ) und der Rauschstörung Snn (f ) zurückzuführen. Der Frequenzgang G(f ) kann dabei explizit bekannt sein, oder durch eine Identifikation bestimmt werden. Beispiel 6.13 Rauschunterdrückung Einem Messsignal u(t) sei eine rauschartige, unkorrelierte Störung n(t) überlagert. Gesucht ist ein Optimalfilter, dass das Rauschen optimal unterdrückt, ohne dabei das Messsignal zu stark zu verfälschen. Für die Leistungsdichten gelte Suu (f ) =
U2 , 1 + (b · 2πf )2
Snn (f ) = a2 .
Das gesuchte Optimalfilter erhält man mit Gl.(6.37). Da hier allerdings keine Verzerrung durch ein LTI-System vorliegt, wird G(f ) = 1 und damit das gesuchte Wiener-Filter zu H(f ) =
Suu (f ) U2 = 2 . Suu (f ) + Snn (f ) U + a2 + (b · a · 2πf )2
(6.38)
Abbildung 6.22 zeigt die Leistungsdichtespektren von Signal und Störung, so wie den Amplitudengang des Optimalfilters. Das Filter lässt den Frequenzbereich des Messsignals durch und dämpft außerhalb davon die Störung. Die Leistungsdichten der Ausgangssignale im Vergleich zum ungestörten Signal zeigt Abb. 6.23.
240
6. Korrelationsmesstechnik
Leistungsdichtespektrum S(f) 1
S (f) uu
0.8
0.6 |H(f)|2
0.4
0.2 S (f) nn
0 −100
−50
0
50
100
Abbildung 6.22. Leistungsdichtespektren des Signals Suu (f ) und der Störung Snn (f ) und Amplitudengang des Optimalfilters |H(f )|2
Leistungsdichtespektrum S(f) 1
S (f) uu
0.8
0.6 S^^ (f) uu
0.4
0.2
0 −100
See(f) −50
0
50
100
Abbildung 6.23. Leistungsdichtespektren des Messsignals Suu (f ) sowie die der verbleibenden Störung See (f ) und des Signals Suˆuˆ (f ) am Ausgang des Optimalfilters
Das Wiener-Filter H(f ) ist allgemein akausal. Es kann zwar auf ein zuvor gemessenes Ausgangssignal y(t) angewendet werden, dies aber nicht in Echtzeit filtern. Für die Echtzeitanwendung stehen daher nur vergangene Werte zur Verfügung, mit der das Filter bestimmt werden kann. Betrachtet man das akausale Filter, so ist die Impulsanwort des Filters gleich der inversen Fourier-Transformation
6.4 Leistungsdichtespektrum
F −1 {H(f )}
→
241
h(t).
Der kausale Teil der Impulsantwort h(t) , t ≥ 0, hkaus (t) = 0 , t < 0, ergibt ein kausales Filter, das für die Echtzeitanwendung geeignet ist. Beispiel 6.14 kausales Wiener-Filter Für das akausale Rauschunterdrückungsfilter nach Gl.(6.38) soll das entsprechende kausale Wiener-Filter berechnet werden. Dazu formt man die Filterübertragungsfunktion um und erhält mit H(f ) = k · •| ◦
2λ 2 λ + (2πf )2
h(t) = k · e
mit k =
U2 √ 2ab U 2 + a2
. −λ|t|
und λ =
U2 1 + 2 a2 b 2 b
die Impulsantwort h(t) des akausalen Systems. Setzt man für t < 0 die Impusantwort zu Null, so erhält man den kausalen Teil der Impulsantwort (Abb. 6.24)
Impulsantwort (kausal ——, akausal − − −) 80 60 40 20 0 −0.02
−0.01
0
0.01
0.02
Abbildung 6.24. Impulsantworten des akausalen und kausalen Wiener-Filters
hkaus (t) = k · e−λt · σ(t). Durch Fourier-Transformation erhält man schließlich den Frequenzgang des kausalen Filters: Hkaus (f ) = F (hkaus (t)) = k ·
1 . λ + j2πf
242
6. Korrelationsmesstechnik
Abbildung 6.25 zeigt den Amplitudengang der beiden Wiener-Filter. Der Durchlassbereich des kausalen Filters ist deutlich breiter als der des optimalen, akausalen Wiener-Filters. Die Rauschunterdrückung gelingt nicht so gut, das Filter kann aber für Echtzeitanwendungen eingesetzt werden. Amplitudengang |H(f)|2/H
0
1
0.8
0.6
0.4
0.2
0 −100
−50
0
50
100
Abbildung 6.25. Normierter Amplitudengang eines kausalen (——) und akausalen (— — —) Rauschunterdrückungsfilters
7. Erfassung amplitudenanaloger Signale
In der modernen Messtechnik werden Signale meist mit einem Rechner ausgewertet. Dazu müssen die zeitkontinuierlichen Signale eines analogen Messwertaufnehmers in eine für den Rechner geeignete Form gebracht werden. Diesen Prozess nennt man digitale Messdatenerfassung. Bei der digitalen Messdatenerfassung werden die Signale implizit einer Signalverarbeitung unterzogen. Der mit einer Messdatenerfassung zwangsläufig verbundenen Signalverarbeitung ist sich der Ingenieur zumeist weniger bewusst, obwohl gerade die Bereitstellung der Messdaten das gesamte Informationsverarbeitungssystem in entscheidender Weise beeinflusst. Im folgenden sollen einige Grundbausteine der Signalverarbeitung behandelt werden. Für eingehendere Darstellungen sei auf die Literatur verwiesen [33, 23, 44]. y(t)
y(t)
kontinuierlich
zeitdiskret
t y(t)
t y(t)
amplitudendiskret
zeit- und amplitudendiskret
t
t
Abbildung 7.1. Kontinuierliche und diskrete Signale
Da im Rechner nur eine endliche Anzahl von Messwerten gespeichert werden kann, muss das zeitkontinuierliche Signal des Messwertaufnehmers zu diskreten Zeitpunkten abgetastet werden (engl. sampling). Der wahre Signalverlauf wird im Rechner, ähnlich der Kennlinien-Interpolation aus Kap. 2, durch eine endliche Anzahl
244
7. Erfassung amplitudenanaloger Signale
zeitdiskreter Stützstellen repräsentiert (Abb. 7.1). Durch die Abtastung selbst oder durch integrierende Verfahren bei der Messwertaufnahme werden die Messsignale verfälscht. Die dabei auftretenden Effekte werden im folgenden Abschnitt besprochen. Daneben können die Amplitudenwerte der abgetasteten Stützstellen nicht beliebig genau bestimmt werden. Vielmehr sind technisch nur diskrete Amplitudenstufen realisierbar. Auch im Rechner kann nur mit diskreten (dualen) Zahlen gearbeitet werden. Dies führt bei der Messwerterfassung zu einer Quantisierung der Signalamplituden. Die damit einhergehenden Signalverfälschungen werden in Abschn. 7.2 diskutiert. Technisch wird die digitale Signalverarbeitung mit Hilfe von Analog-Digital-Umsetzern realisiert, die sowohl die Zeitdiskretisierung als auch die Amplitudenquantisierung verwirklichen. Der Einfluss des Umsetzverfahrens auf das zu messende Signal wird in Abschn. 7.3 erläutert.
7.1 Abtastung Ein kontinuierliches Signal zeichnet sich dadurch aus, dass man zu jedem beliebigen Zeitpunkt die Signalamplitude angeben kann. Bei technisch realisierbaren Systemen sind die Signalamplituden stetige Funktionen. Bei der Abtastung werden nur die Signalwerte zu diskreten Zeitpunkten erfasst, d.h. die Signalwerte zwischen den Zeitpunkten gehen verloren. Unter bestimmten Voraussetzungen, im Abtasttheorem beschrieben, kann man die Signalwerte zwischen den Zeitpunkten wieder vollständig rekonstruieren. Nur in diesem Fall entstehen durch die Abtastung keine Signalfehler. Bei der idealen Abtastung wird ein zeitkontinuierliches Signal y(t) zu äquidistanten Zeitpunkten nta in das zeitdiskrete Signal y∗ (t) überführt. Dies geschieht durch eine Multiplikation mit einer Impulsreihe: y∗ (t) = y (t) ·
∞
δ (t − nta ).
n=−∞
Die Fourier-Transformierte Y∗ (f ) des abgetasteten Signals y∗ (t) wird durch Faltung im Frequenzbereich beschrieben, Y∗ (f ) = Y (f ) ∗
∞ 1 k · δ f− ta ta k=−∞
∞
= −∞
=
1 · ta
∞ 1 k Y (ν) · δ f −ν − dν ta ta k=−∞
∞ k=−∞
k Y f− . ta
(7.1)
7.1 Abtastung
245
Man erkennt sofort, dass das ursprüngliche Spektrum Y (f ) in Abständen von 1/ta = fa periodisch wiederholt wird (Abb. 7.2). Damit eine eindeutige Rekonstruktion des Ursprungsspektrums überhaupt noch möglich ist, darf die Bandbreite des Spektrums Y (f ) nicht größer als 1/2ta sein, damit sich die periodischen Anteile nicht überlappen. Dies führt zum Satz 7.1 Abtasttheorem Ist das Spektrum Y (f ) eines kontinuierlichen Signals bandbegrenzt auf die halbe Abtastfrequenz fa |Y (f )| = 0 für |f | >
fa 1 , = 2 2ta
so kommt es im Spektrum des abgetasteten Signals Y∗ (f ) zu keinen Überlappungen (Aliasing) der periodischen Wiederholungen. Das ursprüngliche Signal y(t) kann daher fehlerfrei aus dem zeitdiskreten Signal y∗ (t) rekonstruiert werden. Die Rekonstruktion gelingt, indem man die periodischen Spektralanteile aus Y∗ (f ) heraus filtert. Dies gelingt durch die Multiplikation von Y∗ (f ) mit einem idealen Rechteckfenster der Breite fa . Der Multiplikation im Frequenzbereich entspricht eine Faltung im Zeitbereich, womit man das rekonstruierte Zeitsignal erhält: yˆ(t) = y∗ (t) ∗ (ta · rfa (t)) ∞ sin πfa t = y(t) δ (t − nta ) ∗ πfa t n=−∞ =
∞ n=−∞
y (nta ) ·
sin πfa (t − nta ) . πfa (t − nta )
(7.2)
Anmerkung Für die praktische Anwendung ist zu beachten, dass das Abtasttheorem eine theoretische Aussage ist. Daher müssen die Fehler abgeschätzt werden, die in der realen Anwendung entstehen. Die im wesentlichen zu beachtenden Fehler sind: 1. Aliasing-Fehler durch nicht bandbegrentzte Signale, da vollständig bandbegrenzte Signale in der Praxis nicht existieren. (s. Abschn. 7.1.1). 2. Eine unendlich kurze Abtastung mit δ–Impulsen ist technisch nicht realisierbar. Vielmehr wird eine endliche Zeit benötigt, um den Abtastwert zu gewinnen. Dies führt zu Fehlern im Signalspektrum (s. Abschn. 7.1.3). 3. Zeitliche Abtastfehler (Jitter) bewirken eine Abweichung von der äquidistanten Abtastung. Dadurch kommt es ebenfalls zu einer Verfälschung des Signals (s. Abschn. 7.1.4). 4. Der Fehler durch das benutzte endliche Beobachtungsfenster T0 , da es in jeder realen Anwendung nur gelingt, einen zeitlich begrenzten Ausschnitt des Signals zu beobachten. Dieses als Leckeffekt bezeichnete Phänomen wird ausführlich in [23] behandelt.
246
7. Erfassung amplitudenanaloger Signale
Y( f )
Y*( f ) Y ( f + fa)
Aliasing
Aliasing
-fa 2
fa 2
-fa
periodische Wiederholung
Nyquistband
Y (f - fa)
fa= t1 a periodische Wiederholung
f
Abbildung 7.2. Spektrum der abgetasteten Zeitfunktion, Aliasing
7.1.1 Aliasing Bei der Berechnung des Spektrums Y∗ (f ) des abgetasteten Signals y∗ (t) in Gl.(7.1) wurde das Spektrum als Summe der um ganzzahlige Vielfache der Abtastfrequenz fa verschobenen Spektren Y (f ) dargestellt: Y∗ (f ) = fa ·
∞
Y (f − k · fa ) .
k=−∞
Besitzt das Spektrum Y (f ) Anteile für Frequenzen größer als die halbe Abtastfrequenz, so kommt es zu spektralen Überlappungen, genannt Aliasing. Ist das Spektrum von Y (f ) bandbegrenzt, so kann es zu Aliasing kommen, wenn die Abtastfrequenz fa zu klein gewählt wurde. Aus Abb. 7.2 erkennt man, dass durch eine geeignete Wahl von fa der Aliasing-Fehler vermieden werden könnte. Ist das Abtasttheorem nicht erfüllt, d.h. ist das Spektrum des abzutastenden Signals y(t) nicht bandbegrenzt, oder ist die Abtastfrequenz fa nicht größer als das Doppelte der Frequenz des größten Spektralanteils in y(t), so kommt es zu spektraler Überlappung (Aliasing). Eine eindeutige Zuordnung der Spektralanteile ist dann nicht mehr möglich. Beispiel 7.1 Aliasing einer harmonischen Schwingung Gegeben ist eine harmonische Schwingung bei 250Hz y(t) = sin(2π · 250Hz · t),
die mit einer Abtastfrequenz von fa = 200Hz
fa =
1 ta
7.1 Abtastung
247
abgetastet werden soll. Hierbei ist das Abtasttheorem verletzt und die eindeutige Zuordnung der Spektralanteile nicht mehr möglich, wie die folgende Rechnung zeigt: 250Hz · n) 200Hz 1 π = sin(2π(1 + )n) = sin( n + 2πn). 4 2
y∗ (t) = y(nta ) = sin(2π
Wegen der 2π–Periodizität des Sinus lässt sich y∗ (t) nicht mehr von einer 50HzSchwingung unterscheiden. Durch Verletzung des Abtasttheorems wird fälschlicherweise eine 50Hz-Schwingung vermutet, sin(2π
π π 50Hz · n) = sin( n) = sin( n + 2πn). 200Hz 2 2
Zur Verhinderung von Aliasing gibt es nun zwei Möglichkeiten: 1. Bei nicht bandbegrenzten Signalen muss man vor der Abtastung mit Hilfe eines analogen Tiefpasses (Anti-Aliasing-Filter) Frequenzanteile größer als fa /2 heraus filtern. 2. Bei bandbegrenzten Signalen muss die Abtastfrequenz fa größer als das Doppelte der höchsten im Signal vorkommenden Frequenz sein. Lässt sich die Abtastfrequenz nicht beliebig erhöhen, so muss man wie unter Punkt 1. mit Hilfe eines Tiefpasses Frequenzanteile größer als fa /2 herausfiltern. 7.1.2 Anti-Aliasing-Filter Zur Erfüllung des Abtasttheorems werden an ein praktisches Anti-Aliasing-Filter hohe Forderungen gestellt. Im Bereich bis zur halben Abtastfrequenz (Nyquistband) soll das Spektrum möglichst nicht gestört werden. Oberhalb von fa /2 sollen alle Spektralanteile vollständig verschwinden. Solch ein idealer Tiefpass ist in der Praxis nicht zu verwirklichen. Man muss sich mit steilflankigen Filtern hoher Ordnung begnügen. Im folgenden sollen die Aliasing-Fehler untersucht werden, die durch die Verwendung nichtidealer Anti-Aliasing-Filter entstehen. Beispiel 7.2 Aliasing-Fehler bei Filter 1. Ordnung Gegeben ist ein kontinuierliches Eingangssignal x(t) mit konstanter Leistungsdichte (weißes Rauschen): Sxx (f ) = const = A2 . Das Signal wird mit einer Abtastfrequenz fa abgetastet. Als Anti-Aliasing-Filter kommt ein Filter 1. Ordnung zum Einsatz, mit einer Grenzfrequenz fg < fa /2 und der Übertragungsfunktion
248
7. Erfassung amplitudenanaloger Signale
G(f ) =
1 . 1 + j · f/fg
Der Nutzsignalbereich erstreckt sich auf den Bereich von |f | ≤ fg (Abb. 7.3). Die Störungen, die durch Aliasing entstehen, sind die spektralen Anteile bei |f | > fa /2 . Mit der Spektralen Leistungsdichte am Ausgang des Filters Syy (f ) = |G(f )|2 · Sxx (f ) =
A2 1 + (f/fg )2
erhält man die Signalleistungen zu fg
PSig = 2
fg
Syy (f ) df = 2 0
= 2fg A2 arctan ∞
PSt¨or = 2
0
A2 df 1 + (f/fg )2
f π f g = fg A2 , fg 0 2
Syy (f ) df
fa /2
2
= 2fg A arctan
∞ f fa 2 = fg A π − 2 arctan . fg fa /2 2 fg
Der Signal-Störabstand wird damit PSig π/2 . = PSt¨or π − 2 arctan fa/2 fg Legt man den Nutzsignalbereich auf ein Viertel der maximalen Bandbreite fg = fa /(2 · 4), so erhält man einen Signal-Störabstand (Signal to Noise Ratio SNR) zu PSig π/2 ≈ 3.205 = 5.1 dB. = SNR = PSt¨or π − 2 arctan(4) Am Beispiel erkennt man, wie wichtig der Einsatz steilflankiger Anti-AliasingFilter ist. Ein Filter 1.Ordnung ist keinesfalls ausreichend. Man erkennt aber auch, dass es für einen großen Signal-Störabstand günstig ist, die Signalbandbreite kleiner als die halbe Abtastfrequenz fa /2 zu wählen. Zur Untersuchung des Aliasingfehlers wird die Betragskennlinie der Tiefpassfilter durch die Asymptoten angenähert (Abb. 7.3). Für ein Filter n–ter Ordnung gilt dann ⎧ für |f | ≤ fg , ⎨ 1 2n 2 |G(f )| ≈ fg ⎩ für |f | > fg . f
7.1 Abtastung
Syy ( f )
249
PSig
( fg f )2 n
PStör
fg
f
fa 2
Nutzsignalbereich
Spektralanteile, die zu Aliasing führen
Abbildung 7.3. Aliasing-Fehler durch nicht-ideales Filter n-ter Ordnung
Die Signalleistungen erhält man dann für ein kontinuierliches Eingangssignal mit konstanter Leistungsdichte Sxx (f ) = A2 : fg
PSig ≈ 2
fg
A2 df = 2fg A2 ,
Syy (f ) df = 2 0
0 ∞
PSt¨or ≈ 2
∞
Syy (f ) df = 2
fa /2
A2 fg2n df f 2n
fa /2
∞ = −2A2 (2n − 1) · f 2n−1 fg2n
fa /2
= A2
(2fg )2n . (2n − 1) · fa2n−1
Der Signal-Störabstand ist für Anti-Aliasing-Filter der Ordnung n 2n−1 PSig fa SNR = ≈ (2n − 1) · . PSt¨or 2fg
(7.3)
Abbildung 7.4 zeigt den Signal-Störabstand für unterschiedliche Filterordnungen n und Grenzfrequenzen fg . Selbst bei einem Filter 8–ter Ordnung sollte die maximale Nutzfrequenz fg um den Faktor 3 . . . 4 kleiner als die Nyquistfrequenz fa /2 gewählt werden, um einen ausreichenden Signal-Störabstand zu gewährleisten. 7.1.3 Mittelwertbildung bei endlicher Abtastdauer Eine Abtastung mit idealen δ–Impulsen ist in der Praxis nicht möglich. Vielmehr ist eine gewisse Zeit nötig, bis die Abtastung durchgeführt ist. Man stelle sich beispiels-
250
7. Erfassung amplitudenanaloger Signale
SNR [dB]
80 n=8
n=4
60 n=2 40 20
n=1
0 1
2
5
10
20
50
fa 2 fg
Abbildung 7.4. Beispiel von Signal-Störabständen bei Anti-Aliasing-Filtern unterschiedlicher Ordnung n
weise einen Kondensator vor, der über das kontinuierliche Eingangssignal y(t) aufgeladen wird und der diesen Spannungswert für den Abtastvorgang kurz speichert. Dies entspricht implizit einer Integration der Eingangsspannung über die Ladezeit des Kondensators. Der Einfluss auf das Signal soll nun untersucht werden. Der Mittelwert eines Zeitsignals wird nach Kap. 6 über das Integral T /2
1 y¯ = lim T →∞ T
y(t) dt −T /2
bestimmt. In der Praxis kann der Grenzübergang nicht durchgeführt werden. Die Mittelung beschränkt sich daher auf ein Intervall der Breite T . Man kann nun für jeden Zeitpunkt t eine Mittelung über das Intervall [t − T/2 ≤ t < t + T/2] durchführen und erhält so den gleitenden Mittelwert (engl. moving average) t+T /2
1 y¯(t) = T
y(τ ) dτ.
(7.4)
t−T /2
Betrachtet man die Faltungsoperation ∞
y¯(t) = y(t) ∗ g(t) =
y(τ )g(t − τ ) dτ −∞
und vergleicht das Ergebnis mit dem gleitenden Mittelwert, so findet man
7.1 Abtastung
g(t) =
1 · rT (t) T
mit rT (t) =
1 0
251
für |t| ≤ T /2, für |t| > T /2.
Die Mittelwertbildung, die einer mit 1/T gewichteten Integration über das Intervall T entspricht, kann durch Faltung des ursprünglichen Signals y(t) mit einem Rechteckfenster rT (t) beschrieben werden. Im Frequenzbereich entspricht das einer Multiplikation des Spektrums Y (f ) mit sin f /f : y¯(t) = ◦| •
1 · y(t) ∗ rT (t) T
1 sin(πT f ) Y¯ (f ) = Y (f ) · RT (f ) = Y (f ) · . T πT f
(7.5)
Die Filterwirkung der Mittelwertbildung (MA-Filter) ist in Abb. 7.5 dargestellt. Das Eingangssignal wird also bereits vor der sich anschließenden idealen δ–Abtastung verfälscht. Dabei kann man drei Frequenzbereiche unterscheiden. a. |f | ≤ 1/2T : Das Signal wird nahezu ungefiltert durchgelassen. In diesem Frequenzbereich sollte das Nutzsignal liegen: 2 Y¯ (f ) ≤ 1. ≤ π Y (f ) b. |f | ≈ 1/T : Die Frequenz einer harmonischen Schwingung stimmt annähernd mit der Wiederholrate der Periode überein. Die Schwingung wird durch die Mittelwertbildung weitgehend aus dem Signal herausgefiltert. c. |f | > 1/T : Das Signal wird gedämpft. Beispiel 7.3 Mittelwertbildung als Anti-Aliasing-Filter Bei vielen integrierenden AD-Wandlern erstreckt sich die Mittelwertbildung über die gesamte Abtastzeit (vgl. Abschn. 7.3). Mit T =
1 fa
erhält man das Spektrum des aufintegrierten Signals vor der Abtastung zu sin(π · f/fa ) Y¯ (f ) = Y (f ) · . π · f/fa Die Dämpfung bei f = fa /2 beträgt nur
252
7. Erfassung amplitudenanaloger Signale
|Y(f)| |Y(f)| 1
2/π
-fa
fa/2
fa
f
Abbildung 7.5. Filter-Charakteristik der Mittelwertbildung
fa fa fa Y¯ ( ) = Y ( ) · 2/π ≈ 0.63 · Y ( ). 2 2 2 Da die Spektralanteile für f ≥ fa /2 nur schlecht gedämpft werden, ist bei breitbandigen Eingangssignalen y(t) trotz Mittelung ein Anti-Aliasing-Filter vorzusehen.
Anmerkung Die reale Abtastung ist durch das Aufladen von Kapazitäten immer mit einer Integration/Mittelwertbildung verbunden. Dabei ist folgendes zu beachten: 1. Ist das Mittelungsintervall klein gegen die Abtastzeit, so erhält man eine sehr breite Filtercharakteristik. Die spektrale Verfälschung im Nyquistband |f | ≤ fa /2 kann dann meist vernachlässigt werden. 2. Ist das Mittelungsintervall gleich der Abtastzeit, so kommt es wie in obigem Beispiel zu Verfälschungen im Nyquistband, die bei der anschließenden digitalen Signalverarbeitung kompensiert werden müssen. Die Filterwirkung ist allerdings für |f | > fa /2 nicht ausreichend. Daher kann bei nicht bandbegrenzten Signalen auf ein Anti-Aliasing-Filter nicht verzichtet werden. 7.1.4 Zeitliche Abtastfehler Bisher wurde davon ausgegangen, dass die Abtastung ohne Zeitfehler exakt zu den Zeitpunkten nta erfolgt. In realen Systemen kann es aber zu einem zeitlichen Fehler bei der Abtastung kommen, der oft auch als Jitter bezeichnet wird. Dies äußert sich in einer Signalverfälschung, die als Störsignal interpretiert werden kann. Abbildung 7.6 zeigt exemplarisch das Fehlersignal bei Abtastung einer harmonischen
7.1 Abtastung
253
Schwingung mit Zeitfehler. Es soll nun eine Abschätzung des Jitter-Fehlers durchgeführt werden [35, 38]. Für diese Abschätzung sei immer die Einhaltung des Abtasttheorems vorausgesetzt. e(t)
t
Abbildung 7.6. Fehlersignal durch Abtastjitter
∞
y∗ (t) = y (t) ·
δ (t − nta ) oder yn = y(nta )
n=−∞
ist die ideal abgetastete Zeitfunktion. Für die tatsächlichen Abtastzeitpunkte gelte tn = n · ta + τn ;
n = 0, ±1, ±2 . . . .
wobei τn den Zeitfehler bei der n–ten Abtastung darstellt. Für die tatsächlich abgetastete Funktion gilt ∞
y˜∗ (t) = y (t) ·
δ (t − nta − τn ) oder y˜n = y(nta + τn ).
n=−∞
Der Fehler durch zeitlich falsches Abtasten ist die Differenz von gestörtem und ungestörtem Signal en = y˜n − yn .
(7.6)
Zur Abschätzung des Fehlers ist das 1. Moment der Spektralfunktion hilfreich. Nach [34] gilt folgende Abschätzung für die k–te Ableitung einer auf fg bandbegrenzten Zeitfunktion: k d y(t) dtk ≤
fg
|2πf |k |Y (f )| df = Mk . −fg
Über den Differenzenquotienten im Abtastzeitpunkt tn
(7.7)
254
7. Erfassung amplitudenanaloger Signale
|y(tn ) − y(nta )| ≤ M1 |tn − nta | = M1 |τn | lässt sich der Fehler nach Gl.(7.6) abschätzen: |en | ≤ M1 · |τn |. Für gegebene n hängt der Wert en nur von τn ab. Nimmt man an, der Zeitfehler τn sei statistischer Natur mit E{τn } = 0,
E{τn2 } = στ2 ,
so folgt, dass die Amplitudenfehler en statistisch unabhängig voneinander sind. Für die Fehlervarianz erhalten wir dann E{e2n } ≤ M12 στ2 . Betrachtet man wegen der Forderung des Abtasttheorems ein auf fg bandbegrenztes Eingangssignal mit konstanter Spektralfunktion Amax für |f | ≤ fg , |Y (f )| = (7.8) 0 sonst, so erhält man mit Gl.(7.7) fg
|2πf | · Amax df = 2πfg2 Amax .
M1 = −fg
Damit wird der Erwartungswert des quadratischen Amplitudenfehlers bzw. seine Fehlerleistung zu E{e2n } ≤ 4π 2 fg4 A2max στ2 = PSt¨or .
(7.9)
Mit Hilfe einer Leistungsbetrachtung lässt sich eine Angabe über den minimalen Signal-Störabstand machen. Mit dem Satz von Parseval ist die Signalenergie des bandbegrenzten Zeitsignals nach Gl.(7.8) gleich ∞
fg
|Y (f )| df = 2
Ey = −∞
A2max df = 2A2max fg . −fg
Berücksichtigt man nun, dass der wesentliche Teil der Signalenergie im Hauptgipfel des Signals von Gl.(7.8) enthalten ist, so kann die Signalleistung durch Division der Energie durch das Zeitintervall 2t0 zwischen den beiden Nullstellen links und rechts vom Hauptgipfel angegeben werden (Abb. 7.7). Mit t0 =
1 2fg
7.1 Abtastung
255
erhält man die Signalleistung zu PSig =
Ey = 2A2max fg2 . 2t0
Der Signal-Störabstand (SNR, Signal to Noise Ratio) berechnet sich mit Gl.(7.9) zu 2A2max fg2 PSig 2 = SNR = = . PSt¨or 4π 2 fg4 A2max στ2 (2πfg στ )2
(7.10)
y(t)
2t0
-1 2 fg
1 2 fg
t
Abbildung 7.7. Zeitlicher Verlauf einer auf fg bandbegrenzten konstanten Spektralfunktion
Anmerkung 1. Je näher die Signalfrequenzen an der Nyquist-Frequenz liegen, desto stärker macht sich der Jitter-Fehler bemerkbar, da sich hochfrequente Signale innerhalb des Zeitfehlers τn stärker verändern als tieffrequente Signalanteile. Für Signalfrequenzen, die klein gegen die halbe Abtastfrequenz sind, kann der Fehler meist vernachlässigt werden. 2. Jitter-Fehler treten bei so genannten Peak-Hold Schaltungen für schnelle ADWandler auf, da innerhalb des Abtastfensters der maximale Signalwert dem idealen Abtastzeitpunkt zugeordnet wird. Abbildung 7.8 zeigt die spektrale Leistungsdichte einer harmonischen Schwingung mit Jitter. Das Signal wurde einem gleichverteilten Zeitfehler τn unterworfen mit τmax = 0.1 · ta , bei ta = 10−3 s. Beispiel 7.4 Jitter-Fehler bei hochgenauer AD-Wandlung Gegeben sei ein 16-Bit AD-Wandler (N = 16) für die CD-Produktion mit einer Abtastfrequenz von fa = 44100Hz. Es soll nun untersucht werden, wie hoch die Anforderungen an die zeitliche Genauigkeit der Abtastung sind. Dabei soll der Amplitudenfehler durch Abtast-Jitter kleiner sein als das Rauschen, das durch die Quantisierung entsteht (Abschn. 7.2). Der Signal-Rauschabstand bei einer Quantisierung von 216 Stufen ist nach Gl.(7.27)
256
7. Erfassung amplitudenanaloger Signale
S(f) [dB]
τmax = 0.1 ta
PStör
f[Hz] Abbildung 7.8. Leistungsdichte einer harmonischen Schwingung mit Jitter
SNR[dB] = 6.02N + 1.76 = 98dB
= < 10 · log 1, 5 · 22N .
Die Musiksignale sind bandbegrenzt auf fg = 20kHz. Nach Gl.(7.10) erhalten wir bei vorgegebenem SNR = 1, 5 · 22N die zulässige Varianz des Zeitfehlers zu στ2 =
2 . (2πfg )2 · SNR
Nimmt man einen gleichverteilten Zeitfehler im Intervall −τmax ≤ τ ≤ τmax
mit στ2 =
2 τmax , 3
an, so wird der maximal zulässige Zeitfehler . 6 1 . τmax ≤ 2πfg SNR Bezieht man nun noch den zulässigen Zeitfehler τmax auf die Abtastzeit ta , so erhält man mit den oben gemachten Annahmen τmax ≈ 1.08 · 10−5 , ta
τmax ≈ 245 ps.
Das Ergebnis zeigt, dass bei AD-Wandlern mit hoher Bit-Auflösung eine sehr genaue Zeitbasis für die Abtastung notwendig ist, wenn der gewünschte SignalStörabstand eingehalten werden soll.
7.2 Quantisierung Bei der Quantisierung werden den stetigen Eingangssignalen x(t) diskrete Werte xq (t) zugeordnet. Die Quantisierung ist eine nichtlineare Operation mit einer Kenn-
7.2 Quantisierung
257
linie nach Abb. 7.9. Ein Eingangssignal, welches innerhalb eines Quantisierungsstreifens der Breite q liegt, ergibt am Ausgang eine Amplitude, die der Mitte des zugehörigen Streifens entspricht (Rundungskennlinie). Für die Quantisierung sind aber auch andere Kennlinien denkbar, bei denen die Quantisierungsstufen nicht alle die gleiche Breite aufweisen. Sie sollen hier aber nicht diskutiert werden [17]. Der Quantisierungsfehler ist |eq (t)| = |xq (t) − x(t)| ≤
q . 2
(7.11)
xq (t ) 3q 2q q
-5q/2 -3q/2
q/2 3q/2
5q/2
x (t )
-q -2q -3q
Abbildung 7.9. Kennlinie eines Quantisierers
Er wird durch den lokalen Verlauf des Signals und den Abstand zum jeweils nächsten Quantisierungsniveau bestimmt. Der Quantisierungsfehler eines stetigen Zeitsignals weist üblicherweise viele Sprünge auf. Das dazugehörige Spektrum ist deshalb wesentlich breiter als das des ursprünglichen Zeitsignals x(t) . Die Bandbreite des Quantisierungsfehlers ist näherungsweise proportional zur Steigung des Signals |x(t)| ˙ und umgekehrt proportional zur Breite einer Quantisierungsstufe q. Beispiel 7.5 Quantisierung einer harmonischen Schwingung Als Eingangssignal soll eine harmonische Schwingung x(t) = a sin(2π
1 t ) f= = 1Hz T0 T0
dienen, deren Amplitude größer als eine halbe Quantisierungsstufe q sein soll: a>
q . 2
258
7. Erfassung amplitudenanaloger Signale
Damit bleibt das Ausgangssignal nicht konstant in einer Quantisierungsstufe hängen, sondern springt zwischen diskreten Amplituden. Abbildung 7.10 zeigt das Signal vor und nach der Quantisierung, sowie den Quantisierungsfehler eq (t). Man erkennt den treppenförmigen Verlauf des Ausgangssignals und sieht weiterhin, dass der Fehler viele Sprünge aufweist. Das zugehörige Spektrum See (f ) des Fehlersignals in Abb. 7.11 ist daher viel breitbandiger als das des Eingangssignals.
8q 4q 0 −4q −8q
0
0.2
0.4
0.6
0.8
t
0
0.2
0.4
0.6
0.8
t
q/2
0
−q/2
Abbildung 7.10. Quantisiertes Signal und Quantisierungsfehler eq (t)
See(f) 0.5
0.25
0
0
100
200
300
400
f[Hz]
Abbildung 7.11. Leistungsdichtespektrum des Quantisierungsfehler See (f )
7.2 Quantisierung
259
Aus diesen praktischen Beobachtungen heraus wird der Quantisierungsfehler eq (t) näherungsweise als weißes Rauschen angenommen. Er sei unkorreliert zum Eingangssignal x(t) und habe innerhalb einer Quantisierungsstufe eine Gleichverteilung ⎧ q q ⎨1 für − ≤ eq ≤ , (7.12) feq (eq ) = q 2 2 ⎩ 0 sonst. Voraussetzung hierfür ist ein veränderliches Eingangssignal x(t), das genügend Quantisierungsstufen überstreicht. Man erhält damit ein lineares Modell für die Quantisierung (Abb. 7.12), bei dem dem stetigen Eingangssignal x(t) das Quantisierungsrauschen eq (t) additiv überlagert wird. Die Behandlung der ursprünglichen Nichtlinearität des Systems wird durch diesen Ansatz vermieden.
xq(t)
x(t)
x(t)
+ eq(t)
xq(t) Abbildung 7.12. Modellierung der Quantisierung mit überlagertem Rauschen eq (t)
Im folgenden soll die praktische Anwendbarkeit der eben gemachten Annahme durch Anwendung der Wahrscheinlichkeitstheorie überprüft werden [49, 50]. Die Signale am Quantisierer werden dazu als stochastische Signale beschrieben. Wir führen Zufallsvariable ein, die mit Schreibmaschinenschrift bezeichnet werden. Die Zufallsvariable x repräsentiert dabei die möglichen Amplituden eines Signals x(t). 7.2.1 Wahrscheinlichkeitsdichten von Signalamplituden Zur statistischen Beschreibung der Verhältnisse am Quantisierer benötigt man die Wahrscheinlichkeitsdichte der Amplituden des Eingangssignals. Sie sei kurz mit Amplitudendichte bezeichnet. Für ihre Berechnung macht man den folgenden Ansatz: Der Zeit t in einem Beobachtungsintervall T0 sei eine Zufallsvariable t zugeordnet, die eine Gleichverteilung besitzt, ⎧ ⎨ 1 für 0 ≤ t ≤ T0 , ft (t) = T0 ⎩ 0 sonst.
260
7. Erfassung amplitudenanaloger Signale
Dieser Ansatz ist gerechtfertigt, da kein Zeitpunkt ti einer anderen Zeit bevorzugt wird und daher jede Zeit t mit der gleichen Wahrscheinlichkeit auftritt. Die Amplitude zum Zeitpunkt t erhält man über eine Zeitfunktion x = g(t). Zur Zufallsvariablen für die Amplitude x gelangt man über die Transformation x = g(t), wobei die Funktion g(·) die Zufallsvariable t in die Zufallsvariable x überführt. Die Bestimmung der Amplitudendichte ist also gleich der Bestimmung der Wahrscheinlichkeitsdichte der transformierten Zufallsvariablen Zeit nach Satz 5.1. n dg(t) −1 ft (ti ) . (7.13) fx (x) = dt t=ti i=1 Beispiel 7.6 Amplitudendichte einer harmonischen Schwingung Gegeben sei eine allgemeine harmonische Schwingung der Form m u(t) = am cos 2π t. T0 Gesucht ist die Amplitudendichte fx (x) bei gegebener Gleichverteilung der Zeit ft (t). Im Intervall [0, T0 ] hat die Schwingung m–Perioden. Es gibt daher 2m Lösungen für die inverse Funktion: x T0 tn = u−1 (x) = arccos , n = 1, . . . , 2m. (7.14) 2πm am Mit m m du(t) = −2π am sin 2π t dt T0 T0 folgt nach Einsetzen von Gl.(7.14) du(t) m) 2 = 2π am − x2 . dt T0 t=tn Mit der angenommenen Gleichverteilung der Zeit t im Intervall [0, T0 ] wird ft (t) =
1 T0
und nach Gl. (7.13) 2m 1 T0 ) · T 2πm a2m − x2 0 n=1 1 = ) , |x| ≤ am . 2 π am − x2
fx (x) =
(7.15)
7.2 Quantisierung
261
fx(x)
2
1 1/(πam)
0
0
-am
am
x
Abbildung 7.13. Amplitudendichte einer harmonischen Schwingung
7.2.2 Amplitudendichte einer Fourier-Reihe Allgemeine periodische Signale können in eine Fourier-Reihe entwickelt werden: ∞
x(t) =
a0 k + ak cos 2π t. 2 T0 k=1
Man kann sich das Signal wegen t ≥ 0 symmetrisch zu t = 0 denken. Die Sinusterme fallen damit heraus. Betrachtet man die Amplituden der einzelnen Schwingungen als voneinander unabhängige Zufallsvariablen xk x = x0 + x1 + . . . + xn + . . .
,
so erhält man die Amplitudendichte der Fourier-Reihe durch Faltung der Wahrscheinlichkeitsdichten der Teilsignale, also fx (x) = fx0 (x) ∗ fx1 (x) ∗ . . . ∗ fxn (x) ∗ . . . .
(7.16)
Mit dem Ergebnis (7.15) aus obigem Beispiel und der Wahrscheinlichkeitsdichte des konstanten Gliedes a0 fx0 (x) = δ x − 2 lässt sich die Amplitudendichte eines beliebigen periodischen Signals darstellen. Die explizite Berechnung von fx (x) ist in vielen Fällen nicht notwendig, wenn man sich den zentralen Grenzwertsatz (Satz 5.2) der Wahrscheinlichkeitsrechnung zu Nutze macht [37]. Dann kann man in den meisten Fällen die Summendichte durch eine Normalverteilung annähern.
262
7. Erfassung amplitudenanaloger Signale
Beispiel 7.7 Amplitudendichte eines Summensignals Es soll die Amplitudendichte einer Summe von vier harmonischen Signalen y(t) =
4 6−k k=1
5
cos 2πkt
mit einer Normalverteilung nach dem zentralen Grenzwertsatz verglichen werden. Der Erwartungswert der einzelnen Amplitudendichten yk verschwindet: ak
y¯k = E{yk } = −ak
ak ) a2k − yk2 ) ·yk · dyk = − = 0. π π a2k − yk2 −ak
1
aus Gl. 7.15
Die Varianz berechnet sich zu ak
σy2k
y2 ) k dyk π a2k − yk2 −ak a 0 yk k yk a2k a2 2 2 arcsin = − ak − y k + = k. 2π 2π ak −ak 2 = E{(yk − y¯k ) } = 2
Anmerkung Das Standardabweichung σyk stimmt erwartungsgemäß mit dem Effektivwert der Amplitude einer Sinusschwingung überein, ak σyk = Ueff = √ . 2 Abbildung 7.14 zeigt die gute Übereinstimmung der beiden Verteilungen. Das Beispiel zeigt, dass die Amplitudendichte der meisten Signale durch eine Normalverteilung beschrieben werden kann. Das erleichtert später die Abschätzung des Fehlers, der durch die Quantisierung entsteht. 7.2.3 Quantisierungstheorem Quantisierung von Signalen bedeutet, dass den kontinuierlichen Amplituden diskrete Werte zugeordnet werden. Die Diskretisierung der Amplituden entspricht der Abtastung der Amplitudendichte über dem Amplitudenbereich (analog zur Abtastung von Signalverläufen über dem Zeitbereich). Eine Zufallsvariable x mit der Amplitudendichte fx (x) durchlaufe einen Quantisierer. Der Ausgang des Quantisierers erzeugt die diskreten Ereignisse k · q. Die Wahrscheinlichkeitsdichte der quantisierten Zufallsvariable xq ist daher eine Impulsreihe. Die Fläche der einzelnen Impulse muss gleich der Wahrscheinlichkeit sein, dass die Signalamplitude innerhalb des
7.2 Quantisierung
263
f (u) u
0.6
0.4
0.2
0 −σ
u
σ
0
u
u
Abbildung 7.14. Wahrscheinlichkeitsdichte des Summensignals und der Normalverteilung
zugehörigen Quantisierungsstreifens liegt (Abb. 7.15). Die Einhüllende der Impulsreihe ergibt sich somit zu q q P (x − ≤ x ≤ x + ) = 2 2
x+ q2
fx (x)dx,
(7.17)
x− q2
woraus sich die Wahrscheinlichkeitsdichte fxq (xq ) der quantisierten Größe ergibt: x+ q2
fx (x)dx ·
fxq (xq ) =
∞
δ(x − kq) ,
mit xq = k q.
k=−∞
x− q2
fx(x), fxq(xq)
-3q
-2q
-q
0
q
2q
3q
x, xq
Abbildung 7.15. Wahrscheinlichkeitsdichte eines kontinuierlichen und quantisierten Signals
Die Quantisierung kann als eine Flächenabtastung der Amplitudendichte des Eingangssignals angesehen werden. Dabei liegt der diskrete Abtastwert in der Mitte des Bandes und sein Gewicht ist gleich der Fläche unter der Wahrscheinlichkeitsdichte im Band. Beschreibt man Gl.(7.17) wie bei der Mittelwertbildung in Abschn. 7.1.3 als Faltung der Amplitudendichte mit einem Rechteckfenster der Breite q,
264
7. Erfassung amplitudenanaloger Signale
,
x+ q2
fx (x)dx = fx (x) ∗ rq (x),
rq (x) =
x− q2
1
für |x| ≤
0
sonst,
q , 2
so erhält man folgende Form der abgetasteten Wahrscheinlichkeitsdichte: fxq (xq ) = (fx (x) ∗ rq (x)) ·
∞
δ(x − kq) ,
mit xq = k q.
k=−∞
Dem entspricht die charakteristische Funktion Φxq (f ) = [Φx (f ) · Rq (f )] ∗
∞ 1 k δ(f − ) q q k=−∞
=
∞
Φx (f −
k=−∞
k k sin πq(f − q ) )· . q πq(f − kq )
(7.18)
Die charakteristische Funktion des quantisierten Signals Φxq (f ) ist gleich der charakteristischen Funktion des kontinuierlichen Signals Φx (f ), welche mit sin πqf /πqf gewichtet und an den „Frequenzen“ f = k/q periodisch wiederholt wird (Abb. 7.16).
Φxq(f)
-1/q
-1/2q
0
1/2q
1/q
Abbildung 7.16. Charakteristische Funktion eines quantisierten Signals
f
7.2 Quantisierung
265
Dieses Ergebnis führt zum Satz 7.2 Quantisierungstheorem Ist die Wahrscheinlichkeitsdichte fx (x) des unquantisierten Signals x(t) bandbegrenzt, d.h. besitzt die charakteristische Funktion Φx (f ) nur Amplitudenkomponenten bei Frequenzen fu , die kleiner sind als die halbe Quantisierungsfrequenz 1/2q, so lässt sich aus der Wahrscheinlichkeitsdichte des quantisierten Signals fxq (xq ) die ursprüngliche Wahrscheinlichkeitsdichte des kontinuierlichen Signals fehlerfrei rekonstruieren: fu ≤
1 . 2q
(7.19)
Für die fehlerfreie Rekonstruktion der Momente der Wahrscheinlichkeitsdichte genügt die schwächere Bedingung fu ≤
1 , q
(7.20)
da diese für f → 0 berechnet werden. Anmerkung 1. Das Quantisierungstheorem zeigt große Ähnlichkeit mit dem Abtasttheorem. Bei der Zeitdiskretisierung werden die Signalamplituden über der Zeit abgetastet. Das resultierende Spektrum ∞ 1 k Y∗ (f ) = Y f− ta ta k=−∞
ist gleich dem mit 1/ta gewichteten Spektrum des zeitkontinuierlichen Signals, welches mit der Frequenz f = 1/ta periodisch wiederholt wird. Die Quantisierung hingegen ist die Flächenabtastung der Amplitudendichte, wodurch sich im Unterschied zur Zeitdiskretisierung in Gl.(7.18) ein Gewichtsfaktor sin πq(f − kq ) πq(f − kq ) ergibt. 2. Zur vollständigen Rekonstruktion der kontinuierlichen Signale ist sowohl bei der Zeitdiskretisierung als auch bei der Amplitudenquantisierung auf die strikte Bandbegrenzung Gl.(7.19) zu achten, damit es zu keinen spektralen Überlappungen (Aliasing) kommt. In vielen Fällen genügt zur Beschreibung der statistischen Signaleigenschaften die Bestimmung der Momente. Im Falle der Quantisierung genügt die Einhaltung von Gl.(7.20), da nur Aliasing im Bereich um f = 0 vermieden werden muss.
266
7. Erfassung amplitudenanaloger Signale
3. Reale charakteristische Funktionen sind nicht bandbegrenzt. Da der Amplitudenbereich von physikalischen Signalen begrenzt ist, ist auch die zugehörige Amplitudendichte beschränkt auf ein Intervall −amax ≤ x ≤ amax . Solche Dichten besitzen nach dem Riemann-Lebesgue-Lemma [23] aber immer eine nicht bandbegrenzte charakteristische Funktion. 4. Es ist wichtig festzustellen, dass bei der Herleitung des Quantisierungstheorems keinerlei Voraussetzungen über den Quantisierungsfehler gemacht wurden. Die Eigenschaften dieses Fehlers werden später gesondert betrachtet. Wir wollen im folgenden den Erwartungswert und die Varianz des quantisierten Signals berechnen, unter der Voraussetzung, dass das Quantisierungstheorem eingehalten wurde. Erwartungswert: 1 dΦxq (f ) E{xq } = −j2π df f =0 dΦx (f ) sin πqf 1 πqf cos πqf − sin πqf + Φx (f ) = −j2π df πqf πqf 2 f =0 1 dΦx (f ) = = E{x}. (7.21) −j2π df f =0 Das 2. zentrale Moment berechnet sich zu
E{x2q }
d2 Φxq (f ) 1 = (−j2π)2 df 2 f =0 2 d Φx (f ) sin πqf dΦx (f ) πqf cos πqf − sin πqf 1 +2 = (−j2π)2 df 2 πqf df πqf 2 [2 − (πqf )2 ] sin πqf − 2πqf cos πqf + Φx (f ) πqf 3 f =0 2 d2 Φx (f ) 1 q2 q = E{x2 } + . (7.22) = + (−j2π)2 df 2 12 12 f =0
Die Varianz des quantisierten Signals ist σx2q = E{(xq − E{xq })2 } = E{x2q } − E{xq }2
7.2 Quantisierung
267
und mit der Varianz des stetigen Signals σx2 = E{x2 } − E{x}2 ergibt sich daraus σx2q = σx2 +
q2 . 12
Ist das Quantisierungstheorem erfüllt, so ist 1. der Erwartungswert der quantisierten Zufallsvariablen E{xq } gleich dem Erwartungswert der stetigen Zufallsvariablen E{x}. Bei einer Mittelwertbildung als Approximation des Erwartungswertes kann man nach der Quantisierung den Erwartungswert der stetigen Größe rekonstruieren. 2. die Varianz der quantisierten Zufallsvariablen E{x2q } gegenüber der des stetigen Signals um q 2 /12 höher. 7.2.4 Wahrscheinlichkeitsdichte des Quantisierungsfehlers Mit den Ergebnissen aus Beispiel 7.5 wurde durch Plausibilitätsüberlegungen der Quantisierungsfehler als additive Überlagerung eines gleichverteilten Rauschens angenommen. Diese Annahme soll im folgenden abgeleitet werden. Ist das Quantisierungstheorem erfüllt, so kommt es zu keiner spektralen Überlappung der charakteristischen Funktion des quantisierten Signals. Aus Gl.(7.18) erhält man im Nyquistband für k = 0 −
1 1 ≤f ≤ , 2q 2q
1 sin πqf Φxq (f ) = Φx (f ) · Rq (f ) = Φx (f ) · . q πqf
(7.23)
Nach Gl.(5.7) entspricht aber die Multiplikation zweier charakteristischer Funktionen gerade der Summation zweier unabhängiger Zufallsgrößen xq = x + eq . Dabei ist Rq (f ) bis auf einen Faktor q gerade die Fourier-Transformierte einer gleichverteilten Wahrscheinlichkeitsdichte feq (eq ). Dies bestätigt aber gerade unsere Modellvorstellung aus Abb. 7.12, wonach die Quantisierung als additive Überlagerung des stetigen Signals durch ein unabhängiges Quantisierungsrauschen eq (t) beschrieben wird. Aus Gl.(7.23) erhält man die charakteristische Funktion und die Wahrscheinlichkeitsdichte des Quantisierungsrauschens zu 1 sin πqf , Φeq (f ) = · Rq (f ) = q πqf ⎧1 q q ⎨ für − ≤ eq ≤ , 2 2 feq (eq ) = q ⎩ 0 sonst.
(7.24)
268
7. Erfassung amplitudenanaloger Signale
Satz 7.3 Lineares Quantisierungsmodell Ist das Quantisierungstheorem erfüllt, so lässt sich die Quantisierung als lineares Modell beschreiben. Dem stetigen Eingangssignal x(t) wird ein im Intervall [−q/2, q/2] gleichverteiltes Quantisierungsrauschen (Abb. 7.17) eq (t) additiv überlagert: xq (t) = x(t) + eq (t).
(7.25)
Die Momente des quantisierten Signals ergeben sich aus der Summe der Momente des kontinuierlichen Signals und des Quantisierungsrauschens, E{xq (t)k } = E{x(t)k } + E{eq (t)k }.
(7.26)
Mit dem Erwartungswert des Quantisierungsrauschens 1 E{eq (t)} = q
q 2
eq deq = 0 − q2
und der Varianz der Gleichverteilung
E{eq (t)2 } =
1 q
q 2
e2q deq = − q2
q2 12
erhält man sofort die Momente der quantisierten Größe nach Gl.(7.21) und (7.22) Aus der Varianz des Quantisierungsrauschens lässt sich, bei gegebener Auflösung des Quantisierers in Bit, ein Signal-Störabstand (Signal-to-Noise-Ratio SNR) angeben. Das SNR ist das Verhältnis von Nutzsignalleistung zur Leistung des Quantisierungsrauschens. Wird ein sinusförmiges Eingangssignal über 2N Stufen quantisiert, so erhält man den Effektivwert der Eingangsspannung zu ueff =
2N −1 q √ . 2
Damit wird das Verhältnis der Signalleistungen zu SN R =
Psig u2 22N −2 q 2 /2 = 22N · 1.5, = eff = Pst¨or σe2q q 2 /12
SN R[dB] = 10 lg(22N · 1.5) = 6, 02 · N + 1.76.
(7.27)
In der Praxis ist das Quantisierungstheorem niemals exakt erfüllbar. Es zeigt sich aber, dass Satz 7.3 dennoch näherungsweise gilt, wenn die Eingangsamplituden mehrere Quantisierungsstufen durchlaufen.
7.2 Quantisierung
269
feq(eq) 1/q
-q/2
0
q/2
eq
Abbildung 7.17. Wahrscheinlichkeitsdichte des Quantisierungsfehlers
Beispiel 7.8 Grobe Quantisierung normalverteilter Größen Es werden zwei Signale mit normalverteilten Amplituden nach Abb. 7.18 quantisiert. Die Breiten der gewählten Quantisierungsstufen betragen q1 = σ,
q2 = 3σ.
Dabei ist σ die Varianz der Normalverteilung. Die Signalamplituden sind begrenzt auf das Amplitudenintervall |x1 | ≤ 2.5σ,
|x2 | ≤ 4.5σ.
fx(x2)
fx(x1)
-2.5σ
−σ
σ
2.5σ
x1 -4.5σ
−3σ
3σ
4.5σ
x2
Abbildung 7.18. Quantisierung normalverteilter Amplituden
Konstruiert man feq (eq ) für die beiden Fälle, so gelangt man zu Abb. 7.19. Man erkennt, dass bei normalverteilten Amplituden bereits für 5 Quantisierungsstufen im Amplitudenbereich von ±2.5σ die Annahme eines gleichverteilten Quantisierungsfehlers sehr gut erfüllt ist. Da nach Abschn. 7.2.2 die Amplitudendichte vieler Signale durch eine Normalverteilung beschrieben werden kann, ist der Ansatz eines gleichverteilten Quantisierungsfehlers in der Praxis gerechtfertigt. 7.2.5 Dither Voraussetzung für die näherungsweise Erfüllung des Quantisierungstheorems war, dass die Amplitude des kontinuierlichen Eingangssignals mehrere Quantisierungsstufen durchläuft. Dies setzt ein dynamisch veränderliches Signal voraus. Es gibt jedoch Fälle, in denen diese Voraussetzung verletzt ist. Dies tritt bei langsam veränderlichen Prozessen auf. Die Amplituden der zu messenden Signale durchlaufen
270
7. Erfassung amplitudenanaloger Signale
feq(eq) q1=σ
q2=3σ
−σ 2
−3σ 2
σ 2
eq
3σ 2
Abbildung 7.19. Wahrscheinlichkeitsdichte des Quantisierungsfehlers bei grober Quantisierung Nutzsignal u(t) (− − −), quantisiertes Signal u (t) (——) q
2 q
1.5 1 0.5
0
1
2
3
4
5
6
7
8
9
10
Abbildung 7.20. Signalverlauf eines langsam veränderlichen Prozesses (z.B. Temperaturverlauf)
sehr wohl viele Quantisierungsstufen, verharren aber während eines Beobachtungsintervalls innerhalb einer Stufe (Abb. 7.20). Die lokalen Amplitudendichten sind im Grenzfall eines konstanten Signalabschnittes impulsförmig. Die zugehörige charakteristische Funktion ist dann eine Harmonische: u(t) = const = u0 , fu (u) = δ(u − u0 ) ◦−• Φu (f ) = 1 · e−j2πf u0 . Durch die periodische Wiederholung von Φu (f ) nach der Quantisierung entstehen wegen der fehlenden Bandbegrenzung starke spektrale Überlappungen der charakteristischen Funktion. (s. Aliasing bei der Zeitdiskretisierung). Dadurch lassen sich die ursprünglichen Signalmomente nicht mehr fehlerfrei bestimmen. Aus Abschn. 7.1.2 ist bekannt, dass spektrale Überlappungen mit Hilfe eines Anti-AliasingFilters verhindert werden können. Ein ähnliches Verfahren, genannt Dither, ist auch bei der Amplitudenquantisierung anwendbar. Der Dither ist ein Signal, das eine näherungsweise bandbegrenzte charakteristische Funktion besitzt. Durch Multiplikation der charakteristischen Funktionen von Dither und Nutzsignal erhält man die gewünschte Filterwirkung. Da die Multipli-
7.2 Quantisierung
271
kation von charakteristischen Funktionen der Addition zweier Zufallsvariablen entspricht, muss der Dither vor der Quantisierung zum Nutzsignal addiert werden. Bei bekannten Momenten des Dither lassen sich nach der Quantisierung die Momente des Nutzsignals durch Tiefpassfilterung rekonstruieren. Beispiel 7.9 Digitale Temperaturmessung Die Temperatur eines chemischen Prozesses soll auf ∆T ≤ 0.1◦ C genau bestimmt werden. Der zu erfassende Messbereich liegt zwischen 0◦ C ≤ T < 400◦ C Die Temperatur werde mittels eines AD-Wandlers erfasst. Wie hoch muss die Auflösung des Wandlers sein? Konventionell: Nach Gl.(7.11 ) ist der Quantisierungsfehler eq ≤ q/2. Daraus erhält man für die geforderte Auflösung die Breite q einer Quantisierungsstufe zu ∆T ≤ 0.1◦ C =
q , 2
q = 0.2◦ C.
Für den Messbereich sind 2000 Stufen notwendig. Dies entspricht einem AD-Wandler mit 11-Bit Auflösung. Ohne überlagerte Störungen genügt ein einziger Abtastwert, um die Temperatur mit der geforderten Auflösung zu erfassen. Dither: Macht man sich die Eigenschaften des Dither zu nutze, so kann man mit einem AD-Wandler weit geringerer Auflösung arbeiten. Dem Temperatursignal wird ein hochfrequenter, mittelwertfreier Dither überlagert (Abb. 7.24). Das konstante Nutzsignal wird dadurch über mehrere Quantisierungsstufen verteilt. Das Dithersignal sei eine hochfrequente Sägezahnschwingung der Amplitude |umax | = 2q. Die Amplitudendichte des Dither ist eine Gleichverteilung im Intervall −2q ≤ u ≤ 2q, woraus für die charakteristische Funktion Φdith (f ) eine sin f /f Funktion folgt (Abb. 7.21) 1 1 = 4q −2q ≤ u ≤ 2q ◦−• Φdith (f ) = R4q (f ). fdith (u) = 2umax 0 sonst Ohne Dither wird die charakteristische Funktion Φu (f ) durch die Abtastung der Amplitudendichte an den Frequenzen k/q periodisch wiederholt. Es kommt zu großen Aliasingfehlern (Abb. 7.22). Durch die Überlagerung des Dither wird Φu (f ) mit der charakteristische Funktion des Dither Φdith (f ) multipliziert (Filterung). Nach Abb. 7.22 ist Φdith (f ) sehr viel schmalbandiger als Φu (f ). Dadurch werden hohe Frequenzen gedämpft und Aliasing vermieden. Zur Bestimmung des reellen Erwartungswertes benötigt man die Ableitung des Imaginärteils der charakteristischen Funktion 1 dΦuq (f ) . E{uq } = −j2π d(f ) f =0 Abbildung 7.23 zeigt den Imaginärteil der charakteristischen Funktion mit und ohne Dither im Vergleich zur charakteristischen Funktion des kontinuierlichen Signals.
272
7. Erfassung amplitudenanaloger Signale Dither−Signal udith(t)
Φdith(f)
Amplitudendichte fdith(u)
0.3
2
1
0.25
q
1
0.8
0.2
0.6
0.15
0
0.4
0.1
0.2
0.05
0
−1 −2 0
4
2 t
0 −4
−2
0 u/q
2
4
−0.2 −2
0 f*q
2
Abbildung 7.21. Sägezahnschwingung als Dithersignal, Amplitudendichte des Signals und charakteristische Funktion Betrag von Φ(f) und Aliasing (− − −)
Abbildung 7.22. Betrag der charakteristischen Funktionen des Nutzsignals (grau) mit periodischen Wiederholungen und Aliasing (- - -) sowie die zu hohen Frequenzen der stark gedämpften charakteristischen Funktion des Summensignals aus Temperatur und Dither (——)
Die mit dem Faktor 1/(−j2π) gewichtete Ableitung zur Bestimmung des Erwartungswertes zeigt bei Einsatz des Dither an der Stelle f = 0 eine gute Übereinstimmung mit der Funktion des kontinuierlichen Signals. Eine anschließende Mittelwertbildung über zeitlich aufeinander folgende quantisierte Signale entfernt den Dither und rekonstruiert den Erwartungswert des kontinuierlichen Nutzsignals. Die erzielbare Genauigkeit hängt vom Amplitudenbereich des Dithersignals ab. Sie ist aber höher als die halbe Quantisierungsstufe q/2 des verwendeten AD-Umsetzers. Anmerkung 1. Als Dithersignale eignen sich sowohl periodische Signale als auch stochastische Signale wie weißes Rauschen. Es müssen nur die Momente des Dither a-piori bekannt sein. Vorteilhaft sind mittelwertfreie Signale, da sich so die Bestimmung des Erwartungswertes des Nutzsignals sehr einfach gestaltet (movingaverage-Filter).
7.2 Quantisierung Erwartungswert: j/(2 π) * dΦ/df
Imaginärteil von Φ(f) 1
1
0.5
0.5
0
0
−0.5
−0.5
−1
−1
−1
−0.5
0 f*q
273
0.5
1
−1
−0.5
0
0.5
1
f*q
Abbildung 7.23. Imaginärteil der charakteristischen Funktion mit (grau) und ohne Dither (- - -) und deren gewichtete Ableitung zur Bestimmung von E{uq } sowie die Größen des kontinuierlichen Signals (——) Nutzsignal u(t) (− − −), Nutzsignal+Dither (——) 4
q
2 0 −2
0
1
0
1
0
1
2
3
4 5 6 Quantisierte Signale
7
8
9
10
8
9
10
8
9
10
4
q
2
0 2 3 4 5 6 7 Nutzsignal u(t) (− − −), rekonstruiertes Nutzsignal ~ u(t) (——)
2
q
1.5 1 0.5
2
3
4
5
6
7
Abbildung 7.24. Signalverlauf des Nutzsignal mit Dither, die quantisierten Signale und das rekonstruierte Nutzsignal durch Mittelwertbildung über eine Ditherperiode.
2. Das Spektrum des Dither sollte so beschaffen sein, dass keine spektralen Anteile im Frequenzbereich des Nutzsignals vorhanden sind. Vielmehr sollte der Frequenzbereich der beiden Signale weit auseinander liegen, um die anschließende Entfernung des Dither durch Filterung zu erleichtern. Auf die Einhaltung des Abtasttheorems ist zu achten (fDither < fa /2).
274
7. Erfassung amplitudenanaloger Signale
3. Den Gewinn an Genauigkeit erkauft man sich mit einer höheren Abtastrate und der anschließend notwendigen Signalverarbeitung (Filterung).
7.3 Analog-Digital-Umsetzer Sollen Messwerte in einem Rechner weiter verarbeitet werden, so müssen die stetigen, amplitudenanalogen Signale in zeitdiskrete, digitale Werte umgesetzt werden. Die geschieht mit Analog-Digital-Umsetzern. Die Effekte, die allgemein bei einer Abtastung und Quantisierung von Signalen auftreten, wurden bereits diskutiert. Im folgenden wird deshalb die Arbeitsweise verschiedener Analog-Digital-Umsetzer (ADU) aufgezeigt. Dabei steht nicht die Schaltungstechnik im Vordergrund, die beispielsweise in [41, 46] nachgeschlagen werden kann. Vielmehr stehen die Effekte im Vordergrund, die mit einem spezifischen Wandelverfahren einhergehen. 7.3.1 Integrierender AD-Umsetzer Der Zwei-Rampen-AD-Umsetzer (dual slope converter) ist in einer vereinfachten Ausführung in Abb. 7.25 dargestellt [40]. Ein Schalter schaltet abwechselnd die zu wandelnde Eingangsspannung u(t) und die feste Referenzspannung −uref auf den Eingang des Integrators. Dessen Ausgangsspannung t
1 uint (t) = − RC
u (t) dt 0
verläuft während des Referenzintervalls Tref linear abwärts. Am Ende des Intervalls ist 1 uint (Tref ) = − RC
Tref
u (t) dt = −
Tref u (t), RC
0
d.h. die Eingangsspannung wird durch die Integration im Referenzintervall gemittelt. Am Ende der Periodendauer Tref wird das Flipflop Q zurückgesetzt und der Eingang auf die Referenzspannung −uref umgeschaltet. Die Integrator-Ausgangsspannung verläuft im Zeitintervall T rampenförmig bis Null zurück: T
uint (Tref
1 Tref u ¯+ + T) = − RC RC
uref dt 0
=−
T Tref u ¯+ uref = 0. RC RC
(7.28)
7.3 Analog-Digital-Umsetzer
C
Q =1
u (t)
275
R Q = 0
+
+
u int
− u ref
S
Q
R
Q
Perioden-Ende Zählen Rücksetzen
Periodendauerzähler T ref
Zählfrequenz f0
Zählen Rücksetzen
Periodendauerzähler T
Übernahme Periodenendwertregister Z Q T
T ref
t u int
−
−
Tref RC
1 u( t ) RC
t 1 u RC ref
u( t )
Zähler Z
t
Abbildung 7.25. Integrierender AD–Umsetzer
Mit dem Nulldurchgang der Spannung uint (t) setzt der Komparator das Flipflop Q. Der Zählerendwert Z = T · f0 wird am Ende der Periodendauer T in das Periodenendwertregister übernommen. Aus Gl.(7.28) erhält man u¯ T T · f0 Z = = = uref Tref Tref · f0 Zref
⇒
Z=
Zref ·u ¯. uref
(7.29)
276
7. Erfassung amplitudenanaloger Signale
Die Zeitkonstante RC geht nicht in den Wandlungsfehler ein. Auch die Zählfrequenz f0 fällt heraus. Integrierende AD–Wandler weisen eine sehr hohe stationäre Genauigkeit auf. Wenn der Mittelwert der Störungen während der Periodenzeit Tref Null ist, gehen diese nicht in das Wandlungsergebnis ein (Mittelwertfilter nach Abschn. 7.1.3). Dies wird mit einer sehr langen Umsetzungszeit erkauft. Signale mit höheren Frequenzkomponenten werden aber durch die implizite Mittelwertbildung gedämpft und das Ergebnis der AD–Wandlung dadurch verfälscht. Das Verfahren kann auf Eingangsspannungen mit beliebigem Vorzeichen erweitert werden. 7.3.2 Verzögert nachlaufender AD–Umsetzer Die Schaltung eines verzögert nachlaufenden AD–Wandlers zeigt Abb. 7.26 Die u +
Zählrichtung Vor-Rückwärts-Zähler Z
− Zählfrequenz f0 ub
Digital-Analog-Umsetzer u REF
Abbildung 7.26. Schaltung des verzögert nachlaufenden AD–Wandlers
Eingangsspannung u wird mit der Ausgangsspannung des DA-Wandlers ub verglichen. Für u > ub zählt der Zähler mit der Frequenz f0 aufwärts, für u < ub abwärts. Der Zähler pendelt sich bei konstanter Eingangsspannung u auf einen entsprechenden Zahlenwert Z ein, wobei er einen Grenzzyklus von einem Bit durchläuft. Diese Art der Umwandlung wird häufig auch als Delta Modulation bezeichnet. Aus der Digital-Analog-Umsetzung Z ub = uref Zmax erhält man für konstante Eingangsspannungen u = ub Z=
Zmax · u. uref
(7.30)
Die Integrationszeitkonstante des Zählers Ti =
Zmax 2N = f0 f0
ist abhängig von der Auflösung 2N und der gewählten Zählfrequenz f0 Der AD-Wandler reagiert auf Sprünge der Eingangsspannung mit einem rampenförmigen Nachlaufen (Abb. 7.27) Eine besonders einfache Anordnung erhält man, wenn
7.3 Analog-Digital-Umsetzer
277
man für den DA-Wandler einen so genannten Rate-Multiplier (Abschn. 7.4.2) verwendet. u
t
Abbildung 7.27. Rampenförmiges Nachlaufen des AD–Wandlers
7.3.3 Sigma-Delta-Wandler
u(t)
q(n) Modulator
Digitalfilter
uq(n)
Abbildung 7.28. Struktur eines Sigma-Delta-Wandlers
Ein Sigma-Delta-Wandler besteht aus einem Modulator und einem Digitalfilter. Das analoge Eingangssignal u(t) wird im Modulator in eine binäre Impulsfolge q(n) umgesetzt. Die Häufigkeit der Impulse ist dabei proportional zur Eingangsspannung. Das sich anschließende digitale Filter setzt die Impulsfolge in einen digitalen Zahlenwert uq (n) um, der dem abgetasteten und quantisierten Eingangssignal entspricht (Abb. 7.28). Der Vorteil dieser Anordnung ist die einfache monolithische Integrierbarkeit. Durch das so genannte Noise Shaping dieses Wandelprinzips können hohe Umsetzgenauigkeiten realisiert werden. Sigma-Delta-Wandler werden häufig in Systemen mit dynamischen Signalen eingesetzt (Audio-Technik, SignalProzessoren). Aber auch für stationäre Signale in der Messtechnik finden diese Wandler Verwendung. Sigma-Delta-Modulator: Die Grundidee des Sigma-Delta-Modulators besteht darin, mit einem Integralregler die Spannungs-Zeit-Flächendifferenz e(t) von Eingangssignal u(t) und Ausgangssignal q(t) zu Null zu regeln (Abb. 7.29). Die Übertragungsfunktion für den Fehler am Eingang des Integrators ist E (s) =
Ti s · U (s) . Ti s + 1
Die stationäre Genauigkeit des Reglers kann mit Hilfe des Endwertsatzes der Laplace-Transformation gezeigt werden. Das Eingangssignal ändere sich sprunghaft,
278
7. Erfassung amplitudenanaloger Signale
+
e( t )
Ti
u( t )
q(t )
−
Abbildung 7.29. Integralregelkreis zwischen Eingangs- und Ausgangssignal.
U (s) =
umax , s
und bleibe während der AD–Umsetzung konstant. Die stationäre Regeldifferenz e(t) verschwindet, lim e (t) = lim s · E (s) = lim
t→∞
s→0
s→0
Ti s umax = 0. Ti s + 1
Der Sigma-Delta-Modulator baut auf diesem Prinzip auf. Er besteht aus einem Integrator, der die Differenz zwischen Eingangssignal u(t) und dem zurückgeführten Modulatorausgang q(n) integriert. Der Integrationswert wird durch einen getakteten Komparator in 1-Bit Werte quantisiert. Durch die Taktung des Komparators mit der Periode ta erhält man ein zeitdiskretes System. Zur Systemanalyse bescheibt man die Integration in zeitdiskreten Systemen durch die Rechteckregel vorwärts [23]: yn = yn−1 + ta un−1 ◦−• G(z) =
ta . z−1
Der Quantisierer wird entspechend Satz 7.3 durch die lineare Überlagerung des Ausgangs q(n) mit einem Quantisierungsrauschen n(n) beschrieben. Berücksichtigt man nun noch die Integrationszeitkonstante des Integrators Ti und eine zusätzliche Verstärkung V , so erhält man das Strukturbild des Sigma-Delta-Modulators in zeitdiskreter Form nach Abb. 7.30. G( z) N ( z) U ( z)
+
E ( z)
−
1 z −1
V
+
ta Ti
Q( z)
+
Abbildung 7.30. Strukturbild des Sigma-Delta-Modulators erster Ordnung
Die Ausgangsfunktion des geschlossenen Kreises ist einschließlich der Störung Q (z) =
G (z) 1 U (z) + N (z) 1 + G (z) 1 + G (z)
7.3 Analog-Digital-Umsetzer
=
V · ta / T i z−1 U (z) + N (z) . (z − 1) + V · ta / Ti (z − 1) + V · ta / Ti
279
(7.31)
Rückgekoppelte Systeme können instabil werden, weshalb die Stabilität der Anordnung überprüft werden muss. Zeitdiskrete Systeme sind stabil, wenn alle Polstellen der Übertragungsfunktion innerhalb des Einheitskreises in der komplexen z-Ebene liegen [23], |z∞ | < 1.
(7.32)
Für die Stabilität des Regelkreises ergibt sich daraus die Bedingung 0≤V ·
ta ≤ 2. Ti
Die Integrationszeitkonstante Ti muss größer als das halbe Produkt von Verstärkung V und Abtastzeit ta sein: Ti ≥ V · ta / 2. Noise Shaping: Setzt man in Gl.(7.31) Ti = V · ta , so wird die Ausgangsfunktion (7.33) Q (z) = z −1 U (z) + 1 − z −1 N (z) . Den Amplitudengang der beiden Übertragungsfunktionen erhält man durch Substitution von z = ej2πf ta . In Abb. 7.31 sind die beiden Kennlinien aufgetragen. Zusammenfassend lässt sich über den Sigma-Delta-Modulator sagen: • Das Eingangssignal u(t) wird nicht gedämpft, sondern lediglich um eine Abtastperiode ta verzögert. • Das Quantisierungsrauschen wird mit 1 − z −1 gefiltert, was einer HochpassFilterung entspricht. Die Verlagerung der Rauschleistung hin zu hohen Frequenzen nennt man Noise-Shaping. • Für einen großen Signal-Störabstand ist es wichtig, dass die maximale Frequenz des Nutzsignals fg wesentlich kleiner ist als die halbe Abtastfrequenz fa/2. Eine anschließende Tiefpass-Filterung isoliert das Nutzsignal und unterdrückt die Störanteile des Quantisierungsrauschens für Frequenzen oberhalb von fg . In der Praxis wird man das Eingangssignal überabtasten (engl. oversampling), fa = M fg ,
fg = fa /M,
wobei die Oversamplingrate M vom geforderten Signal-Störabstand abhängt. Das quadrierte Verhältnis der Amplitudengänge für Nutz- und Störsignal bei der gewählten Grenzfrequenz fg SNR =
Psig 1 ≈ PSt¨or (2| sin(πfg /fa )|)2
280
7. Erfassung amplitudenanaloger Signale z -1 , 1− -z--1
2
z-
-1
Quantisierungsrauschen
= e-j2πf/fa
Eingangssignal 1
1− -z -1 -
fa M
fa 8
=2
sin π f f a
fa 4
fa 2
f
Abbildung 7.31. Amplitudengang des Sigma-Delta-Modulators erster Ordnung für Nutzsignal und Quantisierungsrauschen
soll näherungsweise als Maß für den Signal-Störabstand des Sigma-Delta-Modulators 1. Ordnung herangezogen werden (siehe Gleichung 6.27). Handelsübliche Sigma-Delta-Wandler verwenden darüber hinaus auch Modulatoren höherer Ordnung. Die einfache Integration wird dabei durch Übertragungsfunktionen höherer Ordnung ersetzt. Man erreicht dadurch ein stärkeres Noise-Shaping, d.h eine noch größere Dämpfung des Quantisierungsrauschens für kleine Frequenzen. Die erreichbaren Signal-Störabstände für Sigma-Delta-Wandler zeigt Abb. 7.32. Beispiel 7.10 Überabtastung bei Sigma-Delta-Wandlern Gegeben sei ein Sigma-Delta-Modulator 3. Ordnung. Wie groß muss die Oversampling-Rate M gewählt werden, damit der AD-Wandler einen Störabstand von • 96 dB = ˆ 16 Bit Genauigkeit • 60 dB = ˆ 10 Bit Genauigkeit erreicht? Mit der Abb. 7.32 erhalten wir die Raten M1 = 256,
M2 = 64.
Dies sind auch die Parameter gängiger, kommerziell erhältlicher Wandler. Digital-Filter: Das nach dem Modulator folgende digitale Filter hat die folgenden Aufgaben: 1. Tiefpass-Filterung und damit Trennung des Nutzsignalbandes vom Quantisierungsrauschen. 2. Umsetzen der binären Impulsfolge in eine digitale Zahl.
7.3 Analog-Digital-Umsetzer
281
SNR[dB] 3. Ordnung 2. Ordnung 1. Ordnung
120 100 80 60 40 20 0
1/512 1/256 1/128
1/64
1/32
1/16
1/8
1/4
1/M
Abbildung 7.32. Signal-Störabstände für Modulatoren verschiedener Ordnung
Zum Einsatz kommen FIR-Filter (Finite Impulse Response) der Länge N mit folgender Struktur yn =
N −1
bi · qn−i ,
i=0
d.h. die letzten N Eingangswerte qn−i werden mit Gewichtsfaktoren bi versehen und aufsummiert. Da das System nicht rückgekoppelt ist, gibt es keine Stabilitätsprobleme. Um das hochfrequente Quantisierungsrauschen wirksam zu dämpfen, sind allerdings hohe Filterlängen notwendig (N > 400!). Der Entwurf geeigneter Filter wird in der Literatur ausführlich diskutiert [11, 21, 12] und soll hier nicht besprochen werden. Ein spezielles und sehr einfach zu implementierendes FIR-Filter soll jedoch kurz diskutiert werden. Setzt man alle Koeffizienten bi = 1/N , so erhält man yn =
N −1 1 qn−i . N i=0
Nach Abschn. 6.1.5 ist yn gerade der Mittelwert der letzten N Eingangswerte. Die Filtercharakteristik des MA-Filters (Moving-Average) ist in Abschn. 7.1.3 beschrieben. Das einfachste Verfahren zur Implementierung des Filters ist ein Zähler mit zyklisch anfallendem Zählerstand z, der die letzten N -Werte des Bitstroms q(n) aufsummiert und am Ende der Summation in ein Register übergibt: Z Zmax
= 2−k
k −1 2
i=0
qi =
u uref
mit 2k = N.
282
7. Erfassung amplitudenanaloger Signale
Nach der Summation über N Werte muss der Zähler zurückgesetzt werden. Man erreicht damit sowohl eine Tiefpass-Filterung, als auch eine Datenreduktion, da nur jeder N -te Wert ausgegeben wird. Die Überabtastung durch den Modulator wird dadurch wieder rückgängig gemacht. Die reale Schaltung eines Sigma-Delta-Wandlers 1. Ordnung ist in Abb. 7.33 dargestellt. Der Integrator/Verstärker und der Komparator werden beide mit fa getaktet, um nach dem Zerhackerprinzip Offsetfehler zu eliminieren. Der Bitstrom q(n) steuert die Rückkopplung der Referenzspannung ±uref . Der Zähler, welcher ebenfalls mit fa getaktet ist, summiert den Bitstrom über N Takte. Am Ende der Mittelungsperiode wird der Zählerstand in ein Register übernommen und der Zähler auf Null zurückgesetzt. Integrator Ti = RC
Komparator
Abtaster
R
+
u(t)
R
u ref
-uref
C u1 ( t )
-
dq
+
D
Q
q( n )
fa
Register
Zähler
cnt
Abbildung 7.33. Schaltung des Sigma-Delta-Wandlers mit MA-Filter
Stationäres Verhalten: Bei dem Regelvorgang stellt sich ein Grenzzyklus ein, der im folgenden analysiert werden soll. Die Impulsfolge q(n) ist allgemein nichtäquidistant. Zum einfacheren Verständnis sollen im folgenden aber lediglich äquidistante Folgen betrachtet werden, die für Eingangsspannungen von 1 2 3 m−1 2N − 1 u 1 1 ,···, = N ,···, ,···, , , ,···, uref 2 m 2 3 4 m 2N auftreten. Ein Zeitdiagramm für die Funktion des Σ∆ -Umwandlers ist in Abb. 7.34 für u/ uref = 1/ m gezeigt. Am Eingang des Integrators liegt das Differenzsignal u/ uref − q (n), dessen Spannungs-Zeit-Fläche gerade gleich Null ist. Die Integration ist im ersten Teilintervall
7.3 Analog-Digital-Umsetzer t
1 u1 (t) = u1 (0) − Ti
0
283
(m − 1) t (m − 1) σ (τ ) dτ = u1 (0) − · , m m Ti
(m − 1) ta u1 (ta ) = u1 (0) − · , m Ti und im zweiten Teilintervall t
u1 (t) = u1 (ta ) +
1 Ti
ta
1 1 t − ta , σ (τ − ta ) dτ = u1 (ta ) + · m m Ti
u1 (mta ) = u1 (0) = u1 (ta ) +
(m − 1) ta · . m Ti
q(n) 1 n=t t a t ta
1m
0 1m
m m+1
1 2 u(t ) q( n) u ref
t ta
( m 1) m
τ= t ( m 1) V Ta · 2 m i
t ( m 1) V Ta · 2 m i
u1( t )
bm 1g t m
a
t ta
V
2
t a ( m 1) · m Ti
dq 1 t ta
0
1
m-1
2
m m+1
Abbildung 7.34. Grenzzyklus des Σ∆ -Wandlers für äquidistante Impulsfolgen
Nach der Verstärkung um den Faktor V stellt sich ein Grenzzyklus mit folgender Amplitude und Frequenz ein: Agr =
(m − 1) ta · V, m Ti
fgr =
1 . mta
(7.34)
284
7. Erfassung amplitudenanaloger Signale
Damit lassen sich für das stationäre Verhalten folgende Aussagen gewinnen: 1. Für stationäre Eingangssignale ist das Quantisierungstheorem verletzt. Die Annahme eines überlagerten Quantisierungsrauschens gilt hier nicht mehr. Vielmehr erhält man für q(n) eine periodische Impulsfolge. Das Störspektrum ist dann aber ein diskretes Linienspektrum! 2. Für große Werte von m, die bei kleinen Eingangsspannungen |u(t)| ≈ 0 und bei großen Eingangsspannungen |u(t)| ≈ uref auftreten, erhält man sehr kleine Wiederholfrequenzen fgr des Grenzzyklus. Der erste Impuls des diskreten Störspektrums kann deshalb im Nutzfrequenzbereich liegen. 3. Die effektiven Integrationszeitkonstanten im zweiten Teilintervall (m − 1) ta mTi = Ag V sind bei großen m durch analoge Integrierer nur näherungsweise zu realisieren und bewirken deshalb einen mit m ansteigenden Mittelungsfehler. In praktischen Anwendungen sollte man zur Vermeidung großer Fehler den nutzbaren Amplitudenbereich der umzuwandelnden Eingangsspannung auf z.B. 1 u Z m−1 = 0, 2 ≤ = ≤ 0, 8 = m uref Zmax m begrenzen, d.h. m ≤ 5. In diesem Bereich sind die Fehler gering. Der Sigma-DeltaWandler erster Ordnung hat bei Einhaltung dieser Randbedingungen den Vorteil einer sehr hohen stationären Genauigkeit. Die hohe Genauigkeit wird mit langen Umsetzzeiten erkauft. 7.3.4 AD-Umsetzer mit sukzessiver Approximation Das Eingangssignal u wird auf einen Komparator gegeben und mit dem zurückgeführten Signal ub verglichen, das sich aus einer schnellen DA-Wandlung (Abschn. 7.4.1) des Ausgangszahlenwertes Z ergibt. Der maximale Zahlenwert ist Zmax = 2N . Ausgehend vom wichtigsten Bit N − 1, werden sukzessive im i-ten Iterationsschritt die Stellen aN −i der Zahl Z(N − i) auf 1 gesetzt, und die resultierende Spannungsdifferenz u − ub betrachtet. Für a. u − ub ≥ 0 bleibt die zuletzt gesetzte Stelle aN −i gesetzt, b. u − ub < 0 wird die zuletzt gesetzte Stelle aN −i auf 0 zurückgesetzt. Beispiel 7.11 AD–Umsetzung mit 6 Bit Der Vorgang einer AD–Umsetzung mit N = 6 Bit Wortlänge ist in Abb. 7.35 dargestellt. Dabei soll die Eingangsspannung
7.3 Analog-Digital-Umsetzer
u umax
=
285
35 64
durch sukzessive Approximation bestimmt werden. Die ermittelte Zahl im i-ten Approximationsschritt ist gleich Z (N − i) =
i
aN −j · 2N −j ,
(7.35)
j=1
wobei im Anfangszustand alle Bits ai auf Null zurückgesetzt werden. u b umax
u
1
+ 3
Steuerung
-
4
Z
u umax 1
1
2
ub
DA-Umsetzer
4
0
1
2
3
4
5
6
t T0
Abbildung 7.35. Sukzessive Approximation für die Zahl [100011]
Schritt 1: Das höchstwertige Bit aN −1 wird probeweise auf „1“ gesetzt. Die Zahl Z wird damit Z (N − 1) = aN −1 · 2N −1 = 2N −1 . Der Vergleich am Komparator ergibt, dass die Eingangsspannung u größer ist als die zurückgeführte Spannung ub (N − 1), u ub (N − 1) Z (N − 1) ≥ = = 2−1 umax umax Zmax ⇒
Bit aN −1 bleibt auf „1“ gesetzt.
Schritt 2: Das Bit aN −2 wird probeweise auf „1“ gesetzt. Die Zahl wird damit Z (N − 2) = 2N −1 + 2N −2 . Der Vergleich am Komparator ergibt, dass die Eingangsspannung u kleiner ist als die zurückgeführte Spannung ub (N − 2):
286
7. Erfassung amplitudenanaloger Signale
u ub (N − 2) Z (N − 2) < = = 2−1 + 2−2 umax umax Zmax ⇒
Bit aN −2 wird auf „0“ zurück gesetzt.
Die Eingangsspannung wird auf diese Weise in immer kleinere Vergleichsintervalle eingeschachtelt und verglichen. Nach N Schritten sind alle Stellen aN −i (i = 1 . . . N ) und damit die Zahl Z bestimmt. Für den gesamten Umsetzungsvorgang des AD–Wandlers sind N Schritte erforderlich. Damit der Wert der analogen Eingangsspannung über den gesamten Verlauf der sukzessiven Approximation konstant bleibt, ist dem AD–Wandler ein Abtastund Halteglied vorzuschalten. 7.3.5 Ratiometrische Messung
R +∆R
R
∆u
R + ∆R
ADU
z
R
u REF
Abbildung 7.36. Ratiometrische Messung
Die Genauigkeit vieler Messverfahren hängt von der Genauigkeit ab, mit der eine Speisespannung uref konstant gehalten werden kann. Dieser deformierende Fehlereinfluss kann eliminiert werden, wenn man für die Speisespannung des Sensors und die Referenzspannung des AD–Umwandlers die gleiche Spannung uref verwendet. Das Messergebnis ist dann unabhängig von der Speisespannung uref . Man spricht von einer ratiometrischen Messung. Als Beispiel sei eine Widerstandsmessbrücke betrachtet, deren Speisespannung gleich der Referenzspannung des AD–Umsetzers sein soll. Der Zahlenwert 1 ∆u ∆R Z · = = Zmax uref 2R 1 + ∆2RR
(7.36)
hängt ausschließlich von den Widerstandsverhältnissen der Brückenschaltung ab.
7.3 Analog-Digital-Umsetzer
287
7.3.6 Nichtlineare Kennlinie des AD–Umsetzers Im Falle großer Variationsbereiche der Messgröße u und einer beschränkten Auflösung des AD–Umsetzers mit „linearer“ Kennlinie ist der relative Fehler Fr =
u − ur ∆u = ur ur
bei kleinen Messgrößen u sehr groß. Dabei ist ur der richtige Messwert. Abhilfe schafft eine „nichtlineare“ Kennlinie des AD–Umsetzers, die aus der Vorgabe nach einem konstanten relativen Fehler der Messgröße über dem Messbereich ∆u = Fr = const ur
(7.37)
bei einer konstanten, relativen Quantisierung des AD–Umsetzers q=
∆Z = const Zmax
abgeleitet werden kann: ∆u 1 ∆Z 1 · · = = 1, Zmax q u Fr Z q = · ln u + C. Zmax Fr Die absolute Quantisierung ist dabei ∆Z. Für u = uref bei z = zmax erhält man die Konstante q C =1− ln uref Fr und für u = umin bei z = 0 das Verhältnis uref Fr = ln . q umin Die Kennlinie des nichtlinearen AD–Umsetzers wird damit die logarithmische Funktion Z Zmax
=
q u ln + 1. Fr uref
(7.38)
Beispiel 7.12 Nichtlineare AD–Kennlinie Es sollen die Vorteile einer nichtlinearen Kennlinie verdeutlicht werden. Ein Messsignal soll bei einem Messbereich von umax uref = = 100 umin umin
288
7. Erfassung amplitudenanaloger Signale
eine relative Genauigkeit von Fr = 10−2 aufweisen. Bei einem AD–Umsetzer mit linearer Kennlinie müsste die Quantisierung q ≤
Fr = 10−4 uref / umin
gewählt werden, woraus sich eine Wortlänge von ld (1/ q ) ≈ 13 ergäbe. Bei der nichtlinearen logarithmischen Kennlinie ist die Quantisierung lediglich qn ≤
10−2 Fr = = 2, 2 · 10−3 , ln (uref / umin ) 4, 61
was einer Wortlänge von ld (1/ qn ) ≈ 9 entspricht. Durch die nichtlineare Kennlinie kann die Wortlänge um 4 Stellen verkürzt werden. Die nichtlineare Kennlinie kann z.B. in einem digitalen Speicher realisiert werden, der zwischen dem Ausgangswort z und dem DA-Umsetzer liegt, und in dem die Exponential-Kennlinie 1−Z/Zmax umin ub = uref uref abgelegt ist. Eine Exponential-Kennlinie im Gegenkopplungszweig ergibt die gewünschte logarithmische Gesamtübertragungs-Kennlinie des AD-Wandlers. Aufpassen muss man aber beim Anti-Aliasing-Filter am Eingang des AD-Wandlers. Durch die nichtlineare Kennlinie kann der Mittelwert der Ausgangsgröße Z verfälscht werden (Abschn. 5.2.5). Eine weitere Anwendung nichtlinearer AD-Wandler-Kennlinien außerhalb der Messtechnik ist die Kompandierung von Signalen zur Datenreduktion.
7.4 Digital-Analog-Umsetzer Digital-Analog-Umsetzer werden immer dann eingesetzt, wenn digitale Zahlenwerte, die z.B. in einem Rechner abgelegt sind, in eine (quasi)analoge Spannung umgesetzt werden müssen. Die Ausgangsspannung ist proportional zum Produkt aus digitalem Eingangssignal und einer Referenzspannung u = uref
N
aN −i 2−i .
(7.39)
i=1
Dabei ist ai ∈ [0, 1] das i–te Bit des digitalen Signals. DA-Umsetzer werden z.B. in der Automatisierungstechnik eingesetzt, wo beispielsweise eine zuvor im Rechner ermittelte Regelgröße auf ein System geschaltet werden muss. Wie im vorherigen Abschnitt bereits besprochen, benötigen viele in der digitalen Messwerterfassung eingesetzte Analog-Digital-Umsetzer prinzipbedingt ebenfalls einen DigitalAnalog-Umsetzer.
7.4 Digital-Analog-Umsetzer
289
u +
Zahl
−
z z.B. 512 * 13 Bit
DA-Umsetzer
ub
ub uREF 1
u min uREF
z z max 0
1
Abbildung 7.37. Nichtlinearer AD–Umsetzer mit inverser Kennlinie im Rückkopplungszweig
7.4.1 Parallele DA-Umsetzer Das klassische Verfahren der Digital-Analog-Umsetzung besteht darin, dass mit Hilfe eines Widerstandsnetzwerkes (oder Kapazitätsnetzwerkes) entsprechend dem digitalen Eingangswort dyadisch gestufte Ströme erzeugt und von einer Summationsschaltung addiert werden. Abbildung 7.38 zeigt einen einfachen DA-Umsetzer mit dyadisch gestuften Widerständen. Die Ströme ik =
uref 2k R
ergeben summiert und nach der I-U-Wandlung am Operationsverstärker die gewünschte Ausgangsspannung. In der Praxis lassen sich N dyadisch gestufte Widerstände für die gewünschte N –Bit Auflösung nur mit begrenzter Genauigkeit herstellen, so dass sich dieses Verfahren nicht für hohe Auflösungen eignet. Abhilfe schafft ein DA-Wandler mit R/2R-Kettenleiternetzwerk (Abb. 7.39). Der DA-Umsetzer kann z.B. durch ein Widerstandsnetzwerk (oder Kapazitätsnetzwerk) realisiert werden.
290
7. Erfassung amplitudenanaloger Signale
uREF 2R
4R
8R
16R R u
− +
Abbildung 7.38. DA-Umsetzer mit dyadisch gestuften Widerständen
u REF
Knoten 1
R
R
2R
aN − 1
u(N−2)
R
u(1)
R
u(0)
2R
≈
u(N−1)
Knoten 0
2R
a N −2
2R
2R
a
a0
1
R
≈
−
≈
+
ub
Abbildung 7.39. Schaltung eines DA-Umsetzers
Die Spannung zwischen Knoten 0 und 1 ist u (0) = u (1) ·
2R 2R 1 = u (1) ⇒ u (1) = 2u (0) . R + 2R 2R 2
Der Widerstand des Restnetzwerkes vom Knoten 1 nach rechts ist Rrest = R + 2R 2R = 2R, d.h. im Knoten 1 findet man die gleichen Widerstandsverhältnisse wie im Knoten 0. Man kann deshalb verallgemeinert feststellen, dass die Spannung am nächsthöheren Knoten jeweils doppelt so hoch ist: u (N − i) = 2u (N − i − 1) . Bei Speisung mit der Referenzspannung uref erhält man u (N − i) =
1 uref . 2i
Die Summenspannung wird abhängig von den Stellenwerten aN −i der Zahl z gebildet:
7.4 Digital-Analog-Umsetzer
−ub =
N
aN −i u (N − i) = uref
i=1
N
aN −i · 2−i = uref
i=1
Z . Zmax
291
(7.40)
Derartige DA-Wandler treten häufig in schnellen AD–Wandlern mit sukzessiver Approximation (Abschn. 7.3.4) auf. 7.4.2 Serielle DA-Umsetzer Eine besonders einfach zu integrierende Anordnung erhält man, wenn man einen DA-Wandler durch einen sog. Rate-Multiplier [42] implementiert, der mit nichtkoinzidenten Teilfrequenzen arbeitet. Der Begriff „Frequenz“ wird hier verallgemeinert interpretiert, und zwar als Zahl der Impulse pro Messintervall. Die Impulse sind nicht-äquidistant. Ein zyklisch mit der Frequenz f0 durchlaufender Zähler Q(n) hat die gleiche Wortlänge N wie der Zahlenwert Z. Die Zählfreigabe C0 liegt während eines Taktintervalls fest auf 0 oder 1; das Taktsignal f0 hat demgegenüber in dieser Zeit zwei Flanken. Durch die in Abb. 7.40 gezeigte Dekodierung werden aus den Zählerbitstellen Qi nicht-koinzidente Impulsfolgen qi (n) = 2−(i+1) C0 erzeugt, die ohne gegenseitige Überlappung zu einer Gesamt-„Frequenz“ (Impulshäufigkeit pro Zeit) q (n) =
N
aN −i qi−1 (n) = C0 ·
i=1
N
aN −i 2−i
i=1
summiert werden können. Der Erwartungswert dieser Gesamt-„Frequenz“ ist die mittlere Häufigkeit der Impulse pro Zeiteinheit ub = uref · E {q (n)} , die z.B. durch eine Tiefpassfilterung zu ermitteln ist. Wie beim Sigma-Delta-Umsetzer wird der Fehler zu den Grenzen des Messbereiches größer, da der Erwartungswert durch den Mittelwert dort nicht mehr ausreichend genau approximiert wird: Zahlenwert: Z/ Zmax =
N
aN −i · 2−i .
i=1
Die Gesamt-„Frequenz“ q (n) ist proportional zum Zahlenwert Z/Zmax und zur mittleren Häufigkeit der Zählerfreigabe C0 . Bei der DA-Wandlung liegt normalerweise C0 fest auf 1:
292
7. Erfassung amplitudenanaloger Signale Zähler Q(n)
C0 Q7
Q6
Q5
Q4
Q3
Q2
Q1
Q0
f0
>1
>1
>1
>1
q7 ( n )
q6 ( n )
q5 ( n )
q4 ( n )
>1
>1
>1
>1
q3 ( n )
q2 ( n )
q1 ( n )
q0 ( n )
q0 ( n ) t
T0
q1 ( n ) t
T0
q2 ( n ) t
T0
q3 ( n ) t
Abbildung 7.40. (Rate-Multiplier)
Z Zmax
T0
DA-Wandlung über die Erzeugung nicht-koinzidenter Teilfrequenzen
=
E {q(n)} =
N
aN −i · 2−i ,
i=1 N ub Z = E {C0 } aN −i 2−i = . uref Zmax i=1 =1
Die mittlere Häufigkeit der Impulse ist damit proportional zur Spannung ub / uref . Dabei ist der Erwartungswert E {C0 } = 1 . Der Vorteil des Rate-Multipliers ist die leichte monolithische Integration der gesamten Schaltung. Aufgrund einer eventuell ungleichförmigen Impulsverteilung kann allerdings der Grenzzyklus des VorRückwärtszählers bei einem AD-Umsetzer größer als 1 Bit werden. Abhilfe erreicht
7.4 Digital-Analog-Umsetzer
LSB
293
MSB
a0
a1
q7 ( n )
q6 ( n )
&
&
a2
q5 ( n )
&
a3
a4
q4 ( n )
a5
q2 ( n )
&
&
&
a6
q1 ( n )
&
a7
q0 ( n )
&
& R
E {qn}
q (n)
C Abbildung 7.41. Digital-Analog-Wandler über die mittlere Häufigkeit von Impulsen
man durch zusätzliche Mittelung des Impulszuges q(n) in einem Untersetzerzähler. Der Rate–Multiplier muss dann aber mit einer um den Untersetzungsfaktor höheren Frequenz f0 betrieben werden. An der Zählfreigabe C0 ändert sich lediglich die Intervallbreite, nicht aber der Wert. DA-Wandler nach dem Rate-Multiplier Prinzip werden häufig in verzögert nachlaufenden AD–Wandlern (Abschn. 7.3.2) eingesetzt.
8. Erfassung frequenzanaloger Signale
In der bisherigen Betrachtung diente die Amplitude eines Signals u(t) als Informationsträger. Man spricht auch von amplitudenanalogen Signalen. In der digitalen Signalverarbeitung wurde daher auch der Amplitudenverlauf eines Signals abgetastet und in diskrete, digitale Werte umgesetzt. In der Messtechnik spielt aber noch eine andere Klasse von Signalen eine Rolle, die der frequenzanalogen Signale. Hier dient die Frequenz der Signale als Informationsparameter, den es zu verarbeiten gilt. Hierbei stößt man bei verschiedenen Signalen zunächst auf eine unterschiedliche Interpretation des Informationsparameters Frequenz [32] (Abb. 8.1). x(t)
x(t)
t
Ti
x(t)
t
τ
t
T
Abbildung 8.1. Gewinnung des Informationsparameters Frequenz
Für ein harmonisches Signal ist die Kreisfrequenz ω(t) =
dϕ dt
(8.1)
gleich der Momentanfrequenz. Sie ist messtechnisch schwer zugänglich. Bei konstanter Kreisfrequenz ω = const über ϕ = 2π gilt ω = 2πf. Mit der Periodendauer aus dem Zeitbereich kann die Frequenz der harmonischen Schwingung ermittelt werden: f=
1 ω = . T 2π
296
8. Erfassung frequenzanaloger Signale
Für impulsförmige Signale lässt sich die Folgefrequenz nur durch die Periodendauer Ti zwischen den Impulsen fF =
1 Ti
angeben, eine Momentanfrequenz im Sinne von Gl.(8.1) existiert nicht. Schließlich ist für bandbegrenzte stochastische Signale nur eine mittlere Frequenz angebbar, die sich beispielsweise aus der Häufigkeit N0 (T ) der Nulldurchgänge innerhalb eines Intervalls ermitteln lässt. Mit der mittleren Zeitdauer τ¯ zwischen zwei Nulldurchgängen erhält man 1 , f= 2¯ τ
1 τ¯ = τi . n i=1 n
Die mittlere Zeitdauer τ¯ ist aber gleich dem Beobachtungsintervall T geteilt durch die Anzahl N0 der erwarteten Nulldurchgänge in diesem Intervall. Damit erhält man τ¯ =
T E{N0 (T )}
⇒
f=
1 E{N0 (T )} = . 2¯ τ 2T
Die unterschiedlichen Interpretationen der „Frequenz“ erfordern die Einführung eines allgemeinen Frequenzbegriffs.
8.1 Allgemeiner Frequenzbegriff Die Ableitung eines allgemeinen Frequenzbegriffs geschieht in Analogie zur Wahrscheinlichkeitsrechnung. Mit der Wahrscheinlichkeitsdichte konnte dort der Mittelwert und die Varianz eines Signals berechnet werden. Entsprechend wird eine auf die Leistung Px normierte Leistungsdichte Sxx (f ) definiert, die die relative Verteilung der Signalleistung über der Frequenz beschreibt: Sxx (f ) fx (f ) = Px
∞
mit Px =
Sxx (f ) df.
(8.2)
−∞
E (f ) Für Energiesignale kann die auf die Energie Ex normierte Energiedichte Sxx in Gl.(8.2) direkt über die Fourier-Transformierte X(f ) des Signals x(t) berechnet werden,
fxE (f ) =
E (f ) Sxx |X(f )|2 = . Ex X(f )2
Die normierte Leistungsdichte hat die gleichen Eigenschaften wie eine Wahrscheinlichkeitsdichte. Insbesondere gilt
8.1 Allgemeiner Frequenzbegriff
297
fx (f ) ≥ 0, ∞
fx (f ) df = 1. −∞
Analog zur Wahrscheinlichkeitsrechnung können nun Erwartungswerte bzw. Momente berechnet werden. Wichtig ist hierbei wieder das 1. Moment. Definition 8.1 Mittlere Frequenz Die Mittlere Frequenz eines Signals ist das 1. Moment der normierten Leistungsdichte fx (f ) ∞
f¯ =
∞
f · fx (f ) df = −∞
f· −∞
Sxx (f ) df. Px
Entsprechend der Varianz wird das 2. zentrale Moment der normierten Leistungsdichte als Bandbreite interpretiert. Definition 8.2 Bandbreite Die Bandbreite ∆f eines Signals berechnet sich aus dem 2. zentralen Moment der normierte Leistungsdichte fx (f ): ∞
∆2f
∞
(f − f¯)2 · fx (f ) df =
= −∞
−∞
Sxx (f ) (f − f¯)2 · df. Px
Zu Beginn des Kapitels wurde schon angedeutet, dass die Frequenz in vielen Anwendungen durch die Häufigkeit der Nulldurchgänge eines Signals bestimmt wird (Abb. 8.1). Zur Abschätzung der Frequenz wird ein mittelwertfreies stochastisches Signal mit Normalverteilung angenommen. Dies ist deshalb gerechtfertigt, weil die Lage der Nulldurchgänge von x(t) durch überlagerte Störungen verschoben wird. Satz 8.1 Effektiv-Frequenz Die Effektivfrequenz feff , d.h. die mittlere Häufigkeit E{N0 (T )} der Nulldurchgänge innerhalb eines Intervalls T eines mittelwertfreien normalverteilten Signals x(t) ist die Wurzel des 2. Momentes der normierten Leistungsdichte fx (f ): 5 5 6 ∞ 6 ∞ 6 6 E{N0 (T )} 6 Sxx (f ) 6 2 =7 feff = f · fx (f ) df = 7 f2 · df 2T Px 0 = f¯2 + ∆2f .
−∞
−∞
Beweis: Für den Beweis muss der Erwartungswert E{N0 (t)} der Nulldurchgänge des Prozesses X(t, ξ) bestimmt werden, also
298
8. Erfassung frequenzanaloger Signale
x(ti ) = 0. N0 (T ) ist die Anzahl von Ereignissen (Nulldurchgänge), die innerhalb des Intervalls T auftreten. Man spricht auch von einem Ereignisprozess. Für den Erwartungswert der Ereignisse gilt folgende Gleichung x(t) = 0}. (8.3) E{N0 (t)} = T · fX (x = 0)E{|x(t)| ˙ Zum Beweis von Gl.(8.3) verwendet man die folgende Eigenschaft der δ-Impulsfunktion in Abb. 8.2 (s. [36]): = > δ(t − ti ) 1 δ x(t) = = δ(t − ti ), |x(t ˙ i )| |x(t)| ˙ i i = > δ(t − ti ) = δ x(t) |x(t)| ˙ = ζ(t),
(8.4)
i
=
ti
+
+
+ +
+
+
+ +
+ ++
t
ti
+ ++
δ[x(t)]
x(t)
t
>
Abbildung 8.2. Impulsfunktion δ x(t) zur Erzeugung von Ereignissen
d.h. die Funktion x(t) wird durch eine Impulsreihe, d.h. Nulldurchgangsereignisse ersetzt, die nur an den Stellen der Nulldurchgänge von x(t) von Null verschieden ist. Wegen des Integrals über einen Impuls (= ˆ ein Nulldurchgang) δ(t) dt = 1 erhält man durch Integration von ζ(t) über T die Anzahl der Ereignisse N0 (T ) im Intervall T t+T
N0 (T ) =
ζ(α) dα
⇒
E{N0 (t)} = T · E{ζ(t)}.
t
Mit der Impulsfunktion aus Gl.(8.4) folgt, dass ζ(t) eine Funktion der Zufallsgrößen ˙ berechnet X und X˙ ist. Mit der gemeinsamen Wahrscheinlichkeitsdichte fXX˙ (x, x) sich der Erwartungswert zu
8.1 Allgemeiner Frequenzbegriff ∞
299
∞
|x|δ(x)f ˙ ˙ dx dx˙ XX˙ (x, x)
E{ζ(t)} = −∞ −∞ ∞
=
fXX˙ (x, x)| ˙ x|f ˙ X˙ (0, x) ˙ dx. ˙ −∞
Mit der bedingten Wahrscheinlichkeitsdichte fX˙ (0, x) ˙ = fX (x = 0) · fX˙ (x|x ˙ = 0) folgt der Erwartungswert der Nulldurchgänge nach Gl.(8.3): ∞
E{ζ(t)} = fX (x = 0)
|x|f ˙ X˙ (x|x ˙ = 0) dx. ˙
−∞
Damit ist Gl.(8.3) bewiesen. Bezieht man den Erwartungswert noch auf die Intervalldauer, so erhält man die mittlere Ereignisrate, die auch in der Markov-Theorie eine wichtige Rolle spielt [22]: λ0 =
E{N0 (t)} x(t) = 0}. = fX (x = 0)E{|x(t)| ˙ T
Im nächsten Schritt soll gezeigt werden, dass für normalverteilte Zufallsprozesse E{N0 (t)} = T · fX (x = 0)E{|x(t)|} ˙
(8.5) x(t) = 0} in den Erwartungsgilt, d.h. der bedingte Erwartungswert E{|x(t)| ˙ wert E{|x(t)|} ˙ übergeht. Für den Beweis benötigt man die Korrelationsfunktionen von differenzierten Signalen. Betrachtet man die Differentiation als lineares System (Abb. 8.3) mit der Übertragungsfunktion G(f ) = j2πf, so folgt nach Gl.(6.25) für die Leistungsdichtespektren bzw. die Korrelationsfunktionen Sxx˙ (f ) = −j2πf Sxx (f ) Sx˙ x˙ (f ) = (−j2πf )(j2πf )Sxx (f ) •| •| und ◦ ◦ ¨ xx (τ ). Rxx˙ (τ ) = −R˙ xx (τ ) Rx˙ x˙ (τ ) = −R
(8.6)
Da die Autokorrelation allgemein eine gerade Funktion ist, mit dem Maximum bei τ = 0, so folgt daraus für die Ableitung R˙ xx (τ = 0) = 0 = Rxx˙ (0) = E{x(t)x(t)} ˙ = 0.
300
x(t)
8. Erfassung frequenzanaloger Signale
x(t)
j2p f
Abbildung 8.3. System zur Differentiation
Das bedeutet, dass die Zufallsgrößen x(t) und x(t) ˙ unkorreliert sind. Für normalverteilte Prozesse folgt daraus auch die statistische Unabhängigkeit, so dass für die bedingte Wahrscheinlichkeitsdichte fX˙ (x|x ˙ = 0) = fX˙ (x) ˙ gilt und der Erwartungswert aus Gl.(8.3) in den Erwartungswert nach Gl.(8.5) übergeht. Dieser Erwartungswert berechnet sich für mittelwertfreie Gaußprozesse zu ∞
|x| ˙
E{|x(t)|} ˙ = −∞
1 √ σx˙ 2π
2 = √ σx˙ 2π
∞
x˙ 2 2 · e 2σx˙ dx˙ −
x˙ 2 2 xe ˙ 2σx˙ dx˙ , −
0
2σx˙ mit = √ , 2π ? ¨ xx(0) −2R . = π
∞ 2
xe−ax dx =
mit
1 2a
0
¨ xx (0) = Rx˙ x˙ (0) = σ 2 −R x˙
Setzt man nun noch fX (x = 0) =
1 1 √ , =) σx 2π 2πRxx (0)
so folgt schließlich für die mittlere Anzahl von Ereignissen bei normalverteilten Prozessen aus Gl.(8.5) ? ¨ xx (0) −R E{N0 (t)} = T . 2 π Rxx (0) Damit erhält man schließlich die effektive Frequenz zu 5 6 /∞ 6 ? 6 f 2 Sxx (f ) df 6−∞ ¨ E{N0 (T )} −Rxx (0) 6 = ◦−• 6 /∞ feff = . 2T 4π 2 Rxx (0) 7 Sxx (f ) df −∞
8.2 Digitale Drehzahlmessung
301
Der Name Effektiv-Frequenz rührt von seinem Analogon Effektivwert bei amplitudenanalogen Signalen her: 5 6 T 6 ) 6 1 2 2 7 ueff = µu + σu ≈ u(t)2 dt. 2T −T
Das Frequenzzählverfahren in Abschn. 8.2.2 ermittelt gerade die Effektivfrequenz feff durch das Zählen von Nulldurchgängen innerhalb eines Referenzintervalls. Die Effektivfrequenz besitzt einen systematischen Fehler, der von der Bandbreite ∆f des Signals abhängt, 1 ∆2f 1 ∆2f ¯ feff ≈ f 1 + ¯2 = f¯ + > f¯. (8.7) 2f 2 f¯
S x x( f ) Px
f −∆ f
f feff
f +∆ f
f
Abbildung 8.4. Kenngrößen der Frequenz im normierten Leistungsdichtespektrum
8.2 Digitale Drehzahlmessung Die Digitalisierung frequenzanaloger Signale soll am Beispiel der Drehzahlmessung vorgestellt werden. Für die Erfassung von Drehzahlsignalen gibt es prinzipiell mehrere Möglichkeiten. So kann die Winkelgeschwindigkeit einer Welle z.B. mit einem Tachogenerator in ein amplitudenanaloges Signal umgeformt werden. Weniger störanfällig und leichter zu realisieren sind demgegenüber Verfahren, welche das eigentliche Drehzahlsignal mittels Inkrementalgeber in ein periodisches Signal umformen, so dass die Information als frequenzanaloges Signal kodiert ist. Die eigentliche Erfassung der Drehzahl beruht dann auf einer Zeitmessung, welche durch
302
8. Erfassung frequenzanaloger Signale
die Verwendung von Quarzoszillatoren um ein Vielfaches genauer realisiert werden kann als dies bei einer Spannungsauswertung mit vertretbarem Aufwand der Fall ist [32]. Die dafür notwendigen Zähler können ohne großen Aufwand realisiert werden und sind in der Peripherie von handelsüblichen Mikrocontrollersystemen mehrfach vorhanden.
ϕ0 R
ω (n)
Sensor
v
τ(n)
Zähler
Diskriminator
Referenz Abbildung 8.5. Messsystem zur frequenzanalogen Drehzahlmessung
Abbildung 8.5 zeigt das Prinzip der Messanordnung. Ein auf der Welle mitrotierendes Zahnrad bildet den Modulator zur Umformung der amplitudenanalogen Eingangsgröße Winkelgeschwindigkeit ω in ein frequenzanaloges Signal. Die Zahnhöhe wird über einen induktiven Sensor oder einen Hallsensor erfasst und in ein periodisches Signal umgewandelt. Das dabei pro Zahn überstrichene Winkelinkrement beträgt ϕ0 =
2π , Z
wobei Z die Anzahl aller Zähne auf dem Zahnrad ist. Das entstehende periodische Signal wird über einen Schmitttrigger in ein Rechtecksignal gleicher Periodendauer umgewandelt, die anschließend in einem Mikrocontroller mit Hilfe eines Referenzzählers ausgezählt, d.h. digitalisiert wird. Für die Auswertung gibt es die beiden prinzipiellen Möglichkeiten, das frequenzanaloge Signal winkel- oder zeitsynchron zu erfassen. Die gemessene Winkelgeschwindigkeit berechnet sich mit Hilfe des Differenzenquotienten aus dem Winkelintervall ϕ2 − ϕ1 und der dafür benötigten Durchlaufzeit t2 − t1 : ωm =
ϕ2 − ϕ1 . t2 − t1
(8.8)
8.2.1 Periodendauermessung Das Strukturbild der Periodendauermessung zeigt Abb. 8.6. Die Periodendauermessung misst die kontinuierliche Zeit t2 −t1 = Tm (i) für einen diskreten Winkelschritt
8.2 Digitale Drehzahlmessung
303
Σ Referenz
Zeittor
Zähler
d dt
SignalQuelle
Diskriminator
pos. Flanken
Abbildung 8.6. Strukturbild zur Periodendauermessung
ϕ0 = ϕ2 − ϕ1 =
2π , Z
der durch die Winkelteilung des Zahnrads fest vorgegeben ist: ωm (i) =
2π . Tm (i) · Z
(8.9)
Die Periodendauer Tm , die für das Überstreichen des Winkelinkrements ϕ0 benötigt wird, wird durch das Auszählen von Impulsen einer Referenzfrequenz f0 ermittelt (Abb. 8.7). Die Abtastung erfolgt hierbei winkelsysnchron, da mit jeder neuen Zahnflanke ϕ0 ein digitaler Messwert in den Rechner übernommen wird. s f (t )
Sensorsignal
Amplitudendiskriminiertes Signal
ϕ0
Tm
Zahnflanken
Referenzfrequenz
f0
Zählimpulse
Zahl der Impulse im Signalfenster
Abbildung 8.7. Digitalisierung frequenzanaloger Signale durch Periodendauermessung (winkelsynchrone Erfassung)
304
8. Erfassung frequenzanaloger Signale
8.2.2 Frequenzzählung Das Strukturbild der Frequenzzählung zeigt Abb. 8.8. Das Frequenzzählverfahren gibt dabei das Zeitintervall Tref = t2 − t1 fest vor und misst den überstrichenen Winkel ϕ2 − ϕ1 = ϕm (i), der natürlich durch die feste Zahnteilung einen Quantisierungsfehler aufweist: ωm (i) =
ϕ(i) . Tref
(8.10)
Der überstrichene kontinuierliche Winkel ϕm (i) wird durch das Auszählen der Nulldurchgänge des frequenzanalogen Signals innerhalb der diskreten Messperiode Tref ermittelt. Die Abtastung erfolgt bei der Frequenzzählung zeitsynchron, da nach jedem Zeitintervall Tref ein digitaler Messwert in den Rechner übernommen wird.
SignalQuelle
d dt Diskriminator
pos. Flanken
Σ Zeittor
1
Zähler
Frequenzteiler
N Referenz
Abbildung 8.8. Strukturbild zur Frequenzzählung
8.2.3 Maximaler Quantisierungsfehler für einen Zählvorgang Die beiden vorgestellten Verfahren beruhen darauf, dass die Bestimmung der Drehzahl ω entweder über das Zählen der Impulse eines Referenztaktes f0 = 1/T zwischen zwei Flanken des Sensorsignals geschieht (winkelsynchron), oder über die Anzahl der in einer Referenzperiode Tref einlaufenden Flankenimpulse des Sensorssignals (zeitsynchron). In beiden Fällen erfolgt eine Quantisierung mit entsprechenden Quantisierungsfehlern. Es soll der relative Fehler Fr in einer einzigen Periode Tm bzw. einem einzigen Referenzintervall Tref abgeschätzt werden. Aufgrund der statischen Fehlerbetrachtung können die Zeitindizes im folgenden weggelassen werden. Die wahre stationäre Winkelgeschwindigkeit ist ω=
ϕ . T
Periodendauermessung Im ungünstigsten Fall kann die quantisierte Periodendauer N · T0 durch die endliche Auflösung des Zählers um ein Quantisierungsintervall des Referenztaktes T0 = 1/f0 von der kontinuierlichen Periodendauer Tm zwischen zwei Flanken des Sensorsignals abweichen. Der relative Drehzahlfehler ist damit bei der Periodendauermessung
8.2 Digitale Drehzahlmessung Sensorsignal
305
s f (t )
ϕm
Amplitudendiskriminiertes Signal
Zahnflanken
Zeittor
Tref
Zeittorflanken
Zahl der Impulse im Signalfenster
Abbildung 8.9. Digitalisierung frequenzanaloger Signale durch Frequenzzählung (zeitsynchrone Erfassung)
ϕ 0 |ωq − ωm | N ·T0 − Fr = = ϕ0 ωm Tm
ϕ0 Tm
T m − 1 . = N · T0
Bei maximaler Abweichung um ein Zählintervall T0 |Tm − N T0 | ≤ T0 erhält man den relativen Quantisierungsfehler zu Fr ≤
1 1 ωq = = . N N T 0 · f0 ϕ0 f0
Frequenzzählung Beim Frequenzzählverfahren erhält man in der Referenzperiode Tref gerade N Sensorflankenimpulse, d.h. Tref = N · ϕ0 /ωq . Jeder Flankenimpuls entspricht dem Durchlauf des Sensorrades durch das Winkelinkrement ϕ0 = 2π/Z. Der wirklich in der Messzeit Tref überstrichene Winkel kann bis zu einem Winkelinkrement ϕ0 vom gemessenen Wert abweichen. Der Fehler wird dann ϕm N |ωq − ωm | ϕ0 Tref − Tref ϕ0 · N − ϕm ϕ0 · N − ϕm Fr = = = ϕm . ≈ ϕ0 · N ωm ϕm Tref Bei maximaler Abweichung um ein Winkelinkrement ϕ0 |ϕm − N · ϕ0 | ≤ ϕ0
306
8. Erfassung frequenzanaloger Signale
erhält man den relativen Quantisierungsfehler zu Fr ≤
ϕ0 1 = . N ωq Tref
Abbildung 8.10 zeigt den statischen Quantisierungsfehler für verschiedene Referenzperiodendauern und Referenzzählfrequenzen in doppeltlogarithmischem Maßstab. Daneben zeigt die Abbildung auch den Quantisierungsfehler für das quasizeitdiskrete Mischverfahren über eine ganzzahlige Anzahl k = (Tk ωq )/ϕ0 von Perioden. Dabei wird die Periode Tk für den Durchlauf des Sensorrades durch den Winkelschritt k · ϕ0 gemessen. Es ergibt sich der gleiche Fehler wie bei der Periodendauermessung, wenn man dort den festen, einfachen Winkelschritt ϕ0 durch den k–fachen Winkelschritt k · ϕ0 ersetzt: Fr =
|ωq − ωm | ωq ≤ = ωm k · ϕ0 f0
ωq Tk ωq ϕ0 ϕ0 f0
=
1 . T k · f0
Fr 10
0
Tref= 1 s f0= 11 kHz
10 10 10 10 10
-1
10 s
100 kHz
-2
100 s
1 MHz
-3
-4
-5
f0=100 kHz, Tk=1 s 10
-6
10
0
10
1
10
2
10
3
ω [Hz] ∆ϕ
Abbildung 8.10. Relativer maximaler statischer Quantisierungsfehler (· · · Frequenzzählung, – –Periodendauer, ——Mischverfahren)
8.2.4 Mittelwertbildung bei der Drehzahlmessung Die Verfahren zur digitalen Drehzahlmessung besitzen alle einen mittelwertbildenden Charakter. Ändert sich die Drehzahl ω innerhalb der Messzeit, so wird sie mit
8.2 Digitale Drehzahlmessung
307
dieser Mittelungsfunktion verfälscht. Aus der Approximation der Winkelgeschwindigkeit durch den Differenzenquotienten Gl.(8.8) wird dem jeweiligen Abtastwert eine mittlere Winkelgeschwindigkeit zugewiesen. Bei der Periodendauermessung erfolgt die Mittelung zwischen zwei Zahnflanken. Mit der Zahnteilung ϕ0 =
2π Z
wird die messbare Winkelgeschwindigkeit ϕ+
ω ˆ (ϕ) =
1 ϕ0
ϕ0 2
ω(ϕ) dϕ.
(8.11)
ϕ ϕ− 20
Bei der Frequenzzählung erfolgt die Mittelung über das Referenzintervall Tref , t+
1 ω ˆ (t) = Tref
Tref 2
ω(t) dt.
(8.12)
T t− ref 2
Zur Untersuchung des dabei auftretenden Fehlers eignet sich für die Periodendauermessung der Winkelfrequenzbereich. Die Vorgehensweise für das Frequenzzählverfahren verhält sich analog dazu im Zeitfrequenzbereich, für die die Methoden der digitalen Signalverarbeitung aufgrund der äquidistanten Abtastung nT direkt angewendet werden können. Nach Abschn. 7.1.3 kann die Mittelwertbildung als Faltung der Eingangsgröße mit einem Rechteckfenster interpretiert werden. Damit kann man für die Periodendauermessung ω ˆ (ϕ) = ω(ϕ) ∗ rϕ0 (ϕ)
◦−•
ˆ Ω(Φ) = Ω(Φ) · Rϕ0 (Φ)
und für die Frequenzzählung ω ˆ (t) = ω(t) ∗ rTref (t)
◦−•
ˆ ) = Ω(f ) · RT (f ) Ω(f ref
schreiben. Abbildung 8.11 zeigt die Korrespondenzen eines allgemeinen Rechteckfensters im Winkelbereich. Durch die Mittelwertbildung wird das Originalspektrum durch Multiplikation mit sin f /f verfälscht. Beispiel 8.1 Drehzahlmessung am Verbrennungsmotor Die Drehzahl n eines 6-Zylinder Verbrennungsmotors wird durch Periodendauermessung zwischen zwei Zahnflanken bestimmt. Der Drehzahl sind durch die Verbrennungsvorgänge in den einzelnen Zylindern Störungen mit einer Winkelfrequenz von
308
8. Erfassung frequenzanaloger Signale
r j ( j)
Rj0 (F) = si(p F j0)
0
1 1
j0
-
j0
j0
2
2
j
F 1
- j 0
1
j0
Abbildung 8.11. Rechteckfenster der Breite ϕ0 und Fourier-Transformierte davon
Φs ≈
1 ZY L =3 2 rad
überlagert, d.h. 3 Störhübe pro Umdrehung. Die Sensorfrequenz ist bei einem Zahnrad mit Z = 60 Zähnen Φa = 60
1 , rad
d.h. 60 Zahnflankenimpulse pro Umdrehung. Wegen Φs ≤
Φa 2
werden die Verbrennungsmomente in den einzelnen Zylindern durch die Mittelwertbildung der Motordrehzahl aufgrund der Periodendauermessung kaum gefiltert, sondern nahezu ungedämpft weitergegeben. Aus der Motordrehzahl kann deshalb z.B. das Verbrennungsmoment geschätzt werden [24]. Die Mittelwertbildung soll nun speziell für das Frequenzzählverfahren untersucht werden. Gegeben sei eine konstante Drehzahl ω ¯ , die von einer harmonischen Störung der Frequenz f1 überlagert ist: ω(t) = ω ¯ + ∆ωej2πf1 t . Die Mittelwertbildung nach Gl.(8.12) liefert t+
ω ˆ (t) =
1 Tref t−
Tref 2
Tref 2
ω ¯ + ∆ωej2πf1 t dt
A @ ∆ω · ej2πf1 (t+Tref /2) − ej2πf1 (t−Tref /2) j2πf1 Tref sin πf1 Tref =ω ¯ + ∆ωej2πf1 t · . πf1 Tref
=ω ¯+
8.2 Digitale Drehzahlmessung
309
Die überlagerte Störung wird durch die (sin f )/f -Funktion gefiltert, mit ∆¯ ω = ∆ω ·
ω ˆ (t) = ω ¯ + ∆¯ ω ej2πf1 t
sin πf1 Tref . πf1 Tref
8.2.5 Abtastung bei der Drehzahlmessung Nach der Mittelwertbildung wird der Wert ω ˆ abgetastet. Bei der Frequenzzählung erfolgt die Abtastung mit der Referenzperiode Tref , d.h. zu äquidistanten Zeiten: ∞
ˆ (t) · ω ˆ (nTref ) = ω
δ(t − nTref ).
n=−∞
Im Spektrum gibt es eine in 1/Tref periodisch wiederholte Funktion, ∞ ˆ∗ (f ) = 1 ˆ − k/Tref ). Ω Ω(f Tref k=−∞
Wir betrachten wieder den Fall einer konstanten Drehzahl ω ¯ , die von einer harmonischen Störung der Frequenz f1 überlagert ist: ω ˆ (t) = ω ¯ + ∆¯ ω ej2πf1 t ◦| • ˆ )=ω Ω(f ¯ δ(f ) + ∆¯ ω δ(f − f1 ). Es lassen sich nach dem Abtasttheorem zwei Fälle unterscheiden: 1 : keine spektrale Überlappung (Aliasing), da die Störung im Ny2Tref quistband liegt. 1 2. f1 > : spektrale Überlappung, d.h zusätzliche Störung durch Aliasing. 2Tref 1. f1 ≤
Bei der Periodendauermessung erfolgt die Abtastung winkeldiskret, also ˆ (ϕ) · ω ˆ (nϕ0 ) = ω
∞
δ(ϕ − nϕ0 ).
n=−∞
Nur für den Spezialfall ω(t) = const ist auch die Abtastzeit konstant. Im Spektrum gibt es eine in 1/ϕ0 periodisch wiederholte Funktion: ∞ ˆ∗ (Φ) = 1 ˆ − k/ϕ0 ). Ω Ω(Φ ϕ0 k=−∞
310
8. Erfassung frequenzanaloger Signale
Das Abtasttheorem gilt hier analog. Allerdings benötigt man hier den Frequenzbegriff „pro Umdrehung“ oder 1/rad, der vom physikalischen Frequenzbegriff abweicht. Für das Beispiel der Drehzahlmesung beim Verbrennungsmotor tritt kein Aliasing auf, da die Störfrequenz kleiner als die halbe Abtastfrequenz ist: Φs ≤
Φa . 2
8.2.6 Quantisierung bei fortlaufenden Periodendauermessungen Der durch die Zahnflanken des Sensorrades gegebene Winkel ϕ0 wird bei einer Winkelgeschwindigkeit ωm in der Zeit Tm durchlaufen. Man erhält in jedem Zählintervall i eine Durchlaufzeit Tm (i). Der Quantisierungsfehler soll über viele Intervalle i betrachtet und mit statistischen Methoden beschrieben werden. ϕ0 Tm(i) T0 ∆n(i−1) T0 nq(i) T0
∆n(i) T0
Abbildung 8.12. Quantisierungsfehler im i-ten Intervall am Anfang und Ende einer Periode Tm (i)
Das Intervall wird bei durchlaufendem Zähler am Beginn und am Ende quantisiert (Abb. 8.12). Mit dem ersten in die Zeit Tm (i) fallenden Zählimpuls wird eine ganze Zählimpulsperiode T0 gezählt. Die Teilperiode ∆n(i−1)·T0 ist der Quantisierungsfehler am Beginn des Zählvorgangs. Am Ende wird die Teilperiode ∆n(i) · T0 nicht mehr gezählt, was den Quantisierungsfehler am Ende darstellt. Das Zählergebnis ist die Differenz des Zählerstandes am Ende der Periode Tm (i) minus dem am Beginn von Tm (i). Nachdem die von den Sensorflanken abgeleitete Zeit Tm (i) und die Zählperiode T0 statistisch unabhängig voneinander in Zeitdauer und Phasenlage sind, kann für beide Quantisierungsfehler ∆n eine Gleichverteilung angenommen werden: 1 für 0 ≤ n ≤ 1, f∆n (n) = (8.13) 0 sonst. Das Zählergebnis ist bei Quantisierung am Intervallanfang und -ende nq (i) = n(i) + ∆nq (i)
8.2 Digitale Drehzahlmessung
311
mit dem kontinuierlichen Verhältnis n(i) =
Tm (i) T0
und dem resultierenden Quantisierungsfehler ∆nq (i) = ∆n(i − 1) − ∆n(i).
(8.14)
Die Wahrscheinlichkeitsdichte des resultierenden Quantisierungsfehlers f∆nq (n) ergibt sich aus der Faltung der beiden Gleichverteilungen. Es ergibt sich die Dreiecksverteilung nach Abb. 8.13: f∆nq (n) = f∆n (n) ∗ f∆n (n). f∆nq(n) 1
-1
0
1
n
Abbildung 8.13. Wahrscheinlichkeitsdichte des resultierenden Quantisierungsfehlers
Die Quantisierung wird im folgenden wieder durch das lineare Modell beschrieben, bei dem das kontinuierliche Verhältnis n(i) additiv von einem Quantisierungsrauschen ∆nq (i) mit der Dichte f∆nq (n) überlagert ist. Aus dem deterministischen Signal n(i) wird durch die Überlagerung des Rauschens ein stochastisches Signal nq (i), das eine Dreiecksdichte aufweist (Abb. 8.14). fnq(n),pnq(n) 1
x N0 - 1 n - 1
1 2
N0
1 1 ≤ x≤ 2 2
x
x N0 -
-
n
N0 +
1 2
N0 + 1 n + 1
n
Abbildung 8.14. Wahrscheinlichkeitsdichte des diskreten Zählergebnisses nq (i)
Das Zählergebnis nq (i) kann nur diskrete Werte annehmen, die für ein betrachtetes Intervall i mit unterschiedlichen Wahrscheinlichkeiten auftreten. Die Diskretisierung der Wahrscheinlichkeitsdichte entspricht wieder einer Flächenabtastung. Die
312
8. Erfassung frequenzanaloger Signale
Einzelwahrscheinlichkeiten erhält man daher durch Integration der Dichte f∆nq (n) über das Quantisierungsintervall um das diskrete Zählergebnis. Es sei n(i) = N0 + x
−
mit
1 1 ≤x≤ . 2 2
Damit werden die Einzelwahrscheinlichkeiten (Abb. 8.15) N0 + 12
p(N0 ) =
n−x+ 12
f∆nq (n) dn = N0 − 12
n−x− 12
N0 − 12
p(N0 − 1) =
n−x− 12
f∆nq (n) dn = N0 − 32
p(N0 + 1) =
3 − x2 , 4
f∆nq (n) dn =
1 1 ( − x)2 , 2 2
f∆nq (n) dn =
1 1 ( + x)2 . 2 2
n−1
N0 + 32
n+1
f∆nq (n) dn = N0 + 12
−
f∆nq (n) dn =
n−x+ 12
p(N0) ¾
p(N0−1) ¾
p(N0+1) ¾
½
½
½
¼
¼
¼
1 2
1 2
x
−
1 2
1 x 2
−
1 2
1 x 2
Abbildung 8.15. Einzelwahrscheinlichkeiten der diskreten Zählergebnisse
Die diskreten Zählergebnisse treten mit der diskreten Wahrscheinlichkeitsverteilung 1 1 3 ( − x)2 δ(n − (N0 − 1)) + ( − x2 )δ(n − N0 ) + · · · 2 2 4 1 1 2 + ( + x) δ(n − (N0 + 1)) 2 2
pnq (n) =
auf. Damit lässt sich der Erwartungswert des quantisierten Zählergebnisses berechnen: E{nq } =
∞ n=−∞
n · pnq (n) = N0 + x = n.
8.2 Digitale Drehzahlmessung
313
Die Schätzung der Periode Tm (i) zwischen zwei Zahnflanken über die Auszählung mit der Zählperiode T0 ist erwartungstreu: E{nq · T0 } = nT0 = Tm (i).
(8.15)
Aus dem 2. Moment E{n2q } =
∞
n2 · pnq (n)
n=−∞
1 1 1 1 3 = (N0 − 1)2 ( − x)2 + N02 ( − x2 ) + (N0 + 1)2 ( + x) 2 2 4 2 2 1 2 =n + 4 erhält man die Varianz des quantisierten Zählergebnisses σn2 q = E{n2q } − E{nq }2 =
1 . 4
(8.16)
Die Ergebnisse sollen nun auf die Messung einer Winkelgeschwindigkeit ωm nach dem Periodendauerverfahren angewendet werden. Nach Gl.(8.9) gilt für den kontinuierlichen Wert der Winkelgeschwindigkeit ωm (i) ohne Quantisierung ωm (i) =
ϕ0 ϕ0 = . Tm (i) n(i) · T0
Der Schätzwert nach der Quantisierung lautet ω ˆ m (i) =
ϕ0 ϕ0 = . nq (i) · T0 [n(i) + ∆nq (i)]T0
Da die Zufallsgröße ∆nq (i) nichtlinear in den Schätzwert eingeht, muss ω ˆ m (i) zur Bestimmung der Erwartungswerte in eine Taylorreihe um den kontinuierlichen Wert ωm (i) entwickelt werden: ∆nq (i) ∆n2q (i) + 2 . ω ˆ m (i) ≈ ωm (i) 1 − n(i) n (i) Die Schätzung der Winkelgeschwindigkeit des Sensorrades ist aufgrund der nichtlinearen Beziehung lediglich asymptotisch erwartungstreu (n → ∞). Mit E{∆nq } = 0 ist der Erwartungswert der Schätzung σn2 q 1 E{ˆ ωm (i)} = ωm (i) 1 + 2 = ωm (i) 1 + 2 . (8.17) n (i) 4n (i) Mit wachsendem n geht der zweite Term gegen Null. Die Schätzfehlervarianz ist
314
8. Erfassung frequenzanaloger Signale
σω2ˆ m
= E{(ˆ ωm − ωm ) } = 2
2 = ωm
1 4n2 (i)
1+
2 ωm
1 4n2 (i)
σn2 q
n2 (i) .
σn2 E{∆nq } 1−2 + 2q n n (i)
(8.18)
Die Schätzung ist konsistent: lim σω2ˆ m = 0.
n→∞
8.2.7 Leistungsdichte des Quantisierungsfehlers Im folgenden sollen die Zählergebnisse bei der Periodendauermessung zwischen zwei Zahnflanken in vielen aufeinanderfolgenden Intervallen betrachtet werden, d.h. nq (i) =
ϕ0 +∆n(i − 1) − ∆n(i). ωm (i) · T0 n(i)
Die einzelnen Quantisierungsfehler ∆n(i) in unterschiedlichen Intervallen i sind statistisch unabhängig. Dann ist die Autokorrelation des einzelnen Quantisierungsfehlers R∆n∆n (k) = E{∆n(i + k)∆n(i)} = R(0)δ(k), wobei R(0) gleich dem 2. Moment der gleichverteilten Wahrscheinlichkeitsdichte f∆n (n) ∞
1
n2 f∆n (n) dn =
R(0) = −∞
n2 dn =
1 3
0
ist. Die resultierenden Quantisierungsfehler ∆nq (i) in aufeinander folgenden Intervallen sind dagegen statistisch voneinander abhängig. Ein einzelner Quantisierungsfehler ∆n(i) verkürzt z.B. nicht nur das Intervall i, sondern verlängert in gleichem Maße das Intervall i + 1. Die Autokorrelation des resultierenden Quantisierungsfehlers ist R∆nq ∆nq (k) = E{∆nq (i + k)∆nq (i)} = E{(∆n(i + k − 1) − ∆n(i + k))(∆n(i − 1) − ∆n(i))} = E{∆n(i + k − 1)∆n(i − 1)} − E{∆n(i + k − 1)∆n(i)} − E{∆n(i + k)∆n(i − 1)} + E{∆n(i + k)∆n(i)} 1 = [2δ(k) − δ(k − 1) − δ(k + 1)]. 3
8.2 Digitale Drehzahlmessung
315
Das Leistungsdichtespektrum ist die z-Transformierte der Autokorrelationsfolge S∆nq ∆nq (z) =
∞
R∆nq ∆nq (k) · z −k =
k=−∞
1 (2 − z −1 − z). 3
Allgemein ist die Angabe der z-Transformierten bei der Periodendauermessung nicht möglich, da die Abtastung winkelsynchron erfolgt. Nimmt man aber an, dass die Winkelgeschwindigkeit ωm (i) im Beobachtungszeitraum näherungsweise konstant sei, so erhält man ebenfalls konstante Abtastperioden für die Zählergebnisse Tm (i). Dann kann die z-Transformierte und damit das Leistungsdichtespektrum des Quantisierungsfehlers angegeben werden. Setzt man Tm = nT0 =
ϕ0 2π 1 = = ωm Z · ωm Zfm
und wertet die z-Transformierte entlang des Einheitskreises aus 2π z = exp(j2πf Tm ) = exp j2πf , Z · ωm so erhält man die Leistungsdichte zu 1 2π 2π S∆nq ∆nq (f ) = − exp j2πf 2 − exp −j2πf 3 Z · ωm Z · ωm πf 4 = sin2 . (8.19) 3 Zfm Das Nyquistband erstreckt sich über das Intervall 1 1 ≤f ≤ , 2Tm 2Tm fm fm ≤f ≤Z , −Z 2 2 −
das proportional zur Winkelgeschwindigkeit ωm der sich drehenden Welle ist. Je mehr Zähne Z das Sensorrad besitzt, desto breiter ist das Nyquistband und desto höherfrequent ist das Quantisierungsrauschen. Das Spektrum ist ähnlich wie beim Sigma-Delta-Modulator (Abschn. 7.3.3) zu höheren Frequenzen hin verschoben (Abb. 8.16). Im Bereich f = 0 kann das Quantisierungsrauschen wirkungsvoll herausgefiltert werden, allerdings auf Kosten eines Informationsverlustes der höherfrequenten Spektralanteile von ωm . Das Quantisierungsrauschen bleibt absolut unabhängig von der Zählperiode T0 . Mit höheren Auszählfrequenzen f0 = 1/T0 steigt allerdings das absolute Zählergebnis n, so dass die relative Quantisierung abnimmt (vgl. Abschn. 8.2.3).
316
8. Erfassung frequenzanaloger Signale
S∆nq∆nq( f )
4/3
Nyquistband
-Z
-Zfm
fm
Z
0
2
fm 2
Zfm
f
Abbildung 8.16. Leistungsdichtespektrum des Quantisierungsfehlers bei der Periodendauermessung für konstantes ωm (i)
8.2.8 Kompensation mechanischer Fehler des Sensorrades Die Periode T wird durch Auszählung gemessen und dann durch Invertierung der Wert ω ˆ=
ϕ0 Tm
bestimmt (Abb. 8.7). Die Abtastung erfolgt an den Flanken des Sensorrads, d.h. an festen Winkeln. Die Flanken des Sensorrades weisen in der Praxis mechanische Toleranzen ∆ϕ(i) auf, die sich durch die Ungenauigkeiten des mechanischen Herstellungsprozesses ergeben (Abb. 8.17). Aufgrund der periodischen Wiederholung mit jeder Umdrehung des Sensorrades ist der Erwartungswert aller Winkelfehler über dem Umfang des Sensorrades gleich Null, E{∆ϕ(i)} = 0,
i = 1, . . . , Z.
Stochastische Zahnflankenfehler Zur weiteren Betrachtung sei zunächst angenommen, dass die mechanischen Winkelfehler ∆ϕ(i) der Zahnflanken zufällig und voneinander statistisch unabhängig seien, d.h. E {∆ϕ(i)∆ϕ(l)} = σϕ2 δil ,
i, l = 1, . . . , Z.
Die Periode Tm wird über den fehlerhaften Winkel ϕ(i) =
2π + ∆ϕ(i + 1) − ∆ϕ(i) Z
ausgezählt. Der exakte Winkel ist durch den Winkel 2π für eine Umdrehung, geteilt durch die Anzahl der Zähne Z gegeben. Der Erwartungswert des Winkels ist
8.2 Digitale Drehzahlmessung
317
ϕ0 =
2π/ ϕ(i Z )
∆ϕ(i)
(i+ ∆ϕ 1)
ω
Abbildung 8.17. Winkelfehler durch mechanische Toleranzen der Zahnflanken
E{ϕ(i)} = E{ =
2π + ∆ϕ(i + 1) − ∆ϕ(i)} z
2π 2π + E{∆ϕ(i + 1)} − E{∆ϕ(i)} = Z Z
gerade gleich dem exakten Winkel ϕ0 zwischen den Zahnflanken. Die Kovarianz des Winkels ist eine in der Zähnezahl Z periodische Funktion, entsprechend der periodischen Wiederholung mit jeder Umdrehung des Sensorrades: Cϕϕ (k) = E{(ϕ(i + k) − 2π/Z)(ϕ(i) − 2π/Z)}. Einsetzen der Winkel und Winkelfehler ergibt Cϕϕ (k) = E{[∆ϕ(i + 1 + k) − ∆ϕ(i + k)] · [∆ϕ(i + 1) − ∆ϕ(i)]} @ = E{∆ϕ(i + 1)∆ϕ(i + 1 + k)} − E{∆ϕ(i + 1)∆ϕ(i + k)}
2 δ(k) σϕ
2 δ(k+1) σϕ
− E{∆ϕ(i)∆ϕ(i + 1 + k)} + E{∆ϕ(i)∆ϕ(i + k)}
2 δ(k−1) σϕ
A
2 δ(k) σϕ
= σϕ2 (2δ(k) − δ(k + 1) − δ(k − 1)) . Die Kovarianz ist daher nicht vom absoluten Winkelintervall i abhängig. Außerdem ergibt sich eine statistische Abhängigkeit zwischen jeweils zwei benachbarten Intervallen i. Der Flankenfehler ∆ϕ(i + 1) verlängert das Intervall ϕ(i) und verkürzt gleichzeitig das Intervall ϕ(i + 1). Ebenso verkürzt der Flankenfehler ∆ϕ(i) das Intervall ϕ(i) und verlängert das Intervall ϕ(i − 1). Die z-Transformierte der periodischen Kovarianzfunktion Cϕϕ (k) ergibt ein diskretes Leistungsdichtespektrum Sϕϕ (z) =
∞ k=−∞
Cϕϕ (k)z −k .
318
8. Erfassung frequenzanaloger Signale
Einsetzen der Größen liefert Sϕϕ (z) =
∞
σϕ2 [2δ(k) − δ(k + 1) − δ(k − 1)]z −k
k=−∞ = σϕ2 (2 −
z − z −1 ).
Da die Kovarianzfunktion Cϕϕ (k) eine periodische Funktion mit der Periodendauer von einer Zahnradumdrehung Z · Tm ist, ergibt sich ein diskretes Leistungsdichtespektrum, das nur bei den diskreten Frequenzen f = i/(Z · Tm ) definiert ist. Wertet man die z-Transformierte mit z = ej2πf Tm = ej2πi/Z entlang des Einheitskreises aus, so erhält man das diskrete, periodische Leistungsdichtespektrum der Zahnfehler (Abb. 8.18)
Sϕϕ (i) = 4σϕ2 sin2 (πi/Z).
(8.20)
Die als stochastisch angenommenen Zahnflankenfehler können wie das Quantisierungsrauschen durch Mittelwertbildung aufeinander folgender Winkelgeschwindigkeiten ωm (i) heraus gefiltert werden. Allerdings führt dies zu einem Informationsverlust der höherfrequenten Spektralanteile von ωm . Sϕϕ (i) 4σϕ2
-Z
-Z/2
0
Z/2
Z
i
Abbildung 8.18. Leistungsdichtespektrum des stochastischen Zahnflankenfehlers bei Periodendauerauszählung
Schätzung der Zahnflankenfehler Die mechanischen Zahnflankenfehler verursachen bei genauer Betrachtung einen deterministischen Fehler ∆T (i) der gemessenen Periodendauer im i-ten Intervall. Die gemessene Periodendauer zwischen zwei Zahnflanken ist Tm (i) =
2π + ∆T (i) + e(i). Zωm (i)
8.2 Digitale Drehzahlmessung
319
Dabei ist i = 0, . . . , Z − 1 der Zählindex für die Zähne des Sensorrades. Alternativ zur Mittelwertbildung sollen im folgenden die Zählergebnisse dadurch korrigiert werden, dass in jedem Intervall zwischen zwei Zahnflanken eine Kompensation erfolgt. Die Zahnflankenfehler können durch den Ansatz T m (i) = ci · Tm (i),
i = 0 . . . Z − 1,
(8.21)
kompensiert werden. Jede Messzeit Tm (i) ist im i-ten Intervall durch den Zahnflankenfehler ∆T (i) verfälscht, der durch einen konstanten Korrekturterm ci behoben wird. Zur Bestimmung der konstanten Korrekturfaktoren ci in den Intervallen i ist es notwendig, die wahre Winkelgeschwindigkeit ωm (i) zu kennen. Da der Zahnflankenfehler über eine Umdrehung des Sensorrades mittelwertfrei ist, ist es möglich, die wahre Winkelgeschwindigkeit ωm (i), bzw. die wahren Durchlaufzeiten zwischen zwei Zahnflanken mit Hilfe eines gleitenden Mittelwerts T m (i) über eine volle Umdrehung zu bestimmen. Die Voraussetzung hierfür ist, dass die Winkelgeschwindigkeit über eine Umdrehung näherungsweise konstant ist: ωm (i) ≈ const. Die Laufzeit des akausalen Mittelwert-Filters ist symmetrisch über die vergangene halbe und die zukünftige halbe Umdrehung des Sensorrades verteilt (Abb. 8.19): 1 T m (i) = Z 1 T m (i) = Z
i+ Z 2 −1
Tm (j) +
j=i− Z 2 +1
1 Z Z Tm (i − ) + Tm (i + ) , Z gerade, 2 2 2
i+ Z−1 2
Tm (j),
Z ungerade.
(8.22)
j=i− Z−1 2
k-te Umdrehung
k-1
k+1
Mittelungsperiode (1 Umdrehung) Vergangenheit
Zukunft Tm(i)
~ ~
~ ~
Zahnindex
i -2
-1
0
1
2
Zahnverschiebung j
Abbildung 8.19. Akausale Mittelwertbildung zur Bestimmung der wahren Durchlaufzeit T m (i)
320
8. Erfassung frequenzanaloger Signale
Nun könnte man jedes ci mit Hilfe eines Quotienten aus gemessener Zeit Tm (i) und wahrer Zeit T m (i) bestimmen. Wir betrachten die k-te volle Umdrehung. Durch Multiplikation mit dem Kompensationsfaktor ci wird der im i-ten Intervall gemessenen Zeit Tm (kZ + i) der gleitende Mittelwert über eine Umdrehung T m (kZ + i) zugeordnet, T m (kZ + i) = ci · Tm (kZ + i), der frei von Zahnflankenfehlern ist. Für alle Intervalle i = 0, . . . , Z − 1 einer Umdrehung lautet die Beziehung ⎡
⎤ ⎤⎡ c0 Tm (kZ ) 0 0 ⎢ ⎥ ⎢ c1 ⎥ ⎥ ⎢ 0 Tm (kZ+1) ⎢ ⎥ ⎥⎢ ⎥ ⎢ ⎢ ⎥ ⎢ .. ⎥ , ⎥=⎢ . .. ⎣ ⎦⎣ . ⎦ ⎦ ⎣ 0 Tm (kZ+Z−1) cZ−1 T m (kZ+Z−1) T m (kZ ) T m (kZ+1) .. .
⎤
⎡
T m (k) = Ψ m (k) · c, aus der die Faktoren ci geschlossen berechnet werden könnten. Den Messungen ist allerdings noch ein Messfehler e(i) überlagert, z.B. aufgrund des Quantisierungsrauschens . Erstreckt man die Messung über mehrere Umdrehungen k, so kann man mit einem Least-Squares Schätzer den Einfluss des Messfehlers e(i) bei der Bestimmung der Korrekturfaktoren ci minimieren. Das Signalmodell für mehrere Umdrehungen lautet ⎡ ⎢ ⎢ T =⎢ ⎣
T m (1) T m (2) .. . T m (K)
⎤
⎡
Ψ m (1) Ψ m (2) .. .
⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎦ ⎣
Ψ m (K)
⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥·⎢ ⎦ ⎣
c0 c1 .. .
⎤ ⎥ ⎥ ⎥ = Ψ c. ⎦
cZ−1
Der gesuchte Vektor der Kompensationsfaktoren ist die Pseudoinverse c = (Ψ T Ψ )−1 Ψ T · T .
ϕ
a
R M
M' ω
r(ϕ)
Abbildung 8.20. „Zahnflankenfehler“ durch exzentrische Lagerung des Sensorrades
8.3 Kontinuierliche Frequenzmessung
321
Man erhält nun Z konstante Werte ci , die das Sensorrad „eineichen“. Später ist nur noch jeder gemessene Wert Tm (i) mit dem entsprechenden konstanten Faktor ci zu multiplizieren, um die Fehler zu kompensieren. Abbildung 8.21 zeigt den Effekt der Korrektur am Beispiel der Kurbelwellendrehzahl eines Motors. In praktischen Anwendungen können mechanische Sensorfehler auch durch eine exzentrische Lagerung des Sensorrades verursacht werden (Abb. 8.20). Das Fehlerbild ist ähnlich wie beim Zahnflankenfehler, aber abhängig von der aktuellen Drehzahl des Rades. Die Kompensation kann ebenfalls mit dem vorgestellten Least-SquaresSchätzer erfolgen. Bei aufeinander folgenden Schätzungen ergeben sich in Abhängigkeit der momentanen Raddrehzahl abweichende Kompensationsfaktoren ci . Periodendauer zwischen zwei Zahnflanken (unkorrigiert)
-4
x 10 6.85
sec
6.8 6.75 6.7 6.65 6.6 26 x 10
26.2
26.4
26.6
26.8
27
27.2
27.4
27.6
27.8
28
27.8
28
Periodendauer zwischen zwei Zahnflanken (korrigiert)
-4
6.9
sec
6.8
6.7
6.6 26
26.2
26.4
26.6
26.8
27 27.2 Arbeitsspiel
27.4
27.6
Abbildung 8.21. Korrektur von mechanischen Zahnflankenfehlern durch Least-Squares Schätzung
8.3 Kontinuierliche Frequenzmessung Bisher wurde die digitale Erfassung von frequenzanalogen Signalen besprochen. Daneben gibt es auch kontinuierliche Methoden zur Frequenzmessung. Die vorgestellten Verfahren basieren beide auf Regelkreisen, die es ermöglichen, eine Fre-
322
8. Erfassung frequenzanaloger Signale
quenz in eine proprotionale Spannung (Phasenregler) oder in einen quasikontinuierlichen Zählerstand (Frequenzregler) umzusetzen. 8.3.1 Frequenzregelkreis Die Frequenz als Folge von Impulsereignissen wird bei der Frequenzzählung nach Abschn. 8.2.2 über eine feste Periode Tref abschnittsweise gemittelt. Alternativ dazu ist eine quasikontinuierliche Mittelung möglich. Verwendet man einen VorRückwärtszähler als Integrator und den in Abschn. 7.4.2 vorgestellten Rate-Multiplier als Frequenzgenerator, so erhält man mit dem Frequenzvergleicher |∆f | = f = q, sign(∆f ) = f¯ · q, einen digitalen Regelkreis (Abb. 8.22). Der Zählerstand des Vor-Rückwärtszählers n
z(n) = T0
∆f (j) =
j=−∞
1
n
fmax
j=−∞
[f (j) − q(j)]
summiert mit der Abtastrate fmax = 1/T0 die Differenz zwischen Eingangsfrequenz f (n) und zurückgeführter Frequenz q(n). Letztere leitet sich wie folgt vom Zählerstand ab. q(n) = fmax
z(n) zmax
f (n) Vergleicher
∆ f (n)
Ti
z(n)
q(n)
FrequenzGenerator Abbildung 8.22. Quasikontinuierliche Mittelung der Eingangsfrequenz
Die z-Transformierte des Zählerstandes ist Z(z) =
1 1 1 F (z) − Z(z). −1 fmax 1 − z zmax 1 − z −1 1
Setzt man die Zählerzeitkonstante Ti = zmax T0 ein, so erhält man schließlich die Übertragungsfunktion des Regelkreises
8.3 Kontinuierliche Frequenzmessung
G(z) =
1/fmax Z(z) 1/fmax = = F (z) 1 − z −1 + 1/zmax k − z −1
mit k = 1 +
323
1 . zmax
Die Sprungantwort des Systems ist mit f (n) = fmax · σ(n)
◦−• F (z) = fmax
z z−1
gleich z z z z · = Z(z) = . z − 1 kz − 1 k (z − 1)(z − 1/k) Zur Rücktransformation benötigt man die Partialbruchzerlegung des Klammerausdrucks. Damit erhält man Z(z) =
1 z z 1 − k − 1 z − 1 k(k − 1) z − 1/k =zmax
◦| • z(n) = zmax [1 − k −(n+1) ], d.h. der Zählerstand z(n) schwingt exponentiell gegen den Maximalwert ein. Mit dem Übergang auf die kontinuierliche Zeit t = nT0 und der Näherung ln(k) = ln(1 + 1/zmax) ≈ 1/zmax kann man den kontinuierlichen Verlauf der Sprungantwort rekonstruieren: z(t) ≈ zmax (1 − e−(t+T0 )/Ti ). Der Frequenzregelkreis besitzt ein P T1 -Verhalten und damit Tiefpasscharakter für Frequenzen f > 1/Ti . 8.3.2 Phasenregelkreis Der Phasenregelkreis setzt eine Eingangsfrequenz f (t) in eine proportionale Ausgangsspannung u(t) um. Abbildung 8.23 zeigt den Regelkreis. Die Eingangsfrequenz f (t) wird mit der zurückgeführten Frequenz q(t) verglichen, die über einen spannungsgesteuerten Oszillator (VCO, Voltage Controlled Oscillator) aus der Ausgangsspannung u(t) erzeugt wird. Der Vergleicher berechnet die Phasendifferenz ∆ϕ zwischen den beiden Frequenzen. Sein Ausgangssignal uv (t) ist eine Schaltfunktion, die gemittelt wird. Im stationären Zustand ist die Ausgangsspannung u(t) proportional zur Eingangsfrequenz f (t). Das dynamische Verhalten des Phasenregelkreises wird durch das
324
8. Erfassung frequenzanaloger Signale
f (t ) u v (t )
Vergleicher
Ti
u ( t)
T1, T2
q(t )
VCO
Abbildung 8.23. Phasenregelkreis (PLL = Phase Lock Loop)
Übertragungsglied (hier PI-Regler) und den Vergleicher bestimmt. An dieser Stelle sollen nur Vergleicher betrachtet werden, die den Phasenregelkreis aus jedem beliebigen Anfangszustand in den korrekten stationären Zustand überführen. Man sagt, der Fangbereich des Regelkreises reiche von f = 0 bis ∞. Dies gilt nicht für Vergleichertypen, bei denen häufig nur ein eingeschränkter Fangbereich existiert. Der hier verwendete digitale Phasenvergleicher arbeitet ausschließlich mit Rechtecksignalen (Abb. 8.24). Bei einer Phasendifferenz der Eingangsfrequenz f (t) zur Rückführungsfrequenz q(t) von größer als ±π entstehen Mehrdeutigkeiten. Im Zweifelsfall wird um eine ganze Periode versetzt eingeregelt. Der Vergleich der Phasenlage von beiden Signalen bedeutet in der Nähe des Abgleichs eine implizite Integration dieser Signale. Bei einer konstanten Frequenzdifferenz f (t) − q(t) = const steigt das mittlere Phasendifferenzsignal mit der Zeit an (Abb. 8.25). Im kontinuierlichen Fall gilt für die Phasendifferenz t
∆ϕ(t) =
∆ω(t) dt
◦−•
∆Φ(s) =
1 ∆Ω(s). s
0
Mit der Normierung auf die Maximalwerte ωmax 1 = fmax = ϕmax Tmin erhält man die Beziehung 1 ∆Ω(s) 1 ∆F (s) ∆Φ(s) = = . ϕmax sTmin ωmax sTmin fmax Der Phasenvergleicher ist ein Integrator mit der Zeitkonstante Tmin = 1/fmax . Die Ausgangsspannung des Phasenvergleichers ist zwar ein pulsbreitenmoduliertes Signal, aber wegen der nachfolgenden Mittelung wird näherungsweise mit einem kontinuierlichen Vergleichssignal gerechnet:
8.3 Kontinuierliche Frequenzmessung
>1 & f
325
UP
S R Fangbereich f −q <∞
&
S
q
&
R
>1
DOWN
a.) q eilt f nach f q
UP DOWN b.) q eilt f vor f q UP DOWN
Abbildung 8.24. Digitaler Phasenvergleicher, Phasenvergleichssignal bei konstanter Phasendifferenz
uv (t) ∆ϕ(t) = . umax ϕmax Das P I-Glied stabilisiert den Phasenregelkreis. Die Übertragungsfunktion ist 1 + sT1 Uv (s) 1 + sT1 ∆F (s) 1 + sT1 F (s) Q(s) U (s) = = 2 = 2 − . umax sT2 umax s T2 Tmin fmax s T2 Tmin fmax fmax
326
8. Erfassung frequenzanaloger Signale T =1 f
f (t )
∆T q ( t) 1q
∆ϕ ∆T
3∆T
n =1
5∆T
2
2
n=2
2
n=3
n=4
Abbildung 8.25. Phasenvergleichssignal bei konstanter Frequenzdifferenz
Das Verhalten des spannungsgesteuerten Oszillators (VCO) kann als verzögerungsfrei angenommen werden, q(t) u(t) = . fmax umax Die Übertragungsfunktion des geschlossenen Phasenregelkreises ist damit U (s) umax 1 + sT1 = · . F (s) fmax 1 + sT1 + s2 Tmin T2
(8.23)
Der Nenner der Übertragungsfunktion besitzt P T2 -Verhalten. Das System ist schwingfähig, Frequenzen oberhalb der Resonanzfrequenz 1 ωr = √ Tmin T2 werden stark gedämpft. Sprungantwort und Amplitudengang des Phasenregelkreises zeigt Abb. 8.26. Zur Dimensionierung wird die Dämpfung δ des P T2 -Glieds eingeführt: δ=
1 1 T1 √ = T 1 ωr . 2 Tmin T2 2
√ Nach Beispiel 4.8 erhält man mit δ = 1/ 2 ein günstiges Einschwingverhalten, woraus sich die Bedingung T12 = 2TminT2 ergibt (Durchgezogene Linie in Abb. 8.26). Als Beispiel für eine Dimensionierung wird die Integrationszeitkonstante T2 gleich der Periode der minimalen Eingangsfrequenz fmin gesetzt, d.h. fmin = 1/T2 . Die Kreisfrequenz des Phasenregelkreises ist dann gleich dem geometrischen Mittel
8.4 Positions- und Richtungserkennung
ωr =
327
) fmin · fmax
aus maximaler und minimaler Eingangsfrequenz. Die Schwingfrequenz des Einschwingvorgangs ist mit dieser Dimensionierung √ 1 fmin · fmax ωr √ =√ = T1 2 2 und die Abklingzeitkonstante des Einschwingvorgangs ist gerade gleich der Zeitkonstanten.
Sprungantwort h(t)
1.5
1
0.5
Amplitudengang |G(f)| [dB]
0
0
0.1
0.2
0.3
0.4
0.5 Zeit t[sek]
0.6
0.7
0.8
0.9
1
5 0 −5 −10 −15 −20 −25 0 10
1
2
10
10
3
10
Frequenz [Hz]
Abbildung 8.26. Sprungantwort und Amplitudengang eines Phasenregelkeises √ √ für fmax = 100Hz, fmin = 1/T2 = 1Hz und T1 = 1/ 2 sec (——) bzw. T1 = 1/(2 · 2) sec (– – –)
8.4 Positions- und Richtungserkennung 8.4.1 Drehrichtungserkennung In den Abschn. 8.2.1 und 8.2.2 wurden zwei Methoden vorgestellt, die es ermöglichen, die Winkelgeschwindigkeit ω einer Welle mittels eines Sensorrades zu bestimmen. Zusätzlich soll nun die Drehrichtung der Welle bestimmt werden. Zur Erkennung der Drehrichtung wird der Aufbau in Abb. 8.27 betrachtet.
328
8. Erfassung frequenzanaloger Signale ϑ
S2
∆ϕ
ϕ0
S1
ψ
Abbildung 8.27. Einrichtung zur Drehrichtungserkennung
Die beiden Sensoren S1 und S2 sind dabei so ausgerichtet, dass sie nicht gleichzeitig über jedem Sensorzahn stehen, sondern der eine leicht versetzt dazu. Durch ϕ0 =
2π Z
ist der Winkel zwischen zwei Zähnen gegeben, wobei Z die Anzahl der Zähne ist. Durch ψ wird der Winkel definiert, den das Rad während der Dauer eines Impulses im Sensor zurücklegt (Zahnbreite). Nun gilt für den Winkelabstand zwischen S1 und S2 ϑ = k · ϕ0 ± ∆ϕ mit 0 < ∆ϕ < ψ/2 und k ∈ IN. Durch die Bedingung ∆ϕ < ψ/2 ist gewährleistet, dass sich die Impulse in den Sensoren zeitlich überschneiden. In unserer Abbildung und in der weiteren Betrachtung gilt ϑ = ϕ0 − ∆ϕ mit ∆ϕ = ψ/2. Geht man von einer Rechtsdrehung aus, so ergibt sich das Impulsdiagramm in Abb. 8.28 für die Sensorsignale. Die Impulse erscheinen bei einer Rechtsdrehung im Sensor S1 früher als im Sensor S2. S1 S2 Abbildung 8.28. Sensorsignale bei einer Rechtsdrehung
Bei einer Linksdrehung ergibt sich ein entsprechendes Impulsdiagramm nach Abb. 8.29. Hier erscheinen die Impulse im Sensor S2 früher. So kann man aus der Information, in welchem Sensor die Impulse früher erscheinen, mittels einer einfachen logischen Schaltung (Abb. 8.30) auf die Drehrichtung schließen.
8.4 Positions- und Richtungserkennung
329
S1 S2 Abbildung 8.29. Sensorsignale bei einer Linksdrehung S1
>1 S2
Rechts
&
S
Q
&
R
Q
Verzög.
Links
Abbildung 8.30. Gatter zur Erkennung der Drehrichtung
Drehrichtungsänderungen während eines Impulses werden aber von dieser Schaltung nicht erkannt. Hierzu benötigt man ein komplizierteres Netzwerk. Das Prinzip der Drehrichtungserkennung wird bei jeder Computermaus benutzt, um die Bewegungsrichtung zu bestimmen. 8.4.2 Positionsbestimmung mit Inkrementalgebern In den vorherigen Kapiteln wird aus frequenzanalogen Signalen die Winkelgeschwindigkeit und die Drehrichtung bestimmt. Zusätzlich soll nun die absolute Position einer Welle bestimmt werden. Dies ist z.B. bei der Bestimmung des Öffnungswinkels der Drosselklappe in einem Automotor wichtig. Eine Möglichkeit zur Positionsbestimmung ist die Verwendung eines Gray-Codecodierten Absolutwinkelgebers (Abb. 8.31). Der Aufwand ist jedoch durch die vielen parallelen Spuren und Sensoren hoch. So benötigt man bei einer Auflösung von 256 Schritten 8 Spuren und entsprechend 8 Sensoren. Gesucht ist deshalb eine Methode, bei der bereits aus wenigen Spuren die absolute Position bestimmt werden kann. Der einfachste Fall besteht darin, dass auf der Codescheibe neben der Inkrementspur zusätzlich eine weitere Spur mit einer Indexmarke aufgebracht ist. Diese Marke definiert die Nullposition der Scheibe. Die Methode hat aber den entscheidenden Nachteil, dass sich die Welle im ungünstigsten Fall (z.B. Verzählen) um 360◦ drehen muss, bis der Detektor die Indexmarke erfasst, und damit die Nullposition feststellt. Erst ab diesem Zeitpunkt kann die absolute Position nach einem Fehler erneut bestimmt werden. Die Nachteile der einfachen Scheibe mit 2 Spuren können mit einer „abstandscodierten“ Scheibe behoben werden. Dazu befinden sich weitere Indexmarken auf der zweiten Spur der Scheibe. Diese Markierungen unterteilen die Codespur in einzelne Segmente. Die Indexmarken werden so angeordnet, dass sich aus dem Abstand dazwischen die Segmentnummer und damit die absolute Position errechnen lässt. Die Marken 1 und 2 sind d Inkremente voneinander entfernt, die Marken 2 und 3 (d + 1) Inkremente, die Marken 3 und 4 (d + 2) Inkremente und so weiter. Die Abstände zwischen den Indexmarken sind damit jeweils eindeutig einer bestimmten
330
8. Erfassung frequenzanaloger Signale
Abbildung 8.31. Gray-Code-codierter Absolutwinkelgeber
Position zugeordnet. Als Beispiel zeigt Abb. 8.32 den Aufbau einer abstandscodierten Scheibe mit d = 4 und insgesamt 72 Inkrementmarken. Nach spätestens 12 Impulsen (entspricht 60◦ ) kann die absolute Position erkannt werden.
4
12
Inkrementspur
5 6
11
Indexspur
7 10
8 9
Abbildung 8.32. Beispiel einer abstandscodierten Scheibe
Symbole
Die Auflistung der Symbole spiegelt die Verwendungsweise in diesem Buch wieder. Dabei wurde die internationale Schreibweise beachtet. Es muss jedoch darauf hingewiesen werden, dass sich in anderen Büchern, Schriften, etc. die Schreibweise unterscheiden kann. C Cxx Cxy e(t) eq (t) Ex E{} E(s), E(f ) f f¯ fa f0 feff fg fx (x) Fx (x) Fr FrSS FrES FrS FrE Fr,Sup Fr,Def G(s), G(f )
Kapazität, Kondensator Autokovarianz Kreuzkovarianz Fehlersignal allgemein Quantisierungsfehler Energie des Signals x(t) Erwartungswertoperator Fehlersignal im Frequenzbereich Frequenz mittlere Frequenz Abtastfrequenz Zählfrequenz Effektiv-Frequenz Grenzfrequenz Wahlscheinlichkeitsdichte von x Wahlscheinlichkeitsverteilung von x relativer Fehler relativer Kennlinienfehler, bezogen auf Ausgangsspanne relativer Kennlinienfehler, bezogen auf Ausgangsbereich relativer Kennlinienfehler, bezogen auf Sollwert relativer Kennlinienfehler, bezogen auf Augangsendwert superponierender Fehler (additiv) deformierender Fehler (multiplikativ) Übertragungsfunktion
332
Symbole
n N n(t) nq P {x ≤ x} pi Px q Q R rT (t) Rq (f ) rxy Rxx (τ ) Rxy (τ ) E Rxy (τ ) S Si Sx2 Sxx (f ) See (f ) Snn (f ) sxx (t) t T Ti Tm Tref u(t) uq (t) u0 ua ue uref
Index der Abtastwerte, allgemeiner Zahlenindex allgemeiner Zahlenindex ∈ IN stochastisches Signal, Rauschen quantisiertes Zählergebnis Wahrscheinlichkeit, dass x ≤ x Wahrscheinlichkeit, daß xi ≤ x ≤ xi+1 Leistung des Signals x(t) Quantisierungsstufe Gütekriterium allgemein Widerstand Rechteckfenster der Breite T Fouriertransformierte der gleichverteilten Wahrscheinlichkeitsdichte Korrelationskoeffizient Autokorrelation Kreuzkorrelation Korrelation für Energiesignale Empfindlichkeit (Sensitivity) Empfindlichkeit, ideal, linear Stichprobenvarianz Energie- bzw. Leistungsdichtespektrum Leistungsdichte eines allg. Fehlersignals Leistungsdichte eines Rauschsignals Energiedichte im Zeitbereich Zeit, Zeitpunkte Periodendauer Integrationszeitkonstante Periodendauer zwischen zwei Zahnflanken bei Periodendauermessung Referenzperiode bei Frequenzmessung Eingangssignal, Messgröße quantisiertes Signal Arbeitspunkt Meßanfang Meßende Referenzspannung
Symbole
V x ¯ x ˆ x y(t) y∗ (t) yn , y(nT ) ya ye yi Y(t, ξ) Y (f ) Y∗ (f ) z z0 Z Z α δ(t) ∆y ∆ϕ ∆f Φ(f ) ϕ ϕ0 Ψ λ µ σ(t) σx2 τ ω ωm (t) ϑ XY (ϑ)
Verstärkungsfaktor zeitlicher Mittelwert Stichprobenmittelwert, Schätzwert allgemein Zufallsvariable allgemein Ausgangssignal, kontinuierliches Zeitsignal abgetastetes Signal zeitdiskretes Signal Ausgangs-Anfangswert Ausgangs-Endwert Sollwert, Augangswert Stochastischer Prozess Spektrum allgemein, Frequenzgang Spektrum eines zeitdiskreten Signals Störgrößenvektor feste Störgröße bei Normalbedingungen Zählerstand, digitaler Zahlenwert Anzahl der Zähne eines Zahnrades Signifikanzniveau, Irrtumswahrscheinlichkeit Dirac-Impuls Abweichung vom wahren Wert/Arbeitspunkt Winkelfehler am Zahnrad Bandbreite eines Signals charakteristische Funktion Winkel allgemein Winkelinkrement auf Sensorzahnrad Beobachtungsmatrix des linearen Signalmodells Ausfallrate, Übergangsrate Mittelwert, Scharmittelwert Sprungfunktion Varianz Zeitverschiebung Kreisfrequenz kontinuierliche Winkelgeschwindigkeit Frequenzverschiebung spektrale Korrelation
333
Literaturverzeichnis
1. BARTZ , W.J. und H. B RENNEKE (Herausgeber): Frühdiagnose von Schäden an Maschinen und Maschinenanlagen. expert-Verlag, Ehningen, 1988. 2. DIN 1301: Einheiten. 3. DIN 1319: Grundbegriffe der Meßtechnik, Blatt 1-3, 1968-1972. 4. DIN 19201: Durchflußmeßtechnik, April 1968. 5. D OOB , J.L.: Stochastic Processes. John Wiley & Sons, Now York, London, Sidney, 1953. 6. F ÖLLINGER , O.: Regelungstechnik. Hüthig, Heidelberg, 1992. 7. G IAQUINTA , M. und S. H ILDEBRANDT : Calculus of Variations Vol 1. and 2. Springer, Berlin, Heidelberg, New York, 1996. 8. G RAHAM , D. und R.C. L ATHROP: Synthesis of Optimum Transient Response: Criteria and Standard Forms. AIEE Transactions, 72:273–286, 9 1953. 9. H ARMUTH , F.H.: Transmission of Information by Orthogonal Functions. Springer, Berlin, Heidelberg, New York, 1972. 10. H EINHOLD , H. und K.-W. G AEDE : Ingenieur Statistik. Oldenbourg, München, Wien, 2. Auflage, 1968. 11. H EPPNER , H. und I. B ENECKE : Entwurf optimaler Filter für einen Sigma-Delta-ADU bei statischen Eingangssignalen. Wissenschaftliche Zeitschrift der TU Magdeburg, 35, Heft 2:59–65, 1991. 12. H ESS , W.: Digitale Filter. Teubner, Stuttgart, 1989. 13. H ÄNSLER , E.: Statistische Signale. Springer Verlag, Berlin, Heidelberg, New York, 1997. 14. H OEL , P.G.: Introduction to Mathematical Statistics. J. Wiley and Sons, New York, 1984. 15. H URWITZ , A.: Über die Bedingungen, unter welchen eine Gleichung nur Wurzeln mit negativen reellen Teilen besitzt. Math. Annalen, 46:273–284, 1895. 16. I SERMANN , R.: Identifikation dynamischer Systeme, Band 1 und 2. Springer, Berlin, Heidelberg, New York, 1992. 17. JAYANT, N.S. und P. N OLL : Digital Coding of Waveforms. Prentice-Hall, Englewood Cliffs, New Jersey, 1984. 18. J ONDRAL , F. und A. W IESLER: Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure. Teubner, Stuttgart, Leipzig, 2000. 19. K ALMAN , R. E.: A New Approach to Linear Filtering and Prediction Problems. Transactions ASME, 82:35–45, 1960. 20. K ALMAN , R. E. und R. S. B UCY: New Results in Linear Filtering and Prediction Theory. Transactions ASME, 83:95–108, 1961. 21. K AMMEYER , K. und K. K ROSCHEL : Digitale Signalverarbeitung. Teubner, Stuttgart, 1998. 22. K IENCKE , U.: Ereignisdiskrete Systeme. Oldenbourg Verlag, München, Wien, 2005. 23. K IENCKE , U. und H. JÄKEL : Signale und Systeme. Oldenbourg Verlag, München, Wien, 2002.
336
Literaturverzeichnis
24. K IENCKE , U. und L. N IELSEN: Automotive Control Systems. Springer, Berlin, Heidelberg, New York, 2005. 25. K REYSZIG , E.: Statistische Methoden und ihre Anwendung. Vandenhoeck & Ruprecht, Göttingen, 3. Auflage, 1968. 26. L EONHARD , A.: Ein neues Verfahren zur Stabilitätsuntersuchung. Archiv für Elektrotechnik, 38:17–29, 1944. 27. L JUNG , L.: System Identification. Prentice-Hall, Englewood Cliffs, New Jersey, 1987. 28. M ESCH , F.: Geschwindigkeits- und Duchflußmessung mit Korrelationsverfahren. Regelungstechnische Praxis, 24(3):73–82, 1982. 29. M EYBERG , K. und P. VACHENAUER: Höhere Mathematik, Band 3. Springer, Berlin, Heidelberg, New York, 1999. 30. M ORGENSTERN , D.: Einführung in die Wahrscheinlichkeitsrechnung und mathematische Statistik. Springer, Berlin, Heidelberg, New York, 2. Auflage, 1968. 31. N EWTON , G.C., L.A. G OULD und J.F. K AISER: Analytical design of linear feedback controls. John Wiley & Sons, New York, London, Sidney, 1957. 32. N OVICKIJ , P.V., V.G. K NORRING und V.S. G UTNIKOV: Frequenzanaloge Meßeinrichtungen. VEB Verlag Technik, Berlin, 1975. 33. O PPENHEIM , A.V. und R.W. S CHAFER: Zeitdiskrete Signalverarbeitung. Oldenbourg Verlag, München, Wien, 1999. 34. PAPOULIS , A.: The Fourier Integral and its Applications. McGraw Hill, New York, 1962. 35. PAPOULIS , A.: Error Analysis in Sampling Theory. Proceedings IEEE, 54:947–955, 1966. 36. PAPOULIS , A.: Systems and Transformations with Applications in Optics. McGraw-Hill, New York, 1968. 37. PAPOULIS , A.: Probability, Random Variables and Stochastic Processes. McGraw-Hill, New York, 3. Auflage, 1991. 38. PAUL , M.: Einige Abschätzungen der Fehler infolge zeitlicher Abtastfehler bei der Diskretisierung kontinuierlicher Signale. Regelungstechnik, 12:409–413, 1975. 39. RUPRECHT, W.: Netzwerksysthese. Springer, Berlin, Heidelberg, New York, 1972. 40. S CHRÜFER: Elektrische Meßtechnik. Hanser, 1995. 41. S EIFART, M ANFRED: Analoge Schaltungen. Hüthig Verlag, Heidelberg, 1994. 42. S IZER , T.R.H.: The Digital Differential Analyzer, Seiten 21–23. Chapman and Hall, 1968. 43. S PRINGER , M. D.: The Algebra of Random Variables. J. Wiley and Sons, New York, 1979. 44. S TEARNS , S.D. und D.R. H USH: Digitale Verarbeitung analoger Signale. Oldenbourg Verlag, München, Wien, 1999. 45. S TORM , R.: Wahrscheinlichkeitsrechnung, mathematische Statistik und statistische Qualitätskontrolle. VEB Fachbuchverlag, Leipzig, 1972. 46. T IETZE , U. und C H . S CHENK: Halbleiterschaltungstechnik. Springer, Berlin, Heidelberg, New York, 1999. 47. T RAUXAL , J.G.: Entwurf automatischer Regelsysteme. Oldenbourg, München, Wien, 1960. 48. VDE/VDI 2183: Meßumformer für Differenzdruck, Oktober 1964. 49. W IDROW, B.: A Study of Rough Amplitude Quantization by Means of Nyquist Sampling Theory. IRE Transactions on Circuit Theory, CT-3(Dec.):266–276, 1956. 50. W IDROW, B.: Statistical Analysis of Amplitude Quantized Sampled Data Systems. AIEE Transactions on Applications and Industry, 81(Jan.):555–568, 1961. 51. W IENER , N.: The Extrapolation, Interpolation and Smoothing of Stationary Time Series with Engineering Applications. J. Wiley, New York, 1949. 52. W OLF, H.: Lineare Systeme und Netzwerke. Springer, Berlin, Heidelberg, New York, 1971.
Index
Abgleich, 37 Abschirmung, 76 Absolutdruckmesser, 68 abstandscodierte Scheibe, 329 Abtastfrequenz, 245, 246 Abtasttheorem, 245 Abtastung, 244 – bei Drehzahlmessung, 309 Addition unabhängiger Zufallsvariablen, 145 Aliasing, 246 Aliasing-Fehler, 247 Alternativhypothese, 167 Amplitudendichte, 259 – Fourier-Reihe, 261 – harmonische Schwingung, 260 Amplitudengang, 88 – konstanter, 100 Analog-Digital-Umsetzer, 274 – Integrierender, 274 – nichtlineare Kennlinie, 287 – Sigma-Delta, 277 – sukzessive Approximation, 284 – verzögert nachlaufender, 276 Antialiasing-Filter, 247 Anzeigebereich, 39 Anzeigespanne, 39 Approximation, 13 Approximationsfehlerquadrate, 13, 18 Ausfallrate, 176, 177 Aussagewahrscheinlichkeit, 177 Ausschussrate, 174 Autokorrelationsfunktion, 194 – einer PRBS-Folge, 225 – von weißem Rauschen, 222 Autokovarianzfunktion, 194 Autoleistungsdichtespektrum, 220 Bandbreite, 297 Bauelemente-Qualität, 176 Bauelementestunden, 177
Beschleunigungssensor, 60 Beschleunigungstreue, 99, 114 Besselsche Ungleichung, 16 Binärfolge – Pseudostochastische, 224 binäre Impulsfolge, 277 Bode-Diagramm, 88 Brückenschaltung, 49 Charakteristische Funktion – quantisierter Signale, 264 charakteristische Funktion, 145 Chi2-Anpassungstest, 170 Chi2-Verteilung, 157 Differenzmethode, 57 Digital-Analog-Umsetzer, 288 – parallele, 289 – serielle, 291 Digitale Filter, 280 digitale Messdatenerfassung, 243 Dither, 269 dominante Pole, 122 Dopplermessung, 216 Drehrichtungserkennung, 327 Drehzahlmessung, 301 Druck-Messumformer, 64 dual slope converter, 274 Effektivwert, 268 Eichen, 38 Eingangsgröße, 4 Einheit, 1 Empfindlichkeit, 39 – ideale, 39 – mittlere, 43 Endwertsatz, 90 Energiedichte – im Frequenzbereich, 205 – im Zeitbereich, 204 Energiedichtespektrum, 221, 228 Energiesignale, 200, 228
338
Index
– Innenprodukt, 201 – Norm, 201 Ergodizität, 196 – schwache, 197 Erwartungstreue, 147 Erwartungswert, 140 – quantisierter Signale, 266 – Quantisierungsrauschen, 268 Exzess, 151 Faltung mit Rechteckfenster, 251 Fangbereich, 324 Fehler – absoluter, 6 – Aliasing, 247 – dynamische, 85 – Jitter, 252 – Quantisierungs, 256 – relativer, 6 – systematische, 7 – Winkel-, 316 – zufällige, 7 – zufällige, 135 Fehlerfortpflanzung, 184 Fehlerquadrate – Minimierung, 13 Fehlerursachen, 7 Filter – FIR, 281 – moving average, 180, 251, 281 – Optimal-, 19 – Wiener-, 237 Filter-Optimal, 237 Fixpunktjustierung, 37 Flächenabtastung, 311 Flächenabtastung, 263 Fourier-Reihe, 16 Frequenz – effektiv, 297 – effektive, 301 – mittlere, 297 Frequenzbegriff, 296 Frequenzgang, 86 Frequenzmessung, 321 Frequenzregelkreis, 322 Frequenzvergleicher, 322 Frequenzzählung, 304 – statischer Quantisierungsfehler, 305 Funktionenraum, 201 Funktionensysteme – orthonormale, 14 Gütemaß, 115
Gütemaß, 13, 52 Gaußsche Fehlerfunktion, 163 Gaußsches Fehlerfortpflanzungsgesetz, 184 Gegenkopplung, 62, 126 Geschwindigkeitstreue, 98, 113 Gesetz der großen Zahlen, 151 Gray-Code, 329 Häufigkeitsverteilung, 146 Histogramm, 146 Hurwitz-Kriterium, 92 Hypothese, 167 Hysterese, 41 Impulskorrelation, 204, 230 Impulsreihe, 244 Inkrementalgeber, 329 Integration der Eingangsspannung, 250 Interpolation, 13, 21 – Kennfeld, 31 – Lagrange, 21 – Newton, 24 – Spline, 27 Irrtumswahrscheinlichkeit, 163, 167 ITAE-Kriterium, 110 Jitter, 252 Justierung, 37 Kennfeld-Interpolation, 31 Kennlinie – ideale, 39 Kennlinienfehler – relativer, 40 Kennlinieninterpolation, 21 Kompensation, 75 – des Zeitverhaltens, 121 – mechanischer Zahnflankenfehler, 316 Konfidenzintervall, 162 Konsistenz, 147 Korrelation – Anwendung, 207 – Eigenschaften, 206 – eines ergodischen Prozesses, 197 – für Energiesignale, 204 – für Leistungssignale, 202 – Impuls-, 204 – Kurzzeit, 208 – Maximum, 209 – Messung, 207 – Summensignal, 227 Korrelationskoeffizient, 142, 209 Kovarianz, 142 – eines ergodischen Prozesses, 197
Index Kreuzkorrelation – Differentiation, 214, 299 Kreuzkorrelationsfunktion, 194 – Abschätzung, 209 Kreuzkovarianzfunktion, 195 Kreuzleistungsdichtespektrum, 220 Laufzeitmessung, 209 Leistung, 203, 220 Leistungsdichtespektrum, 219 – Eigenschaften, 221 – in LTI-Systemen, 227, 229 – von weißem Rauschen, 222 Leistungssignale, 200 – Innenprodukt, 201 – Norm, 201 LS-Schätzer, 320 LS-Schätzer, 18, 182 MA-Filter, 180, 251, 281 Messanfang, 39 Messbereich, 39 – günstigster, 51 – herabsetzen, 46 Messende, 39 Messkennlinie – Krümmung, 58 – stationäre, 4 Messspanne, 39 Messunsicherheit – Einzelmessung, 167 – Stichprobenmittelwert, 165 Mittelwert, 140 – Chi2-Verteilung, 160 – gleitender, 180, 250 Mittelwertbildung, 153 – bei AD–Wandlung, 276 – bei Drehzahlmessung, 306 – bei endlicher Abtastdauer, 249 Moment – der Impulsantwort, 96 – einer Zufallsvariablen, 140 – eines ergodischen Prozesses, 197 – eines stochastischen Prozesses, 193 – gemeinsames, 141 – zentrales, 140 Musterfunktion, 190 Nickel-Thermometer, 51 Noise Shaping, 277, 279 Normalbedingungen, 37, 45 Normalverteilung, 155 – Standard, 156 – Transformation, 156
339
Nullhypothese, 167 Nullpunktfehler, 38 Nyquistband, 247 Offsetfehler, 38 Optimalfilter, 19, 237 Oszillographendämpfung, 103, 114 Oversampling, 279 P-Regler, 126, 131 Parameteroptimierung, 91, 94 Parsevalsche Beziehung, 205 Periodendauermessung, 302 – Quantisierungsrauschen, 310 – statischer Quantisierungsfehler, 304 Periodogramm, 232 Phase Lock Loop, 323 Phasengang, 88 Phasenregelkreis, 323 Phasenvergleicher, 324 PI-Regler, 130, 132 Polaritätskorrelator, 215 Polynomansatz, 21, 22 Polynome – Lagrange, 23 – Newton, 24 – Spline, 28 Positionsbestimmung, 329 Prozessbrauchbarkeitsindex, 174 Prozessfähigkeitsindex, 173 Pseudoinverse, 19 PT1-Verhalten, 89 PT2-Verhalten, 89 Quadratisches Fehlerintegral, 115 Quantisierung, 256 Quantisierungsfehler, 256 – Gleichverteilung, 259, 267 – Leistungsdichte bei Periodendauermessung, 314 Quantisierungsmodell, 268 Quantisierungsrauschen, 259 Quantisierungstheorem, 262, 265 Rückwirkung, 81 Raffungsfaktor, 179 Randdichte, 138 Rate-Multiplier, 291 Ratiometrische Messung, 286 Rauschen, 190, 222 – farbig, 223, 230 – Gaußsches, 223 – weiß, 222 Rauschunterdrückung, 239
340
Index
Realteil des Frequenzganges, 104 Regressionsgerade, 20 Regressionsrechnung, 19 Rekonstruktion, 235, 245, 265 Schätzung, 313 – der Korrelation, 208 – der Leistungsdichte, 232 – der Zahnflankenfehler, 318 Schätzung, 147 – erwartungstreue, 147 – konsistente, 147 Scharmittelwert, 192 Schiefe, 151 Schwarzsche Ungleichung, 143, 202 Schwerpunkt, 140 Sensitivity, 39 SI-System, 2 Sigma-Delta-Modulator, 277 Sigma-Delta-Wandler, 277 Signal-Störabstand – Aliasing, 248, 249 – Jitter, 255 – Quantisierung, 268 – Sigma-Delta-Modulator, 279 Signale – Ähnlichkeit von, 209 – amplitudenanalog, 243, 295 – Distanz, 209 – Energie-, 200 – frequenzanalog, 295 – harmonische, 295 – impulsförmige, 296 – Leistung, 203, 220 – Leistungs-, 200 – Rekonstruktion, 236 – stochastische, 296 Signalenergie, 204 Signalklassen, 199 Signalmodell, 19, 182 Signifikanzniveau, 167 Signifikanztest, 168 spektralen Überlappungen, 246 Spektrum – Ähnlichkeit, 216 – Distanz, 216 Spezifikation, 8 Spline – Interpolation, 27 – kubische, 28 Sprungantwort – Kennwerte, 85 Störgröße, 4
Störgrößen – deformierende, 69 – in Messketten, 76 – superponierende, 66 Störgrößenvektor, 45 Stabilität, 92 Stabilitätskriterium, 92 – Hurwitz, 92 Standardabweichung, 149 Stationarität – schwache, 196 – verbundene, 195 Statistik, 162 Statistische Prozess-Überwachung, 180 Statistische Sicherheit, 162 Statistische Unabhängigkeit – eines stochastischen Prozesses, 192 Statistische Unabhängigkeit, 138 Stichprobe, 146 Stichprobenmittelwert, 147 Stichprobenvarianz, 149 Stochastischer Prozess, 189 – ergodisch, 196 – stationär, 195 Strukturänderung, 92, 121 Student-t-Verteilung, 161 Systemidentifikation, 231 Systemparameter, 90 t-Verteilung, 161, 165 Taylor-Reihe, 31, 44 Testverfahren, 167 – Anpassungstest, 170 – Signifikanztest, 168 Theorem von Bayes, 138 Toleranzbandjustierung, 38 Transformation von Wiener und Khintchine, 220 Tschebyscheffsche Ungleichung, 152 Uebertragungsfunktion, 89 – ideale, 91 Umkehrspanne, 41 Ungleichung – Besselsche, 16 – Schwarzsche, 143, 202 – Tschebyscheffsche, 152 Unkorreliertheit, 142 – stochastischer Prozesse, 195 Urmeter, 2 Vandermonde-Matrix, 22 Varianz, 141 – Chi2-Verteilung, 160
Index – quantisierter Signale, 266 – Quantisierungsrauschen, 268 Vertrauensintervall, 163 Voltage Controlled Oscillator, 323 Wahrscheinlichkeitsdichte, 137 – bedingte, 139 – diskretes Zählergebnis, 311 – eines stochastischen Prozesses, 191 – gemeinsame, 137 – quantisierter Größen, 263 – Quantisierungsfehler, 267 Wahrscheinlichkeitstheorie, 136 Wahrscheinlichkeitsverteilung, 136 – eines stochastischen Prozesses, 191 – gemeinsame, 137 Walsh-Funktion, 17
Wegmessung mit DMS, 47 Widerstandsthermometer, 49 Wiener-Filter, 237 Wienerfilter – akausal, 240 – kausal, 241 Winkelfehler, 316 winkelsysnchron, 303 Zeitliche Abtastfehler, 252 Zeitmittelwert, 192 zeitsynchron, 304 Zentraler Grenzwertsatz, 157, 261 Zerhackerverstärker, 78 Zufallsereignis, 189 Zufallsvariable, 136, 189
341