Rüdiger Kramme (Hrsg.) Medizintechnik 3., vollständig überarbeitete und erweiterte Auflage
Rüdiger Kramme (Hrsg.)
Medizintechnik Verfahren – Systeme – Informationsverarbeitung
Mit 686 Abbildungen, davon 99 in Farbe, und 170 Tabellen
123
Dipl.-Ing. Rüdiger Kramme Korrespondenz-Anschrift: Fuchsweg 14 79822 Titisee-Neustadt
ISBN-13 978-3-540-34102-4 Springer Medizin Verlag Heidelberg Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer Medizin Verlag springer.de © Springer Medizin Verlag Heidelberg 2007 Die Wiedergabe von Gebrauchsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutzgesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Produkthaftung: Für Angaben über Dosierungsanweisungen und Applikationsformen kann vom Verlag keine Gewähr übernommen werden. Derartige Angaben müssen vom jeweiligen Anwender im Einzelfall anhand anderer Literaturstellen auf ihre Richtigkeit überprüft werden.
Planung: Hinrich Küster, Heidelberg Projektmanagement: Gisela Zech, Heidelberg Lektorat: Kerstin Barton, Heidelberg Layout und Einbandgestaltung: deblik Berlin, unter Verwendung einer Abbildung von © medicalpicture/högner SPIN 10826521 Satz: TypoStudio Tobias Schaedla, Heidelberg Gedruckt auf säurefreiem Papier
2126 – 5 4 3 2 1 0
V
Wie einer, dem das Auge fehlt, auf seiner Wanderung in Not gerät, so ist einer, dem das Wissen fehlt. Darum sind die Wissenden den anderen überlegen.
Mokshadharma (Indische Philosophie des epischen, zwischen dem Veda und dem klassischen Sanskrit stehenden Zeitalters)
VII
Geleitwort Eine immer älter werdende Bevölkerung, eine zunehmende Anspruchshaltung in allen Lebensaltern an das Niveau der eigenen Gesundheit und eine rasante technologische Entwicklung, die häufig aus anderen Gebieten als den medizinischen Technologien selbst stammt, bestimmen die Innovationsraten auf dem faszinierenden Gebiet der Medizintechnik. Wer erfolgreich Medizintechnik betreibt, ist immer interdisziplinär unterwegs. Er versucht aus Nachbargebieten der Medizin, darunter allen Natur- und Ingenieurwissenschaften, nützliche Entwicklungen aufzugreifen und für die Verfügbarkeit an und im Körper aufzubereiten. Mehr als auf jedem anderen technologischen Gebiet rückt der Mensch, psychisch oder körperlich leidend, in den Mittelpunkt eines technischen Geschehens, mit hohen Anforderungen an den behandelnden Arzt: es muss ihm gelingen, die extreme Spanne an Technologisierung einerseits und menschlich-verständnisvoller Zuwendung andererseits zu vermitteln. Zu allen Zeiten, nicht erst seit Stammzell-Therapien einer breiteren Öffentlichkeit bekannt sind, haben ethische Erwägungen den Einsatz der Medizintechnik am Menschen geprägt. In geringem Maße ist die Medizintechnik insgesamt kontrovers akzeptiert, in überwältigendem großem Ausmaß wird sie als helfend, nützlich und förderungswürdig erkannt. Herrn Rüdiger Kramme ist es in der nun 3., vollständig überarbeiteten und erweiterten Auflage des Standard-Nachschlagewerks zur Medizintechnik gelungen, namhafte Autoren ihre Spezialgebiete darstellen zu lassen. Dabei besticht das Buch durch Tiefe in der Darstellung des einzelnen Gebietes und durch Breite in der Auswahl der Themen. Das Buch ist ein ausgezeichneter Begleiter, der lexikalischen Charakter mit Wertungen und Gewichtungen der einzelnen Autoren verbindet. In dieser Kombination ist das Werk besonders wertvoll für Studierende, Fachpersonen benachbarter Gebiete und für jenen wissensdurstigen Leser, der auf dem neuesten Stand der Erkennung und Behandlung von Krankheiten bleiben möchte. Dem Buch sei eine möglichst große Verbreitung gewünscht. Es gehört ins Regal jeden Lesers, der alle aktuellen Technologien der Medizin und ihre praktische Anwendung verstehen und erkunden möchte. Erich Wintermantel, Professor Dr. med. Dr.-Ing. habil o.-Univ.-Prof. für Medizintechnik Lehrstuhl für Medizintechnik der TU München, 85748 Garching Stellvertretender Vorsitzender der Deutschen Gesellschaft für Biomedizinische Technik (DGBMT)
IX
Vorwort zur 3. Auflage Ohne Technik und Physik, deren Einfluss auf die Medizin sehr vielseitig und umfangreich ist, wäre unser heutiges und zukünftiges Gesundheitswesen nicht denkbar. Seit der ersten Auflage 1997 hat sich die Zielsetzung dieses Buches, anschaulich zu machen, was Technik in der Medizin ‒ ergo Medizintechnik ‒ ist und kann, nicht verändert. Im Gegensatz dazu haben sich aber der Buchumfang, das Themenspektrum und die Anzahl der Autoren deutlich erhöht, dank der positiven Reaktionen und der damit verbundenen Nachfrage. Die vorangegangenen Auflagen haben gezeigt, dass es den Autoren gelungen ist, Beiträge aus unterschiedlichen Fachbereichen der Medizintechnik in einem Buch mit Erfolg darzustellen. Dies bestärkt uns darin, diesen Weg konsequent weiter zu gehen. Die seit Erscheinen der letzten Auflage erzielten wesentlichen medizintechnischen Fortschritte und die Leistung der unterschiedlichen Techniken im Umfeld der medizinischen Versorgung wurden in der vorliegenden Neuauflage berücksichtigt und neue Kapitel hinzugefügt. Neben der bewährten Gliederung in einen allgemeinen und einen speziellen Teil bietet ein umfangreicher Anhang praktisches Hintergrundwissen anhand zahlreicher Tabellen, Norm- und Anhaltswerte. Ein fachübergreifender historischer Abriss der Medizintechnik und ein ausführliches Sachverzeichnis runden das Buch ab. Bei der Realisierung dieser Auflage habe ich wiederum tatkräftige Unterstützung erhalten. Der Erfolg dieses Buches wäre ohne die engagierte und kompetente Mitarbeit der zahlreichen Autoren aus Wissenschaft und Praxis sowie aus der medizintechnischen Industrie so nicht möglich gewesen. Besonderer Dank gebührt meiner Frau für ihr Engagement und ihre Geduld. Für die angenehme und vertrauensvolle Zusammenarbeit danke ich seitens des SpringerVerlags Herrn Küster, Frau Zech, Frau Barton und Herrn Schaedla sowie allen anderen, die zum Gelingen dieser Auflage beigetragen haben. Titisee, im Herbst 2006 Rüdiger Kramme
XI
Vorwort zur 1. Auflage Die Entwicklung zahlreicher medizintechnischer Geräte und Einrichtungen während der letzten 20 Jahre ist vergleichbar mit der Entwicklung des Flugzeugs vom Doppeldecker zum vierstrahligen Düsenjet. Medizin und Technik stehen in einer dynamischen Wechselbeziehung zueinander. Medizinische Fragen fordern mehr und mehr technische Antworten. Neue Möglichkeiten der Technik beeinflussen die moderne Heilkunde. Sie erweitern das diagnostische und therapeutische Potential mit dem Ziel, präzise Informationen über den Gesundheitszustand des Patienten zu liefern, die Lebensqualität der Kranken zu verbessern und die Verlängerung des Lebens, nicht etwa des Sterbens, zu ermöglichen. So sehr auch die Bedeutung der Technik in der Medizin als Werkzeug für den Anwender wächst, bleibt dennoch die Kontinuität der Betreuung durch den Arzt und das Pflegepersonal von vorrangiger Bedeutung. Denn die spezifisch menschlichen Fähigkeiten und Eigenschaften kann – gerade in der Medizin – eine Maschine niemals ersetzen. Ziel dieses Buches ist es, Neues zu vermitteln, bereits Bekanntes in Erinnerung zu rufen sowie Informationen aus den verschiedenen Bereichen der heutigen Medizintechnik bereitzustellen. Zunehmend werden Beschäftigte im Gesundheitswesen mit medizinischen Geräten konfrontiert, ohne ausreichendes Informationsmaterial zur Verfügung zu haben. Während der ärztlichen oder pflegerischen Ausbildung, selbst in der Ausbildung angehender Ingenieure und Techniker für das Gesundheitswesen, wird die Medizintechnik vernachlässigt oder nur marginal behandelt. Diesem Defizit will das vorliegende Buch begegnen. Der – gemessen an der Fülle des zur Verfügung stehenden Materials – knappe Platz zwingt zur Konzentration. In der medizinischen Technik bleibt vieles erklärungsbedürftig – auch für Fachleute, die außerhalb ihres Spezialgebietes Laien sind. Die an der Praxis der Anwender orientierten, aktuellen Beiträge sind für technische Laien leicht verständlich geschrieben. Medizintechnische Fachbegriffe und Zusammenhänge werden erklärt und somit das Verständnis für die aktuelle Medizintechnik gefördert und vertieft. Nutzen Sie dieses Buch als Nachschlagewerk, Ratgeber oder Arbeitsbuch. Neben einem allgemeinen Teil, in dem die Rahmenbedingungen der Medizintechnik dargestellt werden, behandelt der zweite, spezielle Teil Geräte der Funktionsdiagnostik, Bildgebende Systeme, Therapiegeräte und Patientenüberwachungssysteme. Zahlreiche Tabellen, Übersichten und Abbildungen erleichtern das Verständnis. Darüber hinaus werden zwei Spezialthemen (Biowerkstoff Kunststoff und Operationstischsysteme) sowie Beiträge über Kommunikation und Informationsverarbeitungssysteme in der Medizin angeboten. Ein schneller Zugriff zu den einzelnen Themen wird durch ein übersichtliches und gut strukturiertes Sachwortregister gewährt. Darüber hinaus wird im Anhang praktisches Hintergrundwissen anhand zahlreicher systematisierter Tabellen, Norm- und Anhaltswerte geboten. Ein Glossar zur Computer- und Kommunikationstechnik steht ebenfalls zur Verfügung. Ohne die engagierte und kompetente Mitarbeit der Autoren wäre das vorliegende Buch in dieser Form nicht zu realisieren gewesen; deshalb gilt mein besonderer Dank allen, die direkt und indirekt durch ihren Einsatz dieses Buch ermöglicht haben. Kirchhofen, im September 1996 Rüdiger Kramme
XIII
Rüdiger Kramme, Dipl.-Ing., geboren 1954 in Dortmund. ▬ Studium der Biomedizinischen Technik, Krankenhausbetriebstechnik und Volkswirtschaftslehre in Gießen und Freiburg. ▬ Langjährige Berufstätigkeit in Vertrieb, Marketing und Personalentwicklung der medizintechnischen Industrie für Verbrauchs- und Investitionsgüter. ▬ Seit 1993 Planung und Projektierung von Universitätskliniken des Landes Baden-Württemberg sowie medizinischen Einrichtungen der Bundeswehr. ▬ Lehrbeauftragter für Medizintechnik der FH-Gießen. ▬ Verfasser zahlreicher Fachpublikationen in Zeitschriften und Büchern. Autor des Springer-Wörterbuchs »Technische Medizin«.
Sektionsverzeichnis A
Allgemeiner Teil
– 1
B
Spezieller Teil
I
Funktionsdiagnostik
II
Bildgebende Systeme
III
Therapiegeräte
IV
Monitoring – 615
V
Medizinische Informationsverarbeitung und Kommunikation – 717
VI
Spezialthemen
VII
Anhang
– 83
– 875
– 85 – 247
– 375
– 827
XVII
Inhaltsverzeichnis A Allgemeiner Teil 1
Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung . . . . . . . . . . . . . . . . . .3 R. Kramme, H. Kramme
2
Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 L.F. Clausdorff, K.-P. Hoffmann
3
Hygiene in der Medizintechnik. . . . . . . . . . . . . . . . . . . . 15 H.-M. Just, E. Roggenkamp
12 Schlafdiagnostiksysteme . . . . . . . . . . . . . . . . . . . . . . . . 169 K.-P. Hoffmann 13 Nystagmographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 K.-P. Hoffmann 14 Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung . . . . . . . . . . . . . . . . 193 S. Hoth
II
4
5
Vorschriften für Medizinprodukte . . . . . . . . . . . . . . . . . 37 M. Kindler, W. Menke Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 R. Kramme, H.-P. Uhlig
6
Ökonomische Aspekte der betrieblich-medizinischtechnischen Einrichtungsplanung (BMTE) . . . . . . . . . 61 H. Knickrehm, B. Karweik
7
Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen . . . . . . . . . . . . . . . . . 73 K. Rudolf
B Spezieller Teil
Bildgebende Systeme . . . . . . . . . . . . . . . . . . .247
15 Computertomographie (CT) . . . . . . . . . . . . . . . . . . . . . 249 T.M. Buzug 16 Magnetresonanztomographie (MRT) . . . . . . . . . . . . . 271 H. Kolem 17 Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT) – Hybridbildgebung zur funktionalen Diagnostik und Therapiemanagement. Ein technologischer Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 Y. Hämisch, M. Egger 18 Ultraschalldiagnostik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 B. Köstering, H. Dudwiesus 19 Systeme für die Endoskopie . . . . . . . . . . . . . . . . . . . . . 347 K.E. Grund, R. Salm 20 Infrarot-Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 T.M. Buzug
III Therapiegeräte . . . . . . . . . . . . . . . . . . . . . . . . .375 I
Funktionsdiagnostik . . . . . . . . . . . . . . . . . . . . . 85
8
Elektrokardiographen (EKG-Geräte) . . . . . . . . . . . . . . . 87 R. Kramme
21 Langzeitbeatmungsgeräte für die Intensivtherapie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 T. Peyn
9
Ergometriemessplatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 R. Kramme
22 Defibrillatoren/ICD-Systeme . . . . . . . . . . . . . . . . . . . . . 399 R. Kramme
10 Lungenfunktionsdiagnostik . . . . . . . . . . . . . . . . . . . . . . 105 R.M. Schlegelmilch, R. Kramme
23 Lasersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407 H. Albrecht, E. Rohde, F. Zgoda, G. Müller
11 Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP) . . . . . . . . . . . 129 K.-P. Hoffmann, U. Krechel
24 Anästhesiegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 E. Siegel
XVIII
Inhaltsverzeichnis
25 Blutreinigungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 443 C. Busse 26 Herz-Lungen-Maschinen (HLM) . . . . . . . . . . . . . . . . . . 463 A. Hahn, F. Sieburg
42 Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme . . . . . . . . . . . . . . . . 693 M. Nagel, A. Bindszus 43 Neonatologisches Monitoring . . . . . . . . . . . . . . . . . . . 707 R. Hentschel
27 Einsatz von Stoßwellen in der Medizin . . . . . . . . . . . 483 F. Ueberle
V 28 Hochfrequenzchirurgie . . . . . . . . . . . . . . . . . . . . . . . . . . 515 B. Hug, R. Haag 29 Medizinische Strahlentherapie . . . . . . . . . . . . . . . . . . . 539 P.H. Cossmann
Medizinische Informationsverarbeitung und Kommunikation . . . . . . . . . . . . . . . . . . . .717
44 Grundlagen der Vernetzung . . . . . . . . . . . . . . . . . . . . . 719 H. Tanck
30 Infusionstechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 557 W. Weyh, D. Röthlein
45 Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl . . . . . . . . . . . . . . . . . . . . . 733 P. Haas, K. Kuhn
31 VAD-Systeme (Ventricular Assist Devices) . . . . . . . . 569 G. Trummer
46 Telemedizin am Beispiel aktiver Implantate . . . . . . 757 K. P. Koch
32 Herzschrittmachersysteme . . . . . . . . . . . . . . . . . . . . . . 579 A. Bolz
47 Medizinische Bildverarbeitung . . . . . . . . . . . . . . . . . . . 765 T.M. Lehmann
33 Einführung in die Neuroprothetik . . . . . . . . . . . . . . . . 595 K.-P. Hoffmann
48 Virtuelle Realität in der Medizin . . . . . . . . . . . . . . . . . . 791 W. Müller-Wittig
34 Einführung in die Elektrotherapie . . . . . . . . . . . . . . . . 603 W. Wenk
49 Computerunterstützte Lehr- und Lernsysteme in der Medizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 803 M. Haag, F. J. Leven
IV Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . .615
50 PACS/RIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 815 K. Eichhorn, D. Sunderbrink
35 Biosignale erfassen und verarbeiten . . . . . . . . . . . . . 617 K.-P. Hoffmann
51 3D-Postprocessing für die virtuelle Endoskopie . . 823 G.-F. Rust, S. Marketsmüller, N. Lindlbauer
36 Patientenüberwachungssysteme . . . . . . . . . . . . . . . . 639 R. Kramme, U. Hieronymi
VI Spezialthemen . . . . . . . . . . . . . . . . . . . . . . . . .827 37 Kardiovaskuläres Monitoring . . . . . . . . . . . . . . . . . . . . 645 R. Kramme, U. Hieronymi
52 Operationstischsysteme . . . . . . . . . . . . . . . . . . . . . . . . . 829 B. Kulik
38 Impedanzkardiographie: nichtinvasives hämodynamisches Monitoring . . . . . . . . . . . . . . . . . . 659 H. Kronberg
53 Biomaterialien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 839 L. Kiontke
39 Respiratorisches Monitoring . . . . . . . . . . . . . . . . . . . . . 663 R. Kramme, H. Kronberg
54 Medizinische Robotersysteme . . . . . . . . . . . . . . . . . . . 853 H. Fischer, U. Voges
40 Metabolisches Monitoring . . . . . . . . . . . . . . . . . . . . . . . 679 R. Kramme
55 Medizinische Gasversorgungssysteme . . . . . . . . . . . 863 P. Neu
41 Zerebrales Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . 683 B. Schulz, A. Schulz, H. Kronberg
56 Inkubatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 869 G. Braun, R. Hentschel
XIX Inhaltsverzeichnis
VII Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .875 A
Allgemeine Richtungs- und Lagebezeichnungen des Körpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 877
B
Organprofile und Tabellen . . . . . . . . . . . . . . . . . . . . . . . 879
C
Größen und Einheiten . . . . . . . . . . . . . . . . . . . . . . . . . . . 897
D
Abkürzungen, Zeichen und Symbole . . . . . . . . . . . . . 901
E
Radionuklide (Auswahl) und dosimetrische Grundgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 905
F
Elektromagnetisches Spektrum . . . . . . . . . . . . . . . . . . 907
G
Historische Meilensteine in der Technischen Medizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 909 Danksagung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 927 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 929 Farbteil. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 941
XXI
Autorenverzeichnis Albrecht, Hansjörg, Dr. rer. nat.
Egger, Matthias, Dr. rer. nat.
Laser-und Medizin-Technologie GmbH, Berlin Fabeckstraße 60-62 14195 Berlin
Chemin des Etorneaux 1162 Saint Prex, Suisse
Bindszus, Andreas, Dipl.-Ing. Philips Medizin Systeme GmbH Postfach 1473 71004 Böblingen
Bolz, Armin, Prof. Dr. rer. nat. Universität Karlsruhe Institut für Biomedizinische Technik Kaiserstraße 12 76131 Karlsruhe
Braun, Günther, Dipl.-Ing. (FH) Universitätsklinik Freiburg Zentrum für Kinderheilkunde und Jugendmedizin Mathildenstraße 1 79106 Freiburg
Eichhorn, Konrad, Dipl.-Inform. Philips Healthcare Information Technology 22335 Hamburg
Fischer, Harald, Dr.-Ing. Forschungszentrum Karlsruhe Institut für Biologische Grenzflächen Hermann-von-Helmholtz-Platz 1 76344 Eggenstein-Lepoldshafen
Grund, Karl Ernst, Prof. Dr. med. Eberhardt-Karls-Universität Tübingen Zentrum für Medizinische Forschung Experimentelle Chirurgische Endoskopie Waldhörnlestraße 22 72072 Tübingen
Haag, Martin, Prof. Dr. rer. nat. Busse, Christian, Dipl.-Biol. Fresenius Medical Care Deutschland GmbH Else Kroener Straße 1 61352 Bad Homburg
Medizinische Informatik Universität Heidelberg/FH Heilbronn Max-Planck-Straße 39 74081 Heilbronn
Haag, Reiner, Dipl.-Ing. Buzug, Thorsten, Prof. Dr. rer. nat. Rhein Ahr Campus Südallee 2 53424 Remagen
Lawton GmbH & Co.KG Württemberger Str. 23 78567 Fridingen
Haas, Peter, Prof. Dr. sc. hum. Clausdorff, Lüder F., Prof. Dipl.-Ing. Fachhochschule Gießen-Friedberg Fachbereich Krankenhaus Technik Management Wiesenstraße 14 35390 Gießen
Cossmann, Peter H., Dr. phil. nat. Institut für Radiotherapie Hirslanden Klinik Aarau Rain 34 5000 Aarau, Schweiz
Dudwiesus, Heiko, Dipl.-Ing. GE Medical Systems Ultrasound Beethovenstraße 239 42665 Solingen
FH-Dortmund, Medizinische Informatik Postfach 105018 44047 Dortmund Hahn, Andreas, Dr.- Ing. Sorin Group Deutschland/ Stöckert GmbH Lilienthalallee 5-7 80939 München
Hämisch, York, Dr. rer. nat. Bioscan GmbH Idstein Uglitscher Straße 3 65510 Idstein
Hentschel, Roland, Priv.-Doz. Dr. med. Universitäts-Kinderklinik Freiburg Mathildenstraße 1 79106 Freiburg
Hieronymi, Ullrich, Dr.-Ing. Dräger Medical Deutschland GmbH Moislinger Allee 53-55 23542 Lübeck
Hoffmann, Klaus-Peter, Prof. Dr.-Ing. Fraunhofer Institut für Biomedizinische Technik Ensheimer Straße 48 66386 St-Ingbert
Hoth, Sebastian, Prof. Dr. rer. nat. Universitätsklinikum Heidelberg Im Neuenheimer Feld 400 69120 Heidelberg Hug, Bernhard, Dr.-Ing. KLS Martin GmbH & Co.KG Am Gansacker 1b 79224 Umkirch
Just, H.-M., Priv.-Doz. Dr. med. Klinikum Nürnberg Med. Mikrobiologie, KH-Hygiene Professor-Ernst-Nathan-Straße 1 90340 Nürnberg
Karweik, Bernd, Dipl.-Ing. (FH) Teamplan GmbH Heerweg 8 72070 Tübingen
Kindler, Manfred, Dipl.-Ing. Kindler International Division Stemmenkamp 23 59368 Werne a.d. Lippe
Kiontke, Lothar, Dipl.-Ing. Sulzer Orthopedics GmbH Merzhauser Straße 112 79100 Freiburg
Knickrehm, Heiko, Dipl.-Ing. (FH) Teamplan GmbH Heerweg 8 72070 Tübingen
XXII
Autorenverzeichnis
Koch, Klaus Peter, Dr.-Ing.
Lindlbauer, Norbert, Ing.
Rohde, Ewa, Dr. med. Dipl.-Ing.
Fraunhofer Institut für Biomedizinische Technik Ensheimer Straße 48 66386 St-Ingbert
Rendoscopy AG Grubmühlerfeldstraße 54 82131 Gauting
Charité – Universitätsmedizin Berlin Klinik für Dermatologie, Venerologie und Allergologie Fabeckstraße 60-62 14195 Berlin
Marketsmüller, Sebastian Kolem, Heinrich, Dr. rer. nat. Siemens AG - Medizinische Technik Postfach 3260 91052 Erlangen
Rendoscopy AG Grubmühlerfeldstraße 54 82131 Gauting
Köstering, Bernd, Dipl.-Ing.
Menke, Wolfgang, Beratender Arzt/Ingenieur
GE Medical Systems Ultrasound Beethovenstraße 239 42665 Solingen
c/o Medizin & Technik Postfach 524 10795 Berlin
Kramme, Heike, Dipl.-Verw.-Wiss.
Müller, Gerhard, Prof. Dr.-Ing., Prof. h.c., Dr. h.c. mult.
Fuchsweg 14 79822 Titisee
Kramme, Rüdiger, Dipl.-Ing. Fuchsweg 14 79822 Titisee
Charité – Universitätsmedizin Berlin Institut für Medizinische Physik und Lasermedizin Fabeckstraße 60-62 14195 Berlin
Krechel, Ursula, Dipl.-Ing.
Röthlein, Doris, Dr. rer. nat. B. Braun Melsungen AG Carl-Braun-Straße 1 34212 Melsungen
Rudolf, Klaus, Dipl.-Inform. Zentrale Koordination Universitätsklinik Freiburg Malteserordensstraße 13A 79111 Freiburg
Rust, Georg-Friedemann, Dr. med. Rendoscopy AG Grubmühlerfeldstraße 54 82131 Gauting
Salm, Richard, Prof. Dr. med.
Munzinger Straße 3 79111 Freiburg
CAMTech – Centre for Advanced Media Nanyang Technological University NSI, # 05-07, Nanyang Avenue Singapore 639798
Regionalverbund kirchlicher Krankenhäuser, Abt. Allgemein- und Viszeralchirurgie, Endoskopische Chirurgie, St. Josefskrankenhaus und BruderKlaus-Krankenhaus Waldkirch, Hermann-Herder-Straße 1 79104 Freiburg
Kuhn, Klaus, Prof. Dr. med.
Nagel, Michael, Dr.-Ing.
Schlegelmilch, Rolf M., Dipl.-Math.
Zentrale Informationsverarbeitung Klinikum der Universität Marburg Bunsenstraße 3 35037 Marburg
Philips Medizin Systeme GmbH Postfach 1473 71004 Böblingen
SMT medical GmbH & Co Florian-Geyer-Straße 3 97076 Würzburg
Neu, Peter, Dr. rer. nat.
Schultz, Arthur, Priv.-Doz. Dr. med. Dr. hort.
Universitätsklinik Freiburg Hugstetter Str. 59 79106 Freiburg
Kronberg, Harald, Dr. rer. nat.
Kulig, Bernhard Maquet GmbH & Co.KG 76411 Rastatt
Lehmann, Thomas, Priv.-Doz., Dr. rer. nat. Dipl.-Ing. Institut für Medizinische Informatik Universitätsklinikum der RWTH Aachen Pauwelsstraße 30 52057 Aachen
Leven, Franz Josef, Prof. Medizinische Informatik Universität Heidelberg/FH Heilbronn Max-Planck-Straße 39 74081 Heilbronn
Müller-Wittig, Wolfgang, Prof. Dr.-Ing.
Air Liquide Deutschland GmbH Hans-Günther-Sohl-Straße 5 40235 Düsseldorf
Peyn, Thomas, Dräger Medical AG & Co.KG Moislinger Allee 53 23542 Lübeck
Arbeitsgruppe Informatik/Biometrie der Anästhesie im Klinikum Region Hannover Krankenhaus Oststadt-Heidehaus Medizinische Hochschule Hannover Podbielskistraße 380 30659 Hannover
Schultz, Barbara, Priv.-Doz. Dr. med. Roggenkamp, Eckhard, Dipl.-Ing. Klinikum Nürnberg Med. Mikrobiologie, KH-Hygiene Professor-Ernst-Nathan-Straße 1 90340 Nürnberg
Arbeitsgruppe Informatik/Biometrie der Anästhesie im Klinikum Region Hannover Krankenhaus Oststadt-Heidehaus Medizinische Hochschule Hannover Podbielskistraße 380 30659 Hannover
XXIII Autorenverzeichnis
Seipp, Hans-Martin, Prof. Dr. med., Dipl.-Ing. Fachhochschule Gießen-Friedberg Fachbereich Krankenhaus Technik Management Wiesenstraße 14 35390 Gießen
Wenk, Werner Schillingstaler Weg 37 41189 Mönchengladbach
Weyh, Wolfgang B. Braun Melsungen AG Carl-Braun-Straße 1 34212 Melsungen
Sieburg, Frank Sorin Group Deutschland/ Stöckert GmbH Lilienthalallee 5-7 80939 München
Siegel, Erich, Priv.-Doz. Dr. rer. nat. Dräger Medical AG & Co.KG Moislinger Allee 53 23542 Lübeck
Stief, Matthias Given Imaging GmbH Borsteler Chaussee 47 22453 Hamburg
Sunderbrink, Dirk, Dipl.-Wirtschaftsing. Siemens Medical Solutions 91052 Erlangen
Tanck, Hajo, Dipl.-Wirtschaftsinform. GWI Medica GmbH Eiffestraße 426 20537 Hamburg
Trummer, Georg, Dr. med. Universitätsklinik Freiburg Abt. Herz- und Gefäßchirurgie Hugstetter Straße 55 79106 Freiburg
Ueberle, Friedrich, Prof. Dr.-Ing. Hochschule für angewandte Wissenschaften Hamburg Fachbereich Naturwissenschaftliche Technik Lohbrügger Kirchstraße 65 21033 Hamburg
Uhlig, Hans-Peter, Dipl.-Ing. Goldberger Straße 57 18273 Güstrow
Zgoda, Frank Laser-und Medizin-Technologie GmbH, Berlin Fabeckstraße 60-62 14195 Berlin
1 xxxx · xxxx
Allgemeiner Teil
A X
1 Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung R. Kramme, H. Kramme
Neue Wege in der Diagnostik und Therapie werden heute in verstärktem Maße durch eine ausgefeilte und erweiterte Technik eröffnet. Rasant ist die Entwicklung zahlreicher medizinischer Geräte und Einrichtungen aufgrund digitaler Technologien, die es ermöglichen, neue medizinische Konzepte, Strategien und Visionen schneller als zuvor umzusetzen, d. h. was sich bisher in einem Jahrzehnt vollzogen hat, vollzieht sich nun im Jahresrhythmus. Damit steht die Technik nicht nur in dynamischer Wechselbeziehung zur Medizin, sondern sie beeinflusst und prägt die moderne Heilkunde aufgrund neuer technischer Möglichkeiten. Ein hochwertiges Gesundheitswesen wäre ohne medizintechnischen Fortschritt und Innovation nicht denkbar. Medizin (lat. ars medicina, ärztliche Kunst) und Technik (gr. Fertigkeit) haben die Menschen seit ihren Anfängen begeistert und fasziniert. Technische Instrumente und Geräte hatten immer ihren Platz in der Medizin. Aus der fernöstlichen Medizin ist die Akupunkturnadel seit etwa 2500 v. Chr. bekannt. Hippokrates (460–370 v. Chr.), Begründer der abendländischen wissenschaftlichen Medizin, verwendete als bedeutender Arzt seiner Zeit bereits ein Proktoskop zur Darminspektion. Darüber hinaus hat er eine Vielzahl von Instrumenten und Vorrichtungen für die Wundversorgung beschrieben. Beispielsweise Apparaturen mit Gewichten und Bändern, die bei einer Armfraktur die gebrochenen Knochen zueinander positionierten, streckten und gleichzeitig ruhigstellten. Bereits im Imperium Romanum (ab 63 v. Chr.) wurden, wie archäologische Ausgrabungen im verschütteten Pompeji eindrucksvoll belegen, differenzierte Instrumente und Geräte für chir-
urgische Eingriffe verwendet. Die vielen von uns vertraute Sehhilfe (sog. Brille) ist keine Errungenschaft des zwanzigsten Jahrhunderts, sondern wurde bereits Ende des 13. Jahrhunderts von einem Handwerker erfunden. Der erste große medizintechnische Durchbruch und Aufschwung in der modernen Medizin erfolgte um 1900 mit Röntgens Entdeckung der nach ihm benannten Röntgenstrahlen (1895). Obwohl bereits 1895 von Einthoven die Nomenklatur des EKG – die noch heute unverändert Gültigkeit besitzt – festgelegt wurde, konnte der erste klinisch brauchbare Elektrokardiograph erst 1903 eingesetzt werden. 1896 wurde von Riva-Rocci die nichtinvasive palpatorische Messmethode zur Bestimmung des Blutdrucks vorgestellt. Das Elektroenzephalogramm (EEG) wurde erstmals 1924 von Berger mit einem Saitengalvanometer abgeleitet. Weitere Meilensteine in der Medizintechnik waren die Erfindung und Einführung der künstlichen Niere (1942), der Herz-Lungen-Maschine (1953), Hüftgelenkprothesen (1960), künstlichen Herzklappen (1961) und die ersten klinischen Patientenüberwachungsgeräte (um 1965). Um 1960 wurden in den USA bereits klassifizierte Kriterien für die Vermessung und Standardisierung des EKG nach dem Minnesota-Code entwickelt. Anfang der 1940er Jahre wurde mit der Konstruktion des ersten elektrischen Rechners eine neue Ära eingeleitet, und es entstand eine neue Technologie, die die Medizintechnik ein weiteres Mal revolutionierte: die Datenverarbeitung bzw. Informatik. Diese neue Technologie stellt alle bisherigen technischen Entwicklungen in den Schatten. Wäre ein heutiger Taschenrechner mit elektronischen Bauteilen (z. B. Transistoren) von vor 40 Jahren ausgestat-
4
1
Kapitel 1 · Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung
tet, so würde dieser Taschenrechner eine Leistung von 6000 W – über die Stromversorgung zugeführt und als Wärme an die Umgebung abgegeben – benötigen. Leichte 50 kg und eine Würfelkantenlänge von circa einem Meter ließen eher auf einen Ofen als auf einen Taschenrechner schließen. Der Umbruch der Technologie von der analogen zur digitalen Technik eröffnete neue Dimensionen in der Medizintechnik: Der Computertomograph (CT), der Körperquerschnittsbilder erzeugt, wurde von Hounsfield und Cormark entwickelt und 1971 als Prototyp in einer Klinik installiert und erprobt. Der Durchbruch für die medizinische Anwendung von Kernspin- bzw. Magnetresonanztomographen gelang 1977 Mansfield mit Hilfe des Magnetresonanzverfahrens. Erstmals erfolgte eine Abbildung des menschlichen Brustkorbs ohne Einsatz von Röntgenstrahlen. Einzigartige und erweiterte Möglichkeiten in der Diagnostik eröffnet ein medizintechnisches Großsystem, das in der Nuklearmedizin eingesetzt wird: der Positronenemissionstomograph (PET). Als bildgebendes System bereichert der PET die Diagnostikpalette dadurch, dass Darstellungen von physiologischen und metabolischen Prozessen im menschlichen Körper ortsabhängig und quantitativ bestimmt werden können. Durch die zunehmende Integration von rechnergestützten Systemen in die Röntgentechnik, werden bildgebende Verfahren in immer kürzeren Zyklen neu dimensioniert. Die rasche Ausweitung des klinischen Anwendungsspektrums, die kontinuierliche Weiterentwicklung und die Implementierung neuer Techniken haben nicht nur zu einem veränderten und erweiterten Indikationsspektrum dieser Verfahren geführt, darüber hinaus werden zunehmend Bildgebungstechniken als Gesamtlösungspakete entwickelt, wie z. B. Hybridsysteme für die interventionelle Radiologie oder integrierte IT-Lösungen (PACS, RIS u. a.), die darauf abzielen, eine Prozessoptimierung und damit eine höhere Effizienz im Krankenhaus zu erreichen. Den Fortschritt und die Entwicklung ( Anhang G »Historische Meilensteine in der Technischen Medizin«) aller medizintechnischen Geräte und Errungenschaften zu skizzieren, würde den Rahmen dieses Buches sprengen. Obwohl die Medizintechnik meist nicht originär ist, sondern vielmehr technische Entwicklungen aus Technologiefeldern wie der Elektronik, Optik, Feinwerktechnik, Kunststofftechnik u. a. übernimmt und diese erst durch die Anwendung an Lebewesen zur Medizintechnik deklariert werden, konnte sie sich etablieren und ist aus der medizinischen Versorgung nicht mehr wegzudenken. Aus diesem Sachverhalt geht die eigentliche Bedeutung der Medizintechnik hervor: Medizintechnische Geräte und Einrichtungen (inklusive Labor- und Forschungsbereich) sind einzelne oder miteinander verbundene Instrumente, Apparate, Vorrichtungen, Hilfsmittel und Hilfsgeräte sowie not-
wendige Einrichtungsgegenstände, die aufgrund ihrer Funktion zur Erkennung (Diagnostik), Behandlung (Therapie), Überwachung (Monitoring) und Verhütung (Prävention) von Erkrankungen beim Menschen eingesetzt werden.
Ziel unserer heutigen Gesundheitspolitik muss eine menschliche, moderne, leistungsfähige, effiziente und bürgernahe medizinische Versorgung im stationären sowie im ambulanten Bereich sein, in deren Mittelpunkt der Patient steht. Die Entwicklung der Medizintechnik als wesentlicher Bestandteil des Gesundheitswesens erfolgt in permanenter Wechselwirkung mit den Fortschritten der gesellschaftlichen Lebensformen. Daher basiert die gesundheitspolitische Bedeutung der Medizintechnik im Wesentlichen auf folgenden Punkten: ▬ Der Qualität und Sicherung der medizinischen Versorgung aufgrund der kontinuierlichen Differenzierung und Verbesserung der Diagnose- und Therapiemöglichkeiten sowie der Förderung der medizinischen und technischen Forschung; des Weiteren auf der breiten Anwendung und Ausdehnung auf große Bevölkerungs- oder Patientengruppen durch apparative Reihenuntersuchungen (z. B. im Rahmen der Prävention). ▬ Der Verkürzung der Krankheitsdauer oder des Krankenhausaufenthalts, wodurch Kosten reduziert werden und damit verbunden volkswirtschaftliche Nutzeffekte resultieren. ▬ Der Entlastung des Personals von zeitaufwändigen Routineaufgaben. ▬ Der Erfüllung von Erwartungshaltung bzw. Anspruchsniveau der Bevölkerung an Prozess- und Ergebnisqualität im Gesundheitswesen. Die zukünftigen Entwicklungen in der technischen Medizin müssen sich an den zusätzlichen Anforderungen der medizinischen Versorgung aufgrund knapper Ressourcen orientieren: ▬ Medizintechnische Diagnostik und Therapie mit hohem Kostensenkungspotential unter Einsatz von umweltfreundlichen Geräten und Systemen. ▬ Weiterer Ausbau minimalinvasiver Verfahren mit der Zielsetzung geringer Morbidität und kurzer Rekonvaleszenz. ▬ Miniaturisierte Kompaktsysteme, die einen geringeren Installations- und Serviceaufwand benötigen. ▬ Bedienungsfreundliche und -sichere Konzeption, die Fehlbedienungen weitgehend vermeidet. Invasive Techniken werden zunehmend durch weniger bzw. nichtinvasive ersetzt, wie bspw. die Nierenstein- und Gallensteinzertrümmerung mit einem Lithotripter anstelle eines operativen Eingriffs, endoskopisch minimalinvasive Eingriffe anstelle konventioneller Chirurgie, 3-D Echo-
5 Kapitel 1 · Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung
kardiographie zur Darstellung komplexer Fehlbildungen am Herzen, pathomorphologischer Veränderungen an der Mitral- oder Trikuspidalklappe und Vorhof- oder Ventrikelseptumdefekten anstelle einer aufwändigen und risikobelasteten Herzkatheteruntersuchung, Darstellung der Herzkranzgefäße mit der Magnetresonanztomographie anstelle einer Kontrastangiographie oder Herzkatheterdiagnostik. Schlüsseltechnik des Gesundheitswesens des einundzwanzigsten Jahrhunderts ist die Telematik, die allen Beteiligten des Gesundheitswesens enorme Vorteile bringen kann, das »Unternehmen Gesundheitswesen« aber auch vor zahlreiche neue Anforderungen in organisatorischer, technischer und rechtlicher Hinsicht stellt. Zentren der Telemedizinanwendungen werden zukünftig die Krankenhäuser sein. Telemedizinische Kommunikation und Systeme – also alle IT-Anwendungen im Gesundheitswesen, die über öffentliche oder Fernverkehrsnetze abgewickelt werden – ermöglichen die schnelle Übertragung großer Datenmengen, sodass eine räumliche Entfernung kein Hindernis mehr darstellt. Dies ist mit ein Grund dafür, dass der Telemedizin international eine zunehmend größere Bedeutung beigemessen wird. Die Bestrebungen gehen dahin, eine einheitliche Plattform für die Telematik zu entwickeln, sodass der Einsatz von moderner Telekommunikations- und Informationstechnik die Versorgungsqualität und die Wirtschaftlichkeit zukünftig verbessert. Begrenzte finanzielle Ressourcen der Krankenhäuser lassen es heutzutage nur noch selten zu, alle technischen Neuerungen und Möglichkeiten einzuführen bzw. auszuschöpfen. Daher ist es für den Nutzer unerlässlich, eine Investitionsentscheidung leistungsbezogen und kaufmännisch zu beurteilen (z. B. durch prozessorientierte Technologiebewertung, sog. technology assessment, die in erster Linie Kriterien wie Leistungsfähigkeit, Effektivität und Effizienz berücksichtigt). Insbesondere im Hinblick auf die Vorteilhaftigkeit einer Sachinvestition ist es wichtig, dass nicht emotionale, sondern rationale Entscheidungskriterien im Vordergrund stehen. Die Bewertung technischer Möglichkeiten in Hinblick auf den Nutzen für die Patienten erfordert ein Verständnis für die heutige Technik und ihre Grenzen. Vielfach ist das Ziel medizintechnischer Hersteller und Lieferanten, immer bessere und technisch perfektere medizintechnische Produkte sowie medizinische Datenverarbeitungssysteme anzubieten. Das Ergebnis ist, dass heutzutage die Funktionen vieler medizintechnischer Produkte weit über die Bedürfnisse und Nutzungsmöglichkeiten hinausgehen. Der meist nicht technophile Nutzer zahlt für ein Mehr, das er nicht nutzen kann. Zahlreiche hochentwickelte Produkte sind vielleicht technisch vollkommen, aber selten bedarfsgerecht. Technisch ist vieles machbar, aber offensichtlich gleichwohl von Menschen kaum steuerbar, wie bspw. die Komplexität unterschiedlichster Softwareschnittstellen, die selbst von hochqualifizierten Technikern nicht
mehr vollständig verstanden wird. D. h., die technischen Möglichkeiten übersteigen häufig das Vermögen vieler Anwender, damit umzugehen. Unkritische Technikbegeisterung kann deshalb sehr schnell in Technikfeindlichkeit umschlagen! Nichts zu tun oder auf Innovationen zu verzichten und an veralteten technischen Produkten festzuhalten, ist aber auch keine Lösung. Der Dienst am Kunden im Krankenhaus oder in der Arztpraxis wird künftig ein Produkt mit größerem Differenzierungspotential werden, als die Qualität und technische Leistungsfähigkeit von medizintechnischen Produkten. Die auch künftig unabdingbare medizintechnische Innovation muss »Menschenmaß« haben und bedarfsgerecht sein. Sie ist einzubetten in das Spannungsfeld aus technisch-wissenschaftlichem Know-how, Markt- und Einzelkundenorientierung. Aus Anwendersicht werden nahezu alle Produkte immer vergleichbarer. Der richtige Dienst am Kunden wird ein weiterer Erfolgsfaktor für Medizinprodukte werden: Es muss verstärkt an Nachfrage gedacht werden, nicht nur »in Angeboten«!
1
2 Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder L.F. Clausdorff, K.-P. Hoffmann
2.1
Einleitung – 7
2.2
Biomedizinische Technik – 7
2.2.1 2.2.2 2.2.3 2.2.4
Aufgaben – 7 Anforderungen – 8 Ausbildung – 8 Berufsfelder – 8
2.3
Krankenhaustechnik
2.3.1 2.3.2 2.3.3
Aufgaben – 10 Anforderungen – 11 Ausbildung – 11
2.1
2.3.4 2.3.5 2.3.6
Studienorganisation – 12 Berufsfelder – 13 Zusammenfassung und Schlussfolgerungen
Weiterführende Literatur
– 13
– 13
– 10
Einleitung
Die hochspezialisierte medizinische Betreuung und die klinische Grundlagenforschung sind ohne interdisziplinär arbeitende Teams nicht vorstellbar. Ihnen gehören häufig auch Absolventen ingenieurwissenschaftlicher Disziplinen an. Diese bringen ihr ingenieurwissenschaftliches Spezialwissen und Methodenspektrum erfolgreich in die Arbeitsgruppen ein. Sie sehen ihre vorrangigen Aufgaben in der Bereitstellung von Technik zur Lösung von Problemen in der Medizin, der Biologie, dem Umweltschutz und dem Gesundheitswesen. Die von ihnen entwickelten Geräte und Systeme tragen als Werkzeug in der Hand des Arztes oft entscheidend zur Erkennung, Behandlung, Linderung und Überwachung von Krankheiten und zur Kompensation von Behinderungen bei. Die hohe Nachweisempfindlichkeit moderner Diagnosemethoden ermöglicht die frühe und sichere Erkennung zahlreicher Krankheiten, wodurch sich die Therapiechancen verbessern. Die unmittelbare Beschäftigung mit medizinischen Problemen unter Anwendung ingenieurwissenschaftlicher Methoden und Kenntnisse gewinnt dabei zunehmend an Bedeutung. So vielfältig die technischen Aufgaben in der Medizin sind, so unterschiedlich sind auch die technischen Disziplinen, aus denen die Ingenieure kommen. Zu ihnen gehören Absolventen aus der Biomedizinischen Technik, der Medizintechnik, dem Klinikingenieurwesen, der Medizinischen Physik, der Biophysik, der Medizinischen Informatik, der Biotechnologie, der Bionik, der Biomechanik, der Biochemie, den Gesundheitstechnologien, der
Gentechnik, der Krankenhaustechnik, dem Technischen Gesundheitswesen usw. Zwei Fachrichtungen – die Biomedizinische Technik sowie Technisches Management und der Ingenieur Krankenhaustechnik – sollen hinsichtlich der Aufgaben, der Anforderungen, der Ausbildung und der Berufsfelder im Folgenden näher betrachtet werden.
2.2
Biomedizinische Technik K.-P. Hoffmann
2.2.1 Aufgaben
Die Biomedizinische Technik (BMT) ist im deutschsprachigen Raum das Pendant zum angelsächsischen Biomedical Engineering. Sie ist ein junges, sich rasch entwickelndes Fachgebiet, das gegenwärtig zu den Schlüsseltechnologien gezählt werden kann. Wichtige Impulse erhält die Biomedizinische Technik von der Biotechnologie, der Mikrosystemtechnik und der Telematik. Unter Biomedizinischer Technik wird die Bereitstellung und Anwendung ingenieur- und naturwissenschaftlicher Mittel und Methoden auf lebende Systeme in Biologie und Medizin verstanden: ▬ in Forschung und Entwicklung ▬ im medizinischen Betreuungsprozess, Prophylaxe, Diagnose, Therapie, Rehabilitation und Nachsorge ▬ im biomedizinischen Gerätebau
8
2
Kapitel 2 · Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder
▬ in der pharmazeutischen Industrie und in der Biotechnologie (Dammann et al. 2005 und Morgenster 2004) Im Rahmen der Harmonisierung der BMT- Ausbildung in Europa wurde von der IFMBE formuliert: »Medical and Biological engineering integrates physical, mathematical and life sciences with engineering principles for the study of biology, medicine, and health systems and for the application of technology to improving health and quality of life. It creates knowledge from the molecular to organ systems levels, develops materials, devices, systems, information approaches, technology management, and methods for assessment and evaluation of technology, for the prevention, diagnosis, and treatment of disease, for health care delivery and for patient care and rehabilitation.« (Biomedical Engineering Education in Europe 2005, Nagel 2001 und 2005).
2.2.2 Anforderungen
Der VDE hat die Anforderungen, die an einen Absolventen der Biomedizinischen Technik zu stellen sind, wie folgt formuliert: Der Absolvent soll ▬ das aktuelle Wissen und die Methodik der Ingenieurwissenschaften beherrschen und zur Lösung von Problemen in der Medizintechnik einsetzen ▬ die besonderen Sicherheitsaspekte der Medizintechnik bei der Lösung von technischen Problemen sowie bei der Überwachung technischer Einrichtungen in der Medizin verantwortungsvoll einsetzen ▬ die medizinische, diagnostische und therapeutische Fragestellung verstehen und geeignete technische sowie methodische Lösungen entwerfen und realisieren können ▬ die besonderen Aspekte bei der Wechselwirkung technischer Systeme mit dem menschlichen Körper kennen und berücksichtigen ▬ die Grundprinzipien der klinischen Arbeitsweise bei diagnostischen und therapeutischen Verfahren kennen (Dammann et al. 2005)
2.2.3 Ausbildung
In Deutschland gibt es gegenwärtig 43 Studiengänge mit einem Bezug zur Biomedizinischen Technik, davon 22 an Universitäten und 21 an Fachhochschulen (Morgenster 2004). Die Umstellung von Diplomstudiengängen auf die konsekutive Bachelor- und Masterausbildung unter Berücksichtigung des Bologna Prozesses ist im vollen Gange. Die ersten Studiengänge wurden bereits akkreditiert. Die ⊡ Abb. 2.1 zeigt die Studienorte in Deutschland.
Ein Studium, das zum ersten berufsqualifizierenden Abschluss Bachelor of Engineering oder Bachelor of Science führt, sollte nach Ansicht der zuständigen Fachgesellschaft mindestens 7 Semester mit 210 ECTS Punkten umfassen (Dammann et al. 2005). Als Gründe sind die Multidisziplinarität des Fachgebietes und die Notwendigkeit eines breiten ingenieurwissenschaftlichen Basiswissens auf der Grundlage einer fundierten Ausbildung in den Naturwissenschaften Mathematik und Physik zu nennen. Diese sind in sechs Semestern nur schwer vermittelbar. Für den konsekutiven Master bleiben dann noch drei Semester mit 90 ECTS- Punkten. Für einen nicht konsekutiven Masterstudiengang, der als Aufbaustudiengang angeboten werden kann, sollten vier Semester mit 120 ECTS-Punkten vorgesehen werden. ECTS-Punkte stellen die quantitative Maßeinheit für den Studienaufwand der Studierenden dar. Insgesamt werden 60 ECTS-Punkte pro Studienjahr vergeben, was einem Zeitaufwand von etwa 1500 bis 1800 Stunden pro Jahr entspricht (Hochschule Anhalt 2002). Empfohlene Lehrinhalte ⊡ Tab. 2.1. Das Fachpraktikum im Bachelor-Studiengang soll mindestens fünf Monate betragen, um den erforderlichen Praxisbezug zu garantieren. Hier können sich die Studenten erstmals den Anforderungen ihres Fachgebietes bei der Lösung konkreter Fragestellungen beweisen. Die nichttechnischen Fächer sollen insbesondere die Herausbildung von Schlüsselkompetenzen oder sog. »soft skills« wie Teamfähigkeit, Kommunikationsfähigkeit usw. unterstützen. Hierzu ist auch die Verbesserung der Sprachkenntnisse, z. B. auf den Gebieten Business English oder Technical English zu zählen (Hoffmann und Foth 2004). Die ⊡ Abb. 2.2 fasst die Lehrgebiete des Gegenstandskataloges Medizintechnik, Biomedizinische Technik und Klink-Ingenieurwesen zusammen.
2.2.4 Berufsfelder
Die Berufsfelder und Einsatzgebiete für Absolventen der Biomedizinischen Technik ergeben sich aus der Multidisziplinarität und hohen Innovation des Fachgebiets in Forschung und Entwicklung, in technischen Überwachungsdiensten und Behörden, in der Applikation, aber auch im Vertrieb und Service medizintechnischer Geräte und insbesondere in medizinischen Einrichtungen und Kliniken. Dabei wird das Zusammenspiel von Medizin, Informationstechnik, Ingenieurwissenschaften, Werkstoffwissenschaften und Zellbiologie bislang ungeahnte Möglichkeiten in Diagnostik und Therapie eröffnen. Der Transfer von Ideen aus der Grundlagenforschung über einen Prototypen bis hin zum Produkt einschließlich der methodischen Fragen der Anwendung stellt zukünftig immer höhere Ansprüche an die Zusammenarbeit der Teams. Herausforderungen werden in der 4D-Bildgebung z. B. für die Diagnose am schlagenden Herzen, der Ankopplung von Mikrosystemen an Neuronen
9 2.2 · Biomedizinische Technik
⊡ Abb. 2.1. Möglichkeiten einer Ausbildung auf dem Gebiet der Biomedizinischen Technik in Deutschland nach Biomedical Engineering Education in Europe 2005 und Dammann et al. 2005, Fotos HSA
⊡ Tab. 2.1. Lehrinhalte für ein Studium der Biomedizinischen Technik mit den zugehörigen ECTS-Punkten Inhalt
Bachelor 7 Semester
Master 3 Semester konsekutiv
Master 4 Semester nicht konsekutiv
Mathematik
20
0
0
Physik
20
0
0
Ingenieurwissenschaften
30
20
15
Anatomie, Physiologie
10
0
10
Nichttechnische Fächer
20
0
0
BMT Kernfächer
25
0
25
BMT Vertiefung
25
10
30
Fachpraktikum (5 Monate)
15
0
0
Abschlussarbeit
15
30
30
Flexibles Budget
30
30
10
210
90
120
2
10
Kapitel 2 · Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder
2
Biomechanik
Anatomie
Biomaterialien Biowerkstoffe
Physiologie Molekularbiologie
Elektromedizin Med. Messtechnik
BMT in der Therapie
Bildgebende Verfahren Labor-Analysenmesstechnik
Rehabilitation Statistische Methoden Modulierung und Simulation
⊡ Abb. 2.2. Ausbildungsinhalte für ein Studium der Biomedizinischen Technik entsprechend des Gegenstandskataloges der DGBMT (DGBMT 2001)
Kommunikations- u. Informationssysteme
z. B. bei Neuroprothesen, dem Einsatz neuer Biomaterialien mit Oberflächenmodifikationen im Nanobereich z. B. zur Herstellung einer lebenslang haltenden Verbindung von Hüftprothesen und in der Computermodellierung eines virtuellen Patienten zur Überprüfung von Diagnose und Therapie gesehen (VDE-Ingenieurstudie 2005). In der Branche Medizintechnik sind gegenwärtig insgesamt 87.500 Beschäftigte tätig, davon etwa die Hälfte in Betrieben zur Herstellung medizintechnischer Geräte. Vor allem in forschungsintensiven Unternehmen sind bis 2002 rund 6000 neue Arbeitsplätze entstanden (VDE-Ingenieurstudie 2005). Zusammengefasst lassen sich folgende Berufsfelder beschreiben: ▬ international tätige Unternehmen (Management, Forschung, Entwicklung) ▬ medizinische Einrichtungen (klinische Forschung, hochspezialisierte medizinische Betreuung, Management) ▬ Forschungsinstitute, Hochschulen, Universitäten (Grundlagenforschung, angewandte Forschung, Lehre) ▬ Behörden
2.3
Krankenhaustechnik L.F. Clausdorff
2.3.1 Aufgaben
Ingenieure, die interdisziplinär und umfassend auf dem Gebiet der Krankenhaustechnik ausgebildet werden, können die verschiedensten Aufgaben in vielen Berufsfeldern
Digitale Bildverarbeitung Biosignalverarbeitung
Medizinprodukterecht Qualität, Sicherheit
Struktur des Gesundheitswesens Ethik in der Medizintechnik
Strahlenschutz
Hygiene und Hygienetechnik
Dosimetrie Bestrahlungsplanung
wahrnehmen. In den nachfolgenden Abschnitten sind die wichtigsten Aufgaben beschrieben.
Technisches Gebäudemanagement Eines der wesentlichsten Aufgabengebiete für Ingenieure der Krankenhaustechnik ist die Leitung des Dezernates bzw. der Abteilung Technik bei Gebäuden des Gesundheitswesens. Das technische Management im Krankenhaus umfasst neben der Personalführung die Planung, Ausschreibung, Bauüberwachung, Abnahme und Instandhaltung von Gebäuden und gebäudetechnischen Anlagen. In vielen Einrichtungen gehören zu diesem Aufgabenbereich auch die Instandhaltung und die Beschaffung der medizintechnischen Geräte und Anlagen. Ein wesentlicher Anteil an der Tätigkeit ist auch die Betreuung und Begleitung von kleinen und großen Baumaßnahmen. Zu den Aufgaben gehört die Beratung der Verwaltung, der Ärzteschaft und der Pflege in allen technischen Fragen. Einige der genannten Aufgaben werden von Unternehmen wahrgenommen, die im technischen Gebäudemanagement tätig sind. Diese Firmen sind i. d. R. aus Zusammenschlüssen und Ausgründungen der technischen Abteilung der Krankenhäuser entstanden und übernehmen diese Aufgaben als Dienstleister.
Planungen bei Bauten des Gesundheitswesens Die Ausbildung befähigt die Krankenhausingenieure auch, in den unterschiedlichsten Sparten der Planung von Gebäuden des Gesundheitswesens tätig zu werden. Ein großes Arbeitsfeld ist die Planung der technischen Gebäudeausrüstung. Hierbei werden spezielle Kenntnisse über die besonderen Anforderungen bei dieser Gebäudeart
2
11 2.3 · Krankenhaustechnik
benötigt, die nur bei Krankenhausingenieuren vorhanden sind. Auch die Ausschreibung und Vergabe und die Objektüberwachung bei der Errichtung und Herstellung von Gebäuden und gebäudetechnischen Anlagen gehört zu den Aufgaben im Bereich der Planung.
Gesundheitsüberwachung
⊡ Tab. 2.2. Baunutzungskosten nach DIN 18960 Kostenart
Kosten € / Tag
%
Technischer Dienst
5,61
13,53
Wasser, Energie, Brennstoffe
8,74
21,09
Steuern, Abgaben, Versicherungen
3,85
9,29
16,86
40,68
6,39
15,42
Ein weiteres Aufgabenfeld ist die Gesundheitsüberwachung. Auf der Grundlage des Infektionsschutzgesetzes § 36, das die Überwachung der Gesundheitseinrichtungen durch die Gesundheitsämter regelt, werden die in den Gesetzen und Verordnungen für den Schutz von Patienten vor Infektionen vorgesehenen regelmäßigen Prüfungen durchgeführt. Diese können kompetent von auf dem Gebiet der Krankenhaustechnik ausgebildeten Ingenieuren durchgeführt werden. Beispielhaft sind hier die Trinkwasserversorgung, die Aufbereitung von Medizinprodukten nach der Betreiberverordnung und die Prüfung von Lüftungsanlagen der Operationsräume auf der Grundlage der anerkannten Regeln der Technik und den Vorgaben des Robert-Koch-Institutes zu nennen.
von zentraler Dampfversorgung auf dezentrale Dampferzeugung oder den Aufbau einer eigenen Stromerzeugung mit BHKW’s oder Solartechnik.
2.3.2 Anforderungen
2.3.3 Ausbildung
Gebäudetechnische Anlagen in Gebäuden des Gesundheitswesens dienen vielfach der Versorgung lebenserhaltender Systeme für die Patienten mit Energie. Diese Anlagen werden i. d. R. mit elektronischen Systemen gesteuert und überwacht. Bei Lüftungsanlagen ist die Verbreitung von Keimen in der Luft zu vermeiden und die Versorgung der Patienten mit medizinischen Gasen ist sowohl im Hinblick auf die Versorgungssicherheit als auch auf die Qualität eine verantwortungsvolle Aufgabe. Bei allen Anlagen und Systemen werden sehr hohe Anforderungen an die Qualität und die Ausfallsicherheit gestellt. Bei der Inspektion, Wartung und Instandsetzung der gebäudetechnischen und medizintechnischen Anlagen sind eine Fülle von Vorschriften in Form von Verordnungen, DINNormen, VDE- und VDI Richtlinien und die Richtlinien des Robert-Koch-Institutes RKI zu beachten. Ein weiterer wichtiger Aspekt ist der wirtschaftliche Betrieb dieser Anlagen. Daher werden von den verantwortlichen Führungskräften im technischen Management betriebswirtschaftliche Kenntnisse erwartet. Der Anteil des Budgets eines Krankenhauses für diese Aufgaben, auch als Baunutzungskosten nach DIN 18960 bezeichnet, beträgt ca. 10% (⊡ Tab. 2.2). Im Aufgabenbereich Energiemanagement werden kontinuierliche Verbesserungsmaßnahmen notwendig, um den steigenden Energiekosten entgegen zu wirken. Diese Maßnahmen können aus Änderrungen bei den Lieferverträgen, aus Energieeinsparmaßnahmen und Änderungen der Medien bestehen, wie z. B. der Umstellung
Der Studiengang KrankenhausTechnikManagement (KTM) ist heute der einzige Studiengang in der Bundesrepublik und in Europa, der Ingenieure speziell für das Gesundheitswesen ausbildet. Bereits im Jahr 1965 wurde ein Ausbildungsgang für Gesundheits-/Krankenhausbetriebsingenieure an der damaligen Ingenieurschule Gießen gegründet. Ab WS 1970/71 wurde der Ausbildungsgang Krankenhausbetriebstechnik (KBT) eingerichtet, und 38 Studentinnen und Studenten nahmen ihr Studium auf. Bereits im SS 1973 verließen die ersten Absolventen als Diplomingenieure des Technischen Gesundheitswesens die Fachhochschule GießenFriedberg. Mit dem WS 1995/96 wurde eine neue Studien- und Prüfungsordnung eingeführt, die sowohl das Lehr- und Studienangebot den neuen technologischen Entwicklungen und Bedürfnissen anpasste, als auch dem Studium eine neue Struktur gab. Dabei wurde das Studium auf 8 Semester inklusive eines berufspraktischen Semesters umgestellt, sodass auch die formale Voraussetzung für eine europaweite Anerkennung der Diplome geschaffen worden ist. Eine weitere Änderung der Prüfungsordnung wurde im Jahr 2000 eingeführt, um den Ansprüchen an die Modularisierung und Internationalisierung gerecht zu werden. Zurzeit wird an der Einführung eines Bachelor- und Masterstudienganges gearbeitet, um den »Bologna-Beschluss« der Europäischen Union umzusetzen. Ziel dieses Masterstudienganges ist es, den Absolventen umfassende Kenntnisse und Fähigkeiten der Fachgebiete zu vermit-
Instandhaltung Sonstiges Summe Baunutzungskosten
41,45
100
DKG Zahlen, Daten, Fakten 2004/2005
12
2
Kapitel 2 · Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder
teln, die sie in die Lage versetzen, Führungspositionen im technischen Management bei großen Gesundheitsanbietern auszuüben.
2.3.4 Studienorganisation
Das erste Studienjahr dient in enger Verflechtung mit den anderen Studiengängen überwiegend dem Erwerb des mathematisch-naturwissenschaftlichen Grundlagenwissens. Es beinhaltet aber auch bereits fachspezifische Grundlagen. Das zweite und dritte Studienjahr vermittelt ingenieurwissenschaftliche Grundlagen und technische Anwendungen (⊡ Tab. 2.3). Die Studieninhalte wurden um die Fächer Personalmanagement, Energiemanagement, Qualitätsmanagement und Instandhaltungsmanagement erweitert. Bei dieser Umstellung entstand der neue Name des Studienganges »KrankenhausTechnikManagement« KTM.
Im 6. Semester können die Studierenden Module aus einem von vier Schwerpunkten wählen. Diese Schwerpunkte decken das gesamte Spektrum der Berufsfelder ab (⊡ Tab. 2.4). Das 7. Semester dient dazu, im Rahmen der berufspraktischen Projektarbeiten an Arbeitsplätzen des späteren Tätigkeitsfeldes unter Anleitung Erfahrungen in der Berufspraxis zu sammeln. Diese Zeit ermöglicht es den Studierenden, Kontakte zu Krankenhäusern, Unternehmen und anderen Einrichtungen zu knüpfen, die ihnen den Einstieg in das Berufsleben erleichtern. Wie die steigenden Bewerberzahlen zeigen, nimmt das Interesse am Studium KTM ständig zu. Bis zum Beginn des WS 2005 haben ca. 500 Absolventen den Studiengang KBT/KTM als Diplomingenieurinnen bzw. Diplomingenieure verlassen. Das vielfältige, interdisziplinäre Lehrangebot wird zu einem Teil durch Kooperation mit anderen Studiengängen und Fachbereichen sowie der Mitarbeit externer Spezia-
⊡ Tab. 2.3. Inhalt des Studienprogramms KrankenhausTechnikManagement 1. Semester
2. Semester
3. Semester
Mathematik 1
Mathematik 2
Elektrotechnische Grundlagen
Physik 1
Physik 2
MSR- Technik
EDV / Statistik
Biologie
Maschinentechnische Grundlagen
Berufsqualifizierendes Training 1
Berufsqualifizierendes Training 2
Verfahrenstechnische Grundlagen
4. Semester
5. Semester
6. Semester
Sanitärtechnik
Heiztechnik / Dampferzeugung
Management
Krankenhausplanung
Krankenhausbau
Medizinische Geräte
Elektrotechnik im Krankenhaus
Betriebswirtschaftliche Grundlagen
Kommunikationssysteme
Klimatechnik im Krankenhaus
Mikrobiologie und Hygiene
Module der Schwerpunkte (⊡ Tab. 2.4)
⊡ Tab. 2.4. Fächer und Inhalte der Schwerpunkte KTM Schwerpunkt Krankenhausplanung
Medizintechnik
Finanzierung, Controlling, Management
Umweltschutz im Krankenhaus
Sanierungsplanung
Bildgebende Verfahren
Rechnungswesen
Abfallwirtschaft
Seminar Projekt Bau
Interventionelle Verfahren
Krankenhausfinanzierung
Umweltrecht
Seminar TGA
Strahlentherapie
Controlling
Abwasserbehandlung
Bau- und Genehmigungsrecht
Strahlenschutz
Management von Großprojekten
Wasseraufbereitung
CAD Bau
Diagnostische Geräte und Systeme
Projekt- und Prozessmanagement
CAD/CAE
Elektromedizin
13 2.3 · Krankenhaustechnik
listen (Honorarprofessoren und Lehrbeauftragte) ermöglicht, sodass hierdurch der Praxisbezug gewahrt bleibt und die aktuellen Entwicklungen in die Lehre einfließen.
Dokumentation, Schulung/Training und die Tätigkeit bei Energieversorgungsbetrieben.
2.3.6 Zusammenfassung und 2.3.5 Berufsfelder
Diplomingenieure der Krankenhausbetriebstechnik/ KrankenhausTechnikManagemenent, die interdisziplinär für das Gesundheitswesen ausgebildet werden, finden eine Vielzahl von Berufsfeldern, in denen sie tätig werden können.
Technisches Gebäudemanagement An erster Stelle ist hier das technische Gebäudemanagement in Krankenhäusern, aber auch bei anderen Gebäuden des Gesundheitswesens zu nennen. Diese Aufgabe wird auch bei Dienstleistern im Bereich Facility Management wahrgenommen.
Schlussfolgerungen Der Wandel im Gesundheitswesen führt zu einer Vielzahl von Organisationen, die sich mit den Aufgaben der Krankenversorgung, aber auch dem wachsenden Markt der Vorsorge und Früherkennung widmen. Für alle diese Einrichtungen werden Gebäude mit gebäudetechnischen und medizintechnischen Anlagen benötigt, die sowohl wirtschaftlich als auch auf einem hohen Qualitätsniveau betrieben werden müssen. In diesem wachsenden, sich ständig verändernden »Gesundheitsmarkt« und der rasanten Entwicklung der Medizintechnik werden interdisziplinär ausgebildete Ingenieure benötigt, die sowohl über Kenntnisse und Fähigkeiten auf dem Gebiet der Ingenieurwissenschaften als auch über betriebswirtschaftliche Kompetenzen verfügen.
Planungsbüros Aufgaben finden die Absolventen des Studienganges KTM in Planungsbüros, die sich mit den verschiedensten Sparten der Planung im Bereich Gebäude des Gesundheitswesens beschäftigen. Neben Architektur- und Ingenieurbüros sind hier Einrichtungen zu nennen, die sich mit der Bedarfs- und der Betriebsplanung, aber auch mit der Planung der medizintechnischen Ausstattung beschäftigen.
Industrie In Unternehmen, die sich mit der Planung, der Herstellung, dem Marketing und Vertrieb von Anlagen und Geräten beschäftigen, die bei Gebäuden des Gesundheitswesens benötigt werden, wie z. B. Lüftungsanlagen, Medizinprodukte und Desinfektionsanlagen, sind Krankenhausingenieure als Spezialisten ebenfalls gesuchte Mitarbeiter.
Prüfeinrichtungen und Behörden Um die zahlreichen gesetzlich vorgeschriebenen Prüfungen im Gesundheitswesen kompetent durchführen zu können, werden Krankenhausingenieure sowohl in Überwachungseinrichtungen als auch in Gesundheitsämtern eingesetzt. In Umweltämtern und bei der Gewerbeaufsicht im Bereich der Arbeitssicherheit bei Genehmigungsbehörden, z. B. Regierungspräsidien und Ministerien, werden diese Ingenieure ebenfalls beschäftigt.
Sonstige Berufsfelder Weitere Berufsfelder sind das Qualitätsmanagement, das Patentwesen, das Projektmanagement, die Technische
Weiterführende Literatur Biomedical Engineering Education in Europe (2005) Status Reports, BIOMEDIA Project. http://www.bmt.uni-stuttgart.de/biomedea/ Status%20Reports%20on%20BME%20in%20Europe.pdf Dammann V, Dössel O, Morgenstern U, Nippa J, Trampisch W (2005) DGBMT-Empfehlung. Akkreditierung von Studiengängen Biomedizinische Technik, Klinik-Ingenieurwesen. VDE, Frankfurt DGBMT (2001) Gegenstandskatalog Medizintechnik. Biomedizinische Technik und Klinikingenieurwesen. VDE, Frankfurt Hochschule Anhalt (2002) Handbuch-Einführung eines Leistungspunktsystems im Fachhochschulverbund Sachsen Anhalt Hoffmann KP, Foth H (2004) Master Programme in Biomedical Engineering. Internat. J. Health Care Engineering 12: 151–153 Morgenster U (2004) Ausbildung Biomedizinische Technik in deutschsprachigen Ländern. Biomedizinische Technik 49, Ergänzungsband 2: 956–957 Nagel JH (Hrsg) (2001) White paper on accreditation of biomedical engineering programs in Europe. IFMBE VDE-Ingenieurstudie (2005) Elektro- und Informationstechnik. VDE, Frankfurt Nagel JH (Hrsg) (2005) Criteria fort he accreditation of biomedical engineering programs in Europe, BIOMEDEA. http://www.bmt. uni-stuttgart.de/biomedea/Documents/Criteria%20for%20Accre ditation%20Biomedea.pdf
2
15 xxxx · xxxx
Hygiene in der Medizintechnik H.-M. Just, E. Roggenkamp
3.1
Einleitung – 15
3.6
Nichtinvasive Technik – 29
3.1.1 3.1.2
Mitarbeiterschutz – 15 Patientenschutz – 16
3.2
Infektionsentstehung – 16
3.6.1 3.6.2 3.6.3
Am Patienten eingesetzte Geräte – 29 Nicht am Patienten eingesetzte Geräte – 29 Reparatur und Wartung – 29
3.3
Impfungen – 17
3.7
Invasive Technik – 30
3.4
Methoden der Desinfektion – 17
3.4.1 3.4.2 3.4.3 3.4.4 3.4.5 3.4.6 3.4.7
Grundlagen – 17 Desinfektionsverfahren – 17 Chemische Desinfektionswirkstoffe – 18 Durchführung der manuellen Desinfektion – 18 Physikalische Desinfektionsverfahren – 19 Einwirkzeiten und Wirkungsbereiche – 23 Vergleich chemischer und physikalischer Desinfektionsverfahren – 24
3.5
Methoden der Sterilisation – 24
3.5.1
Verfahren
3.1
– 24
Einleitung
Die Technik erobert in zunehmendem Maß die Medizin. Viele diagnostische wie therapeutische Fortschritte sind erst durch entsprechende technische Verfahren und Weiterentwicklungen möglich geworden. Der Stellenwert der Hygiene wird deutlich, wenn man sich vergegenwärtigt, dass knapp die Hälfte aller im Krankenhaus von Patienten erworbenen Infektionen mit medikotechnischen Maßnahmen in Zusammenhang stehen oder durch diese (mit)verursacht werden [24]. Der Umgang mit diesen Geräten kann aber auch die Mitarbeiter gefährden. Verlässliche Daten aus Deutschland zu bekommen, die einigermaßen repräsentativ sind, ist schwierig, da es hierfür bislang keine zentrale Erfassungsstelle gibt. Als Anhalt sei auf Ausführungen zurückgegriffen, die auf Daten der Berufsgenossenschaft für Gesundheit und Wohlfahrtspflege (BGW) in Hamburg basieren [13]. Danach stellen die infektiösen Erkrankungen nach den Dermatosen die zweitgrößte Gruppe mit einer Häufigkeit von 7,3%, allerdings steigt deren Anteil bei den erstmals entschädigten Berufskrankheiten auf 1/3! Aus den Daten geht nicht hervor, welcher Prozentsatz der Dermatosen auch auf technische Handhabungen im weitesten Sinn zurückzuführen ist, wie den Umgang mit Reinigungs- und Desinfektionsmitteln. Hygienemaßnahmen im Zusammenhang mit medizintechnischen Produkten müssen deshalb 2 Ziele verfolgen:
3.8
Praktische Beispiele – 30
3.8.1 3.8.2 3.8.3 3.8.4 3.8.5 3.8.6
Postoperative Wundinfektionen – 30 Beatmungsassoziierte Pneumonien – 31 Katheterassoziierte Septikämie – 32 Katheterassoziierte Harnwegsinfektion – 32 Dialyse – 33 Creutzfeldt-Jakob-Erkrankung – 34
3.9
Regelwerke – 34
3.9.1 3.9.2
Technische Regeln für Gefahrstoffe Normen – 34
Literatur
– 34
– 36
1. Schutz der Mitarbeiter im Umgang mit und 2. Schutz der Patienten bei der Anwendung dieser Pro-
dukte vor einer Keimübertragung, die zu einer a) Kontamination, b) Kolonisierung oder c) Infektion führen kann. Welche Maßnahmen im Einzelfall erforderlich sind, um das jeweilige Ziel zu erreichen, hängt von mehreren Faktoren ab.
3.1.1 Mitarbeiterschutz
Bei der Anwendung am Patienten gilt die Regel, sich so zu verhalten, dass das Risiko, mit Keimen des Patienten in Kontakt zu kommen, so gering wie möglich gehalten wird. Dies wird dadurch erreicht, dass vor der erstmaligen Anwendung eines medizintechnischen Produkts eine entsprechende Einweisung zur korrekten Handhabung erfolgt. Hygienerichtlinien regeln, wann welche Schutzmaßnahmen erforderlich sind, die jedoch auch abhängig sind von den Erkrankungen des Patienten, der vermuteten Keimbesiedlung und dem möglichen Übertragungsweg. Beim Umgang mit medizintechnischen Produkten im Rahmen von Aufbereitung, Wartung und Reparatur kann der Mitarbeiter selbst darauf achten, ob das Gerät z. B. be-
X 3
16
3
Kapitel 3 · Hygiene in der Medizintechnik
reits außen sichtbar kontaminiert ist oder Bestandteile verschmutzt sind. Insbesondere muss er vom Anwender darüber unterrichtet worden sein, ob das Produkt unmittelbar zuvor bei einem Patienten mit einer übertragbaren Erkrankung bzw. mit besonderen Keimen eingesetzt wurde. Eine desinfizierende Vorreinigung muss in solchen Fällen vor dem Beginn einer Wartung oder Reparatur erfolgt sein. Eine Desinfektion als erster Schritt ist auch immer dann notwendig, wenn der Umgang mit dem Produkt mit einem erhöhten Verletzungsrisiko verbunden ist. Handelt es sich um Wiederaufbereitungsarbeiten, sollten Verfahren eingesetzt werden, die maschinell reinigen und desinfizieren, und das möglichst thermisch und in einem Arbeitsgang. Unter Umständen ist bestimmte Schutzkleidung (z. B. Handschuhe) sinnvoll oder sogar vorgeschrieben.
3.1.2 Patientenschutz
Für die erforderlichen Maßnahmen ist entscheidend, wie das medizintechnische Produkt am Patienten eingesetzt wird. Ein dem Patienten implantierter Schrittmacher muss steril und pyrogenfrei sein und während der Insertion auch bleiben. Für ein medizinisches Gerät mit nur äußerlichem (Haut)kontakt reicht eine desinfizierende Vorbehandlung, bei einem Gerät, das neben dem Patienten am Bett steht, i. d. R. eine Reinigung. Kommen Teile eines entfernt vom Patienten platzierten Gerätes aber mit sterilen Bereichen des Patienten in Kontakt (z. B. blutführende Schlauchsysteme von Dialyse- oder kardiochirurgischen Geräten), dann muss dieses Systemteil selbstverständlich denselben Kriterien genügen wie ein implantiertes Produkt. Gleiches gilt auch, wenn mit einem Gerät Flüssigkeiten oder Medikamente in sensible (z. B. Lunge bei der maschinellen Beatmung) oder sterile Körperbereiche (z. B. Infusiomaten) eingebracht werden [1, 8, 18]. Im Folgenden werden die Prinzipien zielgerichteter Hygienemaßnahmen erläutert und anhand von Beispielen aufgezeigt, wie die Risiken erkannt werden und welche risikobezogenen Maßnahmen notwendig sind. Auf die zu beachtenden Regelwerke wird hingewiesen, wobei es die Aufgabe des jeweiligen Bereichsverantwortlichen ist, im Rahmen der regelmäßigen Schulungen den Maßnahmenkatalog neuen wissenschaftlichen Erkenntnissen und Empfehlungen anzupassen. Pauschale Vorgaben, die sich nicht am praktischen Einsatz, dem konkreten Infektionsrisiko und dem Infektionsweg orientieren, sind häufig teuer, weil personal- und zeitintensiv, aber selten effektiv.
3.2
Infektionsentstehung
Voraussetzung für eine Infektionsentstehung ist ein Infektionserreger, ein für eine Infektion empfänglicher Mensch
und ein Kontakt, der es dem Keim ermöglicht, den Menschen so zu besiedeln, dass eine Infektion entstehen kann. Diese Vielzahl an Voraussetzungen macht deutlich, dass es keinen Grund gibt, in einer generellen Angst vor Mikroorganismen zu leben, seien es Bakterien, Viren oder Pilze. Bakterien besiedeln unsere Haut und Schleimhaut und sind ein wichtiger Bestandteil unserer körpereigenen Abwehr. Aus unserem Nasen-Rachen-Raum können über 40 verschiedene Spezies isoliert werden, und pro Gramm Stuhl leben bis zu 1012 Keime! Die bei jedem Menschen vorhandene Keimbesiedlung der Haut wird unterschieden in eine ständige und eine vorübergehende. Die ständige ist immer vorhanden, die vorübergehende erworben und daher wechselnd, je nachdem, was man angefasst oder welche Arbeit man verrichtet hat. Händewaschen eliminiert den größten Teil (>90%) dieser erworbenen »Verschmutzung«, lässt die ständige Besiedlung aber unbehelligt. Eine Hände- oder Hautdesinfektion soll die erworbenen Keime vollständig eliminieren, beeinträchtigt aber auch die ständige Hautbesiedlung. Haut und Schleimhaut sind mechanische Barrieren, die, wenn sie unverletzt sind, den Mikroorganismen das Eindringen in unseren Körper verwehren. Das erklärt, warum Verletzungen von Haut und Schleimhaut immer mit einer erhöhten Infektionsgefährdung einhergehen, sei es in Form einer lokalen, oberflächlichen Infektion (Pustel, Abszess), sei es in Form einer – meist bei abwehrgeschwächten Patienten auftretenden – ausgedehnten Weichteilinfektion (Ulkus, Gangrän), in dessen Folge es auch zu einer Sepsis mit hohem Fieber kommen kann. In vielen Regionen hat unser Körper weitere Abwehrmechanismen aufgebaut, wie den Säuremantel der Haut, Mikroorganismen tötende Enzyme in Sekreten und Exkreten (z. B. Augenflüssigkeit) und spezielle Strukturen in unserem Blut, deren Hauptaufgabe es ist, Eindringlinge zu eliminieren. Dazu gehören die weißen Blutkörperchen, die Bakterien »auffressen« und verdauen, und sog. Antikörper, mit deren Hilfe die Blutkörperchen die Strukturen im Körper erkennen, die sie vernichten sollen. Die Bildung solcher mitunter spezifischen Antikörper erfolgt im lymphatischen Gewebe unseres Körpers nach entsprechendem »Reiz«. Ein solcher Reiz kann ein Kontakt mit dem Infektionserreger selbst (»natürliche Immunisierung«) sein oder durch eine Impfung (»künstliche Immunisierung«, s. unten) erfolgen. Gelingt es einem Keim trotzdem, sich auf Haut oder Schleimhaut festzusetzen, dann ist der erste wichtige Schritt geglückt. Bleibt es bei dieser »Kolonisierung«, dann kommt es zwar zu keiner Erkrankung, der Patient oder Mitarbeiter kann aber zu einer (unerkannten) Quelle für weitere Übertragungen werden, sofern es sich um einen problematischen Keim (Infektionserreger, multiresistentes Bakterium) handelt. Ist der Keim aber im zweiten Schritt in der Lage, seine krankmachenden Eigenschaften
17 3.4 · Methoden der Desinfektion
zu entfalten und ist die betroffene Person nicht immun, dann kommt es zu einer Infektion, die je nach Gesundheitszustand des Betroffenen zu einer unterschiedlich schwer verlaufenden Erkrankung führen kann.
3.3
Impfungen
Eine der wichtigsten Maßnahmen, sich vor Infektionen zu schützen, ist die Impfung. Die Impfungen, die von der »Ständigen Impfkommission (STIKO)« am Robert-KochInstitut (RKI) empfohlen und regelmäßig aktualisiert werden [20], sind gerade für Mitarbeiter im Gesundheitswesen von besonderer Bedeutung. Die Impfungen der Kategorie A (»... mit breiter Anwendung und erheblichem Wert für die Gesundheit der Bevölkerung«) sind die Impfungen der Säuglinge und Kinder und sollten bei allen Mitarbeitern im Gesundheitswesen vorhanden und, wenn nötig, regelmäßig aufgefrischt sein. Hierzu zählen so wichtige Impfungen wie Tetanus, Poliomyelitis, Hepatitis B und Diphtherie. Hinzu können, je nach Arbeitsbereich, derzeit sog. »Indikationsimpfungen« (Kategorie I) kommen, wie gegen Hepatitis A, Influenza und Varizellen. Ansprechpartner bei Fragen zum persönlichen Impfschutz und zu den arbeitsplatzbezogenen Anforderungen ist i. d. R. der Betriebsarzt.
3.4
Methoden der Desinfektion
> Definition »Desinfektion ist die gezielte Abtötung oder Inaktivierung von Krankheitserregern mit dem Ziel, deren Übertragung zu verhindern.« (TRGS 525)
3.4.1 Grundlagen
Die Desinfektion hat somit wie auch die Sterilisation ( Abschn. 3.5) das Ziel, eine Übertragung krankmachender Keime zu verhindern. Eine absolute Keimfreiheit (Sterilität) ist aber nicht garantiert. Eine Desinfektion von Geräten und Materialien ist immer dann ausreichend, wenn eine Übertragung von vermehrungsfähigen Mikroorganismen zwar verhindert werden soll, der Körper aber physiologischerweise über einen gewissen Eigenschutz in diesen Bereichen verfügt wie auch in ansonsten keimbesiedelten Bereichen des menschlichen Körpers (z. B. Magen-Darm-Trakt). Obligat pathogene (immer krankmachende) Keime dürfen jedoch auf desinfiziertem Gut nicht vorkommen. Bei der Anwendung von Desinfektionsmitteln und -verfahren sind sowohl das jeweilige mikrobiologische Wirkungsspektrum wie auch der Anwendungsbereich zu berücksichtigen. Den thermischen Desinfektionsverfah-
ren ist, soweit anwendbar, immer der Vorzug vor den chemischen Desinfektionsmitteln und -verfahren zu geben. Chemische Desinfektionsmittel sind, soweit sie keine besonderen Hinweise enthalten, meist nur zur Abtötung von vegetativen Bakterien und Pilzen geeignet. Desinfektionsmittel werden, bevor sie auf den Markt kommen, auf ihre antimikrobielle Wirkung mittels mikrobiologischer Untersuchungen getestet. Hierfür gibt es standardisierte Verfahren, deren Ergebnisse auch darüber entscheiden, ob ein Mittel in die Liste der vom RKI nach dem Infektionsschutzgesetz zugelassenen Mittel [21] aufgenommen wird. Neben dieser »amtlichen« Liste gibt es noch die »Desinfektionsmittel-Liste der DGHM« (DGHM-Liste), die von der Deutschen Gesellschaft für Hygiene und Mikrobiologie in eigener Regie und unter Zugrundelegen eigener Testverfahren und Testkriterien herausgegeben wird.
3.4.2 Desinfektionsverfahren Thermische Verfahren kommen nur für thermostabile Gegenstände in Frage, chemische auch für thermolabile Gegenstände und Flächen. Als Anwendungsbereiche für chemische Desinfektionsverfahren werden unterschieden: ▬ Hände-, Haut- und Schleimhautdesinfektion ▬ Flächendesinfektion ▬ Instrumentendesinfektion
Hände-, Haut-/Schleimhautdesinfektion und Flächendesinfektion Hände-, Haut- und Schleimhautdesinfektion sowie die Flächendesinfektion können nur als chemische Desinfektion durchgeführt werden, wobei unterschiedliche keimtötende Substanzgruppen zur Anwendung kommen (⊡ Tab. 3.1). Für die Auswahl eines Mittels ist entscheidend, wofür es eingesetzt werden soll und welche Wirkintensität, aber auch Wirkbreite erforderlich ist. Entsprechende Festlegungen sollten in bereichs- oder verfahrensspezifischen »Hygieneplänen« geregelt sein.
Instrumentendesinfektion Instrumente und Geräte können thermisch, chemothermisch oder auch rein chemisch desinfiziert werden. Die Auswahl des Verfahrens hängt ab von der Eignung des Materials für bestimmte Arten der Desinfektion, von den örtlichen Gegebenheiten (Infrastruktur) und ggf. besonderen Erfordernissen. Als sicherste Möglichkeit gelten maschinelle thermische Desinfektionen in speziellen Reinigungs- und Desinfektionsgeräten, da nur bei entsprechender Temperatureinwirkung die gewünschte Keimreduktion mit hinreichender Sicherheit garantiert
3
18
3
Kapitel 3 · Hygiene in der Medizintechnik
wird. Die Maschinen melden Störungen im Programmablauf, sodass eine versehentliche Entnahme vor Ablauf der Desinfektion nicht möglich ist und Fehler weitestgehend ausgeschlossen werden. Rein chemische Verfahren, wie Einlegen in Lösungen etc., sind demgegenüber anfällig für Fehler in der Aufbereitung und erfordern ein hohes Maß an Zuverlässigkeit beim durchführenden Personal.
Standzeit
3.4.3 Chemische Desinfektionswirkstoffe
Reihenfolge: Desinfektion und Reinigung
In ⊡ Tabelle 3.1 sind die gängigsten Desinfektionsmittelwirkstoffe, deren Vor- und Nachteile und deren Anwendungsgebiete wiedergegeben. Die kommerziellen Desinfektionsmittel enthalten in den seltensten Fällen nur einen Wirkstoff, sondern bestehen häufig aus Wirkstoffgemischen, um eine möglichst optimale antimikrobielle Wirksamkeit zu erzielen.
3.4.4 Durchführung der manuellen
Desinfektion Auswahl der Desinfektionsmittel Üblicherweise werden Desinfektionsmittel anhand der DGHM-Liste ausgewählt. Dabei ist aber zu beachten, dass neben dem Anwendungsbereich, der Konzentration und Einwirkzeit (voneinander abhängig) auch der erforderliche Wirkungsumfang gewährleistet ist. Im Zweifel muss auf die entsprechenden Gutachten zurückgegriffen werden. Eine weitere wichtige Informationsquelle insbesondere aus arbeitsmedizinischer Sicht sind die Sicherheitsdatenblätter gem. 91/155/EWG – geändert durch 2001/58/EWG – zu den jeweiligen Desinfektionsmitteln. Im Hinblick auf Materialverträglichkeit und Wirksamkeit ist besondere Vorsicht geboten bei gummi- und kunststoffhaltigen Materialien.
Die maximale Dauer, in der das Mittel bestimmungsgemäß wirkt, kann den jeweiligen Datenblättern entnommen werden. Bei sichtbarer Verschmutzung der Lösung ist diese allerdings sofort zu erneuern. Soweit eine Kombination von Reinigungs- und Desinfektionsmittel verwendet wird, beträgt die Standzeit generell nur 24 h.
Bei Instrumenten, bei denen Verletzungsgefahr besteht, ist eine Desinfektion vor der Reinigung durchzuführen (UVV VBG 103 § 11). In den übrigen Fällen erfolgt die Desinfektion mit oder nach der Reinigung.
Arbeitsweisen Flächen- bzw. Instrumentendesinfektionsmittel werden von den Herstellern als Konzentrat in verschiedenen Gebindegrößen vom Portionsbeutel bis zum Großgebinde angeboten und müssen vom Anwender durch Zumischen von Wasser in die entsprechende Anwendungskonzentration gebracht werden. Zur Vermeidung von Schaumbildung beim Ansetzen von Desinfektionslösung wird erst das Wasser, dann das Desinfektionsmittel eingefüllt. Das Ansetzen der Lösung erfolgt per Hand mittels Dosierhilfen oder über Zumischgeräte. Der Vorteil bei Verwendung von Zumischgeräten ist die automatische Dosierung des Desinfektionsmittels. Desinfektionsmittel dürfen nur für den angegebenen Zweck eingesetzt werden und nicht ohne vorherige Prüfung mit Reinigungsmitteln gemischt werden, da es zu Wirkungsverlusten des Desinfektionsmittels kommen kann (Herstellerangaben beachten). Der Wechsel der Desinfektionslösung wird erforderlich bei Erreichen der vom Hersteller angegebenen Standzeit oder bei sichtbarer Verschmutzung der Lösung.
⊡ Tab. 3.1. Vor- und Nachteile sowie Anwendungsgebiete der gängigsten Desinfektionsmittelwirkstoffe Wirkstoff
Vorteile
Nachteile
Anwendungsbereich
Alkohole
Schnell wirksam, keine Rückstände, geringe Toxizität, angenehmer Geruch
Nicht sporozid, brennbar/ explosibel, teuer
Händedesinfektion, Hautdesinfektion, kleine Flächen
Jod/Jodophore
Keine Schleimhautreizung, schnell wirksam
Allergien möglich, Eigenfarbe, (Nebenwirkung an Schilddrüse?)
Hautdesinfektion, Schleimhautdesinfektion, Händedesinfektion
Formaldehyd/ Aldehyde
Breites Wirkspektrum, biologisch abbaubar
Reizend, allergen, mäßig toxisch, (karzinogen?)
Flächen, Instrumente, Raumdesinfektion
Quaternäre Ammoniumverbindungen
Gute Reinigungswirkung, geruchsarm, geringe Toxizität
Wirkungslücken, Eiweiß-/ Seifenfehler
Flächendesinfektion in Sonderbereichen (Küche)
Persäuren/Peroxide
Breites Wirkspektrum, schnell wirksam
Eiweißfehler! Korrosiv, reizend, instabil
Flächen, Instrumente
Phenole
Geringe Beeinflussung durch Milieu
Wirkungslücken, biologisch kaum abbaubar
Ausscheidungsdesinfektion, sonst obsolet
19 3.4 · Methoden der Desinfektion
Zu Beeinträchtigungen der Wirkung kann es in englumigen Schläuchen und Rohren, z. B. durch Luftblasen, oder durch Verunreinigungen kommen. Deshalb ist darauf zu achten, dass das Desinfektionsgut komplett und blasenfrei untergetaucht ist und alle Flächen vollständig benetzt sind. Alle Gegenstände sind so weit wie möglich zu zerlegen. Das Einlegen von Instrumenten sollte schonend erfolgen, um Beschädigungen zu vermeiden.
Einspartipps Folgende Möglichkeiten zu Einsparungen können genutzt werden: ▬ Häufig genügt es, statt einer Desinfektion vor einer nachfolgenden Sterilisation nur eine Reinigung durchzuführen. Ausnahmen: Nur spitze, scharfe Gegenstände müssen vor dem Reinigen desinfiziert werden (s. oben). ▬ Wenn zeitlich machbar, sollten geringe Konzentrationen mit längerer Einwirkzeit gewählt werden. ▬ Wenn möglich auf zusätzliche Reinigungsmittel verzichten, denn eine Desinfektionslösung mit Reinigerzusatz muss täglich gewechselt werden. ▬ Lösung möglichst wenig mit organischem Material verschmutzen, damit kein Wechsel vor dem Ende der Standzeit erforderlich ist. ▬ Gegenstände abwischen statt einlegen.
Ausguss Zum Schutz der Abwasserinstallationen vor Korrosion ist auf ausreichende Verdünnung vor dem Ausgießen zu achten. Instrumentendesinfektionsmittel sind i. d. R. mit Korrosionsinhibitoren versehen. Trotzdem können hohe Konzentrationen für die Abwasserleitungen problematisch sein. Darüber hinaus sind die kommunalen Abwassersatzungen zu beachten. Desinfektionsmittelkonzentrate gelten als Gefahrstoffe und sind als besonders überwachungsbedürftig zu entsorgen.
Personenschutz Beim Ansetzen der Lösung, dem Einlegen/Herausnehmen von Produkten, Entleeren und Reinigen des Beckens sind Handschuhe (Einmal- oder Haushaltshandschuhe) und Schutzkleidung (flüssigkeitsdichte Schürze) zu tragen. Wenn Spritzgefahr besteht, muss eine Schutzbrille bzw. ein Gesichtsschutz getragen werden (⊡ Abb. 3.1). Gefüllte Desinfektionsbecken sind abzudecken, um ein Abdampfen in die Raumluft zu minimieren. Aus dem gleichen Grund sind Desinfektionslösungen immer mit kaltem (bis maximal handwarmem) Wasser anzusetzen. Desinfektionsmittelkonzentrate dürfen nicht über Augenhöhe gelagert werden.
⊡ Abb. 3.1. Ansetzen einer Desinfektionslösung – der abgedeckte rechteckige weiße Kunststoffbehälter im Hintergrund ist das Desinfektionsbecken
Besonderheiten Es kann zu unerwünschten Materialbeeinflussungen kommen, wenn ungeeignete Desinfektionsmittel angewendet werden. Auf die Chemikalienbeständigkeit der Produkte muss deshalb immer Rücksicht genommen werden. In Zweifelsfällen sollte beim Instrumentenhersteller nachgefragt werden.
3.4.5 Physikalische Desinfektionsverfahren
Bei den physikalischen Desinfektionsverfahren unterscheidet man zwischen thermischen und chemothermischen Desinfektionsverfahren.
Thermische Desinfektionsverfahren Bei den thermischen Desinfektionsverfahren werden die Krankheitserreger durch die Einwirkung von Wärme unschädlich gemacht. Die Wirksamkeit der Verfahren ist umso größer, je höher die Temperatur und je länger die Einwirkungsdauer ist. Je nach An- oder Abwesenheit von freiem Wasser wird in der Anwendungspraxis zwischen »trockener Wärme« und »feuchter Wärme« unterschieden. Für die Bekämpfung von Krankenhausinfektionen ist nur die »feuchte Wärme« von Bedeutung. Bei der Behandlung mit »feuchter Wärme« unterscheidet man zwischen 2 Verfahren: 1. dem Spülen mit heißem Wasser (Reinigungs-/Desinfektionsgeräte) und 2. dem Behandeln mit Wasserdampf (Dampfdesinfektionsverfahren).
Reinigungs-/Desinfektionsgeräte Reinigungs-/Desinfektionsgeräte sind Geräte, in denen die maschinelle Aufbereitung von Instrumenten, Anäs-
3
20
3
Kapitel 3 · Hygiene in der Medizintechnik
thesiezubehör, Labormaterialien (Gläser o. Ä.) und anderen thermostabilen Gegenständen durchgeführt wird (⊡ Abb. 3.2). In der Normenreihe DIN EN ISO 15883 –Reinigungs-/ Desinfektionsgeräte – werden die Leistungs- und Geräteanforderungen von Reinigungs-/Desinfektionsgeräten festgelegt. Je nach Bauweise unterscheidet man zwischen Reinigungs-/Desinfektionsgeräten mit einer Aufbereitungskammer und Geräten mit mehreren Aufbereitungskammern, den sog. Taktwaschanlagen. Die Reinigungs-/Desinfektionsgeräte gibt es als Frontlade- (be- und entladen im gleichen Raum) oder als Durchladeausführung mit zwei Türen (Trennung in »reine« und »unreine« Seite). Die Taktwaschanlagen (Mehrkammeranlagen) bestehen aus mehreren Waschkammern und Trockenkammern, durch die das Behandlungsgut auf Beschickungswagen durchgeschleust wird. Die Beschickungswagen unterscheiden sich nach den zu behandelnden Produkten. Durch Sensoren an den Beschickungswagen erkennt die Steuerung der Anlage, um welches Behandlungsgut es sich handelt, und wählt automatisch das richtige Aufbereitungsprogramm, sodass Bedienungsfehler durch falsch gewählte Programme, Temperaturen und Zeiten ausgeschlossen sind. Das jeweils ablaufende Desinfektionsverfahren ist üblicherweise chemothermisch oder thermisch. Als Zusatzausführung zur Vorreinigung von stark verschmutzten Teilen kann der Anlage ein Ultraschallbecken vorgeschaltet werden. In jeder Kammer werden unterschiedliche Aufbereitungsschritte durchgeführt. Jeder Kammer sind spezielle Tanks mit den jeweiligen Reinigungsmitteln zugeordnet. Die Reinigungslösung wird in den Tanks aufgefangen und für die nächste Aufbereitungscharge wiederverwendet.
Da nicht die gesamte Reinigungslösung zurückgewonnen wird, muss ein Teil der Lösung ergänzt werden. Die genaue Dosierung der Reinigungsmittel erfolgt über Dosierpumpen, die über Kontaktwasserzähler angesteuert werden. Arbeitstäglich muss der Inhalt der Aufbereitungstanks entleert und erneuert werden. Taktwaschanlagen werden wegen ihrer höheren Durchsatzleistung vorwiegend in Zentralen Sterilgutversorgungsabteilungen eingesetzt. Durchführung der maschinellen Reinigung und Desinfektion
Um ein gutes Reinigungs- und Desinfektionsergebnis zu erzielen, kommt es ganz entscheidend darauf an, wie die Maschine beladen wird. Es ist darauf zu achten, dass alle Gegenstände so weit wie möglich zerlegt und Hohlkörper mit der Öffnung nach unten eingelegt werden. Instrumente mit langen bzw. engen Hohlräumen, z. B. Metallkatheter, Metallsauger, Spezialkanülen usw., müssen auch innen durchströmt werden. Hierfür sind spezielle Beschickungswagen zu verwenden. Bei den verwendeten Reinigungsmitteln oder kombinierten Desinfektions- oder Reinigungsmitteln sind die Angaben des Herstellers (Einwirkzeit, Konzentration und Temperatur) genau zu beachten. Nur die richtige Dosierung gewährleistet ein einwandfreies Desinfektions- und Reinigungsergebnis bei größtmöglicher Materialschonung. Unterdosierung alkalischer Reinigungsmittel birgt die Gefahr für das Auftreten von Lochkorrosion, da diese bei pH-Werten über 10,5 vermieden wird. Bei Verwendung von sauren Reinigern können durch Chloride im Wasser Korrosionen auftreten, die nur durch Verwendung von vollentsalztem Wasser ausgeschlossen werden können. Bei der maschinellen Reinigung müssen in der Nachspülphase sämtliche Rückstände aus dem Reinigungsgang zuverlässig entfernt werden, da sonst Verfleckungen und/ oder Verfärbungen an den chirurgischen Instrumenten auftreten. Der zusätzliche Einsatz eines geeigneten Neutralisationsmittels kann diesen Vorgang unterstützen und das Nachspülergebnis verbessern. Dokumentation
Im Zuge der Qualitätssicherung bei der Aufbereitung von Medizinprodukten ist es notwendig, dass die verfahrensrelevanten Aufbereitungsschritte der einzelnen Chargen mit direkter Zuordnung zu jeweiligen Behandlungsgütern dokumentiert werden. Kontrollen und Wartung
⊡ Abb. 3.2. Ausfahren eines Beschickungswagens aus einem Reinigungs-/Desinfektionsgerät in Durchladeausführung nach der Desinfektion (reine Seite)
Desinfektionsmaßnahmen in Reinigungsgeräten sind nur dann wirksam, wenn die Wartung und Kontrolle dieser Maschinen nicht vernachlässigt wird. In der Betriebsanweisung, die vom Betreiber zu erstellen ist, sind die notwendigen Kontrollen und Wartungen festgelegt. Die
21 3.4 · Methoden der Desinfektion
Wartung sollte mindestens einmal jährlich durch geschultes Fachpersonal erfolgen. Prüfungen
In der Verordnung über das Errichten, Betreiben und Anwenden von Medizinprodukten (MedizinprodukteBetreiberverordnung, MPBetreibV) wird im § 4 Abs. 2 gefordert, dass die Aufbereitung von Medizinprodukten mit geeigneten, validierten Verfahren so durchzuführen ist, dass der Erfolg nachvollziehbar gewährleistet ist und die Sicherheit und Gesundheit von Patienten, Anwendern und Dritten nicht gefährdet wird. In der RKI-Empfehlung »Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten« (Bundesgesundheitsblatt 44 (2001): 1115–1126) wird ebenfalls eine validierte Aufbereitung von Medizinprodukten gefordert. Konkrete Hinweise über die Durchführung der Validierung und den nachfolgenden periodischen Prüfungen sind in der DIN EN ISO 15883-1 – Reinigungs- und Desinfektionsgeräte – Allgemeine Anforderungen, Definitionen und Prüfungen und in der Leitlinie von DGKH, DGSV und AKI für die Routineüberwachung maschineller Reinigungs- und Desinfektionsgeräte für thermolabile Medizinprodukte festgelegt. Die Validierung ist ein dokumentiertes Verfahren zum Erbringen, Aufzeichnen und Interpretieren der erforderlichen Ergebnisse, um zu zeigen, dass ein Verfahren ständig die geforderte Qualität erbringt, die mit den vorgegebenen Spezifikationen übereinstimmt. Für Reinigungs- und Desinfektionsgeräte (RDG) besteht die Validierung aus Installationsqualifikation, Betriebsqualifikation und Leistungsqualifikation, durchgeführt an Geräten, für die ein dokumentierter Nachweis vom Hersteller für die Übereinstimmung mit den Anforderungen der DIN EN ISO 15883 vorliegt. Die Installationsqualifikation wird durchgeführt um sicherzustellen, dass das RDG und Zubehör ordnungsgemäß geliefert und installiert wurden und die Betriebsmittelversorgung den speziellen Anforderungen genügt. Die für die Installationsqualifikation durchzuführenden Prüfungen und Kontrollen müssen festgelegt, durchgeführt und die Ergebnisse dokumentiert werden. Durchzuführende Prüfungen und Kontrollen sind z. B.: ▬ Prüfung des Bestell- und Lieferumfangs (bei vorhandenen Installationen Prüfung des Bestandes) ▬ Beladungswagen/-körbe, Einsätze sowie Düsen/Adapter ▬ Installationsplan, Gebrauchsanweisung(en) ▬ Prüfungen der Anschlüsse und Medienversorgung, Abgleich mit dem Installationsplan – Strom – Wasser kalt/warm/vollentsalzt – Dampf – Abwasser – Abluft/Entlüftung
Die Betriebsqualifikation wird durchgeführt um sicherzustellen, dass das RDG und die Medienversorgung mit den Spezifikationen der Hersteller und den Anforderungen der DIN EN ISO 15883 übereinstimmen. Die für die Betriebsqualifikation durchzuführenden Prüfungen und Kontrollen müssen festgelegt, durchgeführt und die Ergebnisse dokumentiert werden. In der Leistungsprüfung werden die festgelegten Reinigungs- und Desinfektionsprogramme für Referenzbeladungen geprüft und die Ergebnisse dokumentiert. Bei Einhaltung der Festlegungen soll sichergestellt sein, dass jederzeit reproduzierbare Ergebnisse erreicht werden. Jede Referenzbeladung muss Instrumente mit betriebstypischen Kontaminationen sowie kritischen Konstruktionsmerkmalen umfassen. Die Referenzbeladungen sind immer betreiberspezifisch und müssen dokumentiert werden. Voraussetzung für die Leistungsqualifikation ist die Festlegung und Dokumentation der notwendigen Programme mit den entsprechenden Verfahrensabläufen. Die Verfahrensbeschreibung muss die Vorbedingungen zur Reinigung mit einbeziehen. Die Verfahrensbeschreibung ist im Detail, einschließlich genauer Angaben zu den Chemikalien, zu dokumentiren. Bei der Leistungsqualifikation werden folgende Prüfungen durchgeführt: 1. Prüfung der Reinigung
Die Überprüfung der Reinigung wird mit zwei verschiedenen Verfahren durchgeführt. Es werden Prüfinstrumente (Arterienklammern nach Crile) mit definierter Testanschmutzung nach DIN EN ISO 15883 und nach Gebrauch real verschmutzte Instrumente verwendet. Jedes verwendete Programm ist zu überprüfen. Die Prüfinstrumente werden nach der Reinigungsphase vor der Desinfektionsphase aus dem RDG mit Handschuhen entnommen. Die Auswertung des Reinigungsergebnisses erfolgt zunächst visuell und wird dokumentiert. Die Prüfinstrumente müssen optisch sauber sein. Anschließend sind die Prüfinstrumente auf Proteinrückstände mit einer mindestens semi-quantitativen Proteinnachweismethode zu überprüfen. In der Praxis hat sich der Restproteinnachweis mit der Biuret-Methode bewährt. Die Prüfung der realverschmutzten Instrumente erfolgt in gleicher Weise. Beurteilung: Grenzwert: Alle Prüfinstrumente dürfen den Proteingehalt von 100 µg Protein pro ml Eluat nicht erreichen noch überschreiten. Bei Grenzwertüberschreitung erfolgt die sofortige Stilllegung des RDG. Richtwert: maximal 50 µg Protein pro ml Eluat eines Prüfinstrumentes. Keine Maßnahmen erforderlich. 2. Prüfung der Desinfektion
Die Prüfung der Desinfektion erfolgt mit Thermoelementen, die in der Desinfektionskammer an den
3
22
3
Kapitel 3 · Hygiene in der Medizintechnik
kritischen Stellen verteilt werden, und den Temperaturverlauf während der Aufbereitung aufzeichnen. An den Temperaturkurven lässt sich erkennen, ob an allen Stellen der Kammer die für die Abtötung der Mikroorganismen notwendige Temperatur vorhanden war. Aus der Temperaturkurve lässt sich der A0-Wert nach DIN EN ISO 15883 errechnen. Der A0-Wert eines Desinfektionsverfahrens mit feuchter Hitze ist das Maß der Abtötung von Mikroorganismen, angegeben als Zeitäquivalent in Sekunden, einer durch das Verfahren auf das Medizinprodukt übertragenen Temperatur von 80°C. Welcher A0-Wert erreicht werden muss, hängt von Art und Anzahl der Mikroorganismen auf den kontaminierten Medizinprodukten und der anschließenden Verwendung ab. Der A0-Wert von 3000 muss bei Medizinprodukten, die mit hitzeresisten Viren, z. B. Hepatis B Virus, kontaminiert sind oder sein können und bei kritischen Medizinprodukten erreicht werden. Dies entspricht einer Einwirkzeit von 5 min bei einer Temperatur von 90°C oder einer Einwirkzeit von 50 min bei einer Temperatur von 80°C. Der A0-Wert von 600 wird bei unkritischen Medizinprodukten, die nur mit unverletzter Haut in Berührung kommen, angewendet. Dies enspricht einer Einwirkzeit von 1 min bei einer Temperatur von 90°C oder einer Einwirkzeit von 10 min bei einer Temperatur von 80°C.
531, Feuchtarbeit) haben dazu geführt, dass Dekontaminationsanlagen zunehmend auch für andere Güter im Bereich der Medizin eingesetzt werden, wie z. B. Transportwagen, Behälter (z. B. für Arzneimittel, Medizinprodukte, Sterilgüter, Speisen), OP-Schuhe, Transportbehälter für Kleinförderanlagen und ähnliche Güter. Die Dekontaminationsanlagen bestehen aus einer Dekontaminationskammer, die zum Aufnehmen der Behandlungsgüter dient, und einem Aggregateraum, der die zum Betrieb erforderlichen Baueinheiten und Bauelemente enthält. Die Anlagen werden i. d. R. in zweitüriger Ausführung gebaut (⊡ Abb. 3.3). Das Behandlungsgut wird auf der »unreinen Seite« (z. T. spezielle Beschickungswagen) in die Dekontaminationskammer geschoben. In der ersten Phase erfolgt eine kombinierte Reinigung und Desinfektion des Behandlungsguts über ein separates Düsensystem mittels einer Umwälzpumpe. Die Temperatur der Dekontaminationsmittellösung sowie die Dekontaminationszeit sind am Bedienteil einstell- und veränderbar, damit man schnell und einfach den Prozess optimal auf das Behandlungsgut abstellen kann. Die Versorgung der Dekontaminationsmittellösung erfolgt aus dem beheizten Vorratstank. Im Anschluss an die Dekontamination wird das Behandlungsgut mit einer Klarspülmittellösung besprüht, um die Reste der Dekontaminationsmittellösung zu entfernen und eine schnelle und fleckenlose Trocknung zu gewährleisten. Während der Trocknungszeit saugt ein Ventilator die feuchte Warmluft aus dem Innenraum der
Neben den thermoelektrischen Messungen (A0-Konzept) lassen sich auch mit biologischen Indikatoren Aussagen über die Abtötung von Mikroorganismen machen. Biologische Indikatoren sind Keimträger, die mit einem BlutKeim-Gemisch einer definierten Resistenz für das entsprechende Desinfektionsverfahren kontaminiert sind. Das Robert-Koch-Institut schreibt für die Prüfung von thermischen Desinfektionsverfahren in Reinigungs- und Desinfektionsautomaten kontaminierte Schrauben bzw. Schläuche vor. In der Zwischenzeit sind auch gleichwertige biologische Indikatoren erhältlich, die eine für den Anwender einfachere Prüfung erlauben. Die Leistungsqualifikation ist jährlich zu wiederholen. Bei Änderung der Programme, der Prozesschemikalien oder bei Einführung neuer Medizinprodukte, die verändert aufbereitet werden müssen, ist eine erneute Leistungsqualifikation erforderlich.
Dekontaminationsanlagen Dekontaminationsanlagen wurden in der Vergangenheit vor allen Dingen für die Reinigung und Desinfektion (Dekontamination) von Bettgestellen und Zubehör eingesetzt. Anforderungen an die Hygiene, wirtschaftliche Überlegungen und Arbeitsschutzerfordernisse (TRGS
⊡ Abb. 3.3. Dekontaminationsanlage beim Reinigen eines Transportwagens
23 3.4 · Methoden der Desinfektion
Kabine ab bei gleichzeitigem Ansaugen von Frischluft von der reinen Seite. Die Dekontaminationsmittellösung wird über eine Umwälzpumpe in den Vorratstank zurückgepumpt, sodass pro Charge etwa nur 20 l Wasser benötigt werden. Zu den Anforderungen, dem Betrieb und der Prüfung auf Wirksamkeit von Dekontaminationsanlagen sei auch auf die DIN-Normen 58955 Teil 1–7 (»Dekontaminationsanlagen im Bereich der Medizin«) verwiesen.
Dampfdesinfektionsverfahren Dampfdesinfektionsverfahren dienen vorzugsweise zur Desinfektion von Bettausstattungen (Matratzen, Wäsche und Textilien; ⊡ Abb. 3.4), aber auch von Abfällen, die desinfiziert werden müssen. Der gleichzeitige Einsatz der Anlagen auch zur Desinfektion von Abfällen kann wegen der Geruchsbelästigung und Verschmutzungsgefahr des Apparates für problematisch erachtet werden. Bei entsprechender Trennung ist jedoch auch eine gemeinsame Nutzung der Apparate zur Desinfektion von Betten und Abfällen durchaus denkbar. Das Desinfektionsgut wird in Dampfdesinfektionsapparaten der Einwirkung von gesättigtem Wasserdampf ausgesetzt. Um sicherzustellen, dass alle zu desinfizierenden Oberflächen dem Wasserdampf ungehindert ausgesetzt sind, muss die Luft aus der Desinfektionskammer und dem Gut entfernt werden. Je nach Art der Verfahrensweise ist zu unterscheiden zwischen: a) Dampfströmungsverfahren und b) fraktioniertem Vakuumverfahren (VDV-Verfahren).
⊡ Abb. 3.4. Dampfdesinfektionsapparat mit Matratzenbeschickungswagen
Dampfströmungsverfahren (Wirkungsbereich: ABC)
⊡ Abb. 3.5. Schema des fraktionierten Vakuumverfahrens
Beim Dampfströmungsverfahren wird die Luft aus der Kammer und dem Desinfektionsgut mit Hilfe von gesättigtem Wasserdampf verdrängt. Die Desinfektionstemperatur beträgt 100–105°C bei einer Einwirkzeit von mindestens 15 min. Für poröse Güter kann die Einwirkzeit mehr als 1 h betragen. Das Dampfströmungsverfahren ist geeignet für die Desinfektion von Abfällen, die ausreichend Wasser enthalten, z. B. mikrobiologische Kulturen.
vakuumdicht sein. Das fraktionierte Vakuumverfahren wird vornehmlich zur Desinfektion von porösen Gütern wie Matratzen, Wolldecken und Abfällen verwendet.
Fraktioniertes Vakuumverfahren (VDV-Verfahren)
Das Verfahren (⊡ Abb. 3.5) ist gekennzeichnet durch: 1. Entfernung der Luft aus der Kammer und dem Desinfektionsgut durch mehrmaliges Evakuieren im Wechsel mit Einströmen von Sattdampf; 2. Desinfektion mit Sattdampf; 3. Trocknen des Desinfektionsgutes durch Evakuieren. Zur Durchführung dieses Verfahrens ist Dampf erforderlich, der weitgehend frei von Luft bzw. Fremdgasen ist (vgl. DIN EN 285). Die Desinfektionskammer muss
3.4.6 Einwirkzeiten und Wirkungsbereiche
Einwirkzeiten und Wirkungsbereiche zeigt ⊡ Tab. 3.2. In der »Liste der vom Robert-Koch-Institut geprüften und anerkannten Desinfektionsmittel und -verfahren« (RKI-Liste) sind die Wirkungsbereiche durch Buchstaben gekennzeichnet; es bedeuten: ▬ A: zur Abtötung von vegetativen bakteriellen Keimen einschließlich Mykobakterien sowie von Pilzen einschließlich pilzlicher Sporen geeignet; ▬ B: zur Inaktivierung von Viren geeignet; ▬ C: zur Abtötung von Sporen des Erregers des Milzbrandes geeignet.
3
24
Kapitel 3 · Hygiene in der Medizintechnik
⊡ Tab. 3.2. Einwirkzeiten und Wirkungsbereiche
3
Temperatur [°C]
Dauer [min]
Wirkungsbereich
75
20
A, B (außer Virushepatitis)
105
1
A, B
105
5
A, B, C
3.5
Methoden der Sterilisation
> Definition Sterilisieren ist das Abtöten bzw. das irreversible Inaktivieren aller vermehrungsfähigen Mikroorganismen und ihrer Dauerformen.
3.5.1 Verfahren
Für die Desinfektion von Abfällen gelten z. T. höhere Temperaturen und längere Einwirkzeiten. Zugelassene Verfahren sind der RKI-Liste zu entnehmen. Die Anforderungen, der Betrieb und die Prüfung auf Wirksamkeit von Dampfdesinfektionsapparaten ist in den DIN-Normen 58949 Teil 1–7 (»Dampf-Desinfektionsapparate«) festgelegt.
▬ Physikalische Verfahren – Dampfsterilisation – Heißluftsterilisation ▬ Chemisch-physikalische Verfahren – Ethylenoxidgas-Sterilisation – Formaldehydgas-Sterilisation – H2O2-Niedertemperatur-Plasmasterilisation.
Physikalische Verfahren 3.4.7 Vergleich chemischer und physikalischer
Desinfektionsverfahren Nachteile chemischer Desinfektion ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Wirkungslücken, Kontaminationen (Primäre) bakterielle Resistenz Adaptation (Biofilmbildung) Mögliche Keimverbreitung im Krankenhaus (Zentralanlagen) Konzentrations-, Temperatur-, pH-Abhängigkeit Zersetzbarkeit, Wirkungsverlust Seifen-, Eiweißfehler Eingeschränkte Penetrationsfähigkeit in organisches Material Dekontaminationsgefahr Desinfektionsmittelreste im Material (z. B. Gummi) Materialkorrosion Gesundheitsbelastung für Personal und Patient Arbeitsplatz-, Umweltbelastung Hohe Kosten Erhöhung des Müllvolumens
Dampfsterilisation
Die Sterilisation mit Hilfe von gesättigtem und gespanntem Dampf, auch teilweise als feuchte Hitze bezeichnet, ist das sicherste Sterilisationsverfahren und aufgrund der einfachen Handhabung das wichtigste Verfahren zur Sterilisation von Medizinprodukten. Das Prinzip der Dampfsterilisation beruht auf der Übertragung thermischer Energie auf die kontaminierten Flächen durch Kondensation des gespannten Wasserdampfs. Durch Kondensation des Dampfes am Sterilisiergut wird Energie frei, die eine irreversible Schädigung der Mikroorganismen verursacht. Dampfdruck und -temperatur sind voneinander abhängig: z. B. hat ein gespannter gesättigter Dampf mit der Temperatur 121°C einen Druck von 2 bar (1 bar=105 Pa) oder bei einer Temperatur 134°C einen Druck von 3,2 bar. In der Praxis werden die folgenden 2 Standardbedingungen verwendet: ▬ 121°C bei 15 min Einwirkzeit ▬ 134°C bei 3 min Einwirkzeit (nur für entsprechend hitzebeständige Güter) Erregerresistenz gegen feuchte Hitze. Die Resistenz von
Vorteile physikalischer Verfahren ▬ ▬ ▬ ▬ ▬
Geringere Kosten Geringere Umweltbelastung Höhere Sicherheit Automation möglich Reinigung, Desinfektion, Trocknung in einem Arbeitsgang ▬ Keine Toxizität, keine Allergisierung ▬ Prüfung auf Wirksamkeit
Keimen gegen feuchte Hitze wird in 4 Stufen eingeteilt (⊡ Tab. 3.3) Ein vollständiges Einwirken des Dampfes auf das Sterilisiergut ist nur dann möglich, wenn die Luft aus der Kammer und dem Sterilisiergut entfernt wurde. Verfahren zum Entfernen der Luft aus dem Sterilisiergut. a) Vorvakuumverfahren (⊡ Abb. 3.6)
Beim Vorvakuumverfahren wird die Luft mit Hilfe einer Vakuumpumpe aus der Sterilisatorkammer entfernt. Das Verfahren ist durch folgende Betriebsphasen gekennzeichnet:
25 3.5 · Methoden der Sterilisation
– einmaliges Evakuieren der Sterilisatorkammer auf einen Druck von 20–70 mbar; – Dampfeinlassen bis zum Erreichen des Arbeitsdrucks. Das Vorvakuumverfahren eignet sich nicht zur Sterilisation von porösen Gütern (z. B. Wäsche) in Sterilisierbehältern mit Filter bzw. Ventil im Deckel des Sterilisierbehälters. b) Fraktioniertes Vakuumverfahren (⊡ Abb. 3.7)
Das fraktionierte Vakuumverfahren ist durch folgende Betriebsphasen gekennzeichnet: – mehrfach wiederholtes Evakuieren bis zu einem Druck von <130 mbar (1 mbar=100 Pa); – im Wechsel mit Dampfeinströmung auf einen Druck, der unter oder über dem Atmosphärendruck liegt; – Dampfeinlassen bis zum Erreichen des Arbeitsdruckes. Das fraktionierte Vakuumverfahren ist für alle Sterilisiergüter in für die Dampfsterilisation zugelassenen Verpackungen geeignet.
Kontrollen und Prüfung der Wirksamkeit. Die Kontrollen und Prüfungen sind entsprechend den z. Zt. gültigen EN/DIN-Normen durchzuführen, z. B. DIN EN 285 (»Dampfsterilisatoren Febr. 1997«), DIN 58946-6 (»Dampf-Sterilisatoren – Teil 6: Betrieb von Großsterilisatoren im Gesundheitswesen«). In der DIN 58946-6 wird gefordert, dass die durchgeführten Sterilisationsverfahren validiert werden müssen. Die Validierung dient dem Nachweis der Wirksamkeit des Sterilisationsprozesses unter den am Aufstellort vorhandenen Betriebsbedingungen mit den im Routinebetrieb zu sterilisierenden Gütern in der jeweiligen Verpackung bei den verwendeten Belademustern. Die Validierung besteht aus Kommissionierung und Leistungsprüfung. Die DIN EN 554 stellt ebenfalls klar die Forderung nach Validierung im Sinne allumfassender Maßnahmen, um sicherzustellen, dass das Sterilisiergut mit der höchstmöglichen Sicherheit aufbereitet und sterilisiert wird. Die Durchführung einer Validierung nach DIN 58946 bedeutet die Erfassung sämtlicher Sterilisiergüter und der verwendeten Verpackungsarten sowie der Belademuster. Die so entstandenen Kommissionierungen werden dann im Sterilisator einer Leistungsprüfung mit physikalischen
⊡ Tab. 3.3. Die 4 Stufen der Resistenz von Keimen gegen feuchte Hitze Resistenzstufe
Temperatur [°C]
Einwirkzeit
Erfasste Erreger
I
100
Sekunden bis Minuten
Vegetative Bakterien, Pilze einschließlich Pilzsporen, Viren, Protozoen
II
105
5 min
Bakterielle Sporen niederer Resistenz, z. B. Milzbrandsporen
III
121 bzw. 134
15 min bzw. 3 min
Bakterielle Sporen höherer Resistenz
IV
134
Bis zu 6 h
Bakterielle Sporen hoher Resistenz
⊡ Abb. 3.6. Vorvakuumverfahren
⊡ Abb. 3.7. Fraktioniertes Vakuumverfahren
3
26
3
Kapitel 3 · Hygiene in der Medizintechnik
Prüfmethoden unterzogen, um die optimalen Sterilisationsparameter zu ermitteln und einzustellen. Dem Praktiker in der ZSVA wird jedoch schnell klar, dass es im klinischen Alltag keine gleichbleibenden Kommissionierungen gibt. Gemäß den Forderungen der DIN 58946-6 sollte auf die mikrobiologische Wirksamkeitsprüfung verzichtet werden, wenn eine jährliche Revalidierung des Sterilisators durchgeführt wird. Es hat sich gezeigt, dass es nicht möglich ist, allein mit thermoelektrischen Messungen die Leistungsfähigkeit eines Sterilisators zu überprüfen. So ist es z. B. nicht möglich, in Medizinprodukten mit langen engen Lumen die Wirksamkeit des Sterilisationsverfahrens nur mit physikalischen Prüfverfahren nachzuweisen. In den internationalen und nationalen Normungsausschüssen zur Sterilisation von Medizinprodukten wird über geeignete Prüfmodelle für die mikrobiologische Leistungsprüfung beraten. Neben den thermoelektrischen Messungen werden zur Leistungsprüfung auch mikrobiologische Prüfungen notwendig sein. Deshalb sollte auf die Durchführung einer vierteljährlichen mikrobiologischen Prüfung auf Wirksamkeit mit geeigneten Prüfmodellen nicht verzichtet werden. Sie ist ein schneller und kostengünstiger Wirksamkeitsnachweis der Leistungsfähigkeit des Sterilisators. Dokumentation. Im Rahmen der Qualitätssicherung in ZSVA müssen die Sterilisationschargen dokumentiert werden. Dies geschieht zum einen durch das Aufzeichnen der prozessrelevanten Sterilisationsparameter (Druck, Temperatur und Zeit) und zum anderen durch die Prüfung jeder Charge durch einen geeigneten Chemoindikator in einem speziellen Prüfkörper. Durch Verwendung eines Etiketts mit der Chargennummer wird die Zuordnung des Sterilisierguts zur Charge sichergestellt. Nach erfolgter Sterilisation werden die Parameter überprüft, die Charge wird freigegeben und dokumentiert. Heißluftsterilisation
Heißluftsterilisation ist Sterilisation durch trockene Hitze. Da trockene Luft ein schlechter Wärmeleiter ist, benötigt man höhere Temperaturen und längere Einwirkzeiten (z. B. 180°C – 30 min Sterilisierzeit), um eine sichere Sterilisation zu gewährleisten. Die Sterilisierzeiten bei der Heißluftsterilisation zeigt ⊡ Tab. 3.4.
⊡ Tab. 3.4. Sterilisierzeiten bei der Heißluftsterilisation Sterilisiertemperatur [°C]
Sterilisierzeit [min]
160
120
170
60
180
30
Die Abtötung der Keime, Sporen und Viren erfolgt durch Eiweißkoagulation. Die Sterilisationswirkung ist stark abhängig von der Vorbereitung des zu sterilisierenden Gutes. Die Sterilisiergüter müssen sauber und trocken (Verdunstungskälte) sein. Bei der Beschickung des Sterilisators ist Folgendes zu beachten: ▬ alle Gegenstände müssen ungehindert von der Luft umströmt werden ▬ die Richtung des Luftstroms ist zu berücksichtigen ▬ größere Gegenstände können Windschatten geben ▬ Sterilisiergut darf nicht in Blöcken zusammengestellt werden Größere Sterilisatoren sollten mit Zwangsluftumwälzung (Ventilator) ausgestattet sein. Aufgrund der unsicheren Wirkungsweise sollten Heißluftsterilisatoren nur noch sehr begrenzt eingesetzt werden. Die Anwendungsgebiete sind: ▬ Glas (Labor) ▬ Metall ▬ Porzellan Verpackungsmaterialien sind: ▬ Metallkassetten ▬ Glasschalen ▬ Aluminiumfolie Achtung: Tuch- und Papierverpackungen sind nicht geeignet!
Chemisch-physikalische Verfahren Ethylenoxid-Sterilisation
Die Sterilisation mit Ethylenoxid ist nur dann anzuwenden, wenn das Sterilisiergut kein anderes Verfahren zulässt [23]. Nach der Gefahrstoffverordnung und der TRGS 513 darf Ethylenoxid (EO) seit dem 01.01.1995 nur noch in validierten vollautomatischen Sterilisatoren verwendet werden, bei denen sich an das Sterilisationsprogramm zwangsverriegelt ein automatisches Ausgasungsprogramm anschließt. Stoffeigenschaften. Ethylenoxid (EO) ist ein farbloses, süßlich riechendes, hochentzündliches Gas, das mit Luft explosive Gemische bilden kann. Es ist giftig, kann Krebs erzeugen und vererbbare Schäden verursachen. Eine maximale Arbeitsplatzkonzentration (MAK-Wert) im Sinne einer unbedenklichen Konzentration kann daher nicht angegeben werden. Die Technische Richtkonzentration (TRK-Wert) für die Atemluft am Arbeitsplatz beträgt 1 ppm-Vol. EO reizt die Augen, die Atmungsorgane und die Haut. Es ist als wassergefährdend (Wassergefährdungsklasse WGK 2) eingestuft.
27 3.5 · Methoden der Sterilisation
Wirkungsweise. Die gute Penetrationsfähigkeit in die Zellen ermöglicht es, dass verschiedene kritische biochemische Komponenten des Stoffwechsels von Mikroorganismen wie z. B. DNA, Proteine, Vitamine und Enzyme gegenüber EO exponiert werden. Die Alkylierungsreaktion von Proteinen mit EO bewirkt die Abtötung der Mikroorganismen. Die Wirksamkeit des EO wird durch verschiedene Parameter beeinflusst. Die relative Feuchtigkeit des Gasgemisches beträgt optimalerweise 33% bei einer Temperatur von 55±3°C. Da die zu sterilisierenden Materialien und ihre Verpackung je nach Beschickung der Sterilisationskammer in unterschiedlichem Ausmaß Wasser absorbieren, wird in der Praxis zu Beginn des Sterilisationsprozesses eine relative Feuchtigkeit von 100% angestrebt. Wasserverluste durch Vakuum und Absorption führen dann zu einer Reduktion der relativen Feuchtigkeit. Mit dieser initial hohen Befeuchtung soll vermieden werden, dass in der Praxis der für die zuverlässige EO-Sterilisation notwendige Grenzwert von 33% relativer Feuchtigkeit unterschritten wird. Adsorption und Desorption. Ethylenoxid wird an Feststoffoberflächen abhängig vom Material gebunden (adsorbiert). Das bedeutet im Hinblick auf die EO-Sterilisation, dass den Materialien nach der EO-Einwirkung Rückstände anhaften. Nach der Sterilisation ist deshalb eine längere Ausgasungs- bzw. Desorptionszeit für die behandelten Güter nötig. Diese dürfen vor Anwendung am Patienten maximal eine Restkonzentration von 1 ppm EO enthalten [11]. Wie schon oben erwähnt, muss gemäß TRGS 513 die Desorption nach Beendigung der Sterilisation in der zwangsverriegelten Sterilisationskammer erfolgen. Ein Umladen der Sterilgüter direkt nach der Sterilisation in sog. Auslüftschränke ist nicht erlaubt. Abluft von EO-Sterilisationsanlagen. In der Abluft der Anlage darf ein Massenstrom von 2,5 ppm EO (laut TALuft) nicht überschritten werden. Als Verfahren zur Minderung der EO-Konzentration werden eingesetzt: ▬ Verbrennung: Diese muss mit einer Stützgasfeuerung unterhalten werden. Der Brenngasverbrauch liegt etwa bei 0,5 m3/h. Das EO wird dabei vollständig in Kohlendioxid und Wasser umgesetzt. ▬ Katalytische Reaktion: Die nötige Temperatur des Katalysators wird durch Energiezufuhr in Form von Dampf oder elektrischer Energie erreicht. Ein vollständiger Abbau des EO ist kaum zu realisieren. ▬ Gasnasswaschverfahren (nur für reines EO): Die Firma VIG bietet ein Verfahren an, bei dem das EO mit einem Waschmittel gebunden wird. Dabei wird EO mit Hilfe verdünnter Schwefelsäure in Wasser zu Ethylenglykol umgesetzt. Das EO wird komplett entsorgt, eine Abluftversorgung ist nicht notwendig.
Sterilisationsverfahren.
▬ Unterdruckverfahren Bei diesem Verfahren wird mit 100% EO im Unterdruckbereich gearbeitet. Nach dem Evakuieren unter einen Absolutdruck von 55 hPa und Befeuchten der Sterilisationskammer strömt das EO in die Kammer, und das Sterilisiergut wird bei einer Betriebstemperatur von 50–60°C zwischen 1 und 6 h behandelt. Die Einwirkzeit ist wesentlich durch die Verfahrensparameter EO-Konzentration, Druck, Feuchtigkeit und Temperatur bestimmt. Der Druckbereich wird dabei unter der unteren Explosionsgrenze von EO gehalten. Danach erfolgt das mehrfache Spülen und Belüften der Sterilisationskammer. ▬ Überdruckverfahren Nach einem Vorvakuum und der Befeuchtung wird die Sterilisation im Überdruck unter Verwendung eines Gasgemischs aus 6% EO und 94% CO2 durchgeführt. Die Einwirkzeit ist wie beim Unterdruckverfahren wesentlich durch die Verfahrensparameter EO-Konzentration, Druck, Feuchtigkeit und Temperatur bestimmt. Das Inertgas (meistens Kohlendioxid) dient der Explosionsvermeidung. Nach der Sterilisationsphase erfolgen alternierend mehrere Vakuum- und Belüftungsphasen, um die Desorption des EO vom Sterilgut zu erreichen. Die Desorptionszeit beträgt i. d. R. 8–10 h. Anforderungen an die Sterilisatoren. Die Anforderungen an die zuverlässige Sterilisation sind in DIN 58948, der DIN EN 550 und der DIN EN 1422 ausführlich beschrieben. Nach dem Minimierungsgebot für Gefahrstoffe sollte darauf geachtet werden, dass die Sterilisatoren mit Gasgemischen von 6% EO und 94% CO2 arbeiten und somit die Gefahren für Personal, Patienten und Umwelt gesenkt werden. Anforderungen an das Bedienungspersonal. Gemäß TRGS 513 muss das Bedienpersonal durch einen anerkannten Lehrgang den Nachweis der Sachkunde erbringen. ! Nur Befähigungsscheininhaber dürfen einen EO-Sterilisator bedienen! Formaldehydgas-Sterilisation Stoffeigenschaften. Formaldehyd ist ein farbloses, ste-
chend riechendes Gas mit breitem biozidem Wirkungsspektrum. Es ist giftig, allergen, im Verdacht, krebserregend zu sein, brennbar und kann mit Luft explosive Gemische bilden. Das Gefährdungspotential ist bei den eben genannten Punkten, bis auf die Allergenität, geringer als beim Ethylenoxid, allerdings auch die Wirksamkeit. Die maximale Arbeitsplatzkonzentration (MAK-Wert)
3
28
3
Kapitel 3 · Hygiene in der Medizintechnik
liegt bei 0,5 ppm. Im Handel ist Formaldehyd als 30–50 gewichtsprozentige Lösung (Formalin) erhältlich. Adsorption und Desorption. Formaldehyd wird von Feststoffoberflächen adsorbiert. Das bedeutet im Hinblick auf die FO-Sterilisation, dass nach der FO-Einwirkung Rückstände auf den Materialien verbleiben. Nach der Sterilisationsphase werden die am Sterilgut adsorbierten FO-Rückstände durch Luft- und Wasserdampfspülungen entfernt (Desorption). Das Ausmaß der Adsorption bzw. der Desorption ist u. a. abhängig von der Art der Feststoffmaterialien. Untersuchungen über das Desorptionsverhalten zeigten, dass sich die Rückstände auf den sterilisierten Produkten oft relativ gut entfernen lassen, die Rückstände in der Sterilisierverpackung jedoch im Vergleich dazu um ein Vielfaches höher liegen. In schlecht belüfteten Räumen gelagertes FO-sterilisiertes Gut kann dazu führen, dass der MAK-Wert für Formaldehyd in der Raumluft erreicht wird. Dementsprechend sind die Lagerorte zu wählen, bei denen eine ausreichende Verdünnung bzw. Durchlüftung sichergestellt ist. Verfahrensablauf.
1. Entlüften und Befeuchten Oft mit fraktioniertem Vakuumverfahren. Das FO-Sterilisationsverfahren hat nicht das gleiche Durchdringungsvermögen wie das EO-Sterilisationsverfahren. Um eine ausreichende Tiefenwirkung des Verfahrens zu erzielen, kann das FO-Sterilisationsverfahren nur im fraktionierten Unterdruckverfahren stattfinden. 2. Sterilisation Bei konstantem, niedrigem Unterdruck und hoher Luftfeuchtigkeit (mindestens 60%), d. h. Formaldehyd und Wasserdampf werden in Kombination bei einer Temperatur von 60–75°C zur Sterilisation verwendet. 3. Desorption Spülen und Belüften durch Dampf-Luft-Wäsche, d. h. die Kammer bzw. das Sterilisiergut wird in 15–20 Druckwechseln mit Luft oder Wasserdampf gespült. Anforderungen an die Sterilisatoren. Die Sterilisatoren
müssen den Anforderungen der DIN 58948 entsprechen. Anforderungen an das Bedienungspersonal. Gemäß
TRGS 513 muss das Bedienpersonal durch einen anerkannten Lehrgang den Nachweis der Sachkunde erbringen. ! Nur Befähigungsscheininhaber dürfen einen FO-Sterilisator bedienen! H2O2-Niedertemperatur-Plasmasterilisation (NTP) Anwendungsbereich. Das Betreiben von herkömmlichen
Gassterilisatoren (Ethylenoxid/Formaldehyd) ist aufgrund der hinlänglich bekannten Rückstandsproblematik mit
erheblichen Einschränkungen (Gefahrstoffverordnung, TRGS 525) verbunden. Bei der H2O2-NTP-Sterilisation auf der Wirkstoffbasis von H2O2, d. h. Wasserstoffperoxidplasma, dessen Kammertemperatur 45°C beträgt, sind gesundheitsschädliche Wirkstoffrückstände nicht zu erwarten. Wirkungsprinzip. Der verwendete Wirkstoff ist Wasser-
stoffperoxid (H2O2). Im Vakuum wird es verdampft, diffundiert durch die Sterilisierverpackung hindurch und wird dann durch Hochfrequenz zur Bildung von Wasserstoffperoxidplasma angeregt. Im Plasma entstehen Hydroxyl- und Hydroperoxyradikale, die die Inaktivierung der Mikroorganismen bewirken. Nach dem Abschalten des Hochfrequenzfeldes verlieren die Radikale ihre hohe Energie und rekombinieren sich zu Wasser und Sauerstoff [19, 27]. Verfahrensablauf.
1. Phase: Vakuumphase Die Sterilisationskammer wird auf einen Restdruck von ca. 1 mbar (1 mbar=100 Pa) evakuiert. Dann wird der Hochfrequenzgenerator eingeschaltet und ein Luftplasma erzeugt. Anschließend wird die Kammer belüftet und wieder evakuiert, um die Injektion vorzubereiten. Das Luftplasma ermöglicht eine Trocknung eventueller Restfeuchtigkeit zur besseren Vorbereitung der Beladung. 2. Phase: Injektionsphase Bei Zimmertemperatur werden 1,8 ml H2O2 in die Kammer injiziert und bei einem Druck von ca. 11 mbar verdampft. Eine kurze Belüftung findet im Anschluss statt. Dadurch wird ein schnelles Eindringen des Wirkstoffs in die Lumen gewährleistet. 3. Phase: Diffusionsphase Das H2O2 diffundiert in das Sterilisationsgut. Vor der Plasmaphase wird nochmals ein Vakuum erzeugt. 4. Phase: Plasmaphase Der Kammerdruck wird auf 0,7 mbar abgesenkt und die Plasmaphase mittels Hochfrequenz im MHz-Bereich gestartet. Hierbei wird der Wasserstoffperoxiddampf ionisiert, d. h. in Gasplasma überführt. Dieses besteht u. a. aus hochreaktiven Hydroxy- und Hydroxylradikalen, die sich mit funktionellen Bausteinen von Mikroorganismen verbinden und sie auf diese Weise irreversibel schädigen. Wiederholung: Die Phasen 2–4 werden 2-mal durchgeführt, sog. 1. und 2. Zyklushälfte. 5. Phase: Belüftungsphase/Druckausgleichsphase Nach Abschluss der 10-minütigen Plasmaphase werden die in der Kammer und im Sterilgut befindlichen Gasrückstände durch fraktionierte Luftspülungen und Aktivkohlefilterung schadlos entfernt. Das Vakuum wird ausgeglichen. Beim Erreichen des atmosphärischen Drucks ist der Zyklus beendet, und die Tür kann geöffnet werden.
29 3.6 · Nichtinvasive Technik
Verfahrensdauer. Die Verfahrensdauer beträgt bei voller
Beladung 75 min. Geringere Beladungen bedingen z. T. kürzere Verfahrenszeiten. Hinweise für die Anwendung. Aufgrund seiner Wirkungsweise ist das Verfahren zur Sterilisation von thermolabilen Gütern jedoch mit gewissen Einschränkungen anwendbar [3]. Der Anwender dieses Verfahrens sollte eine Liste sämtlicher zu sterilisierender thermolabiler Güter erstellen und dann entscheiden, für welche Güter dieses Verfahren anwendbar ist. Vom Hersteller wird eine sog. Positivliste der zur Sterilisation zugelassenen Artikel herausgegeben. Aufgrund von umfangreichen Untersuchungen gilt derzeit, dass offene Kunststoffschläuche >3 mm Innenlumen und bis zu einer Länge von 200 mm Länge sterilisiert werden können. Schläuche mit einem Innenlumen <3 mm müssen vor der Sterilisation mit einem Diffusionsverstärker versehen werden. Katheter, die an einer Seite geschlossen sind, lassen sich nicht sicher sterilisieren. Auf die Nachteile dieses Verfahrens soll ganz speziell eingegangen werden: Wasserstoffperoxiddampf wird von zellulosehaltigen Materialien stark adsorbiert. Daher kann die Plasmasterilisation nicht für zellulosehaltiges Sterilisationsgut oder derart verpackte Instrumente eingesetzt werden. Alle Verpackungsmaterialien müssen zellulosefrei sein und sind z. Zt. nur von der Betreiberfirma erhältlich. Zudem sind z. B. Verpackungsbeutel im Durchschnitt 3-mal teurer als vergleichbare Produkte für die Dampfsterilisation. Behälter für Instrumente, wie sie für die Dampfsterilisation zur Verfügung stehen, sind erst in Entwicklung. Die Instrumente müssen vor Beschickung des Plasmasterilisators vollständig trocken sein. Bei organischer Verschmutzung der Oberfläche ist die Wirkung der Plasmasterilisation erheblich eingeschränkt, wie dies allerdings bei allen Oberflächensterilisationsverfahren der Fall ist. Kontrollen und Prüfung auf Wirksamkeit. Für die Prüfung auf Wirksamkeit gibt es z. Zt. kein genormtes Prüfverfahren. Die Prüfung erfolgt mit einem speziellen biologischen Testpaket nach Angaben des Herstellers.
3.6
Nichtinvasive Technik
Unter diese Rubrik fallen alle Geräte und technischen Maßnahmen, die zur Diagnostik oder Therapie eingesetzt, aber nicht in den Patienten eingebracht werden. Dabei kann es sich um EKG-Elektroden, Ultraschallköpfe oder Monitore am Patientenbett oder in Funktionsabteilungen ebenso handeln wie um Kleinförderanlagen, Lüftungstechnik oder Aufbereitungsmaschinen.
3.6.1 Am Patienten eingesetzte Geräte
Diese sind in die regelmäßige Reinigung einzubeziehen. Kommen die Gerätschaften nicht mit dem Patienten in Berührung, dann reicht meistens eine Reinigung – oft nur der zugänglichen Oberfläche – aus. Hierfür sind umweltfreundliche Reiniger zu bevorzugen, auf die Materialverträglichkeit ist ebenso zu achten (s. oben) wie auf bereichsspezifische Vorschriften (z. B. Explosionsschutz). Befinden sich solche Geräte in Bereichen mit erhöhten Anforderungen an die Keimfreiheit (z. B. Operationssäle) oder in Isolierzimmern (infektiöse Patienten, Patienten mit multiresistenter Keimbesiedlung, immunsupprimierte Patienten), ist eine desinfizierende Reinigung zu fordern. Das eingesetzte Desinfektionsmittel muss dem Anwendungsbereich (Flächen- oder Instrumentendesinfektionsmittel) und in seiner Wirkbreite den Anforderungen entsprechen. Beim Einsatz in Bereichen mit erhöhten Anforderungen an die Keimfreiheit sollten alle möglichen Infektionserreger erfasst werden, bei einem Einsatz in Isolierbereichen sind Mittel zu bevorzugen, die gegen den bekannten Infektionserreger in kürzester Zeit und möglichst lang anhaltend wirken. Geräte oder Geräteteile, die mit dem Patienten in Berührung kommen, sind vor der Anwendung sorgfältig den Vorgaben entsprechend zu reinigen und immer dann zu desinfizieren, wenn entsprechende Vorschriften bestehen (z. B. nach Einsatz bei Patienten mit multiresistenten Keimen) oder wenn trotz sachgemäßer Reinigung ein Infektionsrisiko bestehen bleibt, z. B. bei stark abwehrgeschwächten Patienten, für die auch harmlose Umweltkeime zu einer Bedrohung werden können.
3.6.2 Nicht am Patienten eingesetzte Geräte
Für diese Geräte gelten zunächst die gleichen Anforderungen wie für einen Betrieb außerhalb eines Krankenhauses. Sie sind ihrer Zweckbestimmung gemäß zu pflegen und regelmäßig zu reinigen. Hiervon abweichende Anforderungen können bei einem Einsatz in »Bereichen mit erhöhten Anforderungen an die Keimfreiheit« auch bei solchen Geräten erforderlich sein und sind ggf. durch hauseigene Vorgaben zu regeln. Kommt es durch den Betrieb zu einer Kontamination des Gerätes/der Anlage mit Patientenmaterial, dann ist eine desinfizierende Reinigung zu empfehlen, bei Material eines infektiösen Patienten ist sie erforderlich. Für bestimmte Geräte (z. B. Klimaanlagen, Reinraumbänke) können spezielle Vorgaben zu beachten sein (s. unten).
3.6.3 Reparatur und Wartung
Gerätschaften, die zu Zwecken der Reparatur und Wartung an entsprechende Abteilungen abgegeben werden,
3
30
3
Kapitel 3 · Hygiene in der Medizintechnik
sollten vorher zumindest grob gereinigt worden sein. Geräteteile, die mit Patienten/Patientenmaterial Kontakt hatten, sind vor der Bearbeitung nur dann zu desinfizieren, wenn sie sichtbar verschmutzt sind oder wenn von einer Kontamination mit Keimen auszugehen ist, deren Verbreitung im Krankenhaus verhindert werden soll (multiresistente Keime) bzw. die beim Wartungspersonal zu Infektionen führen können oder die per Gesetz besonderen Vorschriften unterliegen (Infektionsschutzgesetz). Hierzu zählen auch Keime wie die Erreger von Hepatitis, Tuberkulose u. Ä. Ob diese Vorbehandlung der Anwender, eine andere Stelle (Aufbereitungseinheit) oder die wartende Abteilung selbst durchführt, dürfte von der Organisationsstruktur und auch der Größe der Klinik abhängen. Es empfiehlt sich daher, die Vorgehensweise und die jeweilige Verantwortung schriftlich festzulegen und in Form von »Hygieneplänen« zu regeln, wer wann was und v.a. genau wie und in welcher Reihenfolge durchzuführen hat. Dies sollte auf jeden Fall gemeinsam mit der für die Hygiene verantwortlichen Person (Hygienebeauftragter/Hygienefachkraft) evtl. auch mit der für die Arbeitssicherheit zuständigen Fachkraft abgesprochen werden.
3.7
können bestimmte Desinfektions- oder Sterilisationsmaßnahmen erforderlich sein oder gar eine Isolierung des Patienten. Der Übertragungsweg spielt dabei eine entscheidende Rolle (⊡ Tab. 3.5). Das seit 1.1.2001 geltende Infektionsschutzgesetz, welches das alte Bundesseuchengesetz abgelöst hat, berücksichtigt diese Erkenntnisse, trägt aber auch den Auswirkungen der Technik in einer veränderten Medizin dadurch Rechnung, dass es in § 23 die fortlaufende Erfassung krankenhauserworbener Infektionen vorschreibt, und zwar auch jener, die durch technische Anteile besonders beeinflusst werden (»device-related«): ▬ postoperative Wundinfektionen, ▬ beatmungsassoziierte Pneumonien, ▬ katheterassoziierte Septikämien, ▬ katheterassoziierte Harnwegsinfektionen. Da dies zudem die 4 häufigsten krankenhauserworbenen Infektionen sind und die vom Gesetz geforderte Maßnahme einen wichtigen Beitrag zu einem sinnvollen Qualitätsmanagement darstellt, sollen sich die Beispiele auch auf diese Infektionen beschränken und aufzeigen, welchen wesentlichen Beitrag die Technik hier leisten kann.
Invasive Technik 3.8.1 Postoperative Wundinfektionen
Unter diese Rubrik fallen alle Geräte, Geräteteile und technischen Maßnahmen, die zur Diagnostik oder Therapie eingesetzt werden und dabei in den Patienten eingebracht werden. Dabei kann es sich um Instrumente oder Geräte handeln, die entweder im Patienten eingesetzt werden, ohne seine Haut oder Schleimhaut zu durchbrechen (z. B. Bronchoskop, Ösophagusatriographie, Absaugkatheter), wobei es aber zu gewollten (Biopsie) oder ungewollten Verletzungen der Schleimhaut kommen kann, oder aber um solche, die für einen Einsatz mit oder nach Durchbrechen der Haut-/Schleimhautbarriere konstruiert sind (z. B. Biopsiezangen, Arthroskop, Gefäßkatheter). Für die erste Gruppe sind meistens desinfizierende Maßnahmen ausreichend, für die zweite Sterilisationsverfahren Pflicht (s. oben). Auch hier gilt die allgemeine Regel: Primär thermische (Wasch)verfahren einsetzen und nur bei Materialunverträglichkeit chemothermische oder gar rein chemische Verfahren in Betracht ziehen.
3.8
Praktische Beispiele
Gezielte Maßnahmen zur Vermeidung einer Keim- oder Infektionsübertragung müssen abgestimmt sein auf den Erreger, den Personenkreis und das Gefährdungsrisiko. Dabei kann eine Impfung allein ausreichend sein, es
Die Erreger postoperativer Wundinfektionen stammen entweder vom Patienten selbst (Haut- oder Schleimhautkeime), oder sie werden von außen während des Eingriffs durch mangelnde Hygiene in den Patienten gebracht. Vor vielen Eingriffen wird immer noch eine Haarentfernung mittels Rasur (medikotechnische Maßnahme) durchgeführt. Geschieht dies bereits am Abend vor der Maßnahme, dann haben die Hautbakterien über Nacht Zeit, über die unweigerlich beim Rasieren erfolgten kleinen Hautverletzungen in die Tiefe der Haut zu wandern und dort eine Entzündung auszulösen. Die Folge ist ein deutlich höheres Risiko, nach dem Eingriff eine Wundinfektion zu bekommen. Deshalb gilt die Empfehlung, entweder überhaupt nicht zu rasieren und die Haare mit einer Haarschneidemaschine nur kurz zu schneiden, oder die Rasur unmittelbar vor dem Eingriff und damit unmittelbar vor der Hautdesinfektion durchzuführen. Weitere zur Vermeidung von postoperativen Wundinfektionen wichtige und in ihrer Wirksamkeit bewiesene Maßnahmen bezogen auf technische Hilfsmittel sind: sterile Instrumente, sterile Implantate, sicher sterilisierte Geräteteile, die zum Eingriff benötigt werden (Sauger, Counter mit Anschlusskabel etc.), richtig funktionierende klimatechnische Anlagen, ausreichendes Vakuum bei wiederaufbereiteten Mehrwegdrainagen etc. Literatur: [10, 17].
31 3.8 · Praktische Beispiele
⊡ Tab. 3.5. Übertragungsarten und ihre Merkmale sowie Schutzmaßnahmen (mod. nach [10]) Übertragungsart
Merkmale
Beispiele
Schutzmaßnahmen
Luftgetragene Übertragung
Mikroorganismen an Partikel in der Luft mit einer Größe <5 lm gebunden, deshalb Bewegung über längere Zeit möglich
1. begründeter Verdacht oder bestätigte Tuberkulose 2. Masern 3. Varizellen/Herpes zoster disseminatus 4. HIV-Patienten mit Husten, Fieber und unklaren pulmonalen Infiltraten, solange eine Tbc nicht ausgeschlossen werden kann
1. Isolierung im Einzelzimmer (Tür und Fenster geschlossen), u. U. Kohortisolierung möglich 2. Atemschutz bei Betreten des Raums, wenn offene LungenTbc bekannt ist oder dringender klinischer Verdacht besteht 3. Nichtimmune Personen sollten bei bestimmten Erkrankungen (Masern, Varizellen) das Zimmer nicht betreten; wenn unumgänglich, nur mit Atemschutz
Tröpfchenübertragung
Mikroorganismen an Partikel >5 lm gebunden (diese Tropfen entstehen beim Sprechen, Husten, Niesen)
1. Bakterielle Erkrankungen: H. influenzae (Typ-B)- Infektionen, Meningokokkeninfektionen, multiresistente Pneumokokkeninfektionen, Diphtherie, Pertussis, Mycoplasma-pneumonia-Infektionen 2. Virale Erkrankungen: Influenza, Mumps, Röteln, Parvovirusinfektionen
1. Einzelzimmer, ggf. Kohortisolierung, wenn nicht möglich, sollte der Abstand des infektiösen Patienten zu anderen Patienten bzw. Besuchern wenigstens 1 m betragen 2. Mund-Nasen-Schutz erforderlich, wenn nah am Patienten gearbeitet wird (<1 m Abstand)
Kontaktübertragung
Direkter Kontakt (Berührung) oder indirekter Kontakt (sekundär z. B. über kontaminierte Oberflächen) zu epidemiologisch wichtigen Erregern bei infizierten oder kolonisierten Patienten
1. Infektiöse Durchfallerkrankungen 2. C.-difficile-Enteritis 3. Respiratorische Infektionen bei Kindern (Bronchiolitis, Krupp) 4. Multiresistente Erreger wie z. B. MRSA, VRE (außer multiresistente Tbc) 5. Abszess oder sezernierende Wunde, die nicht bedeckt werden kann
1. Nach Möglichkeit Einzelzimmer, ggf. Kohortisolierung 2. Handschuhe, Kittel je nach Erreger und Infektionslokalisation (Hygieneplan beachten!) 3. Bei Verlassen des Raums Händedesinfektion
3.8.2 Beatmungsassoziierte Pneumonien
Die Lungenentzündung ist die zweithäufigste Krankenhausinfektion insgesamt und die wichtigste bei Intensivpatienten. Für 30–50% der Todesfälle wird sie als Haupt- oder Mitursache angesehen. Im Hinblick auf die künftigen DRGs ist zudem bedeutsam, dass die nosokomiale Pneumonie die Krankenhausverweildauer um durchschnittlich 11,5 Tage verlängert! Hauptrisikofaktor für die Entstehung einer nosokomialen Pneumonie ist die maschinelle Beatmung. Gemäß den Evidenzkriterien der Centers for Disease Control and Prevention (CDC), an deren Guidelines das Robert-Koch-Institut seine neuen Richtlinien orientiert hat, sind folgende, technisch relevante Punkte für eine gezielte Prävention wichtig [10]: 1. Orale Intubation ist besser als nasale (Ausbildung einer Sinusitis maxillaris), bei Langzeitbeatmung Tracheotomie. 2. Sterile oder desinfizierte Trachealtuben verwenden.
3. Gründliche Reinigung aller Geräte und Hilfsmittel vor der Desinfektion bzw. Sterilisation. 4. Keine routinemäßige Sterilisation oder Desinfektion des Kreissystems der Beatmungs- und Narkosegeräte. 5. Beatmungsschlauchsysteme nicht häufiger als alle 48 h wechseln, einschließlich Schläuchen und Exspirationsventil sowie Verneblungs- und Dampfbefeuchtern, solange das Gerät nur bei einem Patienten angewendet wird (nach neueren Studien sogar Wechselintervall von 7 Tagen möglich). 6. Keine Verwendung von Raumluftbefeuchtern, die Aerosole bilden (= Vernebler), wenn nicht mindestens tägliche Sterilisation/Desinfektion und steriles Wasser verwendet wird 7. Anwendung von sterilem (kein destilliertes, unsteriles) Wasser für die Spülung der aufbereiteten Geräte und Hilfsmittel, die am Atemtrakt angewendet werden, nachdem sie chemisch desinfiziert wurden. 8. Keine Wiederaufbereitung von Geräten und Hilfsmitteln, die zum einmaligen Gebrauch hergestellt
3
32
3
Kapitel 3 · Hygiene in der Medizintechnik
wurden, es sei denn, Daten zeigen, dass die Wiederaufbereitung zu keiner Gefährdung der Patienten führt, kosteneffektiv ist und die Funktionsfähigkeit der Geräte und Hilfsmittel nicht verändert wird. 9. Sterilisation oder Desinfektion der Beatmungsschläuche und der Befeuchter zwischen der Anwendung bei verschiedenen Patienten. 10. Keine Anwendung von Bakterienfiltern zwischen dem Befeuchterreservoir und dem Inspirationsschlauch. 11. Kein routinemäßiger Beatmungsschlauchwechsel, wenn das System an eine künstliche Nase oder HMEF gekoppelt ist, solange es bei einem Patienten benutzt wird. 12. Schlauchwechsel zwischen den Patienten einschließlich Nasenklemmen oder Masken, die benutzt werden, um Sauerstoff aus einem Wandauslass zu liefern. 13. Sterilisation von Raumluftverneblern, die in der Inhalationstherapie angewendet werden, z. B. für Tracheostomapatienten, oder Desinfektion zwischen den Patienten und alle 24 h bei Anwendung am selben Patienten. 14. Sterilisation oder Desinfektion von tragbaren Spirometern, Sauerstoffsonden und anderen Atemhilfsmitteln, die bei verschiedenen Patienten angewendet werden, zwischen den Einsätzen. 15. Narkoseausrüstung: Reinigung und anschließende Sterilisation oder thermische bzw. chemische Desinfektion der wiederaufbereitbaren Teile des Atemkreislaufs (wie Endotrachealtubus oder Maske, Inspirationsund Exspirationsschlauch, Y-Stück, Beatmungsbeutel, Befeuchter und Schläuche) zwischen der Anwendung bei verschiedenen Patienten und Beachtung der entsprechenden Herstellerhinweise. 16. Lungenfunktionsdiagnostik: Sterilisation oder Desinfektion wiederverwendbarer Mundstücke und Schläuche zwischen verschiedenen Patienten oder unter Beachtung der Herstellerhinweise.
2. Zumischung aller parenteral zu verabreichenden Flüssigkeiten in der Apotheke unter Laminar-Flow-Bedingungen und aseptischer Arbeitstechnik. 3. Wenn möglich, sollte bei der Auswahl der TransducerGeräte (Druckaufnehmer) Einmalartikeln (gegenüber den mehrfach zu verwendenden Geräten) der Vorzug gegeben werden. 4. Wechsel von einmal- oder wiederverwendbaren Transducern im 96 h-Intervall inkl. der anderen Komponenten. 5. Alle Komponenten des Blutdrucküberwachungssystems müssen steril sein (einschließlich der Eichgeräte und der Spülflüssigkeit). 6. Sterilisation und Desinfektion wiederverwendbarer Transducer nach Angaben des Herstellers.
Literatur: [4, 10, 14, 16, 26].
3.8.4 Katheterassoziierte Harnwegsinfektion
3.8.3 Katheterassoziierte Septikämie
Die meisten krankenhauserworbenen Sepsisfälle sind die Folge eines Einsatzes eines Gefäßkatheters. Die wichtigsten Punkte für die Vermeidung von Folgeinfektionen sind Überprüfung der Indikation für einen Zugang, Wahl des richtigen Katheters und des richtigen Zugangsorts, aseptisches Legen des Katheters und aseptische Verbandswechsel. Der technische Anteil ist hierbei vergleichsweise gering und umfasst folgende Punkte (Auswahl aus [10]): 1. Wechsel der i.v.-Schläuche einschließlich der 3-WegeHähne nur alle 72 h (bei Verabreichung von Blut/ Blutprodukten, Lipidlösungen alle 24 h), außer bei Infektionszeichen.
Es war in den vergangenen Jahren zunehmend üblich, bestimmte teure intravasale Katheter klinikintern wiederaufzubereiten oder von externen Anbietern wiederaufbereiten zu lassen (s. unten). Diese Praxis wird aktuell aus unterschiedlichsten Gründen (Medizinproduktegesetz, Kosten, BSE) kontrovers diskutiert. In diesem Zusammenhang sei insbesondere auf folgende neue Empfehlungen der Kommission für Krankenhaushygiene und Infektionsprävention am RKI verwiesen: »Prävention Gefäßkatheter-assoziierter Infektionen« und »Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten« mit den Erläuterungen des RKI und »Abschlussbericht der Task Force vCJK: Die Variante der Creutzfeldt-Jakob-Krankheit (vCJK) Epidemiologie, Erkennung, Diagnostik und Prävention unter besonderer Berücksichtigung der Risikominimierung einer iatrogenen Übertragung durch Medizinprodukte, insbesondere chirurgische Instrumente« (ggf. aktualisiert nachzulesen unter www.rki.de) [22]. Darüber hinaus wird auf spezielle Literatur verwiesen [2, 12]. Literatur: [9, 10, 15].
Harnwegsinfektionen machen über 40% aller im Krankenhaus erworbenen Infektionen aus und sind als Ausgangspunkt einer Urosepsis für bis zu 15% der Sepsisfälle verantwortlich. Bis zu 80% dieser Harnwegsinfektionen werden bei Patienten mit Harnwegskathetern gefunden, was deren Bedeutung hervorhebt. Technisch relevante Anteile einer gezielten Verhütung betreffen: ▬ Harnwegskatheter nur legen, wenn medizinisch erforderlich und nur so lange, wie unbedingt nötig; eine pflegerische Indikation ist abzulehnen ▬ nur sterile, dauerhaft geschlossene Urinableitsysteme mit Antirefluxventil sollten angewendet werden (d. h. ohne Diskonnektion bei der Beutelentleerung) Literatur: [7, 10].
33 3.8 · Praktische Beispiele
3.8.5 Dialyse
Dialyseabteilungen verdienen aufgrund ihres hohen Infektionsrisikos sowohl für Patienten wie auch für das Personal besondere Aufmerksamkeit. Die Infektionsrisiken sind a) für den Patienten: 1. Infektionen über den Gefäßzugang, 2. blutübertragene Infektionen, 3. Kontaminationen von Dialysat und Dialysator; b) für das Personal: 1. durch infizierte Dialysesysteme, 2. Infektionen über Blut und Dialysat. Im Vergleich zur Peritonealdialyse ist die Hämodialyse aus technischer Sicht die bedeutsamere und Grundlage der folgenden Ausführungen. Einige der Forderungen gelten aber auch für die Peritonealdialyse. Wird für die Dialyse Trinkwasser verwendet, ist dieses zusätzlich aufzubereiten, da es auch im Fall einer Chlorierung Bakterien und Pyrogene enthält. Die hierfür verwendeten Verfahren sind Ionenaustauschung (Wasserenthärtung), Aktivkohlefilterung, Destillation und Umkehrosmose. Dabei ist aber zu beachten, dass insbesondere die erstgenannten Verfahren Wasserkeimen (vorwiegend Pseudomonas spp. und anderen gramnegativen Keimen wie z. B. Acinetobacter, Enterobacter), aber auch im Wasser vorkommenden, als »atypisch« bezeichneten Mykobakterien sogar gute Möglichkeiten der Vermehrung bieten können. Deshalb wird eine anschließende Ultrafiltration zur Entfernung von Bakterien und Bakterientoxinen für unbedingt erforderlich gehalten [5]. Zwar gilt die Umkehrosmose derzeit als das optimale Aufbereitungsverfahren, dennoch muss bedacht werden, dass auch bei dieser Membran-Verkeimungen und bei Leckagen Keimeinschwemmungen vorkommen können. Nach Zugabe des Dialysats entsteht eine Mischung, die aufgrund der Zusammensetzung eine gute Nährlösung für Wasserkeime darstellt. Deshalb haben verschiedene Länder Richtwerte für die Beurteilung des Dialysewassers vorgeschlagen (⊡ Tab. 3.6).
Um eine Kontamination der Hämodialysegeräte und Versorgungseinrichtungen zu verhindern, werden folgende Maßnahmen für notwendig erachtet [5]: ▬ keine offenen Systeme oder Rezirkulationssysteme ▬ keine Tanks im Dialysatbereich, auch im Bereich der Wasseraufbereitung möglichst keine Tankanlagen ▬ keine Toträume oder Flüssigkeitsspiegel im Leitungssystem, auf kleine Leitungsquerschnitte achten (hohe Strömungsgeschwindigkeit) ▬ möglichst kleine Wasser- und Dialysatvolumina in den Dialysemonitoren (unter 1,5 l Gesamtvolumen) ▬ vollständige Desinfizierbarkeit des Leitungssystems ▬ Hämodialysegeräte müssen nach jedem Patienten chemothermisch oder vorzugsweise thermisch desinfiziert werden Durch diese geforderte Desinfektion nach jedem Patienten gilt die früher geforderte Trennung in einen sog. »gelben« (für infektiöse Patienten) und »weißen« (für nichtinfektiöse Patienten) Bereich als überholt. Der Betreiber ist dafür verantwortlich, dass alle Teile, die mit dem gebrauchten Dialysat oder gar Blut des Patienten in Berührung kommen, als potentiell infektiös angesehen werden und nach jeder Dialyse eine Desinfektion des Geräts erfolgt. Diese kann erfolgen durch [5]: ▬ Sterilisation mit Dampf von 121°C, soweit materialtechnisch möglich (Geräte mit Edelstahlwannen) ▬ Desinfektion mit Heißwasser (90–95°C über 20 min); dabei wird automatisch Zitronensäure zugegeben, um Ablagerungen im Gerät zu verhindern ▬ chemothermische Desinfektion (aus ökologischen Gründen vorzugsweise mit Peressigsäure, möglich auch mit Formaldehyd bzw. Glutaraldehyd oder Natriumhypochlorid) Es ist weit verbreitete Praxis, Dialysatoren wiederaufzubereiten. Für die USA wird angegeben, dass der Anteil der Dialysezentren, die wiederaufbereiten, von 18% im Jahr 1976 auf 84% im Jahr 1996 angestiegen ist [25] und entsprechende Aufbereitungsrichtlinien der Association for
⊡ Tab. 3.6. Richtwerte für die Beurteilung des Dialysewassers in verschiedenen Ländern Dialysewasser (i. d. R. Permeat)
Dialysierflüssigkeit
[KBE/ml]
Endotoxin
[KBE/ml]
Endotoxin
AAMI (USA, 1996)
≤200
Keine Angaben
≤2000
Keine Angaben
Europäische Pharmacopoe (1997)
≤100
≤0,25 IU/ml
Keine Angaben
≤0,25 IU/ml
Schwedische Pharmacopoe (1997)
<100
<0,25 IU/ml
<100
<0,25 IU/ml
Japanese Society for Dialysis Therapy (1995)
Keine Angaben
Keine Angaben
<100
<0,25 IU/ml
3
34
3
Kapitel 3 · Hygiene in der Medizintechnik
the Advancement of Medical Instrumentation (AAMI) von den offiziellen Stellen übernommen wurden [6]. Kostenzwänge werden zunehmend auch bei uns diese Praxis Routine werden lassen. Deshalb sind zur Qualitätssicherung wirksame Verfahren sicherzustellen, die derzeit auf einer chemothermischen Desinfektion beruhen. Da sich 2%iges Formaldehyd als unwirksam gegen Mykobakterien erwiesen hat und für eine 4%ige Lösung eine Einwirkzeit von 24 h gefordert wird, wird heute vorzugsweise Peressigsäure verwendet, der allerdings eine ausreichend lange Nachspülphase mit Wasser folgen muss. Eine maschinelle Wiederaufbereitung mit einem validierten Verfahren mit Dichtigkeitsprüfung (Druck) ist auch hier einer manuellen Aufbereitung unbedingt vorzuziehen. Zur Kontrolle der Maßnahmen wird folgendes mikrobiologisches Vorgehen für erforderlich gehalten [5]: ▬ vor jeder Abnahme Händedesinfektion ▬ sterile Gefäße zum Auffangen verwenden ▬ jeweils ca. 100 ml abnehmen ▬ Entmineralisiertes Wasser: – aus der Ringleitung am Bettplatz – Abnahme mit desinfiziertem Adapter (Dampfdesinfektion bei 75°C) – alle 6 Monate ▬ Basisches Bikarbonat: – nur aus Ringleitungen (nicht aus Kanistern oder Kartuschen) am Bettplatz – Abnahme mit desinfiziertem Adapter (70%iger Alkohol) – 1-mal pro Monat ▬ Dialysierflüssigkeit: – Abnahme aus dem Dialysator – vor Beginn oder am Ende der Dialyse – alle 6 Monate ▬ Die Beurteilung erfolgt nach folgenden Richtwerten: – im aufbereiteten Wasser und in der Dialysierflüssigkeit vor Beginn der Dialyse: 200 KBE/ml – im Dialysat am Ende der Dialyse: 2000 KBE/ml
3.8.6 Creutzfeldt-Jakob-Erkrankung
Nach Anwendung von Medizinprodukten an Patienten mit dringendem Verdacht auf bzw. nachgewiesener Erkrankung an Creutzfeldt-Jakob (CJK) bzw. dessen neuer Variante (vCJK) sind besondere Aufbereitungsverfahren erforderlich [12, 22]. Nach der derzeit favorisierten Prionen-Theorie kommt der Reinigung bei der Aufbereitung eine besondere Bedeutung zu, da Proteine primär entfernt werden müssen. Für eine desinfizierende Aufbereitung werden derzeit 1–2 M Natronlauge (NaOH) bzw. 2,5–5% Natriumhypochlorid (NaOCl) bzw. 4 M GuanidiniumThiocyanat (GdnSCN) empfohlen [22]. Nicht-dampfsterilisierbare Instrumente werden mit aldehydischen Desinfektionsmitteln nachbehandelt, ab-
schließend mit 70%igem Alkohol gespült (z. B. Endoskope) und gassterilisiert. Dampfsterilisierbare Instrumente werden nach der chemischen Dekontamination einer maschinellen Aufbereitung bei 93°C zugeführt und abschließend bei 134°C 1 h autoclaviert. Die entsprechenden Anlagen der RKI-Richtlinie sind zu beachten [22].
Regelwerke
3.9
3.9.1 Technische Regeln für Gefahrstoffe
▬ TRGS 513 Begasungen mit Ethylenoxid und Formaldehyd in Sterilisations- und Desinfektionsanlagen (Ausgabe 2/2000) ▬ TRGS 525 Umgang mit Gefahrstoffen in Einrichtungen zur humanmedizinischen Versorgung (Stand Mai 1998 BArbBl. Nr. 5/1998, S. 58) ▬ TRGS 531 Gefährdung der Haut durch Arbeiten im feuchten Milieu (Feuchtarbeit) (Stand 9/96) ▬ TRGS 540 sensibilisierende Stoffe (vom 15.12.1999, BArbBl. 2/2000, S. 73)
3.9.2 Normen
Normen sind durch die Richtlinie 93/42/EWG über Medizinprodukte und das entsprechend harmonisierte deutsche Medizinproduktegesetz (MPG) in ihrer Bedeutung aufgewertet worden. Sie geben den (Mindest)Stand der Technik an, den der Hersteller bei Konzeption und Fertigung, Betrieb bzw. Anwendung von Medizinprodukten zu beachten hat (⊡ Tab. 3.7). Einen Überblick über wesentliche Normen im Bereich der Sterilisationstechnik für das Gesundheitswesen gibt ⊡ Tab. 3.8.
⊡ Tab. 3.7. Normen für den (Mindest)stand für Medizinprodukte Art der Norm
Herkunft
DIN
Deutsche Norm
E DIN
Veröffentlichter deutscher Normenentwurf
EN
Europäische Norm
DIN EN
Harmonisierte (europäische) Norm
prEN, E DIN EN
Veröffentlichter europäischer Normenentwurf
3
35 3.9 · Regelwerke
⊡ Tab. 3.8. Überblick über wesentliche Normen im Bereich der Sterilisationstechnik für das Gesundheitswesen Norm
Dampfsterilisation
Stand
DIN EN 285
Sterilisation – Dampf- Sterilisatoren – Groß- Sterilisatoren – Anforderungen und Prüfverfahren Entwurf
2/97 12/2002
DIN 58946
Dampfsterilisatoren
Teil 6
Betrieb von Großsterilisatoren im Gesundheitswesen
4/2002
Norm
Validieren
Stand
Sterilisation von Medizinprodukten DIN EN 550
Validierung und Routineüberwachung für Sterilisation mit Ethylenoxid
6/94
DIN EN 552
Sterilisation von Medizinprodukten – Validierung und Routineüberwachung für die Sterilisation mit Strahlen
02/2001
DIN EN 554
Validierung und Routineüberwachung für Sterilisation mit feuchter Hitze
11/94
DIN 58948
Sterilisation – Niedertemperatur-Dampf-Formaldehyd-Sterilisatoren
Teil 16
Betrieb von Niedertemperatur-Dampf-Formaldehyd-Sterilisatoren
6/2002
Teil 17
Bauliche Anforderungen und Betriebsmittel für Niedertemperatur-Dampf-Formaldehyd-Sterilisatoren
12/2001
prEN 14180
Sterilisatoren für medizinische Zwecke Niedertemperatur-Dampf-Formaldehyd-Sterilisatoren – Anforderungen
1/2003
Norm
Ethylenoxidsterilisation
Stand
DIN EN 1422
Sterilisation für medizinische Anwendungen – Ethylenoxidsterilisatoren – Anforderungen und Prüfverfahren
11/97
DIN 58948-6
Betrieb von Ethylenoxid-Sterilisatoren
4/2003
DIN 58948-7
Bauliche Anforderungen und Betriebsmittel für Ethylenoxid-Sterilisatoren
12/2001
Norm
Heißluft-Sterilisatoren
Stand
Teil 1
Begriffe
6/1986
Teil 3
Prüfung auf Wirksamkeit
11/1990
Teil 5
Kleinsterilisatoren, Anforderungen
11/1990
Teil 6
Betrieb von Heißluftsterilisatoren
11/1990
DIN 58947
Anmerkung: alle Teile sind in Überarbeitung DIN 58949
Dampfdesinfektionsapparate
Stand
Teil 1
Begriffe
1/2001
Teil 2
Anforderungen
1/2001
Teil 3
Prüfung auf Wirksamkeit
2/2004
Teil 4
Bioindikatoren zur Prüfung auf Wirksamkeit (Entwurf )
2/2006
Teil 6
Betrieb von Dampfdesinfektionsapparaten
2/2004
Teil 7
Bauliche Anforderungen und Anforderungen an die Betriebsmittelversorgung
1/2001
DIN 58955
Dekontaminationsanlagen im Bereich der Medizin
Stand
Teil 1
Begriffe
1/2003
Teil 2
Anforderungen
7/2005
Teil 3
Prüfung auf Wirksamkeit
9/1998
Teil 4
Bioindikatoren zur Prüfung auf Wirksamkeit
3/2006
Teil 6
Betrieb
3/2001
Teil 7
Bauliche Anforderungen und Anforderungen an die Betriebsmittelversorgung
3/2001
▼
36
3
Kapitel 3 · Hygiene in der Medizintechnik
⊡ Tab. 3.8. Fortsetzung Norm
Biologische Prüfung von Sterilisatoren
DIN EN 866
Biologische Systeme für die Prüfung von Sterilisatoren und Sterilisationsverfahren
Stand
Teil 1
Anforderungen
5/97
Teil 2
Systeme für den Gebrauch in Ethylenoxidsterilisatoren
5/97
Teil 3
Systeme für Dampfsterilisatoren mit feuchter Hitze
5/97
Teil 4
Systeme für den Gebrauch in Strahlensterilisatoren
2/99
Teil 5
Systeme für den Gebrauch in Niedertemperaturdampf- und Formaldehydsterilisatoren
2/99
Teil 6
Systeme für den Gebrauch in Heißluftsterilisatoren
2/99
Teil 7
Bioindikatoreinheiten für den Gebrauch in Dampfsterilisatoren
2/99
Teil 8
Bioindikatoreinheiten für den Gebrauch in Ethylenoxidsterilisatoren
2/99
Norm
Nichtbiologische (chemische) Prüfung von Sterilisatoren
Stand
DIN EN 867
Nichtbiologische Systeme für den Gebrauch in Sterilisatoren
Teil 1
Allgemeine Anforderungen
5/97
Teil 2
Prozessindikatoren
5/97
Teil 3
Angaben für Indikatoren der Klasse B für den Bowie-Dick-Test
5/97
Teil 4
Festlegungen für Indikatoren, die alternativ zum Bowie-Dick-Test für den Nachweis der Dampfdurchdringung verwendet werden
2/2001
Teil 5
Festlegungen von Indikatorsystemen und Prüfkörpern für die Leistungsprüfung von Kleinsterilisatoren vom Typ B und S
11/2001
Literatur 1. Aitkenhead AR et al. (1993) International standards for safety in the intensive care unit. Intensive Care Med 19: 178–181 2. Baron H et al. (2001) Prions. In: Block SS (ed) Disinfection, sterilization, and preservation, 5th edn. Lippincott, Williams & Wilkins, Philadelphia 3. Borneff M et al. (1993) Zur Wirksamkeit und Prüfung von H2O2-Plasma-Sterilisatoren. Hyg Med 18: 557–558 4. Craven D et al. (1996) Nosocomial pneumonia in mechanically ventilated adult patients: epidemiology and prevention in 1996. Semin Respir Infect 11: 32–53 5. Dettenkofer M, Daschner F (1997) Präventionen von Infektionen in der Dialyse. In: Daschner F (Hrsg) Praktische Krankenhaushygiene und Umweltschutz, 2. Aufl. Springer, Berlin Heidelberg New York Tokio 6. Favero MS et al. (1999) Nosocomial infections associated with hemodialysis. In: Mayhall CG (ed) Hospital epidemiologie and infection control, 3rd edn. Lippincott/Williams & Wilkins, Philadelphia 7. Forster DH et al. (1999) Prävention nosokomialer Harnweginfektionen. Intensivmedizin 36: 15–26 8. Gastmeier P et al. (1999) Prävention nosokomialer Infektionen in der Intensivstation und im OP. Anästhesist 48: 575–590 9. Gastmeier P et al. (1998) Device-associated nosocomial infection surveillance in neonatal intensive care using specified criteria for neonates. J Hospit Infect 38: 51–60 10. Gastmeier P et al. (Hrsg) (1998) Qualitätssicherung in der nosokomialen Infektiologie. Leitlinien – Prävention – Therapie. Aesopus, Stuttgart 11. Herzog V (2000) Desorption von Ethylenoxid (EO) zur Einhaltung der Grenzwerte. Zentralsterilisation 8: 204–209 12. Hörnlimann B, Riesner D, Kretzschmar H (Hrsg) (2001) Prionen und Prionkrankheiten. De Gruyter, Berlin New York 13. Hofmann F (1997) Arbeitsmedizin und Gesundheitsschutz im Krankenhaus. In: Daschner F (Hrsg) Praktische Krankenhaushygiene und Umweltschutz, 2. Aufl. Springer, Berlin Heidelberg New York Tokio 14. Kolleff MH (1999) The prevention of ventilator-associated pneumonia. Current Concepts 340: 627–634
15. Lacour M (1998) Prävention von Infektionen durch intravasale Katheter. Intensivmedizin 35: 582–592 16. Lacour M et al. (1998) Prävention der nosokomialen Pneumonie. Empfehlungen des Nationalen Referenzzentrums (NRZ) für Krankenhaushygiene, 1. Prävention der Beatmungspneumonie. Intensivmedizin 35: 87–94 17. Mangram AJ et al. (1999) Guideline for prevention of surgical site infection. Infect Control Hospit Epidemiol 20: 250–278 18. Martin MA (1997) Nosocomial infections related to patient care support services: Dietetic Services, Central Services Department, Laundry, Respiratory Care, Dialysis, and Enoscopy. In: Wenzel RP (ed) Prevention and control of nosocomial infections, 3rd edn. Williams & Wilkins, Baltimore Philadelphia London 19. Mecke P (1992) Wasserstoffperoxid-Plasma. Ein interessantes mikrobizides Prinzip. Hyg Med 17: 537–542 20. RKI (2000) Impfempfehlungen der Ständigen Impfkommission (STIKO) am Robert-Koch-Institut/Stand Januar 2000. http://www.rki.de 21. RKI (1997) Liste der vom Robert-Koch-Institut geprüften und anerkannten Desinfektionsmittel und -verfahren Stand vom 15.6.1997. Bundesgesundheitsblatt 9/97: 344–361 22. RKI (Hrsg) (2001) Richtlinie für Krankenhaushygiene und Infektionsprävention. Urban und Fischer, München Jena 23. Ruef C et al. (1997) Sterilisation mit Ethylenoxid: Anwendungen und Grenzen. Swiss-Noso – Nosokomiale Infektionen und Spitalhygiene 4: 3–6 24. Stamm WE (1978) Infections due to medical devices, part 2. Ann Int Med 89: 764–769 25. Tokars JI et al. (1998) National surveillance of dialysis-associated diseases in the United States, 1996. Public Health Service, Departement of Health and Human Services, Atlanta/GA 26. Unertl K et al. (2000) Prävention der nosokomialen Pneumonie. Mitteilung der Kommission für Krankenhaushygiene und Infektionsprävention am Robert-Koch-Institut. Bundesgesundheitsblatt 43: 302-309 27. Widmer AF, Siegrist H (1994) Plasmasterilisation: eine revolutionäre Technik für thermolabile Instrumente. Swiss-Noso – Nosokomiale Infektionen und Spitalhygiene 1:7
4 Vorschriften für Medizinprodukte M. Kindler, W. Menke 4.1
Einführung – 37
4.6
4.2
Sicherheitsmängel bei Medizingeräten/ Medizinprodukten – 37
Risikomanagement und klinische Bewertung – 43
4.6.1
Überwachungssystem für Medizinprodukte
4.3
Europäische Grundlagen des MPG – 39
4.7
4.3.1 4.3.2
»Neue Konzeption« und »Globale Konzeption« Richtlinien der EG für Medizinprodukte – 41
Spezielle Vorschriften für Betreiber und Anwender – 46
4.4
Allgemeine Vorschriften des MPG im Überblick – 41
4.4.1 4.4.2
Anwendungsbereich – 41 Klassifizierung – 41
4.7.1 4.7.2 4.7.3 4.7.4 4.7.5 4.7.6
Betreiber und Anwender – 46 Dokumentationspflichten – 46 Kontrollpflichten – 47 Einweisungspflichten – 47 Meldepflichten – 48 Aufbereitung – 48
4.5
Spezielle Vorschriften des MPG für Hersteller/Importeure – 43
4.5.1
Konformitätsbewertung und CE-Kennzeichnung – 43
4.1
– 39
Einführung
Die früher in verschiedenen Rechtsbereichen enthaltenen deutschen Vorschriften für Medizingeräte und ihr Zubehör sind zur Vereinheitlichung des Europäischen Rechts in den letzten zwölf Jahren durch das Medizinproduktegesetz MPG und zahlreiche Verordnungen zusammengefasst und an die Vorgaben der europäischen Richtlinien angeglichen worden. Dieser Vorgang ist inzwischen weitestgehend abgeschlossen. Allerdings sind zur Anpassung an Erfordernisse der Praxis und zur Beseitigung von Mängeln in den nächsten Jahren sowohl auf der europäischen Ebene als auch bei der nationalen Umsetzung noch eine ganze Reihe weiterer Veränderungen abzusehen. Im Rahmen dieses Buches kann und soll lediglich eine orientierende Einführung in den Rechtsbereich der Medizinprodukte gegeben werden. Ansonsten muss für die relativ umfangreiche und teilweise komplexe Thematik auf die inzwischen zahlreich erschienene Spezialliteratur (z. B. Böckmann u. Frankenberger 1994, Kindler u. Menke 1999a, Schorn 1998) verwiesen werden. Insbesondere die Schnittstellen zu anderen Rechtsbereichen wie Arzneimittel-, Arbeitsschutz-, Strahlenschutz und Eichrecht bergen noch erhebliche rechtliche Probleme. Die Einhaltung der Vorschriften des Arbeitsschutzes und der Unfallverhütung wird explizit gefordert; die dadurch vollzogene Verschachtelung zweier Rechtsbereiche mit teilweise unterschiedlicher Zielsetzung hat allerdings die praktische Umsetzung der Vorschriften unnötig verkompliziert. Medizinische Patientenwaagen und medizinische Laborwaagen fallen unter die EG-Richtlinie über nichtselbsttäti-
Literatur
– 43
– 48
ge Waagen. Ferner sind Empfehlungen wie Normen etc. zu beachten, auf welche in den Vorschriften verwiesen wird. Allerdings ist die Einhaltung von europäischen Normen nicht zwingend vorgeschrieben. Die Schutzziele können auch auf andere Weise erreicht werden ( Abschn. 4.3).
4.2
Sicherheitsmängel bei Medizingeräten/ Medizinprodukten
Wenn das »Werkzeug Medizintechnik« fehlerhaft ist oder nicht beherrscht wird, so ist davon vor allem der Patient betroffen, insbesondere wenn bei der Anwendung (Menke 1989) ▬ natürliche Abwehrfunktionen/Schutzreflexe eingeschränkt sind (wie z. B. bei der Narkose), ▬ lebensnotwendige Organfunktionen von einer Maschine unterstützt bzw. übernommen werden (wie z. B. bei der Beatmung) oder ▬ dem Organismus relativ hohe Energiedosen zugeführt werden (wie z. B. bei der Laserchirurgie). Bei einer statistischen Auswertung von 1463 Unfällen durch VON DER MOSEL (von der Mosel 1971) ergab sich für die Unfallursachen folgende prozentuale Verteilung: ▬ Falsche oder unsachgemäße Anwendung elektromedizinischer Geräte sowie Unkenntnis und Leichtsinn des Bedienungspersonals solcher Geräte: 64%; ▬ Unzureichend oder falsch geplante sowie veraltete elektrische Verteilersysteme und Installationen sowie deren unzureichende oder mangelhafte Pflege: 16%;
38
4
Kapitel 4 · Vorschriften für Medizinprodukte
▬ Unzulängliche oder fehlende Instandhaltung elektromedizinischer Geräte sowie Mangel an regelmäßigen Sicherheitsinspektionen: 10%; ▬ Fehlerhafte Planung oder Konstruktion elektromedizinischer Geräte: 8%; ▬ unvermeidbare Unfälle, verursacht durch unvorhersehbare Umstände, also echte Unfälle: 2%. Die Ergebnisse dieser schon als klassisch zu bezeichnenden Auswertung wurden später durch zahlreiche Untersuchungen in der Tendenz bestätigt (s. unten). Eine von der Gewerbeaufsicht des Landes NordrheinWestfalen in den Jahren 1976 bis 1978 durchgeführte sicherheitstechnische Überprüfung von 396 elektromedizinischen Geräten ergab 259 mängelbehaftete Geräte mit insgesamt 1301 Mängeln (Ministerium für Arbeit, Gesundheit und Soziales des Landes NW 1977 und 1978). Importierte Geräte wiesen signifikant mehr Mängel auf als in Deutschland hergestellte. Die Mängel waren z. T. eklatant (z. B. unzureichende Synchronisierung von Defibrillationsimpulsen oder Nichtabschaltung von Infusionspumpen bei leerer Infusionsflasche); als Mängel galten allerdings auch nichtnormierte Bildzeichen oder unvollständige Bedienungsanleitungen. 1986 untersuchte die DEKRA-Prüfstelle für Gerätesicherheit in vier Stuttgarter Krankenhäusern das Sicherheitsniveau der Medizintechnik (Trappe u. Mäurer 1987). Von 225 Geräten mit relativ hoch einzustufendem Risikopotential (Gruppe 1 nach MedGV) waren 154 Geräte mit 461 Mängeln behaftet. Etwas mehr als die Hälfte der Mängel war auf eine unzureichende Wartung zurückzuführen. 28% der bemängelten Geräte mussten vor dem nächsten Einsatz instandgesetzt werden. Bei einer von der Medizinischen Hochschule Hannover durchgeführten Untersuchung von 3200 aus Versicherungsakten zufällig ausgewählten medizinischen Schadensfällen (Anna 1994, Bleyer 1992) wurden unter diesen (nur!) 209 Zwischenfälle mit Beteiligung medizinischtechnischer Geräte gefunden, wobei hierin sogar auch bspw. Verbrennungen durch Wärmflaschen und Stürze von Untersuchungstischen enthalten waren. Die Analyse der medizinisch-technischen Zwischenfälle ergab insgesamt folgende Ursachen: ▬ Bedienungsfehler: 63,6%; ▬ Instandhaltungsfehler 17,7%; ▬ Konstruktions-, Fertigungs- bzw. Materialfehler 11,0%; ▬ Gerätefehler 7,7%. Zu bedenken ist, dass für einzelne Gerätearten erhebliche Abweichungen von diesen statistischen Mittelwerten bestehen: Bei den Hochfrequenz-Chirurgiegeräten waren fast 90% der Zwischenfälle auf Bedienungsfehler zurückzuführen, bei den Geräten zur physikalischen Therapie nur etwas über 20%. Etwa 11% der 209 Unfälle mit Beteiligung von Medizingeräten endeten tödlich.
Die Analyse der Ursachen und Folgen von Unfällen in Zusammenhang mit medizinischen Geräten ist methodisch nicht einfach, da repräsentative und aussagekräftige Daten über entsprechende Zwischenfälle nur schwierig zu erhalten sind. Bei vielen Statistiken wurde zudem der Bereich »Implantate« ausgeklammert. Dennoch lässt sich sagen, dass vor allem bei der Schulung der Anwender sowie bei der Wartung und Konstruktion der Geräte Möglichkeiten zur Verbesserung der Sicherheit bestehen. Bereits bei der konstruktiven Auslegung kann auf eine einfache Bedienbarkeit und einen geringen Verschleiß unter den Bedingungen des medizinischen Einsatzes geachtet werden. Eine breite Datenbasis liefert seit einiger Zeit das europaweite Verfahren zur Meldung und Bewertung von Vorkommnissen, für dessen Durchführung das Bundesinstitut für Arzneimittel und Medizinprodukte BfArM in Zusammenarbeit mit den entsprechenden Länderbehörden zuständig ist.1 2 Die Medizinprodukte-Sicherheitsplanverordnung (MPSV), welche dem Schutz vor Risiken durch Medizinprodukte dient, ist Mitte 2002 in Kraft getreten (Will 2002). Die Zahl der Vorkommnis-Meldungen ist in den letzten Jahren deutlich angestiegen, da zunehmend auch Anwender und Betreiber das Verfahren genutzt haben (⊡ Abb. 4.1). Trotzdem muss mit einer sehr hohen Dunkelziffer gerechnet werden. Durch eine Fokussierung des europäischen Vorkommnisbegriffs auf Produktfehler (im weiteren Sinne) bestehen zahlreiche Ausnahmen von der Meldepflicht, welche insbesondere bei Anwendern und Betreibern zu Verunsicherung geführt haben und zudem Ursache von Lücken im Meldesystem sind. Auch erfolgt die Feststellung der Ursachen i. d. R. nicht durch Sachverständige der Behörde. Bei Mängeln von Implantaten bspw. kann die Gesamtzahl der geschädigten Patienten ein Mehrfaches der gemeldeten Fälle betragen. Nachdem die Information der Fachkreise über Mängel zunächst sehr restriktiv gehandhabt worden ist (Menke 2000), nimmt die Behörde dabei inzwischen eine sehr aktive Rolle ein. Auf den Internetseiten des BfArM sind aktuelle Risikohinweise, Herstellermaßnahmen und Behördenempfehlungen sowie die Ergebnisse der wissenschaftlichen Aufarbeitung von Vorkommnissen zu finden. In den USA weist die Food and Drug Administration FDA regelmäßig auf Risiken und Mängel hin und macht Vorschläge zur Verbesserung der Sicherheit
1
2
BfArM, Friedrich-Ebert-Allee 38-40, 53113 Bonn, Telefon: 0228/20730, Telefax: 0228/207-5207, e-Mail:
[email protected], Homepage: www.bfarm.de. bei »In-vitro-Diagnstika« als spezieller Untermenge der Medizinprodukte ist teilweise auch das Paul-Ehrlich-Institut (PEI) in Langen zuständig.
4
39 4.3 · Europäische Grundlagen des MPG
IVD
BfArM Fallzahlentwicklung 2000 - 2005
nicht-aktive MP
(Risikomeldungen zu Medizinprodukten)
3500
3000
Risikomeldungen Gesamtzahl: 2000 - 1934 2001 - 2019 2002 - 2266 2003 - 2535 2004 - 3097 2005 - 3387
207 200
2500
2000
1500
58 21
987
aktive MP
121 1519
33
1080
1213
1665
1298
1000
500
0
926
2000
906
995
2001
2002
1116
2003
1378
2004
1515
2005
Röhe, Stand 13.01.2006
⊡ Abb. 4.1. Entwicklung der Vorkommnismeldungen beim BfArM 2000–2005
(www.fda.gov). Ferner sind in diesem Zusammenhang die Veröffentlichungen der Organisation ECRI zu nennen (www.ecri.com).
4.3
Europäische Grundlagen des MPG
Das Medizinproduktegesetz (MPG) basiert entsprechend seiner hauptsächlichen Zielsetzung, nämlich ▬ der Anpassung an europäisches Recht sowie ▬ der Vereinheitlichung der deutschen Vorschriften sowohl auf europäischen als auch auf nationalen Grundlagen (⊡ Abb. 4.2). Entsprechend kann man bei den Inhalten des Medizinproduktegesetzes auch europäische und nationale Elemente unterscheiden. Mit dem Medizinproduktegesetz wurde der gesetzliche Rahmen geschaffen, der eine ganze Reihe von Verordnungen ausfüllt und konkretisiert. Die wesentlichen Teile des deutschen Medizinprodukterechts beruhen auf der Umsetzung von Vorgaben der EG/EU, welche in einzelnen Bereichen wie bspw. bei den Vorschriften für Anwender und Betreiber durch nationale Regelungen ergänzt werden.
4.3.1
»Neue Konzeption« und »Globale Konzeption«
Zwei wesentliche Grundelemente der europäischen Philosophie sind ▬ die Neue Konzeption auf dem Gebiet der technischen Harmonisierung und Normung der EG vom 7. Mai 1985 und ▬ das Globale Konzept für Zertifizierung und Prüfwesen von Instrumenten zur Gewährleistung der Qualität von Industrieerzeugnissen vom 21. Dezember 1989 sowie darauf basierende weitere technische Harmonisierungsrichtlinien.
Neue Konzeption Mit der »Neuen Konzeption« (»New Approach«) wurde der praktisch gescheiterte Weg einer Festlegung von technischen Detailforderungen zugunsten einer allgemeinen Definition von wesentlichen Anforderungen (»Essential Requirements«) verlassen. Mit der Konkretisierung dieser allgemeinen Schutzziele sind die europäischen Normenorganisationen CEN/CENELEC mandatiert, die nach einheitlichen Regeln europäische Normen schaffen.
40
Kapitel 4 · Vorschriften für Medizinprodukte
Verordnungen/Richtlinien
4
(Stand Frühjahr 2006)
Hygiene bei der Aufbereitung (»RKI-Richtlinie«) Qualitätssicherung laboratoriumsmediz. Untersuchungen (RiliBÄK) Betreiberverordnung (MPBetreibV) Sicherheitsplanverordnung (MPSV) Medizinprodukte-Verordnung (MPV) Vertriebswege-Verordnung (MPVertrV) Verschreibungspflicht-Verordnung (MPVerschrV) DIMDI-Verordnung (DIMDIV) Kosten-Verordnung (BKostV-MPG)
(Stand Frühjahr 2006)
Medizinproduktegesetz (MPG) 1. Änderungsgesetz zum MPG (1. MPG-ÄndG) 2. Änderungsgesetz zum MPG (2. MPG-ÄndG) 3. Änderungsgesetz zum MPG (3. MPG-ÄndG) als Entwurf
⊡ Abb. 4.2. Europäische und nationale Grundlagen/Regelungen des Medizinproduktegesetzes sowie Rechtsverordnungen und Richtlinien
Wenn ein medizinisches Produkt den zutreffenden harmonisierten Normen entspricht, kann davon ausgegangen werden, dass es die wesentlichen Anforderungen der entsprechenden EG-Richtlinien erfüllt. Allerdings ist die Einhaltung der europäischen Normen für den Hersteller freiwillig, d. h. er kann von ihnen abweichen. Dann liegt die Beweislast für die Einhaltung der grundlegenden Anforderungen allerdings bei ihm.
Globale Konzeption: Mit der »Globalen Konzeption« sollen Handelshemmnisse u. a. dadurch abgebaut werden, dass die Arbeitsweise
der verschiedenen Prüf- und Zertifizierungssysteme in der Transparenz und Zuverlässigkeit ihrer Arbeitsweise einander angenähert werden, um so ein größeres gegenseitiges Vertrauen zu schaffen. Die Beurteilungskriterien hierfür sind in internationalen Normenreihen festgelegt. Wenn ein Produkt unter Anwendung dieser Qualitätssicherungsnormen hergestellt bzw. geprüft worden ist, wird davon ausgegangen, dass es die entsprechenden Anforderungen der EG-Richtlinien erfüllt. Dann darf der Hersteller sein Produkt mit dem europäischen Zulassungszeichen, d. h. der CE-Kennzeichnung versehen (⊡ Abb. 4.3). Bei Medizinprodukten sind als Besonderheit zusätzliche Anforderungen zu erfüllen. »Benannte Stel-
41 4.4 · Allgemeine Vorschriften des MPG im Überblick
wendung in der Heilkunde hinaus. In die Definition einbezogen sind auch Stoffe sowie die erforderliche Software.
4.4.2 ⊡ Abb. 4.3. CE-Kennzeichnung für Produkte der Klassen IIa, IIb und III sowie der Klasse I bei Produkten mit Messfunktion bzw. Sterilisation
len«, d. h. europäisch akkreditierte und im Amtsblatt der EG aufgeführte (notifizierte) Zertifizierungsstellen, überwachen die Einhaltung dieser Qualitätsanforderungen an die Hersteller auf verschiedenen Ebenen (ausgenommen sind hiervon die meisten Medizinprodukte der Klasse I, soweit nicht eine medizinische Messfunktion vorliegt oder eine Sterilisation vorgesehen ist).
4.3.2
Richtlinien der EG für Medizinprodukte
Die breite Palette der in der Medizin eingesetzten Produkte mit primär physikalischer (und nicht pharmakologischer oder metabolischer) Wirkung wird im Wesentlichen durch drei EG-Richtlinien geregelt:3 ▬ aktive implantierbare medizinische Geräte (90/385/ EWG), ▬ Medizinprodukte (93/42/EWG) und ▬ in-vitro-Diagnostika (98/79/EG).
4.4
Allgemeine Vorschriften des MPG im Überblick
Bevor auf die speziellen Vorschriften des Medizinproduktegesetzes MPG für Hersteller/Importeure und für Betreiber/Anwender näher eingegangen werden soll, werden zunächst der Anwendungsbereich und die Klassifizierung erläutert.
4.4.1
Anwendungsbereich
Klassifizierung
Die Klassifizierung der Produkte erfordert eine Eingruppierung in eine von vier Risikoklassen (I, IIa, IIb, III), wobei ein größeres vermutetes Risiko einer höheren Klasse entspricht. Die Zuordnung zu einer der Klassen erfolgt grundsätzlich durch den Hersteller (soweit erforderlich, im Einvernehmen mit einer benannten Stelle). In Zweifelsfällen bzw. bei unterschiedlicher Meinung ist die zuständige Landesbehörde bzw. das Bundesinstitut für Arzneimittel und Medizinprodukte BfArM als Bundesoberbehörde einzuschalten. Für die Zuordnung der Produkte zu den einzelnen Risikoklassen hat die EG ein ausgesprochen kompliziertes und schwierig zu handhabendes Regelwerk geschaffen. Die Anwendung der Regeln richtet sich nach der Zweckbestimmung des Produkts. Produktkombinationen und Zubehör werden unabhängig voneinander einzeln klassifiziert. Software, die ein Produkt steuert oder dessen Funktion beeinflusst, wird derselben Klasse zugerechnet wie das Produkt selbst. Gibt es mehrere Möglichkeiten der Regelanwendung, so ist nach der strengsten Regel das Produkt in die jeweils höchstmögliche Klasse einzustufen. Die Hauptkriterien für die Produktklassifizierung sind entsprechend der EG-Richtlinie 93/42/EWG: ▬ der Kontakt bzw. die Wechselwirkung mit dem menschlichen Körper, wie Kontakt mit unversehrter oder verletzter Haut, Invasivität des Produktes im Hinblick auf menschliche Körperöffnungen oder auf chirurgische Eingriffe oder eine vollständige oder teilweise Implantation in den Körper, ▬ Kontakt mit lebenswichtigen Organen, wie z. B. dem Herz-Kreislauf-System oder dem Zentralnervensystem (ZNS), ▬ die Abgabe von Energie oder von Substanzen wie z. B. Arzneimitteln in oder an den Körper sowie die Dauer der ununterbrochenen Anwendung bei bestimmungsgemäßem Einsatz am oder im Körper.
Das Medizinproduktegesetz umfasst alle medizinischen Produkte zur Erkennung, Überwachung, Behandlung und Verhütung mit primär physikalischer Wirkung und human- oder zahnmedizinischer Zweckbestimmung. Die Definition des Medizinprodukts geht jedoch über eine An-
Für die Dauer der ununterbrochenen Anwendung gelten folgende Definitionen: ▬ vorübergehend: weniger als 6 min, ▬ kurzzeitig: bis zu 30 Tage, ▬ langzeitig: mehr als 30 Tage.
3
Von verschiedenen Herstellerverbänden wurden Klassifizierungslisten geschaffen, welche jedoch nur einen orientierenden Charakter haben können, da die jeweilige Zweckbestimmung und Ausstattung des einzelnen Produkttyps durch den Hersteller für die Zuordnung verbindlich sind.
Es ist zu beachten, dass diese Richtlinien in der Zwischenzeit gegenüber ihrer ursprünglichen Fassungen ergänzt und geändert worden sind und kürzlich (Stand Frühjahr 2006) Entwürfe für ihre grundsätzliche Überarbeitung vorgelegt worden sind.
4
42
4
Kapitel 4 · Vorschriften für Medizinprodukte
Inhalt des Regelwerkes für die Produktklassifizierung Nichtinvasive Produkte R1:
Alle nichtinvasiven Produkte, soweit keine andere Regel→I
R2:
Durchleitung oder Aufbewahrung von Blut, Geweben, Flüssigkeiten, Gasen→I wenn kombinierbar mit IIa-, IIb- oder III-Produkten→IIa wenn für Aufbewahrung von Organen, Organteilen, Geweben→IIa
R3:
Veränderung der bioligischen/chemischen Zusammensetzung von Blut und Flüssigkeiten→IIb wenn Filtration, Zentrifugierung, Austausch von Gasen oder Wärme→IIa
R4:
Berührung mit verletzter Haut→IIa wenn als mechanische Barriere, zur Kompression, Absorption von Exsudaten→I wenn Wunden mit sekundärer Wundheilung→IIb
Invasive Produkte R5:
Vorübergehende Anwendung, nicht chirurgisch invasiv, kein Anschluss an aktives Produkt→I wenn kurzzeitige Anwendung IIa, außer HNO-Bereich→I wenn langzeitige Anwendung IIb, außer HNO-Bereich→IIa wenn kombinierbar mit IIa-, IIb- oder III-Produkten→IIa
R6:
Vorübergehende Anwendung, chirurgisch invasiv→IIa wenn direkten Kontakt mit Herz/Kreislauf→III wenn Abgabe ionisierender Strahlung→IIb wenn biologische Wirkung oder Resorption→IIb wenn Arzneimittelabgabe mit potentiellem Risiko→IIb
R7:
kurzzeitige Anwendung, chirurgisch invasiv→IIa wenn direkter Kontakt mit Herz/Kreislauf/ZNS→III wenn Abgabe ionisierender Strahlung→IIb wenn biologische Wirkung oder Resorption→III wenn Arzneimittel oder chemische Änderung im Körper→IIb
R8:
implantierbar oder langzeitig/chirurgisch invasiv→IIb wenn in Zähne implantiert→IIa wenn direkt Kontakt mit Herz/Kreislauf/ZNS→III wenn Arzneimittelabgabe oder chemische Änderung im Körper→III wenn biologische Wirkung oder Resorption→III
Aktive Produkte R9:
Therapeutische Produkte mit Abgabe oder Austausch von Energie→IIa wenn potentielles Risiko→IIb wenn Steuerung oder Kontrolle von aktiven therapeutischen Produkten →IIb
R10:
Diagnostische Produkte mit Energieabgabe→IIa wenn nuklearmedizinische Diagnostik→IIa wenn Kontrolle vitaler physiologischer Parameter mit Risiko→IIb wenn Produkte der Radiologie→IIb
R11:
wenn Produkte zur Abgabe oder Entfernung von Arzneimitteln u.a. →IIa wenn potentielles Risiko→IIb
R12:
Alle übrigen Produkte→I
Besondere Regeln R13:
Produkte mit Arzneimitteln und ergänzender Wirkung→III
R14:
Produkte zur Empfängnisverhütung→IIb wenn implantierbar oder langzeitig invasiv→III
R15:
Desinfektion und Reinigung von Kontaktlinsen→IIb wenn zur Desinfektion von Medizinprodukten→IIa
R16:
Nichtaktive Aufzeichnung von Röntgenbildern→IIa
R17:
Verwendung tierischer Gewebe oder Folgeprodukte davon→III (Ausnahme: Anwendung bei unversehrter Haut)
R18:
Blutbeutel→IIb
43 4.6 · Risikomanagement und klinische Bewertung
4.5
Spezielle Vorschriften des MPG für Hersteller/Importeure
Zu beachten ist, dass der Begriff des Herstellers im Medizinprodukterecht eine andere Bedeutung als im allgemeinen Sprachgebrauch hat. Nach dem MPG ist auch derjenige Hersteller, der unter eigener Bezeichnung und eigenem Namen Fremdprodukte verkauft (genauer: entgeltlich oder unentgeltlich in den Verkehr bringt oder zur Benutzung überlässt).
4.5.1
Konformitätsbewertung und CE-Kennzeichnung
Das Medizinproduktegesetz verweist auf die Grundlegenden Anforderungen im Anhang I der EG-Richtlinien für Medizinprodukte (93/42/EWG), für aktive Implantate (90/385/EWG) und für In-vitro-Diagnostika (98/79/EG), die verschiedenartige Forderungen enthalten: I. Allgemeine Anforderungen 1. vertretbar minimierte Gefährdung von Patienten und Dritten; 2. nach Grundsätzen der integrierten Sicherheit ausgelegt; 3. Erfüllung der Leistungsangaben des Herstellers; 4. keine Änderung bei normaler Belastung; 5. keine Änderung bei sachgerechter Lagerung und Transport; 6. keine unvertretbaren Nebenwirkungen. II. Anforderungen an die Auslegung und die Konstruktion 7. chemische und physikalische Eigenschaften: biologische Verträglichkeit, keine Gefährdung durch Schadstoffe oder Rückstände; 8. Infektion und mikrobielle Kontamination: geeignete Verpackung, validierte Sterilisationsverfahren, minimierte Infektionsrisiken; 9. Konstruktion und Umgebungsbedingungen: sichere Anschlüsse, elektromagnetische Verträglichkeit, Brand- und Explosionsschutz; 10. Produkte mit Messfunktion: angemessene Genauigkeit und Konstanz, ergonomische Auslegung; 11. Schutz vor Strahlungen: keine gefährdende Emission, optische/akustische Anzeige der Strahlenemission, umfassende Dokumentation; 12. Anforderungen an Produkte mit externer oder interner Energiequelle: keine Risiken durch Softwarefehler, Ladezustandsanzeige bei Akkus, Alarmsystem bei Energieausfall, elektromagnetische Abschirmung; 13. Bereitstellung von Informationen durch den Hersteller: Kennzeichnung der Produkte und Inhalte der Gebrauchsanweisung.
Der Nachweis der Übereinstimmung mit den Anforderungen erfolgt durch ein sog. Konformitätsbewertungsverfahren. Hierfür stehen unterschiedliche Möglichkeiten zur Verfügung (sog. Module, ⊡ Tab. 4.1), die entsprechend der Klassifizierung des Medizinproduktes miteinander kombiniert werden können. Die verschiedenen Verfahren unterscheiden sich nach ▬ Bewertung des Designs und Bewertung der Produktion, wie z. B. Auslegung, Baumuster, Produktion, ▬ der Art der jeweiligen Bewertung, z. B. Prüfung der Unterlagen, des Baumusters, des Qualitätssicherungssystems etc. sowie ▬ der Beteiligung einer benannten Stelle (Notified Body), d. h. des Herstellers selbst oder einer oder mehrerer anderer Stellen. ⊡ Tab. 4.2 und ⊡ Abb. 4.4 geben einen Überblick über den Einsatz der möglichen Konformitätsbewertungsverfahren in Abhängigkeit von der Produktklassifizierung. Die CEKennzeichnung gibt bei Produkten der Klassen IIa, IIb oder III in Form einer vierstelligen Ziffer die benannte Stelle an, die das Konformitätsbewertungsverfahren durchgeführt hat (vgl. auch ⊡ Abb. 4.3). Medizinprodukte der Risikoklasse I dürfen eine solche Nummer nicht tragen, da beim Modul A (»Selbstzertifizierung« des Herstellers) eine Einschaltung einer benannten Stelle nicht vorgesehen ist, soweit solche Produkte nicht eine Messfunktion haben oder einem Sterilisationsverfahren unterworfen werden (Produkte der Klassen IS/IM) (Kindler u. Menke 1999a).
4.6
Risikomanagement und klinische Bewertung
Gemäß dem europäischen Recht sind eine Risikobewertung sowie eine darauf aufbauende Risiko-Nutzen-Abwägung in Bezug auf die Nebenwirkungen eines Produktes erforderlich. Der Hersteller hat die Erfüllung der von ihm für ein Produkt angegebenen medizinischen Zweckbestimmung und die Abwesenheit von unvertretbaren Risiken zu belegen. Soweit für eine solche medizinische klinische Bewertung in der Literatur veröffentlichte Daten nicht ausreichen, muss eine klinische Prüfung erfolgen (unabhängig von der Klassifizierung des Produkts!). Die CE-Kennzeichnung am Produkt signalisiert, dass das entsprechende Produkt den grundlegenden Anforderungen entspricht und ein der Klassifizierung äquivalentes Konformitätsbewertungsverfahren durchgeführt wurde (Kindler u. Menke 1999a).
4.6.1
Überwachungssystem für Medizinprodukte
Zweck eines Beobachtungs- und Meldesystems ist es, dass sich Vorkommnisse derselben Art nicht wiederholen. Dies
4
unterhält
QMS
CE-Kennzeichnung
QMS
QMS
Baumuster
Baumuster
Baumuster
Baumuster
Konformitätsbescheinigung
Baumusterprüfbescheinigung
stellt aus
QMS
Konformitätsbescheinigung
QMS
QMS
überwacht
Inhalt der einzelnen Module (Erläuterung) Vollständiges Qualitätsmanagementsystem (Anhang II) Der Hersteller unterhält ein zugelassenes Qualitätsmanagementsystem (QMS) für Auslegung, Fertigung und Endkontrolle der betreffenden Produkte. Vor der Fertigung stellt er einen Antrag auf Prüfung der Auslegungsdokumentation. Die Benannte Stelle kontrolliert das QMS, prüft den Antrag auf Produktauslegung, veranlasst zusätzliche Tests oder Prüfungen, führt regelmäßig erforderliche Inspektionen bzw. unangemeldete Besichtigungen durch und erstellt einen Bewertungsbericht. EG-Baumusterprüfung (Anhang III) Der Hersteller unterbreitet der gemeldeten Stelle technische Unterlagen und ein repräsentatives Baumuster. Die Benannte Stelle prüft die Konformität mit Grundlegenden Anforderungen, führt geeignete Prüfungen und Tests durch und stellt die EG-Baumusterprüfbescheinigung aus. EG-Prüfung (Anhang IV) Der Hersteller erklärt die Konformität der Serienprodukte mit dem geprüften Baumuster und führt ein Überwachungssystem nach dem Vertrieb ein. Die Benannte Stelle prüft die Übereinstimmung des Produkts mit den Anforderungen der Richtlinie durch Kontrolle und Erprobung jedes einzelnen Produkts oder durch eine statistische Prüfung. Qualitätsmanagement Produktion (Anhang V) Der Hersteller unterhält ein zugelassenes QMS für Produktion mit Fertigungs- und Endkontrolle der Produkte. Er erklärt die Konformität der Serienprodukte mit dem geprüften Baumuster. Die Benannte Stelle akzeptiert und überwacht das QMS. Qualitätsmanagement Produkt (Anhang VI) Der Hersteller unterhält ein zugelassenes QMS für die Überwachung der Endabnahme und Prüfung der Produkte. Er erklärt die Konformität der Serienprodukte mit dem geprüften Baumuster und den Grundlegenden Anforderungen. Die Benannte Stelle akzeptiert und überwacht das QMS. EG-Konformitätserklärung (Anhang VII) Der Hersteller erklärt die Konformität mit den Grundlegenden Anforderungen der Richtlinie, bringt das CE-Zeichen an und hält die technische Dokumentation bis mindestens 5 Jahre nach dem letzten Fertigungstermin zur Verfügung.
CE-Kennzeichnung
Modul H (Anh. 2) umfass. QM-System
Konformität
Konformität
CE-Kennzeichnung
CE-Kennzeichnung
CE-Kennzeichnung
CE-Kennzeichnung
CE-Kennzeichnung
Modul G Einzelprüfung
Konformität
Modul F (Anh. 4) Produktprüfung
Konformität
Konformität
Produkt
Konformität
Modul E (Anh. 6) QM-Produkte
Techn. Unterlagen Baumuster
Produkt
Konformität
Techn. Unterlagen
Modul D (Anh. 5) QM-Produktion
Modul C Bauart-Konform.
Modul B (Anh. 3) Baumusterprüfung
bringt an
4
Modul A (Anh. 7) Konformerklärung
erklärt
prüft
prüft
hält bereit
legt vor
Die benannte Stelle
Der Hersteller
⊡ Tab. 4.1. Module für das Konformitätsbewertungsverfahren
44 Kapitel 4 · Vorschriften für Medizinprodukte
45 4.6 · Risikomanagement und klinische Bewertung
soll durch die Bewertung der gemeldeten Vorkommnisse und durch die Verbreitung von Informationen erreicht werden, die zur Vermeidung solcher Wiederholungen bzw. zur Begrenzung der Auswirkungen derartiger Vorkommnisse eingesetzt werden können.4 Nach § 15 MedGV waren vom Betreiber nur Funktionsausfälle und -störungen an energetisch betriebenen Geräten, die zu einem Personenschaden geführt hatten, unverzüglich im Rahmen einer Unfall- und Schadensanzeige zu melden. Diese Meldepflicht wurde nur selten
4
Leitlinien für ein Medizinprodukte-Beobachtungs- und Meldesystem, Medical devices vigilance system (2.12/1, rev. 4, 04-2001).
erfüllt, da die Betreiber darin eine haftungsrechtlich relevante Selbstanzeige sahen. Die Meldepflicht von Vorkommnissen wurde im Medizinproduktegesetz (MPG) vor allem auf den Hersteller übertragen und auch auf die Beinaheunfälle (sog. BeinaheVorkommnisse) ausgedehnt. Zudem erfasst das europaweite Medizinprodukte-Beobachtungs- und Meldesystem alle Vorfälle, die eine Gefährdung von Patienten, Anwendern oder Dritten hervorrufen könnten. Eine Meldekette vom Medizinprodukteberater des Herstellers oder Fachhandels als »Ohr am Markt« zum Sicherheitsbeauftragten des Herstellers soll möglichst frühzeitig unentdeckte Risiken der Medizinprodukte aufzeigen. Näheres hierzu wie auch die Meldepflicht für Anwender und Betreiber regelt die Medizinprodukte-Sicherheitsplanverordnung (MPSV).
⊡ Tab. 4.2. Mögliche Konformitätsbewertungsverfahren in Abhängigkeit von der Produktklasse Modul der Konformitätsbewertung (Anhang EG-Richtlinie)
Klasse I
Klasse IIa
Klasse IIb
Klasse III
EG-Konformitätserklärung (VII) EG-Prüfung (IV)
mit Konformitätserklärung (VII)
mit Baumusterprüfung (III)
mit Baumusterprüfung (III)
Qualitätsmanagement Produkt (VI) nach
mit Konformitätserklärung (VII)
mit Baumusterprüfung (III)
mit Baumusterprüfung (III)
Qualitätsmanagement Produktion (V)
mit Konformitätserklärung (VII)
mit Baumusterprüfung (III)
mit Baumusterprüfung (III)
Vollständiges Qualitätsmanagementsystem (II)
ohne Auslegungsprüfung
ohne Auslegungsprüfung
mit Auslegungsprüfung
⊡ Abb. 4.4. Mögliche Konformitätsbewertungsverfahren in Abhängigkeit von der Produktklasse (nach DEKRA, aus Kindler u. Menke 1999a)
4
46
Kapitel 4 · Vorschriften für Medizinprodukte
Spezielle Vorschriften für Betreiber und Anwender
4.7
4
Das Medizinprodukterecht stellt auch die Kliniken, Praxen und sonstigen Einrichtungen wie Altenpflegeheime vor eine ganze Reihe von Aufgaben. Die Vorschriften der Betreiberverordnung MPBetreibV enthalten Anforderungen hinsichtlich Dokumentation, Kontrollen, Einweisungen, Meldungen und Aufbereitung (⊡ Tab. 4.3). Die Einhaltung der Vorschriften und die Dokumentation der Maßnahmen wird nicht nur stichprobenartig von den zuständigen Überwachungsbehörden kontrolliert, sondern immer mehr auch von den Kostenträgern und anderen Organisationen als Kriterium für die Qualität der Einrichtungen vorausgesetzt.
4.7.1
Betreiber und Anwender
Wesentliche Adressaten sind Betreiber und Anwender, ferner sind mit der Betreiberverordnung zum MPG sog. beauftragte Personen neu eingeführt worden: ▬ Betreiber ist die Einrichtung bzw. ihr Träger, vertreten durch die Verwaltungsleitung/Geschäftsführung. Der Betreiber schafft im Rahmen seiner Organisationsverantwortung die Voraussetzungen für die Einhaltung der Vorschriften, indem er die Durchführung der erforder-
⊡ Tab. 4.3. Vorschriften für Anwender und Betreiber im Überblick (Auswahl), in Anlehnung an Menke und Drastik Bestandsverzeichnis:
▬ für alle aktiven Medizinprodukte
Medizinproduktebücher:
▬ für alle Geräte der Anlagen 1 und 2 ▬ Ausnahmen: nichtaktive Blutdruckmessgeräte, Kompaktthermometer
Kontrollen:
▬ STKs für alle Geräte der Anlage 1 ▬ MTKs für alle Geräte der Anlage 2 ▬ Ausnahmen: Kontrollen auch für andere Geräte, wenn der Hersteller diese fordert; keine Kontrollen bei Geräten der Anlagen 1 und 2, wenn der Hersteller diese explizit ausschließt (s. Hinweise im Text) ▬ Einhaltung der Richtlinien der Bundesärztekammer RiliBÄK (Qualitätssicherung quantitativer laboratoriumsmediz. Untersuchungen)
Einweisungen:
▬ »Schneeballprinzip« ist bei Geräten der Anlage 1 nicht vorgesehen
Meldungen:
▬ Vereinfachtes Meldeformular für Anwender und Betreiber
Aufbereitung:
▬ Einhaltung der »Anforderungen an die Hygiene« (»RKI-Empfehlungen«)
lichen Maßnahmen veranlasst und koordiniert. Die Einrichtung ist auch Betreiber solcher Medizingeräte, die probe- oder leihweise eingesetzt werden.5 ▬ Anwender sind alle Angehörigen medizinischer Berufsgruppen, welche Medizinprodukte tatsächlich handhaben, d. h. einsetzen bzw. bedienen. Dieser Personenkreis hat sich vor der Anwendung eines Medizinprodukts von dessen ordnungsgemäßem Zustand zu überzeugen. Privatpersonen, welche Medizinprodukte zu persönlichen Zwecken nutzen, sind i. d. R. keine Anwender im Sinne des Medizinprodukterechts. ▬ Vom Betreiber beauftragte Personen müssen bei neuen Medizinprodukten mit relativ hohem Risikopotenzial, welche in der Anlage 1 der Betreiberverordnung MPBetreibV aufgeführt sind, vom Hersteller oder einer sonstigen dazu befugten Person in die sachgerechte Handhabung eingewiesen werden und sollen ihre Kenntnisse an die anderen Anwender weitergeben.
4.7.2
Dokumentationspflichten
In das Bestandsverzeichnis sind alle aktiven Medizinprodukte aufzunehmen. Das Bestandsverzeichnis sollte nicht nur der formalen Erfüllung des entsprechenden Paragraphen dienen, sondern kann auch eine wichtige Basis sein für ▬ die Organisation aller vorgeschriebenen Maßnahmen, ▬ die Durchführung der Instandhaltung und ▬ die Planung der Beschaffung/Ausstattung. Medizinproduktebücher sind für alle Medizinprodukte der Anlagen 1 und 2 der Betreiberverordnung zum MPG mit Ausnahme von nichtaktiven Blutdruckmessgeräten und Kompaktthermometern zu führen. Die Medizinprodukte der Anlage 1 entsprechen weitestgehend den ehemaligen Geräten der Gruppe 1 nach der MedGV (Menke 2000).6 Dabei handelt es sich um nichtimplantierbare aktive Medizinprodukte zur ▬ Erzeugung und Anwendung elektrischer Energie zur unmittelbaren Beeinflussung der Funktion von Nerven und/oder Muskeln bzw. der Herztätigkeit einschließlich Defibrillatoren;
5
6
in Anlehnung an Dr. G. Brenner: Die Medizingeräteverordnung – Rechtliche Auswirkungen in Kindler 1993. Allerdings gibt es eine Reihe von Ausnahmen und eine genaue Abgrenzung kann im Einzelfall schwierig sein. Eine Auflistung der zur Anlage 1 gehörigen Geräte in Form eines verbindlichen Katalogs ist bereits vor geraumer Zeit von den zuständigen Landesbehörden angekündigt worden, liegt aber derzeit (Stand Frühjahr 2006) immer noch nicht vor.
47 4.7 · Spezielle Vorschriften für Betreiber und Anwender
▬ intrakardialen Messung elektrischer Größen oder Messung anderer Größen unter Verwendung elektrisch betriebener Messsonden in Blutgefäßen bzw. an freigelegten Blutgefäßen; ▬ Erzeugung und Anwendung jeglicher Energie zur unmittelbaren Koagulation, Gewebezerstörung oder Zertrümmerung von Ablagerungen in Organen; ▬ unmittelbaren Einbringung von Substanzen und Flüssigkeiten in den Blutkreislauf unter potentiellem Druckaufbau, wobei die Substanzen und Flüssigkeiten auch aufbereitete oder speziell behandelte körpereigene sein können, deren Einbringen mit einer Entnahmefunktion direkt gekoppelt ist; ▬ maschinellen Beatmung mit oder ohne Anästhesie; ▬ Diagnose mit bildgebenden Verfahren nach dem Prinzip der Kernspinresonanz; ▬ Therapie mit Druckkammern; ▬ Therapie mittels Hypothermie und ▬ Säuglingsinkubatoren sowie ▬ externe aktive Komponenten aktiver Implantate.
4.7.3
Kontrollpflichten
Sicherheitstechnische Kontrollen STKs sollen grundsätzlich bei Geräten der Anlage 1 und messtechnische Kontrollen MTKs bei Geräten der Anlage 2 der Medizinprodukte-Betreiberverordnung durchgeführt werden. Vorrang haben jedoch die Vorgaben des Herstellers, wenn auch nicht uneingeschränkt. Eine enge Zusammenarbeit zwischen Technik und Einkauf ist in den Einrichtungen wegen der Freiräume der Hersteller durch das neue Recht zur Vermeidung von unnötigen Maßnahmen und Kosten noch wichtiger geworden. Wenn Hersteller für Geräte der Anlage 1 keinerlei Angaben zur STK machen, besteht eine Verpflichtung zur Nachprüfung mindestens alle zwei Jahre (Schroll u. Spier 1999). Eine Einrichtung darf nur Mitarbeiter oder Unternehmen mit sicherheits- oder messtechnischen Kontrollen beauftragen, welche die vorgeschriebenen persönlichen und organisatorischen Voraussetzungen erfüllen. Dazu gehören vor allem fachliche Kompetenz und Weisungsfreiheit sowie entsprechende Mess- und Prüfeinrichtungen.7 Die Medizinprodukte der Anlage 2 entsprechen zum großen Teil den bisher eichpflichtigen Geräten (Breuer u. Schade 1999). Für sie sind in der Betreiberverordnung folgende Nachprüffristen festgelegt worden:
7
Für messtechnische Kontrollen ist ferner eine behördliche Zulassung erforderlich. Auch können dafür die entsprechenden Eichbehörden beauftragt werden.
Nichtinvasive Blutdruckmessgeräte
2 Jahre
Tretkurbelergometer
2 Jahre
Ton- und Sprachaudiometer
1 Jahr
Medizinische Elektrothermometer
2 Jahre
Infrarot-Strahlungsthermometer
1 Jahr
Augentonometer
2 oder 5 Jahre (geräteartabhängig)
Diagnostikdosimeter
5 Jahre (Ausnahmen sind möglich)
Für Therapiedosimeter bestehen abhängig u. a. von ihrem Energiebereich alternative Regelungen mit der Möglichkeit von Vergleichsmessungen. Der Hersteller kann bei seinen Angaben von der vorgesehenen Nachprüffrist abweichen. Auch kann er messtechnische Kontrollen für medizinische Messgeräte vorsehen, die in der Anlage 2 nicht aufgeführt sind. Der Betreiber ist dann verpflichtet, diese Prüfungen durchzuführen oder durchführen zu lassen. Messtechnische Kontrollen sind darüber hinaus sofort fällig, wenn ein begründeter Verdacht dafür besteht, dass ein Gerät seine Fehlergrenzen nicht einhält, bspw. nach einer Beschädigung oder einer Manipulation. Die Nachprüffrist gilt auch für Ersatz- und Reservegeräte, die zwar nicht genutzt, aber zur Anwendung vorgehalten werden.
4.7.4
Einweisungspflichten
Nach den allgemeinen Anforderungen in der Betreiberverordnung zum MPG müssen Anwender von Medizinprodukten die erforderliche Ausbildung oder Kenntnis und Erfahrung besitzen und die Gebrauchsanweisung sowie sonstige Hinweise zur Sicherheit beachten. Spezielle Vorschriften gelten für Geräte der Anlage 1. Bei ihnen darf das Einweisungswissen nicht mehr von einer Anwendergeneration auf die nächste »weiter vererbt werden« (⊡ Abb. 4.5). Nur noch die ersteingewiesene Person (beauftragte Person nach § 5 MPBetreibV) darf die Schulungen durchführen. Aus Kapazitäts- und Fluktuationsgründen sollte man deshalb immer ausreichend viele »beauftragte Personen« benennen und einweisen lassen. Für diesen Personenkreis bietet sich die Bezeichnung »Schulungsbeauftragte« an (Menke u. Drastik 2000). Dies erlaubt eine Abgrenzung gegenüber »Medizinprodukteverantwortlichen« (i. d. R. leitende Ärzte, welche die Organisationsverantwortung haben) und »Medizinproduktebeauftragten« (i. d. R. Mitarbeiter einer Abteilung, welche vom »Medizinprodukteverantwortlichen« konkrete Aufgaben bei der Umsetzung des Rechts übertragen bekommen haben). Manche »Medizinprodukteverantwortliche« und viele »Medizinproduktebeauftragte« sind zusätzlich
4
48
Kapitel 4 · Vorschriften für Medizinprodukte
Instandsetzung, sondern zusätzlich auch die Aufbereitung. Bei dieser müssen die »Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten« eingehalten werden (sog. »RKI-Empfehlungen«). Die Aufbereitung von Einmalprodukten ist danach nicht grundsätzlich verboten, kann jedoch besondere Maßnahmen der Kontrolle erfordern und erhebliche Haftungsrisiken mit sich bringen.
4
Literatur ⊡ Abb. 4.5. Ersteinweisung und Folgeschulungen bei Medizinprodukten der Anlage 1 der Betreiberverordnung zum MPG
auch »Schulungsbeauftragte«, es gibt aber auch »Schulungsbeauftragte«, welche weder die eine noch das andere Funktion ausüben.
4.7.5
Meldepflichten
Nach der Medizinprodukte-Sicherheitsplanverordnung MPSV haben auch Betreiber und Anwender ▬ jede Funktionsstörung, ▬ jeden Ausfall, ▬ jede Änderung der Merkmale oder der Leistungen sowie ▬ jede Unsachgemäßheit der Kennzeichnung oder der Gebrauchsanweisung eines Medizinprodukts, die unmittelbar oder mittelbar zum Tode oder zu einer schwerwiegenden Verschlechterung des Gesundheitszustandes eines Patienten, eines Anwenders oder einer anderen Person geführt hat oder hätte führen können, unverzüglich dem Bundesinstitut für Arzneimittel und Medizinprodukte BfArM zu melden. Dieses gibt die Meldung unverzüglich an die für den Betreiber zuständige Behörde weiter und informiert weiterhin den Hersteller und die für den Hersteller zuständige Behörde. Für Anwender und Betreiber wurde ein spezieller einseitiger Meldebogen entwickelt, welcher einfacher zu handhaben ist als das für Hersteller vorgesehene mehrseitige Formular.8
4.7.6
Aufbereitung
Nach der Betreiberverordung für Medizinprodukte umfasst die Instandhaltung nicht nur die Inspektion, Wartung und
8
Bei »In-vitro-Diagnostika« als spezieller Untermenge der Medizinprodukte ist teilweise auch das Paul-Ehrlich-Institut (PEI) in Langen zuständig. Die Formulare sind auf der Homepage des BfArM hinterlegt (www.bfarm.de).
Anna O (1994) Orientierende Gedanken zur Bedienbarkeit medizinisch-technischer Geräte. Tagungsband TK ‘94 »Technik im Krankenhaus«, S 208– 216. Medizinische Hochschule, Hannover Bleyer S (1992) Medizinisch-technische Zwischenfälle in Krankenhäusern und ihre Verhinderung. Mitteilungen des Institutes für Biomedizinische Technik und Krankenhaustechnik der Medizinischen Hochschule Hannover (Hrsg: Prof. Dr. O. Anna und Prof. Dr. C. Hartung). Fachverlag Krankenhaustechnik, Hannover Böckmann R-D, Frankenberger H (1994) Durchführungshilfen zum Medizinproduktegesetz.Verlag TÜV Rheinland, Köln Breuer D, Schade T (1999) Messtechnische Kontrollen. In: AMD-Medizintechnik (Hrsg), Anwender- und Betreiberpflichten für Medizinprodukte. MediVision, Berlin, 2. Aufl., S 37–40 DEKRA Certification Services (1994) Seminarunterlagen zum Medizinproduktegesetz. Düsseldorf, MEDICA Kindler M (1993) Das Medizinprodukte-Überwachungssystem in der EG. mt Medizintechnik, Heft 4, S 138 f Kindler M (1994) Kombinationen mit Medizinprodukten – Der Fachhändler als Hersteller. MPJ MedizinprodukteJournal, Heft 3, S 21–23 Kindler M, Menke W (1999a) Medizinproduktegesetz – MPG. Kommentierte Ausgabe mit Arbeitshilfen und Materialien, 4. Aufl. ecomed, Landsberg Kindler M, Menke W (1999b) Definitionen und Orientierungshilfen. In: AMDMedizintechnik (Hrsg), Anwender- und Betreiberpflichten für Medizinprodukte, 2. Aufl. MediVision, Berlin, S 13–19 Menke W (Hrsg) (1989) Handbuch Medizintechnik. Verfahren • Geräte • Vorschriften. 4. Aufl. ecomed, Landsberg Menke W, Drastik K (2000) Praxis der MPG-Umsetzung. KrankenhausTechnik, S 30–33 Menke W (2000) Stand der Umsetzung und Handlungssbedarf zum MPG. Bundesfachkongreß fbmt , Tagungsband, S 80 f Ministerium für Arbeit, Gesundheit und Soziales des Landes NW (1977) Jahresbericht der Gewerbeaufsicht des Landes Nordrhein-Westfalen. ZfSMarktkontrolle »Elektromedizinische Geräte«, S NW 34 bis NW 37 Ministerium für Arbeit, Gesundheit und Soziales des Landes NW (1978) Jahresbericht Gewerbeaufsicht des Landes Nordrhein-Westfalen. ZfS Marktkontrolle »Elektromedizinische Geräte« , S NW 41 bis NW 49 von der Mosel HA (1971) Der klinisch-biomedizinische Ingenieur. Schweizerische Ärztezeitung Nr. 52 Pieper H-J (2000) Wirtschaftliche Umsetzung des Medizin-Produkterechts im Krankenhaus. Bundesfachkongreß fbmt,Tagungsband, S 76–79 Schorn GH (1998) MPG Medizinproduktegesetz. Gesetzestext mit amtlicher Begründung und einer Einführung. 2. Aufl. Wissenschaftliche Verlagsgesellschaft, Stuttgart Schroll S, Spier A (1999) Sicherheitstechnische Kontrollen. In: AMD-Medizintechnik (Hrsg), Anwender- und Betreiberpflichten für Medizinprodukte. 2. Aufl. MediVision, Berlin, S 35 f Trappe J, Mäurer H-J (1987) Untersuchungen zur Umsetzung der MedGV in Stuttgarter Krankenhäusern. DEKRA-Medizintechnik: DEKRA-Fachschriftenreihe 31/87, Stuttgart Will H-G (2002) Die Medizinprodukte-Sicherheitsplanverordnung (MPSV). Konsequenzen für Betreiber und Anwender. Pflegemagazin, Heft 5, S 16–23
5 Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen R. Kramme, H.-P. Uhlig 5.1
Einleitung – 49
5.8
Stromversorgung
5.2
Allgemeines zur Sicherheit technischer Systeme – 49
5.9
Stromquellen für Sicherheitszwecke mit Akkumulatoren – 56
5.3
Erreichen von Sicherheit in medizinischen Einrichtungen – 50
5.10 Endstromkreise und Steckdosen
5.4
Mindestanforderungen an ME-Geräte – 50
5.5
Medizinisch genutzte Bereiche
5.12 Elektromagnetische Verträglichkeit (EMV) – 57
5.6
ME-Systeme nach Art der Erdverbindung – 53
5.7
Schutz gegen gefährliche Körperströme – 53
5.1
– 53
Einleitung
Medizinische elektrische Geräte1 und Systeme2 werden hauptsächlich in medizinischen Einrichtungen wie Arztund Zahnarztpraxen, Ärztehäusern, Ambulanzen, Rehabilitationskliniken, Sanatorien, Kurkliniken, Altenpflege- und Behindertenheimen sowie Krankenhäusern und Kliniken eingesetzt. Nach den Vorschriften und Normen für elektrische Anlagen müssen in diesen Einrichtungen geeignete Räume – medizinisch genutzte Bereiche3 – vorhanden sein, in denen netzbetriebene ME-Geräte betrieben werden dürfen. Beim Einsatz tauchen vielfach Fragen auf, die einerseits die Sicherheit von Patienten und Anwendern und andererseits den störungsfreien Betrieb dieser Apparaturen betreffen. Die hauptsächlichen Gefahren, die von diesen ME-Geräten und ME-Systemen ausgehen, können elektrischer, mechanischer oder thermischer Natur sein. Ein weiteres mögliches Gefahrenpotential bilden ionisierende Strahlung, Explosion oder Brand. Was bedeutet nun Gefahr und Gefährdung? Gefahren im betrieblichen Ablauf sind Bestandteile des Arbeitssystems, die Leben und Gesundheit von Anwendern und Patienten schädigen können. Diese Gefahren sind mit Energien verbunden bzw. stellen Energien dar. Wenn diese Energien größer sind als die Widerstandsfähigkeit des menschlichen Körperteils, haben sie eine verletzungs1
Abgekürzt nach DIN EN 60601-1-1: ME-Gerät. Abgekürzt nach DIN EN 60601-1-1: ME-System. 3 Definition nach DIN VDE 0100-710. 2
– 56
5.11 Statische Elektrizität
5.13 Zusammenfassung Literatur
– 57
– 57
– 59
– 59
bewirkende Eigenschaft. Die Schädigungskraft ergibt sich aus dem Verhältnis Energie zu Körperwiderstandsfähigkeit. Als Gefährdung wird die Möglichkeit bezeichnet, dass Gefahr und Mensch räumlich-zeitlich zusammentreffen können. Für sichere medizinische Arbeitsplätze gilt deshalb abzuklären, auf welche Weise und unter welchen betrieblichen Bedingungen Gefahren und Menschen zusammentreffen, Verletzungsgefahr besteht und welche erfolgreichen Sicherheitsmaßnahmen (Schutzziele) dagegen eingesetzt werden oder werden sollten (Schneider 1976). Der größte Anteil der möglichen Gefährdung geht von ME-Geräten und ME-Systemen für die Diagnostik, Therapie und Überwachung aus. Die häufigsten Ursachen eines elektrischen Unfalls sind auf funktionsgestörte Schutzeinrichtungen, defekte Isolation an Kabeln und Leitungen, defekte oder fehlende Schutzabdeckungen an Geräten und Steckvorrichtungen und fehlende, unterbrochene oder vertauschte Schutzleiter zurückzuführen.
5.2
Allgemeines zur Sicherheit technischer Systeme
Der erreichte Stand von Wissenschaft und Technik ermöglicht es grundsätzlich, sehr sichere technische Produkte und Systeme zu entwickeln und zu bauen. Trotzdem gibt es keine absolute Sicherheit, weder im Leben noch in der Technik. Es kommt also darauf an, das vertretbare Restrisiko im Einzelfall zu ermitteln, um es dann bewusst in Kauf zu nehmen (Uhlig u. Sudkamp 2004).
50
5
Kapitel 5 · Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen
Die DIN 31000 »Allgemeine Leitsätze für das sicherheitsgerechte Gestalten technischer Erzeugnisse« von 03/1979 bildet die Basis für die inhaltliche Gestaltung von Sicherheitsnormen und VDE-Bestimmungen. In der DIN 31000 Teil 2 von 12/1987 wird das Grenzrisiko als das größte noch vertretbare Risiko eines bestimmten technischen Vorgangs oder Zustands beschrieben. Sicherheit wird nach DIN VDE 31000 als eine Sachlage definiert, bei der das Restrisiko unter einem definierten Grenzrisiko bleibt. Die Höhe des Risikos wird als abstrakte Größe aus dem Produkt von Schadensumfang und Wahrscheinlichkeit des Schadenseintritts gebildet (ISO Guide 51 1990). Die daraus resultierende zeitliche und inhaltliche Begrenzung der Sicherheit wird durch die Beschreibung von entsprechenden Anforderungen oder Maßnahmen erreicht. Die Maßnahmen, welche Sicherheit bewirken, werden nach DIN 31000 in drei Stufen eingeteilt (Dreistufentheorie): 1. unmittelbare Sicherheitstechnik
beinhaltet Maßnahmen, welche Sicherheit hauptsächlich durch die konstruktiv-planerische Ausführung von Produkten und Systemen bzw. ihrer Teile bewirken
gelungen, Vorschriften, Normen und Richtlinien. Das gleiche gilt für die Entwicklung, die Herstellung und das Betreiben von ME-Geräten und ME-Systemen. Die Übergänge oder Schnittstellen zwischen diesen Dokumenten sind nicht definiert, sondern fließend. So enthalten bspw. verschiedene Vorschriften und Normen für ME-Geräte wichtige Anforderungen an das Planen und Errichten der elektrischen Anlage (⊡ Tab. 5.1). Vorschriften und Normen beinhalten grundsätzlich nur die Mindestanforderungen. Zwischen ihnen besteht nicht immer Konformität. Außerdem entsprechen sie nicht immer dem Stand der Technik, weil die technische Entwicklung in vielen Fällen schneller verläuft als die Überarbeitung dieser Dokumente. Jedes Einzelprojekt muss deshalb sowohl hinsichtlich der Einhaltung der gesetzlichen und normativen Mindestanforderungen als auch hinsichtlich darüber hinausgehender Anforderungen überprüft werden. Die notwendige Sicherheit kann grundsätzlich nur erreicht werden, wenn das Gesamtsystem, bestehend aus baulicher und technischer Anlage sowie ME-Gerät, sicher ist ( Übersicht).
2. mittelbare Sicherheitstechnik
Anwendung sicherheitstechnischer Mittel, z. B. Verriegelungen
Schutzziele für die Sicherheit des Systems elektrische Anlage/ ME-Gerät (Uhlig u. Sudkamp 2004)
▬ Schutz der Patienten und des Personals vor
3. hinweisende Sicherheitstechnik
wird durch Hinweise auf die Bedingungen für eine gefahrlose Verwendung, z. B. in Bedienanweisungen und auf Schildern, generiert, wenn die unmittelbare und mittelbare Sicherheitstechnik nicht oder nicht vollständig zum Ziel führen Bei allen genannten sicherheitstechnischen Maßnahmen wird die bestimmungsgemäße Verwendung der Produkte und Systeme vorausgesetzt. Bei der Beurteilung von Gefährdungssituationen bildet die »Erste-Fehler-Philosophie«, beschrieben in DIN VDE 0752 Beiblatt 1 von 03/2003, eine wichtige Grundlage. Darüber hinaus können die Ergebnisse der internationalen Normung zum Thema Sicherheit, wie die Inhalte der IEC 300-3-9 von 12/1995 (Zuverlässigkeitsmanagement; Teil 3: Anwendungsleitfaden; Abschn. 9: Risikoanalyse von technologischen Systemen), genutzt werden (Uhlig u. Sudkamp 2004). Die möglichen Folgen erster Fehler werden durch Schutzmaßnahmen sowie durch die planmäßige Prüfung und Instandhaltung nahezu ausgeschlossen. Geeignete Überwachungseinrichtungen müssen einen auftretenden »Ersten Fehler« sofort entdecken.
5.3
Erreichen von Sicherheit in medizinischen Einrichtungen
Für die Planung, Errichtung, Sanierung und Prüfung elektrischer Anlagen in medizinischen Einrichtungen gelten in Deutschland sehr umfangreiche gesetzliche Re-
▬ ▬ ▬ ▬ ▬ ▬
5.4
gefährlichen Körperströmen und den Gefahren eines Spannungsausfalls oder schlechter Qualität der Spannung bzw. Frequenz Sicherheit der Schnittstelle zwischen ME-Geräten und der elektrischen Anlage, insbesondere bei Anwendung von Geräten für lebenswichtige Zwecke Sicherheit der Flucht- und Rettungswege Schutz vor Bränden und deren Einwirkung auf das System von elektrischer Anlage und ME-Geräten über einen notwendigen Zeitraum Sicherheit durch den Einsatz bewährter Technik Sicherheit durch die bestimmungsgemäße Verwendung aller Systemkomponenten Sicherheit durch vorschriftsmäßige Bedienung und regelmäßige Instandhaltung
Mindestanforderungen an ME-Geräte
Die DIN VDE 60601-1 »Medizinische elektrische Geräte; Allgemeine Festlegungen für die Sicherheit« von 1996 ist die Basisnorm dieser Reihe und beschreibt die allgemeinen Anforderungen an ME-Geräte. Nach der Normenreihe DIN VDE 60601 müssen alle in Deutschland zugelassenen ME-Geräte gebaut und geprüft sein. Nachstehend wird die Basisnorm hauptsächlich bezogen auf den Zusammenhang zur elektrischen Anlage bewertet. Für netzbetriebene ME-Geräte sind die Schutzklassen I und II zugelassen.
ME Geräte Schutzklasse 1 oder 2
ME Geräte Schutzklasse 1 und 2
ME Geräte Schutzklasse 1 und 2
OP- Leuchten Arbeitsfeldbeleuchtung
OP-Mikroskope
Untersuchungsleuchten
Untersuchungsleuchten
2
3
4
5
6
7
8
Arbeitsfeldbeleuchtung für einfache Untersuchungen
Arbeitsfeldbeleuchtung für einfache Untersuchungen
Arbeitsfeldbeleuchtung
für Untersuchungen und/oder Therapien nicht direkt am Herzen und wiederholbar
für Untersuchungen und/ oder Therapien nicht direkt am Herzen und nicht wiederholbar
für Untersuchungen und/ oder Therapien direkt am Herzen und nicht wiederholbar
für Überwachung und Therapie in der Intensivbehandlung, nicht direkt am Herzen und nicht wiederholbar
ME Geräte Schutzklasse 1 oder 2
1
Anwendung für
Verbrauchsmittel
lfd. Nr.
0
1
2
2
1
2
2
2
Med. Bereich der Gruppe
erlaubt (VDE 0100-710)
erlaubt (VDE 0100-710)
verboten
verboten
erlaubt (VDE 0100-710)
verboten
verboten
verboten
Abschaltung
entfällt
erlaubt, jedoch nicht vorgeschrieben
vorgeschrieben bei Un >25 V AC (VDE 0100-710)
vorgeschrieben bei Un >25 V AC (VDE 0100-710)
erlaubt, jedoch nicht vorgeschrieben
vorgeschrieben (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
IT-System
entfällt
vorgeschrieben (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
in Patientenumgebung nicht zulässig
vorgeschrieben (VDE 0100-710)
∆u ≤25 V
Schutz gegen elektrischen Schlag
⊡ Tab. 5.1. Anforderungen der ME-Geräte an die elektrische Anlage
entfällt
entfällt
entfällt
lt. VDE 0100-710 nicht erforderlich, im Einzelfall prüfen
lt. VDE 0100-710 nicht erforderlich, im Einzelfall prüfen
entfällt
erlaubt, jedoch nicht vorgeschrieben
entfällt
erlaubt, jedoch nicht vorgeschrieben
beste Lösung
vorgeschrieben (VDE 0100-710) verboten (VDE 0100-710) vorgeschrieben bei Un ≤ 25 V AC (VDE 0100-710)
bei Therapien direkt am Herzen prüfen entfällt
beste Lösung
erlaubt, jedoch nicht vorgeschrieben
wenn für sicheren Betrieb des ME Gerätes erforderlich
wenn für sicheren Betrieb des ME Gerätes erforderlich
wenn für sicheren Betrieb des ME Gerätes erforderlich
0,0 s
vorgeschrieben (VDE 0100-710)
erlaubt, jedoch nicht vorgeschrieben
nur bei Eignung des ME Gerätes
nur bei Eignung des ME Gerätes
nur bei Eignung des ME Gerätes
≤0,5 s
verboten (VDE 0100-710)
erlaubt, jedoch nicht vorgeschrieben
nur bei Eignung des ME Gerätes
nur bei Eignung des ME Gerätes
nur bei Eignung des ME Gerätes
≤ 15 s
vorgeschrieben bei Un ≤ 25 V AC (VDE 0100-710)
erlaubt bei Schutz durch Isolierung und Umhüllung oder Abdeckung
Erlaubt bei Schutz durch Isolierung und Umhüllung oder Abdeckung
möglich bei Schutzklasse II
erlaubt bei Schutz durch Isolierung und Umhüllung oder Abdeckung
PELV 25 V
bei Therapien direkt am Herzen prüfen
entfällt
entfällt
zwingend erforderlich
entfällt
∆u ≤10 mV
für Sicherheitszwecke mit zulässiger Unterbrechungszeit
Stromversorgung
erlaubt, jedoch nicht immer sinnvoll
erlaubt, jedoch nicht immer sinnvoll
verboten (VDE 0100710)
verboten (VDE 0100710)
erlaubt
verboten (VDE 0100710)
verboten (VDE 0100710)
verboten (VDE 0100710)
durch AV- Netz
5.4 · Mindestanforderungen an ME-Geräte 51
5
52
5
Kapitel 5 · Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen
In der Schutzklasse I sind alle nicht aktiven Teile des ME-Gerätes mit dem Schutzleiter (PE Protection Earth) verbunden. Das Gehäuse des Gerätes besteht aus Metall und ist ebenfalls mit dem PE verbunden. Im Falle eines geräteinternen Körper- oder Erdschlusses (z. B. Isolationsfehler) zwischen einem aktiven Leiter und dem PE wird im Gerät und/oder in der elektrischen Anlage eine Schutzeinrichtung ausgelöst, die den betroffenen Stromkreis abschaltet. Während einer Fehlersituation tritt eine Berührungsspannung zwischen dem Gehäuse des Gerätes und anderen geerdeten Teilen auf. Die Definition in DIN VDE 60601-1 für ME-Geräte der Schutzklasse I lautet: > Definition Gerät, bei dem der Schutz gegen elektrischen Schlag nicht allein von der Basisisolierung abhängt, sondern bei dem eine zusätzliche Schutzmaßnahme dadurch gegeben ist, dass durch den Anschluss an den Schutzleiter der fest verlegten Installation berührbare metallische Teile bei Ausfall der Basisisolierung nicht Spannung führend werden können.
Diese Interpretation des Schutzes ist nicht korrekt, weil im Fehlerfall am Gehäuse eine Berührungsspannung auftritt (s. oben). Die Geräte der Schutzklasse II sind doppelt isoliert (schutzisoliert). Der PE ist nicht herausgeführt. Das Gehäuse besteht aus Kunststoff mit einem sehr guten Isolierverhalten. Ein Fehler kann nur noch zwischen einem aktiven Leiter und dem Neutralleiter (N) auftreten. Während einer Fehlersituation tritt keine Berührungsspannung gegen Erde auf. Die Definition in DIN VDE 60601-1 für ME-Geräte der Schutzklasse II lautet: > Definition Gerät, bei dem der Schutz gegen elektrischen Schlag nicht allein von der Basisisolierung abhängt, sondern zusätzliche Schutzmaßnahmen, wie doppelte oder verstärkte Isolierung vorhanden sind, jedoch keine Möglichkeit eines Schutzleiteranschlusses und keine Abhängigkeit von den installierten Schutzmaßnahmen besteht.
Eine weitere Kategorie bilden vom Netz unabhängige, meist batteriebetriebene ME-Geräte. Bei diesen Geräten besteht, wie bei netzbetriebenen ME-Geräten der Schutzklasse II, hinsichtlich des Schutzes vor gefährlichen Körperströmen keine Abhängigkeit von den installierten Schutzmaßnahmen. Geräte der Klasse AP müssen den Anforderungen an Konstruktion, Aufschriften und Begleitpapiere genügen, um Zündquellen in explosionsfähigen Gemischen von Atmungsanästhesiemitteln mit Luft zu vermeiden. Geräte der Klasse APG müssen den Anforderungen an Konstruktion, Aufschriften und Begleitpapiere genügen, um Zündquellen in explosionsfähigen Gemischen
von Atmungsanästhesiemitteln mit Sauerstoff oder Lachgas zu vermeiden. Ferner werden die ME-Geräte nach den Isolationsklassen der Anwendungsteile unterschieden ( Übersicht).
Beschreibung der ME-Geräte nach den Isolationsklassen der Anwendungsteile ▬ Isolationsklasse B – das Anwendungsteil hat Erdverbindung – äußere Anwendung am Patienten – gewährt Schutz gegen elektrischen Schlag unter Beachtung des Fehlerstroms – nicht für direkte Anwendung am Herzen geeignet
▬ Isolationsklasse BF – das Anwendungsteil ist isoliert vom ME-Gerät (keine Erdverbindung) – äußere Anwendung am Patienten – höherwertiger Schutz gegen elektrischen Schlag als bei Isolationsklasse B – nicht für direkte Anwendung am Herzen geeignet
▬ Isolationsklasse CF – das Anwendungsteil ist hochwertig isoliert vom ME-Gerät (keine Erdverbindung) – äußere und intrakardiale Anwendung am Patienten – höherwertiger Schutz gegen elektrischen Schlag als bei Isolationsklasse BF – für direkte Anwendung am Herzen geeignet
Medizinische elektrische Geräte dürfen sowohl im Normalzustand als auch beim ersten internen Fehler keine Gefährdungen hervorrufen, die vernünftigerweise vorhersehbar sind. Voraussetzung dafür sind die bestimmungsgemäße Verwendung der Geräte und die Einhaltung der Anleitungen des Herstellers. Die Funktion, für die das Gerät bestimmt ist, kann im Fehlerfall ausfallen. Als erste Fehler gelten für ME-Geräte: ▬ Unterbrechung des Schutzleiters ▬ Unterbrechung eines Leiters der Stromversorgung ▬ Auftreten einer äußeren Spannung an Anwendungsteilen mit dem Kennbuchstaben »F« ▬ Auftreten einer äußeren Spannung an Signaleingangsoder -ausgangsteilen ▬ Versagen einer elektrischen Komponente Das Versagen der doppelten Isolierung und die Unterbrechung des Schutzleiters in der elektrischen Anlage gelten als unwahrscheinlich. ME-Geräte müssen so konstruiert sein, dass eine Unterbrechung der Stromversorgung bis zu deren Wiederherstellung zu keiner Gefährdung führt, außer zur Unterbrechung der vorgesehenen Funktion. Die Bemessungsspannung darf für Handgeräte und einphasig
53 5.7 · Schutz gegen gefährliche Körperströme
angeschlossene Geräte bis 4 kVA maximal 250 V betragen. Für mehrphasig angeschlossene und sonstige Geräte darf die Bemessungsspannung 500 V nicht überschreiten. Für ME-Geräte beträgt die Toleranz der Nennspannung ±10% und die der Netzfrequenz ±1 Hz. Nach den für die elektrische Anlage geltenden Normen können dort andere Werte auftreten (siehe »Stromversorgung«). Der Schutzleiter der Geräte muss regelmäßig geprüft werden. Dabei sind als Grenzwert zwischen dem PE des Steckers und berührbaren Metallteilen (Gehäuse) für Geräte mit fest angeschlossener Anschlussleitung 0,1 Ω und bei Geräten mit abnehmbarer Anschlussleitung 0,2 Ω zugelassen. In der Ergänzungsnorm DIN VDE 60601-1-1 »Festlegungen für die Sicherheit von medizinischen elektrischen Systemen« (ME Systemen) wird bei Verwendung von ortsveränderlichen Mehrfachsteckdosen verlangt, dass die Verbindung der ME-Geräte eines ME-Systems mit einer Mehrfachsteckdose nur mit Hilfe von Werkzeug möglich sein darf. Anderenfalls muss die ortsveränderliche Mehrfachsteckdose galvanisch getrennt werden (z. B. Trenntransformator). Ein Teil der genannten Anforderungen der DIN VDE 60601-1 an ME-Geräte hat einen direkten oder indirekten Bezug zur elektrischen Anlage. Daraus lassen sich teilweise zusätzliche Anforderungen an die elektrische Anlage ableiten (Uhlig u. Sudkamp 2004). Die ⊡ Tab. 5.1 »Anforderungen der ME-Geräte an die elektrische Anlage« fasst die verschiedenen Anwendungen von ME-Geräten so zusammen, dass die wichtigsten Anforderungen an die Schnittstelle zur elektrischen Anlage erkennbar werden und zusätzliche Anforderungen definiert werden können.
5.5
Medizinisch genutzte Bereiche
Medizinische Untersuchungen und Behandlungen sind in entsprechenden Räumen, den medizinisch genutzten Bereichen, durchzuführen, unabhängig davon, wo sich diese Räume befinden. Das kann ein Krankenhaus, Ärztehaus oder Ärztezentrum, eine Ambulanz oder die Praxis eines niedergelassenen Arztes sein. Die Anwendung setzt die Einteilung der medizinisch genutzten Bereiche in die Gruppen 0, 1 oder 2 voraus (DIN VDE 0100-710 2002). Bedingt durch den möglichen Zustand, wie z. B. Bewusstlosigkeit oder die Art der medizinischen Untersuchung oder Behandlung von Patienten, z. B. eine Operation, bestehen besondere Gefährdungen. Der Hautwiderstand der Patienten kann infolge medizinischer Eingriffe durchbrochen, ihre Wahrnehmungsfähigkeit oder ihr Abwehrvermögen durch medizinische Maßnahmen beeinträchtigt bzw. eingeschränkt sein. Die geforderte Klassifikation und Einteilung der medizinisch genutzten Bereiche in Gruppen – i. d. R. durch den Vertreter des Auftraggebers (= Planer) gemeinsam mit dem medizinischen und technischen Personal (= Betreiber) – muss
zwingend durchgeführt werden. Eine wesentliche Grundlage für die Entscheidung, welcher Gruppe ein Raum zuzuordnen ist ⊡ Abb. 5.1), bildet die Art des Kontaktes von Anwendungsteilen der ME-Geräte mit dem Körper des Patienten. In Bereichen der Gruppe 1 können bereits Untersuchungen und Therapien invasiv, jedoch nicht direkt am Herzen durchgeführt werden. Ein Spannungsausfall mit einer Dauer von maximal 15 s kann in diesem Fall jedoch gefährlich sein. Demzufolge sollte dann die Einordnung in die Gruppe 2 und der Einsatz einer zusätzlichen Sicherheitsstromversorgung (ZSV) erwogen werden. In der Gruppe 2 gelten die Kriterien »Untersuchungen oder Behandlungen intrakardial oder »am offenen Herzen« sowie »lebenswichtige Untersuchungen und Behandlungen«. Die zusätzliche Beschreibung der elektrischen Bedingungen in der DIN VDE 0100-710 für die Einordnung in Gruppen soll bei der Entscheidung helfen (⊡ Abb. 5.2). Bei der Auswahl der Gruppen müssen immer alle Kriterien herangezogen werden, die für die Sicherheit des Patienten wichtig sind. In Zweifelsfällen ist die Entscheidung für die höhere Sicherheit zu wählen (Uhlig u. Sudkamp 2004).
5.6
ME-Systeme nach Art der Erdverbindung
Für die Wirksamkeit und die richtige Anwendung von Schutzmaßnahmen, insbesondere von Schutzmaßnahmen gegen gefährliche Körperströme und gegen elektromagnetische Störungen (Fremdspannungen), ist die konsequente Anwendung des TN-S-Systems nach DIN VDE 0100-710 von grundlegender Bedeutung. Bei diesem System werden der Neutralleiter (N) und der Schutzleiter (PE) im gesamten Gebäude getrennt geführt und nur an einem Punkt, z. B. im Niederspannungshauptverteiler, miteinander verbunden. Damit wird u. a. die Überbrückung von Spannungsdifferenzen an den Gehäusen von Geräten, die sich an verschiedenen Orten in einem Gebäude befinden, durch die Schirmung der Schwachstromleitungen unterbunden.
5.7
Schutz gegen gefährliche Körperströme
In medizinisch genutzten Bereichen der Gruppen 1 und 2 gilt nach DIN VDE 0100-710 eine vereinbarte Grenze der Berührungsspannung4 von UL≤25 V, die eingehalten werden muss. Eine Ausnahme bilden Untersuchungen und Behandlungen direkt am Herzen. Hier gilt nach DIN 57753 »Anwendungsregeln für elektromedizinische Geräte bei intrakardialen Eingriffen, 2/1983« eine Berührungsspannung von maximal 10 mV. Ein derartig kleiner Wert ist im Fehlerfall durch Maßnahmen in der
4
Definiert in DIN VDE 0100-200.
5
54
5
Kapitel 5 · Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen
Gruppe 0
Gruppe 1
Gruppe 2
Sprechzimmer
Praxisräume der Human- und Dentalmedizin
Operations-Vorbereitungsräume
Ordinationsräume
Chirurgische Ambulanzen
Operationsräume
Verbandszimmer
Räume für Heimdialyse
Aufwachräume
Bettenräume
Bettenräume
Intensivpflegeräume
Massageräume
Räume für Hydrotherapie
Frühgeborenenräume
Gymnastikräume
Endoskopieräume
Endoskopieräume
OP-Nebenräume
Räume der minimal invasiven Chirurgie
Räume der minimal invasiven Chirurgie
Inhalatorien
Angiographieräume
Angiographieräume
Herzkatheterräume (Untersuchung)
Herzkatheterräume (Untersuchung und Behandlung)
CT-Räume MRT-Räume EKG-Räume EEG-Räume Entbindungsräume ⊡ Abb. 5.1. Beispiele für die Zuordnung von Räumen zu Gruppen
Medizinisch genutzter Bereich der Gruppe 0
Medizinisch genutzter Bereich der Gruppe 1 Der Patient wird beim Abschalten der elektrischen Anlage infolge eines 1. Körperoder Erdschlusses gefährdet.
Der Patient wird beim Abschalten der elektrischen Anlage infolge eines 1. Körperoder Erdschlusses nicht gefährdet.
Der Patient wird beim
Der Patient wird beim
Anwendungsteile von ME Geräten werden nicht angewendet.
Medizinisch genutzter Bereich der Gruppe 2
A usfall der allgemeinen
A usfall der allgemeinen
Stromversorgung nicht gefährdet.
Stromversorgung gefährdet.
Untersuchungen und Behandlungen können abgebrochen und wiederholt werden.
Behandlungen sind für Patienten gefährlich. Untersuchungen sind nicht wiederholbar. Anwendungsteile von ME Geräten werden äußerlich und/oder invasiv zu jedem beliebigen Teil des Körpers, außer am Herz angewendet.
⊡ Abb. 5.2. Normative Kriterien für die Einteilung in Gruppen. Die verschiedenen Geräteteile bilden mit den dazwischen liegenden sicherheitstechnischen Isolierungen Kondensatoren C, über die der Patientenableitstrom und der Gehäuseableitstrom fließen. Bei Geräten der Schutzklasse I fließt noch der Erdableitstrom über den Schutzleiter.
Anwendungsteile von ME Geräten werden für Anwendungen, wie intrakardiale Verfahren und lebenswichtige Behandlungen angewendet.
A – a Isolierung Netzteil – berührbare Metallteile B – a Isolierung Netzteil – Anwendungsteil B – d Isolierung Anwendungsteil – Netzteil
55 5.7 · Schutz gegen gefährliche Körperströme
elektrischen Anlage über den Schutzleiter rein physikalisch nicht erreichbar. Deshalb dürfen ME-Geräte der Schutzklasse I in diesem Fall nur am medizinischen ITSystem5 betrieben werden. Die flexiblen ZPA-Leitungen (ZPA = zusätzlicher Potentialausgleich) sind unbedingt anzuschließen. Ferner müssen bei derartigen Eingriffen Maßnahmen auf medizinischer Seite durchgeführt werden, wie die Verwendung von ME-Geräten der Isolationsklasse CF. Unter den genannten Voraussetzungen sind Gefahren durch Ableitströme äußerst unwahrscheinlich. Ableitströme (⊡ Abb. 5.3) bzw. deren Auswirkung werden auf Seiten der elektrischen Anlage durch die Anwendung des medizinischen IT-Systems und den ZPA begrenzt. Der Schutz gegen die Wirkung von Ableitströmen wird geräteseitig durch die Verwendung von ME-Geräten der Schutzklasse II und die Begrenzung des Patientenableitstromes erreicht (⊡ Tab. 5.2). Der zusätzliche Potentialausgleich (ZPA) in jedem medizinisch genutzten Bereich bildet die wichtigste grundlegende Schutzmaßnahme in den medizinisch genutzten Bereichen der Gruppen 1 und 2. In den Bereichen der Gruppe 2 sind nach DIN VDE 0100-710 in der Patientenumgebung6 zusätzliche Anschlussbolzen für den ZPA entsprechend DIN 42801 angebracht. Die dort anzuschließenden flexiblen Potentialausgleichsleitungen, ⊡ Tab. 5.2. Maximal zulässige Ableitströme von ME-Geräten nach DIN EN 60601-1 Art
Typ B
Typ BF
Typ CF
Erdableitstrom
0,5 mA
0,5 mA
0,5 mA
Gehäuseableitstrom
0,1 mA
0,1 mA
0,1 mA
welche eine direkte Verbindung zwischen dem PE der fest installierten Anlage und den Gehäusen der ME-Geräte herstellen, erfüllen den Zweck, Potentialdifferenzen zwischen den ME-Geräten in der Patientenumgebung auszugleichen, den Ausfall des Schutzleiters bei Geräten der Schutzklasse I zu verhindern und die Einhaltung der geforderten Berührungsspannung am Gehäuse von Geräten der Schutzklasse I zu gewährleisten. Diese Leitungen sind von großer Wichtigkeit für den Schutz gegen gefährliche Körperströme und immer anzuschließen, wenn Geräte der Schutzklasse I verwendet werden (Uhlig u. Sudkamp 2004). Weitere wichtige Schutzmaßnahmen gegen gefährliche Körperströme sind: 1. Schutz durch automatische Abschaltung nach DIN VDE 0100-410 Die Stromkreise von Steckdosen müssen im Fehlerfall (impedanzloser Kurzschluss) innerhalb von 0,3 s durch die zugeordnete Schutzeinrichtung abgeschaltet werden. Diese Schutzmaßnahme darf nach DIN VDE 0100-710 nur in Bereichen der Gruppe 0 angewendet werden. 2. Schutz durch automatische Abschaltung der Stromversorgung mit RCD7 Auslösestrom IΔN=30 mA Diese Schutzmaßnahme ist für Steckdosen in Bereichen der Gruppen 1 und 2 vorgeschrieben, wenn keine Gefahr für die Patienten besteht. ME-Geräte für lebenswichtige Zwecke dürfen hier nicht angeschlossen werden.
5
Definiert in DIN VDE 0100-710. Definiert in DIN VDE 0100-710 und DIN EN 60601-1-1. 7 Residual current protective devices (Fehlerstromschutzschalter). 6
Patientenableitstrom
0,1 mA
0,1 mA
0,01 mA
⊡ Abb. 5.3. Patient und Anwender in Verbindung mit ME-Gerät (Flügel T et al, 2004)
5
56
5
Kapitel 5 · Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen
3. Schutz durch Meldung von Isolationsfehlern im medizinischen IT-System Werden ME-Geräte für lebenswichtige Zwecke oder nicht wiederholbare Untersuchungen eingesetzt, müssen diese aus einem medizinischen IT-System versorgt werden. Derartige Steckdosen werden nach DIN VDE 0100-710 nur in Bereichen der Gruppe 2 installiert. Hier bildet das medizinische IT-System die bevorzugte Schutzmaßnahme. Wegen der Begrenzung der Leistung der IT-Trenntransformatoren auf max. 8 kVA kann es jedoch nicht immer durchgängig angewendet werden. Das medizinische IT-System bildet ein isoliertes und lokal begrenztes Netz. Die leitfähigen Gehäuse der MEGeräte der Schutzklasse I sind mit dem Schutzleiter verbunden. Bei Auftreten nur eines ersten Körperschlusses tritt als Fehlerstrom nur der Gehäuseableitstrom in Erscheinung und es erfolgt keine Abschaltung. Damit wird erreicht, dass ein für die Untersuchung oder Behandlung lebenswichtiges ME-Gerät beim ersten Körperschluss nicht ausfällt und bis zur Beendigung der Behandlung weiter betrieben werden kann. Der Körperschluss wird dem medizinischen Personal gemeldet. Ein Schutz gegen Überlast ist nicht zulässig. Die Überlastung des IT-Trenntransformators wird dem medizinischen Personal durch eine Überwachungseinrichtung gemeldet. Die Steckdosen des medizinischen IT-Systems sind entsprechend zu kennzeichnen oder unverwechselbar auszuführen, wenn mehrere Systeme nach Art der Erdverbindung in einem Raum vorhanden sind. Damit soll verhindert werden, dass ME-Geräte, die aus dem medizinischen IT-System versorgt werden müssen, nicht versehentlich mit Steckdosen des TN-S-Systems verbunden werden. Für die Farbkennzeichnung gibt es keine normative Vorgabe.
5.8
Stromversorgung
Die sichere Stromversorgung bildet ein weiteres wichtiges Kriterium für den sicheren Betrieb. Für medizinisch genutzte Bereiche stehen folgende Stromversorgungen zur Verfügung: ▬ Allgemeine Versorgung (AV) über einen Hausanschluss oder eine hochspannungsseitige Einspeisung von einem VNB8 ▬ Stromversorgung für Sicherheitszwecke (SV) durch Stromerzeugungsaggregate mit Hubkolbenverbrennungsmotoren ▬ Zusätzliche Stromversorgung für Sicherheitszwecke aus Batterien (ZSV)
8 Versorgungsnetzbetreiber.
Zwischen diesen Stromversorgungen (Stromquellen und Netzen) muss bei der Versorgung von sicherheitsrelevanten Verbrauchern in Bereichen der Gruppe 2 umgeschaltet werden. Die Anforderungen an die Umschaltung sind in DIN VDE 0100-710 unter mehreren Abschnitten zu finden. Unter Beachtung dieser normativen Quellen sind in den Unterverteilern zur Versorgung von Bereichen der Gruppe 2 folgende Umschalteinrichtungen erforderlich: ▬ Umschaltung zwischen einer SV- und AV-Einspeisung Hier wird die Spannung der Außenleiter der ersten Leitung (SV) überwacht. Fällt die erste Leitung aus, muss die Weiterversorgung der unter 710.564.4 und 5 genannten Verbraucher, soweit diese aus einem Unterverteiler zu versorgen sind, innerhalb von 15 s gesichert werden. ▬ Umschaltung zwischen einer SV- und ZSV-Einspeisung Hier wird die Spannung der Außenleiter der ersten Leitung (SV) überwacht. Fällt die erste Leitung aus, muss die Weiterversorgung der ME-Geräte innerhalb von 0,5 s gesichert werden. Wird die ZSV im Dauerbetrieb genutzt und die erste Leitung aus der ZSV versorgt, steht die Spannung unterbrechungsfrei zur Verfügung. Ein wichtiges Kriterium für die sichere Stromversorgung bilden die Stabilität und die Qualität der Versorgungsspannung. Die Nennspannung des Netzes kann bei Einhaltung der Normen an der Steckdose in Einzelfällen um 14% nach unten von der Nennspannung abweichen. Bei der Versorgung des Netzes aus einem Stromerzeugungsaggregat sind bei bestimmten Laständerungen Abweichungen vom zulässigen Toleranzband für die ME-Geräte von ±1 Hz möglich. Außerdem können Oberschwingungsströme wegen der niedrigeren Impedanz des Generators gegenüber dem Netz die Spannung beaufschlagen und zu Störungen führen. Die genannten Abweichungen sind durch geeignete planerische Maßnahmen zu kompensieren (Uhlig u. Sudkamp 2004).
5.9
Stromquellen für Sicherheitszwecke mit Akkumulatoren
Nach DIN VDE 0100-710 wird für Operationsleuchten die Versorgung aus einer ZSV mit einer maximal zulässigen Unterbrechungszeit von 0,5 s bei einer Mindestversorgungsdauer von drei Stunden gefordert. Zentrale ZSVAnlagen für die Versorgung von ME-Geräten sind leider nicht mehr Gegenstand der DIN VDE 0100-710. In der DIN EN 60601-1 wird gefordert, ME-Geräte so zu konstruieren, dass eine Unterbrechung der Stromversorgung bis zu deren Wiederherstellung zu keiner Gefährdung führt. Auf dieser Grundlage wird die Funktion der ZSV in vielen Fällen durch in die ME-Geräte eingebaute sog.
57 5.12 · Elektromagnetische Verträglichkeit (EMV)
interne Stromquelle übernommen. Wie viele Beispiele belegen, ist jedoch unverändert Bedarf an zentralen ZSVAnlagen vorhanden. Einige Gründe dafür sind: ▬ Zentrale ZSV verursachen, insbesondere in großen medizinischen Einrichtungen, geringere Kosten, wenn man neben den Investitionskosten den hohen Prüfund Wartungsaufwand für die internen Stromquellen (Kleinakkumulatoren) berücksichtigt. ▬ Andere unentbehrliche Leuchten für die OP-Feldbeleuchtung (z. B. OP-Mikroskope, Endoskope) werden mit 230 V Wechselspannung betrieben. ▬ Die internen Stromquellen der ME-Geräte sind nicht ausreichend zuverlässig. ▬ Die internen Stromquellen von ME-Geräten verfügen über kein Ersatzsystem. ▬ Es sind ME-Geräte ohne interne Stromquelle im Umlauf. ▬ Die zentralen ZSV-Anlagen werden baurechtlich gefordert (nicht in allen Bundesländern). ! Entsprechend DIN EN 50171 dürfen USV für Sicher-
heitszwecke nur verwendet werden, wenn diese der DIN EN 50171 und der DIN EN 62040-1 Teil 1 und 2 von 10/2003 entsprechen. Handelsübliche USV erfüllen diese Anforderungen i. d. R. nicht. 5.10
Endstromkreise und Steckdosen
Für die Stromkreise von Steckdosen werden in der DIN VDE 0100-710 wichtige Anforderungen genannt. So müssen die Steckdosen am Patientenplatz mindestens auf zwei Stromkreise aufgeteilt werden. In der Anmerkung findet sich die Forderung, bei mehr als zwei Stromkreisen je Patientenplatz zwei medizinische IT-Systeme aufzubauen. Damit ist der Aufbau von zwei medizinischen IT-Systemen pro Patientenplatz praktisch normativ empfohlen. Bei der Verwendung von ortsveränderlichen Mehrfachsteckdosen sind einzeln geschützte Stromkreise vorgeschrieben. Die Verwendung von Mehrfachsteckdosen sollte aus Sicherheitsgründen, mit Ausnahme von fahrbaren Gerätewagen, unterbleiben. ! Entsprechend DIN EN 60601-1-1 »Medizinische
elektrische Geräte – allgemeine Anforderungen« darf der Anschluss von Geräten, die medizinisch angewendet werden, mittels ortsveränderlicher Mehrfachsteckdosen nur mit Hilfe von Werkzeug möglich sein. Die Norm enthält eine Skizze mit der möglichen technischen Lösung für die Umsetzung dieser Anforderung. Alternativ müsste jede Mehrfachsteckdose galvanisch getrennt betrieben werden (Trenntransformator).
Die Norm verlangt ferner, alle Steckdosen, die ME-Geräte versorgen, mit einer optischen Spannungsanzeige auszustatten. Dadurch erkennt das medizinische Personal
sofort, welche Steckdosen nach einem Fehler noch Spannung führen.
5.11
Statische Elektrizität
Statische Aufladungen sind von der Leitungsfähigkeit und Trenngeschwindigkeit der beteiligten Materialien abhängig. Leitfähig sind feste oder flüssige Stoffe, deren spezifischer Widerstand bis zu 104 Ohm pro Meter beträgt. Nicht leitfähige Stoffe haben hingegen einen spezifischen Widerstand von mehr als 104 Ohm pro Meter. Besonders im Operationsbereich, wo eine Vielzahl von medizintechnischen Geräten vorhanden ist und Anästhesiegase sowie brennbare Flüssigkeiten wie Desinfektionsmittel verwendet werden, könnte eine elektrostatische Entladung die »explosionsfähige OP-Atmosphäre« entzünden und verheerende Wirkung entfalten. Deshalb sind folgende Schutzmaßnahmen in medizinisch genutzten Räumen mit explosionsgefährdeten Bereichen erforderlich (Twachtmann 1992): ▬ Arbeitskleidung sowie Decken und Tücher müssen aus einem Mischgewebe mit mindestens 30% Anteil an naturbelassener Baumwolle oder Viskose (ohne Kunstharzausrüstung) bestehen. Gummitücher, -matratzen und -kopfkissen müssen aus leitfähigem Gummi hergestellt oder überzogen sein. ▬ Der Ableitwiderstand des Fußbodens darf 107 bis 108 Ohm betragen. Um eine gewisse Standard-Isolation zu erreichen, sollte ein Fußboden-Ableitwiderstand von 5×104 Ohm nicht unterschritten werden. ▬ Einrichtungsgegenstände, die berührbar und leitfähig sind, müssen miteinander sowie mit dem Fußboden leitfähig verbunden werden. Der Fußboden muss elektrostatisch leitfähig und gleichzeitig mit dem Potentialausgleich verbunden sein. ▬ Operationstischsysteme müssen an den Potentialausgleichsleiter bzw. Schutzleiter angeschlossen sein. Die Tischauflage muss elektrisch leitfähig sein, damit eine durch Reibung entstehende Elektrizität ohne Funkenbildung über den geerdeten Tisch abfließen kann. ▬ Mindestens einen Ableitwiderstand von 5×104 Ohm muss die leitfähige Fußbekleidung (einschließlich Überschuhe) aufweisen. ▬ Atembeutel von Inhalationsnarkosegeräten und Sauerstoffbeatmungsgeräten dürfen nur aus leitfähigem Material gefertigt sein. Besonders geeignet sind elektrisch leitfähige Latexmischungen oder Polypropylen.
5.12
Elektromagnetische Verträglichkeit (EMV)
Von ME-Geräten und ME-Systemen wird ein sehr hohes Niveau der elektromagnetischen Verträglichkeit verlangt, um die Funktionstüchtigkeit von anderen elektrischen
5
58
5
Kapitel 5 · Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen
Einrichtungen zu gewährleisten. Nach der IEC 50-161 ergibt sich für die EMV folgende Definition: > Definition »Elektromagnetische Verträglichkeit (EMV) ist die Fähigkeit einer elektrischen Einrichtung oder eines Systems, in seiner elektrischen Umgebung befriedigend zu funktionieren, ohne unannehmbare elektromagnetische Störgrößen für andere Einrichtungen in diese Umgebung einzubringen.« (ICE 50-161 1990)
Magnetische und elektrische Störfelder können den sicheren Betrieb von medizintechnischen Geräten und Systemen beeinträchtigen oder verhindern. Einerseits können aus der Umgebung leitungsgeführte oder gestrahlte Störungen auf die medizintechnische elektrische Einrichtung einwirken, andererseits von dieser Einrichtung ausgehen. Ein Beispiel für eine gestrahlte Störgröße ist die Elektrochirurgie bzw. HF-Chirurgie: Im Prinzip ist die Bauweise eines HF-Generators (Frequenzspektrum 0,4–5 MHz) mit einem Sender vergleichbar, es fehlen nur elektronische Bauteile für die Informationsübertragung sowie eine Antenne. Ein hoher Anteil der hochfrequenten Energie des HF-Generators wird – insbesondere bei älteren Geräten – drahtlos von den Leitungen in die Umgebung abgestrahlt. Weitere Störungen treten auf, wenn elektrische Leitungen parallel zu den Leitungen des HF-Generators geführt werden, da durch kapazitive und induktive Einkoppelungen vagabundierende Ströme in den elektrischen Zuleitungen benachbarter Geräte entstehen. Für den störungsfreien Betrieb elektromedizinischer Geräte und Anlagen ist es zudem notwendig, dass die benötigte Netzspannung elektromagnetisch verträglich ist, d. h., wenn einerseits der Effektivwert stabil innerhalb vorgegebener Grenzen liegt und andererseits der Störpegel in der Spannung kleiner ist als die Verträglichkeitspegel der betriebenen Gerätschaften (EMV-Umgebungsklasse 1 und/oder 2). Wesentliche leitungsbedingte Störeinflüsse werden durch sog. Störphänomene wie ▬ Schwankungen in der Spannung und periodische Spannungsschwankungen infolge schneller Laständerungen im Versorgungsnetz (Flicker) ▬ Oberschwingungen und zwischenharmonische Schwingungen ▬ Spannungseinbrüche und kurze Unterbrechungen ▬ transiente Überspannung ▬ Unsymmetrien ▬ Netzfrequenzschwankungen verursacht. Mit wachsender Anzahl und vermehrtem Einsatz von ME-Geräten wachsen auch proportional die Probleme mit der elektromagnetischen Verträglichkeit, die letztlich ein Synonym für Begriffe wie Überspannungen, hochfrequente Einstreuungen, 50 Hz Netzbrummen, Erdschleifen, Netzrückwirkungen u. a. ist (⊡ Tab. 5.3).
Für elektromedizinische Geräte sind folgende EMVBesonderheiten von Interesse (Sitzmann 1998): ▬ Bei lebenserhaltenden und -unterstützenden medizintechnischen Geräten und Systemen muss der bestimmungsgemäße Betrieb ohne Beeinträchtigung sichergestellt sein. ▬ Bei nicht lebenserhaltenden medizintechnischen Geräten und Systemen darf eine Beeinträchtigung auftreten, die nicht sicherheitsrelevant ist und vom Anwender erkannt werden kann. ▬ Geräte unterschiedlicher Funktion, die mit dem Patienten direkt verbunden sind, müssen ohne gegenseitige Beeinflussung zuverlässig arbeiten. ▬ Für den OP-Bereich gelten spezielle Anforderungen. ▬ Hinsichtlich der Ableitströme (z. B. Gehäuseableitstrom) gibt es spezielle Entstörkonzepte. Um eine elektromagnetische Verträglichkeit in der Medizintechnik sicherzustellen, bieten sich u. a. folgende technische und organisatorische Maßnahmen an (Hartung 1999): 1. Für direkte Sicherheit kommen Massung, Erdung, Potentialausgleich, Abschirmung, Filterung, Schutz gegen Überspannung, Auswahl an Leitungen, EMVgerechte Schaltungsauslegung in Frage. 2. Indirekte Sicherheit wird erzielt durch räumliche Maßnahmen, Signalwandlung der Nutzgrößen, Einsatz störsicherer Software, Einbau von Alert-Techniken. 3. Administrative Sicherheit wird u. a. erreicht durch Verhaltensregeln, EMV-Planung, Instandhaltung und -setzung sowie Wartung.
⊡ Tab. 5.3. Anhaltswerte von Störgrößenparametern (Meyer 1991) Störgröße
Einheit
Anhaltswerte
Frequenzbereich
[Hz]
0–1010
Spannung
[V]
10-6–106
Spannungsänderung
[V/s]
bis 1011
Strom
[A]
10-9–105
Stromänderung
[A/s]
bis 1011
Feldstärke, elektrische
[V/m]
bis 105
Feldstärke, magnetische
[A/m]
10-6–108
Leistung
[W]
10-9–109
Pulsenergie
[J]
10-9–107
Anstiegszeiten
[s]
10-10–10-2
Impulse/Dauer
[s]
10-8–10
59 5.13 · Zusammenfassung
5.13
Zusammenfassung
Zusammenfassend basieren die primären Anforderungen an ME-Geräte und die elektrische Anlage in medizinisch genutzten Bereichen auf der gesicherten Stromversorgung, dem Schutz gegen gefährliche Körperströme sowie magnetische oder elektrische Störungen und dem Schutz gegen Explosions- oder Brandgefahr. Im Umgang mit ME-Geräten ist es unumgänglich, dass sich die jeweiligen Anwender mit der Funktionsweise, dem Verwendungszweck des elektromedizinischen Geräts sowie den Kombinationsmöglichkeiten mit MESystemen vertraut machen. Darüber hinaus sind die Kontrolle des Gerätezustands, des Zubehörs sowie der Kabelleitungen und die Funktionskontrolle der ME-Geräte mit entscheidend für den sicheren Betrieb.
Literatur Hartung C (1999) Szenario elektromagnetischer Störungen am Beispiel der Medizintechnik im Krankenhaus. mt 5: 172–177 Flügel T et al. (2004) Starkstromanlagen in medizinisch genutzten Gebäuden mit stationären oder ambulanten Bereichen. 3. Aufl. VDE Verlag, Berlin IEC 50–161 (1990) International Electrotechnical Vocabulary (IEV). Chap 161 Electromagnetic Compatibility ISO Guide 51 (1990) Guidelines for inclusion of safety aspects in standards. Beuth, Berlin Meyer HG (1991) Elektromagnetische Verträglichkeit. In: Hutten H (Hrsg) Biomedizinische Technik: Medizinische Sondergebiete, Bd 4. Springer/TÜV Berlin Heidelberg New York Tokyo Köln, S 301– 339 Schneider B et al. (1976) Aufgabe und Arbeitsweise der Fachkräfte für Arbeitssicherheit. In: Bundesanstalt für Arbeitsschutz (Hrsg) Grundlehrgang A für Sicherheitsfachkräfte, Bd II. TÜV, Köln Sitzmann R (1998) Elektromagnetische Verträglichkeit in der Medizintechnik. Electromedica 2: 84–86 Twachtmann W (1992) Sichere Stromversorgung im Krankenhaus. Krankenhaus Technik 1: 42–44 Uhlig H-P, Sudkamp N (2004) Elektrische Anlagen in medizinischen Einrichtungen. Hüthig & Pflaum, Heidelberg
5
6 Ökonomische Aspekte der betrieblich-medizinischtechnischen Einrichtungsplanung (BMTE) H. Knickrehm, B. Karweik
6.1
Einleitung – 61
6.2
Rahmenbedingungen – 61
6.2.1 6.2.2
Neubau – 61 Bestand – 62
6.3
Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI – 62
6.3.1 6.3.2
Bedarfsermittlung (HOAI-Phasen 1/ 2) – 62 Kostenberechnung der Gerätebeschaffung (HOAI-Phase 3) – 64 Genehmigungsplanung und Ausführungsplanung (HOAI-Phasen 4/ 5) – 68
6.3.3
6.1
Einleitung
Der betriebswirtschaftlich effiziente Einsatz medizintechnischer Systeme gewinnt aufgrund der Strukturreformen im deutschen Gesundheitswesen für Kliniksowie Praxisbetreiber zunehmend an Bedeutung. Die daraus resultierenden Forderungen nach einer optimalen Auslastung von Ressourcen müssen deshalb bereits im Rahmen der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE) berücksichtigt werden, damit eine optimale Nutzung des Potentials (bauliche Struktur sowie Technik) möglich ist. Hierbei sind neben der medizintechnischen Beschaffung entsprechend der vom Nutzer vorgesehenen Anwendung auch betriebsorganisatorische Aspekte zu beachten. Zudem ist durch das stetig zunehmende Leistungspotential der medizintechnischen Systeme sowie der damit verbundenen komplexen Installationsanforderungen eine koordinierte Zusammenarbeit verschiedenster Fachplaner (z. B. Architekt, Elektrotechnik-Fachplaner, Medizintechnik-Fachplaner) erforderlich. Ziel des nachfolgenden Kapitels ist die beispielhafte Darstellung eines Beschaffungsvorganges für ein medizintechnisches System im Rahmen einer öffentlichen Ausschreibung, wobei grundsätzlich zwischen einer Neubau-Maßnahme sowie einer Beschaffung im Bestand hinsichtlich eines Systemersatzes oder einer Erweiterung zu differenzieren ist.
6.3.4 6.3.5
6.4
6.2
Erstellung des Leistungsverzeichnisses (HOAI-Phasen 6/ 7) – 68 Objektüberwachung und Gewährleistungsüberwachung (HOAI-Phasen 8/ 9) – 71
Ausblick
– 72
Literatur
– 72
Rahmenbedingungen
Für die Beschaffung eines medizintechnischen Systems ist es aus technischer sowie betriebsorganisatorischer Sicht von erheblicher Bedeutung, ob die Installation in einem Neubau oder in einem bestehenden Gebäude (im Bestand) erfolgen soll, da sich dieses auf das Beschaffungsvolumen, die mögliche Konfiguration des Systems und die Ablaufplanung auswirkt. Bei einem Neubau ist weiterhin zu unterscheiden, ob die Anwendung der vorgesehenen Beschaffung bereits im Leistungsspektrum der medizinischen Einrichtung etabliert ist und somit eine Übernahme vorhandener geeigneter Geräte erlaubt oder ob es sich um die Installation einer vollkommen neuen Behandlungsmethode handelt.
6.2.1 Neubau
Im Rahmen einer Neubaumaßnahme zur baulichen Modernisierung und/oder Erweiterung einer medizinischen Einrichtung wird i. d. R. sowohl das medizintechnische System selbst als auch dessen Peripherie neu beschafft bzw. neu gebaut. In vielen Fällen sind neben einem festinstallierten medizintechnischen Großgerät (z. B. Magnetresonanztomographie-System, Herzkatheter-Anlage) auch entsprechende Subsysteme zu beschaffen, wobei sich dieses überwiegend auf die lose medizintechnische Einrichtung bezieht (z. B. Notfall-Defibrillator, Reanimationswagen, Spritzenpumpen). Um gegebenenfalls bereits vorhandene Geräte hinsichtlich einer möglichen Weiter-
62
6
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
verwendung im Neubau berücksichtigen zu können, wird im Rahmen einer Bestandsbegehung sämtliches medizintechnisches Gerät erfasst und bewertet. Insbesondere bei Festeinbauten sind Umsetzungskosten einzukalkulieren, die teilweise eine Weiterverwendung aufgrund von den Neubeschaffungswert überschreitenden Umsetzungskosten oder einer nicht wirtschaftlichen Relation zwischen dem Restwert des Gerätes, verbleibender Nutzungsdauer sowie Umsetzungskosten im Gegensatz zu einer Neuinstallation eines Gerätes ausschließen. In der Regel ist einzig die Umsetzung teurer medizintechnischer Geräte (v. a. Großgeräte) mit einem Alter kleiner vier Jahre wirtschaftlich, da diese Geräte noch eine ausreichende RestNutzungsdauer bieten. Weiterhin ist bei Verwendung vorhandener Geräte eine gut organisierte Umzugs- und Inbetriebnahmeplanung erforderlich, um eine wesentliche Einschränkung der medizinischen Leistungsfähigkeit vor, während und nach dem Umzug zu vermeiden. Einen Sonderfall stellt die Situation eines Neubaus mit einer Erweiterung der bisher vorhandenen Anzahl an Behandlungsplätzen sowie der Übernahme von Bestandsgroßgerät mit äquivalenter Funktion wie das zu beschaffende System dar. Hierbei muss im Rahmen der Beschaffung die Anbindung an die später im Neubau durch Übernahme von Bestandsgerät gegebene direkt in Verbindung stehende Geräteumgebung berücksichtigt und die Anzahl der Subsysteme unabhängig von der Anzahl übernahmefähiger Subsysteme erhöht werden. Betriebsorganisatorisch erlaubt ein Neubau eine Optimierung der Abläufe durch Integration des neuzubeschaffenden Systems in eine auf den jeweiligen Behandlungs- oder Therapieschwerpunkt ausgelegte Peripherie. Durch direkten Zugriff auf z. B. vor- und nachgelagerte Bereiche (z. B. Patienten-Holding-Area, Aufwachraum, Intensivstation) und einem damit verbundenen effizienten Workflow ist ein entsprechend der Investitionskosten erforderlicher Patientendurchsatz möglich, um eine Anlage wirtschaftlich und qualitativ hochwertig betreiben zu können. Diese Aspekte sind bei der Erstellung des Funktions- und Raumprogrammes sowie bei der folgenden, darauf basierenden, architektonischen Grundrisserstellung zu berücksichtigen.
exakte Koordination und Terminplanung der vor Ort ausführenden Fachfirmen erforderlich ist, um Einschränkungen des medizinischen Leistungsspektrums soweit wie möglich zu minimieren. Zunächst wird im Rahmen einer Bestandsbegehung festgestellt, ob ein Betrieb bereits vorhandener Systeme mit der Neuinstallation möglich ist (z. B. KontrastmittelInjektor) und ob diese Systeme auch den zukünftigen Anforderungen des Nutzers entsprechen. Weiterhin sind die Anforderungen an das neue System zu definieren, um eine funktions- und leistungsfähige Integration in eine vorhandene Geräteumgebung zu ermöglichen (z. B. Schnittstellen zu RIS und PACS). Abschließend wird auf Grundlage einer Kostenschätzung das notwendige medizintechnische Beschaffungsvolumen durch den Bauherrn festgelegt. Betriebsorganisatorisch ist zu klären, wie die Anbindung an die vorhandene räumliche Struktur erfolgen soll und ob diese Struktur ausreichend Ressourcen bietet, um einen effizienten Betrieb zu gewährleisten (z. B. Anzahl von Betten im Aufwachraum). Gegebenenfalls ist eine Umstrukturierung zur Optimierung der Anbindung oder auch Erweiterung in Erwägung zu ziehen, um entsprechende Ressourcen bereitstellen zu können.
Der Vorgang der medizintechnischen Beschaffungsmaßnahme kann anhand der verschiedenen Leistungsphasen der Honorarordnung für Architekten und Ingenieure (HOAI) wie folgt abgebildet werden (⊡ Abb. 6.1). Dieser Vorgang unterliegt bei einigen der in ⊡ Abb. 6.1 dargestellten Arbeitsprozessen neben rein technischen Aspekten auch ökonomischen Rahmenbedingungen, auf deren Auswirkungen auf die biomedizinische Einrichtungsplanung im Folgenden näher eingegangen werden soll. Da diese Aspekte überwiegend nur bei entsprechend hohen Beschaffungskosten (über 100.000 Euro) vollwertig zum Tragen kommen, werden Beschaffungen mit geringen Investitionskosten und geringen Planungsanforderungen hierbei vernachlässigt.
6.2.2 Bestand
6.3.1 Bedarfsermittlung (HOAI-Phasen 1/ 2)
Bei Systemerneuerung oder auch Erweiterung der medizintechnischen Möglichkeiten hinsichtlich Diagnostik und Therapie im Bestand (z. B. Neu-Etablierung der Kardangiographie durch Installation eines Herzkatheterlabors) muss hingegen das System mit erweitertem technischen sowie medizinischen Leistungspotential in eine vorhandene Umgebung eingebunden werden. Je nach räumlicher Situation und Umfang muss die Maßnahme parallel zum laufenden medizinischen Betrieb erfolgen, weshalb eine
Um den Bedarf bzw. die Anforderungen an die Neubeschaffung feststellen zu können, wird aus Sicht der medizintechnischen Fachplanung dem späteren Nutzer primär eine Standard-Gerätekonfiguration als Diskussionsgrundlage vorgelegt, die eine Durchführung der üblichen Diagnostik- und/oder Therapieverfahren ermöglicht. Für die Auslegung der Standard-Gerätekonfiguration zur Beschaffung der Hard- und Software sind insbesondere folgende Aspekte zu beachten:
6.3
Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
63 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
⊡ Abb. 6.1. Phasen der MT-Planung nach HOAI
6
64
6
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
▬ die Versorgungsstufe und Versorgungsleistung des Krankenhauses bzw. das Leistungsspektrum des behandelnden Arztes ▬ gegebenenfalls Spezialisierung des Krankenhauses oder des Arztes (z. B. pädiatrische Patienten) ▬ die System-Performance zur Erbringung der erwünschten Untersuchungs- oder Behandlungfallzahlen in einem vorgegebenen Zeitintervall ▬ Voraussetzungen, um die Leistungen gegenüber den Krankenkassen fakturieren zu können ▬ Umfang der notwendigen Maßnahmen zur Qualitätssicherung (entsprechend der Vorgaben der entsprechenden Fachkreise (Leitlinien), Kostenträger sowie aus hausinternen QS-Maßnahmen) ▬ gegebenenfalls bereits vorhandene Systeme mit äquivalenter Anwendung hinsichtlich Anbindung, Schnittstellen und gemeinsamer Nutzung von Ressourcen Im nächsten Schritt wird unter Berücksichtigung des vorgesehenen Anwendungsbereiches in Zusammenarbeit mit dem Nutzer das Leistungsprofil des Gerätes konkretisiert und die Gerätekonfiguration an diese Bedürfnisse angepasst. Diese grundlegenden Anforderungen werden dann in einer grobstrukturierten Konfigurationsübersicht festgehalten und stellen folgend die Grundlage für die Kostenberechnung der Gerätebeschaffung dar.
kontaktierten Wettbewerber gewähren erfahrungsgemäß Nachlässe zu den Richtpreiskonditionen, die allerdings von sehr vielen Randbedingungen abhängen und insofern schwer kalkulierbar sind. Zu den Kosten der reinen Gerätebeschaffung sind noch die Kosten für die Erstellung oder den Umbau des Baukörpers zu addieren, die im Rahmen einer Haushaltsunterlage Bau (HU-Bau) in Zusammenarbeit aller beteiligten Fachplaner ermittelt werden. Vom medizintechnischen Fachplaner wird in diesem Zusammenhang in Form eines technisches Raumbuches (⊡ Abb. 6.2) eine Aufstellung aller im Raum vorgesehenen medizintechnischen Festeinbauten und der losen Einrichtung erarbeitet, wobei zwischen übernahmefähigen Bestandsgeräten (sofern Informationen in dieser Phase verfügbar) und neu zu beschaffenden Geräten unterschieden werden kann. Weiterhin enthält dieses Raumbuch eine Zusammenfassung der technischen Anforderungen der medizintechnischen Geräte und Festeinbauten an den Raum (z. B. Medienbedarf für den Anschluss einer Deckenversorgungseinheit, Statik bei hohen Gewichten) und dient somit den weiteren beteiligten Fachplanern als Grundlage zur Ermittlung der jeweiligen fachbezogenen Kosten.
Finanzierung der Gerätebeschaffung Förderung und Privatinvestor
6.3.2 Kostenberechnung der Geräte-
beschaffung (HOAI-Phase 3) Erstellung der Haushaltsunterlage Gerät/ Bau Die Kosten für die Gerätebeschaffung umfassen alle Leistungen des Bieters bis zur fachtechnischen Abnahme des Gerätes und Übergabe an den Bauherren und Nutzer, wobei alle Nebenkosten wie z. B. Kosten für Angebotskalkulation, Ausführungszeichnungen, Lieferung, Einbringung, Anschlusserweiterung, Abnahmeprüfungen und Personalunterweisung enthalten sind. Hierfür liegen dem medizintechnischen Einrichtungsplaner Vergleichskosten aus bereits abgeschlossenen Projektmaßnahmen vor, um im Rahmen der Erstellung einer Haushaltsunterlage Gerät (HU-Gerät) eine zuverlässige Kostenberechnung (ca. +/–5% Kostenunsicherheit) abgeben zu können. Die Verwendung bzw. Fortschreibung (Kostensteigerungsindizes statistisches Bundesamt) von Kostenfeststellungen basierend auf Projekten, die seit mehr als drei Jahren abgeschlossen sind, ist nicht sinnvoll, da aufgrund der sehr kurzen Produktzyklen im Bereich der Hardware und insbesondere der Software eine zuverlässige Kostenschätzung für eine in der Zukunft liegende Maßnahme nicht möglich ist. Falls für das zu beplanende Vorhaben keine aktuellen Daten verfügbar sind (insbesondere bei sehr ausgefallenen Systemen), erfolgt die Einholung von Richtpreisangeboten von mindestens drei Anbietern. Diese
Die Haushaltsunterlagen werden dem Bauherren zur Genehmigung eines Budgets vorgelegt, wobei medizinische Einrichtungen der öffentlichen Hand eine Förderung durch das jeweilige Land beantragen können. Hierbei ist zu beachten, dass Krankenhausfinanzierungsgesetze auf Landesrecht basieren und somit Unterschiede hinsichtlich des Vorgehens der Beantragung sowie der Form des Antrages aufweisen können. Bei universitären Einrichtungen besteht zudem durch das Hochschulbauförderungsgesetz (HBFG) die Möglichkeit der Förderung von Großgeräten zur Forschung und Lehre mit einer Anschaffungssumme über 125.000 Euro (inkl. Zubehör) durch den Bund. Diese Förderung über das HBFG wird z. Zt. (Stand: 08/2006) jedoch politisch kontrovers diskutiert. Prinzipiell war vorgesehen, dass diese allgemeine Förderung durch das HBFG ab 2007 nicht mehr durch den Bund, sondern durch die einzelnen Länder erfolgen soll. Diskussionsbedarf besteht nun hinsichtlich der konkreten Inhalte bzw. dem Umfang dieser Reform, der Zuständigkeit sowie der Zusicherung der finanziellen Mittel auf möglichst äquivalentem Niveau. In bestimmten Bereichen wird evtl. auch weiterhin eine Förderung über das HBFG durch den Bund in Erwägung gezogen. Nachdem für eine Beschaffungsmaßnahme ein entsprechender Förderungsbescheid bzw. ein genehmigter HBFG-Antrag vorliegt, kann mit der detaillierten Planung und der Erstellung eines Leistungsverzeichnisses
65 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
zur öffentlichen Ausschreibung nach VOB oder VOL begonnen werden. Falls der Förderungsbescheid nicht die vollständigen Kosten für eine vorgesehene Maßnahme deckt, muss vom Bauherren eine Kostenübernahme verbindlich zugesichert werden (genehmigte Kosten).
Bei privaten Investoren muss eine Kostenübernahmeerklärung auf Grundlage der Kostenschätzung abgegeben werden, um die Planung fortführen zu können. Da hierbei keine öffentlichen Gelder verwendet werden, muss nicht in allen Fällen eine öffentliche Ausschreibung erfolgen.
⊡ Abb. 6.2. Auszug aus einem technischen Raumbuch (Axx für Neubeschaffung, Bxx für Bestand)
6
66
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
6
⊡ Abb. 6.2. Fortsetzung
Finanzierung ohne Förderung
Falls eine Förderung mit öffentlichen Mitteln nicht möglich ist und somit eine Eigenfinanzierung der Maßnahme erforderlich ist, kann auf alternative Finanzierungsformen zurückgegriffen werden, die aufgrund zunehmend eingeschränkter Zuweisungen der öffentlichen Hand stark an
Bedeutung gewonnen haben. Nachfolgend sollen wesentliche Formen kurz genannt werden. Public Private Partnership (PPP)
Da insbesondere umfangreiche Finanzmittel für den Neubau kompletter klinischer Einrichtungen oder wesent-
67 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
licher Bestandteile von klinischen Einrichtungen durch die öffentliche Hand aufgrund zunehmend schwieriger finanzieller Rahmenbedinungen nur noch eingeschränkt freigegeben werden können, wird von industrieller Seite eine Finanzierung über Public Private Partnership (PPP) offeriert. Dabei wird das Gebäude, die vollständige Einrichtung sowie der Betrieb und die Instandhaltung (Facility Management) von einem privaten Partner (z. B. große Bauunternehmen, Investorgruppen) finanziert. Über einen Mietvertrag mit vorgegebener Laufzeit wird dem Nutzer das Gebäude überlassen, wofür ein periodisch zu zahlender Mietpreis zu entrichten ist. Dieser Mietpreis als auch die Kosten für Verbrauchsmaterial sowie die anfallenden Löhne und Gehälter der Mitarbeiter des medizinischen Betriebes müssen vom Nutzer entrichtet werden und sollten durch die Erlöse aus den Patientenbehandlungen und -therapien gedeckt werden. Je nach Ausgestaltung des Vertrages kann z. B. der Umfang der Leistungen durch den Investor und somit der Mietpreis variiert (z. B. Gerätebeschaffung und Instandhaltung über die Klinik) oder das Gebäude nach Ablauf der Laufzeit übernommen werden. Pay-per-use
Durch die Gerätehersteller wird bereits seit Jahren die Nutzung von medizintechnischen Geräten auf Basis einer zu zahlenden Stück-Pauschale angeboten, die vom Nutzer für jede mit dem Gerät durchgeführte Untersuchung (z. B. Analysen mit einem BGA-Messgerät) zu entrichten ist. In dieser Pauschale sind bereits die Kosten für Verbrauchsmaterial, Wartung und Gerätestellung enthalten. Diese Pauschale kann auch über eine vertraglich geregelte Abnahme von Verbrauchsmaterial (z. B. Reagenzien) beim Gerätehersteller beglichen werden. Vorteil ist hierbei, dass keine großen Investitionen notwendig sind, um ein Gerät nutzen zu können, sondern direkt aus den erzielten Einnahmen die Kosten für das Gerät bezahlt werden können.
Personalkosten, Versicherung sowie Gerätebeschaffung (jährliche Abschreibung) müssen die fallzahlabhängigen Kosten für Geräteabnutzung, nutzungsabhängige Wartung, Verbrauchsmaterial, Ersatzteilkosten und Verbrauchsmedien (z. B. Strom, Wasser, Gase) berücksichtigt werden. Anhand dieser Werte kann abgeschätzt werden, ob ein wirtschaftlicher Betrieb der Anlage mit den gegebenen Fallzahlen möglich ist bzw. welche abrechenbare Fallzahl mindestens erforderlich ist, um die Amortisiation eines Systems sicherzustellen (⊡ Tab. 6.1).
Echtzeit-Simulation Bei Systemen mit hohen Investitions- und Betriebskosten kann die Echtzeit-Simulation ein sinnvolles Instrument sein, um zu gewährleisten, dass mit dem vorgesehenen Grundriss, der Raumnutzung und den vorgesehenen Behandlungsabläufen ein für den wirtschaftlichen Betrieb entsprechender Patientendurchsatz möglich ist. Hierzu werden die vorgesehenen Behandlungsabläufe innerhalb einer Ressourcenmatrix erfasst, wobei die einzelnen Prozess-Schritte mit Zeitwerten, Personalbindungszeit, Raumbelegungszeit sowie prozentualer Verteilung der Behandlungs-Schritte unterschiedlicher randomisierter Patientengruppen abgebildet werden. Somit ist es möglich, nach dem maßstäblichen Einlesen des Grundrisses und der relevanten Einrichtung (z. B. Magnetresonztomograph, Strahlentherapeutische Systeme) sowie der Programmierung und Parametrierung der Behandlungsschritte entsprechende statistische Auswertungen zu generieren. Durch diese Auswertungen kann u. a. der Patientendurchsatz einzelner Systeme, die Raumbelegung von zentralen und peripheren Räumen für mehrere Behandlungsschritte, die Auslastung von Personal, der Bedarf von Subsystemen usw. dargestellt werden. Auf Grundlage dieser Daten ist zudem eine je nach Auftraggeber-Wunsch detailierte Berechnung der Betriebskosten und der Erlös-Situation möglich.
Mietkauf/ Leasing
Wie bereits bei diversen technischen Gütern möglich können auch medizintechnische Geräte seit geraumer Zeit über Mietzahlung bzw. Leasingrate genutzt werden. Hierbei zahlt der Nutzer eine monatliche Summe, um das Gerät nutzen zu können, wobei jedoch i. d. R. die nutzungsabhängigen Verbrauchskosten durch den Betreiber zu tragen sind. Je nach Ausgestaltung ist es auch hier möglich, dass das Gerät nach Ablauf eines zu bestimmenden Zeitraumes und somit der Bezahlung einer bestimmten Anzahl an Raten in den Besitz des Nutzers übergeht.
Betriebskostenschätzung Auf Verlangen des Betreibers bzw. Nutzers ist es möglich, eine vorausschauende Betriebskostenübersicht zu erstellen. Neben den Fixkosten für die belegte Nutzfläche,
⊡ Tab. 6.1. Relevante Kosten und Erlöse Kosten
Standortfaktoren Gerätefaktoren Personalkosten Kosten der Untersuchungs- und Behandlungsverfahren Kosten für Fremddienstleistungen
Erlöse
DRG EBM 2000plus GOÄ IGeL (individuelle Gesundheits- und Selbstzahlerleistungen) Zuwendungen für Forschung und Lehre (Drittmitel)
6
68
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
6.3.3 Genehmigungsplanung und
6
Ausführungsplanung (HOAI-Phasen 4/ 5) Nachdem festgelegt worden ist, welche medizintechnischen Installationen im Rahmen der Baumaßnahme realisiert werden sollen und die Finanzierung in wesentlichen Teilen (i. d. R. genehmigte HU-Bau) gesichert ist, erfolgt auf Grundlage des medizintechnischen Raumbuches eine detaillierte MT-Ausführungsplanung (auch Planung der Ausführungsunterlage, kurz AFU-Planung, genannt). Eine Genehmigungsplanung ist nur in sehr seltenen Fällen Bestandteil des vertraglich definierten Leistungsumfanges des medizintechnischen Fachplaners, da im Rahmen dieser Genehmigungsplanung primär öffentlich-rechtliche Vorschriften (z. B. Entwässerungsgesuch im Bereich der Sanitär-Planung) relevant sind und diese somit an die medizintechnische Fachplanung keine direkten Anforderungen stellt. Im Rahmen der AFU-Planung werden die Grundriss-Entwurfspläne oder bereits Genehmigungspläne des Architekten hinsichtlich der MT-Fachplanung überprüft (insbesondere Anforderungen resultierend aus dem medizintechnischen Raumbuch) und mit dem Architekten sowie den weiteren Fachplanern von MT-relevanten Gewerken koordiniert (schlussendliche Koordination obliegt i. d. R. dem Architekten). Sofern erforderlich, wird das MT-Raumbuch an den entsprechenden Grundriss angepasst (z. B. Zuteilung von Raum-Nummern, Raumbezeichnungen, Flächenangaben, Erweiterung oder Reduktion von Einrichtung und der damit verbundenen Anforderungen) und dem Architekten sowie den weiteren Fachplanern zur Verfügung gestellt. Weiterhin werden die vom Architekten erstellten Wandabwicklungen der einzelnen Räume sowie der Deckenspiegel (sobald verfügbar) eingelesen und folgend die spezifischen medizintechnischen Wandabwicklungen und, falls bereits erforderlich, der Deckenspiegel (z. B. im OP-Bereich) im Maßstab 1:50 oder bei Bedarf 1:20 erstellt. Durch den MT-Fachplaner werden hierbei die im medizintechnischen Raumbuch aufgeführten Installationen (z. B. Narkosegasabsaugung, Stromanschlüsse AV/ SV) sowie die vorgesehenen Festeinbauten (MT-Geräte und Möbel) mit herstellerneutralen Symbolen in die Pläne eingezeichnet. Falls bekannt und festgelegt, können Bestandsgeräte bereits im Plan mit einem definitiven Symbol und entsprechender Fabrikatsangabe eingezeichnet werden. In dieser Phase müssen auch die erforderlichen Einbringwege und spezielle statische Anforderungen hinsichtlich des medizintechnischen Großgerätes (z. B. Magnetresonanztomograph) berücksichtigt werden, wobei hierfür aktuell verfügbare Geräteparameter verwendet werden können. Zu beachten ist, dass diese AFU-Planung keine Montage-Planung ist, da definitive Vorgaben erst nach erfolgter Beschaffung (HOAI-Phasen 6/ 7) von den jeweiligen Herstellern abgerufen und koordiniert werden können.
Um im Rahmen dieser AFU-Planung eine Berücksichtigung der ggf. im Bestand vorhandenen medizintechnischen Geräte zu ermöglichen, wird bei Bedarf in Abhängigkeit zum Umfang des vorhandenen Gerätes eine Bestandsbegehung durchgeführt. Hierbei werden sämtliche vorhandenen medizintechnischen Festeinbauten sowie das lose medizintechnische Gerät erfasst und hinsichtlich der weiteren Verwendung im Neubau bzw. dem sanierten Bau bewertet. Wesentliche Aspekte sind hierbei u. a. das Alter und der Zustand der Festeinbauten und Geräte, die weitere medizinische Verwendung (z. B. Entfall bei Auflösung einer Fachabteilung), eine ggf. anderweitige Verwendung im Bereich der Klinik (auch unter Berücksichtigung eines Verkaufes) sowie die anfallenden Kosten für den Umzug (z. B. Entsorgung anstatt Übernahme von festinstallierten Schrankanlagen).
6.3.4 Erstellung des Leistungsverzeichnisses
(HOAI-Phasen 6/ 7) Nach Zusicherung der Kostenübernahme wird auf Grundlage der vom Nutzer schriftlich bestätigten Gerätekonfiguration ein detailliertes Leistungsverzeichnis (LV) erstellt. Das fertige LV wird abschließend dem Nutzer vorgestellt und nach Berücksichtigung notwendiger Ergänzungs- und Korrekturwünsche die Freigabe schriftlich bestätigt. Dieses LV enthält somit alle notwendigen Forderungen des Nutzers sowie weitere Abfragen, um die Leistungsparameter und den Preis (ggf. mit Einheitspreisen zu verschiedenen Zubehörpositionen) eines Gerätes abfragen zu können, wobei bestimmte Abfragen nur bei einer Vergabe an den entsprechenden Bieter zum Tragen kommen (z. B. Angaben zur Stromversorgung). Im Rahmen einer Neubau-Maßnahme können diese bauseitigen Aspekte nur bedingt zur Wertung herangezogen werden, da der Neubau auf die Installationsanforderungen des gewählten Gerätes auszulegen ist. Das LV enthält bei Bedarf zudem bereits Abfragen bezüglich Ersatzteilkosten, um potentiell im Rahmen eines Teileaustauschs anfallende Kosten der verschiedenen angebotenen Systeme ergänzend zu den bei allen Geräten nahezu gleichen Betriebskosten (Strom, Kühlung, Heizung, turnusgemäße STK bzw. MTK) gegenüberstellen zu können. Um auch bei nicht vorauszusehenden Kosten (z. B. durch Defekt) eine entsprechende finanzielle Betriebssicherung zu gewährleisten, kann das Leistungsverzeichnis eine (Bedarfs-)Position hinsichtlich eines Vollwartungsvertrages enthalten, durch den das Risiko unerwarteter Reparaturkosten ausgeschlossen wird.
Versand Leistungsverzeichnis an Bieterkreis bis zur Submission Nach entsprechender Freigabe durch den Nutzer sowie Betreiber des Gerätes bzw. der Geräte erfolgt im Rahmen
69 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
einer EU-weiten öffentlichen Ausschreibung der Vergabe von Bau- oder Lieferleistungen nach VOB oder VOL die Bekanntgabe im Supplement zum Amtsblatt der Europäischen Union (auch online einsehbar in der Datenbank TED – Tenders Electronic Daily). Interessierten Bietern ist es nun möglich, dieses LV anzufordern, um an der Vergabe durch Abgabe eines Angebotes teilnehmen zu können. Dieses LV enthält neben den reinen Abfragen zum Gerät auch Vorbemerkungen zur allgemeinen Beschreibung der Baumaßnahme (z. B. Umfeld, Größe, Verkehrswege, Gewährleistung, Finanzierung) sowie zur späteren Ausführung. Nach Ablauf des Bewerbungszeitraums (Submissionstermin) müssen die entsprechenden Bieter-Angebote pünktlich bei der Vergabestelle eingereicht worden sein, um im Rahmen der Bewertung der Leistungsverzeichnisse bei der Vergabe des Auftrages berücksichtigt werden zu können.
Angebotsauswertung Formale Prüfung
Nach Eingang der Bieter-Angebote werden diese zunächst einer formalen Prüfung unterzogen. Hierbei wird neben der vollständigen Abgabe der im LV verlangten Unterlagen und Formulare auch die Rechtmäßigkeit der Unterschriften im LV überprüft (ausschließlich Geschäftsführer oder Personen mit entsprechender lt. Handelsregister
bestätigten Zeichnungsvollmacht). Ein vom Bieter durch Eintragung (z. B. fehlerhafte Daten) oder Unterlassung (z. B. nicht mit dem LV abgegebene geforderte Unterlagen) verursachter Fehler im LV führt im Rahmen dieser formalen Prüfung unweigerlich zum Ausschluss aus dem Bieterkreis. Bewertungsmatrix
Die Auswertung der Bieter-Angebote auf Basis des Leistungsverzeichnisses erfolgt anhand einer vom medizintechnischen Fachplaner erstellten Bewertungsmatrix, die vom Nutzer und Betreiber vor der Ausschreibung der Vergabe freigegeben worden sein muss und u. U. Bestandteil des LVs ist. In dieser Bewertungsmatrix (⊡ Tab. 6.2) sind die relevanten Kriterien hinsichtlich Investitionskosten, Wartung, Ersatzteilkosten, Referenzen / Funktionalität und dem technischen Wert enthalten, die jeweils mit einer unterschiedlich hohen Gewichtung in die Wertung eingehen (Verfahren der Nutzwertanalyse). Diese Punktgewichtung wird vom Nutzer, dem Betreiber sowie dem medizintechnischen Fachplaner festgelegt und drückt die Relevanz einzelner Aspekte aus (z. B. bei geringen finanziellen Möglichkeiten sehr hohe Gewichtung der Investitionskosten). Durch eine Extremwertbetrachtung ist die Konstruktion verschiedener Angebotsszenarien möglich, wodurch das entsprechende Risiko bei der Vergabe ersichtlich ist.
⊡ Tab. 6.2. Bewertungsmatrix 50:50 (50% Kosten und Betrieb/ 50% Technik und Referenz) Nr.
Bewertungskriterien
Erläuterung
1
Investitionskosten
Angebotspreis ohne Wartung Mindestbieter erhält volle Punktzahl (100%) höherpreisige Bieter erhalten Punktabzug proportional zur Abweichung vom Mindestbieter
36
Quelle: Ergebnis Preisspiegel Bearbeitung: Vergabestelle
2
Wartung
Kosten für Vollwartung Bemessungszeitraum 5 Jahre Kundendienst-Verfügbarkeit
11
Quelle: Ergebnis Wartungsabfrage Bearbeitung: Vergabestelle / Fachplaner
3
Ersatzteilkosten
Kosten für Verschleiß- und Ersatzteile, die nicht im Vollwartungsvertrag enthalten sind (z. B. Röhren, Detektoren), mit Berücksichtigung von Garantiezeiten, Bemessungszeitraum 5 Jahre
3
Quelle: Ergebnis Wartungsabfrage Bearbeitung: Vergabestelle / Fachplaner
4
Referenzen / Funktionalität
Bewertung der Produkt-Zuverlässigkeit. Bewertung des Gesamt-Workflow, der Benutzeroberfläche, der enthaltenen Bedien- und Auswertefunktionen durch ärztliches / wissenschaftliches / technisches Personal
30
Quelle: Nutzerstellungnahme Mitwirkung: Fachplaner (Probestellung / Referenzbesuch)
5
Technischer Wert
Bewertung technischer und konstruktiver Merkmale der angebotenen Anlagen anhand der im Leistungsverzeichnis abgefragten Eigenschaften und Parameter.
20
Quelle: Ergebnis technische Gegenüberstellung Bearbeitung: Fachplaner
Gesamt-Punktzahl
Gewichtung
100
Quelle/ Bearbeitung
6
70
6
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
Um mögliche Resultate hinsichtlich der Verteilung der Punkte in der Bewertungsmatrix eruieren zu können, wird eine Extremwert-Betrachtung vorgenommen, damit insbesondere die Auswirkungen maximaler sowie minimaler Punktvergaben bei den Bewertungskriterien deutlich werden (⊡ Tab. 6.3).
Freitext-Abfragen vorgenommen werden. Bei binären Abfragen (ohne Vorliegen einer definitiven LV-Forderung) wird lediglich ausgedrückt, ob ein Leistungsmerkmal vorhanden ist oder nicht, wofür 00 oder 05 Punkte vergeben werden können (⊡ Tab. 6.5). Bei Freitext-Abfragen wird dem Bieter ermöglicht, ein Leistungsmerkmal seines angebotenen Gerätes zu erläutern.
Kriterienmatrix
Die im LV enthaltenen Forderungen und Abfragen werden hinsichtlich der Relevanz im Rahmen des technischen Wertes mit verschiedenen Parametern und Punkten versehen, um die zahlreichen Aspekte im LV entsprechend auswerten zu können. Durch die Punktvergabe sollen die technischen Innovationen eines Herstellers sowie die Leistungsfähigkeit eines angebotenen Gerätes in die Bewertung einfließen. Diese Auswertung kann entweder durch eine Datenbank-Funktion oder durch entsprechende Programmierung eines TabellenKalkulationsprogrammes (z. B. MS Excel) unterstützt werden. Primär wird zwischen Mindest- und Wertungskriterien unterschieden. Definitive Forderungen im LV gelten dabei als Mindest-Kriterium und sind vom Bieter zwingend zu erfüllen, da dadurch gewährleistet werden soll, dass die vom Nutzer geforderten Diagnostik- und/oder Therapieverfahren durchgeführt werden können. Da ein Hersteller diese Grundanforderungen übertreffen kann, können hierbei höhere Punkte zur Berücksichtigung der technischen Innovation des Herstellers und des Leistungspotenzials des angebotenen Gerätes vergeben werden (⊡ Tab. 6.4). Bei den Wertungskriterien muss noch eine weitere Unterteilung hinsichtlich binären Abfragen (ja/nein) und
⊡ Tab. 6.4. Punkteverteilung bei Mindestkriterien Punkte
Wertung
Ausschluss
LV-Forderung wird nicht erfüllt, keine weitere Prüfung des Angebotes
00
LV-Forderung wird erfüllt
05
LV-Forderung wird höherwertig erfüllt (abhängig im Vergleich zu ggf. weiteren Hersteller-Angeboten)
10
LV-Forderung wird außerordentlich/ hervorragend erfüllt (abhängig im Vergleich zu ggf. weiteren Hersteller-Angeboten)
⊡ Tab. 6.5. Punkteverteilung bei einer binären Abfrage (Wertungskriterium) Punkte
Wertung
00
LV-Abfrage wird nicht erfüllt (qualitativ negativ)
05
LV-Abfrage wird erfüllt (qualitativ positiv)
⊡ Tab. 6.3. Extremwertbetrachtung zur Darstellung verschiedener Punktvergabe-Szenarien Extremwertbetrachtung Darstellung Preis- (1) und Qualitätsunterschied (4, 5) Ohne Berücksichtigung der Betriebskosten (2, 3)
Extrembeispiel A »preiswert / billig, aber schlecht« Investitionskosten: 7.500.000,-
Nr.
Bewertungskriterien
Prozentwert aus Ergebnis Preisspiegel
Prozent der Punkte
Punktzahl
Prozentwert aus Ergebnis Preisspiegel
1
Investitionskosten
36
100
100
36
200
0
0
2
Wartung
11
100
100
11
100
100
3
Ersatzteilkosten
3
100
100
3
100
100
4
Referenzen / Funktionalität
30
extrem schlechte qualitative Bewertung
0
sehr gute qualitative Bewertung
5
Technischer Wert
20
extrem schlechte qualitative Bewertung
0
sehr gute qualitative Bewertung
Gesamt-Punktzahl
100
Gewichtung
Extrembeispiel B »teuer und gut« Investitionskosten: 15.000.000,-
50
Prozent der Punkte
Mittelfeld »Preis und Qualität ausgewogen« Investitionskosten: 12.712.500,-
Prozentwert aus Ergebnis Preisspiegel
Prozent der Punkte
Punktzahl
169,5
30,5
11
11
100
100
11
3
100
100
3
30
mittlere qualitative Bewertung
15
20
mittlere qualitative Bewertung
10
Punktzahl
64
50
71 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
Je nach Qualität der technischen Leistung können hierbei 00, 05 oder 10 Punkte vergeben werden (⊡ Tab. 6.6). Je nach Ausrichtung einer medizinischen Einrichtung kann dabei die Relation der Punktverteilung zwischen Mindest- und Wertungskriterien angepasst werden, um den entsprechenden Charakter zu unterstreichen (z. B. 8:12 (Mindest-Kriterium: Wertungs-Kriterium) mit hohem Punktanteil bei den Wertungskriterien bei Vergabe für eine Universität zur Berücksichtigung der Forschung und Lehre) (⊡ Tab. 6.7). Einige im LV abgefragte Punkte können nicht zur Wertung herangezogen werden, da diese keine Aussage über die Leistungsfähigkeit des angebotenen Systems machen, aber in der Folge der Beauftragung für die bauseitige Installation oder den Nutzer relevant sind.
Vergabevorschlag Auf Grundlage der vereinbarten Wertungsbedingungen wird vom medizintechnischen Fachplaner der Vergabevorschlag erstellt, der einen direkten Anbietervergleich (»Ranking«) sowie einen Preisspiegel enthält und schlussendlich einen Bieter für die Auftragserteilung benennt. Falls ein Bieter aus formalen Gründen aus dem Verfahren ausgeschlossen wird, ist dieses ebenfalls begründet zu benennen. In seltenen Fällen ist auch eine Aufhebung der Vergabe möglich (z. B. bei wesentlicher Überschreitung des eingestellten Budgets oder wenn kein Bieter die Anforderungen erfüllen konnte).
⊡ Tab. 6.6. Punkteverteilung bei einer Freitext-Abfrage (Wertungskriterium) Punkte
Wertung
00
LV-Abfrage wird nicht erfüllt/ kein Eintrag
05
LV-Abfrage wird erfüllt (qualitativ positiv)
10
LV-Abfrage wird höherwertiger erfüllt (qualitativ positiv) (abhängig im Vergleich zu ggf. weiteren Hersteller-Angeboten)
6.3.5 Objektüberwachung und Gewährleis-
tungsüberwachung (HOAI-Phasen 8/ 9) Nachdem der definitive Auftrag an eine Firma aufgrund der zuvor erfolgten Ausschreibung oder einer freihändigen Vergabe (z. B. falls die Beschaffung aufgrund einer geringen Auftragssumme nicht öffentlich ausgeschrieben werden muss) erteilt worden ist, werden vom medizintechnischen Fachplaner beim jeweiligen Hersteller entsprechende Ausführungspläne angefordert, die in die bestehenden Pläne eingearbeitet werden (u. a. Flächenbedarf, definitive Installationsanforderungen). Diese Pläne werden wiederum mit dem Architekten und den weiteren Fachplanern koordiniert und letztendlich zur Ausführung am Bau als Montage-Planung durch den MT-Fachplaner für seinen Zuständigkeitsbereich freigegeben. Durch die Bauleitung (falls Auftragsbestandteil des MT-Fachplaners) werden die aus diesen Montage-Plänen resultierenden Vorgaben hinsichtlich der definitiven Ausführung am Bau überprüft, um letztendlich einen möglichst einwandfreien und umgehenden Einbau der Geräte (Neubeschaffung sowie Übernahme von Bestandsgerät) zu gewährleisten. Durch den MT-Fachplaner wird in Zusammenarbeit mit dem Architekten und – falls beauftragt – mit der Projektsteuerung auf Grundlage von definitiven Auftragslisten und Lieferzeit-Zusagen seitens des Lieferanten sowie unter Berücksichtigung des Baufortschrittes eine Zeitschiene für die Einbringung, die Installationsarbeiten, die Abnahme sowie der Inbetriebnahme der Geräte erstellt, wobei der spätere Nutzer und der Betreiber in die Abnahme und Inbetriebnahme involviert sein müssen. Durch diese Zeitschiene wird zudem auch die Zusammenarbeit und Abhängigkeit der verschiedenen vor Ort – u. U. parallel – ausführenden Fachfirmen koordiniert. Aufgrund der nun definitiv abgeschlossenen Lieferverträge und der nachfolgend vorliegenden Rechnungen wird im Verlauf der Kostenkontrolle das in der HU-Bau bzw. HU-Gerät schlussendlich eingestellte (und bei Bedarf durch Nachträge erhöhte) Budget den real entstandenen Kosten gegenübergestellt, um die Einhaltung des Budgets während und nach Abschluss der Baumaßnahme kontrollieren zu können.
⊡ Tab. 6.7. Beispiel für die Auswertung mit Berücksichtigung der Verteilung von Mindest- und Wertungskriterien Kriterium
Maximum
Ergebnis
Mindest-Kriterium
120 Punkte (Bieter B)
90 Punkte (Bieter A)
Wertungs-Kriterium - binäre Abfrage - Freitext-Abfrage
60 Punkte (Bieter C) 100 Punkte (Bieter A)
40 Punkte (Bieter A) 100 Punkte (Bieter A)
%-Anteil 75%
66,66% 100%
Erreichte Punktzahl 9 von 12
4 von 6 2 von 2
Summe Wertungskriterien
6 von 8
Summe (gesamt)
15 von 20
6
72
6
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
Nach Inbetriebnahme und Nutzung der losen und festinstallierten Geräte sowie der weiteren MT-Festeinbauten wird der durch das Ausschreibungsverfahren vorgegebene Gewährleistungszeitraum durch den MTFachplaner überwacht. Dies bedeutet, dass bei Auftreten von Defekten an Gerätekomponenten und -teilen (ausgenommen Verschleißteile) sowie bei später auftretenden Materialfehlern (z. B. Ablösen von Beschichtungen) eine entsprechende Mitteilung durch den Nutzer an den medizintechnischen Fachplaner erfolgt, damit durch diesen der entsprechende Lieferant kontaktiert wird, um eine Behebung des Mangels zu erwirken und zu planen. Nach Ablauf des Gewährleistungszeitraumes wird der Gewährleistungseinbehalt (ein bestimmter Prozent-Wert der Auftragssumme) nach Rücksprache mit dem Nutzer und ggf. mit dem Betreiber freigegeben und ausgezahlt, sofern keine Mängel bestehen.
6.4
Ausblick
Die gesundheitspolitischen und wirtschaftlichen Rahmenbedingungen zwingen Klinik- und Praxisbetreiber zur Optimierung der betrieblich-medizinisch-technischen Ausstattung, um langfristig die Existenz der Einrichtung zu sichern. Folgende Aspekte werden diesbezüglich zukünftig zunehmend an Bedeutung gewinnen: ▬ Betriebsorganisatorische Prozessoptimierung ▬ Optimierung personeller Strukturen sowie Entwicklung neuartiger Beschäftigungskonzepte (z. B. Zusammenführen von Fachkompetenzen, Bildung medizinischer Versorgungszentren / MVZ) ▬ Geräteersatzbeschaffung in Abhängigkeit zur Geräteauslastung ▬ Amortisationsberechnung als Beschaffungsvorraussetzung ▬ Konzepte im Rahmen der integrierten Versorgung (IV) und von Disease Management Programmen (DMP) ▬ Zusicherung bestimmter Fallzahlkontingente durch die Kostenträger als betriebswirtschaftliche Basis zur Investitionsplanung ▬ Marktanalyse zur Abklärung der Wirtschaftlichkeit geplanter Ersatz- und Neuinvestitionen
Literatur Verordnung über die Honorare für Leistungen der Architekten und der Ingenieure (Honorarordnung für Architekten und Ingenieure – HOAI) in der Fassung vom 21.09.1995 sowie der Änderungen zur Umstellung der HOAI auf EURO in der im Bundesgesetzblatt 2001 vom 14. November 2001
7 Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen K. Rudolf
7.1
Zielsetzung eines Qualitätsmanagementsystems
7.1.1 7.1.2 7.1.3
Begriffe – 73 Zielsetzung und Kunden eines QMS – 74 Regulatorische Anforderungen – 74
7.2
Elemente eines Qualitätsmanagementsystems
7.3
7.4
Implementierung eines Qualitätsmanagementsystems
7.4.1 7.4.2 7.4.3 7.4.4
Das QMS und die (End-) Kunden – 79 Das QMS und die Leitung – 79 Das QMS und die Mitarbeiter – 79 Das QMS und die Erfüllung der regulatorischen Anforderungen – 79
7.5
Produktqualität
7.6
Schlussbemerkung
– 73
– 76
Organisatorische Gestaltung eines Qualitätsmanagementsystems – 77
Literatur
Dieses Kapitel soll ein Grundverständnis über Ziele, Elemente und Struktur eines Qualitätsmanagementsystems im Bereich der Medizintechnik vermitteln. Es werden praxisnahe Handlungsempfehlungen für den Aufbau eines Qualitätsmanagementsystems gegeben.
7.1
Zielsetzung eines Qualitätsmanagementsystems
7.1.1 Begriffe
Qualitätsmanagementsystem Was genau ist und leistet ein »Qualitätsmanagementsystem«? Die Norm EN ISO 9000:2000 gibt darauf folgende Antworten: ▬ »Ein Qualitätsmanagementsystem ist ein Managementsystem zum Leiten und Lenken einer Organisation bezüglich der Qualität.« und ▬ »Qualität ist der Grad, in dem ein Satz inhärenter Merkmale Anforderungen erfüllt.« Etwas alltagssprachlicher formuliert bedeutet dies, dass mit Hilfe eines Qualitätsmanagementsystems (im folgenden »QMS«) die relevanten Prozesse in einer Organisation so gestaltet und gesteuert werden, dass die gefertigten Produkte bzw. die erbrachten Dienstleistungen in möglichst hohem Maße die Anforderungen der Kunden erfüllen.
– 79
– 80 – 80
– 81
Mit diesem Verständnis zählen andere Managementaktivitäten wie bspw. das Finanzmanagement oder das Umweltmanagement nicht zum Qualitätsmanagement (im folgenden »QM«) – es sei denn, die Qualität der Produkte und Dienstleistungen würden durch diese Managementsysteme unmittelbar berührt. Alle kundenbezogenen und wertschöpfenden Prozesse eines Unternehmens sind danach Gegenstand des QM: ▬ Marketing und Vertrieb ▬ Entwicklung, Beschaffung und Produktion ▬ Auslieferung, Installation und Instandhaltung Eine Besonderheit stellen in der Medizintechnik die umfangreichen regulatorischen Vorgaben dar, also die gesetzlichen Anforderungen, die an das »Inverkehrbringen und Betreiben von Medizinprodukten« geknüpft sind. Da diese Anforderungen sich auf fast alle Prozesse der Produktrealisierung auswirken, ist es in der Medizintechnik sinnvoll, die systematische Erfüllung der regulatorischen Anforderungen (Regulatory Affairs) als Teil des QM anzusehen. Eine weitere Besonderheit ist die Kritikalität von Medizinprodukten: Die konsequente Minimierung der Risiken für Patient, Anwender und Dritte bei der Entwicklung, Produktion, Installation und Anwendung eines Medizinprodukts muss mit einem dedizierten Risikomanagement betrieben werden. Da die Forderung nach sicheren Medizinprodukten zu den essentiellen Kundenanforderungen zählt, muss
74
7
Kapitel 7 · Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen
auch das technische Risikomanagement ein integraler Bestandteil des QM sein.
Qualitätskosten Ein weiterer wichtiger Begriff für das Verständnis des QM sind die Qualitätskosten. Darunter wird die Summe folgender Kostengruppen verstanden: ▬ Fehlerverhütungskosten Alle Anstrengungen, die unternommen werden, um die Entstehung von Fehlern zu vermeiden: Implementierung eines QMS, Interne Audits, Schulung der Mitarbeiter, Ermitteln der Kundenanforderungen, Gestaltung von Infrastruktur und Arbeitsumgebung, etc. ▬ Prüfkosten Alle Anstrengungen, die unternommen werden, um Fehler zu entdecken: Verifizieren und Validieren von Produkten und Prozessen. ▬ Fehlerkosten Alle Anstrengungen, die unternommen werden, um Fehler und deren Folgen zu beheben: Nacharbeit, Garantiekosten, etc. ▬ Externe QM-Darlegungskosten Alle Anstrengungen, die unternommen werden, um die Existenz eines wirksamen QMS Dritten gegenüber nachzuweisen: Zertifizierungen und Produktzulassungen, Darlegung des QMS gegenüber Kunden, etc.
7.1.2 Zielsetzung und Kunden eines QMS
Warum führen Unternehmen mit hohem Aufwand ein QMS ein? Die Steigerung der Wettbewerbsfähigkeit des Unternehmens ist die intrinsische Motivation für die Einführung eines QMS. Dies bedeutet: ▬ die Produkte und Dienstleistungen so zu realisieren, dass sie die Anforderungen der Kunden in bestmöglicher Weise erfüllen; ▬ neue Produkte in möglichst kurzer Zeit auf die gewünschten Märkte bringen zu können, in Erfüllung aller zutreffenden regulatorischen Anforderungen; ▬ die Qualitätskosten bei einem gegebenen Qualitätsniveau zu minimieren. Die zahlreichen regulatorischen Anforderungen und die Anforderungen des Marktes stellen die extrinsische Motivation dar: ▬ Die Gesetzgeber verlangen ein wirksames QMS als Voraussetzung für das Inverkehrbringen von Medi-
zinprodukten. Die Existenz eines wirksamen QMS wird von unabhängigen Zertifizierungsstellen (»Benannten Stellen«) überprüft. ▬ Die Kunden im Business-to-Business Bereich (B2B) und auch große Endkunden akzeptieren nur Lieferanten, die ein zertifiziertes QMS vorweisen können. ▬ Das Haftungsrisiko des Herstellers im Rahmen der Produkthaftung kann durch eine entsprechende Auslegung des QMS gemindert werden. Eine Checkliste dazu findet sich in einem Leitfaden des DIHK (DIHK 2003). Diese unterschiedlichen Zielsetzungen für ein QMS führen dazu, dass ein QMS auch unterschiedliche Kundengruppen bedienen muss. Im Diagramm der ⊡ Abb. 7.1 sind die wichtigsten Kundengruppen für ein QMS in der Medizintechnik dargestellt.
7.1.3 Regulatorische Anforderungen
Die zahlreichen regulatorischen Anforderungen im Bereich der Medizintechnik beziehen sich ▬ auf die Prozesse der Produktrealisierung und den Hersteller selbst, ▬ auf die hergestellten Produkte und die erbrachten Dienstleistungen sowie ▬ auf das Inverkehrbringen, Installieren, Betreiben und Instandhalten von Medizinprodukten. Damit haben diese regulatorischen Anforderungen direkte Auswirkungen auf die Prozesse des Unternehmens, die im Geltungsbereich des QM liegen und müssen daher beim Aufbau eines QMS berücksichtigt werden. Die folgende Tabelle (⊡ Tab. 7.1) gibt einen Überblick über die geltenden Anforderungen in den wichtigsten Medizintechnikmärkten. Für die Europäische Union wurden neben den Richtlinien (Directives) noch zahlreiche Leitlinien im Konsens von Behörden und Medizinprodukteherstellern geschaffen, sogenannte »MEDDEVs«, die eine gemeinsame Interpretation gesetzlicher Anforderungen darstellen. Diese Leitlininen behandeln unterschiedliche Fragestellungen, von Begriffsdefinitionen über allgemeine und spezifische Produktanforderungen bis hin zur Marktbeobachtung. Eine vollständige Auflistung der MEDDEVs befindet sich auf den Internet Seiten der Europäischen Kommission (http://ec.europa.eu/enterprise/medical_devices/meddev/). Im Falle der Europäischen Union müssen außerdem die nationalen Gesetze beachtet werden, die sich aus der Umsetzung des Europäischen Rechts in nationales Recht ergeben haben. Für Deutschland sind dies die in ⊡ Tab. 7.2 dargestellten.
75 7.1 · Zielsetzung eines Qualitätsmanagementsystems
⊡ Abb. 7.1. Kundengruppen für ein QMS in der Medizintechnik
⊡ Tab. 7.1. Internationale regulatorische Anforderungen im Bereich der Medizintechnik Wirtschaftsraum
Geltende Anforderungen
Behörde/ Link
Europäische UnionRichtlinien
93/42/EWG Medical Device Directive (1993) 90/385/EWG Aktive implantierbare Medizinprodukte (1990) 98/79/EG In-vitro-Diagnostika (1998)
Nationale Behörden; in Deutschland: BfArM: www.bfarm.de DIMDI: www.dimdi.de
USA
21 CFR Part 820 Quality System Regulation 21 CFR Part 11 Electronic Records 21 CFR Parts 800-1299 Medical Devices
FDA: www.fda.gov
Canada
Medical Devices Regulations
Health Canada: www.hc-sc.gc.ca
Japan
New Japanese Pharmaceutical Affairs Law (PAL; 2005)
MHLW, PMDA: www.mhlw.go.jp
China
China Compulsory Certificate (CCC)
CNCA / CQC: www.cnca.gov.cn
Neben den Europäischen Richt- und Leitlininen und den nationalen Gesetzen stützt sich die Zulassung von Medizinprodukten im europäischen Wirtschaftsraum überwiegend auf harmonisierte Normen ab. ▬ Harmonisierte Normen werden von den europäischen Normungsgremien CEN, CENELEC und ETSI erarbeitet mit dem Ziel, die Anforderungen der CE Richtlinien zu konkretisieren. ▬ Harmonisierte Normen gleichen die Anforderungen der EU-Mitgliedsstaaten ab. Bei Erfüllung einer harmonisierten Norm wird angenommen, dass die
grundlegenden Anforderungen der entsprechenden CE Richtlinie erfüllt werden. ▬ Die Anwendung von (harmonisierten) Normen ist nicht zwingend. Allerdings muss der Hersteller dann auf andere Art nachweisen, dass die grundlegenden Anforderungen erfüllt werden. ▬ Die harmonisierten Normen umfassen sowohl Normen für Qualitätsmanagementmodelle wie die EN ISO 13485, Normen der allgemeinen Sicherheit als auch Normen der Sicherheit und Wirksamkeit von spezifischen Produktgruppen oder Produkten.
7
76
7
Kapitel 7 · Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen
⊡ Tab. 7.2. Weitere regulatorische Anforderungen in Deutschland im Bereich der Medizintechnik Gesetz
Gilt für
MPG
Medizinproduktegesetz (2002)
Hersteller und Produkt
MPV
Medizinprodukteverordnung (2001/2004)
Hersteller und Produkt
MPSV
Medizinprodukte-Sicherheitsplanverordnung (2002)
Hersteller, Betreiber
MPBetreibV
Medizinprodukte-Betreiberverordnung (2002)
Hersteller, Betreiber
MPVertrV
Medizinprodukte-Vertriebswegeverordnung (1997/2001)
Hersteller
MPVerschrV
Verschreibungspflicht von Medizinprodukten (2002)
Hersteller, Betreiber
DIMDIV
Verordnung Datenbankgestütztes Informationssystem über Medizinprodukte
Hersteller, Betreiber
Eine vollständige Auflistung der harmonisierten Normen im Bereich der Medizinprodukte wird von der Europäischen Kommission im Internet (http://www.newapproach.org/) bereitgestellt. Die europäischen Richtlinien für Medizinprodukte unterscheiden zwischen verschiedenen Ausbaustufen eines Qualitätsmanagementsystems: ▬ Vollständiges Qualitätsmanagementsystem Das QMS umfasst die Bereiche Auslegung, Herstellung und die Endkontrolle der betreffenden Produkte. ▬ Qualitätsmanagementsystem Produktion Das QMS umfasst nur die Bereiche Herstellung und Endkontrolle der betreffenden Produkte. ▬ Qualitätsmanagementsystem Produkt Das QMS umfasst nur die Endkontrolle der betreffenden Produkte. Bei den geringeren Ausbaustufen des QMS werden abhängig von der Kritikalität des Produkts produktbezogene Prüfungen einer Benannten Stelle erforderlich – Prozessschritte, die unter Umständen zu empfindlichen Verzögerungen in der Markteinführung führen können. Da außerdem die internationalen Anforderungen diese Unterscheidungen nicht treffen, kann nur empfohlen werden, ein vollständiges QMS einzuführen. Die Anforderungen an ein QMS im Bereich der Medizintechnik werden in folgenden Normen festgelegt: ▬ EN ISO 13485:2003 Medizinprodukte – Qualitätsmanagementsysteme; Anforderungen für regulatorische Zwecke ▬ EN ISO 14971:2000 Medizinprodukte – Anwendung des Risikomanagements auf Medizinprodukte Wer sich nach der ISO 13485:2003 zertifizieren lässt, erfüllt die europäischen gesetzlichen Anforderungen an ein QMS. Darüber hinaus werden mit Einhaltung der ISO 13485 und der ISO 14971 auch die internationalen Anforderungen (USA, Japan, Canada etc.) an ein QMS zum größten Teil erfüllt.
Hinweis: Die ISO 13485:2003 basiert auf der branchenneutralen ISO 9001:2000. Es ist zu beachten, dass die ISO 13485 nicht alle Anforderungen der ISO 9001 übernommen hat. Damit erfüllen Organisationen, die sich nach ISO 13485 zertifizieren lassen, nicht automatisch die Anforderungen der ISO 9001.
7.2
Elemente eines Qualitätsmanagementsystems
Die Anforderungen an ein QMS im Bereich der Medizintechnik werden in der ISO 13845 genau definiert. Im Falle von Verständnisfragen können folgende Normen herangezogen werden: ▬ DIN EN ISO 9000:2005 (Begriffe) ▬ DIN EN ISO 9004:2000 ▬ ISO/TR 14969 (Leitfäden) In ⊡ Tab. 7.3 soll daher nur ein kurzer Überblick über die wesentlichen Elemente eines QMS gemäß der ISO 13485 gegeben werden: Gerade das letzte Element »Messung, Analyse und Verbesserung« steht für ein Prinzip, das allen QM-Modellen zugrunde liegt, der PDCA-Zyklus von William E. Deming, ein Kreislauf für ständige Verbesserungen (⊡ Abb. 7.2). Plan Analysieren der aktuellen Situation, Festlegen der neuen Q-Ziele, Festlegung der neuen Prozesse Do Ausführung der neuen Prozesse Check Überprüfung, ob die geplanten Ziele erreicht werden Act Die neuen Prozesse in die Routine überführen und Gegenmaßnahmen im Falle von Abweichungen implementieren Dieser Zyklus wird im Sinne ständiger Verbesserung kontinuierlich durchlaufen und stellt einen geschlossenen Regelkreis dar.
77 7.3 · Organisatorische Gestaltung eines Qualitätsmanagementsystems
⊡ Tab. 7.3. Die wichtigsten QM-Elemente gemäß ISO 13485 Verantwortung der Leitung und Qualitätsmanagementbeauftragter
Qualitätsmanagement ist die Aufgabe der Unternehmensleitung. Es ist die Aufgabe der Unternehmensleitung, für die Einführung und Aufrechterhaltung eines QMS zu sorgen und es regelmäßig auf Wirksamkeit zu überprüfen. Es muss ein Mitglied der Unternehmensleitung (»Beauftragter der obersten Leitung«) benannt werden, das für die Einführung und Aufrechterhaltung des QMS verantwortlich und befugt ist und das die Leitung über das Qualitätsgeschehen im Unternehmen informiert.
Qualitätspolitik und Qualitätsziele
Zu den Aufgaben der Unternehmensleitung gehört es ebenfalls, die Verpflichtung des Unternehmens zur Qualität in einer Qualitätspolitik zu dokumentieren und konkrete Qualitätsziele daraus abzuleiten.
Dokumentenmanagement
Das Dokumentenmanagement, also die Erstellung, Freigabe, Verteilung und Aktualisierung von Vorgabedokumenten und Qualitätsnachweisen, muss schriftlich geregelt sein. Es wird in der Norm außerdem festgelegt, welche Inhalte dokumentiert werden müssen.
Personelle Ressourcen
Die Mitarbeiter, deren Tätigkeiten die Produktqualität beeinflussen können, müssen für ihre Aufgaben angemessen qualifiziert sein.
Infrastruktur und Arbeitsumgebung
Das Unternehmen muss die Infrastruktur und die Arbeitsumgebung so gestalten, dass die geforderten Produkteigenschaften erreicht werden. Beispiele hierfür sind geeignete Räumlichkeiten, Maschinen und Werkzeuge oder Umgebungsbedingungen wie Luftfeuchte, Temperatur etc.
Produktrealisierung Planung aller erforderlichen Prozesse im Rahmen der Produktrealisierung (einschließlich Risikomanagement) Ermittlung der Kundenanforderungen Prozesse der Produktentwicklung definieren Beschaffungsprozesse definieren Prozesse der Produktion definieren Prozesse der Auslieferung, Installation und Instandhaltung definieren
Alle Prozesse der Produktrealisierung müssen geplant und dokumentiert werden. Die betrachtete Prozesskette reicht von Marketing und Vertrieb (Ermitteln der Kundenanforderungen) bis zum Service im Feld (Instandhaltung und Marktbeobachtung). Die Norm legt fest, an welchen Stellen der Prozesskette Prüfaktivitäten stattfinden müssen. Das (technische) Risikomanagement muss ebenso in dieser Prozesskette integriert sein wie die nachweisbare Erfüllung aller regulatorischen Anforderungen (Normenkonformität, Produktzulassungen).
Messung, Analyse und Verbesserung
Einrichten von aussagekräftigen und validen Kennzahlensystemen, die Auskunft über die Konformität des Produkts und über die Konformität und Wirksamkeit des QMS geben. Das Spektrum der Kennzahlen umfasst sowohl technische Prozessparameter als auch Kennzahlen über die Kundenzufriedenheit. Einrichten von wirksamen Verbesserungsprozessen, welche die erforderlichen Korrekturund Vorbeugemaßnahmen ermöglichen.
Die Herausforderung beim Aufbau eines QMS besteht darin, das Prinzip des PDCA-Zyklus in alle Elemente des QMS zu integrieren und somit ein lebendiges, selbstadaptierendes QMS zu schaffen.
7.3
⊡ Abb. 7.2. Der PDCA-Zyklus von William E. Deming, ein Kreislauf für ständige Verbesserungen
Organisatorische Gestaltung eines Qualitätsmanagementsystems
Sind der Geltungsbereich und die Elemente des QMS bereits über die Europäischen Richtlinien und die ISO 13485 genau vorgegeben, so bestehen bei der organisatorischen Ausgestaltung des QMS große Handlungsspielräume. Das Spektrum der möglichen Organisationsformen reicht von einer großen, zentralen QM-Abteilung, die für alle Aufgaben des QMS zuständig ist, bis hin zur Delegation der QM-Aufgaben an alle Führungskräfte und
7
78
7
Kapitel 7 · Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen
Mitarbeiter und dem völligen Verzicht auf eine eigene QM-Organisation. Drei Prinzipien haben sich in der Praxis bewährt und befinden sich im Einklang mit den geltenden Anforderungen: 1. Direkte Anbindung oder Integration des QM in die Unternehmensleitung 2. Möglichst prozessnahe Verantwortung für die einzelnen Elemente des QMS 3. Die Unabhängigkeit aller prüfenden Instanzen sicherstellen Diese Prinzipien können zu folgendem organisatorischen Modell führen: ▬ Es wird eine eigene organisatorische Einheit gebildet, die für alle übergeordneten (unternehmensweiten) Belange des QM verantwortlich und zuständig ist. ▬ Diese zentrale QM-Stelle ist Mitglied der Geschäftsleitung oder unmittelbar der Geschäftsleitung unterstellt. ▬ In allen Funktionsbereichen des Unternehmens, die Gegenstand des QM sind, werden ein oder mehrere Mitarbeiter mit QM-Aufgaben betraut. Abhängig von der Größe des Funktionsbereichs nehmen sie die QMAufgaben neben anderen Aufgaben oder hauptamtlich wahr. Im Rahmen ihrer QM-Aufgaben sind sie der übergeordneten QM-Stelle fachlich unterstellt.
▬ Alle Mitarbeiter, die Prüftätigkeiten durchführen, gehören nicht der organisatorischen Einheit an, deren Prozesse oder Produkte sie prüfen. In dem obigen Modell würden die Aufgaben wie in ⊡ Tab. 7.4 dargestellt verteilt.
Nicht enthalten in der Darstellung von ⊡ Tab. 7.4 sind die Bearbeitung von Kundenreklamationen und die Ermittlung der Kundenzufriedenheit sowie die Produktbeobachtung im Feld. Diese Aktivitäten können sowohl bei der übergeordneten QM Stelle als auch beim Service oder beim Vertrieb sinnvoll integriert werden. Ebenfalls nicht enthalten ist der Nachweis der Konformität der Produkte mit technischen Normen. Nach dem Prinzip der prozessnahen Verantwortung empfiehlt es sich, diese Aufgaben in die Produktentwicklung zu integrieren. Die Anzahl der mit QM-Aufgaben betrauten Mitarbeiter ist naturgemäß abhängig von der Unternehmensgröße und der Komplexität der Produkte. Bei Kleinstunternehmen könnten alle oben beschriebenen Tätigkeiten auch in Personalunion von einem Mitarbeiter wahrgenommen werden. Und nicht zuletzt sollten natürlich die Grundsätze wirksamen Managements auch bei der Gestaltung eines QMS befolgt werden (vgl. Malik 2001).
⊡ Tab. 7.4. Organisatorische Gestaltung des QM Übergeordnetes QM
QM-Beauftragter eines Funktionsbereichs
Formulieren der unternehmensweiten Qualitätsziele in Abstimmung mit der Unternehmensleitung
Formulieren der bereichsspezifischen Qualitätsziele in Abstimmung mit der Bereichsleitung und der übergeordneten QM Stelle
Einführen und Abstimmen eines unternehmensweiten Kennzahlensystems
Ermitteln der Kennzahlen des Funktionsbereichs
Vorbereiten der jährlichen Management Bewertung
Bereitstellen der erforderlichen Informationen
Ermitteln der geltenden gesetzlichen und normativen Anforderungen und Vermitteln dieser Anforderungen im Unternehmen
Anpassen der Prozesse des Funktionsbereichs an die geltenden Anforderungen
Koordination / Durchführung von QM-Schulungsprogrammen
Durchführung von QM-Schulungen im Funktionsbereich
Implementierung und Pflege des unternehmensweiten QMHandbuchs
Implementierung und Pflege aller Teile des QM-Handbuchs, die den Funktionsbereich betreffen
Implementierung und Pflege eines übergeordneten Vorgehensmodells der Produktrealisierung
Implementierung und Pflege aller Schritte des Vorgehensmodells, die den Funktionsbereich betreffen
Koordination von externen Qualitätsaudits und Zertifizierungen
Vorbereiten und Bereitstellen der erforderlichen Unterlagen und Gesprächspartner
Koordination / Durchführung von internen Qualitätsaudits
Vorbereiten und Bereitstellen der erforderlichen Unterlagen und Gesprächspartner; ggf. Mitwirkung an den Audits
Überwachen von übergeordneten Korrektur- und Vorbeugemaßnahmen
Überwachen von bereichsspezifischen Korrektur- und Vorbeugemaßnahmen
Durchführen von Produktzulassungen
Bereitstellen der erforderlichen Unterlagen
Behördenkontakte im Rahmen der Meldepflicht
Bereitstellen der erforderlichen Informationen
79 7.4 · Implementierung eines Qualitätsmanagementsystems
7.4
Implementierung eines Qualitätsmanagementsystems
Wie bei der organisatorischen Umsetzung bestehen auch bei der technischen Umsetzung eines QMS viele Freiheitsgrade. Bei der Implementierung eines QMS sollte man sich noch einmal die verschiedenen Kundengruppen des QMS vor Augen führen ( Abschn. 7.1.2 »Zielsetzung und Kunden eines QMS«).
7.4.1 Das QMS und die (End-) Kunden
Der (End-) Kunde ist die Existenzberechtigung für das Unternehmen und für das QMS. Es ist wichtig, dass der Kunde auch tatsächlich als reale Person in die Prozesse des QMS integriert wird. Dies sollte nicht nur reaktiv im Rahmen der Reklamationsbearbeitung geschehen, sondern auch proaktiv, bspw. durch Kooperationen bei der Entwicklung neuer Produkte und Dienstleistungen.
7.4.2 Das QMS und die Leitung
Die Leitung des Unternehmens ist die entscheidende Kundengruppe des QMS. Das QMS muss für die Leitung ein zuverlässiges Instrument zur Steuerung des Unternehmens darstellen. Wie eingangs erwähnt, ist das QMS für die Leitung nur ein Managementsystem unter vielen. Um eine überschaubare und handhabbare Entscheidungsgrundlage für die Unternehmensleitung zu schaffen, sollten die wichtigsten Kennzahlen des QMS mit den wichtigsten Kennzahlen der anderen Managementsysteme zu einem gemeinsamen Instrument integriert werden. Ein geeigneter Ansatz dafür ist das Kennzahlen- und Steuerungssystem der Balanced Scorecard (Kaplan/ Norton 1997). Eine Balanced Scorecard fasst mindestens die folgenden vier Blickrichtungen auf ein Unternehmen zusammen: 1. Die finanzwirtschaftliche Perspektive 2. Die Kundenperspektive 3. Die interne Prozessperspektive 4. Die Lern- und Entwicklungsperspektive Mit Hilfe dieser vier Perspektiven werden sowohl retrospektive als prospektive Kennzahlen zur Steuerung des Unternehmens verwendet. Die Kennzahlen des QMS finden sich vor allem in der Kundenperspektive, aber auch in der internen Prozessperspektive und der Lern- und Entwicklungsperspektive.
7.4.3 Das QMS und die Mitarbeiter
Die Mitarbeiter sind die zahlenmäßig größte Kundengruppe eines QMS. Wenn man ihre Anforderungen nicht erfüllt, werden die Vorgaben eines QMS nicht zu einem geschätzten Hilfsmittel, sondern zu einer ungeliebten Last. Die Regelungen des QMS sollten nicht nur den regulatorischen Anforderungen genügen, sondern auch für den Mitarbeiter wertvolle Arbeitshilfen darstellen. Dies führt zu folgenden Anforderungen an das QMS: ▬ Der Aufbau des Qualitätsmanagementhandbuchs sollte sich an den Abläufen im Unternehmen orientieren – und nicht an der Gliederung einer Norm. ▬ Vorgabedokumente (Prozessbeschreibungen, Arbeitsanweisungen, etc.) sollten für die jeweilige Zielgruppe leicht verständlich geschrieben sein und umsetzbare Handlungsanweisungen enthalten. Für jeden Prozessschritt sollten die geforderten Arbeitsergebnisse in Inhalt und Struktur definiert werden. ▬ Alle Vorgabedokumente sollten in die jeweilige Arbeitsumgebung integriert und schnell und intuitiv auffindbar sein. ▬ Es empfiehlt sich, für die Produktrealisierung ein strukturiertes Vorgehensmodell zu definieren und für jeden Prozessschritt die erforderlichen Arbeitsergebnisse auszuweisen. Idealerweise wird dieses strukturierte Vorgehensmodell als elektronischer Work Flow implementiert. Dieser Work Flow dient neben der Implementierung des QMS auch dem Projektmanagement. Hinweis: Bei einem papierlosen Work Flow müssen die internationalen regulatorischen Anforderungen an elektronische Signaturen beachtet werden, (s. bspw. Code of Federal Regulations 21 Part 11 2005). ▬ Alle Prozessschritte des QMS sollten regelmäßig auf ihre Wirksamkeit, Effizienz und Existenzberechtigung überprüft werden. ▬ Die Überprüfung der Akzeptanz des QMS durch die Mitarbeiter sollte als fester Bestandteil im QMS verankert sein.
7.4.4 Das QMS und die Erfüllung der
regulatorischen Anforderungen Die Implementierung eines QMS sollte die regulatorischen Anforderungen aller Länder berücksichtigen, in denen die Produkte vermarktet werden. Dabei ist auch zu entscheiden, in welcher Sprache die Dokumente des QMS und die produktbezogenen Dokumente wie Spezifikationen, Designunterlagen oder Prüfnachweise erstellt werden. Um das QMS aufwandsarm extern darlegen zu können, ist es sinnvoll, eine Zuordnung zwischen den QMS Dokumenten und den produktbezogenen Dokumenten
7
80
7
Kapitel 7 · Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen
auf der einen Seite und den verschiedenen nationalen und internationalen Anforderungen auf der anderen Seite vorzunehmen. Idealerweise werden diese Zuordnungen in einer Datenbank verwaltet und sind direkt in das elektronische Dokumentenmanagement und in den elektronischen Work Flow der Produktrealisierung integriert. Dann können nach Bedarf alle erforderlichen regulatorischen Sichten aus der Datenbank generiert werden und damit aufwandsarm die Nachweise der Konformität für das QMS und für die Produkte geführt werden. Umgekehrt kann der elektronische Work Flow abhängig von der Angabe der geplanten Absatzmärkte die jeweiligen erforderlichen Prozessschritte und produktbezogenen Dokumente automatisch zusammenstellen.
7.5
Produktqualität
Nach der Diskussion der Zielsetzung und der Implementierung von Qualitätsmanagementsystemen soll noch der eigentliche Gegenstand eines QMS betrachtet werden: die Qualität der hergestellten Produkte. Wichtig ist hier, dass nicht nur die Anforderungen von Patient und Anwender während des Betriebs des Produktes berücksichtigt werden, sondern dass der Hersteller die Anforderungen aller relevanten Parteien über den gesamten Lebenszyklus des Produkts betrachtet. In ⊡ Tab. 7.5 wird verdeutlicht, welche Parteien in welcher Lebenszyklusphase Anforderungen an das Produkt richten. Der Umfang der Anforderungen und die Bedeutung der einzelnen Lebenszyklusphasen sind abhängig von der Art und der Komplexität des Medizinprodukts: nichtaktives oder aktives Medizinprodukt, Instrument oder rechnergestütztes Gerät, Einzelprodukt oder Systemkomponente, Einmalprodukt oder wiederverwendbares Zubehör, etc.
Das QMS des Medizinprodukteherstellers muss so ausgelegt sein, dass die Anforderungen aller Parteien an ein Produkt in den verschiedenen Lebenszyklusphasen zu Beginn der Produktrealisierung ermittelt und in angemessener Weise erfüllt werden. Nur so ist gewährleistet, dass der Kunde ein Produkt erhält, das über den gesamten Lebenszyklus seinen Anforderungen entspricht.
7.6
Schlussbemerkung
Das Prinzip des QM – systematisch sicherzustellen, dass die Anforderungen der Kunden erfüllt werden – muss stets auch auf das QMS selbst angewendet werden. In einem kontinuierlichen Reflektionsprozess, oder besser gesagt, in einem kontinuierlichen Plan-Do-CheckAct Zyklus, muss kontinuierlich geprüft werden, ▬ ob das QMS wirksam die relevanten Anforderungen an das Produkt ermittelt und deren Erfüllung sicherstellt und ▬ ob die Balance zwischen – hilfreicher Vorgabe und unnötiger Reglementierung, – wichtigem Nachweis und überflüssigem Papier, – kundenorientierter Optimierung von Produkten und bloßer Konformität für das QMS gehalten wird. Das Instrument der Management Bewertung, wie es im Abschn. 5.6 der ISO 13485 gefordert wird, kann diesen Reflektionsprozess und das Halten der Balance leisten, indem sorgfältig geprüft und bewertet wird, in welchem Maße das QMS die Anforderungen seiner zahlreichen Kunden erfüllt. Viele Unternehmen neigen angesichts des starken regulatorischen Drucks dazu, die intrinsische Motivation für das QMS zu vergessen und die Mitarbeiter sowie die
⊡ Tab. 7.5. Produktanforderungen verschiedener Parteien in unterschiedlichen Lebenszyklusphasen Lebenszyklusphase
Distributor
Produktrealisierung
Käufer/ Betreiber
Anwender
Patient
X
Technischer Service
Krankenkassen
X
Inverkehrbringen
X
X
Inbetriebnahme
X
X
X
Betrieb
X
X
Instandhaltung
X
X
Wiederaufbereitung
X
Außerbetriebnahme
X
Verschrottung
X
X X
X
Benannte Stelle
Gesetzgeber/ Behörde
X
X
X
X X
X
X
X
X
X
X
X
81 Literatur
Unternehmensleitung als Kunden des QMS zu vernachlässigen. Dies hieße aber, wertvolles Potential zu verschenken: Ein QMS sollte nie ausschließlich zur Erfüllung externer Anforderungen betrieben werden, sondern immer dazu genutzt werden, die Wettbewerbsfähigkeit eines Unternehmens zu steigern.
Literatur Code of Federal Regulations, Title 21 Food and Drugs, Chapter I, Part 11 Electronic Records; Electronic Signatures, U.S. Government Printing Office 2005 DIHK; Produkthaftung – Ein Leitfaden für Hersteller, Zulieferer, Importeure und Händler, Bonn 2003 DIN EN ISO 9000, Ausgabe:2005–12 Qualitätsmanagementsysteme – Grundlagen und Begriffe (ISO 9000:2005) DIN EN ISO 9001, Ausgabe:2000–12 Qualitätsmanagementsysteme – Anforderungen (ISO 9001:2000–09) DIN EN ISO 9004, Ausgabe:2000–12 Qualitätsmanagementsysteme – Leitfaden zur Leistungsverbesserung (ISO 9004:2000) DIN EN ISO 13485, Ausgabe:2003–11 Medizinprodukte – Qualitätsmanagementsysteme – Anforderungen für regulatorische Zwecke (ISO 13485:2003) DIN EN ISO 14971, Ausgabe:2001–03 Medizinprodukte – Anwendung des Risikomanagements auf Medizinprodukte (ISO 14971:2000); Deutsche Fassung EN ISO 14971:2000 (Norm-Entwurf ) DIN EN ISO 14971, Ausgabe:2005–11 Medizinprodukte – Anwendung des Risikomanagements auf Medizinprodukte (ISO/DIS 14971:2005); Deutsche Fassung prEN ISO 14971:2005 ISO/TR 14969, Ausgabe:2004–10 Qualitätssicherungssysteme – Medizinprodukte – Leitfaden zur Anwendung von ISO 13485:2003 Kaplan RS, Norton, DP (1997) Balanced Scorecard – Strategien erfolgreich umsetzen. Schäffer-Poeschel, Stuttgart Malik F (2001) Führen, Leisten, Leben. Wirksames Management für eine neue Zeit. Heyne Verlag, München
7
B
Spezieller Teil
8 Elektrokardiographen (EKG-Geräte) R. Kramme
8.1
Elektrokardiographie (EKG) – 87
8.2
Technik – 87
8.2.1 8.2.2 8.2.3 8.2.4 8.2.5 8.2.6
Physikalische und technische Grundlagen – 87 Gerätesystematik – 89 Schreibsysteme – 89 Elektrodentechnik – 89 Systemeigenschaften – 90 Betriebsarten – 90
8.3
EKG-Verfahren – 90
8.4
Ableitungssysteme – 92
8.4.1 8.4.2
Ableitungen von der Körperoberfläche Die Standardableitungen – 92
8.4.4
Ergänzende und reduzierte Ableitungen von der Körperoberfläche – 94 Invasive Ableitungen – 94
8.5
Methodische Hinweise
8.6
Diagnostische Wertigkeit des EKG – 95
8.7
Komplikationen
8.8
Sicherheitstechnische Aspekte
– 95
– 95 – 95
Weiterführende Literatur – 96 – 92
Elektrokardiographen (kurz: EKG-Geräte) sind diagnostische Geräte zur Aufnahme, Verstärkung, Speicherung, Verarbeitung, Auswertung und Dokumentation (Registrierung) des Elektrokardiogramms. Als standardisiertes Verfahren ist die nichtinvasive Elektrokardiographie seit Jahrzehnten in der Medizin etabliert; daher ist die apparative Ausstattung mit EKG-Geräten sowohl im klinischen als auch im niedergelassenen Bereich beinahe obligatorisch.
8.1
8.4.3
Elektrokardiographie (EKG)
Die Elektrokardiographie ist die Beschreibung des Verfahrens zur Aufzeichnung und diagnostischen Auswertung von Elektrokardiogrammen, die den zeitlichen und örtlichen Verlauf der elektrischen Erregungsvorgänge in Form von Wellen, Zacken und Strecken am Herzmuskel aufzeichnen (⊡ Abb. 8.1). Jede Erregungsausbreitung über Fasern des Herzens ist Quelle einer elektrischen Spannung. Gemessen werden i. d. R. bei der nichtinvasiven Ableitung diejenigen Spannungsdifferenzen, die über ein elektrisches Feld auf der Körperoberfläche entstehen und dabei nur Bruchteile der vom Herzen entwickelten Spannung ausmachen. Damit ist das Herz als Potentialquelle zu deuten und das EKG zeigt letztlich das Bild der Elektrizitätserzeugung (Potentialverschiebung) und damit der Erregungsvorgänge im Spiegel der gewählten Ableitungen.
8.2
Technik
8.2.1 Physikalische und technische Grundlagen
EKG-Geräte sind rauscharme Differenzverstärker, die aus einem stark gekoppelten Gleichstromverstärker von hohem Verstärkungsgrad mit einem invertierenden (umgekehrten) und nichtinvertierenden Eingang bestehen. Die Ausgangsspannung beträgt das Vielfache der an den Eingangsklemmen liegenden Spannung. Sie ist die Differenzspannung der beiden am gemeinsamen Pol liegenden Spannungen. Gemessen an der üblichen Verstärkertechnik werden an einen EKG-Vorverstärker besonders hohe Anforderungen gestellt: Einstreuende hochfrequente Wechselspannungen werden über einen Hochfrequenzfilter vor dem Vorverstärkereingang gedämpft, damit sich keine Übersteuerungen oder Selbsterregungen ergeben können. Extreme Störspannungen werden ebenfalls direkt über Entladestrecken und antiparallele Dioden abgeblockt. Ein hoher Eingangswiderstand (i. d. R. 10 MΩ und darüber) hält die Eingangsströme sehr klein. Kapazitiv eingekoppelte netzfrequente Wechselspannungen werden eliminiert durch eine hohe Gleichtaktunterdrückung. Nach einer 20- bis 30-fachen Vorverstärkung wird das EKG-Signal von der Gleichspannung über einen Hochpassfilter abgetrennt. Die Zeitkonstante dieses Filters beträgt 1,5 oder 3,2 s. Während bei analogen EKG-Geräten das aufbereitete EKG-Signal über einen Ableitungswähler den jeweiligen Kanalverstärkern (1...>12) zugeführt wird, entfällt dies beim digitalen EKG-Gerät. Statt dessen werden die aufgenommenen Signale zu 12 Ableitungen ver-
88
I
Kapitel 8 · Elektrokardiographen (EKG-Geräte)
knüpft, verstärkt und via Multiplexer sowie AD-Wandler einem Prozessorsystem (Steuerrechner = CPU) zugeleitet. Die Systemsoftware verarbeitet alle digitalisierten Eingangssignale, interpoliert die einzelnen Messwerte zu kontinuierlichen Kurven, steuert die Abläufe des Geräts, kommuniziert mit dem Bediener über Tastatur, Anzeige und Ausdruck; sie bereitet Textausgaben und Uhrzeit, gibt ein QRS-Triggersignal und wertet den Fernstarteingang für ein Ergometer aus. Die Ausgabe erfolgt über ein digitales Schreibsystem, den Thermokamm. Beim analogen EKG-Gerät wird nach einer weiteren Verstärkung auf ca. 1–2 V durch den jeweiligen Kanalverstärker das EKG-Signal über eine Leistungsverstärkerstufe (Endverstärker) und schließlich über das mechanische Registriersystem (z. B. Hebelschreiber, Düsenschreiber u. a.) ausgegeben. Die messtechnische Erfassung des EKG, der Signalweg sowie die Signalverarbeitung, gleicht einer Messkette: vom Messobjekt (Patient) über Messwertaufnehmer oder -fühler (Elektroden), Messwertüberleitung (Elektrodenzuleitung und Patientenkabel) zur Signalverarbeitung, Signalauswertung und Dokumentation (EKG-Gerät). Die an der Körperoberfläche aufliegenden Ableitelektroden bzw. die intrakardiale Elektrode (Signalquelle) nehmen das EKG-Signal auf (Nutzsignal) und leiten es über ein Kabel zum Eingangsverstärker des Kardiographen. Zwischen der Haut und dem metallischen Anteil der Elektrode besteht eine galvanoelektrische Spannung, die vom
⊡ Abb. 8.1. Nomenklatur des Elektrokardiogramms (EKG)
Elektrodenmaterial, der Zusammensetzung der Elektrolyten und vom Zustand der Grenzfläche Elektrode/Elektrolyt wesentlich beeinflusst wird. Diese elektrochemische Kontaktspannung kann bis zu 300 mV betragen. Das übertragene Eingangssignal des Verstärkers besteht aus unterschiedlichen Anteilen: 1. Das Nutzsignal (EKG) mit einer Amplitude von 50 μV – ca. 1 mV, das jedoch 2. überlagert wird von einem Gleichspannungsanteil bis zu 300 mV. Des Weiteren können 3. Störsignale bis zu 100 mV (50 Hz »Brummspannung«) und 4. extreme Störspannungen (z. B. durch Defibrillatoren, HF-Chirurgiegeräte u. a.) bis zu 3000 V auftreten. Um eine galvanische Trennung des Patienten von der Netzspannung sicherzustellen, ist die Spannungsversorgung sowie das Ausgangssignal galvanisch entkoppelt. Im Zuge der Reproduzierbarkeit wurde das EKG-Signalverarbeitungs-, Aufzeichnungs- und Ableitungsverfahren standardisiert: Frequenzgang: untere Grenzfrequenz fgrenze = 0,05 Hz obere Grenzfrequenz fgrenze = >100 Hz EKG-Amplitude: 2,5, 5, 10 und 20 mm/mV Zeit: 10, 25, 50 und 100 mm/s
89 8.2 · Technik
8.2.2 Gerätesystematik
8.2.4 Elektrodentechnik
EKG-Geräte lassen sich vornehmlich nach Anzahl der Kanäle und nach der Gerätetechnologie unterscheiden (⊡ Abb. 8.2, ⊡ Abb. 8.3).
Abnahme und Überleitung des EKG von der Körperoberfläche und die Qualität dieses Signals wird im Wesentlichen von den Elektroden beeinflusst. Sie stellen einen Übergang zwischen der Ionenleitung im Körper und der metallischen Elektronenleitung der Elektrodenoberfläche sowie des weiterleitenden Kabels dar. Zwischen Körper und Elektrode ist somit eine galvanische Spannung vorhanden, die insbesondere von drei Faktoren abhängt: 1. vom Elektrodenmaterial, 2. von der Zusammensetzung der Elektrolyten und 3. vom Zustand der Grenzflächen Elektrode/Elektrolyt.
8.2.3 Schreibsysteme
Als Schreibsysteme sind die verschiedenen technischen Möglichkeiten des Registrierteils zu verstehen (⊡ Abb. 8.3). Das digitale Thermokammschreibverfahren entspricht dem aktuellen Stand der Technik. Die Qualität einer Thermokammregistrierung zeichnet sich durch eine hohe Auflösung und geringe Störanfälligkeit des Schreibsystems sowie eine optimale Reproduktion des abgenommenen und verarbeiteten EKG-Signals aus.
⊡ Abb. 8.2. Übersicht und Differenzierung von EKG-Geräten
⊡ Abb. 8.3. EKG-Schreibverfahren
An den Grenzflächen können elektrochemische Kontaktspannungen bis zu 300 mV auftreten. Die Elektrodenimpedanz (syn. Elektrodenübergangsimpedanz)- die
8
90
I
Kapitel 8 · Elektrokardiographen (EKG-Geräte)
Summe aus Elektroden- und Hautimpedanz sowie dem Widerstand des Kontaktmediums, die abhängig von der Stromdichte ist – ergibt sich aus dem Momentanzustand von Haut, Körper, Kontaktmittel und Elektrodenmaterial. Deshalb werden Elektrodenpasten oder -gels zur Verringerung der Übergangsimpedanz eingesetzt. Insbesondere bei polarisierbarem Elektrodenmaterial (z. B. Edelstahl) kann es zum Auftreten von unerwünschten Polarisationsspannungen kommen. Diese spontanen Spannungsschwankungen überlagern das EKG-Signal und führen des Weiteren zu Signalinstabilitäten in der Registrierung (driftende Ableitungen). Besonders vorteilhaft haben sich unpolarisierbare Elektroden aus Ag/AgCl (Silber-Silberchlorid) erwiesen (⊡ Tab. 8.1).
Ein ausbaufähiges System hat den Vorteil, mehr Funktionen als nur eine EKG-Registrierung durchzuführen. Diese sog. multifunktionalen Systemeigenschaften sind dann gegeben, wenn das EKG-Gerät mit Zusatzfunktionen wie Spirometrie, Langzeit-EKG, Arrhythmie-Monitoring, Ultraschalldoppler, Pulsoxymetrie, Kapnographie, Spätpotentiale u. a. ausgestattet ist. Standard ist auch die Datenkommunikation mit dem PC sowie die Vernetzung mit anderen Systemen. Damit sind die Voraussetzungen für die Nutzung von medizinischen EDV-Statistiken, EKG-Datenmanagement und EKG-Softwarebibliotheken gegeben (⊡ Abb. 8.4).
8.2.5 Systemeigenschaften
Im Wesentlichen wird zwischen manueller und automatischer Betriebsart unterschieden. Typisch für heutige Kardiographen, die anwenderseitig programmiert werden können, sind Automatikprogramme wie StandardEKG mit 12 Ableitungen, Ergometrie und Arrhythmie. Auch Ableitungsmodus, Formatierung, Nulllinien, Kalibrierung und Empfindlichkeit sind weitestgehend automatisiert. Alternativ kann jederzeit manuell registriert werden.
Leistungsspektrum und zugleich Anforderung an moderne EKG-Systeme sind folgende Eigenschaften: ▬ Zeitlich simultane Darstellung der 12 Standardableitungen in einem Zeitrahmen von 15 s, ▬ unterschiedliche, alphanumerische Registriermöglichkeiten, ▬ hoher Bedienungskomfort und programmierbar, ▬ digitale Signalverarbeitung, ▬ automatisierte Steuerung nebst Programmen, ▬ Schnittstellen zur Kommunikation mit anderen Systemen und ▬ ein hochauflösendes Schreibsystem ohne mechanische Anteile.
8.2.6 Betriebsarten
8.3
EKG-Verfahren
⊡ Abb. 8.5 gibt eine Übersicht über nichtinvasive und invasive EKG-Verfahren.
⊡ Tab. 8.1. Übersicht Elektrodenarten Elektrodenart
Elektrodenmaterial
Abnahmeregion
Applikationsdauer kurz
Applikationsdauer lang
Platten-
V2
Extremitäten
Θ
Ohne Elektrodengel
Saug-
SilberSilberchlorid
Brust
Θ
Geringe Polarisationsspannung
Knopf-
SilberSilberchlorid
Extremitäten
Θ
Klebe-
SilberSilberchlorid
Extremitäten
Einmal-
SilberSilberchlorid
Extremitäten, Brust
Dreifach-
SilberSilberchlorid
Brust
Θ
Überwachung
Θ
Notfallapplikation
Θ
Bemerkungen
Schaumstoffpflaster verwenden Bei unruhigen Patienten geringere Artefakte
Θ
Θ
Θ
Höhere Kosten
Θ
Θ
Schnelle Applikation möglich
91 8.3 · EKG-Verfahren
⊡ Abb. 8.4. Beispiel eines vernetzten EKG-Verwaltungssystems
⊡ Abb. 8.5. Nichtinvasive und invasive EKG-Verfahren
8
92
Kapitel 8 · Elektrokardiographen (EKG-Geräte)
8.4
Ableitungssysteme
8.4.2 Die Standardableitungen
8.4.1 Ableitungen von der Körperoberfläche
I
Die von zeitveränderlichen Biopotentialdifferenzen ausgelösten Aktionsströme werden als elektrische Spannung – die Größe des Nutzsignals liegt bei einem Millivolt – zwischen zwei Punkten an der Körperoberfläche abgeleitet. Theoretisch könnten sich die Abnahmestellen an jeder beliebigen Stelle der Körperoberfläche befinden. In der Praxis haben sich bestimmte Ableitungspunkte entwickelt, nach denen die jeweiligen Ableitungen definiert sind. Im Wesentlichen unterscheiden sich die Ableitungen in der Abnahmetechnik und in räumlicher Hinsicht: Ableitungen zwischen zwei Punkten werden als bipolare Ableitung bezeichnet. Bei unipolaren Ableitungen hingegen ist die differente Elektrode gegen eine sog. Nullelektrode geschaltet (Sammelelektrode). Diese Sammelektrode entsteht durch den Zusammenschluss der Extremitätenableitungen über hochohmige Widerstände. Einen räumlichen Einblick vermitteln die Extremitätenableitungen auf der Frontalebene und die Brustwandableitungen auf der Horizontalebene.
Als Standardableitungen werden die drei bipolaren Extremitätenableitungen nach Einthoven (I, II, III), die drei aus den Einthoven-Ableitungen konstruierten unipolaren Extremitätenableitungen nach Goldberger (aVR, aVL, aVF) und sechs unipolare Brustwandableitungen nach Wilson (V1...V6) bezeichnet (⊡ Tab. 8.2).
Extremitätenableitungen nach Einthoven (⊡ Abb. 8.6)
Die Potentialdifferenz wird zwischen zwei Elektroden gemessen: R : rechter Arm = roter Stecker L : linker Arm = gelber Stecker F : linker Fuß = grüner Stecker N : rechter Fuß = schwarzer Stecker (Erde) Die drei Ableitungen liegen in der Frontalebene und bilden das sog. Einthoven-Dreieck (⊡ Abb. 8.7).
Unipolare Extremitätenableitungen nach Goldberger Die Potentialdifferenz wird jeweils zwischen einer Elektrode an der Extremität und einem »elektrischen Null-
⊡ Tab. 8.2. Übersicht der 12 Standardableitungen des EKG Extremitätenableitungen
Brustwandableitungen
Bezeichnung
nach Einthoven
nach Goldberger
nach Wilson
Elektroden
I, II, III
aVR, aVL, aVF
V1, V2, V3, V4, V5, V6
Messtechnik
bipolar
unipolar
unipolar
Ableitungspunkte
obere und untere Extremitäten
konstruiert aus I, II, III
Brustwand C1...C6
Projektion
Herzferne Potentiale Frontalebene
⊡ Abb. 8.6. Ableitungsorte, Steckerfarben und Schaltschema der bipolaren Extremitätenableitungen nach Einthoven
Herznahe Potentiale Horizontalebene
93 8.4 · Ableitungssysteme
punkt« ermittelt, der auf dem Mittelpotential zwischen den beiden übrigen Extremitäten liegt (⊡ Abb. 8.8). aVR : R – L+F/2 aVL : L – F+R/2 aVF : F – L+R/2
Unipolare Brustwandableitungen nach Wilson Die Brustwandelektroden (differente Elektroden V1...V6, V Voltage = Spannung) werden an sechs definierten Stellen am Thorax platziert (C1...C6, C Chest=Brust). Als Sammelelektrode (indifferente Elektrode) werden die drei Extremitätenableitungen über einen hochohmigen Widerstand zusammengeschlossen. Dieser »Wilson-Stern« oder »Central terminal« bildet den elektrischen Nullpunkt. Durch die Nähe zum Herzen sind die Amplituden der Brustwandableitungen größer als die der Extremitätenableitungen (⊡ Abb. 8.9, ⊡ Abb. 8.10).
Ableitungsfolge nach Cabrera Der Cabrera-Kreis ist ein hexaxiales System, das u. a. als Hilfsmittel für die Bestimmung des Lagetypus eingesetzt werden kann. Der Kreis enthält Ableitungen der Frontalebene, die jeweils um 30° gegeneinander gedreht sind. Die Ableitungen aus dem Einthoven-Dreieck werden parallel verschoben, sodass die Ableitung I den Winkelgrad Null einnimmt, Ableitung II+60° und Ableitung III+120°. Die Goldberger-Ableitungen werden in dieses System mit einbezogen und ergeben aVR–150°, aVL–30° und aVF+90° (⊡ Abb. 8.11). Durch Spiegelung der Ableitung aVR um 180° erhält man –aVR bei 30°. Vereinfacht kann man den Lagetypus ermitteln, indem die größte R-Amplitude aus den Ableitungen ermittelt wird. Die den Ableitungen zugeordnete
⊡ Abb. 8.7. Einthoven-Dreieck
⊡ Abb. 8.8. Unipolare Ableitungen nach Goldberger und Schaltschema
⊡ Abb. 8.9. Unipolare Brustwandableitungen nach Wilson. C1 IV. Interkostalraum rechts am Sternalrand C2 IV. Interkostalraum links am Sternalrand C3 IV. Interkostalraum auf der 5. Rippe zwischen C2 und C4 C4 im V. Interkostalraum auf der Medioklavikularlinie C5 in der linken vorderen Axillarlinie auf der Höhe von C4 C6 in der linken mittleren Axillarlinie auf der Höhe von C4
8
94
Kapitel 8 · Elektrokardiographen (EKG-Geräte)
I
⊡ Abb. 8.10. Ableitungsschema nach Wilson und Darstellung in der Horizontalebene
⊡ Abb. 8.11. Cabrera-Kreis
Die bipolaren Brustwandableitungen nach Nehb geben einen räumlichen Eindruck des Herzens aus der schrägen Horizontalebene. Durch Verlegung der Einthoven-Extremitätenableitungen vom rechten Arm zur zweiten Rippe, Ansatz Brustbein (NSt), vom linken Arm auf den Rücken etwas unterhalb der Spitze des linken Schulterblattes (Nax) und vom linken Fuß über die Herzspitze (Nap) erhält man die Brustwandableitungen nach Nehb. Diese Ableitungen werden auch als »kleines Herzdreieck« bezeichnet. Den Ableitungen nach Frank liegt eine theoretische Modellvorstellung zugrunde, dass das Herz im Mittelpunkt eines rechtwinkligen dreidimensionalen Koordinatensystems liegt: Querachse x, Längsachse y und Sagittalachse z. Damit lassen sich die Erregungsvorgänge in Form von Vektorenschleifen registrieren (Vektorkardiographie). Zusätzlich zu den Standardableitungen der Brustwand nach Wilson ist es möglich, weitere Ableitungsstellen aufzunehmen. Diese können rechts- (Vr3, Vr4, Vr5, Vr6) oder linkspräkordial (V7, V8, V9 oder V8 zwei ICR tiefer) erweitert werden.
Gradeinteilung bestimmt den Lagetypus (Beispiel: Die größte R-Amplitude befindet sich in Ableitung II, d. h. die elektrische Herzachse verläuft bei +60°. Dies entspricht der Normallage des Herzens beim gesunden Erwachsenen).
Reduzierte Ableitungen
8.4.3 Ergänzende und reduzierte Ableitungen
8.4.4 Invasive Ableitungen
Zu den reduzierten Ableitungen gehören Ableitungen für das EKG-Monitoring, Ableitungen für das Langzeit-EKG und Ergometrieableitungen (s. dazu die einzelnen Kapitel).
von der Körperoberfläche Unipolare Ösophagusableitungen Ergänzende Ableitungen Zu den ergänzenden Ableitungen gehören die bipolaren Brustwandableitungen nach Nehb, die korrigierten orthogonalen Ableitungen nach Frank und die zusätzlichen unipolaren Brustwandableitungen nach Wilson.
Bei den Ösophagusableitungen wird ein Elektrodenkatheter über die Speiseröhre bis kurz vor den Mageneingang geschoben. Ziel ist, eine genaue Beurteilung von Nahpotentialen der Herzhinterwand und des linken Vorhofs zu erhalten.
95 8.8 · Sicherheitstechnische Aspekte
⊡ Abb. 8.12. Oberflächen-EKG im Vergleich zum intrakardialen HISBündel-EG HBE HIS-Bündel-Elektrogramm A Erregungsausbreitung in den Vorhöfen V Erregungsausbreitung in den Kammern H Erregungsausbreitung im HIS-Bündel
sprung, Erregungsrhythmus, Herzlage, Herzfrequenz, Impulsausbreitung, Erregungsrückbildung und deren Störungen, die wiederum anatomische, mechanische, stoffwechsel- oder kreislaufbedingte Ursachen haben können. Keinen direkten Aussagewert dagegen hat das EKG für die Kontraktion und die Pumpleistung des Herzens (mechanische Herzfunktion). Die medizinische Bedeutung des EKG ist unbestritten, obwohl die Leistungsfähigkeit nicht überschätzt werden sollte. Im Rahmen einer kardiologischen Abklärung ist das EKG unbedingt erforderlich, bei internistischen Routineuntersuchungen meist eine wertvolle, eventuell sogar die entscheidende Untersuchung. Vorsicht ist geboten bei der Aussagekraft des EKG über die Ätiologie und Pathogenese einer Herzkrankheit sowie Indikation und Erfolg einer therapeutischen Maßnahme. Anatomische Schädigungen und funktionelle Störungen des Herzmuskels müssen nicht zwingend mit dem EKG übereinstimmen. Festzustellen ist, dass der Aussagewert des EKG abhängig von den Kenntnissen und Erfahrungen des Beurteilers ist. Während ungeübte Anwender die Interpretation des EKG eher zu weit auslegen, bewertet der erfahrene Anwender zurückhaltender und vermeidet nach Möglichkeit Schematisierung und Verallgemeinerung. Anzumerken ist, dass insbesondere bei computerisierten Auswerteprogrammen (z. B. Diagnosehinweise) eine eigene Bewertung des EKG unerlässlich ist.
HIS-Bündelableitung (EG) Intrakardial abgeleitetes Elektrogramm (EG) mittels 3poligem Elektrodenkatheter. Die Untersuchung erfolgt unter röntgenologischer und elektrokardiographischer Kontrolle (in Herzzentren gehört dieses Verfahren zur Routinediagnostik). Der besondere Vorteil dieser Ableitung besteht darin, dass die Nahpotentiale des rechten Vorhofs, der rechten Kammer sowie des Reizleitungssystems – und hier insbesondere das HIS-Purkinje-System – präzise untersucht werden können (⊡ Abb. 8.12).
8.7
Während Zwischenfälle bei der nichtinvasiven EKG-Ableitung ein absolutes Novum darstellen, kann es bei der intrakardialen EKG-Registrierung zum Auslösen von schwerwiegenden Arrhythmien (z. B. Flattern, Flimmern u. a.) kommen.
8.8 8.5
Methodische Hinweise
Störungen, die während der EKG-Registrierung auftreten, können allgemein unterschieden werden in patienten-, umgebungs-, anwender- und gerätebedingte Störungen. Die meisten Störungen (Nulllinienschwankungen, unregel- und regelmäßige Wechselspannungsüberlagerungen), die während der EKG-Registrierung auftreten, sind auf äußere Einflüsse zurückzuführen.
8.6
Diagnostische Wertigkeit des EKG
Als Ausdruck elektrischer Erregungsvorgänge am Herzen liefert das EKG Informationen über Erregungsur-
Komplikationen
Sicherheitstechnische Aspekte
Elektrokardiographen sind energetisch betriebene medizintechnische Geräte, für die besondere Bestimmungen, Vorschriften und Normen zum Schutz des Patienten und des Bedienungspersonals gelten. EKG-Geräte, die intrakardial messen bzw. dafür vorgesehen sind, werden der Anlage 1 der MPBetreibV zugeordnet. Für EKG-Geräte werden vorwiegend die Schutzklasse I (mit Schutzleiter) und die Schutzklasse II (ohne Schutzleiter) angewandt. Die VDE 0750 erlaubt es, Geräte mit einem Schutzklassenumschalter auszurüsten, sodass wahlweiser Betrieb in beiden Schutzklassen möglich ist. Die Geräte müssen zur Erhaltung der Funktions- und Betriebssicherheit in festgesetzten Zeitabständen sicherheitstechnisch kontrolliert und geprüft werden.
8
96
Kapitel 8 · Elektrokardiographen (EKG-Geräte)
Weiterführende Literatur
I
Bolz A, Urbaszek W (2002) Technik in der Kardiologie. Springer, Berlin Heidelberg New York Tokio Csapo G (1980) Konventionelle und intrakardiale Elektrokardiographie, 4. Aufl. Documenta, Geigy, Wehr/Baden Erdmann E (2006) Klinische Kardiologie. Springer, Berlin Heidelberg New York Tokio Klinge R (2002) Das Elektrokardiogramm, 8. Aufl. Thieme, Stuttgart Kramme R (1991) Elektrokardiographie. In: Menke W (Hrsg) Handbuch der Medizintechnik. ecomed, Landsberg/Lech Olshausen K von (2005) EKG-Information, 8. Aufl. Steinkopff, Darmstadt Webster JG (1988) Encyclopedia of medical devices and instrumentation (vol 2). Wiley, Wisconsin-Madison
9 Ergometriemessplatz R. Kramme
9.1
Ergometrie/Belastungs-EKG – 97
9.6
Methodische Hinweise
9.7
Diagnostische Wertigkeit der Ergometrie – 102
9.8
Indikationen
9.9
Abbruchkriterien und Sicherheitsmaßnahmen
9.2
Technik – 97
9.2.1 9.2.2 9.2.3
Physikalische und technische Grundlagen – 97 Ergometriemessplatz – 97 Ergometerarten – 98
9.3
Reduzierte Belastungs-EKGAbleitungen – 99
9.4
Automatische ST-Vermessungsprogramme
9.5
Belastungs-EKG
9.5.1
Belastungsintensität
– 102 – 102
9.10 Sicherheitstechnische Aspekte – 99
9.11 Raumanforderung
– 99
– 102
– 103
Weiterführende Literatur
– 103
– 100
Die Ergometrie, der meist angewandte Belastungstest in der klinischen und ambulanten Kardiologie, ist ein nichtinvasives Routineuntersuchungsverfahren in der Herz-Kreislauf-Diagnostik. Als zusätzliche Information zum Ruhe-EKG vermittelt die Ergometrie wesentliche Erkenntnisse über die aktuelle kardiopulmonale Leistungsfähigkeit sowie über Leistungseinschränkungen, die aus koronaren Herzkrankheiten resultieren können.
9.1
– 102
Ergometrie/Belastungs-EKG
Während unter Ergometrie (griech. »ergon« Arbeit, Leistung) die Durchführung einer definierten und reproduzierbaren Belastung mit einem Ergometer pro Zeiteinheit und die Kontrolle des EKG, der Herzfrequenz, des Blutdrucks und der Sauerstoffaufnahme verstanden wird, steht beim Belastungs-EKG die Registrierung elektrokardiographischer Veränderungen während und nach der Belastung im Vordergrund und weniger das Verhalten des Blutdrucks, der Herzfrequenz und der Sauerstoffaufnahme. Im Allgemeinen wird bei der konventionellen Ergometrie auf die Messung der Sauerstoffaufnahme und -sättigung verzichtet, während sie bei der Ergospirometrie unverzichtbar ist ( Kap. 10 »Lungenfunktionsdiagnostik«).
9.2
Technik
9.2.1 Physikalische und technische Grundlagen
Die Arbeit in Newtonmeter [Nm], die durch den Probanden während der gesamten Belastungsdauer bei unterschiedlichen Belastungsstufen erbracht wird, ist das Produkt aus Kraft in Newton [N] mal Weg in Meter [m]. Unter Einbeziehung der zeitlichen Komponente, also Arbeit in Newton [Nm] pro Zeit in Sekunden [s], lässt sich die erbrachte Leistung in Newtonmeter/Sekunde = Watt =Joule/Sekunde [Nm/s=W=J/s] ermitteln. Bezogen auf das Fahrradergometer ergibt sich folgender Zusammenhang: Durch das Treten der Fahrradpedale muss eine Kraft längs eines Weges aufgewendet werden. Die Geschwindigkeit, mit welcher die Fahrradpedale getreten werden, ist gleich der Zeit, in der diese Leistung erbracht wird. Aus der Drehbewegung des Fahrradpedals ermittelt sich demnach die Leistung aus 2π × Drehzahl × Drehmoment. Das Drehmoment errechnet sich aus der Kraft, mit welcher auf die Pedale getreten wird, multipliziert mit der Länge der Pedalkurbeln. Dabei wird deutlich, dass durch Änderung der Kraft oder Drehzahl unterschiedliche Leistungsergebnisse zu erwarten sind.
9.2.2 Ergometriemessplatz
Zur Vermeidung von Insellösungen bzw. Einschränkung der Gerätevielfalt stehen heute Komplettsysteme – sog. vollautomatische Ergometriemessplätze – zur Verfügung.
98
I
Kapitel 9 · Ergometriemessplatz
Diese Messplätze bestehen aus einem 3-, 6- oder 12-Kanal-EKG-Gerät, Ergometer, 1-, 3-, 6- oder 12-Kanal-Kardioskop, Defibrillator, nichtinvasivem Blutdruckmessgerät, Elektrodenapplikationssystem und einem fahrbaren Gerätewagen, auf dem diese Geräte stehen und damit flexibel transportiert werden können (⊡ Abb. 9.1). Bei Neuanschaffungen werden die konventionellen EKG-Geräte schon weitgehend durch PC-EKGs ersetzt. Der Vorteil dieser Anlagen liegt in den Möglichkeiten der Datenspeicherung und des Datentransfers.
9.2.3 Ergometerarten
In technischer und apparativer Hinsicht werden im Wesentlichen 3 Arten von Ergometern unterschieden: Fahrradergometer im Sitzen, Fahrradergometer im Liegen (⊡ Abb. 9.2) und Laufbandergometer. Wesentliche Anforderungen an ein Ergometer – vornehmlich Fahrradergometer – sind: ▬ Einstellung der Lastgenauigkeit (max. ±5%), ▬ Kontrollgenauigkeit durch Standardisierung bzw. Vergleichbarkeit, ▬ 5 W sollte die kleinste einstellbare Last sein, ▬ Last- und Drehzahlanzeige, ▬ optimierte Verstellmöglichkeiten für unterschiedliche Körpergrößen, ▬ geringer Platzbedarf bei hoher Standfestigkeit.
Drehzahlabhängige und drehzahlunabhängige Fahrradergometer
⊡ Abb. 9.1. Ergometriemessplatz mit Fahrradergometer
Bei drehzahlabhängigen Fahrradergometern kann die Leistung sowohl durch eine Erhöhung des Bremswiderstands als auch durch erhöhte Tretfrequenz gesteigert werden. Durch Einstellung einer Bremswirkung (Riemen, Bremsbacken, Gewichte oder elektromechanische Wirbelstrombremse), die die Kraft vorgibt, muss eine bestimmte Drehzahl eingehalten werden, damit die Leistung exakt ermittelt werden kann. Die Umsetzung dieses Sachverhalts ist in der Praxis nur schwer realisierbar. Deshalb, aber auch aufgrund der Ungenauigkeit der Reibungskoeffizienten der unterschiedlichen Bremssysteme, ist das drehzahlabhängige Fahrradergometer für die Ergometrie ungeeignet. Daher wurde die Benutzung dieser Geräte für medizinische Untersuchungen untersagt. Bei den heute überwiegend eingesetzten drehzahlunabhängigen Fahrradergometern, die meistens mit einer computergesteuerten Wirbelstrombremse ausgestattet sind, wird nur die zu erbringende Leistung vorgegeben; wird die Tretfrequenz erhöht, sinkt proportional der Widerstand. Die Bremswirkung wird laufend mit der Drehzahl, der aufgewendeten Kraft und der vorgegebenen Last verglichen. Abweichungen werden elektronisch durch Erhöhung oder Verringerung der Bremskraft korrigiert. Die Genauigkeit ist messsystemspezifisch sowie abhängig von der Konstanz- und Regelgeschwindigkeit der elektronischen Schaltung. Bei guten Systemen liegen die Abweichungen zwischen 1 und 3%. Die Norm gestattet Abweichungen bis 5% der eingestellten Last.
Kenndaten und Kriterien für Fahrrad- und Liegeergometer
⊡ Abb. 9.2. Liegeergometer
Für die Beurteilung eines Fahrrad- oder Liegeergometers sind folgende Kenndaten von Bedeutung: 1. Bremsprinzip: Computergesteuerte Wirbelstrombremse, drehzahlunabhängig, Drehmomentmessung
99 9.5 · Belastungs-EKG
2. Belastungsbereich: in Abhängigkeit vom Probandenklientel a) Normalergometer 20–450 W, b) Hochleistungsergometer 20–1000 W 3. Drehzahlbereich: a) 30–100/min, b) 30–130/min 4. Belastungsgenauigkeit: nicht kleiner als ±3 W oder 3% (Norm 5%) 5. Belastungsstufen: kleinste Last 5 W manuell einstellbar 6. Zeitintervall: kleinste Zeiteinheit 1 min 7. Belastungsprogramme: frei programmierbar 8. Sitzhöhenverstellung: stufenlos 9. Lenkerverstellung: stufenlos
9.3
Reduzierte Belastungs-EKG-Ableitungen
Ähnlich wie bei den anderen EKG-Ableitungen gibt es heutzutage eine unüberschaubare Vielzahl von Ergometrieableitungsprogrammen. An die reduzierten EKG-Ableitungen während des Belastungs-EKG werden im Wesentlichen zwei Forderungen gestellt: ▬ minimale Störanfälligkeit durch Überlagerung von Muskelpotentialen und Bewegungsartefakten, ▬ qualitative und quantitative Registrierung von STStreckenveränderungen. In der Regel reichen sechs Ableitungen aus. Die Ableitungen können mit mehrfach verwendbaren Spannbandelektroden und Elektrodengürtel abgenommen werden. Hygienischer, einfacher und schneller ist der zeitgemäße Einsatz von Einmalklebeelektroden oder Elektrodensauganlage. Die Extremitätenableitungen können jeweils auf der rechten und linken Seite der Schulterblätter (Humerusköpfchen) und im seitlichen Bereich der rechten und linken Beckenschaufel angelegt werden. Diese werden am wenigsten von Muskelpotentialen überlagert. Die Brustwandableitungen sind von besonderem Interesse, da ischämische ST-Senkungen und Erregungsrückbildungsstörungen der Vorderwand am stärksten und am häufigsten in diesen Ableitungen erscheinen. Populärste Ableitungspunkte für die Brustwandableitungen sind C2, C4 und C5 oder C6 (⊡ Abb. 9.3). 9.4
Automatische ST-Vermessungsprogramme
Die Hebung oder Senkung der ST-Strecke im EKG unter Belastung erlaubt diagnostische Rückschlüsse auf koronare Herzerkrankungen und ist daher ein vorrangiges Messziel. Moderne Elektrokardiographen, die meistens ein Ergometrieprogramm anbieten, vermessen und dokumentieren die ST-Strecke sowie die ST-Amplitude automatisch. Zu unterscheiden sind kontinuierliche und
⊡ Abb. 9.3. Reduzierte Brustwandableitungen Belastungs-EKG (C2, C4 und C6)
nichtkontinuierliche ST-Vermessungsprogramme: Bei der kontinuierlichen Vermessung wird jeder aufgenommene QRS-Komplex direkt vermessen und analysiert. Aus einer Anzahl gut korrelierender Schläge (meist 16) wird fortlaufend für jeden Kanal ein Mittelwertschlag gebildet. Im Gegensatz dazu wird bei der nichtkontinuierlichen STVermessung entweder in einem zeitlichen Intervall (z. B. pro Minute) oder nur aus einem Anfangs- und Endkomplex ein Mittelwertschlag gebildet. Mittelwertschlag: Zunächst wird der Anfangs- und Endpunkt des QRS-Komplexes bestimmt. ST-Amplitude und ST-Steigung werden im Punkt J+x vermessen [JPunkt = Junction point, markiert das Ende des QRSKomplexes und den Übergang in die vollständige Erregungsphase (ST-Strecke)]. Der Abstand J+x wird in Abhängigkeit von der Herzfrequenz bestimmt. Die isoelektrische Linie wird zwischen P-Welle und QRS-Anfang ermittelt. Die Amplitude im Punkt x ist der Abstand zur berechneten und angezeigten Nulllinie. Die Steigung im Punkt x wird durch den Winkel α angegeben, indem eine Regressionsgerade durch die ST-Strecke und den x-Punkt gelegt wird.
9.5
Belastungs-EKG
Da die diagnostischen Fragestellungen und die Zusammensetzung des Patientenklientels sehr unterschiedlich zu bewerten sind, ist ein einheitlicher, standardisierter Belastungstest nicht immer möglich. Die von der internationalen Kommission für Normung in der Ergometrieanwendung (ICSPE) erarbeiteten Richtlinien lassen jedoch einen weitgehend standardisierten Ablauf in der Routine-
9
100
Kapitel 9 · Ergometriemessplatz
untersuchung und in der Sportmedizin zu (Mellerowicz u. Franz 1983).
I
9.5.1 Belastungsintensität
In der Ergometrie werden grundsätzlich 2 Arten der Belastungsintensität unterschieden: die maximale Ausbelastung und die submaximale Belastung. Bei der maximalen Ausbelastung wird die Belastung solange gesteigert, bis die physikalische Leistungsgrenze des Probanden erreicht ist (z. B. sportmedizinische Untersuchungen, Leistungsdiagnostik usw.). Bei der submaximalen Belastung wird solange belastet, bis medizinisch relevante Probleme auftreten oder deren Zusammenhang mit der Belastung erkannt werden kann (z. B. Rhythmusstörungen, ST-Hebung oder -Senkung usw.). Die Höhe der submaximalen Belastung richtet sich nach der medizinischen Fragestellung. Das Ergebnis kann lange vor dem Erreichen der maximalen Belastung vorliegen.
Lastschritte Die Normungskommission für Ergometrie (ICSPE) hat folgende Lastschritte verbunden mit der Belastungszeit festgelegt: ▬ 5 W 1 min, ▬ 10 W 1 min, ▬ 25 W 2 min, ▬ 50 W 3 min. Eine Ergometrie nach genormten Regeln besteht aus der Aufwärmphase mit einer Grundlast und mindestens 3 dieser vorgegebenen Belastungsschritte sowie einer Erholphase. Die Aufwärmphase soll den Kreislauf anregen und auf die kommende Belastung vorbereiten. Sie hat im Allgemeinen die Zeitdauer des nachfolgenden Belastungsschritts. Die Wattzahl und die Zeitdauer des Belastungsschritts wird nach der physikalischen Leistungsfähigkeit des Probanden gewählt. Als Kriterium gilt außerdem, dass am Ende der Laststufe ein sog. »steady state« erreicht wird. »Steady state« bedeutet Gleichgewicht, in diesem Fall ist gemeint, dass sich sowohl der Puls als auch der Blutdruck am Ende der Belastungsstufe nicht mehr nach oben verändern, sondern dass diese Werte konstant bleiben (Auswahl der Belastung siehe PWC.)
Bewertung der Leistungsfähigkeit Für den diagnosegerechten Ablauf einer Ergometrie ist es sehr wichtig, die Leistungsfähigkeit eines Probanden vor Beginn der Ergometrie ungefähr einzuschätzen. Dazu gilt folgende Regel: Die maximale Sollleistung für den Mann beträgt 3 W/kg KG minus 10% für jede Lebensdekade jenseits des 30. Lebensjahrs. Die Sollleistung für die Frau beträgt 2,5 W/kg KG minus 8% für jede Lebensdekade jenseits des 30. Lebensjahrs. Beispiel für die Leistungseinstellung einer Frau im Alter von 65 Jahren mit einem Gewicht von 55 kg: Sollleistung: (2,5 W×55 kg)–(8%×3,5 Dekaden) = 137,5 W –28% = 99 W Damit liegt die Ausbelastung für diese Frau bei ca. 99 W. Es muss nun eine Grundlast und ein Lastintervall gewählt werden, mit dem der Proband sicher in der Lage ist, 3 Belastungsstufen zu bewältigen. Im vorliegenden Fall wäre es empfehlenswert, mit einer Grundlast von 50 W zu beginnen und dann mit Belastungsstufen von 10 W mit 1 min Belastungsdauer bis zur Ausbelastung, die voraussichtlich zwischen 80 und 90 W liegt, zu ergometrieren. Ein weiterer Vorteil der Methode ist, dass bei Probanden mit vergleichsweise geringer Leistung mit kleineren Laststeigerungssegmenten die Leistungsgrenze genauer definiert werden kann.
Pulse Working Capacity (PWC) Abgeleitet von den Regeln der Bewertung der Leistungsfähigkeit und den Regeln für die Belastungsgrenzen erlaubt das PWC-Verfahren einen auf die Pulsfrequenz normierten Leistungsvergleich. Der PWC-Wert beurteilt die Leistungsfähigkeit, d. h. die erbrachte Leistung bei bestimmten Pulsfrequenzen, im Submaximalbereich, wenn die Maximalfrequenz nicht erreicht wurde. Die gewählte Frequenz wird als Index (z. B. PWC150) hinzugefügt. Die Sollwerte der PWC sind nicht altersabhängig, werden aber gewichtsbezogen und geschlechtsabhängig errechnet (Beispiel PWC150: Sollwert für Männer 2,1 W/kg und für Frauen 1,8 W/kg). Diese Werte können den PWC-Werttabellen entnommen werden. Gelistet sind die Werte für PWC130, PWC150 und PWC170.
Belastungsablauf Belastungsgrenzen Als Faustregel für eine maximale Ausbelastung bei der Fahrradergometrie gilt: maximale Herzfrequenz von 220/ min minus Lebensalter des Probanden. Aus Gründen der Probandensicherheit empfiehlt sich für die Routineuntersuchung als Richtwert die sog. submaximale Belastungsgrenze: maximale Herzfrequenz 200/min minus Lebensalter des Probanden.
Zur Durchführung eines Ergometertests wird eine Raumtemperatur von 18–23°C bei einer relativen Luftfeuchtigkeit von 40–60% empfohlen. Abweichungen sollten protokolliert werden. Vor der eigentlichen Belastung wird ein Ruhe-EKG aufgezeichnet. Es dient als Ausgangsbasis für die spätere Zusammenfassung des Belastungstests. Nach Anlegen der reduzierten EKG-Ableitungen und der Blutdruckmanschette beginnt die Belastung mittels eines kalibrierten Ergometers nach der beschriebenen
101 9.5 · Belastungs-EKG
Belastungsmethode. Die gebräuchlichen Belastungsprogramme sind bei modernen Ergometriemessplätzen entweder im Ergometer oder im EKG-Gerät gespeichert. Eines dieser beiden Geräte dient bei einer zeitgemäßen Ergometrieuntersuchung als Kommandogerät für den Untersuchungsablauf. Zur lückenlosen Dokumentation erfolgt automatisch nach jeder Belastungsstufe ein EKGZwischenausdruck mit Angabe der Herzfrequenz, des Blutdrucks sowie des Verhaltens der ST-Strecke und der Amplitude. Andererseits ist es aber auch möglich, zu jeder beliebigen Phase eine manuelle EKG-Registrierung zu starten oder über die gesamte Dauer des Tests einen EKGTrend aufzuzeichnen. Folgende Punkte müssen während der Belastung beachtet werden: ▬ Stete Beobachtung des Probanden und der EKG-Verlaufskurven auf dem Monitor. ▬ Nach jeder Belastungsstufe Kontrolle des EKG-Streifens sowie des Blutdruckwerts, der Herzfrequenz und des ST-Verhaltens. Nach Beendigung des Belastungstests sowie einer Erholungsphase wird abschliessend nochmals ein Ruhe-EKG aufgezeichnet – bei Bedarf auch häufiger – und der Blutdruck wiederholt kontrolliert.
Belastungsarten Die allgemeinen Voraussetzungen eines auswertbaren Belastungstests können folgendermaßen zusammengefasst werden: exakt dosierbar, physikalisch messbar und zu jeder Zeit reproduzierbar. Es gibt eine Vielzahl von Belastungsarten, welche diese Voraussetzungen nicht erfüllen, trotzdem werden sie der Vollständigkeit halber genannt: ▬ Rumpfbeugen bzw. Kniebeugen: Für das BelastungsEKG unzureichend, weil schon die allgemeinen Voraussetzungen »dosierbar und physikalisch messbar« nicht erfüllbar sind. ▬ Treppensteigen: Ist ebenfalls für das Belastungs-EKG ungeeignet, da die »Reproduzierbarkeit« in Frage gestellt werden muss, die EKG-Kontrollmöglichkeit fehlt und der Proband nicht ausbelastet werden kann. ▬ Handkurbelergometer: Nachteilig bei diesem Verfahren ist die Störung der EKG-Registrierung durch die Arm- und Thoraxbewegungen des Probanden und die fehlende Ausbelastung (kleine Muskelmasse). Dennoch stellt diese Belastungsart bei Gehbehinderten oftmals die einzige Möglichkeit dar. ▬ Isometrische Belastung (handgrip): Nachteile wie bei Handkurbelergometer. ▬ Stufentest nach Master: Der Einstufen- oder Zweistufentest bietet folgende Vorteile: relativ physiologische Belastungsart, einfacher Bewegungsablauf, standardisiert und deshalb reproduzierbar, einfach durchzuführen, Beanspruchung größerer Anteile
der Gesamtmuskulatur sowie geringer finanzieller Aufwand. Nachteile: zeitlicher Umfang für eine Ausbelastung, Abnahme des EKG und des Blutdrucks ist während der Belastung kaum möglich und die diagnostische Aussagekraft ist gegenüber der Fahrrad- und Laufbandergometrie als sehr gering einzustufen. ▬ Kletterstufentest nach Kaltenbach u. Klepzig: Dieser Test ist eine Modifikation des Master-Tests, deshalb sind die Vor- und Nachteile ähnlich gelagert. ▬ Laufbandergometer: Das Laufband wird überwiegend bei Leistungssportlern zur Belastung eingesetzt. Die wesentlichen Vorteile der Laufbandergometer sind die physiologische Belastung der Gesamtmuskulatur, die jederzeit reproduzierbar ist, sowie die flexible Belastungsintensität (hier die Laufgeschwindigkeit des Bands). Nachteilig sind die relativ hohen Investitionskosten, die baulichen Voraussetzungen (hier insbesondere der Lärmschutz) und ein begrenztes Belastungsklientel. ▬ Fahrradergometer: Die populärste und am weitesten verbreitete Belastungsart ist die Fahrradergometrie, die im Sitzen oder im Liegen durchgeführt werden kann. Wesentliche Vorteile der Fahrradergometrie im Sitzen sind die physiologische Belastung und der Einsatz des Körpergewichts; des Weiteren wird die Prozedur seitens des Probanden überwiegend als positiv empfunden. Nachteilig sind die Registrierung von EKG und Blutdruck während der Belastung und orthostatische Beschwerden nach der Belastung. Die wesentlichen Vorteile der Liegeergometer bestehen in der störungsfreien Registrierung und der Qualität von EKG und Blutdruck, der größeren Sicherheit vorwiegend bei älteren oder gebrechlichen Menschen und dem Ausbleiben von orthostatischen Beschwerden nach der Belastung.
Standardisierte Untersuchungsprogramme Aus den Anfangszeiten der Ergometrieuntersuchung gibt es noch eine Vielzahl individueller und standardisierter Belastungsprogramme, die der Vollständigkeit halber anhand einiger Beispiele aufgezählt werden: ▬ Standardtestmethode nach Hollmann (beginnt mit 30 W, wird alle 3 min um 40 W gesteigert bis zur Belastungsgrenze), ▬ WHO-Standardprogramm (beginnt mit 25 W, wird alle 2 min um 25 W gesteigert bis zur Belastungsgrenze), ▬ Vita maxima nach Knipping (beginnt mit 10 W, wird jede Minute um 10 W gesteigert bis zur Belastungsgrenze), ▬ Rechtecktest nach Kirchhoff (Belastungsdauer 10 min mit 100 W im Sitzen oder Liegen, alle 2 min Blutdruck-, HF- und EKG-Kontrolle).
9
102
I
Kapitel 9 · Ergometriemessplatz
Die Ergometrie hat sich jedoch immer mehr zu einer standardisierten Methode nach den international anerkannten Regeln der ICSPE entwickelt. Das hat den Vorteil, dass Untersuchungsergebnisse verschiedener Institute und Untersucher nach den gleichen Vorgaben verglichen und beurteilt werden können. Es ist deshalb für jeden Untersucher Pflicht, sich an diese Regeln zu halten.
9.6
▬ Abklärung der Belastbarkeit (z. B. nach Herzinfarkt u. a.), ▬ Beurteilung von Herzrhythmusstörungen, ▬ Beurteilung des Verlaufs und des Therapieerfolgs bei Medikamenten, Bewegungstherapie und nach Herzoperationen, ▬ Beurteilung und Klassifizierung des Schweregrades der Belastungskoronarinsuffizienz.
Methodische Hinweise 9.9
Die meisten Störungen, die während der Ergometrie auftreten, sind patientenbedingt. Ein Großteil dieser Störungen wird von der modernen Gerätetechnologie kompensiert. Trotzdem kann der Proband darauf aufmerksam gemacht werden, dass die notwendige Tretarbeit ohne heftige Bewegung des Oberkörpers durchgeführt werden kann. Zwischenfälle bei einer sachgemäß durchgeführten Ergometrie sind äußerst selten, deshalb werden Routineuntersuchungen heute überwiegend von gut eingewiesenen Arzthelferinnen ausgeführt. Nur bei Untersuchungen, bei denen bedingt durch den Allgemeinzustand des Probanden Komplikationen nicht auszuschließen sind, muss die Ergometrie über die gesamte Belastungsdauer hinweg vom Arzt überwacht werden. Gleichzeitig muss eine Krankenschwester bzw. Arzthelferin anwesend sein, um zu assistieren oder im Bedarfsfall rasche Hilfestellungen zu leisten. Eine apparative und medikamentöse Notfallausrüstung sowie ein funktionsfähiger Defibrillator müssen jederzeit griffbereit zur Verfügung stehen.
9.7
Diagnostische Wertigkeit der Ergometrie
Für die Erfassung passagerer Myokardischämien ist die ST-Streckenveränderung während des Belastungs-EKG von höchster Wertigkeit. Darüber hinaus lassen sich koronare Herzerkrankungen eindeutig nachweisen. Die Koronarangiographie hat wesentlich dazu beigetragen, die Interpretation des Belastungs-EKG zu verbessern, obwohl zwischen beiden ein grundsätzlicher Unterschied besteht: die Koronarangiographie erfasst die morphologischen Veränderungen der Koronargefäße, das Belastungs-EKG die funktionellen Auswirkungen.
9.8
Indikationen
Eine Indikation für ein Belastungs-EKG kann aus diagnostischen, therapeutischen oder prognostischen Gründen angezeigt sein: ▬ Abklärung einer koronaren Herzkrankheit (z. B. Brustschmerzen bei körperlicher Belastung), ▬ Abklärung des Blutdruckverhaltens bei Verdacht auf Belastungshypertonie,
Abbruchkriterien und Sicherheitsmaßnahmen
Belastungstests sind nicht risikofrei (z. B. Herzinfarkt, lebensbedrohliche Rhythmusstörungen u. a.) durchzuführen. Um das Risiko zu minimieren, sollten Sicherheitsmaßnahmen vor und nach der Belastungsuntersuchung erfolgen. Vor der Belastung: Informationen aus dem Ruhe-EKG einschließlich Anamnese und Untersuchung sowie Aufklären des Probanden. Wichtig ist, den Probanden darauf hinzuweisen, sich bei subjektiven Beschwerden während der Belastung zu melden. Nach der Belastung sollte der Proband weiter beobachtet (i. d. R. 5–10 min), wiederholt Kontroll-EKG geschrieben und Blutdruck gemessen werden. Kriterien zum Abbruch der Ergometrie sind: ▬ Zunehmende schwere retrosternal auftretende Schmerzen (Angina pectoris), ▬ horizontale oder deszendierende ST-Senkung von >0,2 mV, ▬ gehäufte monomorphe oder polytope, ventrikuläre Extrasystolen, ▬ ventrikuläre Salven, ▬ vereinzelte Extrasystolen, die in die T-Welle der vorangegangenen Herzaktion fallen (R-auf-T- Phänomen), ▬ Vorhofflimmern oder -flattern, ▬ schwerwiegende Überleitungsstörungen (z. B. totaler AV-Block), ▬ Erregungsausbreitungsstörungen (z. B. Schenkelblock), ▬ systolischer Blutdruck >250 mm Hg, diastolischer Blutdruck >130 mm Hg sowie Blutdruckabfall, ▬ auffällige Atembeschwerden (Dyspnoe), ▬ Zeichen einer beginnenden Linksherzinsuffizienz, ▬ EKG-Zeichen eines frischen Myokardinfarktes.
9.10
Sicherheitstechnische Aspekte
Tretkurbelergometer unterliegen den Vorschriften des Medizinproduktegesetzes (IIa) sowie der DIN VDE 0750-238. Sie müssen einschließlich der evtl. eingebauten nichtinvasiven Blutdruckmessgeräte regelmäßig gewartet werden.
103 Weiterführende Literatur
9.11
Raumanforderung
Eine Raumtemperatur von 18–23°C bei einer relativen Luftfeuchte von 40–60% wird empfohlen. Für die Nutzfläche des Raumes kommen als Richtwert 16 m2 in Betracht. Die Möglichkeit des Umkleidens (Umkleidekabine ca. 3 m2) sowie einer sanitären Einrichtung WC/Dusche (ca. 5 m2) sollten gegeben sein.
Weiterführende Literatur Börger HH (1994) EKG-Informationen, 6. Aufl. Steinkopff, Darmstadt Csapo G (1980) Konventionelle und intrakardiale Elektrokardiographie. Documenta Geigy, Wehr/Baden Erdmann E (2006) Klinische Kardiologie. Springer, Berlin Heidelberg New York Tokio Jung K (1986) Ergometrie in Klinik und Praxis. In: Wehrmedizin und Wehrpharmazie 1: 61–72 Hochrein H et al. (1988) Checkliste Kardiologie. Thieme, Stuttgart Kaltenbach M (1986) Die Dosierung der Ergometerleistung unter Berücksichtigung der Körperoberfläche. In: Medizinische Information. Robert-Bosch-Institut, Berlin Klinge R (2002) Das Elektrokardiogramm, 8. Aufl. Thieme, Stuttgart Löllgen H (1991) Praxis der EKG-Beurteilung. Boehringer, Ingelheim Mellerowicz H, Franz IW (1983) Standardisierung, Kalibrierung und Methodik in der Ergometrie. perimed, Erlangen Olshausen K von (2005) EKG-Information, 8. Aufl. Steinkopff, Darmstadt Trappe H-J, Löllgen H (2000) Leitlinien zur Ergometrie. Z Kardiol 89: 821–837
9
10 Lungenfunktionsdiagnostik R.M. Schlegelmilch, R. Kramme
10.1 Spirometriesysteme 10.1.1 10.1.2 10.1.3 10.1.4 10.1.5
– 105
Einführung – 105 Pneumotachographie – 105 Gerätetechnik – 106 Methodische Grundlagen der Spirometrie – 110 Mitarbeitsfreie Lungenfunktionstests – 114
10.2 Weiterführende kardio-pulmologische Funktionsdiagnostik – 116 10.2.1 10.2.2 10.2.3 10.2.4
10.1
10.2.5 Ergospirometrie – 123 10.2.6 Nichtinvasive Bestimmung des Herzzeitvolumens (HZV) – 126 10.2.7 Metabolisches Aktivitätsmonitoring – 126 10.2.8 Planerische Hinweise und bauliche Voraussetzungen – 127
Literatur
– 128
Übersicht – 116 Bodyplethysmographie – 117 Diffusionskapazität – 120 Stickstoff-Washout-Verfahren zur FRC-Bestimmung – 122
Spirometriesysteme
10.1.1 Einführung
Spirometer sind nicht-invasive Diagnostikgeräte, die zur einfachen Lungenfunktionsprüfung bei pulmonalen Routineuntersuchungen verwendet werden. Die Spirometrie bietet bei geringem Aufwand und kurzer Untersuchungsdauer grundlegende Erkenntnisse über die Art und das Ausmaß pneumologischer Funktionsstörungen. Angesichts der großen Häufigkeit von Atemwegserkrankungen wie Asthma, Bronchitis und Emphysem, gehört die apparative Lungenfunktionsdiagnostik heute zum unentbehrlichen Standard in der Klinik und niedergelassenen Praxis, der Arbeits- und Präventivmedizin sowie Epidemiologie, um sowohl gefährdete als auch bereits erkrankte Patienten untersuchen und adäquat behandeln zu können. Zwei der elementaren Fragen der Lungenfunktionsprüfung können mit Hilfe der Spirometrie beantwortet werden: 1. Wie groß ist das Lungenvolumen, welches ein- oder ausgeatmet werden kann? 2. In welcher Zeit bzw. mit welcher Strömung wird dieses Volumen ein- oder ausgeatmet? Die Atemstromstärke und das daraus resultierende Lungenvolumen werden unmittelbar am Mund des Probanden erfasst. Zur Messung wird ein Mundstück verwendet, sodass die Atemluft direkt über den spirometrischen Sensor ein- bzw. ausgeatmet wird. Gebräuchlich
ist die Registrierung der forcierten Exspiration, also der schnellen Ausatmung nach vollständiger Einatmung, zur Bestimmung der forcierten Vitalkapazität (FVC) und des Einsekundenwertes (FEV1), im Deutschen auch als Atemstoßtest oder Tiffeneau-Test bezeichnet. Die graphische Registrierung dieser Messung kann als forciertes Spirogramm, Volumen gegen die Zeit, oder besser als Fluss-Volumen-Kurve erfolgen. Im Rahmen der forcierten Atmung können mehrere Dutzend Parameter zur Auswertung kommen, die vorwiegend die Größe und Form der Fluss-Volumen-Kurve beschreiben (⊡ Abb. 10.1), wobei FVC und FEV1 die wichtigsten und gebräuchlichsten Messwerte sind. Neben der forcierten Spirometrie kann auch die langsame Spirometrie, also die Registrierung der langsamen In- und Exspiration, durchgeführt werden. Letztere dient zur Erfassung der Lungenteilvolumina (Atemzugvolumen VT, Inspiratorisches und Exspiratorisches Reservevolumen IRV und ERV, Inspiratorische Kapazität IC), die meist jedoch nur im Zusammenhang mit weiterführenden Lungenfunktionsuntersuchungen Verwendung finden (vgl. auch Abschn. 10.2.2 »Bodyplethysmographie«).
10.1.2 Pneumotachographie
Die Grundlage für alle Lungenfunktionsmessungen bildet die Erfassung der Gasströmungsgeschwindigkeit gegen die Zeit, ein Vorgang, der auch als Pneumotachographie bezeichnet wird. Im medizinischen Anwendungsbereich ist die Strömungsgeschwindigkeit
106
Kapitel 10 · Lungenfunktionsdiagnostik
I
a
b
⊡ Abb. 10.1a,b. a Spirogramm und b Fluss-Volumen-Kurve
[cm/s] jedoch nur Mittel zum Zweck. Sie dient nämlich zur Bestimmung der bei bekanntem Sensordurchmesser resultierenden Strömungsmenge [l/s]. Synonym für Strömungsmenge werden auch die Bezeichnungen Strömung, Volumenfluss oder Fluss verwendet. Auch die englische Bezeichnung »Flow Rate«, also Strömungsrate, ist zutreffend, da tatsächlich eine Strömungsmenge pro Zeiteinheit gemessen wird. Der Schweizer Physiologe Fleischer veröffentlichte bereits 1925 grundlegende Arbeiten über die klinische Anwendung der Pneumotachographie. Während noch vor einigen Jahren Pneumotachogramme und Fluss-Volumen-Kurven mittels Schreiber aufgezeichnet und mühsam von Hand ausgewertet werden mussten, wird dies heute von im Spirometer integrierter Mikroelektronik übernommen. Die Atemstromstärke wird dabei fortlaufend elektronisch oder digital zum Atemvolumen integriert. Der Pneumotachograph, also der Flusssensor, der die spirometrische Messung ermöglicht, ist heute Kernstück eines jeden Lungenfunktionsmesssystems, vom kleinen handgehaltenen Peakflowmeter bis hin zum Bodyplethysmographen (⊡ Abb. 10.2).
10.1.3 Gerätetechnik
Wurden in der Vergangenheit noch geschlossene oder halb-offene Messsysteme wie Glocken- oder KeilbagSpirometer verwendet, werden heute wegen der geringeren Baugröße, der für den Patienten angenehmeren Messbedingungen und der weit günstigeren hygienischen Bedingungen ‚offene’ Messgeräte eingesetzt. Offene Systeme sind solche, bei denen der Proband in die freie Atmosphäre (Umgebungsluft) aus- bzw. einatmet. Dies
geschieht i. d. R. über einen ventillosen Flusssensor, der für bestimmte, spezielle Untersuchungen, insbesondere bei weiterführenden Untersuchungsverfahren, auch mit einem Atemventil gekoppelt werden kann. Das Messgerät erfasst den Atemstrom und bildet durch elektronische oder digitale Integration das Volumensignal: . V = ∫Vdt [l]; . dV dabei ist V das geatmete Volumen, V = [l . s–1]; die dt Atemstromstärke. In ⊡ Abb. 10.3 wird das Pneumotachogramm (Atemstrom) dem daraus integrierten Spirogramm (Atemvolumen) gegenübergestellt. Die Aufzeichnung der Atemkurven und die Berechnung abgeleiteter Parameter erfolgt in aller Regel in digitaler Form online in einem eingebauten Mikrocomputer oder einem PC. Messbereich
Der physiologisch erforderliche Messbereich für die Messung der Atemströmung beträgt mindestens 25 ml/s bis 10 l/s, optimal 10 ml/s bis 15 l/s, und benötigt eine Auflösung von 5–10 ml/s. Somit werden sehr hohe Anforderungen an die technische Auslegung des Flusssensors gestellt. Die in der Atemkurve enthaltene Anstiegsgeschwindigkeit benötigt zudem einen linearen Frequenzgang bis mindestens 5 Hz, um den ersten Teil der forcierten Ausatmung korrekt erfassen zu können. Kalibration und Verifikation
Unverzichtbar ist die Möglichkeit zur Kalibration des Sensors bzw. zumindest zur Verifikation der Messwerte. Die Kalibration oder Verifikation wird üblicherweise mit Hilfe einer Handpumpe, die ein bekanntes Volumen
107 10.1 · Spirometriesysteme
⊡ Abb. 10.2. Pneumotachograph (Werksfoto: ndd Medizintechnik AG, Zürich)
tionswerte werden von einem Rechner automatisch aus dem Sensor eingelesen (bspw. von einem programmierten Chip im Stecker). Digitale Systeme, wie z. B. solche mit Ultraschallsensor, benötigen keine laufende Kalibrierung. Bei diesen Systemen ist jedoch eine gelegentliche Volumenverifikation anzuraten. Die American Thoracic Society (ATS) hat Empfehlungen (American Thoracic Society 1995) herausgegeben, die vor Marktzulassung eine Typenprüfung des Spirometers mittels standardisierter Fluss-Volumen-Kurven fordern. Diese Kurven decken den gesamten physiologisch und pathophysiologisch vorkommenden Messbereich ab. Die Typenprüfung findet in unabhängigen Testlabors statt, die motorisierte, prozessorgesteuerte Kalibrationspumpen verwenden, mit denen die Spirometer getestet werden. Nachdem diese Prüfung Teil des in den USA vorgeschriebenen Zulassungsverfahrens ist, kann man davon ausgehen, dass dort vermarktete Spirometer diesen Anforderungen genügen. Vor Beschaffung eines Gerätes sollten deshalb beim Hersteller oder Vertreiber die vom Spirometer erfüllten Genauigkeitsnormen ERS und ATS Spirometrie-Standards (American Thoracic Society 1995, European Respiratory Society 1993) erfragt werden. Hygiene
⊡ Abb. 10.3. Vergleich Pneumotachogramm und Spirogramm
von mindestens 2 l aufweist, durchgeführt. Bei Betätigen der Kalibrationspumpe entsteht eine Strömung, die vom Flusssensor erfasst und anschließend im Gerät zu Volumen integriert wird. Nach einem kompletten Pumpenhub muss das Spirometer das Pumpenvolumen wiedergeben. Durch unterschiedlich schnelle Kolbenbewegung kann eine variable Atemströmung im Bereich bis +10 l/s simuliert werden, um den gesamten Messbereich abzudecken. Die meisten Spirometer verfügen über ein Kalibrationsprogramm, wodurch der Abgleichvorgang erheblich erleichtert wird. In der Kalibrationsroutine wird automatisch ein Mittelwert über mehrere Pumpenhübe gebildet und die Abweichung des Messwertes vom Kalibrationswert direkt angezeigt. Ein entsprechender Kalibrationsfaktor wird dann für weitere Messungen berücksichtigt, bis die nächste Kalibration erfolgt. Die Kalibration muss ohne Berücksichtigung der bei der Messung erforderlichen BTPS-Korrektur (s. unten) durchgeführt werden. Zunehmend werden Messsysteme verwendet, die vorkalibrierte (disposable) Sensoren einsetzen. Die Kalibra-
Wegen der Gefahr einer Kreuzkontamination bei Messungen an unterschiedlichen Personen oder Patienten sind geeignete Maßnahmen zu treffen, um eine am Spirometer erworbene Infektion wirksam und zuverlässig zu vermeiden. Ist der Flusssensor fest installiert und nicht leicht auswechselbar, ist die Verwendung eines disposablen Atemfilters unverzichtbar. Der Atemfilter sollte, wie auch der Sensor selbst, nur einen geringen Widerstand aufweisen, um die Atmung nicht zu behindern. Ist der Flusssensor leicht zu wechseln, muss stets ein gereinigter Sensor verwendet werden. Für normale Untersuchungen wird keine Sterilität des Sensors gefordert; eine Desinfektion der Sensorteile nach Herstellerangaben ist ausreichend. In vielen modernen Spirometern kommen Einmalteile zum Einsatz, wodurch ausreichende Hygiene bei einfacher Handhabung gewährleistet wird. Der Einmalsensor birgt jedoch den Widerspruch in sich, dass auch ein kostengünstiger (Wegwerf-) Sensor eine hohe Messgenauigkeit aufweist. Letztlich sollte der Einmalsensor nicht (viel) teurer sein als ein Atemfilter, jedoch die o. a. Anforderungen an Genauigkeit und Auflösung erfüllen. Anwendungstechnisch vorteilhaft sind solche Sensoren, die Einmalteile verwenden, die lediglich die Hygiene sicherstellen und nicht unmittelbarer Bestandteil des Sensors sind, somit auch keinen direkten Einfluss auf die Messgenauigkeit ausüben. Die Europäische Gesellschaft für Respiration (ERS) hat zu Sensor- und Filterwiderstand, Kalibration und Hygiene Empfehlungen herausgegeben, die Beachtung finden sollten (European Respiratory Society 1993).
10
108
Kapitel 10 · Lungenfunktionsdiagnostik
Umrechnung auf Körperbedingungen BTPS
I
Im offenen Messsystem ist es erforderlich, dass die gemessene Strömung und damit das Volumen auf »Lungenverhältnisse« oder Körperbedingungen BTPS (Body Temperature Pressure Saturated, 37°C, 760 mmHg, 100% relative Feuchte) korrigiert werden. Die Korrektur muss inspiratorisch (1 l Umgebungsluft entspricht ca. 1,1 l Lungenluft) und exspiratorisch (1 l Lungenluft entspricht ca. 0,97 l am Sensor), abhängig von Sensorprinzip und Bauweise erfolgen. Ohne Umrechnung auf BTPS-Bedingungen können erhebliche Abweichungen der Messwerte mit Fehlern von über 10% entstehen. Umrechnungsformeln auf BTPS-Bedingungen finden sich z. B. in (European Respiratory Society 1993). In den heute erhältlichen Spirometern wird üblicherweise automatisch auf BTPS-Bedingungen korrigiert. Im Folgenden werden die Messprinzipen heute gebräuchlicher Flusssensoren und deren mögliche Vor- und Nachteile kurz dargestellt.
Differentialdruck-Flowmeter Die Messung des differentialen Drucks (p1–p2) in einem Messrohr mit integriertem, definierten Widerstand ist die klassische Methode zur Bestimmung der Atemströmung. Die Art des eingesetzten Widerstands bezeichnet die Messmethode. Der turbulente Atemstrom aus der Trachea via Mund wird über einen dem Messaufnehmer vorgeschalteten Rohrstutzen und/oder einen Atemfilter, der als Atemstromgleichrichter dient, »laminarisiert«, da sich der Druckabfall vor und nach dem Widerstand nur bei einem laminaren Atemstrom proportional zur Atemgeschwindigkeit verhält. Je nach Flussrichtung ist der Atemdruck vor dem Widerstand größer als nach dem Widerstand. Die Druckdifferenz vor und nach dem Widerstand ist proportional der Atemstromgeschwindigkeit und deren jeweiligen Änderungen. Die Druckdifferenzen werden fortlaufend über Druckwandler in elektrische Signale übergeführt und nach Digitalisierung weiter verarbeitet. Ein generelles Problem bei allen Flow messenden Systemen, die mit Druckwandlern arbeiten, ist die Nullpunktstabilität. Geringste Unsymmetrien im Messsignal, z. B. Drifts durch Erwärmung des Messwandlers, wirken sich als »künstliche« Strömung aus, die sich laufend als Volumen aufintegriert. Um diesen Effekt zu vermeiden, wird ein Flowbereich definiert, in dem keine Strömung gemessen wird (»tote Zone«) und demnach keine Volumenintegration stattfindet. Dieser Bereich ist möglichst klein zu halten und darf 10–15 ml/s nicht übersteigen. Pneumotachograph nach Fleisch
Das pneumotachographische Messprinzip nach Fleisch (⊡ Abb. 10.4) war bis in die 1980er Jahre das am weitesten
verbreitete Flowmeter. Im Messaufnehmer ist ein Kapillarbündel (Röhrchen) als fester Widerstand integriert. Über weite Messbereiche ist der vielfach geteilte Atemstrom in den einzelnen Kapillaren laminar. Die Druckdifferenz ergibt sich nach dem physikalischen Gesetz von Hagen-Poiseuille und lässt sich bei laminarer Strömung wie folgt ableiten: . 8ηl . ∆p = k .V = 4 V r Hier bedeuten: k Konstante, deren Größe von der Viskosität und der Rohrbeschaffenheit abhängt, l Länge der Röhre, r Röhrenradius, η. Viskositätskonstante, V Volumendurchfluss. Bei dem Pneumotachographen nach Fleisch, der auch als Fleischsches Staurohr bezeichnet wird, erzielt man die Linearität zwischen Druckdifferenz und Strömungsgeschwindigkeit durch Anordnung einer großen Anzahl parallel angeordneter Röhrchen. Diese Linearität der Flussmessung war früher Voraussetzung, um eine direkte Registrierung und Ablesung der Strömung auf einem Schreiber zu ermöglichen. Heute kommen auch vermehrt nichtlineare Systeme zum Einsatz, da Mikroprozessoren zur online Messwertberechnung und Kurvendarstellung eingesetzt werden. Allerdings müssen diese Systeme regelmäßig einer Kalibration oder Verifikation unterzogen werden. Wesentlicher Nachteil beim Fleischschen Rohr und anderen mit Widerständen arbeitenden Pneumotachographen ist die Kontamination mit Sputum, die schon bei kleinsten Tröpfchen zu Widerstandsänderungen und damit zu teils erheblichen Messwertverfälschungen führt. Bei einigen Systemen ist deshalb ein Krümmer vorgeschaltet, um einerseits das Sputum abzufangen und andererseits die Strömung in den nachgeschalteten Sensor zu laminarisieren. Ein weiteres probates Mittel gegen Sputum ist die Verwendung eines Einmalatemfilters, was heute aufgrund der hygienischen Anforderungen Standard sein sollte ( Abschn. 10.1.3 »Gerätetechnik«). Pneumotachograph nach Lilly
Werden Drosselstellen in Kanülen laminar durchströmt, so ergibt sich ein proportionaler Druckabfall bis zu Reynolds-Werten von ca. 10. Dies gilt auch, wenn eine Reihe solcher Drosseln, etwa in Form eines engmaschigen Netzes oder Gitters, parallel angeordnet und gleichmäßig durchströmt wird. Dabei ist ausschlaggebend, dass die Maschenweiten sehr gering und der Durchmesser der Netzflächen relativ groß sind. Eine erhebliche Verbesserung der Linearität des Systems lässt sich durch die Kombination verschiedener Metallnetze erzielen. Allerdings steigt damit auch der Strömungswiderstand an.
109 10.1 · Spirometriesysteme
⊡ Abb. 10.4. Pneumotachograph nach Fleisch (schematisch)
Lamellen-Spirozeptor
Bei diesem pneumotachographischen Prinzip dient eine lamellenartig geschlitzte Folie als Widerstandselement. Auch hier ergibt sich ein zur durchgehenden Strömung proportionaler Druckabfall. Die Lamellen reagieren weniger empfindlich auf Verschmutzung mit Sputum. Der Spirozeptor lässt sich leichter reinigen. Turbulenz-Flowmeter
Neben den beschriebenen Pneumotachographen mit linearen Widerstandselementen gibt es Messinstrumente, die den Druckabfall bei turbulenten Strömungen durch eine variable Öffnung bestimmen. In den meisten Fällen wird dieses Prinzip bei Langzeit-Flow-Monitoring genutzt, bei dem hoch genaue Messungen des Flusses bzw. ein breiter Flussbereich nicht erforderlich sind.
Turbinen-Flowmeter Diese Art von Flowmeter (synonym: digitaler Volumentransducer) wird als Propeller oder Turbine inmitten des Atemstromaufnehmers integriert, so dass die Atemströmung diesen direkt in beiden Flussrichtungen passieren muss. Die damit verbundene Rotation der Turbine oder des Propellerflügels reflektiert oder unterbricht das Licht eines oder mehrerer LEDs. Photodioden registrieren diese Reflexionen oder Unterbrechungen und setzen sie in elektrische Impulse um. Das Atemgasvolumen,
das diesen Transducer passiert, verhält sich proportional zur Gesamtanzahl der Impulse, während der Atemstrom sich proportional zur Häufigkeit dieser erzeugten Impulse verhält.
Hitzedrahtanemometer Das Messelement besteht aus einem strömungsmechanischen Teil (Venturi-Rohr) und zwei geheizten Drähten im Strömungskanal. Beide Heizdrähte sind Bestandteil einer elektrischen Messbrückenschaltung (WheatstoneBrücke). Der eine Draht, bestehend aus zwei unterschiedlich aufgeheizten Platindrähten, erfasst die Temperatur des strömenden Gases. Der zweite Draht wird über eine elektronische Regelsteuerung so versorgt, dass die an das strömende Gas abgegebene Wärmemenge sofort in Form von elektrischer Leistung wieder zugeführt wird. Daraus resultiert ein Gleichgewichtszustand zwischen zugeführter elektrischer Leistung und abgegebener Wärmemenge. Somit ist die zugeführte elektrische Leistung ein Maß für die Strömungsgeschwindigkeit des zu messenden Gases. Ein neueres, verfeinertes Prinzip des Hitzedrahtanemometers (Mass Flow Meter) beruht auf der Bestimmung des Gasmassenflusses, die die Menge der vorbei fließenden Gasmoleküle pro Zeiteinheit bestimmt. Wesentlicher Vorteil dieses Prinzips ist die Unabhängigkeit von der Temperatur und Gaszusammensetzung.
10
110
Kapitel 10 · Lungenfunktionsdiagnostik
Wirbelfluss-Flowmeter
I
Das Phänomen von strömenden Wirbeln wurde bereits 1518 von Leonardo da Vinci beobachtet und aufgezeichnet. Grundsätzlich entstehen Wirbel aus Wellen, die in einer Strömung auf Widerstand stoßen. Beim Wirbelfluss-Flowmeter wird die Atemströmung an einem feststehenden Widerstandselement, dem sog. Bluff Body, vorbeigeleitet, wodurch sich stehende Wirbel bilden. Art und Häufigkeit der Wirbelbildung sind abhängig von der Geschwindigkeit der Atemströmung. Die Anzahl der erzeugten Wirbel kann durch unterschiedliche Messtechniken ermittelt werden: Piezoelektrische Elemente, Temperatursensoren oder optische Lichtfasern. Das Verfahren kann nur unidirektional messen und ist somit für die fortlaufende Spirometrie ungeeignet.
Ultraschall-(Transit-time-) Flowmeter Das Prinzip dieser Methode (⊡ Abb. 10.5) basiert auf der Durchgangszeitdifferenz: Mittels der Fortpflanzungsgeschwindigkeit von akustischen Wellen in einem strömenden Medium kann die Strömungsgeschwindigkeit ermittelt werden. Die Fortpflanzungsgeschwindigkeit der akustischen Wellen erhöht sich um den gleichen Betrag wie die Richtungsgröße des Flussgeschwindigkeitsvektors bei der Schallübertragung. Bei der technischen Umsetzung werden drei Grundprinzipien unterschieden: ▬ Kontinuierliche Phasenverschiebung: hierbei wird die Phasenverschiebung des kontinuierlich übertragenen Ultraschallsignals gemessen. ▬ Impulsphasenverschiebung: die Phasenverschiebung zwischen Abweichungen der Ultraschallsinuswellen wird ermittelt. ▬ Time-of-flight-Impuls: die Durchgangszeit des übertragenen Ultraschalls (Transmitter/Receiver) wird gemessen.
Während das Prinzip der Phasen- und Impulsphasenverschiebung in der Medizin nicht kommerzialisiert wurde, wird das Time-of-flight-Prinzip (Buess et al. 1986) immer häufiger in der Spirometrie eingesetzt und hat sich in der Praxis durchgesetzt und bewährt. Bei diesem Verfahren sind schräg zum Atemrohr Ultraschallelemente angeordnet, die kurze Schallimpulse (»Klicks«) emittieren. Die Transitzeiten für die Impulse werden abwechselnd in beiden Richtungen ermittelt. Die Differenz der Transitzeiten ist proportional zur Strömungsgeschwindigkeit, unabhängig von allen anderen Störeinflüssen wie Temperatur, Feuchte oder Viskosität des Atemgases. In einer technischen Realisierung des Ultraschall-Flowmeters wird ein disposables Atemrohr verwendet, das den Ultraschallelementen gegenüberliegende, durch Folien verschlossene Fenster aufweist, die für den Ultraschall transparent, aber für Keime nicht durchlässig sind. Das Verfahren besticht durch seine hohe Messgenauigkeit, seine Kalibrationsfreiheit, die absolute Hygiene und die zusätzliche Möglichkeit, die Molmasse des Atemgases zu ermitteln. Die Molmasse, also das spezifische Gewicht des Gases, ergibt sich aus der Summe der Transitzeiten. Bei der Ausatmung ergibt sich eine Molmassekurve, die der CO2-Kurve ähnlich ist (vgl. Abschn. 10.1.5 »Mitarbeitsfreie Lungenfunktionstests«).
Peak-Flowmeter Zur Langzeitüberwachung oder therapeutischen Kontrolle von Patienten mit obstruktiven Lungenkrankheiten eignet sich die Peak-Flowmetrie. Das klassische, mechanische Peak-Flowmeter ist eine einfache Konstruktion, die aus einem Messrohr mit einer Skalierung (l/min) und einem Hubkolben besteht. Die forcierte Exspiration bewegt den durch die Atemluft angetriebenen Hubkolben auf der Skalierung nach oben. Der maximale exspiratorische Spitzenfluss (PEF = Peak Expiratory Flow) kann so ermittelt werden. Moderne Peak-Flowmeter verwenden eines der oben beschriebenen Messprinzipien, in aller Regel eine Turbine, und beinhalten eine elektronische Auswertung, meist mit Speicher und Tagebuchfunktion, teilweise mit Datenübertragung per Modem. In regelmäßigem Turnus sollte kalibriert werden.
10.1.4 Methodische Grundlagen der Spirometrie
Statische Lungenvolumina
⊡ Abb. 10.5. Prinzip des Ultraschall Flowmeter (ndd Medizintechnik AG, Zürich)
Der Gastransport in den Lungen hängt davon ab, wie schnell und gleichmäßig sich das Lungenvolumen ändern kann. Statische Lungenvolumina werden bei langsamer Atmung und mit Methoden gemessen, bei denen die Gasströmungsgeschwindigkeit eine untergeordnete Rolle spielt. Werden zwei oder mehrere Teilvolumina zusammen gemessen, spricht man von einer Kapazität. Das Lun-
111 10.1 · Spirometriesysteme
⊡ Tab. 10.1. Bewertung der Flusssensor-Prinzipien Vorteile
Nachteile
Pneumotachograph nach Fleisch
Bewährtes Messprinzip Mechanisch sehr stabil
Verschiedene Sensoren für unterschiedliche Messbereiche Empfindlich auf Verunreinigung Schwierig zu reinigen Kalibration erforderlich
Pneumotachograph nach Lilly
Bewährtes Messprinzip Mechanisch stabil Reinigung möglich
Empfindlich auf Verunreinigung Kalibration erforderlich
Lamellen-Spirozeptor
Bewährtes Messprinzip Geringes Gewicht Einfache Reinigung
Kalibration erforderlich
Turbulenz-Flowmeter
Einfacher Sensoraufbau, auch als Einmalsensor verfügbar Klein, leicht
Geringer Messbereich Kalibration erforderlich
Turbinen-Flowmeter
Einfacher Sensoraufbau Klein, leicht
Häufige Reinigung und Kalibration erforderlich
Hitzedrahtanemometer
In der Ausführung als Massenflowmeter gute Genauigkeit
Einfaches Anemometer zu ungenau Kalibration erforderlich
Wirbelfluss-Flowmeter
Einfacher Sensoraufbau
Nicht in der Routine bewährt Nur unidirektional Kalibrationsprobleme
Ultraschall-Flowmeter
Einfacher Sensoraufbau Leicht, klein, hohe Genauigkeit, kalibrationsfrei
genvolumen am Ende einer tiefen Einatmung nennt man die totale Lungenkapazität (TLC). Sie setzt sich aus der Summe des Residualvolumens (RV), das nicht ausgeatmet werden kann, und der Vitalkapazität (VC) zusammen. Ermittelt wird die TLC mit der Indikatorgasmethode oder der Bodyplethysmographie in Kombination mit der Spirometrie. Die Totalkapazität ist ein Maß der maximalen Lungengröße. Die Vitalkapazität (VC) ist das maximale Volumen, das nach einer kompletten Exspiration inspiriert (IVC) oder nach einer kompletten Inspiration exspiriert (EVC) werden kann. Die Vitalkapazität umfasst folgende Teilvolumina: ▬ Atemzugvolumen (VT), das während des Atemzyklus ein- und ausgeatmet wird; ▬ Inspiratorisches Reservevolumen (IRV), das nach einer normalen Inspiration noch zusätzlich maximal eingeatmet werden kann; ▬ Exspiratorisches Reservevolumen (ERV), das von der Atemruhelage aus exspiriert werden kann; ▬ Inspiratorische Kapazität (IC), die Summe aus VT und IRV. Die funktionelle Residualkapazität (FRC) kann wie die TLC nur mit aufwändigeren Methoden gemessen werden. Das Residualvolumen ist die Differenz zwischen der funk-
tionellen Residualkapazität und dem exspiratorischen Reservevolumen ( Abschn. 10.2 »Weiterführende kardiopulmologische Funktionsdiagnostik«). Die spirometrische Erfassung der Lungenteilvolumina ohne Bestimmung der FRC macht nur bei besonderen Fragestellungen Sinn und wird deshalb in der Routine wenig durchgeführt.
Dynamische Lungenvolumina Die Bestimmung der dynamischen Lungenvolumina, allen voran der forcierten Vitalkapazität und des Einsekundenvolumens FEV1, gehört zur internistischen Basisdiagnostik. Die forcierte Exspiration liefert dabei wesentliche Hinweise nicht nur über das Vorliegen einer Obstruktion der Atemwege im Sinne einer Querschnittsreduktion, sondern auch über einen möglichen Retraktionsverlust der Lunge, einen damit einhergehenden Elastizitätsverlust und eine Instabilität der Atemwege. Die Verringerung der Lungenelastizität spiegelt meist den Verlust an funktioneller Gewebsstruktur wider, wodurch die Lunge an Gasaustauschoberfläche verliert. Höherer Ventilationsbedarf und geringere maximale Sauerstoffaufnahme sind die Folge. Die forcierte Inspiration kann zur Erfassung einer extrathorakalen Obstruktion, z. B. einer Stenose in der Trachea, dienen. Wurde in der Vergangenheit aus techni-
10
112
I
Kapitel 10 · Lungenfunktionsdiagnostik
schen Gründen vorwiegend nur das forcierte Spirogramm aufgezeichnet, wird heute üblicherweise die Fluss-Volumen-Kurve online dargestellt. Der zeitliche Verlauf des Spirogramms zeigt auf den ersten Blick die Ausatemzeit, die bei einem Lungengesunden drei, beim obstruktiven Patienten allerdings bis zu 10 s und mehr beträgt. Das forcierte Spirogramm hat die Form einer exponentiellen Funktion, seine Formbewertung benötigt somit einiges Verständnis. Im Gegensatz dazu bewirkt die Darstellung in den Fluss-Volumen-Koordinaten eine Linearisierung: Beim Lungengesunden ergibt sich nach schnellem Anstieg zum Peak Flow ein geradliniger Abfall. Die Abweichung von der Geraden, die konkave Formbildung, gleichbedeutend mit einer Flussverminderung, ist augenfällig und kann einfach erkannt und interpretiert werden. Die nachfolgende ⊡ Tab. 10.2 enthält die wichtigsten Parameter des forcierten Spirogramms bzw. der Fluss-Volumen-Kurve. Die Liste der aus dem forcierten Spirogramm und der Fluss-Volumen-Kurve abgeleiteten Parameter ließe sich (fast) beliebig fortsetzen. Neben der numerischen Auswertung sollte die Formanalyse der Fluss-Volumen-Kurve unbedingt Beachtung finden (⊡ Abb. 10.6a–e).
Kurvendarstellung, Ergebnisse Die online Darstellung und Dokumentation der FlussVolumen-Kurve kann mittlerweile als in der Spirometrie üblicher Standard angesehen werden. Schließlich ist sie
⊡ Tab. 10.2. Die wichtigsten Parameter des forcierten Spirogramms und der Fluss-Volumen-Kurve Parameter
Dimension
Beschreibung
FVC
l
Forc. Vitalkapazität
FEV1
l
Einsekundenwert
FEV1/FVC
%
Rel. Einsekundenwert
FEVt
l
z. B. FEV0.5, FEV1, FEV2
PEF
l/s
Peak Flow
FEF 25/25
l/s
Mittlerer Fluss (forc. Spirogramm)
MEF 25
l/s
Maximaler Fluss nach 25% der Ausatmung
MEF 50
l/s
Maximaler Fluss nach 50% der Ausatmung
MEF 75
l/s
Maximaler Fluss nach 75% der Ausatmung
MTT
s
Mean Transit Time
FIV1
l
Insp. Einsekundenwert
MIF 50
l/s
Maximaler Fluss nach 50% der Einatmung
in Deutschland auch Voraussetzung für die Abrechenbarkeit nach den ärztlichen Gebührenordnungen (EBM und GOÄ). Auch die fortlaufende Messung des gesamten Atemzyklus und Dokumentation der forcierten In- und Exspiration wird dort gefordert. Die Kurven sollten in ausreichender Größe dargestellt werden. Bei der Wiedergabe der Fluss-Volumen-Kurve ist das xy-Verhältnis, der sog. Aspect Ratio, wichtig, um einen Kurvenvergleich, z. B. vor und nach Gabe von Broncholytika, und eine Formanalyse vornehmen zu können.
Praktische Hinweise zur Durchführung Grundsätzlich gilt für jede Lungenfunktionsprüfung, dass die Qualität der Messung von der Kooperation des Probanden und den (anspornenden) Anleitungen des Personals abhängt. Nachdem das Lungenfunktionsgerät vorbereitet wurde (Überprüfung des Gerätes nach Einschaltung, neues Einmalmundstück oder Atemfilter aufsetzen, Kalibration nach Herstellerangaben durchführen, evtl. neue Schlauchsysteme verwenden etc.), wird dem Probanden der Messvorgang erläutert. Vor und während jeder Messung erfolgt die überaus wichtige Erläuterung des Atemmanövers, vor allem der Forcierung und die Bedeutung der vollständigen Aus- bzw. Einatmung. Der Proband sollte frei und ungehindert atmen können. Weiterhin muss der Proband eine Nasenklemme tragen. Eine Probemessung vor der eigentlichen Messung ist zu empfehlen. Alle Tests sind in einheitlicher Position durchzuführen, in der Regel sitzend. Bei Reihenuntersuchungen oder arbeitsmedizinischen Untersuchungen kann auch eine stehende Position gewählt werden. Bei Kindern und älteren Patienten, die das Mundstück mit den Lippen nicht fest umschließen können, ist die Verwendung eines Mundstücks mit Dichtlippe sinnvoll. Für Kinder sind kleinere Mundstücke erforderlich. Die Verwendung eines Einmalatemfilters sollte zum einen aufgrund der hygienischen Erfordernis und zum anderen als Schutzvorrichtung des wieder verwendbaren Sensors gegenüber Sputum obligat sein. Bei neueren Geräten finden Einmalsensoren Anwendung, die eine Kreuzkontamination verhindern und deshalb keine Atemfilter benötigen. Sowohl die ERS (Europäische Gesellschaft für Respiration) als auch die ATS (American Thoracic Society) fordern in ihren Standards, dass regelmäßig, mindestens einmal täglich, eine Volumenkalibration mit einer Kalibrationspumpe durchgeführt werden sollte. Auch bei einem kalibrationsfreien System sollte einmal monatlich eine Volumenverifikation stattfinden. Empfehlung für die Messung zur Bestimmung der Vitalkapazität (und Teilvolumina) in Ruhe. Der Proband
atmet in Atemruhelage. Nach einigen Atemzyklen erfolgt nach Anweisung des Untersuchers eine maximale, langsame, kontinuierliche Einatmung, danach eine lang-
113 10.1 · Spirometriesysteme
⊡ Abb. 10.6a–e. Typische Fluss-Volumen-Kurven bei a Normalbefund, b Obstruktion, c Restriktion, d Emphysem und e Stenosen
same, vollständige Ausatmung und wieder eine vollständige Einatmung. Der Atemzyklus sollte wiederholt werden. Die wiederholt gemessenen Werte sollten sich nicht mehr als 5% unterscheiden. Empfehlungen für die forcierte Messung (forciertes Spirogramm und/oder Fluss-Volumen-Messung). Zunächst
atmet der Proband in Ruhelage. Nach Anweisung erfolgt eine maximale Einatmung, dann eine forcierte, maximale Ausatmung. Der Vorgang wird mindestens zweimal wiederholt. Die Atemmanöver sollten klar angewiesen werden. Insbesondere die Forcierung und die lange Ausatmung benötigt eine anspornende Unterstützung. Zur Auswertung werden die aus den einzelnen forcierten Atemzyklen gewonnenen Kurven herangezogen. Neuzeitliche Auswerteprogramme vergleichen die Kurven
und geben einen Warnhinweis, wenn die Qualitätsstandards [ERS, ATS] nicht eingehalten wurden. Entweder werden die jeweils größten Werte aus verschiedenen Kurven genommen oder die Kurve mit der größten Summe aus FVC und FEV1 für die Auswertung herangezogen. Mögliche Fehlerquellen: Durch schlechte Kooperation des Probanden wird der PEF zu spät erreicht oder ist zu klein. Kleine MEF-Werte können von fehlenden Nasenklemmen oder nicht richtig umschlossenen Mundstücken ausgehen. Deformierte Kurven und Zacken können durch Husten entstehen. Kein FEV1-Wert erscheint, wenn nicht lange genug ausgeatmet oder die Atmung unterbrochen wird. Sehr unterschiedliche Kurven lassen auf mangelnde Motivation des Probanden schließen. Bei guter Mitarbeit ergeben sich praktisch deckungsgleiche Fluss-Volumen-Kurven.
10
114
I
Kapitel 10 · Lungenfunktionsdiagnostik
Anhand der Auswertung kann eine erste Einteilung des Befundes in normal, obstruktiv oder restriktiv erfolgen (⊡ Abb. 10.6a–e). Für die häufig vorkommenden obstruktiven Störungen kann zudem der Schweregrad beurteilt werden.
Referenzwerte Die Auswertung spirometrischer Funktionsuntersuchungen erfolgt durch den Vergleich der Messwerte mit Referenzwerten, die auch als Norm- oder Sollwerte bezeichnet werden. Als wesentliche Bezugsgrößen werden für die Ermittlung dieser Referenzwerte das Alter, die Größe und das Geschlecht des Probanden herangezogen. Die Sollwerte ergeben sich aus Gleichungen, die von den Fachgesellschaften empfohlen und veröffentlicht werden. Im Sollwertvergleich sollte in jedem Fall die Standardabweichung für den Parameter, also das Maß für die Streuung des Wertes in der (lungengesunden) Vergleichspopulation, berücksichtigt werden. Die Bildung des Residuums R=
M – S, SD
wobei R das Residuum, M der Messwert, S der Sollwert und SD die Standardabweichung sind, ist zu empfehlen, um den Messwert im Vergleich mit der Verteilung in der Grundpopulation einordnen zu können. Nur so lassen sich signifikante Abweichungen erkennen und bewerten. Die großen Fachgesellschaften ERS und ATS (American Thoracic Society 1995, European Respiratory Society 1993) haben Sollwerte herausgegeben, die vorwiegend an Personen kaukasischer Abstammung erhoben wurden. Diese europäischen und amerikanischen Sollwerte unterscheiden sich nicht wesentlich. Bei der Beurteilung der Lungenfunktion von Personen anderer ethnischer Abstammung müssen entweder speziell für diesen Typ erhobene Sollwerte, z. B. nationaler Fachgesellschaften, verwendet werden oder zumindest eine prozentuale Anpassung der kaukasischen Sollwerte Berücksichtigung finden. In rechnergestützten Lungenfunktionsgeräten sind Sollwertformeln, in international vertriebenen Geräten unterschiedliche Sollwertsätze, programmiert, die zum Ist-Sollwertvergleich dienen. Im Benutzerhandbuch des Gerätes sollten sich Hinweise auf den Ursprung der Sollwerte mit Literaturangabe finden lassen. Im Ergebnisprotokoll sollte neben den Mess- und Sollwerten oder deren prozentualen Abweichung unbedingt ein Marker für die signifikante Abweichung vom Sollwert, also die Überschreitung bestimmter Grenzen, z. B. halbe oder ganze Standardabweichung, angegeben sein. Für Kinder und Jugendliche im Alter bis 18 Jahre ist die Verwendung pädiatrischer Sollwerte zu empfehlen.
10.1.5 Mitarbeitsfreie Lungenfunktionstests
Die Spirometrie ist seit mehr als 50 Jahren in der klinischen Routine eingeführt. Ihr hoher Stellenwert wurde in zahllosen Publikationen dokumentiert. So lässt sich durch den Atemstoßtest die Mortalität besser voraussagen als durch Rauchverhalten, zuvor bestehende kardio-vaskuläre Erkrankung, Blutdruck oder Geschlecht (Petty et al. 1976). So wertvoll die Ergebnisse des Atemstoßtestes sind, so schwierig gestaltet sich die Sicherung und Kontrolle der Mitarbeit des Probanden. Auch in gut ausgestatteten Lungenfunktionslabors mit gut geschultem Personal ist der Anleitung und Motivation von Kindern und älteren Menschen und von fremdsprachigen Mitbürgern Grenzen gesetzt. Früher wurden mitarbeitsfreie Tests vor allem für den pädiatrischen Bereich, für epidemiologische und arbeitsmedizinische Reihenuntersuchungen gefordert. Durch die umwälzende demographische Veränderung mit dramatischer Zunahme des älteren Bevölkerungsteils stellt sich diese Erfordernis heute mit größerer Dringlichkeit denn je. Obwohl FEV1 bzw. FEV1/FEVC als ‚Goldstandard’ zur Erkennung obstruktiver Störungen anerkannt ist, scheint es gerade bei älteren Probanden besser geeignete, spezifischere Parameter zu geben, die mit Dyspnoe, also Kurzatmigkeit, korrelieren. In den letzten Jahren wurden deshalb neue, (weitgehend) mitarbeitsfreie Methoden und Techniken entwickelt, die zum Teil noch auf ihre Kommerzialisierung warten. Im Folgenden soll eine Übersicht über bewährte und neue Entwicklungen auf diesem Gebiet gegeben werden.
Ultraschallpneumographie (UPG) Im Abschn. 10.1.3 »Gerätetechnik« wurde bereits der Ultraschall-Sensor beschrieben. Aus der Summe der damit gemessenen Transit-Zeiten lässt sich die Molmasse, das spezifische Gewicht des Atemgases, ohne Mehraufwand in Echtzeit ermitteln. Während bei der Inspiration Umgebungsluft über den Sensor eingeatmet wird, verändert sich die Molmasse bei Ausatmung durch die Abnahme des Sauerstoffanteils und die Zunahme der Kohlensäurekonzentration (CO2 ist deutlich schwerer als O2). Wird die Molmassekurve während der Ausatmung registriert, so verhält sie sich ähnlich einer CO2-Kurve. Die Ultraschallpneumographie, kurz UPG genannt, wendet die wissenschaftlichen Erkenntnisse vieler Jahrzehnte an, in denen die CO2-Ausatmungskurve studiert und klinisch erprobt wurde. Die damals sehr aufwändige Bestimmung der Atemvolumina mit gleichzeitiger, schneller Gasanalyse, z. B. mittels Massenspektrometrie, wird jetzt durch die instantane und absolut synchrone Messung von Strömung, Volumen und Molmasse in der UPG auf elegante und preisgünstige Weise ersetzt. Die Bestimmung der Molmasse wird zwar durch den
115 10.1 · Spirometriesysteme
erheblichen Einfluss von Temperatur und Feuchte des Atemgases erschwert, doch zeigen die neuesten Studien, dass auch die »native« Molmasse, also auch die unkorrigierten Transit-Zeiten-Werte, verwendet werden können. Der Proband atmet am UPG-Sensor für einige Minuten normal und ruhig, also ohne Durchführung bestimmter Atemmanöver (⊡ Abb. 10.7). In der Auswertung kommen statistische Verfahren zur Anwendung, die die typische »Molmassen-Kurve« für diesen Probanden bildet und auswertet. Die Kurvenform beinhaltet Informationen über die Distribution des Atemgases in der Lunge. Erste klinische Studien (Gappa et al. 2005, Jensen et al. 2005) zeigen eine hohe Korrelation mit FEV1 und FEV1/FVC sowie zuverlässige Aussagen über das Ausmaß der Obstruktion.
Negative Expiratory Pressure Methode (NEP) Bei dieser Methode wird dem Pneumotachographen ein T-Stück vorgeschaltet. An einen T-Anschluss wird hinter einem schnellen Ventil eine Sogquelle (Staubsauger) angeschlossen. Der Proband atmet in Ruheatmung am Pneumotachographen. Während einer Exspiration wird das Ventil geöffnet und es entsteht eine spontane maximale exspiratorische Fluss-Volumen-Kurve. Mehrere solcher Kurven werden randomisiert aufgenommen und mit
der mittleren Ruhekurve verglichen. Der Abstand beider Kurventypen ist ein Maß für die Flow-Reserve, die unter Belastung benötigt wird. Eine Flussbegrenzung lässt sich leicht erkennen, wenn nämlich maximale und Ruhekurve aufeinander treffen. Das System liefert zuverlässige und gerade bei älteren Personen klinisch relevante Werte. Es ist bisher nicht kommerziell verfügbar.
Widerstandsmessungen Forced Oscillation Technique
Dieses seit den 1970er Jahren bekannte Prinzip (Oostveen et al. 2003) verwendet einen an den Flusssensor angedockten Lautsprecher, ein Widerstandselement und einen Druckwandler. Der Ruheatmung des Patienten werden durch den Lautsprecher feine Druckschwankungen überlagert, die vom respiratorischen Takt mit einer Phasenverschiebung wiedergegeben werden. In einem Frequenz-Phasen-Diagramm erfolgt eine Auswertung, die im Wesentlichen den Real- und Imaginärteil des Atemwiderstandes ausgibt. Das Verfahren wird heute in Form der Impulsoszillometrie vermarktet und v. a. in der Pädiatrie und bei Pharmastudien verwendet. Aufgrund seiner Komplexität, der relativ hohen Kosten und der hygienischen Kompromisse ist einer Anwendung in der Routine Grenzen gesetzt. Monofrequente oszillatorische Widerstandsmessung
Dieses seit Jahrzehnten bewährte Verfahren (Schmidt 1996, Ulmer et al. 2003) ist die einfache Variante des o. g. Prinzips. Statt eines Lautsprechers wird eine kleine Sinuspumpe verwendet. Die Auswertung liefert wiederum Widerstand (Resistance) und Phase (Reaktanz). In der klinischen Routine zeigt sich jedoch, dass der oszillatorische Widerstand nur bedingt mit dem FEV1 korreliert, eine geringere Spezifität aufweist und somit nur als Orientierung oder zum Screening eingesetzt werden kann. Unterbrecher-Methode
⊡ Abb. 10.7. Ultraschallpneumographie bei einem Kind (Werksfoto: ndd Medizintechnik AG, Zürich)
Dieses ebenfalls als Interruptor- oder Shutter-Methode bekannte Verfahren (Schmidt 1996, Ulmer et al. 2003) wurde parallel zur oszillatorischen Widerstandsmessung eingeführt. Es verwendet einen Unterbrecher (Shutter), der den exspiratorischen Atemstrom für kurze Zeit (100 Millisekunden) unterbricht und den Atemweg dabei nach außen verschließt. Während des Verschlusses steigt der Munddruck an und gleicht sich (weitgehend) mit dem Alveolardruck aus. Das Verfahren wird mittlerweile in Kombination mit einfachen Spirometern angeboten und stellt eine kostengünstige Erweiterung der Spirometrie dar. Leider gilt für seine Aussagekraft das gleiche wie für die oszillatorische Widerstandsmessung, deshalb kann das Verfahren nur als Ergänzung und nicht als Ersatz für die Spirometrie dienen.
10
116
Kapitel 10 · Lungenfunktionsdiagnostik
10.2
I
Weiterführende kardio-pulmologische Funktionsdiagnostik
10.2.1 Übersicht
Im Gegensatz zur einfachen Spirometrie erfordert eine weiterführende pulmologische Funktionsdiagnostik einen erheblich größeren methodischen, apparativen und personellen Aufwand. Sie wird deshalb in aller Regel nur in den internistisch-pneumologischen Fachabteilungen der Krankenhäuser und den Facharztpraxen durchgeführt. Die langsame und forcierte Spirometrie bleibt jedoch die Grundlage einer jeden Lungenfunktionsuntersuchung. Sie findet sich in allen aufwändigeren Geräten wieder und bleibt damit zentraler Ausgangspunkt für alle weitergehenden Verfahren. Unter den anspruchsvolleren Verfahren nimmt die Bodyplethysmographie mit der Messung der Lungenteilvolumina und des Atemwegswiderstands den ersten Platz ein. Die Messung der Diffusion nach der »Single-BreathMethode« und die Bestimmung der FRC mittels N2-Auswaschverfahren, in den englischsprachigen Ländern für die Routine häufig bevorzugt, werden auch hierzulande vermehrt eingesetzt. Die Gasdilutionsmethode im »geschlossenen System«, in früheren Jahren die wohl am häufigsten verwendete Methode zur Bestimmung der FRC, wird nicht mehr vermarktet. Sie verschwindet wegen ihrer inakzeptablen Hygiene mehr und mehr aus den Labors und wird deshalb hier nicht mehr dargestellt. Daneben werden eine Vielzahl von mehr oder weniger aufwändigen Untersuchungstechniken angewandt, die sich aber allesamt nicht in der breiten klinischen Routine durchsetzen konnten. Eine Übersicht über die wichtigsten Verfahren gibt ⊡ Tab. 10.3. Schließlich ist die Ergospirometrie, also die Belastungsuntersuchung mit Bestimmung des Gasaustauschs, zu ei-
nem wichtigen Instrument bei der Beurteilung ventilatorischer und kardialer Leistungseinschränkungen geworden. Gerade gutachterliche Fragestellungen kommen nicht ohne diese objektive Methode zur globalen Beurteilung und Einstufung krankheitsbedingter Leistungsverminderung aus. Das Interesse an der fortlaufenden Messung von physischer Aktivität und metabolischem Monitoring hat in der letzten Zeit geradezu explosionsartig zugenommen. Denn es gibt kaum einen Bereich der Medizin, von der Rehabilitation obstruktiv Kranker bis hin zur Demenzprophylaxe, in dem die Bedeutung physischer Aktivität zur Verbesserung des Krankheitsbildes, zur Genesung und insbesondere zur Prävention nicht erkannt und publiziert wurde. Trotz der vielen technischen Innovationen, die die Durchführung der Ergospirometrie erheblich erleichtert haben, bleibt sie ein insgesamt anspruchsvolles Messverfahren, sowohl in Bezug auf den zeitlichen Aufwand als auch auf die Komplexität der Auswertung. Für das Aktivitätsmonitoring kommen deshalb wesentlich kostengünstigere und einfach anzuwendende, tragbare Monitore zur Anwendung. Medizintechnik ist ein Teil der IT-Branche. Sie lebt in den gleichen rasanten Innovationszyklen und kann sich dem allgemeinen Preisverfall, der vom Massenmarkt der Mikroelektronik ausgeht, nicht entziehen. Musste man Mitte der 1970er Jahre für die Anschaffung eines computerisierten Bodyplethysmographen noch rund 100.000 € ausgeben, genügen heute weit weniger als 15.000 €, um ein qualitativ vergleichbares, jedoch wesentlich bedienungsfreundlicheres Gerät zu erstehen. Kaum ein Gerät am Markt kommt ohne Mikroelektronik, PC, Microsoft Windows, Vernetzung, Einbindung ins Internet aus, was nicht nur zu Kostenvorteilen für den Anwender, sondern zu wesentlich vereinfachter Bedienung und standardisierter Kommunikation im Labor-, Praxis- oder Krankenhausnetzwerk führte.
⊡ Tab. 10.3. Verfahren und Parameter weiterführender Lungenfunktionsdiagnostik Verfahren
Hauptparameter
Abgeleitete Parameter
Bodyplethysmographie
Intrathorakales Gasvolumen ITGV
FRC, RV, TLC
Bodyplethysmographie
Atemwegswiderstand RAW
GAW, sRAW, sGAW
Compliancebestimmung
statische Compliance Cstat
Pmi
Compliancebestimmung
dynamische Compliance Cdyn
Atemarbeit
Atemantriebsmessung
P0,1, pmax
Diffusion Single-Breath
Transferfaktor TLCO
KCO, VA, TLCSB
Diffusion Single-Breath mit O2
Membranfaktor DM
Kapillares Blutvolumen VC
Diffusion Steady-state
CO-Diffusion DLCO
IntraBreath-Verfahren
CO-Diffusion DLCO
Herzzeitvolumen Qc
N2-Washout
FRC
RV, TLC, Distribution
117 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
10.2.2 Bodyplethysmographie
Physikalische und methodische Grundlagen Ein Bodyplethysmograph, auch Ganzkörperplethysmograph genannt, besteht aus einer abgeschlossenen Kammer, ähnlich einer Telefonzelle, in die sich der Patient begibt (⊡ Abb. 10.8). Die durch die Atmung des Patienten hervorgerufenen thorakalen Bewegungen wirken sich im Kammerinneren als Volumen- und Druckänderungen aus, die erfasst und ausgewertet werden. Die Grundlagen der heutigen Bodyplethysmographie, deren Erarbeitung wir DuBois in den USA und Ulmer (Ulmer et al. 2003) in Deutschland zu verdanken haben, reichen zurück in die 1950er und frühen 1960er Jahre. Historisch unterscheiden wir die sog. volumenkonstante und die druckkonstante Methode. Bei der letztgenannten atmet der in der Kammer sitzende Proband über ein Rohr ins Freie, wodurch im Kammerinneren die totale thorakale Volumenverschiebung gemessen werden kann. Aus messtechnischen Gründen hat sich jedoch das volumenkonstante Prinzip durchgesetzt, das praktisch in allen modernen Geräten angewandt wird. Dabei atmet der Proband innerhalb der Kammer über einen Flusssensor und einen Verschlussmechanismus (Shutter), mit dem die Atmung kurzzeitig unterbrochen werden kann. Unmittelbares Ziel der Bodyplethysmographie ist die Bestimmung des Alveolardrucks, der durch Kompression bzw. Dekompression des im Thorax eingeschlossenen Gasvolumens entsteht. Es sei darauf hingewiesen, dass es nur darum geht, diesen (kleinen) kompressiblen Volumenanteil, der
nach dem Boyle-Mariotte-Gesetz (pV=const.) proportional zum Alveolardruck ist und Fluss fördernd wirkt, zu bestimmen. Gleichzeitig wird die durch den Alveolardruck erzeugte Strömung und das geatmete Lungenvolumen am Mund pneumotachographisch erfasst. Die Thoraxbewegung führt also zu einer Volumen- und dazu proportionalen alveolären Druckänderung innerhalb der Lunge, die sich in der Kammer als identische Volumenänderung auswirkt. Die Volumenänderung in der Kammer hat wiederum nach dem Boyle-Mariotte-Gesetz ihrerseits eine Kammerdruckänderung zur Folge (⊡ Abb. 10.9). In einem landläufig als »Kammereichung« bezeichneten Verfahren wird der Proportionalitätsfaktor zwischen Kammervolumenänderung und Kammerdruckänderung bestimmt. Hierzu wird bei besseren Geräten eine in die Kammer eingebaute motorisierte Kolbenpumpe benutzt, deren fester Hub von z. B. 50 ml als Kammerdruckauslenkung registriert wird. Die Kalibration der Kammer ist normalerweise stabil und muss nur selten kontrolliert werden.
Bestimmung des intrathorakalen Gasvolumens Bei Atembewegungen des Patienten gegen den Verschluss am Mund kommt es – Druckausgleich zwischen Mund und Alveolarraum vorausgesetzt – zu einer thorakalen Volumenverschiebung, die eine proportionale Alveolardruckänderung auslöst. Bei einer Registrierung des Munddrucks gegen den Kammerdruck während Verschluss kann der Proportionalitätsfaktor zwischen Alveolardruck und Kammerdruck bestimmt werden. Gleichzeitig lässt
⊡ Abb. 10.8. Bodyplethysmograph (Werksfoto: Viasys GmbH, Höchberg)
10
118
Kapitel 10 · Lungenfunktionsdiagnostik
I
⊡ Abb. 10.9. Das volumenkonstante bodyplethysmographische Kammerprinzip
sich aus dem Verhältnis von Alveolardruck- und Lungenvolumenänderung das gesamte bei Verschluss in der Lunge befindliche Lungenvolumen, das als intrathorakales Gasvolumen ITGV oder auch IGV bezeichnet wird, sehr einfach berechnen: PK ITGV = kα . [l]. PM Dabei sind pK der Kammerdruck [hPa], pM der Munddruck und kα eine Konstante, die abhängig ist von der Kammereichung, dem Kammervolumen, dem Körpervolumen des Patienten und dem Barometerdruck. Erfolgt der Verschluss am Ende einer normalen Ausatmung, so entspricht das ITGV der funktionellen Residualkapazität FRC.
Bestimmung des Atemwegswiderstands (Resistance) Wird während der Ruheatmung der Kammerdruck gegen die Strömung am Mund aufgezeichnet, so ergibt sich die sog. Resistanceschleife (⊡ Abb. 10.10, auch 4-Farbteil am Buchende). Nach dem Ohm’schen Gesetz gilt: . U = R . I bzw. Palv = RAW . V [hPa], woraus der Atemwegswiderstand RAW , auch als Resistance bezeichnet, abgeleitet werden kann:
[ ]
P PK hPA RAW = alv . = kß . . V V l/s
. Dabei sind V die Strömung [l/s] am Mund, palv der Alveolardruck [hPa bzw. cm H2O], pK der Kammerdruck [hPa] und kß ein Faktor, der im Wesentlichen das während des Verschlussmanövers festgestellte Verhältnis zwischen Mund- und Kammerdruck enthält.
Technische Besonderheiten der Bodyplethysmographie Die in der Kammer gemessenen Druckänderungen sind bei Ruheatmung vergleichsweise klein und betragen nur wenige hPa (bzw. cm H2O). Die Störeinflüsse durch patientenbedingte Wärmeänderung in der Kammer (Schwitzen), durch atmungsabhängige Temperatur- und Feuchteänderungen und durch Druckschwankungen aus der Umgebung, um nur die wichtigsten zu nennen, sind erheblich und summieren sich zu einem Fehler, der durchaus größer als das Messsignal sein kann. Zur Vermeidung von mangelndem Druckausgleich zwischen Mund und Alveolarraum sollte Hechelatmung beim Verschlussmanöver gänzlich vermieden werden (Rodenstein u. Stanjescu 1983). Die Konstruktionsmerkmale der Bodyplethysmographenkammer sind somit ausschlaggebend für die Messqualität. Zu diesen gehören: ▬ Steifigkeit der Kammerkonstruktion, ▬ Wärmetransferverhalten der Kammerwände, ▬ Ausgleichsgefäß, ▬ BTPS-Kompensation, ▬ Kalibrationseinrichtung, ▬ Einstellung eines definierten Lecks, ▬ Art und Schnelligkeit des Shutters. Hierzu nur einige Bemerkungen, die im Rahmen dieser Darstellung nicht erschöpfend sein können. Die Kammer sollte in ihrer Formgebung und der Auswahl der Materialien so beschaffen sein, dass eine möglichst große Steifigkeit und ein schneller Wärmetransfer der vom Patienten in der Kammer produzierten Wärme gewährleistet wird. Ein eingebautes Ausgleichsgefäß zur Gleichtaktunterdrückung von Druckschwankungen aus der Umgebung sollte vorhanden sein (vgl. ⊡ Abb. 10.9). Eine automatische Ka-
119 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
⊡ Abb. 10.10. Bildschirmdarstellung einer Bodyplethysmographie mit Resistance- und Verschlussdruckschleifen (Werksfoto: Ganshorn Medizin Electronic GmbH, Niederlauer)
librationseinrichtung mit »Kammereichpumpe«, dynamischer Simulation der Lungenvolumenkompression und Einstellung des definierten Lecks (pneumatischer Tiefpass zur Driftkompensation) sind zur Qualitätssicherung der Messergebnisse unverzichtbar. Die druck- und strömungsabhängige BTPS-Kompensation wird heute digital durchgeführt. Der Widerstand eines Atemfilters muss bei der Berechnung des Atemwegswiderstandes berücksichtigt werden. Werden die vorgenannten Konstruktionsmerkmale berücksichtigt, so kann die Bodyplethysmographie ohne großen Aufwand und mit sehr guten Ergebnissen in der klinischen Routine betrieben werden. Der Wartungsaufwand für eine Bodyplethysmographenkammer ist vergleichsweise gering. Von Mundstücken und Atemfiltern abgesehen, fällt so gut wie kein Verbrauchsmaterial an. Durch die einfache Zerlegbarkeit moderner Verschlusssysteme kann die Hygiene bedingt gewährleistet werden. Die Verwendung eines Atemfilters ist zu empfehlen. Der zeitliche Aufwand für eine komplette bodyplethysmographische Messung eines Patienten mit Mehrfachbestimmung der Resistance und des ITGV beträgt ca.
15 min; in Kombination mit der Spirometrie zur Bestimmung der Teilvolumina ca. 30 min.
Klinische Wertigkeit der Bodyplethysmographie Die Bodyplethysmographie liefert, wie oben beschrieben, in einem Messvorgang den Atemwegswiderstand und das intrathorakale Gasvolumen bzw. die FRC. Die Messung ist weitgehend unabhängig von der Mitarbeit des Patienten und kann in kurzer Zeit mehrfach wiederholt werden. Damit ist sie wohl die effizienteste Form, diese beiden für die Lungenfunktion elementaren Parameter zu bestimmen. In Verbindung mit der (bei offener Kammertür durchführbaren) langsamen und forcierten Spirometrie bzw. Fluss-Volumen-Kurve und in Kombination mit der Messung weiterer Parameter, wie Atemantrieb und Compliance, sowie mit einer Zusatzeinrichtung für Diffusion lassen sich somit praktisch alle relevanten Größen der Lungenfunktion bestimmen. Atemwegswiderstand (Resistance)
Der Atemwegswiderstand wird nach Ulmer (Ulmer et al. 2003) oder Matthys (Matthys 1988) als Rtot bzw. Reff be-
10
120
I
Kapitel 10 · Lungenfunktionsdiagnostik
rechnet und stellt ein empfindliches Maß für die bronchiale Obstruktion dar. Dabei enthält der Wert nicht nur den strömungsabhängigen Widerstand, sondern auch Widerstandsanteile, die durch Atemwegskollaps bei instabilen Atemwegen und verminderter Lungenelastizität (Retraktionsverlust) verursacht werden. Durch Forminterpretation der Widerstandsschleife, die in jedem Fall auf dem Befundblatt ausgedruckt werden sollte, lässt sich somit eine homogene Obstruktion (z. B. verursacht durch Asthma) von einer inhomogenen Obstruktion (z. B. Bronchitis) und von instabilen Atemwegen (z. B. Emphysem) unterscheiden. Intrathorakales Gasvolumen/FRC
Das intrathorakale Gasvolumen beinhaltet alle während Verschluss durch die Thoraxbewegung komprimierten Gasanteile, wodurch sowohl in der Lunge gefesselte Luft als auch im Abdominalraum vorhandene Gase gleichzeitig erfasst werden. Die Methode liefert in diesen Fällen falsch-positive Messwerte, was bei hochobstruktiven Patienten durch mangelnden Druckausgleich zwischen Mund und Alveolarraum noch verstärkt werden kann. Im Gegensatz dazu unterschätzen die Dilutions- und Fremdgasmethoden das krankheitsbedingt erhöhte Lungenvolumen im Fall einer hochgradigen Obstruktion. Nichtsdestoweniger gilt heute die Bodyplethysmographie wegen ihrer Genauigkeit und sehr guten Reproduzierbarkeit als »Goldstandard« in der Volumenmessung. Durch Kombination des spirometrisch gemessenen ERV und der VC mit dem ITGV/FRC können alle Lungenteilvolumina einschließlich RV und TLC in einem Fortgang schnell und wiederholt bestimmt werden.
10.2.3 Diffusionskapazität
Der Gasaustausch zwischen alveolärer Luft und Kapillarblut, also der Übertritt des Gases über die alveolo-kapillare Membran, wird als Diffusion bezeichnet. Die Diffusionskapazität eines Gases wird bestimmt von der Gasmenge pro Zeiteinheit, die über die Membran ausgetauscht wird, und der Partialdruckdifferenz zwischen Gas- und Blutphase. Von eigentlichem Interesse ist die Diffusionskapazität für Sauerstoff, die aber wegen des nicht erfassbaren kapillaren Partialdrucks nicht bestimmt werden kann. Aus diesem Grund wird für klinische Zwecke die Diffusionskapazität für Kohlenmonoxid (CO) bestimmt. Nachdem CO eine sehr hohe Hämoglobinbindung aufweist, werden sehr geringe CO-Konzentrationen im ppm-Bereich verwendet, um den Patienten nur unwesentlich mit CO zu belasten.
Bei diesem Verfahren wird nicht die eigentliche Diffusionskapazität, sondern der sog. Transferfaktor für CO, kurz TLCO, bestimmt. Der Patient atmet nach tiefer Ausatmung ein Gasgemisch ein, das mit 0,2–0,3% CO und einem Inertgas (typischerweise Helium oder Methan) angereicherte Luft enthält. Die Einatmung erfolgt maximal, also bis zur TLC. Danach hält der Patient für ca. 10 s die Luft an. Währenddessen verteilt sich das Gasgemisch im Alveolarraum und CO diffundiert über die alveolo-kapillare Membran ins Blut. Nach der Anhaltezeit atmet der Patient aus, und der mittlere Teil des Exspirationsgases wird gesammelt (⊡ Abb. 10.11). Bei moderneren Geräten mit schneller Gasanalyse wird während der Exspiration fortlaufend analysiert. Während der erste und letzte Teil der Ausatmung keine Berücksichtigung findet, wird vom mittelexspiratorischen Teil eine Gasprobe bestimmt, die den alveolären Wert repräsentieren soll. Das Inertgas nimmt nicht am Gasaustausch teil und dient zur Charakterisierung des Dilutionsvorgangs, also der Verteilung des Gases, in der Lunge. Unter der Annahme, dass sich das CO in ähnlicher Weise wie das Inertgas in der Lunge verdünnt, kann nun der diffusible Anteil des CO-Gases berechnet werden. Das Modell zur Bestimmung des Transferfaktors geht dabei aus von einem exponentiellen Abfall der alveolären CO-Konzentration während der Phase des Atemanhaltens. Wird der CO-Partialdruck des Kapillarblutes als null angenommen, lässt sich der Transferfaktor folgendermaßen berechnen: ⎛ FACO0 ⎞ V ⎟⎟ mmol ⋅ min −1 ⋅ kPa −1 , TLCO = b ⋅ A ⋅ ln ⎜⎜ tV F ⎝ ACO ⎠ F wobei FACO0 = FICO ⋅ AX . FIX
[
]
FI ist die inspiratorische Gaskonzentration, FA die alveoläre Konzentration der exspiratorischen Gasprobe, X der Index für das Inertgas, FACO0 die alveoläre Anfangskonzentration von CO, VA das Alveolarvolumen und tv die Atemanhaltezeit; b ist eine Konstante zur Umrechnung auf die verwendeten Einheiten. Neben der TLCO lässt sich aus demselben Messvorgang auch das aus der Verdünnung des Inertgases resultierende Alveolarvolumen VA berechnen:
V A = (VIN − VD )(FIX / FAX )
[l ] ;
dabei ist VIN das vor dem Atemanhalten inspirierte Volumen und VD das Totraumvolumen bestehend aus anatomischem und apparativem Totraum. Alle Volumina werden in BTPS angegeben. In Kombination mit der Spirometrie lassen sich die Größen RV und TLC ableiten.
Single-Breath-Methode
Technische und methodische Besonderheiten der Single-Breath-Methode
Seit vielen Jahren ist die von Cotes entwickelte Einatemzug- oder Single-Breath-Methode am weitesten verbreitet.
Der technische Aufwand für diese Methode ist erheblich. Neben einem System zur Volumenbestimmung und den
121 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
⊡ Abb. 10.11. Bildschirmdarstellung einer Single-Breath-Messung (Quelle: Viasys GmbH, Höchberg)
Analysatoren für CO und das Inertgas wird ein Ventilsystem benötigt, das die Patientenatmung von Luft auf Gasgemisch umstellen kann. Analyseventile sorgen für die Zuführung der entnommenen Gasproben an die Analysatoren. Qualitätskontrollen haben gezeigt, dass die Qualität der Messergebnisse neben gerätespezifischen Unzulänglichkeiten hauptsächlich von der korrekten Bedienung und Kalibration der Apparatur abhängt. Um häufige Fehlerquellen zu vermeiden, sollte besonderer Wert gelegt werden auf ▬ korrekte, schnelle Funktion der Atemventile, ▬ regelmäßige Kalibration der Gasanalysatoren mit zertifiziertem Kalibrationsgas, ▬ optimale Anleitung des Patienten, ▬ Berechnung der Parameter nach den Standards der Europäischen Gesellschaft für Respiration (European Respiratory Society 1993).
vom Normalbereich ab, sollte eine Korrektur bei der Berechnung der TLCO berücksichtigt werden. Die Messung des Patienten sollte stets in sitzender Position erfolgen. Die Reinigung der meisten Atemventilsysteme ist aufwändig, praktisch oft unmöglich. Die Einhaltung hygienischer Bedingungen ist deshalb besonders schwierig und kann meist nur durch Verwendung eines Atemfilters erreicht werden. Der Wartungsaufwand für Diffusionsgeräte ist nicht zu unterschätzen, gerade dann, wenn aufwändige und komplizierte Atem- und Analyseventile verwendet werden. Die Kosten für Mess- und Kalibrationsgas und die mit deren Beschaffung verbundene Logistik müssen ebenfalls berücksichtigt werden. Der zeitliche Aufwand für eine Single-Breath-Messung liegt einschließlich Kalibration bei wenigen Minuten.
Starke Raucher oder CO-exponiert arbeitende Personen weisen einen erhöhten arteriellen bzw. venösen CO-Partialdruck, einen Backpressure, auf, der möglichst gemessen und vom alveolären Partialdruck abgezogen werden sollte. Weicht der Hämoglobingehalt des untersuchten Patienten
Klinische Wertigkeit der Single-Breath-Methode
Die Bestimmung der TLCO mittels Single-Breath-Methode ist in der Routine einfach und schnell durchführbar. Die Messergebnisse zeigen bei Vermeidung der oben erwähnten technischen und methodischen Fehlerquellen und bei
10
122
I
Kapitel 10 · Lungenfunktionsdiagnostik
guter Patientenführung eine ausreichende Genauigkeit und gute Reproduzierbarkeit. Der Parameter TLCO reagiert nicht nur auf Veränderungen der Diffusionskapazität im Sinne des Gasaustauschs über die alveolo-kapillare Membran empfindlich, sondern auch auf strukturelle Veränderungen des Lungengewebes, egal ob sie mit Verkleinerung oder Vergrößerung des Alveolarraums einhergehen. Reduzierte TLCOWerte lassen sich deshalb nicht nur bei interstitiellen Lungenerkrankungen wie Lungenfibrose, Sarkoidose, Alveolitis oder bei Lungenödem feststellen, sondern auch bei generalisiertem Emphysem, das meist durch den Verlust von Lungenoberfläche bei vergrößertem Alveolarraum charakterisiert wird. Eine normale oder leicht reduzierte TLCO lässt sich bei Obstruktion der Atemwege finden, erhöhte Werte bei Obstruktionen mit Lungenblähung, wie sie beim Asthma vermehrt auftritt. Bei intrapulmonalen Blutungen muss ebenfalls mit einer Erhöhung der TLCO gerechnet werden. Die TLCO eignet sich besonders gut für Verlaufs- und Therapiekontrollen. Sie kann auch bei der Beurteilung von pulmonal-vaskulären Erkrankungen als zusätzlicher Parameter herangezogen werden. Bei Reihenuntersuchungen wird sie aufgrund des technischen Aufwands nur bei besonderen Fragestellungen, wie der Untersuchung von staubexponierten Arbeitern, eingesetzt werden können. In einer Variante der Single-Breath-Methode lässt sich bei Atmung eines Gasgemischs, das eine CO/Inertgasbeimischung in reinem Sauerstoff enthält, die Diffusionskapazität der alveolo-kapillaren Membran, die sog. Membrankomponente, und das kapillare Blutvolumen bestimmen. Diese interessante Untersuchung wird jedoch nur in spezialisierten Labors vorgenommen.
Weitere Methoden zur Diffusionsbestimmung In den letzten Jahren wurde neben der Single-Breath- die IntraBreath-Methode eingeführt. Sie erfordert lediglich eine tiefe Einatmung und anschließende gleichmäßige Ausatmung, jedoch kein Luftanhalten; ein Vorteil gerade bei kurzatmigen Patienten und Kindern. Mittels schneller Gasanalysatoren nach dem Infrarotprinzip wird bei dieser Methode CO und das Inertgas Methan fortlaufend analysiert und in einem komplexen Algorithmus verrechnet. Bei Zugabe einer geringen Konzentration des im Blut löslichen Gases Azetylen in die Einatmung kann zusätzlich in derselben Messung das kapillare Herzzeitvolumen QC bestimmt werden. Die IntraBreath-Methode lässt sich auch gut unter Belastung durchführen. Im Gegensatz zu früheren Jahren wird heute die zur TLCO alternative Steady-State-Methode wegen der vergleichsweise hohen CO-Exposition für den Patienten kaum mehr angewandt. Neben den beschriebenen Techniken existieren noch eine Reihe weiterer Verfahren zur Bestimmung der Dif-
fusionskapazität. Dazu gehören u. a. die Rückatem- oder Rebreathing-Methoden. Alle diese Verfahren eignen sich jedoch nicht für die klinische Routine und werden international nicht anerkannt.
10.2.4 Stickstoff-Washout-Verfahren zur
FRC-Bestimmung Bei diesem seit vielen Jahren in der Routine bewährten Verfahren atmet der Patient an einem Ventilsystem, das es erlaubt, die Inspiration von Luft auf reinen Sauerstoff umzustellen. Das in der Lunge vorhandene N2, das nicht am Gasaustausch teilnimmt, wird somit Atemzug für Atemzug durch O2 ersetzt. Am Mund wird fortlaufend eine Gasprobe entnommen und einem schnellen N2-Gasanalysator zugeführt. Während der Auswaschphase wird das exspirierte N2-Volumen eines jeden Atemzuges bestimmt und solange aufsummiert, bis die exspiratorische N2-Konzentration auf ca. 1% abgefallen und damit der Washout-Vorgang abgeschlossen ist. Nachdem vor Umschalten auf Sauerstoff die N2-Konzentration (einschließlich Edelgase) in der Lunge 79,2% betrug, lässt sich jetzt die funktionelle Residualkapazität FRC einfach berechnen:
FRC = VN 2 / 0,79 [l ] , wobei VN2 das gesamte ausgeatmete N2-Volumen bedeutet.
Technische Besonderheiten des StickstoffWashout-Verfahrens Das Verfahren erforderte früher die Verwendung eines schnellen N2-Gasanalysators oder eines Massenspektrometers. Beide Geräte sind vergleichsweise anspruchsvoll in Beschaffung, Bedienung und Wartung. Heute können alternativ zu N2 auch die komplementären Gase O2 und CO2 schnell analysiert werden, woraus sich die N2-Konzentration fortlaufend berechnen lässt. Voraussetzung ist eine gute zeitliche Synchronisation der beiden Gasproben in einem Computerprogramm. Nachdem bei allen üblichen Verfahren die Gasprobe im Seitstrom entnommen wird, entsteht eine Verzögerung (»Delay«) zwischen der am Mund gemessenen Strömung und der Gaskonzentrationsänderung und dem Vollausschlag des Analysators (»Response«), die in einem Rechnerprogramm exakt eingestellt und bei der Berechnung ebenfalls berücksichtigt werden müssen. Die Ventilsysteme sind konstruktiv ähnlich denen der Diffusionsbestimmung und hygienisch ebenso problematisch. Der zeitliche Aufwand der FRC-Bestimmung mittels N2-Washout ist abhängig von der Lungendistribution und dauert bei Lungengesunden wenige Minuten, bei hochobstruktiven Patienten durchaus 20 min und mehr.
123 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
Während die klassischen N2-Washout-Verfahren eine aufwändige Seitstromgasanalyse benötigen, steht jetzt für die klinische Routine die wesentlich einfachere Ultraschallmolmassenspirometrie nach dem Spiroson-Prinzip zur Verfügung (vgl. 10.1.3 Abschn. »Ultraschall-(Transit-time-) Flowmeter« sowie ⊡ Abb. 10.5). Dabei lassen sich neben Strömung und Volumen die spezifische Molmasse des Atemgases mit einem einzigen Aufnehmer bestimmen. Nachdem sich die Molmassen von O2 und N2 deutlich unterscheiden, wird bei diesem Gerät kein separater Gasanalysator benötigt, da die N2-Konzentration direkt aus der Molmasse abgeleitet werden kann. Die Konzentrationsänderung kann im Hauptstrom erfasst werden und weist deshalb keine Zeitverzögerung zur Strömung auf.
10.2.5 Ergospirometrie
Die Ergospirometrie dient zur Bestimmung von Ventilation und Gasaustausch unter definierter körperlicher Belastung. Ein Ergospirometriemessplatz (⊡ Abb. 10.12) besteht aus je einem ▬ Belastungsgerät (Ergometer) zur Herstellung einer physikalisch exakt vorgegebenen Belastung, ▬ Aufnehmer zur Bestimmung der Ventilation, ▬ Gasanalysatoren für O2 und CO2, ▬ Rechner zur Online-Erfassung und Auswertung der Messdaten sowie ▬ mehrkanaligem, möglicherweise computerisierten EKG-Gerät. Als Belastungsgerät wird i. Allg. entweder ein Fahrradoder ein Laufbandergometer verwendet ( Kap. 9 »Ergo-
metriemessplatz«). Spezielle Ergometer, wie z. B. Handkurbel- oder Ruderergometer, eignen sich für besondere Fragestellungen in der Arbeits- und Sportmedizin (⊡ Abb. 10.13).
Ventilationsmessung Auch bei der Durchführung der Ergospirometrie hat sich die Messung der Ventilation im offenen System durchgesetzt. Heute werden Strömungssensoren verwendet, die nach unterschiedlichen Prinzipien arbeiten (Pneumotachographie, Turbine, Massenfluss/Thermistor, Ultraschallsensor, u. a.) und allesamt Vor- und Nachteile aufweisen. Die Kalibration der Strömungsmesseinrichtung vor jeder Messung ist unverzichtbar. Der relative Fehler der Strömungsmessung sollte 3% des Messwerts nicht übersteigen, die Linearität im Messbereich muss mindestens 2% des Messwerts betragen. Der Messbereich muss für klinische Zwecke bis mindestens 100 l/min, für sportmedizinische Zwecke bis mindestens 200 l/min ausgelegt sein. Ein Problem kann die in der Exspirationsluft vorhandene Feuchte bereiten, die aufgrund sinkender Temperatur an dafür empfindlichen Strömungsmessern ausfällt und zu Unsicherheit bei den Messwerten führt. Zur Untersuchung sollte vorzugsweise eine Maske verwendet werden, die eine natürliche Atmung über Mund und Nase erlaubt.
Gasanalyse Als »Goldstandard« der Gasanalyse gilt das Massenspektrometer, das gleichzeitig alle drei im Atemstrom vorkommenden Gase, O2, CO2 und N2, schnell, synchron und mit großer Genauigkeit analysieren kann, jedoch wegen
⊡ Abb. 10.12. Ergospirometrisches Messsystem (Werksfoto: Ganshorn GmbH, Niederlauer)
10
124
Kapitel 10 · Lungenfunktionsdiagnostik
Bei der Gasmischmethode atmet der Patient über eine Maske mit Richtungsventilen oder ein Y-Ventil, wodurch In- und Exspiration getrennt werden können. Das Exspirationsgas wird über einen Schlauch und einen Strömungsmesser in ein Mischgefäß geleitet. Das Strömungssignal wird dem Rechner zugeführt, der daraus das exspiratorische Atemzugvolumen und Atemminutenvolumen integriert. Aus dem Mischgefäß wird fortlaufend eine Gasprobe entnommen, die die mittlere exspiratorische Konzentration FE repräsentiert. Die Gasprobe wird getrocknet und einem O2- und einem CO2-Analysator zugeführt. Die daraus resultierenden Konzentrationen werden nun im Rechner zusammen mit dem Atemminutenvolumen weiterverarbeitet. Die Sauerstoffaufnahme VO2 kann nun berechnet werden nach: . V O2 = c . VE ( F1O2 . ks – FEO2) [l/min],
I
⊡ Abb. 10.13. Portables ergospirometrisches Messsystem (Werksfoto: Viasys GmbH, Höchberg)
seiner hohen Anschaffungskosten, seiner aufwändigen Handhabung und Wartung und seiner bislang voluminösen Bauweise für klinische Zwecke normalerweise nicht in Frage kommt. Deshalb werden in der Routine kompakte Gasanalysatoren angeboten, die zusammen mit der Elektronik und dem Rechner in einem häufig fahrbaren Gehäuse, bisweilen sogar tragbaren und Batterie betriebenen Gerät, untergebracht sind. Die Analyseverfahren unterscheiden sich untereinander durch »Delay« (Verzögerung von Mund bis Analysator) und »Response« (Anstiegsgeschwindigkeit des Analysators), die beide mittels aufwändiger Kalibrations- und Rechenverfahren kompensiert werden müssen. Zur Sauerstoffanalyse haben sich Geräte bewährt, die nach dem paramagnetischen Prinzip oder mit einer sog. Brennstoffzelle (geheizte Zirkoniumoxidröhre) arbeiten. Für CO2 wird meist das Infrarotprinzip verwendet. Der absolute Fehler der Gasanalysatoren darf im Messbereich 0,1% nicht übersteigen, die Linearität sollte 1% des Messwerts betragen. Die exakte Kalibration der Analysatoren mit zertifizierten Kalibrationsgasen an zwei Punkten (Umgebungs- und Ausatemluft) vor jeder Messung ist unabdingbare Voraussetzung für genaue Messwerte. Moderne Ergospirometriesysteme beinhalten deshalb eine rechnergestützte Kalibrationseinrichtung zum automatischen Abgleich der Analysatoren.
Mischbeutelverfahren Bei den in mannigfaltigen technischen Varianten ausgeführten Ergospirometriesystemen muss grundsätzlich zwischen der Messung mit mechanischem Gasmischgefäß und der Atemzug-zu-Atemzug-Analyse (auch Breath-byBreath-Verfahren) unterschieden werden.
wobei der Faktor ks die sog. Ausatemschrumpfung ist und ermittelt wird mit
k S = (100 − FE O2 − FE CO2 ) / (100 − FI O2 ) . VE ist das exspiratorische Atemminutenvolumen, FI die inspiratorische und FE die mittlere exspiratorische O2bzw. CO2-Konzentration. Weiterhin muss ein Faktor c für die Umrechnung von BTPS auf STPD Bedingungen und von Konzentration auf Fraktion berücksichtigt werden. In analoger Weise wird die CO2-Abgabe ermittelt. Die Response der Gasanalysatoren und die Einstellung des »Delay« ist bei der Mischmethode von geringer Bedeutung für die Genauigkeit der Messwerte, da der Mischvorgang eine relativ große Zeitkonstante besitzt. Der Vorteil des Verfahrens liegt demnach in der sehr einfachen Handhabung und der guten Genauigkeit für klinische Zwecke. Allerdings können nur solche Belastungsänderungen dynamisch korrekt erfasst werden, die der Zeitkonstante des Messsystems entsprechen. Deshalb setzt sich auch im klinischen Bereich das früher vorwiegend für atemphysiologische und sportmedizinische Untersuchungen angewandte, nachfolgend beschriebene Verfahren zunehmend durch.
Atemzug-zu-Atemzug-Verfahren (Breath-by-Breath-Verfahren) Beim Breath-by-Breath- oder kurz »B×B-Verfahren« wird die Strömung ventilfrei in- und exspiratorisch direkt am Mund oder an einer Maske gemessen. Eine kontinuierliche Gasprobe, ebenfalls am Mund abgenommen, wird über einen dünnen Schlauch den Analysatoren zugeleitet, wobei im Gegensatz zur Mischgasmethode ausreichend schnelle Gasanalysatoren verwendet werden müssen. Strömung und Gase müssen vom Rechner in Phase gebracht werden. Die »Response« der beiden Gasanalysato-
10
125 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
ren muss im Rechenprogramm Berücksichtigung finden. Die Berechnung der O2-Aufnahme erfolgt nach . . V O2 = ∫ FO2 . V dt [l/min], . wobei V O2 die Sauerstoffaufnahme, FO2 die O2-Konzen. tration bzw. -Fraktion und V die Strömung am Mund sind. Außerdem müssen noch Faktoren zur Umrechnung von BTPS auf STPD berücksichtigt werden. Die CO2-Abgabe wird sinngemäß ermittelt. Das B×B-Verfahren birgt die Gefahr vieler Ungenauigkeiten und Fehler, die der Benutzer nur durch wiederholte Kalibration und ständige Kontrolle vermeiden kann. Zur Kalibration gehört die exakte Kompensation der Response der Gasanalysatoren und die genaue Einstellung des »Delay«, welche letztendlich über die Genauigkeit der Messwerte entscheiden. Oft hat der Benutzer jedoch keine Möglichkeit der Kontrolle dieser wichtigen Vorgänge und muss den Einstellungen und »Softwaretricks« der Gerätehersteller blind vertrauen. Eine solide Ergospirometriesoftware beinhaltet deshalb ein Kalibrations- und Verifikationsmodul, das die Analyse der Kalibrationsgase graphisch in Echtzeit darstellt und »Delay«, »Response« und Gasanalysewerte numerisch angibt, sodass zum einen der Kalibrationsvorgang transparent wird und zum anderen Abweichungen zwischen den Abgleichvorgängen im zeitlichen Verlauf besser erkannt werden können.
Klinische Bedeutung der Ergospirometrie Die grundlegenden Methoden zur Bestimmung des Gasaustauschs gehen auf die Arbeiten von Knipping zurück, während die moderne Ergospirometrie von Hollmann und von Wasserman (Wasserman et al. 2004) entwickelt wurde. Die Belastung wird für klinische Zwecke in Stufen gesteigert, beim Fahrradergometer z. B. in je 2–3 min um 25 W. Diese rektangulär-trianguläre Belastungsform ist gerade für Patienten besonders gut geeignet. Sie gewährt dem kardiovaskulären System genügend Zeit zur Anpassung, wodurch ein frühzeitiger Abbruch bedingt durch muskuläre Ermüdung, anaerobe Stoffwechselvorgänge und Laktatausschüttung vermieden werden kann. Die O2-Aufnahme ist ein Maß für die globale Leistungsfähigkeit von Herz-Lunge-Kreislauf und Muskulatur. Die Bestimmung der maximalen O2-Aufnahme, der Vita maxima, stellt somit ein objektives Maß für die maximale Leistungsfähigkeit des untersuchten Probanden dar. Durch die Betrachtung der Dynamik von Ventilation, Gasaustausch und der mit dem EKG gewonnenen Herzfrequenz kann der unterschiedliche Wirkungsgrad bzw. die eingeschränkte Leistungsfähigkeit der organischen Leistungsträger differenziert werden. Bei der Auswertung werden zudem abgeleitete Sekundärparameter, wie re-
spiratorischer Quotient und Atemäquivalent (⊡ Tab. 10.4) sowie die unter Belastung gewonnenen Blutgase herangezogen, aus deren Anpassungsverhalten bereits bei submaximaler Belastung auf Leistungseinbußen geschlossen werden kann. Die Bestimmung des aerob-anaeroben Übergangs, kurz anaerobe Schwelle genannt, spielt eine wichtige Rolle nicht nur in Bezug auf die generelle Leistungseinbuße, sondern auch bei der Beurteilung von Trainingseffekten während der Rehabilitation. Nach Eingabe von off-line ermittelten Daten wie Blutdruck und Blutgasen erfolgt die Auswertung der ergospirometrischen Untersuchungsergebnisse aufgrund der Datenflut bevorzugt in graphischer Form, wobei sich hier die sog. 9-Felder-Graphik nach Wasserman (Wasserman et al. 2004) durchgesetzt hat. Für gutachterliche Fragestellungen, gerade im arbeitsmedizinischen Bereich, sind die aus der Ergospirometrie
⊡ Tab. 10.4. Ergospirometrische Parameter Parameter
Abkürzung/ Definition
Dimension
Leistung (Fahrradergometer)
P
W
Geschwindigkeit (Laufband)
v
km/h
Steigung (Laufband)
s
%
Atemzugvolumen
VT
l
Atemfrequenz
Af
min-1
Atemminutenvolumen
VE
l x min-1
Kohlendioxidabgabe
. VO 2 . VO
Herzfrequenz
Hf
Sauerstoffaufnahme
Respiratorischer Quotient Atemäquivalent (für O2)
l x min-1 l x min-1
2
min-1
. . RQ=VO /VO 2
–
2
. EQO2=VE /VO
–
2
. EQCO2=VE /VO
–
. VO2Puls=VO / Hf
ml . min-1kg-1
Alveoloarterielle Differenz
AaDO2
mmHg
Funktionelle Totraumventilation
VDf
%
Atemäquivalent (für CO2) Sauerstoffpuls
2
2
126
I
Kapitel 10 · Lungenfunktionsdiagnostik
gewonnenen Erkenntnisse über die objektive Leistungseinbuße eines Patienten unverzichtbar. In der Beurteilung von Leistungssportlern nimmt die Untersuchungsmethode nach wie vor einen hohen Stellenwert ein und gehört heute zur Grundausstattung einer jeden sportmedizinischen Untersuchungsstelle. Der zeitliche Aufwand einer ergospirometrischen Untersuchung beträgt einschließlich Vorbereitung des Patienten und Kalibration mindestens 30 min.
10.2.6 Nichtinvasive Bestimmung
des Herzzeitvolumens (HZV) Im Rahmen der Ergospirometrie kann die kardiale Leistung, also die Leistung des Herzens, nur indirekt bestimmt werden. Nach der Fick’schen Gleichung ist die Sauerstoffaufnahme VO2 zwar proportional zum Herzzeitvolumen Qt: . V O2 = Qt . avDO2 [l/min]. Die arteriovenöse O2-Gehaltsdifferenz des Blutes avDO2 ist aber selbst leistungsabhängig und damit variabel. Zur direkten Messung des HZV bieten sich neben den invasiven Verfahren mit Herzkatheter auch nichtinvasive Methoden an, die heute als Erweiterungsmodule des ergospirometrischen Messplatzes zur Verfügung stehen. Als internationaler Standard der nichtinvasiven Verfahren hat sich die CO2-Rebreathing-Methode, also die Rückatemmethode mit Kohlendioxid, durchgesetzt. Sie basiert wieder auf der Anwendung des vorgenannten Fick’schen Prinzips, jedoch nicht in Bezug auf die Sauerstoffaufnahme, sondern bezüglich des Austauschs von Kohlendioxid zwischen Blut- und Gasphase, also . . Qt =V CO2 / avDCO2 =V CO2 /(CVCO2 – CaCO2) [l/min],
wobei avDCO2 die arteriovenöse Gehaltsdifferenz und CVCO2 und CaCO2 der gemischt-venöse bzw. arterielle Gehalt an CO2 im Blut sind (⊡ Abb. 10.14). Das Diagramm zeigt schematisch das Zusammenwirken von Herz, Lunge und Kreislauf. Um die einzelnen Größen der letztgenannten Gleichung bestimmen zu können, wird der Proband während der ergospirometrischen Messung an ein Ventilsystem angeschlossen, das die Umschaltung der Atmung von Umgebungsluft auf einen Rückatembeutel ermöglicht. Im Beutel befindet sich ein Gasgemisch aus Sauerstoff und Kohlendioxid. Der Partialdruck von CO2 wird dabei so gewählt, dass er ungefähr dem gemischt-venösen Partialdruck des Probanden auf der gewählten Leistungsstufe entspricht. Zunächst atmet der Proband Umgebungsluft – wie bei einer normalen Ergospirometrie – und die CO2-Abgabe wird laufend gemessen. Um Qt zu bestimmen, bedarf es nun der Ermittlung des arteriellen und venösen CO2-Gehalts im Blut. Zunächst wird bei Luftatmung eine Blutgasanalyse durchgeführt, um den arteriellen Partialdruck pa CO2 zu erhalten. Daraus kann der arterielle CO2-Gehalt CaCO2 mit Hilfe der Dissoziationskurve von CO2 abgeleitet werden. Approximativ lässt sich der paCO2 auch aus dem endexspiratorischen Partialdruck petCO2 ableiten, was allerdings nur bei Lungengesunden zu akzeptablen Ergebnissen führt. Nachdem die Atmung des Probanden endexspiratorisch auf den Beutel umgeschaltet wurde, beginnt das Rückatemmanöver. Der CO2-Partialdruck gleicht sich zwischen Lunge und Beutel durch die Rückatmung aus, da das rechte Herz bis zur Rezirkulation einen konstanten CO2-Partialdruck in die Lunge anliefert. Der Rückatemvorgang, der nur wenige Atemzüge dauert, wird über die CO2-Gasanalyse in Echtzeit verfolgt, bis das CO2-Äquilibrium erreicht und der gemischt-venöse CO2-Partialdruck bestimmt ist. Der gemischt-venöse CO2-Gehalt CvCO2 wird rechnerisch aus der Dissoziationskurve abgeleitet. Die CO2-Rebreathing-Methode ist ein sehr elegantes Verfahren, das keinerlei Risiken für den Probanden birgt und nur geringe Mitarbeit erfordert. Der technische Aufwand ist bei vorhandenem Ergospirometriesystem vergleichsweise gering. Die Genauigkeit ist mit der invasiver Verfahren vergleichbar (Jones 1984). Zu berücksichtigen ist, dass die Methode im Gegensatz zu den Katheterverfahren nur den pulmonalen Anteil des HZV ohne den Rechts-links-Shunt liefert.
10.2.7 Metabolisches Aktivitätsmonitoring ⊡ Abb. 10.14. Das Fick’sche Prinzip. Das Diagramm zeigt schematisch das Zusammenwirken von Herz, Lunge und Kreislauf (RH rechte Herzkammer, LH linke Herzkammer, MV Atemminutenvolumen, VCO2 Kohlendioxidabgabe, Qt pulmonales Herzzeitvolumen, pVCO2 gemischtvenöser Kohlendioxidpartialdruck, paCO2 arterieller Kohlendioxidpartialdruck). Weitere Erläuterungen siehe Text
Die portable Ergospirometrie wurde in den letzten Jahren erheblich verbessert und wird bereits in sehr kompakter und benutzerfreundlicher Form angeboten (vgl. ⊡ Abb. 10.13). Dennoch lässt sie sich in den meisten klinischen Situati-
127 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
onen, am Arbeitsplatz und im normalen Leben, nur mit sehr großen Einschränkungen einsetzen. Vor allem aber ist ihre Anwendung zeitlich stark begrenzt, da in der Praxis die ergospirometrischen Werte meist nur im Bereich bis zu einer Stunde aufgenommen werden können. In den letzten Jahren wurde vermehrt nach Lösungen gesucht, physische Aktivität über einen längeren Zeitraum, über mehrere Stunden oder Tage, ohne wesentliche Behinderung der Testperson zu erfassen. Zudem sollten die Messgeräte klein, leicht bedienbar und preisgünstig sein. Wenn auch nicht die Aussagekraft und Genauigkeit der Ergospirometrie zu erwarten wäre, so sollte die physische Aktivität mindestens in totalen Kalorien, also in einem integralen Sauerstoffäquivalent (d. h. physikalisch als Arbeit) ausgegeben werden. Entwickelt und vermarktet wurden schließlich Geräte, die die physische Aktivität aus der Herzfrequenz (Herzfrequenzuhr), den Schritten (Pedometer) oder der Beschleunigung in ein oder zwei Achsen (Akzellerometer) erfassen. Aufgrund dieser Wirkprinzipien können diese Verfahren nur in sehr eingeschränkten Situationen eine Leistungserfassung und damit eine gute Korrelation mit der Sauerstoffaufnahme erreichen. Sei kurzem wird ein multisensorischer Monitor in Form eines nur 80 g schweren Armbands angeboten, das am Oberarm getragen wird (⊡ Abb. 10.15a,b). Das Gerät ermöglicht nicht nur die fortlaufende und zuverlässige Erfassung des Energieumsatzes, Kalorienverbrauchs (auch unter enteraler oder parenteraler Ernährung), der Sauerstoffaufnahme unter Belastung, sondern auch die Dokumentation von Bewegungs-, Ruhe- und Schlafzeit, Schrittzahl und anderer Lebensstilparameter. Physiologische Signale wie Beschleunigung, Wärmefluss, Hauttemperatur und Hautleitfähigkeit werden kontinuierlich aufgezeichnet (10 min. bis zu 14 Tage), ohne die Bewegungsfreiheit des Trägers einzuschränken. Das Gerät ist nicht manipulierbar; es schaltet sich selbsttätig ein und aus. Nach dem Einsatz werden die vom Armband aufgenommenen Daten auf einen PC übertragen und mit Hilfe künstlicher Intelligenz (Clusteranalyse, neuronale Netze, Markov Modelle u. a.) ausgewertet. Die Genauigkeit der Daten ist mit den Goldstandards Ergospirometrie und indirekte Kalorimetrie vergleichbar, wie die Literatur zeigt.
erdings kann die Messung der Diffusion auch innerhalb der Kammer (bei offener Tür) durchgeführt werden. Geräte für N2-Washout erfordern keine besonderen räumlichen Voraussetzungen. Für die Ergospirometrie sollte ein möglichst großer und gut belüfteter Raum zur Verfügung stehen, insbesondere dann, wenn Fahrrad- und Laufbandergometer und Blutgas- oder andere Analysegeräte im gleichen Raum Platz finden sollen. Für den Patienten sollte eine Umkleidekabine und möglichst eine Dusche eingeplant werden.
a
10.2.8 Planerische Hinweise und
bauliche Voraussetzungen Für die Bodyplethysmographie sind keine besonderen räumlichen Voraussetzungen zu berücksichtigen. Auch kleinere Räume sind hierfür ausreichend. Wegen der druckempfindlichen Bodykammer sind Räume ohne Publikumsverkehr mit wenig Fensterflächen zu bevorzugen. Die Diffusionsmessung wird in aller Regel im gleichen Raum mit der Bodyplethysmographie durchgeführt. Neu-
b ⊡ Abb. 10.15a,b. Metabolischer Armbandmonitor zur Bestimmung physischer Aktivität (Werksfoto: Bodymedia Inc., Pittsburgh)
10
128
Kapitel 10 · Lungenfunktionsdiagnostik
Literatur
I
American Thoracic Society (1995) Standardization of Spirometry. Am J Respirat Crit Care Med 152: 1107–1136 American Thoracic Society (1991) Lung function testing: Selection of Reference values and interpretative strategies. Am Rev Respir Dis. 144(5): 1202–18 Baur X (1998) Lungenfunktionsprüfung und Allergiediagnostik. Dustri, München Buess C, Pietsch P, Guggenbühl W, Koller EA (1986) A pulsed diagonal beam ultrasonic airflow meter. J. Appl. Physiol 61(3): 1195–1199 European Respiratory Society (1993) Standardized lung function testing. Eur Respir J 6 (Suppl 16): 3–52 Haber P (2004) Lungenfunktion und Spiroergometrie. Springer, Wien Jones NL (1984) Evaluation of a microprocessor-controlled exercise system. J Appl Physiol 57: 1312–1318 Jones NL, Campbell EMJ (1997) Clinical exercise testing. Saunders, Philadelphia Lindemann H, Leupold W (2003) Lungenfunktionsdiagnostik bei Kindern. Kohlhammer, Stuttgart Gappa M, Buess C, Fuchs SI (2005) Slope indices from ultrasonic tidal molar mass-volume curves. ERS Congress, Copenhagen Matthys H (1988) Pneumologie. Springer, Heidelberg Neuberger M et al. (1994) Lungenfunktionsreferenzwerte für Schüler von 6 bis 16 Jahren. Pneumologie 48: 175–181; Erratum (1995), Pneumologie 49: 96 Oostveen E et al. (2003) The forced oscillation technique in clinical practice: methodology, recommendations and future developments. Eur Respir J 22: 1026–1041 Petro W, Konietzko N (1992) Lungenfunktionsdiagnostik. In: Ferlinz R (Hrsg) Diagnostik in der Pulmologie. Thieme, Stuttgart Petty TI, Pierson DJ, Dick NP, Hudson LD, Walker SH (1976) Follow-up evaluation of a prevalence study for chronic bronchitis and chronic airway obstruction. Am Rev Respir Dis 114: 881–890 Jensen RL, C. Buess C, Crapo RO (2005) Ultrasonic measurements of CO2 during quiet breathing may diagnose degree of airway obstruction. ATS Convention Rodenstein DO, Stanjescu DC (1983) Frequency dependence of plethysmographic volume in healthy and asthmatic subjects. J Appl Physiol 54: 159–165 Rothe T (2004) Lungenfunktion leicht gemacht. Jungjohann, Neckarsulm Schmidt W (1996) Angewandte Lungenfunktionsprüfung. Dustri, München Ulmer WT, Nolte D, Lecheler J (2003) Die Lungenfunktion. Methodik und klinische Anwendung. Thieme, Stuttgart Wasserman K, Hansen JE, Sue DY (2004) Principles of Exercise Testing and Interpretation: Including Pathophysiology and Clinical Applications. Lippincott Williams and Wilkins, Philadelphia
11 Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP) K.-P. Hoffmann, U. Krechel
11.1 Grundlagen
– 129
11.3 Elektromyograph
11.1.1 Neurophysiologische Grundlagen – 129 11.1.2 Technische Grundlagen – 132
11.2 Elektroenzephalograph 11.2.1 11.2.2 11.2.3 11.2.4 11.2.5 11.2.6
– 140
Signal – 140 Gerätetechnik – 143 Methodik – 143 EEG-Ableitverfahren – 145 Auswertung/ Signalanalyse – 146 Spezielle Methoden – 148
Methoden der Klinischen Neurophysiologie, wie die Elektroenzephalographie (EEG), Elektromyographie/ Elektroneurographie (EMG/ENG) und die Ableitung der evozierten Potentiale (EP) (⊡ Abb. 11.1) ermöglichen die Beurteilung des Funktionszustandes des zentralen und peripheren Nervensystems sowie der Muskulatur. Dabei werden bioelektrische Potentiale messtechnisch erfasst, verstärkt, gespeichert, analysiert und bewertet. Die für die Funktionsdiagnostik des Nervensystems eingesetzten medizintechnischen Geräte sind der Elektroenzephalograph und der Elektromyograph. Ihr jeweiliger Aufbau, ihre Funktionsweise sowie die klinisch gebräuchlichen Methoden werden in diesem Kapitel dargestellt.
11.1
Grundlagen
11.1.1 Neurophysiologische Grundlagen
Nervensystem Erregbare Zellen reagieren auf einen Reiz mit einer Änderung ihrer elektrischen Membraneigenschaften. Wird eine erregbare lebende Zelle gereizt, ändert sich an ihrer Membran die Ionenleitfähigkeit. Aus dem bestehenden Ruhemembranpotential (50–100 mV) kann ein Aktionspotential werden, das durch eine Nervenzelle weitergeleitet wird und am Muskel zur Kontraktion führt. Das motorische Neuron und alle von ihm versorgten Muskelfasern bilden eine motorische Einheit. Die Zahl der von einem Motoneuron versorgten Muskelfasern variiert stark und beträgt bei Augenmuskeln 5 und beim M. temporalis über 1000.
11.3.1 11.3.2 11.3.3 11.3.4 11.3.5 11.3.6
– 150
Signal – 151 Gerätetechnik – 151 Elektromyographie (EMG) – 154 Elektroneurographie (ENG) – 156 Evozierte Potentiale (EP) – 160 Ereignisbezogene Potentiale (ERP) – 167
Weiterführende Literatur – 167
Das Zentralnervensystem (⊡ Abb. 11.2) besteht aus dem Gehirn und dem Spinalkanal. Es ist der zentrale Teil des gesamten Nervensystems und stellt ein kompliziert verschaltetes Informationsverarbeitungssystem dar. Die mittels Sinnesorgan aufgenommenen Informationen (109 bit/s) werden während ihrer Weiterleitung zum Zentralnervensystem durch hemmende und fördernde Verschaltung an den Synapsen auf 101–102 bit/s vermindert. Nach ihrer Verarbeitung und Analyse werden sie als Reaktionen in Form von Bewegungen, Verhalten oder Organtätigkeit umgesetzt. Zu den Leistungen des Gehirns gehören neben der willentlichen Bewegung auch Emotionen und geistige Fähigkeiten wie Gedächtnis und Lernen. Verschiedene Ebenen des zentralen Nervensystems sind an der Steuerung des vegetativen Nervensystems beteiligt: ▬ das limbische System zur Steuerung des emotionalen Antriebs ▬ der Hypothalamus für die homöostatische Regulation ▬ die Medulla oblongata zur Regelung des Tonus des Sympathikus ▬ das Rückenmark bei der Schaltung spinaler Reflexe. Zum peripheren Nervensystem (⊡ Abb. 11.2.) werden alle Nerven und Ganglien gezählt, die sich außerhalb des zentralen Nervensystems befinden. Zu ihnen gehören die efferenten (motorischen) Bahnen, über die Skelettmuskeln innerviert werden. Afferente (sensorische) Bahnen leiten Erregungen aus der Körperperipherie, den Rezeptoren der Haut und der inneren Organe an das Zentralnervensystem.
130
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 11.1. Methoden der Klinischen Neurophysiologie zur Diagnostik von Funktionsstörungen im zentralen und peripheren Nervensystem sowie der Muskulatur
⊡ Abb. 11.2. Schematische Darstellung des zentralen und peripheren Nervensystems und des Einsatzbereichs von EEG und EMG
131 11.1 · Grundlagen
Das vegetative Nervensystem oder autonome Nervensystem ist ein Teil des peripheren Nervensystems. Es regelt die Organfunktionen im Körper, passt sie den jeweiligen Bedürfnissen an und kontrolliert das innere Milieu des Körpers. Diese Aktivitäten laufen weitgehend unbewusst ab und entziehen sich einer willkürlichen Kontrolle. Beispiele für geregelte Vitalfunktionen sind Herzschlag, Atmung, Blutdruck, Verdauung und Stoffwechsel. Das vegetative Nervensystem lässt sich in drei Gruppen untergliedern: ▬ sympathisch: leistungsfördernde (ergotrope) Wirkung ▬ parasympathisch: überwiegend erhaltungsfördernde (trophotrope) Wirkung ▬ enterisch: weitgehend vom Zentralnervensystem unabhängiges Nervensystem des Gastrointestinaltrakts
Muskuläres System Skelettmuskeln (⊡ Abb. 11.2) können die chemische Energie als ATP direkt in mechanische Energie und Wärmeenergie umwandeln. Ihre Innervation erfolgt willkürlich über Motoneurone. Die Auslösung einer Kontraktion erfolgt ausschließlich durch Aktionspotentiale an der motorischen Endplatte. Auffallendes Merkmal der Skelettmuskelzellen ist die Querstreifung der Myofibrillen mit ihrer regelmäßigen Abfolge dunkler anisotroper (A-Streifen) und heller isotroper (I-Streifen) Banden. Glatt werden alle Muskeltypen genannt, die keine Querstreifung aufweisen. Sie bestehen aus langen spindelförmigen Zellen, die locker angeordnet und dadurch beweglich sind. Die glatte Muskulatur kleidet innere Organe wie den Magen oder Darm, aber auch die Wände von Blutgefäßen aus. Darüber hinaus besitzt die glatte Muskulatur eine eigene Erregungsbildung und wird unwillkürlich vom vegetativen Nervensystem innerviert. Sie führt relativ langsame Bewegungen aus, ermüdet nur langsam und kann über längere Zeit auch große Kräfte entwickeln. Der Herzmuskel besitzt Eigenschaften der quergestreiften und glatten Muskulatur. Er verfügt über eine eigene Erregungsbildung und wird unwillkürlich von vegetativen Nerven beeinflusst.
Entstehung von Ruhe- und Aktionspotential Aufgrund einer unterschiedlichen Verteilung von Ionen im Innen- und Außenmilieu von lebenden Zellen tritt an der Zellmembran ein Membranpotential auf. Dieses wird durch aktive Transportmechanismen (Ionenpumpe) erzeugt und aufrecht erhalten. Die Konzentration der K+ Ionen im Zellinneren ist etwa 30-mal größer als außerhalb, sodass das Zellinnere im unerregten Zustand negativ gegenüber der Außenflüssigkeit geladen ist. Das
Ausmaß dieser Ladungsverzerrung hängt von der Membrankapazität ab. Das Aktionspotential ist eine durch überschwellige Zellreizung verursachte Spannungsänderung an der Membran lebender Zellen. Es tritt in Folge einer Änderung der Ionenleitfähigkeit der erregten Membran auf und besteht aus drei Phasen: rasche Depolarisation, langsame Repolarisation und Nachhyperpolarisation. Die Dauer des Aktionspotentials ist abhängig von der Temperatur und der jeweiligen Zelle. Ein motorischer Nerv leitet das Aktionspotential entlang des Axons weiter, sodass es am Muskel zu einer Kontraktion kommt.
Fortleitung des Aktionspotentials Die Erregungsleitung unterscheidet sich grundlegend von der Art der Nervenfaser. So tritt bei markhaltigen Fasern eine saltatorische und bei marklosen eine kontinuierliche Erregungsleitung auf. Markhaltige Fasern besitzen von Myelin umgebene Axone, was wie eine Isolierung wirkt. Diese Myelinschicht ist von Ranvier-Schnürringen unterbrochen. Eine Erregungsleitung kann daher nur in Sprüngen von einem Schnürring zum anderen über eine Distanz von 1–2 mm erfolgen. Dabei werden Geschwindigkeiten bis zu 120 m/s erreicht.
Neuromuskuläre Überleitung Die Übertragung der Erregung von einer Nervenzelle zu einer zweiten oder vom Nerv zum Muskel erfolgt über Synapsen. Unterschieden werden Synapsen mit elektrischer oder chemischer Übertragung sowie mit erregender oder hemmender Wirkung. Die chemische Übertragung erfolgt über Transmitter. Erregende Synapsen setzen bspw. Acetylcholin, Adrenalin, Noradrenalin und Serotonin frei, wodurch es zu einem exzitatorischen postsynaptischen Potential (EPSP) kommt. Inhibitorische Synapsen setzen hemmende Transmitter frei, bspw. GABA. Es kommt zu einem inhibitorischen postsynaptischen Potential (IPSP). Das Ergebnis für eine mögliche Weiterleitung von Erregungen ergibt sich aus der räumlichen und zeitlichen Summation der exzitatorischen oder inhibitorischen Wirkung der einzelnen Synapse. Die Überleitung von einem Neuron auf einen Muskel geschieht an der motorischen Endplatte. Ankommende Aktionspotentiale setzen Acetylcholin frei, wodurch es zu einer Endplattendepolarisation kommt. Nach der Überschreitung einer kritischen Schwelle ist die Muskelmembran erregt und die Muskelfaser kontrahiert. Das Acetylcholin wird durch Cholinesterase gespalten. Dies zieht eine Repolarisation der Endplatte nach sich, wodurch der Ausgangszustand wieder erreicht wird und sie erneut erregt werden kann.
11
132
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
11.1.2 Technische Grundlagen
I
Die Methoden der Klinischen Neurophysiologie passen sich in das Spektrum diagnostischer Verfahren ein (⊡ Abb. 11.3). Sie ergänzen, wie die anderen diagnostischen Methoden der Labordiagnostik, der Bildgebung und Funktionsdiagnostik, die Diagnosefindung auf der Grundlage der Anamnese und der klinischen Untersuchung. Aus dem Gesamtbild der Bewertung und Befundung der erforderlichen Untersuchungen kommt der Arzt zur Diagnose und damit zur Therapie. Der Therapieverlauf und prognostische Aussagen können im Rahmen eines Monitorings objektiviert werden. Die in der Klinischen Neurophysiologie zu bewertenden Signale sind elektrische Potentialdifferenzen. Ihre Ableitung wird mit Nadel- oder Oberflächenelektroden realisiert. Die so messtechnisch erfassten Signale werden vorverarbeitet und verstärkt. Dabei richtet sich die jeweilige Empfindlichkeit und die Bandbreite des Verstärkers nach dem abzuleitenden Signal. Diese Biosignale können Amplituden von wenigen Mikrovolt bis zu einigen Millivolt und Frequenzen von Gleichspannung bis 30 kHz haben. Mit Hilfe von Differenzverstärkern, die sich in der Empfindlichkeit und im Frequenzgang unterscheiden, werden sie verstärkt und anschließend registriert. Die Auswertung erfolgt sowohl visuell, als auch rechnergestützt, wobei die Signale auch gespeichert werden können.
Die Signalverarbeitung dient mit an die Fragestellung angepasster Software der Unterstützung einer Auswertung. Die Befundung ist immer eine ärztliche Leistung. Die Patientendaten, Rohsignale, Ergebnisse der Analyse und der Befund werden gespeichert und ausgedruckt. Bei vielen Diagnostikmethoden werden den Patienten Reize appliziert, wie z. B. bei der Fotostimulation für die Ableitung evozierter Potentiale und zur Bestimmung der Nervenleitgeschwindigkeit. Der Zeitpunkt des Reizes ist in die Auswertung der reizbezogenen Potentiale mit einzubeziehen. Es werden elektrische, akustische, optische und magnetische Stimulatoren für verschiedene Fragestellungen eingesetzt. Die Signalerfassung, Filterung, Verstärkung und Auswertung hat so zu erfolgen, dass die Signale unverfälscht registriert und gespeichert werden können. Die Reproduzierbarkeit der Ergebnisse ist gegebenenfalls durch eine Doppelbestimmung, wie bei der Ableitung der evozierten Potentiale, nachzuweisen. Die Signalerfassung geschieht rückwirkungsfrei, das heißt die Messung beeinflusst den Messwert bzw. das Signal nicht.
Elektroden Elektroden stellen die Schnittstelle zwischen dem technischen System und dem biologischen Gewebe dar. In der Klinischen Neurophysiologie benutzt man Elektroden, die
⊡ Abb. 11.3. Messtechnische Erfassung bioelektrischer Potentiale in der Klinischen Neurophysiologie im Prozess der Diagnosefindung
133 11.1 · Grundlagen
auf der Körperoberfläche unmittelbar mit der Haut über Elektrolytschichten kontaktiert werden (Oberflächenelektroden) oder Nadelelektroden, die wie eine Kanüle unter die Haut oder in den Muskel gestochen werden. Die Bauformen und eingesetzten Materialien unterschieden sich in Abhängigkeit von der Anwendung. Elektrisch gesehen, lassen Elektroden sich als elektromotorische Kraft und ein Netzwerk aus Kondensatoren und Widerständen darstellen, wobei diese Komponenten vom Elektrodenmaterial, dem Elektrolyten, der Geometrie, der Stromdichte sowie der Signalfrequenz abhängen. Vereinfacht kann man das in der ⊡ Abb. 11.4. angegebene Ersatzschaltbild annehmen. Dabei sind Ep die Polarisationsspannung, Cü der kapazitive Anteil des Übergangswiderstandes (Helmholtz-Kapazität), Rü der Ohmsche Anteil des Übergangswiderstandes (Faraday-Widerstand) und Re der Elektrodenwiderstand. Die Helmholtz-Kapazität ist direkt proportional und der Faradaywiderstand indirekt proportional zur Fläche. Bringt man eine Metallelektrode in eine Elektrolytlösung, so gehen aufgrund des Lösungsdrucks positiv
geladene Metallionen in die Lösung über. Dem wirken der osmotische Druck und die Feldkraft des entstehenden elektrischen Feldes entgegen. Es kommt zu einer elektrischen Aufladung der Elektrode und zum Aufbau einer Schicht entgegengesetzter Ladung im molekularen Abstand von der Phasengrenze. Diese Helmholtzsche Doppelschicht verhält sich wie ein Kondensator mit molekularem Plattenabstand, wobei die Plattenspannung als elektromotorische Kraft anzusehen ist und als Galvanispannung bezeichnet wird. Reine Metallelektroden werden daher als polarisierbare Elektroden bezeichnet. Überzieht man diese Metallelektroden mit einem schwerlöslichen Salz (z. B. Ag mit AgCl), wobei das gleiche Anion im Elektrolyten zu finden sein muss (z. B. bei NaCl), erhält man unpolarisierbare Elektroden mit wesentlich geringeren und stabileren Galvani-Spannungen. ⊡ Abb. 11.5 ( auch 4-Farbteil am Buchende) spiegelt die Charakterisierung von gesinterten Ag/ AgCl-Elektroden über einen Zeitraum von 10 Tagen wider. Es ist die gute Langzeitstabilität und die große Bandbreite bis weit in den niederfrequenten Bereich dieser Materialien ersichtlich. Damit sind Ag/AgCl-Elektroden für fast alle Signale der Klinischen Neurophysiologie einsetzbar.
Ableitarten Bipolare Ableitung
⊡ Abb. 11.4. Ersatzschaltbild einer Ableitelektrode
Die bipolare Ableitung ist eine in der Klinischen Neurophysiologie sehr häufig eingesetzte Methode zur messtechnischen Erfassung bioelektrischer Potentialdifferenzen. Zwei gleichartige Elektroden werden auf bioelektrisch aktiven Gebieten platziert. Jede Elektrode ist mit einem
⊡ Abb. 11.5. Charakterisierung von 128 Ag/AgCl-Elektroden über einen Zeitraum von 10 Tagen. Darstellung der Mittelwerte des Betrages der Impedanz aller Elektroden als Funktion der Signalfrequenz
11
134
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Eingang des Verstärkers verbunden. Durch Verwendung eines Differenzverstärkers wird die jeweilige Differenz der beiden Elektrodenpotentiale verstärkt. Beim Einsatz mehrerer Elektroden, wie z. B. im EEG, lassen sich Reihen von Elektroden bilden. Die Ausgangspannungen entsprechen dann jeweils der Differenz zwischen der vorangehenden
und der nachfolgenden Elektrode. Wenn man eine Potentialverteilung annimmt, deren Verlauf an- und absteigend ist und diesen mit 5 Elektroden erfassen möchte, wobei die mittlere Elektrode auf dem Punkt mit dem höchsten Potential platziert wurde, dann ergibt sich der in der ⊡ Abb. 11.6 dargestellte Messaufbau.
a
b ⊡ Abb. 11.6a,b. Bipolare Ableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Die Phasenumkehr zwischen C3-P3 und P3-O1 ist im gelb markierten Kurvenbereich gut zu erkennen
135 11.1 · Grundlagen
Es ist ersichtlich, dass die Ausgangsspannungen U1 und U2 nach unten und die der Spannungen U3 und U4 nach oben gerichtet sind. Im Maximum der Potentialverteilung kommt es zu einer Phasenumkehr. Derartige Potentialmaxima treten z. B. in der Randzone eines Tumors auf und ermöglichen eine Lokalisation des Herdes.
Mit der bipolaren Ableitung wird der Potentialgradient korrekt erfasst. Unipolare Ableitung
Bei der unipolaren Ableitung (⊡ Abb. 11.7) ist allen Kanälen eine Referenzelektrode gemeinsam. Diese Referenze-
a
b ⊡ Abb. 11.7a,b. Unipolare Ableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Der gleiche Kurvenabschnitt aus Abb. 11.6 wurde auch hier markiert. Die spikeförmige Aktivität imponiert mit einer hohen Amplitude im Kanal P3-A1
11
136
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
lektrode wird auf ein elektrisch möglichst inaktives Gebiet platziert, sodass sie keine oder nur geringe Potentiale erfasst. Sie wird deshalb auch als neutral oder indifferent bezeichnet. Da aber eine Beeinflussung dieser Elektrode durch zerebrale Potentiale nicht auszuschließen ist, handelt es sich eher um einen hypothetischen Punkt. Die auf dem bioelektrisch eher als aktiven Gebiet platzierte Elektrode ist die differente Elektrode. Für die bereits eingeführte Potentialverteilung wurde in der ⊡ Abb. 11.7 die unipolare Ableitung dargestellt. Für die Referenzelektrode wurde ein Potential er angenommen. Aus der Abbildung ist erkennbar, dass es bei der unipolaren Ableitung zu keiner Phasenumkehr kommt. Ein möglicher Herd wird durch die Größe der korrekt registrierten Potentialdifferenz lokalisiert. Ableitung gegen eine Durchschnittsreferenz
Die Referenz bei einer Ableitung gegen eine Durchschnittsreferenz (⊡ Abb. 11.8) ist der Mittelwert aller Elektrodenspannungen. Dies kann softwaremäßig oder durch verbinden aller Elektroden über gleich große Widerstände mit einem Referenzpunkt erreicht werden. Da die Summe der Ströme in diesem Punkt gleich Null ist, kann gezeigt werden, dass das erzielte Potential genau dem Mittelwert aller einzelnen Elektrodenspannungen entspricht. Auch bei dieser Ableitung kommt es zu einer Phasenumkehr. Die Ausgangsspannung entspricht der Differenz zwischen der jeweiligen Elektrodenspannung und dem Referenzpotential. Quellenableitung
Bei der Quellenableitung werden die Elektroden ebenfalls auf elektrisch aktiven Gebieten platziert. Die Ableitung erfolgt gegen eine Referenz, welche die unmittelbare Umgebung der interessierenden Elektrode berücksichtigt. Im Unterschied zur Ableitung gegen eine Durchschnittsreferenz ist ihr Potential bei der Bestimmung der Referenzspannung nicht beteiligt. Bei der Quellenableitung (⊡ Abb. 11.9.) wird die Differenz zwischen dem Potential der interessierenden Elektrode und dem gewichteten Mittelwert der Potentiale der umgebenden Elektroden gebildet. Die Wichtung w ist ein Faktor, der sich aus dem reziproken Wert der Entfernung ergibt. Bei einer quadratischen Elektrodenanordnung ist w=1 für den einfachen, w=0,5 für den doppelten und w=0,707 für die Diagonale. Um den gewichteten Mittelwert zu erhalten, wird die Summe der gewichteten Elektrodenspannungen durch die Summe der Wichtungen dividiert. Der Wert der Quellenableitung liegt in der besseren Darstellung lokaler Ereignisse durch die Eliminierung von Fernfeldanteilen im örtlichen Potential, wie z. B. der Einfluss des EOG beim Öffnen der Augen. Allerdings wird das örtliche Potential selbst durch die Quellenableitung nicht genauer wiedergegeben.
Elektrodenplatzierung Für reproduzierbare Ableitungen und für die Vergleichbarkeit der Ergebnisse bei Verlaufsuntersuchungen ist es erforderlich, dass die Elektroden jeweils an die gleichen Positionen gesetzt werden. Das zu verwendende System darf nicht starr sein, sondern muss sich den verschiedenen Kopfgrößen (neonatales EEG, EEG bei Kindern und Erwachsenen) anpassen (⊡ Abb. 11.10). Daher muss es von leicht zu findenden und zuverlässig definierten Punkten am Schädel ausgehen. Diese Punkte sind das Nasion (Nasenwurzel, tiefster Punkt zwischen Nase und Stirn in der Mitte zwischen den Augen), das Inion (unterer Knochenhöcker in der Mitte des Hinterkopfes am Ansatz der Nackenmuskulatur) und die beiden präaurikulären Punkte (Vertiefung vor dem äußeren Gehörgang direkt unterhalb des Jochbeins und oberhalb des Unterkiefergelenks). Die Verbindungslinien zwischen Nasion und Inion sowie zwischen den präaurikulären Punkten schneiden sich im Vertex (Cz). Die Verbindungslinien werden in 10- bzw. 20%-Abschnitte eingeteilt. In den Schnittpunkten der sich ergebenden Längs- und Querreihen werden die Elektroden platziert. Die Bezeichnung der Positionen erfolgt nach Regionen: Fp = frontopolar, F = frontal, C = zentral, P = parietal, O = okzipital, T = temporal, A = aurical und zusätzlich cb = cerebellär sowie pg = pharyngeal. Die Numerierung der Elektroden gibt Auskunft über die Hemisphäre (eine ungerade Zahl entspricht der linken, eine gerade der rechten Seite) und den Abstand von der Mittellinie, wobei z = zero (Null) bedeutet. Die Abstände der Elektroden innerhalb einer einzelnen Reihe sind gleich. Bei Teilung der Linien in 10-, 20-, 20-, 20-, 20- und 10%-Abschnitte ergeben sich für die sagittale Längsreihe die Elektrodenpositionen Fpz, Fz, Cz, Pz und Oz sowie für die mittlere Querreihe T3, C3, Cz, C4 und T4. Dabei werden die Positionen Fpz und Oz nicht mit Elektroden besetzt. Teilt man in gleicher Weise die Strecken Fpz, Oz, die über T3 bzw. T4 führen, ergeben sich auf der linken Hemisphäre die Positionen Fp1, F7, T3, T5 und O1 sowie auf der rechten Seite Fp2, F8, T4, T6 und O2. Über die Elektroden Fp1, C3 und O1 sowie Fp2, C4 und O2 lassen sich zwei parasagittale Längsreihen ziehen, die sich mit der vorderen (F7, Fz und F8) und der hinteren Querreihe (T5, Pz und T6) schneiden. Diese Schnittpunkte ergeben die Positionen für die Elektroden F3, F4, P3 und P4. Zwischen diesen Standardpositionen können noch weitere Elektroden, z. B. F1, F2, F5 und F7 für die vordere Querreihe gesetzt werden. Die Erdelektroden werden an den Ohrläppchen, die den Positionen A1 und A2 entsprechen, befestigt.
Verstärker In der Klinischen Neurophysiologie wird zur Verstärkung der abgeleiteten Biosignale i. d. R. ein Differenzverstärker eingesetzt. Diese Verstärker, deren Prinzip 1931/32
137 11.1 · Grundlagen
von Tönnies im Kaiser-Wilhelm-Institut Berlin entwickelt wurde, verstärken die Differenz zweier Eingangspotentiale. Praktisch unterscheiden sich die Verstärkungen für Gleichtaktsignale (z. B. gleichphasische Störsignale, die über die Zuleitungen eingestreut werden) und für Gegentaktsignale (eine bestehende Potentialdifferenz aufgrund eines bioelektrischen Generators). Das Verhältnis beider
Verstärkungen wird Gleichtaktunterdrückung bzw. Rejektionsfaktor genannt. Die Gleichtaktunterdrückung sollte im Bereich von 80 bis 120 dB liegen, d. h. die Verstärkung von Gegentaktsignalen ist 104 bzw. 106-mal größer als die Verstärkung der Gleichtaktsignale. Differenzverstärker haben einen invertierenden und einen nicht invertierenden Eingang. Nach der Lyoner Ver-
a
b ⊡ Abb. 11.8a,b. Ableitung gegen eine Durchschnittsreferenz. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Die spikeförmige Aktivität zeigt sich mit einer sehr großen Amplitude auf Kanal P3 AVR mit ca. 300 µV
11
138
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
einbarung von 1980 ist eine Verschaltung so vorzunehmen, dass eine Negativierung unter der differenten Elektrode zu einem positiven Ausschlag im Registriergerät führt. Ein weiteres Merkmal des Verstärkers ist der Verstärkungsfaktor, der Quotient von Ausgangsspannung zur Eingangsspannung. Dieser wird häufig über die Emp-
findlichkeit angegeben. Groß gewählt werden sollte die Eingangsimpedanz des Verstärkers (50–200 MΩ). Dies ist erforderlich, um einmal die Potentialquelle strommäßig nicht zu belasten und damit rückwirkungsfrei zu messen. Zum anderen kann so der Einfluss der Elektrodenübergangswiderstände minimiert werden.
a
b ⊡ Abb. 11.9a,b. Quellenableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. P3 imponiert auch hier mit einer hohen Amplitude
139 11.1 · Grundlagen
Der Frequenzgang ist ein Maß für das dynamische Übertragungsverhalten elektronischer Baugruppen und spiegelt die Abhängigkeit der Verstärkung von der Frequenz des Signals wider. Er kann aus dem Quotienten der komplexen Amplituden von Ausgangs- und Eingangssignal für eine stationäre Sinusschwingung berechnet werden. Ein Hochpass lässt Signale oberhalb einer bestimmten Grenzfrequenz ohne wesentliche Abschwächung passieren. Der Hochpass wird zur Verringerung niederfrequenter Störungen (z. B. Nullliniendrift) verwendet. Anstelle der Grenzfrequenz wird mitunter die Zeitkonstante angegeben, die sich aus der exponentionell abfallenden Antwort des Hochpasses auf eine Sprungfunktion ergibt. Dabei ist die Zeitkonstante jene Zeit, während der die Amplitude auf 37% ihres Anfangswertes sinkt. Dagegen lässt ein Tiefpass Signale unterhalb einer bestimmten Grenzfrequenz ohne wesentliche Abschwächung passieren. Der Tiefpass wird eingesetzt, um den Einfluss hochfrequenter Störungen (wie z. B. das Rauschen) zu verringern. Im Unterschied dazu beruht der Phasengang auf einer Phasendifferenz, die gewöhnlich zwischen sinusförmigen Ein- und Ausgangsspannungen eines Ableitsystems auftritt. Eine weitere Eigenschaft des Verstärkers ist das Rauschen, das aufgrund des akustischen Klangbildes so bezeichnet wird. Es ist ein kleines Störsignal über einen breiten Frequenzbereich, das auch bei kurzgeschlossenem Eingang am Ausgang registrierbar ist. Als Ursache können thermische Elektronenbewegungen in resistiven Komponenten genannt werden.
Registrierung/ Speicherung Neben den Rohsignalen werden auch Patientennamen, Datum und Art der Ableitungen sowie die entsprechenden Befundtexte in einer Datenbank angelegt. Auf einen Blick lassen sich alle bereits durchgeführten Untersuchungen mit ihren Messergebnissen erkennen, bei Verlaufskontrollen sind diese Daten unmittelbar abrufbar.
Vernetzte Systeme In Abteilungen der Klinischen Neurophysiologie werden verschiedene Arbeitsplätze für die Signalerfassung eingesetzt. Meistens sind die einzelnen Ableitstationen für spezielle Anwendungen, z. B. EEG, EMG/ENG und evozierte Potentiale, mit entsprechender Hardware wie Stimulatoren, Untersuchungsliege, Elektroden usw. ausgestattet. Auch unterscheiden sich die Arbeitsplätze dahingehend, ob – wie beim EMG – die Untersuchung von einem Facharzt oder – wie beim EEG – von einer MTA für Funktionsdiagnostik ausgeführt wird. Eine Vernetzung der Ableitstationen und die Einbeziehung von Auswertstationen ist zu empfehlen. Damit sind alle Daten an jedem PC präsent und der befundende Arzt kann unmittelbar alle Informationen abrufen. Computersysteme für die niedergelassene neurologische Praxis bestehen meist aus einer Ableit- und Auswertstation. Sie arbeiten mit einer einfachen Netzwerkfunktion »peer-to-peer«, bei der ein Datentransfer nur zwischen zwei Stationen gesteuert werden muss. Bei größeren Systemen ab 4 Ableitstationen empfiehlt sich die Installation eines lokalen Netzwerkes (LAN) mit einem eigenen Server.
⊡ Abb. 11.10. Ten-Twenty System zur Elektrodenplatzierung (10/20- System); gerade Zahlen: rechte Kopfseite, ungerade Zahlen: linke Kopfseite, F: frontal, C: zentral, P: parietal, O: okzipital, T: temporal, A: aurical
11
140
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Signalprocessing
I
Das Signalprocessing spielt für Neurophysiologie eine große Rolle. Nach einer Vorverarbeitung und Analog-/ Digitalwandlung stehen die Daten für eine weitere Auswertung zur Verfügung. Die meisten Geräte verfügen über eine Software, die eine Darstellung, Ausmessung, das Erkennen einfacher Artefakte und erste Analysen durchführt. Das Spektrum möglicher Verfahren ist breit. Die Fast Fourier Transformation (FFT) zur Frequenzanalyse, das Averaging zur Verbesserung des Signal-Störabstandes bei evozierten Potentialen, der Einsatz neuronaler Netze zur Mustererkennung, die Anwendung von speziellen Filtern, die Analyse von Schlafstadien und die Lokalisation von Quellen der bioelektrischen Aktivität sind einige Beispiele. Häufig ist der direkte Zugriff auf die Rohdaten gegeben, sodass durch die Verwendung von MATLAB® oder LabView® eine eigene Applikationssoftware erstellt und eingesetzt werden kann.
Jede der genannten Untersuchungsmethoden sollte in einem gesonderten Raum durchgeführt werden. Dabei ist zu vermeiden, die Ableiträume in die Nähe von großen Stromverbrauchern wie Fahrstühlen, Radiosendern, Magnetresonanztomographen (MRT) oder Computertomographen (CT) zu legen. Fahrstühle sollten 10–15 m entfernt sein. Meistens sind in Kliniken MRT und CT von anderen Funktionseinheiten entfernt installiert. Generell ist für neurophysiologische Untersuchungen heute aufgrund der hohen Gleichtaktunterdrückung moderner Verstärker keine spezielle Raumabschirmung im Sinne eines Faraday-Käfigs notwendig. Zu beachten bleibt jedoch, dass die elektrostatische Aufladung von Schuhen und Kunstfaserkleidung durch Erdung leicht entladen werden kann. Auch sind der Ableitstuhl oder die Untersuchungsliege sowie der Patient mit Erdpotential zu verbinden.
11.2
Artefakte Artefakte sind Störspannungen, die dem Signal überlagert sind und dieses verfälschen. Ihre Ursache kann in technischen oder biologischen Prozessen liegen. Biologische Artefakte werden durch den Patienten selbst generiert. Es sind zum einen physiologische Signale, die dem gewünschten Potential überlagert sind (z. B. das EEG dem evozierten Potential oder das EKG und EOG dem EEG. Auch treten durch Verspannung, Bewegung oder Schwitzen des Patienten zusätzliche Potentiale auf. Technische Artefakte werden durch das verwendete Gerät selbst erzeugt oder von außen eingekoppelt. Zu den Artefakten der Messapparatur gehören das Rauschen der Verstärker, 50 Hz Störspannung infolge fehlender oder ungenügender Erdung und die Verwendung ungeeigneter Elektroden. Eingekoppelt werden Artefakte galvanisch, kapazitiv oder induktiv. Möglichkeiten einer Artefaktunterdrückung bestehen zum einen durch eine 50 Hz Bandsperre. Die mit Reizen korrelierenden Signalanteile lassen sich durch Averaging aus der Hintergrundaktivität selektieren. Spezielle Algorithmen und der Einsatz neuronaler Netze können zu einer Erkennung von biologischen Artefakten eingesetzt werden und diese vom abgeleiteten Signal trennen. Auch adaptive Filter können der Artefaktunterdrückung dienen.
Elektroenzephalograph
Die Elektroenzephalographie (EEG) zeichnet elektrische Potentialdifferenzen, deren Ursache in zerebralen Vorgängen liegen, mit Hilfe von Elektroden auf, die i. d. R. auf der intakten Kopfhaut platziert wurden. EEG-Geräte finden Anwendung in der neurophysiologischen Funktionsdiagnostik in niedergelassenen neurologischen Praxen, neurologischen Abteilungen von Krankenhäusern, neurologischen Kliniken, sowie in Epilepsiezentren, neurologischen Rehabilitationskliniken und psychiatrischen Kliniken. Darüber hinaus werden sie in der Diagnostik von neurologisch-psychiatrischen Schlafstörungen, bei Medikamentenstudien und in der klinischen Forschung eingesetzt. Sie finden auch Anwendung in der Neurochirurgie und der Intensivmedizin im Monitoring. Die diagnostische Bedeutung des EEG liegt insbesondere auf dem Gebiet der Epilepsie (Klassifikation, Therapiekontrolle), der Diagnostik diffuser zerebraler Funktionsstörungen (entzündliche Erkrankungen, Hirnblutungen, Metabolismus, Pharmaka, Drogen), Funktionsstörungen infolge von Raumforderungen (Erhöhung des Hirndrucks, Blutungen, Tumore, Schädelhirntraumen), Schlafdiagnostik, Feststellung des Hirntodes, Vigilanzstörungen und der Bestimmung der Narkosetiefe. Das EEG wurde 1924 erstmals von Hans Berger in Jena vom Menschen abgeleitet.
11.2.1 Signal
Sicherheitstechnische Aspekte Für die Geräte der Klinischen Neurophysiologie gelten die allgemeinen Grundforderungen für die Anwendung medizintechnischer Produkte, das heißt das jeweilige Gerät, die Installation und die Bedienung müssen sicher sein. Die Einhaltung der technischen Parameter, wie z. B. Patientenableitstrom oder Geräteableitstrom, ist in vorgegebenen Abständen nachzuweisen.
Das EEG wird durch oberflächennahe Nervenzellen des zerebralen Kortex generiert (⊡ Abb. 11.11). Dieser ist ca. 3 mm dick und besteht aus 6 Schichten, in denen sich Stellatumzellen, Sternpyramiden- und Pyramidenzellen befinden. Die apikalen Dendriten der letzteren Zellen ziehen sich durch 5 der 6 Schichten. Ein exzitatorisches postsynaptisches Potential (EPSP) am Zellsoma führt
141 11.2 · Elektroenzephalograph
in Folge der Depolarisation zu einem Dipol mit einem oberflächennahen positiven Pol. Inhibitorische postsynaptische Potentiale (IPSP) am Zellsoma bewirken aufgrund der Hyperpolarisation eine entgegengesetzte Polung, ebenso wie die EPSP am apikalen Dendriten. EPSP und IPSP können sowohl zeitlich durch nacheinander entstehende, als auch räumlich durch synchron an benachbarten Synapsen entstehende Potentiale summiert werden. Bei Ableitung von einer intakten Hautoberfläche werden die Potentiale durch die zwischen Großhirnrinde und Haut befindlichen Schichten verschiedener Gewebe verformt. Die Widerstände und Kapazitäten dieser Schichten wirken wie Filter mit Tiefpasscharakter, wodurch Frequenzanteile über 1 kHz fast vollständig eliminiert werden. Die EEG-Potentiale bilden komplexe Wellenzüge aus, die in ihrer Form und Größe von neuronalen Faktoren in der Großhirnrinde sowie von Geschlecht, Atmung, Metabolismus, Homöostase, Sauerstoff- und Kohlendioxidgehalt des Blutes, Blutzuckergehalt, Medikamenten und Toxinen abhängen. Ebenso hängen sie von physio-
⊡ Abb. 11.11. Generierung des EEG
logischen Faktoren ab: vom Wach- oder Schlafzustand, offenen oder geschlossenen Augen im Wachzustand, von der allgemeinen Vigilanz und vom Alter. Die Amplituden des EEG nehmen vom Neugeborenen zum Kleinkind zu und vom Erwachsenen zum alten Menschen wieder ab, während die Frequenzen der Wellen von der frühen Kindheit bis ins hohe Alter ansteigen. In Abhängigkeit von der Frequenz werden Alpha-Wellen (8–13 Hz), Beta-Wellen (über 13 Hz), Theta-Wellen (4–7 Hz) und Delta-Wellen (unter 4 Hz) unterschieden. Die Beschreibung des EEG erfolgt hinsichtlich Frequenz, Amplitude, Häufigkeit, Modulation, Symmetrie und Reagibilität. Besondere Wellenformen sind Spitzen (spikes), steile Wellen- (sharp waves-) Komplexe aus spitzen bzw. steilen Wellen und einer langsamen Welle (spike and wave Komplex, SW-Komplex) und weitere Wellenformen wie z. B. µ-Welle, Vertex-Welle oder K-Komplex (⊡ Tab. 11.1). Die Beurteilung des EEG hat unter klinischen Gesichtspunkten zu erfolgen. Dabei nimmt der befundende Arzt Stellung, Regelmaß, dominierende Frequenz, auffällig hohe oder niedrige Amplituden, Altersabhängigkeit der Grundaktivität bei Kindern, Vigilanzniveau, Abweichungen von der physiologischen örtlichen Verteilung und Reagibilität sowie von der Grundaktivität unterscheidbare kontinuierliche, diskontinuierliche, generalisierte oder lokalisierte EEG-Tätigkeit. Die ⊡ Abb. 11.12 zeigt ein normales EEG eines 21Jährigen mit der Blockierung der Alpha-Wellen nach dem Öffnen der Augen. Zum Vergleich ist in ⊡ Abb. 11.13 ein EEG mit epileptiformen Mustern eines 31-jährigen männlichen Patienten dargestellt. Die EEG-Aktivitäten unterscheiden sich hinsichtlich ihrer Amplitude und Frequenz.
⊡ Tab. 11.1. Einteilung und Eigenschaften von EEG-Wellen und singulär auftretenden Wellen Wellenbezeichnung
Wellenfrequenz
Amplitude
Wellenart
Auftreten bei
Alpha-Wellen
8–13 Hz
30–50 ìV
schnell physiologisch
wach, Augen zu
Beta-Wellen
>13 Hz
~20 ìV
rasch physiologisch
wach, Augen auf, beim Rechnen
Theta-Wellen
4-7 Hz
bis zu 500 ìV
langsam physiologisch
Leichtschlaf
Delta-Wellen
0,5-3,5 Hz
viele 100 ìV bis 1–5 mV
langsam physiologisch
Tiefschlaf
steile Wellen – »sharp waves«
≥80 ms
variabel
steil abnorme Wellen
normal und abnorm
Spitzen – »spikes«
≤80 ms
variabel
steil abnorme Wellen
meist abnorm
Folge von Spitzen
5–10-mal mit ≤80 ms
≥50 ìV, oft sehr groß
steil abnorm
z. B. bei epileptischen Anfällen
spike-wave- Komplexe
3/s
10–100 ìV
viele verschiedene Varianten
immer abnorm
11
142
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 11.12. Normales 16-kanaliges EEG eines 21 Jahre alten männlichen Patienten in bipolarer Ableitung. Das Schema der Verschaltung der Elektroden ist angegeben
⊡ Abb. 11.13. EEG mit epileptiformen Mustern eines 31 Jahre alten männlichen Patienten
143 11.2 · Elektroenzephalograph
11.2.2 Gerätetechnik
In den letzten 10 Jahren vollzog sich mit dem Übergang von den EEG-Geräten auf der Basis von Papier- oder Thermokammschreibern zum Computer-EEG ein gravierender Wandel in der Gerätetechnik. Dies betrifft zum einen die Hardware, die nun aus einem PC, A/D-Wandler und Verstärkerbox (Headbox) besteht, zum anderen die rechnergestützten Möglichkeiten der Analyse und Befundung aufgrund moderner Software sowie die digitalen Medien für die Signalspeicherung und Archivierung. Damit hat sich das Aussehen eines EEG-Gerätes grundlegend verändert (⊡ Abb. 11.14). Zur Standardausstattung eines EEG-Gerätes gehört ein Fotostimulator. Dieser erzeugt kurze helle Lichtblitze mit definierter Leuchtdichte und Frequenz. Bei Doppelblitzen ist der Blitzabstand ebenfalls einstellbar. Die Basis für den Fotostimulator ist ein Stroboskop oder ein Leuchtdiodenarray.
sichtlich Signalverstärkung und Verzerrungsfreiheit gestellt werden. Seine Gütekriterien, die Gleichtaktunterdrückung und die Eingangsimpedanz müssen besonders hoch sein (>120 dB und >100 MΩ). Für eine qualitativ hochwertige Ableitung ist neben der aktiven Elektrode und der Referenzelektrode auch eine Erdelektrode mit dem Differenzverstärker zu verschalten. Je nachdem, wie man die Elektroden an den verschiedenen Kopfpunkten zueinander in Beziehung setzt oder sie verschaltet, entstehen andere EEG-Registrierungen. Es ist für die Interpretation des registrierten EEG von wesentlicher Bedeutung, die Verschaltung dieser Eingänge pro Kanal, auch Ableitprogramme oder Montagen genannt, zu kennen und sie direkt der Kurve zuordnen zu können. So wird unterschieden in unipolare oder Referenzableitungen, bipolare Ableitungen und Quellenableitungen.
11.2.3 Methodik
Mindestanforderungen Elektroden Zur Ableitung des EEG werden gesinterte Ag/AgCl-Oberflächenelektroden eingesetzt (vgl. ⊡ Abb. 11.5). Diese ermöglichen auch im niederfrequenten Bereich eine optimale Aufzeichnung. Der Kontakt der Elektrode mit der Kopfhaut wird über Elektrolyt oder mit Kochsalzlösung getränkte Filzüberzüge hergestellt. Zur Verminderung des Elektrodenübergangswiderstands, der unter 10 kΩ sein sollte, wird die Kopfhaut vorbehandelt.
Verstärker Ein Vorverstärker (Headbox) ist auf einem Stativ in der Nähe des Patientenkopfs montiert und dient dem Elektrodenanschluss und der Vorverstärkung der EEG-Signale. Danach werden sie zum eigentlichen Hauptgerät übertragen. Da die Vorverstärker mit A/D-Wandlern ausgestattet sind, können die digitalisierten Signale über größere Entfernungen fehlerfrei und ohne nennenswerte Verluste übertragen werden. Der eigentliche Vorverstärker ist ein Differenzverstärker, an den hohe Anforderungen hin-
⊡ Abb. 11.14. Ableitung eines EEG im Labor
Die Deutsche Gesellschaft für Klinische Neurophysiologie hat für die Ableitung des EEG Mindestanforderungen definiert. Ein EEG-Gerät sollte mindestens mit 10 EEG-Verstärkern und einem EKG-Verstärker ausgestattet sein. Die Elektrodenplatzierung erfolgt nach dem 10-20 System. Vor und nach einer Ableitung ist die Eichung des Gerätes vorzunehmen und die Elektrodenübergangswiderstände sind zu dokumentieren. Die Ableitung, die mindestens 20 Minuten dauert, muss Referenzschaltungen sowie bipolare Längs- und Querreihen enthalten. Die Prüfung der sensorischen Reaktivität, z. B. durch Augen öffnen und schließen (Berger-Effekt) sowie die Durchführung der Photostimulation und Hyperventilation ist dabei enthalten. Während der Ableitung auftretende Artefakte müssen bezeichnet und soweit wie möglich korrigiert werden. Die registrierte Kurve ist mit allen für die Auswertung wichtigen Angaben zu versehen, wie z. B. technischen Parametern sowie Verhalten und Befinden des Patienten.
Ableitungen Während der EEG-Ableitung werden unterschiedliche Montagen oder Verschaltungen der auf dem Schädel platzierten Elektroden verwendet. Prinzipiell lassen sich die in ⊡ Tab. 11.2 zusammengefassten EEG-Montagen unterscheiden. Ein EEG wird i. d. R. mit einer Empfindlichkeit von 70 µV/cm, einem Papiervorschub bzw. Zeitachse von 30 mm/s, mit einer Zeitkonstanten von 0,3 s (entspricht einem Hochpass mit einer Grenzfrequenz von 0,53 Hz) und einer oberen Grenzfrequenz von 70 Hz registriert. Nur in begründeten Fällen sollte hiervon abgewichen werden. Auf den Gebrauch eines Netzfilters von 50 Hz sollte verzichtet werden.
11
144
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
⊡ Tab. 11.2. Übersicht und Eigenschaften von klinisch verwendeten EEG-Montagen
I
Montagen oder Ableitprogramme
Belegung des Differenz-Verstärkers
Charakteristische Eigenschaften
unipolare oder Referenzableitungen gegen eine Referenz
aktive Elektrode mit negativer Polarität gemeinsame Referenzelektrode am Scheitel oder am Ohr Erdelektrode an Stirn
gemeinsame Potentialanteile werden hervorgehoben bessere Darstellung von generalisierter Aktivität Amplituden und Phasen gut erkennbar und untereinander vergleichbar
Referenzableitungen gegen gemittelte Referenzen – common average
aktive Elektrode mit negativer Polarität gemittelte Referenz aus dem Summensignal aller Elektroden Erdelektrode an Stirn oder Ohrläppchen
s. oben, jedoch sind die gemeinsamen Potentialanteile nicht mehr deutlich hervorgehoben günstig bei artefaktbehafteten Signalen
bipolare Ableitungen wie Querreihen, Längsreihen, Zirkumferenzen etc.
zwei benachbarte aktive Elektroden nebeneinander Erdelektrode an Stirn oder Ohrläppchen
Potentialunterschiede zwischen den Elektroden werden hervorgehoben bessere Darstellung von fokaler Aktivität Gradient unmittelbar vergleichbar
Quellenableitungen – spezielle unipolare Montage mit speziell gemittelten und gewichteten Referenzen
einzelne aktive Elektrode, hier »Quelle« genannt gemittelte Referenz aus dem gewichteten Summensignal aller Elektroden, die um die aktive Elektrode (=Quelle) herum angeordnet sind Erdelektrode an Stirn oder Ohrläppchen
fokale Aktivitäten werden besser hervorgehoben Amplituden und Phasen bleiben gut vergleichbar
⊡ Abb. 11.15. Beispiele für EEG-Schaltungen für ein 16-kanaliges EEG-Gerät
145 11.2 · Elektroenzephalograph
Die konkrete Verschaltung der Elektroden hängt von der Zahl der Registrierkanäle ab. Für ein 16-Kanalgerät sind in der ⊡ Abb. 11.15 Beispiele angegeben.
Provokationsmethoden Häufig werden in der Routinediagnostik Fotostimulation und Hyperventilation als Aktivierungs- oder Provokationsmethode eingesetzt. Eine sehr einfach durchzuführende Provokationsmethode ist die Hyperventilation. Der Patient wird aufgefordert, seine Atmung für die Dauer von 3 min in Frequenz und Amplitude zu steigern, d. h. regelmäßig und tief mit etwa 30 Atemzügen pro Minute zu atmen. Für die 3-minütige Hyperventilation sind die Potentiale in erster Linie aus frontalen, zentralen, okzipitalen und mittleren temporalen Hirnregionen abzuleiten. Die Fotostimulation wird in einem abgedunkelten Raum mit einem Fotostimulator durchgeführt. Die Stärke der Lichtblitze und ihre Frequenz sollte einstellbar sein. Die Fotostimulation ist standardisiert durchzuführen. Die Blitze sind jeweils mindestens 10 s zu applizieren. Die Ableitung erfolgt bei geschlossenen Augen. Während der 2-minütigen Fotostimulation sollten besonders die frontopolaren, frontalen und okzipitalen Hirnregionen erfasst werden. Weitere routinemäßig durchzuführenden Aktivierungsmethoden sind der Schlafentzug (durchwachte Nacht) oder Schlafableitungen (nach Schlafentzug, Mittagsschlaf, seltener medikamentös eingeleiteter Schlaf). Die Dauer der Ableitung beträgt dabei etwa 30–60 min.
11.2.4 EEG-Ableitverfahren
Hinsichtlich der verschiedenen diagnostischen Anwendungen innerhalb der Neurologie haben sich folgende EEG-Ableitverfahren entwickelt: Routine-EEG in der neurologischen Praxis und Klinik, ambulantes 24-hLangzeit-EEG, Video-EEG, portables EEG, Schlaf-EEG und Pharmako-EEG (⊡ Tab. 11.3).
Routine-EEG EEG-Ableitungen sollten in einem ruhigen Raum durchgeführt werden Der Patient sollte auf einem bequemen EEG-Stuhl eine halb sitzende, halb liegende Position einnehmen. Kopf und Nacken müssen so entspannt wie möglich sein, um Muskelpotentiale zu vermeiden, welche die Auswertung oft erschweren. Die Ableitung erfolgt prinzipiell bei geschlossenen Augen. Die EEG-Ableitung sollte 20 min nicht unterschreiten.
Langzeit-EEG Eine Langzeit-EEG-Ableitung wird ambulant mit 8, mitunter auch mit 12 EEG-Kanälen bis zu 24 h lang durchgeführt. Ziel ist das Finden von selten auftretenden Ereignissen, die durch eine konventionelle Registrierung nicht erfasst wurden. Hierbei werden alle EEG-Rohsignale vollständig abgespeichert. Der Patient trägt entweder ein kleines, batteriebetriebenes Datenaufzeichnungsgerät bei sich oder die Daten werden telemetrisch zu einer
⊡ Tab. 11.3. Einsatzbereich, Kanalzahlen und Auswertverfahren bei den klinisch üblichen EEG-Ableitverfahren EEG-Verfahren
Einsatzbereich
Kanalzahl
Ableitdauer (Durchschnitt)
Auswertung
1. Routine-EEG
Praxis Klinik Epilepsie
8–12 16–24 19–32–64
ca. 10 min 20–30 min 20–40 min
visuell
2. Langzeit-EEG
Kliniken, als Ergänzung zum Routine EEG, z. B. bei Anfallspatienten
8–12
max. 24 h
halbautomatische, rechnergestützte Ereignissuchverfahren
3. Video-EEG
Epilepsie, auch vermehrt in Kliniken
19–24
10–60 min, ereignisabhängig
EEG-Signale direkt synchronisiert mit Videobild des Patienten
4. Portables EEG
ambulante Registrierung auf Intensivstation, in der Inneren Medizin und zur Hirntodbestimmung
8–12
10–30 min, auch 1–2 h, mit Darstellung aller EEG-Signale
visuell, bei Hirntodbestimmung, zusätzliche Anforderungen an die Auflösungsgenauigkeit
5. Schlaf-EEG
Schlafstörungen neurologisch-psychiatrischen Ursprungs
12–24 mit Polygraphie
mindestens 8 Nachtstunden
halb- und automatische Schlafstadienerkennung
6. Pharmako-EEG
Medikamentenstudien
12–24
20–30 min, abhängig vom Studienziel
EEG-Mapping, computergestützte Frequenzanalysen
11
146
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Auswertstation übertragen. Alle physiologischen Artefakte wie Sprechen, Kauen, Essen etc. werden dabei mit aufgezeichnet, was eine Menge artefaktbehafteter Signalabschnitte erzeugt und die Interpretation des EEG zusätzlich erschwert.
Pharmako-EEG Ein Spezialgebiet ist die Ableitung des EEG zur Erfassung des Einflusses von Medikamenten auf die Funktion des zentralen Nervensystems (Pharmako-EEG). Hier geht es insbesondere um die Feststellung gleicher oder ähnlicher Veränderungen im EEG bei verschiedenen Probanden. Dabei haben sich unterschiedliche Analyseverfahren bewährt, wie bspw. das Mapping. Mit Hilfe der Frequenzanalysen können problemlos statistische Berechnungen mit den entsprechend quantifizierten Wellenanteilen über die gesamte Ableitdauer durchgeführt werden und die Änderungen im EEG über größere Zeiträume erfasst und quantifiziert werden.
Video-EEG Parallel zur EEG-Routineableitung wird mit einer zur EEG-Registrierung zeitsynchronisierten Videokamera das Patientenbild erfasst und gespeichert. Man verwendet dabei auch Infrarotkamerasysteme, um auch in abgedunkelten Räumen ein Videobild des Patienten aufzeichnen zu können. Die Verbindung von Computer-EEG und Video macht die Synchronisation beider Signale bis auf wenige Millisekunden möglich. Die EEG-Daten laufen in optimaler Auflösung und Flimmerfreiheit synchron zum Videobild über den PC-Monitor und können sogar in andere Montagen umgeschaltet werden. Von besonderer Bedeutung ist das Video-EEG für die Epilepsiediagnostik. Aus dem Videobild kann der Auswerter erkennen, wann und wie ein möglicher epileptischer Anfall beginnt. In Verbindung mit dem zugehörigen EEG ist es ihm möglich, bei einer fokalen Epilepsie den Fokus bzw. den Ausgangspunkt einer epileptischen Aktivierung zu lokalisieren. Die aktuelle Aufnahmezeit kann als Suchkriterium eingegeben werden. So können gleichzeitig beide Informationen dargestellt werden.
Schlaf-EEG Bei neurologisch-psychiatrischen Schlafstörungen wird zu diagnostischen Zwecken das EEG während des Nachtschlafs mindestens 8 h lang aufgezeichnet. Zur Erstellung eines Schlafprofils mit der dazugehörigen Schlafstadienbestimmung sind jedoch noch weitere polygraphische Kanäle notwendig: Augenbewegungen über das EOG, Muskeltonus aus dem Oberflächen-EMG am Kinn, EKG, Atmung und Atemanstrengung. Eine Videoüberwachung des Schlafenden ist häufig üblich.
Portables EEG EEG-Ableitungen auf der Intensivstation sowie Hirntodbestimmungen setzen eine handliche, möglichst kompakte EEG-Einheit voraus. Für die Hirntodbestimmung hat die Deutsche Gesellschaft für Klinische Neurophysiologie spezielle Anforderungen an die eingesetzten Geräte gestellt: Registrierung mindestens 30 min unter Verwendung auch des doppelten Elektrodenabstandes, 0,53–70 Hz Bandbreite, Empfindlichkeit 2 µV/mm, mindestens 8 Kanäle.
11.2.5 Auswertung/ Signalanalyse
EEG-Signalanalyse In Ergänzung zur visuellen Auswertung des EEG durch einen Facharzt hat sich aufgrund der Datenfülle der EEGSignale eine computerisierte Auswertung durchgesetzt. Hier sind insbesondere Frequenzanalyse und die Detektion definierter Merkmale im EEG hilfreich. Eine weitere Methode der EEG-Analyse ist die Dipolanalyse des EEG, das ein räumlich-zeitlich zugeordnetes Dipolmodell für EEG und evozierte Potentiale liefert. Hier wird die Lokalisation möglicher Quellen bioelektrischer Aktivität bestimmt. Die Autokorrelationsfunktion des EEG liefert zum einen die im Signal dominierende Frequenz einer EEG-Epoche, zum anderen ist ihr Abfall ein Maß für die Stochastik des EEG. Die Kreuzkorrelationsfunktion wird zur Bestimmung einer gemeinsamen Frequenz in zwei verschiedenen EEG-Epochen, z. B. zwischen zwei Ableitkanälen, eingesetzt. Auch die zeitvariante Spektralanalyse, die für jede einzelne Welle im EEG Amplitude und Frequenz bestimmt und dies als dreidimensionale Häufigkeitsverteilung darstellen kann, sei hier erwähnt. In der ⊡ Abb. 11.16 ( auch 4-Farbteil am Buchende) sind einige Beispiele für eine Signalanalyse zusammengefasst dargestellt.
Nachträgliche Remontage von Kurvenabschnitten Für die Bewertung des EEG und die Lokalisation pathologischer Wellenformen ist es sehr hilfreich, einen bestimmten Kurvenabschnitt mit verschiedenen Schaltungen oder Montagen auswerten zu können. Die Möglichkeit, denselben Kurvenabschnitt unter verschiedenen »Blickwinkeln« betrachten zu können, gibt dem Arzt die Chance, die zur Befundung optimale Montage zu finden.
Topographische Darstellung der Amplituden- und Frequenzverteilung Das Ergebnis einer topographischen Darstellung des EEG ist das zweidimensionale, farbige Bild (Map) der über der Schädeloberfläche verteilten Hirnaktivität. Häufig werden
147 11.2 · Elektroenzephalograph
⊡ Abb. 11.16. Beispiele für eine Signalanalyse
die Amplituden, Frequenzen und das Leistungsspektrum aus der Frequenzanalyse topographisch dargestellt. Hierfür werden die Signalamplituden zwischen den durch Elektroden bestimmten Ableitpunkten durch Interpolation berechnet. Die Amplituden der so gewonnenen zweidimensionalen Verteilungen werden quantifiziert und farblich codiert. Es entsteht ein farbig abgestuftes Bild der Potentialverteilung über der Schädeloberfläche. Besonders eindrucksvoll ist die Entstehung bspw. eines Fokus oder einer generalisierten Aktivität zu erkennen, wenn die Amplitudenmaps im zeitlichen Abstand von ein paar Millisekunden als Film dargestellt werden. Beim Frequenzmap wird mittels Fast Fourier Transformation (FFT) ein EEG-Signalabschnitt, dessen Amplitude eine Funktion der Zeit ist, in ein Signal gewandelt, dessen Amplitude eine Funktion der Frequenz ist. Das Ergebnis wird analog dem Amplitudenmap farbig dargestellt, wobei den unterschiedlichen Farben die möglichen Wellenfrequenzen zugeordnet sind. Aus dem mittels FFT transformierten Signal wird das Leistungsspektrum berechnet. Es gibt an, mit welcher
Leistung eine bestimmte Frequenz oder EEG-Welle im Signalgemisch enthalten ist. Die Ergebnisse werden meist in Form eines Histogramms dargestellt. Die Hüllkurve dieses Histogramms ist eine sehr übersichtliche Darstellung der Veränderungen der Frequenzanteile während der einzelnen Phasen der Ableitung, zur Abschätzung der Wirkung von Pharmaka oder während der Narkose.
Langzeit-EEG-Analyse Das große Datenaufkommen bei einer ambulanten Langzeit-EEG-Ableitung gestaltet die Interpretation dieser Daten sehr zeitaufwendig. Als Beispiel für eine derartige Analyse sei eine Software genannt, die spezielle Paroxysmen sucht, indem sie die EEG-Rohdaten hinsichtlich der Anzahl von Spitzenwerte, ihrer Fläche und ihrer Signallänge durchsucht. Das Ergebnis dieser Berechnungen ist eine komprimierte Darstellung des Langzeit-EEG, das den Betrachter wichtige paroxysmale Ereignisse im EEG von Artefakten und normalen EEG-Abschnitten problemlos unterscheiden lässt (⊡ Abb. 11.17).
11
148
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Abschließender EEG-Befund
I
Nach der visuellen Begutachtung des EEG durch den Arzt mit oder ohne Zuhilfenahme von rechnergestützten Analyseverfahren wird der Befundtext erstellt. Hierzu werden konventionelle Schreibprogramme verwendet. Der Befund wird gemeinsam mit den EEG-Signalen gespeichert und archiviert.
Artefakte im EEG Während der Ableitung können verschiedene Artefakte auftreten. Hierbei wird zwischen physiologischen und technischen Artefakten unterschieden, die möglichst sofort erkannt, klassifiziert, dokumentiert und behoben werden sollten (⊡ Tab. 11.4). Um die physiologischen Artefakte zu identifizieren, werden häufig EKG, EMG und EOG mitregistriert. In ⊡ Abb. 11.18 und ⊡ Abb. 11.19 ist jeweils ein Beispiel für physiologische Artefakte gegeben. Zum einen werden Muskelaktivitäten insbesondere in den Bereich F7, T3 und T5 eingestreut. Zum anderen wirken sich Augenbewegungen frontopolar aus und finden sich in den Ableitungen Fp1-F3 und Fp1-F7 sowie Fp2-F4 und Fp2-F8.
11.2.6 Spezielle Methoden
Elektrocorticographie (ECoG) Die Elektrocorticographie wird zur genaueren Lokalisation umschriebener Läsionen vor einem neurochirurgischen Eingriff eingesetzt. Dabei werden Elektrodenarrays unmittelbar auf den Cortex platziert. Der Vorteil liegt in der Verminderung von Gewebeschichten, die zwischen dem Entstehungsort der bioelektrischen Aktivität und dem Ableitort liegen. Die registrierten Signale weisen höhere Frequenzen auf.
Magnetenzephalographie (MEG) Jeder von einem Strom durchflossene Leiter ist gleichzeitig auch immer von einem Magnetfeld umgeben. Dies trifft auch auf erregte Nervenzellen zu. Da intrazellulär die Stromdichte größer als außerhalb der Zelle ist, lässt sich über Magnetfeldänderungen aufgrund des Aktionspotentials auf die erregte Zelle schließen. Da das Magnetfeld im Unterschied zum elektrischen Feld nicht durch Knochen- und Gewebsschichten beeinflusst, sondern nur von der Distanz zwischen Entstehungsort und
⊡ Abb. 11.17. Software zur Erkennung paroxysmaler Veränderungen im Langzeit-EEG
⊡ Tab. 11.4. Übersicht über physiologische und technische Artefakte während einer EEG-Ableitung Physiologische Artefakte
Technische Artefakte
EMG-Potentiale durch: Stirnrunzeln, Lidbewegungen, Kauen, Kopf- und Halsbewegungen
Schlechte Übergangsimpedanz der Elektroden durch: schlechten Elektrodensitz, Verrutschen der Elektroden
EKG-Spitzen oder Pulswellen temporal einstreuend
Wackelkontakt in den zuführenden Kabeln durch Bruchstellen
EOG als Augenbewegungen im frontalen EEG
50 Hz-Einstreuungen von außen
Schwitzen – als langsame Schwankungen im EEG erkennbar
Große Induktivitäten, wie benachbarte vorbeifahrende Aufzüge oder nahe gelegene Radio- oder Fernsehsender oder Privatfunk
Atembewegungen – okzipital durch Kopfbewegung im Atemrhythmus
Elektrostatisch aufgeladene Schuhe oder Kunstfaserkleidung
149 11.2 · Elektroenzephalograph
⊡ Abb. 11.18. Muskelaktivität im EEG
⊡ Abb. 11.19. Blinkartefakte im EEG
11
150
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Sensor abhängt, sind lokalisatorische Aussagen über die Quelle möglich. Aus der erfassten Magnetfeldverteilung über dem Schädel lässt sich durch Lösung des inversen Problems mit hinreichender Genauigkeit der Ort ihrer Generierung bestimmen. Damit hat die Magnetenzephalographie im Vergleich zur Elektroenzephalographie den Vorteil der Bestimmung der Quellen von markanten Aktivitäten. Sie wird daher bspw. zur Lokalisation möglicher Foki bei der fokalen Epilepsie, von funktionalen Störungen aufgrund von Raumforderungen oder des Einflusses klar bestimmbarer Faktoren auf das Zentrale Nervensystem wie z. B. Tinnitus eingesetzt. Aber auch die Lokalisation der Erregung von Nervenzellen nach spezifischen Reizen (akustisch, optisch) oder aufgrund mentaler Aktivitäten (Musik hören, denken, sprechen usw.) ist Gegenstand von Unter-
⊡ Abb. 11.20. Spulensystem eines SQUIDS (Supraleitendes Quanteninterferometer) zur Erfassung biomagnetischer Felder
suchungen. In Verbindung mit anderen Verfahren wie MRT, fMRT, PET, SPECT lassen sich so die funktionalen Strukturen des Gehirns bestimmen. Allerdings ist die Magnetenzephalographie ein noch recht aufwändiges Verfahren. Die eingesetzten Sensoren (supraleitende Quanteninterferometer, SQUIDS) sind zur Erzielung der Supraleitung an die Kühlung mit flüssigem Helium gebunden. Die ⊡ Abb. 11.20 zeigt das Spulensystem eines SQIDS.
11.3
Elektromyograph
Elektromyographen sind sehr universell einsetzbare Diagnostiksysteme. Mit ihnen kann die elektrische Aktivität von Muskel und Nerv unter verschiedenen Bedingungen abgeleitet, verstärkt und registriert werden. Die hierfür eingesetzten Verstärker zeichnen sich durch eine hohe Empfindlichkeit, eine große Eingangsimpedanz, eine variable Bandbreite und geringes Rauschen aus. Je nach Ausstattung verfügen Elektromyographen über einen elektrischen, akustischen, visuellen und magnetischen Stimulator. Der prinzipielle Aufbau eines Elektromyographen ist in der ⊡ Abb. 11.21 wiedergegeben. Ein Personal Computer (PC) ist die zentrale Steuer-, Signalverarbeitungs-, Darstellungs- und Speichereinheit eines EMG Gerätes. Er ist mit einem Festplattenlaufwerk als Datenspeicher, PC-Monitor mit Farbgraphik, Tastatur und Laserdrucker als Ausgabeeinheit ausgestattet. Die notwendigen Module wie Verstärker, Analog-/ Digitalwandler und die Reizeinheiten können im PC-Gehäuse integriert sein. Die Funktionen wie Averaging, Signalverzögerung, Programmierung der Ableitprogramme und Auswertung der Signale werden von der Software übernommen. Dabei dient der
⊡ Abb. 11.21. Blockschaltbild eines Elektromyographen mit 4 Stimulatoren (grün), 3 Ausgabegeräten (pink), je 3 Hardware- und Softwarekomponenten (blau) und dem PC als zentrale Einheit
151 11.3 · Elektromyograph
Averager der fortlaufenden Mittelwertbildung, um kleine reizbezogene Signale aus einem Signalgemisch herauszulösen. Die Verzögerungsleitung verzögert Signale, sodass Signalanteile, die vor einem Reiz liegen noch beurteilbar werden. Der Lautsprecher dient der akustischen Beurteilung der erfassten Potentiale. Dies ist zum einen für die unmittelbare Diagnostik wichtig, da einzelne myographische Signalformen charakteristische Klangbilder haben. Zum anderen dient der Lautsprecher als Feedback für den Patienten, der damit die Stärke seiner Willkürinnervation oder Entspannung einschätzen kann. EMG-Geräte finden Anwendung in ▬ niedergelassenen neurologischen Praxen als kompaktes 2-Kanal-Gerät für EMG/EP ▬ neurologischen Abteilungen von Krankenhäusern als 2-Kanal-EMG und 4-Kanal-EP-Gerät ▬ neurologischen Kliniken als 4-Kanal-EMG und als 4–8-Kanal-EP-Gerät ▬ neurologischen Rehabilitationskliniken als 2–4-Kanal-EMG/ EP-Gerät ▬ neurochirurgischen Kliniken zum intraoperativen EP-Monitoring als 4–8-Kanal-EP-Gerät ▬ neurologischen Forschungen als 8-Kanal-EMG/EPGerät ▬ Kliniken der Orthopädie während Wirbelsäulenoperationen mit 4-Kanal-SEP/MEP-Gerät ▬ der Sportmedizin ▬ der HNO als 2-Kanal-EMG-Gerät für Kehlkopf-EMG mit Spezialelektroden
Um den verschiedensten Anforderungen genügen zu können, werden die handelsüblichen EMG-Geräte modular in Systemkomponenten angeboten. Insbesondere hinsichtlich der Anzahl der Kanäle und der Anzahl und Art der Stimulatoren, Software und Speichermedien variieren sie. Die ⊡ Tab. 11.5 gibt hierfür einige Beispiele.
11.3.1 Signal
Aufgrund der mannigfaltigen Möglichkeiten eines Elektromyographen sind eine Vielzahl unterschiedlicher Signale messtechnisch erfassbar. ⊡ Tab. 11.6 gibt eine Übersicht über die verschiedenen Arten von Potentialen und Messwerten, die mit einem EMG-Gerät abgeleitet und ausgewertet werden.
11.3.2 Gerätetechnik
Elektromyographen (⊡ Abb. 11.21 und ⊡ Abb. 11.22) werden hinsichtlich ihrer Kanalzahl und Art der Stimulatoren modular zusammengestellt. Damit entstehen je nach Anforderung spezielle Ableitsysteme. Mit einem EMGGerät können eine Vielzahl von neurophysiologischen Untersuchungen durchgeführt werden, wobei jede Untersuchung verschiedene Reiz-, Ableit-, Darstellungs- und Auswertparameter hat. Diese verschiedenen Parameter sind abgespeichert und vom Anwender änderbar oder
⊡ Tab. 11.5. Elektrodenapplikation, Stimulatoren und Kanalzahl bei den verschiedenen Untersuchungen mit einem EMG-Gerät Untersuchung
Ableitung
Stimulator
Kanalzahl
Nadel-EMG
im Muskel mit Nadelelektrode, nur vom Arzt durchführbar
keiner
1 Kanal
Elektroneurographie und Reflexe
meist Oberflächenelektroden zum Reizen und Ableiten
elektrischer Stimulator zur sensiblen und motorischen Reizung
2 Kanal
Neuromuskulärer Übergang
Oberflächenelektroden zum Reizen und Ableiten
elektrischer Stimulator mit Serienreizung
1 Kanal
VEP – Visuell Evozierte Potentiale
Oberflächenelektroden am Kopf zum Ableiten
Monitor mit Schachbrettmusterumkehr, Streifen, Balken, farbige Stimulation
Praxis: 1 Kanal Neurologie: 1–3 Kanäle Augenklinik: 1–5 Kanäle
AEP – Akustisch Evozierte Potentiale
Oberflächenelektroden am Kopf zum Ableiten
Kopfhörer mit Click, frequenzspezifischen Bursts etc.
Praxis: 1 Kanal Neurologie: 1–2 Kanäle HNO: 2–4 Kanäle in der Audiologie
SEP – Somatosensibel Evozierte Potentiale
Oberflächenelektroden zum Reizen und Ableiten
elektrische Serienreize an Händen oder Füßen
Praxis: 1–2 Kanäle Klinik: 1–4 Kanäle auch 4–8 Kanäle
MEP – Motorisch Evozierte Potentiale
Oberflächenelektroden an Hand oder Fuß zum Ableiten
Magnetstimulator mit Spulen zur kortikalen Reizauslösung
1 Kanal
11
152
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
⊡ Tab. 11.6. Signalgrößen und Messwerte der verschiedenen Untersuchungen mit einem EMG-Gerät
I
Untersuchungen
Signalamplituden
Analysezeit
Messwerte
Nadel-EMG: Spontanaktivitäten Leichte Innervation Maximalinnervation
20–500 μV 200 μV–2 mV 500 μV–5 mV
100 ms 100 ms 1s
Potentialdauer Amplitude Entladefrequenz
Elektroneurographie: motorische NLG sensible NLG etc.
10 mV 50–100 μV
20 ms 10 ms
VEP – Visuell Evozierte Potentiale
50–100 μV
200 ms
Latenzen und Amplituden
AEP – Akustisch Evozierte Potentiale: Hirnstammpotentiale ▬ frühe AEP ▬ mittlere AEP ▬ späte AEP
0,1–0,5 μV 20–100 μV 100–500 μV
10 ms 100 ms 0,5–1 s
Latenzen Latenzdifferenz Amplituden
SEP – Somatosensibel Evozierte Potentiale: Armstimulation Beinstimulation
20–100 μV 10–100 μV
100 ms 200 ms
Latenzen Latenzdifferenz Amplituden
MEP – Motorisch Evozierte Potentiale: Armableitung
5–10 mV
10 ms
motorische und sensible Nervenleitgeschwindigkeit, distale Latenzen
Latenzen Amplituden zentrale Überleitungszeit
Elektroden
⊡ Abb. 11.22. 4-Kanal-EMG-Gerät mit integriertem Stimulator. Die Nervenleitgeschwindigkeit kann durch elektrische Stimulation der motorischen Nerven und bipolarer Ableitung von Muskelantwortpotentialen mit Oberflächenelektroden bestimmt werden
neu erstellbar. So kann die Anzahl der Ableitprogramme je nach Ausbaustufe des Gerätes von 20–40 variieren. Kernstück ist ein PC, von dem aus die Untersuchungen gesteuert, die Signale verarbeitet, dargestellt und vermessen sowie abgespeichert und ausgedruckt werden. Für die Darstellung der Signale gilt auch hier die internationale Konvention, nach der die Signale mit negativer Polarität mit einem Ausschlag nach oben dargestellt werden.
Die Standardnadel in der Elektromyographie ist die konzentrische Nadelelektrode. In einer Stahlkanüle befindet sich – von einer Isolierschicht (Araldit) umgeben – eine Platinseele. Verstärkt wird die Potentialdifferenz zwischen dem als indifferente Elektrode dienenden Stahlmantel und der differenten Platinseele. Die Elektroden sind meist 2–6 cm lang und 0,3–0,6 mm dick. Ihre Verwendung richtet sich nach der Größe des zu untersuchenden Muskels. In einigen Fällen werden auch bipolare Nadelelektroden verwendet. Dort befinden sich 2 Nadelseelen dicht nebeneinander. Notwendig ist eine zusätzliche Erdung über eine Erdelektrode, die an der entsprechenden Extremität angebracht wird. Bei der Neurographie und den SEP werden Reiz- und Ableitelektroden benötigt. In beiden Fällen handelt es sich meist um Oberflächenelektroden, zwischen denen eine Erdelektrode anzubringen ist. Nur in seltenen Fällen wird in der Klinik mit Nadelelektroden gereizt und abgeleitet. Diese Nadeln werden paarweise – eine nervennahe und eine nervenferne – appliziert, in diesem Fall erhält man größere und ausgeprägtere Potentiale. Bei den evozierten Potentialen werden in der klinischen Routine Oberflächennapfelektroden am Kopf verwendet, die ähnlich wie EEG-Elektroden angebracht werden. Nur beim intraoperativen Monitoring werden kleine Platinnadelelektroden verwendet. Die ⊡ Abb. 11.23 zeigt eine Übersicht über verschieden Elektrodentypen.
153 11.3 · Elektromyograph
⊡ Abb. 11.23. Elektroden für die Elektromyographie
Verstärker
Stimulatoren
Der für einen Elektromyographen eingesetzte Verstärker ist ein Differenzverstärker mit einem großen Aussteuerungsbereich und einem breiten Frequenzbereich. Pro Kanal gibt es 3 Eingangsbuchsen für den invertierenden und den nichtinvertierenden Eingang sowie für die Erdung. Eine Impedanzmessung der Übergangswiderstände ist vorzusehen, empfiehlt sich aber nur bei Verwendung von Oberflächenelektroden, wie bspw. bei der Ableitung von evozierten Potentialen. Typische technische Daten eines EMG/EP-Kombinationsgerätes sind: ▬ Verstärkerkanäle: 2–4–8 ▬ Vorverstärker: mit optisch isolierten Eingängen, Patientenanschluss über Headbox ▬ Eingangsimpedanz: >200 MΩ ▬ Gleichtaktunterdrückung: >100 dB ▬ Empfindlichkeit: 1–500 μV, 1–10 mV in 14 Stufen einstellbar ▬ Rauschen: <2 μVeff ▬ Hochpass: 1–10–30–50–100–300–500 Hz mit wenigstens 12 dB/Oktave ▬ Tiefpass: 30–100–200–500 Hz, 1,5–2,5–5–10–20 kHz mit wenigstens 12 dB/Oktave ▬ Triggerlevel: per Reizsignal oder EMG-Signal mit kontinuierlich einstellbarer Amplitude oder Fenstertrigger ▬ Averager: 1–4000 Mittelungsschritte ▬ Artefaktunterdrückung: anwählbar, einstellbar ▬ Reizeinheiten: elektrisch, visuell, akustisch, magnetisch ▬ Monitor: 11''-, 14''- oder 17''-Monitor mit der Möglichkeit einer kaskadenförmigen Darstellung mit bis zu 32 Signalspuren pro Bildschirm ▬ Zeiteinheit: 2 ms–10 s Analysezeit pro Monitorbild, einstellbar in 10–15 Stufen ▬ Lautsprecher: 2-Kanal zum Anhören der EMG-Signale während der Ableitung mit Lautstärkeregler
Die Möglichkeiten des Elektromyographen werden für die Neurographie und die Ableitung der evozierten Potentiale durch die Stimulatoren bestimmt. Für unterschiedliche Stimulatoren sind in der Übersicht typische Werte angegeben.
Typische Werte unterschiedlicher Stimulatoren Elektrischer Stimulator
▬ Reizart: stromkonstanter Stimulator ▬ Reizintensität: von 0,1–99 mA kontinuierlich einstellbar
▬ Reizdauer: 100–200–500 µs ▬ Reizfrequenz: 0,1–99 Hz ▬ Reizprogramme: Einzel-, Doppel-, Serien-verzögerter Einzel, Doppel und Serie, randomisierter Reiz
Akustischer Stimulator
▬ Reizart: Click mit 50–100–200–500 ms Dauer Ton▬ ▬ ▬ ▬
Burst, frequenzspezifisch mit Plateaudauer von 100 ms–1 s, Anstiegs- und Abfallzeit 1 ms–250 ms Reizintensität: Click: 10–130 dB SPL (»sound pressure level«) für Neurologie; Burst: 10–110 dB SPL nur für HNO-Audiologie Masking: kontralaterales weißes Rauschen von 10–110 dB einstellbar Polarität: Sog, Druck, Sog/Druck alternierend Reizseite: links, rechts, beidseitig
Visueller Stimulator
▬ TV-Monitor: 17'' mit Schachbrettumkehrstimulation und verschiedenen Schachbrettgrößen und Steady-state-Funktion; Ganzfeld, Halbfeld und Quadrantenstimulation mit zu- und abschaltbarem Fixierpunkt
▼
11
154
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
▬ LED-Goggles: zur Flash-Stimulation bspw. bei Be-
I
wusstlosen auf der Intensivstation oder im OP beim intraoperativen Monitoring ▬ LED-Pattern: Goggles mit Musterstimulation ▬ Ganzfeldstimulator: für elektro-ophthalmologische Anwendungen zur Stimulation von Augenbewegungen
Magnetstimulator für motorisch evozierte Potentiale
▬ Reiz: monophasisch mit 100 µs, Anstiegszeit 1 ms Dauer
▬ Trigger: programmierbarer positiver und negativer TTL-Pegel für Ein- und Ausgang, mit Fußschalter auslösbar ▬ Magnetische Flussdichte: 90 mm Hochleistungsspule 2T 70 mm Doppelspule 2,2 T 120 mm gekrümmte Doppelspule 1,6 T 40 mm kleine Spule 4,1 T 70 mm mittlere Spule 2,6 T
▬ ▬ ▬ ▬
Einstichaktivität, Muskel in Ruhe, Muskel mit leichter Willkürinnervation, Muskel mit maximaler Willkürinnervation.
Beispiele von Muskelaktionspotentialen eines gesunden Muskels sind in ⊡ Abb. 11.25 dargestellt. Werden in einer Nadelposition Hinweise auf pathologische Veränderungen im Muskel gefunden, muss dieses Ergebnis in anderen Stellen des Muskels verifiziert werden. Man verändert die Nadelposition durch tieferes Einstechen in oder durch Herausziehen aus dem Muskel. In jedem Fall muss mindestens ein weiterer Einstich im gleichen Muskel durchgeführt werden. Kann der zweite Einstich keine eindeutige Reproduzierbarkeit der pathologischen Veränderung zeigen, muss nochmals gestochen und in verschiedenen Nadelpositionen abgeleitet werden. Gespeichert und/oder ausgedruckt werden ausschließlich pathologische Potentiale zum Zweck der Dokumentation und des Vergleichs.
Einstich- und Spontanaktivität 11.3.3 Elektromyographie (EMG)
Das Ziel einer elektromyographischen Ableitung ist es, eine Aussage über Muskelschädigungen treffen zu können. Von Bedeutung ist die Frage, ob die Muskelschädigung oder Läsion auf einen myogenen oder neurogenen Krankheitsprozess zurückzuführen, d. h. ob der zuführende Nerv oder Muskel betroffen ist. Muskelaktionspotentiale werden mit konzentrischen Nadelelektroden abgeleitet (Nadelmyographie). Es handelt sich dabei um extrazelluläre Ableitungen aus dem aktivierten Muskel. Muskelsummenpotentiale, die mit Hilfe von Oberflächenelektroden über dem Muskelbauch abgeleitet werden, haben jedoch in der EMG-Diagnostik nur geringe Bedeutung. Nach einer gründlichen klinischen Untersuchung entscheidet der Arzt, welche Muskeln und/oder Nerven zu untersuchen sind. Da die EMG-Untersuchung aufgrund der Nadelelektrode eine invasive Untersuchung ist, muss der Arzt die EMG-Nadel setzen. Es gibt kein für alle Patienten gültiges Routinevorgehen. Eine Indikation für eine EMG-Ableitung liegt vor bei ▬ der Differenzierung von neurogenen oder myogenen Schädigungen (Läsionen oder Lähmungserscheinungen), ▬ Muskelschwäche und Bewegungsstörungen mit oder ohne Muskelschwund (Atrophie), ▬ auffälligen Ermüdungserscheinungen und neuromuskulären Überleitungsstörungen. Eine Nadel-EMG-Untersuchung gliedert sich immer in 4 Phasen:
Im Zusammenhang mit dem Einstich der Nadel in den Muskel kann es zu einem kurzzeitigen Auftreten von Muskelaktivität, der Einstichaktivität, kommen. Über den Lautsprecher hört der Arzt, ob während des Einstichs normale Verletzungspotentiale erzeugt werden oder ob im Muskel durch besonders lang anhaltende Einstichpotentiale schon eine Schädigung vermutet werden kann. Nach dem Einstich befindet sich ein gesunder Muskel in einem Zustand »elektrischer Ruhe«. Finden sich bei entspannten Muskeln jedoch Potentiale wie Fibrillieren, Faszikulieren oder Positive Scharfe Wellen, ist das ein erster Hinweis auf einen pathologischen Zustand des neuromuskulären Apparates. Diese Potentiale werden Spontanaktivitäten genannt (⊡ Abb. 11.24). Sie weisen eine auffallend gleichmäßige Entladungsfrequenz auf. Treten sie auf, werden sie ohne weitere Ausmessung registriert und gespeichert.
Willkürinnervation Zur Bewertung des Innervationsmusters bei leichter Willkürinnervation (⊡ Abb. 11.25) muss der Patient den Muskel so leicht anspannen, dass einzelne elektrische Entladungen zu sehen und zu hören sind. Es ist darauf zu achten, dass die Potentiale nadelnah abgeleitet werden. Dies ist am hellen Knacken der Entladungen zu hören und an den steilen Potentialen zu erkennen. Die Nadel sollte sich idealerweise im Bereich einer motorischen Einheit befinden. Im Fall von pathologischen Veränderungen wird gefordert, Potentiale von bis zu 20 verschiedenen motorischen Einheiten zu speichern und miteinander zu vergleichen (Buchthal-Analyse).
155 11.3 · Elektromyograph
⊡ Abb. 11.24. Spontanaktivität, abgeleitet mit Nadelelektroden aus dem Adduktor pollicis einer 57- jährigen Patientin
⊡ Abb. 11.25. Muskelpotentiale bei leichter Willkürinnervation des M. extensor digitorum brevis einer 50-jährigen Patientin, abgeleitet mit Nadelelektroden
11
156
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Muskelpotentiale bei maximaler Willkürinnervation sind bei starker willkürlicher Anspannung des Muskels erzeugbar und können als Interferenzmuster registriert werden. Es stellt sich als Bild dichter Potentiale mit hoher Amplitude dar. Ein gesunder Muskel weist ein sehr dichtes Muster auf. Ein Muskel mit pathologischen Veränderungen zeigt ein gelichtetes Muster mit unterschiedlichen Amplituden. Bei neurogenen Störungen gibt es wenige, aber hohe Amplitudenspitzen und bei myogenen Störungen ein dichtes Muster, aber mit kleiner durchschnittlicher Amplitude.
Einzelfasermyographie Mit einer Einzelfaserelektrode können einzelne Muskelfasern innerhalb einer motorischen Einheit untersucht werden (Single fibre EMG). Der aktive Platindraht hat einen Durchmesser von 25 mm. Die Ableitstelle befindet sich nicht an der Nadelspitze, sondern im Nadelschaft, um zu vermeiden, dass Potentiale von Fasern abgeleitet werden, die durch den Einstich beschädigt wurden. Die Einzelfaserpotentiale werden bei leichter Willkürinnervation abgeleitet und über eine Analysezeit von 5 ms dargestellt. Hierbei werden oft 2 Kanäle verwendet; im ersten Kanal betrachtet man die erfassten Potentiale und stellt diese signalgetriggert und superponiert im zweiten Kanal dar. So lässt sich der Jitter bestimmen, ein Maß für die Variabilität des Entladeverhaltens der Muskelfaser. Mit dem Einzelfaser-EMG lässt sich auch die Faserdichte einer motorischen Einheit bestimmen.
Averagers lassen sich die so selektierten Potentiale mitteln, automatisch vermessen und abspeichern, bis die notwendige Anzahl von maximal 20 MUP bei unterschiedlichen Nadelpositionen erreicht ist. Hiermit ist es auch möglich, die Entladefrequenz der untersuchten motorischen Einheit sowie ihr Rekrutierungsverhalten zu quantifizieren. Offline-Mustererkennung. Eine weitere Methode ist das
Abspeichern von 1–3 s kontinuierlicher MUP. Nach der Speicherung markiert der Untersucher manuell ein Potential (Template), das er mit Hilfe einer Mustererkennungssoftware im abgespeicherten Abschnitt automatisch suchen lässt. Auch die Messwerte werden automatisch ermittelt. Dieses Verfahren der nachträglichen Analyse eines MUP-Signalabschnitts kann auch mit Mustererkennungsalgorithmen durchgeführt werden, die selbstlernend und automatisch wiederkehrende Potentiale finden, mitteln und vermessen. Hierbei handelt es sich um eine Offline-Analyse, die mehrfach nachträglich mit neuen Vorgaben wiederholt werden kann. Dekomposition-EMG. Hierbei handelt es sich um eine
in den USA verwendete Methode, die EMG-Potentiale bei mittlerer Innervation einem aufwändigen mathematischen Algorithmus zu unterziehen, der alle gleichen Potentialkomponenten nach dem Template-Verfahren herausnimmt, um sie zu vermessen. Die nicht wiederkehrenden Potentialanteile bleiben unberücksichtigt. Analyse der Muskelpotentiale nach maximaler Willkürinnervation. Die Analyse beinhaltet die Qualifizierung des
EMG-Signalanalyse/Auswertung Pathologische Einstichaktivität und Spontanaktivitäten werden nicht gesondert analysiert. Ihr Auftreten wird registriert und gespeichert. Die Signale der motorischen Einheiten (MUP, motor unit potential) werden hinsichtlich Signalamplitude, Potentialdauer, Polyphasie und Entladefrequenz beurteilt und mit Normwerten verglichen. Diese sind für jeden Muskel unterschiedlich. Um einen Vergleich zu den Normwerten anstellen zu können, müssen die EMG-Potentiale quantifiziert werden. Eine so große Anzahl wie 20 verschiedene Potentiale motorischer Einheiten speichern und vermessen zu können, ist zwar sehr aussagekräftig, aber für die klinische Routine auch aufwändig. Daher gibt es eine Reihe von verschiedenen Analyseverfahren. Ihnen ist gemeinsam, dass das Ergebnis eine Übersicht über die Signale verschiedener motorischer Einheiten mit ihren Messwerten darstellt.
Interferenzmusters in einem Turn-/Amplitude-Schaubild. Dort werden die Anzahl der Umkehrpunkte über ihrer mittleren Amplitude aufgetragen. In diesem Graphen sind Normwertbereiche für die speziellen Muskeln eingetragen und ein von der Norm abweichendes Potentialmuster wird als ein außerhalb des Normbereichs liegender Punkt dargestellt. Insgesamt sind 10 EMG-Abschnitte bei Maximalinnervation mit einer Dauer von mindestens 1 s EMG in verschiedenen Nadelpositionen zu berücksichtigen. Diese EMG-Auswertung hat insbesondere in der klinischen Routine Anwendung gefunden, da sie außerordentlich schnell, einfach und übersichtlich ist. Computersysteme, die mit einer Datenbank für Patientendaten und Normwerte ausgerüstet sind, vergleichen die Messwerte mit den Normwerten sofort. Das ermöglicht dem Arzt auch, Muskeln zu untersuchen, die ihm nicht so geläufig sind. Dies ist insbesondere für klinische Anwendung von Bedeutung.
Online-Mittelung von MUP. Bei der Potentialsuche hilft ein
einstellbarer Amplituden- oder ein Fenstertriggerpegel, um Potentiale mit ähnlicher Größe darzustellen. Automatisch kann dabei die Steilheit der Potentiale vermessen werden, um so sicherzustellen, dass die Nadel nahe bei der motorischen Einheit, d. h. optimal positioniert ist. Mit Hilfe eines
11.3.4 Elektroneurographie (ENG)
Elektroneurographie ist die Stimulation, Ableitung und Registrierung von entlang motorischer oder sensibler
157 11.3 · Elektromyograph
⊡ Abb. 11.26. Schema zur Bestimmung der motorischen Nervenleitgeschwindigkeit (NLG) des N. medianus. Gereizt wird in der Ellenbeuge, neben der Sehne des M. biceps brachii, und am Handgelenk
medial der Sehne des M. palmaris longus. Die Ableitung kann mit Oberflächenelektroden über dem M. flexor pollicis brevis erfolgen
peripherer Nerven fortgeleiteten Erregungen. Ein wichtiges Ergebnis dieser Untersuchung ist die Nervenleitgeschwindigkeit von motorischen und sensiblen Nerven. Ebenso gehören Untersuchungen verschiedenster Reflexe, die Prüfung der Ermüdbarkeit des Muskels und die Beurteilung der neuromuskulären Übertragung zu den Untersuchungen der Elektroneurographie. In den meisten Fällen wird mit Oberflächenelektroden, selten mit Nadelelektroden, gereizt und abgeleitet. Zur Verminderung des Einflusses eines Reizartefaktes durch den elektrischen Reiz auf das zu erfassende Signal ist zwischen Reiz- und Ableitelektrode die Erdelektrode zu platzieren. Eine automatische Reizartefaktunterdrückung kann zusätzlich eingesetzt werden. Ziel einer neurographischen Untersuchung ist die Diagnose von motorischen und/oder sensiblen Leitungsstörungen in peripheren Nerven. Oft wird die elektromyographische von einer neurographische Untersuchung ergänzt. Jede einzelne dieser möglichen Untersuchungen verfügt über eigene Reizprogramme, Ableitparameter und Auswertschemata. Der Anwender kann diese erstellen, aufrufen und verändern.
Nervenleitgeschwindigkeit (NLG) Die häufigste Untersuchung der Elektroneurographie ist die Bestimmung der Nervenleitgeschwindigkeit (⊡ Abb. 11.26, auch 4-Farbteil am Buchende). Unterschieden werden die motorische und die sensible Nervenleitgeschwindigkeit. Zur Bestimmung der NLG wird nach v=Δs/t eine Wegdifferenz und eine Zeitdifferenz benötigt. Dazu reizt man die peripheren Nerven an zwei verschiedenen Stellen mit elektrischem Strom und misst die Latenzen zwischen dem Beginn des Reiz- und des jeweiligen Antwortsignals. Man nennt die beiden Reizorte und Latenzen distal (entfernt) und proximal (körpernah), bezogen auf die Körpermittellinie. Die klinische Indikation für eine NLG-Messung sind Klagen der Patienten über Gefühlsstörungen oder Schmerzen in den Extremitäten, wie z. B. bei Nervenkompressionssyndromen. Ein häufiges Beispiel dafür ist das Karpaltunnelsyndrom (N. medianus) im Handgelenk und das Solcus Ulnaris Syndrom (N. ulnaris) in der Ellenbeuge. Die NLG ist abhängig von der Beschaffenheit des Nervs, vom Alter und der Hauttemperatur, sie verändert sich im Mittel pro 1°C um 2 m/s. Die am häufigsten untersuchten
11
158
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
motorischen Nerven sind im Arm N. medianus und N. ulnaris und im Bein N. tibialis und N. peroneus. Die Reizung und Ableitung erfolgt mit Oberflächenelektroden. Bei der Bestimmung der motorischen NLG am Nervus medianus wird mit einer Oberflächenreizelektrode am Nervenpunkt in der Nähe des Handgelenks und in der Armbeuge supramaximal gereizt. Supramaximal bedeutet, dass eine Erhöhung der Reizamplitude keine Amplitudenerhöhung des Antwortpotentials mehr erzeugt. Die entstehenden Reizströme für den supramaximalen Reiz können je nach Beschaffenheit der Oberhaut Werte von 10–30 mA haben. Abgeleitet werden beide Antwortpotentiale über dem Daumenballenmuskel (Thenar) mit Oberflächen-Ableitelektroden. Typische Normalwerte für die NLG des N. medianus liegen um 50 m/s bei einer Hauttemperatur von 35°C. Auch die absolute distale Latenz hat eine diagnostische Bedeutung, ihr Normwert liegt beim N. medianus bei 4,3 ms (⊡ Abb. 11.27). Zur Bestimmung der sensiblen NLG geht man analog zur motorischen vor. Da sich die Erregung der Reizstelle in beide Richtungen fortsetzt, kann zwischen einer orthodromen (in physiologischer Richtung) und einer antidromen (entgegen der physiologischen Ausbreitungsrichtung) Methode unterschieden werden. Bei der orthodromen Methode wird distal am Finger oder Zeh gereizt und proximal am Handgelenk und in der Ellenbeuge bzw. am Fußgelenk, und in der Kniebeuge (in Richtung der physiologischen sensiblen Nervenfortleitung) abgeleitet. Die Ableitung erfolgt von beiden Ableitorten gleichzeitig, d. h. es handelt sich immer um eine 2-Kanal-Registrierung. Bei der antidromen Methode reizt man an den gleichen Stellen wie bei der motorischen NLG, jedoch mit wesentlich geringerer Reizstärke.
⊡ Abb. 11.27. Antwortpotentiale und Bestimmung der motorischen Nervenleitgeschwindigkeit beim N. medianus einer 27-jährigen Probandin
Reflexuntersuchungen Zur Elektroneurographie gehören auch Untersuchungen der verschiedenen Reflexe: T-Reflex, auslösbar unterhalb der Kniescheibe, H-Reflex, F-Welle oder Blinkreflex. Bei Reflexuntersuchungen werden vor allem die Latenzen, also die Zeit zwischen dem Reiz bis zur Reizantwort, bestimmt. Der Reflexbogen ist eine neuronale Verschaltung des reflektorischen Erregungsablaufs. Dieser geht von den reizaufnehmenden Rezeptoren (z. B. Muskelspindeln, Hautrezeptoren) über den afferenten Schenkel zum spinalen oder zentralen Reflexzentrum. Unter Zwischenschaltung eines oder mehrerer zentraler Neurone (monosynaptischer oder polysynaptischer Reflex) verläuft die Erregung über den efferenten Schenkel zum Erfolgsorgan (z. B. Muskel). Je nachdem, ob Rezeptor und Erfolgsorgan zusammengehören, unterscheidet man Eigenreflexe (z. B. T-Reflex) und Fremdreflexe (z. B. Blinkreflex). Die Ableitung des Blinkreflexes (⊡ Abb. 11.28) gestattet Aussagen über die Funktion einzelner Kerngebiete im Hirnstamm. Es wird über einem Auge elektrisch gereizt und an beiden Augenwinkeln gleichzeitig abgeleitet. Man erhält zwei Reizantworten R1 und R2. Ipsilateral tritt eine frühe und eine späte Antwort auf; kontralateral nur die späte Antwort R2.
Vegetative Parameter Die objektivierbare Beurteilung von Störungen des vegetativen Nervensystems von außen kann nur indirekt erfolgen. Zwei Bespiele, die Ableitung der sympathischen Hautantwort und die Erfassung der Herzfrequenzvariation, seien hier genannt. Die sympathische Hautantwort (⊡ Abb. 11.29) ist ein großamplitudiges Potential, das nach unerwarteter Stimu-
159 11.3 · Elektromyograph
lation, z. B. zwischen der Handober- und Handunterseite, erfassbar ist. Es ist auf die Veränderung des Hautleitwertes infolge einer Aktivierung der Schweißdrüsen zurückzuführen und lässt sich am ganzen Körper finden. Die Ableitung der sympathischen Hautantwort kann zur Erfassung einer Schädigung des vegetativen Nervensystems im Rahmen einer Polyneuropathiediagnostik eingesetzt werden. Die Herzfrequenz variiert beim Gesunden mit der Atmung. Sie erhöht sich bei der Einatmung und vermindert sich bei der Ausatmung. Ist diese Korrelation nicht gegeben kann dies zu einer respiratorischen Herzarrhythmie kommen. Die Erfassung der Herzfrequenzvariation erfolgt über das EKG, wobei die Triggerung am zweckmäßigsten mit einer R-Zacke erfolgt. Das EKG wird zeitlich so dargestellt, dass die Variation der nachfolgenden R-Zacke gut sichtbar wird (⊡ Abb. 11.30).
Neuromuskulärer Übergang Zur Untersuchung der Ermüdbarkeit des Muskels und damit zur Diagnose des neuromuskulären Überganges werden Serienreize eingesetzt. Das Verhältnis der Amplituden und deren Abnahme (Dekrement) wird hierbei ausgewertet. Bei der Untersuchung der Ermüdbarkeit der Muskeln und der neuromuskulären Übertragung werden ausschließlich die Amplituden der Antwortpotentiale auf supramaximale Serienreize miteinander verglichen. Mit Doppelreizen kann die Refraktärzeit bestimmt werden. Es wird die absolute und relative Refraktärzeit bestimmt; dabei wird die Zeit zwischen einem elektrischen Doppelreiz solange verkleinert, bis die beiden Reizantworten zu einer verschmelzen. Der Nerv kann den zweiten Reiz nicht mehr an den Muskel weiterleiten, da sich die Synapsen noch in der Erholungsphase nach dem
⊡ Abb. 11.28. Blinkreflex (Orbicularisoculi-Reflex) einer 27-jährigen Probandin, abgeleitet mit Oberflächenelektroden
⊡ Abb. 11.29. Sympathische Hautantwort einer 27-jährigen gesunden Probandin, abgeleitet von der Handinnen- und Außenfläche nach elektrischer Stimulation des N. medianus
⊡ Abb. 11.30. Herzfrequenzvariationen eines 32-jährigen männlichen Probanden. Dargestellt ist die Veränderung der Herzfrequenzvariation bei Ruheatmung und bei tiefer Atmung
11
160
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
ersten Reiz befinden. Der Reizabstand muss in Schritten von 1 ms einstellbar sein.
I
rischen Nervenbahnen bis über den Hirnstamm geprüft, mit MEP die absteigenden motorischen Nervenbahnen bis in die periphere Muskulatur der Arme und Beine.
ENG-Signalanalyse/Auswertung Bei der Analyse neurographischer Signale werden die Reizantwortpotentiale automatisch vermessen. Bei artefaktarmen Signalen sind diese automatischen Vermessungen sehr zuverlässig und erhöhen die Reproduzierbarkeit der Ergebnisse, da diese immer gleiche Kriterien verwenden. Sind die Antwortpotentiale jedoch stark artefaktbehaftet oder sind sie durch eine hochgradige Pathologie sehr klein und kaum erfassbar, muss der untersuchende Arzt manuell die Cursoren zur Ausmessung setzen. Es wird die Latenz als Zeit, die vom Setzen eines Reizes bis zum Beginn des Antwortpotentials verstreicht, gemessen. Unter Zuhilfenahme einer Messstrecke lassen sich daraus Nervenleitgeschwindigkeiten berechnen.
11.3.5 Evozierte Potentiale (EP)
Jede Stimulation von Rezeptoren, afferenten Nerven oder Hirnstrukturen führt im zentralen Nervensystem, Spinalkanal und im peripheren Nervensystem zu bioelektrischen Phänomenen, die in einem festen zeitlichen Zusammenhang zum Reiz stehen. Diese Potentiale werden als evozierte Potentiale bezeichnet. Sie gestatten Aussagen über die Umwandlung, Weiterleitung und Verarbeitung von bestimmten Reizen und spiegeln den funktionellen Zustand einzelner neuronaler Bahnen wider. Je nach Art der Stimulation wird unterschieden in akustisch (AEP), visuell (VEP), somatosensorisch (SEP) und motorisch (MEP) evozierte Potentiale. Das Ziel der Ableitung evozierter Potentiale ist es, zu prüfen, ob die Fortleitung der sensorischen Reizung bis zur kortikalen Verarbeitung im Gehirn normal, verzögert bzw. überhaupt vorhanden ist. Mit SEP, AEP und VEP werden die aufsteigenden senso-
Gerätetechnik Die Ableitparameter der Verstärker, die Analysezeit und die Zahl der Mittelungsschritte sind charakteristisch für jede Art von EP. In ⊡ Tab. 11.7 findet sich eine Übersicht über die von der Deutschen Gesellschaft für Klinische Neurophysiologie empfohlenen Einstellungen. Darüber hinaus ist es notwendig, größten Wert auf genaue und sorgfältige Elektrodenapplikation zu legen. Die Platzierung der Elektroden erfolgt auch hier nach dem 10–20 System. Die Kopfhaut ist vorzubehandeln und die Elektrodenübergangswiderstände sind unter 2 kΩ zu bringen. Je nach abzuleitendem evozierten Potential sind Oberflächennapfelektroden aus gesintertem Ag/AgCl oder Gold zu verwenden. Nur bei intraoperativen Anwendungen der evozierten Potentiale werden unipolare Platinnadelelektroden verwendet. Sie benötigen keine Vorbereitung der Kopfhaut, sondern werden subkutan appliziert. Vor und während der Ableitung sind die EEG-Rohsignale auf dem Monitor zu betrachten, um eventuelle Artefakte schnell erkennen und beseitigen zu können. Insbesondere Muskelaktivitäten infolge von Verspannungen des Patienten treten während der Registrierung auf. Bei AEP-, SEP- und MEP-Ableitungen liegt der Patient möglichst entspannt auf einer Untersuchungsliege, während er beim VEP vor dem TV-Monitor sitzen muss. Bei der Ableitung der evozierten Potentiale ist eine elektronische Mittelwertbildung (Averaging) unumgänglich. Diese wird mit einem dem Reiz simultanen Triggersignal gesteuert. Damit werden die Signalkomponenten, die in einem festen zeitlichen Zusammenhang mit dem Reiz stehen, aus der Hintergrundaktivität herausgelöst. Diese Signalkomponenten bilden das evozierte Potential. Die anderen Signalanteile, wie Artefakte, EEG, EKG, EMG
⊡ Tab. 11.7. Ableitparameter für verschiedene evozierte Potentiale Art des EP
Verstärker empfindlichkeit
Hochpass
Tiefpass
Analysezeit
Averagerdurchläufe
VEP
5 μV/Div
0,5 Hz
100 Hz
500 ms
64–128
SEP-Arm
5 μV/Div
0,5–1 Hz
2–3 kHz
50 ms
128–256, selten 1000
SEP-Bein
5 μV/Div
0,5–1 Hz
2–3 kHz
100 ms
128–256, selten 1000
AEP-Hirnstamm
1–2 μV
100–150 Hz
3 kHz
10 ms
1000–2000
EKP
5–10 μV/Div
0,1–0,5 Hz
30–70 Hz
500 ms–1 s
20–30
MEP Arm MEP Bein
1–5 mV/Div 2–5 mV/Div
10–20 Hz
5–10 kHz
50 ms 100 ms
1
161 11.3 · Elektromyograph
usw. korrelieren nicht mit dem Reiz. Die Verbesserung des Signal/Rauschabstandes entspricht der Quadratwurzel der Anzahl der Mittelungsschritte. Hilfreich für die Ableitung der evozierten Potentiale ist eine automatische Artefaktunterdrückung. Häufig ist lediglich eine Diskrimination der Amplitude vorhanden. Überschreitet die Amplitude einen einstellbaren Schwellwert, wird der jeweilige Signalabschnitt nicht in die Mittelwertbildung einbezogen. Die Normwerte bzw. die Bewertungskriterien für die evozierten Potentiale sind die Latenzen charakteristischer Wellen, ihre Differenz im Seitenvergleich, Interpeaklatenzen und das Fehlen einer oder mehrerer Komponenten dieses Antwortpotentials. Eine Indikation für die Messung evozierter Potentiale liegt i. Allg. vor: ▬ in der Diagnostik der multiplen Sklerose (MS); ▬ bei raumfordernden Prozessen; ▬ bei Polyneuropathien; ▬ in der Intensivmedizin bei bewusstseinsgetrübten und bewusstlosen Patienten; ▬ beim intraoperativen Monitoring, bspw. bei der Operation am Spinalkanal;
⊡ Abb. 11.31. Normales FAEP einer 44-Jährigen
▬ bei Intoxikation und/oder Stoffwechselentgleisungen; ▬ bei posttraumatischem Koma nach Schädel-HirnTrauma; ▬ bei der Feststellung des Hirntods.
Akustisch evozierte Potentiale (AEP) Akustisch evozierte Potentiale ermöglichen die Untersuchung des Hörnervs in Verbindung mit der Hörbahn über den Hirnstamm bis zur Hirnrinde. Für die Neurologie haben die frühen Komponenten in den ersten 10 ms nach dem Reiz (FAEP) Bedeutung erlangt (⊡ Abb. 11.31). Diese werden im N. acustucus und in einzelnen Kerngebieten des Hirnstamms generiert. Es handelt sich um eine wenig aufwändige Untersuchung zu funktionellen Ausfällen infolge raumfordernder Prozesse im Hirnstamm. So führen z. B. Tumore und Blutungen im Hirnstamm zu Veränderungen im FAEP. Auch in der Audiologie haben die AEP ihren festen Platz. Dort finden sie Anwendung bei Erkrankungen der Kochlea, des Hörnervs und bei der objektiven Audiometrie bei Patienten, die bei der normalen Audiometrie ( Kap. 14) nicht mitarbeiten können.
11
162
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Der AEP-Stimulator besteht aus einem elektromagnetisch abgeschirmten Kopfhörer, über den Töne von einem elektronischen Tongenerator direkt in die Ohrmuschel abgegeben werden. Die elektromagnetische Abschirmung ist deshalb notwendig, weil die Ableitelektroden direkt unter dem Kopfhörer appliziert werden müssen und Übersprechen über die Elektroden zum Verstärker zu vermeiden ist. Wird der Tongenerator nur für die Stimulation von Hirnstammpotentialen verwendet, ist der Reiz ein kurzes rechteckförmiges akustisches Signal mit einer Dauer von 100 µs, ein sog. Click. ▬ Click-Reizamplitude: 10–80 dB HL, standardmäßig 70 dB HL in der Neurologie, zur objektiven Audiometrie in der HNO alle Lautstärken; ▬ Reizfrequenz: 1–30 Hz in 1 Hz-Stufen; standardmäßig 10–15 Hz; ▬ Polarität: Sog, Druck, alternierend Sog/Druck; standardmäßig Sog, weißes Rauschen 30 dB unter der Reizlautstärke kontralateral zur Unterdrückung des Hörens über die Knochenleitung. Wird der Tongenerator in der HNO-Heilkunde auch noch zur Stimulation der mittleren und späten Potentiale verwendet, erzeugt er auch noch frequenzspezifische Tonpiepund Burst-Impulse mit einstellbaren Zeiten für Anstiegsund Abfallflanken im Bereich der in der Audiometrie üblichen Frequenzen von 125–250–500 Hz und 1–2–4–8 kHz. Die 4 Ableitelektroden befinden sich an folgenden Stellen: ▬ 2 Ableitelektroden: am inneren rechten und linken Ohrläppchen oder am rechten und linken Mastoid (knöcherner Schädelteil hinter dem Ohrläppchen) ipsilateral zum stimulierten Ohr; ▬ Referenzelektrode: Cz; ▬ Erdelektrode: Fz. Zuerst wird Stimulation und Ableitung am rechten Ohr durchgeführt, das linke wird dabei mit weißem Rauschen 30 dB unter der Reizlautstärke vertäubt. Danach erfolgt ein weiterer Durchlauf mit der Stimulation und Ableitung des linken Ohres mit kontralateraler Vertäubung des rechten Ohres. Beide Stimulationen und Ableitungen werden wiederholt, um zuverlässige Reproduzierbarkeit sicherzustellen. Die FAEP-Normwerte bei einer Stimulationslautstärke von 70 dB HL bestehen aus fünf Latenzen und einer Interpeaklatenz: Latenz I: 1,5 ms; Latenz II: 2,6 ms; Latenz III: 3,6 ms; Latenz IV: 4,7 ms und Latenz V: 5,4 ms; Interpeaklatenz V–I: 4,0 ms. Bewertet wird das Auftreten dieser Potentialspitzen und ob ihre Latenz im Normwertbereich liegt. Je nachdem, welche der Potentialspitzen verzögert ist oder nicht erscheint, kann auf die Lokalisation einer Schädigung geschlossen werden. Bei der objektiven Audiometrie werden zusätzlich die Amplitudenverhältnisse IV-V/I berücksichtigt. Hier
umfasst die Ableitung der Hirnstammpotentiale einen wesentlich größeren Aufwand, da die Lautstärke von 70 dB HL in 10 dB HL-Stufen abwärts bis zur Hörschwelle hinunter verringert wird. Diese Ableitungen nehmen oft mehr als eine halbe Stunde in Anspruch. Die Normwerte der Hirnstammpotentiale sind abhängig von der stimulierenden Lautstärke, vom Geschlecht, der Temperatur und pathologischen Veänderungen, nicht jedoch von der Mitarbeit des Patienten. Dies ermöglicht ihren Einsatz zum Monitoring während Operationen am inneren Ohr und am Hirnstamm. Sie können auch zur Feststellung des Hirntods herangezogen werden.
Visuell evozierte Potentiale (VEP) Visuell evozierte Potentiale (VEP) (⊡ Abb. 11.32) ermöglichen die Untersuchungen des visuellen Systems. So werden VEP in der Neurologie zur Prüfung der Fortleitung des visuellen Reizes über den Sehnerv, die visuellen Bahnen bis zum visuellen Kortex verwendet. Sie haben ihre klinische Bedeutung in der Früherkennung der multiplen Sklerose (MS) und bei zentralen Sehstörungen. In der Augenheilkunde liegt ihre klinische Bedeutung z. B. in der objektiven Visusbestimmung und in der objektiven Erkennung von Störungen des Farbsinns. In der Elektroophthalmologie verwendet man eine Vielzahl von verschiedenen visuellen Reizen, die sehr differenziert farbig oder mit verschiedenen Graustufen angeboten werden. Der Stimulator für ein Routine-VEP besteht i. d. R. aus einem TV-Monitor, der ein Schachbrettmuster über den gesamten Schirm mit größtmöglichem Kontrast anbietet, das sich im Sekundenrhythmus in ein reversibles Schachbrett umkehrt. Der Patient sitzt in einem festen Abstand zu dem Schachbrettmuster, und zwar so, dass das einzelne Schachbrett einen festen Blickwinkel (Standard 50 Bogenminuten) in Bezug auf die Netzhaut bildet. Das Gesamtfeld beträgt 12°×15° bezogen auf den Blickwinkel des Patienten. Für diese Ableitung befindet sich der Patient in einem abdunkelbaren Raum. Brillenträger müssen ihre Brille fürs Weitsehen während der Ableitung unbedingt aufsetzen. Während der Ableitung schaut der Patient auf einen Fixierpunkt, der sich leicht oberhalb der Monitormitte im Schachbrettmuster befindet. Dabei soll er die Schachbrettmusterumkehr aufmerksam betrachten, um eine verwertbare VEP-Ableitung zu erzeugen. Bei komatösen oder narkotisierten Patienten kann ein VEP abgeleitet werden, wenn man als Reiz helle Lichtblitze verwendet, die mit Hilfe von Leuchtdioden oder dem Fotostimulator ausgelöst werden. Die Elektroden befinden sich an folgenden Stellen: ▬ Ableitelektrode: 3 cm oberhalb des Inions in der Mittellinie des hinteren Schädels; ▬ Referenzelektrode: Fz; ▬ Erdelektrode: Fpz.
163 11.3 · Elektromyograph
⊡ Abb. 11.32. Visuell evoziertes Potential einer 57-jährigen Patientin
Zuerst wird eine Ableitung mit dem rechten Auge durchgeführt, das linke wird dabei verdeckt. Danach erfolgt ein weiterer Durchlauf mit der Reizung des linken Auges, bei Verdeckung des rechten. Man nennt dies monokuläre Reizung. Die beiden Antwortpotentiale werden zur Prüfung der Reproduzierbarkeit häufig jeweils einmal wiederholt. Der Hauptgipfel im Antwortpotential ist der P100, d. h. der Normwert ist ein positiver Gipfel bei rund 100 ms. Verlängerungen dieser Latenz um 10–20% sind als pathologisch anzusehen. Der negative Gipfel vor dem P100 wird N75 genannt und oft mit ausgemessen. Die Latenzen der Stimulation des rechten und linken Auges werden miteinander verglichen. Die Normwerte des VEP sind reiz- und altersabhängig. Ein Steady-state-Potential kann mit einer Umkehrfrequenz von 8,3 Hz erreicht werden.
Somatosensorisch evozierte Potentiale (SEP) Somatosensorisch evozierte Potentiale (SEP) stellen eine objektive Funktionsprüfung des somatosensorischen Systems dar, d. h. von den sensiblen Nervenenden der oberen und unteren Extremitäten über die Fortleitung des Spinalkanals, Eintritt in den Hirnstamm und ihre kortikale
Weiterverarbeitung bis in die Hirnrinde. Dies ist von klinischer Bedeutung bei Patienten, die keine verwertbaren Angaben über Sensibilitätsstörungen bei der klinischen Untersuchung machen können oder wollen. Bei einer mehrkanaligen Ableitung über verschiedene Stationen der somatosensiblen Bahnen lässt sich eine Lokalisationsdiagnostik durchführen (vgl. Übersicht).
Ableitungsmöglichkeiten für SEP Ein 4-kanaliges Medianus-SEP kann getrennt nach rechter und linker Stimulationsseite folgendermaßen abgeleitet werden: ▬ Ableitelektrode: kanalweise Kanal 1 : Erb-Punkt in der Schlüsselbeingrube Kanal 2: unterer Nacken am Eintritt des N. medianus in die Wirbelsäule Kanal 3: oberer Nacken vor dem Eintritt des Wirbelkanals in den Hirnstamm Kanal 4: Kopfpunkt C3’ (2cm hinter C3) für rechte Stimulation, C4’ (2cm hinter C4) für linke Stimulation, (Ableitung kontralateral zur Stimulation, da ▼ sich die Pyramidenbahnen im Hirnstamm kreuzen
11
164
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
▬ Referenzelektrode: Kopfpunkt Fz für alle Kanäle ▬ Erdelektrode: an der oberen Stirn, zusätzliche groß-
I
flächige Erdelektrode am Oberarm zwischen Reiz und Ableitung (⊡ Abb. 11.33) Ein 4-kanaliges Tibialis-SEP kann getrennt nach rechter und linker Stimulationsseite folgendermaßen abgeleitet werden: ▬ aktive Elektrode: wie oben kanalweise Kanal 1: innere Kniekehle über dem N. tibialis Kanal 2: Lumbalwirbel L5 am Eintritt des N. tibialis in die Wirbelsäule Kanal 3: Wirbelsäule am Lumbalpunkt L1 Kanal 4: mittlerer Kopfpunkt Cź (3 cm hinter Cz) für rechte und linke Stimulation gleich 4 Referenzelektrode: Kopfpunkt Fz für alle Kanäle ▬ Erdelektrode: an der oberen Stirn, jedoch nicht auf einen Muskel, zusätzliche großflächige Erdelektrode am Unterschenkel zwischen Reiz und Ableitung (⊡ Abb. 11.35)
SEP haben klinische Bedeutung bei Erkrankungen des peripheren Nervensystems, z. B. bei Polyneuropathien und Kompressionssyndromen, während Rückenmark- und Wirbelsäulenoperationen sowie bei multipler Sklerose und Läsionen im Hirnstamm. Die Nervenenden der Extremitäten werden mit einem elektrischen Reiz wiederholt stimuliert. Dabei handelt es sich um einen rechteckförmigen kurzen Stimulus von 100 oder 200 µs Dauer, der entweder 3–4 mA über der motorischen Reizschwelle liegen oder das 3- bis 4-fache der sensiblen Schwelle haben soll. Dabei kommt es zu einer kräftigen, nicht schmerzhaften Kontraktion der zugehörigen Muskulatur. Die Reizfrequenz liegt bei 1, 2 oder 3 Hz für die Bewertung der frühen Komponenten. Legt man besonderen Wert auf die späteren Komponenten, sind die Reizfrequenzen auf 0,2–0,5 Hz zu vermindern. SEP werden von beiden Seiten abgeleitet. Die Normwerte für die kortikalen Reizantworten bei Medianusstimulation liegen bei P15 und N20, d. h. ein positiver Gipfel bei 15 ms und ein negativer Gipfel bei 20 ms. Die Normwerte für die frühen kortikalen Reizantworten bei Tibialis-Stimulation liegen bei P30 und N33, die mittle-
⊡ Abb. 11.33. Schema zur Ableitung eines Medianus-SEP von verschiedenen Messpunkten mit den zugehörigen Signalen
165 11.3 · Elektromyograph
ren bei P40, N50 und P60 und die späten bei N75 und höher. Beispiele für somatosensorisch evozierte Potentiale nach Stimulation des N. medianus (⊡ Abb. 11.34) und des N. tibialis ⊡ Abb. 11.36) sind mit ihren Messwerten angegeben. In der Klinik werden die SEP-Ableitungen häufig 4kanalig abgeleitet, sodass aus den Latenzen der Gipfel von den verschiedenen Ableitorten Latenzdifferenzen gebildet werden, die es ermöglichen, eine periphere und zentrale Überleitgeschwindigkeit zu bestimmen. Diese Berechnung erfolgt analog zur Bestimmung der NLG. Die Normwerte sind abhängig von Alter, Körpertemperatur und Größe der Patienten. Dies ist bei der Impulsüberleitgeschwindigkeit zu berücksichtigen. Ein besonderer Vorteil der frühen kortikalen Reizantworten ist, dass sie unabhängig vom Bewusstseinszustand des Patienten ableitbar sind. Sie bleiben auch weitestgehend unbeeinflusst von Medikamenten, die einen Einfluss auf den Bewusstseinszustand der Patienten haben. Dadurch ist es möglich, die SEP beim intraoperativen Monitoring einzusetzen.
Motorisch evozierte Potentiale (MEP) Bei den motorisch evozierten Potentialen (MEP) handelt es sich um eine Untersuchungsmethode, die direkt die zentralmotorischen Bahnen beim wachen Patienten überprüft.
⊡ Abb. 11.35. Schema zur Ableitung eines Tibialis-SEP von verschiedenen Messpunkten mit den zugehörigen Signalen
⊡ Abb. 11.34. Normales somatosensorisch evoziertes Potential des N. medianus einer 50-jährigen Patientin
11
166
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 11.36. Normales somatosensorisch evoziertes Potential des N. tibialis eines 40-Jährigen
Es handelt sich dabei um eine nicht invasive und schmerzlose transkranielle motorische Kortexstimulation mit Hilfe eines Magnetstimulators. Die MEP werden häufig in Verbindung mit den SEP abgeleitet. Während mit den SEP die aufsteigenden sensiblen Nervenbahnen zusammen mit ihrer Weiterverarbeitung in den verschiedenen Teilen des Gehirns geprüft werden, testen die MEP die absteigenden motorischen Bahnen bis zu den Extremitäten. Die Reizwirkung der Magnetstimulation entsteht durch die vom Magnetfeld induzierten Ströme im motorischen Kortex. Die Einstellungen des Verstärkers entsprechen der motorischen NLG, jedoch mit längeren Analysezeiten. Ebenso ist es von Vorteil, 10–20 MEP auf einem Monitor gemeinsam darzustellen. Die Technik des Magnetstimulators besteht aus einem Kondensator-Lade-Entladesystem mit einem Hochvoltladekreis, einem Hochleistungsentladeschalter und einem Kondensator, der die aufgeladene Energie speichert. Der Kondensator entlädt über die Spulen. Die Bauart oder Geometrie der Spule hat großen Einfluss auf die Stärke, Eindringtiefe und die Fokussierung des Reizes im neuronalen Gewebe. Es sind daher für verschiedene Reizarten verschiedene Spulenformen üblich. Bei der Stimulation der oberen Extremitäten wird die 90 mm-Standardspule
verwendet. Die Seiten der Spule sind mit der Flussrichtung des Stromes gekennzeichnet. Schaut man von oben auf die Spule und die Markierung der Flussrichtung des Stromes zeigt im Uhrzeigersinn, dann wird die linke Hemisphäre stimuliert und man leitet kontralateral an der rechten Hand das MEP ab. Umgekehrt: Ist die Flussrichtung entgegen dem Uhrzeigersinn gerichtet, wird die rechte Hemisphäre stimuliert mit der kontralateralen Ableitung an der linken Hand. Zur Bestimmung der zentralen motorischen Leitzeit (ZMLZ) wird zuerst der motorische Kortex gereizt, dann der zugehörige Nerv am Austritt aus dem Wirbelkanal (⊡ Abb. 11.37). Die Latenzen der MEP der kortikalen und zervikalen Reizung werden gemessen und voneinander abgezogen. Die Differenz ist die Zeit, die der Reizimpuls vom motorischen Kortex bis zum spinalen Austritt des Nervs benötigt. Diese Zeit ist die zentralmotorische Leitungszeit. Normwerte für die Arme liegen zwischen 5–9 ms, für die Beine zwischen 15–19 ms. Ein wichtiges Phänomen bei der kortikalen Stimulation ist das der Faszilitierung. Es ist möglich, die notwendige Stimulationsschwelle um 25% zu senken und die Antwortpotentiale um das 2- bis 5-fache zu erhöhen, wenn der Patient den Zielmuskel während der kortikalen Stimulation anspannt
167 11.3 · Elektromyograph
⊡ Abb. 11.37. Reizorte und MEP zur Bestimmung der zentralmotorischen Leitungszeit – ZMLZ
und damit eine willkürliche Innervation ausführt. Die Latenz des MEP bei faszilitiertem Muskel verringert sich dann um 1–3 ms. Es gibt einige Kontraindikationen für die Magnetstimulation: Herzschrittmacher, Metall in Schädel (z. B. Aneurysma-Clips) und eine diagnostizierte Epilepsie. Weitere Vorsichtsmaßnahmen für Patient und Untersuchenden betreffen Daten auf Magnetkarten wie Kreditkarten, Computerdisketten etc. Diese können im Abstand von 20 cm um die Stimulationsspule verändert werden.
11.3.6 Ereignisbezogene Potentiale (ERP)
Die ereignisbezogenen Potentiale (Event Related Potentials, ERP) sind Potentiale, die in den höheren Schichten des Kortex entstehen. Sie beinhalten die Verarbeitung eines Reizes durch den Patienten. Sie lassen sich daher nur ableiten, wenn der Reiz für den Patienten eine Bedeutung hat. Er wird daher aufgefordert, laute von leisen oder hohe von tiefen Tönen zu unterscheiden und diese zu zählen. Bei den ERP werden ausschließlich die späten Komponenten ausgewertet. Sie werden auch als P300 oder Potentiale nach kognitiver Stimulation benannt. P300
bezieht sich wieder auf einen Spitzenwert in der Nähe von 300 ms Latenz nach Reizauslösung. Die Indikation zur Ableitung dieser Potentiale ist gegeben z. B. bei Patienten mit Hirnleistungsstörungen und dementiellen Syndromen wie M. Alzheimer, bei Depression und Schizophrenie sowie beim hirnorganischen Psychosyndrom.
Weiterführende Literatur Bischoff C, Schulte-Mattler W J, Conrad B (2005) Das EMG-Buch, 2. Aufl. Thieme, Stuttgart New York Blum WT, Kaibara M, Young GB (2001) Atlas of Adult Electroencephalography. Lippincott Williams & Wilkins Bronzio JD (2006) Tissue Engineering and Artificial Organs, 3rd edn. CRC Press Boca Raton, Florida Buchner H, Joth J (2005) Evozierte Potenziale, Neurovegetative Diagnostik, Okulographie. Thieme, Stuttgart Claus D, Kowitz-Buhler, E, Hofmann-Fox M (2002) Richtlinien und Empfehlungen der Deutschen Gesellschaft für Klinische Neurophysiologie und funktionelle Bildgebung – DGKN. Frotscher Druck, Darmstadt: 39–141 Cooper R (1984) EEG. Fischer, Stuttgart Ebe Homme (2002) Leitfaden für die EEG-Praxis. 3. Aufl. Urban & Fischer, Bei Elsevier Ebersole JS, Pedley TA (2003) Curent Practice of clinical Electroencephalography. 3/E Lippincott Williams & Wilkins
11
168
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Horch KW, Dhillon GS (2004) Neuroprosthetics, Theory and Practice. World Scientific Publishing Company Klinke R, Pape HC, Silbernagel A (2005) Physiologie, 5. Aufl. Thieme, Stuttgart Kugler J (1981) Elektroenzephalographie in Klinik und Praxis. G. Thieme, Stuttgart Lowitzsch K, Hopf HC, Buchner H, Claus D, Jörg J (2000) Das EP-Buch. Thieme, Stuttgart Ludin HP (1997) Praktische Elektromyographie. Thieme, Stuttgart Maurer K, Lang N., Eckert, J (1999) Praxis der evozierten Potentiale. Thieme, Stuttgart Meyer BU (1992) Die Magnetstimulation des Nervensystems. Springer, Berlin Heidelberg Mühlau G (1990) Neuroelektrodiagnostik. Gustav Fischer, Jena Niedermeyer E, Lopes da Silva F (eds) (2005) Electroencephalography. Lippincott Williams & Wilkins, Baltimore Rowan AJ, Tolunsky E (2003) Primer of EEG with a Mini Atlas. Butterworth-Heinemann Stöhr M, Riffel B, Pfadenhauer K (1991) Neurophysiologische Untersuchungsmethoden in der Intensivmedizin. Springer, Berlin Heidelberg Stöhr M (2005) Evozierte Potentiale, 4. Aufl. Springer, Berlin Heidelberg Stöhr M (2005) Klinische Elektromyographie und Neurographie, 5. Aufl. Kohlhammer, Stuttgart Wehrli W, Loosli-Hermes J (Hrsg) (2003) Enzyklopädie elektrophysiologischer Untersuchungen. Urban & Fischer, München Jena Yamada M, Mizuki, Y (1992) Leitfaden für die EEG- Praxis. Ein Bildkompendium. Gustav Fischer, Stuttgart Jena New York
169 xxxx · xxxx
Schlafdiagnostiksysteme K.-P. Hoffmann 12.1
Funktion und Anwendung – 169
12.2
Schlafdiagnostik, Schlaflabor, Schlafapnoen – 170
12.2.1 12.2.2 12.2.3 12.2.4
Schlafdiagnostik – 170 Schlaflabor – 170 Schlafapnoen – 171 Plötzlicher Kindstod – 171
12.3
Technik – 172
12.3.1
12.3.3 12.3.4
Geräte zum Monitoring ausgewählter Parameter für spezielle Anwendungen – 172 Ambulante Geräte zur Diagnostik entsprechend Stufe 3 – 172 Geräte zur Diagnostik entsprechend Stufe 4 – 172 Therapiegeräte – 173
12.4
Schlafdiagnostikverfahren – 174
12.4.1 12.4.2 12.4.3 12.4.4 12.4.5 12.4.6 12.4.7 12.4.8
Ambulante Polygraphie – 174 Kleine Polysomnographie – 174 Große Polysomnographie – 174 Multipler Schlaflatenztest (MSLT) – 174 »Maintenance of Wakefulness Test« (MWT) – 174 Therapeutisches Monitoring – 174 Intensivmonitoring (Epilepsie) – 174 EEG nach Schlafentzug – 175
12.5
Signalableitung und Signalverarbeitung – 175
12.5.1 12.5.2 12.5.3
Signalableitung – 175 Visuelle Auswertung – 177 Computerisierte Auswertung
12.3.2
12.1
12.6
Anwendungsbereiche – 180
12.7
Methodische Hinweise – 180
12.7.1 12.7.2
Handhabung/Applikation Artefakte – 181
12.8
Medizinische Bedeutung der Schlafdiagnostik – 181
12.9
Therapie – 181
12.9.1
Verhaltensmedizinisch-psychotherapeutische Therapie – 181 Chronobiologische Therapie – 181 Medikamentöse Therapie – 181 Apparative Therapie – 183 Operative Therapie – 183
12.9.2 12.9.3 12.9.4 12.9.5
– 180
12.10 Sicherheitstechnische Aspekte – 183 12.10.1 Ambulante Geräte – 183 12.10.2 Geräte im Schlaflabor – 183
12.11 Planerische Hinweise – 183 12.11.1 Raumbedarf – 183 12.11.2 Zeitbedarf – 183 12.11.3 Personal – 184
Literatur
– 184
– 177
Funktion und Anwendung
Schlafstörungen gehören mit einer Prävalenz von 15–20% zu den häufigen Erkrankungen. Dabei handelt es sich zu 50–60% um psychogene Schlafstörungen, zu ca. 30% um Schlafstörungen, bei denen psychische und organische Faktoren als Ursache nicht unterscheidbar sind, und zu 10–20% um rein organisch bedingte Schlafstörungen [12]. Zur letzten Gruppe gehören auch die Patienten mit einem Schlafapnoesyndrom, die zum einen durch ihr erhöhtes vitales Risiko imponieren, denen aber zum anderen oftmals durch eine Symptombehandlung mittels nCPAP-Therapie schnell und erfolgreich geholfen werden kann. Insgesamt unterscheidet die von der American Sleep Disorders Association 1990 veröffentlichte International Classification of Sleep Disorders (ICSD) 83 verschiedene Schlafstörungen [12].
Da zum einen die Ursachen der einzelnen Schlafstörungen mannigfaltig, zum anderen aber auch ihre Auswirkungen in verschiedene Bereiche der modernen Medizin hineinreichen, ist für die Diagnostik und Therapie von Schlafstörungen ein interdisziplinäres Herangehen erforderlich. So arbeiten verschiedene Disziplinen und Fachbereiche zusammen: Pneumologie, Pädiatrie, Neurologie, Psychiatrie, Psychologie, Geriatrie, Kardiologie, HNO, Innere Medizin, Urologie, Nephrologie usw. Auf der anderen Seite hat sich die Schlafmedizin aufgrund ihrer speziellen Fragestellungen zu einem eigenen Fachgebiet entwickelt, das die medizinischen Kenntnisse des Schlafs und seiner Störungen umfasst. Fachkenntnisse auf diesem Gebiet können heute in Deutschland an zahlreichen klinischen und privaten Schlafzentren erworben werden.
12 X
170
Kapitel 12 · Schlafdiagnostiksysteme
12.2
I
Schlafdiagnostik, Schlaflabor, Schlafapnoen
12.2.1 Schlafdiagnostik
Alle Verfahren und Methoden, die sowohl zur Beurteilung des gestörten und normalen Schlafs als auch zur Kontrolle einer eingeleiteten Therapie herangezogen werden, lassen sich unter dem Begriff Schlafdiagnostik zusammenfassen. Dabei hat sich aus praktischen Gründen eine stufenweise Einteilung bewährt (⊡ Abb. 12.1). In der 1. Stufe sind Fragen zur Vorgeschichte, Anamneseerhebung und ein standardisierter Kurzfragebogen enthalten. Die 2. Stufe umfasst klinische Untersuchungen mit Labortests und speziellen Schlaf-Wach-Anamnesen. Ein Beispiel für den Inhalt eines Fragebogens bei Verdacht auf Insomnie gibt ⊡ Tab. 12.1 wieder. Das Ziel ist die Klassifikation der Schlafstörung und bei schlafbezogenen Atmungsstörungen die Abschätzung des Risikos. Dies bestimmt das weitere diagnostische und therapeutische Vorgehen. Bei Patienten mit Verdacht auf schlafbezogene Atmungsstörungen schließen sich in einer 3. Stufe Langzeitableitungen an, bei denen insbesondere Atmung, O2-Gehalt des Blutes, Herzfrequenz und Körperlage kontinuierlich erfasst werden. Diese Messungen sind zum größten Teil ambulant durchführbar. Die 4. Stufe beinhaltet Ableitungen meist unter stationären Bedingungen im Schlaflabor. Je nach Fragestellung
⊡ Abb. 12.1. Stufendiagnostik der Schlafstörungen nach [18]
werden hier unterschiedliche Methoden angewandt, bei denen eine Vielzahl von Biosignalen abgeleitet werden. Die eingeleitete Therapie wird durch Kontrolluntersuchungen optimiert bzw. ggf. korrigiert. Zur Durchführung der für eine Diagnostik und Therapiekontrolle erforderlichen polygraphischen Ableitungen wurden von der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) und von der Arbeitsgruppe Nächtliche Atmungs- und Kreislaufregulationsstörungen der Deutschen Gesellschaft für Pneumologie (AGNAK) Empfehlungen erarbeitet [9, 14]. Diese umfassen atemmechanische Messgrößen (Atemgasfluss, Atemanstrengung, nCPAP-Druck), kardiorespiratorische Messgrößen (Blutdruck, Blutgase, EKG, Puls), neurophysiologische Messgrößen (EEG, EMG und EOG) und patientenbezogene Messgrößen (Bewegung, Lage, Schnarchgeräusch, Videobild) [6]. Darüber hinaus werden die Anzahl der Kanäle, die einzustellenden Ableitparameter, die Applikation der jeweiligen Sensorik, die Analyse einschließlich automatischer Weiterverarbeitung, die Bewertung der Ergebnisse und ergänzende Messgrößen empfohlen [9, 14].
12.2.2 Schlaflabor
In einem Schlaflabor wird der Schlaf unter labormäßigen Bedingungen untersucht, wobei verschiedene Biosignale registriert, gespeichert und unter vielfältigen Kriterien ausgewertet werden. Dabei ist die anamnestisch erfasste
171 12.2 · Schlafdiagnostik, Schlaflabor, Schlafapnoen
Ursache der Schlafstörung für das jeweilige diagnostische Vorgehen entscheidend. Aufgrund der beschriebenen Vielfalt haben sich speziell ausgerichtete Schlaflabors etabliert. Schwerpunkte eines psychiatrisch-neurologischen Schlaflabors sind psychogene und neurologische Hypo- und Hypersomnien, Parasomnien, zirkadiane Störungen des Schlaf-WachRhythmus, Sexualstörungen und insbesondere die Epilepsie. Daraus resultieren zusätzliche EEG-Kanäle für die Anfallsdiagnostik einschließlich Langzeit-EEG, EMG, Körpertemperatur, Aktographie sowie die Registrierung nächtlicher Erektionen. Das psychologische Schlaflabor sieht den Schwerpunkt seiner Untersuchungen im Bereich von Vigilanz, Traum und den Ursachen psychogener Schlafstörungen sowie dem Einfluss von Stress und Lärm auf den Schlaf. Dabei werden neurophysiologische Parameter wie z. B. Hautwiderstand, Haut- und Kerntemperatur, EMG und EEG-Biofeedback zusätzlich erfasst. Der Schwerpunkt des internistisch-pneumologischen Schlaflabors sind schlafbezogene Atmungsstörungen. Die Messung von kardiorespiratorischen Funktionen einschließlich der damit verbundenen Änderung neurophysiologischer Parameter, wie z. B. Auftreten von Arousals, dient hauptsächlich der Diagnostik des Schlafapnoesyndroms. Weitere Messgrößen sind dabei der Atemfluss getrennt für Nase und Mund, der intrathorakale Druck, pCO2, der kontinuierliche Blutdruck, pH-Wert und das Langzeit-EKG. Untersuchungen zur Prüfung der Wirksamkeit eines Medikaments werden im pharmakologischen Schlaflabor durchgeführt.
12.2.3 Schlafapnoen
Eine Episode der Verminderung der Atemamplitude um 50% mit einer Dauer von mehr als 10 s wird als Hypopnoe bezeichnet. Bei einer Apnoe sinkt die Amplitude unter 20% des Ausgangswerts bei einer angenommenen Dauer von mehr als 10 s. Begleitet wird eine Apnoephase von einem initialen Abfall der Herzfrequenz und einem nach einigen Sekunden folgenden Abfall der O2-Sättigung. Die Apnoephase wird durch ein Wecksignal des ZNS beendet und ist durch das Arousal, eine kurzzeitige EEG-Aktivierung, und eine Erhöhung der Herzfrequenz durch kräftiges Atmen sowie einen O2-Anstieg im Blut charakterisiert. Bei einer obstruktiven Apnoe kommt es während des Einatmens durch das Zusammenspiel von entstehendem Unterdruck im Rachenraum und verminderter Innervation der pharyngealen Muskulatur zu einem Verschluss der oberen Atemwege. Dabei sind Thorax- und Abdomenbewegungen weiter vorhanden, wobei oftmals eine entgegengesetzte Bewegung auftritt. Weniger häufig ist die zentrale Apnoe, ein Atemstillstand aufgrund eingeschränkter zerebraler Steuerung der Atmung mit einem Ausfall sowohl des Atemflusses als auch der Atembewegung des Zwerchfells. Bei der gemischten Apnoe, der häufigsten Form einer Apnoe, folgt auf den Beginn mit einer zentralen Apnoe eine obstruktive Apnoephase.
12.2.4 Plötzlicher Kindstod
Eine Sonderstellung der Schlafstörungen nimmt der plötzliche Kindstod (»sudden infant death syndrome«, SIDS)
⊡ Tab. 12.1. Anamneseerhebung am Beispiel der Diagnostik von Insomniepatienten nach [10] Form der Schlafstörung:
Einschlafstörung Durchschlafstörung Früherwachen Erholsamkeit
Symptomatik der Schlafstörung:
Kognitive und emotionale Aktivität in der Nachphase Vegetative Begleitsymptome Spezialsymptome (Atmungsstörungen, Beinbewegungen, Alpträume, Schmerzen, Angst)
Tagesbefindlichkeit:
Vigilanz Aktivität und Belastbarkeit Konzentrations- und Leistungsfähigkeit Affektlage und allgemeines Wohlbefinden
Schlafverhalten:
Zeit im Bett und Schlafdauer Schlafzeiten Abendgestaltung und Einschlafgewohnheit
Verlauf und Dauer der Schlafstörung: Schlaf vor der Erkrankung/Vorbehandlung
Selbstbehandlung (Medikamente, Alkohol) Nichtmedikamentöse Verfahren Schlafmittel (Form, Zeitpunkt und Dosierung der Medikamenteneinnahme)
Psychiatische und organische Anamnese und Symptomatik: Einflussparameter
Private und berufliche Lebenssituation Lebensumstände und Verhaltensweisen mit Wirkung auf Schlaf Physikalische Umgebungseinflüsse Allgemeine Medikamenteneinnahme Genuss von Koffein, Nikotin, Alkohol und Drogen
12
172
I
Kapitel 12 · Schlafdiagnostiksysteme
ein, da er weder durch klinische noch durch umfassende Untersuchungen post mortem erklärbar ist. Er ist die häufigste Todesursache von Säuglingen bis zur Vollendung des 1. Lebensjahrs. Als Ursache wird der Reifegrad zerebraler Strukturen diskutiert. Die Risikogruppen konnten inzwischen erfolgreich identifiziert und unterschiedliche Präventionsstrategien entwickelt werden. Nach wie vor stellt ein Langzeitmonitoring die am häufigsten verwendete Methode der Vorsorge dar [22].
12.3
Technik
Je nach Stufe der Diagnostik von Schlafstörungen unterscheidet sich die eingesetzte Technik. Hierbei spielen Einsatz, Zahl der wählbaren Parameter, Applikation der Sensorik, Bedienbarkeit, Auswertstrategien, Software usw. eine große Rolle.
12.3.1 Geräte zum Monitoring ausgewählter
Parameter für spezielle Anwendungen Zur Registrierung, Kontrolle und Dokumentation der vitalen Funktionen eines Kleinkindes im 1. Lebensjahr bei bestehendem Risiko eines plötzlichen Kindstodes werden spezielle Monitorsysteme angeboten. Diese berücksichtigen einen oder mehrere der folgenden Parameter: Herzfrequenz, Atmung und Bewegung des Säuglings. Aber auch Verfahren, die Methoden der Aktographie nutzen, können hier zur Anwendung kommen [20]. Ziel ist es, bei einem Verlust der vitalen Funktionen die Eltern zu alarmieren, um rechtzeitig Maßnahmen einer Reanimation einleiten zu können.
12.3.2 Ambulante Geräte zur Diagnostik
entsprechend Stufe 3 Es gibt eine Vielzahl ambulant eingesetzter Geräte zur Ableitung und Registrierung polygraphischer Signale. Dabei findet die Ableitung in der gewohnten häuslichen Umgebung des Patienten statt, so dass eine Gewöhnung an Laborbedingungen entfallen kann. Nach erfolgter messtechnischer Erfassung der Biosignale werden diese telemetrisch übertragen oder am nächsten Morgen im Labor vom Arzt auf einen Computer gespielt und ausgewertet. Dabei werden automatische Verfahren der Signalanalyse eingesetzt [7]. Nicht-Labor-Monitor-Systems erlauben die Ableitung, Speicherung und Auswertung von Atmung (Larynxmikrophon), Herzfrequenz (EKG), Körperlage und O2-Sättigung. Die durch eine Erhöhung der Kanalzahl erweiterten diagnostischen Möglichkeiten und der Einsatz von nCPAP-Drucksensoren eröffnen dem Schlafmediziner
weitere Perspektiven. Auch besteht die Möglichkeit, dass ein Schlafzentrum mehrere kleinere Krankenhäuser mit einem Schlaflabor bzw. ambulant tätige Ärzte betreut. Diese leiten ihre abgeleiteten Rohdaten oder Ergebnisse automatischer Analysen verbunden mit den Patientendaten und der Verdachtsdiagnose via Modem an das Zentrum zur Befundung bzw. zur Hilfestellung bei der Befundung weiter. Die entsprechenden Resultate werden ebenfalls über Modem zurückgesandt. Dadurch lässt sich die Qualität in der Diagnostik von Schlafstörungen weiter verbessern. Überweisungen und stationäre Einweisungen werden damit effizienter.
12.3.3 Geräte zur Diagnostik entsprechend
Stufe 4 Geräte zur Diagnostik von Schlafstörungen, die entsprechend dem Konzept einer Stufendiagnostik im Schlaflabor zur Anwendung kommen, umfassen die Bereiche Langzeitaufzeichnung und Polysomnographie. Einzelne Geräte bilden nach Vernetzung ein geschlossenes System der Signalerfassung, Weiterleitung, Analyse, Auswertung und Speicherung. Dabei sind Schnittstellen zu anderen Analysesystemen und Datenverarbeitungsanlagen vorgesehen. So ist die Einbindung in das Krankenhaus-Informationssystem einschließlich Patientenverwaltung und Abrechnung nützlich, da so z. B. alle Untersuchungsbefunde zentral archiviert und damit jedem Arzt des Krankenhauses zur Verfügung stehen. Ein Beispiel für ein Schlaflabor gibt ⊡ Abb. 12.2 wieder. Dieses besteht aus 4 Ableitstationen, von denen eine als mobile Station mit einem Laptop ausgestattet ist. In der Wachstation laufen alle Daten zusammen. Hier versieht die Nachtwache ihren Dienst, werden die Signale analysiert, gespeichert und archiviert. Möglichkeiten der CPAP-Einstellung, der Kommunikation mit den Patienten und der Datenfernübertragung via Modem sind vorhanden. Simultan zu den Biosignalen wird mittels Infrarotvideoanlage das Videobild des Patienten erfasst, gespeichert und kann mit den Signalen korreliert werden. Im angeführten Beispiel steht dem leitenden Arzt eine zusätzliche Auswertstation zur Verfügung, die den Zugriff auf alle erfassten Daten erlaubt. Weite, getrennte Einstellbereiche für die Ableitparameter sowie Abtastraten von 1–1000 Hz sind für eine volle Polygraphiefähigkeit erforderlich. Gerätemäßig reicht das Spektrum von einer 12-kanaligen Einplatzanlage bis zu vernetzten 32kanaligen Mehrbettstationen mit Auswerteeinheit und Server. Eine wichtige Voraussetzung für den Einsatz von Ableitgeräten in der Schlafmedizin ist, dass während einer Ableitung die Signale vorherliegender Zeitabschnitte jederzeit durch die Nachtwache bzw. den Bereitschaftsarzt betrachtet werden können.
173 12.3 · Technik
⊡ Abb. 12.2. Aufbau eines Schlaflabors mit 3 festen und einer mobilen Ableitstation sowie einer zentralen Wachstation und einem zusätzlichen Arbeitsplatz zur Auswertung der Ableitung im Arztzimmer
12.3.4 Therapiegeräte
Eine apparative Therapie schlafbezogener Atmungsstörungen ist eine nasale kontinuierliche Überdruckbeatmung. Ziel einer derartigen Therapie ist es, durch einen positiven Druck die Obstruktion der oberen Atemwege in der Einatmungsphase zu verhindern. Dabei kommen hauptsächlich nCPAP (»nasal continuous positive airway pressure«) und BiLEVEL (»nasal bilevel positive airway pressure«) zum Einsatz. Die Benutzung eines Gerätes mit 2 getrennten Drücken für Inspiration und Exspiration erlaubt bei hohen CPAP-Drücken ein leichteres Ausatmen. Die Einstellung des jeweiligen Niveaus für Einatmung und Ausatmung wird durch die Atmung vom Patienten gesteuert und muss in einer absolut kurzen Zeitspanne mit einer hohen Präzision erfolgen. Trägt man den Atemfluss als Funktion des CPAP-Drucks auf, so lässt sich ein Druck finden, ab dem ein Atemfluss nachweisbar ist (⊡ Abb. 12.3, linke Seite). Dieser wird als kritischer Druck Pcrit bezeichnet und ist ein Maß für die Kollapsibilität des Pharynx während des Schlafs. Betrachtet
man den kritischen Druck für Probanden, schnarchende Probanden, Patienten mit obstruktiver Hypopnoe und Patienten mit obstruktiver Apnoe, lässt sich zeigen, dass der Wert für Pcrit in der genannten Reihenfolge zunimmt [23]. Um die Akzeptanz dieser Geräte zu erhöhen, erfolgt in der Einschlafphase eine einschleichende rampenförmige Druckerhöhung bis zum therapeutischen Druck. Neuere Geräte, die auch als automatisches CPAP bezeichnet werden, variieren den Druck in einem 2minütigen Intervall um +2 mbar zum aktuellen Druckniveau bei einer gleichzeitigen Messung der resultierenden Atemflussänderungen. Ziel der Analyse und ggf. Adaptation des aktuellen Drucks ist das Erreichen des optimalen Druck-AtemflussKorridors, bei dem keine respiratorischen Ereignisse (Apnoe, Hypopnoe oder Schnarchen) auftreten [1, 26]. In ⊡ Abb. 12.3 (rechte Seite) wird ein Ausschnitt eines automatischen Titrationsreports mit der Darstellung von Atemfluss (Flow) und Druck gezeigt. Von großer Bedeutung für den Patienten sind sowohl eine Temperierung und Befeuchtung der Beatmungsluft als auch die Geräuschentwicklung der eingebauten Turbine.
12
174
Kapitel 12 · Schlafdiagnostiksysteme
I
⊡ Abb. 12.3. Atemfluss-Druck-Kurve (links), Ausschnitt aus einem automatischen Titrationsreport (rechts)
12.4
Schlafdiagnostikverfahren
12.4.1 Ambulante Polygraphie
Unter dem Begriff der ambulanten Polygraphie werden alle Ableitungen mittels Nicht-Labor-Monitor-Systemen zusammengefasst. Diese stellen zum einen die in der 3. Stufe der Schlafdiagnostik verwendeten Geräte dar. Zum anderen sind hierzu auch alle alarmgebenden Systeme zu zählen, wie sie für ein Monitoring bei Verdacht auf plötzlichen Kindstod im Kinderzimmer eingesetzt werden.
12.4.2 Kleine Polysomnographie
Eine kleine Polysomnographie ist bei psychogenen/psychiatrischen Krankheitsbildern, zur Differentialdiagnose epileptischer Anfallsleiden und zur Therapiekontrolle von Erkrankungen, bei denen Atmungsparameter keine Rolle spielen, indiziert. Dabei werden mindestens 4 Kanäle EEG, das EOG, EMG und EKG registriert. Eine kontinuierliche Beobachtung sowohl des Patienten über Videomonitor und der polygraphischen Registrierung ist erforderlich.
12.4.3 Große Polysomnographie
Eine große Polysomnographie wird bei hartnäckigen und therapieresistenten Schlafstörungen, die nicht auf den ersten Blick psychogener oder psychiatrischer Natur sind, bei Verdacht auf schlafbezogene Atmungsstörungen und bei Tagesschläfrigkeit durchgeführt. Neben EEG, EOG, EMG, EKG, Flow, Effort, Blutgasen können Schnarchen, Blutdruck, Lage, Temperatur, Bewegung, Erektion und intrathorakaler Druck erfasst werden. Eine Videometrie ist erforderlich.
12.4.4 Multipler Schlaflatenztest (MSLT)
Mittels des multiplen Schlaflatenztests kann die Tagesschläfrigkeit objektiviert werden. Er wird direkt nach einer vorausgehenden nächtlichen Polygraphie z. B. zu den Zeitpunkten 10 Uhr, 12 Uhr, 14 Uhr und 16 Uhr durchgeführt. Die Ableitzeit kann jeweils 20 min betragen, wobei der Patient sich nicht gegen den Schlaf wehren soll. Abgeleitet werden EEG, EOG, EMG und EKG.
12.4.5
»Maintenance of Wakefulness Test« (MWT)
Der MWT wird wie der MSLT direkt nach einer vorausgehenden nächtlichen Polygraphie z. B. zu den Zeitpunkten 10 Uhr, 12 Uhr, 14 Uhr und 16 Uhr durchgeführt. Mit ihm wird die Bereitschaft des Patienten, wach zu bleiben, gemessen. Der Patient wird gebeten, sowohl während der Ableitung als auch zwischen den Ableitungen nicht zu schlafen. Es werden die gleichen Parameter wie beim MSLT (EEG, EOG, EMG und EKG) abgeleitet.
12.4.6 Therapeutisches Monitoring
Die technischen Voraussetzungen entsprechen denen einer großen Polysomnographie zuzüglich der Möglichkeit der Registrierung des CPAP-Drucks. Das Monitoring wird zur Kontrolle einer nasalen CPAP- oder einer BiLEVEL-Einstellung durchgeführt, die das Ergebnis einer qualifizierten Anpassung ist. Nach 3, 6 oder 12 Monaten wird routinemäßig die Einstellung kontrolliert.
12.4.7 Intensivmonitoring (Epilepsie)
Das Intensivmonitoring wird hauptsächlich zum Nachweis epileptischer Aktivitäten eingesetzt. Auch hierbei ist
175 12.5 · Signalableitung und Signalverarbeitung
mit Rücksicht auf den Patienten ein stufenweises Vorgehen angezeigt. Es lassen sich Routine-EEG-Ableitungen (20–60 min), prolongierte Ableitungen (1–6 h) und Langzeitableitungen (6–24 h) unterscheiden, die zusammen genommen eine komplexe neurodiagnostische Funktionseinheit bilden. Bei der simultanen Doppelbildaufzeichnung werden das Patientenverhalten und das EEG synchron auf einem Monitor wiedergegeben. Bei Untersuchungen von Patienten mit gesicherter Epilepsie zeigten sich während einer 48stündigen Ableitung bei 75 % der Patienten epileptische Aktivitäten, von denen 10% iktual sind [21]. Damit lassen sich iktuale und interiktuale Aktivitäten vergleichen und weiterführende Aussagen zur Klassifikation treffen. Insbesondere die Schlafphasen haben bei der Diagnostik der Epilepsie eine besondere Bedeutung, da sich die Anfälle zu folgenden Zeiten häufen: im frühen Schlaf zwischen 22 und 24 Uhr, 1–2 h vor dem morgendlichen Erwachen und nach dem morgendlichen Erwachen. Der Anteil spezifischer Potentiale steigt im Schlaf gegenüber dem Wach-EEG um ca. 20% an, v. a. in späten Teilen der Nacht und beim Auftreten von Arousals [5, 25].
12.4.8 EEG nach Schlafentzug
Im Vorfeld des intensiven Monitorings werden in der Epilepsiediagnostik routinemäßig EEG-Ableitungen nach einem 24-stündigen Schlafentzug durchgeführt. Während der Ableitung, die 1–2 h dauert, kann der Patient schlafen. Dadurch wird sowohl der Effekt des Schlafentzugs als auch der Schlaf selbst als Provokationsmethode genutzt, um das Auftreten epileptischer Aktivitäten im EEG zu verstärken bzw. hervorzurufen.
12.5
Signalableitung und Signalverarbeitung
12.5.1 Signalableitung
Entscheidend für die Qualität einer Diagnostik von Schlafstörungen ist die Qualität der Signalerfassung. Einfluss darauf haben neben der Wahl der für die jeweilige Fragestellung erforderlichen Sensoren und Elektroden die richtige Platzierung und Applikation sowie die entsprechend der Signaleigenschaften eingestellten Ableitparameter, wie z. B. Verstärkung, Frequenzbereich und Abtastrate. In ⊡ Tab. 12.2 sind die von der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin empfohlenen gerätemäßigen Einstellungen zusammengefasst. Die Abtastrate für die Digitalisierung der Biosignale sollte so gewählt werden, dass sie mindestens dem doppelten Wert der im Signal enthaltenen höchsten Frequenz entspricht. Hier gilt es, einen Kompromiss zwischen Qualität der Ableitung und Größe des digitalen Speichermediums zu finden. In ⊡ Abb. 12.4 wird ein Ausdruck der Rohdaten einer polygraphischen Ableitung im Rahmen der Diagnostikstufe 3 veranschaulicht. Die Kontrolle der Qualität einer Ableitung muss online erfolgen. Für polysomnographische Ableitungen der Stufe 4 wird eine größere Zahl der Ableitkanäle verwendet und je nach Fragestellung weitere Biosignale erfasst. Hier kann auch das Videobild des schlafenden Patienten mit eingeblendet werden, um eine unmittelbare Zuorddnung von Bewegungen des Patienten und Biosignale zu ermöglichen (⊡ Abb. 12.5, auch 4-Farbteil am Buchende).
⊡ Abb. 12.4. Polysomnographie (ambulant) bei einem Patienten mit obstruktiver Schlafapnoe (die Kanäle von oben nach unten: Atemfluss, Atemanstrengung für Thorax und Abdomen, Schnarchmikrophon, Sauerstoffsättigung, Körperposition und Herzfrequenz). Deutlich imponieren die Obstruktionen mit einer Abflachung des Atemflusses bei verminderter bzw. teilweise entgegengesetzter Auslenkung von Thorax und Abdomen, gefolgt vom Auftreten von Schnarchgeräuschen, einer Verminderung der Sauerstoffsättigung und einer Erhöhung der Herzfrequenz
12
176
Kapitel 12 · Schlafdiagnostiksysteme
⊡ Tab. 12.2. Beispiel für die Ableitparameter zur Erfassung polysomnographischer Signale entsprechend den Empfehlungen der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin [14]
I
Signal
Ableitort
µV/cm
fu in Hz
fo in Hz
Bemerkungen
EEG
C3:A2, C4:A1 oder C3: A1; C4:A2
70
0,53
70
statt A1, A2 auch Mastoid; 10:20 System
EOG
linker, rechter Epikanthus
70
0,53
>30
auch horizontale und vertikale Ableitung möglich
EMG
M. mentalis oder M. submentalis; bipolar
20
<1,6
>70
EKG
in. Manubrium sterni, dif. 5. Interkostalraum
1000
Atemfluss
Mund und beide Nasenöffnungen
Unterscheidung einer Hypoventilation von normaler Atmung Hypoventilation, normale Atmung und Hyperventilation müssen erkennbar sein
Anstrengung
thorakal und abdominal
Blutgase
SaO2
EMG
M. tibialis anterior
R-Zacke sowie P- und TWelle gut erkennbar Thermistor oder Thermoelement
Induktions-Plethysmographie, Dehnungsmessstreifen, Piezosensoren oder Impedanzmessung Pulsoximetrie, bei analogem Ausschrieb 1 % pro mm 20
⊡ Abb. 12.5. Polysomnographische Ableitung eines Patienten im Schlaflabor mit der Darstellung des Videobildes im oberen Fesnter. Folgende Biosignale sind dargestellt: das EEG C3:A1 und C4:A2, das
<1,6
>70
bipolar, 5 cm Abstand
EOG, das EMG vom Mundgrund, der Flow, die Atemanstrengung, Schnarchgeräusche, die Sauerstoffsättigung, das EKG, die Herzfrequenz, das EMG vom Bein und die Körperlage
177 12.5 · Signalableitung und Signalverarbeitung
12.5.2 Visuelle Auswertung
Der erste Schritt einer Auswertung ist die visuelle Kontrolle der Rohdaten. Damit lässt sich die Qualität der Ableitung und das Auftreten von Artefakten abschätzen. Die gesamte Ableitung wird mit unterschiedlichen Zeitmaßstab dargestellt, um einen schnelleren Überblick über die gesamte Ableitung zu erhalten. In ⊡ Tab. 12.3 ist eine Übersicht über die Kriterien einer visuellen Auswertung polygraphischer Signale zur Diagnostik von Schlafstörungen zu sehen. Zur Beurteilung der Dynamik des Schlafs und der Schlafqualität werden die jeweiligen Schlafstadien und ihr Wechsel erfasst. Dabei wurde die Einteilung der Schlafstadien von Rechtschaffen und Kales zum Standard. In ⊡ Tab. 12.4 sind die wesentlichen Kriterien, an denen sich diese Klassifikation orientiert, zusammengefasst.
12.5.3 Computerisierte Auswertung
Computergestützte Verfahren der Analyse polysomnographischer Signale berücksichtigen sowohl die respiratori-
schen als auch die bioelektrischen Signale. Algorithmen zur Auswertung der Atmung sind in der Lage, Apnoen und Hypopnoen zu erkennen und zwischen obstruktiven und zentralen Atmungsstörungen zu differenzieren (⊡ Abb. 12.6, auch 4-Farbteil am Buchende). Unter Berücksichtigung der Herzfrequenzvariation und der O2-Sättigung lassen sich weitere differentialdiagnostische Aussagen treffen. Insbesondere die übersichtliche Darstellung der Änderung dieser Parameter über den gesamten Ableitungszeitraum ist für den Arzt eine unentbehrliche Hilfe. Obwohl sich die Schlafstadieneinteilung nach Rechtschaffen und Kales zum Standard entwickelt hat und für viele Anwendungen brauchbare Ergebnisse liefert, beruht sie doch auf einer recht willkürlichen Stadienabgrenzung und ist von der Erfahrung des Arztes abhängig. Andere Verfahren zerlegen mittels Fourier-Analyse das Signal in seine Frequenzkomponenten und berechnen die Leistung als Funktion der Zeit. Insbesondere über die langsamen Aktivitäten im d-Bereich lässt sich die Schlafarchitektur erfassen. Damit können funktionelle Aspekte der Schlafregulation untersucht werden [3, 11] (⊡ Abb. 12.7, auch 4-Farbteil am Buchende).
⊡ Tab. 12.3. Kriterien der visuellen Auswertung polygraphischer Signale im Schlaflabor entsprechend den Empfehlungen der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin [14] Signal
Analyse
Atmung
Amplitude und Phasenverschiebung zwischen der thorakalen und abdominalen Atmungstätigkeit ▬ Atmungsamplitude <10% der normalen Atmung >10 s ⇒ Apnoe ▬ Atmungsamplitude <50% der normalen Atmung ⇒ Hypopnoe ▬ Apnoeindex (AI) = Apnoen pro Stunde Schlafzeit ▬ Hypopnoeindex (HI) = Hypopnoen pro Stunde Schlafzeit Respiratory Disturbance Index (RDI) = Summe aller respiratorischen Ereignisse pro Stunde Schlafzeit
Blutdruck
systolischer, diastolischer und mittlerer Blutdruck ▬ Minimal- und Maximalwerte im Wachen und im Schlaf
Blutgase
klinisch relevant ist ein Absinken >3–4% ▬ Oxygen Desaturation Index (ODI) = mittlere Sättigung, Entsättigungen pro Stunde Schlaf
EEG
visuelle Bestimmung der Schlafstadien nach den Kriterien von Rechtschaffen und Kales in Stadien Wach, 1, 2, 3, 4, REM und MT (⊡ Tab. 12.4)
EKG
Herzfrequenzvariation, Herzrhythmusstörungen mittlere Herzfrequenz Wach und Schlaf, Zeitpunkt maximale Herzfrequenz
EMG M. tibialis
Quantifizierung periodischer Beinbewegungen (PMS) ▬ Dauer zwischen 0,5 und 5 sec, > doppelte Amplitude ▬ periodisch wenn 4 Ereignisse mit Abständen von 4–90 sec bei einem Mttelwert von 20–40 sec ▬ Frage nach Arousal, PMS-Arousalindex = Zahl der Bewegungen mit Arousal pro Stunde Schlaf, ab 5 pathologisch
EMG Kinn
Schlafstadienklassifikation, Quantifizierung nach phasischer und transienter EMG-Aktivität
EOG
Erkennung REM-Schlaf, Berechnung der mittleren REM-Dichte langsame Augenbewegungen bei Schlafstadium 1
Erektion
Diagnostik der erektilen Impotenz; zeitliche Assoziation zu REM-Episoden
Interaktionen
Zusammenhänge zwischen Schlafphasen, Arousals und anderen EEG-Elementen mit kardiorespiratorischen Ereignissen und Bewegungen
Körperlage
Apnoen und Hypopnoen werden für jeweilige Körperlage gezählt
Temperatur
Diagnostik chronobiologischer Störungen des Schlaf-Wach-Verhaltens; Untersuchungszeit >32 h
12
178
Kapitel 12 · Schlafdiagnostiksysteme
⊡ Tab. 12.4. Einteilung der Schlafstadien entsprechend den Kriterien von Rechtschaffen und Kales nach [19]
I
Stadium und % am Gesamtschlaf
EEG
EOG
EMG
Wach (1%)
W
dominierend alpha-Aktivität (8–13 Hz), beta-Wellen (>13 Hz)
Lidschläge, rasche Augenbewegungen
hoher Tonus, Bewegungsartefakte
Non-REM (5%)
S1
theta-Aktivität, Vertexwellen
langsame, pendelnde Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
(49%)
S2
theta-Aktivität, K-Komplexe, Schlafspindeln
keine Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
(8%)
S3
Gruppen hoher delta-Wellen >20%<50%
keine Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsrtefakte
(13%)
S4
Gruppe hoher delta-Wellen >50%
keine Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
REM (24%)
REM
theta-Aktivität, Sägezahnwellen
konjugierte rasche Augenbewegungen (Sakkaden)
niedriger mittlerer Tonus, phasische Aktivierung
Movement Time (MT)
>50% der Epoche sind durch Bewegungsartefakte gestört, sodass eine Zuordnung zu einem anderen Stadium nicht möglich ist
⊡ Abb. 12.6. Polysomnographische Darstellung insbesondere der respiratorischen Parameter einschließlich ihrer Bewertung durch die Markierung erkannter Apnoen oder Hypopnoen und Entsättigung
179 12.7 · Methodische Hinweise
⊡ Abb. 12.7. Darstellung von Ergebnissen der Auswertung insbesondere der neurophysiologichen Biosignale. Es sind die Klassifikation der Schlafstadien nach Rechtschaffen und Kales, die Frequenzanalyse des
Weitere Verfahren sind Analysen im Zeitbereich durch Erkennen von Wellen und Mustern sowie der Einsatz hybrider Systeme mit analog arbeitenden Filtertechniken. Neuere Verfahren nutzen neuronale Netze, die nach einer Lernphase Biosignale nach vorgegebenen Kriterien beurteilen können. Für die Einteilung in Schlafstadien werden derzeit auch Algorithmen auf der Grundlage der »fuzzy logic« entwickelt. Ein zusätzlicher Parameter ist die Pulswellenlaufzeit (»pulse transit time«, PTT). Diese wird aus dem EKG und dem photooxymetrisch gewonnenen Pulssignal am Finger bestimmt. Die Pulswellenlaufzeit ist die Zeitdifferenz zwischen dem Maximum der R-Zacke und dem Zeitpunkt des Erreichens von 50 % der Amplitude der Pulskurve. Änderungen der Pulswellenlaufzeit korrelieren sowohl mit Blutdruckschwankungen als auch mit der Atemanstrengung. Damit ergibt sich ein weiterer Parameter, mit dem zwischen obstruktiver und zentraler Apnoe unterschieden werden kann [24] (⊡ Abb. 12.8).
EEG zweidimensional als Funktion der Zeit und das zeitliche Auftreten von alpha- und delta-Wellen im EEG wiedergegeben
⊡ Abb. 12.8. Zur Bestimmung der Pulswellenlaufzeit
12
180
Kapitel 12 · Schlafdiagnostiksysteme
12.6
I
Anwendungsbereiche
Die Anwendungsbereiche der Diagnostik von Schlafstörungen sind so vielfältig wie ihre Ursachen. Diese reichen von internistischen, neurologischen und pneumologischen Erkrankungen bis hin zu physiologischen Reaktionen, z. B. nach dem Überqueren von Zeitzonen bei Transmeridianflügen (»jet lag«) [17] oder Schlafstörungen während der Schwangerschaft. Auch altersmäßig umfassen sie alle Bereiche, so z. B. vom plötzlichen Kindstod des Säuglings bis hin zu altersbedingten Schlafstörungen in der Geriatrie. In ⊡ Tab. 12.5 sind die einzelnen Fachgebiete und die jeweiligen Funktionsstörungen aufgeführt. Daraus wird ersichtlich, dass es kaum ein medizinisches Fachgebiet gibt, das nicht direkt oder indirekt mit der Problematik von Schlafstörungen konfrontiert wird.
12.7
Methodische Hinweise
Die methodischen Hinweise, die in diesem Kapitel gegeben werden, beziehen sich auf die Durchführung von polysomnographischen Ableitungen. Für die Fragen der Pflege und Wartung sind die Hinweise der jeweiligen Hersteller von Geräten, Zubehör und Sensorik zu beachten. Da die Art der Sensorik, ihre Eigenschaften, die verwendeten Materialien und ihre Applikation voneinander ab-
weichen können, lassen sich nur wenige allgemeingültige Hinweise geben.
12.7.1 Handhabung/Applikation
Die Auswahl der abzuleitenden Biosignale richtet sich nach dem klinischen Problem. Zu Beginn der Ableitung ist neben der technischen auch eine biologische Eichung durch Kommandobewegungen der Augen, Körperbewegungen, willkürliche Apnoe, Hypopnoe und Hyperventilation durchzuführen. Diese dient der Kontrolle der Funktionsfähigkeit der Ableittechnik und dem Sitz der Sensorik. Zur Ableitung bioelektrischer Signale sollten nur Elektroden aus einem Material miteinander verschaltet werden, entweder Gold oder Silber/Silberchlorid. Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin empfiehlt die Durchführung von polysomnographischen Untersuchungen an mindestens 2 aufeinanderfolgenden Nächten, wobei die erste der Laboreingewöhnung dient. Dabei sollte möglichst eine kontinuierliche Aufzeichnung der Biosignale auf Papier mit einer Papiergeschwindigkeit von 10 oder 15 mm/s erfolgen. Die DGSM empfiehlt eine Archivierung der abgeleiteten Signale auf optischen, magnetischen oder digitalen Medien, sofern sie jederzeit wieder in analoger Form auf einem Polygraphen ausgeschrieben werden können [14].
⊡ Tab. 12.5. Indikationsbereiche in unterschiedlichen Fachgebieten nach [18] Fachgebiet
Beispiele für Funktionsstörungen und Erkrankungen, die eine Indikation zur Untersuchung auf schlafbezogene Atmungsstörungen darstellen
Andrologie
Potenzstörungen
Endokrinologie
Hypothyreose, Akromegalie, Adipositas permagna
Hämatologie
Polyglobulie
HNO
Erkennbare Obstruktion der oberen Atemwege im Wachzustand des Patienten
Kardiologie
Nächtliche Herzrhythmusstörungen, Hypertonie, Herzinsuffizienz unklarer Genese, dilatative Kardiomyopathie
Neurologie
Neuromuskuläre Erkrankungen, Hypersomnien
Orthopädie
Kyphoskoliose
Pädiatrie
Störungen der Atmungsregulation, SIDS-Überlebende, Kinder mit Verdacht auf Pickwick-Syndrom, Gedeihstörungen, großen Tonsillen und Adenoiden
Pneumologie
Hypoxie / Hyperkapnie mit oder ohne vorbestehende Lungenerkrankung, Rechtsherzinsuffizienz oder globale Herzinsuffizienz unklarer Genese
Psychiatrie
Hypersomnie, Hyposomnie
Psychosomatik
Unklare »Versagenszustände«, Verminderung der Leistungsfähigkeit
Zahn-, Mund- u. Kieferchirurgie
Kraniofaziale Malformationen
181 12.9 · Therapie
12.7.2 Artefakte
Ein wichtiges Problem bei der messtechnischen Erfassung von Biosignalen stellen die Artefakte dar. Diese sind als Störsignal dem interessierenden Signal überlagert und können ein Vielfaches der Amplitude des Nutzsignals haben. Man unterscheidet biologische und technische Artefakte. Letztere lassen sich durch die Wahl des Ableitraums, Verbesserung der Applikation der Sensorik (z. B. Verringerung des Elektrodenübergangswiderstands) oder Veränderungen an der Ableittechnik reduzieren. Biologische Artefakte lassen sich nur bedingt ausschließen, z. B. durch Verlagerung der applizierten Sensorik. Diese Artefakte werden vom erfahrenen Auswerter im Signalgemisch identifiziert, bei computergestützter Auswertung können sie zu Fehldeutungen führen (z. B. langsame Augenbewegungen im frontalen EEG).
12.8
Medizinische Bedeutung der Schlafdiagnostik
Die medizinische Bedeutung von Schlafstörungen ergibt sich zum einen aus der Prävalenz, zum anderen aus den jährlichen indirekten Kosten in Milliardenhöhe, die durch Nichterkennung und Nichtbehandlung entstehen. In Deutschland leiden gegenwärtig etwa 20 Mio. Menschen an Ein- und Durchschlafstörungen, die nicht durch äußere Einflüsse bedingt sind. Bei der Mehrzahl der Betroffenen sind diese Schlafstörungen chronisch. Unter häufiger oder ständiger Tagesmüdigkeit leiden 3,3 Mio. Menschen, woraus sich auch der hohe Anteil tödlicher Unfälle auf Autobahnen erklärt, die Einschlafen als auslösendes Ereignis haben (24%). 2,7 Mio. Menschen nehmen regelmäßig Schlafmittel ein, obwohl fast die Hälfte der Patienten, die täglich Schlafmittel einnehmen, berichtet, dass ihre Beschwerden unverändert anhalten. Ein großer Teil der Schlafmittel einnehmenden Patienten muss als abhängig bezeichnet werden. Eine medizinische Abklärung der Störung und die Einleitung einer kausalen Therapie sind unbedingt erforderlich. Dies wird um so dringlicher, wenn man sich verdeutlicht, dass weit verbreitete und gefährliche Volkskrankheiten wie z. B. Adipositas, arterielle Hypertonie, Herzinsuffizienz, Herzrhythmusstörungen, plötzlicher Herztod und Stoffwechselerkrankungen kausal mit Schlafstörungen verbunden sein können [4,19]. Insgesamt leiden 800.000 Patienten unter Schlafapnoe, von denen bei mehr als 50% der Risikofaktor Bluthochdruck auftritt. Als Ursache für kardiovaskuläre Folge- und Begleiterkrankungen werden 3 wesentliche Pathomechanismen diskutiert: ▬ Blutgasveränderungen, ▬ intrathorakale Druckschwankungen und ▬ konsekutive Weckreaktionen.
Diese können im Verlauf zu Hochdruck im kleinen und großen Kreislauf, Cor pulmonale, Kardiomyopathien, koronaren Herzkrankheiten, Herzrhythmusstörungen und Schlaganfall führen. Die Schlafmedizin konnte zeigen, dass kardiovaskuläre und kardiopulmonale Folgeerkrankungen ausbleiben bzw. reversibel sind, wenn schlafbezogene Atmungsstörungen rechtzeitig diagnostiziert und erfolgreich therapiert werden. In ⊡ Tab. 12.6 sind die Schlafstörungen auf der Grundlage der von der American Sleep Disorders Association veröffentlichten International Classification of Sleep Disorders zusammengefasst. Diese internationale Klassifikation beschreibt die verschiedenen Störungsbilder und bemüht sich um eine ursachenorientierte Einteilung.
12.9
Therapie
Die therapeutischen Verfahren sind so vielgestaltig wie die Schlafstörungen, die mit ihnen behandelt werden. Man kann ein 5-stufiges therapeutisches Schema definieren, das verhaltensmedizinisch-psychotherapeutische, chronobiologische, pharmakologische, apparative und chirurgische Maßnahmen unterscheidet.
12.9.1 Verhaltensmedizinisch-
psychotherapeutische Therapie Hier werden neben Empfehlungen zur Schlafhygiene und der Vermeidung eines schlafstörenden Verhaltens auch Entspannungsübungen eingesetzt.
12.9.2 Chronobiologische Therapie
Sie umfasst Maßnahmen zur Beeinflussung des periodischen Verlaufs biologischer Funktionen wie z. B. mittels Lichttherapie. Damit lässt sich z. B. die Auswirkung einer künstlichen Zeitverschiebung, wie sie beim »jet lag« oder bei Schichtarbeit auftritt, mindern.
12.9.3 Medikamentöse Therapie
Bei primär organischen und chronischen Erkrankungen werden pharmakologische Maßnahmen eingeleitet. Je nach Krankheitsbild werden Stimulanzien, Antidepressiva, Hypnotika und Neuroleptika eingesetzt. Zur medikamentösen Behandlung schlafbezogener Atmungsstörungen bei Patienten mit einem leichten bis mittelschweren Befund kann Theophyllin verwendet werden. Damit ergibt sich eine Therapiemöglichkeit für Patienten, die nicht oder nicht sofort einer nCPAP-Therapie zugeführt werden können [16].
12
182
Kapitel 12 · Schlafdiagnostiksysteme
Tab. 12.6. Internationale Klassifikation der Schlafstörungen nach [12] Dyssomnien
Parasomnien
Schlafstörungen bei organischen/ psychiatrischen Erkrankungen
Schlafstörungen unterschiedlicher Genese
Intrinsische Schlafstörungen Psychophysiologische Schlafstörung, Schlafwahrnehmungsstörung, idiopathische Hyposomnie, Narkolepsie, Rezidivierende Hypersomnie, ideopathische Hypersomnie, Posttraumatische Hypersomnie, obstruktives Schlafapnoe-Syndrom, Zentrales SchlafapnoeSyndrom, zentrales alveoläres Hypoventilationssyndrom, periodische Arm- und Beinbewegungen, restless legs-Syndrom
Aufwachstörungen Schlaftrunkenheit, Schlafwandeln, Pavor nocturnus
Schlafstörungen bei psychiatrischen Erkrankungen Schizophrenie (Psychosen), depressive Erkrankungen, Angsterkrankungen, Panikerkrankungen, Alkoholabhängigkeit
Schlafstörungen unterschiedlicher Genese Kurzschläfer, Langschläfer, Subvigilanzsyndrom, fragmentarischer Myoklonus, nächtliches Schwitzen, Schlafstörungen bei Menses und Menopause, Schlafstörungen während und nach Schwangerschaft, schlafgebundene neurogene Tachypnoe, schlafgebundener Laryngospasmus, Erstickungsanfälle im Schlaf
Extrinsische Schlafstörungen inadäquate Schlafhygiene, umgebungsbedingte Schlafstörungen, höhenbedingte Schlafstörungen, psychoreaktive Schlafstörungen, Schlafmangelsyndrom, Schlafstörung bei Fehlen fester Schlafzeiten, Einschlafstörungen bei Fehlen des gewohnten Schlafrituals, Schlafstörung bei Nahrungsmittelallergie, Schlafstörung mit Zwang zum Essen und Trinken, Schlafstörung bei Hypnotikaabhängigkeit, Schlafstörung bei Stimulanzienabhängigkeit, Schlafstörung bei Alkoholkonsum, toxisch induzierte Schlafstörung
Schlaf-Wach-Übergangsstörungen Stereotype Bewegungsabläufe im Schlaf, Einschlafzuckungen, Schlafsprechen, nächtliche Wadenkrämpfe
Schlafstörungen bei neurologischen Erkrankungen Degenerative Hirnerkrankungen, Demenz, Parkinsonismus, Letale familäre Schlaflosigkeit, Schlafbezogene Epilepsie, Elektrischer Status spilepticus im Schlaf, Schlafgebundene Kopfschmerzen
Störungen des zirkadianen Schlaf-Wachrhythmus Schlafstörungen bei Zeitzonenwechsel (Jet Lag), Schlafstörungen bei Schichtarbeit, unregelmäßiges Schlaf-Wachmuster, verzögertes Schlafphasen-Syndrom, vorverlagertes Schlafphasen-Syndrom, Schlaf-Wachstörungen bei Abweichungen vom 24-Stunden-Rhythmus
REM-Schlaf-abhängige Parasomnien Alpträume, Schlaflähmungen, eingeschränkte Erektion im Schlaf, schmerzhafte Erektion im Schlaf, Asystolie im REM-Schlaf, abnormales Verhalten im REMSchlaf
Schlafstörungen bei internistischen Erkrankungen Afrikanische Schlafkrankheit, nächtliche kardiale Ischämie, chronisch-obstruktive Lungenerkrankung, schlafgebundenes Asthma, schlafgebundener gastroösophagealer Reflux, Peptischer Ulkus, Fibrositis-Syndrom
I
Weitere Parasomnien Bruxismus, Enuresis, Verschlucken im Schlaf, Nächtliche paroxysmale Dystonie, Syndrom des ungeklärten nächtlichen Todes bei Asiaten, Primäres Schnarchen, Schlafapnoe bei Säuglingen und Neugeborenen, Angeborenes zentrales Hypoventilationssyndrom, Plötzlicher Kindstod, Gutartiger Schlafmyoklonus bei Neugeborenen
183 12.11 · Planerische Hinweise
12.9.4 Apparative Therapie
Zur Behandlung schlafbezogener Atmungsstörungen ist eine apparative Therapie häufig das Mittel der Wahl. Dabei werden in erster Linie CPAP-Geräte für eine positive Überdruckbeatmung eingesetzt [8]. Bei hohen Exspirationsdrücken oder als drucklimitiertes Beatmungsgerät bei sowohl zentraler Schlafapnoe als auch zentraler Hypoventilation kann ein BiLEVEL mit der getrennten Steuerung des in- und exspiratorischen Drucks eingesetzt werden [2]. Alternative Möglichkeiten stellen die Esmarch-Prothese dar, durch die der Unterkiefer 2–4 mm nach vorn verlagert werden kann, und das Snore Ex, mit dem die Zunge des Patienten aus dem Mund nach vorn herausgezogen wird. Der therapeutische Effekt dieser Verfahren ist umstritten.
12.9.5 Operative Therapie
Selten gibt es eine klare Indikation zur kieferchirurgischen Operation, die dann gute Erfolge zeigt. Uvulopalatopharyngoplastiken werden zur Stabilisierung des Pharynxlumens eingesetzt. Insbesondere im Kindesalter kann durch Tonsillektomie eine Obstruktion beseitigt werden [13].
12.10
Sicherheitstechnische Aspekte
Voraussetzung des Einsatzes jeglicher medizintechnischer Geräte ist der Nachweis, dass eine Gefährdung für den Patienten, den Anwender und Dritte ausgeschlossen ist. Dies wird in Normen (z. B. VDE-Bestimmung) festgelegt. Grundlegende Bestimmungen sind im Medizinproduktegesetz enthalten. Dieses regelt die Herstellung, das Inverkehrbringen, das Inbetriebnehmen, das Ausstellen, das Errichten, das Betreiben und das Anwenden von Medizinprodukten sowie deren Zubehör. Die Geräte müssen so konzipiert sein, dass auch bei Auftreten eines Fehlers bzw. bei Fehlbedienungen die Sicherheit, Eignung und Leistung der Medizinprodukte nicht gefährdet ist. Neben den applikativen Wünschen muss ein polysomnographisches System die Kriterien der Qualitätssicherung in der Medizin erfüllen.
12.10.1
nungen und lange störungsfreie Betriebszeiten berücksichtigt werden. Letzteres ist eine wesentliche Voraussetzung für den Einsatz von CPAP-Geräten in der Therapie der schlafbezogenen Atmungsstörungen, der mit einem besonderen Service verbunden sein muss. Feste Wartungen in einem Zeitintervall, das etwa 1 Jahr beträgt, sollten zum Standard gehören und neben der Reinigung, dem Auswechseln von Verschleißteilen, dem Nachweis der vollen Funktionsfähigkeit auch der Abstimmung des Verhältnisses von Mensch zu Maschine durch umfassende Betreuung und Beratung des Patienten dienen.
12.10.2
Geräte im Schlaflabor
Die im Schlaflabor verwendeten Geräte werden unter ständiger Kontrolle des Personals am Patienten eingesetzt. Neben den gerätemäßigen Voraussetzungen spielt hier die Fortbildung der Mitarbeiter des Labors durch interne Qualifikation eine wesentliche Rolle. Deshalb schließen die Begutachtungsverfahren der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin zur Qualitätssicherung im Schlaflabor neben einer Kontrolle der räumlichen, apparativen und personellen Ausstattung auch die Qualität in der Diagnose und Therapie mit ein [15].
12.11
Planerische Hinweise
12.11.1
Raumbedarf
Für die Planung eines Schlaflabors muss berücksichtigt werden, dass der Schlafraum für den Patienten und der Raum, in dem die Ableit- und Auswertetechnik steht (Wachstation), voneinander räumlich getrennt sind. Die Größe des Schlafraums sollte 12 m2 nicht unterschreiten. Er sollte über eine Schalldämmung, Verdunklungsmöglichkeit und ggf. Klimaanlage verfügen. Eine Infrarotvideoanlage bestehend aus Kamera, Mikrophon, Infrarotstrahler, Monitor und Rekorder ist für die simultane Aufzeichnung des Videobildes des Patienten zusammen mit den abgeleiteten Biosignalen erforderlich und dient auch der Kontrolle des Patienten. Zur Verständigung mit dem Patienten während der Ableitung ist eine Gegensprechanlage erforderlich.
Ambulante Geräte 12.11.2
Medizintechnische Geräte dürfen die Gesundheit und den Schutz von Patienten, Anwendern und Dritten nicht gefährden. Dies betrifft in einem besonderen Maß die Medizintechnik, die der Patient im Rahmen einer Therapie oder ambulanten Diagnostik von Schlafstörungen zu Hause einsetzt. Hier müssen zusätzlich Bedienbarkeit, Übersichtlichkeit, ein Ausschluss möglicher Fehlbedie-
Zeitbedarf
Der Zeitbedarf für eine Schlafuntersuchung ist je nach Fragestellung sehr unterschiedlich und reicht von 20 min (MSLT) bis zu mehreren Tagen (Epilepsiediagnostik und Diagnostik chronobiologischer Schlafstörungen). Die Vorbereitung des Patienten und das Anlegen der Sensorik dauert im Durchschnitt eine halbe bis eine ganze Stunde.
12
184
Kapitel 12 · Schlafdiagnostiksysteme
12.11.3
I
Personal
Ein Schlaflabor wird von einem verantwortlichen Leiter geführt, der das diagnostische Spektrum der Schlafstörungen beherrscht. Ist er kein Arzt, sondern z. B. Psychologe, muss ein verantwortlicher Arzt zur Erfüllung der medizinischen Belange ernannt werden. Empfehlenswert ist der Einsatz von einem Arzt (z. B. für Ambulanz, Befundung, interventionelle Therapie und Rufbereitschaft) sowie zwei Assistent(inn)en (z. B. für Einbestellung, Tagtest, Auswertung, Anlegen und Pflegen der Sensorik) je Ableitplatz. Eine Nachtwache sollte nicht mehr als drei Patienten überwachen, davon maximal zwei CPAP-Einstellungen oder maximal ein Problemfall. Während der Nacht muss ein diensthabender Arzt im Hintergrund zur Verfügung stehen.
Literatur 1. Ayappa I, Norman RG, Hosselet JJ, Rapoport DM (1998) Relative occurrence of flow limitation and snoring during continuous positive airway pressure titration. Chest 114: 685–690 2. Becker H, Brandenburg U, Peter JH, Schneider H, Weber K, von Wichert P (1993) Indikation und Applikation der BiLEVEL-Therapie. Pneumologie 47: 184–188 3. Borbely AA (1992) Die Beeinflussung des Schlafs durch Hypnotika. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 1–44 4. Buysse DJ et al. (1994) Clinical diagnoses in 216 insomnia patients using the international classification of sleep disorders. Sleep 17: 630–637 5. Clarenbach P (1992) Schlafstörungen im Rahmen neurologischer Erkrankungen. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 329–356 6. Duchna HW, Schäfer D, Wiemann J (1994) Schlaflabor-Diagnostik. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 69–76 7. Ferber R et al. (1994) Portable recording in the assessment of obstructive sleep apnea. Sleep 17: 378–392 8. Fietze I, Warmuth R, Quispe-Bravo S, Reglin B (1993) Befunde bei Patienten mit obstruktivem Schlafapnoesyndrom unter nCPAPTherapie. Pneumologie 47: 170–174 9. Fischer J et al. (1991) Empfehlungen zur Diagnostik und Therapie nächtlicher Atmungs- und Kreislaufregulationsstörungen. Pneumologie 45: 45–48 10. Hajak G, Rüther E, Hauri PJ (1992) Insomnie. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 67–119 11. Hirshkowitz M, Moore CA (1994) Issues in computerized polysomnography. Sleep 17: 105–112 12. Lund R, Clarenbach P (1992) Schlafstörungen: Klassifikation und Behandlung. Arcis, München 13. Mayer-Brix J, Schwarzenberger-Kesper F, Kusek E, Küsel M, Penzel T (1991) Schnarchen und schlafbezogene Atmungsstörungen bei Kindern – Klinik, Differentialdiagnosen und Indikationen zur Adenotonsillenektomie. Arch Otorhinolaryngol (Suppl): 79–114 14. Penzel T et al. (1993) Empfehlungen zur Durchführung und Auswertung polygraphischer Ableitungen im diagnostischen Schlaflabor. Z EEG-EMG 24: 65–70
15. Penzel T, Berger M, Clarenbach P, Peter JH (1994) Zur Qualitätskontrolle von Schlaflabors in der Bundesrepublik Deutschland. WMW Sonderheft: 120–124 16. Peter JH et al. (1992) Empfehlungen zur ambulanten Diagnostik der Schlafapnoe. Med Klin 87: 310–317 17. Peter JH, Köhler D, Knab B, Mayer G, Penzel T, Raschke F, Zulley J (Hrsg) Weißbuch Schlafmedizin. Roderer, Regensburg (1995) 18. Peter JH, Amed G, Stephan S, Jung W, Ockenga A, Himmelmann H, von Wichert P (1987) Therapie der Schlafapnoe mit abendlich eingenommenem retardiertem Theophyllin (EUPHYLONG). Prax Klin Pneumol 41: 433–437 19. Pollmächer T, Lauer C (1992) Physiologie von Schlaf und Schlafregulation. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 1–44 20. Sadeh A, Hauri PJ, Kripke DF, Lavi P (1995) The role of actigraphy in the evaluation of sleep disorders. Sleep 18: 288–302 21. Sanner B, Konermann M, Wiemann J (1994) Apparative Therapie schlafbezogener Atmungsstörungen im Erwachsenenalter. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 99–104 22. Schäfer T (1994) Plötzlicher Kindstod – Ursache, Prävention, Heimmonitoring. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 137–143 23. Schwartz AR, Smith PL, Gold AR (1997) Clinical application of quantitative measures of pharyngeal collapsibility. ADSA News 4: 11–12 24. Smith RP, Argod J, Pepin JL, Levy PA (1999) Pulse transit time: an appraisal of potential clinical applications. THORAX 54: 452–457 25. Stefan H (1991) Epilepsien, Diagnose und Behandlung. Ed. Medizin, VCH, Weinheim Basel Cambridge New York, S 79–89 26. Teschler H, Wessendorf TE (1999) Automatisches CPAP. In: Schulz (Hrsg) DGSM Kompendium Schlafmedizin, Therapie von Atmungsstörungen. Ecomed Verlag, Landsberg, S 1–7
13 X
185 xxxx · xxxx
Nystagmographie K.-P. Hoffmann 13.1 Funktion und Anwendung 13.2 Augenbewegungen 13.2.1 13.2.2 13.2.3 13.2.4 13.2.5
– 185
– 186
Sakkaden – 186 Folgebewegungen – 186 Nystagmen – 186 Konvergenzbewegungen – 187 Torsionsbewegungen – 187
13.3 Technik und Methodik
– 187
13.3.1 Frenzel-Brille – 187 13.3.2 Elektronystagmographie (ENG), Elektrookulographie (EOG) – 187 13.3.3 Photoelektronystagmographie (PENG), Infrarotokulographie (IROG) – 188 13.3.4 Magnetookulographie (MOG) – 188 13.3.5 Elektromagnetische Technik (Search-coil-System) – 188 13.3.6 Videookulographie (VOG) – 188
13.1
Funktion und Anwendung
Die Nystagmographie ist eine Methode zur messtechnischen Erfassung, Analyse und Bewertung von spontanen und durch externe Reize ausgelösten Augenbewegungen. In ⊡ Abb. 13.1 ist stark vereinfacht der prinzipielle Aufbau des okulomotorischen Systems dargestellt. Seine primäre Funktion ist es, die stabile Positionierung der Abbilder
13.4 Verfahren 13.4.1 13.4.2 13.4.3 13.4.4 13.4.5
– 189
Spontannystagmus – 189 Sakkaden – 189 Folgebewegungen – 189 Optokinetischer Nystagmus – 190 Vestibulärer Nystagmus – 190
13.5 Signalableitung und Signalverarbeitung – 190 13.6 Medizinische Bedeutung
– 191
13.7 Sicherheitstechnische Aspekte 13.8 Raumplanung Literatur
– 192
– 192
– 192
der visuellen Welt auf der Netzhaut und damit sowohl einen ungestörten Sehvorgang als auch eine konstante Raumwahrnehmung zu ermöglichen. Es müssen einerseits die interessierenden Bildabschnitte auf der Stelle des schärfsten Sehens, der Fovea centralis (ca. 0,8° des zentralen Gesichtsfeldes) binokulär zentriert und fixiert werden. Andererseits gilt es, bei Eigen- und Umweltbewegungen auftretende retinale Bildverschiebungen zu vermeiden. Hierzu stehen prinzipiell schnelle
⊡ Abb. 13.1. Vereinfachte Darstellung der Regelung von Augenbewegungen nach [19]
186
I
Kapitel 13 · Nystagmographie
und langsame Augenbewegungen zur Verfügung mit den okulomotorischen Systemen Sakkaden, langsame Folgebewegung, vestibulärer und optokinetischer Nystagmus, Konvergenzbewegungen sowie Fixation. Dabei ist die Fixationsphase von Mikrosakkaden gekennzeichnet [12]. Erst die Genauigkeit der sensomotorischen Verknüpfung einschließlich der Möglichkeit der Kompensation von Störungen sichert die Aufrechterhaltung des binokulären räumlichen Sehens [10]. Diese funktionellen Leistungen der Okulomotorik werden durch die zentrale Integration der propriozeptiven, vestibulären und optischen Afferenzen ermöglicht [19]. Daher wird die Nystagmographie interdisziplinär insbesondere in den Fachgebieten Neurologie und Hals-Nasen-Ohren-Heilkunde eingesetzt und hat sich bereits in der Mitte des vorigen Jahrhunderts zu einer routinemäßig durchgeführten Diagnostikmethode etabliert.
13.2
Augenbewegungen
Eine schematische Darstellung der wesentlichen Formen von Augenbewegungen ist in ⊡ Abb. 13.2 zusammengefasst. Es handelt sich dabei um Sakkaden, Folgebewegungen, Nystagmus und Konvergenzbewegung.
13.2.1 Sakkaden
Sakkaden sind schnelle Augenbewegungen, die dem Erfassen eines neuen Fixationspunktes dienen. Unter zerebellärer Kontrolle werden sie in der paramedianen pontinen Formatio reticularis generiert. Ihre maximale Geschwindigkeit nimmt mit der Größe der Bewegung zu und kann bis zu 700°/s betragen. Die Dauer liegt zwischen 30 und 120 ms. Weitere Parameter einer Sakkade sind die Latenz und die Überschwingweite, welche als prozentuale
⊡ Abb. 13.2. Schematische Darstellung von Augenbewegungen
Abweichung vom Fixationsort nach einer Sakkade beschreibbar ist. Wird durch eine Sakkade das neue Blickziel nicht ganz erreicht, folgt nach 100–300 ms eine Korrektursakkade [2, 8]. Sakkaden lassen sich in intern getriggerte Willkürsakkaden (z. B. Erinnerungssakkaden, Antisakkaden, Suchsakkaden), durch externe Reize getriggerte automatisch ablaufende Reflexsakkaden (z. B. visuell oder akustisch induziert) und spontane scheinbar zufällige Sakkaden unterscheiden.
13.2.2 Folgebewegungen
Mit Folgebewegungen wird das Auge konjugiert und langsam einem bewegten Sehziel nachgeführt. Die Konturen des Objektes können zusätzlich durch Sakkaden abgetastet werden. Die Winkelgeschwindigkeiten liegen durchschnittlich bei 30–50°/s. Sie dienen der Verfolgung und Stabilisierung eines bewegten Sehziels auf der Retina [9].
13.2.3 Nystagmen
Als Nystagmus wird eine unwillkürliche rhythmische, in zwei Phasen ablaufende okuläre Oszillation bezeichnet. Es lassen sich zum einen der Rucknystagmus mit einer langsamen und einer die Richtung des Nystagmus bezeichnenden schnellen Phase und zum anderen der Pendelnystagmus mit in beiden Richtungen gleich schnellen Augenbewegungen unterscheiden. Der optokinetische Nystagmus (OKN), auch als vestibulookulärer Reflex (VOR) bezeichnet, ist ein durch großflächige Reize ausgelöster Rucknystagmus. Ein Beispiel hierfür ist der sogenannte. Eisenbahnnystagmus, der beim Betrachten von Sehzielen während der Eisenbahnfahrt beobachtbar ist. Die langsame Phase entspricht der Bewegung des Zuges (Folgebewegung), die schnelle Phase einem Fixationswechsel (Sakkade). Eine vestibuläre Reizung kann von einem vestibulookulären Reflex gefolgt werden. Ein vestibulärer Nystagmus tritt bspw. nach kalorischer oder mechanischer Reizung des Labyrinths auf. Letzterer lässt sich durch eine Drehbeschleunigung auslösen. Während der Drehung schlägt der Nystagmus in Drehrichtung, nach Beendigung in Gegenrichtung. Weitere physiologische Nystagmen sind der Zervikalnystagmus bei Drehung der Halswirbelsäule, der audiokinetische Nystagmus bei bewegten Schallquellen, der arthrokinetische Nystagmus bei passiven Arm- und Beinbewegungen sowie der Einstellungs- oder Endstellennystagmus. Pathologische Nystagmen treten infolge von Läsionen im okulomotorischen System auf. Zu ihnen gehören der Blickrichtungsnystagmus, der vestibuläre Spontannystag-
187 13.3 · Technik und Methodik
mus, der Kopfschüttelnystagmus, der Lagerungsnystagmus, der muskelparetische Nystagmus, der periodisch alternierende Nystagmus usw. [2, 3].
13.2.4 Konvergenzbewegungen
Interretinale Bildfehler, die bei einer Fixation möglicherweise auftreten können, werden durch Konvergenzbewegungen ausgeglichen. Diese sind sehr langsam (10°/s) und von geringer Amplitude (maximal 15°) [2].
13.3.1 Frenzel-Brille
Die Frenzel-Brille ermöglicht die Beobachtung von Augenbewegungen. Durch konvexe Linsen und die Beleuchtung der Augen wird zum einen die Fixation ausgeschlossen, zum anderen die Beurteilung der Augenbewegung bei Lupenvergrößerung möglich [2]. Diese Methode erlaubt nur qualitative Aussagen. Aufgrund der einfachen Handhabung bei ausreichender Beurteilbarkeit ist sie weit verbreitet.
13.3.2 Elektronystagmographie (ENG), 13.2.5 Torsionsbewegungen
Drehbewegungen um die Sehachse mit einer Amplitude bis 10° und Geschwindigkeiten bis 200°/s werden als Torsionsbewegungen bezeichnet. Sie können spontan auftreten oder aber optokinetisch durch den Anblick einer Rollbewegung der Umwelt bzw. vestibulär bei Körperund Kopfkippungen [2].
13.3
Technik und Methodik
Der geübte Kliniker kann eine differenzierte Untersuchung von Augenbewegungen, insbesondere die Erkennung von Augenfehlstellungen, auch ohne aufwendige technische Hilfsmittel durchführen. Die quantitative Erfassung mit der Messung von Latenz und maximaler Geschwindigkeit, Verlaufsbeobachtungen, das Erkennen von spontanen Augenoszillationen sowie die Erfassung von Augenbewegungen bei geschlossenen Lidern ist nur mit geeigneter Technik möglich.
Elektrookulographie (EOG) Die Elektronystagmographie ist die in der klinischen Praxis am weitesten verbreitete Methode der messtechnischen Erfassung von Augenbewegungen. Die Signalquelle ist das korneoretinale Bestandspotential aufgrund bestehender Konzentrationsdifferenzen verschiedener Ionen im Pigmentepithel der Retina. Bei Bewegung des Auges lässt sich somit in unmittelbarer Nähe des Auges ein elektrisches Potential ableiten, dessen Änderung dem Kosinus des Winkels zwischen Ableitebene und Dipolachse proportional ist. Diese Potentialänderungen sind mittels Ag/AgClElektroden bipolar für beide Augen getrennt erfassbar (⊡ Abb. 13.3). Die mit dieser Methode gewonnenen Spannungsänderungen lassen sich mit hinreichender Genauigkeit bis 20° als eine lineare Beziehung annehmen [1, 7, 8]. Für die elektronystagmographische Methode ist nur ein geringer technischer Aufwand erforderlich. Neben den Elektroden und einem Registrierteil sind Verstärker in einem Frequenzbereich von 0,1–30 Hz für Folgebewegungen und DC bis 1000 Hz für Sakkaden erforderlich.
⊡ Abb. 13.3. Elektrookulographie. Links: Schematische Darstellung der Messtechnischen Erfassung, rechts: Applikation der Ag/AgCI-Elektroden zur bipolaren Ableitung horizontaler und vertikaler Augenbewegungen [8]
13
188
I
Kapitel 13 · Nystagmographie
Messungen in horizontaler und vertikaler Richtung sind sowohl am geöffneten als auch am geschlossenen Auge, beispielsweise während des Schlafs, möglich. Die Auflösung liegt bei 1°. Das gewonnene Signal ist durch eine Reihe von Artefakten behaftet, wie z. B. Lidartefakt, Änderung des Bestandspotentials während der Hell-Dunkeladaptation des Auges, Grundliniendrift durch Änderungen des Hautwiderstands und Muskelartefakte. Aufgrund der uneingeschränkten und einfachen Anwendbarkeit stellt die Elektronystagmographie unverändert die Methode der Wahl für die klinische Routinediagnostik dar.
nete Methode benutzt als Sensor supraleitende Quanteninterferometer. Die Magnetookulographie arbeitet völlig berührungslos. Ihre Auflösung ist derzeit noch geringer als die der Elektrookulographie. Sie ist technisch und finanziell sehr aufwändig, setzt magnetisch abgeschirmte Räume und zum Erzielen der Supraleitung eine Kühlung mit flüssigem Helium voraus. Sie wird daher nur zu Forschungszwecken eingesetzt.
13.3.5 Elektromagnetische Technik
(Search-coil-System) 13.3.3 Photoelektronystagmographie (PENG),
Infrarotokulographie (IROG) Bei der photoelektrischen Methode werden meist ringförmig angeordnete, Infrarotlicht emittierende Dioden zur diffusen Beleuchtung des Auges eingesetzt. Iris und Sklera reflektieren dieses Licht unterschiedlich stark. Dadurch treten an auf den Limbus gerichteten Phototransistoren bei Bewegung des Auges Spannungsdifferenzen auf, deren Wert dieser Bewegung proportional ist (⊡ Abb. 13.4). Diese Methode ist wenig störanfällig und für eine rechnergestützte Auswertung gut geeignet. Die Messung auch sehr kleiner Augenbewegungen bis zu 0,1° ist möglich. Nachteilig wirken sich Bewegungen des Lides und Veränderungen der Pupillenweite aus. Auch kann nur am geöffneten Auge gemessen werden [1, 18].
Eine Kontaktlinse mit einer Spule aus dünnem Draht wird auf das Auge gesetzt. Der Kopf des Patienten befindet sich in einem alternierenden Magnetfeld. Eine Augenbewegung erzeugt in der Spule eine induzierte Spannung, die dem Sinus des Winkels zwischen Spule und Richtung des Magnetfelds proportional ist. Je nach Lage der Spule sind sowohl horizontale als auch vertikale Augenbewegungen, aber auch Torsionsbewegungen registrierbar [2]. Das System liefert ein driftfreies, rauscharmes Signal mit einer Auflösung von wenigen Bogenminuten. Aufgrund des Einsatzes einer Kontaktlinse und der damit verbundenen Unannehmlichkeiten für den Patienten hat sich die elektromagnetische Technik in der Klinik nicht durchgesetzt.
13.3.6 Videookulographie (VOG) 13.3.4 Magnetookulographie (MOG)
Jeder von einem Strom durchflossene Leiter ist von einem Magnetfeld umgeben. Daher ist es möglich, bioelektrische Potentialänderungen über deren Magnetfeldänderungen zu registrieren. Diese als Magnetookulographie bezeich-
⊡ Abb. 13.4. Photoelektronystagmographie, Schematische Darstellung der messtechnischen Erfassung
Miniaturvideokameras auf der Grundlage von infrarotlichtempfindlichen CCD-Sensoren ermöglichen Bildwiederholungsfrequenzen von 250–500 Hz. Dies ist ausreichend, um aus dem Videobild des Auges seine Bewegung zu ermitteln. Die notwendige Illumination des Auges wird durch mindestens zwei auf das Auge gerichtete infrarotlichtemittierende Leuchtdioden (Wellenlänge von 850– 940 nm) erzielt. Die Pupille als der Ort der geringsten Lichtreflexion ist als dunkelster Ort im Bild detektierbar. Der Pupillenmittelpunkt ergibt sich als Schnittpunkt der maximalen Strecken in horizontaler und vertikaler Richtung. Seine Bewegung repräsentiert die entsprechende Augenbewegung (⊡ Abb. 13.5). Darüber hinaus lassen sich Torsionsbewegungen registrieren. Voraussetzungen hierfür sind auf das Auge projizierte Leuchtmarken und die Analyse der Bewegung definierter markanter Muster der Iris. Erforderlich sind hierfür Bildverarbeitungssysteme [1, 3, 17]. Aufgrund der vielfältigen Möglichkeiten handelt es sich bei der Videookulographie um ein modernes Verfahren, das in der letzten Zeit an Bedeutung gewonnen hat. In der zeitlichen Auflösung besteht derzeit gegenüber der Elektrookulographie noch ein gewisser Nachholbedarf.
189 13.4 · Verfahren
⊡ Abb. 13.5. Videookulographie. Links: Schematische Darstellung der messtechnischen Erfassung, rechts: Aufbau eines Messplatzes mit Fixierung des Kopfes. In diesem Beispiel wurde simultan über Elektro-
den das Elektrookulogramm mit registriert. Kopfbewegungen werden durch Kinnstützen minimiert
Neue klinische Möglichkeiten ergeben sich durch die Registrierung von Torsionsbewegungen. Messungen am geschlossenen Auge sind allerdings nicht möglich.
13.4
Verfahren
Die Untersuchungsverfahren richten sich nach der klinischen Fragestellung, den vorhandenen okulomotorischen Störungen und den entsprechenden Generierungsgebieten. Qualitative Aussagen sind dabei durch einfache klinische Tests möglich, wie z. B. die Bewegung eines Fingers durch den Arzt verbunden mit der Bitte an den Patienten, diesen zu fixieren, oder Veränderungen der Lage des Patienten. Dabei werden die so provozierten Augenbewegungen beobachtet. Im Folgenden sollen einige wesentliche gerätetechnische Untersuchungsmethoden kurz vorgestellt werden.
13.4.1 Spontannystagmus
Bei geschlossenen Augen lässt sich das Auftreten von Spontannystagmen untersuchen. Die Augenbewegungen werden meist elektrookulographisch erfasst.
⊡ Abb. 13.6. Elektrookulographisch registrierte Sakkaden mit unterschiedlichen Amplituden. Es ist zu erkennen, dass die maximale Geschwindigkeit mit der Amplitude der Augenbewegung zunimmt nach [8]
dass der Patient auf ein akustisches Signal hin den Fixationswechsel ausführen soll oder zu dem verlöschenden Leuchtpunkt schauen soll. Ein Registrierbeispiel mit unterschiedlichen Amplituden ist in ⊡ Abb. 13.6 dargestellt.
13.4.3 Folgebewegungen 13.4.2 Sakkaden
Sakkaden werden durch zwei vorgegebene Fixationspunkte, beispielsweise zwei im Wechsel aufleuchtende Leuchtdioden, provoziert. Der Patient soll zu dem jeweils aufleuchtenden Punkt sehen. Variationen bestehen darin,
Der Patient wird aufgefordert, einem sich mit einer Geschwindigkeit von 10–40°/s z. B. auf einem Monitor bewegenden Leuchtpunkt mit den Augen zu folgen (⊡ Abb. 13.7). Verstärkungsfaktor (Gain), Kohärenz, Phase und Geschwindigkeitsasymmetrie werden bestimmt [9].
13
190
Kapitel 13 · Nystagmographie
I
⊡ Abb. 13.8. Elektrookulographisch erfasste Nystagmen. Die optokinetische Stimulation erfolgte mit vertikalen Streifenmustern (Streifenbreite 3,5°) die sich mit einer Geschwindigkeit von 20°/s horizontal über einen Monitor bewegten. Die Bewegungsrichtung wechselte. Erkannte Nystagmen sind für das rechte Auge gekennzeichnet
⊡ Abb. 13.7. Elektrookulographisch erfasste Folgebewegungen des rechten und linken Auges mit verschiedenen Geschwindigkeiten eines sich sinusförmig bewegenden Fixationspunktes 10 °/s oder 0,15 Hz (oben), 20°/s oder 0,3 Hz (Mitte) und 30°/s oder 0,45 Hz (unten). Es ist zu erkennen, dass mit Erhöhung der Geschwindigkeit die glatten Folgebewegungen zerfallen und der Anteil sakkadischer Augenbewegungen zunimmt
13.4.4 Optokinetischer Nystagmus
Ein optokinetischer Nystagmus lässt sich durch eine rotierende Trommel, auf der z. B. Streifen aufgebracht wurden, provozieren. Projiziert man auf einen Fernseher sich horizontal bewegende Muster, so lassen sich ebenfalls Nystagmen (⊡ Abb. 13.8) auslösen. Die Geschwindigkeit und Größe der Muster sind variabel.
13.4.5 Vestibulärer Nystagmus
Die kalorische Vestibularisprüfung besteht darin, dass der äußere Gehörgang mit warmem Wasser (44°C) oder kaltem Wasser (30°C) gespült wird. Damit können beide Labyrinthe seitengetrennt untersucht werden. Der Patient liegt dabei mit leicht erhobenem Kopf. So kommt laterale horizontale Bogengang in eine vertikale Stellung.. Die Spülung mit warmem Wasser führt zu Thermokonvektionsströmen, die eine Auslenkung von Kupula und Stereozilien nach sich ziehen und die Auslösung eines Nystagmus be-
wirken. Es wird gemessen, ob der Nystagmus symmetrisch von beiden Ohren ausgelöst wird. Diese Methode wird zur klinischen Prüfung des Vestibularisapparats eingesetzt. Ein rotierender Drehstuhl (⊡ Abb. 13.9) wird zur Prüfung des vestibulookulären Reflexes eingesetzt. Häufig eingesetzte Methoden sind der Drehpendeltest, der Drehstoptest und der Rotationstest. Beim Drehpendeltest wird der Stuhl sinusförmig mit definierten Amplituden und Geschwindigkeiten bewegt. Beim Drehstoptest wird der Patient nach einer ausreichenden Adaptation an eine konstante Drehbewegung innerhalb von 1–2 s gestoppt. Der postrotatorische Nystagmus wird nachgewiesen. Bei einem Rotationstest wird der Patient erst beschleunigt, dann mit konstanter Geschwindigkeit weiter bewegt (Plateauphase) und dann allmählich gebremst. Der perrotatorische Nystagmus wird nachgewiesen [2].
13.5
Signalableitung und Signalverarbeitung
Die Signalableitung richtet sich nach der eingesetzten Methodik. Die Signalverarbeitung ist insbesondere von dem benutzten Verfahren und der jeweiligen klinischen Fragestellung abhängig. Neben dem Vergleich der Bewegung des rechten und linken Auges beim Blick nach rechts bzw. links und dem Vergleich mit dem Vorgabesignal tritt die direkte Berechnung von Parametern in den Vordergrund. Für die Sakkaden und Nystagmen ist dabei die Berechnung von Geschwindigkeiten von Bedeutung. Aber auch Latenz, Überschwingweite und Dauer einer Sakkade ermöglichen diagnostikrelevante Aussagen [15]. Für Folgebewegungen spielen der Gain als Ausdruck des Verhältnisses zwischen Antwortamplitude und Reizamplitude, die Bestimmung des Zerfalls der glatten Folgebewegungen, die Phasenbeziehung zwischen Stimulus und
191 13.6 · Medizinische Bedeutung
⊡ Abb. 13.9. Messplatz zur Untersuchung des Nystagmus nach optokinetischer Stimulation mittels bewegter Muster auf einem Fernseher und vestibulärer Stimulation durch Erzeugung verschiedener Bewegungen eines Drehstuhls (Werksfoto Jeager Tönnies GmbH Würzburg)
Augenbewegung, Korrelations- und Kohärenzfunktionen eine wichtige Rolle. Die Berechnung der genannten Parameter wird hierbei sowohl im Zeitbereich als auch nach Fourier-Transformation im Frequenzbereich durchgeführt. Die Ergebnisdarstellung erfolgt getrennt sowohl für beide Augen als auch für die jeweilige Blickrichtung häufig als Funktion der Amplitude der Augenbewegung. Für die Videookulographie kommt eine Reihe von Bildverarbeitungsverfahren zur Anwendung, um die Augenposition zu bestimmen. Die Anforderungen an die Signalverarbeitung steigen ständig und erweitern das Spektrum nystagmographischer Untersuchungsmethoden und verbessern die diagnostischen Aussagemöglichkeiten. Insbesondere die Beschreibung des okulomotorischen Systems durch mathematische Modelle und verschiedene Formen der digitalen Filterung ermöglichen neue Ansätze [4–6, 11].
13.6
Medizinische Bedeutung
Das okulomotorische System ist eines der bestuntersuchten Systeme des Menschen. Die Analyse von Augenbewegungsstörungen bei Patienten erlaubt eine Charakterisierung und präzise lokalisatorische Zuordnung, wie sie bislang nur durch moderne bildgebende Verfahren erreicht werden konnte [13]. Die hauptsächliche Information liegt neben der lokalisatorischen Aussage insbesondere in der Beschreibung einer funktionellen Einschränkung aufgrund einer Läsion, einer Raumforderung, einer systemischen Erkrankung oder der Wirkung von Pharmaka und Substanzen [2]. Dabei ist zu beachten, dass immer gleichzeitig der Versuch einer Kompensation mit erfasst wird [10]. Der Einsatz der Nystagmographie reicht von neurologischen Erkrankungen (wie z.B. der multiplen Sklerose und Raumforderungen) über Muskelerkrankungen (wie
⊡ Abb. 13.10. Analyse sakkadischer Augenbewegungen. Es ist der Verlauf der Geschwindigkeit der Augenbewegung dargestellt. Die Grenzbereiche sind grau unterlegt
z.B. die Myasthenie) bis hin zu vestibulären Symptomen (wie z. B. Schwindel) [2, 12, 14, 16]. In ⊡ Tab. 13.1 sind einige Lokalisationen von Läsionen und ihr Einfluss auf Augenbewegungen wiedergegeben. Weitere Anwendungen der Analyse von Augenbewegungen sind auf dem Gebiet der Diagnostik von Lesestörungen, zur Bestimmung der Schlafstadien in der Schlafdiagnostik, aber auch zur Steuerung von Vorgängen über die Augen beispielsweise bei Querschnittsgelähmten zu finden. Für psychologische Untersuchungen werden Augenbewegungen beispielsweise beim Betrachten von Bildern erfasst (⊡ Abb. 13.10).
13
192
Kapitel 13 · Nystagmographie
⊡ Tab. 13.1. Störungen von horizontalen Augenbewegungen durch verschiedene Hirnläsionen nach [2]
I
Fixation
Sakkaden
Folgebewegungen
Optokinetischer Nystagmus
Frontales Großhirn
Flüchtiger kontraversiver corticaler blickparetischer Nystagmus
Sakkadenparese kontraversiv mit Blickdeviation ipsiversiv
–
Kontraversiv (nach Richtung der schnellen Phase)
Occipitales Großhirn
–
Blickstörung durch Hemianopsie
Ipsiversiv
Kontraversiv
Pontomesencephaler Hirnstamm
Ipsiversiv
Sakkadenverlangsamung oder -parese ipsiversiv mit kontraversiven Blickdeviationen
Ipsiversiv
Ipsiversiv
Kleinhirn
Ipsiversiv
Sakkadendysmetrie
Ipsiversiv
Kontraversiv
13.7
Sicherheitstechnische Aspekte
Es handelt sich bei der Nystagmographie um eine nichtinvasive Diagnostikmethode, die in medizinisch genutzten Räumen angewendet wird. Es ergeben sich daraus keine weiteren speziellen sicherheitstechnischen Aspekte.
13.8
Raumplanung
Der Raumbedarf ist abhängig von der genutzten Methode und unterscheidet sich je nachdem, ob ein Drehstuhl eingesetzt wird oder nicht. Für routinemäßige Anwendungen der Elektronystagmographie ist der Raumbedarf vergleichbar anderer Diagnostikmethoden, wie bspw. der Elektrokardiographie oder Elektromyographie.
Literatur 1. Allum JHJ, Honegger F, Troescher M (1998) Principles underlying real-time nystagmus analysis of horizontal and vertical eye movements recorded with electro-, infrared-, or video-oculographic techniques. J Vestib Res 8: 449–463 2. Brandt B, Büchele W (1983) Augenbewegungsstörungen. Thieme, Leipzig 3. Eckert AM, Gizzi M (1998) Video-oculography as part of the ENG battery. Br J Audiol 32: 411–416 4. Enderle JD (1999) Physiological Modeling. In: Enderle JD, Blanchard SM, Bronzino JD (eds) (1999) Introduction to biomedical engineering. Academic Press, London New York, S 279–368 5. Gangemi PF, Messori A, Baldini S, Parigi A, Massi S, Zaccara G (1991) Comparison of two nonlinear models for fitting saccadic eye movement data. Comp Meth Progr Biomed 34: 291–297 6. Hacisalihzade SS, Allen JS, Stark LW (1993) Computer analysis of eye movements. Comp Meth Progr Biomed 40: 181–187 7. Hess CW, Müri R, Meienberg O (1986) Recording of horizontal saccadic eye movements. Neuroophthalmology 6: 189–198 8. Hoffmann KP, Plewe A, Mühlau G, Kästner R (1991) Die sakkadischen Augenbewegungen: methodische Aspekte und Möglichkeiten der klinischen Anwendung. Z EEG-EMG 22: 172–177
9. Hoffmann KP, Both R, Kästner R, Weese R (1992) Zur klinischen Anwendung quantitativ ausgewerteter horizontaler Folgebewegungen des Auges. Z EEG-EMG 23: 190–194 10. Hoffmann KP, Mühlau G, Müller C, Both R, Jahns M, Zahlten W (1993) Adaptive mechanisms of saccadic system in diagnostic use. Electromyogr Clin Neurophys 33: 131–135 11. Juhola M (1988) Detection of nystagmus eye movements using a recursive digital filter. IEEE Trans Biomed Eng 35: 389–395 12. Martinez-Conde S, Macknik SL, Troncoso XG, Dyar TA (2006) Neuron 49: 297–305. 13. Marx P (1984) Augenbewegungsstörungen in Neurologie und Ophthalmologie. Springer, Berlin Heidelberg New York Tokio 14. Mumenthaler M (1986) Neurologie. Thieme, Stuttgart New York 15. Murata A, Furukawa N (2005) Hum Factors 47: 598–612 16. Pawlak-Osinska K, Kazmierczak H, Kazmierczak W (2005) Int Tinnitus 11: 52–3 17. Scherer H, Teiwes W, Clarke AH (1991) Measuring three dimensions of eye movement in dynamic situations by means of videooculography. Acta Otolaryngol 111: 182–187 18. Schmid-Priscoveanu A, Allum JHJ (1999) Die Infrarot- und die Videookulographie – Alternativen zur Elektrookulographie? HNO 47: 472–478 19. Trincker L (1977) Taschenbuch der Physiologie III/2. Fischer, Jena
14 Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung S. Hoth 14.1 Die Grundlagen der Audiometrie – 193
14.3 Objektive Audiometrie
14.1.1 Der Schall und seine Bestimmungsgrößen – 194 14.1.2 Aufbau und Funktion des Hörsystems – 196 14.1.3 Hörstörungen – 201
14.3.1 Impedanzaudiometrie – 217 14.3.2 Otoakustische Emissionen – 220 14.3.3 Akustisch evozierte Potentiale – 227
14.2 Psychoakustik und subjektive Audiometrie – 203 14.2.1 Der Zusammenhang zwischen Reiz und Empfindung – 204 14.2.2 Zeitverhalten des Hörsystems – 205 14.2.3 Tonschwellenaudiometrie – 206 14.2.4 Überschwellige Hörprüfungen – 210 14.2.5 Sprachaudiometrie – 211 14.2.6 Prüfung des binauralen Hörens – 215
14.1
Die Grundlagen der Audiometrie
Unser Gehör ist wichtig, komplex und empfindlich. Diese drei Eigenschaften bestimmen die Aufgabe der Audiometrie. Weil das Gehör wichtig ist, werden zuverlässige Verfahren zu seiner Untersuchung benötigt. Diese Verfahren sollen nach Möglichkeit auch dann anwendbar sein, wenn der Untersuchte über seine Empfindungen und Wahrnehmungen keine Auskunft zu erteilen vermag. Für die mit Hilfe der Hörprüfungen festgestellten Funktionsdefizite müssen wirksame Gegenmaßnahmen verfügbar sein. Daher sind Audiometrie und Hörprothetik untrennbar miteinander verbunden. Weil das Gehör komplex ist, können prinzipiell viele Funktionsdefizite auftreten und es wird kaum möglich sein, alle Fehlleistungen mit einer einzigen Funktionsprüfung zu erkennen. Daher gibt es nicht den »Hörtest«, sondern ein aus vielen Verfahren bestehendes Methodeninventar. Und schließlich treten viele der möglichen Funktionsdefizite auch tatsächlich auf, weil das Hörorgan empfindlich ist. Seine Strukturen müssen empfindlich sein, weil sie andernfalls für den Nachweis von Schwingungen geringer Intensität nicht geeignet wären. Die Evolution hat dem Rechnung getragen, indem sie dieses empfindliche Messinstrument soweit wie möglich in den härtesten Knochen, den unser Organismus aufweist (und der bezeichnenderweise den Namen Felsenbein trägt), eingebettet hat. Dies wiederum erschwert die körpereigene Versorgung des nicht nur empfindlichen, sondern auch energiebedürfti-
14.4 Hörprothetik 14.4.1 14.4.2 14.4.3 14.4.4
– 217
– 232
Versorgungsbedürftige Hörstörungen – 232 Hörgeräte: Technik und Anpassverfahren – 233 Implantierbare Hörsysteme – 240 Das Cochlea-Implantat – 241
Literatur
– 246
gen Sinnesorgans mit den nötigen Ressourcen, und dies wiederum fördert seine Anfälligkeit. Die Aufgabe der Audiometrie besteht in der Beantwortung der folgenden Fragen: ▬ Liegt eine Hörstörung vor? ▬ Durch welche Parameter lässt sie sich beschreiben? ▬ Welche Komponente des Hörsystems ist von der Störung betroffen bzw. für sie verantwortlich? ▬ Wie stark ist der Betroffene von der Hörstörung beeinträchtigt? ▬ Welche Möglichkeiten bestehen zur Behebung der Hörstörung? Eine Hörstörung kann viele Ursachen haben: Fremdkörper, Verletzungen, Entzündungen, Frakturen, veränderter Innenohrdruck, Vergiftung, Alterung, Mangelversorgung, defekte Sinneszellen, Schädigung oder Degeneration von Neuronen, Tumoren, Schlaganfälle und zentrale Ausfälle anderer Ursache. Sie kann zu diversen Funktionseinbußen führen: herabgesetzte Empfindlichkeit, gestörte Intensitätsverarbeitung, verminderte Frequenzselektion, verändertes Zeitverhalten, verringerte Diskriminationsleistung. Die heutigen konservativen, operativen und apparativen Mittel versetzen uns leider noch nicht in die Lage, alle Funktionsdefizite des Gehörs auszugleichen. Eine vollkommene Wiederherstellung des normalen Hörvermögens (restitutio ad integrum) ist nur in wenigen Fällen möglich; in der Mehrzahl der Fälle kann die ausgefallene Funktion nur teilweise kompensiert oder substituiert werden. Die Verfahren zur Untersuchung des Gehörs orientieren sich einerseits am Bedarf und andererseits an den
194
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Möglichkeiten. Der Betroffene1 wird ebenso wie der Arzt, von dem er Hilfe erwartet, daran interessiert sein, so viel wie möglich über die vorliegende Hörstörung zu erfahren. Daneben aber besteht das allgemeine ethisch begründete Prinzip, demzufolge die Kenntnis einer Gesundheitsstörung zu ihrer Behebung verpflichtet; daher macht es keinen Sinn, über das Funktionsdefizit eines Organs viel Information zusammenzutragen, wenn die Behebung des Defizits nicht möglich ist. Die praktische Audiometrie beschränkt sich deshalb darauf, die Funktion des Gehörs zu dokumentieren, soweit dem Betroffenen eine Ersatzfunktion angeboten werden kann, und die organische Ursache einer Hörstörung herauszufinden, soweit dies therapeutische Konsequenzen hat. Bezüglich der Funktionsprüfung werden bevorzugt psychoakustische und somit subjektive Verfahren eingesetzt, in Hinblick auf die Klärung der organischen Ursache hingegen sind objektive Messungen im Vorteil. Die Vielfalt des methodischen Inventars ist die große Stärke der heutigen Audiometrie (und sie rechtfertigt den Umfang der Buchbeiträge, die über dieses Thema geschrieben werden).
14.1.1 Der Schall und seine
Bestimmungsgrößen Es kann davon ausgegangen werden, dass der Leser dieses Buches eine durchaus fundierte Vorstellung von Schall hat. Trotzdem ist eine exakte Definition nützlich und notwendig. Da es sich bei Schall um eine fundamentale, allgemein bekannte und vielfach beschriebene Erscheinung handelt, soll den bestehenden Definitionen keine neue hinzugefügt werden. In einem Fachlexikon der Physik ist Schall definiert als »Schwingungen und Wellen im Frequenzbereich zwischen 16 Hz und 20 kHz, die über das menschliche Ohr Ton-, Klang- oder Geräuschempfindungen hervorrufen«. Bemerkenswert hieran ist der Umstand, dass die Definition ganz wesentlich auf einer Sinneswahrnehmung des Menschen beruht und die Akustik somit sehr eng mit der Erfahrungswelt des Menschen verknüpft ist. Wenn dieser Bezug zwischen Physik und Sinnesorgan auch nicht einzigartig ist – denn auch das Licht wird in der physikalischen Optik als »sichtbare elektromagnetische Strahlung« definiert – so deutet beides doch auf die Bedeutung des Hörens und Sehens hin und es zeigt, dass die physikalische Untersuchung und Beschreibung vieler Naturvorgänge lediglich die Fortsetzung der Beobachtung mit Hilfe unserer Sinnesorgane ist. Entstehung und Ausbreitung von Schall sind an materielle Medien gebunden. Diese Medien können aus
1
Hier und auf den folgenden Seiten dieses Beitrages stehen die Artikel vor personenbezogenen Substantiven in keiner Relation zum Geschlecht der respektiven Person.
gasförmiger, flüssiger oder fester Materie bestehen. Schall stellt eine Störung des Gleichgewichtszustandes dieses Mediums dar: Während im Gleichgewicht die Zustandsgrößen Dichte, Druck und Geschwindigkeit der Moleküle im statistischen Sinne vom Ort unabhängig sind, beruhen Schallerzeugung und -ausbreitung darauf, dass dieser Zustand durch eine lokale Störung aus dem Gleichgewicht gebracht wird. Die Störung kann z. B. darin bestehen, dass jemand in die Hände klatscht oder dass eine Lautsprechermembran sich hin- und herbewegt. Die zwischen den Molekülen herrschenden abstoßenden und anziehenden Kräfte sorgen dafür, dass die Störung nicht auf den Ort ihrer Entstehung beschränkt bleibt, sondern sich auf Nachbarorte auswirkt und sich infolgedessen von der Quelle weg ausbreitet. Am Ursprungsort wird der Druck erhöht oder verringert. Das entspricht einer Kraft auf die atomaren oder molekularen Teilchen. Gemäß dem grundlegenden Newton‘schen Bewegungsgesetz hat dies eine Beschleunigung und somit eine Auswirkung auf die Teilchengeschwindigkeit zur Folge. Weil die Geschwindigkeit mit einer (örtlich begrenzten) Strömung von Materie einhergeht und weil bei der Strömung von Teilchen ihre Gesamtzahl erhalten bleiben muss (Kontinuitätsbedingung), ergibt sich aus der Druckänderung zwanglos eine ihr proportionale Änderung der Dichte. Die Einführung von Näherungen (kleine Auslenkungen aus der Gleichgewichtslage, kein Wärmeaustausch zwischen den bewegten und den benachbarten Bereichen) führt letztendlich zu einer Formel, die in Mathematik und Physik als Differentialgleichung bezeichnet wird, weil sie mathematische Ausdrücke enthält, die die zeitliche Änderung und die Ortsabhängigkeit von Parametern des Mediums beschreiben. Das Aufschreiben dieser Gleichung (Hoth 1999) führt für unsere Zwecke nicht weiter als die Beschreibung ihrer Lösungen. Letztere bestehen aus mathematischen Ausdrücken, die eine Ausbreitung der Störung in alle Raumrichtungen mit fester Geschwindigkeit beschreiben. Das Ausmaß der Störung bzw. der Abweichung vom Gleichgewichtszustand wird durch die Zustandsgrößen Druck, Dichte und Schnelle (s.unten) beschrieben. Die Gradienten dieser Größen verlaufen parallel zur Ausbreitungsrichtung: Schallwellen sind Longitudinalwellen (im Gegensatz zu den transversalen Lichtwellen). Für die graphische Wiedergabe der Welle wird eine der Zustandsgrößen über der Zeitachse (für einen festen Ort) oder über einer Ortsachse (für einen festen Zeitpunkt) aufgetragen. Die zwei Darstellungen sind gleichwertig, weil die bereits erwähnte Schwingungsdifferentialgleichung (und daher auch ihre Lösungen) nur von (x–c·t), nicht jedoch explizit vom Ort x und der Zeit t abhängt (c = Schallgeschwindigkeit; s.unten). Zur Beschreibung der Schallwelle dienen ihre Kenngrößen Amplitude bzw. Intensität, Wellenlänge bzw. Wellenzahl sowie Frequenz bzw. Periode.
14
195 14.1 · Die Grundlagen der Audiometrie
Die Amplitude bezeichnet den aktuellen, von Ort und Zeit abhängigen Wert des Schalldrucks, der Teilchendichte oder der Schallschnelle. An den Orten (und zu den Zeiten), wo der Druck maximal ist, ist auch die Dichte maximal (Verdichtung) und die dem Druck ausgesetzten Teilchen befinden sich in Ruhe: Die Schallschnelle, d. h. die Geschwindigkeit, mit der sich die einzelnen Moleküle infolge der Druckschwankungen um ihre Ruhelage bewegen, weist hier eine Nullstelle auf. Dementsprechend geht auch ein Minimum des Druckes oder der Dichte (Verdünnung) mit einer Nullstelle der Schallschnelle einher. Hingegen ist die Schallschnelle groß, wenn Druck bzw. Dichte den Gleichgewichtswert annehmen und ihr Gradient bzw. die zeitliche Änderung maximal sind. Die Schallschnelle ist kleiner als die Schallgeschwindigkeit (s.unten), welche ihrerseits in der Größenordnung der thermischen Geschwindigkeit liegt. Die Amplitude wird mit dem unspezifischen Symbol a dargestellt; es steht für den Schalldruck (in µPa=10-6 N/m2), die Dichte (in g/m3) oder die Geschwindigkeit (in m/s) bzw. für die Abweichung dieser Bestimmungsgrößen vom thermischen Gleichgewichtswert. Zur Definition von Wellenlänge und Frequenz muss zunächst auf den Begriff der Phase eingegangen werden. Er bezeichnet den augenblicklichen Zustand der Schwingung bzw. Welle. Dieser Zustand kann z. B. ein Druck- oder Dichtemaximum sein, ein Minimum der Schallschnelle oder ein steigender Nulldurchgang der Amplitude. Die Wellenlänge λ gibt nun an, in welchem Abstand sich eine solchermaßen bestimmte und eindeutig definierte Phase der Welle wiederholt. In Luft liegen die Wellenlängen von Schall zwischen 17 mm und 20 m. Der (mit 2π multiplizierte) Kehrwert der Wellenlänge wird als Wellenzahl bezeichnet; er entspricht der Zahl der in der Längeneinheit enthaltenen Wellenlängen. Die Phasen von Druck bzw. Dichte einerseits und Schnelle andererseits sind gegeneinander um 90° verschoben. Die Frequenz f ist ein Maß dafür, wie oft sich eine bestimmte Phase wiederholt; ihre Dimension ist »Anzahl pro Zeiteinheit« (Maßeinheit 1 Hertz = 1 Hz= 1/s = 1 Schwingung pro Sekunde). Ihr Kehrwert, die Periode, liegt für Schall zwischen ca. 63 ms (bei 16 Hz) und 50 µs (bei 20 kHz). Die mit 2π multiplizierte Frequenz wird als Kreisfrequenz ω bezeichnet. Die Geschwindigkeit der Ausbreitung einer Wellenphase ist die von Temperatur und Druck sowie den elastischen Deformationseigenschaften des schallübertragenden Mediums abhängige Schallgeschwindigkeit c. Bei Raumtemperatur beträgt sie in Luft ca. 340 m/s (in Wasser ca. 1490 m/s). Frequenz f und Wellenlänge λ sind über die Schallgeschwindigkeit miteinander verknüpft. Die maßgebliche Beziehung f=c/λ ergibt sich unmittelbar aus der oben erwähnten Bindung zwischen den Variablen c und t: Wenn der Abstand λ der Wellenberge und die Geschwindigkeit c, mit der die Welle sich ausbreitet, bekannt
sind, dann kann die Häufigkeit f, mit der die Wellenberge beim Beobachter eintreffen, bestimmt werden. Die Schallwelle ist mit einem Energietransport verbunden, der üblicherweise auf die Zeit- und Flächeneinheit bezogen und als Intensität (Energiestromdichte oder Leistungsdichte) in der Einheit W/m2 angegeben wird. Bei der Frequenz 2 kHz beträgt die Intensität an der Hörschwelle etwa 10 12 W/m2 (diese Bezugsintensität I0 entspricht dem Referenzschalldruck p0=20 µPa), an der Schmerzschwelle etwa 1 W/m2. Die im Verhältnis dieser Zahlen zum Ausdruck kommende Größe des Dynamikbereiches begründet die Verwendung eines logarithmischen Maßstabes für den Schallpegel L. Die Einheit des Schallpegels ist das Dezibel (dB):
L p p2 I = 20 ⋅ lg = 10 ⋅ lg 2 = 10 ⋅ lg dB p0 I0 p0
(1)
Werden für p0 bzw. I0 die oben angegebenen physikalischen Bezugsgrößen eingesetzt, so ergibt sich der Schalldruckpegel in dB SPL (sound pressure level). Die Zahl vor dieser Maßeinheit gibt dann an, wie viele »Zehntel Größenordnungen« zwischen der betrachteten Intensität und dem entsprechenden Referenzwert liegen. Für den zugehörigen Schalldruck p ergibt sich eine halb so große Maßzahl, weil die Intensität zum Quadrat des (effektiven) Schalldruckes proportional ist:
I=
2 peff
Z
2 = Z ⋅ veff
(2)
Die Proportionalitätskonstante ist der Kehrwert der Impedanz der Schallwelle, die ihrerseits dem Quotienten aus Schalldruck p und Schallschnelle v entspricht. In Luft beträgt die akustische Impedanz 430 Ns/m3, in Wasser 1,46×106 Ns/m3. An der Grenzfläche zwischen Luft und Wasser liegt daher ein großer Impedanzsprung vor, der für das Hörsystem der landlebenden Wirbeltiere eine große Rolle spielt, weil er die Notwendigkeit des Mittelohrapparates als Impedanzwandler begründet. Eine sinusförmige Schallschwingung enthält nur eine einzige Frequenz und wird als ein reiner Ton empfunden. Da sich mit Hilfe der Fourier-Transformation alle zeitabhängigen Vorgänge in Anteile verschiedener Frequenzen zerlegen lassen (Ohm’sches Gesetz der Akustik), stellen Sinustöne gewissermaßen die Elementarbausteine der Akustik dar. Aus ihm sind Klänge (d. h. akustische Signale, die aus wenigen Komponenten diskreter Frequenzen bestehen), Geräusche (d. h. breitbandige Signale, deren Eigenschaften stationär oder zeitabhängig sein können), Sprache (d. h. meist bedeutungstragende Signale mit schnellen Änderungen von Frequenz und Pegel) und Schallpulse (d. h. auf kurze Zeitspannen begrenzte Signale mit steilen Flanken) zusammengesetzt. Die Definition des Schalldruckpegels von Signalen, die sich aus vielen Frequenzen zusammensetzen, erfordert in Hinblick auf den Schalldruck p in Gleichung (1) die Berechnung eines
196
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Effektivwertes peff, der bei Sinustönen mit dem durch √2 dividierten Maximalwert identisch ist (dasselbe gilt sinngemäß für den Effektivwert veff der Schallschnelle). Bei nichtstationären Signalen hängt der Effektivwert von der verwendeten Zeitkonstanten ab und es werden zusätzlich die Spitzenpegel angegeben. Alle genannten Signale (Töne, Klänge, Geräusche, Schallpulse und Sprachsignale) werden in der Audiometrie als Reize zur Prüfung des Gehörs verwendet. Bei einigen von ihnen wird für Spezialanwendungen die Amplitude oder die Frequenz moduliert. Sprachsignale weisen eine natürliche Amplitudenmodulation auf, deren Frequenz der Silbendauer entsprechend bei etwa 4 Hz liegt. Demgemäß wird in der Audiometrie außer stationären Geräuschen (stochastische nichtperiodische Prozesse) auch ein sprachsimulierendes Rauschen angewendet, dessen Frequenzspektrum den Sprachbereich abdeckt und dessen Einhüllende mit 4 Hz moduliert ist. Zu den impulsartigen Signalen ist zu bemerken, dass ihre physikalische Amplitude zur Erzielung einer von der Signaldauer unabhängigen Lautstärkeempfindung an die Signaldauer angepasst werden muss. Ihre Intensität wird durch die Spitzenpegel charakterisiert, da die Angabe von Effektivwerten wenig sinnvoll ist. Die Ausbreitung von Schall wird durch Körper, deren Impedanz von der des Ausbreitungsmediums verschieden ist, beeinträchtigt. Die Auswirkung der Hindernisse hängt von ihrer Dimension ab: Ein im Vergleich zur Wellenlänge großes Hindernis wirft einen geometrischen Schatten, wohingegen die Schallwellen um kleine Hindernisse gebeugt werden und auf der der Quelle abgewandten Seite Interferenzmuster bilden können. Breitbandige Signale werden somit durch einen Körper gegebener Größe in frequenzabhängiger Weise beeinflusst: Niederfrequente Wellen, deren Wellenlänge in der Größenordnung der Ausdehnung des Hindernisses liegt, sind auch auf der Rückseite mit unverminderter Amplitude vorhanden, hochfrequente Anteile werden hingegen abgeschirmt. Dieser Effekt spielt beim räumlichen Hören und beim Hören der eigenen Stimme eine Rolle. Wenn die Wellenlänge im Vergleich zu den Abmessungen des Hindernisses klein (bzw. die Frequenz genügend groß) ist, können Beugungsphänomene vernachlässigt und die Wechselwirkung zwischen Schallfeld und Mediumgrenze durch die Reflexionsgesetze beschrieben werden. In Räumen, die ganz oder teilweise durch Wände begrenzt werden, können durch die Überlagerung von einfallender und reflektierter Welle Eigenschwingungen entstehen, die von den Randbedingungen abhängen (stehende Wellen). Im Fall zweier fester Enden (verschwindende Schallschnelle an den ideal schallharten Grenzflächen) werden die Resonanzbedingungen nur von Wellen erfüllt, die an den Wänden Knoten der Schallschnelle (bzw. Schwingungsbäuche des Schalldrucks) aufweisen. Diese Auswahlbedingung ist nur für Räume erfüllt, deren
Ausdehnung mit einem ganzzahligen Vielfachen der halben Wellenlänge übereinstimmt. Dieselbe Bedingung gilt bei zwei freien Enden (Knoten des Schalldrucks bzw. Bauch der Schallschnelle im Fall von ideal schallweichen Abschlüssen). Viele Blasinstrumente (gedeckte Pfeifen) sowie auch der offene Gehörgang des unversorgten Ohres weisen ein freies und ein festes Ende auf. Die Wellenlängen stehender Wellen sind dann durch die Bedingung gegeben, dass die Raumdimension mit einem ungeradzahligen Vielfachen eines Viertels der Wellenlänge übereinstimmt. Für den Gehörgang mit einer Länge von etwa 2,5 cm liegt die niedrigste Resonanzfrequenz bei etwa 3,4 kHz. Die Existenz von Gehörgangsresonanzen infolge stehender Wellen beeinflusst die Ergebnisse akustischer Messungen im Gehörgang (Impedanzaudiometrie, OAE-Messung, in situ- Messung) und sie wirkt sich auf das Klangbild von Hörgeräten aus. Die genannten Randbedingungen (freier und fester Abschluss) sind hier jedoch nur näherungsweise erfüllt, da weder Gehörgangswände und Trommelfell als ideal schallhart noch die Öffnung des Gehörganges als ideal schallweich angesetzt werden dürfen und die Impedanz des Trommelfells zudem von der Frequenz abhängt. Daher genügen die tatsächlich auftretenden Resonanzfrequenzen nicht exakt den angegebenen Regeln. Voraussetzung für die Entstehung stehender Wellen ist eine vollständige Reflexion der einfallenden Schallwelle an der Mediumgrenze. Sie ist dadurch gekennzeichnet, dass der durch die Impedanzen Z1 und Z2 der aneinander grenzenden Medien bestimmte Reflexionskoeffizient r=
ζ −1 mit ζ = Z 2 Z1 PLW ζ +1
(3)
den Wert 1 annimmt. Die auf die Grenzfläche zwischen zwei Medien unterschiedlicher Impedanz auftreffende Schallwelle wird zu einem Anteil r =1−α reflektiert, der restliche Anteil α (= Absorptionsgrad) dringt in das Medium ein. Im Zusammenhang mit dem Hören spielt v. a. die Grenzfläche zwischen Luft (in der Paukenhöhle) und Wasser (im Innenohr) eine große Rolle. Wegen der unterschiedlichen Impedanz der zwei Medien weist diese Grenzfläche einen großen Reflexionskoeffizienten auf. Das Mittelohr hat die Aufgabe, diesen Impedanzsprung zu überwinden. Mit Hilfe der Impedanzaudiometrie kann die Funktion dieses Impedanzwandlers überprüft werden.
14.1.2 Aufbau und Funktion des Hörsystems
An der Verarbeitung der akustischen Information im Gehör sind zahlreiche anatomische Strukturen und komplexe physiologische Vorgänge beteiligt. Das eigentliche Sinnesorgan für die Wahrnehmung von Schallwellen ist das Corti-Organ im Innenohr (Schnecke, Cochlea). Hierhin gelangt der Schall über die Luft, das Außenohr, den
197 14.1 · Die Grundlagen der Audiometrie
äußeren Gehörgang, das Trommelfell und das Mittelohr (Gehörknöchelchen). Vom Innenohr aus wird die im Schallsignal enthaltene Information über die neuralen Strukturen der Hörbahn (Hörnerv, Hinterhirn, Mittelhirn, Thalamus, Hirnrinde und Assoziationsfelder) weitergeleitet, verarbeitet, registriert, gedeutet und eingeordnet. Die Hörbahnen beider Ohren kreuzen sich in ihrem Verlauf, so dass die Information in beiden Hirnhälften vorliegt und für höhere Leistungen des Gehörs, wie das Richtungshören oder die Störschallunterdrückung, genutzt werden kann. Die peripheren Teile des Gehörs sind in ⊡ Abb. 14.1 dargestellt. Außenohr und äußerer Gehörgang dienen der Schallzuführung; sie bewirken eine richtungs- und frequenzabhängige Verstärkung, sie üben eine Schutzfunkti-
⊡ Abb. 14.1. Querschnitt durch Außenohr, Gehörgang, Mittelohr, Innenohr und Hörnerv. Die Paukenhöhle ist über die Tube (Eustach’sche Röhre) mit dem Nasenrachenraum verbunden (nach Boenninghaus 1996)
on aus und sie tragen zur Unterdrückung von Strömungsgeräuschen (Wind) bei. Über Trommelfell, Mittelohr und Gehörknöchelchen (Ossikel) werden die Schallschwingungen der Cochlea zugeleitet. Dem aus Trommelfell und Gehörknöchelchenkette bestehenden Apparat kommt hierbei die wichtige Aufgabe zu, die niedrige akustische Impedanz der Luft an die hohe Impedanz der Flüssigkeit im Innenohr anzupassen. Die Sinneszellen im Innenohr stehen mit afferenten (aufsteigenden) und efferenten (absteigenden) Fasern des Hörnerven in Verbindung. Sie werden durch die vom Schall ausgelösten Bewegungen zur Ausschüttung eines chemischen Botenstoffes (Neurotransmitter) veranlasst, der in den aufsteigenden Nervenfasern Aktionspotentiale auslöst. Diese stellen die Elementarquanten der diskret kodierten auditorischen Information dar, welche im Gehirn analysiert und verwertet wird. Der in zweieinhalb Windungen angelegte, mit dem Liquorraum in Verbindung stehende Innenraum der Cochlea hat eine Länge von ca. 32 mm (bei Frauen) bzw. 37 mm (bei Männern). Er ist in Längsrichtung durch die Reissner’sche Membran und die Basilarmembran in drei flüssigkeitsgefüllte Hohlräume unterteilt (⊡ Abb. 14.2): die mit Perilymphe gefüllte Scala tympani (Paukentreppe), die endolymphhaltige Scala media (Ductus cochlearis, Schneckengang) und die wiederum mit Perilymphe gefüllte Scala vestibuli (Vorhoftreppe). Letztere wird gegen den Mittelohrraum (Paukenhöhle) durch die Membran des ovalen Fensters begrenzt, an welcher der Stapes als das letzte unter den Gehörknöchelchen angreift. An der Schneckenspitze (Apex) sind Pauken- und Vorhoftreppe durch eine kleine Öffnung (Helicotrema, Schneckentor) miteinander verbunden. Dadurch wird bei statischen Druckschwankungen und langsamen Schwingungen ein Druckausgleich über die Membran des runden Fensters, die die Scala tympani gegen die Paukenhöhle abgrenzt, ermöglicht. Das auf der Basilarmembran angeordnete Corti-Organ enthält als funktionelle Elemente etwa 3400 Gruppen
⊡ Abb. 14.2. Querschnitt durch das Innenohr und Vergrößerung des Ductus cochlearis mit Corti-Organ und Haarzellen (nach Boenninghaus 1996)
14
198
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
von Haarsinneszellen, welche die eigentlichen Rezeptoren für Schallschwingungen darstellen. Sie sind mit elektroakustischen Wandlern (Mikrophonen) vergleichbar. Unter den Haarzellen werden zwei Sorten unterschieden: Die schlanken äußeren Haarzellen sind in drei bis fünf Reihen angeordnet und vorwiegend mit efferenten (absteigenden) Hörnervenfasern verbunden, die bauchigen inneren Haarzellen sind näher an der Schneckenachse aufgereiht, fast vollständig von Stützzellen umgeben und nahezu ausschließlich afferent (d. h. von aufsteigenden Fasern) innerviert. Am oberen Ende (apikaler Pol) beider Haarzelltypen befinden sich jeweils etwa 50–120 Sinneshärchen (Stereozilien). Die Stereozilien der äußeren Haarzellen sind in der aufliegenden Deckmembran (Membrana tectoria) verankert, die der inneren Haarzellen schweben frei in der Endolymphe des Schneckenganges. Die Haarsinneszellen des menschlichen Ohres sind ausdifferenziert, sie können sich nicht durch Zellteilung reproduzieren. Die durch den Verlust der Haarzellen bedingten Hörschäden sind daher irreversibel. In jüngerer Zeit ist es zwar im Tierversuch gelungen, Haarzellen aus Stammzellkulturen zu züchten, der Anwendung beim Menschen stehen jedoch derzeit noch große methodische Hindernisse im Weg. Dies begründet die Unabwendbarkeit einer apparativen Hilfe bei Innenohrschäden. An ihrem unteren Ende (basalen Pol) sind die Haarzellen über synaptische Verbindungen mit den Fasern des Hörnervs verbunden. Hier ist der Eingang des zentralen auditorischen Systems (Hörbahn), welches sich aus hintereinander geschalteten Neuronen zusammensetzt, die die Information vom Innenohr bis zum auditorischen Cortex leiten. Die Fasern des ersten afferenten Neurons verlaufen zunächst gebündelt in der Schneckenachse (Ganglion spirale) und enden nach Verlassen des inneren Gehörgangs im ersten Kerngebiet des Hirnstamms, dem Nucleus cochlearis (Cochleariskern). Von hier bestehen Verbindungen zum oberen Olivenkomplex (Oliva superior). Dieses Kerngebiet ist mit den Cochleariskernen beider Seiten verbunden. Eine weitere Kreuzung der Hörbahn erfolgt zwischen dem Colliculus inferior (Vierhügelgebiet) im Tectum mesencephali (»Dach« des Mittelhirns) und dem Corpus geniculatum mediale (medialer Kniehöcker), einer weiteren Schaltstelle der Hörbahn im Thalamus (Zwischenhirn). Von hier ziehen die als Hörstrahlung (Radiatio acustica) bezeichneten Verbindungen zum jeweiligen Gyrus temporalis (Hirnwindung des Schläfenlappens), dem Sitz des auditorischen Cortex. Die Funktionsabläufe in den beschriebenen Strukturen können hier wegen ihrer Komplexität nur in ihren Grundzügen beschrieben werden. Über den äußeren Gehörgang gelangen die Schallwellen an das Trommelfell und versetzen es in Schwingungen. An dieser nur etwa 0.1 mm dicken und 60 mm2 großen trichterförmigen Membran ist das erste der drei Gehörknöchelchen, der Hammer (Malleus), befestigt. Er führt mit dem Trom-
melfell ähnliche Schwingungsbewegungen aus wie die Luft im äußeren Gehörgang und leitet sie über das zweite Gehörknöchelchen, den Amboss (Incus) an das dritte Gehörknöchelchen, den Steigbügel (Stapes) weiter. Dieser ist mit seiner Fußplatte an der Membran des ovalen Fensters befestigt, hinter der sich der perilymphatische Raum (die Vorhoftreppe oder Scala vestibuli) des Innenohres befindet. Die Gehörknöchelchen sind über zwei Muskeln (Musculus stapedius und Musculus tensor tympani) mit der Paukenhöhle und untereinander mit leichtgängigen Gelenken verbunden. Die Aufgabe des Mittelohres besteht darin, den Wirkungsgrad bei der Übertragung der Schallschwingungen von der Luft in die Perilymphe des Innenohres zu erhöhen. Eine direkte Anregung des Innenohres durch den Luftschall wäre wegen des durch die Grenzfläche gegebenen Impedanzsprunges mit einem Intensitätsverlust von etwa 40 dB verbunden. Die Wirkung des aus Trommelfell, Gehörknöchelchen und Paukenhöhle zusammengesetzten Impedanzwandlers beruht im Wesentlichen darauf, dass der Schalldruck durch das Verhältnis der Flächen von Trommelfell und Stapesfußplatte vergrößert und die Schallschnelle infolge der unterschiedlich großen Hebelarme verringert wird. Die quantitative Auswirkung dieser Effekte lässt sich durch Modellberechnungen abschätzen, die Ergebnisse schwanken jedoch wegen der unterschiedlichen Modellannahmen ganz erheblich. Experimentell lässt sich feststellen, dass die (frequenzabhängige) Eingangsimpedanz des Ohres bei Aufnahme der Schallenergie am Trommelfell um einen Faktor 30 bis 75 geringer ist als die der Cochlea. Dies hat zur Folge, dass etwa 60% der Schallenergie ins Innenohr übertragen werden, verglichen mit etwa 2%, die das Innenohr ohne die Mitwirkung des Mittelohres erreichen würden. Die Bewegung der Membran des ovalen Fensters erzeugt in der Perilymphe eine Schwingung, die auch die aus Basilarmembran, Corti-Organ, zähflüssiger Endolymphe und Reissner-Membran zusammengesetzte cochleäre Trennwand erfasst und sich entlang der Schneckenwindung ausbreitet. Wegen der ortsabhängigen Eigenschaften von Flüssigkeitssäule (der Querschnitt der Schneckengänge nimmt von der Schneckenbasis zur Spitze ab) und Basilarmembran (ihre Steifigkeit nimmt von der Basis zur Spitze ab, die Breite zu) hängen Ausbreitungsgeschwindigkeit und somit Wellenlänge der Schwingung vom Ort ab und es entsteht eine Wanderwelle, die nur an einer, von der Frequenz des Schalles abhängigen Stelle ein eng umgrenztes Amplitudenmaximum ausbildet (⊡ Abb. 14.3). Die auf Dispersion beruhende Tonotopie des Innenohres, d. h. die Abbildung der Tonhöhenskala auf die Basilarmembran, ist somit auf die mechanischen Eigenschaften des Innenohres zurückzuführen. Sie hat zur Folge, dass hohe Frequenzen nahe des ovalen Fensters (also an der Schneckenbasis) und niedrige Frequenzen an der Schneckenspitze (Apex) verarbeitet werden.
199 14.1 · Die Grundlagen der Audiometrie
⊡ Abb. 14.3. Schwingung der cochleären Trennwand bei einer Frequenz von 200 Hz. Es sind Momentaufnahmen der Wanderwelle für zwei verschiedene Zeitpunkte sowie die Einhüllende gezeigt (nach von Békésy 1960)
Auf der Basilarmembran befinden sich die Haarsinneszellen des Cortischen Organs, deren Sinneshaare (Stereozilien) durch die Scherbewegung zwischen Basilar- und Tektorialmembran ausgelenkt werden. Durch die Auslenkung der Stereozilien, deren Durchmesser etwa 0,5 µm beträgt, werden am apikalen Ende (bzw. an der apikalen Zellmembran) der Haarzelle Kaliumkanäle geöffnet. Der Einstrom von Kalium-Ionen aus der Endolymphe depolarisiert die Zellmembran (Rezeptorpotential), wodurch sich in der lateralen Zellwand Calciumkanäle öffnen. Das einströmende Calcium führt bei der äußeren Haarzelle (outer hair cell, OHC) zu aktiven Bewegungen, die die Auslenkungsamplitude in einem eng umgrenzten Bereich vergrößert, und in der inneren Haarzelle (inner hair cell, IHC) zur Ausschüttung eines chemischen Botenstoffes (Neurotransmitter). Nach diesen Vorgängen findet eine schnelle Repolarisation der Zellmembran statt. Die hierfür benötigte Energie bezieht die Haarzelle aus der elektrochemischen Potentialdifferenz zwischen Endo- und Perilymphe, die von der Stria vascularis aufrechterhalten wird. Der ausgeschüttete Transmitter überwindet innerhalb von etwa 0,5 ms den etwa 20 nm schmalen synaptischen Spalt durch Diffusion und regt mit Hilfe von speziellen Rezeptoren in der zugehörigen afferenten Hörnervenfaser die Erzeugung eines Aktionspotentials an (Exzitation). Werden die Sinneshärchen in umgekehrter Richtung (vom größten Zilium weggerichtet) ausgelenkt, so wird der einwärts gerichtete Kaliumstrom blockiert und das Zellpotential erhöht (Hyperpolarisation). Es werden keine Bewegungen der äußeren Haarzellen angeregt, die Transmitterausschüttung der inneren Haarzellen wird gehemmt und die Entladungsrate des Hörnervs reduziert sich auf Werte unterhalb der Spontanrate (Inhibition). Durch das Wechselspiel von anregenden und hemmenden Auslenkungen der Stereozilien wirken die Haarzellen wie ein Gleichrichter (half wave rectification) des akustischen Ein-
gangssignals. Für eine Koordinierung der Zilienbewegungen sorgen dünne (Ø ca. 50 Å) elastische filamentförmige Verbindungen zwischen den einzelnen Sinneshärchen (tip links). Dieser Mechanismus einer kollektiven Bewegung des Zilienbündels trägt u. a. dazu bei, dass die kleinsten zu einer Hörempfindung führenden Auslenkungen (sie liegen im Bereich weniger Ångström) nicht bereits durch thermische Bewegungen hervorgerufen werden. Solange die Reizfrequenz die durch die zelluläre Refraktärzeit gesetzte Grenze von etwa 1 kHz nicht überschreitet, laufen die beschriebenen Vorgänge in jeder mit einer Depolarisation einhergehenden Phase der Schallschwingung ab. Somit ist die Information über die Frequenz des Schallsignals sowohl im Entstehungsort als auch in der Entstehungsrate der Aktionspotentiale einer einzelnen Hörnervenfaser enthalten. Die Grenzen der Frequenzauflösung werden also von der Schärfe des Wanderwellenmaximums und der zentralnervösen Unterscheidung von Zeitmustern mitbestimmt. Für ersteres, nämlich die Abbildung einzelner Frequenzen auf verschiedene Bereiche der Basilarmembran, gibt die auf der passiven Wanderwelle beruhende Theorie allerdings nur eine lückenhafte Erklärung. Erst durch die frequenzselektiven aktiven Kontraktionen der äußeren Haarzellen wird das durch den akustischen Reiz entstandene Amplitudenmaximum der Wanderwelle in einem sehr schmalen Bereich der Basilarmembran um mehrere Größenordnungen verstärkt und so das Frequenzselektionsvermögen und zugleich die Empfindlichkeit des Gehörs erhöht (⊡ Abb. 14.4). Messbar und diagnostisch nutzbar sind diese zellulären Vorgänge in Form der otoakustischen Emissionen. Das Innenohr ist in den härtesten Knochen des Skeletts, das Felsenbein, eingebettet. Das schützt es einerseits sehr gut gegen mechanische Beschädigung, andererseits kann es dadurch auch von Knochen- bzw. Körperschall erreicht und angeregt werden. Dieses Phänomen hat für die natürliche Funktion des Ohres wenig Bedeutung, es wird aber in der Audiometrie für die Prüfung des Innenohres unter Umgehung der Schallzuführung über das Mittelohr ausgenützt. Beim Aufsetzen der schwingenden Stimmgabel oder des Knochenleitungshörers auf den Schädelknochen, aber auch (in geringerem Maße) bei der Verwendung eines normalen (Luftleitungs-)Kopfhörers werden Perilymphe und Basilarmembran durch den Knochen in Schwingung versetzt und dadurch ein Höreindruck hervorgerufen. Die mechanischen Vorgänge im Innenohr (Entstehung und Ausbreitungsrichtung der Wanderwelle) laufen hierbei genauso ab wie bei Luftleitungsanregung. Grundsätzlich werden vom Knochenschall beide Innenohren erreicht, und zwar mit nahezu gleicher Intensität unabhängig vom Ort der Anregung. Hierdurch entsteht das sogenannte Überhören eines einseitig dargebotenen akustischen Reizes auf das Gegenohr. Der Hörnerv (Nervus acusticus) besteht aus etwa 30.000 Nervenfasern. Die meisten dieser Nervenfasern
14
200
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.4. Mit Hilfe des kernphysikalischen Mößbauer-Effektes gemessene Schallpegel für konstante Auslenkungsgeschwindigkeit (0,04 mm/s) eines Punktes der Basilarmembran in Abhängigkeit von der Frequenz des anregenden Schalls. Der Vergleich der an einem gesunden (gefüllte Kreise) und einem geschädigten (offene Kreise) Meerschweinchenohr erhaltenen Ergebnisse beweist die Existenz eines vulnerablen frequenzselektiven Prozesses, der die Empfindlichkeit im Bereich der charakteristischen Frequenz um etwa 40 dB erhöht (nach Sellick et al. 1982)
sind afferent, d. h. sie leiten Information von den Sinneszellen ans Gehirn. Von diesen wiederum sind etwa 95% mit den äußeren Haarzellen verbunden, die inneren Haarzellen werden vorwiegend efferent (absteigend) innerviert. Afferente und efferente Fasern des Hörnervs ziehen von den Haarzellen in radialer Richtung zur Schneckenachse (Modiolus), wo sie sich zu dem in Achsenrichtung verlaufenden Strang des Hörnervs vereinigen. Dieser durchquert gemeinsam mit dem Gleichgewichtsnerven (Nervus vestibularis) den etwa 2 cm langen inneren Gehörgang und tritt im Kleinhirnbrückenwinkel in den Hirnstamm ein. Die kleinste Einheit der neuralen Informationsübertragung ist das Aktionspotential. Es stellt eine eng umgrenzte depolarisierte Zone dar, die sich mit hoher Geschwindigkeit entlang der Fortsätze (Dendriten und Axone) der Nervenzelle (Neuron) ausbreitet. In der Zellmembran dieser Zone sind für kurze Zeit Ionenkanäle geöffnet, die nur für Na+-Ionen durchlässig sind. Durch die einströmenden Kationen wird die zwischen –60 mV und –80 mV liegende Potentialdifferenz zwischen Zellplasma und Umgebung aufgehoben und sogar umgekehrt. Die Depolarisation bewirkt die Schließung der Na+-Kanäle und die Öffnung von K+-Kanälen, wodurch das Ruhepotential wiederhergestellt
wird. Wesentliche Voraussetzung für eine schnelle Ausbreitung des Aktionspotentials entlang der Nervenfaser ist die bei den Typ-1-Neuronen der afferenten Hörbahn vorhandene und in regelmäßigen Abständen unterbrochene elektrische Isolation der Faser durch die sie einhüllenden Schwann’schen Zellen (Myelin-Scheide). Das Aktionspotential wird ausgelöst, indem der Botenstoff (Transmitter), der die Nervenzelle über ihren Anschluss (Synapse) an die Sinneszelle erreicht, sich an spezifische Rezeptorproteine heftet, die Öffnung von Ionenkanälen in der postsynaptischen Membran veranlasst und ein Generatorpotential (exzitatorisches postsynaptisches Potential, EPSP) erzeugt. Wenn sich genügend solcher EPSP überlagern und der Schwellenwert von etwa 10 mV überschritten ist, öffnen sich die Na+-Kanäle und es entsteht das Aktionspotential. Doch auch ohne den Reiz durch eine Haarsinneszelle entstehen ständig in unregelmäßiger Folge Aktionspotentiale (Ruhe- oder Spontanaktivität). Die Depolarisation der Haarzelle hat eine Erhöhung, ihre Hyperpolarisation eine Verringerung dieser spontanen Entladungsrate zur Folge. Bei Auslenkung der Basilarmembran zur Scala tympani erhöht sich die Erzeugungsrate von Aktionspotentialen, bei Auslenkung in der Gegenrichtung wird sie verringert. Die Phase des Reizes und somit auch seine Frequenz finden sich infolgedessen in der Nervenaktivität wieder. Wegen der nach jedem Aktionspotential eintretenden Refraktärzeit der einzelnen Nervenfaser funktioniert dieses Codierungsprinzip nur für niedrige Reizfrequenzen (die Grenze liegt bei etwa 1 kHz). Statistisch sind jedoch auch bei hohen Frequenzen Phase und Frequenz des Reizes in der Gesamtaktivität der dem jeweiligen Frequenzbereich zugeordneten Nervenfasern verschlüsselt, da sich in jeder Sogphase des Schallsignals die Wahrscheinlichkeit für die Entstehung von Aktionspotentialen erhöht. Die Zahl der pro Zeiteinheit auftretenden Aktionspotentiale entspricht jedoch nur im statistischen Mittel der Frequenz des Reizes. Die Auswertung des zeitlichen Abstandes zwischen den Entladungen in einer Häufigkeitsverteilung (post stimulus time histogram) zeigt, dass dieser Abstand eine Streuung um seinen Mittelwert, der der Periode des Reizes entspricht, aufweist. Neuronale Vorgänge erfolgen nicht streng deterministisch, sondern stochastisch. Der Hörnerv als erstes Neuron der Hörbahn weist eine tonotope Organisation auf, d. h. ebenso wie in der Cochlea besteht eine feste Zuordnung zwischen einem Ort bzw. einer Faser und der Frequenz des Reizes. Dieses Prinzip setzt sich in den Zielregionen des Hörnerven, dem dorsalen und ventralen Cochleariskern, bis hinauf zum primären auditorischen Cortex fort. In den Kerngebieten verläuft die Informationsübertragung zwischen zwei Neuronen auf ähnliche Weise wie sie oben für die Verbindung zwischen Sinneszelle und Neuron beschrieben wurde. Die Schnittstelle zwischen dem auslaufenden Fortsatz (Axon) eines Neurons und dem einlaufenden Ast (Dendrit) des
201 14.1 · Die Grundlagen der Audiometrie
nachgeschalteten Neurons wird als axodendritische Synapse bezeichnet. Zwischen dem prä- und dem postsynaptischen Aktionspotential verstreicht jeweils die bereits erwähnte Synapsenzeit von etwa 0,5 ms. Bereits im Hirnstamm (in den Olivenkernen) lässt sich bei monauraler und binauraler Stimulation eine unterschiedliche Aktivität nachweisen. Dadurch können die von beiden Seiten eintreffenden Signale hinsichtlich der für das Richtungshören wichtigen interauralen Laufzeit- und Intensitätsdifferenzen ausgewertet werden. Die Reizung eines jeden Ohres führt wegen der mehrfach kreuzenden Nervenverbindungen zur Aktivierung des primären Hörzentrums (Heschl’sche Querwindung) in den Schläfenlappen beider Hirnhälften. Hier findet die Extraktion von komplexen Merkmalen des Schallsignals, die z. B. für Sprache typisch sind, statt. Im sensorischen Sprachzentrum (Wernicke’sches Areal) v. a. der linken Hirnhemisphäre werden die akustischen Erinnerungsbilder von Wörtern gespeichert. Der Diskrimination von Sprache und ihrer semantischen, syntaktischen und grammatikalischen Analyse entsprechen noch spätere Verarbeitungsschritte in den Assoziationsfeldern, die einen großen Teil der Großhirnrinde ausmachen. Mit Hilfe der elektrischen Reaktions-Audiometrie können von der Kopfhaut strukturierte reizevozierte Potentialmuster abgeleitet werden, die die Vorgänge vom Hörnerv bis zur Hirnrinde widerspiegeln und in der audiologischen Diagnostik genutzt werden.
cke, im Hörnerven oder im Gehirn liegt – als Mittelohroder Schalleitungsschwerhörigkeiten, sensorische, neurale und zentrale Hörstörungen bezeichnet (⊡ Abb. 14.5). Sensorisch (endocochleär) und neural (retrocochleär) bedingte Hörstörungen werden häufig unter dem Begriff »Schallempfindungsschwerhörigkeit« oder »sensorineurale Schwerhörigkeit« zusammengefasst. Mögliche Ursachen für das Auftreten von Schalleitungs- oder Mittelohrschwerhörigkeiten (konduktive Hörstörung oder Transmissionsschwerhörigkeit) sind: ▬ Tubenventilationsstörungen, d. h. ein behinderter Druckausgleich der Paukenhöhle über die Eustach’sche Röhre; ▬ Unterdruck in der Paukenhöhle infolge Sauerstoffverbrauch durch entzündliche Prozesse; ▬ Verletzungen des Trommelfells; ▬ Chronische Mittelohrknocheneiterung (Cholesteatom); ▬ Mittelohrentzündungen (Otitis media) mit der Folge einer Ansammlung von Flüssigkeit oder schleimigem Sekret (Mittelohrerguss) in der Paukenhöhle; ▬ Otosklerose, d. h. eine Wucherung von Knochengewebe an der Stapesfußplatte mit der Folge, dass die Schwingungsübertragung über das ovale Fenster beoder verhindert ist; ▬ Frakturen (Knochenbrüche) oder Luxationen (Trennung der Gelenkverbindungen) in der Gehörknöchelchenkette; ▬ Missbildungen unterschiedlicher Art.
14.1.3 Hörstörungen
Mittelohrbedingte Hörstörungen können wegen der Anregung des Innenohres über Knochenleitung niemals eine vollständige Taubheit zur Folge haben. Denn auch bei einem vollständigen Funktionsausfall des Mittelohrapparates – etwa infolge einer Luxation der Gehörknöchelchenkette – versetzt der Luftschall bei genügend hoher Intensität mit einem Verlust von etwa 50 dB den Schädelknochen und somit die Endolymphe in Schwingungen. Die meisten Mittelohrschwerhörigkeiten können konservativ oder operativ behoben werden. In den wenigen Fällen, wo dies nicht möglich ist, kann der betroffene Patient mit einem speziellen Hörgerät versorgt werden, welches den Schall in Vibrationen umwandelt und diese
Im Hörsystem können infolge seiner komplexen Anatomie und Physiologie viele Funktionsstörungen auftreten, deren Ursachen in einer oder mehreren Komponenten des Gesamtsystems liegen. Unter diesen Komponenten kommen dem Außenohr und dem äußeren Gehörgang für das Hören und die Audiometrie nur wenig Bedeutung zu. Störungen in diesem Bereich können durch Missbildungen, Verengungen (Stenosen), Ohrsekret (Cerumen), Wucherungen oder Fremdkörper verursacht werden. Weiter zentral lokalisierte Hörstörungen werden – je nachdem, ob ihre Ursache im Mittelohr, in der Schne-
⊡ Abb. 14.5. Einteilung der Hörstörungen gemäß dem Ort der Schädigung
14
202
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
als Körperschall auf den Knochen hinter der Ohrmuschel überträgt (Knochenleitungshörgerät). Sehr vielfältig sind die Ursachen und Erscheinungsformen von endocochleären, sensorischen oder Innenohrschwerhörigkeiten: ▬ Erblich (hereditär) bedingter Hörverlust, häufig bei mittleren Frequenzen besonders stark ausgeprägt; ▬ Langsam fortschreitende Zunahme des Hörverlustes v. a. bei hohen Frequenzen (Presbyakusis), wahrscheinlich verursacht durch verschiedene Noxen (Lärm, Medikamenteneinwirkung, unzureichende Blutversorgung, Alterung); ▬ Durch Lärm- oder Knalltrauma hervorgerufene Haarzellschädigung mit Auswirkung v. a. auf das Hörvermögen bei hohen Frequenzen; ▬ Körpereigene Zerstörung von Haarzellen als Folge bakterieller Infektionskrankheiten (z. B. Meningitis); ▬ Haarzellschädigung durch ototoxische Antibiotika, Aminoglykoside (Zytostatika) oder Entwässerungsmittel (Diuretika); ▬ Akut (innerhalb weniger Minuten) und ohne erkennbare äußere Ursache auftretender Hörverlust (Hörsturz), möglicherweise verursacht durch metabolische Erschöpfung oder Mangelversorgung des Innenohres mit Sauerstoff; häufig Therapieerfolge durch durchblutungsfördernde Infusionen; ▬ Anfallsartig auftretender hydrostatischer Überdruck (Hydrops) im Endolymphraum der Cochlea (Morbus Menière) mit Auswirkung auf das Hörvermögen v. a. bei niedrigen Frequenzen; ▬ Missbildungen unterschiedlicher Art. Viele der aufgezählten Innenohrerkrankungen gehen mit subjektiv wahrgenommen Ohrgeräuschen, denen kein realer akustischer Reiz gegenübersteht (Tinnitus), und Schwindel (Vertigo) einher. Bei allen erwähnten Krankheitsbildern kann der Hörverlust bis zur völligen Taubheit gehen. Innenohrbedingte Schwerhörigkeiten werden, solange ein verwertbares Resthörvermögen vorliegt, mit Hilfe von Hörgeräten korrigiert. Wenn jedoch selbst die maximale mit Hörgeräten mögliche Verstärkung des Schalls nicht ausreicht, stellt das Cochlea-Implantat die einzige Möglichkeit zur Wiederherstellung eines Hörvermögens und der lautsprachlichen Kommunikation dar. Eine weitere häufige Begleiterscheinung endocochleärer Hörstörungen ist der pathologische Lautheitsanstieg (auch als Lautheitsausgleich oder Recruitment bezeichnet). Hierunter versteht man die Erfahrung des Hörgeschädigten, dass schwache akustische Reize gar nicht oder nur sehr leise wahrgenommen werden, während hohe Schallintensitäten als sehr laut oder gar schmerzhaft empfunden werden. Aller Erfahrung nach tritt dieses Phänomen eines stark eingeschränkten Dynamikbereiches nicht bei konduktiven und retrocochleären Hörstörungen auf.
Deshalb ermöglicht ein Test, der ein solches Recruitment nachweist, die Bestätigung einer sensorischen Störung. Die physiologische Erklärung für den pathologischen Lautheitsanstieg beruht auf der aktiven Schallverstärkung durch die äußeren Haarzellen. Diese führt bei niedrigen Schallintensitäten zu einer Erhöhung der Empfindlichkeit (⊡ Abb. 14.6). Sind nun, wie es bei den meisten Innenohrschäden der Fall ist, vorwiegend die äußeren Haarzellen geschädigt oder zerstört, so werden schwache Reize nicht mehr wahrgenommen, während die Verarbeitung starker Reize durch die unversehrten inneren Haarzellen nicht beeinträchtigt ist. Das zu einem festen Eingangssignalbereich gehörende Intervall von Ausgangssignalen wird dadurch erheblich vergrößert und der Dynamikbereich folglich eingeengt. Eine besonders häufig vorkommende und gut untersuchte recruitmentpositive Hörstörung ist die Lärmschwerhörigkeit. Die Beschallung eines Ohres mit hoher Intensität führt zunächst zu einer vorübergehenden Schwellenabwanderung (temporary threshold shift, TTS), d. h. einer Schwerhörigkeit geringen Ausmaßes, die sich nach kurzer Zeit (innerhalb von Minuten bis Stunden) wieder zurückbildet. Personen, die einer dauerhaften Lärmbelastung ausgesetzt sind, fallen tonaudiometrisch zunächst durch eine signifikant schlechtere Hörschwelle im Bereich um 4 kHz auf (C5-Senke in ⊡ Abb. 14.8, E). Dies ist das typische Anzeichen einer beginnenden Lärmschwerhörigkeit. Es bildet sich nicht mehr vollständig zurück (permanent threshold shift, PTS). Hält die Lärmbelastung weiter an, so nimmt der Hörverlust zu und der betroffene Frequenzbereich dehnt sich aus. Auch bei vorwiegend tieffrequenter Beschallung ergibt sich nach langjähriger Schädigung als
⊡ Abb. 14.6. Der pathologische Lautheitsanstieg lässt sich auf das Zusammenwirken von inneren und äußeren Haarsinneszellen zurückführen. Die letzteren bewirken eine Verstärkung des cochleären Ausgangssignals bei niedrigen Reizpegeln und vergrößern somit die Empfindlichkeit (durchgezogene Linie). Sind die äußeren Haarzellen funktionsunfähig oder zerstört, so ergibt sich die gestrichelte lineare Eingangs/Ausgangs-Kennlinie der inneren Haarzellen
203 14.2 · Psychoakustik und subjektive Audiometrie
typisches Audiogramm ein Hochtonabfall (⊡ Abb. 14.8, E). Dies lässt sich möglicherweise damit erklären, dass die Wanderwelle unabhängig von der Schallfrequenz immer zunächst die basalen Bereiche des Corti-Organs passieren muss und somit die für die hohen Frequenzen zuständigen Haarzellen grundsätzlich stärker beansprucht werden. Bei neuralen oder retrocochleären Hörstörungen liegt ein Funktionsdefizit in der Fortleitung oder Verarbeitung der Information im Hörnerv oder in der Hörbahn vor. In vielen Fällen ist die Beeinträchtigung des Hörvermögens nur Begleiterscheinung oder Folge von Erkrankungen, die weder ausschließlich noch primär das Gehör betreffen: ▬ Kompression des Hörnervs durch Gefäßschlingen; ▬ Tumoren im inneren Gehörgang oder Kleinhirnbrückenwinkel (z. B. Akustikusneurinom); ▬ Multiple Sklerose (soweit Hörbahnanteile von der Entmarkung betroffen sind); ▬ Diffuse Hirnstammschädigungen mit Nervenzellverlusten ohne ausgeprägte Herde; ▬ Mangelversorgung der für die auditorische Informationsverarbeitung relevanten Hirnstammbereiche, verursacht z. B. durch Gefäßausstülpungen (Aneurysmen) oder Infarkte.
Übertragung denkbar. Daher wird die auditorische Neuropathie im Schrifttum auch als perisynaptische Audiopathie oder auditorische Synaptopathie bezeichnet. Zentrale Hörstörungen sind durch Einschränkungen bei höheren Diskriminationsleistungen (Richtungsgehör, Sprachverstehen im Störgeräusch) des Hörsystems gekennzeichnet. Sie können z. B. durch Hirnblutungen verursacht sein. Liegt keine organische Schädigung vor, so spricht man von einer rein kognitiven Auditiven Wahrnehmungsund Verarbeitungsstörung (AVWS, engl. central auditory processing disorder, CAPD) vor. Sie ist definiert als das Auftreten von Störungen in der vorbewussten und bewussten Analyse von Zeit-, Frequenz- und Intensitätsbeziehungen akustischer Signale sowie in der binauralen Interaktion. Die diagnostische Aufgabe besteht darin, Auffälligkeiten in der Verarbeitung von Schall und insbesondere von Sprache unter Störschallbedingungen in Abwesenheit von nachweisbaren organischen Defekten und bei normaler nonverbaler Intelligenz zu erfassen. Eine Hörgeräteversorgung ist bei kognitiven Hörstörungen nicht angemessen, da im Sinnesorgan kein Schaden vorliegt und somit von einer Erhöhung des Schallpegels kein Gewinn zu erwarten ist.
Neurale Hörstörungen gehen häufig mit Funktionsdefiziten des Innenohrs einher, da raumfordernde Prozesse im inneren Gehörgang auch die arterielle Versorgung der Cochlea beeinträchtigen können. Darüber hinaus sind viele unspezifische Begleitsymptome (Tinnitus, Schwindel, Beeinträchtigung der motorischen und sensorischen Gesichtsnerven) möglich. Die Versorgung der neural bedingten Schwerhörigkeit mit Hörgeräten kann zwar in Hinblick auf die Schwerhörigkeit erfolgreich sein, sie kann aber, soweit eine normale Innenohrfunktion vorliegt, nicht als angemessene Therapie bezeichnet werden. Hörnervenund Hirnstammtumoren müssen, da sie lebenswichtige Funktionen des Hirnstamms beeinträchtigen könnten, operativ entfernt werden. Der neurochirurgische Eingriff kann eine postoperative Taubheit zur Folge haben. Wegen der Beschädigung oder Durchtrennung des Hörnervs ist in solchen Fällen auch von der Versorgung mit einem Cochlea-Implantat keine Wiederherstellung des Hörvermögens zu erwarten. Allenfalls die derzeit noch experimentelle Implantation von Hirnstammelektroden kann wieder zu auditorischen Sinneseindrücken verhelfen. Begrifflich ist auch die auditorische Neuropathie den neuralen Hörstörungen zuzurechnen, wenngleich der pathophysiologische Hintergrund dieser Erkrankung noch im Unklaren liegt. Eine auditorische Neuropathie liegt vor, wenn die Innenohrfunktion ausweislich der otoakustischen Emissionen normal und die Funktion der peripheren Hörbahn ausweislich der frühen akustisch evozierten Potentiale pathologisch verändert ist. Zur Erklärung dieser Konstellation wären auch Störungen der Funktion der inneren Haarzellen oder der synaptischen
14.2
Psychoakustik und subjektive Audiometrie
Die Lehre von den Schallreizen und den durch sie ausgelösten Empfindungen wird als Psychoakustik bezeichnet. Ein großer Teil der heute vorliegenden Erkenntnisse über das Leistungsvermögen des Gehörs wurde mit Hilfe von psychoakustischen Untersuchungsmethoden gewonnen. Die im Detail sehr unterschiedlichen Verfahren haben miteinander das Prinzip gemeinsam, dass das Gehör eines Probanden mit den für die jeweilige Fragestellung geeigneten Signalen stimuliert wird und seine subjektiven Empfindungen2 registriert und in Abhängigkeit von den Reizparametern ausgewertet werden. Auf diese Weise können Wahrnehmungsschwellen, Lautstärke- und Tonhöhenempfindungen, Unterscheidungsschwellen, Maskierungsphänomene und die sprachliche Diskriminationsleistung quantitativ erfasst werden. Die Tatsache, dass die Messgröße in der Psychoakustik eine subjektive Wahrnehmung ist, bringt es mit sich, dass immer das gesamte Gehör vom peripheren Sinnesorgan bis hinauf zu den Assoziationszentren der Großhirnrinde zum Messergebnis beiträgt. Neben vielen für rein wissenschaftliche Zwecke eingesetzten Testverfahren ist auch ein großer Teil der diagnostisch angewendeten Hörprüfungen, nämlich die sogenannten subjektiven Hörtests, der Psychoakustik zuzurechnen. 2
In der experimentellen Psychologie werden Empfindungen und Wahrnehmungen voneinander abgegrenzt; die komplexe Wahrnehmung ergibt sich demnach aus Verarbeitung und Assoziation der elementaren, durch Qualität und Intensität definierten Empfindungen.
14
204
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
14.2.1 Der Zusammenhang zwischen
Reiz und Empfindung
I
Mit der in Abschn. 14.1 definierten dB SPL-Skala werden die Schallpegel aller Frequenzen auf den Referenzwert 20 µPa bezogen. Dieser Schalldruck entspricht der Hörschwelle junger normalhörender Probanden bei 2 kHz, nahe der größten Empfindlichkeit des Gehörs (die bei ca. 3 kHz vorliegt), der Schallpegel 0 dB SPL entspricht somit bei dieser Frequenz der unteren Wahrnehmungsgrenze. Töne der meisten anderen Frequenzen werden erst bei höheren Pegeln wahrgenommen. Dies zeigt die in ⊡ Abb. 14.7 wiedergegebene Abhängigkeit des gerade wahrnehmbaren Schallpegels (also der absoluten Hörschwelle) von der Tonfrequenz. Die mittlere normale Hörschwellenkurve verbindet die als gleich laut empfundenen Pegel von Tönen unterschiedlicher Frequenz, sie stellt somit eine Isophone dar. Werden bei höheren Schallintensitäten Paarvergleiche von zwei Tönen unterschiedlicher Frequenz durchgeführt (wobei der 1000 Hz-Ton als Referenz gilt), so erhält man das in ⊡ Abb. 14.7 gezeigte Isophonenfeld. Es ist die Grundlage für die Einführung des Lautstärkepegels LN mit der Einheit phon als Maß für die subjektiv empfundene Lautstärke von reinen Sinustönen: Der in phon gemessene Lautstärkepegel eines Tones ist gegeben durch den in dB SPL ausgedrückten Schallpegel des gleich laut erscheinenden 1000 Hz-Tones. Die Hörschwelle entspricht der 3-phon-Linie3, die Unbehaglichkeitsschwelle der 110-phon-Linie. Gelegentlich wird die 75-phon-Linie als Isophone angenehm lauten Hörens bezeichnet. 3
… nicht etwa die 0 phon -Linie, denn die mittlere Normalschwelle bei 1000 Hz beträgt etwa 3 dB SPL.
⊡ Abb. 14.7. Die Kurven gleicher Lautstärke (Isophonen) des normalhörenden Ohres definieren die Hörschwelle (unterste Kurve) und den Lautstärkepegel LN (phon) für Sinustöne. Darauf aufbauend wird die Lautheit für f=1 kHz bei L=40 dB SPL willkürlich mit N=1 sone gleichgesetzt. Bei höheren Pegeln entspricht eine Zunahme um 10 dB einer Verdoppelung der Lautheit, bei Pegeln unterhalb von 40 dB gilt dieses Potenzgesetz nicht. Als Hörfeld wird der Bereich zwischen Wahrnehmungs- und Unbehaglichkeitsschwelle bezeichnet. Das Sprachfeld (schattierte Zone) nimmt nur einen Teil dieses Bereiches ein
Die Phonskala gibt die Frequenzabhängigkeit der subjektiven Lautstärkeempfindung realistisch wieder, nicht jedoch die Empfindung von Intensitätsunterschieden: Ein Zuwachs des Lautstärkepegels um 10 phon entspricht, zumindest bei Schallpegeln über 40 dB SPL, in etwa einer Verdoppelung der Lautstärkeempfindung. Für die Schaffung einer Skala, deren Maßzahl zur subjektiven Empfindung proportional ist (und dies auch bei niedrigen Pegeln), sind rein physikalische Messgrößen untauglich, es muss auf psychometrische Methoden zurückgegriffen werden. Mit Hilfe der vergleichenden Skalierung ergibt sich die in der Einheit sone gemessene Verhältnislautheit N. Da dieser Maßeinheit in der Audiologie nur wenig Bedeutung zukommt, wird für eine nähere Beschreibung auf die weiterführende Literatur verwiesen (s. z. B. Hoth 1999 und dort angegebene Originalliteratur). Ebenso wie Intensität und Lautstärke sind auch Frequenz und Tonhöhe zusammengehörende Paare von Reiz- und Empfindungsgrößen. Und ebenso wie für die empfundene Lautstärke die psychoakustische Messgröße Lautheit eingeführt wird, dient die Bezeichnung Tonheit zur quantitativen Beschreibung der empfundenen Tonhöhe. Die Einheit dieser Messgröße ist das mel, zu deren Definition zunächst dem Ton mit der Frequenz 131 Hz (in der Musik als c0 bezeichnet) die Tonheit z=131 mel zugeordnet wird. Für Frequenzen unterhalb von 500 HZ wird die Maßzahl für die Tonhöhe in mel mit der durch die Einheit Hz geteilten Frequenz gleichgesetzt, da in diesem Bereich eine Verdoppelung der Frequenz (Oktave) als gleich große Zunahme empfunden wird. Die Fortsetzung der Tonheits-Skala zu hohen Frequenzen ergibt sich aus der Forderung, dass die Tonheiten für jeweils zwei Töne, die subjektiv als halb bzw. doppelt so hoch empfunden werden, sich um einen Faktor 2 unterscheiden (Zwicker u.
205 14.2 · Psychoakustik und subjektive Audiometrie
Feldtkeller 1967). Aufgetragen über der Frequenz nimmt die Tonheit bei niedrigen Frequenzen zunächst konstant um 1 mel pro Hz und bei hohen Frequenzen mit kleinerer Steigung zu. Neben der Beschreibung von Qualität (Tonhöhe) und Quantität (Lautstärke) der Empfindung ist die Fähigkeit zur Erkennung von Unterschieden oder Änderungen von Frequenz oder Intensität eines Schallsignals ein wichtiger Gegenstand psychoakustischer Messungen, wohingegen die praktische Audiometrie diesen Leistungsmerkmalen des Gehörs nur wenig Beachtung schenkt. Die Empfindlichkeit des Gehörs wird durch die ebenmerklichen Unterschiede (just noticeable differences, jnd) beschrieben. Ebenmerkliche Unterschiede können mit verschiedenen Methoden bestimmt werden. Beim Modulationsverfahren wird der untersuchte Reizparameter (Amplitude oder Frequenz) eines kontinuierlich dargebotenen Tones sinusförmig moduliert und der Proband nach dem kleinsten noch feststellbaren Modulationshub gefragt. Die auf diese Weise gefundenen Änderungsschwellen werden als Modulationsschwellen bezeichnet. Etwas andere (i. Allg. niedriger liegende) Änderungsschwellen ergeben sich, wenn das Ohr nacheinander mit zwei Tönen stimuliert wird, die durch eine Pause voneinander getrennt sind. Die auf diese Weise ermittelten Schwellen werden als Unterschiedsschwellen bezeichnet. Die gleichzeitige Darbietung zweier Reize ergibt wegen der Überlagerung der cochleären Anregungsbereiche völlig andere Schwellenwerte: die Mithörschwelle im Falle der Amplitudendiskrimination bzw. die Frequenzunterscheidungsgrenze bei der Tonhöhenunterscheidung. Die geringe audiometrische Relevanz von Unterscheidungs- oder Auflösungsvermögen in Bezug auf Frequenz und Intensität des Reizes erklärt sich daraus, dass die Kenntnis von Defiziten bei diesen Diskriminationsleistungen wenig diagnostische und praktisch keine therapeutischen Konsequenzen hat. Unabhängig davon, ob die Diskriminationsleistung mit gleichzeitig vorliegenden, nacheinander dargebotenen oder modulierten Signalen bestimmt wird, ist sie bei grundsätzlich bei hohen Reizpegeln höher als in Schwellennähe und bei mittleren Frequenzen (1 kHz) besser als bei niedrigen und hohen Frequenzen. Als orientierende Werte seien hier für die Amplitudenmodulationsschwelle eine ebenmerkliche Pegeldifferenz von 0.3 dB und für die Frequenzmodulationsschwelle eine ebenmerkliche Frequenzdifferenz von 3 Hz angegeben (experimentelle Werte bei 1 kHz und 60 dB SPL). Wie sich soeben im Zusammenhang mit der Diskrimination von Reizen gezeigt hat, kann die Wahrnehmung eines akustischen Signals durch die gleichzeitige Darbietung eines zweiten Signals beeinflusst werden. Aus alltäglicher Erfahrung ist bekannt, dass ein Nutzsignal durch Störschall »übertönt« werden kann. In der Psychoakustik und Audiologie spricht man von Verdeckung oder Maskierung. Wird die Hörschwelle nicht in ruhiger Umgebung
sondern vor einem Geräuschhintergrund bestimmt, so spricht man von der Mithörschwelle. Sie spielt bei einigen Hörprüfungen eine wichtige Rolle. Die Mithörschwelle unterscheidet sich von der absoluten oder Ruhehörschwelle umso mehr, je näher die Frequenzen der zwei konkurrierenden Signale beieinander liegen. Für ein vertieftes Verständnis der Phänomene ist die Betrachtung der am Hörvorgang beteiligten nichtlinearen Effekte sowie eine Auseinandersetzung mit dem Konzept der Frequenzgruppen erforderlich. Im Rahmen dieser Übersicht muss hierfür an die weiterführende Literatur verwiesen werden (s. z. B. Zwicker u. Fastl 1990). In der praktischen Audiometrie spielen die mit Verdeckung und Maskierung zusammenhängenden Phänomene bei der Vertäubung des nicht geprüften Ohres in der Tonaudiometrie, der Feststellung von Recruitment-Äquivalenten in der Überschwelligen Audiometrie, der Untersuchung des Sprachverstehens im Störgeräusch in der Sprachaudiometrie und dem Design spezieller Reizparadigmen in der objektiven Audiometrie (z. B. bei der notch noise BERA und der TECAP-Messung) eine Rolle.
14.2.2 Zeitverhalten des Hörsystems
Zur vollständigen Beschreibung von akustischen Signalen gehört neben Frequenz und Intensität als dritte Dimension die Zeit. Alle in Abschn. 14.2.1 auf die Lautstärkeempfindung bezogenen Ausführungen sind in ihrer Gültigkeit auf Dauerreize beschränkt. Einige der Aussagen sind nicht auf Reize kurzer Dauer oder veränderliche, nicht-stationäre Signale übertragbar. So hängt bspw. die subjektiv empfundene Lautstärke eines Reizes von seiner Dauer ab: Kurze Reize werden bei gleichem Schalldruck weniger laut empfunden als Dauerreize. Oberhalb der bei etwa 200 ms liegenden Grenze ist die empfundene Lautstärke eines akustischen Reizes von seiner Dauer unabhängig (Integrationsvermögen des Gehörs), unterhalb dieser Grenze muss zur Erzielung gleicher Lautstärke der Reizpegel jeweils um rund 10 dB erhöht werden wenn die Reizdauer auf ein Zehntel verkürzt wird. Pulsartige Reize werden daher weniger laut empfunden als es ihrem Schalldruck entspricht. Da das Ausmaß von Gehörschäden durch die physikalische Intensität und nicht durch die empfundene Lautstärke bestimmt ist, wird das Schädigungspotential von impulsartigem Schall somit durch die subjektive Bewertung unterschätzt. Der Schallpegel von Impulsen wird sowohl durch den Spitzenwert des Schalldrucks angegeben (dB SPL p.e. = peak equivalent) als auch durch den für die Wahrnehmung relevanten und i.a. viel kleineren Wert (dB HL = hearing level). Es sei noch erwähnt, dass diese Aspekte schon allein in Hinblick auf die relevante Zeitskala völlig verschieden sind von denen der weiter unten behandelten Adaptation, bei der gerade eine lange Reizdauer der Hörbarkeit entgegenwirkt.
14
206
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Die meisten bedeutungstragenden akustischen Signale weisen schnelle zeitliche Änderungen von Frequenz und Intensität auf. Die gilt besonders für die Sprache, bei der ein Großteil der Information in den Übergängen (Transienten) zwischen den Vokalen oder zwischen Vokal und Konsonant enthalten ist. Die Fähigkeit zur Analyse von Zeitstrukturen ist daher für das Gehör des Menschen sehr wichtig. Dies spiegelt sich darin wider, dass viele Neurone der Hörbahn nur auf zeitliche Änderungen des Reizes ansprechen. Durch die psychoakustische Messung des Zeitauflösungsvermögens kann die funktionelle Integrität der an der Zeitstrukturanalyse beteiligten Komponenten des Hörsystems getestet werden. Ein Maß für das Zeitauflösungsvermögen ist der ebenmerkliche Zeitabstand zwischen zwei Rauschimpulsen. Er lässt sich messen, indem einer Versuchsperson nacheinander zwei Pulse weißen Rauschens begrenzter Dauer (200 ms) vorgespielt werden, von denen einer durch eine Pause variabler Länge unterbrochen ist, und sie entscheiden lässt, welcher der zwei Reize als ein Paar von Impulsen zu erkennen war (gap detection threshold). Im Falle einer richtigen Antwort wird die Pausendauer verkürzt, andernfalls verlängert. Nach einer festen Anzahl von Umkehrungen wird aus den dazugehörigen Zeitabständen der Mittelwert berechnet. Die auf diese Weise ermittelten ebenmerklichen Lücken betragen bei Normalhörenden etwa 5 ms. Ähnliche Werte erhält man, wenn die Aufgabe darin besteht, von zwei Reizen unterschiedlicher Dauer den kürzeren zu erkennen (temporal difference limen). Zum Zeitverhalten des Gehörs gehört auch seine Reaktion auf länger anhaltende Stimulation. Diese Reaktion besteht darin, dass die Intensität der Empfindung im Laufe der Zeit nachlässt. Die hierfür verantwortlichen physiologischen Vorgänge sind nicht im Detail bekannt. Empirisch wird zwischen Adaptation und Ermüdung unterschieden. Die Abgrenzung geschieht anhand der auftretenden Zeitkonstanten und der Abhängigkeit von der Reizstärke: Als Adaptation wird das Nachlassen der Empfindungsstärke bei geringen Reizpegeln bezeichnet. Es tritt innerhalb weniger Minuten ein, ebenso wie die normale Empfindlichkeit wenige Minuten nach Ende der Stimulation wiederkehrt. Der Adaptation liegen vermutlich neuronale Mechanismen zugrunde. Hierfür spricht die Beobachtung, dass die neuronale Feuerungsrate bei Beschallung mit niedriger Intensität mit denselben Zeitkonstanten abnimmt. Die bei sehr intensiver Beschallung eintretende Empfindlichkeitseinbuße wird als Hörermüdung (auditory fatigue) bezeichnet. Sie erholt sich nach der Schallexposition nur sehr langsam, d. h. sie wirkt sich wie eine vorübergehende Schwellenabwanderung (temporary threshold shift, TTS) aus. Die Ermüdung ist wohl auf eine Reduktion des Sauerstoffgehalts und eine Ansammlung metabolischer Endprodukte in der Endolymphe zurückzuführen, die sogar zu Haarzellschäden führen können.
Weiter oben ist ausgeführt worden, dass die Hörschwelle für Töne durch die Anwesenheit eines Störgeräusches angehoben wird. Nach Abschalten des Störgeräusches sinkt die Schwelle wieder auf ihren Normalwert ab. Diese Absenkung erfolgt aber nicht simultan sondern verzögert. Infolge der Nachverdeckung (oder Nachmaskierung) wird die Ruhehörschwelle in Abhängigkeit vom Störgeräuschpegel erst nach etwa 200 ms erreicht (Zwicker u. Feldtkeller 1967). Bei innenohrbedingten Hörstörungen sind diese Zeiten länger, d. h. die Fähigkeit, in die Lücken eines nichtstationären, amplitudenmodulierten Störgeräusches »hineinzuhören«, geht verloren. Dies ist einer der Gründe dafür, dass es Patienten mit Schallempfindungsschwerhörigkeit schwerer fällt als Normalhörenden, z. B. eine Durchsage in einer von pulsartigem Lärm und Nachhall erfüllten Bahnhofshalle zu verstehen.
14.2.3 Tonschwellenaudiometrie
Historischer Vorgänger der heutigen Tonaudiometrie war die Prüfung des Gehörs mit Hilfe von Stimmgabeln. Sie liefert zwar keine quantitativen Ergebnisse, doch lässt sich mit ihrer Hilfe die Frequenzabhängigkeit einer Hörstörung und ggf. eine Progredienz feststellen. Zu einem anderen Zweck hat die Stimulation des Gehörs mit Stimmgabeln noch heute einen festen Platz in der Audiometrie: Die schwingende Stimmgabel führt, wenn ihr unteres Ende auf den Schädelknochen aufgesetzt wird, zu einer Reizung des Innenohres über Knochenleitung. Es zeigt sich nun, dass bei einseitigen Hörstörungen eine krankheitsspezifische Lateralisation des Höreindrucks auftritt (Weber-Test): Im Falle einer Innenohrschwerhörigkeit hört der Proband die auf Stirn oder Scheitel aufgesetzte Stimmgabel im gesunden Ohr, hingegen wird der Ton bei Schalleitungsstörungen auf die kranke Seite lateralisiert. Zur Erklärung dieses bisher nicht befriedigend gedeuteten Phänomens werden verschiedene Effekte vorgeschlagen: Erstens ist die Abstrahlung der dem Innenohr zugeführten Schallenergie bei Schalleitungsstörungen infolge der unterbrochenen Luftleitungsverbindung behindert und zweitens könnte das deprivierte Innenohr an geringere Schallintensitäten adaptiert und daher empfindlicher sein als das gesunde Ohr. In einem weiteren Stimmgabelversuch wird die Schallzuführung über Knochenleitung mit der über Luftleitung verglichen (Rinne-Test): Der Fuß der schwingenden Stimmgabel wird zunächst auf den Warzenfortsatz (Mastoid) aufgesetzt. Sobald sie vom Patienten nicht mehr wahrgenommen wird, hält der Untersucher die Zinken der Stimmgabel vor den Gehörgangseingang. Der innenohrschwerhörige Patient kann im Gegensatz zum Patienten mit konduktiv bedingter Hörstörung den Ton nun wieder hören. Weber- und Rinne-Test dienen somit als Orientierungshilfen zur qualitativen Unterscheidung zwischen Schalleitungs- und Schallempfindungs-
207 14.2 · Psychoakustik und subjektive Audiometrie
schwerhörigkeiten. Bei kombinierten Mittelohr- und Innenohrstörungen sind die Ergebnisse beider Tests nicht eindeutig interpretierbar, ebenso wie der Weber-Test bei beidseitiger Hörstörung nicht aussagekräftig ist. Der für das Erreichen der normalen Hörschwelle erforderliche Schalldruckpegel ist in hohem Maße von der Frequenz abhängig (⊡ Abb. 14.7): Bei 50 Hz liegt er um 40 dB höher als bei 2 kHz. Für die Audiometrie ist die Verwendung einer Skala, in der die Hörschwelle des Normalhörenden von der Frequenz abhängt, nicht sehr praktisch. Deshalb sind die für die Hörschwellenbestimmung verwendeten Geräte (Audiometer) so geeicht, dass jeder Ton unabhängig von seiner Frequenz vom Normalhörenden gerade eben wahrgenommen wird, wenn der Pegelsteller auf 0 dB steht. Diese frequenzabhängige Transformation hat die Folge, dass die Hörschwellenkurve des normalhörenden Ohres einer horizontalen Linie im Frequenz-Pegel-Diagramm entspricht. Die solchermaßen geeichten Schallpegel werden in der Einheit dB HL (hearing level) angegeben. Die Angabe L=40 dB HL bedeutet also unabhängig von der Frequenz, dass der Pegel des Tons 40 dB oberhalb der Normalschwelle liegt. Physikalisch hat ein 40 dB HL-100 Hz-Ton einen um etwa 20 dB höheren Pegel (bzw. einen 10-mal höheren Schalldruck) als ein 40 dB HL-1 kHz-Ton. Außer der dB SPL- und der dB HL-Skala wird in der Audiometrie – und zwar zur Angabe überschwelliger Schallpegel – häufig die Einheit dB SL (sensation level) verwendet. Diese Maßeinheit hängt somit vom Messobjekt (also dem untersuchten Ohr) ab. Ein 1000 Hz-Ton mit einem Pegel von 10 dB SL liegt definitionsgemäß 10 dB oberhalb der 1000 Hz- Hörschwelle des untersuchten Ohres. Auf ein anderes Ohr bezogen ist demselben Ton i. Allg. ein anderer dB SL-Pegel zugeordnet. Vor allem in der überschwelligen Audiometrie und bei der Angabe von Reflexschwellen ist diese Pegelangabe gebräuchlich und nützlich. Die Ermittlung der Hörschwelle – d. h. des niedrigsten gerade noch wahrnehmbaren Schallpegels – ist mit einigen Schwierigkeiten verbunden. Eine der Schwierigkeiten beruht darauf, dass das wesentliche Merkmal des niedrigsten eben wahrnehmbaren Pegels die maximal ungewisse Wahrnehmung ist und es daher dem Patienten schwer fällt, zuverlässige Angaben über seine Hörempfindung zu machen. Auch wenn die Voraussetzung eines ausreichend ruhigen Untersuchungsraumes (Einhaltung der Störschallpegelgrenzwerte nach DIN ISO 8253) erfüllt ist, fordert die Hörschwellenmessung vom Patienten viel Kooperationsbereitschaft, Konzentration und Geduld. Die Genauigkeit der Ergebnisse hängt entscheidend von diesen Faktoren ab. Bei ungenügender Kooperationsfähigkeit oder -bereitschaft ist die Durchführung subjektiver Hörprüfungen nicht möglich. Ein weiteres Problem bei der Schwellenermittlung besteht darin, dass die Schwelle eines Ohres bestimmt werden soll, der Patient aber i. Allg. zwei
hörende Ohren hat. Dem wird dadurch Rechnung getragen, dass die Reize über Kopfhörer und nicht im freien Schallfeld angeboten werden. Trotzdem kann der Prüfton im gegenseitigen Ohr wahrgenommen (übergehört) werden, ohne dass Patient und Untersucher sich dessen bewusst sind. Hier kann jedoch durch die Vertäubung des Gegenohres in den meisten Fällen die richtige Schwelle gefunden werden. In der praktischen Audiometrie kann die Hörschwellenermittlung nicht nach den strengen, in der experimentellen Psychoakustik gültigen Maßstäben erfolgen. Für diagnostische Zwecke wird eine Genauigkeit von ±5 dB als ausreichend angesehen. Dementsprechend beträgt bei den meisten Audiometern die minimale Schrittweite für die Variation des Ausgangspegels 2,5 dB. Bei -10 dB HL beginnend erhöht der Untersucher den Pegel des kontinuierlichen oder gepulsten Testtons bis der Patient eine Hörempfindung anzeigt, z. B. durch Betätigung der Antworttaste. Der in diesem Moment wirksame Reizpegel liegt i. Allg. bereits einige dB über der Hörschwelle. Dies wird entweder durch eine pauschale Korrektur berücksichtigt oder die Schwelle durch Verringerung der Intensität zunächst wieder unterschritten und durch mehrmalige Wiederholung dieser Prozedur genauer eingegabelt. Das Reintonaudiogramm enthält die Schwellen bei den Frequenzen 100 Hz bis 10 kHz in Oktav- oder Halboktavabständen, für die Untersuchung des erweiterten Hochtonbereiches wird die Frequenz in kleineren Schritten bis 16 kHz erhöht. Konventionsgemäß wird der Reizpegel im Tonaudiogramm nach unten aufgetragen, sodass die Hörschwellenkurve eines normalhörenden Ohres weiter oben liegt als die eines Schwerhörigen (⊡ Abb. 14.8). Die mit dem dB HL-Wert identische Differenz zwischen gemessener Hörschwelle und Normalwert wird auch als Hörverlust (hearing loss) bezeichnet. Neben der beschriebenen Luftleitungskurve (LL) gehört zum Tonschwellenaudiogramm auch die Hörschwelle bei Reizung über Knochenleitung (KL). Auf den Warzenfortsatz (das Mastoid) hinter der Ohrmuschel wird ein Vibrationshörer (Knochenhörer) aufgesetzt. Wenn Kontaktfläche und Andruckkraft den vorgesehenen Werten entsprechen, wird eine definierte Schallintensität über den Knochen in das Innenohr übertragen. Auf diese Weise kann die Innenohrfunktion unter Umgehung der Schallzuführung über Gehörgang, Trommelfell und Mittelohr geprüft werden. Die Kalibrierungen von Luft- und Knochenhörer sind derart aufeinander abgestimmt, dass die zwei Schwellenkurven bei intakter physiologischer Schalleitung miteinander übereinstimmen. Die Knochenleitungsschwelle kann nur für Frequenzen oberhalb 250 Hz zuverlässig gemessen werden, da bei niedrigen Frequenzen vor Erreichen der ohnehin tiefer liegenden Leistungsgrenze der KL-Reiz nicht nur gehört, sondern auch gefühlt wird (⊡ Abb. 14.8, F). Auch bei hohen Frequenzen oberhalb 6 kHz ist die Bestimmung der Knochen-
14
208
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.8. Reintonaudiogramme bei Normalgehör (A), TieftonMittelohrschwerhörigkeit (B), kombinierter Schallleitungs- und Schallempfindungsschwerhörigkeit (C), pancochleärer Schallempfindungsschwerhörigkeit (D), zwei Stadien einer lärmbedingten Innenohr-
schwerhörigkeit (E) und Taubheit bzw. Hörrestigkeit mit Fühlwerten für Knochenleitung im Tieftonbereich (F) (left corner audiogram). Außer in Bild E sind jeweils die Schwellen für Luft- und Knochenleitung eingezeichnet
leitungsschwelle problematisch, weil der Knochenhörer mit steigender Frequenz zunehmend auch Luftschall abstrahlt, der das Ohr über die Schallleitungskette erreicht und anregt. Zusätzlich zu diesen Effekten ist bei allen Frequenzen die auf das Innenohr übertragene Reizstärke wegen der individuellen Variabilität von Andruckkraft und Hautdicke weitaus weniger reproduzierbar als bei der Luftleitung. Die Genauigkeit der KL-Schwellenbestimmung beträgt unter den für Routineuntersuchungen typischen Bedingungen nur etwa ±10 dB. Der Vergleich von Luft- und Knochenleitungsschwelle gestattet – ähnlich wie der Rinne’sche Stimmgabelversuch – Rückschlüsse auf das Vorliegen von Mittelohrschwerhörigkeiten. Liegt die Schwelle für KL-Reizung deutlich günstiger als die Luftleitungsschwelle (air-bone-gap), so muss die Schallzuführung über Trommelfell und Gehörknöchelchen durch eine pathologische Veränderung des Mittelohres beeinträchtigt sein (⊡ Abb. 14.8, B und C). Die Frequenzabhängigkeit der als Schalleitungs- oder Mittelohrkomponente bezeichneten Schwellendifferenz gibt nähere Auskunft über die Art der Erkrankung: Hat sich infolge einer Mittelohrentzündung in der Paukenhöhle Flüssigkeit angesammelt oder Sekret am Trommelfell abgelagert, so ist die Reibung im Mittelohr oder die Masse des Schalleitungs-
apparates erhöht und die LL-Schwelle ist vorwiegend bei hohen Frequenzen angehoben. Im Falle einer Versteifung der Gehörknöchelchenkette werden hingegen niedrige Frequenzen schlechter übertragen. Frakturen oder Luxationen der Gehörknöchelchenkette wirken sich auf den gesamten Frequenzbereich aus, ebenso wie ein Mittelohrblock bei fortgeschrittener Otosklerose (einer durch verhärtete Knochenwucherung im ovalen Fenster bedingten Fixation des Steigbügels). Der in der Differenz zwischen Luft- und Knochenleitungsschwelle zum Ausdruck kommende mittelohrbedingte Hörverlust kann niemals mehr als 50 dB betragen, weil erstens die schallverstärkende Wirkung des Mittelohrapparates auf diesen Wert begrenzt ist und zweitens jeder genügend intensive Luftschall auch die Entstehung von Körperschall bewirkt. Letzteres wird in den folgenden Absätzen näher ausgeführt. Die Reizung des Gehörs über Knochenleitung ist nicht seitenspezifisch, denn sie versetzt unabhängig vom Ort der Anregung den ganzen Schädelknochen in Schwingung. Auch wenn der Knochenhörer auf das Mastoid aufgesetzt wird, betragen Übertragungsverluste zur Gegenseite maximal 10 dB, so dass beide Innenohren mit nahezu der gleichen Intensität stimuliert werden. Doch auch bei Reizgebung über Luftleitung geht ein gewisser
14
209 14.2 · Psychoakustik und subjektive Audiometrie
Anteil der Schwingungsenergie in Knochenschall über und stimuliert damit das Gegenohr gleichermaßen wie das Prüfohr. Für die in der Audiometrie vorwiegend angewendeten geschlossenen supraauralen Kopfhörer liegt die Überhördämpfung bei etwa 50 dB, d. h. erst bei Prüftonpegeln LP≥50 dB HL wird Knochenschall erzeugt und mit der Intensität LP−50 dB auch im gegenseitigen Innenohr wirksam. Wenn dieses Innenohr die bessere Hörleistung aufweist, wird der langsam lauter werdende Prüfton zuerst hier wahrgenommen. Aufmerksame Patienten werden bei der Schwellenbestimmung zwar angeben, dass die Wahrnehmung auf der Gegenseite erfolgte, aber damit ist noch nicht die Schwelle des Prüfohres bestimmt. Das Mithören des Gegenohres kann verhindert werden, indem es durch ein über Luftleitung dargebotenes Geräusch künstlich schwerhörig gemacht (vertäubt) wird. Hierzu werden meist Schmalbandgeräusche (Terzbandrauschen) verwendet, die den übergehörten Sinuston verdecken (maskieren) und sich vom Prüfreiz im Charakter genügend unterscheiden, um nicht mit ihm verwechselt zu werden. Die Vertäubung geschieht immer über Luftleitung, da ein über Knochenleitung angebotenes Rauschen beide Ohren gleichermaßen ausschalten würde. Die Vertäubung des Gegenohres erfüllt nur dann ihren Zweck, wenn der im nicht geprüften Innenohr wirksame Pegel des Maskierers den übergehörten Pegel des Prüftones (LP−50 dB) übertrifft. Damit ist für den minimalen Vertäubungspegel LV eine untere Grenze definiert. Da der über Luftleitung angebotene Maskierer das vertäubungsseitige Mittelohr passieren muss, ist diese Grenze nur dann hoch genug, wenn dieses Mittelohr eine normale Funktion aufweist (auf dem Vertäubungsohr also kein Schalleitungsverlust vorliegt). Ist dies nicht der Fall, so liegt der Vertäubungspegel möglicherweise (aber nicht zwangsläufig) unter der Luftleitungsschwelle des Vertäubungsohres und er muss um den Betrag der (vertäubungsseitigen) Mittelohrdämpfung DV erhöht werden, um den Verlust auszugleichen und eine ausreichende Verdeckungswirkung zu erzielen: LV ≥ LP − 50dB + DV
(4)
Die in DV zum Ausdruck kommende Mittelohrkomponente des Vertäubungsohres kann maximal 50 dB betragen. In diesem Fall ergibt sich LV≥LP. Da DV zum Zeitpunkt der Untersuchung nicht als bekannt vorausgesetzt werden kann und ein zu niedriger Vertäubungspegel meistens schwerer wiegt als eine zu starke Vertäubung, kann man in der Praxis vom Extremfall einer maximalen Mittelohrkomponente auf dem Vertäubungsohr ausgehen (DV=50 dB) und erhält so die sehr praktikable und in den meisten Fällen richtige Vertäubungsregel: falls LP ≥ 50 dB LV ≈ L P IDOOV (für Prüfung in Luftleitung)
Vertäubungs- und Prüftonpegel sind also einander gleich und werden bei der Schwellenbestimmung gemeinsam erhöht. Es ist wichtig darauf hinzuweisen, dass die in den Gleichungen (4) und (5) empfohlenen Vertäubungspegel Minimalwerte sind, bei denen die Verdeckungswirkung gerade beginnt. Wird der Prüfton noch immer übergehört, so kann der Vertäubungspegel vorsichtig um einige dB erhöht werden. Wenn aber das Prüfohr einen mittelohrbedingten Hörverlust aufweist, besteht die Gefahr der Übervertäubung, d. h. der mit 50 dB Verlust auf den Knochen übergehende Maskierer überschreitet die Knochenleitungsschwelle des Prüfohres obwohl dessen Luftleitungsschwelle noch oberhalb von LP liegt4. Der Patient muss daher angewiesen werden, nur auf die Prüftöne zu achten und das Rauschen im Gegenohr (evtl. auch im Prüfohr) zu ignorieren. Etwas andere Vertäubungsregeln müssen bei der Ermittlung der Knochenleitungsschwelle angewendet werden. Hier geht der Prüfton nahezu ohne Verluste auf das Gegenohr über, d. h. es liegt immer – und nicht erst oberhalb von 50 dB – auch im gegenseitigen Innenohr ein Reiz des Pegels LP vor. Die Hörempfindung entsteht dann im besser hörenden Innenohr. Der für die Kopfhörerkapsel des Gegenohres eingestellte Vertäubungspegel muss daher so hoch gewählt werden, dass er im Innenohr mindestens den Wert LP ergibt, d. h. LV≥LP bei intaktem Mittelohr und LV≥LP+50 dB bei vollständiger Schalleitungsstörung auf der Vertäubungsseite. Die allgemeine Regel lautet also hier:
LV ≥ L P + DV
Während bei der Luftleitungsmessung auf der Vertäubungsseite ein vollständiger Mittelohrverlust von 50 dB angenommen werden kann, um eine allgemeingültige und möglichst einfache Vertäubungsregel zu erhalten, ist dies bei der Knochenleitung nicht möglich, denn dann würde sich nach LV ≥ LP + 50 dB ein Vertäubungspegel ergeben, der das Prüfohr mit mindestens der Intensität des Prüftones maskiert (Übervertäubung). Der minimale Vertäubungspegels muss also unter dieser Grenze bleiben. Zugleich muss er den Prüftonpegel übertreffen, denn der Verschluss des vertäubungsseitigen Gehörgangs durch den Kopfhörer erhöht die Empfindlichkeit des dazugehörigen Innenohres (Verschlusseffekt5). Es kann also kein fester Wert, sondern nur ein Bereich für den richtigen Vertäubungspegel angegeben werden: L P + 20 dB ≤ LV ≤ L P + 50 dB (für Prüfung in Knochenleitung)
4
5
(5)
(6)
(5)
Aus diesem Grund kann eine beidseitige Mittelohrkomponente von 50 dB tonaudiometrisch nicht exakt bestimmt werden. Wegen dieses Effektes muss auch darauf geachtet werden, dass der Gehörgang des Prüfohres bei der KL-Messung offen bleibt.
210
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Es muss noch einmal betont werden, dass die Regeln (5) und (7) zwar in vielen, aber nicht in allen Fällen richtig sind. Ein ohne Einschränkung gültiges Kriterium für die richtige Wahl des Vertäubungspegels ergibt sich daraus, dass der Schwellenwert isometrisch mit dem Vertäubungspegel ansteigt, solange infolge zu schwacher Vertäubung nicht die Hörschwelle des Prüfohres sondern die Mithörschwelle des Gegenohres gemessen wird. Erst bei genügend hohen contralateralen Maskiererpegeln stabilisiert sich die Schwellenabgabe des Patienten, d. h. sie steigt mit zunehmendem Vertäubungspegel nicht weiter an. Bei diesem Vorgehen ist – wie bei der Vertäubung ganz allgemein – immer darauf zu achten, dass die Unbehaglichkeitsschwelle des Vertäubungsohres nicht überschritten wird.
14.2.4 Überschwellige Hörprüfungen
Alle Hörtests, bei denen mit Hilfe von Schallsignalen oberhalb der (individuellen) Hörschwelle versucht wird, einen pathologischen Lautheitsanstieg nachzuweisen, werden unter dem Begriff »Überschwellige Tests« zusammengefasst. Die einfachste und zuverlässigste Feststellung eines Recruitments lässt sich durchführen, wenn ein Patient nur einseitig von einer Hörstörung betroffen ist, das andere Ohr also normal hört. Der hierzu eingesetzte Fowler-Test6 ist ein interauraler Lautheitsvergleich. Dem Patienten werden Töne gleicher Frequenz und veränderlicher Intensität abwechselnd auf beiden Ohren dargeboten. Bei jedem Paarvergleich wird der Pegel auf dem besser hörenden Ohr so lange nachgeregelt, bis der Patient die Töne auf beiden Ohren mit gleicher Lautstärke wahrnimmt. Diese Pegel werden in die Audiogramme eingezeichnet und durch Linien miteinander verbunden. Verlaufen die Verbindungslinien bei allen Pegeln parallel, so liegt kein Lautheitsausgleich vor, bei zusammenlaufenden Linien ist der Recruitment-Test hingegen positiv: Hier empfindet der Patient hohe Schallintensitäten auf der schwerhörigen und der normalhörenden Seite als gleich laut. Dieser Befund ist gleichbedeutend mit der für endocochleäre Hörstörungen pathognomonischen Feststellung, der Patient habe auf der hörgeschädigten Seite einen eingeschränkten Dynamikbereich. Ebenfalls zum Nachweis des Recruitments – aber ohne die Beschränkung auf einseitig normalhörende Patienten – dient der SISI-Test (short increment sensitivity index). Testgröße ist der (prozentuale) Anteil richtig erkannter 1 dB-Inkremente, mit denen ein überschwelliger Dauerton rechteckförmig moduliert ist. Der Zusammenhang zwischen dieser Testgröße und einem pathologi-
6
In der angelsächsischen Literatur heißt dieser Test ABLB (alternate binaural loudness balance).
schen Lautheitsanstieg ist offensichtlich: Aufgrund der abschnittsweise steileren Eingangs/Ausgangs-Kennlinie entspricht eine gegebene Pegeldifferenz beim haarzellgeschädigten Ohr einer stärkeren Zunahme der subjektiv empfundenen Lautheit als beim Normalohr (⊡ Abb. 14.6) und ist daher besser erkennbar. Für die Durchführung des SISI-Tests wird eine Prüffrequenz gewählt, bei der der Hörverlust mindestens 40 dB beträgt. Bei geringeren Hörverlusten ist die Anwendung des Tests nicht sinnvoll, weil nur ein stark ausgeprägter Funktionsausfall von äußeren Haarzellen einen pathologischen Lautheitsanstieg zur Folge hat. Der Dauerton wird 20 dB überschwellig eingestellt. In regelmäßigen Abständen von 5 s wird sein Pegel für 0,2 s erhöht. Zur Konditionierung des Patienten werden zunächst 5 dB-Inkremente angeboten, dann beginnt der eigentliche Test mit 1 dB-Inkrementen. Erkennt der Patient über 70% dieser Inkremente, so wird das als Hinweis auf ein Recruitment und somit eine cochleär bedingte Schwerhörigkeit gewertet. Negative Testergebnisse (unterhalb von 30%) sprechen gegen eine Innenohrschädigung und weisen daher auf eine neurale Ursache der Schwerhörigkeit hin (z. B. eine Verarmung von Hörnervenfasern). Erkennungsraten zwischen 35% und 65% sollten zurückhaltend interpretiert werden, sie könnten auf ungenügende Kooperation des Patienten oder auf die Wahl ungeeigneter Testparameter (Frequenz und Intensität des Reizes) zurückzuführen sein. Die Wahrnehmungsgrenze für Intensitätsänderungen lässt sich auch mit dem in der Durchführung etwas verschiedenen, aber in seinen Aussagen und Ergebnissen sehr ähnlichen Lüscher-Test bestimmen. Hier wird nicht gezählt, wie oft ein kleiner und fest vorgegebener Pegelunterschied vom Patienten richtig erkannt wird, sondern der ebenmerkliche Pegelunterschied wird direkt bestimmt, indem die Inkremente des wiederum auf 20 dB SL eingestellten Dauertones von 4 dB ausgehend bis hinab zu 0,2 dB solange verringert werden, bis der Patient keine Lautstärkeschwankungen mehr wahrnimmt. Die Geräuschaudiometrie nach Langenbeck ist ein weiteres Verfahren, mit dem ein Recruitmentäquivalent nachgewiesen werden kann. Bei diesem Test wird für mehrere Frequenzen die Mithörschwelle eines Sinustones im schmalbandigen Störgeräusch ermittelt. Die Wahrnehmung eines Tones im gleichzeitig vorliegenden Störgeräusch stellt eine Leistung dar, die der Wahrnehmung kleiner und kurzzeitiger Lautstärkeerhöhungen sehr ähnlich ist. Daher kann durch die Messung der Mithörschwelle eine ausgeprägte Empfindlichkeit für Pegelunterschiede nachgewiesen werden. Das Prinzip des Langenbeck-Tests besteht darin, diese Mithörschwelle bei mehreren Frequenzen mit unterschiedlich stark ausgeprägtem Hörverlust zu messen. Dadurch können die Pegelunterscheidungsschwellen geschädigter und ungeschädigter Bereiche desselben Innenohres miteinander verglichen werden. Für den Test geeignet sind Ohren mit sensorineuraler Hoch-
211 14.2 · Psychoakustik und subjektive Audiometrie
tonsenke oder Hochtonabfall, soweit im Tieftonbereich eine annähernd normale Hörschwelle vorliegt. Der Pegel des maskierenden Breitband- oder Schmalbandrauschens wird je nach Audiogramm auf einen festen Wert zwischen 45 und 75 dB eingestellt. Niedrigere Pegel sind aus physiologischen Gründen (Arbeitsbereich der äußeren Haarzellen) nicht sinnvoll, höhere Geräuschpegel können eine Hörermüdung und dadurch verfälschte Ergebnisse zur Folge haben. Dem Terzbandrauschen wird ein zunächst unhörbarer Sinuston niedriger Frequenz beigemischt. Bei langsamer Erhöhung des Testtonpegels wird die vom Patienten angegebene Wahrnehmungsschwelle registriert. Nach Erhöhung der Tonfrequenz (wie auch der Mittenfrequenz des Rauschens) wird eine weitere Mithörschwelle bestimmt. Nähert sich die Frequenz dem von der Hörstörung betroffenen Bereich, so wirkt sich das im Fall eines pathologischen Lautheitsanstiegs nicht auf die Lage der Mithörschwelle aus. Dieses Einmünden der Mithörschwelle in die Ruhehörschwelle ist das Merkmal einer sensorisch bedingten Hörstörung. Im Fall einer neural bedingten Hörstörung hingegen weicht die Mithörschwelle der Ruhehörschwelle aus, d. h. die Mithörschwelle ist in dem von der Hörstörung betroffenen Frequenzbereich angehoben. Dies ist zu erwarten und plausibel, wenn der retrocochleären Störung eine derart ausgeprägte Verarmung von Hörnervenfasern zugrunde liegt, dass die Kapazität zur Informationsübertragung bereits bei der Verarbeitung von hörschwellennahen Reintönen erschöpft ist. Der diagnostische Nutzen von SISI- und LangenbeckTest besteht darin, dass sie auf Recruitmentäquivalente empfindlich sind und dadurch das Fehlen einer natürlichen Dynamikkompression anzeigen. Sie erteilen aber keine qualitative Auskunft über das Ausmaß dieser Fehlfunktion – im Gegensatz zum Fowler-Test, dessen Nachteil aber darin besteht, dass er nur bei einseitig normalhörenden Patienten anwendbar ist. Seit einigen Jahren steht nun ein quantitativer und bei allen Patienten anwendbarer Recruitment-Test zur Verfügung: die unter diversen Bezeichnungen (u. a. »Würzburger Hörfeldskalierung«, »KU-Lautheitsskalierung« und »Hörfeldaudiometrie«) bekannt gewordene direkte Skalierung der Kategoriallautheit nach Heller, Moser und Hellbrück7. Bei diesem Verfahren skaliert der Patient seine subjektive Lautstärkeempfindung, indem er den angebotenen Reizen verbale Kategorien zuordnet, die von »Nicht gehört« bis »Zu laut« reichen (⊡ Abb. 14.9) und in einer numerischen Skala weiter unterteilt werden können. Mittenfrequenz und Pegel der Schmalbandpulse decken möglichst das ganze Hörfeld ab und werden randomisiert angeboten. Der Untersucher erhält für jede geprüfte Frequenz eine Pegel-LautheitsKennlinie. Aus der Gesamtheit dieser psychometrischen
7
Die kategoriale Lautheit ist von der in Abschn. 14.2.1 beschriebenen Verhältnislautheit zu unterscheiden..
⊡ Abb. 14.9. Lautstärkeskalierung bei einem normalhörenden und einem innenohrschwerhörigen Patienten (schematisch). Die 7 verbalen Lautstärkekategorien entsprechen 50 numerischen KU-Einheiten (Kategorien-Unterteilung)
Funktionen lassen sich Isophonen konstruieren und als individuelles Hörfeld in das Audiogramms eintragen. Der Schnittpunkt der einzelnen Pegel-Lautheits-Funktion mit der Abszisse entspricht der Hörschwelle, der mit »Zu laut« bewertete Pegel der Unbehaglichkeitsschwelle. Liegt ein pathologischer Lautheitsanstieg vor, so verläuft die Kennlinie sehr steil, d. h. der horizontale Abstand zwischen der individuellen Kurve und dem Normalwert nimmt mit zunehmendem Pegel ab. Dieser horizontale Abstand entspricht dem pegel- und frequenzabhängigen Verstärkungsbedarf, der somit unmittelbar als Ausgangswert für die Einstellung von Verstärkung und Kompression eines Hörgerätes genutzt werden kann. Das Vorliegen einer pathologisch veränderten Adaptation wird geprüft, indem das Ohr mit schwach überschwelligen Dauertönen stimuliert und der niedrigste Pegel aufgesucht wird, bei dem der Ton mindestens 30 s lang hörbar bleibt (Schwellenschwundtest nach Carhart). Liegt dieser Pegel bis zu 10 dB über der Hörschwelle, so wird die Adaptation noch als normal gewertet. Liegt der Schwellenschwund zwischen 15 und 25 dB, so spricht dies gemeinsam mit anderen Indikatoren (Recruitment) für eine Innenohrschädigung (pathologische Adaptation). Schwellenabwanderungen von mindestens 30 dB werden als Hörermüdung bezeichnet (obwohl es sich um ein Adaptationsphänomen handelt) und als Hinweis auf eine neurale Hörstörung gewertet.
14.2.5 Sprachaudiometrie
Das Verstehen von Sprache stellt höchste Anforderungen an die Leistungsfähigkeit des Hörsystems. Sprachsignale weisen sich daher nicht a priori als besonders geeignete
14
212
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Reize für Hörprüfungen aus. Wegen ihrer Komplexität würde die Verwendung von Sprachreizen bei vielen Hörstörungen und Fragestellungen eher zu einer Verschleierung als zu einer Aufklärung der Krankheitsursache beitragen. Wenn die Aufgabe eines Hörtests jedoch darin besteht, die in der sprachlichen Kommunikation auftretende Behinderung zu beurteilen oder die durch eine Hörprothese erreichte Wiederherstellung der lautsprachlichen Kommunikationsfähigkeit zu überprüfen, so ist die Verwendung von Sprache als Testmaterial unerlässlich. Die Komplexität der Sprache bringt noch eine weitere Schwierigkeit mit sich: Anders als bei den elementaren Reizen, die in anderen Bereichen der Audiometrie verwendet werden, wirken sich in der Sprachaudiometrie nicht nur das Hörvermögen, sondern auch die intellektuellen Fähigkeiten sowie die Muttersprache und der Wortschatz des Probanden sehr stark auf das Untersuchungsergebnis aus. Es kann keinen universellen Sprachdiskriminationstest geben, mit dem einerseits der Effekt des binauralen Hörens auf die Spracherkennungsleistung junger normalhörender Probanden und andererseits die Fortschritte eines gehörlos geborenen und spät versorgten CI-Trägers (vgl. Abschn. 14.4) erfasst werden können. Daher gehören zur Sprachaudiometrie sehr viele Tests, die sich in ihrem Anwendungsbereich und ihrer Aussagekraft unterscheiden. Gemeinsames Merkmal aller Sprachtests ist, dass mit ihnen die Fähigkeit des Probanden zur Erkennung (Perzeption) von sprachlichen Lauten geprüft wird8. Wenn die Sprachperzeption in irgendeiner Form von Schallpegeln abhängt, so lässt sich – ebenfalls bei allen Sprachtests – eine psychometrische Diskriminationsfunktion definieren, die die Testergebnisse wiedergibt und den Vergleich verschiedener Testverfahren ermöglicht. Die Fähigkeit zur Perzeption und Diskrimination von Sprache kann nur bei Berücksichtigung ihrer akustischen Eigenschaften in audiologische Zusammenhänge eingebettet werden. Daher folgt hier eine kurze Beschreibung der physikalischen Merkmale der Signale, die von den menschlichen Organen zur Phonation (Erzeugung von Stimme) und Artikulation (Erweiterung der Stimme zur informationstragenden Sprache) erzeugt und vom Hörsystem empfangen und verwertet werden. Die einfachsten Grundelemente der Sprache (Phoneme) sind die Vokale, die durch einen periodischen, aus dem Grundton (er entspricht der Stimmhöhe) und zwei oder mehr Obertönen (Formanten) zusammensetzten Schwingungsverlauf gekennzeichnet sind. Die Lage der Formanten ist für jeden Vokal charakteristisch, sie variiert nur geringfügig mit der Stimmhöhe und von Sprecher zu Sprecher. Der Formant F1 liegt im Bereich um 500 Hz, F2 zwischen 1 und 2 kHz und die hö-
8
Meistens kommt es hierbei nur auf die linguistische und nicht die semantische Erkennung an (obwohl die semantische Erkennung eines Testwortes seine korrekte linguistische Wiedergabe sehr unterstützt).
heren, für das Verstehen der Vokalen weniger bedeutsamen Formanten F3 und F4 zwischen 2 und 4 kHz. Die Konsonanten können nicht durch so einfache Merkmale beschrieben werden. Soweit charakteristische Frequenzen definiert werden können, liegen diese im Bereich der Formanten F3 und F4. Anders als die immer mit einer Phonation einhergehenden Vokale können Konsonanten stimmlos und stimmhaft sein. Stimmlose Konsonanten (f, ss, p, t, k) entstehen bei nicht schwingenden Stimmlippen durch Verengungen im Ansatzrohr, die zur Beschleunigung der Luftströmung und damit zur Wirbelbildung Anlass geben. Bei stimmhaften Konsonanten (l, m, n, r) überlagern sich diese Mechanismen mit der Stimmlippenschwingung. In der Phonetik werden die Konsonanten weiterhin nach ihrem Artikulationsort (Bilabiale, Dentale, Velare etc.) und der Artikulationsart (Plosive, Frikative, Liquide etc.) unterschieden. Viele Konsonanten entsprechen einem frequenzmäßigen Übergang zum vorangegangenen oder nachfolgenden Vokal (Transienten). Ein und derselbe Konsonant kann, je nachdem, mit welchem Vokal er als Anlaut, Inlaut oder Auslaut in Verbindung steht, ganz verschiedene Frequenzen enthalten. Transienten und Formanten sind im Spektrogramm (auch als Sonagramm bezeichnet) erkennbar, einem Diagramm zur Darstellung von Frequenz und Intensität des Sprachsignals in Abhängigkeit von der Zeit (⊡ Abb. 14.10). Anwendung finden die in der Abbildung gezeigten Diagramme sowohl in der technischen als auch in der phoniatrischen (stimmärztlichen) Sprachanalyse. Frequenz und Intensität der Sprachbestandteile können grob ins Tonaudiogramm übertragen werden, um die Auswirkung von Schwerhörigkeit auf das Sprachverstehen abzuschätzen (⊡ Abb. 14.11). Bei einem Hochtonhörverlust wird die Erkennung vieler Konsonanten (v. a. der Zischlaute) am stärksten in Mitleidenschaft gezogen. Bei ausgeprägten Tieftonschwerhörigkeiten werden nur die Grundtöne, die der für das Sprachverständnis nicht sehr wichtigen Stimmhöhe entsprechen, nicht richtig wahrgenommen. Betrifft die Schwerhörigkeit alle Frequenzen gleichermaßen und beträgt der Hörverlust 40 bis 50 dB, so werden zwar die Vokale und sehr starke Zischlaute, nicht aber die leisen Konsonanten richtig verstanden. Das bei vielen Innenohrschwerhörigkeiten auftretende pathologische Lautheitsempfinden hat die Folge, dass leise Sprachelemente gar nicht oder zu schwach, die lauteren Anteil hingegen deutlich oder gar als unangenehm laut wahrgenommen werden. Die Probleme, die sich für den Schwerhörigen aus der Zeitabhängigkeit von Sprachsignalen – insbesondere aus den schnellen Übergängen zwischen lauten Vokalen und leisen Konsonanten – ergeben, können in diesem Diagramm nicht dargestellt werden. Für die Sprachaudiometrie wird Testmaterials verwendet, dessen Auswahl sich an der Zielsetzung orientiert: Eine rudimentäre Perzeptionsleistung lässt sich nur prüfen, wenn das Testmaterial genügend Redundanz ent-
14
213 14.2 · Psychoakustik und subjektive Audiometrie
⊡ Abb. 14.10. Oszillogramm (oben) und Spektrogramm (unten) des Wortes »Straße« (männlicher Sprecher)
⊡ Abb. 14.11. Projektion des für Umgangssprache relevanten Frequenzund Pegelbereiches (»Sprachfeld« nach Fant) ins Tonaudiogramm
hält, wie es z. B. bei semantisch sinnvollen Sätzen der Fall ist. Das andere Extrem sind nahezu redundanzfreie einsilbige Testwörter. Zwischen diesen Extremen liegen die im Freiburger Sprachverständlichkeitstest nach DIN 45621 verwendeten Zahlwörter, bei denen die Antworten des Probanden einem bekannten und sehr begrenzten Antwortinventar entstammen. Liegt das Sprachmaterial fest, so kann der Schwierigkeitsgrad des Tests noch dadurch beeinflusst werden, dass Antwortalternativen angeboten werden. Um den Test bei einem Probanden mehrmals durchführen zu können ohne die Verfälschung der Ergebnisse durch Lerneffekte befürchten zu müssen, muss das Material in äquivalente Testlisten aufgeteilt sein (die z. B. jeweils 10 Alltagssätze oder 20 einsilbige Testwörter
enthalten). Unabhängig von der Zielsetzung sollte das Testmaterial eine sprachstatistisch repräsentative Verteilung der Phonemhäufigkeit aufweisen. Die Darbietung einer Gruppe bzw. Liste der auf einem Tonträger gespeicherten Test-Items geschieht über Kopfhörer oder Lautsprecher, wahlweise mit einem gleichzeitig dargebotenen definierten Störgeräusch. Der Proband wird aufgefordert, das item (Wort oder Satz) nachzusprechen oder aus vorgegebenen Antwortalternativen auszuwählen, der Untersucher zählt die Anzahl richtiger Antworten. Das Untersuchungsergebnis besteht in der (prozentualen) Angabe richtig wiedergegebener Testworte in Abhängigkeit vom absoluten oder relativen (auf den Störgeräuschpegel bezogenen) Sprachpegel. Der Zusammenhang zwischen Reizpegel (bzw. Pegeldifferenz) und dem Anteil richtiger Antworten (Sprachverständlichkeitsindex) wird als Diskriminationsfunktion (performance-intensity function) bezeichnet. Sie zeigt einen stufenförmigen Verlauf und lässt sich mit ausreichender Genauigkeit durch zwei Parameter beschreiben: den Pegel (bzw. das Signal/Rausch-Verhältnis) L50, bei der die Wahrscheinlichkeit für eine richtige Antwort 50% beträgt, und die Steigung s50 an dieser Stelle (⊡ Abb. 14.12). Für die mathematische Beschreibung wird häufig die folgende logistische Modellfunktion verwendet: 1
p( L ) = 1+ e
−
L − L50 u
mit u = PLW
1 4 s 50
(8)
Im deutschsprachigen Raum wird für die praktische Audiometrie heute noch immer vorwiegend der im Jahre 1957 von Hahlbrock eingeführte Freiburger Test angewendet. Das Testmaterial besteht aus zweistelligen Zahlen und einsilbigen Wörtern, die in phonetisch ausgeglichenen Gruppen (10 aus je 10 Zahlwörtern bzw. 20 aus je 20 Einsilbern bestehende Listen) angeordnet sind und von einem geschulten Sprecher aufgesprochen wurden.
214
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.12. Die Zunahme des Anteils richtig wiedergegebener TestItems mit steigendem Reizpegel bzw. Signal/Rausch-Verhältnis wird durch eine sigmoide psychometrische Funktion beschrieben (⊡ Gl. 8)
Unterhalb eines gewissen Sprachpegels (10 dB SPL für Zahlwörter und 15 dB SPL für Einsilber) wird vom Normalhörenden keines der Testwörter richtig verstanden. Mit zunehmender Lautstärke nimmt der Anteil richtig verstandener Worte zu und erreicht schließlich 100% bei etwa 30 dB SPL (Zahlwörter) bzw. 50 dB SPL (Einsilber). Ein 50%-iges Zahlwörterverständnis erzielen Normalhörende durchschnittlich bei einem Schallpegel von 18,5 dB, die Steigung s50 beträgt hier etwa 5%/dB. Wegen der großen Redundanz der Zahlwörter verläuft die Diskriminationskurve sehr steil. Aus demselben Grund beeinflussen Hörstörungen nur die Lage, nicht jedoch die Gestalt der Diskriminationskurve. Die Auswirkung einer Hörstörung lässt sich also durch die Differenz aus dem beim Schwerhörigen bestimmten L50 und dem Normalwert vollständig beschreiben. Diese Differenz wird als Hörverlust für Sprache bezeichnet. Weil die richtige Wahrnehmung der niedrigen Vokalfrequenzen für das Zahlwörterverstehen bereits ausreicht, korreliert dieser Sprachhörverlust gut mit der im Tieftonbereich vorliegenden Hörschwelle. Ein reiner Hochtonverlust wirkt sich hingegen auf die Diskriminationskurve für Zahlwörter nahezu nicht aus. Die Einsilberkurve ist gegenüber der Zahlwörterkurve zu höheren Pegeln verschoben und sie verläuft flacher. Beides ist darauf zurückzuführen, dass für die richtige Erkennung der Testwörter nicht nur die lauten Vokale, sondern auch die leiseren Konsonanten wichtig sind. Hörstörungen wirken sich hier nicht nur auf die Lage, sondern auch auf die Gestalt der Diskriminationskurve aus. Es ist daher nicht sinnvoll, sie durch ihre Verschiebung zu charakterisieren. Besonders bei ausgeprägten Hochtonhörverlusten verläuft die Kurve wegen der erschwerten Erkennung der hohen Konsonanten sehr flach. Häufig wird dann bis zum Erreichen der Unbehaglichkeitsschwelle kein 100%-iges Einsilberverstehen erzielt, d. h. es liegt ein Diskriminationsverlust vor. In seltenen Fällen nimmt die
Sprachdiskrimination, nachdem sie einen Maximalwert erreicht hat, zu höheren Pegeln wieder ab (roll-off). Diskriminationsverlust und die bei einem Sprachpegel von 65 dB SPL erhaltene Sprachverständlichkeit sind die wichtigsten mit dem Einsilbertest erhaltenen Messgrößen. Der standardisierte Freiburger Sprachverständlichkeitstest wird insbesondere bei der Indikation von Hörgeräten und die spätere Erfolgskontrolle sowie als Maß für die Berechnung der MdE (Minderung der Erwerbsfähigkeit) bei berufsbedingt erworbenen Hörstörungen eingesetzt. Er weist einige Nachteile auf, die zur Entwicklung weiterer Sprachtests geführt haben: ▬ Bei hochgradig Schwerhörigen oder mit einem Cochlea-Implantat versorgten Patienten liefert er keine verwertbaren Ergebnisse. ▬ Die Testlisten sind phonetisch nicht ausgewogen und in Hinblick auf den Schwierigkeitsgrad nicht miteinander äquivalent. ▬ Die Prüfung des Sprachverstehens im Störgeräusch ist nicht standardisiert. ▬ Der Proband muss mit der deutschen Sprache vertraut sein. ▬ Der Testablauf ist nicht automatisierbar, da die Antwort des Patienten vom Untersucher ausgewertet wird. ▬ Die Antwort des Probanden wird nur als richtig oder falsch bewertet, eine Auswertung der Phonemverwechslungen ist nicht möglich. ▬ Das Fehlen eines Ankündigungsreizes hat eine unangemessen hohe Quote falscher Antworten zur Folge. Wegen dieser Nachteile sind in jüngerer Zeit neue Sprachverständlichkeitstests entwickelt und erprobt worden. Dadurch konnten einige Lücken des bisherigen Testinventars geschlossen werden. Die Problematik bei der Untersuchung des Sprachverstehens resthöriger Patienten besteht darin, dass der Zahlwörtertest in vielen Fällen zwar zu bewältigen ist aber keiner realistischen Hörsituation entspricht, wohingegen der Einsilbertest sich als zu schwierig erweist. Für diesen Einsatzbereich ist nur ein geschlossener Test (bei dem der Proband das Test-item aus einer Liste von möglichen Antworten bezeichnet) oder ein offener Test mit redundantem Sprachmaterial (z. B. bedeutungstragende Sätze) geeignet. Dem zuletzt genannten Konzept entspricht der Oldenburger Satztest (Wagener u. Kollmeier 2005), dessen Testmaterial aus Sätzen besteht, die aus 5 Wörtern (Eigenname, Verb, Zahlwort, Adjektiv und Objekt) zusammengesetzt sind (z. B. »Doris malt neun nasse Sessel«). Jedes der 5 Wörter entstammt einem Vorrat aus 10 Alternativen, aus denen die Sätze nach dem Zufallsprinzip zusammengestellt werden. Dadurch wird die Wiedererkennung eines Testsatzes unwahrscheinlich und die Zahl der verwendbaren Testlisten vergrößert. Die Diskriminationsfunktion des Oldenburger Satztests weist an der Sprachverständlichkeitsschwelle L50 eine Steigung von 17 bis 20%/dB auf, so
215 14.2 · Psychoakustik und subjektive Audiometrie
dass die Sprachverständlichkeitsschwelle auch im Störgeräusch mit hoher Genauigkeit bestimmt werden kann. Allgemein kann bei allen Sprachverständlichkeitstests die Untersuchungsdauer durch die Optimierung von Testmaterial und -strategie reduziert werden. Der Zeitbedarf ist proportional zur Zahl von Testlisten, die für die Aussage des Tests geprüft werden müssen. Sprachtests mit redundantem Testmaterial (Zahlwörter- und Satztests) sind durch eine steile Diskriminationskurve gekennzeichnet, die sich bei Hörstörungen nur verschiebt, aber nicht verformt. Es muss daher im Idealfall nur eine Testliste geprüft werden, wenn der gewählte Schallpegel so liegt, dass L50 zuverlässig bestimmt werden kann. Weist das Testmaterial wenig Redundanz auf (Einsilbertests), so ist die psychometrische Kurve flacher und sie wird bei Hörstörungen nicht nur verschoben, sondern auch verformt. Um sie zu rekonstruieren, müssen mindestens zwei Testlisten geprüft werden. Unabhängig von den Details der Diskriminationskurve ist der Untersucher meistens daran interessiert, möglichst keine Messungen in Bereichen mit 0 oder 100% Sprachdiskrimination durchzuführen. Normalwerte und die oben genannten Zusammenhänge zwischen Ton- und Sprachgehör helfen zunächst bei der Auffindung von sinnvollen Startpegeln in der Nähe des Wendepunktes L50. Durch eine adaptive Pegelsteuerung kann der Zielpunkt noch genauer und schneller erreicht werden. Hierbei wird der Darbietungspegel eines jeden Test-items gemäß den vorhergehenden Antworten erhöht oder verringert, d. h. die bevorstehende Testaufgabe wird schwieriger gestaltet, wenn die vorgehende richtig gelöst wurde (und sinngemäß umgekehrt). Neben der Sprachdiskrimination in Ruhe ist auch die Untersuchung der für viele Hörgeschädigte und Hörgeräteträger problematischen sprachlichen Kommunikation im Störgeräusch und der Störbefreiungseffekt durch das binaurale Hören Gegenstand der Sprachaudiometrie. Der Freiburger Einsilbertest ist wegen der geringen Redundanz des Testmaterials für die Messung der Diskrimination in Abhängigkeit vom Signal/Rausch-Verhältnis wenig geeignet. Es ist aber eine Modifikation dieses Tests ausgearbeitet und erprobt worden, bei der die einsilbigen Testwörter in dreifacher Wiederholung dargeboten werden (»Dreinsilbertest« nach Döring). Dies erhöht die Sprachverständlichkeit in dem Maße, dass die Detektion auch im Störschall gelingt. Wenn die schwierigste Hörsituation des Patienten, nämlich einem von Stimmengewirr überlagerten Gespräch zu folgen, realistisch nachgebildet werden soll, müssen Störgeräusch und Nutzsignal spektral aufeinander abgestimmt sein. Das mit dem Dreinsilbertest kombinierte Störgeräusch wird synthetisch durch 32-fache zeitlich versetzte Überlagerung der einsilbigen Testwörter des Freiburger Tests erzeugt. Es entspricht in seinem Spektrum und seiner Zeitstruktur den Eigenschaften einer (männlichen) Stimme und enthält infolge der Überlagerung keine semantische Information. Aus
der Messung des Sprachverständlichkeitsindex bei verschiedenen Signal/Rausch-Verhältnissen S/N (fester Störgeräuschpegel, variabler Nutzsignalpegel) ergibt sich die Diskriminationskurve. Wird der Test mit Normalhörenden im freien Schallfeld durchgeführt, so liegt der Wendepunkt dieser Kurve bei S/N50 = 0 dB in der 0°-Situation (Nutz- und Störsignal von vorne) bzw. bei S/N50=–11 dB in der ±45°-Situation (Nutz- und Störsignalquelle lateral vorne um 90° voneinander getrennt). Weitere Verfahren zur Untersuchung der Sprachperzeption im Störgeräusch sind neben dem oben ausführlich beschriebenen Oldenburger Satztest der aus 10 Testlisten zu je 10 Sätzen bestehende Göttinger Satztest nach Wesselkamp und Kollmeier mit dem Stimmengewirr nach Sotschek als Störschall und der aus 30 Listen zu je 20 Sätzen bestehende Innsbrucker Satztest nach Hochmair, Schulz und Moser (HSM-Test) mit sprachsimulierendem CCITT-Rauschen. Das Spektrum des international genormten CCITT-Rauschens ist an die mittlere Häufigkeitsverteilung mehrerer Sprachen (bei Übertragung weiblicher und männlicher Stimmen über Telefonleitungen) angepasst. Es weist seine höchste Intensität bei 800 Hz auf. Die zeitlich modulierte Variante des CCITT-Rauschens wird als Fastl-Rauschen bezeichnet. Für die Modulation wird nicht eine feste Frequenz verwendet, sondern ein Bandpassrauschen, dessen Maximum entsprechend der mittleren Silbenlänge bei 4 Hz liegt. Bisherigen Erfahrungen zufolge ist der schnell und von einem ungeschulten Sprecher aufgesprochene Göttinger Satztest gut für die die Anwendung bei Hörgeräteträgern geeignet, während der HSM-Test aufgrund der langsamen und gut artikulierten Aufsprache einen niedrigeren Schwierigkeitsgrad aufweist und in erster Linie für die Anwendung bei CITrägern konzipiert ist.
14.2.6 Prüfung des binauralen Hörens
Alle bisher geschilderten Eigenschaften des Gehörs sind das Ergebnis psychoakustischer Untersuchungen bei Stimulation eines Ohres. Ohne Zweifel ist das beidohrige (binaurale) Hören als die natürliche Hörsituation anzusehen. Es unterscheidet sich vom monauralen Hören zunächst durch eine niedrigere Wahrnehmungsschwelle. Die binaurale Hörschwelle liegt (wegen der Verdoppelung der genutzten Schallenergie) um durchschnittlich 3 dB niedriger als die monaurale Schwelle. Bei überschwelligen Reizen ist der Unterschied zwischen ein- und beidohrigem Hören noch größer. Er entspricht etwa 10 dB, d. h. die Hinzunahme des zweiten Ohres bewirkt eine Verdoppelung der Lautheit. Dieser Effekt wird als binaurale Lautheitssummation bezeichnet. Auch die Fähigkeit zum räumlichen Hören und zur Lokalisation von Schallquellen ist größtenteils eine Folge der beidohrigen Erfassung und Verarbeitung der akustischen
14
216
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Signale. Zusätzlich spielt aber auch die Ohrmuschel eine Rolle: Ihrer akustischen Funktion nach stellt sie ein Filter dar, dessen Übertragungsfunktion von Richtung und Entfernung der Schallquelle abhängt. Räumliche Merkmale des Schallfeldes werden durch Reflexion, Abschattung, Streuung, Beugung, Interferenz und Resonanz in zeitliche Merkmale umkodiert, deren zentralnervöse Repräsentation einen bei Stimulation über Kopfhörer nicht entstehenden Eindruck von Räumlichkeit hervorruft. Für einen anderen Aspekt des räumlichen Hörens, nämlich das Richtungshören, ist das Vorliegen zweier Eingangssignale, der gekreuzte Verlauf der Hörbahn und die Verwertung der Differenzen zwischen beiden Signalen (binauraler Prozessor) Voraussetzung. Die Lage der Ohrmuscheln an beiden Seiten des Kopfes hat zur Folge, dass die zwei bei seitlicher Beschallung eintreffenden Eingangssignale Pegel-, Laufzeit- und Klangfarbenunterschiede aufweisen. Die unterschiedliche Klangfarbe ergibt sich daraus, dass die Abschattung durch den Kopf nur für hohe Frequenzen wirksam ist. Aus demselben Grund treten auch vorwiegend bei hohen Frequenzen, die nicht um den Kopf gebeugt werden, interaurale Pegelunterschiede auf. Sie tragen zur Lateralisation des Hörereignisses bei, sowie sie mehr als 1 dB betragen. Weiterhin erreichen die Schallwellen von Quellen, die sich außerhalb der Medianebene befinden, die zwei Ohren zu unterschiedlichen Zeiten (bzw. es liegen zu gleichen Zeiten unterschiedliche Phasen vor). Die experimentell bestimmte Untergrenze für die Verwertung dieser interauralen Laufzeitdifferenzen liegt unter 30 µs. Zeit- und Pegeldifferenzen ermöglichen eine Richtungsbestimmung mit einer Genauigkeit von 3 bis 5°. Diese Quellenortung ist allerdings nicht eindeutig: Alle Quellen, die sich auf der Oberfläche des in ⊡ Abb. 14.13 gezeigten Kegels (cone of confusion) befinden, weisen näherungsweise dieselben interauralen Differenzen auf. Sie unterscheiden sich lediglich in der Klangfarbe. Tatsächlich werden bei Richtungshörtests in der Horizontalebene am häufigsten die Schallereignisorte verwechselt, die in Hinblick auf die interauralen Zeit- und Pegeldifferenzen gleichwertig sind. Ein Sonderfall hiervon ist die Verwechslung von vorne und hinten. Auch die Bestimmung der Elevation, d. h. die Ortung von Schallquellen, die sich in der Medianebene befinden (Öffnungswinkel des Kegels gleich 180°), geschieht ohne Zuhilfenahme interauraler Differenzen und ist dementsprechend unsicher. Interaurale Laufzeitdifferenzen sind für die Ortung von Schallquellen nur dann verwertbar, wenn das Signal zeitlich genügend scharf begrenzt ist. Diese Voraussetzung ist bei Dauertönen oder beim Auftreten von Echos nicht erfüllt. In diesen Fällen verschmilzt der Höreindruck beider Ohren zu einem einzigen Hörereignis. Dass die Quellen von Dauerreizen oder ein von Echos begleitetes kurzes Signal trotzdem lokalisiert werden können liegt daran, dass der Ort solcher Hörereignisse in erster Linie von der Schalldruckänderung bestimmt wird, die als erste den Hö-
⊡ Abb. 14.13. Bei seitlichem Schalleinfall trifft das Signal in beiden Ohren zu verschiedenen Zeiten und mit unterschiedlicher Intensität ein. Es gibt viele Schallereignisorte, die in Hinblick auf diese Differenzen gleichwertig sind. Sie liegen auf dem Mantel eines Kegels (cone of confusion), dessen Spitze in der Kopfmitte liegt und dessen Achse mit der Verbindungslinie der Ohren zusammenfällt. Dies gilt allerdings nur, wenn der Kopf durch eine Kugel ohne Ohrmuscheln und mit einander diametral gegenüberliegenden Gehörgangseingängen approximiert wird. Dies ist eine sehr grobe und realitätsferne Näherung
rer erreicht (Gesetz der ersten Wellenfront). Dieser für das Hören in geschlossenen Räumen wichtige Mechanismus versagt natürlich, sowie sich stehende Wellen bilden. Das beidohrige Hören trägt entscheidend zur Wahrnehmung und Erkennung von Signalen im Störgeräusch bei. Ein Sinuston ist im Rauschen besser (d. h. bei geringerem Signal/Rausch-Abstand) erkennbar, wenn beide Signalquellen räumlich voneinander getrennt sind. Experimentell lässt sich der Effekt des binauralen Hörens auf die Verdeckung (Maskierung) eines Signals einfach nachbilden, indem über Kopfhörer zunächst ein Ohr mit einem Gemisch aus Testton und breitbandigem Rauschen beschallt wird. Die Versuchsperson regelt den Testtonpegel soweit herunter, dass sie den Ton gerade nicht mehr wahrnimmt. Bietet man nun dasselbe Rauschen zugleich am anderen Ohr an (alternativ hierzu kann die Phase des Rauschens im monaural dargebotenen Signalgemisch umgekehrt werden), so wird das Rauschen zwar subjektiv lauter, der Testton wird aber wieder hörbar und die zugehörige (binaurale) Mithörschwelle liegt niedriger als im monauralen Fall (binaural masking level difference, BMLD). Auf ähnliche Weise lässt sich die binaurale Schwelle für das Verstehen eines Testwortes ermitteln und mit der monauralen Schwelle vergleichen (binaural intelligibility level
14
217 14.3 · Objektive Audiometrie
difference, BILD). Je nach der räumlichen Anordnung von Nutz- und Störsignalquelle beträgt die Schwellendifferenz bei Normalhörenden etwa 10 dB. Die durch BMLD und BILD beschriebene Verbesserung der Signalerkennung hängt eng mit der Fähigkeit zum Sprachverstehen im Störgeräusch zusammen (Cocktailparty-Effekt), welche ein funktionsfähiges binaurales System voraussetzt. Bereits durch eine geringfügige einseitige Schwerhörigkeit kann die Funktion des empfindlichen binauralen Systems beeinträchtigt werden. Die Messung der ein- und beidohrigen Diskriminationsschwellen eignet sich daher zur quantitativen Beschreibung der Fähigkeit, im Störgeräusch einer Unterhaltung zu folgen. Es hat sich gezeigt, dass BMLD und BILD bei schwerhörigen Patienten und auch bei älteren normalhörenden Probanden herabgesetzt sind.
14.3
Objektive Audiometrie
In Abgrenzung zur subjektiven Audiometrie, die sich psychoakustischer Methoden bedient, wird die Gesamtheit der Verfahren, bei denen eine mit dem Hörvorgang einhergehende physiologische Reaktion zum Zwecke der Funktionsprüfung des Gehörs gemessen wird, als objektive Audiometrie bezeichnet. Die registrierten Signale unterliegen in weit geringerem Maße der Aufmerksamkeit und aktiven Mitarbeit des Probanden als dies bei den subjektiven Verfahren der Fall ist. Unter den Reaktionen auf akustische Reize sind für audiometrische Zwecke die physikalischen Eigenschaften des Trommelfells (Impedanzaudiometrie), die vom Innenohr ausgesandten Schallschwingungen (otoakustische Emissionen) und die in Hörnerv, Hörbahn und Hirnrinde ablaufenden elektrischen Vorgänge (akustisch evozierte Potentiale) verwertbar. Weil alle für die objektive Audiometrie verwendeten Signale von Störeinflüssen überlagert sind, lässt sich mit ihnen nur eine begrenzte Messgenauigkeit erzielen. Für die Hörschwellenbestimmung ist ihre Anwendung daher in erster Linie bei kooperationsunfähigen oder -unwilligen Patienten interessant. Ist hingegen eine ausreichende Mitarbeit des Patienten sichergestellt, so gibt es keine zuverlässigere, genauere und schnellere Methode als die Befragung nach den subjektiven Hörempfindungen. Die objektiven Verfahren liefern aber differentialdiagnostische Aussagen, die sich mit subjektiven Verfahren nicht gewinnen lassen. In Hinblick auf die Lokalisation der Ursache einer Hörstörung stellt die objektive Audiometrie somit keinen Ersatz, sondern eine Ergänzung zur subjektiven Audiometrie dar.
dieser Impedanz in Abhängigkeit von Luftdruck und Sondentonfrequenz gibt Auskunft über die physikalischen Eigenschaften von Trommelfell, Mittelohr und Gehörknöchelchen, die Messung der Impedanz während akustischer Stimulation mit Tonpulsen ermöglicht die Beobachtung physiologischer Reaktionen. An der Grenzfläche zwischen zwei Medien unterschiedlicher Schallimpedanzen Z0 und Z1 werden Schallwellen reflektiert. Die Messung der Impedanz beruht auf der Beziehung zwischen Reflexionskoeffizient r und der normierten Impedanzdifferenz: r=
( Z1 − Z 0 ) 2 (Z1 + Z 0 ) 2
(9)
Die Impedanz des Mittelohres hängt von der Masse M (Trommelfell, Ossikel, evtl. Sekret), der Reibung R (Paukenhöhle und Innenohr), der Elastizität k (Trommelfell, Mittelohrsehnen, Paukenluft) und der Schallfrequenz f (bzw. Kreisfrequenz ω) ab (⊡ Abb. 14.14): 2
Z=
k· § R 2 + ¨ ωM − ¸ ω¹ ©
(10)
Abgesehen von der Frequenz sind alle Größen, die in die Berechnung der Impedanz eingehen, für den Zustand des Mittelohres charakteristisch. Diesem Umstand verdankt die Impedanz ihre diagnostische Bedeutung. Den zahlenmäßig größten und diagnostisch bedeutendsten Beitrag zur Impedanz liefert bei den üblichen Testfrequenzen der Elastizitätsterm. Der Zusammenhang zwischen Impedanz und Schallfrequenz wird in der praktischen Tympanometrie wenig ausgenutzt, da die Impedanz nahezu ausschließlich mit einer Prüffrequenz von 220 Hz gemessen wird. Dies hat seinen wichtigsten Grund darin, dass bei höheren Frequenzen stehende Wellen entstehen können (λ/4-Resonanz) und das Messergebnis dadurch von der Geometrie des Gehörgangs beeinflusst wird. Bei manchen Geräten stehen außer
14.3.1 Impedanzaudiometrie
Gegenstand der Impedanzaudiometrie ist die Messung des akustischen Widerstands, den das Trommelfell der eintreffenden Schallwelle entgegenstellt. Die Messung
⊡ Abb. 14.14. Vektorielle Berechnung der komplexen Impedanz Z aus den reellen Komponenten (ω M und k/ω) und dem imaginären Anteil R
218
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
220 Hz noch höhere Prüftonfrequenzen (z. B. 600 Hz) zur Verfügung. Mit diesen lassen sich mehr Information über die physikalischen Vorgänge im Mittelohr gewinnen und die Auswirkungen von operativen Veränderungen besser objektivieren, Messungen an verschiedenen Patienten sind aber nicht immer miteinander vergleichbar. In der Audiometrie wird selten die Impedanz (in der zugehörigen Einheit »akustisches Ohm« = kg/m2s), sondern meistens ihr Kehrwert (die Admittanz) angegeben. Da die Impedanz den Widerstand des Mittelohres beschreibt, entspricht die Admittanz der Bereitwilligkeit (compliance) des Mittelohres, den Schall ans Innenohr weiterzuleiten. Eine große Admittanz entspricht daher einem geringen Schallwellenwiderstand und somit einer hohen Nachgiebigkeit des Trommelfells. Die Maßeinheit für die compliance ist m2s/kg. Da diese Einheit nicht besonders anschaulich ist, hat sich die Beschreibung der compliance durch ein äquivalentes Volumen eingebürgert (dessen Einheit das cm3 oder ein ml ist). Der Gehörgang und seine Abgrenzung zum Mittelohr wird hierbei als ein Luftvolumen aufgefasst, das allerdings veränderlich ist: Wenn der Schall reflektiert wird, verhält sich das gesamte System wie ein kleines Luftvolumen (mit starren Wänden), wenn der Schall absorbiert wird, entspricht es einem größeren Luftvolumen. Die Messung der Trommelfellimpedanz geschieht indirekt über die Messung des reflektierten Anteils eines Prüftones bekannter Intensität, der in den Gehörgang eingestrahlt wird. Die wesentlichen Bestandteile eines Gerätes zur Messung der Mittelohrimpedanz sind: ▬ Ein Lautsprecher für die Erzeugung des Prüftones; ▬ Ein Mikrophon für die Messung der Intensität des reflektierten Schalls; ▬ Eine Pumpe und ein Manometer für Veränderung bzw. Messung des Luftdrucks im Gehörgang; ▬ Eine Vorrichtung zur Ausgabe der Messergebnisse (Zeigerinstrument, XY-Schreiber oder Display). Die Verbindung zwischen Messgerät und Patient wird über eine Sonde hergestellt, die mit Hilfe eines Anpassstückes variabler Größe luftdicht in den Gehörgang eingesetzt wird (⊡ Abb. 14.15).
Tympanogramm Im Tympanogramm ist die compliance als Funktion des vom Gerät eingestellten und gemessenen Luftdrucks im Gehörgang aufgetragen (⊡ Abb. 14.16). Bei Überdruck wird das Trommelfell nach innen gewölbt und stärker als bei Normaldruck gespannt, es ist daher weniger schwingungsfähig und reflektiert einen großen Teil des Testtones. Die Folge ist eine verringerte Elastizität und somit nach (9) eine erhöhte Impedanz bzw. eine geringe compliance. Bei Unterdruck ist das Trommelfell ebenfalls stärker gespannt als bei Normaldruck, denn der (unveränderte)
⊡ Abb. 14.15. Die Impedanz-Messsonde mit den drei Schlauchleitungen für Lautsprecher, Mikrophon und Luftpumpe/ Manometer muss den Gehörgang luftdicht abschließen (nach Stange 1993)
⊡ Abb. 14.16. Bei normaler Mittelohrfunktion ergeben sich bei Anwendung von Über- oder Unterdruck im Gehörgang für die compliance des Trommelfells sehr niedrige Werte. Bei Normaldruck (keine Druckdifferenz zwischen Gehörgang und Paukenhöhle) liegt maximale compliance vor (schematische Darstellung)
Druck in der Paukenhöhle wölbt das Trommelfell nach außen; somit ergibt sich auch bei Unterdruck eine niedrige compliance. Die günstigsten Schwingungseigenschaften weist das Trommelfell auf, wenn der äußere Druck gleich dem Druck im Mittelohr ist. Das ist i. d. R. bei normalem Atmosphärendruck der Fall. Daher hat ein normales Tympanogramm sein compliance-Maximum bei Normaldruck (p=0). Die maximalen bei Routinemessungen angewendeten Druckdifferenzen betragen ±30 hPa. Das wichtigste Merkmal eines Tympanogramms ist das compliance-Maximum, welches durch seine Lage, seine Höhe und einen Formparameter quantitativ beschrieben werden kann. Die Höhe des Gipfels variiert bei verschiedenen Individuen sehr stark. Liegt die maximale compliance signifikant oberhalb des Normalwertes, so liegt ein narbig schlaffes Trommelfell, eine Schenkelchenfraktur oder ein Ambossdefekt vor. Sehr flache compliance-Gipfel
219 14.3 · Objektive Audiometrie
werden beobachtet, wenn das Mittelohr mit Sekret gefüllt ist (Paukenerguss) oder wenn das Trommelfell durch eine Narbe versteift ist. Die Verschiebung des Maximums zu positiven oder negativen Werten zeigt einen Über- oder Unterdruck in der Paukenhöhle an. Ein Überdruck kann infolge einer Tubenfunktionsstörung auftreten, ein Unterdruck stellt sich bei sauerstoffverbrauchenden entzündlichen Mittelohrerkrankungen – z. B. einer beginnenden Otitis media ohne Erguss – ein. Variationen des Mittelohrdrucks im Bereich ±10 hPa sind ohne diagnostische Bedeutung. Wenn im Mittelohr ein zähflüssiger Erguss vorliegt, lagert sich Sekret am Trommelfell ab und beeinträchtigt seine Beweglichkeit. Das Tympanogramm weist dann keinen compliance-Gipfel auf, es verläuft flach mit einem leichten Anstieg zu negativen Drucken. Ein ähnliches Bild ergibt sich bei einem perforierten Trommelfell, weil dann nicht die vom Luftdruck beeinflusste Admittanz des Trommelfells, sondern die druckunabhängige Admittanz des größeren, aus Gehörgang und Mittelohr zusammengesetzten Volumens gemessen wird. Flache Tympanogramme können auch auf Fehler bei der Messung (z. B. eine verschmutzte oder an der Gehörgangswand anliegende Sondenöffnung) hinweisen.
⊡ Abb. 14.17. Kurze Zeit nach der Einwirkung eines genügend starken Tonpulses ist bei normalem Gehör infolge des Stapediusreflexes die Impedanz beider Trommelfelle vorübergehend erhöht
Stapediusreflex Das zweite Anwendungsgebiet der Impedanzaudiometrie ist der Nachweis des Stapediusreflexes. Er erfolgt über die Registrierung einer zeitlichen Änderung der Impedanz während der akustischen Stimulation eines Ohres (⊡ Abb. 14.17). Die Impedanzänderung entsteht dadurch, dass der am Steigbügelköpfchen ansetzende Musculus stapedius und der am Hammergriff ansetzende Musculus tensor tympani durch starke akustische Reize zu Kontraktionen veranlasst werden. Dies hat eine Versteifung der Gehörknöchelchenkette und damit eine Erhöhung der Trommelfellimpedanz zur Folge. Die Muskelkontraktion – und somit die Impedanzänderung – folgt der Reizgebung mit einer geringen Verzögerung (Latenzzeit etwa 10 ms); sie hält für die Dauer des Reizes an. Die bei starker Beschallung eintretende reflexartige Kontraktion des am Stapes oberhalb der Schenkelchen angreifenden Stapediusmuskels behindert die Schwingungsbewegungen des Steigbügels und schützt somit das Innenohr vor zu hohen Schallintensitäten. Für das Verständnis des Reflexablaufs und zur Interpretation der Befunde muss der Reflexbogen betrachtet werden (⊡ Abb. 14.18). Der Stapediusreflex ist ein akustikofazialer Reflex, d. h. zum auslösenden (afferenten) Zweig gehören Mittelohr, Innenohr und Hörnerv; den ausführenden (efferenten) Schenkel bildet der motorische Gesichtsnerv (Nervus facialis), der die Mittelohrmuskeln innerviert. Afferenter und efferenter Schenkel des Reflexbogens sind in den Hörnerven- und Fazialiskernen des Hirnstamms miteinander verschaltet. Da der ausführende Zweig die Mittelohrmuskeln beider Ohren innerviert, bewirkt eine monaurale Beschallung eine beidseitige Impedanzänderung: Der Stapediusreflex kann durch ipsilaterale und durch kontralaterale Reizung ausgelöst werden. In den meisten praktisch vorkommenden Fällen ist die Frage zu klären, ob auf einem Ohr der Reflex auslösbar ist, d. h. es geht in erster Linie um das Reizohr. Es gibt jedoch auch Fragestellungen, bei denen das Interesse dem Sondenohr gilt. Bei der Registrierung des ipsilateralen Stapediusreflexes wird von dem mit der Gehörgangssonde verbundenen Hörer außer dem Impedanzprüfton von 220 Hz für begrenzte Zeit (1 s) ein reflexauslösender Ton mit der
⊡ Abb. 14.18. Verlauf des ipsilateralen (links) und contralateralen (rechts) akustikofazialen Reflexbogens bei der Auslösung des Stapediusreflexes (schematische Darstellung). Die Abkürzung MO steht für Mittelohr
14
220
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
vom Untersucher gewählten Frequenz (500 Hz, 1 kHz, 2 kHz oder 4 kHz) und Intensität (Pegel zwischen 70 und 110 dB HL) abgegeben. Zur Messung des contralateralen Stapediusreflexes wird auf der Reizseite ein Kopfhörer aufgesetzt, auf der Sondenseite wird die Messsonde im Gehörgang plaziert. Die Messung des Reflexes geschieht immer bei dem Druck, bei welchem im Tympanogramm das compliance-Maximum liegt. Beginnend bei etwa 70 dB HL wird durch Erhöhung des Reiztonpegels nach der Reflexschwelle gesucht. Diese ist definiert als der niedrigste Reizpegel, bei dem eine für den Reflex typische Impedanzzunahme registrierbar ist. Sie liegt bei Normalhörenden zwischen 70 und 90 dB HL, bei Schwerhörigen unter Umständen höher. Ein geringer Prozentsatz der Normalhörenden weist keinen Reflex auf. Der Stapediusreflex wird grundsätzlich nur von Reizen ausgelöst, die mit einer großen subjektiven Lautheit einhergehen. Die Reflexschwelle korreliert daher nicht direkt mit dem Pegel des Reizes (dB HL), sondern eher mit dem auf die individuelle Hörschwelle des untersuchten Ohres bezogenen Pegel (dB SL). Bei Mittelohrschwerhörigkeiten ist die Reflexschwelle daher um den Betrag des Hörverlustes angehoben. Beträgt der Hörverlust mehr als etwa 30 dB, so kann kein Reflex ausgelöst werden, denn dazu wäre ein Reizpegel von mindestens 110 dB HL (≥70 dB über der Schwelle) erforderlich. An dem von einer Mittelohrschwerhörigkeit betroffenen Ohr ist der Reflex somit nicht auslösbar – und (aus anderen Gründen) in den meisten Fällen auch nicht registrierbar. Bei Innenohrschwerhörigkeiten ist die Reflexschwelle regelmäßig erst dann erhöht, wenn der Hörverlust mehr als 50 dB beträgt. Dies hat zur Folge, dass die Reflexschwelle bei vielen sensorischen Hörstörungen näher an der Hörschwelle liegt als beim Normalhörenden. Hierin manifestiert sich die eingeengte Dynamik des haarzellgeschädigten Ohres (Metz-Recruitment). Innenohrschwerhörigkeiten wirken sich nur auf der Reizseite, nicht aber auf der Sondenseite aus. Die Auswirkung neural bedingter Hörstörungen auf den Stapediusreflex hängt davon ab, ob die Störung peripher der Reflexverbindung im Hörnerv oder weiter zentral im Hirnstamm lokalisiert ist. Im ersten Fall fehlt der Reflex oder es zeigt sich eine pathologische Reflexermüdung (decay), im zweiten Fall ist der Stapediusreflex nicht beeinträchtigt. Es können sich sowohl am Reizohr als auch am Sondenohr auffällige Befunde ergeben. In sehr vielen Fällen wird die Interpretation der Befunde durch die Auswirkung zusätzlich vorhandener cochleärer Hörstörungen erschwert.
14.3.2 Otoakustische Emissionen
Schallwellen, die im Innenohr entstehen und über Gehörknöchelchen und Trommelfell in den äußeren Gehörgang abgestrahlt werden, werden als otoakustische
Emissionen (OAE) bezeichnet. Es wird unterschieden zwischen spontanen Emissionen (SOAE), die ohne Einwirkung eines akustischen Reizes vorhanden sind, und evozierten Emissionen (EOAE), die während oder nach einem akustischen Reiz auftreten. Die OAE werden auf die nichtlinearen und aktiven Vorgänge der cochleären Schallvorverarbeitung zurückgeführt, die sich bereits in der Mikromechanik der Basilarmembran manifestieren und für die hohe Empfindlichkeit, den großen Dynamikbereich und das gute Frequenzauflösungsvermögen des Gehörs verantwortlich sind. Quelle der cochleären Emissionen sind mikroskopische Bewegungen der äußeren Haarsinneszellen (outer hair cells, OHC). Im Präparat kultivierte OHC können durch chemische, elektrische und mechanische Reize zu aktiven Kontraktionen angeregt werden. Es wird angenommen, dass die OHC beim physiologischen Hörvorgang in einem der Reizfrequenz entsprechenden eng umgrenzten Bereich der Cochlea stimulierte Kontraktionen und Elongationen ausführen, wodurch einerseits das Auslenkungsmaximum der Basilarmembran erhöht und eingeengt wird und andererseits eine sekundäre Wanderwelle kleiner Amplitude entsteht, welche sich retrograd ausbreitet und über das Trommelfell zu messbaren Schalldruckschwankungen im Gehörgang führt. Die evozierten Emissionen können somit als Nebenprodukt eines nichtlinearen, rückgekoppelten – und dadurch zu Eigenschwingungen neigenden – mechanischen Systems gedeutet werden. Der Nichtlinearität der biologischen Transduktionsfunktion entsprechend können quadratische und kubische Effekte auftreten, die sich durch die zugehörigen Verzerrungen des Eingangssignals nachweisen lassen. Zur Gewinnung audiologischer Diagnosen werden fast ausschließlich die EOAE genutzt. Sie sind bei nahezu 100% der Normalhörenden nachweisbar. Wegen ihrer geringen Intensität und der unvermeidlichen Anwesenheit von Störgeräuschen sind zu ihrem Nachweis ein empfindliches Mikrophon und eine aufwändige Signalverarbeitung erforderlich. Eine weitere Schwierigkeit besteht darin, dass zur Auslösung der EOAE ein akustischer Reiz notwendig ist, dessen Intensität die der Emissionen um Größenordnungen übertrifft und der außer den OAE ein passives Echo von Trommelfell und Gehörgangswänden hervorruft, welches sich dem physiologischen Signal überlagert. Die EOAE werden in poststimulatorische (verzögerte) transitorisch evozierte otoakustische Emissionen (TEOAE) und perstimulatorische Emissionen eingeteilt (⊡ Abb. 14.19). Bei letzteren wird weiterhin danach differenziert, ob die Frequenz der Emission mit der des Stimulus übereinstimmt (stimulus frequency otoacoustic emissions, SFOAE) oder ob sich die Frequenzen von Reizund Antwortsignal unterscheiden (Verzerrungsprodukte oder distortion product otoacoustic emissions, DPOAE). Die sehr zuverlässig nachweisbaren TEOAE sind in der
221 14.3 · Objektive Audiometrie
audiologischen Diagnostik bereits fest etabliert. Hingegen ist der Nachweis der SFOAE schwierig, daher werden unter den perstimulatorischen OAE ausschließlich die DPOAE zu diagnostischen Zwecken genutzt. Nur die zwei in der praktischen Audiometrie genutzten Spezialfälle otoakustischer Emissionen – nämlich TEOAE und DPOAE – werden in den zwei Abschnitten dieses Kapitels ausführlicher beschrieben. Es besteht bisher keine Klarheit darüber, ob die Entstehungsmechanismen für TEOAE und DPOAE verschieden sind und ob somit die verzögerten und die simultanen Emissionen unterschiedliche Information über die Innenohrfunktion liefern. Wahrscheinlich handelt es sich bei den verschiedenen Emissionstypen nur um zwei auf verschiedene Weise gemessene Aspekte desselben aktiven und nichtlinearen cochleären Verstärkers. Die unterschiedliche Nachweistechnik wirkt sich aber auf die praktische Anwendung und die Informationsausbeute aus, denn bei vergleichbaren Stimuluspegeln sind die DPOAE mit größerer Empfindlichkeit, d. h. auch bei stärker ausgeprägtem Hörverlust, nachweisbar als die TEOAE.
Transitorisch evozierte otoakustische Emissionen Zur Messung der transitorisch evozierten otoakustischen Emissionen (TEOAE) wird das im Gehörgang vorliegende akustische Signal im unmittelbaren Anschluss an eine vorübergehende Stimulation aufgezeichnet. Das aktive physiologische Echo wird von Stimulus, Umgebungsge-
räuschen und passiven (mechanischen) Echosignalen überlagert. Die Amplitude dieser Konkurrenzsignale übertrifft das Messsignal i.a. um mehrere Größenordnungen. Um die verzögerte Emission dennoch nachzuweisen, muss mit Hilfe von analoger und digitaler Signalverarbeitung das Signal/Rausch-Verhältnis verbessert werden. Die wichtigsten hierbei angewendeten Prinzipien sind eine wirksame akustische Abschirmung und die Selektion und Mittelung vieler Signalabschnitte. Bei den meisten Anwendungen der TEOAE erfolgt die akustische Reizung mit einer zeitlichen Folge von Clicks, d. h. einzelnen rechteckförmigen Signalen einer Dauer von etwa 100 µs, die in regelmäßigen oder unregelmäßigen Intervallen von mindestens 20 ms dargeboten werden. Zeitverlauf und Spektrum eines Clickreizes sind in ⊡ Abb. 14.20 dargestellt. Auf der Aufzeichnung des Reizes und seines Frequenzspektrums im Gehörgang beruhen Kontrolle und eventuelle Korrektur der Sondenanpassung. Im Idealfall weist der Clickreiz ein weißes Spektrum auf, d. h. alle Frequenzen sind mit gleicher Intensität vertreten. Eine solche Konstellation ist zum einen das Kriterium für ein abgeschlossenes und resonanzfreies Gehörgangsrestvolumen, zum anderen ist sie auch Voraussetzung für die Funktionsprüfung der gesamten cochleären Trennwand mit einem einzigen Reiz. Die in den Gehörgang eingebrachte Sonde (⊡ Abb. 14.21) enthält einen magnetischen Hörer, über den ein Kurzzeitreiz (Click oder Tonpuls) dargeboten wird, sowie ein empfindliches Elektretmikrophon für die Registrierung des Schalldrucksignals. Die analoge Verarbeitung des
⊡ Abb. 14.19. Einteilung und Nomenklatur der otoakustischen Emissionen
⊡ Abb. 14.20. Zeitverlauf (links) und Frequenzspektrum (rechts) des Clickreizes. Das im Gehörgang registrierte Spektrum enthält ein sehr breites Frequenzgemisch mit nahezu frequenzunabhängiger Intensität (Hoth u. Lenarz 1997)
14
222
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
⊡ Abb. 14.21. Gehörgangssonde für Reizgebung und OAE-Messung (Madsen Capella, GN Otometrics)
(aber variable) Amplitudengrenze überschreiten, werden von der weiteren Verwertung ausgeschlossen. Das kommt einer Unterbrechung der Messung zu Zeiten ungünstiger Signal/Rausch-Verhältnisse gleich. Die zugelassenen, d. h. von der Artefaktunterdrückung nicht verworfenen Signalabschnitte werden punktweise addiert und ergeben so eine zeitabhängige Mittelwertkurve. Durch die Signalmittelung werden alle reizkorrelierten Signalanteile gegenüber stochastischen Anteilen in ihrer Amplitude angehoben. Dies beruht auf der Gültigkeit unterschiedlicher Additionsgesetze: Die nach jeder Reizung in unveränderter Weise auftretenden Signalamplituden überlagern sich bei der Addition linear, während sich bei den stochastischen Anteilen die Varianzen addieren. Falls die Voraussetzungen einer stabilen deterministischen Reizantwort und einer stationären Störgeräuschquelle erfüllt sind, verbessert sich somit bei N Additionen (bzw. Mittelungsschritten) das Signal/Rausch-Verhältnis um den Faktor √N (⊡ Abb. 14.22). Die durch die Signalmittelung erzielte Verbesserung des Signal/Rausch-Verhältnisses ist nicht mit einer selektiven Verstärkung der physiologischen Reizantwort gleichbedeutend, da auch die relative Amplitude aller anderen reizkorrelierten Signalanteile, wie z. B. des akustischen Reizes und seines zeitlich abklingenden Echos, verstärkt wird. Um die passiven (mechanischen) von den aktiven (physiologischen) Antworten zu trennen, wird eine besondere Reizsequenz angewendet (»nichtlinearer Stimulus-Block« ⊡ Abb. 14.23).
⊡ Abb. 14.22. Durch Mittelung bzw. Summation werden unveränderliche (stabile) Signale in größerem Maße verstärkt als Rauschen: Während die Signalamplitude linear mit der Zahl von Summationen zunimmt, wächst das Rauschen nur entsprechend einer Wurzelfunktion. Beträgt die effektive Amplitude des ungemittelten Rauschens das 10-fache der (ungemittelten) Signalamplitude, so sind Signal- und
Rauschamplitude nach 100 Summationen gleich groß (links). Wird derselbe Sachverhalt in einer doppeltlogarithmischen Darstellung betrachtet (rechts), so tritt die Umkehrung von negativem zu positivem Signal/Rausch-Abstand noch deutlicher hervor. Der Übergang von Summation zu Mittelung bewirkt lediglich eine Maßstabskorrektur, jedoch keine Änderung der Größenverhältnisse (Hoth u. Lenarz 1997)
nach dem Reiz registrierten Mikrophonsignals besteht aus einer Bandpassfilterung im Bereich von etwa 300 Hz bis etwa 10 kHz und einer linearen Verstärkung. Das verstärkte Signal wird mit einer auf die obere Grenzfrequenz abgestimmten Abtastrate analog/digital-gewandelt und dem Rechner zugeführt. Der erste Schritt der digitalen Signalverarbeitung besteht in der Auswahl der geeigneten Signalabschnitte nach Maßgabe eines Amplitudenkriteriums (Artefaktunterdrückung): Signalabschnitte, die mit mindestens einem Momentanwert eine vorgegebene
223 14.3 · Objektive Audiometrie
⊡ Abb. 14.23. Ausnützung der Nichtlinearität der TEOAE zur Trennung von den in linearer Weise von der Reizamplitude abhängenden nichtphysiologischen Signalkomponenten mit Hilfe einer aus Reizen unterschiedlicher Amplitude bestehenden Sequenz (Hoth u. Lenarz 1997)
Die Wirkungsweise der »nichtlinearen Reizsequenz« beruht ebenfalls auf der Gültigkeit unterschiedlicher Additionsgesetze – allerdings für Antworten, die durch unterschiedlich starke Reize ausgelöst wurden: Während die Amplitude der physiologischen Reizantwort mit zunehmender Reizamplitude ein Sättigungsverhalten aufweist, wächst die Amplitude der mechanischen Antwort in guter Näherung linear mit der Reizamplitude. Daher können die passiven Signalkomponenten von k Reizen durch einen Reiz der k-fachen Amplitude kompensiert werden. Für die nichtlinearen aktiven Komponenten ist diese Kompensation nur unvollständig. Bei der Verwendung einer »nichtlinearen«, d. h. zur Kompensation linearer Signalanteile geeigneten Reizsequenz besteht das Nutzsignal aus dem nicht kompensierten Anteil. Verglichen mit der konventionellen Reizung verliert zwar die cochleäre Emission an Amplitude, gegenüber dem mechanischen Reizecho tritt sie jedoch deutlicher hervor. Das Ergebnis einer TEOAE-Messung besteht aus einer oder zwei Kurven, die den gemittelten zeitabhängigen Verlauf des im Gehörgang vorliegenden poststimulatorischen Schalldrucks wiedergeben (⊡ Abb. 14.24). Die Transformation dieser Kurven in den Frequenzbereich liefert das Spektrum der TEOAE. Wenn das Summationsergebnis in zweifacher Ausfertigung vorliegt, z. B. indem bereits während des Mittelungsvorganges zwei bis auf die Reststörung miteinander gleichwertige Teilmittelwertkurven gebildet wurden, können für Signal und Rauschen getrennte Spektren (Kreuzleistungsspektren) berechnet und die Informationsausbeute dadurch erhöht werden. Weiterhin ermöglicht die Verfügbarkeit zweier Teilmittelwertkurven A(t) und B(t) die Berechnung eines Korrelationskoeffizienten (Reproduzierbarkeit) und die Abschätzung der Varianz des Restrauschens. Aus dem Gesamtmittelwert (A+B)/2 kann die effektive Amplitude der Emission als Wurzel aus der Varianz (root mean
square, RMS) und aus der mittleren Abweichung (A-B)/2 die effektive Amplitude des Restrauschens geschätzt werden. Zusätzlich zu diesen Daten gehören zur Dokumentation einer TEOAE-Untersuchung die Darstellung von Zeitverlauf und Spektrum des im Gehörgang registrierten Reizes, die Zahl von Mittelungsschritten und Artefakten, die Lage der Amplitudenschranke, die Reizintensität und die Stabilität der Reizbedingungen. Für Auswertung und Beurteilung von TEOAE-Messungen muss zunächst die Frage nach dem Vorhandensein von Signalen cochleären Ursprungs beantwortet werden. Dies ist gleichbedeutend mit der Abgrenzung der verzögerten Emissionen gegenüber gemitteltem Störgeräusch (Restrauschen) und passiv entstandenen Echosignalen (Reizartefakt). Ein wichtiges Hilfsmittel stellt hierbei die durch den Korrelationskoeffizienten ausgedrückte Reproduzierbarkeit dar: Weist sie einen großen Zahlenwert auf, so kann es sich bei dem gemessenen Signal nicht um reines Restrauschen handeln. Die Auswirkung des (trotz nichtlinearer Reizsequenz noch immer vorhandenen) Reizartefaktes lässt sich durch die Ausblendung einzelner Zeitbereiche abschätzen: Wenn eine hohe Reproduzierbarkeit lediglich in den ersten wenigen Millisekunden nach dem Reiz vorliegt, ist ein cochleärer Ursprung des Signals unwahrscheinlich. Mit der zuverlässigen und eindeutigen Unterscheidung zwischen Störeinflüssen und Signalanteilen cochleären Ursprungs ist der wesentliche Teil der in den TEOAE enthaltenen Information bereits genutzt. Empirisch gewonnenen Daten zufolge weist ein Ohr, an dem verzögerte Emissionen nachgewiesen werden können, zumindest in einem Bereich des Audiogramms eine annähernd normale Hörschwelle auf. Die Inzidenz von eindeutig nachweisbaren TEOAE nimmt mit zunehmendem innenohrbedingtem Hörverlust stufenförmig von 100% auf 0% ab. Die Lage der Stufe ist von der Reizintensität
14
224
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
abhängig; für einen Reizpegel von L=80dB SPL liegt die 50%-ige Inzidenz bei HVmin=32 dB (Hoth u. Neumann 2006). Hierbei bezeichnet HVmin den minimalen im Frequenzbereich 1–4 kHz auftretenden Hörverlust, d. h. die günstigste Hörschwelle; diese Variablenwahl trägt dem Umstand Rechnung, dass für das Auftreten von TEOAE bereits eine eng umgrenzte normale Innenohrfunktion hinreichend ist. Bereiche mit stärker ausgeprägten Hörstörungen tragen zur cochleären Antwort nicht bei. Die Auswertung des Frequenzspektrums und der in einzelnen Frequenzbändern berechneten Reproduzierbarkeit der Emission ermöglicht eine Eingrenzung des von der Hörstörung betroffenen Frequenzbereiches. Die bisher beschriebenen Zusammenhänge zwischen Hörschwelle und TEOAE beziehen sich auf den Spezialfall rein sensorischer (endocochleärer) Hörstörungen. Selbstverständlich wirken sich auch Schalleitungsstörungen auf Nachweisbarkeit und Amplitude der TEOAE aus. Die behinderte Schallübertragung des Mittelohrapparates hat eine Abschwächung von Reiz und Emission zur Folge. Ist die Mittelohrkomponente genügend stark ausgeprägt (20 dB oder mehr) und sind alle Frequenzen von ihr betroffen, so sind keine TEOAE mehr nachweisbar. Rein retrococh-
leäre Hörstörungen wirken sich auf die TEOAE nicht aus. Charakteristisch für rein neurale Hörstörungen ist somit die Befundkonstellation einer schlechten Hörschwelle mit annähernd normalen Emissionen. Da viele Ursachen retrocochleärer Hörstörungen – z. B. raumfordernde Prozesse im Kleinhirnbrückenwinkel – mit cochleären Folgeschäden einhergehen, tritt diese Konstellation aber nicht zwingend auf. Insbesondere bei großen oder schon längere Zeit bestehenden Tumoren liefert die TEOAE-Messung keinen Hinweis auf die neurale Genese der Hörstörung, d. h. nachweisbare Emissionen sind auf die Frequenzbereiche annähernder Normalhörigkeit beschränkt. Die Messung der TEOAE ermöglicht keine quantitative und frequenzspezifische Bestimmung der Hörschwelle. Das Spektrum einer jeden verzögerten Emission weist unregelmäßige und individuell verschiedene Spitzen und Kerben auf, denen kein Hörverlust im Audiogramm gegenübersteht. Erst wenn in einem sehr breiten Frequenzintervall keine Emissionen auftreten, kann dies als Hinweis auf eine angehobene Hörschwelle für diese Frequenzen interpretiert werden. Eine Besonderheit ist allerdings beim isolierten Tieftonhörverlust zu beachten: Es fehlen in diesem Fall nicht grundsätzlich die Emis-
⊡ Abb. 14.24. Transitorisch evozierte otoakustische Emissionen, gemessen an einem normalhörenden Ohr. Das primäre Messergebnis sind die zwei Teilmittelwertkurven A (t) und B (t) (großer Kasten). Hier-
aus werden Spektren, Emissionsamplitude, Reproduzierbarkeit und Restrauschen berechnet. Außerdem sind die Reiz- und Geräuschbedingungen angegeben
225 14.3 · Objektive Audiometrie
sionen niedriger Frequenz, sondern die tieffrequenten Anteile mit langer Latenz (da die apikalen Antworten der Cochlea erst zu späteren Zeiten erfolgen). Dies kann aus der zeitabhängigen Schalldruckkurve oder aus den daraus berechneten Spektrogrammen abgelesen werden und es lässt sich durch Fensterung und Bandpassfilterung der gemessenen Antwort bestätigen. Bei Verwendung eines breitbandigen Reizes (Click) sind somit im Spektrum der cochleären Emissionen alle Frequenzen enthalten, bei denen die Cochlea eine annähernd ungestörte Funktion aufweist. Hörstörungen, bei denen der Hörverlust die Grenze von etwa 30 dB überschreitet, haben das Verschwinden der verzögerten Emissionen zur Folge. Die vollständige Abwesenheit eines physiologischen Echos bedeutet somit, dass der Hörverlust bei allen Frequenzen diesen Wert überschreitet. Umgekehrt kann aus der Anwesenheit von Emissionen geschlossen werden, dass zumindest ein Teil der Haarzellen eine annähernd normale Funktion aufweist und somit der minimale Hörverlust weniger als etwa 30 dB beträgt. Die Gültigkeit dieser Aussagen ist auf den Frequenzbereich zwischen 1 und 4 kHz begrenzt, Hörverluste außerhalb dieser Grenzen können mit den TEOAE nicht erfasst werden.
Otoakustische Distorsionsprodukte Die Nichtlinearität der cochleären Signalverarbeitung hat zur Folge, dass das Innenohr zwei genügend nah beieinander liegende Frequenzen nicht unabhängig voneinander verarbeiten kann. Wird es mit einem Gemisch zweier Reintöne angeregt, so entstehen bei der physiologischen Verarbeitung Sekundärtöne mit Frequenzen, die im Reiz nicht enthalten sind. Diese Verzerrungen sind sowohl subjektiv wahrnehmbar als auch in Form akustischer Aussendungen des Innenohres im Gehörgang messbar.
a
Hierauf beruht die Messung der DPOAE (distortion product otoacoustic emissions). Aus der mathematischen Betrachtung der nichtlinearen Verzerrungen mit Hilfe einer Potenzreihenentwicklung ergeben sich unter Verwendung der für trigonometrische Funktionen gültigen Rechenregeln die Formeln für die im Ausgangssignal eines nichtlinearen Systems neben den Primärfrequenzen f1 und f2 enthaltenen Frequenzen. Nach steigenden Frequenzen geordnet führen die symmetrischen (quadratischen) Verzerrungen zu Beiträgen mit den Frequenzen f2 – f1, 2f1, f2 + f1 und 2f2, die antisymmetrischen (kubischen) Verzerrungen liefern Signalkomponenten mit den Frequenzen 2f1 – f2, 2f2 – f1, 3f1, 2f1 + f2, 2f2 + f1 und 3f2. Viele dieser theoretisch möglichen Kombinationstöne sind an den Ohren von Versuchstieren und Menschen gemessen worden. Für die Funktionsprüfung des Gehörs beschränkt man sich wegen ihrer relativ guten Nachweisbarkeit auf die kubischen Distorsionsprodukte mit den Frequenzen 2f1 – f2 und 2f2 – f1, und unter diesen wiederum meist auf das erstere, also den Ton, dessen Frequenz um den Differenzbetrag der Primärfrequenzen unterhalb der beiden Reiztöne liegt (⊡ Abb. 14.25a,b). Bei den perstimulatorischen DPOAE kann die Antwort nicht im Zeitbereich, sondern nur im Frequenzbereich vom Reiz getrennt werden. Der Signalnachweis kann weitgehend automatisiert werden, da sich die Frequenz der cochleären Emission mit Hilfe der oben genannten Relationen exakt aus den Reizfrequenzen vorhersagen lässt. Die Auslösung messbarer Distorsionsprodukte gelingt am besten mit einem Reiz, der aus zwei überschwelligen Sinusdauertönen annähernd gleicher Intensität mit den Frequenzen f1 und f2 = 1.2 · f1 zusammengesetzt ist. Um den Nachweis von Verzerrungseffekten physiologischen Ursprungs zu ermöglichen, müssen technisch bedingte Nichtlinearitäten soweit wie möglich
b
⊡ Abb. 14.25a,b. a Im Gehörgang gemessenes Spektrum bei Stimulation mit zwei Sinustönen. Mit zunehmender Zahl von Mittelungen ragen die den kubischen Differenztönen entsprechenden Verzerrungen immer deutlicher aus dem Geräuschuntergrund heraus. b Darstellung der Amplitude des Distorsionsproduktes in dB SPL in Abhängigkeit von der
Reizfrequenz f2 in kHz (DP-gram) bei Stimulation eines normalhörenden Ohres mit zwei Primärtönen gleicher Intensität (L1=L2=67 dB SPL). Die schattierte Fläche im unteren Teil des Diagramms entspricht dem Restrauschen, ihre oberen Grenzen sind gegeben durch den um eine bzw. zwei Standardabweichungen vermehrten mittleren Geräuschpegel
14
226
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
eingeschränkt werden. Aus diesem Grund werden die zwei Sinustöne über getrennte Wandler ans Ohr gebracht. Die DPOAE-Gehörgangssonde enthält daher zwei Hörer und ein Mikrophon. Vor Beginn der Messung werden die im Restvolumen des Gehörgangs vorliegenden akustischen Bedingungen überprüft, indem die Übertragungsfunktion des Gehörgangs bei Anregung mit breitbandigen Clickreizen registriert wird. Im Idealfall erhält man einen geradlinigen horizontalen Verlauf des Schallpegels über einen breiten Frequenzbereich, bei größeren Schwankungen muss die Sondenlage kontrolliert und korrigiert werden. Werden die Wandler zu verschiedenen Zeiten angesteuert und die Antworten getrennt aufgezeichnet, so lässt sich nicht nur die Gehörgangsantwort, sondern zugleich die Funktion der zwei Hörer und der dazugehörigen Sondenbohrungen überprüfen. Während der DPOAE-Messung werden zeitlich begrenzte und auf die Phase der Reiztöne synchronisierte Abschnitte des Mikrophonsignals aufgezeichnet und summiert. Die phasengerechte Summation bewirkt eine relative Verstärkung von Reiz und cochleärer Antwort gegenüber dem nicht synchronisierten Störgeräusch. Im Spektrum des aktuellen Mittelungsergebnisses treten dadurch die Linien, welche den Frequenzen der Distorsionsprodukte entsprechen, zunehmend deutlicher aus dem Geräuschuntergrund hervor (⊡ Abb. 14.25a). Die Amplitude des Distorsionsprodukts mit der Frequenz 2f1–f2 wird aus dem Spektrum abgelesen und für mehrere Reizfrequenzen gemeinsam mit der Amplitude des jeweils aus einem schmalen Frequenzband berechneten Hintergrundgeräusches dargestellt (⊡ Abb. 14.25b). Die frequenzselektive Reizung mit zwei Sinustönen regt nur eng umgrenzte Bereiche der Basilarmembran an. Dem konstanten Frequenzverhältnis f2/f1≈1,2 entspricht ein fester, von den Reizfrequenzen unabhängiger Abstand zwischen den aktivierten Bereichen. Er beträgt etwa 1,3 mm und entspricht bei Frequenzen oberhalb von 500 Hz einer Frequenzgruppenbreite. Das Verzerrungsprodukt entsteht in der Überlappungszone der zwei primär angeregten Bereiche. Wegen der Asymmetrie des Wanderwellenmaximums liegt diese Zone nicht exakt in der Mitte, sondern näher an dem Ort, an dem die höhere der zwei Frequenzen (f2) verarbeitet wird. Dementsprechend ist die Korrelation zwischen der Emissionsamplitude ADP und der bei f2 bestimmten Hörschwelle HV(f2) sehr viel deutlicher als zwischen ADP und HV(f1). Ein weiterer Hinweis auf die Entstehung des Distorsionsproduktes an dem der Frequenz f2 zugeordneten Ort wurde mit Suppressionsexperimenten erhalten: Es zeigt sich, dass die Unterdrückung der DPOAE durch Beschallung mit einer variablen Frequenz dann die größte Wirkung hat, wenn diese Frequenz gleich f2 ist. Die Breite der Überlappungszone nimmt mit steigendem Reizpegel zu. Hieraus ergeben sich zwei Konsequenzen: Erstens erteilt die Messung
der DPOAE zumindest bei hohen Reizpegeln keine sehr frequenzspezifische Auskunft über die Hörschwelle, und zweitens müssen Frequenzverhältnis oder Pegeldifferenz der Primärtöne gezielt verändert werden, wenn die DPOAE mit schwellennahen Reizen gemessen werden sollen. Für den Zusammenhang zwischen DPOAE-Parametern und Hörverlust gelten Regeln, die denen bei den TEOAE sehr ähnlich sind: ▬ Die mit den Frequenzen f1 und f2 = 1,2 · f1 ausgelösten DPOAE treten bei normalhörenden Ohren mit einer Inzidenz von annähernd 100% auf. ▬ Die Emissionsamplitude nimmt mit zunehmendem Hörverlust statistisch ab. ▬ Beträgt der Hörverlust bei der Frequenz f2 mehr als etwa 50 dB, so sind im statistischen Mittel keine DPOAE mehr nachweisbar. ▬ Inzidenz und Amplitude der DPOAE werden durch rein retrocochleäre Hörstörungen nicht beeinflusst. ▬ Schalleitungsschwerhörigkeiten bewirken zunächst eine Dämpfung der niedrigen Frequenzen, bei stärkerem Hörverlust verschwinden die DPOAE vollständig. Diese Regeln gelten für alle Reiztonpaare, für die f2 zwischen 1 und 4 kHz liegt. Bei niedrigeren Frequenzen liegt die Inzidenz nachweisbarer Emissionen selbst bei normalhörenden Ohren deutlich unterhalb 100%, bei höheren Frequenzen wird die DPOAE-Messung häufig durch technisch bedingte Verzerrungen verfälscht. Die derzeitige Anwendung der OAE in der praktischen Audiometrie geht davon aus, dass mit ihrer Hilfe zwar keine exakte Bestimmung, aber eine Eingrenzung der Hörschwelle in die Kategorien geringgradiger, mittelgradiger und hochgradiger Innenohrhörstörungen zulassen. Diese Eingrenzung gelingt durch die Kombination von TEOAE und DPOAE, da bei standardisierten Messbedingungen die ersteren nur nachgewiesen werden können, wenn das untersuchte Ohr bei keiner Frequenz einen Hörverlust oberhalb 30 dB aufweist, die letzteren hingegen bis zu einer um etwa 50 dB angehobenen Hörschwelle erhalten bleiben. Insbesondere für die gegenüber Störeinflüssen sehr robusten TEOAE ist die Eignung zu einer zuverlässigen und objektiven, evtl. auch in Hinblick auf die Auswertung automatisierbaren Hörprüfung vielfach erwiesen, wodurch dieses Verfahren die optimalen Voraussetzungen für ein screening zur Früherkennung kindlicher Hörstörungen aufweist. Ob mit den OAE über dichotome Aussagen hinaus quantitative Ergebnisse z. B. in Hinblick auf die frequenzspezifische objektive Hörschwellenbestimmung gewonnen werden können, ist derzeit noch nicht abzusehen. Viele aktuelle Arbeiten konzentrieren sich auf die Frage, ob mit Hilfe der Reizpegelabhängigkeit der Amplitude (»Wachstumsfunktion«) oder anderer signalanzeigender Parameter der OAE die Hörschwelle quantitativ bestimmt werden kann. Die Ergebnisse sind ermutigend, jedoch für die praktische Anwendung noch nicht abgesichert.
227 14.3 · Objektive Audiometrie
14.3.3 Akustisch evozierte Potentiale
Akustisch evozierte Potentiale (AEP) sind elektrische Spannungen physiologischen Ursprungs, die durch einen mit auditorischen Empfindungen einhergehenden akustischen oder elektrischen Reiz ausgelöst und mit Hilfe von Elektroden gemessen werden können. Die Gesamtheit der Verfahren zur Untersuchung von Eigenschaften des Gehörs mit Hilfe der AEP wird als electric response audiometry (ERA) oder »Elektrische Reaktions-Audiometrie« bezeichnet. Es handelt sich um objektive Funktionsprüfungen, die eine quantitative Hörschwellenbestimmung ermöglichen. Schon allein aufgrund dieses Merkmals kommt der ERA innerhalb des audiometrischen Testinventars eine große Bedeutung zu. Noch größerer Nutzen wird jedoch darüber hinaus aus der Tatsache gezogen, dass mit Hilfe der ERA differential- oder topodiagnostische Aussagen, insbesondere zur Unterscheidung zwischen sensorisch und neural bedingten Hörstörungen, gewonnen werden können. Die Schwierigkeit bei der Messung der AEP besteht darin, dass ein Signal sehr kleiner Amplitude (das AEP) in Anwesenheit eines starken Rauschens (dem spontanen EEG) nachgewiesen werden muss. Die Amplitude der Störeinflüsse kann – v. a. wenn zum EEG noch Muskelpotentiale und externe elektromagnetische Störsignale hinzukommen – je nach Frequenzbereich um einige Größenordnungen über der Amplitude des Nutzsignals liegen. Die Messung der AEP erfordert daher zunächst eine weitgehende Einschränkung vermeidbarer Störungen. Die folgenden Maßnahmen tragen zur Verbesserung des Signal/Rausch-Verhältnisses bei: ▬ Entspannte und bequeme Lagerung des Patienten ▬ Akustische und elektrische Abschirmung ▬ Lineare EEG-Verstärkung mit hoher Gleichtaktunterdrückung ▬ Filterung des EEG-Signals ▬ Artefaktunterdrückung ▬ Signalmittelung. Die Messung der AEP beruht auf der Ableitung des EEG während akustischer Stimulation. Der Patient sollte während der Messung entspannt sitzen oder liegen. Soweit die Potentiale von der Vigilanz unabhängig sind (wie dies bei den peripher entstehenden Komponenten der Fall ist), lassen sich die Messbedingungen durch Spontanschlaf, Sedierung oder Narkose verbessern. Die akustische Stimulation erfolgt über Kopfhörer, seltener über Freifeldlautsprecher, Knochenhörer oder Einsteckhörer. Die akustischen Reize weisen bei den meisten praktischen Anwendungen eine kurze Dauer auf oder sie sind zeitlich moduliert. Die EEG-Aktivität wird über Oberflächenelektroden registriert, die auf die Kopfhaut geklebt werden. Wenn ein akustisch und elektrisch abgeschirmter Raum verfügbar ist, werden Patient, Wandler und EEG-Ver-
stärker darin untergebracht. Außerhalb der Abschirmung befinden sich der Untersucher und die restliche Apparatur, die im Wesentlichen aus einem Reizgenerator, einem Analog/Digital-Wandler und einem Rechner besteht.
Transiente Potentiale Ein großer Teil der elektrischen Reaktionen des Hörsystems ist nur als verzögerte und zeitlich begrenzte (transiente) Antwort auf den Beginn eines zeitlich begrenzten Reizes registrierbar. Messung und Reizgebung EEG-Analyse sind aufeinander synchronisiert, wobei die Intervalle zwischen zwei Reizen konstant oder randomisiert sein können. Die Registrierung eines EEG-Abschnitts beginnt gleichzeitig mit oder kurz vor der Reizgebung. Die Mittelung vieler reizkorrelierter Signalabschnitte ergibt eine zeitabhängige Potentialkurve, die außer den AEP das in der Amplitude reduzierte EEG-Rauschen (Restrauschen) enthält. Die gehördiagnostischen Aussagen ergeben sich aus der Auswertung der mit Reizen unterschiedlicher Qualität (z. B. Frequenz) und Intensität gemessenen Potentialkurven und den aus ihnen abgelesenen Bestimmungsgrößen. Für das Zustandekommen messbarer evozierter Potentiale müssen viele Nervenaktionspotentiale mit einem hohen Synchronisationsgrad erzeugt werden. Dies gelingt nur mit Reizen, die mit schnellen Änderungen einhergehen. Die Änderungen können prinzipiell jedes auditorisch differenzierbare Merkmal des Reizes betreffen. Am häufigsten ist dieses Merkmal die Intensität bzw. der Schalldruck des Reizes, und die Änderung wird durch das Ein- oder Ausschalten des Reizes herbeigeführt. Die üblichen transitorischen Reize sind der breitbandige Click und der frequenzselektive Tonpuls. Grundsätzlich schließen sich hohe Frequenzselektivität und kurze Reizdauer gegenseitig aus. Potentiale, die eine hohe Synchronisation erfordern, liefern aus diesem Grund wenig frequenzspezifische Information. Umgekehrt lässt sich mit den frequenzselektiven Reizen keine genaue Auskunft über die Zeitabhängigkeit (Latenz) der Potentiale gewinnen. Die transienten AEP setzen sich aus vielen einzelnen vertexpositiven und -negativen Potentialgipfeln zusammen, die in verschiedenen Teilen der aufsteigenden Hörbahn entstehen und entsprechend ihrer Latenzzeit in drei Gruppen eingeteilt werden: Als frühe akustisch evozierte Potentiale (FAEP) bezeichnet man die Komponenten im Zeitbereich von 1–10 ms, die mittleren AEP (MAEP) schließen sich mit Latenzen bis 50 ms an und ihnen folgen die späten AEP (SAEP) mit Latenzen bis 500 ms. Die Messmethoden werden mit BERA (brainstem electric response audiometry) für die frühen, MLRA (middle latency response audiometry) für die mittleren und CERA (cortical electric response audiometry) für die späten AEP bezeichnet. Die genannten Namen der Untersuchungsverfahren weisen teilweise auf die anatomische Lokalisati-
14
228
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
on der Potentialgeneratoren hin. Die Zuordnung ist nicht eindeutig geklärt, doch kann als sicher angesehen werden, dass das Potential J1 im Hörnerven, die FAEP J3 und J5 im Hirnstamm, die MAEP im Thalamus (Zwischenhirn) und im primären auditorischen Cortex und die SAEP in der Hörrinde generiert werden. Außer den bisher genannten Potentialen sind noch spätere elektrische Reizantworten bekannt, die den Ablauf von auditiven Wahrnehmungs- oder Diskriminationsprozessen widerspiegeln. Zu ihnen zählt eine vertexnegative Welle mit einer Latenz von etwa 200 ms (N200). Sie lässt sich beobachten, wenn in eine Reihe gleichartiger Töne seltene abweichende Reize eingebettet werden (mismatch negativity, MMN). Wird der Proband aufgefordert, die seltenen Reize mitzuzählen oder mit einer motorischen Reaktion anzuzeigen, so entsteht eine positive Halbwelle (event related potential, ERP) mit einer Latenz von etwa 300 ms (P300). Da der Nachweis dieser Potentiale eine aktive Mitarbeit des Probanden erfordert, werden sie für die objektive Audiometrie wenig verwendet. In sehr langsamen Spannungsänderungen (contingent negative variation, CNV) und noch späteren Vorgängen (N400) spiegeln sich die Erwartung eines durch eine Warnung angekündigten Reizes und die Verarbeitung der semantischen Information in Sprachsignalen wider. Auf die Unterschiede in Reizgebung und Signalverarbeitung ist es zurückzuführen, dass nicht alle AEP mit einer einzigen Messung erfasst werden können. Prinzipiell ist das Vorgehen bei der Messung früher, mittlerer und später Potentiale aber das gleiche, so dass sich mit einer Apparatur durch Veränderung einiger Reiz- und Messparameter (Reiztyp, Reizpause, EEG-Verstärkung, Filtergrenzen, Abtastrate und Zahl der Mittelungen) alle Potentiale messen lassen. Das EEG-Signal wird mit Hilfe von Elektroden erfasst, die üblicherweise an Vertex und Mastoid befestigt werden. Die Erdungselektrode befindet sich an der Stirn. Das verstärkte, gefilterte und A/D-gewandelte EEG-Signal wird im Rechner einer Artefaktkontrolle unterworfen, die der Auswahl der unterhalb einer vorgegebenen Amplitudenschranke liegenden EEG-Abschnitte dient. Die Summation von N Signalabschnitten (N≈2000 für FAEP, N≈600 für MAEP und N≈50 für SAEP) verstärkt die reizkorrelierten Signalanteile (z. B. die AEP) linear, die stochastischen Anteile hingegen im Fall stationärer Bedingungen näherungsweise proportional zu √N und verbessert somit das Signal/ Rausch-Verhältnis gemäß dem durch G =10 · log N dB gegebenen Störbefreiungsgewinn (vgl. ⊡ Abb. 14.22). Sind die Störungen nicht stationär, so lässt sich die Signalqualität durch die gewichtete Mittelung verbessern, wobei die Kehrwerte von Varianz oder Maximalamplitude der einzelnen Abschnitte als Gewichte dienen. Qualität und Zuverlässigkeit der Messergebnisse lassen sich durch das Verhältnis der Varianzen von Gesamtantwort und Restrauschen (response to noise ratio,
SNR), durch den aus zwei Teilmittelwertkurven berechneten Korrelationskoeffizienten oder durch einen visuellen Vergleich der Teilmittelwerte untereinander abschätzen. Zur Auswertung der AEP gehören die Identifizierung der einzelnen Potentialkomponenten und die Ermittlung ihrer Koordinaten (Latenz und Amplitude). Ersteres dient der Hörschwellenbestimmung, letzteres ermöglicht die Differentialdiagnostik von Hörstörungen. Die Gesamtheit der frühen Potentiale aus Hörnerv und Hirnstamm (FAEP) wird mit der BERA untersucht. Die häufig auch als Hirnstammaudiometrie bezeichnete Methode umfasst den post-Stimulus-Zeitbereich von 1 bis etwa 12 ms. Die FAEP lassen sich wegen ihrer kleinen Amplitude (100 nV bis 0,5 µV) nur durch einen hohen Synchronisationsgrad, wie er z. B. durch den Clickreiz erzeugt wird, mit genügend großer Amplitude messen. Eine frequenzspezifische Bestimmung der Hörschwelle ist daher nicht möglich. Die frühen Potentiale sind sehr stabil gegenüber Vigilanzschwankungen und pharmakologischen Einflüssen, daher ist ihre Ableitung auch im Schlaf oder in Narkose möglich. Sie sind regelmäßig ab Geburt vorhanden, allerdings in den ersten Lebensmonaten in einer modifizierten Form, die wegen der noch nicht abgeschlossenen Hörbahnreifung hinsichtlich Morphologie und Latenzen vom Potentialmuster des Erwachsenen abweicht. Die FAEP setzten sich aus mehreren Potentialkomponenten zusammen, die in verschiedenen Stationen der aufsteigenden Hörbahn in Hörnerv und Hirnstamm entstehen und entsprechend ihrer zeitlichen Aufeinanderfolge mit J1 bis J5 bezeichnet werden (⊡ Abb. 14.26). Das vollständige Potentialmuster ist nur bei weit überschwelliger Stimulation zu beobachten. Die Amplituden der Potentiale nehmen mit zunehmender Reizintensität zu, ihre Latenzzeiten nehmen hingegen ab (d. h. Reize geringerer Intensität gehen mit einer längeren cochleären Verarbeitungszeit einher). Diese Zusammenhänge werden in einem Kennliniendiagramm dargestellt, in welchem auch etwaige Abweichungen vom Normalverlauf gut erkennbar sind. Die mangelnde Frequenzspezifität der durch breitbandige Clickreize ausgelösten FAEP begrenzt den infolge ihrer sonstigen günstigen Eigenschaften (Unabhängigkeit von Reifungszustand und Vigilanzniveau) breiten Einsatzbereich. Dies war Motiv für intensive Bemühungen um eine frequenzspezifische Audiometrie mit Hilfe früher Potentiale. Einer der zahlreichen Ansätze beruht auf der Stimulation mit kurzen Tonpulsen und gleichzeitiger Maskierung mit kerbgefiltertem Breitbandrauschen (notch noise BERA). Die mit diesem Verfahren erhaltenen Reizantworten können für Frequenzen zwischen 500 Hz und 4 kHz in vielen Fällen bis in die Nähe der Hörschwelle nachgewiesen werden. Den Eigenschaften der cochleären Wanderwelle entsprechend sind die Latenzzeiten der Antworten länger für niedrige als für hohe Frequenzen. Dieselben physiologischen Mechanismen sind der Grund
229 14.3 · Objektive Audiometrie
⊡ Abb. 14.26. FAEP bei Normalgehör (gemessen an einer 15-jährigen Patientin). Es sind links die Potentialkurven und rechts die Tabelle mit Latenz- und Amplitudenwerten sowie die daraus erzeugten Kennlinien gezeigt
dafür, dass die neuronale Aktivität bei niedrigen Frequenzen weniger gut synchronisiert ist und dies wiederum begrenzt die Genauigkeit der Hörschwellenbestimmung. Die wichtigsten Einsatzgebiete der BERA sind die objektive Bestimmung der Hörschwelle bei Säuglingen, Kleinkindern und Kindern sowie die topodiagnostische Unterscheidung zwischen sensorischen und neuralen Hörstörungen. Die Hörschwelle wird visuell aus den Messkurven oder – bei ausreichender Messqualität – aus der Amplitudenkennlinie abgelesen. Für die Gewinnung differentialdiagnostischer Aussagen werden Latenzen und Amplituden gemessen und in Abhängigkeit vom Reizpegel aufgetragen. Über den Vergleich mit den Normalkennlinien, die Berechnung von Latenzdifferenzen, insbesondere der cochleo-mesencephalen Latenzdifferenz (»Hirnstammlaufzeit«) t5–t1, und die Auswertung von Seitendifferenzen kann zwischen konduktiven, sensorischen und neuralen Läsionen unterschieden werden. Verlängerte Latenzen aller Potentiale treten bei mittelohrbedingten Hörstörungen auf. Bei innenohrbedingten Hörstörungen werden – je nachdem, welcher Frequenzbereich von der Störung betroffen ist – Latenzverlängerungen allenfalls bei schwellennahen Reizen beobachtet,
im überschwelligen Reizpegelbereich liegen hingegen häufig normale Latenzen vor. Die BERA weist im Hinblick auf den Nachweis von raumfordernden Prozessen im Kleinhirnbrückenwinkel eine hohe Sensitivität auf. Sie leistet somit etwas, was mit subjektiven Verfahren grundsätzlich nicht oder nur mit geringer Zuverlässigkeit möglich ist. Ergänzt wird sie durch die Untersuchung des Stapediusreflexes und die Funktionsprüfung des Gleichgewichtsorgans. Wenn eine oder mehrere dieser Untersuchungen den Verdacht auf das Vorliegen einer retrocochleären Störung erhärten, wird der Befund mit Hilfe von bildgebenden Verfahren (Computer- und Kernspintomographie) überprüft. Die akustisch evozierten Potentiale mittlerer Latenz (MAEP) werden in der audiologischen Diagnostik wenig genutzt. Hinsichtlich ihrer Eigenschaften (z. B. Amplitude, Reifungsabhängigkeit und Vigilanzeinfluss) und ihrer diagnostischen Aussagekraft (z. B. Frequenzspezifität) liegen sie zwischen den frühen und den späten AEPKomponenten. Sie erreichen jedoch weder die den FAEP eigene hohe Stabilität gegenüber Vigilanzzustand und pharmakologischen Einflüssen, noch können sie sich in der Zuverlässigkeit der frequenzspezifischen Hörschwel-
14
230
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
lenbestimmung mit den SAEP messen. Daher wird in der Praxis selten die MLRA, sondern je nach Fragestellung entweder die BERA oder die CERA angewendet. Die mit der CERA erfassten späten oder Hirnrindenpotentiale liegen im Zeitbereich 100 bis 500 ms post Stimulus. Ihre Potentialmaxima und -minima bei etwa 100, 200 und 300 ms werden mit N1, P2 und N2 bezeichnet (⊡ Abb. 14.27). Die Amplitude des Potentialkomplexes nimmt mit steigendem Reizpegel zu, die Latenz der einzelnen Komponenten hängt nur in Schwellennähe vom Reizpegel ab. Latenz und Amplitude können sich im Schlafzustand und bei Vigilanzschwankungen stark verändern. Daher sind nur bei wachen und aufmerksamen Patienten zuverlässige Ergebnisse zu erwarten. Bei Säuglingen und Kleinkindern ist die CERA aus diesen Gründen und wegen der nicht abgeschlossenen Reifung der cortikalen Hörbahn nicht einsetzbar. Hirnrindenpotentiale können mit nahezu allen zeitlich begrenzten akustischen Reizen ausgelöst werden. Typischerweise werden Tonpulse definierter Frequenz mit einer Dauer von etwa 100 bis 500 ms verwendet. Wird der
Pegel dieser Reize verändert, so kann für jede Frequenz aus der Anwesenheit der Potentiale die Hörschwelle bestimmt und somit ein objektives Tonaudiogramm geschrieben werden. Die Genauigkeit beträgt hierbei etwa ±10 dB. Da die bewusste Wahrnehmung nicht der Aktivität im primären auditorischen Cortex sondern in den höheren Assoziationszentren entspricht, kann der subjektive Hörvorgang auch mit den SAEP nicht nachgewiesen werden. Hierzu sind allenfalls andere Untersuchungsverfahren, die noch spätere Reizantworten erfassen und eine aktive Mitarbeit des Patienten erfordern, in der Lage.
Steady state responses Während die Messung der bisher behandelten transienten Potentiale eine Pause zwischen den akustischen Reizen erfordert, wird mit den auditory steady state responses (ASSR) das Hörsystem im eingeschwungenen Zustand untersucht. Der akustische Reiz liegt ohne Unterbrechung vor, während das EEG registriert und analysiert wird. Weil die perstimulatorische Analyse des EEG-Sig-
⊡ Abb. 14.27. Mit der CERA an einem 51-jährigen normalhörenden Probanden bei vier Frequenzen und verschiedenen Reizpegeln gemessene SAEP. Links neben jeder Kurve sind Reiz- und Vertäubungspegel, am rechten Rand jeweils die Effektivamplituden des Gesamtmittelwertes im Zähler und im Nenner der (durch 2 dividierten) Differenz der Teilmittelwerte angegeben
231 14.3 · Objektive Audiometrie
nals eine andere Vorgehensweise verlangt, unterscheidet sich die Messung der ASSR in methodischer Hinsicht grundsätzlich von der konventionellen ERA. Durch die Mittelung oder statistische Auswertung wird hier nicht eine zeitabhängige Kurve rekonstruiert, sondern ein mit der physiologischen Reizverarbeitung zusammenhängendes Merkmal des EEG-Signals herausgearbeitet. Zeitlich unveränderliche Reize sind hierfür allerdings ungeeignet, denn sie führen zu einer zwar stochastischen aber stationären und dadurch vor dem Hintergrund des EEG nicht nachweisbaren neuronalen Aktivität. Unter mehreren Varianten der ASSR haben die Antworten auf amplitudenmodulierte Reize (amplitude modulation following responses, AMFR) in jüngerer Zeit besondere Bedeutung gewonnen. Akustischer Reiz und Signalnachweis sind in ⊡ Abb. 14.28 schematisch dargestellt. Die Amplitude eines Dauertones, dessen Trägerfrequenz fT im Bereich von 250–8000 Hz liegt, wird mit einer Modulationsfrequenz fM zwischen 40 und 120 Hz moduliert. Der Modulationshub beträgt 80–100%. Häufig wird zugleich auch die Frequenz fT moduliert, zur Wahrung der Frequenzspezifität allerdings mit einer wesentlich kleineren Modulationstiefe von typischerweise 10%. Der modulierte Reiz führt zu einer Synchronisation der Aktivität von Neuronengruppen, wahrscheinlich in den zwischen Mittelhirn und Thalamus liegenden Abschnitten der Hörbahn. Daher findet sich die Modulationsfrequenz im EEG-Signal wieder, das entweder lateral (Vertex gegen Mastoid) oder – insbesondere bei der simultanen Stimulation beider Ohren – medial (Vertex gegen Okziput) abgeleitet wird. Zur Detektion dieser Frequenz wird das verstärkte und schmalbandig gefilterte Elektrodensignal in den Frequenzbereich transformiert und in der Umgebung der Modulationsfrequenz hinsichtlich Amplitude und Phase analysiert. Die neuronale Reizantwort gilt als nachgewiesen, wenn die Amplitude der Frequenz fM nach Maßgabe statistischer Tests signifikant aus dem Untergrund des gemittelten Spektrums herausragt oder die auf die Modulation des Reizes bezogene Phase dieser Frequenz eine signifikante Abweichung von der Zufallsverteilung aufweist. Grundsätzlich gilt für hohe mehr als für niedrige Modulationsfrequenzen, dass die Amplitude der Reizantwort vom Vigilanzzustand und von der altersabhängigen organischen und funktionellen Reifung der Hörbahn unabhängig ist. Ziel und Anspruch der Methode bestehen darin, eine frequenzspezifische, objektive und automatische Bestimmung der Hörschwelle bei Kindern zu ermöglichen. Hierfür haben sich Modulationsfrequenzen im Bereich von 90 Hz als geeignet herausgestellt weil die von ihnen evozierte EEG-Aktivität in geringerem Maße als die Antworten auf niedrige Frequenzen von Vigilanz und Reifung abhängen. Da die Identifikation der AMFR auf der im EEG repräsentierten Modulationsfrequenz des Reizes beruht, kann die Stimulation mit mehreren unterschiedlich modulierten Trägerfrequenzen und sogar auf beiden
Ohren zur gleichen Zeit erfolgen, soweit die verwendeten Reizpegel eine gegenseitige Maskierung ausschließen. Das diagnostische Potential der AMFR kann gegenwärtig noch nicht abschließend bewertet werden. In der experimentellen Audiologie werden derzeit effektive Reizparadigmen erprobt und statistische Verfahren für den Signalnachweis hinsichtlich ihrer Leistungsfähigkeit verglichen. Für die praktische Anwendung existieren bereits einige Systeme, die die für den amplitudenmodulierten Reiz charakteristische EEG-Aktivität detektieren und die Reizantwortschelle mit Hilfe adaptiver Algorithmen aufsuchen.
⊡ Abb. 14.28. Schematische Darstellung des Reizes und des Signalnachweises bei der Registrierung von AMFR. Das Spektrum des amplitudenmodulierten Reizes (oben) weist drei Linien bei den Frequenzen fT–fM, fT und fT+fM auf (Mitte). Die Modulationsfrequenz fM findet sich im Spektrum des EEG-Signals wieder (unten)
14
232
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
14.4
I
Hörprothetik
Viele Hörstörungen können mit apparativer Hilfe zumindest teilweise kompensiert werden. Zu den technischen Hörhilfen gehören das konventionelle schallverstärkende Hörgerät (HG) sowie (teil)implantierbare Hörsysteme und das Cochlea-Implantat (CI). Da weder Hörgeräte noch ein CI das normale Hörvermögen wiederherstellen können, wird von der Möglichkeit einer apparativen Korrektur nur dann Gebrauch gemacht, wenn alle in Frage kommenden konservativen und operativen Maßnahmen zu keinem befriedigenden Erfolg führen. Wie bei jeder medizinisch indizierten Therapie muss auch in der Hörprothetik das Auftreten unerwünschter Nebenwirkungen gegen den zu erwartenden Behandlungserfolg abgewogen werden. Bei Hörgeräten, die ja die Aufgabe haben, das geschädigte Ohr mit einer erhöhten Intensität zu beschallen, besteht grundsätzlich die Gefahr einer Lärmschädigung des versorgten Ohres. Die CI-Versorgung ist mit den allgemeinen Risiken einer Operation verbunden und sie kann zum Verlust eines eventuell noch vorhandenen Restgehörs führen. Hieraus wird deutlich, dass der HNO-Arzt in die Entscheidung zur prothetischen Versorgung und die Überwachung des Versorgungserfolges eingebunden sein muss. Die Auswahl des geeigneten Hörgerätes und seine individuelle Anpassung an das Ohr sind hingegen Sache des Hörgeräte-Akustikers. Ausgenommen von dieser vertraglich vereinbarten Arbeitsteilung sind die CI-Versorgung, die nur an hierfür spezialisierten Zentren durchgeführt werden kann, und die HG-Versorgung von Kindern, in die außer HNO-Arzt und HG-Akustiker auch Pädaudiologen und Fachpädagogen einbezogen sind.
14.4.1 Versorgungsbedürftige Hörstörungen
Als Fundament für die Abwägung verschiedener Therapiemöglichkeiten benötigt der HNO-Arzt einen möglichst vollständigen audiometrischen Befund. Unter Ausschöpfung der in Abschn. 14.2 und Abschn. 14.3 beschriebenen diagnostischen Möglichkeiten muss Klarheit darüber gewonnen werden, welche Komponente des Gehörs ein Funktionsdefizit aufweist und somit für die Schwerhörigkeit verantwortlich ist. Hieraus ergeben sich Möglichkeit bzw. Notwendigkeit einer Korrektur mittels einer Hörhilfe sowie Hinweise auf die optimale Versorgungsart. Entsprechend der in ⊡ Abb. 14.5 gezeigten Klassifikation muss zwischen mittelohrbedingten, sensorischen, neuralen und zentralen Schwerhörigkeiten unterschieden werden. Mittelohrschwerhörigkeiten können in vielen Fällen konservativ (d. h. mit Hilfe von Medikamenten) oder operativ (d. h. durch einen ohrchirurgischen Eingriff) behoben werden. Störungen des Innenohres lassen sich in den meisten Fällen auf einen Funktionsausfall der äußeren Haarzellen zurückführen; zur Wiederherstellung
ihrer Funktion bestehen heute weder konservative noch operative Möglichkeiten. Hinter retrocochleären (neuralen) Hörstörungen verbergen sich häufig ernste Krankheitsbilder, wie z. B. Multiple Sklerose oder Nerven- bzw. Hirnstammtumoren. Die Behandlung dieser Erkrankung nimmt für die betroffenen Patienten vor der Behandlung der Hörstörung die höhere Priorität ein. Ein Hörgerät kommt somit als Mittel zur Korrektur einer Hörstörung in Betracht, wenn ▬ eine Mittelohrschwerhörigkeit ausgeschlossen oder nicht korrigierbar ist; ▬ eine Innenohrschwerhörigkeit vorliegt; ▬ bei neuralen oder zentralen Schwerhörigkeiten keine konservative oder operative Korrektur möglich ist; Die audiologischen Kriterien für eine Hörgeräteversorgung sind in den einschlägigen Bestimmungen folgendermaßen festgelegt: ▬ Im Fall einer beidseitigen Schwerhörigkeit muss der Hörverlust auf dem besser hörenden Ohr bei mindestens einer der Prüffrequenzen zwischen 500 und 3000 Hz die Grenze von 30 dB überschreiten. ▬ Im Fall einer einseitigen Schwerhörigkeit muss der Hörverlust auf dem besser hörenden Ohr bei mindestens zwei Prüffrequenzen innerhalb des angegebenen Bereiches oder bei 2000 Hz die Grenze von 30 dB überschreiten. ▬ Das Einsilberverstehen darf bei 65 dB die Grenze von 80% nicht überschreiten. Die beidseitige Schwerhörigkeit begründet den Anspruch auf eine beidohrige (binaurale) HG-Versorgung, da die andernfalls verbleibende einseitige Schwerhörigkeit das Richtungshörvermögen und die sprachliche Kommunikation im Störgeräusch und in halliger Umgebung beeinträchtigt und zur Entstehung von subjektiven Ohrgeräuschen (Tinnitus) führen kann. Dies gilt für alle technischen Hörhilfen einschließlich CI. Bei schallverstärkenden konventionellen oder implantierbaren Hörsystemen ist darüber hinaus zu beachten, dass die beidohrige Versorgung mit einem kleineren Schädigungsrisiko verbunden ist, da das Hören mit zwei Ohren den nutzbaren Schallpegel um 3 dB erhöht und somit ein geringerer Verstärkungsbedarf besteht. Der Versorgungserfolg wird bei konventionellen schallverstärkenden Hörgeräten auch von der Bauform mitbestimmt. In den meisten Fällen werden heute hinter dem Ohr (HdO) oder im Ohr (IdO) getragene Hörgeräte verwendet. Bei letzteren werden weiter die vollständig im Gehörgang untergebrachten CIC-Geräte (completely in the canal) und die größeren, teilweise in der Ohrmuschel getragenen Concha-Geräte unterschieden. Von kosmetischen und praktischen Aspekten abgesehen weist das IdO-Gerät im Vergleich zum HdO-Gerät den Vorteil auf, dass die natürliche Verstärkung und richtungsabhängige
233 14.4 · Hörprothetik
Filterung des Außenohres weiterhin genutzt werden kann. Dies reduziert den Verstärkungsbedarf und es verbessert das Richtungshörvermögen und das Sprachverstehen im Störgeräusch. Darüber hinaus wird das Schallsignal weniger verzerrt, da für die Schallzuführung kein Schallschlauch erforderlich ist.
14.4.2
Hörgeräte: Technik und Anpassverfahren
Das konventionelle schallverstärkende HG ist ein elektronisches Hilfsmittel, welches den akustischen Reiz in verstärkter Form bereitstellt. Seine wesentlichen Bestandteile sind ein Schallaufnehmer (Mikrophon), ein Verstärker mit den notwendigen Korrektur- bzw. Stellorganen, eine Energiequelle (Batterie) zum Betrieb des Verstärkers und ein Schallgeber (Hörer). Als zusätzliche Bestandteile können Schallschlauch, Ohrpassstück (Otoplastik), akustische Filter, eine Induktionsspule (Telefonspule), eine Eingangsbuchse und eine Fernbedienung vorhanden sein. Der prinzipielle Aufbau und das Funktionsprinzip eines Hörgerätes sind in ⊡ Abb. 14.29 gezeigt. Das Schallsignal wird vom Mikrophon in eine zeitabhängige elektrische Spannung gewandelt. Liegt die akustische Information zusätzlich als elektrisches Signal vor (z. B. bei Telefon, Fernseher oder Stereoanlage), so können zwei Wandlungen umgangen werden, indem das elektrische Signal entweder über eine Induktionsspule oder eine Eingangsbuchse direkt in das Hörgerät eingespeist wird. Das elektrische Signal wird um einen Faktor, der von Frequenz und Intensität abhängen kann, verstärkt, optional gefiltert und begrenzt und schließlich dem Ausgangswandler (Hörer) zugeführt. Dieser strahlt es mit einem erhöhten Schalldruck ab, es wird entweder direkt oder über einen Schlauch dem Trommelfell zugeführt und steht somit dem schwerhörigen Ohr in höherer Intensität zur Verfügung. Gegebenenfalls müssen Einrichtungen zur Unterdrückung der akustischen Rückkopplung vorgesehen werden. Die hohen Anforderungen an ein Hörgerätemikrophon hinsichtlich Abmessungen, Wirkungsgrad, Übertragungseigenschaften, Empfindlichkeit, Energiebedarf und Temperaturunabhängigkeit erfüllt das mit einem Feldeffekttransistor als Impedanzwandler betriebene Elektretmikrophon. Sein Wirkprinzip entspricht dem eines Konden-
⊡ Abb. 14.29. Vereinfachte Darstellung der wesentlichen Komponenten eines Hörgerätes
satorwandlers, wobei die Ladung der Kondensatorflächen nicht von einer externen Spannung sondern von einer dauerpolarisierten Folie aufrechterhalten wird. In den meisten Hörgeräten werden omnidirektionale Mikrophone (Druckempfänger) verwendet. Eine Richtwirkung ergibt sich durch den Kopf und die Lage der Einsprechöffnung hinter dem Ohr, in der Ohrmuschel oder im Gehörgang. Richtmikrophone mit zwei Öffnungen (Druckgradientenempfänger) oder Arrays aus mehreren Mikrophonen werden bei Bedarf eingesetzt, um die akustische Fokussierung und die Störgeräuschunterdrückung zu verbessern. Die Verstärkung des elektrischen Mikrophonsignals wird mit der Eingangs/Ausgangs-Kennlinie des Verstärkers, d. h. durch den funktionalen Zusammenhang zwischen Eingangspegel LE und Ausgangspegel LA beschrieben. Der Verstärkungsfaktor ist i. Allg. von Frequenz und Pegel des Eingangssignals abhängig. Ist dies nicht der Fall, so stellen sich die Verstärkerkennlinien bei allen Frequenzen in der doppeltlogarithmischen Darstellung als Geraden dar, die mit der Steigung ΔLA/ΔLE=1 dB / dB parallel zur Winkelhalbierenden verlaufen (⊡ Abb. 14.30a). Die zu unterschiedlichen Verstärkungsfaktoren gehörenden Kennlinien sind dann parallel zueinander verschoben. Aus der Kennlinie eines linearen Verstärkers lässt sich der Verstärkungsfaktor in dB als Differenz LA–LE an einem einzigen Punkt ablesen. Das Ausgangssignal eines jeden Verstärkers ist in seiner Amplitude dadurch begrenzt, dass die Betriebsspannung eine obere Leistungsgrenze vorgibt. Bei Hörgeräten besteht ein weiterer begrenzender Effekt darin, dass bei zu hohen Ausgangspegeln die Rückkopplungsneigung nicht mehr beherrscht werden kann. Diesen zwangsläufigen und unkontrollierbaren Amplitudenbegrenzungen wird mit Hilfe einer Schaltung aus Dioden, welche die Spannungsspitzen oberhalb einer vorgegebenen Grenze abschneidet (peak clipping, PC) zuvorgekommen. Im Kennlinienfeld hat die PC ein waagerechtes Abknicken der Verstärkerkennlinien zur Folge (⊡ Abb. 14.30, B). Im Gegensatz zu anderen Begrenzungsverfahren wird die PC ohne zeitliche Verzögerung wirksam. Außer der oberen Begrenzung des Ausgangsschallpegels ist noch eine ungewollte aber zwangsläufige untere Begrenzung wirksam, die ihren Ursprung im Eigenrauschen von Verstärker und Wandlern hat. Dieses Eigenrauschen wird teilweise mitverstärkt, so dass es einem minimalen Eingangsschallpegel äquivalent ist. Schallsignale, deren Pegel unterhalb dieser Grenze liegen, können nicht sinnvoll übertragen werden, da sie ganz oder teilweise vom Eigenrauschen überdeckt sind. Die Begrenzung des Ausgangssignals schützt den Hörgeräteträger vor Schallintensitäten, die oberhalb seiner Unbehaglichkeitsschwelle liegen. Die bei vielen Innenohrhörstörungen fehlende natürliche Dynamikkompression vermag sie aber nicht auszugleichen. Besser lässt sich der pathologische Lautheitsanstieg durch einen Verstärkungsfaktor kompensieren, der bei kleinen Schallpegeln
14
234
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.30. Die Dynamikkennlinien eines linearen Verstärkers lassen sich in doppeltlogarithmischer Darstellung durch Geraden darstellen, die parallel zur Winkelhalbierenden verlaufen und deren Lage vom Verstärkungsfaktor abhängt (A). Mit Hilfe einer PC-Schaltung wird der maximale Ausgangspegel auf vorgegebene Werte begrenzt (B). Die AGC/I bewirkt eine Dynamikkompression im Pegelbereich oberhalb der Regelschwelle. Wird die Grundverstärkung verringert, so setzt die Regelung bei einem niedrigeren Ausgangspegel ein (C), anders
als bei der AGC/O, wo die Regelschwelle unabhängig von der Grundverstärkung bei einem festen Ausgangspegel liegt (D). Bei niedrig liegender Regelschwelle kann ein Bypass für eine lineare unverstärkte Wiedergabe bei hohen Pegeln sorgen (E). Durch die Kombination zweier AGC-Schaltungen kann eine pegelabhängige Kompression mit niedriger Einsatzschwelle realisiert werden (F). Nähere Erläuterungen insbesondere der Abkürzungen finden sich im Text
groß ist und oberhalb einer um 50 dB liegenden Grenze mit zunehmendem Pegel kontinuierlich heruntergeregelt wird. Die einfachste Regelung der Verstärkung besteht darin, dass der Hörgeräteträger den Pegelsteller betätigt, sowie er den Schall als zu laut oder zu leise empfindet. Mit diesem Vorgehen kann aber weder präzise noch schnell genug auf Schallpegeländerungen reagiert werden. Daher sind viele Hörgeräte mit einer automatischen Verstärkungsregelung (automatic gain control, AGC) ausgestattet. Sie bewirkt eine Verringerung des Verstärkungsfaktors bei zunehmendem Schallpegel und somit eine Kompression des akustischen Dynamikbereiches. Anders als die Begrenzungsschaltungen wirken die mit einer AGC verbundenen Regelkreise aber nicht simultan, sondern nur mit einer gewissen zeitlichen Verzögerung. Die Ein- und Ausschwingzeiten der Verstärkungsregelung müssen größer sein als die Periode der niedrigsten zu verstärkenden Frequenz, da sonst die Amplitude innerhalb einer einzelnen Schallwelle geregelt und das Signal verzerrt wird. Die untere Grenze liegt somit bei etwa 10 ms. Im eingeschwungenen Zustand müssen Si-
nusschwingungen aller Frequenzen als Sinusschwingungen übertragen werden. Bei langsamen Änderungen des Schalldrucks treten keine Ein- und Ausschwingvorgänge auf (statischer Grenzfall), anders als bei schnellen Änderungen, wie sie z. B. in Sprachsignalen vorkommen (dynamisches Verhalten). Sie können zu kurzzeitigen Schallspitzen führen, die den maximal zulässigen Ausgangspegel überschreiten. Um diese zu verhindern, wird die AGC mit einer PC-Schaltung kombiniert. Bei sehr langen Regelzeiten (>200 ms) spricht die Regelung nur auf langsame Änderungen an, sie leistet somit das, was der HG-Träger durch eine manuelle Anpassung des Lautstärkereglers erreichen würde (automatic volume control, AVC). Regelzeiten unterhalb von 20 ms ermöglichen die Kompression einzelner Silben. Dies erhöht die Sprachverständlichkeit, da die Nachverdeckung von Sprachelementen mit hohem Pegel (z. B. Vokale) auf unmittelbar darauf folgende Sprachelemente mit niedrigerem Pegel (z. B. Frikative) verringert wird (Silbenkompressor). Die Auswirkung der Verstärkungsregelung auf die statische Dynamikkennlinie des Hörgerätes ist aus
235 14.4 · Hörprothetik
⊡ Abb. 14.30, C und D ersichtlich. Je nachdem, ob das Eingangs- oder das Ausgangssignal für den Regelvorgang herangezogen wird, unterscheidet man zwischen der eingangsgeregelten (AGC/I) und der ausgangsgeregelten (AGC/O) AGC. In beiden Fällen weicht die Dynamikkennlinie oberhalb des Einsatzpunktes (Regelschwelle oder Kniepunkt) nach unten von der linearen Verstärkungsgeraden ab. Unterhalb des Einsatzpunktes arbeitet der Verstärker also linear, oberhalb des Einsatzpunktes wird die Verstärkung in Abhängigkeit vom Pegel immer geringer. Die Kompression c=ΔLE /ΔLA ergibt sich aus der Steigung der statischen Verstärkerkennlinie. Der Zweck der Verstärkungsregelung besteht darin, hohe Schallpegel am Ohr des HG-Trägers, also am Ausgang des Verstärkers, zu verhindern. Unter diesem Gesichtspunkt ist nur die Regelung nach Maßgabe des Ausgangssignals (AGC/O) sinnvoll. Diese ist aber mit wesentlich längeren Regelzeiten verbunden als eine eingangsgeregelte AGC, sodass die AGC/I oftmals vorteilhafter ist. Wie in ⊡ Abb. 14.30 zu erkennen ist, regelt aber die AGC/I den Ausgangspegel bei verschieden starken Grundverstärkungen in gleichem Maße, obwohl der HG-Träger bei kleineren Pegeln möglicherweise keine Kompression benötigt. Beide AGC-Schaltungen weisen also Vor- und Nachteile auf und es muss im Einzelfall ausprobiert werden, ob die Unabhängigkeit von der Grundverstärkung oder möglichst kurze Regelzeiten für den schwerhörigen Patienten Vorrang haben. Spezielle Anforderungen an das dynamische Verhalten können mit speziellen Analogschaltungen oder – wesentlich flexibler – mit digitaler Signalverarbeitung erfüllt werden. Beispielsweise wird zur Erzielung einer Tieftonkompression eine zweikanalige AGC/I eingesetzt, um die vorwiegend niederfrequenten Störgeräusche zu dämpfen und dadurch u. a. den vom HG-Träger gehörten Pegel der eigenen Stimme zu reduzieren. Wie bei der konventionellen AGC/I nimmt die Verstärkung mit zunehmendem Eingangsschalldruckpegel ab, ebenso wie die Betonung der hohen Frequenzen. Bei hohen Eingangspegeln (über 80 dB) verbleibt nur noch eine leichte Verstärkung im Bereich von 3 kHz, die die verlorengegangene Gehörgangsresonanz ausgleichen soll. Der Einsatzpunkt der Regelung liegt bei 40 dB, das Kompressionsverhältnis beträgt 2:1 (⊡ Abb. 14.30, E). Der Hochtonbereich wird in solchen zweikanaligen Geräten linear verstärkt. Die Erhöhung der Sprachverständlichkeit beruht darauf, dass die Aufwärtsmaskierung der im Bereich hoher Frequenzen liegenden Sprachsignalanteile durch die schon bei kleinen Pegeln einsetzende Kompression des Tieftonbereiches vermieden wird. Eine noch effektivere Nutzung des Restdynamikbereiches lässt sich mit Hörgeräten erreichen, deren Kompressionsverhältnis im gesamten Dynamikbereich einstellbar ist (wide oder full dynamic range compression, WDRC oder FDRC). Unterhalb der bei LE=45 dB liegenden Re-
gelschwelle arbeitet der Verstärker linear, im Regelbereich bis 85 dB kann das Kompressionsverhältnis zwischen 1 und 3 individuell eingestellt werden. Bei noch höheren Pegeln wird eine konventionelle AGC mit festem Kompressionsverhältnis wirksam (⊡ Abb. 14.30, F). Zusammengefasst besteht das wichtigste Merkmal von Ausgangspegelbegrenzung und automatischer Verstärkungsregelung darin, dass die Verstärkung mit zunehmender Schallintensität immer schwächer wird. Das entspricht einem nichtlinearen System und hat zwangsläufig Verzerrungen des übertragenen Signals zur Folge. Eine Kompression des Dynamikbereiches ohne die Nebenwirkung nichtlinearer Signalverzerrungen ist nicht realisierbar. Die Folge der Verzerrungen sind harmonische Obertöne, die sich nachteilig auf die Klangqualität und das Sprachverstehen auswirken. Sie sind der Preis, der dafür gezahlt werden muss, dass ein Recruitment nur mit Hilfe einer geregelten Verstärkung kompensiert werden kann. Durch die bisher beschriebenen Verstärkereigenschaften wird in erster Linie die Pegelabhängigkeit des Verstärkungsbedarfs berücksichtigt. Im Allgemeinen sind jedoch der Hörverlust und daher der Korrekturbedarf auch von der Frequenz abhängig. Dies kann dadurch berücksichtigt werden, dass der Frequenzgang durch einstellbare Filter beeinflusst und näherungsweise an den individuellen Verstärkungsbedarf des Schwerhörigen angepasst wird. Effektiver kann die Frequenzabhängigkeit des eingeschränkten Hörvermögens durch eine mehrkanalige Signalverarbeitung berücksichtigt werden. Bei komprimierenden Geräten ist dies auch dann vorteilhaft, wenn die Verstärkung nicht von der Frequenz abhängt, denn andernfalls bewirkt ein schmalbandiges Geräusch genügender Intensität die Reduktion der Verstärkung im gesamten Frequenzbereich. In Mehrkanalgeräten wird das Eingangssignal durch eine Filterbank in mehrere Anteile aufgespaltet. Grundverstärkung, Einsatzpunkt der AGC und evtl. auch das Kompressionsverhältnis sind für jeden Kanal getrennt programmierbar und gespeichert. Das Ausgangssignal wird durch Summation der einzeln verarbeiteten Anteile rekonstruiert. Mehrkanalige Hörgeräte wurden früher als digital gesteuerte Analoggeräte realisiert, bei denen mehrere Speicher für unterschiedliche Hörprogramme zur Verfügung standen. In volldigitalen Hörgeräten erfolgt die Verarbeitung des digitalisierten Signals in einem Signalprozessor. Den Möglichkeiten der Signalverarbeitung ist hier nur durch die Forderung, dass der zugrunde liegende Algorithmus in Echtzeit realisiert werden muss, eine (sehr hoch liegende) Grenze gesetzt. Digitale Hörgeräte ermöglichen eine vielkanalige nichtlineare Verstärkung mit flexibler Einstellung der Parameter. Darüber hinaus enthalten sie optional Systeme zur Störgeräuschunterdrückung, zur passiven oder aktiven Rückkopplungsunterdrückung (feedback cancelling) und zur automatischen Einstellung des der jeweiligen akustischen Situation am
14
236
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
besten entsprechenden Hörprogramms mit Hilfe lernfähiger neuronaler Netze. Das digital verarbeitete Signal wird D/A-gewandelt und dem Endverstärker zugeführt. Aus dem verarbeiteten elektrischen Signal muss am HG-Ausgang wiederum eine akustische Schwingung erzeugt (elektroakustische Wandlung im Hörer) und dem Ohr zugeführt werden. Wie bei den Mikrophonen müssen für den Hörer kleine Abmessungen, ein hoher Wirkungsgrad, ein konstantes Übertragungsmaß innerhalb eines großen Frequenzbereiches und eine lineare Übertragungscharakteristik gefordert werden. Diese Forderungen widersprechen einander teilweise (bspw. nimmt die Wiedergabequalität im Tieftonbereich grundsätzlich mit den Abmessungen ab) und sind daher nicht immer gleichzeitig zu erfüllen. Hörgerätehörer beruhen fast ausschließlich auf dem elektromagnetischen Prinzip, d. h. der Veränderung der magnetischen Induktion durch Bewegung einer Metallmembran (Anker) im Feld eines von einer Spule umwickelten Permanentmagneten. Mit Ausnahme des selten verwendeten Taschengerätes besteht bei allen Hörgerätetypen das Problem der akustischen Rückkopplung. Ihm liegt der Effekt zugrunde, dass Schallwellen, die in einem elektroakustischen System verstärkt wurden, bei Wiedereintritt in den Eingangskanal einer nochmaligen Verstärkung zugeführt werden (feedback). Ist der Faktor für diese Schleifenverstärkung größer als 1, so gibt der Lautsprecher einen Pfeifton von sich, dessen Intensität nur durch die Aussteuerungsgrenze des Verstärkers begrenzt ist. Um dies zu vermeiden, muss entweder die Verstärkung reduziert oder der Wiedereintritt des Ausgangsschalls in das Mikrophon verhindert werden. Ersteres ist selten möglich oder sinnvoll, da die notwendige Verstärkung durch das Ausmaß der Hörstörung und nicht durch die Rückkopplungsneigung festgelegt ist. Für letzteres sind mehrere Maßnahmen denkbar: die Verwendung von Richtmikrophonen, die akustische Trennung des Ausgangs vom Eingang mit Hilfe einer CROS9-Versorgung oder die akustische Isolation durch ein Ohrpassstück (die Otoplastik), welches den Gehörgang teilweise oder vollständig abdichtet und somit die Verbindung zwischen dem verstärktem Schall in der Trommelfellebene und der Mikrophonöffnung über (HdO) bzw. in (IdO) der Ohrmuschel unterbricht. Bei vielen modernen digitalen Hörsystemen wird die akustische Rückkopplung durch Filterung oder aktive Kompensation vermieden und die Otoplastik dadurch entbehrlich (offene Anpassung). Zur Anfertigung des individuell angepassten Ohrpassstückes nimmt der HG-Akustiker mit Hilfe eines schnell härtenden Zweikomponentenkunststoffs einen Ohrabdruck ab, nach welchem die eigentliche Otoplastik wahl-
9
contralateral routing of signals: das Mikrophon befindet sich auf der Seite des unversorgten Ohres.
weise aus durchsichtigem Hartkunststoff (Acrylat) oder weichem Silikon hergestellt wird. Bei IdO-Geräten sind Ohrpassstück und Gerätegehäuse miteinander identisch. Beim HdO-Gerät wird die Verbindung zwischen HG und Ohrpassstück durch einen Schlauch hergestellt, der am Tragehaken des Hörgerätes und auf dem Ansatzstutzen des Ohrpassstückes befestigt ist. Der Schall wird durch eine Bohrung im Ohrpassstück dem vor dem Trommelfell freibleibenden Gehörgangsrestvolumen zugeführt. Bohrung und Schlauch haben Verzerrungen des Schallsignals zur Folge. Hiervon werden v. a. die hohen Frequenzen betroffen, wohingegen niedrige Frequenzen nahezu ohne Abschwächung übertragen werden. Die besten Übertragungseigenschaften ergeben sich bei einem Schlauchdurchmesser von 2,4–3.0 mm. Durch zusätzliche Bohrungen können die akustischen Eigenschaften des Ohrpassstückes weiter beeinflusst werden: ▬ Die Hochtonbohrung (Frequenzausgleichsbohrung) mit einem Durchmesser zwischen 0,8 und 2,0 mm wirkt als Tiefpass und verbessert die Hochtonverstärkung. ▬ Eine trichterförmige Aufweitung des Schallaustrittsöffnung (Libby- bzw. Bakke-Horn), erhöht die Verstärkung im Bereich zwischen 2 kHz und 4 kHz um bis zu 30 dB. ▬ Die offene Otoplastik, d. h. die Anbringung einer Zusatzbohrung mit über 2,5 mm Durchmesser, führt zum Verschwinden der Tieftonverstärkung, so dass im Falle einer reinen Hochtonschwerhörigkeit die niedrigen Frequenzen weiterhin mit dem natürlichen Gehör verarbeitet werden können. Die Möglichkeiten zur Beeinflussung der Akustik über Zusatzbohrungen sind umso mehr begrenzt, je größer die erforderliche Schallverstärkung ist. Hochgradige Hörstörungen erfordern auch heute noch einen akustisch dichten Abschluss des Gehörgangsrestvolumens und können auch nicht mit der aktuell eingeführten externen Hörertechnologie versorgt werden. Liegt hingegen der Hörverlust unter der zwischen 80 und 100 dB verlaufenden Grenze, so kann der Ausgangswandler im Gehörgang untergebracht und dort mit einem Fixierschirm oder einer pilzförmigen Dichtung gehalten werden. Ein großer Vorteil des externen Hörers besteht in dem geringeren Verlust bei den Höhen und der dadurch besseren Klangqualität. Die Beschreibung der Eigenschaften einzelner Komponenten lässt keine zuverlässigen Rückschlüsse auf das akustische Verhalten des Gesamtsystems zu. Um das Übertragungsverhalten des Hörgerätes beurteilen zu können, müssen akustische Messungen am Kuppler – d. h. einem Hohlraum, der Geometrie und Akustik des Gehörgangs nachbildet – oder in situ – d. h. als Sondenmessung im Gehörgang des versorgten Ohres – durchgeführt werden. Das Ergebnis solcher Messungen sind Kurven, aus denen die Wiedergabeeigenschaften des Hörgerätes bei verschie-
237 14.4 · Hörprothetik
denen Frequenzen und Pegeln abgelesen werden können. Die wichtigste dieser Kurven ist die normale akustische Wiedergabekurve. Sie entsteht durch die Messung des Ausgangsschallpegels LA bei Einspeisung von Sinustönen variabler Frequenz und fester Intensität; der Eingangspegel LE beträgt 60 dB SPL, das HG ist so eingestellt, dass der Ausgangspegel bei der Bezugs-Prüffrequenz (i. d. R. 1600 Hz, bei Hochtongeräten 2500 Hz) um 15 dB unterhalb des Ausgangspegels liegt, der bei einem Eingangspegel von 90 dB SPL und maximal eingestellter Verstärkung gemessen wurde. Die akustischen Wiedergabekurven LA(f) zu anderen Eingangspegeln (50 bis 100 dB SPL) werden ohne Veränderung dieser Geräteeinstellung gemessen. Das hierbei entstehende akustische Wiedergabekurvenfeld (⊡ Abb. 14.31) gibt einen Überblick über das frequenz- und pegelabhängige Verhalten des Hörgerätes. In den Datenblättern eines Hörgerätes wird zusätzlich zu den mit unveränderter HG-Einstellung gemessenen Wiedergabekurven oftmals noch die Kurve des größten erreichbaren Schallpegels gezeigt. Sie wird standardgemäß bei der höchsten Verstärkerposition und einem über alle Frequenzen konstanten Eingangsschallpegel von 90 dB SPL gemessen (OSPL90-Kurve). Ein weiteres häufig verwendetes Diagramm ist die Kurve der maximalen Verstärkung (Auftragung des im linearen Arbeitsbereich des HG bei einem Eingangsschallpegel von 50 dB SPL und mit maximaler Verstärkung gemessenen Verstärkungsfaktors in Abhängigkeit von der Frequenz). Die vollständige graphische Darstellung der Eigenschaften eines Hörgerätes stellt ein vieldimensionales Problem dar, da der Ausgangsschallpegel LA vom Eingangsschallpegel LE, der Schallfrequenz f und der Hörgeräteeinstellung (z. B. Verstärkungsfaktor v=LA–LE und Kompressionsverhältnis c=ΔLE/ΔLA) abhängt. Aus einer vollständigen LA(f)-Kurvenschar (⊡ Abb. 14.31) können LA(LE)-Kurven (⊡ Abb. 14.30) konstruiert werden, von denen jede einzelne für eine feste Frequenz und eine bestimmte Hörgeräteeinstellung gültig ist. Aus dem Wiedergabekurvenfeld kann unmittelbar abgelesen werden, ob und in welchem Bereich von Eingangspegeln sich das Hörgerät linear verhält. Eine ideale
lineare Signalverarbeitung ist durch einen glatten Frequenzgang LA(f) gekennzeichnet, der sich bei Änderung des Eingangspegels LE um die Pegeldifferenz ΔLE vertikal verschiebt. Hierzu gleichwertig ist die Forderung, dass die Dynamikkennlinien LA(LE) eines linearen Hörgerätes bei allen Frequenzen und im ganzen Pegelbereich die Steigung 1 dB/dB aufweisen. Obwohl (oder gerade weil) es keine Hörgeräte mit dieser Eigenschaft gibt, hat es sich eingebürgert, ein HG dann als »linear« zu bezeichnen, wenn die bei verschiedenen Eingangspegeln gemessenen Wiedergabekurven durch eine reine Verschiebung ineinander überführt werden können (selbst dann, wenn die Verschiebung von der zugehörigen Differenz der Eingangspegel verschieden ist). Ein in dieser Nomenklatur »nichtlineares« Hörgerät weist bei verschiedenen Eingangspegeln Wiedergabekurven auf, die nicht zueinander parallel verlaufen. Eine möglichst lückenlose Kenntnis der Hörgeräteeigenschaften ist die erste von drei Säulen der Hörgeräteversorgung. Die zweite Säule ist die Gesamtheit der audiometrischen Daten. Die Anpassung des Hörgerätes verknüpft als dritte Säule die zwei Datensätze miteinander, wobei ein Parametersatz des fertig eingestellten Hörgerätes entsteht. Die Aufgabe dieses Gerätes besteht darin, den Frequenzund Intensitätsbereich des normalen Hörens (v. a. den Sprachbereich) auf das eingeschränkte Hörfeld des zu versorgenden Ohres abzubilden (⊡ Abb. 14.32). Die wichtigsten Kenngrößen des Hörgerätes sind die wirksame akustische Verstärkung, das Kompressionsverhältnis und der maximale Ausgangspegel. Wie an ⊡ Abb. 14.32 zu erkennen ist, können alle diese Größen von Frequenz und Pegel abhängen. Außer diesen Parametern ist für ein gutes Sprachverstehen natürlich das Zeitverhalten des Hörgerätes von großer Bedeutung. Dieses spielt v. a. bei der Verstärkungsregelung eine Rolle. Die aus Hörschwelle, Unbehaglichkeitsschwelle, Hörfeldskalierung und Sprachaudiogramm bestehenden audiometrischen Daten bestimmen die Vorauswahl und Voreinstellung des Hörgerätes. Der frequenzabhängige Verstärkungsbedarf kann aus der Hörschwelle abgeschätzt werden. Die naheliegende Vorstellung, dass der Verstärkungsbedarf dem Ausmaß
⊡ Abb. 14.31. Messung des akustischen Wiedergabekurvenfeldes eines Hörgerätes mit dem links gezeigten 2 cm3-Kuppler. Jede Wiedergabekurve LA(f) wird bei festem Eingangsschallpegel LE gemessen, die Einstellung der Hörgeräteparameter ist für alle Kurven gleich. Durch Bildung von Querschnittsflächen konstanter Frequenz entstehen die Dynamikkennlinien LA(LE)
14
238
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Iw
⊡ Abb. 14.32. Projektion der Sprachfläche in das Hörfeld des Schwerhörigen mit Hilfe eines Hörgerätes. Die miteinander verbundenen Kreise zeigen die Hörschwelle an
des Hörverlustes gleich ist (Spiegelung des Audiogramms), erweist sich aber schon aufgrund des mitverstärkten Eigenrauschens in den meisten Fällen als unbrauchbar. Die Signalverstärkung muss i. Allg. geringer sein als die Hörschwellenverschiebung. Dem einfachsten unter den präskriptiven Verfahren zufolge sollte die im 2 cm3-Kuppler gemessene Verstärkung v dem halben Hörverlust HV entsprechen: v=HV/2. Eine Verfeinerung dieser Regel ist die Berger-Formel, mit der der Verstärkungsbedarf ebenfalls allein aus der Hörschwelle berechnet wird, indem der Hörverlust durch eine frequenzabhängige Zahl N dividiert wird: v( f ) =
HV ( f ) + C ( f ) N( f )
(11)
Der zwischen 1,5 und 2,0 liegende Nenner N(f) hängt dergestalt von der Frequenz ab, dass sich bei mittleren Frequenzen eine etwas höhere Verstärkung ergibt als bei tiefen und hohen Frequenzen. Diese Mittenanhebung wird durch die zusätzliche additive Korrektur C(f) unabhängig vom Hörverlust noch weiter betont. Die für HdO-Geräte vorgeschlagene Formel (11) muss für IdO-Geräte etwas modifiziert werden, um dem geringeren Verstärkungsbedarf Rechnung zu tragen. Bei der Zielkurvenkonstruktion nach einem anderen präskriptiven Verfahren (prescription of gain and output, POGO) hängt nur der hörverlustunabhängige Term von der Frequenz ab: v( f ) =
HV ( f ) + C ( f ) N
(11)
Beim NAL-Verfahren10 schließlich geht in die Berechnung der bei einer vorgegebenen Frequenz benötigten Verstärkung v(f) nicht nur der bei dieser Frequenz bestimmte Hörverlust HV(f) ein, sondern mit geringerem Gewicht auch der über 3 Frequenzen (0,5, 1 und 2 kHz) gemittelte
10
National Acoustics Laboratories, Sydney.
Hörverlust. Die nach Berger-, POGO- und NAL-Formel für eine vorgegebene Schwellenkurve berechneten Zielfrequenzgänge können erheblich voneinander abweichen. Dies macht auch deutlich, dass die Hörschwelle allein kein zuverlässiges Kriterium zur Berechnung des individuellen Verstärkungsbedarfs darstellt. Bei den bisher genannten Verfahren wird der aus audiometrischen Daten abgeleitete Verstärkungsbedarf für die Voreinstellung des Hörgerätes herangezogen und das Hörgerät anhand dieser Vorgabe mit Hilfe einer Kupplermessung (s.unten) eingestellt. Dieses Vorgehen beinhaltet zwei Fehlerquellen: den bei der Tonaudiometrie verwendeten Wandler und die Simulation des Gehörgangs durch ein genormtes Kupplervolumen. Beide entsprechen nicht den Verhältnissen im Gehörgang des versorgten Ohres. Besonders groß ist die Abweichung bei Kindern, deren Gehörgang klein und im Wachstum begriffen ist. Es ist das Ziel der DSL-Methode (desired speech level) nach Seewald, den Einfluss dieser Fehlerquellen zu begrenzen. Der Ansatz besteht darin, die Hörschwelle unter Verwendung eines Sondenmikrophonsystems (oder alternativ mit Hilfe eines Einsteckhörers) durch die Schalldruckpegel im Gehörgang zu beschreiben. Unter Verwendung der individuellen Ohr-Kuppler-Transferfunktion (real ear to coupler difference, RECD) oder mit Hilfe pauschaler Korrekturfaktoren können die Vorgaben für die Hörgerätewiedergabe zur Erzielung der gewünschten schwellenbezogenen Sprachschallpegel bestimmt werden. Damit soll sichergestellt werden, dass das Sprachsignal breitbandig hörbar ist, angenehm klingt und unverzerrt ist. Der Erfolg hängt wesentlich von der Durchführung häufiger Kontrollen der Ohr-Kuppler-Transferfunktion und der entsprechenden Korrektur der Verstärkung ab. Die alleinige Orientierung an der Hörschwelle ist für eine angemessene Einstellung des Hörgerätes im gesamten überschwelligen Pegelbereich ungünstig. Eine korrekte Einstellung erfordert die Einbeziehung zumindest der Unbehaglichkeitsschwelle, besser aber des gesamten Hörfeldes, welches sich mit Hilfe der subjektiven
14
239 14.4 · Hörprothetik
Skalierung der Kategoriallautheit erfassen lässt. Aus den bei verschiedenen Frequenzen gemessenen Lautstärkezuwachsfunktionen lässt sich durch Vergleich mit der Normalkurve für jeden Pegel der Verstärkungsbedarf ablesen (⊡ Abb. 14.33). Die Hörfeldaudiometrie berücksichtigt somit als einziges Verfahren konsequent die von Frequenz und Pegel abhängige subjektive Lautstärkeempfindung und liefert nicht nur den Verstärkungs-, sondern auch den Kompressionsbedarf. Die voreingestellte Verstärkung des Hörgerätes kann durch Messungen am Ohrsimulator (Kuppler) in der Messbox überprüft und kontrolliert werden. Diese Messungen des Ausgangspegels bei definierten Eingangssignalen liefern sehr exakte und gut reproduzierbare Ergebnisse, sie sind aber, da der Kuppler als künstliches Ohr nur einen statistischen Mittelwert repräsentieren kann, für die Verhältnisse im Gehörgang des Hörgeschädigten nicht immer relevant. Um die Wiedergabeeigenschaften des Hörgerätes am Trommelfell zu erfassen, müssen Sondenmikrophonmessungen im Gehörgang durchgeführt werden (in situ-Messung). Im Gegensatz zu den Kupplermessungen erfassen sie die Arbeitsweise des Hörgerätes unter dem Einfluss von Schallzuführung, Otoplastik, Gehörgangsrestvolumen und Mittelohrimpedanz. Bei vielen in situ-Messgeräten wird nicht das Mikrophon, sondern ein mit ihm verbundener Sondenschlauch in den Gehörgang gebracht. Die in situ-Messung wird sowohl ohne als auch mit HG durchgeführt (⊡ Abb. 14.34a, b). Das Sondenmikrophon registriert das im Gehörgang vorliegende Schallsignal während der Darbietung von Rausch- oder Sinusreizen definierter Frequenz und Intensität. Ein Echtzeitanalysator verarbeitet das Mikrophonsignal zu Wiedergabekurven LA(f) oder Dynamikkennlinien LA(LE). Zu Beginn der in situ-Messung wird die Außenohrübertragungsfunktion gemessen, indem der Sondenschlauch in das offene Ohr des Patienten gelegt wird. Über der Frequenz aufgetragen ergibt sich eine Kurve, die im Bereich zwischen 2 und 5 kHz verschiedene Maxima aufweist (dunkle Fläche in ⊡ Abb. 14.34c). Bei einem Eingangssignal frequenzunabhängiger Intensität spiegelt diese Kurve die natürliche Verstärkungswirkung von Außenohr und Gehörgang wider (open ear gain, OEG). Im nächsten Schritt der in situ-Anpassung wird die im Gehörgang vorliegende Schallintensität bei eingesetztem Ohrpassstück mit eingeschaltetem Hörgerät gemessen (helle Fläche in ⊡ Abb. 14.34c). Die Differenz zwischen den mit und ohne HG gemessenen Frequenzgängen entspricht der frequenzabhängigen wirksamen akustischen Verstärkung (insertion gain, IG). Die in situ-Messung ist in Hinblick auf die Ermittlung von Frequenzgang und Dynamikverhalten als eine vorteilhafte Alternative zur Kupplermessung anzusehen; dies gilt insbesondere für die HG-Anpassung bei Kindern, deren Gehörgang durch einen Kuppler schlecht
⊡ Abb. 14.33. Ermittlung des pegelabhängigen Verstärkungsbedarfs für eine Frequenz (Terzbandrauschen) aus dem Vergleich zwischen der Lautstärkeskalierungsfunktion eines Schwerhörigen (Messwerte) mit dem schattierten Normalbereich. Die bei den Kategorien »leise« 15 KU), »mittellaut« (25 KU) und »laut« (35 KU) erforderliche Verstärkung entspricht der Länge der horizontalen Pfeile (nach Steffens 1996)
a
b
c
⊡ Abb. 14.34a–c. In situ-Messung mit Sondenschlauch im Gehörgang a ohne und b mit HG (nach Kießling et al. 1997). c Die Sondenmessung ergibt die Außenohrübertragungsfunktion (dunkel schattiert) bei offenem Gehörgang (open ear gain) und die in-situ-Verstärkung (hell schattiert) mit Hörgerät. Die Differenz beider Kurven (mittlere Linie) entspricht der wirksamen akustischen Verstärkung (insertion gain)
240
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
14.4.3 Implantierbare Hörsysteme
Otoplastik und die Stigmatisierung des Hörgeräteträgers durch die sichtbar getragene Prothese zu nennen. Gemeinsames Merkmal aller (voll- oder teil-)implantierbaren Hörsysteme ist die direkte mechanische Übertragung des aufbereiteten Schallsignals durch vibratorische Anregung der Gehörknöchelchen. Im Vergleich zur akustischen Stimulation werden hierdurch zwei Wandlungen vermieden und das Signal dadurch weniger verfälscht. Dies wirkt sich v. a. im Bereich hoher Frequenzen und somit auf die Klangqualität aus. Bei einem teilimplantierbaren Hörsystem bilden Mikrophon, Signalprozessor und Energiequelle die externen Teile. Zur Übertragung der Information an die implantierten Teile sowie zu ihrer Energieversorgung dient eine transkutane Hochfrequenzverbindung. Das retroaurikulär implantierte Verstärkermodul steuert ein am langen Ambossschenkel befestigtes magnetisches Schwingungssystem (floating mass transducer, FMT) oder einen hydromechanischen Antrieb, der im operativ erweiterten Mittelohrraum implantiert und über eine Koppelstange mit dem Ambosskörper verbunden ist (Otologics MET™). Der etwas irreführend auch als VORP (vibratory ossicular replacement prosthesis) bezeichnete FMT (Med-El Vibrant Soundbridge®, ⊡ Abb. 14.35) besteht aus einem kleinen Zylinder, dessen Wand eine stromführende Spule enthält, mit der eine bewegliche magnetische Masse entlang der Zylinderachse angetrieben wird. Die Schwingung dieser Masse überträgt sich auf den Amboss, und dessen Bewegung setzt sich wie beim natürlichen Hörvorgang über den Steigbügel ins Innenohr fort. Bei vollimplantierbaren Systemen sind neben Verstärker und Ausgangswandler auch Mikrophon, Signalprozessor und Energiequelle implantiert. Das Mikrophon befindet sich unter einer dünnen Hautschicht im Gehörgang. Dies begünstigt eine natürliche Klangwirkung, da die richtungsabhängige Filterwirkung von Außenohr und Gehörgang anders als bei den meisten anderen technischen Hörhilfen weiterhin genutzt wird. Das Mikrophonsignal wird der im Mastoid implantierten Prozessoreinheit zugeführt, deren Ausgangssignal einen piezoelektrischen Wandler treibt. Dieser versetzt über eine in der Nähe des Hammer/Amboss-Gelenkes endende Koppelstange die Gehör-
Die bisher beschriebenen konventionellen schallverstärkenden Hörgeräte sind mit einer Reihe von Nachteilen verbunden, unter denen einige durch Implantation des Hörgerätes oder einiger seiner Komponenten unter die Körperoberfläche ausgeglichen werden können. Zur Beschreibung dieser Nachteile und zur Abgrenzung der Einsatzbereiche implantierbarer Hörsysteme muss zwischen akustischen, audiologischen, medizinischen und kosmetischen Aspekten unterschieden werden. In dieser Reihenfolge sind als Nachteile des konventionellen Hörgeräts die akustische Rückkopplung, die schlechte Übertragung hoher Frequenzen, die gelegentlich (insbesondere bei Neigung zu Gehörgangsentzündungen) auftretende Unverträglichkeit der
⊡ Abb. 14.35. Aufbau (links) und audiologischer Indikationsbereich (rechts) eines teilimplantierbaren Hörsystems (Med-El Vibrant Soundbridge®)
approximiert werden kann und interindividuell stark variiert. Hinsichtlich der Beurteilung des Ohrpassstückes und seiner Übertragungseigenschaften ist die in situ-Messung sogar konkurrenzlos. Sie ermöglicht die Erfassung der Effekte von Zusatzbohrungen, die der Akustiker zur Beeinflussung des Klangeindrucks anbringt, und ist somit ein unentbehrliches Werkzeug für die systematische Durchführung von Manipulationen an der Otoplastik. Trotz dieser Vorteile kann ein HG nicht allein auf der Basis der in situ-Messung angepasst werden, da auch die exakte Messung des Schalls am Trommelfell keine Auskunft über das subjektive Klangempfinden des Patienten und v. a. über sein Sprachverstehen geben kann. Für die Feineinstellung des Hörgerätes und die Kontrolle des Anpasserfolges sind nur Skalierungsverfahren und Sprachaudiometrie geeignet. Die Hörschwellenkurve des versorgten Ohres (Aufblähkurve) ist in dieser Hinsicht wenig aussagekräftig, weil sich bei der Reizung mit Sinustönen im abgeschlossenen Gehörgangsrestvolumen stehende Wellen ausbilden können. Da die Aufblähkurve außerdem nur die statische Wiedergabe eingeschwungener Sinustöne, nicht aber das dynamische Verhalten des Hörgerätes bei der Verarbeitung von Sprachsignalen beschreiben kann, dient sie bei der Beurteilung des Versorgungserfolges lediglich zur groben Orientierung. Der im Sprachverstehen erzielte Gewinn einer Hörgeräteversorgung wird anhand des im freien Schallfeld gemessenen Sprachaudiogramms definiert. Die Versorgung gilt als erfolgreich, wenn die mit dem Freiburger Test ermittelte Verständlichkeit für einsilbige Testwörter bei 65 dB um mindestens 20% besser ist als ohne Hörhilfe bzw. wenn die Verständlichkeit bei 65 dB so gut ist wie das ohne HG erzielbare Optimum. Zusätzlich ist die Sprachdiskrimination bei 80 dB in Ruhe und bei 60 dB im Störgeräusch (z. B. mit dem Göttinger oder dem Oldenburger Satztest) zu prüfen. Bei beidohriger Versorgung kann der binaurale Diskriminationsgewinn mit Hilfe des BILD-Verfahrens nachgewiesen werden.
241 14.4 · Hörprothetik
knöchelchenkette in Bewegung. Das System deckt seinen Energiebedarf aus Batterien, die sich im implantierten Hauptmodul befinden und transkutan durch eine temporär mit einem Kopfbügel getragene Spule induktiv aufgeladen werden. Das hier beschriebene erste anwendungsreife vollimplantierbare System TICA® (totally integrated cochlea amplifier) ist allerdings wegen nicht beherrschbarer akustischer Rückkopplung nach einer ersten klinischen Erprobungsphase wieder vom Markt genommen worden. Bei einem weiteren vollimplantierbaren Hörsystem (EnvoyTM medical) wird der Ort der Schallaufnahme noch konsequenter dem natürlichen Hörvorgang angenähert: Als Mikrophonmembran dient das Trommelfell, wo das Schallsignal mit einem piezoelektrischen Sensor vom Hammer (Malleus) abgegriffen und dem retroaurikulär implantierten Elektronikmodul zugeleitet wird. Das verstärkte Signal wird über einen zweiten Piezowandler auf den Steigbügel (Stapes) übertragen. Zur Vermeidung der Rückkopplung muss der Amboss (Incus) entfernt oder seine Verbindung zum Hammer durchtrennt werden. Hingegen erfordert der fully-implantable ossicular stimulator (Otologics MET™ FIMOS), bei dem sich das Mikrophon unter der Haut am Hinterkopf befindet, keine Unterbrechung der Gehörknöchelchenkette. Hier wird die Vibration mit Hilfe eines elektromagnetischen Wandlers auf den Ambosskörper übertragen. Um die Wertigkeit der implantierbaren Hörsysteme zu beurteilen, müssen die zu Beginn dieses Abschnittes genannten Aspekte getrennt voneinander betrachtet werden. Der überzeugende und allen genannten Systemen gemeinsame Vorteil besteht in der überlegenen Klangqualität, die auf die direkte mechanische Anregung des Innenohres zurückzuführen ist. Die akustische Rückkopplung ist mit digitaler Technik in vielen Fällen gut beherrschbar, so dass heute auch mit konventionellen schallverstärkenden Hörgeräten oftmals eine offene Anpassung möglich ist. Dadurch verliert die Problematik der Gehörgangsokklusion ganz erheblich an Gewicht. Teilimplantierbare Systeme sind audiologisch zumindest im Vergleich zum IdO-Gerät durch die ungünstige extraaurikuläre Plazierung des Mikrophons im Nachteil. Der kosmetische Aspekt und die stigmatisierende Wirkung des konventionellen Hörgeräts sollten nicht über-
bewertet werden, da nur vollimplantierbare Systeme wirklich unsichtbar sind. In diesem Zusammenhang ist noch zu erwähnen, dass die Vorteile des freien Gehörganges, der fehlenden akustischen Rückkopplung und der Unsichtbarkeit in einem weiteren System (auric RetroX) vereint sind, bei dem ein retroaurikulär angeordnetes digitales Hochtonhörgerät den verstärkten Schall über ein implantiertes Titanhülsensystem direkt in den Gehörgang abgibt. Der Zweck der beschriebenen implantierbaren Hörsysteme besteht in der alternativen Versorgung von Innenohrschwerhörigkeiten. Demgegenüber ist das knochenverankerte Hörsystem BAHA® (bone anchored hearing aid) für die Zielgruppe nicht korrigierbarer Mittelohrschwerhörigkeiten und zur Lösung von Gehörgangsproblemen (z. B. Gehörgangsatresie) konzipiert. Es besteht aus einem Knochenleitungshörgerät, das auf eine in den Schädelknochen hinter dem Ohr implantierte Titanschraube aufgesteckt wird. Der Schall wird vom integrierten Mikrophon aufgenommen und in eine vibratorische Anregung des Knochens umgesetzt, so dass das Außenohr, der Gehörgang und das Mittelohr nicht in die Übertragungskette einbezogen sind. Der Körperschall regt beide Innenohren mit annähernd gleicher Intensität an. In Abhängigkeit von der Frequenz bestehen jedoch kleine Seitendifferenzen, so dass einem beidseitig mit BAHA-Systemen versorgten Patienten eine zumindest rudimentäre Richtungsinformation zur Verfügung steht.
14.4.4 Das Cochlea-Implantat
Bei Taubheit, an Taubheit grenzender Schwerhörigkeit oder Restgehör ist weder mit konventionellen schallverstärkenden Hörgeräten noch mit den beschriebenen implantierbaren Hörgeräten ein Versorgungserfolg zu erzielen. Unter bestimmten Voraussetzungen ist jedoch eine (Re-)Habilitation der betroffenen Patienten mit dem Cochlea-Implantat (CI) möglich. Das CI stimuliert die distalen Hörnervenendigungen oder das Ganglion spirale mit Hilfe von intracochleär implantierten Elektroden (⊡ Abb. 14.36). Die Parameter der elektrischen Reizpulse werden in einem Sprachprozessor aus dem akustischen
⊡ Abb. 14.36. Komponenten eines CI-Systems (nucleus® freedomTM). Implantiert sind die verkapselte Empfänger- und Dekodierschaltung und die Elektrodenträger. Hinter dem Ohr trägt der Patient den Sprachprozessor und die magnetisch gehaltene Sendespule. Rechts sind das Implantat (oben) und der Sprachprozessor mit Spule (unten) gezeigt (Reproduktion mit freundlicher Genehmigung von T. Steffens, Regensburg)
14
242
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Signal berechnet und in Form von Hochfrequenzpulsen durch die Haut hindurch (transkutan) an das Implantat übertragen. Die artifizielle elektrische Reizung des Hörnervs ist prinzipiell verschieden vom natürlichen Hörvorgang, bei dem die Aktionspotentiale des Hörnervs infolge der von den Neurotransmittern erzeugten und sich überlagernden elementaren Generatorpotentiale entstehen. Befinden sich die von den inneren Haarzellen kommenden afferenten Radiärfasern des Hörnerven in einem elektrischen Feld, so entstehen ebenfalls Aktionspotentiale, die durch einen rechteckförmigen Zeitverlauf der zwischen zwei Elektroden liegenden Spannung synchronisiert werden können. Die elektrische Feldverteilung ist von der relativen Lage der Elektroden zum Hörnerven und den dazwischenliegenden Flüssigkeiten und Gewebearten abhängig. Es ist zwischen einer bipolaren Reizung, bei der sich beide Elektroden in der Nähe der Spiralganglienzellen befinden, und der monopolaren Reizung, bei der die Referenzelektrode in größerer Entfernung von den stimulierenden Strukturen befindet, zu unterscheiden. Die bipolare Anordnung führt zu örtlich eng umgrenzten Feldern mit hohen Gradienten und sie ermöglicht i. Allg. eine bessere Kanaltrennung als die monopolare Reizung. Die Aufgabe der elektrischen Cochleaprothese besteht darin, die Zeitstruktur von Frequenz und Intensität des Schallsignals in eine für die zentrale auditorische Verarbeitung verwertbare Folge von Aktionspotentialen umzusetzen. Eine exakte Nachahmung des natürlichen Vorbildes scheitert an dessen Komplexität und an der Unvollständigkeit des Wissens über die Details seiner Funktion. Im Hinblick auf die neurale Codierung der Schallfrequenz ist es aber plausibel (und durch den Erfolg gerechtfertigt), sowohl die tonotope Organisation der Cochlea zu simulieren als auch die Fähigkeit des Hörnerven zur Analyse der Periodizität des Signals zu nutzen. Daher befinden sich die Reizelektroden im Innenohr, wo sie entlang der Schneckenwindung aufgereiht sind und – möglichst unter Einhaltung der frequenzabhängigen cochleären Laufzeit – eine selektive Reizung der für die jeweilige Frequenz empfindlichen Region ermöglichen. Bei den meisten Sprachcodierungsstrategien findet sich außerdem die Zeitstruktur des Signals zumindest teilweise in der Folge der elektrischen Reizpulse wieder. Anders als beim natürlichen Hörvorgang entstehen bei elektrischer Reizung die Aktionspotentiale aber nicht probabilistisch, sondern synchron und streng deterministisch. Bei allen auf pulsatiler Stimulation beruhenden Prothesen sind die Reize biphasische, ladungsneutrale Strompulse, die von den programmierbaren Stromquellen an jede der Elektroden abgegeben werden können. Im Falle bipolarer Reizung kann die direkt benachbarte oder eine weiter entfernt liegende Elektrode als jeweils wirksame Referenz gewählt werden. Ein enger Stimulationsmodus
führt zu einer örtlich eng begrenzten Verteilung des elektrischen Feldes, es werden aber hohe Stromstärken benötigt, um die weit entfernt liegenden neuralen Strukturen zu erreichen. Am niedrigsten liegen die Reizschwellen, wenn alle nicht aktiven Elektroden zu einer gemeinsamen Referenz kurzgeschlossen werden (common ground). Bei der monopolaren Stimulation dient das Gehäuse des Implantats und/oder eine zusätzliche extracochleäre Elektrode als Referenz für den Strompfad. Die Intensität des Schallsignals wird beim natürlichen Hören in der Entladungsrate der einzelnen Faser und der Anzahl aktiver Fasern verschlüsselt. Bei elektrischer Stimulation nimmt die Zahl der Aktionspotentiale und zugleich auch der subjektive Lautheitseindruck mit der Stromstärke und der Dauer des elektrischen Pulses zu. Es werden alle Fasern erfasst, die sich in einer Region überschwelliger Feldstärke befinden. Die Überlagerung der elektrischen Felder begrenzt die sinnvolle Zahl intracochleärer Elektroden bereits bei schwachen Reizen auf etwa 15 bis 20, bei Erhöhung der Reizstärke nimmt die Ortsauflösung – und damit auch die Fähigkeit zur Unterscheidung von Tonhöhen – weiter ab. Die Zeitauflösung ist durch Dauer und Folgefrequenz der Pulse begrenzt. Typische Werte liegen bei 40 µs und 1000 Pulsen pro Elektrode und Sekunde. Durch die zeitlich versetzte Ansteuerung der verschiedenen Elektroden erhöht sich die Gesamtpulsrate entsprechend der Elektrodenzahl. Zu einem Cochlea-Implantat gehören mehrere Komponenten (⊡ Abb. 14.36). Das eigentliche Implantat ist ein verkapselter integrierter Schaltkreis, der sich hinter der Ohrmuschel unter der Kopfhaut befindet. Seine Längsabmessung beträgt etwa 2 cm, seine Dicke einige Millimeter. Am Implantatgehäuse sind eine Empfängerspule und ein Permanentmagnet befestigt, sowie ein dünner schlauchförmiger Fortsatz, an dessen Spitze sich je nach Produkt 8 bis 22 ring- oder kugelförmige Platinelektroden befinden. Die Elektroden werden in die unteren eineinhalb Windungen der Scala tympani eingeführt. Die räumliche Anordnung der Elektroden innerhalb der Schnecke ist der natürlichen tonotopen Organisation des Innenohres angepasst: Eine elektrische Reizung über die vorderste Elektrode erfasst apikale oder mediale Fasern und löst die Empfindung eines tiefen Tones aus; die hintersten Elektroden liegen am basalen Ende der Hörschnecke, ihre Aktivierung bewirkt die Entstehung von Hochtoneindrücken. Neben dieser tonotopen Frequenzzuordnung (place pitch) kann die Tonhöhenwahrnehmung auch durch Veränderung der Pulsrate beeinflusst werden (rate discrimination). Die externen Bestandteile des CI-Systems sind das Mikrophon, der Sprachprozessor und die Sendespule. Mikrophon und Sprachprozessor befinden sich in einem Gehäuse, das als HdO-Gerät hinter der Ohrmuschel getragen wird. Die über ein Kabel mit diesem Gehäuse verbundene Sendespule ist wie die Empfängerspule des
243 14.4 · Hörprothetik
Implantats mit einem Permanentmagneten ausgestattet, so dass die Außenspule fixiert und auf die implantierte Spule justiert ist. Die Umsetzung des akustischen Signals in elektrische Reizpulse umfasst mehrere Verarbeitungsschritte. In allen CI-Systemen wird das Mikrophonsignal nach einer analogen Vorverarbeitung (Verstärkung, Hochpassfilterung und evtl. Kompression) in ein digitales Signal gewandelt und als solches in einem Signalprozessor verarbeitet. Ergebnis der weiter unten näher beschriebenen digitalen Verarbeitung sind die Parameter der elektrischen Reizpulse, die in rechteckige Hochfrequenzpulse (z. B. f=2,5 MHz) verschlüsselt werden. Das Implantat empfängt die transkutan übertragenen HF-Pulse, decodiert die in ihnen enthaltene Information und nutzt zugleich die in den Pulsen enthaltene Leistung für seine Energieversorgung. Eine Kontroll-Logik sorgt dafür, dass fehlerhafte Übertragungen erkannt werden und keine unbeabsichtigten Stimulationen stattfinden. Die programmierbaren Stromquellen geben rechteckförmige biphasische Pulse variabler Dauer (im Bereich 20 bis 500 µs) und Stärke (bis maximal 1,5 µA) auf die von einem Multiplexer angewählte Elektrode ab. Jeder Elektrode ist ein Frequenzbereich zugeordnet, dessen Mittenfrequenz und Breite von apikal nach basal nach einer logarithmisch geteilten Skala zunimmt. Viele CI-Systeme verfügen über die Möglichkeit, die Spannung zwischen zwei Elektroden zu messen und den Messwert über eine Verstimmung des HF-Schwingkreises nach außen zu übertragen (Rückwärts-Telemetrie). Auf diese Weise können einerseits Elektrodenimpedanzen bestimmt und andererseits elektrisch evozierte Hörnervenpotentiale gemessen werden (telemetry of electrically evoked compound action potentials, TECAP) (Abbas et al. 1999). Für die Codierung des Schallsignals werden unterschiedliche Strategien angewendet. Die meisten von ihnen beruhen auf einer pulsatilen Reizung des Hörnervs. Eine Ausnahme bildet die analoge Stimulationsstrategie, bei der der Zeitverlauf des Elektrodenstroms dem des akustischen Eingangssignals entspricht (compressed analogue). Hier wird das Mikrophonsignal mit einer Filterbank in mehrere Anteile zerlegt. Jedem Bandpassfilter ist eine Elektrode zugeordnet. Die einzelnen Anteile werden digitalisiert und in den Dynamikbereich der zugehörigen Elektroden transformiert (mapping). Es ergibt sich ein sinusähnlicher Zeitverlauf der Elektrodenströme mit hoher Frequenz bei den basalen und mit niedriger Frequenz bei den apikalen Elektroden. Die Stimulationsamplituden entsprechen der Schallintensität in den einzelnen Frequenzbändern. Das Schallsignal wird ohne Codierungsverluste oder Verzögerungen übertragen. Anders als bei den pulsatilen Verfahren werden mehrere Elektroden simultan angesprochen. Die dadurch auftretende Überlappung elektrischer Felder kann aber das Diskriminationsvermögen beeinträchtigen und zu unangenehmen Nebenempfindungen führen.
Eine der historisch ersten pulsatilen Codierungsstrategien beruhte auf dem Prinzip der Parameterextraktion (feature extraction). Dem Ansatz lag die Vorstellung zugrunde, dass wegen der apparativ begrenzten Zeit- und Frequenzauflösung allenfalls ein Teil der sprachlichen Information genutzt werden kann. Das Signal wurde daher auf wenige seiner informationstragenden Elemente – die Grundfrequenz, den ersten und den zweiten Formanten sowie die breitbandig gemessene Gesamtamplitude – reduziert (F0F1F2-Strategie). Die Formanten F1 und F2 wurden durch Filterung, die Grundfrequenz F0 durch Zählen der Nulldurchgänge bestimmt. Die Frequenz der Formanten bestimmte die Auswahl der stimulierenden Elektroden, die Grundfrequenz legte die Pulsrate auf diesen Elektroden fest, und aus der über alle Frequenzen gemittelten Schallintensität ergaben sich, unter Einhaltung der für jede Elektrode eingestellten patientenspezifischen Grenzen, Stromstärke und Breite der Reizpulse. Trotz der offensichtlichen Beschränkungen v. a. in Hinblick auf die stimmlosen Laute (für die F0 nicht definiert ist) erzielten viele CI-Träger mit der F0F1F2-Strategie eine gute Sprachdiskrimination bis hin zum offenen Sprachverstehen. Bei der weniger sprachspezifischen n of m strategy werden aus der Gesamtzahl von m Kanälen n Stimulationselektroden nach Maßgabe der Bereiche größter Intensität im Schallspektrum bestimmt. Dem geregelten Vorverstärker ist eine Filterbank mit programmierbaren Bandpässen nachgeschaltet, deren Mittenfrequenzen zwischen 250 Hz und 10 kHz liegen. Jedem Bandpass ist eine Elektrode zugeordnet, wobei niedrige Frequenzen auf apikale und hohe Frequenzen auf basale Elektroden abgebildet werden. Die Anzahl aktiver Elektroden ist von der Gesamtintensität des Signals abhängig. Dadurch werden bei lauten und breitbandigen Vokalen mehr Kanäle stimuliert als bei leisen Konsonanten. Die ebenfalls von der Gesamtintensität und darüber hinaus von der Anzahl spektraler Maxima abhängige Reizrate liegt zwischen 180 und 300 Hz. Die Elektroden werden sequentiell von basal nach apikal angesteuert, wobei zur Erzielung einer hohen Informationsübertragungsrate alle nicht ausgewählten Elektroden ohne Pause übersprungen werden. Während die Parameterextraktion und die Codierung der spektralen Maxima vorwiegend auf dem Tonotopieprinzip beruhen, wird bei der CIS-Strategie (continuous interleaved sampling) die zeitliche Struktur des Schallsignals stärker betont und damit die Fähigkeit des auditorischen Systems zur Analyse von Periodizitäten besser ausgenützt (⊡ Abb. 14.37). Das verstärkte und hochpassgefilterte Mikrophonsignal wird mit einer Filterbank in eine gerätespezifische Anzahl von Frequenzbändern aufgeteilt. In jedem Kanal wird durch Gleichrichtung und Tiefpassfilterung die Einhüllende des Zeitsignals berechnet. Aus den Abtastwerten der Einhüllenden ergibt sich durch eine nichtlineare Transformation die Amplitude des Reizpulses. Infolge der schnellen kontinuierlichen
14
244
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.37. Blockdiagramm (oben) und Funktionsprinzip (unten) der CIS-Strategie. Am Beispiel eines Schallsignals, das von zunächst niedrigen Frequenzen (z. B. Vokal) zu hohen Frequenzen (z. B. Zischlaut) übergeht, ist die Beziehung zwischen der Amplitude der Einhüllenden und der zeitlichen Folge elektrischer Pulse wiedergegeben
zeitversetzten Abtastung und der sequentiellen, basal beginnenden Aktivierung der Elektroden spiegelt sich die Zeit- und Frequenzabhängigkeit der Schallintensität in der zeitlichen Abfolge und der räumlichen Verteilung der Stimulationspulse wider. Bei typischen Pulsbreiten von 80 µs können Stimulationsraten von etwa 1 kHz pro Kanal realisiert werden. Bis auf die sehr grobe Rasterung der Frequenzachse weist diese Codierungsstrategie große Ähnlichkeit mit dem natürlichen Vorbild der peripheren Signalverarbeitung in Cochlea und Hörnerv auf. Neben »n of m« und CIS findet in einem der derzeit verfügbaren CI-Systeme die ACE-Strategie (advanced combination encoders) verbreitete Anwendung. Sie kann als eine Modifikation der n of m strategy aufgefasst werden, bei der die Maximalzahl n der jeweils aktivierten Elektroden und die Kanalrate innerhalb der durch die gerätespezifische
Kapazität (typischerweise 20.000 pps) gesetzte Grenze variabel sind. Anders als bei der CIS-Strategie werden die bis zu n aktivierten Elektroden für jedes berechnete Stimulationsmuster (frame) aus dem Gesamtvorrat m neu bestimmt, so dass auch bei kleinem n eine spektral hochaufgelöste Abbildung des Signals möglich ist. Generell beruht die Sprachcodierung in CI-Systemen auf dem Ansatz, durch die Abbildung des Frequenzspektrums auf die Elektrodenorte und die Übertragung der Zeitstruktur des Sprachsignals auf die Pulsfolge die Kombination von Orts- und Periodizitätsprinzip der natürlichen Tonhöhenerkennung und Zeitmusteranalyse nachzuahmen. Der Umsetzung dieses Zieles stehen die Grenzen der technischen Mittel im Wege. Die verfügbaren Systeme unterscheiden sich voneinander in ihrer Leistungsfähigkeit. Diese Unterschiede sind jedoch
245 14.4 · Hörprothetik
geringfügig in Relation zur Diskrepanz zwischen dem natürlichen Vorbild und dem erreichbaren technischen Standard. Trotz der noch zu erwartenden Fortschritte – v. a. in Geschwindigkeit und Leistungsfähigkeit der Signalverarbeitung, aber auch in der Zahl und Dichte der Elektroden – wird diese Diskrepanz wohl bestehen bleiben. Die Ersetzung von etwa 3400 natürlichen Rezeptorgruppen durch 12 bis 22 Elektroden kann nicht zu einer Wiederherstellung des normalen Diskriminationsvermögens führen. Dies ist der wichtigste Grund dafür, dass die mit einem CI versorgten Patienten nach der Operation eine intensive technische, audiologische, logopädische und pädagogische Betreuung benötigen. Voraussetzung für die Versorgung mit einem CI ist eine beidseitige vollständige Taubheit oder eine so ausgeprägte beidseitige Schwerhörigkeit, dass eine konventionelle Hörgeräteversorgung im Hinblick auf das Sprachverständnis keinen Gewinn erbringt. Der Versorgungserfolg hängt wesentlich von Zeitpunkt und Dauer der Ertaubung ab. Bei gehörlos geborenen oder prälingual ertaubten Patienten verhilft die späte Versorgung mit einem CI i. Allg. nicht zu einem offenen Sprachverstehen. Durch eine frühzeitige Versorgung aber kann auch vielen gehörlosen Säuglingen und früh ertaubten Kleinkindern eine annähernd normale Entwicklung der auditorischen und lautsprachlichen Fähigkeiten ermöglicht werden. Im Grenzgebiet zwischen HG- und CI-Versorgung finden sich Patienten mit noch nutzbaren und daher erhaltenswerten Hörresten, vornehmlich im Tieftonbereich. Durch die Kombination von elektrischer und akustischer Stimulation (EAS) kann in derartigen Fällen die auditive Rehabilitation optimiert werden. Voraussetzung ist eine gehörerhaltende Implantationstechnik und die Verwendung von verkürzten Elektrodenträgern, die den apikalen (Tiefton-)Bereich nicht erreichen. Die apparative Versorgung erfolgt mit einem Sprachprozessor und einem schallverstärkenden Hörgerät bzw. mit einem kombinierten Gerät, welches das Schallsignal sowohl akustisch in verstärkter Form in den Gehörgang abgibt als auch in HF-Pulse für das Implantat verschlüsselt. Es ist gezeigt worden, dass eine große Zahl von Patienten von dieser Versorgung in Hinblick auf ihre sprachliche Diskriminationsleistung profitieren. Die Versorgung mit einem Cochlea-Implantat erfordert eine umfangreiche präoperative Diagnostik. Zu den über die Basisdiagnostik hinausgehenden Eignungstests gehören bildgebende Verfahren wie die Computertomographie (CT) zur Darstellung des Knochenaufbaus im Implantationsgebiet und die Kernspintomographie (MRT) für den Nachweis einer flüssigkeitsgefüllten Cochlea. Die Funktionsfähigkeit des Hörnervs wird in einem präoperativen Elektrostimulationsversuch geprüft. An eine extratympanale Gehörgangselektrode oder eine transtympanale Nadelelektrode, deren Spitze auf dem Promontorium bzw. in der Nische des runden Fensters liegt, wird ein Reizgerät
angeschlossen. Während der Darbietung elektrischer Pulse veränderlicher Frequenz und Stromstärke wird der Patient nach seinen Wahrnehmungen befragt. Bei allen Reizfrequenzen, die zu auditorischen Empfindungen führen, werden die Reizstromstärken ermittelt, die den subjektiven Wahrnehmungs- und Unbehaglichkeitsschwellen entsprechen. Wenn der subjektive Test nicht durchführbar ist, kann die Aktivität von Hörnerv und Hörbahn in Narkose mit elektrisch evozierten Potentialen objektiviert werden, doch führt dies wegen der elektrischen Reizartefakte nicht immer zu eindeutig interpretierbaren Ergebnissen. Die Implantation der Elektroden erfolgt in Vollnarkose. Der Elektrodenträger wird durch den ausgeräumten Warzenfortsatz (Mastoid), das Mittelohr und das runde Fenster bzw. eine unmittelbar daneben geschaffene Öffnung (Cochleostomie) in die Scala tympani eingeführt. Die Öffnung des Innenohres wird mit Gewebe und Kleber verschlossen und das Implantat mechanisch befestigt. Noch während der Operation kann die Funktion des Implantats und seine Wirkung auf das Hörsystem durch Beobachtung der Stapediusreflexes während der Stimulation des Hörnervs über Sprachprozessor und Implantat oder durch Ableitung der oben beschriebenen TECAP kontrolliert werden. Bei der Anpassung des Sprachprozessors ist der akustische Eingang stillgelegt und der Sprachprozessor an einen Computer angeschlossen, über den die Reizparameter gesteuert werden. Als wichtigste Parameter des Signalverarbeitungsprogramms müssen für alle Elektroden die Bereiche sinnvoller und zulässiger Reizstärken ermittelt werden. Entlang der geräteinternen Reizstärkeskala wird die Stromstärke und evtl. auch die Dauer der einzelnen Reizpulse gemäß einer für alle Elektroden gültigen logarithmischen Funktion erhöht. Aus den Reizstärken, die den subjektiven Schwellen- und Unbehaglichkeitswerten entsprechen, wird für jede Elektrode eine Transduktionsfunktion (mapping law) definiert, die die akustische Eingangsamplitude auf den verfügbaren elektrischen Dynamikbereich abbildet (⊡ Abb. 14.38). Zusätzlich können einige Formparameter dieser Funktion modifiziert werden, um die Lautstärkeempfindung zu beeinflussen oder die Störgeräuschunterdrückung zu verbessern. Die patientenspezifischen Parameter der Sprachcodierung beruhen auf subjektiven Angaben. Wenn diese nicht zuverlässig sind, kann die Anpassung durch objektive Verfahren, z. B. die Messung des elektrisch ausgelösten und contralateral registrierten Stapediusreflexes, der TECAP oder der akustisch evozierten Potentiale, ergänzt werden. Aus den Ergebnissen dieser Messungen kann die Funktion des Gesamtsystems überprüft werden und es lassen sich objektive Hinweise auf die Lage der akustischen und elektrischen Reizschwellen ermitteln. Im postoperativen Hörtraining erhält der Patient die für die Verarbeitung der neuartigen Eindrücke notwendige Anleitung und Unterstützung. Die auditorischen Fä-
14
246
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
⊡ Abb. 14.38. Wahrnehmungs- und Unbehaglichkeitsschwellen (WS bzw. US) für die 16 Elektroden eines (fiktiven) CI-Systems. Die vom Patienten angegebenen Grenzen des Dynamikbereiches (links) gehen in die Definition der Abbildungsvorschrift ein, die den akustischen Schalldruck mit der elektrischen Reizstärke verknüpft (rechts)
higkeiten werden mit einer nach Schwierigkeitsgraden gestaffelten Testbatterie ermittelt. Sie lassen sich in drei Stufen einteilen: Eine akustische Orientierung, d. h. eine Wahrnehmung und Erkennung von Umweltgeräuschen, ist bei allen Patienten zu erwarten, eine Unterstützung beim Lippenablesen gewährt das Implantat meistens auch prälingual ertaubten Patienten, ein offenes Sprachverständnis ohne Blickkontakt zum Sprecher und die Fähigkeit zur telefonischen Kommunikation wird hingegen i. Allg. nur von postlingual ertaubten Patienten erreicht. Grundsätzlich ist das Sprachverstehen im Störgeräusch für CI-Träger auch bei beidseitiger Versorgung problematisch. Ansätze zur Lösung dieses Problems beruhen auf digitaler Störgeräuschunterdrückung oder auf digitaler Verzögerung und Überlagerung des von mehreren Mikrophonen aufgenommenen akustischen Signals (adaptive beam forming). In dieser Hinsicht wie auch in anderen Bereichen ist die technische Entwicklung noch nicht abgeschlossen und die derzeit noch beständig zunehmenden Rehabilitationserfolge lassen weitere Fortschritte erwarten.
Literatur Abbas P, Brown C, Shallop J, Firszt J, Hughes M, Hong S, Staller S (1999) Summary of results using the Nucleus CI24M implant to record the electrically evoked compound action potential. Ear Hear 20: 45–59 von Békésy G (1960) Experiments in Hearing. McGraw-Hill, New York Böhme G, Welzl-Müller K (1993) Audiometrie. Hörprüfungen im Erwachsenen- und Kindesalter. Ein Lehrbuch. 3. Aufl. Hans Huber, Bern Boenninghaus HG, Lenarz T (2001) Hals-Nasen-Ohrenheilkunde für Medizinstudenten, 11. Aufl. Springer, Heidelberg Borucki H (1993) Einführung in die Akustik. BI, Mannheim Fricke J, Moser LM, Scheurer H, Schubert G (1983) Schall und Schallschutz: Grundlagen und Anwendungen. Physik-Verlag, Weinheim Hellbrück J (1993) Hören. Physiologie, Psychologie, Pathologie. Hogrefe, Göttingen Hoke M, Hoke EE (1997) Auditorische reiz- und ereigniskorrelierte Potentiale und Magnetfelder in der audiologischen Diagnostik. Verhandlungsber (Referate) d Dt Ges f HNO-Heilkunde, Kopf- und Hals-Chirurgie, 175–217. Springer, Heidelberg Hoth S (1999) Medizinische Akustik und Audiologie. In: Bille J, Schlegel W (Hrsg) Medizinische Physik Bd 1 Grundlagen. Springer, Heidelberg, S 305–427
Hoth S, Lenarz T (1994) Elektrische Reaktions-Audiometrie. Springer, Heidelberg Hoth S, Lenarz T (1997) Otoakustische Emissionen. Grundlagen und Anwendung, 2. Aufl. Thieme, Stuttgart Hoth S, Neumann K (2006) Das OAE-Handbuch. Otoakustische Emissionen in der Praxis. Thieme, Stuttgart Jerger J, Northern JL (1980) Clinical impedance audiometry, 2nd edition. Thieme, Stuttgart Keidel WD (1975) Physiologie des Gehörs. Akustische Informationsverarbeitung. Einführung für Ärzte, Biologen, Psychologen und Nachrichtentechniker. Thieme, Stuttgart Kießling J, Kollmeier B, Diller G (1997) Versorgung und Rehabilitation mit Hörgeräten. Thieme, Stuttgart Klinke R (1987) Die Verarbeitung von Schallreizen im Innenohr – Eine Übersicht über neuere Forschungsergebnisse. HNO 35: 139–148 Kompis M (2004) Audiologie. Huber, Bern Lehnhardt E, Laszig R (2001) Praxis der Audiometrie, 8. Aufl. Thieme, Stuttgart Lehnhardt B, Bertram B (1991) Rehabilitation von Cochlear-ImplantKindern. Springer, Heidelberg Mrowinski D, Scholz G (2002) Audiometrie. Eine Anleitung für die praktische Hörprüfung, 2. Aufl. Thieme, Stuttgart Pickles JO (1988) An introduction to the physiology of hearing, 2nd ed. Academic Press, London Roederer JG (1977) Physikalische und psychoakustische Grundlagen der Musik. Springer, Berlin Schorn K, Stecker M (1994) Hörprüfungen. In: Naumann H, Helms J, Herberhold C, Kastenbauer E (Hrsg) Oto-Rhino-Laryngologie in Klinik und Praxis. Bd 1: Helms J (Hrsg) Ohr. Thieme, Stuttgart Schorn K, Stecker M (1994) Hörgeräte. In: Naumann H, Helms J, Herberhold C, Kastenbauer E (Hrsg) Oto-Rhino-Laryngologie in Klinik und Praxis. Bd 1: Helms J (Hrsg) Ohr. Thieme, Stuttgart Sellick PM, Patuzzi R, Johnstone BM (1982) Measurement of basilar membrane motion in the guinea pig using the Mössbauer technique. J Am Soc Am 72: 131–141 Spillmann T, Wille C (2005) Audiometrie. Eine Anleitung für die Praxis. 2. Aufl. innoForce EST, Liechtenstein Stange G (1993) Funktionsprüfungen der Hör- und Gleichgewichtsorgane. Ein praktischer Leitfaden. Thieme, Stuttgart Steffens T (1996) Die sinnvolle Nutzung moderner Hörgerätetechnik. HNO 44: 213–222 und 273–285 Vonlanthen A (1995) Handbuch der Hörgerätetechnik. Median, Heidelberg Wagener K, Kollmeier B (2005) Evaluation des Oldenburger Satztests mit Kindern und Oldenburger Kinder-Satztest. Z Audiol 44: 134–143 Zenner HP (1994) Hören. Physiologie, Biochemie, Zell- und Neurobiologie. Thieme, Stuttgart Zwicker E, Fastl H (1990) Psychoacoustics. Facts and Models. Springer, Berlin Zwicker E, Feldtkeller R (1967) Das Ohr als Nachrichtenempfänger, 2. Aufl. Hirzel, Stuttgart
15 Computertomographie (CT) T.M. Buzug 15.1 Einleitung
– 249
15.5 Bedienung und Anwendungen – 260
15.2 Historie der Computertomographie – 250 15.2.1 Verwischungstomographie und Tomosynthese – 250 15.2.2 System-Generationen – 251 15.2.3 Spiral-CT – 253
15.6 Dosis
15.3.1 Röntgenröhre – 254 15.3.2 Detektorsystem – 255
15.4 Bildrekonstruktion
15.1
– 257
Fourier-Scheiben-Theorem – 257 Gefilterte Rückprojektion – 258 Rohdateninterpolation bei der Spiral-CT – 259 Artefakte – 259
Einleitung
Die Computertomographie (CT) ist heute genauso spannend wie zu Beginn ihrer Entwicklung in den sechziger und siebziger Jahren des letzten Jahrhunderts. Sie stellt das Verfahren dar, das als erstes axiale überlagerungsfreie Schnittbilder aus dem menschlichen Körper erzeugen konnte (⊡ Abb. 15.1). Die Erfindung der Computertomographie war ein enormer Schritt innerhalb der diagnostischen Möglichkeiten der Medizin. Heute gibt es einige konkurrierende Verfahren zur Computertomographie, allen voran die Magnetresonanztomographie (MRT).
a
b
– 265
15.7 Spezielle Systeme
15.3 Technologie – 254
15.4.1 15.4.2 15.4.3 15.4.4
15.5.1 Aufnahmeplanung – 261 15.5.2 Dreidimensionale Datenvisualisierung – 263 15.5.3 Klinische Applikationen – 264
c
⊡ Abb. 15.1a–c. Durch moderne, sehr schnelle CT-Scanner mit Multizeilen-Detektorsystemen lassen sich heute Ganzkörperübersichten aufnehmen, bei denen selbst kleinere Gefäße gut abbildbar sind
15.7.1 15.7.2 15.7.3 15.7.4 15.7.5
– 267
Elektronenstrahl-CT (EBCT) – 267 Volume-CT – 268 Mikro-CT – 268 PET-CT – 269 Dual-Source CT – 269
15.8 Dank
– 270
Literatur
– 270
Aber auch wenn seit Erfindung der Magnetresonanztomographie der Computertomographie immer wieder ihr Ende vorausgesagt wird, bleibt doch festzustellen, dass die überwiegende Zahl der Bilder aus der Radiologie derzeit durch CT erzeugt wird. In einigen Kliniken entfällt sogar der konventionelle Schockraum und wird durch einen CT-basierten, virtuellen Schockraum ersetzt. Die Tomographen sind in dieser Anwendung mit Anästhesie ausgestattet und die Erstversorgung der Patienten erfolgt intermittierend mit der Bildgebung. Gerade im Bereich der schnellen 3D-Diagnostik von Traumapatienten, bei denen vor der Messung nicht geklärt werden kann, ob eine Magnetresonanztomographie überhaupt durchgeführt werden darf, ist die Computertomographie der Standard. Neuerdings kommen darüber hinaus aber auch interessante technische, anthropologische und forensische sowie archäologische und paläontologische Anwendungen der Computertomographie hinzu, die die Stellung des Verfahrens über die Verwendung in der Medizin hinaus als allgemein-diagnostisches Werkzeug zur zerstörungsfreien Materialprüfung und dreidimensionalen Visualisierung weiter stärken. Aufgrund der einfachen Handhabung und der klaren physikalisch-diagnostischen Aussage sowie der Fortschritte bei der Reduktion der Strahlenbelastung wird die Computertomographie ihren festen Platz im radiologischen Umfeld behalten. Zu dieser Entwicklung hat ganz wesentlich der rasante Fortschritt der Röhren- und der Detektortechnologie beigetragen. Speziell bei den Detektorarrays sind kommerzielle Scanner aller großen Hersteller heute bei 64 Zeilen angelangt, und ein Ende der Entwicklung ist nicht abzusehen. Wenn
250
II
Kapitel 15 · Computertomographie (CT)
man heute von Tomographie spricht, so ist dies trotz der diagnostischen Konkurrenzverfahren wie MRT oder PET (Positronen-Emissions-Tomographie) immer noch ganz stark mit CT, also der Röntgen-Computertomographie, verbunden. Im englischsprachigen Raum wird die Computertomographie auch CAT (Computerized Axial Tomography) genannt. Die Darstellung eines Herzstents (⊡ Abb. 15.1b) oder der kleineren Gefäße (z. B. im Fußbereich, ⊡ Abb. 15.1c) sind heute klinische Routine. Und selbst wenn sich ein Chirurg auf den intraoperativen Eindruck des Bildverstärkers eines C-Bogens vorbereiten möchte, braucht man keine zusätzliche Röntgenaufnahme, denn aus dem präoperativ aufgenommenen tomographischen Schichtenstapel lassen sich synthetische Projektionen berechnen, die den konventionellen Aufnahmen praktisch gleichen. Aufgrund der hohen Qualität der Planungs-Übersichtsaufnahmen wird in einigen CT-basierten Schockräumen sogar auf konventionelle Röntgenaufnahmen verzichtet. Hinzu kommt, dass die Berufsgenossenschaften bei Arbeitsunfällen zunehmend auf einer tomographischen Abklärung bestehen. Auch deswegen ist CT in der Unfallklinik zur Standarddiagnostik avanciert. Bei schweren Traumata, Frakturen und Luxationen ist CT aber auch inhaltlich vorzuziehen. Eine Fraktur 20 sec stillzuhalten, ist für den verunfallten Patienten i. d. R. sehr schmerzhaft. Mit den neuen Multizeilen-Detektoren kann die Zeit für eine 3D-Bildakquisition heute wesentlich reduziert werden. Und hierbei ist CT der MRT auch technisch vorzuziehen, weil z. B. kleine abgesprengte Knochenteile (Fossikel) im MRT kaum sichtbar sind. Mit den modernen CT-Systemen ergeben sich neue Anforderungen an die Infrastruktur einer Klinik. Die zugunsten der Bildschirmbefundungsplätze ausgeschalteten Alternatoren sind dabei nur ein äußeres Zeichen dieses Wandels. Entscheidend sind natürlich ein leistungsfähiges PACS mit einem Kliniknetzwerk hoher Bandbreite. Darüber hinaus erfordert die Bilderflut der modernen Computertomographen ein anderes Umgehen der Ärzte mit den Daten. Tatsächlich ist heute nicht mehr die Akquisitionstechnik das zeitliche Nadelöhr bei einer Untersuchung, sondern die ärztliche Befundung. Da die großen Datensätze den Radiologen überfordern, ist zu beobachten, dass sich die Paradigmen ändern. Zunehmend sind nämlich dreidimensionale Bilder des Patienten Bestandteil der Befundung (⊡ Abb. 15.1). Der Arzt kann mit der 3D Rekonstruktion schneller befunden, als bei der Durchsicht von hunderten von Bildern. Dabei ist die Entwicklung der hochauflösenden Multizeilen-Detektoren wiederum eine Voraussetzung für qualitativ hochwertige Sekundärrekonstruktionen und ihre dreidimensionalen Visualisierungen. In diesem Kapitel soll die Historie der Computertomographie ( Abschn. 15.2), die moderne Technologie mit Schwerpunkt auf Röntgenstrahlenerzeugung und detektion ( Abschn. 15.3) sowie die Bildrekonstruktion
( Abschn. 15.4) besprochen werden. Darüber hinaus sind Aspekte der Bedienung und Anwendung ( Abschn. 15.5), der Dosis bei der Computertomographie ( Abschn. 15.6) sowie ein kleiner Abschnitt über spezielle CT-Entwicklungen enthalten ( Abschn. 15.7). Da dieses Kapitel nur den Charakter eines Überblicks besitzt, sei an dieser Stelle schon auf aktuelle Bücher verwiesen, die eine ausführliche Beschreibung der Technologie der Computertomographie geben (Kalender 2000, Seeram 2001, Hsieh 2003 u. Buzug 2004).
15.2
Historie der Computertomographie
Konventionelle Röntgenverfahren haben den schwer wiegenden Nachteil, dass sie lediglich Projektionsbilder liefern. Dies führt natürlich zu einem Verlust an räumlicher Information (das kann eine geübte Radiologin oder ein geübter Radiologe aber verschmerzen und durch Erfahrung ergänzen). Darüber hinaus stellt die Projektion aber eine Mittelung dar. Man kann sich dies so vorstellen, dass der Körper in einzelne Schichtbilder zerlegt wird, die zur Betrachtung alle übereinander gelegt werden. Dies ist auch für Experten weniger gut zu verschmerzen, da mit der Mittelung ein erheblicher Kontrastverlust gegenüber dem Kontrast einer einzelnen Schicht verbunden ist. In ⊡ Abb. 15.2a ist jeweils eine konventionelle Schädelaufnahme (links) und eine Knieaufnahme (rechts) zu sehen, die zwar die hohe Schwächung der Röntgenstrahlung im Bereich z. B. des Schädelknochens und ganz extrem die Schwächung im Bereich der Zahnfüllungen zeigt, die kleinen Röntgenschwächungsunterschiede, die die Weichteile charakterisieren, sind aber nicht zu erkennen. Insbesondere ist die Morphologie des Gehirns im Mittelungsprozess vollständig verloren gegangen. Beim Knie bilden sich durch die Überlagerung selbst die Knochenstrukturen nur mit geringem Kontrast ab.
15.2.1 Verwischungstomographie
und Tomosynthese Der Wunsch, den Mittelungsprozess, der die konventionellen Röntgenaufnahmen charakterisiert, rückgängig zu machen, führte in den 20er Jahren des letzten Jahrhunderts zu den ersten tomographischen Konzepten. Das Wort Tomographie setzt sich dabei aus den beiden griechischen Worten tomos (Schnitt) und graphein (zeichnen) zusammen. Das Wort Tomographie wurde ganz wesentlich durch den Berliner Arzt G. Grossmann geprägt, dessen Grossmann-Tomograph in der Lage war, eine einzelne Schicht im Körper abzubilden. Das Tomographieprinzip dieses Verfahrens ist in ⊡ Abb. 15.2b illustriert. Während der Röntgenaufnahme wird die Röntgenröhre linear in die eine Richtung und der Röntgenfilm
251 15.2 · Historie der Computertomographie
a
⊡ Abb.15.2a,b. Konventionelles Projektionsröntgen führt zu kontrastschwachen Bildern, die keine Weichteildiagnostik zulassen. a Zu sehen ist eine Schädelaufnahme (links), bei der die Feinheiten der räumlichen Strukturen des Gehirns nicht mehr zu erkennen sind. In der Knieaufnahme (rechts) sind selbst die knöchernen Strukturen sehr kontrastarm dargestellt. b Die ersten Versuche, Schnittbilder aus dem Körper zu erzeugen, begannen mit der so genannten Verwischungstomographie
b
simultan in die andere Richtung verschoben. Dadurch bilden sich nur Punkte in der Drehpunktebene scharf ab. Alle Punkte über- und unterhalb dieser Ebene werden auf dem Bild verwischt und zwar umso stärker, je weiter sie von der Ebene entfernt sind. Daher nennt man dieses Verfahren auch Verwischungstomographie (es wird auch »Tomosynthese« genannt, wenn die Projektionsbilder digital weiterverarbeitet werden). Natürlich sind die verwischten Informationen nicht verschwunden, sondern sie legen sich als Grauschleier über die scharfe Abbildungsebene, sodass auch hier ein erheblicher Kontrastverlust zu verzeichnen ist. Der Qualitätsgewinn gegenüber einer einfachen Durchleuchtung ist aber am Beispiel der tomosynthetisch aufgenommenen Schichtsequenz des Knies gut zu erkennen (Härer et al. 1999 und 2003). Ein verwandtes Verfahren, die so genannte Orthopantomographie, ist heute in der Dentalradiographie weit verbreitet. Mit diesem Verfahren wird eine Panoramadarstellung der Zahnreihen auf gekrümmten Schichten entlang des Kieferbogens dargestellt.
15.2.2 System-Generationen
Die Computertomographie vermeidet die Überlagerung von verwischten Ebenen und erzeugt damit einen großen Kontrast, sodass auch Weichteile gut abgebildet werden. Der diagnostische Qualitätssprung, der damit einherging, begründet den enormen Erfolg der Computertomographie. Etabliert ist eine Unterscheidung in vier Generationen von Computertomographen, die in ⊡ Abb. 15.3 zu sehen sind. Diese Unterscheidung ist historisch gewachsen und bezieht sich sowohl auf die Art, wie Röntgenquelle und Detektor konstruiert sind, als auch auf die Art, wie beide sich um den Patienten bewegen.
a
b
c
d
⊡ Abb.15.3a–d. Generationen von Computertomographen. a Erste Generation: Rotation-Translation des Nadelstrahls, b zweite Generation: Rotation-Translation eines kleinen Fächerstrahls, c dritte Generation: Rotation-Rotation eines großen Fächerstrahls und d vierte Generation: Rotation-Fix mit geschlossenem Detektorring
1. Generation Die erste Generation von Computertomographen besitzt eine Röntgenquelle, die einen einzelnen Nadelstrahl aussendet, der mit Hilfe von entsprechenden Kollimatoren aus dem Röntgenkegel selektiert wird. Diese Geometrie wird »Pencil«-Strahlform oder Nadelstrahlform genannt. Auf der der Röntgenquelle gegenüberliegenden Seite des
15
252
II
Kapitel 15 · Computertomographie (CT)
Messfeldes befindet sich ein einzelner Detektor, der synchron mit der Röntgenquelle unter verschiedenen Projektionswinkeln γ linear verschoben wird (⊡ Abb. 15.3a). Abhängig von den spezifischen Schwächungseigenschaften des Gewebes wird die Intensität des Strahls beim Durchgang durch den Körper geschwächt. Der erste CTScanner, den ein Außenseiter, nämlich die für Schallplatten bekannte Firma EMI gebaut hatte, beruhte auf dem Nadelstrahlprinzip. 1972 realisierte Godfrey N. Hounsfield (1919–2004) diesen ersten Computertomographen in den EMI Forschungslaboratorien. Dafür erhielt er 1979 zusammen mit Allen M. Cormack (1924–1998) den Nobelpreis für Medizin. Ein Photo des ersten EMI-Kopfscanners aus dem Jahre 1972 zeigt ⊡ Abb. 15.4. Die ersten kommerziellen Scanner besaßen tatsächlich einen eng fokussierten Röntgenstrahl und einen einzelnen NaI-Szintillationsdetektor. Dieses technisch heute nicht mehr realisierte Prinzip ist von grundsätzlicher Bedeutung, da die mathematischen Verfahren zur Rekonstruktion hier besonders einfach zu verstehen sind. Insbesondere kann man die mathematischen Verfahren für die moderneren Geometrien durch geeignete Koordinatentransformationen aus der Nadelstrahlgeometrie gewinnen. ⊡ Abb. 15.4 zeigt einen der ersten Tomographen der ersten Generation, der 1974 von Siemens produziert
wurde, sowie das Ergebnis eines axialen Kopfscans mit einer Bildmatrix von 80×80 Pixeln. Die weitere rasante Entwicklung der Computertomographie wurde und wird von drei wesentlichen Forderungen vorangetrieben: Reduktion der Aufnahmezeit, Reduktion der Strahlenbelastung und nicht zuletzt Reduktion der Kosten. Auf dem Weg, diese Faktoren zu optimieren, gibt es mehrere historische Stationen, die in den folgenden Abschnitten kurz besprochen werden sollen.
2. Generation Der Computertomograph der zweiten Generation besitzt eine Röntgenquelle mit Fächerstrahlgeometrie und ein kurzes Detektorarray mit etwa 30 Elementen (⊡ Abb. 15.3b). Allerdings ist die Fächerstrahlöffnung immer noch sehr klein, sodass auch hier Röhre und Detektor linear verschoben werden müssen, bevor ein neuer Projektionswinkel eingestellt werden kann. Bei den ersten Geräten betrug der Öffnungswinkel des Röntgenfächerstrahls etwa 10°. Immerhin konnte aber die Akquisitionszeit schon auf einige Minuten pro Schicht gesenkt werden, da man mit dem Array gleichzeitig mehrere Intensitäten messen kann. Das Messfeld war dennoch nur für Schädelaufnahmen geeignet.
⊡ Abb.15.4. Historische Entwicklung der CT-Scanner. 1972: EMI Kopfscanner (1. Generation); 1974: Siemens Siretom (1. Generation); 1975: Philips Tomoscan 200 (2. Generation); 2005 Philips Brilliance (3. Generation)
253 15.2 · Historie der Computertomographie
Dass bei dem Tomographen der ersten und zweiten Generation der Schädel als klinischer Applikationsschwerpunkt gewählt wurde, liegt im Wesentlichen an der langen Akquisitionszeit. Der Schädel ist gut zu fixieren und zeigt keine großen Bewegungen innerhalb der Aufnahmezeit. Das ist bei Aufnahmen in dem Bereich des Thorax oder des Abdomen natürlich anders, da die Bewegung des Herzens und der Lunge sowie über das Zwerchfell auch die Bewegung der weichen Organe des Abdomens zu Artefakten in den rekonstruierten Bildern führt. Die Rekonstruktionsmathematik erfordert es, dass alle zu rekonstruierenden Punkte einer Schicht über 180° durchleuchtet werden. Wenn aufgrund der Patientenbewegung ein Punkt während eines Umlaufs des Scanners aus der Schicht herauswandert, führt dies unweigerlich zu Fehlern in der Bildwiedergabe. ⊡ Abb. 15.4 zeigt den Philips Tomoscan 200 Scanner der zweiten Generation aus dem Jahr 1975.
3. Generation Das Hauptziel neuer Entwicklungen in den 70er Jahren des letzten Jahrhunderts war die Reduktion der Akquisitionszeit auf unter 20 s. Dies sollte ausreichen, um in einem Atemstopp des Patienten auch Bilder des Abdomens einigermaßen fehlerfrei zu rekonstruieren. Ein großer Entwicklungsschritt in diese Richtung war die konsequente Weiterführung des Fächerstrahlkonzeptes der zweiten Generation, nämlich die Einführung eines wesentlich größeren Öffnungswinkels des Röntgenfächers und ein dazugehöriges längeres Detektorarray. ⊡ Abb. 15.3c zeigt das Prinzip dieser dritten Generation wieder schematisch. Das rekonstruierbare Messfeld ist hier ebenfalls illustriert. Der Öffnungswinkel des Röntgenfächers ist typischerweise zwischen 40° und 60° groß und das Detektorarray ist i. d. R. als Detektorbogen mit heute zwischen 400 und 1000 Elementen ausgelegt. Auf diese Weise kann nun unter jedem eingestellten Projektionswinkel γ das gesamte Messfeld, in dem jetzt auch der Körperstamm liegen kann, simultan durchleuchtet werden. Somit kann man bei der dritten Generation ganz auf die lineare Verschiebung verzichten. Mit dieser Idee verkürzt sich die Akquisitionszeit erheblich, da eine kontinuierliche Drehung erfolgen kann, ohne dass Pausen für die lineare Verschiebung eingelegt werden müssen. Die überwiegende Zahl der heute installierten Geräte sind die Fächerstrahlsysteme der dritten Generation. ⊡ Abb. 15.4 zeigt zwei CT-Scanner der zweiten und der dritten Generation aus dem Jahre 1975 bzw. 2005. Während sich die Geräte äußerlich kaum unterscheiden, hat die Röhren- und Detektortechnologie in den letzten Jahrzehnten erhebliche Fortschritte gemacht.
4. Generation Die vierte Generation der Computertomographen unterscheidet sich hinsichtlich der Röntgenquelle nicht von
den Tomographen der dritten Generation. Auch hier dreht sich die Fächerstrahlquelle kontinuierlich ohne lineare Verschiebung um das Messfeld. Der Unterschied zur dritten Generation liegt im geschlossenen, ortsfesten Detektorring mit bis zu 5000 Einzelelementen. Hierbei kann die Röntgenröhre außerhalb (⊡ Abb. 15.3d) oder innerhalb des Detektorrings rotieren. Für die Anordnung der Röhre außerhalb des Detektorrings ist klar, dass der Röntgenstrahl nicht die der Quelle jeweils nahe liegenden Detektoren von hinten durchstrahlen soll. Daher wird der Detektorring gegenüber der Bahn der Röhre dynamisch geneigt, sodass die Sichtlinie zwischen der Röhre und dem Arbeitsbereich des Detektorrings nur durch den Patienten (und den Patiententisch) und nicht durch die Detektorelektronik geht. Tomographen der vierten Generation bilden so genannte inverse Fächerstrahlen aus, deren jeweilige Zentren die einzelnen Detektoren sind. Man nennt den inversen Fächer auch Detektorfächer im Unterschied zum Röntgenfächer der Tomographen dritter Generation. Lediglich beschränkt durch die Abtastrate, mit der die einzelnen Detektoren ausgelesen werden können, kann ein sehr dichter inverser Fächer gemessen werden. Auf diese Weise ist man im Gegensatz zu den Tomographen der dritten Generation in der räumlichen Auflösung des einzelnen Fächers im Prinzip nicht beschränkt.
15.2.3 Spiral-CT
Ein Entwicklungsschritt, der einen enormen Sprung in der Leistungsfähigkeit von Computertomographen der dritten Generation zur Folge hatte, ist die Einführung der Schleifringtechnologie. Mit ihr hatte man die Möglichkeit, den Patienten spiralförmig abzutasten. Da der Röntgenröhre kontinuierlich Energie zugeführt werden muss, war bei den ersten Scannern durch die Kabelzuführung der Winkelverfahrweg beschränkt. Dieses Problem war eine hohe Barriere bei der Reduktion der Akquisitionszeiten. Ständig musste die Abtasteinheit anfahren und wieder stoppen. Zwar hat man sowohl bei Links- wie auch der nachfolgenden Rechtsdrehung jeweils Daten akquiriert, aber durch die entstehenden Drehmomente war der Scangeschwindigkeit Grenzen gesetzt. Die Kabelverbindung wurde bei diesem Prozess in der einen Richtung abgewickelt und in der anderen Richtung vorsichtig wieder aufgewickelt. Gelöst wurde dieses Problem durch die Schleifringtechnologie. Die Energie wird hierbei durch Schleifkontakte von dem äußeren Rahmen, der so genannten Gantry, auf die sich drehende Abtasteinheit übertragen. Jetzt konnte die Abtasteinheit, die die Röntgenquelle und in der dritten Generation auch das Detektorarray trägt, kontinuierlich rotieren. Dabei sind heute Rotationsfrequenzen von 2 Umdrehungen pro Sekunde in so genannten Subsekundenscannern Standard.
15
254
II
Kapitel 15 · Computertomographie (CT)
Allerdings gibt es auch kleinere Kompaktgeräte, die ihre Unabhängigkeit von einer äußeren Energiezufuhr während der Rotation der Abtasteinheit durch Akkumulatoren herstellen. Ein Beispiel hierfür ist der mobile Tomoscan M Computertomograph von Philips. Dieser Tomograph kommt ganz ohne Schleifringtechnologie aus. Bei der Übertragung der Messdaten zurück auf die ruhende Gantry findet man grundsätzlich verschiedene Wege. Während viele Geräte ihre Daten auch über einen Schleifkontakt nach außen geben, wird bspw. beim Tomoscan M eine kontaktlose kapazitive RF-Übertragung genutzt. Bei der derzeitigen Entwicklung zu einer immer größer werdenden Detektorenanzahl bei gleichzeitiger Steigerung der Umdrehungsgeschwindigkeit stellt die Datenübertragung von der Abtasteinheit auf die Gantry einen Flaschenhals dar, der in neueren Geräten auch mit optischer Datenübertragung überbrückt wird. Die kabellose Energie- und Datenübertragung ermöglichte ein neues CT-Scanprotokoll. Bei kontinuierlichem Patiententischvorschub ist es nämlich nun möglich, Daten auf einer spiralförmigen Abtastbahn zu messen. Dieses Spiral-CT-Verfahren, auf das in Abschn. 15.4.3 noch einmal eingegangen wird, wurde 1989 von Willi Kalender an einem Prototypen erfolgreich demonstriert (Kalender et al. 1989).
15.3
Technologie
Computertomographen bestehen aus einem Frontend, dem eigentlichen Scanner, und einem Backend, der Bedienkonsole und der Viewing-Station. Sämtliche Komponenten des Frontends (Röntgenröhre, Filter, Blenden, Kollimator, Detektorsystem, Generator, Kühlsystem, Datenerfassungssystem, Schleifring, Patiententisch, Motorsteuerungen und Mechanik) sind heute technisch hoch entwickelt und haben zum Teil lange Entwicklungszeiten hinter sich. In diesem Abschnitt sollen aufgrund ihrer zentralen Bedeutung nur die Hauptkomponenten des Frontends besprochen werden, die Röntgenröhre und das Detektorsystem.
15.3.1 Röntgenröhre
Röntgenstrahlung ist elektromagnetischer Natur. Sie besteht aus Wellen des Wellenlängenbereichs 10-8 m bis 10-13 m und wird beim Eintritt schneller Elektronen in ein Metall erzeugt. Dabei ist die Energie der Röntgenstrahlung abhängig von der Geschwindigkeit v der Elektronen. Diese wiederum ist abhängig von der Beschleunigungsspannung UB zwischen Kathode und Anode, die von dem Bediener im CT-Scanprotokoll typischer Weise im Bereich zwischen 90 kV und 140 kV eingestellt werden kann. In der allgemeinen medizinischen Röntgendiag-
nostik liegen die Beschleunigungsspannungen zwischen 25 kV und 150 kV, für die Strahlentherapie zwischen 10 kV und 300 kV und für die Materialprüfung bei bis zu 500 kV. Während die Beschleunigungsspannung die Energie des Röntgenspektrums bestimmt, steuert der Anodenstrom, der ebenfalls durch den Bediener festgelegt wird, die Intensität des erzeugten Röntgenspektrums. Beim Eintritt der so beschleunigten Elektronen in die Anode, laufen dicht an der Anodenoberfläche mehrere Prozesse ab. Grundsätzlich werden die Elektronen durch die elektrischen Felder der Atome im Anodenmaterial abgelenkt und abgebremst. Die Abbremsung geschieht dabei in Wechselwirkungen mit den orbitalen Elektronen und dem Atomkern. Da beim Bremsen von Ladung Energie in Form einer elektromagnetischen Welle frei wird, entstehen Photonen. Meistens entstehen bei diesem Prozess mehrere Photonen. Es kann aber auch vorkommen, dass die gesamte Energie eines Elektrons in ein einzelnes Photon umgewandelt wird. Aufgrund der Vielfalt der Abbremsungsprozesse im Anodenmaterial ist das so genannte Bremsspektrum kontinuierlich. Zu dem kontinuierlichen Bremsspektrum überlagert sich ein Linienspektrum, das durch direkte Wechselwirkung der schnellen Elektronen mit inneren Hüllenelektronen des Anodenmaterials entsteht. Da die niederenergetische, so genannte weiche Röntgenstrahlung nicht zum Bildgebungsprozess beiträgt, wird sie direkt an der Röhre durch Metallfilter gedämpft. Der Wirkungsgrad der Energieumwandlung in Röntgenstrahlung liegt bei Wolframanoden (Kernladungszahl Z=74) mit einer Beschleunigungsspannung von UB = 100 kV in der Größenordnung von 1%. Damit hat man ein massives Wärmeproblem, denn die Anode wird an der Oberfläche bis zum Glühen erhitzt, darf aber nicht schmelzen. Um die thermische Belastung auf der Anode zu verteilen, werden seit einigen Jahrzehnten Drehanoden eingesetzt. Die Energie des Elektronenstrahls verteilt sich auf einer abgeschrägten Bahn, der so genannten Brennfleckbahn. In ⊡ Abb. 15.5a-c (Abb. 15.5 auch 4-Farbteil am Buchende) ist eine moderne Philips MRC 600 Röntgenröhre zu sehen. In einem Flüssigmetall-Spiralrillenlager wird die Drehanode direkt gekühlt. Durch den großflächigen Kontakt des Flüssigmetalls ist die Wärmeableitung sehr effizient. Die Größe und Form des Brennflecks auf dem Anodenteller beeinflusst die medizinischen Abbildungseigenschaften. Aufgrund der Schrägung des Anodentellers ist die Projektion der Brennfleckgeometrie in Richtung der austretenden Strahlung entscheidend für die Qualität der Abbildung. Man spricht daher von dem optischen Brennfleck, der möglichst klein gehalten werden muss. Üblich sind bei diagnostischen Röntgenröhren Brennfleckabmessungen zwischen 0.3 mm und 2 mm, wobei durch Fokussierung auf unterschiedliche Schrägungen häufig zwischen zwei Brennfleckgrößen umgeschaltet werden kann. Je größer der Brennfleck ist, desto besser ist die unerwünsch-
255 15.3 · Technologie
a
b
d
c
e
f ⊡ Abb. 15.5a–f. a Moderne Hochleistungsröntgenröhre, b Anschnitt und c Prinzip der Röntgenröhre mit Drehanode (Philips), d Prinzip des Multizeilen-Detektors, e kompletter Detektor eines 64-Zeilen CT-Systems (Siemens), f Realisierung eines 41 cm × 41 cm großen Flächendetektors mit 2048×2048 Pixeln (General Electric)
te Wärmeenergie auf der Anode zu verteilen, allerdings beeinträchtigt andererseits die Halbschattenunschärfe bei einem großen optischen Brennfleck die Schärfe des Bildes. Der mathematische Zusammenhang der Brennfleckgröße mit der Abbildungsqualität wird durch die so genannte Modulationstransferfunktion beschrieben. Ein weiterer Faktor, der in Bezug auf die Abbildungsqualität Beachtung finden muss, ist die Richtungscharakteristik der Röntgenstrahlung, denn die Intensität der Röntgenstrahlung sinkt für Strahlen, die die Anode streifend verlassen. Dieser Effekt beruht auf der Selbstabsorption der Anode im Bereich der Oberflächenrauhigkeit. Je kleiner der Winkel zwischen austretender Röntgenstrahlung und der Anodenoberfläche ist, desto stärker wirkt sich die Absorption aufgrund der Rauhigkeit entlang der Brennfleckbahn aus. Dieser so genannte Heel-Effekt verstärkt sich mit der Alterung der Röhre, da allmählich Material durch Elektronenbeschuss abgetragen wird, wodurch die Rauhigkeit der Brennfleckbahn zunimmt (Heinzerling 1998). In den modernen Computertomographen möchte man möglichst viel Röntgenstrahlung des an der Anode entstehenden Strahlkegels nutzen. Daher ist es wichtig, die Strahlcharakteristik der Röntgenröhre genau zu kennen, denn die Basis aller Rekonstruktionsverfahren ist die Annahme, dass das zu untersuchende Objekt
homogen ausgeleuchtet wird. Leichte Inhomogenitäten können durch spezielle röntgenseitige Filter sowie durch eine Detektorkalibrierung kompensiert werden.
15.3.2 Detektorsystem
Die Detektion von Röntgenstrahlung beruht auf Effekten der Wechselwirkung zwischen Strahlung und Materie. Das heißt, die Röntgenquanten werden nicht direkt gemessen, sondern nur die Wechselwirkungsprodukte wie z. B. Photoelektronen.
Gasdetektoren Da Röntgenstrahlung die Fähigkeit besitzt, Gase zu ionisieren, liegt es nahe, Detektoren zu verwenden, die auf diesem physikalischen Sachverhalt basieren. Das GeigerMüller-Zählrohr ist einer der bekanntesten Detektoren für ionisierende Strahlung. Tatsächlich wurden die ersten Versuche zur Computertomographie auch mit GeigerMüller-Zählrohrdetektoren realisiert. Auf dem gleichen physikalischen Prinzip basieren auch die Gasdetektoren, die in Tomographen der dritten Generation zum Einsatz kommen. Als Gas wird häufig Xenongas unter hohem
15
256
II
Kapitel 15 · Computertomographie (CT)
Druck in die Ionisationskammer gefüllt. Die Gleichung hν + Xe → Xe + + e - beschreibt dabei den ersten Teil des Detektionsprozesses. Die ionisierten Xenonatome und die Elektronen werden durch eine Hochspannung zur Kathode bzw. Anode beschleunigt und der Strom dort als Maß für die Intensität der eintretenden ionisierenden Strahlung gemessen. Die schwache Quanteneffizienz des Ionisationsprozesses kann durch hohe Kammern ausgeglichen werden. Die große Kammerhöhe bietet den Vorteil der Richtungsselektivität, denn je länger der Weg der Quanten durch das Gas ist, desto größer ist die Ionisierungswahrscheinlichkeit. Quanten mit schrägem Einfall legen nur einen kurzen Weg in der Kammer zurück.
Szintillationsdetektoren Die meisten Computertomographen sind heute mit Szintillationsdetektoren ausgestattet. Ein solcher Detektor besteht im Wesentlichen aus einem Kristall und einer Photodiode. Die einfallende (kurzwellige) Röntgenstrahlung wird in dem Szintillationskristall zunächst in (langwelliges) Licht umgewandelt. Diese Kristalle bestehen z. B. aus Cäsiumjodid, Wismutgermanat oder auch Cadmium-Wolframat. Für die Wahl der Kristalle spielen Anforderungen wie die Effizienz der Umwandlung von Röntgenstrahlung in Licht aber auch die Abklingzeit bzw. das Nachleuchten (Afterglow) der Kristalle eine große Rolle. Für sehr schnelle Abklingzeiten, die heute bei den Subsekundenscannern benötigt werden, kommen auch Keramiken wie Gadoliniumoxysulfid (Gd2O2S) zum Einsatz. Die einzelnen Detektorblöcke sind auf einem Kreisabschnitt an der sich drehenden Abtasteinheit angebracht. Dies ist in ⊡ Abb. 15.3c am Scanner der dritten Generation schematisch gezeigt. Damit möglichst nur Strahlung von der direkten Verbindungslinie zwischen Röntgenfokus und Detektor in den Kristall einfällt, verwendet man lamellenförmige Abgrenzungen zwischen den einzelnen Kanälen. Ohne dieses so genannte Streustrahlenraster, das einen detektorseitigen Kollimator darstellt, würde einfallende Störstrahlung die Bildqualität erheblich beeinträchtigen. Ein Nachteil des Streustrahlenkollimators liegt auf der Hand. Durch die zur Abschirmung gestreuter Röntgenstrahlung notwendige Lamellendicke von etwa 0.1 mm hat der Detektor nur eine geometrische Gesamteffizienz von 50–80%. Die Toträume reduzieren das Auflösungsvermögen.
Festkörper-Mehrzeilen-Detektoren Die im vorhergehenden Kapitel beschriebenen Kristall- bzw. Keramikdetektoren können durch Aneinanderreihung leicht zu mehrzeiligen Detektorarrays aufgerüstet werden. Die zentrale Forderung hierbei ist, dass die Toträume der Arrays möglichst klein bleiben. Quantitativ wird dies durch den so genannten Füllfaktor ge-
messen. Der Füllfaktor ist definiert als röntgensensitive Fläche des Sensors bezogen auf die Gesamtfläche des Sensors. Für die Xenondetektoren ist dies in kompakter Bauweise nicht möglich. Daher bestehen praktisch alle Mehrzeilensysteme aus Szintillationsdetektoren. Im Gegensatz zu den im technischen Einsatz häufig vorkommenden planaren Detektoren, sind in medizinischen Anwendungen zurzeit die zylindrischen Anordnungen in der Überzahl. So wie in ⊡ Abb. 15.5d schematisch illustriert, bildet das Mehrzeilensystem ein Segment eines Zylindermantels, dessen Zentrum in der Röntgenquelle liegt. ⊡ Abb. 15.5e zeigt einen modernen Detektor eines Siemens 64-Zeilen CT-Systems. Wenn die Anzahl der Zeilen dieser Detektoren so groß wird, dass die Neigung der zu rekonstruierenden Schicht nicht mehr zu vernachlässigen ist, sind größere Anstrengungen in der Rekonstruktionsmathematik ( Abschn. 15.4) erforderlich. Diese Anstrengungen werden aber mit einer verbesserten Bildqualität belohnt. Detektoren können so paarweise elektronisch zusammen geschaltet werden, dass sich die gewünschte Anzahl von gleichzeitig messbaren Schichten mit den dazugehörigen Schichtdicken ergeben.
Festkörper-Flat-Panel-Detektoren Wird bei großen Mehrzeilen-Detektorsystemen die Neigung der Schichten im Röntgenkegel innerhalb des Rekonstruktionsalgorithmus nicht berücksichtigt, dann ergeben sich Bildfehler, die in der diagnostischen Anwendung inakzeptabel sind. Da nun andererseits die Rekonstruktionsmathematik für eine echte Kegelstrahlrekonstruktion, die diese Artefakte vermeiden kann, ohnehin ein Umdenken in der praktischen Implementierung erfordert, ist es nahe liegend, das Mehrzeilenprinzip bei den Detektoren zu verlassen und direkt zu Flächendetektoren überzugehen. Das Kernstück des Detektors besteht aus einem Glassubstrat, auf dem eine Matrix aus 2048×2048 Sensoren mit einer Größe von je 200 µm aufgebracht ist (Brunst 2002). Dies geschieht in Dünnfilmbeschichtungstechnik monolithisch, sodass kein Aneinanderstückeln mehrerer kleinerer Panels erforderlich ist. In Kombination mit der Photolithographie sowie weiterer Ätzschritte ist diese Technik der übliche physikalisch-chemische Weg, der in der Mikroelektronik beschritten wird, um sehr feine Strukturen herzustellen. Mit dieser Verfahrensweise wird ein Detektorfeld mit sehr großem Füllfaktor erzeugt, wie dies mit den Detektortypen aus vorangegangenen Abschnitten nicht möglich wäre. Jedes einzelne Sensorelement besteht aus einer Photodiode aus amorphem Silizium und einem Dünnfilmtransistor (TFT). Auf die entstehende Pixelmatrix ist eine röntgenempfindliche Szintillationsschicht aus Cäsiumjodid (CsI) aufgebracht. Das einfallende Röntgenlicht wird zunächst vom CsISzintillator in Licht umgewandelt, das zu den dar-
257 15.4 · Bildrekonstruktion
unter liegenden Photodioden weitergeleitet wird. Die Photonen werden in den Photodioden absorbiert und erzeugen dort eine elektrische Ladung, die der Intensität der Röntgenstrahlung proportional ist. Während der Belichtung wird die Ladung in der Photodiode integriert und gespeichert. Der eigentliche Auslesevorgang wird durch den Dünnfilmtransistor gestartet, der die Ladung über die Datenleitung zur Ausleseelektronik schaltet. Dort finden eine Verstärkung und die Analog-DigitalWandlung statt. In ⊡ Abb. 15.5f ist ein unkonfektionierter Flat-Panel-Detektor mit den Datenleitungen zur Auswerteelektronik zu sehen. Der Flächendetektor besitzt eine über sehr weite Belichtungsbereiche lineare Dynamikkennlinie und einen sehr hohen Dynamikumfang. Hoch- und niedrigbelichtete Bereiche haben so die volle Kontrastinformation, was zu einer ausgezeichneten Hochkontrastauflösung führt. Im Bereich der Niedrigkontrastauflösung erreichen heutige Systeme allerdings noch nicht die Leistungsfähigkeit der dedizierten CT-Detektoren aus den vorangegangenen Abschnitten. Die zweite, für die spätere Bildqualität bedeutende Eigenschaft ist die exzellente Ortsauflösung. Um die Ortsauflösung zu optimieren, wird das Cäsiumjodid in einem speziellen Aufdampfprozess so auf die Matrix aufgebracht, dass es in direkten Kontakt mit der darunter liegenden Photodiodenmatrix kommt. Dabei gelingt es, das Cäsiumjodid in Form feiner Nadeln zu strukturieren. Werden innerhalb dieser Struktur durch einfallende Röntgenquanten Photonen freigesetzt, dann wirken die Nadeln wie kleine Lichtfasern, sodass die Photonen sich überwiegend entlang dieser Strukturen bewegen. Damit bewegen sie sich also entweder auf direktem Wege zur Photodiode oder zunächst in entgegengesetzter Richtung von der Photodiode weg, um an der Oberkante der CsISchicht reflektiert zu werden und dann zur Photodiode zu gelangen. Dieser Lichtleiteffekt ist das Geheimnis der hohen Quanteneffizienz der digitalen Detektoren. Man kann nämlich so die röntgensensitive Schicht des Detektors sehr dick aufdampfen, ohne dass durch breitere Streuung die Ortsauflösung beeinträchtigt wird. Das Szintillationslicht bleibt durch die CsI-Fasern auf einen sehr kleinen Fleck auf der Photodiodenmatrix gebündelt. In Abschn. 15.7, ⊡ Abb. 15.12b ist ein Prototyp eines solchen Volumen- bzw. Kegelstrahl-CT mit einem FlatPanel-Detektor zu sehen.
15.4
Bildrekonstruktion
Das zentrale Problem der Computertomographie ist leicht formuliert: Man rekonstruiere ein Objekt aus den Projektionen dieses Objektes. Mathematisch handelt es sich bei der Computertomographie um ein so genanntes inverses Problem. Die Bedeutung des mathematischen Begriffs
des inversen Problems erschließt sich sofort, denn man hat keinen direkten Einblick in die räumliche Verteilung der Objekte, die man darstellen möchte. Man hat nur die Projektionen entlang der sich drehenden Detektorkoordinate, und zwar gemessen über einen Winkel von mindestens 180°, aus denen man nun – gewissermaßen rückwärts – die räumliche Verteilung der Objekte berechnen muss. Es handelt sich hierbei um die Inversion von Integraltransformationen. Aus einer Sequenz von gemessenen Projektionen {pγ1(ξ), pγ2(ξ), pγ3(ξ), ....} muss also die verborgene Anatomie – genauer, die räumliche Verteilung der Schwächungskoeffizienten µ(ξ,η) innerhalb einer gewählten Schicht durch den Körper – errechnet werden.
15.4.1 Fourier-Scheiben-Theorem
Abhängig vom Weg η, den die Röntgenstrahlen durch den Körper nehmen (von der Röntgenröhre η = 0 bis zum Detektor η = s), wird die Intensität in unterschiedlichem Ausmaß geschwächt. Nach dem Logarithmieren der mit dem Detektorelement ξ gemessenen Intensität erhält man die Summe der Schwächungen pγ(ξ) entlang des Röntgenstrahls aus der Richtung γ. Um ein Bild des Körperinneren zu berechnen, ist es erforderlich, dass jeder Punkt des Messfeldes aus allen Richtungen γ, also über mindestens 180° durchleuchtet wurde. In ⊡ Abb. 15.6a sind die Schwächungsprofile pγ(ξ) über dem Winkel γ aufgetragen. Durch die kreisförmige Bewegung der Röntgenröhre und Detektoreinheit um den Patienten ergibt sich eine sinusförmige Struktur in dieser Datenrepräsentation, daher wird dieses Diagramm auch Sinogramm genannt. Das »Sinogramm« stellt die Sammlung der Rohdaten des Abtastprozesses dar. Mathematisch handelt es sich um den so genannten Radonraum, benannt nach dem böhmischen Mathematiker Johann Radon (Radon 1917). Das zentrale mathematische Hilfsmittel zur Bildrekonstruktion aus den Projektionen ist das FourierSchichten- oder Fourier-Scheiben-Theorem (engl.: Fourier-Slice- oder Projection-Slice-Theorem). Dieses Theorem stellt einen Zusammenhang zwischen den jeweiligen Fouriertransformierten des Radonraums und des zu rekonstruierenden Bildes her. Es besagt nämlich, dass man die eindimensionale Fouriertransformierte Pγ(q) des gemessenen Projektionsprofils pγ(ξ) in der zweidimensionalen Fouriertransformierten F(u,v) des gesuchten Bildes f (x,y) unter dem Winkel γ findet, unter dem das Profil gemessen wurde. Dabei gilt, dass u=q cos(γ) und v=q sin(γ). Würde man den Fourierraum F(u,v) über alle gemessenen Winkel γ auf diese Weise füllen, so könnte man mit einer zweidimensionalen inversen Fouriertransformation das gesuchte Bild erhalten. Diese so genannte direkte Rekonstruktion wird aufgrund von Interpolationsproblemen heute allerdings nicht verwendet.
15
258
Kapitel 15 · Computertomographie (CT)
c
a
II
b
d
⊡ Abb. 15.6a–g. Von den Rohdaten zum rekonstruierten Bild. a Sinogramm der Schwächungs- und Projektionswerte, b hochpassgefilterte Projektionswerte, c Rückverschmierung der gefilterten Projektion, d Akkumulation aller Rückverschmierungen der gefilterten und e der ungefilterten Projektionsprofile, f Datenakquisition bei der Spiral-CT, g Rohdateninterpolation bei der Spiral-CT
e f
15.4.2 Gefilterte Rückprojektion
In praktisch allen CT-Scannern ist derzeit die gefilterte Rückprojektion implementiert. Im Rahmen dieses Verfahrens wird das Sinogramm einer Hochpassfilterung unterworfen. Dies geschieht im Frequenzraum durch lineare Gewichtung von Pγ(q) mit |q|. Das Ergebnis hγ(ξ) der Filterung des gemessenen Schwächungsprofils pγ(ξ) ist in ⊡ Abb. 15.6b illustriert. Es ist gut zu sehen, dass die sinusförmige Struktur der Daten erhalten bleibt. Allerdings sind in hγ(ξ) aufgrund der Hochpassfilterung nur die Änderungen von pγ(ξ) enthalten. Das hochpassgefilterte Projektionsprofil hγ(ξ) wird in einem zweiten Schritt nun über das zu berechnende Bildfeld zurückverschmiert, und zwar in die Richtung γ, aus der das Projektionsprofil pγ(ξ) ursprünglich auch gemessen wurde. Dieser Vorgang ist in ⊡ Abb. 15.6c für einen einzigen Winkel γ schematisch illustriert. Das Bild ist an dieser Stelle natürlich noch nicht zu erkennen. In ⊡ Abb. 15.6d ist die gefilterte Rückprojektion für eine ansteigende Anzahl von Projektionswinkeln Np={1,2,3,10,45,180} dargestellt. Nur bei einer großen Anzahl von Projektionsmessungen kann auf diese Weise das Bild rekonstruiert werden, da die Fehler der einzelnen
g
Rückverschmierung durch alle anderen gemessenen Projektionen im Überlagerungsprozess kompensiert werden müssen. In ⊡ Abb. 15.6e ist dargestellt was passiert, wenn man auf die Hochpassfilterung verzichten und das Projektionsprofil pγ(ξ) direkt zurückverschmieren würde. Diese ‚naive’ Vorgehensweise führt zu einem sehr verschwommenen Bild, das diagnostisch ungeeignet ist. Wenn man das Scanprotokoll am CT vorbereitet, muss man immer auch ein Filter auswählen. Dieses Filter bezieht sich auf die Art der oben beschriebenen Hochpassfilterung. Die lineare Gewichtung von Pγ(q) mit |q| ist das mathematisch ideale Filter. In der Praxis ist es oft empfehlenswert, die Gewichtung im Frequenzraum weniger progressiv zu wählen. Der Anwender kann von einer Filterbank eine Vielzahl von Filtertypen von ‚sehr weich’ bis ‚sehr scharf ’ auswählen, die auf die jeweils zu untersuchende Anatomie angepasst sind. Die optimale Wahl eines Filters ist immer ein Kompromiss zwischen einer hohen räumlichen Auflösung mit einem stärkerem Bildrauschen und einem glatteren Bild mit kleinerer räumlicher Auflösung. Eine Normierung dieser Filter, die gelegentlich mit Faltungskern, Rekonstruktionsalgorithmus, Rekonstruktionsfilter oder Filterkernel bezeichnet werden, gibt es nicht.
259 15.4 · Bildrekonstruktion
15.4.3 Rohdateninterpolation bei der Spiral-CT
Einen ersten Schritt zu einer echten CT-Volumenaufnahme stellt das so genannte Spiralverfahren ( Abschn. 15.2.3) dar, das Kalender 1989 auf der jährlich stattfindenden Konferenz der RSNA (Radiological Society of North America) zum ersten Mal präsentierte (Kalender et al. 1989). Die Unzulänglichkeiten des einfachen Schichtenstapels sind leicht einzusehen. Jede Schicht hat aufgrund der vorgegebenen Kollimation eine gewisse Breite, man spricht von der Schichtdicke. Innerhalb dieser Schichtdicke wird die Intensität gewichtet mit dem Empfindlichkeitsprofil gemittelt. Diese Mittelung ist immer dann ein Problem, wenn sich das Objekt durch schräg zur axialen Schicht verlaufende Kanten auszeichnet, also die abzubildende Struktur sich in der Vorschubrichtung des Patiententisches schnell ändert. Dann führt die Mittelung zu einer Stufigkeit des Schichtenstapels, die der abzubildenden Struktur ein treppenförmiges Erscheinungsbild gibt. Mit der Entwicklung der Schleifringtechnologie, die in Abschn. 15.2.3 schon kurz beschrieben ist, wurde es möglich, das Abtastsystem, also die Röhren-Detektorarray-Anordnung, kontinuierlich drehen zu lassen. Wird der Patiententisch während dieser Drehung ebenfalls auf kontinuierlichen Vorschub gesetzt, dann umläuft die Röntgenquelle den Patienten auf einer besonderen Spiralbahn, nämlich einer Helix (⊡ Abb. 15.6f ). Bei dieser Überlegung geht man von einem Koordinatensystem aus, das sich mit dem Patiententisch bewegt, denn natürlich läuft die Röntgenquelle weiterhin auf einer Kreisbahn. Nur aus Sicht des Patienten ergibt sich die Spiralbahn. Damit ist eine lückenlose Erfassung des zu untersuchenden Objektes möglich, wobei im Vergleich zur konventionellen Tomographie die Aufnahmezeit für ein Volumen entscheidend verkürzt werden konnte. Es ist zunächst überraschend, dass die Spiral-Computertomographie überhaupt funktioniert. Voraussetzung für die Rekonstruktionsverfahren, die in den vorangegangenen Abschn. 15.4.1 und 15.4.2 beschrieben wurden, ist die Vollständigkeit der Daten. Das bedeutet, ein Objekt im Messfeld kann nur dann fehlerfrei rekonstruiert werden, wenn alle Punkte des Objektes von allen Seiten – also über 180° – durchstrahlt wurden. Diese Forderung ist der Grund dafür, warum konventionelle CT-Aufnahmen am Herzen praktisch unmöglich sind, denn innerhalb der Drehung der Abtasteinheit um das Herz, bewegt sich dieses aus der zu rekonstruierenden Schicht heraus. Damit passen die der Rekonstruktion zugrunde liegenden Projektionsdaten aus unterschiedlichen Richtungen nicht mehr zusammen. Das rekonstruierte Tomogramm leidet dann unter so genannten Bewegungsartefakten ( Abschn. 15.4.4). Bei der Spiral-CT ist die Bewegung der zu rekonstruierenden Objekte aufgrund des kontinuierlichen Patiententischvorschubs gerade die entscheidende Innovation gegenüber der konventionellen Computertomographie. Damit ist
aber die Bahn keine geschlossene Kreisbahn mehr und die Daten liegen zur Rekonstruktion nicht vollständig vor. Die zentrale Idee der Rekonstruktion beim Spiralverfahren ist nun, dass die fehlenden Daten einer Schicht durch Interpolation ergänzt werden (⊡ Abb. 15.6g). Hat man dies erledigt, dann steht das im vorangegangenen Abschn. 15.4.2 beschriebene Rekonstruktionsverfahren wieder uneingeschränkt zur Verfügung. ⊡ Abb. 15.6g zeigt das einfachste Prinzip einer Schichtinterpolation. Die Steighöhe der Helix, also der Weg, den der Patiententisch während einer 360°-Umdrehung der Abtasteinheit zurücklegt, sei hier mit s bezeichnet. Man kann nun eine beliebige Schichtlage zr wählen, denn wegen des gleichmäßigen Tischvorschubes ist aus Sicht der Datenlage keine axiale Position bevorzugt. Für die gewählte Schicht gibt es zunächst nur einen einzigen Winkel γr, für den der Projektionsdatensatz pγ (ξ) vorliegt. Die Projektionsdaten pγ (ξ) aller anderen r Winkel müssen entsprechend interpoliert werden. Dabei geht man so vor, dass man die Daten, die unter den anderen benötigten Projektionswinkeln innerhalb der gewählten Schichtposition zr nicht gemessen wurden, aus den jeweils nächstliegend benachbarten, tatsächlich gemessenen Winkeln der Helixbahn interpoliert. Die Steighöhe der Helix s, bezogen auf die eingestellte Kollimatorbreite, definiert den so genannten Pitch als Parameter des Spiralverfahrens.
15.4.4 Artefakte
Artefakte sind Bildfehler, die durch die Art der Rekonstruktion – das ist heute in der Praxis die gefilterte Rückprojektion – oder durch den Einsatz spezieller Technologien oder Anordnungen bei der Messwerterfassung entstehen. Die Kenntnis der Ursachen von Artefakten ist die Voraussetzung für Gegenmaßnahmen. Diese Gegenmaßnahmen sind umso wichtiger, da es in der Natur der gefilterten Rückprojektion liegt, Artefakte über das gesamte Bild zu verschmieren und so den diagnostischen Wert des gesamten Bildes zu reduzieren oder ganz zu vernichten. An dieser Stelle soll nur eine kurze Übersicht über potenziell auftretende Artefakte gegeben werden. Eine ausführliche Diskussion findet man bei Buzug 2004. Teil- oder Partialvolumenartefakte. Durch die endliche Detektorbreite werden Intensitätswerte über einen Raumwinkelbereich gemittelt. Insbesondere bei der Messung von Objektkanten kommt es dadurch zu Inkonsistenzen der Projektionsprofile zwischen den einzelnen Winkeln. Als Konsequenz funktioniert die empfindliche Kompensation der Rückverschmierung (so wie in ⊡ Abb. 15.6d illustriert) nicht mehr. Neben einer verschmierten Darstellung von Objekten werden Objektkanten über das Objekt hinaus verlängert. Diese Artefakte lassen sich nur durch ein feineres Detektorarray und durch dünnere Schichten verringern.
15
260
II
Kapitel 15 · Computertomographie (CT)
Aufhärtungsartefakte. Die gefilterte Rückprojektion geht davon aus, dass monochromatische Röntgenstrahlung verwendet wird. Normale Röntgenröhren ( Abschn. 15.3.1) erzeugen aber polychromatisches Röntgenlicht. Da die Schwächungskoeffizienten der Materie wellenlängenabhängig sind, ergibt sich bei niederenergetischer Strahlung ein anderes Bild als bei hochenergetischer Strahlung. Da im Detektor die ankommenden Röntgenquanten unabhängig von ihrer Energie detektiert werden, ergeben sich konsequenter Weise Inkonsistenzen zwischen den Projektionen. Metallartefakte. Metalle in Form von Zahnfüllungen, wie Amalgam oder Gold, sowie Hüftprothesen aus Stahl absorbieren auch die hochenergetische Röntgenstrahlung stärker als das umliegende Gewebe und führen zu inkonsistenten Schwächungswerten. Im rekonstruierten Bild führt dies häufig zu dunklen Streifen zwischen den Metallobjekten und zu sternförmigen, von den Objekten ausgehenden Streifen, die das umliegende Gewebe überlagern und hierdurch die diagnostische Beurteilung erschweren. Zurückzuführen sind diese Probleme auf ein niedriges Signal-Rausch-Verhältnis im Bereich des Metallschattens, ein erhöhtes Verhältnis von Streustrahlung zu Primärstrahlung und auf Strahlaufhärtungsartefakte. Bewegungsartefakte. Bisher wurde immer davon ausgegangen, dass sich die Morphologie innerhalb der zu rekonstruierenden Schicht während der Datenakquisition nicht ändert. Muss man aber die zeitliche Veränderung des Schwächungskoeffizienten ebenfalls berücksichtigen, so ergibt sich das Problem der Rekonstruktion bei sich ändernder Datengrundlage. Die gemessenen Daten beim Umlauf des Abtastsystems um den Patienten sind damit inkonsistent. Ziel der heutigen Entwicklung von Computertomographen, gerade in Bezug auf die Zeitkonstanten bei anatomischen bzw. physiologischen Bewegungen, ist die Beschleunigung der Datenakquisition. Abtastartefakte. Das Shannon’sche Abtasttheorem darf auch bei der Computertomographie nicht verletzt werden. Das gilt sowohl für die Rekonstruktion einer axialen Schicht als auch für die so genannte sekundäre Rekonstruktion von 3D-Datenansichten durch Schichtenstapelung ( Abschn. 15.5.3). Auch hier führt die Unterabtastung eines Signals zu den typischen Aliasing-Artefakten. Speziell für die verwendeten Detektorarrays mit rechteckigem Empfindlichkeitsprofil gibt es das inhärente Abtastproblem, dass die einzelnen Elemente eigentlich im halben Abstand ihrer eigenen Breite angeordnet sein müssten. Da diese Forderung aus nahe liegenden Gründen technisch nicht umsetzbar ist, behilft man sich mit eleganten technischen Tricks. Die heute realisierte Gegenmaßnahme gegen das Aliasing ist entweder die Detektorviertelverschiebung oder der so genannte Flying-Focus der Röntgenröhre.
Elektronische Artefakte (Ringartefakte). Es gibt eine Reihe von elektronischen Defekten, die zur Verschlechterung, überwiegend sogar zur Unbrauchbarkeit des Bildes beitragen. Ein häufiger elektronischer Defekt ist ein Ausfall eines Detektorkanals. Diese Fehler sind bei Computertomographen der dritten Generation anzutreffen und werden Ringartefakte genannt. Durch die feste Verbindung zwischen Röntgenquelle und Detektorarray macht sich der Ausfall eines einzelnen Detektorelementes spezifisch bemerkbar. Im Verlauf der gefilterten Rückprojektion bilden die Verbindungslinien zwischen dem betreffenden Detektorelement und der Röntgenquelle die Tangenten eines Kreises. Es entstehen nun für jeden Punkt jeder Linie Inkonsistenzen mit den Messwerten der jeweils anderen Projektionsrichtungen und deren korrespondierenden Detektoren. Streustrahlenartefakte. Während es für das Detektorelement, das im direkten Strahlengang liegt, im Prinzip egal sein kann, welcher physikalische Mechanismus der Wechselwirkung von Röntgenstrahlung mit Materie im Detail die Intensität verringert, können andere Detektorelemente, die außerhalb der direkten Verbindungslinie liegen, sehr wohl unter bestimmten Wechselwirkungen leiden. Besonders im Bereich stärker schwächender anatomischer Objekte wie z. B. Schulter, Bauch und Becken kann es zu Messwertverfälschungen durch Streustrahlung mit einem beträchtlichen Anteil am Gesamtsignal kommen. Während die Streustrahlung für alle Projektionswinkel in etwa gleich groß ist, gilt dies für das Nutzsignal nicht. In Projektionsrichtungen, in denen stark absorbierende Objekte hintereinander liegen, kann das Nutzsignal so schwach werden, dass die Streustrahlung das Signal dominiert. Bei der gefilterten Rückprojektion kommt es dann aus dieser Projektionsrichtung zu Inkonsistenzen, die zu streifenartigen Artefakten führen.
15.5
Bedienung und Anwendungen
In den nächsten Abschnitten werden einige wichtige Gesichtspunkte aus der Praxis der Computertomographie dargestellt. Dazu zählen sowohl die Aufnahmeplanung als auch die Datenaufbereitung und Datendarstellung. Bei den klinischen Anwendungen der Computertomographie ist die Planung der Aufnahmen besonders wichtig, denn aufgrund der systembedingten Strahlendosis, die im Patienten platziert wird, können Aufnahmen nicht beliebig wiederholt werden. Neben der Planung, also der Vorbereitung der Bildakquisition, ist auch die Kenntnis der Darstellungsformen, also der Nachverarbeitung sehr wichtig, denn aus den Bildern kann mit Hilfe moderner Visualisierungstechniken sehr viel an Information gewonnen werden.
261 15.5 · Bedienung und Anwendungen
15.5.1 Aufnahmeplanung
Das wichtigste Element der Planung einer computertomographischen Aufnahme ist die so genannte Übersichtsaufnahme, die je nach Hersteller z. B. Topogram (Siemens), Scanogram (Philips) oder Scout View (General Electric) genannt wird. Um diese Aufnahme zu akquirieren, wird die Drehung der Abtasteinheit gestoppt und die Abtasteinheit in eine feste Position gebracht. Möglich ist im Prinzip jede Position, typische Positionen sind aber anterior-posterior (a.p.), das ist die Durchleuchtung von der Patientenvorderseite zur Patientenrückseite und lateral, das ist die seitliche Durchleuchtung. Während der Durchleuchtung wird der Patiententisch kontinuierlich durch das Messfeld geschoben. Beispielhafte Bildergebnisse für eine a.p. und eine laterale Übersichtsaufnahme sind in ⊡ Abb. 15.7a dargestellt. Mit Hilfe der a.p. Übersichtsaufnahme kann jetzt eine bestimmte Schichtebene, die Schichtdicke und die Anzahl der Schichten bzw. das Volumen geplant und programmiert werden. Bei der lateralen Übersichtsaufnahme ergibt sich zusätzlich die Möglichkeit, bestimmte Schichtorientierungen durch Verkippung der Gantry zu programmieren. Dies ist bei Schädel- und Wirbelsäulentomogrammen häufig gewünscht. ⊡ Abb. 15.7a zeigt die a.p. Übersichtsaufnahme eines Thorax. Typischerweise werden hier axiale Schichten in 8 bis 10 mm Dicke und Abstand gemessen. Bei Untersuchungen der Lendenwirbel ist eine der Orientierung der einzelnen Wirbelkörper angepasste Gantryverkippung zu planen. ⊡ Abb. 15.7a zeigt, dass es nur so gelingt, bspw. die Bandscheiben flächig abzubilden. ⊡ Abb. 15.7b,c zeigt zwei unterschiedliche Schädelorientierungen. Möchte man koronale Schädelaufnahmen akquirieren, so ist dies durch entsprechende Lagerung des Patienten möglich. In ⊡ Abb. 15.7b ist eine laterale Übersichtsaufnahme eines Patienten zu sehen. Der Patient ist auf dem Bauch gelagert und sein Kopf ist weit in den Nacken überstreckt. Diese Überstreckung ist erforderlich, da die Verkippungsmöglichkeit der Gantry beschränkt ist. Zwei tomographische Schichten sind jeweils rechts in ⊡ Abb. 15.7b,c zu sehen. Fragestellungen solcher Aufnahmen sind neben der Ausdehnung einer chronischen Sinusitis häufig auch die Beurteilung von Frakturen. In der Schicht 1 sind Artefakte durch Zahnfüllungen deutlich erkennbar. Die Schicht 2 zeigt einen Anschnitt der vorderen Schädelkalotte mit Spongiosa. In beiden Aufnahmen sind freie Nasennebenhöhlen zu erkennen.
Hounsfield-Skala und Grauwertedarstellung Bei der Computertomographie werden die rekonstruierten Schwächungswerte μ als Graustufen dargestellt. Dabei hat sich ein Vorschlag von Hounsfield durchgesetzt, die Schwächungswerte auf eine dimensionslose Skala zu
transformieren und dabei auf Wasser zu beziehen. Die Definition dieser CT-Werte ist durch
CT-Wert =
µ − µWasser 1000 µ
gegeben. Die Einheit dieser Werte wird zu Ehren Hounsfields
[CT-Wert ] = HU Hounsfield-Einheit (Hounsfield Unit: HU) genannt. In dieser Skala erhält Luft den CT-Wert -1000 HU und Wasser den CT-Wert 0 HU. Die Skala ist im Prinzip nach oben hin offen, praktisch endet sie aber bei etwa
a
b
c
⊡ Abb. 15.7a–c. a Erstellung einer Übersichtsaufnahme zur Planung der Schichtebenenlage. Bei fester Röhren-Detektor-Position wird der Patiententisch kontinuierlich durch die Abtasteinheit geschoben. Man erhält so Projektionsbilder, wie sie vom Durchleuchtungsröntgen bekannt sind. Typisch sind zwei Geometrien: Lateral und anteriorposterior (a.p.). b,c Laterale Übersichtsaufnahmen zur Planung der Schichtlage bei Kopftomogrammen. Aufgrund der begrenzten Kippfähigkeit der Gantry muss der Patient für eine koronale Darstellung des Gesichtsschädels in Bauchlage den Kopf in den Nacken überstrecken: Schicht (1) und (2). Im Vergleich dazu axiale Aufnahmen ohne Verkippung der Gantry: Schicht (3) und (4)
15
262
II
Kapitel 15 · Computertomographie (CT)
3000 HU. Der Wertebereich von insgesamt 4000 HU ist durch Bilder mit einer Graustufentiefe von 12 Bit gut zu erfassen. Diese Skalierung ist willkürlich hat aber praktische Konsequenzen. Da sich die Schwächungswerte fast aller Organe – ausgenommen Knochen – nur wenig von Wasser unterscheiden, ist durch Hounsfields Gleichung eine Abweichung in Promille von dem Schwächungswert von Wasser gegeben. Radiologen sind es gewohnt, die CT-Werte als absolute Werte zu sehen, die Organen eindeutig zuzuordnen sind. Abweichungen dieser CT-Werte für bestimmte Organe stellen Pathologien dar. In Abschn. 15.4.4 wurde schon auf die Abhängigkeit der Röntgenschwächung von der Wellenlänge der Strahlung hingewiesen und die dadurch möglichen Artefakte besprochen. Dieses grundsätzliche Problem, das sich für alle in der diagnostischen Bildgebung verwendeten Tomographen ergibt, ist eine Konsequenz der Verwendung polychromatischer Röntgenstrahlung. Beim Durchlaufen des Körpers verändert sich die spektrale Verteilung der Strahlung, sodass eine eindeutige Zuordnung von Schwächungswerten eigentlich nicht möglich ist. Dennoch ist die Sicht der Radiologen weitestgehend gerechtfertigt, da sich die meisten Organe strahlenphysikalisch wie Wasser verhalten, sodass durch eine Kalibrationsmessung, die mit Wasser durchgeführt wird, für diese Gruppe eine Aufhärtungskorrektur möglich ist. Man kann die gesamte Hounsfieldskala in diagnostisch relevante Bereiche unterteilen. In ⊡ Abb. 15.8a ist das Histogramm der relativen Häufigkeiten der CT-Werte für ein Abdomenschichtbild gegeben. Deutlich sichtbar sind die Häufungen bei Luft, der Schaumstoff-Patientenauflage sowie bei Fett und den Organen. Im Fenster für die so genannten parenchymatösen Organe ist es so, dass sich viele Organe in sich überlappenden CT-Wertebereichen abbilden. Das macht die Diagnostik nicht leicht, sodass in der klinischen Praxis auch Texturen von Organen wichtig sind. Für das menschliche Auge ist der gesamte Dynamikbereich von –1000 HU bis 3000 HU in 4000 Stufungen nicht auflösbar. Deswegen werden auf den Sichtgeräten z. B. nur Grauwertdiskretisierungen in 256 Stufen eingestellt. Tatsächlich kann der Mensch je nach Helligkeit im Auswerteraum zwischen 20 und 50 verschiedene Grauwerte unterscheiden. Will man Unterschiede zwischen Organen erkennen, die in Bezug auf ihre Abschwächung sehr ähnlich sind, so muss die Hounsfieldskala auf den wahrnehmbaren Grauwertebereich geeignet abgebildet werden. Hierzu verwendet man die stückweise gerade Funktion
WW ° 0 für CT-Werte ≤ WL − 2 ° WW · ° § G = 255 ⋅ ®WW −1 ¨ CT-Wert − WL + ¸ 2 ¹ © ° ° WW °1 für CT-Werte ≥ WL + ¯ 2
Dabei sind durch WW die Fensterbreite (Window Width) und durch WL die Fenstermitte (Window Level) gegeben. ⊡ Abb. 15.8b,c zeigt die jeweilige stückweise lineare Funktion für ein Knochenfenster (WL=+300 HU, WW=1500 HU) und ein Weichteilfenster (WL=+50 HU, WW=350 HU) sowie die Auswirkungen auf die Darstellung für ein abdominales Tomogramm. Nur im Knochenfenster (⊡ Abb. 15.8b) sind Dichteunterschiede im Wirbelfortsatz zu erkennen, jedoch ist aufgrund der großen Breite des Fensters keine Differenzierung des Weichteilgewebes möglich. Beim Weichteilfenster (⊡ Abb. 15.8c) sind Organe wie Leber und Nieren sehr gut zu unterscheiden, allerdings werden in diesem relativ schmalen Fenster alle CT-Werte oberhalb von +225 HU undifferenziert weiß dargestellt.
⊡ Abb.15.8a–c. Schwächungswerte der Gewebetypen in Hounsfieldeinheiten. Die Wertebereiche sind aus E. Krestel (Krestel 1990) und M. Hofer (Hofer 2000) zusammengestellt. Prinzip der Fensterung: a Die Hounsfieldwerte (HU), die im Bereich von –1000 HU bis 3000 HU liegen, sind in ihrer vollen Breite vom menschlichen Auge nicht unterscheidbar. Daher müssen die anatomisch jeweils interessanten Hounsfieldbereiche auf einen unterscheidbaren Grauwertebereich abgebildet werden. Unten rechts sieht man die Kennlinie für zwei anatomische Fenster. Darüber sieht man das Ergebnis b des Knochen- (WL=+300 HU, WW=1500 HU) und c des Weichteilfensters (WL=+50 HU, WW=350 HU)
263 15.5 · Bedienung und Anwendungen
Bei diesen Thoraxaufnahmen hat man die besondere Schwierigkeit, dass Lungengewebe, Weichteile und Knochen diagnostisch interessant sein können. Für diese Klassifikation der Bereiche haben sich drei Fenster als praktisch erwiesen. Zu den oben schon genannten Weichteil- und Knochenfenstern kommt hier das so genannte Lungen- bzw. Pleurafenster (WL=–200 HU, WW=2000 HU) hinzu, in dem Lungengewebe geringerer Dichte ebenfalls differenzierbar wird. Die Auswertesoftware an der klinischen Viewing-Station stellt eine Vielzahl von Organfenstern als voreingestellte Parametersätze zur Verfügung.
15.5.2 Dreidimensionale Datenvisualisierung
In den vorangegangenen Abschnitten wurde nur von zweidimensionalen Bildern gesprochen. Mit der Computertomographie – ⊡ Abb. 15.1 zeigt das ganz eindrucksvoll – verbindet man aber in der Medizin vor allem die dreidimensionale Bildgebung. Hierbei wird so vorgegangen, dass aus dem Bilderstapel, der zunächst immer aus einer Abfolge von axialen Schichtbildern besteht, andere Schichtangulationen oder direkt die dreidimensionale Darstellung der Anatomie errechnet wird. Man spricht hierbei von sekundärer Rekonstruktion. Wenn die Schichtabfolge so gewählt wurde, dass in axialer Richtung die räumliche Auflösung in derselben Größenordnung liegt wie innerhalb der Schicht, dann lassen sich durch Interpolation beliebig geneigte Ebenen durch das Volumen berechnen. Dieses Verfahren nennt man multiplanares Reformatieren (MPR). Typischerweise stellt man zunächst die drei Hauptrichtungen nebeneinander dar: axial, sagittal und koronal. In ⊡ Abb. 15.9e (Abb. 15.9 auch 4-Farbteil am Buchende) ist die koronale Reformatierung einer Abdomenaufnahme zu sehen. Neben der MPR-Technik wird das Verfahren der Maximum-Intensity-Projection (MIP) speziell bei angiographischen Fragestellungen angewendet. Hierbei wird entlang einer virtuellen Sichtlinie nach dem höchsten Wert im CT-Volumen gesucht und dieser dann dargestellt. In ⊡ Abb. 15.9a ist eine computertomographische Angiographie (CTA) mit MIP visualisiert. Dieses Verfahren lässt sich einfach variieren, indem z. B. nach minimalen Werten gesucht wird oder die Summe aller Werte entlang der Sichtlinie gebildet und dann dargestellt wird. Zwei ganz unterschiedliche Ansätze zur 3D-Visualisierung sind das Volumen- und das Oberflächen-Rendering. Beim Volumen-Rendering wird jedem räumlichen Pixel, dem so genannten Voxel (Volume x element in Erweiterung zu Picture x element), eine physikalische Lichtabsorption, Reflexion und Streuung zugeordnet. Im Computer beleuchtet man diesen »Datennebel« dann mit einer virtuellen Lichtquelle und berechnet den optischen Eindruck, den eine reale Wechselwirkung des Lichts mit
⊡ Abb. 15.9a–i. Oben: Angiographie mit dem CT (CTA). a Maximum-Intensity-Projection (MIP), b Volumen-Rendering, c Ausschnittsvergrößerung des Knies und Darstellung von der Rückseite, d Knocheneliminierung mit einer Bone-Removal-Technik. e Unten: Koronale Reformatierung, f–i Volumen- und Oberflächen-Rendering: i Virtuelle Endoskopie des Darms zusammen mit der g Darstellung der virtuellen Endoskop-Trajektorie und eines h virtuell aufgeschnittenen Darmstücks in Zylinderkoordinaten
diesem Nebel erzeugen würde. Ordnet man Knochen und Organen bzw. einem Kontrastmittel in den Gefäßen unterschiedliche optische Eigenschaften zu, so erhält man aufschlussreiche Darstellungen (vgl. ⊡ Abb. 15.9b-d,f), bei denen man mit spezieller Nachverarbeitung einzelne Organe in der Gesamtvisualisierung auch wieder unterdrücken kann. In ⊡ Abb. 15.9d ist die Elimination der Knochen mit einem Nachverarbeitungsschritt illustriert. Eine Alternative zum Volumen-Rendering ist das so genannte Oberflächen-Rendering. Die einzelnen Grautöne der Schichten im Datenstapel repräsentieren die Stärke der physikalischen Schwächung des Röntgenstrahls. Im klinischen Umfeld wird aus Abweichungen zur normalen Verteilung dieser Werte auf pathologische Veränderungen des Patienten geschlossen. Bei der Visualisierung muss man nun entscheiden, ganz bestimmte Wertebereiche darzustellen und andere gezielt auszublenden. Entscheidet sich der Betrachter für einen konstanten Grauwert, so repräsentieren alle Raumpunkte mit diesem
15
264
II
Kapitel 15 · Computertomographie (CT)
Wert eine so genannte Isofläche. Diese Isograuwertfläche wird dann mit Dreiecken graphisch nachgebildet (Triangulierung). Das Mosaik aus Dreiecken wird dann wieder mit dem oben beschriebenen Verfahren virtuell beleuchtet und dargestellt. Je größer die Anzahl der Mosaiksteine für die Nachbildung der Fläche gewählt ist, desto naturgetreuer ist das Ergebnis. Neben der Darstellung von Organ- oder Knochenoberflächen, die am Computer interaktiv gedreht werden können, sind auf diese Weise auch Innenansichten von Hohlorganen, Atemwegen und kontrastierten Gefäßen rekonstruierbar. Dadurch sind virtuelle Fahrten z. B. durch das Bronchialsystem oder durch den Darm möglich. In den ⊡ Abb. 15.9g-i ist die virtuelle Einsicht in den menschlichen Darm exemplarisch demonstriert. Der zentrale Gewinn der 3D-Diagnostik liegt in der Reduktion der Datenflut, die einer normalen Schicht-für-Schicht-Befundung nicht mehr zugänglich ist.
15.5.3 Klinische Applikationen
In diesem Abschnitt soll zusammenfassend und nur beispielhaft auf die Fülle der klinischen Applikationen moderner CT-Bildgebung hingewiesen werden. In ⊡ Abb. 15.10 ( auch 4-Farbteil am Buchende) sind vier Anwendungen dargestellt. Speziell die Perfusionsmessungen geben der Computertomographie den Charakter einer funktionellen Bildgebungsmodalität. Hierbei wird der Blutfluss nach Kontrastmittelinjektion in verschiedenen Organen erfasst. Hirnperfusion. Die Hirndurchblutung (CBF), das Hirnblutvolumen (CBV), die mittlere Transitzeit (MTT) und die Peakzeit für das Bolusmaximum (TTP) können farblich auf die CT-Bilder gelegt werden, so dass man zur Beurteilung eines akuten oder chronischen Infarkts Farbkarten der Gewebevitalität erhält (⊡ Abb. 15.10a). Leberperfusion. Arterielle und portale Perfusionsmessungen bei Leberstudien. Tumorperfusionen. Charakterisierung von bekannten Läsionen anhand ihrer Perfusionen. Lungenmessungen. Diagnostik eines Lungenemphysems (⊡ Abb. 15.10b), automatische Detektion von Rundherden in der Lunge. Kalzium-Scoring. Quantifizierung von Koronararterienverkalkung. Gefäßanalyse (CTA). Darstellung der Gefäße (⊡ Abb. 15.10c: Beispiel des Kopf-Hals-Bereichs), Analyse von Stenosen und Aneurismen, Planung von Stents.
⊡ Abb. 15.10a–d. a Perfusionsmessung bei Schlaganfallpatienten, b Abbildung eines Lungenemphysems, c Bildgebung (CTA) der Kopfgefäße und d Herzbildgebung (CTA): Koronarstent
Kardio CT. Identifizierung und Quantifizierung von Gefäßstenosen sowie Planung von Stents und Darstellung von implantierten Stents (⊡ Abb. 15.10d). Dies wird durch EKG-getriggerte Bildgebung möglich. Virtuelle Endoskopie. 3D CT-Daten als Grundlage für anatomische Innenansichten von Hohlorganen (⊡ Abb. 15.9i) und kontrastierten Gefäßen. Trauma. Schnelle Bildgebung des gesamten Körpers in der Unfalldiagnostik (⊡ Abb. 15.1a) Dentalplanung. Panorama und Querschnitte des Oberund Unterkiefers zur Unterstützung des Kieferchirurgen bei der Planung von Prothesenimplantaten. Bestrahlungsplanung. 3D CT-Daten als Grundlage für die Dosisplanung bei der Bestrahlung von Tumoren.
265 15.6 · Dosis
⊡ Abb. 15.11a–e. Aktive Verfahren zur Dosisreduktion (Nagel 2002). a Belichtungsautomatik, b longitudinale Dosismodulation, c zirkulare Dosismodulation, d zeitliche Dosismodulation, e Dosisvariation bei Kombination aus longitudinaler und zirkularer Dosismodulation bei kontinuierlichem Tischvorschub
Bildgeführte Chirurgie. 3D CT-Daten als Grundlage für die Planung chirurgischer Eingriffe und für die intraoperative Navigation. Interventionelle Bildgebung. Darstellung der Instrumentenspitze während einer Biopsie. Dies wird durch die sehr schnelle Bildgebung und die Multi-Zeilen-Detektoren erleichtert.
15.6
Dosis
In der Anfangszeit der Computertomographie war der Enthusiasmus aufgrund der erzielbaren Kontraste grenzenlos, so dass man sich erst zweitrangig Gedanken um die applizierte Dosis machte. Aus der Anzahl der installierten Geräte in Deutschland und einer durchschnittlichen Anzahl von 3500 Untersuchungen pro Jahr lässt sich abschätzen, dass heute einige hundert Millionen Schnitte pro Jahr gemessen werden. Das liegt in derselben Größenordnung
wie die Summe aller anderen projektionsradiographischen Aufnahmen (Nagel 2002). Wenn man sich das Spektrum der verschiedenen Röntgenuntersuchungen anschaut, dann fällt folgende Diskrepanz auf. Während die Computertomographie nur etwa 4% aller röntgenbasierten Untersuchungen ausmacht, ist ihr prozentualer Anteil an der kollektiven effektiven Dosis ungefähr 35%. Damit leistet CT den größten Beitrag zur medizinisch bedingten Strahlenexposition. Die neuen Gerätegenerationen, wie die Spiral-Multizeilen-CT verringern die applizierte Dosis nicht. Eher ist zu erwarten, dass aufgrund der längeren Strecken und dünneren Schichten, die heute sehr schnell und problemlos gemessen werden können, die Dosis für die einzelne Untersuchung steigen wird (Nagel 2002). Ausgelöst durch Berichte über unnötig hohe Strahlenexposition bei pädiatrischen CT-Untersuchungen (Sternberg 2000), die mit denselben Scanprotokollen wie bei Erwachsenen vorgenommen wurden, ist heute bei allen Herstellern und Anwendern eine hohe Sensibilität in Bezug auf die applizierte Dosis erkennbar. ⊡ Abb. 15.11a zeigt, dass man über
15
266
II
Kapitel 15 · Computertomographie (CT)
den Röhrenstrom sehr einfach zwischen dickeren und dünneren Patienten bzw. Erwachsenen und Kindern die Dosis anpassen kann (Belichtungsautomatik). Den Zusammenhang zwischen der Dosis mit dem gerade noch wahrnehmbaren Kontrast einer Lochreihe eines Messphantoms stellt die so genannte Niedrigkontrastauflösung her (Morneburg 1995). Danach besteht zwischen der Dosis D und dem gerade noch erkennbaren Kontrast Kd die Proportionalität Kd ∝ D -1/2, wobei d den Durchmesser einzelner Löcher der Lochreihe eines Phantoms kennzeichnet. Intelligente Scanner bedienen sich dieses Zusammenhangs so, dass der Anodenstrom dem jeweiligen anatomischen Bereich dynamisch angepasst wird. ⊡ Abb. 15.11 zeigt dieses Konzept schematisch. In ⊡ Abb. 15.11b ist die dynamische Anpassung des Röhrenstroms, bzw. der Dosis an die anatomische Situation entlang der axialen z-Achse dargestellt (longitudinale Dosismodulation). In anatomischen Bereichen, in denen eine kleine Schwächung der Röntgenintensität zu erwarten ist – wie z. B. im Bereich der Lunge – kann der Röhrenstrom und damit die Dosis herab gesetzt werden, ohne dass es zu einer Verschlechterung der Bildqualität kommt. Fährt man dagegen alle Bereiche mit demselben Röhrenstrom, so ergeben sich entweder zu hohe Dosen oder zu starke Rauschpegel. ⊡ Abb. 15.11c zeigt die dynamische Anpassung des Röhrenstroms über den Projektionswinkel γ (zirkulare Dosismodulation). Bei allen Körperschnitten, die eher oval als kreisförmig sind, kommt die zirkulare Dosismodulation zum Tragen. Speziell bei Aufnahmen der Schulter ist eine starke Modulation angebracht. In ⊡ Abb. 15.11d ist eine Triggersequenz für eine EKG-gesteuerte Aufnahme des Herzens zu sehen. Da die Daten nur innerhalb der Ruhephase des schlagenden Herzens akquiriert werden, kann die Gesamtdosis leicht reduziert werden, wenn der Röhrenstrom außerhalb des Datenfensters abgeschaltet wird (zeitliche Dosismodulation). ⊡ Abb. 15.11e zeigt den Effekt der Kombination von longitudinaler und zirkularer Dosismodulation auf die Dosis entlang der axialen Patientenrichtung bei kontinuierlichem Patiententischvorschub. Neben den geräteseitigen Maßnahmen zur Reduktion der Strahlenexposition, für die die Hersteller Verantwortung tragen, gibt es eine Reihe von anwenderseitigen Maßnahmen, die die applizierte Dosis beeinflussen. Im Folgenden sind die im Scanprotokoll einstellbaren Größen und ihr Zusammenhang mit der Dosis zusammengestellt. Für eine ausführliche Diskussion der Strahlenexposition in der Computertomographie sei auf das Buch von Nagel, 2000 verwiesen. Strom-Zeit-Produkt (mAs-Produkt). Dosis und mAsProdukt, also das Produkt aus Röhrenstrom und Abtastzeit (bzw. Strahlzeit der Röntgenröhre), besitzen eine lineare Abhängigkeit. Die Standardabweichung, die das
Bildrauschen beschreibt, vergrößert sich allerdings umgekehrt proportional zur Wurzel aus dem Strom-ZeitProdukt. Abtastzeit. Bei konstantem Röhrenstrom wächst die Dosis linear mit der Abtastzeit. Allerdings ist immer das mAs-Produkt insgesamt zu betrachten, so dass man bei gleicher Dosis die Abtastzeit herabsetzen kann bei gleichzeitiger Steigerung des Röhrenstroms. Das Bildrauschen bleibt dadurch unverändert, allerdings sinkt bei kurzen Abtastzeiten die Gefahr von Bewegungsartefakten ( Abschn. 15.4.4). Röhrenspannung. Bei Erhöhung der Röhrenspannung UB ( Abschn. 15.3.1) wachsen der Wirkungsgrad der Röntgenröhre und die Durchdringungsfähigkeit der Strahlung. Die Intensität der Strahlung nimmt mit UB im Mittel mit der 3,5-ten Potenz zu. Mit einer erhöhten Durchdringungsfähigkeit der Strahlung nimmt der Bildkontrast natürlich ab, allerdings wird dies durch die bessere Quantenstatistik mehr als kompensiert, so dass die Bildgüte insgesamt wächst – natürlich auf Kosten einer Dosissteigerung für den Patienten. Will man z. B. eine Spannungserhöhung von UB=120 kV auf 140 kV nutzen, um die Dosis bei gleich bleibender Bildqualität zu verringern, so muss das mAs-Produkt um 40% erniedrigt werden. Dadurch erzielt man insgesamt eine Dosisreduktion von etwa 15% (Nagel 2000). Objektdicke. Bei Kindern und bei schlanken Patienten ist darauf zu achten, dass ein kleineres mAs-Produkt eingestellt wird. Wegen der geringeren Schwächung ist die Statistik der Röntgenquanten immer noch so gut wie bei Erwachsenen oder dickeren Patienten, sodass die Bildqualität nicht leidet. Bei sehr dicken Patienten ist die Erhöhung der Röhrenspannung gegenüber einer Erhöhung des mAs-Produkts vorzuziehen, da hierbei die Strahlenexposition weniger stark zunimmt. Schichtdicke. Die Schichtdicke, die durch einen röhrenseitigen Kollimator typischer Weise zwischen 1 mm und 10 mm eingestellt werden kann, beeinflusst die Dosis dann nicht, wenn derselbe Körperabschnitt gemessen werden soll. Der Vorteil einer feineren Schichtfolge ist das Verringern von Teil- oder Partialvolumenartefakten sowie von Stufen bei koronaler oder sagittaler Reformatierung des Bildes. Der Nachteil ist, dass bei einer feineren Kollimation eben auch weniger Röntgenquanten den Detektor erreichen und somit das Bildrauschen steigt. Will man die Bildqualität konstant halten, so muss das mAs-Produkt – und damit die Dosis – umgekehrt proportional zur Schichtdicke steigen. Pitchfaktor. Ein Pitchfaktor von p=1 bedeutet, dass sich der Tisch in einer vollen Umdrehung der Abtasteinheit
267 15.7 · Spezielle Systeme
um eine Schichtdicke fortbewegt ( Abschn. 15.4.3). Wählt man p<1, so misst man mit stärkerer Überlappung, so dass die Bildqualität besser wird, dies jedoch auf Kosten einer erhöhten Dosis. Mit p>1 kann man die Dosis also verringern. Theoretisch sollte bis zu einem Pitch von p=2 eine artefaktfreie Bildrekonstruktion möglich sein. Bei einer dadurch vergrößerten Scanlänge und gleichem mAs-Produkt sind aber weniger Röntgenquanten für den Bildgebungsprozess eines größeren Körperabschnittes verwendet worden, sodass das Bildrauschen zunimmt.
lementen ebenfalls Konsequenzen in Bezug auf die Dosis hat. Man kann nämlich zeigen, dass bei gleich bleibendem Signal-Rausch-Verhältnis die Dosis mit der vierten Potenz steigt, sobald die Detektorelementgröße verringert wird (Buzug 2004). Das setzt dem Wunsch nach weiterer Verkleinerung der Detektorelemente natürlich eine Grenze, da die Dosis nicht beliebig gesteigert werden darf.
Scanlänge. Bei Vergrößerung des zu vermessenden Körperabschnittes vergrößert sich die Dosis für den Patienten entsprechend. Dies wird durch die effektive Dosis oder das Dosis-Längen-Produkt ausgedrückt. Die Anzahl der Schichten ist vom Anwender immer auf den diagnostisch notwendigen Ausschnitt zu beschränken, der mit der Planungsübersicht ( Abschn. 15.5.1) festzulegen ist.
Für bestimmte Anwendungen wurden in den letzten Jahrzehnten immer wieder spezielle Systeme entwickelt, von denen hier vier in einer kleinen Übersicht kurz beschrieben werden. Für die Abbildung des Herzens bspw. ergibt sich mit den bisher vorgestellten Verfahren sehr schnell das Problem der Bewegungsartefakte ( Abschn. 15.4.4). Bei den CT-Systemen der 3. Generation ist man daher auf eine EKG-getriggerte Datenakquisition angewiesen, denn bezogen auf die Zeitkonstante der Herzbewegung sind auch moderne Subsekundenscanner ohne EKG-Triggerung zu langsam. Speziell für die Herzbildgebung wurde daher das Elektronenstrahl-CT entwickelt, das in Abschn. 15.7.1 vorgestellt wird. Daneben wird das Volumen- oder Kegelstrahl-CT, eine konsequente Weiterentwicklung des Multizeilen-CT vorgestellt ( Abschn. 15.7.2). Will man sehr kleine Strukturen im µm-Bereich untersuchen, so ist die räumliche Auflösung der klinischen CTs nicht ausreichend. Hierfür wurden spezielle Mikro-CTs entwickelt ( Abschn. 15.7.3). Da die Nuklearbildgebung in der Lage ist, den Metabolismus des Körpers abzubilden, CT dazu gewissermaßen komplementär nur die Morphologie abbildet, ist eine konsequente Weiterentwicklung die Kombination beider Geräte in so genannten PET-CTScannern, die in Abschn. 15.7.4 kurz beschrieben werden. Zuletzt wird in Abschn. 15.7.5 eine Systemerweiterung auf zwei Abtastsysteme, bestehend jeweils aus einer Röntgenröhre und einem Detektor unter einem Winkel von 90° zueinander, beschrieben, die eine Halbierung der Abtastzeit erzielt.
Filterkern. Die Wahl des Filterkerns hat zunächst keinen unmittelbaren Einfluss auf die Dosis. Wie allerdings in Abschn. 15.4.2 beschrieben wurde, beeinflusst die Wahl des Hochpassfilters bei der gefilterten Rückprojektion das Erscheinungsbild der CT-Rekonstruktion als Kompromiss zwischen Rauschen und Ortsauflösung. Will man bei einer hohen Ortsauflösung das Rauschen also verringern, so geht das nur auf Kosten einer Dosiserhöhung. Insofern hängt es immer von der diagnostischen Fragestellung ab, ob eine geschickte Wahl des Filters zur Dosisreduktion genutzt werden kann. Fensterweite. Die zur Darstellung der CT-Bilder verwendete Fensterbreite (vgl. Abschn. 15.5.2 »Window Width«) hat zunächst keinen direkten Einfluss auf die Dosis. Je höher man jedoch den Kontrast durch Einengung des Fensters wählt, desto stärker wird auch das Rauschen in den Bildern sichtbar. Umgekehrt kann durch Vergrößerung der Fensterweite das Bild geglättet werden. Wenn man aufgrund der diagnostischen Fragestellung genug Kontrastreserven besitzt, kann man die Glättung bei der Visualisierung schon bei der Aufnahmeplanung zur Erniedrigung des mAs-Produkts und damit der Strahlenexposition verwenden.
15.7
Spezielle Systeme
15.7.1 Elektronenstrahl-CT (EBCT)
Field-of-View (FOV). Verwendet man ein sehr kleines FOV, d. h. eine sehr starke Detailvergrößerung, so ist i. d. R. auch ein sehr scharfes Rekonstruktionsfilter zu verwenden, denn die Ausschnittsvergrößerung wird ja nur deswegen gewählt, weil man ein örtlich detailreicheres Bild analysieren möchte. Das hat unmittelbar Konsequenzen auf das Bildrauschen, das nur mit einer Erhöhung des mAs-Produkts und damit der Dosis wieder verringert werden könnte. Zuletzt sei in diesem Kapitel noch darauf hingewiesen, dass die Entwicklung zu immer kleineren Detektore-
Wenn man zu sehr kurzen Datenakquisitionszeiten kommen möchte, dann muss man das Konzept der sich bewegenden Systeme, wie sie in Abschn. 15.2 beschrieben wurden, vollständig verlassen. Einen Ansatz dazu bietet die so genannte Elektronenstrahl-Computertomographie (Electron Beam Computerized Tomography EBCT). Diese Form der Computertomographie wurde speziell für Aufnahmen des Herzens entwickelt. Eine lokalisierte Röntgenröhre, die sich um den Patienten dreht, gibt es hier nicht mehr. Vielmehr befindet sich der Patient gewisser-
15
268
II
Kapitel 15 · Computertomographie (CT)
maßen innerhalb der Röntgenröhre. Ein Elektronenstrahl wird auf kreisförmig um den Patienten angeordnete Wolframtargetringe fokussiert und erzeugt beim Aufprall auf das Wolfram den gewünschten Röntgenstrahlfächer. Die Röntgenstrahlung wird dann mit einem fest stehenden Detektorring gemessen. Solche Systeme wurden von der Firma Imatron überwiegend an Kardiologien verkauft. Das Elektronenstrahlverfahren ist in der Lage, Schichten in 50 msec zu akquirieren. ⊡ Abb. 15.12a zeigt die Skizze eines EBCT-Systems sowie die Abbildung eines modernen Imatronsystems. Weitere technische Details findet man z. B. bei G. Weisser (Weisser 2000).
15.7.2 Volume-CT
Eine einheitliche Begriffsbildung hat bei den CT-Entwicklungsstufen bisher nicht statt gefunden. Bei J. T. Bushberg (Bushberg et al. 2002) werden Geräte mit kegelförmigem Röntgenstrahl und flächigem Detektor mit der siebten Generation bezeichnet. Aber selbst innerhalb der Kegelstrahltypen muss eigentlich noch unterschieden werden, ob nur eine kleine Kegelöffnung verwendet wird, so dass man nur von einem schmalen Multischicht- bzw. Multizeilensystem (MSCT) spricht oder ob tatsächlich ein symmetrischer Röntgenkegel genutzt wird. Die zu verwendenden Rekonstruktionsverfahren unterscheiden sich nämlich erheblich. Zur Motivation dieses Entwicklungsschrittes sei daran erinnert, dass der Schritt vom Nadelstrahl- zum Fächerkonzept ( Abschn. 15.2.2) neben der Verkürzung der Messzeiten den weiteren Vorteil besitzt, dass die erzeugte Röntgenstrahlung sehr viel effektiver ausgenutzt wird.
⊡ Abb.15.12a–d. a Elektronenstrahl-CT, b Volumen- oder Kegelstrahl-CT, c PET-CT und d Dual-Source CT
In Abschn. 15.3.1 wurde erwähnt, dass die Effizienz der Energieumwandlung bei der Erzeugung von Röntgenstrahlung bei nur etwa 1% liegt. Da die produzierte Wärme in den Röntgenröhren ganz wesentlich die physikalische Belastbarkeit definiert und damit die Messzeit beschränkt, beinhaltet ein konsequenter Schritt in der Entwicklung von Computertomographen die bessere Nutzung des ohnehin vorhandenen kegelförmigen Röntgenstrahls. Die Nadelstrahl- und die Fächerstrahlgeometrie wurde ja nur durch geeignete Kollimatoren erzeugt, die den vorhandenen natürlichen Röntgenkegel einengen. Technologisch gibt es drei wichtige Probleme, die für eine erfolgreiche Verwendung der Kegelstrahlgeometrie gelöst werden mussten. Erstens musste auf der Detektorseite des Tomographen ein Flächendetektor eingesetzt werden, den es noch nicht sehr lange gibt. Zweitens musste die enorme Rohdatenmenge, die insbesondere bei Subsekundenscannern in sehr kurzer Zeit entsteht, von dem sich drehenden Abtastsystem nach außen zum Bildrekonstruktionsrechner übertragen werden. Die benötigte Bandbreite für diesen Datentransfer ist auch heute noch eine Herausforderung. Und drittens steht man vor dem eigentlichen Rekonstruktionsproblem, dessen Mathematik gegenüber den zweidimensionalen Verfahren etwas verwickelter ist. ⊡ Abb. 15.12b zeigt einen Prototypen eines Kegelstrahltomographen in den GE Laboratorien.
15.7.3 Mikro-CT
Seit einiger Zeit sind so genannte Mikro-CT s kommerziell erhältlich, die im Wesentlichen einer miniaturisierten
269 15.7 · Spezielle Systeme
Form des Volumen- oder Kegelstrahl-CTs des vorhergehenden Abschn. 15.7.2 entsprechen und zur zerstörungsfreien, dreidimensionalen Mikroskopie genutzt werden. Das durchstrahlte Messfeld ist mit typischerweise 2 cm3 so klein, dass medizinische Anwendungen auszuscheiden scheinen. Tatsächlich werden diese Geräte eher in der Materialprüfung und -analyse verwendet, aber auch medizinische Anwendungen rücken zunehmend in das Zentrum des Interesses. Humanmedizinische Fragestellungen sind z. B. Untersuchungen der Trabekularstruktur von Knochen. Mikro-CTs sind darüber hinaus ideale Geräte, um radiologische Diagnostik an Kleintieren zu betreiben. Mikro-CTs sind häufig als Tischgerät ausgelegt und besitzen eine Messkammer, die mit Bleiwänden gegen nach außen dringende Röntgenstrahlung vollständig abgeschirmt ist, so dass keine weiteren Schutzmassnahmen ergriffen werden müssen. Das zu untersuchende Objekt wird auf einem Drehteller platziert, der von einem Schrittmotor gesteuert wird. Die beiden entscheidenden Komponenten von MikroCTs sind die Röntgenröhre und das Detektorarray. Hierbei sind es speziell die Fokusgröße und die Größe der Detektorelemente, die neben der mechanischen Genauigkeit der Drehbewegung das Auflösungsvermögen bestimmen. Dabei sind Röntgenfokusgrößen unterhalb von 10 µm wünschenswert. Natürlich kann bei einer so kleinen Elektronentargetfläche der Anodenstrom nicht sehr groß gewählt werden. Hier sind Ströme von I<100 µA typisch. Da der Strom die Intensität des Röntgenspektrums steuert, unterliegt man in Bezug auf die zu untersuchenden Materialien natürlich gewissen Einschränkungen. Als Detektor wird häufig ein gekühlter 12 Bit Röntgen-CCD-Chip mit einer Pixelmatrix von 1024×1024 genutzt, der über eine Fiberoptik an einen Szintillationskristall angekoppelt ist. Die Größe der Bildelemente liegt ebenfalls in der Größenordnung von etwa 10 µm. Die Firma SkyScan gibt ein Auflösungsvermögen von insgesamt etwa 10 µm an. Da es sich bei Mikro-CTs um Kegelstrahlröntgensysteme handelt, sind dreidimensionale Rekonstruktionsverfahren erforderlich, um die Bilder zu berechnen.
15.7.4 PET-CT
Wenn man von Kontrastmitteltechniken absieht, dann vermag die Computertomographie allein nur morphologische Informationen, also Informationen über die Form der Objekte zu liefern. Andererseits liefert die PositronenEmissions-Tomographie (PET) Informationen über den Metabolismus, also die Funktion bzw. den Stoffwechsel (Ruhlmann et al. 1998). Da die Computertomographie auf der Absorption von Röntgenstrahlung beruht, können sich unterschiedliche Organe mit unterschiedlichen Absorptionseigenschaften nur der Form nach abbilden. Der Patient bleibt in diesem Verfahren passiv.
Bei der Positronen-Emissions-Tomographie wird dem Patienten ein radioaktiv markierter so genannter Tracer gespritzt, der im Körper verstoffwechselt wird. Ein interessanter Ansatz in der bildgebenden Diagnostik ist die Kombination beider Verfahren. Die Idee, neben der Form auch die Funktion in einem Bild darzustellen, wird schon länger mit Methoden der so genannten Registrierung verfolgt. Dabei wird der Patient nacheinander mit verschiedenen Geräten gescannt. Aufgrund der unterschiedlichen Lagerung des Patienten, ist aber immer die Registrierung als Bildverarbeitungsschritt erforderlich. Außerdem vergeht eine gewisse Zeit zwischen den beiden Aufnahmen. In PET-CT-Kombinationsgeräten werden PET- und CT-Bilder praktisch simultan in gleicher Patientenlage gemessen, so dass die Lage eines Tumors im Verhältnis zur übrigen Anatomie unmittelbar dargestellt werden kann (⊡ Abb. 15.12c).
15.7.5 Dual-Source CT
Der Dual-Source Computertomograph ist eine pragmatische Umsetzung einer nahe liegenden Idee. Wenn man zwei komplette Abtastsysteme, bestehend jeweils aus Röntgenröhre und Detektor, im Winkel von 90° zueinander auf der sich drehenden Abtasteinheit integriert, kann die Abtastzeit um den Faktor zwei verkürzt werden. ⊡ Abb. 15.12d zeigt die Realisierung dieser Idee im Siemens SOMATON Definition. Damit eignet sich das Gerät ganz besonders zur Bildgebung am Herzen. Das Gerät besitzt eine Gantryöffnung von 78 cm und einen Scanbereich von 200 cm. Hinsichtlich der Dosis ( Abschn. 15.6) wäre unter normalen Umständen eine Verdopplung der Strahlenexposition zu erwarten. In dem abgebildeten Gerät ist die zeitliche Dosismodulation (vgl. ⊡ Abb. 15.11d) aber optimal umgesetzt, sodass die Röhren tatsächlich nur in den diastolischen Phasen des Herzens strahlen und der Scan darüber hinaus natürlich nur die Hälfte der Zeit in Anspruch nimmt, die normale Scanner mit nur einem Abtastsystem benötigen. Damit ist die Strahlenbelastung effektiv geringer als bei Einzelröhrensystemen ohne zeitliche Dosismodulation. Dieses Konzept lädt dazu ein, auch die Dual-Energy-Bildgebung bei CT näher zu betrachten. Werden die beiden Röntgenröhren nämlich mit unterschiedlicher Beschleunigungsspannung betrieben, so unterscheidet sich die spektrale Verteilung der Röntgenstrahlung etwas. Da die Schwächungskoeffizienten abhängig von der Wellenlänge sind, ergeben sich etwas unterschiedliche Bildinhalte, die z. B. unter Subtraktion die Diagnostik potenziell unterstützen. Allerdings müsste man bei solchen Verfahren eine entsprechend erhöhte Dosis beachten.
15
270
Kapitel 15 · Computertomographie (CT)
15.8
II
Dank
Ich möchte den Firmen Philips, Siemens und General Electric ganz herzlich für die Unterstützung durch Bildmaterial danken. Ganz besonders möchte ich Frau Annette Halstrick und Herrn Dr. Hans-Dieter Nagel, Philips Medizin Systeme, Hamburg sowie Herrn Leon de Vries, Philips Medical Systems, Best danken. Weiterhin gilt mein Dank Frau Doris Pischitz und Herrn Jürgen Greim, Siemens Medical Solutions, Forchheim sowie Herrn Dieter Keidel und Herrn Jan Liedtke, General Electric, Solingen.
Literatur Brunst G (2002) High Resolution Digital Flat Panel Detectors for X-Ray Applications – Basics. In: Niederlag W, Lemke HU (eds) Medical Imaging. Health Academy 2: 63 Bushberg JT, Seibert JA, Leidholdt EM, Boone JM (2002) The Essential Physics of Medical Imaging. Lippincott, Williams & Wilkins, Philadelphia Buzug TM (2004) Einführung in die Computertomographie. SpringerVerlag, Heidelberg Härer W, Lauritsch G, Mertelmeier T, Wiesent K (1999) Rekonstruktive Röngenbildgebung. Physikalische Blätter 55: 37 Härer W, Lauritsch G, Mertelmeier T (2003) Tomographie – Prinzip und Potential der Schichtbildverfahren. In: Schmidt Th (Hrsg) Handbuch diagnostische Radiologie. Springer-Verlag, Heidelberg Heinzerling J (1988) Röntgenstrahler. In: Ewen K (Hrsg) Moderne Bildgebung. Thieme Verlag, Stuttgart, 77 Hofer M (2000) CT-Kursbuch. Matthias Hofer Verlag, Düsseldorf Hsieh J (2003) Computed Tomography. SPIE Press, Bellingham Kalender WA (2000) Computertomographie. Publicis MCD Verlag, München Kalender WA, Seissler W, Vock P (1989) Single-Breath-Hold Spiral Volumetric CT by Continuouspatient Translation and Scanner Rotation. Radiology 173: 414 Krestel E (Hrsg) (1990) Imaging Systems for Medical Diagnostics. Siemens Aktiengesellschaft, Berlin Morneburg H (Hrsg) (1995) Bildgebende Systeme für die medizinische Diagnostik. Publicis MCD Verlag, München Nagel HD (Hrsg) (2002) Strahlenexposition in der Computertomographie, 3. Aufl. CTB-Publications, Hamburg Philips (2005) CT Clinical Innovations & Reseach. Philips Medical Systems, Best, spring 2005 Radon J (1917) Über die Bestimmung von Funktionen längs gewisser Mannigfaltigkeiten. Berichte der mathematisch-physikalischen Kl. Sächsischen Gesellschaft der Wissenschaften 59, Leipzig, 262 Ruhlmann J, Oehr P, Biersack HJ (Hrsg) (1998) PET in der Onkologie – Grundlagen und klinische Anwendung. Springer-Verlag, Heidelberg Seeram E (2001) Computed Tomography. W.B. Saunders Company, Philadelphia Siemens (2005) Excellence in CT, SOMATON Definition. Siemens Medical Solutions, Computed Tomographie, Forchheim Sternberg S (2000) CT Scans: ‘A Very High-Dose’ Diagnosis. USA Today, nov. 20, 2000 Weisser G (2000) Technische Grundlagen der EBCT. In: Gaa J, Lehmann K-J, Georgi M (Hrsg) MR-Angiographie und Elektronenstrahl-CTAngiographie. Thieme Verlag, Stuttgart, 145
16 Magnetresonanztomographie (MRT) H. Kolem
16.1 Einleitung
– 271
16.2 Überblick
– 271
16.3 Grundlagen 16.3.1 16.3.2 16.3.3 16.3.4
16.1
– 272
– 275
Magnettypen – 275 Gradientensysteme – 276 Hochfrequenzsystem – 276 Steuerungs- und Bildberechnungssystem
16.6.1 16.6.2 16.6.3 16.6.4 16.6.5 16.6.6 16.6.7 16.6.8
Überblick – 278 Routineanwendungen (T1-,T2-Bildgebung) – 278 3D-Verfahren – 279 MR-Angiographie (Blutgefäßdarstellung) – 279 MR-Mammographie – 280 MR-Spektroskopie – 280 Fortgeschrittene Neuromesstechniken – 281 Herzuntersuchungen – 282
16.7 Ausblick – 277
Einleitung
In diesem Kapitel soll das Verfahren der Magnetresonanztomographie beschrieben werden. Dabei wird zunächst das Verfahren in aller Kürze erläutert, um einen Überblick zu vermitteln. Später wird dann das Verfahren genauer beschrieben, anschließend werden die Technik und Sicherheitsaspekte behandelt. Zum Schluss wird eine Übersicht über das aktuelle Anwendungsspektrum und ein Ausblick in die Zukunft gegeben. Auf die exakte Beschreibung des Verfahrens und entsprechende Berechnungen wird hier verzichtet. Für anschauliche Betrachtungen wird ein vereinfachtes Bild der klassischen Physik benutzt, das exakte Effekte, wie sie nur mit der Quantentheorie berechnet werden können, vernachlässigt. Dadurch entstehen einige Inkonsistenzen und Fehler in den Betrachtungen, die jedoch für die Erklärung der meisten Effekte nicht wesenlich sind.
16.2
– 277
16.6 Anwendungen – 278
– 272
Spins im Magnetfeld – 272 Relaxationszeiten T1, T2 und Spinecho Lokalisationsverfahren – 273 Pulssequenzen und Kontraste – 274
16.4 Technik 16.4.1 16.4.2 16.4.3 16.4.4
16.5 Sicherheitsaspekte
– 283
Weiterführende Literatur – 283
zahlreiche andere Anwendungsmöglichkeiten wurden in den Jahren 2003–2005 etwa 9000 Anlagen neu installiert. Stark vereinfacht funktioniert das Verfahren der magnetischen Resonanz in der Medizin wie in ⊡ Abb. 16.1 skizziert.
Überblick
Die ersten Experimente zur magnetischen Resonanz wurden zum Ende der 1930er Jahre durchgeführt. Viele Jahre wurde das Verfahren ausschließlich als Messmethode in physikalischen und chemischen Labors benutzt. Erst zum Ende der 1960er Jahre wurde die Magnetresonanz zu Bildgebungszwecken eingesetzt. Die ersten klinischen Anlagen wurden 1983 in Betrieb genommen. Seitdem hat sich das Verfahren sehr ausgebreitet; bedingt im Wesentlichen durch unübertroffenen Weichteilkontrast und
⊡ Abb. 16.1. Vereinfachte Bildentstehung bei der Magnetresonanztomographie: Die Wasserstoffkerne im menschlichen Körper stellen kleine Magnete dar, die sich in einem äußeren Magnetfeld ausrichten. Diese ausgerichteten Magnete können unter Einstrahlung eines Hochfrequenzpulses zum Schwingen angeregt werden. Nach der Anregung senden die schwingenden Wasserstoffkerne ihrerseits wiederum ein schwaches Hochfrequenzsignal aus, das von empfindlichen Geräten empfangen und in Bilder umgerechnet werden kann
272
Kapitel 16 · Magnetresonanztomographie (MRT)
Grundlagen
16.3
16.3.1 Spins im Magnetfeld
II
Die meisten Atomkerne besitzen einen Kernspin. Diese quantenmechanische Eigenschaft führt dazu, dass Atomkerne ein magnetisches Moment besitzen. Wenn man solche kleinen magnetischen Momente in ein großes Magnetfeld bringt, richten sie sich aus. Die Gleichungen, die die Bewegung dieser kleinen magnetischen Momente beschreiben, sind sehr ähnlich denen, die die Bewegung eines Kreisels im Schwerefeld der Erde beschreiben. Wesentliche Konsequenz der Rechnung ist eine Präzessionsbewegung, deren Frequenz gegeben ist durch:
v
JB0 / 2S
,
16.3.2 Relaxationszeiten T1, T2 und Spinecho
wobei ν die Frequenz (der Rotation), γ die gyromagnetische Konstante und B0 die von außen angelegte magnetische Induktion ist. γ ist für jede Kernsorte unterschiedlich; für Protonen beträgt γ/2π p 42,577 MHz/T (T=Tesla; Einheit der magnetischen Induktion). Für andere Kerne ist dieses Verhältnis kleiner; einige für die Anwendung in der Medizin wichtige Werte finden sich in ⊡ Tab. 16.1. Wichtig ist in diesem Zusammenhang noch, dass die Polarisierung (d. h. der Prozentsatz der wirklich ausgerichteten Spins im Magnetfeld) in der Praxis sehr klein ist. Dies geht nicht aus der obigen Betrachtung hervor, sondern aus einer quantenmechanischen Rechnung. Die Polarisierung ergibt sich dabei durch den Vergleich der thermischen Energie mit der Energie der Kernspins (Energie E=h ν, wobei h die Planck-Konstante ist). Bei typischen Werten (Körpertemperatur und magnetische Induktion von etwa 1 T) ergibt sich, dass nur etwa jeder einhunderttausendste Kern zur Magnetisierung beiträgt; d. h. die Polarisierung beträgt 0,00001. Dies erklärt, warum die Magnetresonanz im Prinzip ein unempfindliches Verfahren ist; für ein messbares Signal sind typischerweise 1017 Spins erforderlich. Auf der anderen Seite hat der niedrige Energiebereich, in dem hier gearbeitet wird, den Vorteil, dass weit unterhalb der Schwelle der ⊡ Tab. 16.1. Gyromagnetisches Verhältnis einiger in der Medizin wichtiger Kerne Natürliche Häufigkeit [%]
Isotop
Gyromagnetisches Verhältnis γ/2π [MHz/T]
1H
42,577
99,9
13
C
10,708
1,1
19F
40,077
100
23
11,268
100
31P
17,256
100
Na
Bindungsenergie von Molekülen gearbeitet wird, sodass dadurch keine Gewebeschäden entstehen können (»strahlungsfreie Messmethode«). Aus dem bisher gesagten geht hervor, dass bestimmte Atomkerne im Magnetfeld eine Resonanzfrequenz besitzen, bei der sie im klassischen Sinne eine Präzessionsbewegung ausführen. Durch eine kurze externe Anregung, die durch ein von außen pulsartig angelegtes Hochfrequenzfeld mit genau dieser Resonanzfrequenz erfolgt, beginnen die Kerne zu schwingen, und diese Schwingung führt ihrerseits wieder zur Abstrahlung eines schwachen Hochfrequenzsignals. Mit empfindlichen Antennen kann dieses Signal detektiert werden.
Eine typische Signalerzeugung läuft z. B. wie folgt ab: Wasserstoffkerne (=Protonen) werden in ein Magnetfeld gebracht. Dann wird für die Zeitdauer von einigen Millisekunden ein Hochfrequenzpuls eingeschaltet. Je nach Stärke und Dauer dieses Anregungspulses führt er dazu, dass die Summe der magnetischen Momente, die Magnetisierung, eine Präzessionsbewegung mit einer Auslenkung aus der ursprünglichen Ausrichtungsachse erfährt. Optimal für die Signalstärke ist es, wenn sich am Ende des Anregungspulses die Magnetisierung in einer Ebene senkrecht zur ursprünglichen Ausrichtung, die ja parallel zum Magnetfeld war, befindet. Man spricht in diesem Fall auch von einem 90°-Puls. Diese sich dann bewegende Magnetisierung wird mit der Zeit wieder in ihre Ursprungsrichtung zurückkehren. Der entsprechende Prozess heißt Längsrelaxation; er verläuft im Allgemeinen zeitlich exponentiell. Die zugehörige Zeitkonstante wird als T1 bezeichnet. Das bedeutet, dass nach einer Zeit T1 63% der Magnetisierung wieder in der ursprünglichen Hauptmagnetisierungsrichtung liegen. Neben der Zeitkonstanten T1 gibt es einen weiteren wichtigen Prozess, der nach einmaliger Anregung zu einem Signalverlust führt. Dies ist vereinfacht erklärt dadurch bedingt, dass nach der Anregung die einzelnen magnetischen Momente nicht exakt mit dergleichen Frequenz umlaufen, sondern bedingt durch unterschiedliche Umgebungen und auch zeitlich nicht reversible Prozesse leicht unterschiedliche Frequenzen besitzen. Dies führt zu einem »Auseinanderlaufen« der Magnetisierung in der Ebene, die senkrecht zur ursprünglichen Magnetisierungsrichtung liegt (Beobachtungsebene). Der hierzu gehörende Prozess verläuft zeitlich auch meist exponentiell und ist gekennzeichnet durch die Zeitkonstante T2. Dieses Auseinanderlaufen der Phase in der Ebene ist immer schneller oder mindestens gleich schnell wie T1; d. h. es gilt T2≤T1. Erstaunlich ist, dass typische Werte von T1 und T2 im Subsekunden- und Sekundenbereich liegen (⊡ Tab. 16.2). Grund für diese relativ langen Zei-
16
273 16.3 · Grundlagen
ten, obwohl es sich doch um mikroskopisch bedingte Vorgänge handelt, ist die extrem schwache Kopplung zwischen äußerer Umgebung und Kernspinsystem. In der Praxis wird der Zerfall der Magnetisierung in der Beobachtungsebene noch beschleunigt durch Magnetfeldinhomogenitäten. Diese bewirken ebenfalls unterschiedliche Präzessionsfrequenzen der einzelnen magnetischen Momente und dadurch ein noch schnelleres »Auseinanderlaufen« der Magnetisierung. Die Zeitkonstante, die diesen Summenprozess beschreibt, wird mit T2* bezeichnet. Wichtig sind diese Zeitkonstanten deswegen, weil sie gewebeinterne Parameter sind, die durch geschickte Wahl der Geräteparameter (s. unten) den Kontrast steuern. Großer Vorteil der Magnetresonanz ist, dass hier schon 2 intrinsische Kontraste natürlich vorhanden sind (⊡ Abb. 16.2). Auf ein wichtiges, typisches Experiment soll hier noch kurz eingegangen werden: Das Spinechoexperiment (⊡ Abb. 16.3). Bei diesem Verfahren wird zunächst mit einem 90°-Impuls die Magnetisierung in die Ebene senkrecht zur Hauptmagnetisierungsache gebracht. Diese Magnetisierung zerfällt dann mit T2*. Nach einer Zeit, die wir mit TE/2 bezeichnen wollen, wird nun ein 180°- Impuls auf die Probe eingestrahlt; d. h. die aktuelle Magnetisierung wird um 180° gedreht. Dadurch wird der ganze »Fächer« von entstandenen magnetischen Momenten umgedreht. Das bewirkt im Weiteren, dass magnetische Momente, die sich relativ schnell vom Mittelwert der magnetischen Momente entfernt hatten, sich jetzt genau so schnell auf diesen Mittelwert wieder zu bewegen. In Summe hat das zur Folge, dass nach der Zeit TE alle magnetischen Momente wieder in Phase sind und so ein maximales Signal entsteht: das Spinecho. Im Spinecho werden die Signalzerfälle, die durch lokale, stabile Magnetfeldinhomogenitäten bedingt sind, aufgehoben, und der Signalabfall ist nur durch das reine T2 gegeben, was in den meisten Fällen deutlich länger ist als T2*.
um 0,4% verstärkt, am unteren Rand um 0,4% vermindert und im Zentrum unverändert. Die Gradienten bewirken in jedem Fall eine beabsichtigte lineare Verteilung der Resonanzfrequenzen. Im obigen Beispiel hat dies zur Folge, dass die Resonanzfrequenzen am oberen Messfeld um 0,4% höher liegen,
⊡ Tab. 16.2. Einige typische Werte für Relaxationszeiten im menschlichen Gewebe bei 1 Tesla Gewebe
T1 [ms]
T2 [ms]
Graue Hirnmasse
810±140
101±13
Weiße Hirnmasse
680±120
92±22
Muskel
730±130
47±13
Herz
750±120
57±16
Leber
420±90
43±14
Niere
590±160
58±24
Milz
680±190
62±27
Fett
240±70
84±36
16.3.3 Lokalisationsverfahren
⊡ Abb. 16.2. Magnetresonanzsignal, wie es auf einem Oszilloskop beobachtet werden kann. Die Frequenz ist durch die Resonanzbedingung festgelegt; der zeitliche Abfall des Signals ist durch T2* bestimmt
Bis jetzt ist lediglich klar, wie ein Magnetresonanzsignal entsteht, aber seine örtliche Zuordnung ist noch gar nicht geklärt. Die wesentlichen Techniken zur Lokalisation sollen daher hier kurz dargestellt werden. Für alle Lokalisationsverfahren benutzt man geschaltete magnetische Gradienten. Gradienten sind Zusatzfelder zum Grundmagnetfeld, die einen definierten, linearen Feldgradienten liefern. Das überlagerte Gradientenfeld ist i. Allg. klein verglichen mit dem Grundfeld. Als Beispiel seien folgende Werte genannt: Das Magnetfeld betrage 1,5T, die Gradientenstärke 30 mT/m (Millitesla/Meter). Dann beträgt der maximale Feldhub durch die Gradienten am Ende eines Gesamtmessfeldes von z. B. 40 cm ±6 mT; d. h. das Feld ist am oberen Rand des Messfeldes
⊡ Abb. 16.3. Darstellung des Spinechoexperiments
274
II
Kapitel 16 · Magnetresonanztomographie (MRT)
am unteren Messfeld um 0,4% niedriger. Dies kann in 3 verschiedenen Effekten genutzt werden: zur Schichtselektion, zur Frequenzkodierung und zur Phasenkodierung. Bei der Schichtselektion wird der anregende Hochfrequenzpuls so gestaltet, dass er ein klar definiertes Frequenzband umfasst. Die Anregungspulse werden gleichzeitig mit diesem Schichtselektionsgradienten geschaltet. Dann werden die magnetischen Momente, deren Resonanzfrequenz unter dem Gradienteneinfluss im Frequenzband des Hochfrequenzpulses liegen, angeregt, alle anderen jedoch nicht. So wird im Messobjekt eine Schicht angeregt. Bei der Frequenzkodierung wird während des Auslesens eines Magnetresonanzsignals ein Gradient eingeschaltet. Das bewirkt, dass das ausgelesene Signal viele Frequenzkomponenten enthält, die linear über den Raum verteilt sind. Wird das ausgelesene Zeitsignal einer Fourier-Transformation unterworfen, erhält man als Resultat die Frequenzverteilung, die aufgrund des zum Auslesezeitpunkt angelegten Gradienten dem Ort zugeordnet werden kann. Die Phasenkodierung funktioniert wesentlich komplexer als die beiden bisher angesprochenen Lokalisationsverfahren. Sie wird hier nur stark vereinfacht beschrieben. Bei der Phasenkodierung wird durch einen Gradienten, der zwischen Anregungspuls und Signalauslesung geschaltet wird, den magnetischen Momenten eine Phase aufgeprägt (ortsabhängige Winkelverschiebung gegenüber der ursprünglichen Ausrichtung). Nimmt man jetzt viele solcher Phasenkodierschritte mit unterschiedlichen Stärken vor, erhält man ortsabhängig wieder eine Frequenzverteilung, die durch Fourier-Transformation wieder dem Ort zugeordnet werden kann. Wesentlich für dieses Lokalisationsverfahren ist, dass die Hochfrequenzanregung und Signalauslesung n-mal wiederholt werden muss (typische Werte für n sind 256 bis 512). Eine Verkürzung der Messzeit kann dabei durch parallele Bildgebungstechniken erreicht werden. Dabei wird ausgenutzt, dass ein Array-Spulensystem (im Extremfall eine »Total Imaging Matrix«) ( Abschn. 16.4.3) auch über die Empfangsspulenelemente eine Ortsinformation gegeben ist. Wenn man diese Ortsinformation mit der Phasenkodierinformation kombiniert, kann die Zahl der Phasenkodierschritte entsprechend erniedrigt werden. So kann z. B. bei der Benutzung von 3 Arrayelementen entlang der Phasenkodierrichtung die Zahl der Phasenkodierschritte um den Faktor 3 reduziert werden und damit die Messzeit auch um den Faktor 3 reduziert werden.
16.3.4 Pulssequenzen und Kontraste
Diese drei gradientenbasierten Lokalisationstechniken können im Prinzip beliebig kombiniert werden. Das zeitliche Zusammenwirken von Gradientenschaltungen,
Hochfrequenzpulsen und Signalauslesezeiträumen bezeichnet man als Pulssequenz. Da hier sehr viele Freiheiten bestehen, gibt es in der Magnetresonanz immer wieder neue Entwicklungen, die überwiegend auf neue Pulssequenzen zurückzuführen sind. Hier soll nur eine Pulssequenz, die Spinechosequenz, erklärt werden. Sie ist auch heute noch oft Standard bei Bildgebungstechniken, wenn u. U. auch in veränderter Form. Die Spinechosequenz (⊡ Abb. 16.4) nutzt alle drei der oben genannten Lokalisationsverfahren. Über einen Schichtselektionsgradienten wird zunächst mit einem 90°-Hochfrequenzimpuls eine Schicht im Objekt angeregt. Danach wird in einer Orientierung senkrecht dazu ein Phasenkodiergradient geschaltet. Dann wird wieder in der gleichen Orientierung wie bei der ersten Schichtselektion ein 180°-Impuls auf das Objekt gegeben. Während das Echo entsteht, wird ein Auslesegradient in der verbleibenden der 3 Raumdimensionen geschaltet, sodass jetzt dreidimensional das Signal kodiert ist. Jetzt muss allerdings noch diese Abfolge von Schritten für die Phasenkodierung n-mal wiederholt werden. Die Wiederholungszeit bezeichnet man als Repetitionszeit TR. Die am Gerät einstellbaren Zeiten TR und TE haben großen Einfluss auf den Kontrast. Wird die Zeit TR deutlich kürzer als die Relaxationszeit T1 gewählt, so hat sich die Magnetisierung nur teilweise wieder aufgebaut. Das hat zur Folge, dass bei allen folgenden Anregungen Gewebeteile mit langen Relaxationszeiten T1 weniger zum Signal beitragen, während diejenigen mit kurzer Relaxationszeit mehr beitragen. Daher wird die Kombination TR relativ kurz (verglichen mit den längsten T1-Komponenten der untersuchten Gewebe) und TE relativ kurz (verglichen mit den T2-Komponenten des untersuchten Gewebes, d. h. der T2-Einfluss kommt nicht zur Geltung) als T1-Wichtung oder T1-Kontrast bezeichnet. Wird andererseits die Repetitionszeit lang gewählt, sodass fast alle Komponenten ihre Magnetisierung wieder aufbauen können, bevor der nächste Anregungspuls kommt, und weiterhin die Echozeit TE lang gewählt, so entsteht der T2-Kontrast. Jetzt wird der Kontrast im Wesentlichen durch die T2-Zeiten des Gewebes bestimmt. Der beschriebene Zusammenhang wird auch aus der Signalintensität sofort klar:
S
S 0 e TE / T 2 1 e TR / TE
Heute werden in modernen Magnetresonanztomographen noch zahlreiche weitere Sequenzen benutzt. Beispiele sind die Gradientenechotechnik, bei der das Echo nicht durch einen 180°-Impuls, sondern durch einen Dephasier- und anschließenden Rephasiergradienten bewirkt wird. Nach einer Hochfrequenzanregung können auch viele Gradientenechos mit unterschiedlichen Phasenkodierungen ausgelesen werden (Echoplanar-Imaging, EPI). Dieses Verfahren erfordert besonders schnelle Gradientenschaltungen.
275 16.4 · Technik
⊡ Abb. 16.4. Spinechosequenz; Beschreibung s. Text. Die Gradientenschaltungen 1 und 2 sind aus Symmetriegründen zusätzlich zu den im Text genannten Schaltungen erforderlich, um ein Magnetresonanzsignal entstehen zu lassen
16.4
Technik
Aus dem Grundlagenteil ist klar, welche Komponenten ein Magnetresonanztomograph benötigt (⊡ Abb. 16.5): ▬ einen Magneten zur Grundfelderzeugung, ▬ ein Gradientensystem für die Lokalisationstechniken, ▬ ein Hochfrequenzsystem zur Erzeugung der Anregungspulse und zum Auslesen des Signals, ▬ ein Steuerungs- und Bildrechnersystem zur synchronen Ansteuerung aller dieser Ereignisse sowie ▬ einen Hauptrechner, der alle Einzelteile überwacht und auch die Schnittstelle zum Benutzer liefert.
16.4.1 Magnettypen
Heute werden überwiegend nur noch 2 Magnettypen verwendet: Permanentmagnete für magnetische Induktionsstärken von 0,1-0,4 T und supraleitende Magneten für magnetische Induktionen von 0,5–9 T. Typisch für die heute verbreiteten Systeme sind »offen« gestaltete Permanentmagnete mit etwa 0,3 T (⊡ Abb. 16.6) und solenoidartige Supraleitungsmagnete von 1,5 T (⊡ Abb. 16.7). Um den Patientenkomfort zu erhöhen, gibt es seit 2005 auch relativ kurze supraleitende Magnete mit gößerem Durchmesser des Patiententunnels. Das homogene, nutzbare Messfeld für die Bildgebung beträgt etwa 40–50 cm. In diesem Bereich ist die Homogenität des Grundfeldes entsprechend hoch. Diese hohe Homogenität wird durch Korrekturverfahren ausgeglichen (Shimverfahren). Der Shim ist einerseits statisch, um lokale Einflüsse von Eisenträgern im Gebäude und ähnlichem zu kompensieren. Für den statischen Shim wird oft mit kleinen Eisenblechen gearbeitet, die an entsprechenden Stellen im Magneten platziert werden. Dann gibt es noch den dynamischen Shim, der vom Patienten eingebrachte Inhomogenität so weit wie möglich kompensiert. Der dynamische Shim ist immer durch elektrische Korrekturspulen realisiert.
⊡ Abb. 16.5. Blockschaltbild einer MR-Anlage
⊡ Abb. 16.6. MAGNETOM C! (0.35 T)
16
276
Kapitel 16 · Magnetresonanztomographie (MRT)
60 mT/m (Millitesla/Meter). Die zugehörigen Anstiegszeiten auf die Maximalgradientenstärke liegen zwischen 200 und 800 μs (Mikrosekunden). Um diese Gradientenstärken zu erreichen, sind Ströme von einigen hundert Ampère erforderlich; um die entsprechenden Anstiegszeiten zu erreichen, sind Spannungen bis zu 2000 V erforderlich. Um die bei diesen Leistungen entstehende Verlustwärme abzuleiten, sind moderne Gradientenspulen und Gradientenverstärker wassergekühlt.
II
16.4.3 Hochfrequenzsystem
⊡ Abb. 16.7. MAGNETOM Espree (1.5 T)
Vorteil der Permanentsysteme sind die niedrigen Betriebskosten. Nachteil ist das kleinere Signal-zu-RauschVerhältnis bei niedrigen Feldstärken. Im Prinzip gilt für die Anwendung in der Medizin ein annähernd linearer Zusammenhang zwischen magnetischer Induktion und Signal-zu-Rausch-Verhältnis. Durch Signalakkumulation (Messwiederholungen) kann das Signal-zu-Rausch-Verhältnis wieder erhöht werden. Das Signal-zu-RauschVerhältnis wird dabei aber nur mit der Wurzel aus der Messzeit besser, sodass für Niederfeldsysteme die erreichbaren Auflösungen meist etwas geringer als bei Hochfeldsystemen, medizinisch in vielen Fällen jedoch völlig ausreichend sind. In jüngster Zeit werden supraleitende Magnete auch als offene Systeme konstruiert. Dabei sind jedoch die entsprechenden Kosten deutlich höher, da die Effektivität der Felderzeugung einer Solenoidspule nicht zu übertreffen ist.
16.4.2 Gradientensysteme
Wesentliche Kenngrößen für ein Gradientensystem sind die erreichbare Gradientenstärke und die benötigte Anstiegszeit. Beides zusammen wird erreicht durch optimale Kombination von Gradientenspule und Gradientenverstärker. Die Gradientenspule besitzt 3 Subsysteme, die in den 3 Hauptachsen Feldgradienten erzeugen. Der für die Lokalisation massgebende Gradientenanteil ist immer die Variation der z-Komponente des Grundfeldes in Abhängigkeit von den verschiedenen Raumrichtungen. Das bedeutet, dass der x-Gradient ein Feld dBz/dx erzeugt; analog gilt das für den y- und z-Gradienten. Gradientenstärken, die bei Ganzkörpergradientenspulen erreicht werden, liegen heute zwischen 20 und
Das Hochfrequenzsystem besteht aus Sender, Antennen und Empfänger. Wie aus dem Grundlagenteil hervorgeht, liegen die Frequenzen für klinische MR-Systeme im Bereich von 8-128 MHz (für 0,2-T- bis 3-T-Systeme). Der Hochfrequenzsender muss für die Hochfrequenzpulse eine Spitzenleistung von einigen Kilowatt abgeben können. Der Anregungspuls wird über entsprechende Zuleitung auf die Antennen (auch oft als Spulen oder Resonatoren bezeichnet) geleitet. Meist bestehen die Systeme aus einer Ganzkörperantenne, die für das Senden und Empfangen verwendet werden kann. Vorteil der Ganzkörperantenne für die Anregung ist, dass das Hochfrequenzanregungsfeld sehr homogen ist und damit die Anregungswinkel für die Magnetisierung über das ganze Messfeld ziemlich gleichmäßig sind. Für den Empfangsfall ist es günstiger, Lokalantennen (Oberflächenspulen) zu verwenden. Diese sind näher am Körper angebracht und empfangen das Signal nur von einer bestimmten Region. Bedingt durch das kleinere abgedeckte Volumen wird auch weniger Rauschen empfangen und das Signal-zu-Rausch-Verhältnis steigt. Typischerweise lässt sich das Signal-zu-RauschVerhältnis durch Verwenden einer Lokalantenne für den Empfangsfall um den Faktor 2–5 steigern. Moderne Systeme verfügen bei Oberflächenspulen über Spulen in Arraytechnik. Dies sind mehrere kleinere, in einer Achse oder einem Feld (Array) angeordnete Oberflächenspulen, deren Signale jeweils eigenen Empfängern zugeführt werden und so einzelne Bilder berechnen, die erst am Ende der Bildbearbeitungskette zu einem Bild zusammengefügt werden. Da die einzelnen Spulen ziemlich klein sind, besitzen sie ein gutes Signal-zu-Rausch-Verhältnis. Da mehrere Bilder zusammengefügt werden, kann man trotzdem in einer Messung größere Messfelder abdecken. Typische Anwendung für diese Arraytechnologie ist die Aufnahme der Wirbelsäule (⊡ Abb. 16.8). Das von den Antennen empfangene Signal ist relativ schwach und wird daher zunächst verstärkt, bevor es dem Empfänger zugeführt wird. Eine Weiterentwicklung der Array-Technolgie ist die sogenannte »Total Imaging Matrix« (Tim), bei der viele
277 16.5 · Sicherheitsaspekte
Array-Elemente mit einer entsprechend großen Zahl an Empfangskanälen über eine intelligente Elektronik kombiniert wird. Diese Technik erlaubt z. B. die Darstellung des ganzen Körpers in einem Messdurchgang, wobei die Auflösung in jedem einzelnen Segment extrem hoch ist, sodass maximale Abdeckung mit maximaler Auflösung kombiniert werden können. Das empfangene Signal wird dann digitalisiert und die einzelnen aufgenommen Datensätze (Rohdatenzeilen) zum Rohdatenbild kombiniert, aus welchem dann durch 2-malige Fourier-Transformation das anatomische Bild entsteht (⊡ Abb. 16.9).
16.4.4 Steuerungs- und Bildberechnungs-
formation erhält, welche Rohdatenzeile er als nächstes erhalten wird. Heutige MR-Systeme haben meist 3 Rechnersysteme: ▬ Der Steuerungsrechner steuert den Gradientenverstärker und den Hochfrequenzsender und stellt die Synchronisation mit dem Bildrechner sicher. ▬ Der Bildrechner berechnet die entstehenden Bilder; wesentliche Operationen sind hierbei digitale Filterfunktionen und Fourier-Transformationen. ▬ Der Hostrechner schließlich beinhaltet die Benutzeroberfläche für den Bediener und stellt die Bilder dar. Durch den Fortschritt der Rechnertechnologie wird man in naher Zukunft Bild- und Steuerungsrechner in einem Rechnersystem zusammenfassen können.
system Das Steuerungssystem sorgt dafür, dass die benötigten Signale entsprechend der vom Benutzer ausgewählten Pulssequenz den entsprechenden Einheiten zugeführt werden und dass der Bildrechner synchron die In-
⊡ Abb. 16.8. Wirbelsäulenarrayspule eines modernen MR-Systems. Die Spulen sind in die Patientenunterlage integriert
16.5
Sicherheitsaspekte
Die drei in der Magnetresonanz üblichen Felder (Grundfeld, Gradientenfeld und Hochfrequenzfeld) bilden mögliche Gefährdungsrisiken, die durch entsprechende Vorkehrungen weitgehend minimiert werden können. Die größte Gefahr geht sicherlich vom Grundfeld, dem Magnetsystem, aus. Dabei ist allein die Anziehungskraft für ferromagnetische Gegenstände die Gefahrenquelle. Immer wieder werden Fälle bekannt, dass Sauerstoffflaschen oder andere Gegenstände in Magneten gezogen wurden. Meist passiert dies, bevor der entsprechende Patient in den Magneten gefahren wird, sodass es bisher selten zu größeren Unglücksfällen kam. Weiterhin ist der Magnet auch eine Gefahrenquelle für Patienten mit Herzschrittmachern älterer Bauart. Diese werden durch ein Magnetfeld programmiert; meist führt das dazu, dass sie in den Grundzustand versetzt werden und ihre Funktion nicht mehr erfüllen. Es wird vermutet, dass der Herztod eines australischen Patienten im Magneten auf diesen Effekt zurückgeführt werden kann. Einzige Gegenmaßnahme ist hier, Patienten mit Herzschrittmachern vom Magneten fernzuhalten.
⊡ Abb. 16.9. Rohdatenbild (links) und daraus berechnetes anatomisches Bild (rechts)
16
278
II
Kapitel 16 · Magnetresonanztomographie (MRT)
Die Hochfrequenz ist eine weitere denkbare Gefahrenquelle. Zwar sind die Energiequanten der eingesetzten Hochfrequenz niederenergetisch, sodass im Gegensatz zu radioaktiven und Röntgenverfahren keine Gefahr des Aufbrechens von Molekülbindungen besteht, aber die Gesamtleistung führt zu einer Wärmezufuhr im Körper. Um dies zu begrenzen, besitzen alle Magnetresonanztomographen einen sog. SAR-Monitor (SAR: »specific absorption rate«, spezifische Absorptionsrate), der die eingesetzte Hochfrequenzleistung überwacht und begrenzt. Oft ist dieses System redundant ausgeführt (Hardware- und Softwareüberwachung), sodass hier die Gefahr gering ist. Im Zusammenhang mit der Hochfrequenz gibt es aber spezifische Risiken: Unter Umständen kann durch ungünstige Patientengeometrien und Übergangskapazitäten eine Hochfrequenzstromschleife im Körper aufgebaut werden, die an Übergangsstellen zu lokalen Verbrennungen führen kann. Dies kann z. B. auftreten, wenn bei Messungen im Unterkörperbereich die Waden des Patienten sich berühren, sodass hier bei feuchter Haut ein Kreisstrom fliessen kann, der nahe den Berührungsstellen zu so hohen Stromdichten führen kann, dass Unterhautverbrennungen entstehen. Daher soll darauf geachtet werden, dass im Magneten die Beine getrennt gelagert werden. Eine andere Gefahrenquelle im Zusammenhang mit der Hochfrequenzleistung sind ungesicherte Kabel von Oberflächenspulen, auf denen sich stehende Wellen ausbilden können, die dann Hautverbrennungen hervorrufen können. Hier kann durch Einhalten einfacher Vorsichtsmaßnahmen (mindestens 1 cm Abstand zwischen Kabel und Haut) vorgebeugt werden. Dritte mögliche Gefahrenquelle ist das Gradientenfeld. Ursache ist das schnelle Schalten dieses Gradientenfeldes, das wiederum elektrische Felder im Körper verursacht, die Nervenstimulationen an den Extremitäten auslösen können. Diese Gefahr besteht nur bei den sehr leistungsfähigen Gradientensystemen. Um der Gefahr vorzubeugen, sind hier ebenfalls wie beim SAR-Monitor Software- und Hardwareüberwachungen eingebaut, die bei zu schnellen Gradientenschaltungen die weitere Messung stoppen (dB/dt-Monitor).
16.6
Anwendungen
16.6.1 Überblick
Bedingt durch die Vielfalt an Kontrastmöglichkeiten, die im Wesentlichen durch Pulssequenzvariationen entstehen, und durch die immer schnelleren Messtechniken ergibt sich für die Magnetresonanz ein stetig steigendes Anwendungsspektrum, bei dem noch kein Ende abzusehen ist. Bedingt dadurch nehmen die Zahl der MR-Untersuchungen und auch die Zahl der installierten Geräte
ständig zu. Aus Platzgründen ist es nicht möglich, hier alle Anwendungsmöglichkeiten darzustellen. Seit der Anfangszeit der MR werden schon immer die beiden intrinsischen Kontraste T1 und T2 benutzt, um anatomische Information zu erhalten. Zusätzlich wurde schon sehr früh ein MR-Kontrastmittel entwickelt, welches einen zusätzlichen Kontrastparameter liefert. Die heute zugelassenen Kontrastmittel beruhen überwiegend auf der Verkürzung der T1-Zeiten in der Umgebung von Kontrastmittelmolekülen, sodass bei starker T1- Wichtung höhere Kontrastmittelkonzentrationen durch höhere Signalintensitäten klar zu erkennen sind. Da das Kontrastmittel intravenös gespritzt wird und außerdem äußerst selten allergische Reaktionen hervorruft, ist dies ein sehr sicheres Verfahren, was daher auch oft benutzt wird. Bedingt durch diese 3 Kontrastparameter und die sehr gute Weichteildarstellung auf der einen Seite, andererseits durch die Empflindlichkeit gegen Patientenbewegungen wurde MR anfangs überwiegend im neuroradiologischen Bereich und in der orthopädischen Bildgebung eingesetzt. Noch immer betreffen etwa 35% der Untersuchungen den Schädel, weitere 35% die Wirbelsäule und etwa 15% das Knie. In diesen Bereichen hat sich MR schon heute oft als die Methode der Wahl bewährt. Zunehmend kommt MR heute auch bei anderen orthopädischen Fragestellungen, im Abdomen- und Beckenbereich und vereinzelt auch schon bei der Herzdiagnostik zum Einsatz.
16.6.2 Routineanwendungen
(T1-,T2-Bildgebung) Die Bilddarstellung von Schädel und Wirbelsäule wird typischerweise mit 2 verschiedenen Schichtführungen und den beiden Kontrastparametern T1 und T2 durchgeführt (⊡ Abb. 16.10). Bei der T1-Wichtung kommen oft Spinecho- oder Gradientenechoverfahren zum Einsatz. Für die T2-Bildgebung kommen häufig Spinechosequenzen mit mehrfachen Echos (durch mehrere 180°-Pulse nach einem 90°-Anregungspuls), sog. Turbospinechosequenzen, zum Einsatz. Damit lässt sich die Messzeit, die durch die Forderung, dass TR bei T2-Bildgebung einige Sekunden betragen muss, reduzieren. Beispiel: Während man bei einer Spinechosequenz mit 2 s Repetitionszeit TR die Gesamtmesszeit für ein Bild mit 256 Zeilen von mindestens 512 s benötigt, kann man bei Turbospinechosequenzen mit 4 Echos die Messzeit auf 128 s verkürzen, ohne an Kontrast zu verlieren. Stark verallgemeinert kann man sagen, dass die T1-Wichtung meist zur Darstellung der anatomischen Strukturen, die T2-Wichtung zur Darstellung pathologischer Vorgänge benutzt wird. Die T2-Wichtung ist für die Darstellung von pathologischen Strukturen vorteil-
279 16.6 · Anwendungen
⊡ Abb. 16.10. T1- und T2-Bild des Schädels
haft, da sich viele pathologische Prozesse durch Flüssigkeitsanreicherungen auszeichnen, die im T2-Bild hell erscheinen. Da sich diese Standardkontraste auch oft zusammen mit Kontrastmittelgabe bewährt haben, ist T1- und T2Bildgebung das Routineverfahren für viele Fragestellungen geworden.
16.6.3 3D-Verfahren
Bei den Standardverfahren für die T1- und T2-Bildgebung werden Multischichtverfahren eingesetzt. Typischerweise werden z. B. im Schädelbereich 20 Schichten mit einer Dicke von 4–5 mm aufgenommen. Zwischen den Schichten entsteht eine kleine Schichtlücke. Durch 3D-Verfahren besteht die Möglichkeit, ganze Volumenblöcke ohne Schichtlücken aufzunehmen. Diese können hinterher dann auch in anderen als der gemessenen Orientierung am Bildrechner reformatiert werden, sodass aus einem Datensatz beliebige Schichtorientierungen rekonstruiert werden können. 3D-Verfahren erfordern auf der einen Seite ein schnelles Messsystem und zusätzlich von der Bildverarbeitungssoftware 3D-Darstellungsmöglichkeiten. Da sowohl die MR-Systeme als auch die Bildrechner immer leistungsfähiger werden, nehmen 3D-Messverfahren, primär in T1Wichtung, vereinzelt aber auch schon in T2-Wichtung, zu.
16.6.4 MR-Angiographie
(Blutgefäßdarstellung) Durch geeignete Pulssequenzen ist es in der MR möglich, nur (gleichmäßig) strömendes Blut sichtbar zu machen. Dies kann ohne und mit Kontrastmittelgabe erfolgen. Ohne Kontrastmittelgabe gibt es zum einen die Time-of-flight-Techniken (⊡ Abb. 16.11), die darauf beruhen, dass das Signal des stationären Gewebes in einem
⊡ Abb. 16.11. Time-of-flight-Technik: Maximumintensitätsprojektion der Hirngefäße
Volumenbereich durch häufige Hochfrequenzpulse unterdrückt wird (Sättigung), frisch in das Messvolumen einströmendes Blut jedoch nicht diesem Sättigungseffekt unterliegt und daher die Blutgefäße hell erscheinen. Am Ende der Messung wird neben der üblichen Bildberechnung ein weiterer Bildnachverarbeitungsschritt durchgeführt, in dem auf den entstandenen 3D-Datensatz eine Maximumintensitätsprojektion (MIP) angewendet wird, die nur jeweils stärkere Bildintensitäten in einer Projektionsrichtung darstellt. Dies sind dann die noch sichtbaren Gefäße. Als weitere Technik ohne Kontrastmittelgabe kommen noch phasensensitive Messverfahren (»phase contrast«) zum Einsatz. Diese beruhen darauf, dass bewegte Kernspins im Gradientenfeld einen Phasenwinkel aufbauen. Durch 2 Messungen (eine mit dem spezifischen
16
280
II
Kapitel 16 · Magnetresonanztomographie (MRT)
Phasenkontrastgradienten, eine ohne), die nach der Messung voneinander subtrahiert werden, bleiben nur die Gefäße sichtbar. In jüngster Zeit kommen auch mehr und mehr kontrastmittelgestützte Gefäßdarstellungen zum Einsatz, primär im Körperstammbereich und im Bereich der peripheren Gefäße. Da für die Medizin meist nur die Darstellung der Arterien gewünscht wird, muss die Messung entsprechend schnell ablaufen, damit sie beendet ist, bevor das Kontrastmittel in die Venen strömt. Die zur Verfügung
stehende Messzeit beträgt zwischen 20 s (Kopfbereich) und 80 s (periphere Gefäße; ⊡ Abb. 16.12b). Da in dieser Messzeit ein großes Volumen idealerweise noch mit guter räumlicher Auflösung abgedeckt werden muss, funktionieren diese Verfahren nur bei modernen Maschinen mit sehr schnellem Gradientensystem. Neueste Entwicklung der MR-Angiographie ist die Ganzkörper-Angiographie, welche mit der »Total Imaging Matrix«-Technolgie möglich geworden ist. Dabei folgt die Bewegung des Patiententisches dem Kontrastmittelbolus. Über viele Arrayspulen wird das Signal empfangen, sodass nach kurzen Messzeiten das gesamte Gefäßsystem des Patienten mit hoher Auflösung dargestellt werden kann.
16.6.5 MR-Mammographie
a
Bei der Untersuchung der weiblichen Brust wird meist ein kontrastmittelgestütztes Verfahren eingesetzt. Da Tumoren fast immer ihr eigenes Gefäßsystem aufbauen und daher gut durchblutet sind, reichert sich das Kontrastmittel in Tumoren eher an als im übrigen Gewebe. Daher werden in diesem Anwendungsfall mehrere Messungen (eine vor Kontrastmittelgabe, einige Messungen nach Kontrastmittelgabe) durchgeführt. Die Bilder werden voneinander subtrahiert, um Kontrastmittelanreicherungen schnell sichtbar zu machen. Dieses Verfahren hat sich als sehr sensitiv (hohe Nachweiswahrscheinlichkeit von Tumoren), aber weniger spezifisch (gutartige und bösartige Tumoren können nicht immer unterschieden werden) erwiesen. Daher kommt es nur in Zusammenhang mit einer konventionellen Röntgenmammographie zum Einsatz und auch nur bei eingeschränkten Indikationen.
16.6.6 MR-Spektroskopie
b ⊡ Abb. 16.12. Periphere Angiographie. a Patient mit Spulen auf dem Patiententisch, b MR Ganzkörper Angiogramm
Bei der MR-Spektroskopie werden Effekte genutzt, die hier bisher noch nicht beschrieben wurden. Im Wesentlichen wird die Eigenschaft ausgenutzt, dass sich die Resonanzfrequenz je nach chemischer Umgebung um wenige Millionstel Teile (ppm, »parts per million«) verschiebt. So ist z. B. die Resonanzfrequenz der in den Neuronen vorkommmenden Aminosäure NAA (N-Acetyl-Aspartat) um 2 ppm gegenüber der Resonanzfrequenz von Wasser verschoben. Liest man das MR-Signal aus, ohne dass ein Auslesegradient angelegt ist und führt eine Fourier-Transformation des entstehenden Zeitsignals durch, so erhält man ein Linienspektrum, in dem die Höhe der Linien die Konzentrationen der vorliegenden Metaboliten darstellt. Die MR-Spektroskopie erlaubt also, vereinfacht gesprochen, eine chemische Analyse, ohne eine Probe zu entnehmen. Die Anzahl der detektierbaren chemischen Substanzen ist jedoch stark eingeschränkt.
281 16.6 · Anwendungen
Um bei der MR-Spektroskopie eine Ortsauflösung zu erzielen, verwendet man z. B. ein Doppelechoverfahren, bei dem ein 90°-Puls und zwei 180°-Pulse verwendet werden. Dabei liegt bei jedem der 3 Pulse der gleichzeitig angelegte Schichtselektionsgradient in jeweils einer anderen Orientierung, sodass das resultierende Signal aus dem Schnittvolumen der 3 Schichten stammt. Die so erzielbaren Ortsauflösungen ergeben Zielvolumina von 2–8 ml in der Protonenspektroskopie. Ebenfalls noch angewendet wird die Phosphorspektroskopie, bei der die Resonanzfrequenz von Phosphor als signalgebendem Kern genutzt wird. Die Protonenspektroskopie nutzt man typischerweise für das Gehirn, die Phosphorspektroskopie für Muskeluntersuchungen, da man bei letzterer energieliefernde Substanzen detektieren kann (⊡ Abb. 16.13).
16.6.7 Fortgeschrittene Neuromesstechniken
Unter fortgeschrittenen Neuromesstechniken seien hier die Lokalisation von Hirnfunktionen (»BOLD-Imaging«), die Perfusionsmessungen des Hirns und diffusionsgewichtete Hirnbilder zusammengefasst. Beim BOLD-Imaging (»blood oxygen level-dependent imaging«) wird die Tatsache ausgenutzt, dass aktive Hirnregionen lokal höher durchblutet werden, dass der Sauerstoffbedarf in diesen Hirnregionen aber nicht so stark ansteigt wie der lokale Blutfluss. Das bedeutet, dass in diesen Regionen ein höheres Sauerstoffniveau vorliegt, was in T2*-gewichteten Bildern zu einem höheren Signal führt. So kann man aktive Hirnregionen sichtbar machen. Als Beispiel sei hier die Aktivierung des motorischen Kortex beschrieben. Zunächst wird eine Serie von T2*empfindlichen Gradientenechobildern aufgenommen. Die dabei oft benutzte Sequenz ist vom EPI-Typ (»echo planar imaging«), bei der nach einer Anregung zahlreiche Gradientenechosignale ausgelesen werden, zwischen denen jeweils die Phasenkodierung stattfindet. So kann man sehr schnell (in etwa 100 ms) ein stark T2*-gewichtetes MR-Bild aufnehmen. Wenn man etwa 20 Schichten abdecken will, dauert eine Messserie also etwa 2 s. Danach bittet man den Patienen, für die Dauer von z. B. 3 weiteren Messserien seine Finger zu bewegen. Dies führt zu einer Aktivierung des motorischen Kortex. Die Signalunterschiede zwischen aktiviertem Zustand und nichtaktivem Zustand betragen nur 1–3%, sodass zur Sichtbarmachung des Effekts Nachverarbeitungsalgorithmen angewendet werden. Oft wird dann das Resultat dieser Nachverarbeitung, das nur die Lokalisation der aktiven Region zeigt, einem normalen T1-gewichteten anatomischen Hirnbild überlagert, um die Position der aktiven Region sichtbar zu machen. Interessant ist dieses Verfahren insbesondere für Patienten vor neurochirurgischen Eingriffen, da sich bei
⊡ Abb. 16.13. Protonenspektrum des menschlichen Hirns
diesen Patienten bestimmte Hirnzentren durch z. B. Hirntumoren verlagert haben. Der Chirurg bekommt so Informationen darüber, welche Hirnareale beim Zugang zum Tumor möglichst gemieden werden sollen. Außerdem findet dieses Verfahren großes Interesse in der psychologischen Forschung, wo oft andere Hirnaktivitäten (z. B. Wortverständnis) untersucht werden. Bei der Perfusionsmessung wird die Hirnperfusion dadurch gemessen, dass der Zeitverlauf des Kontrastmittelzuflusses gemessen wird. Nach Kontrastmittelgabe wird in kurzen Zeitabständen (einige Sekunden) jeweils das ganze Hirn untersucht, um so die Hirndurchblutung zu messen. Resultate dieser Messungen sind z. B. regionale Darstellungen des Bluthirnvolumens oder der »mean transit time« (mittlere Zeit, bis zu der ein bestimmtes Perfusionsniveau erreicht wird). Bei der diffusionsgewichteten Hirnbildgebung wird ein zusätzlicher Kontrastparameter benutzt. Schaltet man zwischen Anregung und Auslesen eines Signals zusätzliche sehr starke Gradientenpulse, so erhält man einen anderen Kontrast. Dies beruht darauf, dass Atomkerne, die sich aufgrund von Diffusionseffekten zwischen Anregung und Auslesen bewegen, beim Auslesen nicht mehr zum Signal beitragen. Ursache ist, dass durch die Bewegung im starken Gradientenfeld der Verlust des Phasengedächtnisses verstärkt wird. Die diffusionsgewichtete Bildgebung wird nach empirischen Erfahrungen überwiegend bei Hirninfarktpatienten eingesetzt, da nur so das frische Infarktvolumen sichtbar gemacht werden kann.
16
282
Kapitel 16 · Magnetresonanztomographie (MRT)
16.6.8 Herzuntersuchungen
II
Bei Herzuntersuchungen werden typischerweise 5 Techniken angewandt: ▬ Darstellung der Herzanatomie, ▬ Darstellung der Herzfunktion, ▬ Perfusionsmessung des Herzens, ▬ Vitalitätsdarstellungen, ▬ MR-Angiographie der Koronargefäße (⊡ Abb. 16.14). Der Vorteil der Magnetresonanz bei all diesen Verfahren ist, dass die Schichtführung durch Linearkombination von Gradienten beliebig festgelegt werden kann. So ist z. B. der Kardiologe vom Ultraschall den Blick in Richtung der langen Herzachse gewohnt. Da das Herz schräg im Körper liegt, wird zunächst anhand von Übersichtsaufnahmen die Orientierung der Herzachsen bestimmt und anschließend die Schichtführung genau parallel zu diesen Herzachsen gewählt. Da das Herz sich stark bewegt, werden getriggerte Aufnahmetechniken eingesetzt. Dazu wird gleichzeitig das EKG-Signal abgeleitet und immer in der gleichen Herzphase einige Datenzeilen aufgenommen. In Summe erhält man so stabile Bilder. Bei der anantomischen Darstellung wird einfach getriggert eine T1-Bildgebung durchgeführt, die es erlaubt, anomale Herzanatomien sehr gut zu erkennen. Bei der Herzfunktionsdarstellung werden Messungen zu verschiedenen Herzphasen aufgenommen und am
⊡ Abb. 16.14. Überblick über die Herzuntersuchungen (oben Vitalitätsdarstellungen, unten Koronariendarstellung, Herzfunktionalität)
Ende der Messserie als bewegtes Bild dargestellt. So sieht man sehr deutlich Herzwandbewegungen und kann die Funktion des Herzens erkennen. Weiterhin erlauben diese Bildserien bei gutem Kontrast zwischen Blut und Herzmuskel die quantitative Bestimmung von Blutauswurffraktionen (Ejektionsfraktionen; »ejection fractions«). Bei der Perfusionsmessung am Herzen werden sehr schnell (im Sekundentakt) Bilder aufgenommen, die das Einströmen des Kontrastmittels über die Koronargefäße in den Herzmuskel zeigen. Schlecht perfundierte Herzmuskelregionen können so sichtbar gemacht werden. Bei der Vitalitätsdarstellung wird das sog. »late enhancement« betrachtet. Kontrastmittel strömt gewöhnlich sehr schnell in den Herzmuskel und wird von vitalem Gewebe auch in wenigen Minuten wieder abgebaut. Wenn etwa 10–15 min nach Kontrastmittelgabe deutlich kontrastmittelanreichernde Bereiche zu sehen sind, deutet dies auf nicht vitale Gewebeanteile nach einem Herzinfarkt hin. Bei der Darstellung der Koronargefäße versucht man, deren Durchlässigkeit zu prüfen. Es werden getriggerte Sequenzen eingesetzt, die ähnlich der MR-Angiographie der Hirngefäße die Blutgefäße sichtbar machen. Bedingt durch die Herzbewegung sind hier die Resultate oft nicht eindeutig. Um diagnostisch sichere Aussagen machen zu können, muss das Verfahren jedoch ähnlich klare Aussagen liefern wie die klassische katheterbasierte Röntgenangiographie oder die CT-Koronarangiographie. Dies ist heute noch nicht zuverlässig gegeben, sodass das Verfahren in der klinischen Routine noch nicht eingesetzt wird.
283 16.7 · Ausblick
16.7
Ausblick
Wie schon erwähnt, wird durch ständige Weiterentwicklung von Pulssequenzen immer mehr die Möglichkeit gegeben, auch sehr schnell Bilder aufzunehmen. Das geht schon bis zur sog. Real-time-Darstellung, bei der die Aufnahme eines Bildes weniger als 100 ms benötigt und so bewegte Bildserien mit bis zu 10 Bildern pro Sekunde in Echtzeit dargestellt werden können. Dabei beträgt die Zeitverzögerung zwischen Bildaufnahme und Darstellung weniger als 1 s, sodass man von Echtzeitdarstellung sprechen kann. Weitere Verbesserungen dieser Verfahren werden die interventiononelle MR, insbesondere die interventionelle MR der Gefäße, in Zukunft Realität werden lassen. Dabei werden dann z. B. Stents nicht mehr unter Röntgenkontrolle, sondern unter MR-Kontrolle platziert. Vorteil des Verfahrens ist, dass einereseits MR auch den guten Weichteilkontrast bietet und andererseits die Belastung durch die Röntgenstrahlung wegfällt. Auch die Anwendungen in der Herzdiagnostik werden sich schnell weiterentwickeln, und in einigen Jahren könnte so die routinemäßige Darstellung der Herzkranzgefäße Realität werden. Die Herausforderung an Mediziner und Gerätehersteller besteht darin, die immer komplexer werdenden Messverfahren so zu vereinfachen, dass sowohl die Durchführung der Messung als auch die Darstellung und Interpretation der Resultate durch Softwareunterstützung stark vereinfacht werden müssen. Dies wird insbesondere deutlich, wenn man sich vorstellt, dass oft all diese Messverfahren von einer/einem medizinischen Assistentin/Assistenten durchgeführt werden müssen und ein Arzt all diese Resultate beurteilen können muss.
Weiterführende Literatur Bille J, Schlegel W (Hrsg) (1999) Medizinische Physik. Springer, Berlin Heidelberg Morneburg H (1995) Bildgebende Systeme für die medizinische Diagnostik, 3. Aufl. Publicis MCD, München Reiser M, Semmler W (Hrsg) (2002) Magnetresonanztomographie, 3. Aufl. Springer, Berlin Heidelberg Weishaupt D, Köchli C, Marincek B (2001) Wie funktioniert MRI?, 3. Aufl. Springer, Berlin Heidelberg
16
17 Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT) – Hybridbildgebung zur funktionalen Diagnostik und Therapiemanagement. Ein technologischer Überblick Y. Hämisch, M. Egger
17.1 Besondere Eigenschaften der PET – 285 17.1.1 Physikalische Grundlagen der PET – 290
17.2 Technologie der PET und PET-CT-Geräte für die Anwendung in der medizinischen Bildgebung – 298
17.2.3 Zukünftige Technologieentwicklungen in der PET – 308
Literatur
– 309
17.2.1 Systemgeometrie – 298 17.2.2 Kommmerzielle PET-Technologie – 299
17.1
Besondere Eigenschaften der PET
Da die Computertomographie in einem separaten Kapitel dieses Buches behandelt wird, fokussiert sich dieser Abschnitt auf die physikalischen und technischen Grundlagen und Besonderheiten der PET, auch wenn diese heute fast nur noch in Form von Kombinationsgeräten (PETCT) angewendet wird. Die Positronenemissionstomographie (PET) ist ein diagnostisches Verfahren der Nuklearmedizin, einer Disziplin der klinischen Diagnostik und Therapie, die unter Einsatz künstlich hergestellter radioaktiver Nuklide diagnostische Aussagen gewinnt oder therapeutische Ergebnisse erzielt. Schon in den frühen 1960er Jahren war es das Bestreben der Pioniere der Nuklearmedizin und der nuklearmedizinischen Technologie, positronenemittierende Radionuklide zur Diagnostik einzusetzen [1–10]. Diese haben gegenüber den in der als konventionelle Nuklearmedizin oder auch »single photon imaging« oder SPECT bezeichneten Diagnostik verwendeten Isotopen Vorteile sowohl physikalischer als auch physiologischer Natur, welche die PET zu dem heute am schnellsten wachsenden diagnostischen Verfahren machen. Die Zahl der weltweit installierten Geräte für die PET-Diagnostik an Patienten wächst gegenwärtig (2006) rasant, und es ist der Zeitpunkt vorauszusehen, an dem PET mindestens in gleicher Häufigkeit und Dichte angewendet werden wird, wie heute die Mag-
netresonanztomographie oder die auf Röntgenstrahlung basierende Computertomographie (CT). Diese stürmische Entwicklung liegt zu einem großen Teil in der Tatsache begründet, dass medizinische Diagnostik und Therapie sich in zunehmendem Maße um die Erkennung und Behandlung der physiologischen und biochemischen Ursachen von Krankheiten bemühen, statt nur deren Folgen und Symptome zu kurieren. Funktionale Diagnostik und Therapiekontrolle, minimalinvasive Chirurgie, Gentherapie und gentechnisch erzeugte, auf den individuellen Patienten zugeschnittene Medikamente werden mehr und mehr den Alltag medizinischer Diagnostik und Therapie bestimmen. Sie erfordern sehr sensitive, am lebenden Organismus (in vivo) einzusetzende Verfahren zur Diagnostik und insbesondere Verlaufsund Erfolgskontrolle therapeutischer Ansätze. Diese Entwicklungen werden unter dem Begriff der »Molekularen Medizin« zusammengefasst, der bildgebende Zweig dieser neuen Wissenschaft wird als »Molekulare Bildgebung« bezeichnet. Die molekulare Bildgebung zeichnet sich durch eine stark zunehmende Spezifität der verwendeten Kontrastmittel (hier: Tracer) und einen relativen Verlust an morphologischer und anatomischer Information aus [11]. Dieser Entwicklung wird seit kurzem technologisch durch die Kombination der PET mit einem Morphologie-abbildenden Verfahren wie der Computertomographie (CT) in einem Gerät, dem PET-CT-Scanner, Rechnung getragen. Aufgrund der überzeugenden klinischen Vorteile haben
286
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
sich PET-CT-Scanner gegenüber einzelnen PET-Geräten extrem schnell durchgesetzt und repräsentieren nach nur 4 Jahren (das erste wurde 2001 kommerziell eingeführt) mehr als 90% des Marktes [12]. Die folgenden 3 Beispiele sollen eine ausschnittsweise Vorstellung vom medizinischen Potential der PET-Anwendung vermitteln: ⊡ Abb. 17.1 ( auch 4-Farbteil am Buchende) zeigt Projektions-PET-Bilder (d. h. die Darstellung aller Daten aus verschiedenen Winkeln) einer Brustkrebspatientin, die sich 3 Jahre vor dieser PET-Studie einer Mastektomie rechts aufgrund eines Mammakarzinoms unterziehen musste. In der auf die Operation folgenden Nachbehandlung mit Kontrolle der Tumormarker wurde ein stetiger Anstieg derselben (CA15-3) festgestellt, dem jedoch trotz umfangreicher bildgebender Diagnostik mittels planarem Röntgen, CT, Ultraschall als auch einer Tc-Knochenszintigraphie keine eindeutige Ursache zugeordnet werden konnte. Erst die PET-Untersuchung mit Fluordesoxyglukose (18-F-FDG), einem mit dem PET-Isotop F-18 markierten Glukoseanalogon, zeigte das Ausmaß des Rezidivs
mit Knochenmarkbefall, axillären sowie mediastinalen Lymphknotenmetastasen als auch fokalen Knochenmetastasen, in den PET-Bildern hier zu erkennen am helleren orange bis weißen Farbton. Bei den beiden weißen, fast symmetrischen Fokalanreicherungen im Abdomen handelt es sich um eine normale physiologische FDG-Aufnahme der Nieren, ebenfalls weiß aufgrund hoher FDGAufnahme stellen sich das Gehirn sowie die Blase dar. 2. Das Potential der PET zur Beurteilung des Therapieerfolgs eines Patienten in der Onkologie und zur Optimierung onkologischer Therapie verdeutlicht ⊡ Abb. 17.2. Sie zeigt koronale Schnittbilder eines Patienten mit Hodgkins-Lymphom vor (obere Bildreihe) und 3 Monate nach Beginn der Behandlung (untere Bildreihe) mit dem Kombinationszytostatikum ABVD. Auf den Schnitten der oberen Reihe sind deutlich die malignen Läsionen des Lymphoms im Bereich des Mediastinums sowie supraklavikular als schwarze Foci zu erkennen. 3 Monate nach Beginn der Behandlung mit einem Kombinationszytostatikum sind diese vollständig verschwunden (untere Reihe), ein Indiz für den Erfolg der Therapie.
⊡ Abb. 17.1. Projektions-PET-Bilder einer Patientin mit rezidivem Mammakarzinom 3 Jahre nach initialer Mastektomie rechts. Aufgrund steigender CA15-3-Werte wurden sowohl Röntgen-, CT- und Ultraschalluntersuchungen als auch eine Tc-Knochenszintigraphie durchgeführt, jedoch alle ohne Befund. Erst die PET-Untersuchung zeigt das
Ausmaß des Rezidivs mit Knochenmarkbefall, axillären sowie mediastinalen Lymphknotenmetastasen als auch fokalen Knochenmetastasen (Bilder mit frdl. Genehmigung von Dr. J.F. Gaillard, Hôpital des Instructiones des Armées Val de Grace, Paris, Frankreich)
287 17.1 · Besondere Eigenschaften der PET
turell veränderten Bereiche des erkrankten Gewebes . PET und PET-CT liefern wichtige Informationen über die Tumorbiologie (z. B. den Metabolismus, den Sauerstoff-Stoffwechsel, die Proliferationsrate etc.), die eine wesentlich genauere Planung, einen gezielteren Einsatz mit weniger Nebenwirkungen und vor allem eine Kontrolle der Therapie ermöglichen [15–18].
Das rapide Wachstum der Tumorzellen ist zum Stillstand gekommen und damit die abnormal hohe Glukoseaufnahme auf den Normalwert des umliegenden Gewebes zurückgekehrt. In diesem Stadium sind die Läsionen allerdings morphologisch im CT durchaus noch als z. B. vergrößerte Lymphknoten sichtbar, was eine Beurteilung des Therapieerfolgs u. U. erschweren oder gar unmöglich machen kann. Gegenwärtige Publikationen zum Einsatz der PET zum Therapiemonitoring berichten z. T. über noch kürzere Nachweisintervalle im Bereich von Tagen oder Wochen [13, 14]. 3. Ein weiteres Feld der PET- und PET-CT-Anwendung ist deren Einsatz zur Planung und zum Monitoring von externen und internen Strahlentherapien in der Onkologie. Die Bestrahlungsplanung von Patienten in der Onkologie wurde früher ausschließlich auf der Basis der morphologischen Informationen von CT oder MRI durchgeführt. Dies bedeutete einen entscheidenden Nachteil für die Genauigkeit und Erfolgsaussichten dieser Therapieform, da morphologische Veränderungen i. d. R. den funktionalen folgen, d. h. eine Strahlentherapieplanung basierend auf morphologieabbildenden Verfahren erfasst jeweils nur die struk-
⊡ Abb. 17.3 ( auch 4-Farbteil am Buchende) veranschaulicht dies recht eindrucksvoll. Zu sehen ist das Display eines Strahlentherapieplanungssystems (PINNACLE®, Philips Medical Systems) für die Bestrahlungsplanung eines Lungenkrebspatienten. Die Bildinformation in grau stammt vom CT, gelb stellt die metabolische Information des FDG-PET dar. Der rote Bereich markiert das geplante Bestrahlungsfenster vor Vorliegen der PET-Information. Die Diskrepanz zwischen dem geplanten Bestrahlungsvolumen und der tatsächlichen Ausdehnung des Tumors ist gravierend. Ganze Bereiche des Tumors im rechten Lungenflügel werden nicht erfasst, ebenso nicht die kontralaterale Erkrankung in den linken hilären Bereichen. Statt dessen liegt nicht betroffenes, gesundes mediastinales Gewebe im Bereich des Bestrahlungsvolumens.
⊡ Abb. 17.2. Koronale PET-Schnittbilder eines Patienten mit Hodgkins-Lymphom vor Beginn (obere Reihe) der Chemotherapie mit ABVD (einem Kombinationszytostatikum) und 3 Monate nach Beginn
der Therapie (untere Reihe) (Bilder mit frdl. Genehmigung von Dr. J.F. Gaillard, Hôpital des Instructiones des Armées Val de Grace, Paris, Frankreich)
17
288
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
Die Einbeziehung biologischer und biochemischer Bildinformation zur Therapieplanung entwickelt sich gegenwärtig zum Standard. Die medizintechnische Industrie trägt dem durch die Entwicklung verbesserter Verfahren und Algorithmen zur einfacheren Einbindung dieser Informationen in den Planungsprozess verstärkt Rechnung (z. B. BioGuide® von Philips Medical Systems). Die vorliegenden Beispiele können nur einen kleinen Einblick in das umfangreiche Anwendungspotential der PET und PET-CT in klinischer Diagnostik und Therapie geben. Alle in den 3 Beispielen gezeigten PET-Untersuchungen wurden mit 18-F-Fluordesoxyglukose, einem mit dem Positronenemitter 18-F markierten Glukoseanalogon, durchgeführt. Bereits 1926 stellte Otto Warburg
⊡ Abb. 17.3. Beispiel einer Strahlentherapieplanung eines Lungenkrebspatienten. Die morphologische Bildinformation der CT ist grau dargestellt, die funktionale (metabolische) der PET in gelb. Die roten Areale markieren das geplante Bestrahlungsvolumen vor dem Vorliegen der PET-Information (Bilder mit frdl. Genehmigung von Dr. A. Waxman und Dr. R. Thompson, Cedars Sinai Medical Center, Los Angeles, USA)
[19] fest, dass maligne Zellen aufgrund ihrer rapiden Proliferation und des damit einhergehenden gesteigerten Energiebedarfs einen erhöhten Glukosestoffwechsel und eine größere Zahl von Glukosetransportern an ihrer Zellmembran aufweisen. Dieser biochemische Effekt wird in der PET mit 18-F-FDG zum Nachweis der Malignität von Geweben ausgenutzt, wobei dem Verfahren zugute kommt, dass das biochemische System des menschlichen Organismus (und auch das der meisten anderen Wirbeltiere) sensitiv genug ist, um die fluormarkierte Desoxyglukose von der im normalen Stoffwechselgeschehen verbrauchten Glukose zu unterscheiden. 18-F-FDG passiert die Zellmembran wie normale Glukose und nimmt auch am ersten Phosphorylierungsschritt in der Zelle teil, scheidet danach jedoch aus dem weiteren Stoffwechselzyklus aus und reichert sich in der Zelle an. Dieses sog. »trapping« stellt die Grundlage für den Nachweis in der PET dar, da es dadurch zu einer fokalen Anreicherung des PETIsotops kommt, welche im PET-Bild sichtbar gemacht werden kann. Die Aufgabe des Biochemikers und des Radiopharmazeuten oder Radiochemikers ist es also, ein geeignetes Analogon für den jeweils zu untersuchenden biochemischen Prozess zu finden, welches sich in den Targetzellen anreichert oder an den den biologischen Prozess bestimmenden Rezeptoren andockt. Nur so ist ein Nachweis im PET-Bild möglich. Neben der 18-F-FDG, mit der heute noch mehr als 80% aller PET-Untersuchungen durchgeführt werden, wurde eine große Zahl weiterer PET-Tracer entwickelt. ⊡ Tab. 17.1 zeigt eine Auswahl der am häufigsten verwendeten PET-Isotope, deren Halbwertszeiten sowie einige typische verwendete PET-Tracer. Prinzipiell lässt sich jedes organische Molekül mit einem PET-Isotop markieren und auf seinem Weg durch den Organismus verfolgen [20]. Gemeinsam ist den hier aufgelisteten Isotopen, dass es sich bei ihnen um sog. physiologische, d. h. körpereigene, Elemente handelt (das 18-Fluor eignet sich aufgrund der ähnlichen Elektronegativität und Atommasse sehr gut als Substituent für OH-Gruppen, die in jedem organischen
⊡ Tab. 17.1. Häufig verwendete PET-Isotope, deren Halbwertszeiten und einige mit ihnen markierte PET-Tracer sowie deren klinische Einsatzgebiete Isotop
Halbwertszeit
Typische PET-Tracer
Einsatzgebiete
15-O (Sauerstoff )
2,04 min
H2O, CO2
Blutflussmessungen O2-Stoffwechsel
13-N (Stickstoff )
9,97 min
NH3
Perfusionsmessung am Herzen
11-C (Kohlenstoff )
20,4 min
C-11 Methionin (+ eine große Zahl weiterer)
Onkologie, Tumordetektion, -staging, -monitoring
18-F (Fluor)
109,8 min
18-F-FDG (+ eine wachsende Zahl anderer fluorierter Verbindungen)
Onkologie, Tumordetektion, -staging, -monitoring, Entzündungen, Demenzen
289 17.1 · Besondere Eigenschaften der PET
Molekül vorkommen). Diese Tatsache ist die biochemische Ursache für die Ausnahmestellung der PET unter den diagnostischen Verfahren. Zwei andere Ursachen liegen in der physikalischen Natur der positronenemittierenden Radionuklide begründet: Im Gegensatz zu den sog. »Single-Photon-Emittern« wie z. B. Technetium (Tc-99m), oder Jod (z. B. J-131), die bei ihrem radioaktiven Zerfall jeweils nur ein Photon (γQuant) in beliebiger Richtung aussenden, entstehen beim Zerfall positronenemittierender Radionuklide 2 Photonen, die in entgegengesetzter Richtung (180°) und mit exakt gleicher Energie von 511 keV emittiert werden. Dies ermöglicht deren Nachweis in Koinzidenz (Gleichzeitigkeit) mit Hilfe gegenüberliegender Detektoren. Das Phänomen stellt hohe Anforderungen an die Zeitauflösung des Nachweissystems, da die emittierten Quanten innerhalb von Nanosekunden (1 ns=10–9 s) nachgewiesen werden müssen. ⊡ Abb. 17.4 zeigt den Unterschied der Messanordnung für den Nachweis von Single-Photon-Emittern und positronenemittierenden Radionukliden. Für den Nachweis von Nukliden, die nur jeweils ein Photon emittieren, muss ein mechanischer Kollimator (im Wesentlichen eine dicke Metallplatte mit vielen kleinen senkrechten Löchern) die Ortsinformation liefern, indem nur senkrecht einfallende Ereignisse zugelassen werden (⊡ Abb. 17.4, rechts). Dagegen ist offensichtlich, dass beim Nachweis eines Positronenzerfalls das Ereignis auf der Verbindungslinie der beiden Nachweisorte gelegen haben muss (⊡ Abb. 17.4, links). Diesen Effekt nennt man elektronische Kollimation, er ist die Basis der unerreicht hohen Sensitivität der PET. In einer Messung mit Kollimatoren (rechte Seite in Abbildung 17.4) werden 80–90% der vom Patienten emittierten Strahlung durch den Kollimator absorbiert. Die elektronische Kollimation durch den Positronenzerfall erlaubt es, auf mechanische Kollimatoren zu verzichten und damit die Sensitivität des Nachweises um einen Faktor 100–1000 zu erhöhen. Der jeweils gleichzeitige Nachweis zweier 511-keVγ-Quanten bedeutet auch, dass in einer PET-Messung die Auflösung und Signalabschwächung (engl. »attenuation«) unabhängig vom Zerfallsort des Nuklids im Objekt ist. Dies erlaubt über eine messtechnische Korrektur der Abschwächung die relative und auch absolute Quantifizierbarkeit der PET-Messungen. So können z. B. metabolische Raten des Glukoseumsatzes bestimmt werden. Eine weitere vorteilhafte physikalische Eigenschaft vieler positronenemittierender Radionuklide ist deren relativ kurze Halbwertszeit. Als Halbwertszeit bezeichnet man die Zeit, in der jeweils die Hälfte aller Atome eines radioaktiven Nuklids zerfällt. Dies heißt, in einer Halbwertszeit klingt die Aktivität eines Nuklids auf die Hälfte ab, in 2 Halbwertszeiten auf 1/4 usw. Je kürzer die Halbwertszeit eines Nuklids ist, desto »schneller« zerfällt es, d. h. in kürzerer Zeit wird mehr Strahlung emittiert.
Messtechnisch gesehen bedeutet dies, dass für positronenemittierende Radionuklide die Zerfallsrate, d. h. die zeitliche Signaldichte, höher ist als für längerlebige Isotope. Damit lassen sich in kürzerer Zeit mehr Ereignisse nachweisen, was die statistische Qualität der Messungen erhöht und gleichzeitig erlaubt, die Messzeiten kurz zu halten und niedrigere Aktivitäten zu verwenden. Ein Zahlenbeispiel verdeutlicht dies: in einer typischen Messung der Nuklearmedizin mit einem SinglePhotonen-Emitter längerer Halbwertszeit und Kollimator werden nach Injektion von ungefähr 20 mCi des Isotops ca. 500–3500 Ereignisse pro Sekunde registriert, während in der PET die sog. Koinzidenzzählrate nach Injektion von weniger als 10 mCi leicht im Bereich von 50.000–100.000 Ereignissen pro Sekunde liegen kann. Dies bedeutet, dass das Messverfahren der PET um Größenordnungen sensitiver ist und damit die Detektion auch kleinster Tracermengen ermöglicht. Die hohe Sensitivität des Verfahrens erlaubt es auch, mit sehr kleinen Tracermengen zu arbeiten, welche im Gegensatz zu z. B. Kontrastmitteln in der Radiologie die zu untersuchenden biochemischen Vorgänge nicht verfälschen. ⊡ Tab. 17.2 zeigt die molekularen Nachweisgrenzen dreier medizinischer bildgebender Verfahren zum Vergleich. Die kurze Halbwertszeit der meisten PET-Nuklide hat auch eine kurze Verweildauer der Radioaktivität im Patienten zur Folge, was sowohl physiologisch als auch strahlenschutztechnisch von Vorteil ist. Sie erlaubt eventuell auch, z. B. 2 verschiedene PET-Untersuchungen in kurzer zeitlicher Abfolge durchzuführen.
⊡ Abb. 17.4. Messtechnischer Nachweis von Single-Photon-Emittern mittels Kollimatoren (γ-Kamera; rechts) und der kollimatorlosen Messung positronenemittierender Nuklide in der PET (links)
⊡ Tab. 17.2. Molekulare Nachweisgrenzen bildgebender Verfahren Methode (Abk.)
Nachweisgrenze [mol]
Vollname
PET
10–12
Positronenemissionstomographie
SPECT
10–9
»Single Photon Emission Computed Tomography«
FMRI
10–3
»functional Magnetic Resonance Imaging«
17
290
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
Ein Nachteil der kurzen Halbwertszeit der PET-Nuklide ist sicher ihre eingeschränkte Transportierbarkeit, da ein großer Teil der Aktivität auf dem Transport verloren geht. Alle PET-Nuklide sind künstlich erzeugte Isotope und werden in Zyklotronen aus nicht radioaktiven Elementen hergestellt. Es werden heute industrielle Kompaktyzklotrone angeboten, die sich auch in Kliniken installieren lassen und mit minimalem Personalaufwand bedienbar sind. Trotzdem muss nicht jeder PET-Anwender ein Zyklotron installieren. Mit Fluor-18 (Halbwertszeit 109 min) markierte PET-Tracer lassen sich bis zu Transportentfernungen von 2–3 h noch ökonomisch transportieren, und in vielen Ländern mit hoher PET-Dichte wurden bereits Netzwerke der PET-Tracerdistribution etabliert, da ein Zyklotron leicht mehrere klinische PET-Scanner mit Radionukliden versorgen kann. Die wesentlichen Charakteristika der PET, die ihre herausragende Stellung unter den diagnostischen Verfahren begründen, sind in der Übersicht zusammengefasst. Es sind diese drei Charakteristika, die die PET zu so einem unvergleichlichen diagnostischen Verfahren machen und sie von allen anderen bildgebenden Verfahren, auch denen der Nuklearmedizin selbst, unterscheiden. Die PET ist ein Verfahren, das biochemische Funktionen darstellt, d. h. Prozesse statt Zustände. Diese Eigenschaft sowie die Nichtinvasivität und praktisch risikofreie Anwendbarkeit für alle Patienten machen die Positronenemissionstomographie zum prädestinierten bildgebenden Verfahren im anbrechenden Zeitalter der molekularen Medizin.
Die drei wesentlichen Charakteristika der PET 1. Die in der PET verwendeten radioaktiven Stoffe sind Isotope physiologischer, d. h. körpereigener Elemente, mit denen sich fast alle organischen Moleküle markieren lassen (d. h. die PET-Isotope werden in diese eingebaut oder an diese angehängt). Dies hat u. a. zur Folge, dass PET-Tracer physiologische Schranken (z. B. die Blut-Hirn-Schranke) leichter passieren als andere Untersuchungsmedien. 2. Die koinzidente (gleichzeitige) Emission zweier 511-keV-γ-Quanten in entgegengesetzter Richtung ermöglicht die kollimatorlose Detektion (elektronische Kollimation) und in Verbindung mit den kurzen Halbwertszeiten der PET-Nuklide eine unerreicht hohe Sensitivität des Verfahrens. Dies resultiert in einer Nachweisgrenze auf molekularem Niveau und dem Einsatz kleinster Tracermengen, die physiologische Prozesse nicht beeinflussen oder verfälschen. 3. Wegen der Tiefenunabhängigkeit der Detektion sind PET-Messungen absolut quantifizierbar. Dies ist besonders im Hinblick auf den Einsatz der PET in Therapiemonitoring und -kontrolle als auch in der biochemischen und pharmazeutischen Forschung von Interesse.
Im Folgenden soll auf die physikalischen Grundlagen der Positronenemissionstomographie sowie die heute verfügbare Technologie zu ihrer klinischen Anwendung eingegangen werden. Am Ende wird ein Ausblick auf aktuelle Technologieentwicklungen gegeben.
17.1.1 Physikalische Grundlagen der PET
Positronenemission und Annihilation Das wesentliche physikalische Charakteristikum positronenemittierender Nuklide ist ihr Zerfall unter Aussendung zweier 511-keV-γ-Quanten in entgegengesetzter Richtung. Dieser resultiert aus der Tatsache, dass positronenemittierende Nuklide einen Protonenüberschuss im Kern aufweisen. Um den energetischen Grundzustand zu erreichen, wird ein Proton in ein Neutron verwandelt. Nach den Gesetzen der Ladungserhaltung kann aber die positive Ladung des Protons nicht einfach verschwinden, daher wird sie in Form eines Positrons aus dem Kern emittiert. Das Positron ist das Antiteilchen des Elektrons, d. h. es hat die gleiche Masse, aber entgegengesetzte Ladung wie das Elektron. Als Teil der Antimaterie ist es in der »normalen« Materie nicht überlebensfähig und wird daher, nachdem es mit verschiedenen Hüllenelektronen kollidiert ist und seine Energie auf die der Hüllenelektronen »abgekühlt« hat, mit einem solchen verschmelzen. Diesen Prozess nennt man Annihilation, und er ist unvorstellbar kurz, nur einige Pikosekunden (1 ps=10–12 s) lang. Im Ergebnis der Verschmelzung des Positrons mit dem Hüllenelektron werden deren Ruhemassen (2×511 keV) in Form von 2 γ-Quanten im Winkel von fast exakt 180° abgestrahlt. Aus Gründen der Impulserhaltung wird noch ein Neutrino emittiert. ⊡ Abb. 17.5 veranschaulicht den Ablauf des Positronenzerfalls. Es ist wichtig festzuhalten, dass Zerfallsort des Nuklids und Nachweisort der Annihilation räumlich voneinander getrennt sind. Diesen Effekt bezeichnet man als physikalische Unschärfe, und deren Größe hängt von der initialen Energie des emittierten Positrons ab (einige MeV, d. h. das
⊡ Abb. 17.5. Schematische Darstellung des Positronenzerfalls und der Annihilation
291 17.1 · Besondere Eigenschaften der PET
Positron bewegt sich ca. 1–6 mm vor der Annihilation). Diese physikalische Unschärfe ist ein limitierender Faktor für die räumliche Auflösung der PET, und es ist wichtig zu verstehen, dass die PET als bildgebendes Verfahren in diesem Parameter nicht mit CT oder MR konkurriert. Die Stärke der PET ist eindeutig ihre hohe Sensitivität und die Fähigkeit, biochemische Prozesse statt morphologischer Zustände darzustellen.
Messtechnischer Nachweis der Positronenannihilation Der Nachweis radioaktiver Strahlung zur Bildgebung in der Medizin erfolgt zumeist mittels sog. Szintillatoren, d. h. von Kristallen, die unter der Einwirkung höherenergetischer radioaktiver Strahlung Licht erzeugen. Eine Besonderheit der positronenemittierenden Radionuklide in Bezug auf die Strahlungsdetektion ist die relativ zu anderen nuklearmedizinischen Isotopen höhere Quantenenergie von 511 keV. Dies stellt besondere Anforderungen an das Szintillatormaterial hinsichtlich der Absorptionsfähigkeit, resultiert aber auch in einer stärkeren Lichterzeugung (Lichtausbeute) in der Szintillation. Wegen der Kurzlebigkeit der meisten Positronenemitter und der damit verbundenen hohen Signalraten (Zählraten) ist auch das zeitliche Verhalten der Lichterzeugung und des -abklingens ein wichtiger Parameter für in der PET verwendete Szintillatoren. Die generellen Eigenschaften und Anforderungen an Szintillatormaterialien für die PET sind in ⊡ Tab. 17.3 zusammengefasst. ⊡ Abb. 17.6 zeigt das Schema der Koinzidenzdetektion. Zwei gegenüberliegende Detektoren registrieren jeweils ein 511-keV-γ-Quant des gleichen Zerfallsereignisses. Jedes von ihnen erzeugt einen Lichtblitz im Szintillationskristall, der über Photoelektronenvervielfacher (engl.: »photomultiplier tubes«, PMT) in einen Strom- bzw. in der nachfolgenden Elektronik in einen Spannungsimpuls verwandelt wird. Die Verteilung der Signalamplituden auf den hinter dem Kristall liegenden Photomultipliern erlaubt die räumliche Lokalisation des Auftreffortes des Ereignisses (Anger-Logik) [3].
Ein sog. Koinzidenzschaltkreis mit guter Zeitauflösung (typisch: 3–6 ns) überprüft die Gleichzeitigkeit der beiden Ereignisse und setzt im positiven Fall das der entsprechenden Koinzidenzlinie (engl.: »line of response«, LOR) zugeordnete Speicherelement um +1 herauf, d. h. ein Ereignis wurde registriert. Bevor dies geschieht, wird noch anhand der Signalamplitude die Energie der beiden γ-Quanten überprüft. Warum dies wichtig ist, werden wir im Folgenden noch sehen. Es ist interessant, sich vorzustellen, dass in einem modernen PET-Tomographen in einer klinischen Standarduntersuchung 3–10 Mio. Einzelereignisse pro Sekunde prozessiert werden müssen, um die »guten« Koinzidenzereignisse herauszufiltern (ungefähr 20.000–70.000 pro Sekunde für eine typische klinische PET-Studie mit F18-FDG). Dies verdeutlicht die enormen Anforderungen an die Signalverarbeitung in der PET. Diese Anforderungen an die Signalverarbeitung werden noch einmal um mehrere Größenordnungen gesteigert, wenn man versucht, auch die zeitliche Differenz des Eintreffens der beiden Koinzidenzereignisse zu messen. Dieses als sogenanntes »Time-of-Flight« (TOF)PET bekannte Verfahren erlaubt es, den Ort der Annihilation weiter einzugrenzen und damit insbesondere die Empfindlichkeit des Verfahrens durch Verringerung des
⊡ Abb. 17.6. Prinzip der Koinzidenzdetektion von Annihilationsstrahlung
⊡ Tab. 17.3. Wichtige gewünschte Eigenschaften von Szintillationskristallen für die PET Gewünschte Szintillatoreigenschaft
Bestimmt durch
Einfluss auf
Hohe Absorption für 511 keV
Dichte, Ordnungszahl, Dicke
Signal-Rausch-Verhältnis
Hohe Lichtausbeute
Dichte der Szintillationszentren (Dotierung), konkurrierende Mechanismen (Comptonstreuung)
Energieauflösung, Zeitauflösung
Kurze Anstiegs-/Abklingzeiten
Intrinsische Szintillatoreigenschaften
Zeitauflösung (bes. TOF) Randoms-Reduktion Zählratenkapazität (Totzeit)
Gute Energieauflösung
Intrinsische Szintillatoreigenschaften, Lichtausbeute
Scatter- und Randoms-Reduktion Signal-Rausch-Verhältnis
17
292
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
Hintergrundrauschens weiter zu erhöhen. Dies erfordert eine Zeitauflösung des Systems im Bereich von einigen hundert Pikosekunden (1 ps=10-12 s). Diese Technologie wird im folgenden Abschnitt noch ausführlicher beschrieben. Wie bereits angedeutet, ist es wichtig, nicht nur die zeitliche Übereinstimmung (und evtl. deren zeitlichen Abstand – TOF) zweier Ereignisse und deren Auftreffort auf dem Kristall festzustellen, sondern auch, deren Energie zu bestimmen. Bei der Messung von realen Objekten (oder in der klinischen Anwendung: Patienten) wird nicht alle Strahlung ideal und geradlinig austreten und die Detektoren treffen, sondern vorher mit der Materie, in der sich die Nuklide befinden, wechselwirken. ⊡ Abb. 17.7 zeigt eine Übersicht der möglichen Wechselwirkungen: 1. 2 γ-Quanten des gleichen Zerfallsereignisses, die ungestreut und unabgeschwächt das Objekt verlassen und während der Dauer des Koinzidenzzeitfensters (zwischen 6 und 12 ns) registriert werden, werden als wahres Ereignis (engl.: »true«) bezeichnet. Dies sind die einzigen Ereignisse, die idealerweise in die Bilddarstellung eingehen sollten. Sie behalten ihre ursprüngliche Energie von 511 keV bei und deponieren sie vollständig im Detektor. Man spricht hier auch von Photopeak-Ereignissen. 2. Wird eines der beiden γ-Quanten des Zerfallsereignisses (oder beide) gestreut, so kann das Detektionssystem die Linie (LOR), auf der der Zerfall stattgefunden hat, nicht rekonstruieren. In diesem Fall spricht man von einem gestreuten Ereignis (engl: »scatter«), und es entsteht eine LOR, die nicht einem tatsächlichen Zerfallsereignis entspricht. Gestreute Quanten haben eine niedrigere Energie als ungestreute und lassen sich darüber identifizieren. Die Streuung im Objekt ist vorwiegend Compton-Streuung, man spricht daher auch von Compton-Ereignissen. 3. Bei sehr hoher Aktivitätskonzentration (Signaldichte) wird es vermehrt vorkommen, dass 2 oder mehrere Zerfallsereignisse in das Koinzidenzzeitfenster des Systems fallen. Wird von diesen jeweils nur ein γ-Quant detektiert, während das jeweils andere nicht vom Detektionssystem erfasst wird, so spricht man von Zufallsereignissen (engl.: »randoms«). Wiederum wird das Detektionssystem eine LOR registrieren, der kein wirkliches Zerfallsereignis entspricht. Daher wird klar, dass nur die Ereignisse unter Punkt 1 zur Bildrekonstruktion herangezogen werden sollten. Die Ereignisse in 2 und 3 dagegen reduzieren die Bildqualität und die Genauigkeit quantitativer Aussagen. Ein wesentliches Merkmal gestreuter Ereignisse ist deren niedrigere Energie verglichen mit ungestreuten Quanten. Dies erlaubt eine Separation derselben durch Energiediskriminierung. Eine wesentliche Voraussetzung effektiver Energiediskriminierung ist die Fähigkeit des
⊡ Abb. 17.7. Mögliche Ereignisse in der Koinzidenzdetektion. Von oben nach unten: wahre Koinzidenzen (»trues«), gestreute Ereignisse (»scatter«), Zufallsereignisse (»randoms«) und die Abschwächung (»attenuation«) durch Absorption
Detektorsystems, zwischen verschiedenen Energien unterscheiden zu können, welche auch als Energieauflösung (ΔE/E) bezeichnet wird. Wie oben ausgeführt, benötigt die PET aufgrund der physikalischen Eigenschaft der elektronischen Kollimation prinzipiell keinerlei mechanische Kollimierung. Trotzdem wurden historisch mit dem Übergang vom Einschicht- zu Mehrschichtscannern über viele Jahre noch sog. Septen (Ringscheiben aus Wolfram) vorwiegend bei auf Wismutgermanat (BGO) basierenden PET-Scannern eingesetzt [21]. Sie sind exakt vor den Zwischenräumen der Kristalldetektoren positioniert und reduzieren den axialen Akzeptanzwinkel für Koinzidenzereignisse auf 3–5°, abhängig vom Scannermodell. Diesen Akquisitionsmodus bezeichnet man als zweidimensionale (2D) Akquisition, in ⊡ Abb. 17.8 links dargestellt. Er führt zu einer Reduktion des Eindringens der Streustrahlung in den Detektor zum Preis einer deutlichen Verringerung der Systemempfindlichkeit (Faktoren 4–5). Mit dem Einsatz neuer Szintillatoren mit besserer Energieauflösung und besseren Detektordesigns sowie Rekonstruktionsalgorithmen konnte in der PET mehr und mehr zum 3D Akquisitionsmodus (⊡ Abb. 17.8 rechts) übergegangen und damit deren volles Sensitivitätspotential genutzt werden [22]. ⊡ Abb. 17.9 zeigt ein charakteristisches Energiespektrum eines PET-Tomographen mit sehr guter Energieauflösung. Die physikalische Größe zur Charakterisierung der Energieauflösung in der PET ist die Halbwertsbreite des 511-keV-Signals (hier mit FWHM bezeichnet, engl. »full width at half maximum«). Die Stärke des im Szintillationskristall erzeugten Lichtsignals ist proportional zur inzidenten Energie des γ-Quants, somit lassen sich niederenergetische Signale durch Impulshöhenanalyse ausfiltern (sog. »thresholding«). ⊡ Abb. 17.9 verdeutlicht dies durch eine senkrechte Linie im Spektrum. Es wird klar, dass dies um so effektiver geschehen kann, je besser die Energieauflösung des Detektionssystems ist, d. h. je schmaler die FWHM ist.
293 17.1 · Besondere Eigenschaften der PET
⊡ Abb. 17.8. Unterschied zwischen 2D- (links) und 3D- (rechts) Akquisitionsmodus in der PET
⊡ Abb. 17.9. Typisches Energiespektrum eines PET-Tomographen mit sehr guter Energieauflösung (FWHM). Die gestreuten Ereignisse (»scatter«) haben eine niedrigere Energie als die ungestreuten (»photopeak«) und lassen sich daher mittels Impulshöhenanalyse (»threshold«) herausfiltern
Diese hängt von verschiedenen Faktoren ab: ▬ intrinsische Energieauflösung des Szintillatormaterials, ▬ Lichtausbeute des Szintillatormaterials, ▬ Eigenschaften des Lichtleiters zwischen Kristall und Photoelektronenvervielfacher (PMT), ▬ Geometrie der Detektoranordnung, ▬ elektronisches Rauschverhalten der Verstärkerkomponenten. Die Auswirkungen der oben erwähnten unerwünschten Ereignisse lassen sich gut an einem unkorrigierten PETBild ausmachen, z. B. am Thorax eines Patienten. Neben
der Körperkontur wird zu erkennen sein, dass scheinbar Ereignisse außerhalb des Patienten stattgefunden haben, wobei man aber bei einer Aufnahme mit 18-FDG sicher sein kann, dass sich keine Aktivität außerhalb des Patienten befindet. Diese scheinbaren Ereignisse sind durch Streuung und Zufallsereignisse entstanden und beeinträchtigen offensichtlich die Bildqualität. Die Zufallsereignisse sind homogen verteilt, da sie (quadratisch) von der im Gesichtsfeld befindlichen Aktivität abhängen. Die Streuung ist abhängig von der Objektdichte und -lage und damit inhomogen. Im Thorax ist die Streuung im (dichteren) Mediastinum höher als in den (weniger dichten) Lungenflügeln. Eine weitere Eigenschaft der Strahlungsausbreitung in realen Objekten (Patienten), welche die Bildqualität und die quantitative Genauigkeit sehr stark beeinflussen kann, ist die sog. Abschwächung (engl. »attenuation«), wie schematisch bereits in der unteren Reihe von ⊡ Abb. 17.7 dargestellt. Zum Zweck der Koinzidenzdetektion in der PET ist es notwendig, dass jeweils beide Quanten eines Zerfallsereignisses das Objekt verlassen und registriert werden. Wird nun eines der beiden oder werden beide Quanten im Medium soweit abgeschwächt, dass sie es nicht mehr oder außerhalb des Detektionssystems verlassen, wird kein Ereignis registriert. Es ist hier wichtig, 2 Besonderheiten der Abschwächung in der Koinzidenzdetektion zu verstehen: 1. Die Wahrscheinlichkeit der Abschwächung hängt nicht von der Tiefe (Position) des Zerfallsereignisses ab, da beide Quanten das Objekt verlassen müssen, um registriert zu werden. Die obere Reihe in ⊡ Abb. 17.10 veranschaulicht, dass die Gesamtabschwächungslänge L unabhängig vom Ort des Zerfalls ist. 2. Die untere Reihe von ⊡ Abb. 17.10 macht deutlich, dass 1. nur für identische LOR-Richtungen gilt. Handelt es sich um ein Objekt mit nicht kreisförmigem Querschnitt (charakteristisch für die meisten Patienten), kommt es zu richtungsabhängig variierender Abschwächung, welche zu Artefakten führen kann. Auch bei exakt kreisförmigem Querschnitt des Objekts wird man im Zentrum eine scheinbar verminderte Aktivität messen, da die Quanten entlang nichtzentraler LOR eine geringere Wahrscheinlichkeit der Abschwächung (d. h. kleineres L) aufweisen. Im transaxialen Querschnitt lassen sich Effekte (Bildartefakte) der Abschwächung beobachten: Die Lungenflügel scheinen Aktivität zu enthalten, während das Mediastinum (in dem viele Hauptblutgefäße liegen) scheinbar geringere Aktivität aufweist. Aus Messungen der physiologischen Verteilung von 18-F-FDG wissen wir aber, dass dies in Wirklichkeit nicht so ist. Gerade die umgekehrte Verteilung wäre korrekt, d. h. wenig oder fast keine Aktivität in den Lungenflügeln, aber hohe Aktivität im Mediastinum. Es wird klar, dass es sich um einen Bildar-
17
294
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
II
⊡ Abb. 17.10. Schematische Darstellung der Tiefenunabhängigkeit (obere Reihe) sowie der Richtungsabhängigkeit (untere Reihe) der Abschwächung in der Koinzidenzdetektion)
⊡ Abb. 17.11. Prinzip der Messung der Abschwächung in der PET mit positronenemittierendem Nuklid (links) und Einzelphotonenemitter oder CT (Röntgenröhre und -detektor) (rechts)
tefakt, erzeugt durch Abschwächung, handelt. Es ist leicht vorstellbar, dass solche Artefakte zu Fehlinterpretationen oder -diagnosen führen können und daher vermieden werden müssen. Es gibt mehrere Möglichkeiten, den Effekt der Abschwächung in der PET rechnerisch oder messtechnisch zu korrigieren: 1. Bei bekannter Objektgeometrie und annähernd homogener Dichte (z. B. Gehirn) lässt sich der Betrag der Abschwächung rechnerisch abschätzen [23]. 2. Messung der Abschwächung mittels eines extern um das Objekt kreisenden positronenemittierenden Nuklids (z. B. Ge-68) in Koinzidenz [24]. 3. Messung der Abschwächung mittels eines extern um das Objekt kreisenden Einzelphotonenemitters (z. B. Cs-137) mit einer Energie nahe bei 511 keV [25,26]. 4. Gewinnung der Dichteinformation aus dem CT-Bild (PET-CT). Dazu wird das CT-Bild segmentiert (d. h. in Volumina annähernd gleicher Dichte unterteilt, z. B. Luft (Lunge), Wasser (Weichteilgewebe), Knochen, andere (z. B. Implantate oder Kontrastmittel) und auf die Auflösung des PET heruntergeglättet. Den verschie-
denen Gewebetypen werden bekannte PET(511 keV)Abschwächungskoeffizienten zugeordnet, und dieses vereinfachte CT-Bild wird in der Geometrie des PETBildes rückprojeziert. Die Koeffizienten der Abschwächung werden dann per line-of-response (LOR) in der PET-Rekonstruktion verrechnet [27]. ⊡ Abb. 17.11 soll das Prinzip der Messung der Abschwächung mit einem positronenemittierenden Nuklid (links) und einem Einzelphotonenemitter bzw. dem CT (rechts) veranschaulichen. Im Falle von externen Isotopen-Strahlungsquellen durchstrahlen diese den Patienten entlang der exakt selben LOR, entlang derer die Emission gemessen wird. Zur Kalibrierung wird ein sog. »Blank«-Scan benutzt, d. h. eine Aufnahme ohne Objekt im Gesichtsfeld. Da die Quellstärke (Aktivität) bekannt ist, lässt sich aus der Differenz der gemessenen Zählrate im Blank-Scan und der Rate im Objektscan der Betrag der Abschwächung (Abschwächungskoeffizient) entlang jeder Koinzidenzlinie (LOR) bestimmen. Dieser wird dann zur Korrektur der Signalrate der Emission entlang der entsprechenden Koinzidenzlinie herangezogen.
295 17.1 · Besondere Eigenschaften der PET
⊡ Abb. 17.12. Vereinfachtes Prinzip der Bildrekonstruktion in der PET: Aus den gemessenen Koinzidenzen entlang der LOR zwischen den Detektoren m(i,j) muß die wahre Aktivitätskonzentration in den (Vo-
lumen-)elementen a(x,y,(z)) ermittelt werden (hier zur Vereinfachung nur zweidimensional dargestellt). (Abb. mit frdl. Genehmigung von W. Böning, Technische Universität München)
Im Falle eines PET-CT-Gerätes wird die Bildinformation des CT-Bildes zur Berechnung der Abschwächungskorrektur benutzt. Dazu wird das CT-Bild segmentiert (d. h. in Volumina annähernd gleicher Dichte unterteilt, z. B. Luft (Lunge), Wasser (Weichteilgewebe), Knochen, andere (z. B. Implantate oder Kontrastmittel) und auf die Auflösung des PET heruntergeglättet. Anschließend wird es rückprojiziert, und den verschiedenen Gewebetypen werden bekannte PET(511 keV)-Abschwächungskoeffizienten zugeordnet. Diese Koeffizienten werden dann per line-of-response (LOR) in der PET-Rekonstruktion verrechnet.
wahren Aktivitätsverteilung im Objekt (Patient) zu erzeugen. ⊡ Abb. 17.12 veranschaulicht dies. Das Ziel der Bildrekonstruktion ist es, aus den gemessenen Koinzidenzen entlang der LOR zwischen den Detektoren m(i,j) die wahre Aktivitätskonzentration in den (Volumen-)elementen a(x,y,(z)) zu ermitteln (zur Vereinfachung nur zweidimensional dargestellt). Zuvor ist es wichtig, die wahren Ereignisse von den unerwünschten (»scatter«, »randoms«) zu trennen sowie den Effekt der Abschwächung zu korrigieren. Auf die Details dieser Korrekturen kann an dieser Stelle nicht näher eingegangen werden. Historisch wurden bei der PET aus Gründen sehr begrenzter Datenspeicher- und Prozessierungskapazitäten statt kartesischer (x, y, z) häufig Polarkoordinaten (θ, r) verwendet. ⊡ Abb. 17.13 ( auch 4-Farbteil am Buchende) zeigt das Prinzip der Speicherung der gemessenen LOR in sogenannten Sinogrammen mit Polarkoordinaten. Jede Koinzidenzlinie (LOR) wird entsprechend ihres Winkels θ (gemessen meist von der »12 Uhr-Position«) sowie ihres radialen Abstands r vom Zentrum des kreisförmigen Gesichtsfelds als ein Ereignis in der Position (θ, r) im Sinogramm gespeichert. In ⊡ Abb. 17.13 ist zur Vereinfachung nur ein zweidimensionales Sinogramm dargestellt. Für die normalerweise dreidimensionalen Messungen kommt noch ein
Bildrekonstruktion Wie gelangt man aber nun von den vielen Millionen registrierter Ereignisse (eine typische Ganzkörper-PET-Studie mit F-18-FDG enthält ca. 100 Mio. Koinzidenzereignisse) zu einem von einem Arzt zu interpretierenden PET-Bild? An dieser Stelle kann nur in sehr kurzer und vereinfachter Form auf die Grundlagen der Bildrekonstruktion in der PET eingegangen werden. Weiterführende Informationen finden sich z. B. in [28–30]. Mathematisch gesehen besteht die Aufgabe der PETBildrekonstruktion darin, aus den gemessenen Koinzidenzen (Projektionen) ein möglichst genaues Abbild der
17
296
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
weiterer Parameter, der axiale Winkel ϕ relativ zur Achse des Detektionssystems) der Koinzidenzlinie, hinzu. Oft wurden die Daten jedoch mittels sog. »rebinning« in zweidimensionale Sinogramme (entsprechend transaxialer Schichten) umgewandelt und auch die Anzahl der möglichen radialen Abstände und Winkel wurde begrenzt durch die Sinogrammgröße. Die sogenannten Histogrammspeicher von PETTomographen erlaub(t)en Sinogrammgrößen von ungefähr 192×256 Elementen (Winkel [Zahl der Projektionen]×radiale Abstände). Die meisten PET-Tomographen verfügen heute jedoch über Tausende (meist mehr als 10.000) Detektorelemente (Szintillationskristalle), die die Messung von mehreren Millionen Koinzidenzlinien erlauben. Es ist offensichtlich, dass die radikale Vereinfachung der Datensortierung in Sinogramme die rekonstruierte Bildauflösung und den Kontrast reduzieren muss.
⊡ Abb. 17.14 veranschaulicht diese Tatsache am vereinfachten Beispiel des Vergleichs von 2 oder 3 verfügbaren Projektionen. Es ist deutlich erkennbar, dass mit 3 Projektionen zumindest 2 der Objekte (Quellen) mit wesentlich höherem Kontrast abgebildet werden als mit nur 2 Projektionen. Man kann sich sicher vorstellen, dass mit z. B. 6 Projektionen auch die anderen beiden Quellen kontrastreicher abgebildet würden. Gegenwärtig werden an den meisten PET-Tomographen klinische Bilder noch aus 2D-Sinogrammen durch iterative Rekonstruktion erzeugt. Verschiedene Verfahren wurden implementiert, die meisten basieren auf Maximum-Likelihood-Algorithmen (MLEM, OSEM), die in mehreren Iterationsschritten (typisch: 2–12) zum gewünschten Bild konvergieren und anschließend mittels verschiedener Filter geglättet werden [31,32]. Fortgeschrittenere Algorithmen verwenden von Voxeln abweichende Basisfunktionen und schneller konvergierende Iterationstechniken [33,34].
⊡ Abb. 17.13. Prinzip der Datenspeicherung der Projektionen der gemessenen Aktivitätsverteilung (links) in Sinogrammen mit Polarkoordinaten (rechts). (Abb. mit frdl. Genehmigung von W. Böning, Technische Universität München)
⊡ Abb. 17.14. Unterschied der Ergebnisse der Rückprojektion von gemessenen Projektionen von 4 Objekten (z. B. radioaktiven Quellen) aus 2 Projektionen (links) oder 3 Projektionen (rechts). (Abbildung mit frdl. Genehmigung von W. Böning, Technische Universität München)
297 17.1 · Besondere Eigenschaften der PET
Aufgrund der rasanten Entwicklung der Computerarchitektur hin zu höherer Leistungsfähigkeit (Speicherplatz und Rechengeschwindigkeit) bei gleichzeitiger Kostenreduktion der Komponenten wird es heute möglich, bei modernen PET-Tomographen auf die Vereinfachung (Datenreduktion) der Sinogramme zu verzichten und dreidimensionale Bilder direkt aus den gemessenen LOR zu rekonstruieren [35]. Dies führt zu einer Verbesserung von Kontrast (Signal-zu-Rausch-Verhältnis) und vermindert Effekte der Degradation der räumlichen Auflösung, wie ⊡ Abb. 17.15 veranschaulicht.
Eine weitere Verbesserung der Bildqualität wird möglich, wenn die Information über die zeitliche Differenz des Eintreffens zweier γ-Quanten einer LOR (time-offlight=TOF) verwendet werden kann [36,37]. Im Sinne einer Wahrscheinlichkeit des wahren Ortes der Annihilation wird dadurch der Bereich der Unsicherheit von der Länge der gesamten LOR auf einen Teilbereich derselben reduziert. ⊡ Abb. 17.16 veranschaulicht dies grafisch. Stellt man sich nun wieder einen Rekonstruktionsalgorithmus analog zu ⊡ Abb. 17.14 vor, wird deutlich, wie die TOF-Information das Rauschen reduziert und das Signal-zu-Rausch-
⊡ Abb. 17.15. Evolution der Rekonstruktionsverfahren in der PET illustriert an einem Phantom mit verschieden grossen, aktivitätsgefüllten Einsätzen sowie Aktivität im Hintergrundvolumen: obere Reihe: gefilterte Rückprojektion aus 2D-Sinogrammen, zweite Reihe: iterative Rekonstruktion aus 2D-Sinogrammen, dritte Reihe: iterative Rekonstruktion aus 3D-Sinogrammen, untere Reihe: direkte iterative Rekonstruktion aus gemessenen LOR (Abbildung mit frdl. Genehmigung von F. Benard, Universite de Sherbrooke, Canada)
⊡ Abb. 17.16. Prinzip der Bildverbesserung durch Messung der Flugzeitdifferenz (engl.: time-of-flight = TOF) der koinzidenten Gammaquanten der Positronenannihilation: obere Reihe links: Koinzidenzmessung ohne TOF, rechts mit TOF. Der mögliche Ort der Annihilation wird eingegrenzt. Untere Reihe links: Überlagerung der Koinzidenzlinien einer Punktquelle ohne TOF, rechts mit TOF. Deutlich sichtbar sind die Verringerung des Rauschens sowie die Verbesserung der räumlichen Auflösung durch Verwendung der Zeitinformation
17
298
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
Verhältnis verbessert. Wenn man sich verdeutlicht, dass γ-Quanten bei Lichtgeschwindigkeit zur Durchquerung eines typischen Körperquerschnitts (30 cm) gerade 1 ns (10-9 s) benötigen, braucht man, um wirklich einen Effekt im rekonstruierten Bild sehen zu können, eine Systemzeitauflösung, die deutlich unter diesem Wert liegt, im Bereich einiger Hundert Pikosekunden (10-12 s). Die wesentlichen physikalischen Eigenschaften und Voraussetzungen der Positronenemissionstomographie sind in der Übersicht zusammengefasst.
Physikalische Eigenschaften und Voraussetzungen der PET
senen Daten (LOR) zu errechnen. Die gegenwärtig fortgeschrittenste Variante nutzt dazu auch die Zeitdifferenzinformation (TOF) der γ-Quanten für weiter gesteigerten Bildkontrast und verringertes Rauschen.
17.2
Technologie der PET und PET-CT-Geräte für die Anwendung in der medizinischen Bildgebung
17.2.1 Systemgeometrie
▬ Positronenemittierende Nuklide zerfallen unter
▬
▬
▬
▬
▬
▼
Aussendung eines Positrons, welches innerhalb kürzester Zeit mit einem Elektron verschmilzt (Annihilation). Die Energie der beiden Partikel wird in Form von 2γ-Quanten von 511 keV in entgegengesetzter Richtung (180°) abgestrahlt. Diese sog. Annihilationsstrahlung kann mit Hilfe gegenüberliegender Detektoren in Koinzidenz (Gleichzeitigkeit) registriert werden. Die Verbindungslinie der beiden Auftrefforte (LOR) markiert die Linie, auf der das Annihilationsereignis stattfand (elektronische Kollimation). Die dafür verwendeten Detektoren sind Szintillationskristalle, in denen die Energie der 511 keV-Quanten in Lichtimpulse umgewandelt wird, welche über Photoelektronenvervielfacher (PMT) oder Halbleiterbauelemente in Strom- und Spannungsimpulse konvertiert werden. Die PET-Detektoren müssen in der Lage sein, Auftreffort und -zeit sowie die Energie des eintreffenden Ereignisses zu bestimmen. Wegen der Wechselwirkungen der radioaktiven Strahlung mit der Materie des Untersuchungsobjekts unterscheiden wir 4 verschiedene Effekte der Koinzidenzdetektion: – wahre Ereignisse (»trues«), – gestreute Ereignisse (»scatter«), – zufällige Koinzidenzen (»randoms«) sowie – den Effekt der Abschwächung (»attenuation«). Die Effekte von Streuung, Zufallsereignissen und der Abschwächung können rechnerisch und/oder messtechnisch korrigiert werden. In modernen PET-CT-Kombinationsgeräten spielt dabei die im CT-Bild enthaltene morphologische Information eine entscheidende Rolle zur Verbesserung der Qualität der Korrekturen. Historisch erfolgte die Reduktion der PET-Daten in sog. Sinogramme mit nachfolgender 2D- oder 3DRekonstruktion. Moderne PET-Tomographen sind in der Lage, Schnittbilder direkt aus den gemes-
Da sich in diesem Buch ein separates Kapitel mit der Technologie und Anwendung der Computertomographie befasst, beschränkt sich dieser Abschnitt auf die Erörterung der PET-Technologie. Das Ziel jeder auf radioaktiven Isotopen basierenden Messung, so auch der PET, besteht darin, in möglichst kurzer Zeit möglichst viele der stattfindenden Ereignisse (der radioaktiven Zerfälle) zu registrieren. Da der radioaktive Zerfall seiner Natur nach isotrop ist (d. h. keine bevorzugte Emissionsrichtung hat), ist es wünschenswert, mit dem Messsystem einen möglichst großen Raumwinkel um die Verteilung der Radioaktivität herum abzudecken. Diesen Faktor bezeichnet man auch als geometrische Effizienz des Messsystems. Verschiedene Detektoranordnungen wurden im Lauf der Entwicklung der PET technisch realisiert. Limitationen ergeben sich v. a. aus ökonomischen Gründen (Kosten des Detektormaterials) als auch aus praktischen Erwägungen der klinischen Anwendbarkeit (z. B. wäre das optimale Detektionssystem eine geschlossene Kugelschale, die sich aber sicher klinisch schwer anwenden ließe). Heute hat sich die Ring-Geometrie weitgehend durchgesetzt, bei der ein Ring von Detektoren die Öffnung eines Scanners umschließt, durch die der Patient auf einem speziellen Tisch in Schritten oder kontinuierlich hindurchgefahren wird, um einen bestimmten Bereich oder den ganzen Körper abzubilden. Diese Geometrie hat den Vorteil, dass sie der eines Computertomographen sehr ähnlich und daher mit einem solchen einfach kombinierbar ist. Mehr als 95% aller PET-Geräte werden heute als Kombinationsgeräte, sogenannte PET-CT, verkauft. ⊡ Abb. 17.17 zeigt ein solches System, mit dem CT-Gerät im Vordergrund und der PET-Einheit dahinter. Beide Systembestandteile haben den gleichen Durchmesser der Patientenöffnung von 70 cm, der axiale Abstand zwischen beiden beträgt ca. 55 cm. Während die meisten kommerziellen PET-CT Geräte beide Systeme unter einer Hülle mit einem längeren Patiententunnel vereinigen, verfügt das hier gezeigte der Fa. Philips über ein sog. offenes Gantry-Design, bei dem sich zwischen CT- und PET-
299 17.2 · Technologie der PET und PET-CT-Geräte für die Anwendung in der medizinischen Bildgebung
Scanner eine Lücke befindet. Dies hat Vorteile hinsichtlich der Reduzierung klaustrophobischer Effekte, für die Untersuchung von z. B. Kindern oder auch bei Patienten, bei denen bestimmte Monitoringsysteme während der Untersuchung angeschlossen bleiben müssen. Darüberhinaus lässt sich bei diesem System der PET-Teil um ca. 1 m axial nach hinten fahren und ermöglicht damit vollkommen separate PET- als auch CT-Untersuchungen sowie u. a. bildgesteuerte minimal-invasive Eingriffe, wie ⊡ Abb. 17.18 veranschaulicht. ⊡ Abb. 17.17. Beispiel eines klinischen PET-CT-Systems mit der axial und vertikal beweglichen Patientenliege, der CT-Gantry im Vordergrund sowie der PET-Gantry dahinter. Letztere läßt sich elektrisch um ca. einen Meter axial vom CT entfernen, um z. B. interventionelles Arbeiten zu ermöglichen. (Abb. mit freundlicher Genehmigung der Fa. Philips)
⊡ Abb. 17.18. Die Möglichkeit der Separation des PET- vom CT-Teil erweitert das Anwendungsspektrum kombinierter PET-CT-Geräte. Links: Einheit zur Administration gasförmiger Tracer (z. B. Rb-82, O-15) plaziert zwischen CT- und PET-Teil (Abb. mit freundlicher Genehmigung von B. Line, University of Maryland). Rechts: Anästhesie eines Patienten in Vorbereitung eines minimal –invasiven Eingriffs (Abb. mit freundlicher Genehmigung von I. Kastrup, Herlev Hospital, Kopenhagen)
17.2.2 Kommmerzielle PET-Technologie
In einem leistungsfähigen, modernen PET-Scanner müssen viele Komponenten exakt zusammenspielen. Diese sind: ▬ Szintillatorkristalle ▬ Lichtdetektionselemente ▬ Die Verbindung beider in der Detektorarchitektur ▬ Signalverstärkungs- und Verarbeitungselektronik ▬ Datenprozessierungs- und Rekonstruktionselektronik ▬ Benutzeroberfläche für Akquisition, Prozessierung & Analyse Dies setzt eine effiziente Systemarchitektur voraus. Ein Beispiel einer solchen Architektur nur des Akquisitionsteils eines modernen PET-Systems mit Time-of-Flight Kapazität zeigt ⊡ Abb. 17.19. Diese Einheit hat die Aufgabe, den Ort (Kristalle) des Auftreffens der Ereignisse, deren zeitliche Reihenfolge sowie deren Energie zu ermitteln. Anschließend müssen aus diesen Daten die koinzidenten Ereignisse herausgefiltert, deren zeitliche Abstände bestimmt (TOF) sowie deren Kompatibilität mit Energiekriterien ermittelt werden. Dies mit einer Geschwindigkeit, die Zählraten in der Größenordnung von mehreren
⊡ Abb. 17.19. Beispiel der Systemarchitektur des Aquisitionsteils für ein Timeof-Flight- (TOF-) fähiges PET-System der neuesten Generation. Am oberen Rand sind die Photomultiplier (PMT) dargestellt, die das Licht der Szintillationskristalle in Stromimpulse umwandeln. (⊡ Abb. mit freundlicher Genehmigung der Fa. Philips)
17
300
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
Millionen Ereignissen pro Sekunde erlaubt und zeitliche Abstände von Ereignissen im Bereich von Pikosekunden (10-12s) ermitteln kann. Am Ende steht ein Datenstrom sog. Listmode-Ereignisse mit Raten von mehreren 100.000 Ereignissen pro Sekunde, die anschließend auf verschiedene physikalische Effekte korrigiert und vom Rekonstruktionsprogramm zum Bild verarbeitet werden. Beschäftigen wir uns nun etwas näher mit einigen der Komponenten eines PET-Scanners. Zur Detektion der 511 keV Annihilationsstrahlung werden Szintillationskristalle verwendet, über deren generelle gewünschte Eigenschaften bereits in einem vorherigen Abschnitt gesprochen wurde (⊡ Tab. 17.3). Dagegen gibt ⊡ Tab. 17.4 einen etwas genaueren Überblick über die Eigenschaften heute kommerziell verwendeter Detektormaterialien. Verglichen werden ihre Eigenschaften hinsichtlich der Absorption von 511 keV Gammastrahlen (Dichte, effektives Z, Abschwächungslänge), deren Konversion in Licht (rel. Lichtausbeute, intrinsische Energieauflösung) sowie deren zeitliches Ansprechverhalten (Lichtabklingzeit, erreichbare Zeitauflösung) [nach 38, 39]. Die Mehrheit dieser Materialien sind Kristalle seltener Erden, die in aufwändigen und langwierigen Prozessierungsschritten hergestellt werden müssen. ⊡ Abb. 17.20 ( auch 4-Farbteil am Buchende) illustriert das Ergebnis
a
nur einiger dieser Schritte. Das Ausgangsmaterial sind Pulvergemische seltener Erden, die unter hoher Temperatur und niedrigem Druck zu sog. Ingots »gewachsen« werden (⊡ Abb. 17.20a). Aus diesen werden dann die benötigten Einzelkristalle geschnitten und anschließend poliert (⊡ Abb. 17.20 b–d). Das historisch am häufigsten verwendete Detektormaterial aus ⊡ Tab. 17.4 ist Wismutgermanat (BGO), welches Anfang der 80er Jahre des vorigen Jahrhunderts wegen seiner hohen Absorptionsfähigkeit für 511 keV-Strahlung das bis dahin meistens verwendete Natriumjodid ablöste. Allerdings ist BGO in Bezug auf seine optischen Eigenschaften (Lichtausbeute, Energieauflösung) den neueren Materialien, die allesamt der Familie der Oxyorthosilikate angehören, unterlegen. Daher werden heute vorwiegend GSO, LSO und LYSO eingesetzt. Diese werden besonders wegen ihrer temporalen Eigenschaften und wegen der höheren Lichtausbeute für moderne PET-Scanner in 3D-Technologie und mit TOF-Fähigkeit favorisiert. [40–45] LaBr3 und LuAP werden im Moment nur experimentell genutzt. [46,47] Um die in der PET anfallende hohe Signalrate verarbeiten zu können, sollte das Szintillationslicht schnell ansteigen und wieder abfallen, d. h. in sehr kurzen Impulsen auftreten, um das Detektorelement für das nachfolgende Ereignis nicht zu blockieren (man spricht hier auch von
b
c
⊡ Abb. 17.20a–d. Verschiedene Szintillationskristalle für die PET. a Ausgangsmaterialien zur Herstellung und gewachsenes Rohmaterial (Ingot), b BGO-Kristalle zum Block verklebt mit Photomultiplier (PMT),
d
c GSO-Einzelkristalle im Vergleich mit 1 Cent Münze, d LYSO-Kristalle, verklebt zu vorgefertigten Detektoreinheiten
⊡ Tab. 17.4. Charakteristische Eigenschaften von Szintillatorkristallen für die PET nach [38,39] Eigenschaft
LSYO Luthetium-Yttriumoxyorthosilikat
LSO Luthetiumoxyorthosilikat
GSO Gadlinium oxyorthosilikat
BGO Wismutgermanat
LuAP Luthetiumperovskit
LaBr3 Lanthanbromid
Dichte (g/cm3) Effektives Z Abschwächungslänge 1/μ@ 511 keV (mm)
7,1 (10%Y) 64 12
7,4 66 11,5
6,7 57 14
7,1 75 10,4
8,3 66 10,4
5,3 47 21
Intrinsische Energieauflösung (%)
~10
~11
~10
>13
7–9
~3
Relative Lichtausbeute
1,2
1,0
<0,5
<0,2
~0,5
2,0
Lichtabklingzeit (ns)
~40
~40
60
300 ns
17 ns
35 ns
Erreichbare Zeitauflösung (2 Kristalle in Koinzidenz) (ps)
~450
<450
>1000
>>1000
~500
<400
301 17.2 · Technologie der PET und PET-CT-Geräte für die Anwendung in der medizinischen Bildgebung
der Detektortotzeit, die aber noch von anderen Faktoren, wie z. B. der Totzeit der Elektronik, abhängt). Eine kurze Anstiegszeit des Lichtimpulses ist u. a. wichtig für die Weite des Koinzidenzzeitfensters, d. h. die Zeit, in der 2 aufeinanderfolgende Impulse in 2 gegenüberliegenden Detektoren als »koinzident« registriert werden, da dieses Fenster wiederum die Rate der zufälligen Koinzidenzen (»randoms«) bestimmt. Für die neueste Generation der PET-Systeme ist besonders wichtig, welche Zeitauflösung der Koinidenz erzielbar ist, um die TOF-Koordinaten der Ereignisse zu bestimmen (letzte Zeile in ⊡ Tab . 17.4). Auch diese Eigenschaft hängt sowohl von der Anstiegszeit als auch von der Lichtausbeute ab. Betrachtet man die Summe aller Eigenschaften, wird verständlich, warum heute LYSO und LSO zu den favorisierten Detektormaterialien zählen. Der nächste wichtige Schritt in der Signalverarbeitungskette der PET ist die Konversion des Lichtes aus den Szintillatorkristallen in elektrische Impulse, die möglichst digitalisiert weiterverarbeitet werden können. Diese Aufgabe übernehmen bis heute in allen klinischen Geräten immer noch sog. Photoelektronenvervielfacher (engl.: Photomultiplier-tubes=PMTs). Für deren Anwendung mit sehr schnellen Szintillatoren und für TOF-PET steigen auch hier die Anforderungen an diese Bauelemente insbesondere bezüglich der Homogenität der Zeitauflö-
a
sung. ⊡ Abb. 17.21 ( auch 4-Farbteil am Buchende) zeigt zwei verschiedene PMTs, wie sie heute in kommerziellen PET-Scannern eingesetzt werden: In ⊡ Abb. 17.21a ist eine Standard-Röhre mit flacher Kathode zu sehen, in ⊡ Abb. 17.21b eine spezielle, für TOF-Anwendungen geeignete Röhre sowie deren Positionsatlas der Zeitauflösung. Der große hellblaue Bereich kennzeichnet das Areal mit gleicher Zeitauflösung. Für PET-Anwendungen mit sehr kleine Kristallen (≤2 mm Kantenlänge) wie z. B. bei hochauflösenden Tier-Scannern werden heute auch schon sog. positionsempfindliche (engl.: position sensitive photomultiplier tubes-PSPMT) Röhren eingesetzt. Für die kommerzielle Anwendung in klinischen Systemen sind diese aber noch zu teuer [48]. Auch der Einsatz von Halbleiter-basierenden Konversionselementen wie z. B. APDs (engl.: Avalanche-Photo-Diodes) ist im Moment noch Tier- oder Forschungsgeräten vorbehalten [49]. Sehr wichtig für die Leistungsfähigkeit eines PETScanners ist das Zusammenspiel der beiden Komponenten Szintillationskristall und PMT, das Detektordesign. ⊡ Abb. 17.22a–d zeigt vier Beispiele möglicher Detektordesigns: einen Blockdetektor, einen Quadrant-sharingdetector, einen Flächendetektor aus separaten Elementen sowie einen pixelierten Detektor mit kontinuierlichem Lichtleiter (Fa. Philips: Pixelar®). Kommerziell haben sich der Blockdetektor und der Pixelar-Detektor durchgesetzt.
b
⊡ Abb. 17.21a,b. In kommerziellen PET-Systemen eingesetzte Photoelektronenvervielfacher (engl.: Photomultiplier-tubes = PMTs). a PMT mit flacher Kathode, b PMT mit sphärischer Kathode zur Verbes-
a
serung der Homogenität des Zeitverhaltens. Im linken Graph von b kennzeichnet die hellblaue Fläche Areale mit gleichem Zeitverhalten (Abb. mit freundlicher Genehmigung der Fa. Philips)
c
b
d
⊡ Abb. 17.22a–d. Verschiedene PETDetektordesigns. a Blockdetektor, b quadrant-sharing-detector, c Flächendetektor aus Einzelelementen, d pixelierter Detektor mit kontinuierlichem Lichtleiter (Pixelar®, Fa. Philips)
17
302
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
Bei ersterem wird ein Block von z. B. 8×8 Kristallen verklebt, optisch isoliert und auf 4 Einfach- oder 2 Doppelkathoden-PMT’s gesetzt [50]. Diese Einheit bildet dann einen Detektorblock, mehrere dieser Blöcke werden in Kassetten zusammengefasst und viele dieser Kassetten lassen sich dann zu einem Detektorring zusammensetzen (vgl. auch ⊡ Abb. 17.24a). Der Vorteil dieses Designs ist die einfache Austauschbarkeit, der gravierende Nachteil die intrinsische Inhomogenität durch die separierten Detektorelemente. So ist es z. B. sehr schwierig, mit Blockdetektoren homogene Zeitauflösungen oder sehr gute Energieauflösung zu erzielen. Der pixelierte Detektor mit kontinuierlichem Lichtleiter, von der Fa. Philips unter dem Namen PIXELAR® auf den Markt gebracht, kann für kleine Durchmesser (z. B. Tierscanner) als ein Bauteil realisiert werden (⊡ Abb. 17.23a), bei dem im inneren vorgefertigte Streifen von Szintillationskristallen und auf dem äußeren Umfang die PMTs in vorgefertigte Vertiefungen eingebracht werden. Dieses Design hat den Vorteil einer sehr guten Homogenität, sowohl hinsichtlich der Energieauflösung als auch des Zeitverhaltens, da jeder Kristall quasi die gleiche Umgebung »sieht« und es innerhalb des Detektors keine bauartbedingten Grenzen oder Übergange gibt. Für klinische Scanner mit größerem Durchmesser kann dieses Design ebenfalls angewendet werden, dann in Form von Ringsegmenten, die ohne Übergänge miteinander verklebt werden (⊡ Abb. 17.23b) [51].
a
b
⊡ Abb. 17.23a–c. PIXELAR®-Detektordesigns. a kontinuierlicher Lichtleiter aus einem Stück mit Kristall-Streifen im Inneren und Vertiefungen für PMTs auf der Außenseite für z. B. hochauflösende Tierscanner, b Lichtleiterelement eines klinischen Scanners mit großem Durchmes-
⊡ Abb. 17.24a,b. PET-Scanner Anordnungen bestückt mit Detektoren. a Ring aus Blockdetektoren (Abb. mit freundlicher Genehmigung der Fa. GE Healthcare, b PET-System mit PIXELAR®-Detektor (Abb. mit freundlicher Genehmigung der Fa. Philips)
Für beide Designs werden die Detektorelemente schließlich in einer Ring-Geometrie angeordnet (⊡ Abb. 17.24) und, wie schon erwähnt, mit einem CT-System zu einer Einheit ähnlich der in ⊡ Abb. 17.25 kombiniert. Ein solches PET-CT-System erlaubt die sequentielle Aufnahme von CT- und PET-Daten an einem Patienten in einer Untersuchung ohne Repositionierung mit einer Aufnahmelänge von bis zu 195 cm. Damit sind bi-modale Ganzkörperuntersuchungen besonders in der Onkologie in kurzer Zeit und mit geringem Aufwand möglich. Nachdem wir uns mit den wesentlichen Designelementen eines PET-Systems vertraut gemacht haben, bleibt die Frage nach den physikalischen Leistungsmerkmalen, nach denen ein solches System beurteilt wird. Natürlich wird der Nutzer (Arzt, MTA) solch ein Gerät wie jedes bildgebende System hinsichtlich seiner Nutzerfreundlichkeit, des Patientendurchsatzes und der Bildqualität beurteilen. Aufgabe des Medizinphysikers ist es, diese Kriterien auf physikalisch messbare Größen zurückzuführen. Für ein PET-System sind dies im Wesentlichen drei: ▬ Räumliche Auflösung ▬ Empfindlichkeit ▬ Zählratencharakteristik Zur Charakterisierung von PET-Scannern hinsichtlich dieser Größen wurden Standards erarbeitet (USA-NEMA, Europa-IEC), die ausschließlich auf der Messung von sog. Phantomen basieren, d. h. mit Aktivität befüllbarer Test-
c
ser, hier bilden viele dieser Elemente den kontinuierlichen Lichtleiter, c Einsetzen der Szintillationskristalle in ein Lichtleiterelement (Abb. mit freundlicher Genehmigung der Fa. Philips)
303 17.2 · Technologie der PET und PET-CT-Geräte für die Anwendung in der medizinischen Bildgebung
körper, die bestimmte Messsituationen simulieren sollen [52]. Diese können die Wirklichkeit einer Patientenuntersuchung aber immer nur in begrenztem Maße abbilden. So wird z. B. die räumliche Auflösung mittels einer Punktoder Linienquelle in Luft gemessen. ⊡ Abb. 17.26 zeigt ein Beispiel einer solchen Messung: Es wird ein rekonstruiertes Bild der Quelle erzeugt (oben rechts), anschließend werden Histogrammkurven durch das Bild gelegt (links oben und unten) und deren Halbwertsbreite (engl.: Full-
With-at-Half-Maximum = FWHM) als Repräsentation der Auflösung gemessen. Dies stellt natürlich eine Idealsituation dar, da sich kein streuendes Medium (z. B. Gewebe) im Gesichtsfeld befindet. Um auch die Homogenität der Auflösung zu überprüfen, wird die Quelle im Gesichtsfeld in allen Raumrichtungen bewegt und an festgelegten Punkten die Messung wiederholt. ⊡ Abb. 17.27a veranschaulicht dies. ⊡ Abb. 17.27b zeigt eine weitere Möglichkeit der Messung der räumlichen Auflösung mittels eines
⊡ Abb. 17.25. PET-CT-Scanner GEMINI© der Fa. Philips in der Draufsicht. Zu erkennen ist das offene Design mit einem Spalt zwischen CT- (links) und PET-Teil (rechts). Letzterer lässt sich für bestimmte Anwendungen bis zu 1 m nach rechts verschieben und damit vom CT-Teil separieren (Abb. mit freundlicher Genehmigung der Fa. Philips)
⊡ Abb. 17.26. Messung der räumlichen Auflösung eines PET-Scanners mit einer Punkt- oder Stabquelle. Oben rechts – rekonstruierter Querschnitt der Quelle, oben links und unten – Histogrammkurven durch das Querschnittsbild. Deren Halbwertsbreite ist ein Maß für die räumliche Auflösung (Abb. mit freundlicher Genehmigung der Fa. Philips)
⊡ Abb. 17.27a,b. a Messung der räumlichen Auflösung eines PET-Scanners mit einer Punkt- oder Stabquelle durch Verschiebung im Gesichtsfeld, b Messung der räumlichen Auflösung an einem zylindrischen Phantom mit verschieden großen, aktivitätsgefüllten Einsätzen. Auch der Hintergrund (Zwischenräume) enthält Aktivität. Mittels Histogrammkurven (ganz rechts) werden die Grenzen der Auflösung (Separierbarkeit) ermittelt (Abb. mit freundlicher Genehmigung der Fa. Philips)
17
304
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
Phantoms mit verschieden großen aktivitätsgefüllten Einsätzen. Gleichzeitig können auch die Zwischenräume mit sog. »Hintergrundaktivität« befüllt und somit die Situation einer Patientenuntersuchung realistischer dargestellt werden. Anschließend wird wieder mittels Histogrammkurven die Separierbarkeit der Einsätze geprüft. Die gleiche Messung lässt sich auch am sog. »kalten« Phantom durchführen, wobei die Einsätze aktivitätsfrei bleiben und nur der Hintergrund befüllt wird. Wie wir bereits in den vorangegangen Abschnitten gelernt haben, wird die räumliche Bildauflösung von mehreren Faktoren beeinflusst, u. a. der Größe der Detektore-
a
b
⊡ Abb. 17.28a,b. Vergleich der räumlichen Auflösung zweier PET-Systeme anhand einer Gehirnstudie desselben Patienten. a Älteres Gerät mit 4×6 mm2 Kristallelementen und Rekonstruktion aus Sinogrammen (non-LOR), b PET-Gerät der neuesten Generation mit 4×4 mm2 Kristallelementen und direkter LOR-Rekonstruktion. Deutlich sind die bessere Auflösung und Detailerkennbarkeit in b (Abb. mit freundlicher Genehmigung von J. Karp, University of Pennsylvania, Philadelphia)
a
lemente und dem verwendeten Rekonstruktionsalgorithmus. Der ultimative Test der räumlichen Auflösung eines PET-Scanners bleibt aber immer noch die Patientenuntersuchung, ganz besonders die des Gehirns, da hier feine anatomische Strukturen in einer relativ unbeweglichen Umgebung vorliegen. ⊡ Abb. 17.28 stellt ein Beispiel einer vergleichenden Untersuchung zweier PET-Geräte anhand einer Gehirnstudie desselben Patienten dar. ⊡ Abb. 17.28a zeigt die Aufnahmen eines älteren Gerätes mit 4×6 mm2 Kristallelementen und Rekonstruktion aus Sinogrammen (non-LOR), ⊡ Abb. 17.28b die Aufnahme mit einem PETGerät der neuesten Generation mit 4×4 mm2 Kristallelementen und direkter LOR-Rekonstruktion. Die bessere Auflösung und Detailerkennbarkeit in b) sind sehr auffällig. Das zweite wichtige Leistungskriterium eines PETScanners ist seine Empfindlichkeit, d. h. vereinfacht ausgedrückt das Verhältnis der dargestellten (gemessenen) zur tatsächlich im Gesichtsfeld vorhandenen Aktivität. Die Empfindlichkeit wird im Wesentlichen durch die Art und radiale Dicke des Detektormaterials sowie dessen geometrische Abdeckung des Raumwinkels (d. h. bei Scannern in Ringgeometrie durch das axiale Gesichtsfeld) bestimmt. Letzterem sind meist aus Kostengründen Grenzen gesetzt, kommerzielle PET-Scanner haben gegenwärtig axiale Gesichtsfelder von 15–24 cm, bei Patientenöffnungen von 56–70 cm Durchmesser. Zur Messung der Empfindlichkeit wird eine Stabquelle nacheinander mit verschieden dicken Röhren eines absorbierenden Mediums (hier: Aluminium) umhüllt (⊡ Abb. 17.29a) und jeweils die Zählraten in Abhängigkeit von der Aluminiumdicke gemessen und graphisch aufgetragen. Aus dem Anstieg der Kurve ergibt sich durch Extrapolation zur yAchse die gesuchte Empfindlichkeit (⊡ Abb. 17.29b).
b
⊡ Abb. 17.29a,b. a Anordnung zur Messung der Systemempfindlichkeit eines PET-Scanners mit zentraler Linienquelle und konzentrischen Aluminiumröhren, b Gemessene Kurve der Zählraten als Funktion der
Aluminiumdicke, deren Extrapolation die Berechnung der Systemempfindlichkeit erlaubt (Abb. mit freundlicher Genehmigung von M. Huisman, Technische Universität München)
305 17.2 · Technologie der PET und PET-CT-Geräte für die Anwendung in der medizinischen Bildgebung
Die Empfindlichkeit eines PET-Scanners bestimmt wesentlich die bei Patientenuntersuchungen erzielbaren Zählraten und damit sowohl Bildqualität als auch Aufnahmedauer. ⊡ Abb. 17.30 veranschaulicht dies an koronalen Schnitten eines ca. 120 kg schweren LungenkrebsPatienten. Rechts (⊡ Abb. 17.30b) die Aufnahme mit einem älteren PET-Gerät, links (⊡ Abb. 17.30a) Aufnahmen von einem neuen PET-CT-Kombinationsgerät mit doppelter Empfindlichkeit. Zu beachten ist, dass im rechten Fall (⊡ Abb. 17.30b) die Transmissionsmessung zur Abschwächungskorrektur mittels Cs-137 Transmissionquelle durchgeführt wurde und ca. 20 min dauerte, d. h. die Emissionsmessung nahm etwa 30 min in Anspruch, während im linken Fall die Daten des CT zur Berechnung der Abschwächungskorrektur verwendet wurden und diese Messung weniger als 1 min dauerte. Trotzdem bleibt ein Nettogewinn der Messzeit, der in etwa dem Gewinn an Empfindlichkeit des PET-Systems entspricht. Gleichzeitig wurde u. a. durch den Einsatz des CT zur Abschwächungskorrektur trotz halbierter Messzeit die Bildqualität deutlich verbessert. Das vielleicht wichtigste Kriterium zur Beurteilung der Qualität von PET-Systemen ist deren Zählratenverhalten. Es bestimmt zum einen die Linearität von Messungen am Gerät – z. B. ob eine doppelt so hohe Aktivität
a ⊡ Abb. 17.30a,b. Koronalschnitte der FDG-PET-Aufnahme eines ca. 120 kg schweren Lungenkrebspatienten. a Messung mit modernem PET-CT-System mit gegenüber b verdoppelter Empfindlichkeit, b Messung mit älterem PET-System geringerer Empfindlichkeit. Zu beachten ist, dass im Fall b die Messung der Transmission zur Abschwächungs-
auch mit doppelter Zählrate dargestellt wird – als auch den Bildkontrast der Messungen. In 17.1.1, Abschn. »Messtechnischer Nachweis der Positronenannihilation« (vgl. auch ⊡ Abb. 17.7) haben wir gelernt, dass in einer PET-Messung neben den erwünschten direkten Koinzidenzen (engl.: trues) auch unerwünschte Ereignisse wie z. B. Streuung (engl.: scatter) und Zufallsereignisse (engl.: randoms) auftreten. Eine intelligente Systemarchitektur des PET-Systems sorgt u. a. durch z. B. gute Energie- und Zeitauflösung dafür, das Verhältnis dieser Raten zugunsten der »trues« zu verbessern. In der Nuklearmedizin hat sich dafür eine eigene Messgröße etabliert, die sog. rauschäquivalente Zählrate (engl.: Noise Equivalent Coutrate = NEC oder auch NECR). Sie stellt das Verhältnis der echten Koinzidenzen (trues) zur Gesamtzählrate dar. ⊡ Abb. 17.31a (⊡ Abb. 17.31 auch 4-Farbteil am Buchende) veranschaulicht die Zählratencharakteristik eines modernen PETSystems mit allen Bestandteilen. Man erkennt, dass die Maxima der Gesamtzählrate, der Streuung und der NEC ziemlich genau übereinanderliegen, während die Zufallsereignisse bei zunehmender Aktivität überproportional wachsen und schließlich zur Systemsättigung (Totzeit) führen. Natürlich ist das Zählratenverhalten auch eine Funktion der Empfindlichkeit des Systems und es ist
b korrektur mittels Cs-137 Isotopenquelle in ca. 20 min, im Fall a unter Nutzung des CT in weniger als 1 min durchgeführt wurde. Für die PETEmissionsmessung ergibt sich eine Halbierung der Aufnahmezeit bei gleichzeitig deutlich verbesserter Bildqualität (Abb. mit freundlicher Genehmigung von C. Young, Methodist Hosiptal, Peoria, IL)
17
306
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
II
a ⊡ Abb. 17.31a,b. a Zählratencharakteristik eines modernen PET-Systems, b Erhöhung der NEC-Rate durch Designverbesserungen gegenüber Vorgänger- (rot) und Nachfolgersystem (grün). Die blau unterlegten Areale kennzeichnen die typischen Aktivitätsbereiche für klinische
wichtig, beim Design eines PET-Scanners darauf zu achten, dass bei allen Maßnahmen zur Empfindlichkeitssteigerung auch die NEC ansteigt. Die NEC stellt ein Maß für den erzielbaren Kontrast eines PET-Systems dar, oder, medizinisch ausgedrückt, bestimmt die Erkennbarkeit kleiner Läsionen mit geringer Traceranreicherung. Ihr Maximum sollte möglichst nahe an dem Aktivitätsbereich liegen, bei dem mit dem PET-Scanner im klinischen Betrieb auch wirklich gearbeitet wird. Gesetzliche, technische und ethische Normen begrenzen die einem Patienten maximal verabreichbare Dosis, sodass es das Ziel der PET-Entwicklung sein muss, die NEC-Maxima zu immer kleineren Tracerkonzentrationen zu verschieben. Gleichzeitig sollte ein hoher NEC-Wert über einen relativ großen Konzentrationsbereich verfügbar sein, um ein möglichst breites Anwendungsspektrum des PETSystems abzudecken, da für kurzlebigere Tracer (z. B. C11, O-15 oder Rb-82) höhere Aktivitätskonzentrationen vorliegen. ⊡ Abb. 17.31b veranschaulicht diese Entwicklung recht deutlich. Gezeigt sind die NEC-Kurven eines älteren PET-Systems (rot) und eines neuen PET-CTTomographen (grün), der durch Designverbesserungen (Detektoren, Elektronik) eine Verdoppelung des NECMaximums erreicht. Gleichzeitig wurde auch im wesentlichen klinischen Arbeitsbereich mit FDG eine deutliche Erhöhung des NEC und ein guter linearer Kurvenverlauf erreicht. Bereits in 17.1.1, Abschn. »Bildrekonstruktion« wurde erwähnt, dass es noch eine weitere Möglichkeit zur Steigerung der effektiven NEC an PET-Scannern gibt, die Nutzung der Information über die Zeitdifferenz des Eintreffens zweier Gammaquanten (engl.: Time-of-Flight = TOF). ⊡ Abb. 17.16 erläuterte die prinzipielle Wirkungsweise. ⊡ Abb. 17.32 beweist am Beispiel von Phantomen,
b
FDG-Untersuchungen (links) und Untersuchungen mit kurzlebigen Tracern (rechts) (Abb. mit freundlicher Genehmigung von F. Benard, Universite de Sherbrooke (a) und Fa. Philips (b))
⊡ Abb. 17.32a–c. Vergleich der Bildqualität zweier Phantome unterschiedlichen Durchmessers (27 cm und 35 cm) in einem PET-Scanner ohne (obere Reihe) und mit (untere Reihe) TOF-Information. Betrachtet wurden drei verschiedene Messzeiten. a einfach, b zweifach und c vierfach. Die einfache Messzeit betrug 1 min (Abb. mit freundlicher Genehmigung von J. Karp, University of Pennsylvania, Philadelphia)
dass dies auch wirklich funktioniert. Gemessen wurden jeweils 2 Phantome unterschiedlicher Durchmesser (27 und 35 cm), jeweils ohne (obere Reihe) und mit (untere Reihe) TOF-Information. Betrachtet werden drei verschiedene Akquisitionszeiten, einfach a, zweifach b und vierfach c. Vergleicht man z. B. die Bilder b der oberen Reihe mit a der unteren Reihe wird deutlich, dass die Einbeziehung der TOF-Information die Messzeit bei gleicher Bildqualität halbieren kann. Bei gleicher Messzeit (z. B. c) ergibt sich eine deutlich bessere Bildqualität (Erkennbarkeit kleiner Einsätze, Hintergrundrauschen) bei den Bildern mit TOF-Information. Besonders deutlich wird die Reduktion des Bildrauschens, die die Theorie aus 17.1.1, Abschn. »Bildrekonstruktion« bestätigt. Man beachte, dass diese Phantome relativ zur Zeitauflösung der TOF (650 ps
307 17.2 · Technologie der PET und PET-CT-Geräte für die Anwendung in der medizinischen Bildgebung
⊡ Abb. 17.33. Veranschaulichung der Zunahme der relativen Empfindlichkeit als Funktion des Objektdurchmessers (Patientengröße und –gewicht). Die gelben Kurven symbolisieren die durch die TOF-Information zusätzlich gewonnene Ortsinformation über die Annihilation, deren Auflösung gegenwärtig ca. 10 cm beträgt. Damit passen in einen schlanken Patienten ca. 2,5 Perioden dieser Funktion (links), was einem relativen Empfindlichkeitsgewinn von 2,5 entspricht, in einen normalen Patienten von ca. 3 und in einen fülligen Patienten von ca. 4. Damit kompensiert die TOF-Information den Zählratenverlust durch die Abschwächung (Abb. mit freundlicher Genehmigung von J. Karp, University of Pennsylvania, Philadelphia)
enstpricht ca. 10 cm) recht klein sind, trotzdem ist der Effekt schon zu sehen. Wie sieht dies aber nun bei einer Patientenmessung aus? ⊡ Abb. 17.33 ( auch 4-Farbteil am Buchende) versucht zu illustrieren, warum durch die Hinzunahme der TOFInformation die relative Empfindlichkeit mit zunehmendem Durchmesser des Objektes ansteigt. Die gelbe Kurve in ⊡ Abb. 17.33 soll die durch TOF gewonnene verbesserte Ortsinformation entlang der LOR symbolisieren. Diese »Auflösung« beträgt im Moment (2006) ungefähr 10 cm. Im Falle des schlanken Patienten passen ca. 2,5 Perioden der »Auflösungskurve« in das Objekt, im Falle des normalen Patienten ca. 3 und im Falle des fülligen Patienten 4. Dies entspricht der jeweiligen Steigerung der relativen Empfindlichkeit, d. h. ein solches System sollte auch bei fülligeren Patienten gute Bildqualität liefern. Dies würde eines der drängendsten Probleme der PET-Bildgebung lösen, die starke Degradation der Bildqualität bei fülligen Patienten, hervorgerufen durch Abschwächung und Streuung. ⊡ Abb. 17.34 beweist, dass TOF-fähige PET-Scanner in der Lage sind, die Verschlechterung der Bildqualität bei fülligen Patienten in hohem Maße zu kompensieren. ⊡ Abb. 17.34 zeigt links den Vergleich für einen PET-Scanner ohne TOF-Information, rechts mit TOF. Im rechten Falle ist keine dramatische Verschlechterung der Bildqualität mehr zu erkennen. Somit ermöglicht die TOF-Technologie ein wichtiges Ziel der medizinischen Bildgebung zu erreichen, eine konsistente Bildqualität und damit Diagnosemöglichkeit für alle Patienten, unabhängig von Geschlecht, Alter oder Gewicht. Mit der weiteren Verbesserung der Zeitauflösung der TOF-PET-Geräte wird sich dieser Vorteil noch mehr manifestieren.
⊡ Abb. 17.34. Illustration der Verbesserung der Bildqualität fülliger Patienten durch TOF-PET. Links: Vergleich der Bildqualität von schlankem und fülligem Patienten ohne TOF zeigt eine deutliche Degradation bei letzterem. Rechts: Derselbe Vergleich an einen TOFPET-Scanner zeigt keine Degradation der Bildqualität beim fülligeren Patienten. (Abb. mit freundlicher Genehmigung von J. Karp, University of Pennsylvania, Philadelphia)
Bisher haben wir fast auschliesslich die Technologie der PET-Geräte betrachtet und diskutiert. Da gegenwärtig (2006) mehr als 90% aller PET-Geräte aber als PET-CTScanner verkauft werden, soll an dieser Stelle wenigstens noch kurz auf die Integration der beiden Systeme, besonders der Benutzeroberflächen, eingegangen werden. Die neueste Generation kombinierter PET-CT-Systeme verfügt über integrierte Benutzeroberflächen, die die Akquisition, Bildrekonstruktion und –analyse an einem Arbeitsplatz ermöglichen. ⊡ Abb. 17.35 zeigt ein Beispiel dieser Benutzeroberflächen: links das Akquisitionsfenster mit den Standardprotokollen für die CT-Akquisition, aber ebenso integrierter PET-Aufnahme. In ⊡ Abb. 17.35 ( auch 4-Farbteil am Buchende) rechts ist ein typisches Layout eines Analyse-Bildschirms zu sehen, mit der Darstellung der transaxialen (linke Spalte), sagittalen (mittlere Spalte) und koronalen (rechte Spalte) Schnitte der PETAufnahme (obere Reihe), der CT-Aufnahme (mittlere Reihe) sowie der Überlagerung beider (untere Reihe). Die meisten modernen Programme erlauben Korrekturen von Positionsfehlern oder Bewegungsartefakten sowie die Abschwächungskorrektur basierend auf den CT-Daten mit Segmentationsalgorithmen von bis zu 4 Kompartimenten. Im vorliegenden Beispiel können die Layouts der Fenster vom Nutzer nach seinen Bedürfnissen selbst konfiguriert werden, ein Cursor erlaubt einfaches navigieren sowie die Triangulation zwischen PET-, CT-, und kombiniertem Datensatz. Damit wird dem Arzt ein Werkzeug in die Hand gegeben, das in weniger als 20 min eine komplette Aufnahme des metabolischen Zustandes eines Patienten, korreliert mit seiner Anatomie, erlaubt. Fassen wir den wesentlichen technologischen Stand der PET zusammen: ▬ Heutige kommerziell erhältliche PET-CT-Systeme erlauben PET-Ganzkörperuntersuchungen mit Abschwächungskorrektur in weniger als 20 min pro Patient.
17
308
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
II
⊡ Abb. 17.35. Charakteristische Layouts der Software zur Bedienung von kombinierten PET-CT-Geräten. Links ein Akquisitionsbildschirm, rechts ein Beispiel eines Analysebildschirms mit den transaxialen (linke Spalte), sagittalen (mittlere Spalte) und koronalen (rechte Spalte)
Schnitten der PET- (obere Reihe), CT- (mittlere Reihe) und kombinierten (untere Reihe) Aufnahmen eines Patienten (Abb. mit freundlicher Genehmigung der Fa. Philips)
▬ Die meisten Systeme verfügen über eine moderne 3D-Architektur mit schnellen Szintillatoren und hoher Zählratenkapazität. ▬ Die fortgeschrittenste Technologie erlaubt die Messung der zeitlichen Distanz der Koinzidenzereignisse (eng.: Time-of-Flight = TOF) und damit eine konsistente Bildqualität über einen weiten Bereich von Patienten und Untersuchungen. Heutige PET-CT-Systeme sind hinsichtlich ihrer Bedienoberfläche voll integriert und erlauben eine einfache Akquisition, Rekonstruktion und Analyse von PET-, CT- und kombinierten Daten auf einer Plattform.
Die zukünftigen technologischen Entwicklungen der PET werden besonders auf folgenden Gebieten zu gravierenden Veränderungen führen: ▬ Detektortechnologie für höhere Auflösung (engl.: Depth-Of-Interaction (DOI)) ▬ Lichtkonversionstechnologie – Abkehr von den Photomultipliern (PMT) hin zu Halbleiter-basierenden Elementen ▬ Integrierte Prozessierungselektronik mit wesentlich kleinerem Energie- und Raumbedarf ▬ Neue Akquisitionsmodi für noch schnellere und homogenere Datenakquisition wie z. B. der kontinuierliche Patiententisch-Vortrieb ▬ Kombination der PET mit anderen bildgebenden Verfahren, insbesondere der Magnetresonanz-Tomographie ▬ Kombinationsdetektoren, die sowohl 511 keV Gammastrahlung als auch Röntgenstrahlung detektieren können und damit evtl. die Vereinigung von PET und CT in einem Gerät erlauben
17.2.3 Zukünftige Technologieentwicklungen
in der PET An dieser Stelle kann nur sehr kurz und in Stichworten auf zukünftige technologische Entwicklungen in der PET eingegangen werden. Mit der breiten klinischen Einführung der PET als Standard-Untersuchungsmethode und insbesondere dem Erfolg der kombinierten PET-CT-Geräte hat eine stürmische technologische Entwicklung eingesetzt, die fast im Jahresrythmus technische Neuerungen hervorbringt. Eine solche Neuerung ist die Time-of-Flight (TOF)Technologie, die zwar schon Mitte der 80er Jahre zum ersten Mal experimentell untersucht wurde, damals aber insbesondere wegen der mangelnden Langzeitstabilität der Kalibrierung keinen Eingang in die Klinik finden konnte [53]. Hier sind weitere Verbesserungen der Zeitauflösung bis in den Bereich von 450 Pikosekunden (450 *10-12 s) zu erwarten.
Detektoren mit Depth-of-Interaction (DOI) werden bereits seit längerem experimentell untersucht und sind seit kurzem kommerziell bei einigen Tier-PET-Geräten im Einsatz [54]. Das Ziel dieser technologischen Lösung ist die Verbesserung der räumlichen Auflösung insbesondere bei kleinen Geometrien (Tier- und Kopfscanner), ohne die Empfindlichkeit zu kompromittieren, d. h. der Einsatz relativer dicker Detektoren aus mehreren Schichten z. T. unterschiedlichen Materials, die eine Zuordnung des Ortes der Wechselwirkung im Kristall und damit eine genauere Bestimmung der LOR erlauben.
309 17.2 · Technologie der PET und PET-CT-Geräte für die Anwendung in der medizinischen Bildgebung
Neue Lichtkonversionstechnologie zielt besonders auf die Entfernung der Photoelektronen-vervielfacher-Röhren mit Ihren Anforderungen an Hochspannung und stabiles Magnetfeld und ihrer signifikanten Baugröße mittels deren Ersatz durch Halbleiter-basierende Elemente. Nachdem Avalanche-Photodioden aufgrund ihrer hohen Kosten bis jetzt nur in experimentellen und Tier-PET-Geräten eingesetzt werden, erscheinen Photodioden auf Siliziumbasis als die ausichtsreichsten Kandidaten wegen ihrer einfachen Herstellung und potentiell günstigeren Kosten. Die Prozessierungselektronik moderner PET-Scanner verlegt den Ort der Digitalisierung der Signale immer näher an den Detektor und erlaubt damit potentiell eine viel höhere Integrationsdichte und damit verbunden eine signifikante Verkleinerung, ja Miniaturisierung. ⊡ Abb. 17.36 illustriert dies anschaulich. Ziel ist die Entwicklung eines voll digitalisierten Detektors, bei dem jedem Detektorelement (Szintillationskristall) ein Lichtkonversionselement sowie ein nachfolgender eigener Prozessierungskanal zugeordnet ist. Ein solcher Detektor wäre vollkommen linear in seinem Ansprechverhalten und würde unter klinischen Bedingungen keine Totzeiteffekte mehr aufweisen. Im Moment akquirieren alle klinischen PET- und PET-CT-Scanner die PET-Daten im sog. step-and-shootVerfahren, d. h., die Patientenliege wird in die erste Aufnahmeposition gebracht, verweilt dort für die Dauer der Datenakquisition, rückt dann zur zweiten Position vor usw., bis der gewünschte axiale Bereich akquiriert ist. Zukünftig werden auch PET-Daten (wie bereits CT) im sog. kontinuierlichen Modus aufgenommen werden, was Vorteile hinsichtlich der Datenhomogenität bewirkt [55]. Die Einführung immer empfindlicherer Detektorsysteme macht dies möglich. Verschiedene experimentelle Gruppen haben bereits versucht, PET-Detektoren mit Magnetresonanztomographen zu kombinieren [56]. Die ultimative Voraussetzung für ein solches Unterfangen ist, wie bereits weiter oben beschrieben, der Ersatz der PMTs durch Halbleiter-basierende Konversionselemente, die im Gegensatz zu PMTs unempfindlich gegenüber Magnetfeldern sind. Es ist zu erwarten, das besonders im Bereich der Hirnbildgebung in Kürze PET-Einsätze für klinische Magnetresonanztomographen erhältlich sein werden. Vielleicht noch etwas weiter entfernt in der Realisierung aber nicht weniger interessant sind Versuche, Detektoren zu konstruieren, die sowohl PET- (511 keV) als auch CT- (bis 140 keV) fähig sind und damit die Kombination dieser Verfahren in einer Aufnahmeebene erlauben [57]. Es bleibt abzuwarten, ob sich dieser Ansatz klinisch durchsetzen kann, er verspricht aber zumindest eine Kostenreduktion kombinierter PET/CT-Geräte. Es ist sicher nicht unwahrscheinlich, dass in 2–3 Jahren aufgrund der rasanten technologischen Entwicklung PET(CT)-Untersuchungen eines Patienten in 5 min oder weniger möglich sein werden. Wenn man bedenkt, dass
⊡ Abb. 17.36. Verkleinerung der Prozessierungselektronik der PET durch frühe Digitalisierung und elektronische Integration. Rechts – Prozessierungsboard heutiger PET-Systeme, links – integrierter Readout-Chip zukünftiger PET-Generationen (Abb. mit freundlicher Genehmigung der Fa. Philips)
noch vor weniger als 5 Jahren die durchschnittliche PETUntersuchung mindestens 45 min betrug, stellt dies, bei gleichzeitig dramatisch verbesserter Bildqualität, einen enormen Fortschritt dar.
Literatur 1. Anger HO, Davis DH, Rosenthal DJ (1959) Scintillation camera and positron camera. In: Medical radioisotope scanning. IAEA, Vienna, pp 59–75 2. Anger HO, Davis DH (1964) Gamma-ray detection efficiency and image resolution in sodium iodide. Rev Sci Instrum 35: 693–697 3. Anger HO (1967) Radioisotope cameras. In: Hine GJ (ed) Instrumentation in nuclear medicine, vol 1. Academic Press, New York, pp 485–550 4. Brownell GL, Burnham CA, Silensky S et al. (1968) New developments in positron scintigraphy and the application of cyclotronproduced poistron emitters. In: Medical radioisotope scintigraphy. IAEA, Vienna, pp 163–176 5. Brownell GL, Burnham CA (1973) Recent developments in positron scintigraphy. In: Hine GJ, Sorenson GA (eds) Instrumentation in nuclear medicine, vol 2. Academic Press, New York, pp 135–159 6. Burnham CA, Brownell GL (1973) A multicrystal positron camera. IEEE Med Sci NS-19/3: 201–205 7. Chesler DA (1973) Positron tomography and three-dimensional reconstruction techniques. In: Freedman GS (ed) Tomographic imaging in nuclear medicine. Society of Nuclear Medicine, New York, pp 176–183 8. Phelps ME, Hoffmann EJ, Nizar AM, Ter-Pogossian MM (1974) Application of annihilation coincidence detection to transaxial reconstruction tomography. J Nucl Med 16(3): 210–224 9. Muehllehner G (1975) Positron Camera with extended counting rate capability. J Nucl Med 16(7): 653–657 10. Muehllehner G, Buchin MP, Dudek JH (1976) Performance parameters of a positron imaging camera. IEEE Transact Nucl Sci NS23/1: 528–537 11. Weissleder R (1999) Molecular Imaging: Exploring the next frontier. Radiology 212: 609-614. 12. Philips Medical Systems, BL Nuclear medicine, Internal Market Data 2001–2004 13. Jaffer Fa, Weissleder R (2005) Molecular Imaging in the Clinical Arena. JAMA 293(7): 855-862.
17
310
II
Kapitel 17 · Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT)
14. Schwarz JD, Bader M, Jennicke L, Hemminger G, Jaenicke F, Avril N (2005) Early prediction of response to chemotheraphy inmetastatic breast cancer using sequential 18F-FDG-PET J Nucl Med 46(7): 1144-1150 15. Bradley JD, Perez CA, Dehdashti F, Siegel BA (2004) Implementing biologic target volumes in radiation treatment planning for nonsmall cell lung cancer. J Nucl Med. 45(suppl1): 96–101 16. Grosu AL, Piert M, Weber WA, et.al. (2005) Positron Emission Tomography for Radiation Treatment Planning. Strahlenther Onkol. 181(8): 482–499 17. Yap JT, Karney JP, Hall NC, Townsend DW (2004) Image guided cancer therapy using PET/CT. Cancer J. 10(4): 221-233 18. Paulino Ac, Koshy M, Howell R, Schuster D, Davis LW (2005) Comparison of CT- and FDG-PET- defined gross tumor volume in intensity-modulated radiation therapy for head-and-neck cancer. Int J Radiat Oncol Biol Phys. 61(5): 1385–92 19. Warburg OH (1931) The metabolism of tumors. Smith, New York, pp 129–169 20. Langstroem B, Bergson G, Dannals RF et al. (1983) Amino acids, peptides and ligands labeled with 11-C. In: Greitz T, Ingvar DH, Widen L (eds) The metabolism of the human brain studied with positron emission tomography. Raven Press, New York, pp 93–106 21. Casey ME, Nutt R (1986) A multicrystal two dimensional BGO detector system for positron emission tomography. IEEE Transact Nucl Sci NS 33: 460–463 22. Bendriem B, Townsend WD (eds) (1998) The theory and practice of 3D PET. Kluwer Academic Publishers (ISBN 0-7923-5108-8) 23. Huang SC, Carson RE, Phelps ME et al. (1981) A boundary method of attenuation correction in positron emission tomography. J Nucl Med 22: 627–637 24. Jones WF, Digby WM, Luk WK, Casey ME, Byars LG (1995) Optimizing rod window within positron emission tomography. IEEE Transact Med Imaging 14: 266–270 25. Smith RJ, Karp JS, Benard F et al. (1998) A comparison of segmentation and emission subtraction for singles transmission in PET. IEEE Transact Nucl Sci 45 (part 3): 1212–1218 26. Watson CC, Jones WF, Brun T et al. (1997) Design and performance of a single photon transmission measurement for the ECAT ART. Nuclear Science Symposium, 1997. IEEE, vol 2, pp 1366–1370 27. Kinahan PE, Townsend DW, Beyer T, Sashin D (1998) Attenuation correction for a combined 3D PET/CT scanner. Med. Phys. 25: 2046–2053. 28. Karp JS, Becher AJ, Matej S, Kinahan PE (1998) Data processing and image reconstruction methods for the head Penn-PET scanner. IEEE Transact Nucl Sci 45/3 (part 2): 1144–1151 29. Beekman F, Defrise M, Viergever M (2000) Volumetric reconstruction of medical images. IEEE Transact Med Imaging 19(5): 357–360 30. Leahy R, Byrne C (2000) Recent Developments in Iterative Image Reconstruction for PET and SPECT. IEEE Transact Med Imaging 19(4): 257-260 31. Comtat C, Kinahan PE, Defrise M, Michel C, Townsend DW (1997) Fast reconstruction of 3D PET data with accurate statistical modeling. IEEE Transact Nucl Sci 45/3 (part 2): 1083–1089 32. Becher AJ, Karp JS, Matej S, Kinahan PE (1997) Methods to reconstruct emission and transmission data in 3D PET. Nuclear Science Symposium, 1997. IEEE, vol 2, pp 1082–1086 33. Daube-Witherspoon ME, Matej S, Karp JS, Lewitt RM (1999) Application of the 3D row action maximum likelihood algorithm to clinical PET imaging. Nuclear Science Symposium, 1999. Conference Record. IEEE, vol 3, pp 1676–1680 34. Lewitt RM (1992) Alternatives to voxels for image representation in iterative reconstruction algorithms. Phys. Med. Biol. 37: 705– 716. 35. Kadrmas D (2004) LOR-OSEM: statistical PET reconstruction from raw line-of-response histograms. Phys. Med. Biol. 49: 4731–4744.
36. Surti S, et al. (2005) Image quality improvement in TOF-capable fully 3D PET scanners. presented at the annual meeting of the Society of Nuclear Medicine, June 18–22, 2005, Toronto, Canada 37. Conti M, Bendriem B, Casey M, Chen M, Kehren F, Michel C, Panin V (2005) First experimental results of time-of-flight reconstrcution on an LSO PET scanner. Phys. Med. Biol. 50:4507-4526 38. Lecomte R, Pepin C, Rouleau D, Saoudi A, Andreaco MS, Casey M, Nutt R, Dautet H, Webb PP, (1998) Investigation of GSO, LSO and LYSO scintillators using reverse avalanche photodiodes. IEEE Trans Nucl Sci 45(3): 478-482 39. Balcerzyk M, Moszynski M, Kapusta M, Wolski D, Pawelke J, Melcher CL (2000) YSO, LSO, GSO and LGSO. A study of energy resolution and nonproportionality. IEEE Transact Nucl Sci 47 (part 1): 1319–1323 40. Saoudi A, Pepin C, Houde D, Lecomte R (1999) Scintillation light emission of LSO scintillators. IEEE Transact Nucl Sci 46/6: 1925–1929 41. Moszynski M, Kapusta M, Wolski D, Szawlowski D, Klamra W (1998) Energy resolution of scintillation detectors readout with large area avalanche photodiodes and photomultipliers. IEEE Transact Nucl Sci 45/3: 472–477 42. Melcher CL, Schweitzer JS (1990) Scintillation properties of GSO. IEEE Transact Nucl Sci 37(2): 161 43. Suzuki H, Tombrello TA, Melcher CL, Schweitzer JS (1993) UV and gamma-ray excited luminescence of cerium-doped rare-earth oxyorthosilicates. Nucl Instr. Meth Phys Res A320: 263–272 44. Suzuki H, Tombrello TA, Melcher CL, Schweitzer JS (1993) Light emission mechanism of Lu2(SiO4)O:Ce. IEEE Transact Nucl Sci 40: 380–383 45. Naud JD, Tombrello TA, Melcher CL, Schweitzer JS (1996) The role of cerium sites in the scintillation mechanism of LSO. IEEE Transact Nucl Sci 43: 1324–1328 46. Kuhn A, et al. (2004) Design of a lanthanum bromide detector for TOF PET. IEEE Trans Nucl Sc. 51(5): 2550–2557 47. Dujardin C, Pedrini C, Blanc W, Gâcon JC, van ‘t Spijker JC, Frijns OWV, van Eijk CWE, Dorenbos P, Chen R, Fremout A, Tallouf F, Tavernier S, Bruyndonckx P, Petrosyan AG (1998) The study of small and large size LuAlO3:Ce3+. IEEE Transact Nucl Sci 45(3) 1998 48. Heinrichs U, Pietrzyk u, Ziemons K (2003) Design optimization of the PMT-ClearPET prototypes based on simulation studies with GEANT3. IEEE Transact Nucl Sci 50: 1310-1314 49. Ziegler SI, Pichler BJ, Boening G, Rafecas M, Pimpl W, Lorenz E, Schmitz N, Schwaiger M (2001) A prototype high-resolution animal positron tomograph with avalanche photodiode arrays and LSO crystals. Eur J Nuc Med 28(2): 136–143 50. Li H, Wong WH, Uribe, Baghaei H, Zhang N, Wang J, Wang Y (2000) A high-speed position decoding electronics for BGO block detectors in PET. IEEE Trans Nucl Sci 47(3): 1006–1010 51. Surti S, Karp JS, Freifelder R, Liu F (2000) Optimizing the performance of a PET detector using discrete GSO crystals on a continuous lightguide. IEEE Trans Nucl Sci 47(3): 1030–1036 52. National Electrical Manufacturers Association. NEMA Stadards Publication NU-2-2001: Performance Measurements of Positron Emission Tomographs. Rosslyn, VA: National Electrical Manufacturers Association (2001) 53. Budinger TF (1983) Time-of-flight positron emission tomography: Status relative to conventional PET. J Nucl Med. 24: 73–78 54. MacDonald LR, Dahlbom M (1998) Depth of interaction for PET using segmented crystals. IEEE Trans Nucl Sci 45(4): 2144–2148 55. Dahlbom M, Reed J, Young J (2001) Implementation of true continuous bed motion in 2-D and 3-D whole-body PET scanning. IEEE Trans Nucl Sci 48(4): 1465ff 56. Marsden PK, Strul D, Keevil S, Williams SCR, Cash D (2002) Simultaneous PET and MR Brit J Rad 75: 53–S59 57. Saoudi A, Lecomte R (1999) A novel APD-based detector module for multi-modality PET/SPECT/CT scanners. IEEE Trans Nucl Sci 46(3): 479–484
18 Ultraschalldiagnostik B. Köstering, H. Dudwiesus 18.1
Einleitung
– 311
18.2
Physikalische Grundlagen
18.2.1 18.2.2 18.2.3 18.2.4 18.2.5 18.2.6 18.2.7 18.2.8
Prinzip – 312 Reflexion – 312 Erzeugung der Schallwellen – 313 Eindringtiefe und Auflösung – 313 Harmonic Imaging – 314 Blutflussdarstellung im Dopplerverfahren – 315 Blutflussdarstellung im B-Mode – 315 Blutflussdarstellung mit Ultraschallkontrastmittel – 316
– 312
18.3
Gerätetechnik
18.3.1
Prinzipieller Aufbau und verschiedene Bauformen – 316 Basiseinheit und Darstellungsarten – 317 Digital kodierter Ultraschall – 318 Dopplerarten – 318 B-Flow-Technologie – 322 Verarbeitung von harmonischen Signalen – 323 Sondentypen – 326 Dreidimensionaler Ultraschall (3D) – 329 Sonstige neue Technologien – 334
18.3.2 18.3.3 18.3.4 18.3.5 18.3.6 18.3.7 18.3.8 18.3.9
18.1
– 316
Einleitung
Ultraschalldiagnostiksysteme haben in nahezu allen medizinischen Fachgebieten Einzug gehalten. Dazu hat einerseits die hohe Akzeptanz der Patienten beigetragen infolge der einfachen, nichtinvasiven und nicht strahlenbelastenden Anwendung; andererseits aber auch die große Beliebtheit bei den Ärzten durch die vielseitigen Anwendungsmöglichkeiten, die hohe diagnostische Aussagekraft, die nahezu beliebige Wiederholbarkeit und die Wirtschaftlichkeit der Methode. Aufgrund der weiten Verbreitung gibt es eine Vielzahl von unterschiedlichen technischen Verfahren und eine große Bandbreite von Gerätetypen. Die Installationsdichte in Deutschland ist mit ca. 500 Geräten pro 1 Mio. Einwohner weltweit die höchste. In der Übersicht werden die grundlegenden Begriffsbestimmungen aufgezeigt, die z. T. nicht logisch ableitbar sind, sondern sich im Alltag verselbständigt haben. Die Ultraschalldiagnostik hat andere konventionelle Verfahren, wie z. B. die Röntgendiagnostik, tiefgreifend verändert und erweitert. Außer den bereits erwähnten Eigenschaften des Ultraschallverfahrens sollen zum besseren Verständnis des Unterschieds zum Röntgen hier noch zwei wichtige Punkte erwähnt werden.
18.3.10 Upgrades – 337 18.3.11 Dokumentation – 338
18.4
Anwendungsgebiete – 340
18.4.1 18.4.2
Frequenzbereiche – 340 Körperregionen und Organe
18.5
Semiinvasive, invasive und interventionelle Ultraschalldiagnostik – 342
18.6
Planerische Aspekte
18.6.1 18.6.2 18.6.3 18.6.4
Raumplanung – 342 Zubehör – 342 Anschaffungskriterien – 343 Pflege und Wartung – 343
– 340
– 342
18.7
Sicherheitstechnische Aspekte
18.7.1 18.7.2
Gesetzliche Vorgaben und Grenzwerte – 343 Empfehlungen zur sicheren Anwendung der Ultraschalldiagnostik – 344
– 343
18.8
Sonstige Anwendung von Ultraschall in der Medizin – 345 Weiterführende Literatur – 345
Erstens ist Ultraschall ein Schnittbildverfahren, d. h. es wird sozusagen eine Scheibe aus dem Körper »herausgeschnitten« wie aus einem Laib Brot und dann betrachtet. Das konventionelle Röntgen hingegen ist ein Durchsichtverfahren, bei dem innerhalb einer bestimmten Fläche (z. B. Thorax) alle hintereinanderliegenden Schichten aufsummiert und in einem Bild dargestellt werden. Es ist also keine Differenzierung zwischen »vorn« und »hinten« möglich. Begriffsbestimmung der Ultraschallanwendungen
▬ Sonographie (Sono): Ultraschalldiagnostik der inneren Organe, hauptsächlich Oberbauch, Unterbauch, Halsorgane ▬ Echokardiographie (Echo): Ultraschalldiagnostik des Herzens ▬ Doppler Funktionsdiagnostik des Blutflusses in Herz und Gefäßen durch Bestimmung der Blutgeschwindigkeit mit dem Ultraschall-Dopplerverfahren
Zweitens ist Ultraschall ein Realtime-Verfahren, d. h. alle Bilder werden in Echtzeit dargestellt. Auch kleine Veränderungen der Schnittebene durch den Untersucher oder
312
Kapitel 18 · Ultraschalldiagnostik
⊡ Tab. 18.1. Vor- und Nachteile der Ultraschalldiagnostik gegenüber anderen bildgebenden Verfahren
II
Ultraschall
Röntgen
Anwender
Arzt
MTR, Arzt
MTR, Arzt
MTR, Arzt
Gerätekosten
Niedrig
Hoch
Hoch
Sehr hoch
Invasivität
Nichtinvasiv
Nichtinvasiv
Nichtinvasiv
Nichtinvasiv
Belastung
Nicht ionisierend
Ionisierend
Ionisierend
Nicht ionisierend
Bildaufbau
Statische und bewegliche Bilder, Realtime
Statische Bilder, bewegliche Bilder (nur CT), kein Realtime
Statische und bewegliche Bilder, kein Realtime
Statische und bewegliche Bilder, kein Realtime
Bildart
Schnittbild
Summationsbild, Schnittbild (CT)
Summationsbild, Schnittbild (ECT)
Schnittbild
Stärken
Weichteile, Flüssigkeiten
Knöcherne Strukturen, luftgefüllte Organe
Funktionsanalyse des gesamten Körpers
Gesamter Körper, auch Funktionsanalyse
Probleme
Knöcherne Strukturen, luftgefüllte Organe
Flüssigkeiten
Differentialdiagnostik
Hoher zeitlicher Aufwand
die Bewegung einer Herzklappe können also zeitgetreu wiedergegeben werden. Dies ist weder beim konventionellen Röntgen noch bei CT oder MR möglich, denn man erhält lediglich Bilder, die erst eine gewisse Zeit nach der Aufnahme betrachtet werden können. ⊡ Tab. 18.1 zeigt die Vor- und Nachteile der Ultraschalldiagnostik gegenüber anderen bildgebenden Verfahren.
18.2
Physikalische Grundlagen
18.2.1 Prinzip
Bei der Ultraschalldiagnostik als Schnittbildverfahren sind Sender und Empfänger in einer Einheit zusammengefasst, um eine weitgehend unabhängige Schnittführung zu gewährleisten. Diese Einheit (Schallsonde) kann dann an beliebiger Stelle auf den Körper aufgesetzt werden, egal ob längs (sagittal), quer (transversal) oder in einem beliebigen schrägen Winkel. Beim Röntgen als Durchsichtverfahren hingegen sind Sender und Empfänger (Röntgenröhre und Bildverstärker) getrennt angeordnet, und der Patient muss sich zwischen beiden befinden. Beim Röntgen spricht man daher auch vom Transmissionsverfahren. Ultraschall hingegen ist ein Reflexionsverfahren. Dabei sendet die Schallsonde einen kurzen Schallimpuls aus, der in den Körper eindringt und an den verschiedenen Grenzflächen, z. B. zwischen Leber und Niere, teilweise reflektiert wird. Diese reflektierten Anteile kommen zurück zum Sender, der nun als Empfänger arbeitet und alle Signale aufnimmt. Das Verhältnis der Sendezeit zur Empfangszeit beträgt ungefähr 1:1000. Ein Ultraschallgerät arbeitet deshalb grundsätzlich im Pulsverfahren. Einzige Ausnahme: Continuous- wave-Doppler ( Abschn. 18.3.4 »Dopplerarten«). Dieser Pulsreflexionsmodus wird auch beim Echolot in der Schifffahrt verwendet, um über die Laufzeit des
Nuklearmedizin
MR
vom Meeresboden reflektierten Pulses die Wassertiefe zu bestimmen.
18.2.2 Reflexion
Wichtig ist nun, wie groß der an einer Grenzfläche reflektierte Teil des Schallpulses ist. Wird nur ein sehr geringer Teil reflektiert, so reicht dieser evtl. nicht aus, um zur Bildentstehung beizutragen. Wird nahezu alles reflektiert (Totalreflexion), entsteht zwar ein deutliches Abbild dieser Grenzfläche, jedoch ist keine Energie mehr vorhanden, um auch die dahinter liegenden Schichten noch abzubilden. Der Idealfall liegt bei einem reflektierten Anteil von ca. 1%, was einem Reflexionsfaktor von R=0,01 entspricht. Der Reflexionsfaktor liegt per Definition zwischen 0 und 1, wobei R=0 bedeutet, dass keine Reflexion stattfindet und R=1 der Totalreflexion entspricht. R berechnet sich aus den Wellenwiderständen der beiden Medien, die die Grenzfläche bilden (⊡ Abb. 18.1). Entscheidend ist dabei die Differenz der beiden Wellenwiderstände. Aus ⊡ Abb. 18.2 ersieht man, dass Luft einen Wellenwiderstand hat, der von demjenigen für menschliches Gewebe sehr stark abweicht, sodass hier ein hoher Reflexionsfaktor von nahezu R=1 entsteht und Totalreflexion eintritt. Aus diesem Grund ist Luft der größte Feind der Ultraschalldiagnostik. Um einen möglichst verlustfreien Übergang von der Sonde zum Körper zu erreichen, verwendet man als Koppelmedium Ultraschallgel, eine zu 99% aus Wasser bestehende geleeartige Masse. Das Gel besitzt eine gute Schallleitfähigkeit und soll eine luftfreie Ankopplung mit einem Reflexionsfaktor von ungefähr R=0 gewährleisten. Aber nicht nur Luft, sondern auch Metallteile, Knochen und Kalkpartikel können Probleme bereiten, die einer Totalreflexion nahekommen. Dies erklärt den Schallschatten hinter Endoprothesen, Knochen und Gallensteinen.
313 18.2 · Physikalische Grundlagen
18.2.3 Erzeugung der Schallwellen
Zur Schallwellenerzeugung verwendet man spezielle, geschliffene Kristalle, die typischerweise aus Bariumtitanat oder Lithiumverbindungen bestehen. Diese unterliegen dem sog. Piezoeffekt. Sobald eine Spannung an ein solches Kristall angelegt wird, ändert es seine Dicke, es bewegt sich also. Je nach Polarität der Spannung erfolgt eine Dilatation oder Kontraktion des Piezokristalls. Legt man eine hochfrequente Wechselspannung an, so bewegt es sich mit eben dieser Frequenz, ähnlich der sich bewegenden Membran
eines Lautsprechers, und erzeugt hochfrequente Schallwellen. Bei entsprechend hoher Frequenz der angelegten Wechselspannung erreicht man die vom Menschen nicht mehr hörbaren Ultraschallwellen (⊡ Abb. 18.3). Umgekehrt: Wenn die reflektierten Schallwellen zu diesem Kristall zurückkehren, werden sie empfangen und in eine elektrische Wechselspannung umgesetzt, die dann vom Gerät in Signale zur Bildentstehung umgewandelt werden ( Abschn. 18.3 »Gerätetechnik«).
18.2.4 Eindringtiefe und Auflösung
⊡ Abb. 18.1. Reflexionsfaktor und Wellenwiderstand
Nicht nur die Zahl der durchtretenen Grenzflächen und deren Reflexionsfaktoren ist verantwortlich für das Eindringvermögen der Schallwellen, sondern auch ihre Frequenz (⊡ Abb. 18.4). Höhere Sendefrequenzen (hier 7,5 MHz) haben auf der gleichen Wegstrecke eine stärkere Wechselwirkung mit dem Gewebe, geben mehr Energie ab und erreichen somit nur eine geringere Eindringtiefe als z. B. 2,5 MHz – also ein Nachteil. In Bezug auf das Auflösungsvermögen besitzen die hohen Frequenzen hingegen einen Vorteil. Jeder Peak, also Wellenberg oder Wellental, kann einen Punkt im Gewebe wiedergeben und als Pixel auf dem Monitor darstellen. Mit 2,5 MHz kann bei gleichbleibender Gewebepunktdichte nur jeder dritte Punkt wiedergegeben und zu einem Monitorpixel verarbeitet werden. Hier handelt es sich allerdings nur um das axiale Auflösungsvermögen, also dasjenige in Ausbreitungsrichtung der Schallwellen, im Gegensatz zum min-
⊡ Abb. 18.2. Verschiedene Reflexionsfaktoren
⊡ Abb. 18.3. Frequenzbereiche der Schallwellen
⊡ Abb. 18.4. Frequenz und Auflösung
18
314
II
Kapitel 18 · Ultraschalldiagnostik
destens ebenso wichtigen lateralen Auflösungsvermögen ( Abschn. 18.3.7 »Sondentypen«). Die axiale Auflösung ist also proportional und die Eindringtiefe umgekehrt proportional zur Frequenz. Aus dieser physikalischen Zwickmühle kann man nicht entrinnen, man kann nur einen dem zu untersuchenden Organ angepassten Kompromiss finden. Für die Oberbauchdiagnostik des Erwachsenen liegt dieser Kompromiss heute bei 3,5-5 MHz, für die Echokardiographie des Erwachsenen bei 1,5–3,5 MHz.
18.2.5 Harmonic Imaging
Die Geschwindigkeit, mit der Schallwellen durch ein Medium wandern, hängt primär von den Materialeigenschaften dieses Mediums ab. Aber auch äußere Einwirkungen, wie Wärme und Druck beeinflussen die Geschwindigkeit des Schalls. Sowohl eine Temperaturerhöhung als auch ein Druckanstieg gehen mit einer schnelleren Ausbreitung von Schallwellen einher. In diesem Zusammenhang ist es bedeutsam, dass die Schallquelle selbst im periodischen Wechsel Druck und Sog auf das Übertragungsmedium ausübt. Das heißt, die Schallquelle selbst beeinflusst mit ihren Druckschwankungen die Schallleiteigenschaften des Mediums. Bewegt sich der Kristall auf das Medium (Gewebe) zu, so wird dieses komprimiert, und der Druckanstieg kann sich überproportional schnell ausbreiten. Schwingt der Kristall zurück, entsteht ein Unterdruck, und die Sogphase der Schallwelle pflanzt sich mit geringerer Geschwindigkeit fort. Die positive Halbwelle (Druck) bewegt sich also mit größerer Geschwindigkeit als die negative, mit der Folge, dass die Flanke der Schallwelle mit zunehmender Entfernung von der Schallquelle immer steiler wird (⊡ Abb. 18.5). Den gleichen Effekt kann man bei Meereswellen am Strand beobachten. Der untere, dem Meeresboden nahe Teil der Welle bewegt sich langsamer, weil er von dem immer näher kommenden Grund gebremst wird. Der obere Teil der Welle ist davon weitgehend unbeeinflusst und bewegt sich somit schneller. Irgendwann ist dieser Effekt so groß, dass der Kamm der Welle quasi nach vorn »umkippt« und die Welle sich bricht. Auch die in den Körper abgestrahlten Impulse eines Ultraschallgerätes erfahren auf ihrem Weg durch das Gewebe diese Verformung. Während die Schallwelle nahe am Kristall noch einen fast sinusförmigen Druckverlauf zeigt, ähnelt die Form der Welle mit zunehmender Distanz mehr und mehr einem Sägezahn. Je höher die abgestrahlte Schallintensität, desto früher und ausgeprägter tritt diese Verformung auf. Nach Fourier kann jeder nichtsinusförmige Schwingungsvorgang einer additiven Überlagerung verschiede-
⊡ Abb. 18.5. Formveränderung der Schallwelle infolge nichtlinearer Schallgeschwindigkeit
a
b c
⊡ Abb. 18.6. Transformation einer nichtsinusförmigen Schwingung in verschiedene sinusförmige Einzelfrequenzen (Erläuterungen s. Text)
ner sinusförmiger Frequenzen mit unterschiedlichen Amplituden gleichgesetzt werden (⊡ Abb. 18.6). In der Form des Sägezahns steckt nämlich zunächst eine sinusförmige Grundwelle (a), darüber hinaus eine sinusförmige Schwingung geringerer Amplitude und halber Wellenlänge (b) sowie mindestens eine weitere Sinusschwingung, die einem Drittel der Grundwellenlänge entspricht (c). Diese höherfrequenten Anteile werden auch als »Harmonische« bezeichnet und sind in gleicher Weise auch aus der Musik bekannt. Wie sie zur Bildgebung genutzt werden können, wird in Abschn. 18.3.6 »Verarbeitung von harmonischen Signalen« beschrieben.
315 18.2 · Physikalische Grundlagen
18.2.6 Blutflussdarstellung
im Dopplerverfahren Beim normalen, oben beschriebenen Pulsreflexionsverfahren können Grenzflächen dargestellt werden, z. B. zwischen Leber und Gallenblase oder zwischen einer Gefäßwand und dem im Gefäß fließenden Blut. Es findet also eine rein morphologische Lokalisationsdiagnostik statt. Beim Dopplerverfahren hingegen handelt es sich um eine Funktionsdiagnostik. Die Methode wurde nach dem österreichischen Physiker Christian Doppler benannt. Er legte Mitte des 19. Jahrhunderts anhand der Beobachtung des Lichts von Sternen, die sich auf die Erde zubewegen, den Grundstein für die nach ihm benannte Gesetzmäßigkeit. Diese besagt, dass ein Signal, das den Wellengesetzen nach Huygens unterliegt und auf ein bewegtes Ziel trifft, seine Frequenz ändert. Das heißt, es tritt eine Frequenzverschiebung zwischen dem emittierten und dem reflektierten Signal auf, die Dopplershift oder auch Dopplerverschiebung genannt wird (fD oder Δf). Zwischen der Dopplershift und der Geschwindigkeit des Zielteilchens besteht der in ⊡ Abb. 18.7 dargestellte Zusammenhang. Wenn nun fD mit dem Ultraschallgerät gemessen wird und alle anderen Parameter bekannt sind, kann man auf diese Weise die Geschwindigkeit des »Zielteilchens« Erythrozyt, also die Blutgeschwindigkeit, bestimmen und daraus diagnostische Rückschlüsse ziehen. So kann z. B. eine Gefäßstenose (Einengung) diagnostiziert werden, denn hier wird sich die Geschwindigkeit erhöhen, da das transportierte Blutvolumen pro Zeit immer gleich ist (geschlossenes System). Dies ist der gleiche Effekt, der dafür sorgt, dass in der »Stenose« Tür eine höhere Luftgeschwindigkeit herrscht als im Raum – es »zieht«. Zu beachten ist dabei, dass der Einfallwinkel φ meistens nicht genau bekannt ist, sodass er nur näherungsweise bestimmt werden kann. Hier sollte eine klare Fehlerabschätzung erfolgen. Das Dopplerverfahren wird auch von der Polizei angewandt, um von der Autobahnbrücke aus die Geschwindigkeit des »Zielteilchens« Autofahrer zu bestimmen. Dies geschieht nur nicht mit Ultraschallwellen, sondern mit Radarwellen. Die Polizei hat allerdings einen großen Vorteil gegenüber den Medizinern: Der Einfallwinkel zur Fahrbahn kann vorher hinreichend genau bestimmt werden. Ein weiteres Beispiel aus dem Alltagsleben ist das Martinshorn des Notarztwagens (NAW). Steht eine Person am Straßenrand, und der NAW fährt vorbei, so ist die Tonhöhe beim Näherkommen anders als beim Entfernen. Die Tonhöhenveränderung erfolgt durch Frequenzverschiebung. Hier bewegt sich zwar nicht das Zielteilchen, sondern der Sender, aber der Dopplereffekt ist der gleiche. Es sei an dieser Stelle ausdrücklich darauf hingewiesen, dass der primäre biomedizinische Parameter, der
⊡ Abb. 18.7. Dopplerformel
mit dem Dopplerverfahren bestimmt werden kann, die Blutgeschwindigkeit v ist und dies auch nur unter der Voraussetzung, dass der Einfallwinkel φ hinreichend genau bekannt ist. Es ist nicht möglich, ohne zusätzliche Messungen oder Annahmen den Volumenfluss pro Zeit (Herzminutenvolumen) oder das transportierte Blutvolumen pro Herzaktion (Schlagvolumen) zu bestimmen. Die verschiedenen technischen Verfahren zur Verarbeitung von Dopplersignalen in der Medizin werden im Abschn. 18.3.4 erläutert.
18.2.7 Blutflussdarstellung im B-Mode
Die Darstellung des Blutflusses im normalen, zweidimensionalen Grauwertbild (B-Mode) war bis 1999 mit sehr wenigen Ausnahmen nicht möglich. Diese wenigen Ausnahmen bezeichnete man als »Spontanfluss«. Sie traten nur dann auf, wenn die Sonde sehr nah am strömenden Blut appliziert war und der Patient eine Neigung zu erhöhter Blutpartikelreflexion hatte (z. B. TEE-Untersuchung bei erhöhtem Hämatokritwert). Ansonsten war eine verlässliche, reproduzierbare Darstellung im B-Mode nicht möglich, da der Reflexionsfaktor von Blut ca. 1000-fach niedriger ist als derjenige von Gewebe. Reflexionsfaktor R: R (Wasser – Blut) = 2×10–6, R (Wasser – Muskel) = 2×10–3. Die folgende Übersicht zeigt eine Reihe von biophysikalischen Parametern, die eine wichtige Rolle für die Reflexion spielen:
18
316
Kapitel 18 · Ultraschalldiagnostik
Biophysikalische Reflexionsparameter im Blut
II
1. Anzahl der Reflektoren = Erythrozyten (ca. 5 Mio. pro mm3) 2. Größe der Erythrozyten: 6–9×10–6 m, Mittelwert: 7,5 (s. Price-Jones-Kurve) 3. Agglomeration der Erythrozyten (Zusammenballung) a) Zufall b) Vene mehr als Arterie c) Proteingehalt (s. Blutsenkungsgeschwindigkeit) 4. Orientierung der Erythrozyten (flaches Hantelprofil)
Eine verlässliche Methode, die diese Parameter beherrschen und ausnutzen konnte, steht erst seit 1999 mit der B-Flow-Technologie zur Verfügung ( Abschn. 18.3.5 »BFlow-Technologie«). ⊡ Abb. 18.8. Nichtlineare Schwingung eines Gasbläschens
18.2.8 Blutflussdarstellung mit
Ultraschallkontrastmittel Ultraschallkontrastmittel werden intravenös appliziert, überstehen unbeschadet die Lungenpassage und werden vom linken Herzen in die Muskulatur und in die Organe gepumpt. Sie bestehen aus unzähligen, winzigen Gasbläschen (»Bubbles«) mit einem Durchmesser zwischen 2 und 4 μm und reflektieren eingestrahlten Ultraschall etwa 15mal stärker als die natürlichen korpuskulären Bestandteile des Blutes. Hinzu kommt ein zweiter Effekt, der die Visualisierung der Gasbläschen und damit des Blutes anhebt: Die Gasbläschen sind erheblich kleiner als die räumliche Ausdehnung der Schallwellen. Wird also z. B. eine Druckwelle abgestrahlt, so »umschließt« dieses Gebiet erhöhten Drucks jedes Bläschen vollständig; die Bläschen werden infolge der Kompressibilität des eingeschlossenen Gases etwas zusammengedrückt. Umgekehrt dilatieren die Bläschen im Unterdruckfeld. Dank dieser rhythmischen Lumenänderungen werden die Bläschen selbst zu Schallquellen. Allerdings stehen der Schalldruck des initialen Schallfeldes und die Durchmesserveränderung in keinem linearen Verhältnis zueinander. Wenn sich der Druck verdoppelt, verkleinern sich die Bubbles nicht in gleichem Maß. Infolge dieser nichtlinearen Schwingbewegung und ihrer etwas unterschiedlichen Größen strahlen die Bläschen ein breitbandiges Frequenzspektrum zum Schallkopf zurück (⊡ Abb. 18.8). Auch dieses breitbandige, nichtsinusförmige Signal lässt sich, analog der sich brechenden Welle am Strand, als Summe mehrerer sinusförmiger Einzelfrequenzen verstehen (die »Harmonischen«, vgl. ⊡ Abb. 18.6).
Meist ist dabei die 2. Harmonische (⊡ Abb. 18.6 »b«) besonders deutlich ausgeprägt, sodass diese im Empfangsteil des Ultraschallgerätes selektiert und zur Darstellung genutzt wird ( Abschn. 18.3.6 »Verarbeitung von harmonischen Signalen«).
18.3
Gerätetechnik
18.3.1 Prinzipieller Aufbau und verschiedene
Bauformen Die Hauptbestandteile eines Ultraschalldiagnostiksystems sowie deren Nomenklatur sind in der nachfolgenden Übersicht dargestellt:
Hauptbestandteile eines UltraschalldiagnostikSystems
▬ Sonde = Schallkopf = Transducer = Scanner = Scanhead
▬ Basiseinheit = Zentraleinheit = Body = Ultraschallgerät = Grundgerät = Konsole ▬ Monitor = Bildschirm = Sichtschirm = Screen = Display ▬ Printer = Drucker
Die verschiedenen Sondenarten werden separat besprochen ( Abschn. 18.3.7 »Sondentypen«).
317 18.3 · Gerätetechnik
Die Basiseinheit umfasst mindestens einen Monitor, weitere Zusatzmonitore für den Operateur oder die Schwangere sind optional verfügbar. Bei Ultraschallsystemen, die auf PC-Basis arbeiten, werden VGA-Monitoren verwendet, bei allen anderen Systemen Videomonitoren. Die Monitordiagonalen liegen dabei im Bereich von 9–17 Zoll, d. h. 23–38 cm. Die Basiseinheit sollte über eine sinnvolle Adaption von Dokumentationseinheiten verfügen, z. B. Drucker, CD-, MOD- oder DVD-Laufwerke, Videorekorder etc. ( Abschn. 18.3.11 »Dokumentation«). Digitale und analoge Ausgänge für Bild- und Befunddaten, Netzwerkanschluss und DICOM-Standard sind heute selbstverständlich. In Bezug auf die Bauform unterscheidet man zwischen tragbaren Systemen, mobilen Systemen und immobilen Systemen. Tragbare Geräte haben einen integrierten Monitor und wiegen 3–15 kg. Die Mehrzahl der Systeme bis hin zu High-End-Systemen sind mobile Geräte auf Rollen. Dabei ist allerdings auf Größe und Gewicht zu achten, um den Transport durch eine einzelne »Nicht-Bodybuilder-Person« zu gewährleisten. Dies ist besonders wichtig, wenn das System von mehreren Abteilungen oder auf der Intensivstation bzw. im OP eingesetzt werden soll und deshalb oft transportiert wird. In den letzten Jahren zeichnet sich ein Trend zur Miniaturisierung in der Ultraschalldiagnostik ab, d. h. es stehen bereits tragbare Systeme zur Verfügung, die die Bildqualität eines großen High-End-Systems aufweisen. Immobile, fest installierte Geräte sind seit vielen Jahren in Deutschland nicht mehr im Gebrauch und können nur noch im Ultraschallmuseum der DEGUM (Deutsche Gesellschaft für Ultraschall in der Medizin) in Remscheid besichtigt werden.
18.3.2 Basiseinheit und Darstellungsarten
Die Basiseinheit hat zwei Hauptaufgaben: erstens die Erzeugung eines Sendeimpulses, der den Piezokristall in der Sonde zur Erzeugung von Schallwellen anregt, und zweitens die Aufnahme der vom Piezokristall während der Empfangsphase erzeugten elektrischen Impulse und deren Weiterverarbeitung zu einem interpretierbaren Ultraschallbild. Letzteres geschieht zunächst durch eine Analog-Digital-Wandlung. Die Weiterverarbeitung der digitalen Signale durch die Basiseinheit ist sehr stark vom Sondentyp abhängig. Linear- oder Konvexsonde, mechanischer und elektronischer Sektor unterliegen speziellen technischen Prinzipien, auf die im Abschn. 18.3.7 »Sondentypen« weiter eingegangen wird. Eine genaue Erläuterung der elektronischen Schaltkreise würde den Rahmen dieses Buches sprengen und bleibt der weiterführenden Literatur vorbehalten. Selbstverständlich ist die Konstruktion solcher Schaltkreise auch eine Preisfrage und eine Frage des »Knowhow« des jeweiligen Herstellers. Gemeinsam ist am Ende
⊡ Abb. 18.9. Schema A-Mode, B-Mode, M-Mode
die Wiederumwandlung in ein analoges Videosignal, damit es von jedem handelsüblichen Monitor dargestellt werden kann. Weiterhin werden Zusatzinformationen über den Patienten und das Schallverfahren sowie ggf. Messwerte und diagnostische Ergebnisse eingeblendet. Eine weitere Aufgabe der Basiseinheit ist die Steuerung der vom Benutzer gewünschten Darstellungsart (= Darstellungsmodus). Dabei unterscheidet man drei Modi (⊡ Abb. 18.9): ▬ A-Mode, ▬ B-Mode, ▬ M-Mode.
A-Mode. Das A-Mode (Amplitudenmodus) entspricht dem bereits in Abschn. 18.2.1 erwähnten Echolot in der Schiffahrt. Jeder von einer Mediengrenze reflektierte Signalimpuls wird als einzelner Peak auf der in ⊡ Abb. 18.9 senkrecht gezeigten Tiefenskala dargestellt. Durch die längere Laufzeit der Schallimpulse aus tieferen Schichten können diese von Signalen aus näheren Schichten unterschieden und innerhalb der Skala der entsprechenden Tiefe zugeordnet werden (Pulsreflexionsverfahren). Tiefe = Schallgeschwindigkeit × gemessene Laufzeit bzw. s = v × t Variieren können diese Peaks noch in ihrer Amplitude, die vom Reflexionsfaktor an der jeweiligen Mediengrenze abhängt. Die diagnostische Aussagekraft des AModes ist sehr beschränkt, da nur Tiefenmessungen und Abstandsmessungen durchgeführt werden können. Das A-Mode war historisch gesehen das erste medizinische Ultraschallverfahren. Es wird heute nur noch selten benutzt.
18
318
Kapitel 18 · Ultraschalldiagnostik
B-Mode. Später modifizierte man das A-Mode so, dass
II
das reflektierte Signal nicht mehr als Peak dargestellt wurde, sondern als einzelner Bildpunkt. Die Amplitude wurde als Helligkeit dieses Bildpunktes wiedergegeben, sodass eine Zeile von verschieden hellen Punkten entstand. Dies war das »ursprüngliche« B-Mode (Brightness-Mode = Helligkeitsmodus), wurde im alltäglichen Sprachgebrauch aber nicht so bezeichnet, da es diagnostisch nicht verwertbar war. Wichtig war es allerdings als Grundlage zur Entwicklung des M-Modes.
M-Mode. Das M-Mode (Motion-Mode = Bewegungsmodus) entsteht durch die horizontale Ablenkung des »ursprünglichen« B-Modes mittels eines Papierstreifens oder einer Monitorröhre. Die Horizontale (x-Achse) stellt somit die Zeit dar, sodass die Stärke des M-Modes in der Darstellung bewegter Körperstrukturen liegt. Zur Diagnostik werden fragliche Bewegungsmuster mit bekannten, normalen Bewegungsmustern verglichen. Das M-Mode kommt daher nur in der Kardiologie zur Anwendung.
2D-B-Mode. Allein das 2D-B-Mode (zweidimensionales Brightness-Mode) entspricht dem in der Ultraschalldiagnostik so wichtigen zweidimensionalen Schnittbildverfahren und ist daher von herausragender Bedeutung. Es wird heute allgemein schlicht als B-Mode bezeichnet, was auch von den Verfassern so übernommen wurde. Die Zusammensetzung des Bildes geschieht dabei durch eine Vielzahl von Bildzeilen, die wiederum aus einer Vielzahl von Bildpunkten (Pixel) bestehen. Die Entstehung der Bildzeilen geschieht analog dem »ursprünglichen« BMode (s. oben). Die Helligkeit der einzelnen Bildpunkte wird dabei digitalisiert in Graustufen dargestellt, wobei 256 Graustufen dem modernen Standard entsprechen. Die Weiterschaltung von einer Zeile zur nächsten zwecks Erzeugung eines zweidimensionalen Flächenbildes geschieht entweder mechanisch durch einen Motor oder auf elektronischem Weg ( Abschn. 18.3.7 »Sondentypen«). Es sei hier darauf hingewiesen, dass das B-Bild ein reines Schwarzweißbild ist, dessen diagnostischer Nutzen in der Feindifferenzierung von Gewebestrukturen mittels Grauabstufungen liegt. 18.3.3 Digital kodierter Ultraschall
Eines der wichtigsten Probleme des diagnostischen Ultraschalls ist immer noch die physikalische Zwickmühle zwischen Auflösung und Eindringtiefe ( Abschn. 18.2.4 Eindringtiefe und Auflösung). Erst 1998 gelang hier ein entscheidender Durchbruch: der Transfer der digitalen Kodierung auf die Ultraschalldiagnostik. Dabei wird dem Nutzsignal beim Senden eine typische digitale Kodierung auferlegt, sozusagen ein individuelles Erkennungsmuster, nach dem dieses Nutzsignal
immer wieder identifiziert werden kann. Diese Kodierung behält es auch nach der Reflexion an den verschiedenen Grenzschichten im Körper des Patienten, sodass bei der Verarbeitung der reflektierten Signale im Ultraschallgerät die kodierten Nutzsignale von den nichtkodierten, unerwünschten Signalen (z. B. Rauschen, Artefakte) getrennt werden können. Nach dem Schlüssel-Schloss-Prinzip werden also nur diejenigen Signale weiterverarbeitet, die den betreffenden, individuellen Code in sich tragen. Zur Veranschaulichung soll hier erwähnt werden, dass das gleiche Prinzip bei den digitalen Funktelefonen angewandt wird. Die individuelle Kodierung kann hier als die Telefonnummer angesehen werden, die dafür sorgt, dass nur ein spezieller Teilnehmer das betreffende Gespräch empfängt und nicht alle anderen tausend Handybesitzer in der Stadt. Diese Technologie wird als »Digitally Encoded Ultrasound«, DEU, bezeichnet und wurde in den neunziger Jahren in den USA entwickelt. Wie man in ⊡ Abb. 18.10 ( auch 4-Farbteil am Buchende) erkennt, findet außer der Kodierung eine Signalkompression statt, die ein kodiertes Sendesignal von geringerer Energie ermöglicht, das dann später durch die Addition der digitalen Einzelpulse wieder zu einem Signal von höherer Energie addiert werden kann. Somit ergeben sich 2 grundsätzliche Vorteile der digitalen Kodierung: 1. Unterdrückung unerwünschter Signale, 2. Verstärkung des Nutzsignals. Rauschen und Artefakte als unerwünschte Signale werden unterdrückt, gleichzeitig wird das Nutzsignal verstärkt und über den Rauschpegel hinausgehoben. Beide Effekte bewirken also eine erhöhte Eindringtiefe bei gegebener Frequenz (und damit gegebener Auflösung). Wir kommen somit der Lösung des alten Problems, eine hohe Auflösung bei gleichzeitig hoher Eindringtiefe zu erzielen, ein erhebliches Stück näher. Die dazu verwendete Technologie nennt man »coded excitation« (kodierte Anregung). Bei modernen High-end-Systemen kann mit »coded excitation« heute eine 7-MHz-Auflösung bis zu 20 cm Eindringtiefe erreicht werden. Zu erwähnen sei hier noch, dass DEU und »coded excitation« uns nicht in die Lage versetzen, der Zwickmühle Auflösung/Eindringtiefe vollkommen zu entrinnen (sonst wäre es im Sinne des Mühlespiels keine echte Zwickmühle), aber die digitale Kodierung verschafft uns immerhin einen erheblich größeren Spielraum.
18.3.4 Dopplerarten
Bei der Dopplertechnik gilt es grundsätzlich zu unterscheiden, ob ein Gerät im Duplexbetrieb arbeitet oder nicht. Duplexbetrieb bedeutet, dass der Abtastpunkt, an
319 18.3 · Gerätetechnik
⊡ Abb. 18.10. Das Prinzip von »Digitally Encoded Ultrasound« (DEU) und »Coded Excitation«
dem die Blutgeschwindigkeit gemessen wird, das sog. »sample volume«, im B-Mode angezeigt wird. Dadurch wird die anatomische Zuordnung zum Punkt der Geschwindigkeitsmessung natürlich wesentlich genauer. Daraus ergibt sich aber auch, dass ein solches Gerät die komplette Technik zur Erzeugung eines B-Modes mitbeinhalten muss, wodurch es deutlich teurer wird als ein reines Dopplergerät. Weiterhin müssen folgende verschiedene Dopplerarten unterschieden werden: ▬ pw-Doppler, ▬ cw-Doppler, ▬ High-PRF-Doppler ▬ Farbdoppler.
Pw-Doppler (»Pulsed-wave-Doppler«). Der pwDoppler arbeitet genau wie A-, M- und B-Mode im Pulsreflexionsverfahren ( Abschn. 18.3.2 »Basiseinheit und Darstellungsarten«), statt der vielen Bildpunkte pro Zeile wird jedoch lediglich ein Punkt verwendet, das »sample volume«. Das reflektierte Signal aus diesem »sample volume« wird dann nicht zur Bildentstehung, sondern zur Geschwindigkeitsmessung nach dem Doppler-Prinzip benutzt ( Abschn. 18.2.6 »Blutflussdarstellung im Dopplerverfahren«). Ähnlich dem M-Mode kann der zeitliche Verlauf der Blutgeschwindigkeit auf dem Monitor oder einem Schreiber dargestellt werden. Die Lage des »sample volume« kann über das Bedienpult verändert werden und beim Duplexbetrieb unter Sicht genau positioniert werden (⊡ Abb. 18.11, auch 4-Farbteil am Buchende).
⊡ Abb. 18.11. Beispiel Duplexprinzip (A. carotis communis). B-Mode mit »sample volume« (oben), pw-Spektrum (unten)
Cw-Doppler (»Continous-wave-Doppler«). Der cwDoppler arbeitet als einziges Ultraschallverfahren nicht im Pulsbetrieb. Er sendet kontinuierlich und empfängt kontinuierlich. Dazu benötigt er zwei getrennte Kristalle, ein Sende- und ein Empfangskristall. Diese sind beide in einer Sonde untergebracht. Im Gegensatz zum pw-Doppler hat er allerdings einen Nachteil: da wegen des kontinuierlichen Sendebetriebs nun keine Pulslaufzeit mehr gemessen werden kann, kann auch keine Zuordnung zur Tiefe erfolgen. Alle Signale aus den verschiedenen Tiefenschichten entlang des Dopplerstrahls werden empfangen und aufsummiert. Der cw-Doppler
18
320
II
Kapitel 18 · Ultraschalldiagnostik
ist also nicht tiefenselektiv, was eine genaue anatomische Zuordnung der Dopplersignale trotz Duplexbetrieb erschweren kann. Dafür kann er jedoch höhere Geschwindigkeiten messen, was z. B. in der Kardiologie bei Klappenstenosen von entscheidender Bedeutung ist. Hier ist der pw-Doppler limitiert durch den sog. Aliaseffekt. Dieser bewirkt ab einer bestimmten Grenzfrequenz bzw. Grenzgeschwindigkeit die Falschdarstellung (Aliasdarstellung) des Dopplersignals, was dazu führen kann, dass das Signal in Bezug auf die Flussrichtung nicht mehr interpretierbar wird. Dieser Effekt ist von der Pulsfrequenz (Abtastfrequenz oder »pulse repetition frequency« = PRF) abhängig, die so hoch wie möglich sein sollte. Den gleichen Artefakt beobachtet man im Westernfilm, wenn die Räder der Kutsche sich plötzlich rückwärts zu drehen scheinen, da die Abtastfrequenz (Fernsehbildfrequenz) zu niedrig ist. Die Unterschiede zwischen pw- und cw-Doppler zeigt ⊡ Tab. 18.2.
le volumes«, was die Tiefenselektivität wiederum etwas einschränkt. Durch den automatischen Übergang des Gerätes vom pw- zum High-PRF kann dieser eine nützliche Ergänzung zum pw sein. Wichtig ist weiterhin die Frage, ob das Dopplersystem eine Frequenzanalyse enthält oder nicht. Bei Duplexgeräten ist dies fast ausschließlich der Fall. Dabei wird das Dopplersignal durch eine Fast-Fourier-Transformation (oder ähnliche Verfahren) in seine einzelnen Frequenzbestandteile, also Anteile verschiedener Sinusschwingungen, zerlegt (vgl. ⊡ Abb. 18.6). Zur Erinnerung sei gesagt, dass »Frequenzbestandteile« unter Annahme der Kenntnis des Einfallwinkels gleichzusetzen ist mit »Geschwindigkeitsbestandteile« (⊡ Abb. 18.7 Dopplerformel). Man erhält also zusätzlich zu den Informationen ohne Frequenzanalyse noch weitere Geschwindigkeitsinformationen (⊡ Tab. 18.3 und ⊡ Abb. 18.12). Am wichtigsten ist dabei die Information über den Turbulenzgrad, der Aufschluss über eine turbulente, pathologische Strömung geben kann.
High-PRF-Doppler. Um diesen Aliaseffekt unter Beibehaltung der Tiefenselektivität zu umgehen, wurde der sog. High-PRF-Doppler entwickelt, der heute in allen Duplexsystemen enthalten sein sollte. Er ist eine Zwischenlösung zwischen pw und cw, bei dem die Aliasgrenzfrequenz durch die Erhöhung der PRF nach oben verschoben werden konnte. Dafür erhält man aber mehrere »samp-
⊡ Tab. 18.2. Unterschiede pw/cw-Doppler pw-Doppler
cw-Doppler
Gepulster Betrieb
Kontinuierlicher Betrieb
Tiefenselektiv
Nicht tiefenselektiv
Aliaseffekt
Kein Aliaseffekt
Relativ niedrige Geschwindigkeit
Genügend hohe Geschwindigkeit
Farbdoppler (»color doppler« = »color flow mapping«). Einen wichtigen Entwicklungsschritt machte die Ultraschalldiagnostik Mitte der 1980er Jahre mit der industriellen Entwicklung des ersten Farbdopplers in Japan. Der Farbdoppler ist vom Prinzip her ein pw-Doppler. Es wird allerdings nicht nur ein einziges »sample volume« benutzt, sondern mehrere hundert, die wiederum zeilenförmig zusammengesetzt ein zweidimensionales, flächenhaftes Dopplerbild ergeben. Es wird dem Schwarzweiß-B-Mode positionsrichtig überlagert und kann mit diesem zusammen zeitgetreu, also im Realtime-Modus, betrachtet werden. Damit die Dopplerinformation von der morphologischen Schwarzweißinformation (B-Mode) unterschieden werden kann, wird sie farbkodiert dargestellt (⊡ Abb. 18.13, auch 4-Farbteil am Buchende). Am gebräuchlichsten ist die in ⊡ Tab. 18.4 dargestellte Standardkodierung, die bereits seit Beginn der
⊡ Tab. 18.3. Informationen aus den verschiedenen Dopplerarten (Abk.: FA Frequenzanalyse, s semiquantitativ) Doppler ohne FA
Doppler mit FA
Farbdoppler
Flussnachweis
Flussnachweis
Flussnachweis
Zeitlicher Verlauf
Zeitlicher Verlauf
Zeitlicher Verlauf
Richtung
Richtung
Richtung
Mittlere Geschwindigkeit
Mittlere Geschwindigkeit
Mittlere Geschwindigkeit (s)
Maximale Geschwindigkeit
Turbulenzgrad (s)
Minimale Geschwindigkeit Turbulenzgrad (s)
321 18.3 · Gerätetechnik
Farbdopplerära benutzt wird. Es sei aber ausdrücklich darauf hingewiesen, dass es keine weltweit normierte Kodierung gibt und auch in den einzelnen Farbdopplersystemen verschiedene Farbkodierungen (Farbtabellen) abrufbar sind.
⊡ Tab. 18.4. Standardfarbdopplerkodierung Fluss auf die Sonde zu
Rot
Schnell: hellrot
Langsam: dunkelrot
Fluss von der Sonde weg
Blau
Schnell: hellblau
Langsam: dunkelblau
Turbulenz
Grün
Auch hier tritt der bereits erwähnte Aliaseffekt als Artefakt auf. Er bewirkt, dass mitten in einer Strömung, die z. B. blau kodiert ist (von der Sonde weg), ein roter Fleck auftaucht, der komplett von blau umgeben ist (⊡ Abb. 18.13, unterer Bildteil). Dies ist der Fall, wenn an eben dieser Stelle die maximal darstellbare Geschwindigkeit überschritten wird. Die Farbe »kippt« dann in die Gegenfarbe um. Wir können dies aber durch den Gebrauch unseres gesunden Menschenverstandes erkennen, denn es ist offensichtlich unmöglich, dass mitten in einer blauen Strömung plötzlich eine »rote Insel der Gegenströmung« auftaucht, ebenso wie wir wissen, dass sich die Räder einer nach vorne fahrenden Kutsche nicht rückwärts drehen können. Die Geschwindigkeit (Grenzfrequenz), ab der der Aliaseffekt auftritt, nennt man Nyquist-Limit und berechnet sich analog dem Shannon-Theorem aus der Digitalelektronik als: Nyquist-Limit = fny = PRF/2. Wenn man dem Duplexmodus noch den Farbdoppler hinzufügt, also B-Mode, Farbdoppler und Dopplerspektrum darstellt, erhält man den sog. Triplexmodus. In diesem Fall kann der Aliaseffekt sogar nützlich sein, indem er uns die Stelle in der Blutströmung anzeigt, an der die Geschwindigkeit am höchsten ist. Zur Messung der höchsten Geschwindigkeit müssen wir unser »sample volume« also nur an diese »Aliasstelle« platzieren und sparen Zeit und Mühe. Mit dem Farbdoppler ist es nun möglich, im Realtime-Modus die Ausdehnung eines pathologischen Jets zu erkennen (z. B. Mitralinsuffizienz, ⊡ Abb. 18.14, auch 4-Farbteil am Buchende), pathologische Jets zu lokalisieren (z. B. Septumdefekte) und kleine Gefäße zu orten. Damit kann die teilweise recht mühsame und zeitraubende Untersuchung mit dem pw unterstützt, beschleunigt und ergänzt werden.
⊡ Abb. 18.12. Beispiel Dopplerdiagnostik. B-Mode mit »sample volume« (oben links), pw mit FA (oben rechts), pw ohne FA (Mitte/oben), pw mit FA (Mitte/unten), B-Mode mit M-Mode (unten)
⊡ Abb. 18.13. Beispiel Farbdopplerbild mit Aliaseffekt (Abgänge der beiden Nierenarterien von der Aorta)
18
322
Kapitel 18 · Ultraschalldiagnostik
II
⊡ Abb. 18.14. Beispiel Farbdopplerbild (Mitralinsuffizienz, bestehend aus drei Jets an einer SJM-Klappenprothese, transösophageale Sonde)
⊡ Abb. 18.15. Das Prinzip B-Flow
Eine andere Version des Farbdopplers stellt der »Power-Doppler« dar. Er ist auch unter folgenden Synonymen bekannt: ▬ »Power-Doppler« ▬ »Amplitudendoppler« ▬ »Color Angio« ▬ »Power Color«
18.3.5 B-Flow-Technologie
Auch hier wird die Dopplershift benutzt; es wird aber nicht Geschwindigkeit und Richtung, sondern nur die Amplitude ausgewertet. Diese wird wiederum beim normalen Farbdoppler nicht dargestellt. Die Amplitude ist von der Anzahl der Reflektoren (hauptsächlich Erythrozyten) abhängig. Der »Power-Doppler« ist dadurch sensitiver, kann auch langsamere Blutpartikel erfassen und füllt das Gefäßlumen besser aus. Er kann dadurch gut zur räumlichen Darstellung des tatsächlich durchflossenen Gefäßlumens benutzt werden. Dies ist insbesondere bei langsamen Geschwindigkeiten, bei Stenosen, bei kleinen Gefäßen und bei der Darstellung einer komplexen Organperfusion von Vorteil. In der Echokardiographie hat sich ein spezielles Dopplerverfahren etabliert, das nicht den Blutfluss farbig kodiert, sondern das Herzgewebe, also die Herzwand (Myokard). Hier spricht man von Gewebedoppler oder Tissue Doppler Imaging (TDI). Da sich das Myokard wesentlich langsamer bewegt als das Blut, sind hier Tiefpassfilter gefragt statt der Hochpassfilter beim Blutflussdoppler. Mit dieser Technologie können Aussagen über die Geschwindigkeit einzelner Myokardsegmente gemacht werden, wodurch eine spezifische Diagnostik bei Wandbewegungsstörungen, z. B. aufgrund eines Myokardinfarktes, möglich ist. Zusätzliche Informationen können der weiterführenden Literatur entnommen werden.
Zunächst soll hier klar definiert werden, dass es sich bei der B-Flow-Technologie nicht um eine Dopplermethode handelt, sondern um eine Subtraktionsmethode (ähnlich der Digitalen Subtraktionsangiographie, DSA), mit der es möglich ist, den Blutfluss im normalen Grauwertbild (B-Mode) darzustellen. B-Flow unterliegt somit den normalen Gesetzen der B-Mode-Darstellung. Wie bereits im physikalischen Teil erwähnt ( Abschn. 18.2.7 »Blutflussdarstellung im B-Mode«), liegt die Hauptschwierigkeit dieses Verfahrens darin, dass der Reflexionsfaktor von Blut ca. 1000-fach niedriger ist als der von Gewebe. Um dies zu umgehen, bedurfte es der Ausnutzung der digitalen Kodierung (»digitally encoded ultrasound«, DEU, Abschn. 18.3.3). Mit ihr werden unerwünschte Signale unterdrückt (hier: Gewebesignale) und Nutzsignale verstärkt (hier: Blutfluss). Um überhaupt das Blutflusssignal vom Gewebesignal zu trennen, wird eine Subtraktionsmethode angewendet. Auf jeder Zeile des B-Mode-Bildes werden zwei Pulse gesendet, im Gegensatz zum normalen B-Mode, bei dem nur ein Puls pro Zeile benutzt wird. Die Amplituden A1 und A2 der beiden daraus entstandenen reflektierten Signale werden voneinander subtrahiert. Bewegt sich also eine Struktur (Erythrozyt) in dem Zeitraum zwischen t1 und t2, so sind die beiden Amplituden unterschiedlich und es gilt: A1–A2>0. Die resultierende Amplitude wird zur BFlow-Bildentstehung benutzt und ist um so heller, je höher die resultierende Amplitude A1–A2 ist. Bewegt sich eine Struktur (Gewebe) im Zeitraum t1– t2 nicht, so gilt: A1– A2=0. Die resultierende Amplitude ist also gleich Null und trägt nicht zur B-Flow-Bildentstehung bei (⊡ Abb. 18.15). In Bezug auf die Subtraktion erinnert B-Flow stark an die DSA, wobei zu beachten ist, dass bei der DSA ganze
323 18.3 · Gerätetechnik
⊡ Tab. 18.5. Unterschiede Farbdoppler/B-Flow Farbdoppler
B-Flow
▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Reduziertes Sichtfeld (Color Box = ROI) Schlechte räumliche Auflösung Relativ niedrige Bildfrequenz Überschreiben der Gefäßwand Bewegungsartefakte Winkelabhängigkeit Aliaseffekt Semiquantitative Anzeige der Flussgeschwindigkeit Relativ große Eindringtiefe
Bilder voneinander subtrahiert werden, bei B-Flow jedoch einzelne Zeilen. Die wichtigsten Unterschiede zwischen Farbdoppler und B-Flow in Bezug auf die praktische Anwendung und die grundlegenden diagnostischen Möglichkeiten zeigt ⊡ Tab. 18.5. Der entscheidende Vorteil von B-Flow liegt in der hervorragenden räumlichen Auflösung, die in ⊡ Abb. 18.16 sehr gut zu erkennen ist. Der Durchmesser des Steneosejets kann zweifelsfrei gemessen werden. Dies ist mit dem Farbdoppler fast unmöglich. Weitere medizinische Einsatzgebiete des B-Flow sind: die exakte räumliche Definition von Plaques und Thromben, die exakte Definition des durchströmten Gefäßlumens, frühzeitige Erkennung von tiefen Beinvenenthrombosen, Diagnose von schweren, pathologischen Veränderungen der Gefäßwand, exakte Bestimmung des Stenosegrades, frühere Erkennung von Risikosituationen in Bezug auf Infarkte und Thrombosen.
Volles Sichtfeld (keine ROI) Gute räumliche Auflösung 4mal höhere Bildfrequenz Kein Überschreiben Keine Bewegungsartefakte Keine Winkelabhängigkeit Kein Aliaseffekt Eingeschränkte Anzeige der Flussgeschwindigkeit Eingeschränkte Eindringtiefe
⊡ Abb. 18.16. Beispiel B-Flow: Stenose der A. carotis interna
18.3.6 Verarbeitung von harmonischen Signalen
Wie in Abschn. 18.2.5 (»Harmonic Imaging«) erläutert, erfahren Schallwellen auf ihrem Weg durch den Körper eine zunehmende Verformung im Sinne eines Übergangs von einer sinusförmigen Welle zu einer Sägezahnform. Es wurde bereits dargelegt, dass dieser nichtsinusoide Schwingungsvorgang einer additiven Überlagerung verschiedener Frequenzen entspricht. Beim Empfang zerfällt jedes dieser sägezahnförmigen Echoimpulse in seine Frequenzbestandteile (⊡ Abb. 18.17). Die konventionelle Signalverarbeitung unterdrückt die höherfrequenten Signalanteile, sodass primär die dominante Grundwelle jedes reflektierten Signals zur Bildgebung herangezogen wird. Beim sog. »Second Harmonic Imaging« hingegen wird die erste Oberwellenfrequenz (zweite Harmonische) isoliert und zur Bildgewinnung genutzt. Die Grundwelle (erste Harmonische) wie auch alle anderen Oberwellen werden diskriminiert und finden keine weitere Verwendung.
⊡ Abb. 18.17. Zerfall eines sägezahnförmigen Echos in Fundamentalfrequenz (3 MHz = erste Harmonische) und Oberwelle (6 MHz = zweite Harmonische)
Aber welche Vorteile stecken in der Nutzung der Oberwellen? Zur Beantwortung dieser Frage sollte in Erinnerung gerufen werden, dass jeder Ultraschallschwinger neben dem Ultraschallstrahl noch höchst unerwünschte Nebenkeulen (»sidelobes«) abstrahlt. Hierbei handelt es sich um Schallfelder, die um den Zentralstrahl herum angeordnet sind. Trifft ein derartiges Nebenschallfeld auf ein stark reflektierendes Objekt (Knochen, Gas), so kommen die Reflexe dieses Objekts auch auf solchen Bildzeilen zur Darstellung, die mit dem Ort der Reflexion nicht korrespondieren.
18
324
Kapitel 18 · Ultraschalldiagnostik
II
⊡ Abb. 18.18. Entstehung des Nebenkeulenartefakts
Die ⊡ Abb. 18.18 zeigt, auf welche Weise es zu dieser fehlerhaften Darstellung kommt: bereits beim Aufbau der außen links dargestellten Ultraschallzeile trifft die dazugehörige Nebenkeule den wesentlich weiter rechts liegenden Reflektor (in diesem Fall Darmgas kaudal der Gallenblase). Infolge der diffusen Reflexion an der Oberfläche dieses Objekts kehrt ein Teil des Echosignals zum empfangsbereiten Array oberhalb der linken Schallzeile zurück, wird in einen elektrischen Impuls konvertiert und gelangt als Lichtpunkt zur Darstellung. Auf der dazugehörigen Bildzeile wird demzufolge ein Echosignal dargestellt, obwohl sich in der entsprechenden Position überhaupt kein reales Objekt befindet, sondern das echofreie Lumen der Gallenblase. Gleiches geschieht beim Aufbau der 2. Zeile, der 3. Zeile usw. Da die Intensität des gesendeten Ultraschallsignals in den Nebenkeulen deutlich schwächer ist als im Hauptstrahl, ist die Sägezahnform hier weniger ausgeprägt. Das hat zur Folge, dass auch die von den Nebenkeulen ausgelösten Reflexe eine eher unverfälschte, sinusartige Form haben, also nahezu keine Oberwelle (⊡ Abb. 18.19).Filtert man deshalb beim Empfang die Oberwellen heraus und stellt nur diese auf dem Bildschirm dar, werden die von den Nebenkeulen verursachten Echosignale zwangsläufig ignoriert. »Harmonic imaging« ist somit eine Technik, die die Artefakte im Ultraschallbild reduziert und speziell flüssigkeitsgefüllte Hohlräume, wie z. B. die Amnionhöhle, die Harnblase, die Herzhöhlen oder Zysten sauberer und klarer abgrenzbar macht (⊡ Abb. 18.20). Damit eine deutliche Verformung des Sendesignals auftritt, muss im Vergleich zum herkömmlichen B-Bildverfahren eine höhere Schallintensität abgestrahlt werden. Diese
⊡ Abb. 18.19. Diskriminierung von Nebenkeulenechos durch Selektion von Oberwellen
muss jedoch immer unter dem vorgeschriebenen Limit liegen ( Abschn. 18.7 »Sicherheitstechnische Aspekte«). In Verbindung mit der Applikation eines Ultraschallkontrastmittels werden im »harmonic« modus ebenso primär die von den Bubbles generierten Oberwellen aufgefangen ( Abschn. 18.2.8 »Blutflussdarstellung mit Ultraschallkontrastmittel«). Hier geht es im Gegensatz zum oben beschriebenen Vorgang im normalen B-Mode jedoch nicht so sehr um die Unterdrückung von Artefakten, sondern um die Unterdrückung des Gewebesignals. Durch Diskriminierung der Fundamentalfrequenz mittels Hochpassfilter oder Subtraktionstechnik ( Abschn. 18.3.3
325 18.3 · Gerätetechnik
⊡ Abb. 18.20. Artefaktfreie Darstellung der Herzhöhlen mittels »harmonic imaging« (links mit und rechts ohne »harmonic imaging«)
Der klinische Nutzen besteht darin, dass eine Tumorcharakterisierung vorgenommen werden kann, die Aufschluss geben kann über die spezielle Therapieform und das weitere klinische Procedere des betreffenden Patienten. Der zweite große Nutzen der Kontrastmittelanwendung im Ultraschall liegt in der Tumordetektion, insbesondere der Metastasensuche. Dazu benutzt man das Verfahren der »stimulated acoustic emission« (SAE). Um dies zu erläutern, muss kurz auf die Wirkung verschiedener Energielevel auf die Bubbles eingegangen werden. Wie bereits in Abschn. 18.2.5 »Harmonic Imaging« erwähnt, ist die Entstehung der harmonischen Frequenzen maßgeblich von den Druckschwankungen abhängig, die durch den Piezokristall erzeugt werden. Als Maß für die mechanischen Einwirkungen der Schallwellen auf Gewebe und Kontrastmittelbläschen dient der sog. mechanische Index (Mi), der an allen Ultraschallsystemen angezeigt werden muss und sich nach der folgenden Zahlenwertgleichung berechnet: ⊡ Abb. 18.21. Darstellung der Vaskularisierung eines Lebertumors mittels Ultraschallkontrastmittel (FNH mit typischem Speichenradphänomen)
»Digital kodierter Ultraschall«) heben sich in der bildlichen Darstellung die mit Kontrastmittel angereicherten Gefäße deutlich vom Gewebehintergrund ab. Somit lassen sich Perfusionsunterschiede visualisieren und selbst die im B-Mode als sonographisch nicht differenzierbar geltenden Läsionen differentialdiagnostisch bzw. differenzierbar beschreiben (⊡ Abb. 18.21).
Mi = p − /
f
Hier bedeuten: Mi = mechanischer Index [dimensionslos] p– = negativer Schalldruck [MPa] f = Sendefrequenz [MHz] Bei niedrigem Mi und somit niedrigem Schalldruck haben die Bubbles noch ein lineares Verhalten, bei höherem Schalldruck gehen sie zu nichtlinearem Verhalten über und erzeugen harmonische Oberwellen. Bei einem MiWert von ungefähr 1 schwingen die Bubbles so stark, dass sie platzen (»burst«) und ein starkes Signal abgeben, das
18
326
II
Kapitel 18 · Ultraschalldiagnostik
aus einem breiten Band von harmonischen Frequenzen besteht. Eine Zusammenfassung gibt ⊡ Tab. 18.6. Da Metastasen aufgrund ihrer neoplastischen Gefäßstruktur weniger Kontrastmittel aufnehmen als gesundes Gewebe, kann man diese beim SAE-Verfahren als hyporeflektive »Aussparung« (schwarzer Fleck) im Bild erkennen. In der Echokardiographie wird Kontrastmittel im nichtlinearen Modus dazu benutzt, um bei schlecht schallbaren Patienten die Abgrenzung des linken Ventrikels zu optimieren und dadurch eine Aussage über die Ventrikelkontraktilität und das Ventrikelvolumen zu gewinnen. Auch kann damit in differentialdiagnostisch schwierigen Fällen geklärt werden, ob sich ein Thrombus in der Ventrikelspitze oder im linken Herzohr befindet. ⊡ Tab. 18.6. Verhalten der Bubbles bei verschiedenen Mi-Werten (nach N. de Jong, Universität Rotterdam) Mi
p– [Mpa]
Verhalten der Bubbles
Bildmodus
<0,1
0–0,05
Linear
B-Mode, M-Mode, Farbdoppler, PowerDoppler
ca. 0,1
0,05–0,2
Nichtlinear
»Harmonic imaging«
≥1
0,2–2
»Burst«
»Stimulated acoustic emission« (SAE)
⊡ Abb. 18.22. Verschiedene Sondentypen und deren Ablenkprinzip
18.3.7 Sondentypen
Die verschiedenen Sondentypen und deren prinzipielle Schallfeldgeometrie zeigt ⊡ Abb. 18.22. Der Compoundscanner ganz links und der mechanische Spiegellinearscanner ganz rechts sind schon seit längerer Zeit nicht mehr gebräuchlich. Dazwischen befinden sich Linear-, Convex- und Sektorscanner, die sich prinzipiell durch ihr Ablenkverfahren unterscheiden. Bei mechanischen Sonden wird die Ablenkung zur Erzeugung eines zweidimensionalen Bildes durch einen kleinen Elektromotor in der Schallsonde durchgeführt. Sie enthalten typischerweise 1–5 Kristalle. Mechanische Sonden sind nur noch in älteren Geräten zu finden und werden in seit der Jahrtausendwende produzierten Systemen fast gar nicht mehr eingesetzt. Lediglich in einigen Spezialsystemen z. B. für die Hautdiagnostik sind sie noch zu finden, da höhere Frequenzen benutzt werden können, z. Zt. bis ca. 50 MHz. Bei elektronischen Sonden wird die Ablenkung auf elektronische Weise herbeigeführt, sie enthalten also keinerlei mechanische Verschleißteile. Die elektronische Ablenkung erfolgt durch eine Vielzahl von Kristallen. Die maximale Frequenz liegt heute bei ca. 15 MHz. Die einfachste Form einer elektronischen Sonde ist der Linearscanner. Er besteht aus einer Vielzahl von Kristallen, je nach Sondengröße bis zu ca. 400 Stück, die linear nebeneinander angeordnet sind (⊡ Abb. 18.23).
327 18.3 · Gerätetechnik
a
b
⊡ Abb. 18.23a,b. Linearsonde. a Abtastprinzip; b Linearsonde 7,5 MHz
Zur Entstehung einer Bildzeile werden immer mehrere Kristalle benutzt, hier z. B. 6 Stück. Diese aktive Gruppe von Kristallen nennt man auch ein Array, daher stammt auch der Begriff Linear-Array für dieses Verfahren. Jedes Kristall wird durch einen elektronischen Impuls angesteuert und sendet eine kleine Schallwelle aus, die sich mit den anderen zu einer Wellenfront vereinigt. Durch verschiedene natürliche physikalische Effekte entsteht eine Zeile in der dargestellten typischen Schallfeldgeometrie (durchgezogene Linie) mit einer fokalen Einschnürung. Dann wird ein Kristall »weitergerückt«, die nächsten 6 Kristalle werden angesteuert und bilden die gestrichelte Zeile. Nach dem selben Prinzip entsteht auch die gepunktete Zeile, und dies geht so lange in Pfeilrichtung weiter, bis ein komplettes Bild entstanden ist. Der gesamte beschriebene Vorgang muss in ca. 1/20 s abgelaufen sein, um ein Realtime-Bild mit 20 Bildern pro Sekunde (20 Hz) zu erzielen. Das gleiche Verfahren wird auch bei der Konvexsonde benutzt, auch »curved array« genannt. Lediglich die Anordnung der Kristalle ist hier nicht linear mit gerader Ankopplungsfläche, sondern gebogen, mit konvexer Ankopplungsfläche. Für verschiedene Körperbereiche sind verschiedene Krümmungsradien verfügbar. Zuletzt ist noch der elektronische Sektor zu erwähnen, auch »phased array« genannt. Hierbei werden weniger Kristalle benutzt als beim Linear-Array, typischerweise 96. Die elektronische Ansteuerung erfolgt wiederum zeitversetzt bzw. phasenversetzt, daher der Begriff »phased array«. Der Zeitversatz geht nun allerdings nicht mehr von außen nach innen sondern kontinuierlich von einer Seite zur anderen, sodass eine schräge Wellenfront entsteht (⊡ Abb. 18.24). Durch entsprechend schnelle Änderung dieses Zeitversatzes erreicht man ein Schwenken des Strahls und erhält wiederum ein zweidimensionales Bild in Form eines Kreissektors.
⊡ Abb. 18.24. Phased-Array-Prinzip
Wichtig ist bei allen elektronischen Sonden die bereits erwähnte fokale Einschnürung, die auch Fokusbereich genannt wird. Je schmaler das Schallfeld in diesem Bereich ist, um so besser ist das laterale Auflösungsvermögen des Systems, also dasjenige in seitlicher Richtung, senkrecht zur Schallausbreitungsrichtung (vgl. axiale Auflösung Abschn. 18.2.5). Der Durchmesser des Schallstrahls im Fokusbereich hängt von der Größe des Kristalls ab sowie von verschiedenen elektronischen Fokussierungseffekten im Gerät. Die von den Herstellern angegebenen Auflösungswerte beziehen sich meistens nur auf diesen Fokusbereich. Entscheidend ist aber auch die Position des Fokus. Idealerweise sollte er genau dort liegen, wo sich das zu untersuchende Organ befindet, nicht tiefer oder höher. Und hier zeigt sich der größte Vorteil der elektronischen Sonden im Vergleich zu den mechanischen: Die Fokuspositi-
18
328
II
Kapitel 18 · Ultraschalldiagnostik
on kann elektronisch verschoben werden. Dies geschieht dadurch, dass nicht mehr alle Kristalle gleichzeitig angesteuert werden, sondern zuerst die äußeren und zuletzt die mittleren (⊡ Abb. 18.25, rechtes Bilddrittel). Durch den Zeitversatz zwischen Außen und Innen kann die Lage des Fokus bestimmt werden. Beim mechanischen Schallkopf hingegen ist die Lage des Fokus fest. Aber damit nicht genug. Bei elektronischen Sonden ist es sogar möglich, mehrere Fokuszonen simultan zu benutzen, sodass eine scharfe Abbildung über nahezu den gesamten Tiefenbereich möglich ist. Dies nennt man dynamische Fokussierung. In der idealisierten Schematik der ⊡ Abb. 18.26 werden 3 Fokuszonen gezeigt, die über Zwischenspeicher zu einem Gesamtfokus (rechts) zusammengesetzt werden, der nahezu die gesamte Tiefe abdeckt. Moderne Geräte haben bis zu 10 Fokuszonen, wobei meistens nur 4 für die dynamische Fokussierung verwendet werden, da sonst durch die Benutzung der Zwischenspeicher die Bildfrequenz zu niedrig wird. Die Tiefenverstellbarkeit des Fokus wie auch die multiplen Einschnürungen der dynamischen Fokussierung sind bei Einsatz der konventionellen Array-Technik allerdings nur in Schallkopflängsrichtung möglich. Nur in dieser Ebene stehen genügend Einzelkristalle zur Verfügung, um dem Schallstrahl durch das beschriebene zeitversetzte Ansteuern der Elemente die gewünschte Form zu geben. Quer zum Schallkopf und damit auch quer zur Schnittebene sind die Abtastzeilen nur in einer konstruktiv festgelegten, von der Form der Kristalle abhängigen Tiefe fokussiert. Im Nah- und im Fernbereich kann sich der Ultraschall vergleichsweise unkontrolliert ausbreiten (⊡ Abb. 18.26, links und Mitte).
⊡ Abb. 18.25. Schichtdicke des Abtaststrahls
Somit hat das eigentlich zweidimensionale Schallfeld auch eine unerwünschte Ausdehnung in der 3. Dimension, also rechtwinklig zur Schnittebene. Diese unerwünschte Ausdehnung wird Schichtdicke genannt. Infolgedessen werden kleinste Gefäße, zystische Hohlkörper oder echoarme Läsionen nicht nur exakt in ihrer Mitte geschnitten, vielmehr erfasst jeder Abtaststrahl auch echogene Strukturen, die sich vor oder hinter dem flüssigkeitsgefüllten Hohlraum befinden. Demzufolge treffen am Schallkopf Echosignale aus eben der Tiefe ein, in der der eigentlich echofreie Hohlraum lokalisiert ist. Diese Echos aus den Gebieten vor und hinter der Schnittebene projizieren sich derart in das Lumen des Hohlkörpers hinein, dass dieses nicht mehr als echofreies Gebiet dargestellt wird (⊡ Abb. 18.27, links). Nur im Fokus ist die Schichtdicke des Schallfeldes von so geringer Ausdehnung, dass keine Weichteile außerhalb des Lumens getroffen werden. Seit einigen Jahren ist eine neue Schallkopftechnik verfügbar, die auch quer zur Schnittebene eine elektronische Fokussierung und damit eine reduzierte und
⊡ Abb. 18.26. Prinzip der dynamischen Fokussierung
329 18.3 · Gerätetechnik
gleichförmige Schichtdicke vom Nahbereich bis etwa 25 cm Tiefe bietet. Kernstück dieser neuen Technik ist ein sog. Matrix-Array. Die konventionellen Schallköpfe bestehen aus einer einzigen Reihe von etwa 100–200 nebeneinander liegenden quaderförmigen Piezokristallen und lassen deshalb auch nur in dieser einen, lateralen Ebene eine Fokussierung zu. Der Matrix-Array-Schallkopf hingegen weist eine zweidimensionale Anordnung von bis zu ca. 1000 winzigen quadratischen Kristallen auf, wobei jeder dieser Piezowandler selektiv angesteuert wird (⊡ Abb. 18.28, ⊡ auch 4-Farbteil am Buchende). Die beschriebene elektronische Fokussierung durch zeitversetztes Ansteuern der einzelnen Elemente ist somit nicht nur in der lateralen Ebene, sondern auch senkrecht
⊡ Abb. 18.27. Fokussierung in der Schichtdickenebene
dazu möglich. ⊡ Abb. 18.28 (rechts) zeigt, dass mit Hilfe dieser Technik die Schichtdickenartefakte weitgehend eliminiert werden und auch kleinste zystische Hohlräume mit hoher Auflösung und ohne Einstreuartefakte zu visualisieren sind. Als weiteren positiven Nebeneffekt bietet die MatrixArray-Technik aufgrund der Verringerung der Strahldivergenz eine wesentlich verbesserte Penetrationsfähigkeit. Somit können bei gleicher Eindringtiefe höhere Ultraschallfrequenzen als bisher üblich verwendet werden.
18.3.8 Dreidimensionaler Ultraschall (3D)
Wie CT und MRT bietet auch die moderne Ultraschalldiagnostik die Möglichkeit der volumetrischen Abtastung, also der dreidimensionalen Erfassung und -Darstellung von Echosignalen. Die Anfänge der 3D- Darstellung im Ultraschall reichen zurück bis in die späten 1980er Jahre. Damals waren die verwendeten Prozessoren allerdings noch so langsam, dass die Rekonstruktion eines einzigen 3D-Bildes ca. 1 h benötigte. Es ist verständlich, dass diese Systeme keinen Einzug in den klinischen Alltag hielten. Der vorläufige Höhepunkt der 3D-Entwicklung war die Vorstellung des ersten Realtime-3D-Systems Mitte 2000, bei dem diese Zeit auf ca. 1/5 s reduziert werden konnte. Somit war man in der Lage, 5 Bilder pro Sekunde (besser gesagt: 5 Volumen pro Sekunde) darzustellen, was nah an eine Realtime-Darstellung herankam. Da hier die Zeit als 4. Dimension mit einbezogen wird, spricht man auch von 4D-Ultraschall. Fünf Jahre später sind wir bei einer Rekonstruktionszeit von 1/20–1/40 s angekommen und erreichen somit eine echte Realtime-Darstellung mit 20–40 Volumen pro Sekunde. Bei der Aufnahmetechnik geht es grundsätzlich darum, dem zweidimensionalen Bild (B-Mode) eine dritte Dimension zuzufügen, d. h. eine Ablenkung senkrecht zur 2D-Ebene vorzunehmen, dabei mehrere 2D-Bilder aufzunehmen und als 3D-Datensatz abzuspeichern.
Prinzipielle technische Systeme zur Aufnahme von 3D-Datensätzen ▬ Freihandtechnik ohne Positionssensor (statische Darstellung, ohne Volumenmessung),
▬ Freihandtechnik mit Positionssensor (statische Darstellung, mit Volumenmessung),
▬ Integrierter 3D-Schallkopf mit mechanischer Ab-
⊡ Abb. 18.28. Konventionelle Technik (links) vs. »active matrix array« (rechts)
lenkung (Realtime-Darstellung, mit Volumenmessung), ▬ Integrierter 3D-Schallkopf mit elektronischer Ablenkung (Realtime-Darstellung, mit Volumenmessung).
18
330
Kapitel 18 · Ultraschalldiagnostik
Freihandtechnik ohne Positionssensor. Bei dieser
II
Technik wird der normale 2D-Schallkopf ohne jegliche Modifikation benutzt. Nach Eingabe eines Startbefehls wird der Schallkopf vom Benutzer unter Beibehaltung aller Freiheitsgrade über den Körper des Patienten geführt. Die Bewegung muss dabei senkrecht zur 2D-Ebene ausgeführt werden und sollte möglichst gleichförmig sein. Währenddessen wird eine meist vorher zu bestimmende Anzahl von Bildern abgespeichert, die als 3D-Datensatz weiterverarbeitet werden können. Ein sog. »sweep estimator« vergleicht das einzelne Bild mit dem jeweils vorherigen und schätzt dadurch die Ablenkgeschwindigkeit und den Abstand der einzelnen Bilder voneinander, was später zur 3D-Rekonstruktion benötigt wird. Da dies keine Berechnung, sondern nur eine Abschätzung ist, kann in Bewegungsrichtung keine Messung vorgenommen werden. Somit ist bei dieser Aufnahmetechnik keine Volumenmessung möglich (⊡ Abb. 18.29).
Freihandtechnik mit Positionssensor. Bei der Freihandtechnik mit Positionssensor wird ebenso der normale 2D-Schallkopf verwendet, der aber durch Anbringen eines Positionssensors modifiziert wird. Dieser detektiert ständig die räumliche Position des Schallkopfs
und gewährleistet somit eine genaue Registrierung aller Bewegungen und damit auch des Abstands der einzelnen Bilder voneinander. Das ermöglicht eine exakte Volumenmessung. Der Bedienungsablauf ist ansonsten identisch mit dem oben beschriebenen System ohne Positionssensor. Der Positionsdetektor besteht in den meisten Fällen aus einem elektromagnetischen Sensor, der am Schallkopf befestigt wird. Meistens wird er mit einem Clip arretiert, sodass er leicht entfernt und an einem anderen Schallkopf befestigt werden kann. Eine andere, teurere Version ist die Integration des Sensors im Gehäuse jedes einzelnen Schallkopfs. Der Vorteil des elektromagnetischen Systems ist die technische Robustheit und der günstige Preis. Der Nachteil besteht darin, dass sich der Sensor immer innerhalb eines Magnetfelds von ca. 80 cm Radius befinden muss. Dies kann u. U. zu einem eingeschränkten Handlungsradius führen. Andere Systeme benutzen Ultraschallsensoren, die natürlich in einem Frequenzband arbeiten müssen, das von dem des diagnostischen Ultraschalls deutlich abweicht. Wieder andere Technologien arbeiten mit Infrarotsensoren, die eine große Reichweite haben, wobei der Infrarotstrahl allerdings nicht von Untersuchern, Patienten oder anderen technischen Teilen blockiert werden darf.
Integrierter 3D-Schallkopf mit mechanischer Ablenkung. Hier wird die Ablenkung in der 3. Dimension auf mechanische Weise durch einen Motor im Schallkopfgehäuse durchgeführt. Zu Beginn der 3D-Ära (s. o.) wurden diese Schallköpfe landläufig als »Bügeleisen« bezeichnet, da sie durch den zusätzlichen Motor und den benötigten Bewegungsspielraum in Größe und Gewicht an ein solches Haushaltsgerät erinnerten. Inzwischen sind sie wesentlich kleiner geworden und kommen nahe an die Abmessungen eines normalen 2D-Schallkopfes heran. Im Grunde oszilliert ein 2D-Schallkopf motorisch angetrieben in einem flüssigkeitsgefüllten Gehäuse und tastet die anatomischen Strukturen repitierend so schnell ab, dass eine Realtime-Volumenabbildung mit ca. 30 Volumen pro Sekunde entsteht. (⊡ Abb. 18.30). Auch hier kann natürlich eine genaue Positionserkennung durchgeführt werden, sodass Volumenmessungen möglich sind.
Integrierte 3D-Schallköpfe mit elektronischer Ablenkung. Sie kommen ohne mechanisch bewegte Kom-
⊡ Abb. 18.29. Freihandtechnik zur Gewinnung multipler, paralleler Schnittbilder
ponenten aus und erlauben eine besonders kleine und leichte Bauweise. Das Array dieser Sonden besteht wie beim Matrix-Array-Schallkopf ( Abschn. 18.3.7 »Sondentypen«) aus einer zweidimensionalen, meist quadratischen Anordnung zahlreicher winziger Piezokristalle. Jedes dieser Kristalle ist selektiv ansteuerbar. Basierend auf dem Prinzip des Sektor-Phased-Array Verfahren werden die Kristalle zu leicht unterschiedlichen Zeitpunkten erregt, sodass der durch Überlagerung
331 18.3 · Gerätetechnik
aller Einzelschallfelder entstehende Abtaststrahl einen mehr oder weniger großen Winkel zur Arrayoberfläche bildet. Allein mit der zeitlichen Verzögerung zwischen den Ansteuerzeitpunkten lässt sich die Abstrahlrichtung steuern – im Gegensatz zum herkömmlichen Phased-Array-Schallkopf aber in beiden horizontalen Raumachsen (⊡ Abb. 18.31).
3D-Rekonstruktion. Unabhängig vom Abtastverfahren ist allen 3D-Verfahren bei der Rekonstruktion eigen, dass die nacheinander akquirierten Schnittbilder noch während des Abtastvorgangs orts- und winkelkorrekt aneinander gereiht werden, sodass bereits nach Abschluss des Sweeps ein dreidimensionaler Echoblock zur Verfügung steht (⊡ Abb. 18.32). In Abhängigkeit vom Abtastverfahren ähnelt dieser Block einem Kubus (Freihandtechnik) oder einem Pyramidenstumpf (mechanischer oder elek-
tronischer integrierter 4D-Schallkopf). Letzterer eignet sich dank seiner kleinen Kontaktfläche und seiner vergleichsweise hohen Abtastrate insbesondere für den Einsatz in der Kardiologie. Bei Einsatz der 4D-Technologie wird dieser Echoblock etwa 30-mal pro Sekunde aktualisiert und kann somit in Echtzeit dargestellt werden. Der besondere diagnostische Wert der volumetrischen Echoerfassung liegt in der Möglichkeit, aus dem Echoblock beliebige virtuelle Schnittebenen rekonstruieren zu können. Damit können auch solche Betrachtungsebenen realisiert werden, die aufgrund der Lagebeziehung zwischen Schallkopf und untersuchter Region mittels 2D-Sonographie niemals möglich wären (⊡ Abb. 18.33, auch 4-Farbteil am Buchende). Darüber hinaus bieten abgespeicherte Echovolumina die Möglichkeit der retrospektiven Befundung, da auch im Nachhinein der Echoblock Scheibe für Scheibe durchgemustert,
⊡ Abb. 18.31. 3D-Pyramidenstumpf mit Matrix-Phased-Array, speziell geeignet für die Echokardiographie
⊡ Abb. 18.30. Integrierter 3D/4D-Schallkopf mit mechanischer Ablenkung
⊡ Abb. 18.32. Rekonstruierter 3D-Kubus
18
332
Kapitel 18 · Ultraschalldiagnostik
die Betrachtungsrichtung gedreht und selbst räumliche Bewegungsabläufe im Slow Motion Mode Schritt für Schritt analysiert werden können. Je nach Fragestellung können sehr unterschiedliche Darstellungsmodi aus einem Echoblock extrahiert oder rekonstruiert werden: ▬ Multiplanare Darstellung ▬ Transparenzdarstellung ▬ Oberflächendarstellung
II
Multiplanare Darstellung. Synonym: Multidimensional Imaging – MDI. Parallele Darstellung mehrerer rechtwinklig zueinander stehender Schnitte durch ein Organ oder eine Struktur (⊡ Abb. 18.34, auch 4-Farbteil am Buchende). Der Untersucher gewinnt eine sehr gute Vorstellung über Form und räumliche Ausdehnung des untersuchten Organabschnitts oder einer Läsion.
Transparenzdarstellung. Plastische Abbildung des gesamten akquirierten Echoblocks, wobei die äußeren, dem Betrachter zugewandten »Außenflächen«, wie auch alle anderen Schnitte nicht als geschlossene Flächen, sondern ⊡ Abb. 18.33. Rekonstruktion der dritten Ebene (z-Achse) aus einem 3D-Datensatz
⊡ Abb. 18.34. Darstellung des 3D-Kubus mit den drei zugehörigen, jeweils senkrecht aufeinander stehenden 2D-Ebenen (Multiplanarmodus)
333 18.3 · Gerätetechnik
teiltransparent dargestellt werden. Jedes Schnittbild lässt demzufolge die Echostuktur der dahinter liegenden Ebene »durchschimmern«; die gesamte Box entspricht einem sogenannten »gläsernen« Körper und wird insbesondere gern verwendet, um nach Anomalien des fetalen Skeletts zu suchen (⊡ Abb. 18.35).
Oberflächendarstellung. Synonym: Surface Rendering. Algorithmus zur Erzeugung einer geschlossen Oberfläche der dem Betrachter zugewandten Echoschicht. Voraussetzung zur Nutzung dieses Modus ist jedoch eine sonographisch ganz klare Abgrenzbarkeit des Untersuchungsobjektes von seiner Umgebung. Diese Bedingungen findet der Untersucher besonders oft
im Rahmen der Schwangerschaftsdiagnostik vor, da es zwischen der Haut des Feten und dem Fruchtwasser einen deutlichen Impedanzsprung gibt. In Kombination mit graphischen Algorithmen zur Erzeugung von z. B. künstlichen Schatten hinter hervorstehenden Körperteilen (Nase etc.) lässt sich eine beeindruckend photorealistisch anmutende Darstellung erzielen (⊡ Abb. 18.36, auch 4-Farbteil am Buchende). Neben den äußeren Konturen bietet dieser Modus auch die Möglichkeit, die inneren Konturen von Körperhöhlen zu visualisieren. Die ⊡ Abb. 18.37 ( auch 4-Farbteil am Buchende) zeigt neben einer biplanen Schnittdarstellung des linken Herzens einer derartige Rekonstruktion der inneren Wandung des linken Vorhofs und des Aortenbulbus.
⊡ Abb. 18.35. Fetale Wirbelsäule im Transparenzmodus
⊡ Abb. 18.36. Fetales Gesicht im Oberflächenmodus
⊡ Abb. 18.37. Herzinnenwände (linker Vorhof und Aortenbulbus) im Oberflächenmodus
18
334
II
Kapitel 18 · Ultraschalldiagnostik
18.3.9 Sonstige neue Technologien
Virtual Convex. Beim »Virtual Convex« wird das Schall-
Dieser Abschnitt soll einen kurzen Überblick geben über einige spezielle neue Technologien, die in den letzten Jahren Einzug in die Ultraschalltechnik gehalten haben. Dies sind »Extended Field Of View«, »Virtual Convex«, »Realtime Compound« und »Speckle Reduction Imaging«.
feld von Linear- und Phased-Array-Sonden durch einen virtuellen Ursprungspunkt zu einem künstlichen Konvexschallkopf modifiziert. Dies ermöglicht eine Erweiterung des lateralen Schallfeldes ohne wesentliche Einschränkung der Bildqualität. Die Veränderung des Schallfeldes sieht man in ⊡ Abb. 18.39, ein Beispiel zeigt ⊡ Abb. 18.40.
Extended Field Of View. Unter dem Begriff »Extended Field Of View« (EFOV) ist eine Erweiterung des Schallfeldes unter Beibehaltung der Auflagefläche der Sonde und ohne merkliche Einbußen an Bildqualität zu verstehen. Man erhält also einen besseren Überblick über die Organe und deren Lage zueinander, ohne den Zugang durch eine größere Kontaktfläche zu erschweren. Dabei geht es nicht wie beim 3D um eine Informationserweiterung in der 3. Ebene (senkrecht zur 2D-Ebene), sondern um eine Erweiterung der 2D-Ebene selbst. Dazu wird die Sonde in Richtung der Scanachse des 2D-Bildes manuell verschoben. Gleichzeitig wird ein Bild nach dem anderen aufsummiert und aneinandergereiht. So entsteht ein verlängertes Bild bis zu 60 cm Länge, sozusagen ein Panoramablick (⊡ Abb. 18.38). Das ermöglicht einen guten Überblick über einen längeren Körperbereich, hat allerdings den Nachteil, dass nicht mehr im RealtimeModus gearbeitet werden kann.Diese Technologie ist mit ähnlicher Leistung unter mehreren Markennamen bekannt: SieScape, Freestyle, LOGIQ View oder Panoramic Ultrasound.
⊡ Abb. 18.38. Beispiel EFOV (kompletter M. gastrocnemius)
⊡ Abb. 18.40. Beispiel »Virtual Convex« bei einem Linearschallkopf (Schilddrüsenlappen beidseits, links ohne/ rechts mit »virtual convex«)
Realtime-Compound-Imaging. Als weitere neue Abtasttechnik ist das »Realtime-Compound-Imaging« zu erwähnen, auch bekannt geworden unter den Markennamen »SonoCT« und »Cross-Beam«. Bei herkömmlicher Ansteuerung eines Linear- oder Convexarray Schallkopfes werden die Sendepulse rechtwinklig zur Oberfläche der aktiven Wandlergruppe abgestahlt; Kontaktfläche des Schallkopfes und Abtastzeilen bilden somit einen Winkel von 90°. Verläuft eine akustische Grenzfläche in nahezu gleicher Richtung, trifft der Sendepuls unter einem extrem spitzen Winkel bzw. tangential auf dieses Objekt. Die Folge ist ein Verlust der für die Bildgebung notwendigen Rückstreuung in Richtung des Schallkopfes. Stattdessen erfährt der eintreffende Schall eine sog. Totalreflexion, wobei der Austrittswinkel
⊡ Abb. 18.39. Schallfeldveränderung durch »Virtual Convex« bei Linearsonden und Phased-Array-Sonden
335 18.3 · Gerätetechnik
dem Eintrittswinkel entspricht und somit die akustische Abtastzeile unter einer gewissen Auffächerung zur Seite abgelenkt wird (⊡ Abb. 18.41, rechts). Dieses Phänomen führt nicht nur zu einer fehlenden Erkennbarkeit derartiger Konturen, vielmehr werden auch die distal dieser Grenzflächen liegenden Stukturen partiell nicht vom Abtaststrahl erreicht. Als Folgen zeigen sich neben dem
⊡ Abb. 18.41. Günstige (links) und ungünstige (rechts) Reflexionsbedingungen, Erläuterungen im Text
⊡ Abb. 18.42a–c. Alternierende Abstrahlwinkel. a –20 Grad, b 0 Grad, c +20 Grad
bekannten lateralen Randschatten auch artifizielle Inhomogenitäten der distalen Strukturen. Die beschriebenen Unzulänglichkeiten lassen sich vermeiden, wenn die untersuchten Strukturen nicht nur aus einer Richtung, sondern unter verschiedenen Winkeln angelotet werden. Schallköpfe, deren Array aus besonders kleinen und extrem eng benachbarten Kristallen besteht, ermöglichen eine Abstrahlung der Sendepulse auch unter spitzeren Winkeln als 90°. Dabei lässt sich allein durch asymetrisches Ansteuern der Einzelkristalle einer Gruppe ein Angulieren des Abtaststrahls bis zu etwa ±30° vom Lot realisieren. Bei der praktischen Umsetzung des Verfahrens bleibt der vorteilhafte Realtimebetrieb von etwa 20–40 Bildern pro Sekunde voll erhalten, wobei nach jedem Bildaufbau der Abstrahlwinkel selbstständig geändert wird. Üblich ist ein Alternieren zwischen –20°, 0° und +20° (⊡ Abb. 18.42). Damit wird jedes reflektierende Objekt aus unterschiedlichen Richtungen angelotet, sodass selbst senkrecht zum Schallkopf stehende Grenzflächen visualisiert und Artefakte signifikant vermindert werden. Dies gilt auch für das Bildrauschen, da die multidirektionale Erfassung solider Strukturen deren Echointensität anhebt mit der Folge, dass sich diese Strukturen besser vom Hintergrundrauschen abheben (⊡ Abb. 18.43)
Speckle Reduction Imaging (SRI). Die herkömmliche Verarbeitung von Echosignalen hat die Entstehung einer artifiziellen Körnigkeit, einer Rasterung des dargestellten Gewebes zur Folge. Eine Verminderung dieser auch als »Specklemuster« bezeichneten Verfälschung ist Aufgabe des neuen »Speckle Reduction Imaging« (SRI). Zur Erzeugung der Ultraschallsendepulse werden die Piezokristalle des Schallkopfes heute mit sehr kurzen bipolaren Spannungsstößen von etwa 0,1–0,5 μsek Pulsdauer angeregt. Damit erreicht die axiale Ausdehnung der durch das
⊡ Abb. 18.43. Realtime Compound Technologie (links ohne, rechts mit)
18
336
II
Kapitel 18 · Ultraschalldiagnostik
Untersuchungsgebiet wandernden Schallwelle eine Länge von wenigen zehntel Millimeter. Liegen zwei reflektierende Objekte bzw. Grenzflächen in axialer Richtung deutlich weiter auseinander, werden zwei separate Echosignale zurückgeworfen und auf dem Bildschirm erscheinen erwartungsgemäß zwei voneinander getrennte Bildpunkte (⊡ Abb. 18.44, links). Entspricht der Reflektorabstand in etwa der Pulslänge, verschmelzen die Echosignale miteinander und auch die bildliche Darstellung auf dem Bildschirm lässt nicht mehr erkennen, dass es sich um zwei räumlich getrennte Reflektoren handelt (⊡ Abb. 18.44, Mitte). Sind die beiden Reflektoren um weniger als die Länge des Sendepulses voneinander entfernt, kommt es zu einer partiellen Überlagerung beider Echosignale mit der Folge einer komplexen Interferenzbildung (⊡ Abb. 18.44, rechts). Da sich jedes Echosignal aus zumindest einer positiven und einer negativen Halbwelle zusammensetzt, kommt es je nach Distanz zwischen den Reflektoren sowohl zu Summationen der Echointensitäten als auch zu Auslöschungen – nämlich dann, wenn sich die positive Halbwelle eines Echos mit der negativen Halbwelle des anderen Echosignals überdeckt. Auf der korrespondierenden Bildzeile führt diese Interferenz zu einem multiplen schwarz/weißWechsel entlang der axialen Ausdehnung der sich überlagernden Echos. Diese kurzstreckigen schwarz/weiß-In-
tervalle sind rein artifizieller Natur und korrespondieren in keinster Weise mit dem tatsächlichen Abstand der Reflektoren zueinander. Schallphysikalisch entspricht menschliches Gewebe aufgrund seines zellulären Aufbaus einer dreidimensionalen Anordnung von unzähligen winzigen Reflektoren (sog. Scatterer), die nur wenige Micrometer von einander entfernt sind. In vivo kommt damit dem vorstehend beschrieben Phänomen der Echointerferenz große Bedeutung zu. Es zeigt, dass die typische, vom Gewebe hervorgerufene Textur – das sog. Specklemuster (⊡ Abb. 18.36, links) – keinerlei Rückschlüsse auf den histologischen Aufbau zulässt, sondern ausschließlich von der räumlichen Ausdehnung der Sendepulse bestimmt wird. Je grobscholliger die Speckletextur, desto schwerer fällt es dem Auge, Helligkeitsunterschiede wahrzunehmen. Läsionen, die sich in ihrer Echointensität nur wenig von der Umgebung unterscheiden, werden in einem feinkörnigen Raster besser erkannt als in einem groben Raster. Bemühungen, mittels besonders hoher Ultraschallfrequenzen und entsprechend kurzer Pulse eine möglichst feine Speckleltextur zu erreichen, stoßen im ZehntelMillimeterbereich an physikalische Grenzen. Dank der enormen Rechnerleistung neuerer Ultraschallsysteme ist es jetzt jedoch möglich geworden, die dunklen Auslöschungspunkte innerhalb der Speckletextur als Inter-
⊡ Abb. 18.44. Darstellung zweier Reflektoren bei unterschiedlicher Pulslänge
337 18.3 · Gerätetechnik
ferenzprodukte zu identifizieren und in Realtime mit den in der unmittelbaren Umgebung herrschenden Helligkeitswerten auszufüllen. Der Prozess entspricht einer lokal sehr eng begrenzten Mittelwertbildung, wobei die Schärfe und Abgrenzbarkeit von Konturen voll erhalten bleibt. Das Schema in ⊡ Abb. 18.45 zeigt den Algorithmus: Pixel für Pixel wird analysiert, ob eine gleichmäßige Verteilung kleiner Echopunkte vorliegt oder ob ausgeprägte Impedanzsprünge und damit Unregelmäßigkeiten der Helligkeitsverteilung vorherrschen. Im ersten Falle wird das entsprechende Gebiet geglättet und die Körnigkeit reduziert, im zweiten Falle erfolgt keine Veränderung der Echokomplexe und die steilflankigen Signalsprünge bleiben erhalten. ⊡ Abb. 18.46 zeigt, dass mit Hilfe dieser neuen Technik das Gewebe völlig frei von artifizieller Körnigkeit zur Darstellung kommt und deshalb kleinste Inhomogenitäten des Parenchyms signifikant besser abgebildet werden. Ausgeprägte Impedanzsprünge, z. B. die Grenze zwischen Gewebe und Flüssigkeit, werden von der Mittelwertbildung nicht betroffen und mit voller Kantenschärfe dargestellt.
18.3.10 Upgrades
Bei der Anschaffung eines Ultraschalldiagnostiksystems ist es sehr wichtig, sich über Upgrades (Aufrüstungen) zu informieren, die später zugekauft werden können. Dies gibt die Sicherheit, dass bei Bedarf weitere Untersuchungsarten oder neue Technologien integriert werden können, ohne ein neues Gerät kaufen zu müssen. Ideal wäre also ein System, wie es in ⊡ Abb. 18.47 dargestellt ist. Einige Hersteller bieten regelmäßige Upgrades an, z. B. einmal pro Jahr, sodass aus technischer Sicht eine Investitionssicherung erreicht wird. Dies gilt allerdings nur für einen Zeitraum von 7–8 Jahren. Danach ist das Basisgerät meistens so veraltet, dass eine weitere Aufrüstung wirtschaftlich nicht sinnvoll ist. Die Philosophie, alle Anwendungen in ein Gerät zu packen, hat im Übrigen dort ein Ende, wo mehrere Untersucher oder Abteilungen gleichzeitig mit diesem Gerät arbeiten müssen. In diesem Zusammenhang soll noch erwähnt werden, dass es sich bei Upgrades um deutliche Leistungsverbesserungen des Geräts handelt, z. B. Aufrüstung mit Farb-
⊡ Abb. 18.45. Schematische Darstellung der SRI-Technologie
a ⊡ Abb. 18.46a,b. Darstellung einer Zyste. a ohne SRI, b mit SRI
b
18
338
Kapitel 18 · Ultraschalldiagnostik
II
⊡ Abb. 18.47. Ideales Upgrade-Schema
doppler, sodass diese zusätzlich bezahlt werden müssen. Im Gegensatz dazu enthalten Updates nur kleinere Verbesserungen oder Fehlerkorrekturen, z. B. Beseitigung von Software-bugs, die von den meisten Herstellern kostenlos oder im Rahmen eines Wartungsvertrags geliefert werden.
18.3.11 Dokumentation
Dieses Thema spielt eine wichtige Rolle, da für die Krankenakte meistens ein Dokument gespeichert werden muss. Dies wird sowohl von der KV als auch von den gesetzlichen Bestimmungen gefordert. Zudem ist die richtige Auswahl des Dokumentationssystems bei der heutigen hohen Zahl von Untersuchungen ein nicht zu vernachlässigender finanzieller Faktor. Bis Ende der 90er Jahre waren Videoprinter und Videorekorder dieer eindeutigen Spitzenreiter in der Dokumentation von Ultraschallbildern, je nachdem ob Einzelbilder oder Bildsequenzen aufgezeichnet werden sollten. Dies hat sich inzwischen deutlich zu Gunsten der digitalen Archivierung geändert. Oft werden Papierdokumentation über Videoprinter und papierlose Digitalspeicherung parallel betrieben. Der Grund dafür besteht in einer noch immer bestehenden Übergangsphase, in der eine rein digitale Patientenakte zwar erwünscht, aber noch nicht konsequent durchgeführt wird. Der Vorteil dieser »doppelten Buchführung« liegt darin, dass Einzelbilder in Form von Ausdrucken in der (nichtdigitalen) Krankenakte sofort
zur Hand sind, anderseits Bildsequenzen, die in der Echokardiographie von herausragender Bedeutung sind, über eine digitale Patientendatenbank schnell (im Vergleich zum Videoband) und in hoher Qualität abgerufen werden können. Einen Gesamtüberblick über Vor- und Nachteile, Leistung und Preisgefüge der verschiedenen Dokumentationssysteme gibt ⊡ Tab. 18.7. Die neueste Generation von Ultraschallsystemen beinhaltet als Herzstück einen oder mehrere handelsübliche, sehr leistungsfähige PCs, die meistens ein WindowsBetriebssystem nutzen. Dadurch sind alle Anbindungen an die moderne »PC-Welt« möglich. Bilder und Bildsequenzen können in JPG- MPEG- oder AVI-Formaten gespeichert werden und sind somit auf nahezu jedem handelsüblichen PC darstellbar. Den Ultraschallbildern wird somit der digitale Weg in Wohnzimmer und Vortragssäle gebahnt. Wissenschaftliche Präsentationen können per Laptop mobil gemacht, zu Hause aufbereitet und dann zum Kongress gebracht und dort projiziert werden. Moderne Ultraschallsysteme besitzen eine integrierte Patientendatenbank, in der über verschiedene Suchkriterien nach Patienten, Untersuchungen und einzelnen Bildern gesucht werden kann. Da jede Festplatte irgendwann einmal voll sein wird, muss für eine Auslagerung der Bilder auf Wechselmedien gesorgt werden. Dazu dienen CDs, DVDs, MODs (Magneto-Optical Disc) oder USBkompatible Festspeicher (USB-Sticks). Die PC-Kompatibilität macht auch Netzwerkeigenschaften für die Ultraschallgeräte verfügbar. In der Arzt-
339 18.3 · Gerätetechnik
⊡ Tab. 18.7. Vergleich verschiedener Dokumentationssysteme System
Schwarz/ weiß
Color
Einzelbild
Sequenz
Analog
Digital
Speichermedium
Systemvorteile
Systemnachteile
Videoprinter
Jaa
Jaa
Ja
Nein
Jaa
Jaa
Thermopapier
Sofortbild
Nur Standbilder, Colorbilder sind teuer, eingeschränkte Bildqualität
Videorekorder
Ja
Ja
Ja
Ja
Jaa
Jaa
Videokassette
Bewegte Bilder, preisgünstig
Umständlicher Zugriff, eingeschränkte Bildqualität, fragliche Datensicherheit
Digitale Archivierung (on board)
Ja
Ja
Ja
Ja
Nein
Ja
CD, DVD, MODc
Bewegte Bilder, gute Qualität, schneller Zugriff
An Ultraschallgerät gebunden, Backup notwendig
Digitale Archivierung (Netzwerk)
Ja
Ja
Ja
Ja
Nein
Ja
Festplatten (Jukebox, NAS), MODc
Bewegte Bilder, gute An Server und Qualität, preisgünstig, Netzwerkkabel schneller Zugriff in ver- gebunden schiedenenRäumen, bei DICOM auch MultiModality-Vergleichb
a
verschiedene Geräte Vergleich von Ultraschall-, Röntgen-, CT- und MR-Bildern auf einem Monitor c Magneto-Optische Disc b
praxis bedeutet dies zumeist eine Anbindung an das Praxiscomputersystem. Dies kann durch einen Framegrabber geschehen, der das analoge Videosignal digitalisiert und somit die Ultraschallbilder in die elektronischen Patientenakte transferiert. Die qualitativ bessere Variante besteht in einer digitalen Datenübertragung, die meistens auf Basis des DICOM-Standards erfolgt (s. unten). Dazu muss sowohl im Ultraschallsystem als auch im Praxiscomputer ein DICOM-Modul vorhanden sein. Im Krankenhaus können ultraschallspezifische Netzwerke aufgebaut werden, die sich meistens auf eine einzelne Abteilung beschränken. Alternativ kann der Anschluss an ein bereits vorhandenes abteilungsübergreifendes Netzwerk gesucht werden. Praktikabel ist dies nur mit DICOMNetzwerken, da hier ein weltweit anerkannter Standard in der medizinischen Bildverarbeitung benutzt wird. Der große Vorteil des DICOM-Protokolls (»digital communication in medicine«) ist die Tatsache, dass es sich hierbei um einen echten Standard handelt, der nicht nur von einem Hersteller oder einem Institut entwickelt und akzeptiert wurde, sondern von allen Firmen und allen maßgeblichen Instituten und Kliniken. Dadurch hat sich der DICOM-III-Standard Ende der 1990er Jahre global durchgsetzt und wird mittlerweile von allen Herstellern als Option angeboten. Beeindruckend ist dabei die Vereinigung aller bildgebenden Verfahren in einen Standard. DICOM III wird sowohl für Ultraschallbilder benutzt als auch für Röntgen-, CT-, MR- und Endoskopiebilder sowie sonstige in der Medizin verbreitete bildgebende
Verfahren. So können all diese Bilder auf einem Monitor nebeneinander betrachtet und verglichen werden. Der DICOM Standard definiert verschiedene Funktionen, die als »Service Classes« bezeichnet werden. Es würde hier zu weit führen, diese Service Classes alle zu erläutern, dies bleibt der weiterführenden Literatur vorbehalten. Zusätzliche Anwendungen des DICOM-Protokolls finden sich in Kap. 48 und Kap. 51. Lediglich eine elegante Anwendung soll hier noch erwähnt werden: die DICOM-Worklist. Damit kann an der Patientenanmeldung eine Tagesliste der zu untersuchenden Patienten erstellt werden. Diese wird dann an das betreffende Ultraschallsystem geschickt und der dort arbeitende Untersucher kann die Patienten der Reihe nach abarbeiten. Dabei bekommt er mit der Worklist automatisch die gesamten Patientendaten gesandt, was Doppel- und Falscheingaben von Patientennamen und ID-Nummern verhindert. Die hohe Flexibilität des DICOM-Standards zeigt sich in den sogenannten »private flags«. Dies sind herstellerspezifische Bereiche des Softwareprotokolls, in denen dem Bild spezielle Informationen angehängt werden können, ohne den allgemeinen Standard zu verletzen. Zum Beispiel können hier Rohdateninformationen integriert werden, die es ermöglichen, auf speziellen Workstations eine umfangreiche Nachbearbeitung und Optimierung der Bilder vorzunehmen. Dies betrifft u. a. die Verstärkung (B-Gain, Color-Gain), die Doppler-Nullinie und sogar das nachträgliche Erstellen eines M-Modes aus einer B-Mode Bildsequenz.
18
340
Kapitel 18 · Ultraschalldiagnostik
18.4
Anwendungsgebiete
18.4.1 Frequenzbereiche
II
Einen Überblick über die in den verschiedenen Fachgebieten benutzten Frequenzen gibt ⊡ Abb. 18.48. Die axialen Auflösungswerte liegen dabei ungefähr zwischen 1,8 mm (2 MHz), 1,3 mm (3,5 MHz), 1 mm (5 MHz) und 0,7 mm (7,5 MHz). Die lateralen Auflösungswerte sind etwas ungünstiger. Die maximale Eindringtiefe liegt zwischen 20–25 cm (2 MHz), 15–18 cm (3,5 MHz), 10–12 cm (5 MHz), 6–8 cm (7,5 MHz) und 3–4 cm (10 MHz). Für die Wahl des Sondentyps ist entscheidend, ob die jeweilige Bauform, insbesondere die Auflagefläche, für
⊡ Abb. 18.48. Frequenzbereiche des diagnostischen Ultraschalls
⊡ Abb. 18.49. Schallfeldgeometrie verschiedener Sondentypen
das betreffende Untersuchungsgebiet geeignet ist. So kann z. B. Echokardiographie nur mit einem Sektorsystem betrieben werden, um störende Schallschatten durch die Rippen zu vermeiden (⊡ Abb. 18.49 und ⊡ Abb. 18.50).
18.4.2 Körperregionen und Organe
In ⊡ Tab. 18.8 werden die für die Ultraschalldiagnostik wichtigsten Körperregionen, die zentralen Organe und die hauptsächlich verwendeten Sonden aufgelistet. Die Zusammenstellung erhebt keinen Anspruch auf Vollständigkeit, sondern dient dem Überblick. Die ⊡ Abb. 41 und ⊡ Abb. 42 zeigen Beispiele.
341 18.4 · Anwendungsbereiche
Diagnostische Aussagen können über die Größe und Form der Organe sowie deren Lage zueinander gemacht werden. Veränderungen von Organen wie Raumforderungen, pathologische Vergrößerungen oder Schrumpfungen, Zysten und sonstige Flüssigkeitsansammlungen sind die Domäne der Ultraschalldiagnostik. Mit dem Doppler wird das Spektrum erweitert auf pathologische Blutflüsse wie Septumdefekte, hämodynamisch wirksame Klappenvitien und Gefäßstenosen. Auch sind schon erste Ansätze erkennbar zur Differenzierung von malignen und benignen Tumoren mittels Dopplerdarstellung der Hypervaskularisation bei benignem Gewebe. ⊡ Abb. 18.50. Systemvergleich Sektor-/Linearsondentypen
⊡ Tab. 18.8. Körperregionen und Organe (Lin Linearsonde, Con Convexsonde, Sek Sektorsonde, M Mechanisch, E Elektronisch) Region
Organe
Sondentyp
Frequenz (MHz)
Kopf
Gehirn/transkraniell
Sek
2–2,5 Erwachsene
Gehirn/Fontanelle
Sek
5–7,5 Säuglinge
Intrakranielle Gefäße
Sek
2–3,5
Schilddrüse
Lin
5–10
Parotis/Zunge/Lymphsystem
Lin
5–10
Hirnversorgende Gefäße
Lin/Sek
3,5–7,5
Herz
Sek
1–3,5 Erwachsene 5–7,5 Kinder, TEE
Weibliche Brust
Lin
5–10
Sonstige peritoneale Organe
Sek
3,5
Leber/Gallenblase und -wege
Con/Lin
3,5–5
Pankreas
Con
3,5–5
Nieren
Con/Lin/Sek
3,5–5
Milz
Con/Lin/Sek
3,5–5
Speiseröhre/Magen/Darm
Con/Lin
3,5–5
Sek/Con/Lin
5–20 intrakavitär
Mesenteriale Gefäße
Con/Lin
3,5–5
Uterus/Ovarien/Schwangerschaft
Con/Lin/Sek
3,5–5
Con/Sek
5–7,5 transvaginal
Con/Sek
3,5–5
Sek
5–7,5 transurethral
Con/Lin
3,5–5
Sek/Con/Lin
5–7,5 transrektal
Gelenke (besonders Knie, Schulter)
Lin/Sek/Con
5–10
Periphere Gefäße
Lin/Sek
5–10
Muskeln/Haut
Lin/Sek
7,5–20
Halsorgane
Thorax
Oberbauch
Unterbauch
Blase
Prostata
Extremitäten
18
342
Kapitel 18 · Ultraschalldiagnostik
18.5
II
Semiinvasive, invasive und interventionelle Ultraschalldiagnostik
Trotz des generell nichtinvasiven Charakters der Ultraschalldiagnostik haben sich diverse Begleitmethoden entwickelt, die nicht mehr als nichtinvasiv betrachtet werden können. Diese sind von der normalen Ultraschalldiagnostik getrennt zu betrachten und bedürfen einer engeren, klar definierten Indikationsstellung. ⊡ Tab. 18.9 zeigt die Auflistung dieser Techniken, eine genaue Erläuterung bleibt jedoch der weiterführenden Literatur vorbehalten. Der Übergang zur semi-invasiven Diagnostik beginnt im Allgemeinen bei der transösophagealen Untersuchung, während andere intrakavitäre Techniken wie die transrektale und die transvaginale Applikation noch zur »normalen« Diagnostik gezählt werden.
18.6
Planerische Aspekte
18.6.1 Raumplanung
Der Raumbedarf für einen normalen Ultraschalldiagnostikplatz ohne die oben genannten Begleittechniken ist relativ gering. Für ein Gerät mit Untersuchungsliege werden ca. 4 m2 Stellfläche benötigt. Der Raum sollte allerdings 15–20 m2 haben, um ein genügendes Luftvolumen zur Verfügung zu haben und einen kleinen Schreibtisch installieren zu können. Separate Umkleideräume für die Patienten sind sehr zu empfehlen. Der Raum sollte eine Verdunklungsmöglichkeit haben, denn nur bei fast völliger Dunkelheit können die feinen, graustufigen Strukturen auf dem Monitor bestmöglich wahrgenommen werden. Als praktische Lösung hat sich ein Dimmer bewährt oder eine kleine separate Wandleuchte. Trotz der nötigen Abdunklung sollte der Raum
gut belüftbar sein. Auch beim Kauf des Geräts sollte man auf geringe Wärmeabgabe und geringen Geräuschpegel achten, da sonst eine üblicherweise mehrere Stunden dauernde Untersuchungsreihe für den Arzt zur Tortur wird.
18.6.2 Zubehör
Wichtig ist eine genügend breite Untersuchungsliege (ca. 80–100 cm), um den Patienten bequem in verschiedenen Positionen lagern zu können. Für die Echokardiographie werden spezielle Liegen mit einem Ausschnitt im Apexbereich angeboten, um bei der apikalen Anlotposition genügend Bewegungsfreiheit für den Schallkopf zu haben. Die Liege sollte ein verstellbares Kopfteil haben, für Untersuchungen im Halsbereich ist eine Nackenrolle erforderlich. Selbstverständlich muss genügend Ultraschallgel in handlicher Form zur Verfügung stehen. Das Gerät sollte eine entsprechende Halterung für die Gelflasche haben, damit diese ohne Veränderung der Sondenposition erreicht werden kann. Große, unhandliche Flaschen oder Eimer sind nicht geeignet. Bei der Qualität des Gels ist darauf zu achten, dass dieses seine gelartige Konsistenz auch bei Berührung mit der Haut beibehält und nicht wegläuft. Weiterhin sollte es keinerlei Elektrolytbestandteile enthalten, da diese die Sondenoberfläche angreifen können. Elektrolyte sind hier auch nicht nötig, da das Gel schallleitfähig und nicht elektrisch leitfähig sein soll. Bei nahezu allen industriell hergestellten reinen Ultraschallgels ist dies gewährleistet. Vorsicht geboten ist allerdings bei sog. »kombinierten EKG-Ultraschallgels« sowie bei verschiedenen von Krankenhausapotheken gemixten Gels, die oft reichlich Elektrolyte enthalten und zudem z. T. auch noch gefärbt sind, um dem Patienten eine »bleibende Erinnerung« auf seiner Unterwäsche zu hinterlassen.
⊡ Tab. 18.9. Semiinvasive, invasive und interventionelle Begleittechniken Art
Bezeichnung
Zugang
Semiinvasiv
Transösophageale Echokardiographie (TEE)
Ösophagus
Transösophageale Endosonographie des oberen Verdauungstraktes
Ösophagus
Intraoperative Sonographie
Operativer Zugang
Laparoskopische Sonographie
Perkutan
Intravaskuläre Sonographie
Perkutan, Gefäß
Intrakardiale/ Intrakoronare Echokardiographie
Perkutan, Gefäß
Ultraschallgestützte Feinnadelbiopsie
Perkutan
Ultraschallgestützte Punktion
Perkutan
Invasiv
Interventionell
343 18.7 · Sicherheitstechnische Aspekte
Ansonsten werden nur noch genügend Papiertücher oder Stoffreste zum Abwischen des Gels gebraucht sowie ein großer Abwurf. Bei portablen Geräten sollte beachtet werden, dass eine speziell zugeschnittene Tragetasche verfügbar ist, um das Gerät sicher und ohne Beschädigungen transportieren zu können. Zum Teil werden von den Herstellern rucksackähnliche Transporttaschen angeboten, mit denen das Sytem praktischerweise auf dem Rücken in ein anderes Gebäude getragen werden kann.
18.6.3 Anschaffungskriterien
Der Ultraschallmarkt in Deutschland hat ein Umsatzvolumen von ca. 250 Mio. €. Davon entfallen ca. 60% auf Kliniken und Krankenhäuser und 40% auf niedergelassene Ärzte. Die Verteilung auf die verschiedenen Fachrichtungen sah ungefähr folgendermaßen aus: 20% Gynäkologie, 30% Innere Medizin und 30% Kardiologie. Leider gibt es keinen Hersteller mehr, der seine Geräte komplett in Deutschland produziert, der Großteil der Systeme kommt aus den USA und Asien. Der Preisbereich beginnt bei ca. 10.000 € und erstreckt sich bis ca. 200.000 € für vollausgestattete High-end-Farbdopplersysteme. Bei der Anschaffung eines Ultraschallsystems sollten folgende Fragen geklärt werden: 1. Welcher Gerätetyp: Standgerät (auf Rollen) oder tragbares Gerät (für z. B. bettseitigen Einsatz)? 2. Welche Ärzte/Abteilungen sollen mit dem System arbeiten? 3. Welche Applikationen sollen damit abgedeckt werden? 4. Welche Sonden werden benötigt? 5. Welche Dokumentationseinheiten werden benötigt? 6. Welche zukünftigen Upgrade-Möglichkeiten bietet das System? 7. Welche Perspektiven bietet der Anbieter in Bezug auf persönliche Betreuung, Applikationsberatung und Service? 8. Welche modernen Technologien werden angeboten (4D, B-Flow, Speckle Reduction, Gewebedoppler)? 9. Welche Netzwerkfähigkeiten bietet das System? DICOM-Standard? 10. Wie hoch ist das zur Verfügung stehende Budget? 11. Wann stehen diese Finanzmittel tatsächlich zur Verfügung? 12. Welche Anbieter erfüllen die vorgegebenen Bedingungen? 13. Ausschreibung ja/nein? 14. Soll ein Wartungsvertrag abgeschlossen werden? Zu den Anschaffungskosten kommen dann noch die Kosten für Raum, Energie, Personal und pro Untersuchung anfallendes Zubehör. Letzteres ist relativ gering und kann
mit ca. 1 € für Gel und Papier angesetzt werden. Der Zeitaufwand für eine Standardoberbauchuntersuchung liegt ungefähr bei 15 min, kann für komplizierte Fälle, besonders in der Dopplerechokardiographie aber auch bis zu 1 h betragen. Wichtig ist, sich schon vor der Anschaffung Gedanken über eine gute zeitliche Ausnutzung zu machen. So kann ein hochwertiges multifunktionales Farbdopplersystem z. B. vormittags für die Oberbauchdiagnostik der Gastroenterologie eingesetzt werden, da hier die Patienten nüchtern sein müssen. Nachmittags können die Kardiologen, die vormittags meistens im Katheterlabor arbeiten, ihre Echokardiographien durchführen.
18.6.4 Pflege und Wartung
Das Wichtigste in diesem Zusammenhang ist die pflegliche Behandlung der Schallsonden. Sie stellen das schwächste Glied in der Kette dar, sind empfindlich gegen jegliche mechanische Rohheit, besonders im Bereich der Kristallfläche, und sind bei einem Wert von 10.000-20.000 € ein erheblicher Kostenfaktor. Muss eine Sonde desinfiziert oder sterilisiert werden, so ist unbedingt die Bedienungsanleitung des Sondenherstellers zu beachten. Das Basisgerät selbst ist relativ unempfindlich, sollte dennoch beim Transport über Bodenwellen, Aufzugschwellen etc. vorsichtig behandelt werden. Es ist auf keinen Fall irgendeiner Feuchtigkeit auszusetzten, also Vorsicht mit Kaffeetassen und Gläsern. Eine ständige, routinemäßige Kontrolle benötigen vor allem mechanisch beanspruchte Teile wie mechanische Sektorsonden, TEE-Sonden, intraoperative Sonden, Videoprinter oder Videorekorder. Aber auch das Basisgerät sollte regelmäßig überprüft werden. Ableitstrommessungen sind durch die Medizinische Betreiberverordnung (MedBetreibV) geregelt. Konstanzprüfungen der Bildqualität sind gesetzlich noch nicht vorgeschrieben, sind jedoch durchaus sinnvoll, da sich der Untersucher an eine schleichende Verschlechterung der Bildqualität adaptieren wird und diese somit nicht wahrnimmt. Die meisten Lieferanten bieten dazu Wartungsverträge an. Sollte für das Basisgerät ein solcher Vertrag abgeschlossen werden, so macht dies nur Sinn, wenn auch die Sonden mit enthalten sind.
18.7
Sicherheitstechnische Aspekte
18.7.1 Gesetzliche Vorgaben und Grenzwerte
Im Medizinproduktegesetz (MPG) werden Ultraschalldiagnostiksysteme sie als aktives Medizinprodukt den Klassen IIa oder IIb (bei intraoperativen Sonden) zugeordnet.
18
344
II
Kapitel 18 · Ultraschalldiagnostik
Alle Hersteller haben sich zu dem allgemein anerkannten Grenzwert der Energieabgabe von maximal 100 mW/cm2 verpflichtet, der auch von der KV als maßgebliches Sicherheitskriterium angesehen wird. Zusätzlich sind seit 1995 alle Hersteller durch die IEC-1157-Norm angehalten, verschiedene, genau definierte Energiewerte für jede Sonde offenzulegen, um den Anwendern damit ein Entscheidungskriterium zu bieten. Einen Grenzwert enthält diese Norm allerdings nicht. Die KV verlangt ab 01.04.1995 die Einhaltung dieser Norm für den Zulassungsantrag. Zur allgemeinen technischen Sicherheit siehe auch Kap. 5 »Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen«.
18.7.2 Empfehlungen zur sicheren Anwendung
der Ultraschalldiagnostik Seit Einzug der Sonographie in das diagnostische Spektrum der Humanmedizin wird auch die Frage diskutiert, ob die hochfrequenten Schwingungen des Ultraschalls wirklich als frei von Nebenwirkungen postuliert werden dürfen und etwaige biologische Nebenwirkungen grundsätzlich auszuschließen sind. Die Publikationen zu diesem Themenkreis, insbesondere epidemiologische Studien und experimentelle Arbeiten, haben zwischenzeitlich einen unüberblickbaren Umfang angenommen, sodass die Europäische Ultraschallgesellschaft, die EFSUMB, bereits vor vielen Jahren eine ständige Kommission zur Sichtung und Bewertung aller dieser Arbeiten eingesetzt hat. Die unter dem Namen »The Watchdogs« operierende Kommission veröffentlicht ihre Erkenntnisse einmal pro Jahr – für den deutschsprachigen Raum in dem Fachorgan »Ultraschall in der Medizin«, Thieme Verlag. Deutsches Kommissionsmitglied und Leiter der Gruppe ist der überaus sachkundige und renommierte Humangenetiker Professor H.D. Rott aus Erlangen. Erst einmal in der zwischenzeitlich rund 30jährigen Geschichte der Sonographie hat eine Studie die Fachwelt ernsthaft beunruhigt: 1979 veröffentlichte die Radiologin Dr. Doreen Liebeskind vom »Albert Einstein College of Medicine«, New York, ihre Beobachtungen über Veränderungen an isolierten menschlichen Zellen unter dem Einfluss niedrig dosierter Ultraschallexposition. Im Gegensatz zur unbehandelten Vergleichsprobe zeigte das beschallte Material signifikant gehäuft Chromosomenbrüche. Nachdem 14 voneinander unabhängige Institute die Ergebnisse nicht nachvollziehen konnten und selbst Liebeskind die Reproduktion des Versuchs misslang, musste sie von ihrer Schlussfolgerung Abstand nehmen. Auch die übrige neurologische Entwicklung sonographierter Kinder ist von vielen Gruppen untersucht worden und mit nicht sonographierten Kollektiven ver-
glichen worden. Irgendwelche Unterschiede, z. B. in der Sprachentwicklung, der Feinmotorik, dem Gleichgewichtssinn etc. wurden niemals gefunden. Bis auf ganz wenige Ausnahmen mit suspektem Ergebnis weisen die meisten Arbeiten darauf hin, dass der niedrig dosierte Ultraschall frei von unerwünschten biologischen Effekten ist. Aus diesem Grunde sehen die zuständigen Organisationen und Aufsichtsbehörden, wie z. B. die Food and Drug Administration in den USA, die Strahlenschutzkommission in Deutschland oder die verschiedenen Fachgesellschaften, keinen Hinderungsgrund, Ultraschall auch ohne Indikationsstellung, d. h. im Rahmen des Screening, selbst in der Frühschwangerschaft einzusetzen. Empfohlen wird jedoch eine zurückhaltende Anwendung des Dopplermodus im Rahmen fetaler Untersuchungen. Bei dieser Betriebsart werden Leistungen von ca. 1–3 Watt/cm2 als hochkonzentrierter Strahl auf ein zu untersuchendes Blutgefäß gerichtet. Beim Übergang von Gewebe in knöcherne Strukturen wird der Schall absorbiert und damit in Wärme umgesetzt. Versuche an lebenden Schafsfeten haben gezeigt, dass bei diesen Leistungen bereits nach 1–2 min mit einer Temperaturerhöhung von 1°C zu rechnen ist. Um Zellschädigungen durch hohe Temperaturen auszuschließen, wird empfohlen, den Doppler nur kurzzeitig, d. h. für mehrere Sekunden, zu aktivieren und die notwendigen Messungen aus der gespeicherten Dopplerkurve durchzuführen.Ohne Indikationsstellung sollte generell von einer Doppleruntersuchung Abstand genommen werden. Wie bereits erwähnt, kommt bei Einsatz des konventionellen B-Modus – unabhängig davon, ob zweidimensional oder dreidimensional abgebildet wird – eine 50–200-fach geringere Schallemission zum Einsatz. Hierbei ist eine Temperaturerhöhung ausgeschlossen, da die Aufnahmekapazität des fließenden Blutes größer ist, als die von außen eingebrachte Energiemenge. Moderne Ultraschallsysteme verfügen über eine Anzeige, die in Abhängigkeit von der eingestellten Sendeleistung, der Frequenz und weiteren Parametern die maximal mögliche Erwärmung hochrechnet und in Form des sogenannten »Thermal Index (TI) auf dem Bildschirm darstellt.Der TI ist der Quotient aus der aktuell abgegebenen Leistung zum Leistungsbedarf für 1°C Temperaturerhöhung. So bedeutet bspw. ein TI von 0,5, dass nach ausreichender Expositionszeit mit einer Temperaturerhöhung von 0,5°C zu rechnen ist. Eine weitere biologische Wirkung kann unter bestimmten Umständen durch die Unterdruckphase des Sendepulses ausgelöst werden. Kleinste gasgefüllte Räume könnten kollabieren und zerstört werden, sodass in der unmittelbaren Umgebung dieses Kavitatiosprozesses Zellschäden nicht auszuschließen sind. Derartige Erscheinungen konnten allerdings bislang nur im Laborversuch an Kleinlebewesen und unter sehr hohen Schalldrücken provoziert werden.
345 18.8 · Sonstige Anwendung von Ultraschall in der Medizin
Immerhin sollte aus diesem Grunde bei der Untersuchung Neugeborener Zurückhaltung bei der Sonographie von Lunge und Darm geübt werden. Um dem Untersucher eine Vorstellung über das Gefährdungspotential des während einer Untersuchung aktuell herrschenden Druckes zu vermitteln, zeigen heutige Ultraschallsysteme den sogenannten »Mechanical Index« (MI) an. Er errechnet sich aus dem aktuellen Schalldruck dividiert durch die Wurzel aus der Ultraschallfrequenz. Ein MI von unter 0,3 gilt als unbedenklich; höhere Werte sollten bei Neugeborenen nur nach strenger Indikationsstellung eingestellt werden.
18.8
Sonstige Anwendung von Ultraschall in der Medizin
Hier sei lediglich darauf hingewiesen, dass es außer der diagnostischen Anwendung noch andere medizinische Nutzungsgebiete für Ultraschall gibt. Dies sind z. B. die Stoßwellenlithotripsie ( Kap. 27), mit der bei Nutzung hoher, extrem fokussierter Energien Gallen- und Nierensteine zertrümmert werden. Zur Therapie von Gelenken wird mit Hilfe von Ultraschallbestrahlungsgeräten dosiert Wärme in das Gelenk transportiert, auch hier sind die verwendeten Energien deutlich höher als im diagnostischen Bereich. Ein allgemein bekanntes Beispiel ist auch der Ultraschallvernebler, der durch hochfrequente Schallschwingungen Medikamente in molekulare Bestandteile zerlegt. Die neueste Anwendung kommt vom Massachusetts Institute of Technology: Hier gelang es, mit niedrigen Ultraschallfrequenzen Medikamente durch die Haut in den Körper zu transportieren – eine Art Ultraschalldiffusion.
Weiterführende Literatur Allgemeine Ultraschalltechnologie und Anwendung Braun B, Günther R & Schwerk W (1983) Ultraschalldiagnostik. Lehrbuch und Atlas. Ecomed, Erlangen Bushong SC, Archer BR (1991) Diagnostic Ultrasound, Physics, Biology and Instrumentation. Mosby, St.Louis Dössel O (2000) Bildgebende Verfahren in der Medizin. Springer, Berlin Fehske W (1988) Praxis der konventionellen und farbcodierten Doppler-Echokardiographie. Bern: Verlag Hans Huber Flachskampf FA (2001) Praxis der Echokardiographie. Das Referenzwerk zur echokardiographischen Diagnostik. Thieme, Stuttgart Greim C-A, Roewer N (2005) Transösophageale Echokardiographie für Intensivmediziner und Anästhesisten. Thieme, Stuttgart Hammentgen R (1991) Transösophageale Echokardiographie, monoplan/biplan. Springer, Berlin Hutten H (1992) Biomedizinische Technik (Bd. 1). Diagnostik und bildgebende Verfahren. Springer, Berlin Klose P, Thelen M & Erbel R (1991) Bildgebende Diagnostik des Herzens. Thieme, Stuttgart Kock WE (1974) Schallwellen sichtbar gemacht. Springer, Berlin Kock WE (1971) Schallwellen und Lichtwellen. Springer, Berlin
Köstering B (1991) Endosonographie – technische Grundlagen und klinische Anwendungen. Dresdner Kongressberichte (s. Zimmermann et al., Bd. 2). Dustri, München-Deisenhofen Kuttruff H (1988) Physik und Technik des Ultraschalls. Hirzel, Stuttgart McDicken WN (1981) Diagnostic Ultrasonics: Principles and Use of Instruments, 2nd ed. Wiley, New York Morgenstern B (1986) Ultraschall-Diagnosegeräte. Verlag TÜV Rheinland, Köln Pickuth D (1993) Sonographie – systematisch. BON-MED, Lorch Pochhammer KF, Dudwiesus H, Hollstein H & Frentzel-Beyme B (1984) Sonographische Artefakte an rundlichen Reflektoren. Thieme, Stuttgart Rattmann R (1984) Physikalisch-technische Aspekte der Ultraschalldiagnostik und ihr Einfluss auf die Bildqualität. Verdauungskrankheiten, 2: 46–56 Rayleight JWS (1945) The Theory of Sound (Vol.2). Dover, New York Robinson DE, Laurence SW & Kossoff G (1981) Shadowing and Enhancement in Ultrasonic Echograms by Reflection and Refraction. Journal of Clinical Ultrasound, 9: 181–188 Veit I (1988) Technische Akustik, 4. Aufl. Vogel, Würzburg Wells PNT (1977) Biomedical Ultrasonics. Academic, London Zimmermann W, Frank N et al. (1987–1994) Zimmermanns Seminare Bildgebender Verfahren, Bd. 1–9. Dustri, München-Deisenhofen
Dopplertechnologie und Anwendung Bogunovic N, Mannebach H & Ohlmeier H (1988) Atlas der Farbdopplerechokardiographie. Springer, Berlin Buys-Ballot CHD (1845) Akustische Versuche auf der niederländischen Eisenbahn nebst gelegentlichen Bemerkungen zur Theorie des Herrn Professor Doppler. Pogg Ann, 66: 321–351 De Simone R (1994) Atlas of Transesophageal Color Doppler Echocardiography and Intraoperative Imaging. Springer, Berlin Doppler C (1842) Über das farbige Licht der Doppelsterne. Prag. (Ostwalds Klassiker, Nr. 161, Leipzig 1907) Eden A (1992) The Search for Christian Doppler. Springer, Wien Evans DH, McDicken WN, Skidmore R & Woodcock JP (1989) Doppler Ultrasound, Physics, Instrumentation and Clinical Applications. Wiley, New York Faust J (1992) Die Dopplersonographie in der Gefäßdiagnostik. Solingen: Kranzbühler Medizinische Systeme Flachskampf FA (2001) Praxis der Echokardiographie. Das Referenzwerk zur echokardiographischen Diagnostik. Thieme, Stuttgart Kubale R, Stiegler H (2002) Farbcodierte Duplexsonographie. Thieme, Stuttgart Omoto R (1987) Atlas of Real-Time Two-Dimensional Color Doppler. Shindan-To-Chiryo, Tokyo
Gewebedoppler und Anwendung Flachskampf FA (2001) Praxis der Echokardiographie. Das Referenzwerk zur echokardiographischen Diagnostik. Thieme, Stuttgart Strotmann JM, Richter A, Kukulski T, Voigt JU, Fransson SG, Wranne B, Hatle L & Sutherland GR (2001) Doppler Myocardial Imaging in the Assessment of Regional Myocardial Function in Longitudinal Direction Pre- and Post-PTCA. European Journal of Echocardiography, 2(3): 178–186 Voigt JU, Nixdorff U, Bogdan R, Exner B, Schmiedehausen K, Platsch G, Kuwert T, Daniel WG & Flachskampf FA (2004) Comparison of Deformation Imaging and Velocity Imaging for Detecting Regional Inducible Ischaemia During Dobutamine Stress Echocardiography. European Heart Journal, 25(17): 1517–1525 Voigt JU, Flachskampf FA (2004) Strain and Strain Rate. New and Clinically Relevant Echo Parameters of Regional Myocardial Function. Zeitschrift fur Kardiologie, 93(4): 249–258
18
346
Kapitel 18 · Ultraschalldiagnostik
B-Flow und Anwendung
II
Clevert DA, Rupp N, Reiser M & Jung EM (2005) Improved Diagnosis of Vascular Dissection by Ultrasound B-flow: A Comparison with Color-Coded Doppler and Power Doppler Sonography. European Radiology. 15(2): 342–7 Yurdakul M, Tola M & Cumhur T (2004) B-flow Imaging of Internal Carotid Artery Stenosis: Comparison with Power Doppler Imaging and Digital Subtraction Angiography. Journal of Clinical Ultrasound. 32(5): 243–8 Weskott HP (2000) B-Flow – eine neue Methode zur Blutflussdetektion. Ultraschall in der Medizin, 21(2): 59–65
Ultraschallkontrastmittel Bouakaz A, Krenning BJ, Vletter WB, Ten-Cate FJ & De Jong N (2003) Contrast Superharmonic Imaging: A Feasbility Study. Ultrasound in Medicine and Biology, 4: 547–553 Flachskampf FA (2001) Praxis der Echokardiographie. Das Referenzwerk zur echokardiographischen Diagnostik. Thieme, Stuttgart Krestan C (2005) Ultraschallkontrastmittel: Substanzklassen, Pharmakokinetik, klinische Anwendungen, Sicherheitsaspekte. Der Radiologe, 6: 513–519
3D/4D-Ultraschall und neue Technologien Flachskampf FA (2001) Praxis der Echokardiographie. Das Referenzwerk zur echokardiographischen Diagnostik. Thieme, Stuttgart Hesse A, Nuber B & Hornung B (1994) 3D-Sonographie – Datenaufnahme und Darstellung. Bildgebung, 61: 83–86 Kratochwil A (1992) Versuch der 3dimensionalen Darstellung in der Geburtshilfe. Ultraschall in Med, 13: 183–186 Merz E (1996) Aktuelle technische Möglichkeiten der 3D-Sonographie in der Gynäkologie und Geburtshilfe. Ultraschall in Med, 18: 190–195 Shattuck DP, von Ramm OT (1982) Compound Scanning with the Phased Array. Ultrasonic Imaging 4: 93–107 Carpenter DA, Dadd MJ, Kossoff G (1980) A Multimode Realtime Scanner. Ultrasound in Med. and Biol, vol 6. 279–284 Berson M,Roncin A, Pourcelot L (1981) Compound Scanning with an electrically steered beam. Ultrasonic Imaging 3. 303–308 Burkhardt CB (1978) Speckle in Ultrasound B-Mode Scans. IEEE trans sonics ultrason vol.SU-25, no 1: 1–6 Abd-Elmoniem KZ, Youssef A-BM, Kadah YM (2002) Realtime Speckle Reduction and Coherence Enhancements in Ultrasound Imaging via nonlinear anisotropic Diffusion. IEEE trans biomed eng, vol.49, no 9: 997–1014 Milkowski A, Yadong L, Becker D, Ishrak SO (2003) Speckle Reduction Imaging. GE Medical Systems
Sicherheitstechnische Aspekte Barnett SS, Ter Haar GR, Ziskin MC, Rott HD, Duck FA & Maeda K (2000) International Recommendations and Guidelines for the Safe Use of Diagnostic Ultrasound in Medicine. Ultrasound in Medicine and Biology, 3: 355–366 Rott HD (1996) Ultraschalldiagnostik: Neuere Bewertung der biologischen Sicherheit. Deutsches Ärzteblatt, 93: 1533–1537 Rott HD (1989) Berichte der Watchdog-Gruppe. Ultraschall in Med, 10: 319–322
19 Systeme für die Endoskopie K.E. Grund, R. Salm
19.1 Einleitung 19.2 Entwicklung
– 347 – 348
19.3 Stellenwert der Endoskopie – 349 19.4 Technik flexibler Endoskope – 350 19.4.1 Lichtübertragung – 350 19.4.2 Bildübertragung – 350
19.5 Endoskopiesysteme, Geräte und Instrumente – 352 19.5.1 19.5.2 19.5.3 19.5.4 19.5.5
19.1
Fein- und Feinstkaliberendoskope – 352 Mother-Baby-Endoskope – 353 Intestinoskopie/Enteroskopie – 353 Lupen-/Zoomendoskopie – 353 Chromoendoskopie und elektronische Kontrastverstärkungs- und Farbdifferenzierungsverfahren – 353
Einleitung
Es gibt kaum einen klinischen Bereich, der so unmittelbar mit der Medizintechnik verbunden ist wie das Gebiet der Endoskopie. Diese enge Beziehung zur Technik gilt für alle Komponenten eines Endoskopiesystems von mechanischen Aktuatoren über die Beleuchtungseinrichtungen bis hin zur Bildaufnahme, -verarbeitung und -speicherung. Innerhalb weniger Jahrzehnte haben sich aus einfachen Anfängen hochkomplexe Systeme für Diagnostik, Intervention und Operation entwickelt, die inzwischen in fast allen medizinischen Fachdisziplinen entweder zum schon etablierten Standard gehören (wie z. B. in Chirurgie, Gastroenterologie, Pneumologie, Gynäkologie etc.) oder ständig an Bedeutung gewinnen (wie in Neurochirurgie, HNO-Heilkunde oder Ophthalmologie). Prinzipiell verstehen wir unter Endoskopie (von griechisch ΕΝΔΟΝ = endon = innen, innerhalb und ΣΚΟΠΕΙΝ = skopein = betrachten) die Betrachtung der inneren Körperoberflächen, von Körperhöhlen und Hohlorganen sowie von artifiziell geschaffenen Räumen im Körper mit optischen Instrumenten, die durch natürliche Körperöffnungen oder perkutan in den Körper eingebracht werden. Aus historischen und praktischen Gründen unterscheidet man entsprechend der verwendeten Instrumente die »starre« von der »flexiblen« Endoskopie. Beide Bereiche – initial rein diagnostisch – wandelten sich schon bald zu therapeutisch-operativen Verfahren. Dies
19.5.6 Fluoreszenzendoskopie, photodynamische Diagnostik, Endomikroskopie, optische Kohärenztomographie etc. – 357 19.5.7 Ultraschallendoskope – 358 19.5.8 Videokapselendoskopie – 362 M. Stief Weiterführende Literatur – 363
19.6 Text- und Bilddokumentation – 363 19.7 Endoskopiearbeitsplätze
– 364
19.8 Räumlichkeiten und Logistik
– 365
19.9 Aufbereitung von flexiblen Endoskopen und Zusatzinstrumenten – 366 19.10 Zukunftsentwicklungen
– 366
ist ein immer noch anhaltender dynamischer Prozess, der mit zunehmendem technischen Fortschritt neue Perspektiven und therapeutische Ansätze eröffnet. Mit einem Endoskop gelingt es nicht nur, Körperregionen zu erreichen, die ohne operative Eröffnung nicht einsehbar wären, sondern auch – durch Vergrößerung, Färbeverfahren und Bildverarbeitung – anatomische Strukturen in einer Deutlichkeit darzustellen, wie sie bei konventioneller offener Operation sonst nicht erreichbar ist. Hier dient das Endoskop als »verlängertes Auge« des Operateurs, das auch in schwer zugänglichen Regionen Lupen- bzw. Mikroskopvergrößerung bietet. Heute sind Endoskope nur ein Element eines komplexen medizinischen Systems, das verschiedene Zusatzgeräte und Zusatzinstrumente enthält. Bildakquisition und Bildverarbeitung lassen sich nur durch moderne Computertechnologie und Datenverarbeitung realisieren. Entscheidend für die Funktionalität eines so komplexen Systems ist das optimale Zusammenspiel von Optik, Mechanik, Videotechnik, Antriebs-, Steuerungs- und Sensortechnik sowie computergestützter Bildverarbeitung. Da eine extreme Miniaturisierung erforderlich ist, entsteht ein hoher Aufwand durch den Einsatz von Mikroelektronik und Mikrosystemtechnik. Die inzwischen außerordentlich große Spannbreite an Endoskopen sowie endoskopischen Geräten und Instrumenten lässt sich im vorgegebenen Rahmen nicht enzyklopädisch vollständig darstellen. Typische Konstrukti-
348
II
Kapitel 19 · Systeme für die Endoskopie
onsmerkmale, Funktionen und Einsatzbereiche werden an Beispielen demonstriert, wobei berücksichtigt werden muss, dass sich bei rasanter Entwicklung des technischen Fortschritts das Spektrum endoskopischer Verfahren in Zukunft weiter verbreitern und vertiefen, eventuell auch verschieben wird. Endoskopieassoziierte Methoden sind zweifellos eine der Schlüsseltechnologien der Medizin der Zukunft.
19.2
Entwicklung
Schon in der Antike waren Ärzte bestrebt, über natürliche Körperöffnungen ins Körperinnere hineinzusehen. Dies beweisen Mitteilungen über proktologische Endoskopie im alten Ägypten. Die Anfänge der modernen Endoskopie reichen fast 200 Jahre zurück. Entscheidende technische Schritte waren nach den Pioniertaten von Bozzini (1804) und Desormeaux (1853) die Verbesserung der Ausleuchtung durch das so genannte Kaltlicht (1962), die Entwicklungen von Stablinsen und Hopkinsoptik (1960– 1970) sowie die Etablierung der Fiberglastechnologie als Voraussetzung für das flexible Endoskop. Seit 1985 verdrängt die elektronische Endoskopie (Video-Endoskopie, Chip-Endoskopie) die rein optischen Systeme mehr und mehr: Bei der Video-Endoskopie wird das endoskopische Bild nicht mehr über ein Okular betrachtet, sondern indirekt über extrem miniaturisierte Fernsehkameras auf einen Monitor übertragen. Der aktuelle technologische Stand liegt bei Auflösungen von 106 Pixeln pro Bild und
a ⊡ Abb. 19.1a,b. a Endoskopie im 19. Jahrhundert, b Kombinierte endoskopische Operation 2006: Vorbereitung zur Nekrosektomie und internen Drainage bei infizierter Pankreaspseudozyste mittels flexibler Endoskopie (unter zusätzlicher Verwendung von Endosonographie,
Bildsensorgrößen von wenigen mm2 (⊡ Tab. 19.3). Derzeit ist die Video-Endoskopie im klinischen Alltag der Industrienationen zum Standard avanciert, nur noch für Feinstkalibergeräte und Spezialzwecke werden FiberglasEndoskope verwendet. Als Geburtsstunde der flexiblen Endoskopie gilt die Einführung des ersten vollflexiblen steuerbaren Gastroskops durch Hirschowitz 1958. ⊡ Abb. 19.1 illustriert den Weg von den ersten Anfängen der klinischen Endoskopie zum Hightech-Arbeitsplatz am Beispiel der Gastroskopie. Wie schon erwähnt, ist für die Entwicklung sowohl der starren als auch der flexiblen Endoskopie charakteristisch, dass sich der primär diagnostische Ansatz sehr schnell in den therapeutisch-operativen Sektor verschoben hat und dass zunehmend auch komplexe Operationen durchgeführt werden, z. B. die onkologisch korrekte Entfernung auch großflächiger Tumoren, eine Nekrosektomie bei nekrotisierender Pankreatitis (nach Schaffung eines Zugangs durch die Magenwand in die Bursa omentalis) (⊡ Abb. 19.1b) oder eine komplexe Prothetik bei ösophagotrachealen Malignomen. Für solche Eingriffe sind zwar hochtechnisierte kostspielige Geräte und ein hoher personeller und zeitlicher Aufwand erforderlich. Durch verringertes Risiko, geringe Belastung des Patienten, verkürzten Krankenhausaufenthalt, kürzere Arbeitsunfähigkeitszeiten und die guten kosmetischen Ergebnisse wird aber v. a. bei schwerkranken Patienten der höhere Aufwand kompensiert. Oft gibt es auch für diese endoskopischen Interventionen keine konservativen oder operativen Alternativen (⊡ Tab. 19.1).
b externer Sonographie und Röntgendurchleuchtung, insgesamt 4 Geräteeinheiten und 5 Monitore). Dieser Eingriff in Analgosedierung erfordert zwar hohen Aufwand, ersetzt aber eine große offene Bauchoperation mit hohem Risiko
349 19.3 · Stellenwert der Endoskopie
⊡ Tab. 19.1. Eingriffe mit dem flexiblen Endoskop als Ersatz für konventionelle oder laparoskopische Operationen in der Gastroenterologie/Viszeralchirurgie bzw. statt Abwarten oder Resignation Endoskopie
statt
Tumor-/Polypabtragung/Mukosaresektion
OP (Kolotomie, Resektion)
Endoskopische Papillotomie/Steinextraktion
OP (Choledochusrevision)
Endoskopische Blutstillung
OP (Notfall, Umstechung, Resektion)
Perkutane endoskopische Gastro-/Enterostomie (PEG, EPJ)
OP (Witzelfistel, Katheterjejunostomie), Sonde, parenterale Ernährung
Endoskopische Dekompression
OP (Notfall, Anus praeter)
Fistelklebung
OP, endloses Abwarten, Resignation
Zystendrainage
OP (Drainage)
Perforationsverschluss (Fibrinklebung, Clip, Stent)
OP (Übernähung, Resektion)
Endoskopische Diagnostik und Therapie von operativen Komplikationen, z. B. Anastomoseninsuffizienz (Transendoskopische Kontrastmittelgabe, Spülung, Drainage, Abdichtung durch Fibrinklebung bzw. Stent etc.)
Falsch negative Röntgendiagnostik OP mit hohem Risiko Persistierende Sepsis
Endoskopische Palliativtherapie mit
Palliativoperation bzw. therapeutischer Nihilismus bzw. Resignation
Rekanalisation – Dilatation (Bougie, Ballon) – Ablation (LASER, Argon-Plasma-Coagulation (APC)) – Prothetik (Stents (SEMS, SEPS)) Supportivtherapie – Endoskopisch gelegte Sonden (PEG etc.) Schmerztherapie – Blockade des Ganglion coeliacum transduodenal
19.3
Stellenwert der Endoskopie
Endoskopische Methoden stehen in vielen medizinischen Bereichen an zentraler Stelle im diagnostischen und therapeutischen Spektrum. Die Zeiten reiner endoskopischer Diagnostik – und dies auch nur für besondere differenzialdiagnostische Fragestellungen – sind längst vorbei. Heute stellen endoskopische Verfahren, z. B. in der gesamten Gastroenterologie, der Pulmologie und in der Viszeralchirurgie, den Standard dar, der in der Diagnostik viele radiologische und in der Therapie viele operative Methoden ersetzt hat. Es ist jedoch zu erwarten, dass sich mit zunehmender Erfahrung und weiteren technischen Verbesserungen das Indikationsspektrum ausdehnt. Was die flexible Endoskopie betrifft, so ist sie nicht nur ein zentrales Verfahren für die gesamte Gastroenterologie und Pulmologie, sondern auch prä-, intra- und postoperativ in der Viszeralchirurgie unentbehrlich geworden. Das gilt sowohl für diejenigen Eingriffe, die als Ersatz für konventionelle oder
⎫ ⎬ ⎭
Progrediente Exsikkose und Kachexie
Ileus (akut, chronisch) Resignation
Medikamentöse oder operative Schmerztherapie
laparoskopische Operationen zu sehen sind (⊡ Tab. 19.1), als auch für Diagnostik und Therapie gravierender Komplikationen nach konventioneller oder minimal-invasiver Operation. Sie bieten dem Patienten einen Gewinn an Sicherheit und Lebensqualität bei gleichzeitig verringerter Belastung. Im Einzelfall sind freilich Risiko und Nutzeffekte der verschiedenen Alternativen kritisch abzuwägen, um dem Patienten ohne »Ideologie« eine optimale Behandlung anbieten zu können. Auch die endoskopische Notfalltherapie dient der Vermeidung risikoreicher Notfall- und Folgeoperationen ebenso wie der Rezidivprophylaxe. ⊡ Tab. 19.2 gibt einen Überblick über den Einsatz der flexiblen Endoskopie in verschiedenen Fachbereichen. Zum Teil überlappen sich hier noch die Indikationen für starre und flexible Endoskopie. Die Entwicklung ist jedoch fließend, auch Hybrid-Endoskope – starres Einführungsteil mit flexibler Spitze – oder eine kombinierte Endoskopie – flexibles Endoskop durch starres Endoskop – werden angewandt und weiterentwickelt.
19
350
Kapitel 19 · Systeme für die Endoskopie
⊡ Tab. 19.2. Einsatz der flexiblen Endoskopie in verschiedenen Fachbereichen
II
Fachgebiet
Organ
Gastroenterologie und Viszeralchirurgie
Gesamter Gastrointestinaltrakt (Mund bis Anus) Gallenwege, Pankreasgangsystem, Abszesshöhlen, Fistelgänge etc.
Pulmologie
Gesamte Atemwege Nase/Mund bis zu den kleinen Bronchien
HNO
Nasen-Rachen-Raum, Nebenhöhlen, Kehlkopf, Luftröhre, proximale Speiseröhre, Mittelohr
Urologie
Harnblase, Harnleiter, Nierenbecken
Gynäkologie
Gebärmutterhöhle, Tuben, Fetus in utero, Milchgänge der Brust
Angiologie/Gefäßchirurgie
Arterien, Venen
Ophthalmologie
Tränengänge, corpus vitreum
Neurochirurgie
Spinalkanal, Liquorräume
19.4
Technik flexibler Endoskope
Grundsätzlich benötigen Endoskope ein Lichtübertragungssystem, um das Operationsfeld optimal ausleuchten zu können, und ein Bildübertragungssystem, welches im einfachsten Fall durch ein optisches System, heute jedoch meist durch eine optoelektronische Bildübertragungskette, realisiert ist.
a
19.4.1 Lichtübertragung
Die Lichtübertragung erfolgt klassischerweise bei starren und flexiblen Endoskopen durch Glasfaserbündel mit optischem Abschluss. Diese Technik basiert auf dem Prinzip der Totalreflexion des Lichtes an der Grenzfläche zwischen Kern und Mantel der einzelnen Glasfaser (⊡ Abb. 19.2). Als Lichtquellen dienen Halogen- oder Xenonlampen mit Leistungen zwischen 100 und 400 Watt. Kühlgebläse und Filter verhindern eine Wärmeübertragung und eine unzulässige Überhitzung von Gerät und Endoskopspitze. Neueste Entwicklungen scheinen eine Renaissance der direkten distalen Beleuchtung einzuleiten, nachdem Halbleiterelemente verfügbar sind (superhelle Leuchtdioden), die bei Leistungen von wenigen Watt und relativ geringer Wärmeentwicklung für ähnliche Helligkeit sorgen wie eine 150-Watt-Xenonlampe mit indirekter Lichtleitung.
b ⊡ Abb. 19.2a,b. a Lichtleitung durch Glasfasern (~15–50 μm Durchmesser, vgl. menschliches Haar: 100 μm !) Prinzip: Totalreflexion, geordnete Glasfaserbündel übertragen ein Bild, b Video-Endoskopie (CCD-Chip im Distalende des Endoskops) (Abbildungen mit freundlicher Genehmigung der Olympus Optical Co. (Europa) GmbH)
19.4.2 Bildübertragung
Im klassischen starren Endoskop erfolgt die Bildübertragung durch Linsensysteme (Stablinsen bzw. Hopkinsoptiken), das klassische flexible Fiberglasendoskop überträgt das Bild über geordnete Glasfasern und ein entsprechendes Okular, wobei die Bildqualität durch Dicke und Zahl der Fasern limitiert ist (⊡ Abb. 19.2).
Seit ca. 15 Jahren verwendet man zunehmend winzige Fernsehkameras als Bildaufnehmer, die mit Miniatur- oder Subminiatur-CCD-Chips aufgebaut und in die Spitzen von Endoskopen mit bis zu 5 mm Durchmesser herab integrierbar sind. Feinstkaliberendoskope bis herab zu 0,5 mm (!) Durchmesser sind bislang aber nur in Glasfasertechnologie möglich.
351 19.4 · Technik flexibler Endoskope
Die Auflösung flexibler Endoskope hat sich in den letzten Jahren dramatisch verbessert (⊡ Tab. 19.3). Derzeitige Standardgeräte nützen die PAL-Norm vollständig aus; HR-Endoskope sprengen aber schon heute diese Grenzen. Deshalb sind die ersten HD (high definition)-Systeme auf den Markt gekommen, die allerdings eine völlige Umrüstung der Übertragungskette einschließlich Monitor erforderlich machen. Zudem herrscht zurzeit noch ein Normen-Chaos, und auch technische Probleme des Bildprocessing sind unübersehbar. Außerdem erweist sich die HDTV-Consumer-Norm mit dem 16:9-Breitwand-Bildformat als völlig ungeeignet für die Endoskopie; hier ist schon aus Gründen der Seh-Physiologie ein kreisrundes Bild oder allenfalls ein 5:4- oder 4:3-Rechteck sinnvoll. Als vielversprechende Alternative finden Bildnormen aus der Computerwelt (XGA, SXGA, UXGA, WUXGA
a
b1
b3
etc.) zunehmend Eingang in die Endoskopie. Aber auch hier müssen die spezifischen Erfordernisse des endoskopischen Bildes (Farbflächen, Bewegungsartefakte, blurring, red-out, white-out, Betrachtungswinkel etc.) viel mehr berücksichtigt werden, als das bislang geschieht. Ein flexibles Routine-Endoskop und entsprechendes Zubehör sind in ⊡ Abb. 19.3 exemplarisch dargestellt; revolutionäre neue Technologien (Mikro- und Nanotechnologie, neue LASER, neue plasmachirurgische Verfahren, neue mikromechanische Verfahren, Robotik, MemoryMetall-Technologien etc.) eröffnen für die Endoskopie weitere ungeahnte Möglichkeiten, deren klinische Bedeutung aber noch nicht abzusehen ist. Für die Routineendoskopie, d. h., für die Endoskopie des oberen und unteren Gastrointestinaltraktes, des Tracheobronchialsystems und des biliopankreatischen
⊡ Abb. 19.3a,b. a Flexibles Endoskop und eine kleine Auswahl verschiedener Instrumente zur Applikation durch den Arbeitskanal (Standard: 2,8 mm Durchmesser) b Instrumente zur Stenosetherapie: 1. Bougies (werden über einen endoskopisch eingelegten Draht vorgeschoben) 2. Dilatationsballons (werden meist durch den Arbeitskanal appliziert, TTS = through the scope) 3. Verschiedene selbst expandierende Metallstents mit 12–23 mm Durchmesser). (Aus Röher: Viszeralchirurgie, 2. Aufl. Abbildungen mit freundlicher Genehmigung der Elsevier GmbH)
b2
b3
19
352
Kapitel 19 · Systeme für die Endoskopie
⊡ Tab. 19.3. Auflösung (Fasern bzw. Pixel) verschiedener flexibler Endoskope mit ca. 10 mm Schaftdurchmesser (Routinegastroskope) und Vergleich mit den Übertragungsmöglichkeiten der bisherigen (PAL) und neuer Fernsehnormen (HDTV). Die gängige Norm reicht also nicht mehr aus, um die Bildqualität der neuesten Endoskope zu übertragen und wiederzugeben (siehe Text)
II
Endoskop/Fernsehnormen
Auflösung/ Pixelzahl
Routine-Glasfaser-Endoskop
15.000–40.000
Video-Endoskop 2./3. Generation
40.000–80.000
HR-Video-Endoskop
400.000–800.000
Prototypen
>1.500.000 >1,5×106
PAL-Norm (720×576)
414.720
HDTV (verschiedene Normen): 1536×1152 (= 2× PAL) bzw. 1280×720 progressiv (≡720p) bzw. 1920×1080 interlaced (≡1080 i)
1,77×106 0,92×106 2,07×106
Systems sind eine Vielzahl flexibler Endoskope mit verschiedenen Längen und Durchmessern verfügbar; eine Vielzahl von zugehörigem Instrumentarium für diagnostische, interventionelle und operative Zwecke ergänzen die Endoskope (⊡ Abb. 19.3). Die Abwinkelbarkeit der Endoskopspitze beträgt heute typischerweise 180/180/160/160 Grad und erlaubt den Zugang auch zu versteckt liegenden Läsionen. Die Objektive erreichen Blickwinkel von 140–170 Grad und eine typische Tiefenschärfe von 3–100 mm. Spezielle Objektive für die Lupenendoskopie, auch in Zoomausführung, erlauben effektive Vergrößerungen bis zum 300-fachen, Spezialgeräte für die Endomikroskopie (s. unten) ergeben sogar bis zu 1000-fache In-vivo-Vergrößerungen. Gastroskope, Koloskope und Bronchoskope besitzen eine Geradeausoptik; Duodenoskope sind als Seitblickgeräte ausgeführt – mit spezieller Mechanik (Albarranhebel) zur Manövrierung der Instrumente, die durch die Papilla Vateri in die Gangsysteme von Leber und Pankreas eingeführt werden können. Neuere Entwicklungen sind Feinkaliberendoskope für die Routine-Endoskopie (z. B. 5 mm-Geräte für die transnasale Gastroskopie), Koloskope mit variabler Steifigkeit des Schaftes und Spezialgeräte mit spezieller Spitze und/ oder besonders großem, doppeltem oder modifiziertem Arbeitskanal.
19.5
Endoskopiesysteme, Geräte und Instrumente
Das Endoskop stellt nur eines der Subsysteme des endoskopischen Arbeitsplatzes dar, der zahlreiche weitere Geräte enthält. Neben der Lichtquelle und dem Video-
prozessor (oft in einem Gehäuse vereint), sind noch Absaugpumpen, Spülpumpen, Hochfrequenzgeneratoren, LASER, Einrichtungen zur Lithotripsie, endoskopische Doppler etc. neben Geräten für die Dokumentation von Standbildern und Videosequenzen erforderlich. Auch Röntgen- und Ultraschallgeräte gehören zum endoskopischen Arbeitsplatz (⊡ Abb. 19.1b). Von diesen Geräten unterscheidet man Instrumente, die zur Ausführung der endoskopischen Maßnahmen selbst eingesetzt werden, wie Biopsiezangen, Greifer, Fasszangen, Körbchen, Lithotripter, Clip-Instrumente, Nadeln, Drähte, Sonden, Schlingen, Papillotome, Ballons, Magnete, Koagulationssonden, Argonplasma-Applikatoren etc., die in fast unübersehbarer Vielzahl zur Verfügung stehen (⊡ Abb. 19.3). In jüngster Zeit wurde auch spezielles Zubehör für Interventionen entwickelt (Aufsätze für die Gummibandligatur, Aufsetzkappen zur Mukosaresektion, Instrumente zur endoskopischen Naht etc.), das diese komplexen Eingriffe erleichtert. Viele dieser Instrumente sind jedoch – bedingt durch notwendige Miniaturisierung (Instrumentierkanaldurchmesser 2,8 mm !) und die notwendige Länge (150–200 cm) – funktionell nicht optimal und bedürfen dringend einer entsprechenden Neu- bzw. Weiterentwicklung.
19.5.1 Fein- und Feinstkaliberendoskope
Für spezielle endoskopische Aufgaben sind heute flexible Miniaturendoskope mit bestechenden technischen Daten verfügbar. Bei einem Außendurchmesser von 2,4 mm bieten sie z. B. zwei separate Arbeitskanäle mit 1,2 mm und 0,6 mm Durchmesser, eine über 180 Grad steuerbare Spitze und ein austauschbares Einführungsteil (⊡ Abb. 19.4a, auch 4-Farbteil am Buchende). Anwendungsgebiete sind z. B. die Uretero-Renoskopie, die transpapilläre Cholangiopankreatikoskopie in Mother-Baby-Technik, die perkutane Cholangioskopie, die vaskuläre Endoskopie, die Nasopharyngoskopie, die Hysteroskopie, die Periduroskopie und die Ventrikuloskopie. Noch weiter miniaturisiert sind Endoskope für die Tränenkanälchen am Auge, die Milchgänge in der weiblichen Brust, die Tuba Eustachii als Zugang zum Mittelohr sowie für die Ophthalmochirurgie: Es sind starre, halbstarre und flexible Mikroendoskope verfügbar mit Schaftdurchmessern zwischen 0,5 mm und 1,5 mm, die neben einer integrierten Beleuchtung auch noch Spülkanäle enthalten und im Verhältnis zu ihrem Durchmesser eine bislang nicht für möglich gehaltene Bildqualität bieten (⊡ Abb. 19.4b, auch 4-Farbteil am Buchende). Auf dem Gebiet der Mini- und Mikro-Endoskopie stehen wir zweifellos am Beginn einer neuen endoskopischen Ära mit weitreichenden Konsequenzen für Diagnostik und Therapie.
353 19.5 · Endoskopiesysteme, Geräte und Instrumente
19.5.2 Mother-Baby-Endoskope
Für die direkte Visualisierung der Gallengänge und des Pankreasgangsystems sind so genannte Mother-BabySysteme entwickelt worden, bei denen durch den Instrumentierkanal des Mutterendoskopes Feinkaliberendoskope in die entsprechenden Gangsysteme eingeführt werden können. Diese »Baby«-Endoskope besitzen eigene Instrumentierkanäle, welche interventionelle Prozeduren (Einfangen von Steinen, Lithotripsie, Laseranwendung, Injektion etc.) erlauben (⊡ Abb. 19.5, auch 4-Farbteil am Buchende). Die »Baby«-Endoskope mit Durchmessern von <3 mm sind eigenständige Endoskope, die mit separatem Prozessor betrieben und von einem unabhängigen Untersucher geführt werden müssen (⊡ Abb. 19.4a).
19.5.3 Intestinoskopie/Enteroskopie
Bislang war der 3–4 m lange Dünndarm für transorale oder transanale endoskopische Methoden noch nicht vollständig zugänglich. Man gelangt zwar bei der klassischen Gastroduodenoskopie unter Anwendung entsprechender Tricks mit einem Routinegastroskop bis in die erste, maximal zweite Jejunalschlinge nach der Flexura duodeno-jejunalis; eine weitere Inspektion des Dünndarmes ist jedoch auch mit längeren Geräten im Pushverfahren oder im Auffädelungsverfahren (OTW = over the wire) nur unter großen Schwierigkeiten möglich. Auch bei der klassischen Koloskopie sind nur die letzten 20–30 cm des terminalen Ileums durch die Bauhinische Klappe hindurch zu inspizieren. Ein weiteres Eindringen wird i. d. R. durch Schlingenbildungen des Dünndarmes verhindert. Hier hat sich in den letzten Jahren durch die Möglichkeiten der Kapselendoskopie (s. unten) und der Doppelballonenteroskopie (DBE) die Situation gewandelt. Diese Spezialendoskope mit 8,5 bzw. 9,4 mm Durchmesser und 200–230 cm Länge tragen einen aufblasbaren Ballon am distalen Ende und werden in Kombination mit einem Overtubus, der ebenfalls einen aufblasbaren Ballon am Ende trägt, transoral oder transanal eingeführt (⊡ Abb. 19.6, auch 4-Farbteil am Buchende). Durch zeitgesteuerte wechselweise Inflation und Deflation der Ballons sowie entsprechenden Vorschub und Rückzug von Endoskop und Overtubus wird der Dünndarm auf das Endoskop »aufgefädelt«, und man bringt so Schritt für Schritt das Endoskop durch die vielen Windungen des Dünndarms. Auf diese Weise ist es möglich, den gesamten Dünndarm von oral her anterograd oder von anal her retrograd zu inspizieren und endoskopisch zu therapieren. Die Möglichkeit einer Therapie stellt gegenüber der Kapselendoskopie einen entscheidenden Vorteil dar.
Neben erweiterten diagnostischen Möglichkeiten (z. B. Chromoendoskopie, Biopsie) erlaubt der Arbeitskanal eine sofortige Therapie entsprechender Läsionen, z. B. die Blutstillung mittels Argonplasmakoagulation (APC) ( Kap. 28 »Hochfrequenzchirurgie«) bei angiodysplastischen Veränderungen.
19.5.4 Lupen-/Zoomendoskopie
Als Kennzeichen eines endoskopischen Bildes gilt der Vergrößerungseffekt, der v. a. bei der Video-Endoskopie mit Monitorbetrachtung erhebliche Ausmaße annehmen kann; in der Praxis werden – je nach Objektabstand und Monitorgröße – Faktoren von 10 bis 100 erreicht. Noch höhere Vergrößerungsfaktoren erzielt man mit der Subaqualtechnik oder mit speziellen Lupen-/ Zoomendoskopen (⊡ Abb. 19.7). Eine Reihe von Endoskop-Objektiven ergeben bei Anwendung unter Wasser zusätzliche Vergrößerungen, verbunden mit einem erheblich erweiterten Schärfentiefe-Bereich. Bedeutung hat dieses Vorgehen v. a. bei der Suche nach okkulten Blutungsquellen im Gastrointestinaltrakt. Nach Wasserfüllung des Intestinums mittels Spülpumpe wird subaqual unter Vergrößerung nach verdächtigen, nur unter Wasser gut sichtbaren Blutschlieren gefahndet. Bei der Lupen-/Zoomendoskopie ist durch speziell ausgelegte Objektive eine Vergrößerung bis über 300-fach möglich. Die Praktikabilität ist jedoch – v. a. durch die ständigen Bewegungen der Intestinalwand – begrenzt, die Schärfentiefe sehr gering und der Objektabstand sehr kritisch. Diese Technologie hat durch das Aufkommen der Chromoendoskopie ( Abschn. 19.5.5) und v. a. der Endomikroskopie ( Abschn. 19.5.6) an Bedeutung verloren.
19.5.5 Chromoendoskopie und
elektronische Kontrastverstärkungsund Farbdifferenzierungsverfahren Im Bestreben, maligne Tumoren schon in den Vorläuferformen bzw. im Frühstadium zu entdecken, wurden in Japan schon vor Jahren Färbeverfahren in die Endoskopie eingeführt (⊡ Abb. 19.8, auch 4-Farbteil am Buchende). Durch differenzierte Anfärbung von Geweben lassen sich so Polypen, Adenome, dysplastische Herde und Frühkarzinome sehr viel leichter erkennen als dies im normalen endoskopischen Bild möglich ist. Man unterscheidet Kontrastierungsfarbstoffe, welche die Oberflächenstruktur und die Grenzzonen deutlicher sichtbar machen, von Absorptivfarben, welche sich mit entsprechenden Zellen oder Wandbelägen chemisch verbinden und auf diese Weise eine Detaildiagnostik ermöglichen.
19
354
Kapitel 19 · Systeme für die Endoskopie
II
a ⊡ Abb. 19.4a. Feinkaliberendoskop, technische Daten siehe Text, Bildbeispiele von oben nach unten: Stent in der Carotis, normaler Gallengang, entzündeter Harnleiter
355 19.5 · Endoskopiesysteme, Geräte und Instrumente
b ⊡ Abb. 19.4b. Feinstkaliberendoskope (Wichtigste technische Daten: links: 3000 Pixel, d=0,55 mm, Blickwinkel 70°, rechts: 6000 Pixel, d=1,1 mm, Blickwinkel 70°). Klinische Beispiele: Tränengangendoskopie
(Mitte) und 4 Einblicke in die Milchgänge der weiblichen Brust (unten). (Abbildungen mit freundlicher Genehmigung der PolyDiagnost GmbH)
19
356
II
Kapitel 19 · Systeme für die Endoskopie
⊡ Abb. 19.5. Mother-Baby-Endoskop zur Diagnostik und Therapie biliopankreatischer Erkrankungen. Mother: 12 mm ∅, Instrumentierkanal 3,24 mm, Baby: 3 mm ∅, Instrumentierkanal 1,9×1,3 mm mit Dormiakörbchen, Spülkanal 0,55 mm ∅ mit Wasserstrahl
⊡ Abb. 19.6. Doppelballonenteroskopie (DBE) siehe Text. Endoskop mit Overtubus, beide ballonarmiert, Röntgenbild der anterograden und retrograden Anwendung. Endoskopische Bilder: Stenose, poly-
poider Tumor, Angiodysplasie (von links nach rechts) (Abbildung mit freundlicher Genehmigung der Fujinon GmbH)
357 19.5 · Endoskopiesysteme, Geräte und Instrumente
⊡ Abb. 19.7. Lupenendoskopisches Bild aus dem Duodenum: zentral eine Insel mit dystoper Magenschleimhaut (man beachte die Detailstrukturen mit Darstellung einzelner intestinaler Zellen). (Aus Röher: Viszeralchirurgie, 2. Aufl. Abbildungen mit freundlicher Genehmigung der Elsevier GmbH)
Analog dazu beruht z. B. die Färbemethode mit Lugol’scher Lösung auf der Tatsache, dass intaktes normales Plattenepithel Glykogen enthält, das mit dem Jod der Lugol’schen Lösung eine typische Braunfärbung ergibt. Metaplasien, Dysplasien oder Frühkarzinome speichern kein Glykogen, sie markieren sich daher als helle Areale inmitten des braun gefärbten Plattenepithels. Ähnliche Effekte ergeben sich durch das Aufbringen von verdünnter Essigsäure; beide Verfahren sind v. a. für die Frühdiagnose des Plattenepithelkarzinoms im Nasen-/Rachenraum, im Ösophagus und in der Cervix uteri (bei der Kolposkopie) sowie bei Barrettläsionen im ösophagocardialen Übergang hilfreich. Die Differenzialindikationen für die Anwendung der Kontrast- und Reaktivfarbstoffe, wie Methylenblau, Toluidinblau, Indigokarmin, Kresylviolett etc. sind noch nicht letztlich klar. Für die Frühdiagnostik von Malignomen werden sie dennoch schon routinemäßig verwendet. Parallel zum Aufkommen der Färbeverfahren wird versucht, auf elektronischem Weg durch Bildbearbeitungsverfahren eine Kontrastverstärkung von homogen erscheinenden Flächen zu erreichen. Dabei werden u. a. Kantenverstärkungsalgorhithmen eingesetzt, die im Einzelfall ähnliche Effekte ergeben wie die Applikation von Kontrastfarbstoffen – auch Kombinationen sind möglich (⊡ Abb. 19.9, auch 4-Farbteil am Buchende). Noch viel weiter gehen elektronische Farbdifferenzierungsverfahren, bei denen das Objekt nicht mit der gesamten Bandbreite des Weißlichtes, sondern mit selektierten Wellenlängen beleuchtet und selektiv detektiert wird. Da die Eindringtiefe des Lichtes wellenlängenabhängig ist, lassen sich so Wandstrukturen differenzieren, die bei Weißlichtbeleuchtung nicht sichtbar sind. Entsprechende Technologien wie NBI = Narrow Band Imaging (Fa. Olympus) bzw. FICE = Fuji Intelligent Chromo Endoskopie (Fa. Fujinon) sind bereits auf dem Markt (⊡ Abb. 19.10, auch 4-Farbteil am Buchende). Konklusive klinische Studien zur Relevanz dieser neuen Entwicklungen liegen derzeit noch nicht vor, es ist jedoch zu erwarten, dass sich durch solche Verfahren tiefgreifende Verbesserungen der endoskopischen Diagnostik ergeben werden.
19.5.6 Fluoreszenzendoskopie,
photodynamische Diagnostik, Endomikroskopie, optische Kohärenztomographie etc.
⊡ Abb. 19.8a,b. Blick durch ein Vergrößerungsendoskop auf die Darmschleimhaut. a ohne und b mit Chromographie (Abbildung mit freundlicher Genehmigung der Fujinon GmbH)
Die Ausnützung des Fluoreszenzeffektes, sei es als Autofluoreszenz oder als induzierte Fluoreszenz, ist in der Endoskopie schon seit einigen Jahren vorangetrieben worden; für den klinischen Routineeinsatz sind bislang jedoch nur Autofluoreszenzverfahren in der Bronchoskopie verfügbar. Hier haben sie einen Stellenwert in der Frühdiagnostik des Bronchialkarzinoms erlangt. Für andere Lokalisationen
19
358
Kapitel 19 · Systeme für die Endoskopie
len histologischen Bild direkt vergleichbar sind und auch eine entsprechende Diagnostik gerade für Frühkarzinome ermöglichen. Ob diese In-vivo-Histologie wirklich die konventionelle Histologie in Zukunft ersetzen kann, muss durch weitere Studien geklärt werden. Unabhängig davon ergeben sich faszinierende neue Einblicke in histologische und zelluläre Strukturen in vivo, z. B. die direkte endoskopische Visualisierung von Helicobacter pylori. Andere Verfahren der Laserscanningspektroskopie und der optischen Kohärenztomographie (OCT) sind zwar vielversprechende neue Entwicklungen in der Bildgebung, es gibt bislang jedoch noch keine weitergehenden Erfahrungen in der klinischen Endoskopie.
II
19.5.7 Ultraschallendoskope
⊡ Abb. 19.9a,b. Effekt der elektronischen Kontrastverstärkung zur Hervorhebung von Detailstrukturen. a Normalbild, b mit digitaler Strukturverstärkung (Abbildung mit freundlicher Genehmigung der Olympus Optical Co. (Europa) GmbH)
befinden sich Fluoreszenzverfahren (insbesondere induzierte Fluoreszenz) jedoch noch im Stadium des klinischen Experimentes. Ähnliches gilt für die photodynamische Diagnostik mit entsprechenden Sensitizern. Das liegt nicht zuletzt daran, dass neben kostenträchtigen Medikamenten teure (Farbstoff)-LASER erforderlich sind. Weiter vorangeschritten ist die Entwicklung der Endomikroskopie (⊡ Abb. 19.11, auch 4-Farbteil am Buchende). Sie stellt eine Verschmelzung von Endoskopie und konfokaler Mikroskopie dar. Nach Gabe eines Fluoreszenzstoffes wird blaues Laserlicht aus dem distalen Ende des Endoskopes auf die zu untersuchende Gewebeschicht fokussiert. Die spezielle Optik des Konfokalsystems detektiert das zurückgestrahlte Licht aus einer exakt definierten horizontalen Ebene. In sequenziellen Schritten erfasst das System multiple solcher Ebenen in verschiedenen Tiefen bis 250 µm. Das Gesichtsfeld beträgt 500×500 µm, die maximale Auflösung etwa 0,7 µm (⊡ Abb. 19.11, auch 4Farbteil am Buchende). Damit sind zelluläre und subzelluläre Details sichtbar zu machen, die mit dem konventionel-
Nachdem sich die externe Sonographie ( Kap. 18 »Ultraschalldiagnostik«) als eine Schlüsseltechnologie auf nahezu allen Feldern der Medizin erwiesen hat, lag es nahe, Sonographie und Endoskopie zu kombinieren. Die endoskopische Sonographie (endoskopischer Ultraschall = EUS) vereint beide Verfahren in sinnvoller Weise (⊡ Abb. 19.12, auch 4-Farbteil am Buchende). Am Distalende eines Endoskopes wird ein Ultraschalltransducer als Linearoder Radialscanner eingebaut, wobei die Mechanik in der Transducerkonstruktion inzwischen fast vollständig durch elektronische Verfahren ersetzt ist. Vor allem die mit Linearscanner ausgerüsteten Ultraschallendoskope sind auch zur gezielten Nadelbiopsie ausgelegt und erlauben aufgrund ihres relativ großen Instrumentierkanals (bis 3,8 mm) auch interventionelle Eingriffe, wie Abszessdrainagen oder die direkte Infiltration zur Anästhesie des Ganglion coeliacum auf transduodenalem Weg. Vor allem in der Onkologie hat die gezielte Lymphknotenbiopsie mittels Endosonographie einen hohen Stellenwert, da das Staging entscheidend vom Lymphknotenbefall abhängt. Neben Sono-Endoskopen ist inzwischen eine Vielfalt von Minisonden verfügbar, die mit Außendurchmessern von 1,7–3,6 mm, mit Frequenzen bis 30 MHz, mit und ohne Ballon, frei und drahtgeführt auch schwer zugängliche Bereiche im Gastrointestinaltrakt, im biliopankreatischen System und im Tracheobronchialsystem der Diagnostik öffnen. Die wesentlichen Weiterentwicklungen und Ausbaustufen der Sonographie stehen bei den neuesten Geräten auch endosonographisch zur Verfügung (Colordoppler, Powerdoppler, 3D-Rekonstruktion, Tissue Harmonic Echo (THE) etc.). Auch eine Mehr-Ebenen-Rekonstruktion (Dual Plane Reconstruction) ist bereits realisiert; hier liefert das Endoskop bzw. die Sonde gleichzeitig radiale und longitudale Scans auf dem Monitor. Inwieweit sich neben der »einfachen« diagnostischen Routine-Endosonographie die aufgeführten teueren und aufwändigen Verfahren in der Breite durchsetzen können, bleibt abzuwarten.
359 19.5 · Endoskopiesysteme, Geräte und Instrumente
a
bb
ba ⊡ Abb. 19.10a,b. Elektronische Farbdifferenzierungsverfahren eröffnen ganz neue Möglichkeiten der Diagnostik. a Prinzip FICE-System (Fujinon), b klinische Beispiele ba FICE-Bild einer Barrett-Läsion (Fuji-
non), bb NBI-Bilder: Colonpolyp und Barrett-Läsion (Olympus) (Abbildungen mit freundlicher Genehmigung der Fujinon GmbH und der Olympus Optical Co. (Europa) GmbH)
19
360
Kapitel 19 · Systeme für die Endoskopie
II
a
b
c ⊡ Abb. 19.11a–c. Endomikroskopie. a Distalende des Spezialendoskops mit integriertem Endomikroskop, b Prinzip der Bildgebung in horizontalen Schnittebenen, c histologisches Bild und endomikros-
kopisches Korrelat. (Mit freundlicher Genehmigung der Fa. Optiscan/ Australien)
361 19.5 · Endoskopiesysteme, Geräte und Instrumente
a
b ⊡ Abb. 19.12a,b. Ultraschallendoskope. a Verschiedene Gerätschaften zur Endosonographie: Linearscanner (links oben), Radialscanner (rechts oben), Minisonden (links unten). Endosonographisches Bild (rechts unten): Zystischer Pankreastumor mit Umgehungskreisläufen (Farbdopp-
ler-Darstellung), b Zwei-Ebenen-Rekonstruktion mit Spezial-Minisonde (links submuköser Magentumor, rechts breitbasiges Adenom im Rektum) (Abbildungen mit freundlicher Genehmigung der Hitachi Medical Systems GmbH und der Olympus Optical Co. (Europa) GmbH)
19
362
Kapitel 19 · Systeme für die Endoskopie
19.5.8 Videokapselendoskopie
M. Stief
II
Die Videokapselendoskopie bietet die Visualisierung der Speiseröhre und des gesamten Dünndarms nebst Darmzotten in hoher Bildqualität und sehr hoher Detektionsrate. Das Verfahren ist patientenfreundlich, leicht durchführbar und nach den vorliegenden klinischen Daten der Push-Enteroskopie sowie der DünndarmkontrastUntersuchung deutlich überlegen. Bislang nur schwer zu erkennende Dünndarmerkrankungen können für den Patienten belastungsfrei diagnostiziert und gezielt therapiert werden. Der Dünndarm ließ sich vor der Kapselendoskopie weder endoskopisch noch radiologisch ausreichend darstellen. Konventionelle endoskopische Verfahren erlauben es lediglich, circa 30% des Dünndarms einzusehen mit der Folge, dass Dünndarmerkrankungen nicht selten übersehen werden. Typische Beispiele sind nicht lokalisierte Blutungsquellen, Tumoren im frühen Stadium oder Morbus Crohn, der sich im Dünndarm manifestiert und daher mit herkömmlicher Endoskopie schwer zu diagnostizieren ist (⊡ Abb. 19.13, auch 4-Farbteil am Buchende). Auch andere Dünndarmerkrankungen mit anhaltenden, ungeklärten Symptomen können ein Problem darstellen (z. B. Diarrhoen, Malabsorptionssyndrome). Insofern bestand ein deutlicher Bedarf nach einer verbesserten und weniger belastenden Diagnostik des kompletten Dünndarms. Die Kapselendoskopie als nichtinvasives Verfahren bietet detaillierte Aufnahmen des gesamten Dünndarms, schmerzfrei und ohne Sedierung. Die Plattform des Verfahrens besteht aus mehreren, im Folgenden aufgeführten Komponenten.
a
b
Small Bowel-Videoendoskopiekapsel Die Small Bowel-Videoendoskopiekapsel (11×26 mm) dient der Untersuchung des Dünndarms. Die Kapsel sendet nach Aktivierung zwei Lichtblitze pro Sekunde über 6 LED-Dioden. Gleichzeitig wird das durch optische Kuppel und Linse auf die CMOS Chip-Kamera (Complementary Metal Oxide Semiconductor) oder den CCD Chip (Charged Couple Device) treffende Bild mittels eines applikationsspezifischen integrierten Schaltkreises zu einem Sender geleitet und über – auf den Körper aufgebrachte – Sensoren an einen tragbaren Datenrekorder gesendet und gespeichert. Die Stromversorgung wird durch integrierte Batterien gewährleistet. Die Kapsel (Einmalprodukt) kann problemlos eingenommen werden und wird durch die natürliche Peristaltik durch den Gastrointestinaltrakt befördert und via naturale ausgeschieden (⊡ Abb. 19.14).
c ⊡ Abb. 19.13a–c. Kapselendoskopische Bilder. a Aktive Blutung, b Morbus Crohn, c Tumor (Abbildungen mit freundlicher Genehmigung der Given Imaging GmbH)
363 19.6 · Text- und Bilddokumentation
⊡ Abb. 19.14. Videoendoskopiekapsel (Abbildung mit freundlicher Genehmigung der Given Imaging GmbH)
schwindigkeit des erstellten Videos stufenlos zu regeln. Über sog. »Thumbnails« können Einzelbilder mit Zeitpunktangabe markiert und für den Untersuchungsbericht verwendet werden. Über das Multiview System lassen sich ein, zwei oder vier Bilder gleichzeitig am Bildschirm betrachten. Des Weiteren bietet die Software eine Lokalisierungsfunktion, die die aktuelle Kapselposition im Darm berechnet. Eine Bluterkennungs-Software kann durch Farbalgorithmen verdächtige rote Flecken wie z. B. Blut markieren. Der Schnellmodus erlaubt eine Schnellübersicht des Videos, in dem mögliche interessante Stellen im Dünndarm dargestellt werden. Ein integrierter Bild-Atlas bietet die Möglichkeit, Untersuchungsbilder mit Referenzbildern zu vergleichen, die nach Diagnose, Befund oder Standardterminologie gesucht werden können. Zur Erstellung des Untersuchungsberichtes kann das ebenfalls integrierte Berichtssystem verwendet werden. Einzelbilder der erhobenen Befunde lassen sich in den Bericht integrieren.
Ösophagus- Videoendoskopiekapsel
Weitere Videokapseln
Die Ösophagus- Videoendoskopiekapsel (11×26 mm, 3,7 g) dient der Untersuchung der Speiseröhre. Diese Kapsel ist mit zwei CMOS Chip-Kameras ausgestattet, die zusammen 14 Bilder pro Sekunde aus der Speiseröhre übertragen. Durch besondere Lagerung des Patienten wird die Passage der Kapsel durch den Ösophagus verzögert, um eine genügende Anzahl von Einzelbildern zu erhalten.
Weitere Videokapseln, wie z. B. zur Untersuchung des Dickdarms, befinden sich derzeit in der Entwicklung. Die Kapselendoskopie ist z. Zt. keine Alternative für die herkömmliche Gastroskopie oder Koloskopie, sondern eine sinnvolle Ergänzung. D. h. die bei negativem Befund der o. g. Untersuchungen kann die endoskopische Darstellung des gesamten Dünndarms signifikant zur Diagnose und damit zur Einleitung einer gezielten Therapie beitragen. Kontraindiziert ist das Verfahren bei Patienten mit Verdacht auf gastrointestinale Obstruktionen, bei Patienten mit Herzschrittmacher oder anderen elektromedizinischen Implantaten und bei Schwangeren.
Datenrekorder Der Datenrekorder wird an einem Gürtel um die Hüfte getragen und empfängt die Signale von den Videokapseln. Für den Empfang der Signale werden am Bauch des Patienten Sensoren platziert. Während der Untersuchung werden auf der Festplatte des Datenrekorders ca. 55.000 Einzelbilder (bei der Dünndarmuntersuchung) gespeichert, was einer Rohdatenmenge von ca. 3,5 Gigabyte entspricht. Von dort werden die Daten auf einen PC mit spezieller Software übertragen. Die Patienten behalten während der Untersuchung ihre volle Mobilität und können somit ihrem gewohnten Tagesablauf nachgehen.
Weiterführende Literatur Iddan G et al. (2000) Wireless Capsule Endoscopy. Nature, Vol 450: 417 Keuchel M, Hagenmüller F (2005) Atlas der Videokapselendoskopie. Springer, Heidelberg Berlin New York
19.6
Text- und Bilddokumentation
Computer-Workstation Die Computer-Workstation ist mit einer speziellen Anwendungs-Software ausgestattet. Die gesendeten Bilder werden von dem Datenrekorder auf die Workstation geladen. Dort werden die Daten zu einem Videofilm verarbeitet, und es verbleiben ca. 700 Megabyte. Die Anwendungs-Software ermöglicht die Bildanalyse, Auswertung und Diagnoseerstellung. Einzelbilder oder auch kurze Video-Clips können exportiert werden. Die Software bietet die Möglichkeit, die Abspielge-
K.E. Grund, R. Salm Für die Dokumentation endoskopischer Befunde und Operationen ist aus ärztlicher und forensischer Sicht sowie für die Qualitätssicherung die Abfassung eines Befund- bzw. Operationsberichtes nach definierten Kriterien erforderlich. Die Texteingabe kann heute vorteilhaft über Spracherkennungssysteme geschehen, die ein mühseliges Eintippen überflüssig machen und Zeit sparen.
19
364
II
Kapitel 19 · Systeme für die Endoskopie
Zusätzlich ist jedoch eine Bilddokumentation unabdingbar (z. T. auch schon für Abrechnungszwecke zwingend vorgeschrieben – z. B. wird bei der Koloskopie eine Bilddokumentation als Beweis gefordert, dass der Coecalpol erreicht wurde). Prinzipiell ist eine solche Bilddokumentation durch Standbilder leicht möglich. Mittels entsprechender Schnittstellen sind auch hochauflösende Bilder in digitaler Form (z. B. auf Speicherkarten) oder als Papierausdruck verfügbar. Andererseits zeigen die Erfahrungen mit solchen Systemen im Bereich der Radiologie, dass die Praxistauglichkeit solcher Systeme noch sehr zu wünschen übrig lässt und Ergonomie und Betriebssicherheit durchaus noch nicht den ärztlichen Erfordernissen entsprechen. Weitaus anschaulicher und vorteilhafter für Diagnosesicherung, Qualitätsmanagement und wissenschaftliche Ausarbeitungen ist eine Sequenzdokumentation; sie kommt jedoch gerade bei Verwendung moderner digitaler Technologien sehr schnell an ihre Grenzen. Während ein analoges Videobandsystem auf einer Kassette problemlos die Speicherung von 180–240 min Video erlaubt, ist die hardwaregestützte digitale Speicherung selbst bei Verwendung eines Endoskopes mit nur mittlerer Auflösung problematisch. Geht man von PAL-Auflösung, einer Farbtiefe von 3×8 Bit (=3 Byte) sowie 25 Bildern pro Sekunde aus, so sind Rohdaten von 31 MB/sec. zu verarbeiten – d. h. für eine Minute Videoaufnahmen werden 1,8 Gigabyte, für eine Stunde 112 Gigabyte Speicherplatz benötigt. Die in der Consumer-Videotechnik zur Verringerung des erforderlichen Speicherplatzes verwendeten Kompressionsalgorithmen (MPEG, JPEG, MJPEG etc.) erweisen sich bei den differenzierten Farbflächen und problematischen Kanten im endoskopischen Bild als ungeeignet. Schon ein Kompressionsfaktor von 3:1 ergibt bei kritischen endoskopischen Bildern eine sichtbare Qualitätsverschlechterung. Die obige einfache Rechnung zeigt, dass es derzeit für die Sequenzdokumentation – sieht man von analogen oder digitalen Videorekordern auf Magnetbandbasis ab – noch keine praktikable und ergonomische Hardware-Lösung gibt, v. a. wenn man die Entwicklung im High-Definition (HD)-Bereich berücksichtigt (⊡ Tab. 19.1).
19.7
zu gestalten, wobei auf einem Gerätewagen nicht nur Prozessoren, Monitor und Zusatzgeräte ergonomisch sinnvoll angeordnet sind, sondern auch das notwendige Zubehör komplett und übersichtlich in indikationsdefinierten Plastikboxen verfügbar ist (z. B. Blutstillung, Sondenlegung etc.) (⊡ Abb. 19.15). Mit solchen autarken mobilen Einheiten lässt sich auch auf Intensivstation, im Schockraum, im Operationssaal oder auf den Krankenstationen der endoskopische Eingriff ohne wesentliche logistische Probleme ausführen. Hilfreich sind auch Neuentwicklungen, welche die Miniaturisierungsmöglichkeiten bei elektronischen Geräten ausnützen (⊡ Abb. 19.16, auch 4-Farbteil am Buchende). Prozessor und Lichtquelle sind in einem kaum mehr als Laptop-großen Gerät zusammengefasst und leicht transportabel. In diesem Zusammenhang ist die Entwicklung von Systemarbeitsplätzen für die flexible Endoskopie dringend erforderlich; in einem solchen Arbeitsplatz müssen alle erforderlichen Geräte mit definierten Schnittstellen integrierbar sein, damit sie über gemeinsame und einheitliche Steuerungs-, Überwachungs- und Anzeigeelemente
Endoskopiearbeitsplätze
Während die Methoden der starren Endoskopie überwiegend im Steril-Bereich der Operationssäle der einzelnen Fachdisziplinen ausgeführt werden, sind für die diagnostischen und therapeutischen Eingriffe der flexiblen Endoskopie meist räumlich getrennte Endoskopieeinheiten mit besonderen Einrichtungen erforderlich. Unabhängig davon hat es sich aber als nützlich erwiesen, zumindest einige dieser Arbeitsplätze als mobile autarke Einheiten
⊡ Abb. 19.15. Beispiel eines mobilen Endoskopiearbeitsplatzes mit systematisch konfigurierter Komplettausstattung
365 19.8 · Räumlichkeiten und Logistik
19.8
Räumlichkeiten und Logistik
verfügen (⊡ Abb. 19.17). Nur so lässt sich die enorm gewachsene Komplexität endoskopischer Operationen ergonomisch sinnvoll bewältigen und dabei die Sicherheit für den Patienten gewährleisten (⊡ Abb. 19.18). Die bislang immer noch notwendige »wilde« Konfiguration unterschiedlicher Geräte und Komponenten mit nicht abgestimmten Bedienungs- und Kontrolloberflächen führt weiter ins Chaos.
In traditionell eingerichteten Endoskopie-Einheiten für gastroenterologische und pulmologische flexible Endoskopie sind herkömmlicherweise die Arbeitsplätze für den oberen und unteren Verdauungstrakt, für die ERCP sowie für die Bronchoskopie getrennt. Da diese Trennung immer weniger strikt gesehen wird und viele interventionelle
⊡ Abb. 19.16. Miniaturisiertes Kombigerät (Lichtquelle und Videoprozessor) für die flexible Endoskopie (Abbildung mit freundlicher Genehmigung der Karl Storz GmbH & Co. KG)
⊡ Abb. 19.17. Konfiguration eines Systemarbeitsplatzes. Man beachte: Der Patient steht im Mittelpunkt, alle Technik ist nicht Selbstzweck, sondern ist auf das Wohl des Kranken fokussiert
⊡ Abb. 19.18. Real-Entwurf eines Systemarbeitsplatzes mit besonderer Berücksichtigung der Ergonomie (Entwurf: Prof. Dr. K.E. Grund, Tübingen)
19
366
II
Kapitel 19 · Systeme für die Endoskopie
Eingriffe sowie die Endoskopie am Gallen- und Pankreasgangsystem ein Röntgengerät erforderlich machen, ist bei Einhaltung der notwendigen hygienischen Maßnahmen auch ein »Gemischtbetrieb« möglich. Alle Räume und Einrichtungen müssen ohnehin strengen Anforderungen an Arbeitssicherheit und Hygiene genügen. Bezüglich der Elektroinstallation, der Abdunkelungsmöglichkeiten, der Regelbarkeit der Raumbeleuchtung, der medizinischen Gase und der Schutzmaßnahmen gegen Röntgen- und Laserstrahlen sowie bezüglich Be- und Entlüftung bzw. Klimatisierung gelten für Endoskopieräume die gleichen Kriterien wie für einen Operationssaal. Zur Einhaltung ergonomischer Arbeitsabläufe sind besondere Maßnahmen zu treffen, die im Zusammenhang mit der Personallogistik zu optimieren sind. Nach den heutigen forensischen Vorgaben sind nur einfache Untersuchungen durch einen einzigen Arzt mit einer einzigen Pflegekraft durchführbar, kompliziertere Eingriffe, v. a wenn eine Sedierung erforderlich ist, erfordern wenigstens zwei Pflegekräfte sowie einen anästhesiologisch/intensivtherapeutisch geschulten zweiten Arzt in Rufweite. Notfallendoskopien sind besonders anspruchsvoll und erfordern – ganz im Gegensatz zur gängigen Praxis – eine erweiterte personelle Besetzung.
19.9
Aufbereitung von flexiblen Endoskopen und Zusatzinstrumenten
Die Aufbereitung flexibler Endoskope ist weiterhin – bedingt durch die langen Kanäle und die empfindlichen Materialien – trotz aller Bemühungen der Hersteller problematisch. Eine echte Sterilisation flexibler Endoskope ist nach wie vor nicht möglich. Ethylenoxyd und Plasmasterilisation bieten derzeit keine praktikablen Alternativen. Zwar genügt für viele Einsatzgebiete (z. B. im Verdauungstrakt) i. d. R. die sichere Desinfektion, die manuell oder maschinell durchgeführt werden kann, andererseits aber haben sich durch die Diskussion im Zusammenhang mit BSE, CJD und Prionen die Anforderungen deutlich verschärft. Über »Einmalendoskope« wird bereits nachgedacht. Eine manuelle Aufbereitung ist durchaus möglich, aber problembehaftet. Deshalb wird heute einer maschinellen Aufbereitung der Vorzug gegeben. Diese erfolgt in entsprechenden Automaten, die nach der manuellen Vorreinigung – welche nach wie vor für unabdingbar gehalten wird – die Reinigung und Desinfektion sowie die abschließende Spülung und Trocknung erledigen und eine automatische Dichtigkeitsprüfung übernehmen. Standardisierte Verfahrenstechniken im geschlossenen System ermöglichen eine hohe Wirksamkeit bei gleichbleibender und kontrollierbarer Qualität. Neben chemischen sind auch chemothermische und rein thermische Desinfektionsverfahren verfügbar, daneben auch Alternativen mit umweltfreundlichen innovativen Methoden (saures Elektrolysewasser etc.).
Obwohl viele Instrumente für die flexible Endoskopie autoklavierbar sind, machen die sehr weitgehenden Vorschriften des Medizinproduktegesetzes eine Wiederaufbereitung von Instrumenten auch in solchen Fällen fraglich, wo dies prinzipiell möglich wäre. Allerdings gelten Modellrechnungen, dass Einmalartikel kostenmäßig günstiger seien als wiederverwendbare Instrumente, bislang nur unter der Voraussetzung, dass das Personal, das die Wiederaufbereitung durchführt, entlassen wird. Auch schon aufgrund der nicht berücksichtigten Entsorgungsprobleme (wahre Müllberge!) werden hier oft Milchmädchenrechnungen aufgemacht.
19.10
Zukunftsentwicklungen
Auch wenn man bei der Prognose technologischer Entwicklungen nicht vorsichtig genug sein kann, ist für die nähere Zukunft eine völlige Neukonzeption des klassischen Endoskops zu erwarten. In konsequenten Schritten werden sich die bislang durch die Einheit des Endoskops verbundenen Funktionsbereiche Geräteführung/Navigation, Beleuchtung/Bildgebung und Interventionssysteme voneinander unabhängig machen, um erst auf höherer Ebene gemeinsam gesteuert und geregelt zu werden. Zunächst wird man das unpräzise »Drehen« an den Rädern bei der flexiblen Endoskopie bzw. »Rühren mit den Trokaren« bei der starren Endoskopie durch anders geartete Aktuatoren ersetzen. Joystickartige Steuerungselemente – bei Operationsrobotern (ZEUS, da VINCI etc.) schon im klinischen Betrieb erprobt – und Steuerungen analog einem Datenhandschuh für virtuelle Räume stehen schon zur Verfügung. Im Zusammenhang mit neu entwickelten Effektoren und Werkzeugen mit integrierten Feedbackmechanismen führt das zur erwünschten höheren Präzision und Sicherheit. In konsequenter Fortsetzung des begangenen Weges der Doppelballonendoskopie und Kapselendoskopie werden aktive selbstbewegende Endoskope mit Hochdruck weiter entwickelt; schon derzeit sind einzelne Arbeitsgruppen bei Tierversuchen angelangt. Die Integration der Erfahrungen mit Ultraschallendoskopen und Feinstkaliberendoskopen wird die Entwicklung weiter befruchten, sodass tiefgreifende Umbrüche im schon abgeschlossen scheinenden Weltbild der Endoskopie zu erwarten sind.
Literatur Beim Verfasser.
Wir danken Frau Regina Ingenpaß für ihre Mithilfe bei der Textgestaltung und Konfiguration der Abbildungen.
20 Infrarot-Bildgebung T.M. Buzug
20.1 Einleitung
– 367
20.2 Physik der Infrarot-Strahlung – 367 20.3 Instrumentierung
– 369
20.3.1 IR-Detektoren – 369 20.3.2 IR-Kamerasysteme – 370
20.4 IR-Bildgebung als medizinische Modalität – 371 20.4.1 Anwendungsbeispiele – 371 20.4.2 Fehlerquellen der medizinischen IR-Bildgebung – 372
20.5 Dank
– 373
Literatur
20.1
– 373
Einleitung
Der menschliche Körper produziert im Rahmen seines Stoffwechsels im Körperinneren Wärme. Durch Abgabe der Wärmeenergie über die Haut mittels Verdunstung, Konvektion und Wärmestrahlung wird dabei die Kerntemperatur konstant gehalten. Treten allerdings im Stoffwechsel Probleme auf, so können diese sich durch eine Temperatursignatur auf der Haut verraten. Das Messverfahren der Wahl hierfür ist die Infrarot-Bildgebung (IR-Bildgebung oder Thermographie). Die Faszination dieses Verfahrens geht davon aus, dass es praktisch das einzige bildgebende Verfahren der Medizin ist, das ideal nicht-invasiv und kontaktlos arbeitet. Bei der Infrarot-Bildgebung wird nämlich die Strahlung passiv gemessen, die vom menschlichen Körper ohnehin zur Regelung des Temperaturgleichgewichts über die Haut abgegeben wird, die Wärmestrahlung. Die Infrarot-Bildgebung ist zweifellos eine effektive medizinische Screening-Modalität. Dies hat sich erst kürzlich im Zusammenhang mit SARS gezeigt, als fiebrige Personen innerhalb einer großen Zahl von Fluggästen im Sicherheitsbereich der Flughäfen aufgrund ihres GesichtsTemperaturprofils identifiziert werden konnten. Seit Beginn der technischen Verfügbarkeit von Infrarot-Kameras wurde diese Modalität als funktionelle medizinische Bildgebung (IRFI: Infrared Functional Imaging) gesehen, die z. B. einen pathologisch erhöhten Metabolismus anhand seiner spezifischen Temperatursignatur visualisieren kann. Speziell bei der Diagnose einiger Krebsarten folgt die Tumordetektion dem thermographischen Paradigma, sodass das starke Wachstum maligner Tumore notwendigerweise von einem Anstieg des Stoffwechsels
begleitet ist, der sich in der Konsequenz als Änderung der Temperatursignatur widerspiegelt. Elektromagnetische Wellen zwischen dem sichtbaren Licht und den Mikrowellen werden als Infrarot-Strahlung bezeichnet. ⊡ Abb. 20.1 ( auch 4-Farbteil am Buchende) gibt das gesamte Spektrum der elektromagnetischen Wellen zusammen mit den physikalischen bzw. technischen Bezeichnungen der Bänder von den extrem kurzwelligen γ-Strahlen zu den kilometerlangen Radiowellen wieder. Die Infrarot-Bildgebung nutzt das so genannte thermische Infrarot-Spektralband. Grundsätzlich ist man bei der Temperaturmessung über die spektrale Verteilung der Intensitäten elektromagnetischer Strahlung natürlich nicht auf das InfrarotBand beschränkt. Die wenigen physikalischen Formeln, die den Zusammenhang zwischen dem zugrunde liegenden Planck’schen Strahlungsgesetz, dem Wien’schen Verschiebungsgesetz sowie dem Stefan-Boltzmann-Gesetz beschreiben, werden ohne Herleitung im nächsten Abschnitt kurz dargestellt.
20.2
Physik der Infrarot-Strahlung
Mit dem Planck’schen Strahlungsgesetz 2hc 2 1 dλ ρ (λ , T ) d λ = hc 5
(1) e λ kT − 1 ist der Verlauf der spektralen Energiedichte ρ (λ,T) und damit der Zusammenhang zwischen der Temperatur T und der Wellenlänge λ der so genannten Schwarzkörperstrahlung beschrieben (dabei ist h die Planck’sche Wir-
λ
368
Kapitel 20 · Infrarot-Bildgebung
II ⊡ Abb. 20.1. Das Spektrum der elektromagnetischen Wellen und seine typischen Bänder
⊡ Abb. 20.2a–c. Plancks Strahlungsgesetz für einen »Schwarzen Körper«. a Die Fläche unter den jeweiligen Kurven gibt die Gesamtstrahlungsleistung wieder, die über das Stefan-Boltzmann-Gesetz berechnet wird. In Grau ist die Gesamtstrahlungsleistung für die ϑ=37 C-Kurve dargestellt. b Die spektrale Energiedichte ρ (λ,T) ist dop-
pellogarithmisch gegen die Wellenlänge aufgetragen. Das Wien’sche Verschiebungsgesetz ergibt sich dabei als Gerade durch die Maxima der Kurvenschar. c Die differentielle spektrale Strahlungsdichte (hier aufgetragen für ϑ=37 C) zeigt, dass speziell der langwellige IR-Bereich für Temperaturmessungen gut geeignet ist
kungskonstante, k die Boltzmannkonstante und c die Lichtgeschwindigkeit). Ein Schwarzer Körper ist dadurch definiert, dass er alle auf ihn einfallende Strahlungsenergie komplett absorbiert und, als Konsequenz aus dem Kirchhoff ’schen Gesetz, dass er gleichzeitig seine eigene Wärmeenergie ideal abstrahlen kann. Kirchhoffs Gesetz besagt kurz, dass Körper, die Strahlung gut absorbieren, gleichzeitig Strahlung auch gut emittieren (nicht reflektieren) und umgekehrt. Dies wird durch α(T)=ε (T) ausgedrückt, dabei ist α das Absorptionsvermögen und ε das Emissionsvermögen eines beliebigen Materials bei einer Temperatur T. Für einen idealen Schwarzen Körper gilt α(T)=ε (T)=1. Natürlich sind reale Körper eher »graue« Körper mit einem Emissionsvermögen, das kleiner als Eins ist (0<ε (λ,T)<1) und darüber hinaus typischerweise mit der Wellenlänge variiert. In ⊡ Abb. 20.2a,b ist der Verlauf der spektralen Energiedichte ρ (λ,T) für verschiedene Temperaturen wiedergegeben. Daraus lassen sich wichtige Schlüsse ableiten. Bei jeder Temperatur zeigen die Kurven der Energiedichte jeweils ein eindeutiges, ausgeprägtes Maximum bei einer bestimmten Wellenlänge. Je höher die Temperatur ist,
desto kürzer ist die Wellenlänge λmax,bei der das entsprechende Maximum zu finden ist. Das erklärt, warum eine glühende Herdplatte ihre Farbe von rot nach gelb wechselt, wenn sie heißer wird. Das dazugehörige Wien’sche Verschiebungsgesetz
T λmax = 2.898 mm K
(2)
besagt, dass es einen reziprok-proportionalen Zusammenhang zwischen der Wellenlänge der maximalen Emission eines Schwarzen Körpers und seiner Temperatur gibt. ⊡ Abb. 20.2b gibt diese Wellenlängenverschiebung in einer doppel-logarithmischen Graphik von ρ (λ,T) aufgetragen gegen λ. wieder. Mit dem Stefan-Boltzmann-Gesetz, das gelegentlich auch T4 -Gesetz genannt wird, ist man in der Lage, die gesamte Strahlungsleistung des Körpers zu berechnen. Die Tatsache, dass die gesamte Strahlungsleistung eine Funktion der Oberflächentemperatur des zu untersuchenden Körpers ist, macht die Ermittlung und Darstellung der räumlichen Temperaturverteilung mit einer Thermokamera überhaupt erst möglich. ∞
³ ε (λ , T ) ρ (λ , T )d λ ∝ T 0
4
(3)
369 20.3 · Instrumentierung
⊡ Abb. 20.3a–f. a–c Energieschemata der IR-Halbleiterdetektoren; d Empfindlichkeitsprofil eines QWIP-Detektors; e prinzipieller Aufbau eines QWIP-Detektors und f elektronenmikroskopische Aufnahme eines Teils des Halbleiterdetektors
Das geschieht praktisch unmittelbar mit dem sehr empfindlichen Stefan-Boltzmann-Gesetz welches im Wesentlichen die Fläche unter der Planck-Kurve darstellt, so wie es in ⊡ Abb. 20.2a für die Temperatur T=310 K exemplarisch illustriert ist. Aufgrund des Kirchhoff ’schen Gesetzes hängt die von einer Thermokamera gemessene Strahlungsleistung nicht allein von der Körpertemperatur ab, sondern sie ist auch eine Funktion des Emissionsvermögens ε (λ,T).
20.3
Instrumentierung
20.3.1 IR-Detektoren
Das wichtigste Bauteil einer Infrarotkamera ist der Strahlungsempfänger. In ihm wird die einfallende Strahlungsleistung in einen messbaren Strom umgewandelt, der eine Funktion der Temperatur des emittierenden Körpers ist. Zu Beginn der Entwicklung der Temperaturmessung über die Infrarotstrahlung standen nur einzelne Detektorelemente zur Verfügung. Dies waren zumeist thermische Empfänger mit einer relativ konstanten Empfindlichkeit über ein breites Wellenlängenintervall (Schuster u. Kolobrodov 2000). Solche Detektoren setzen die einfallende Strahlung zunächst in Wärme um. Typische Vertreter sind ▬ die Bolometer, die die Temperaturänderung des Detektors in eine Widerstandsänderung eines so genannten Thermistors (aufgebaut aus Mn-, Co-, Ni- und V-Oxidschichten) überführen, ▬ die Thermosäulen und Thermoelemente, bestehend z. B. aus Sb-Bi-Verbindungen, die die Temperaturänderung aufgrund des Seebeck-Effektes in eine Spannungsänderung wandeln, und ▬ die pyroelektrischen Empfänger, bestehend aus Kristallen (z. B. LiNbO3) mit permanenter elektrischer
Polarisation, die die Temperaturänderung in eine Ladungsänderung umsetzen, indem die Strahlung eine Änderung der Polarisation hervorruft (Dereniak und Boreman 1996, Holst 1998). Eine direktere Messung der einfallenden Strahlung erlauben die so genannten Quantenempfänger. IR-Quantenempfänger nutzen den inneren Fotoeffekt. ⊡ Abb. 20.3a stellt schematisch dar, dass bei Absorption von IR-Strahlung aus dem mittleren Wellenlängenbereich Elektronen aus dem Valenzband in das Leitungsband gehoben werden können und so die Leitfähigkeit des Detektors erhöhen. Typische Materialien solcher Empfänger sind PbS, PbSe, InSb oder HgCdTe. Durch eine Veränderung der Energielücke ∆E zwischen Valenz- und Leitungsband, kann die spektrale Empfindlichkeit des Detektors an die Messaufgabe angepasst werden. ⊡ Abb. 20.4a ist bspw. mit einer NEC-IR-Kamera aufgenommen worden, die einen Hg1-xCdxTe-Zeilendetektor besitzt. Die Größe der Bandlücke wird dabei durch die Variable x, also durch das Verhältnis der Materialien Quecksilber und Cadmium zueinander bestimmt. Diese Kamera deckt den Bereich des mittleren IR-Spektrums (MWIR) ab. Wenn man auch im langwelligen, fernen IR-Spektrum (LWIR) eine hohe Detektorempfindlichkeit erhalten möchte, muss die dazugehörige Bandlücke ∆E entsprechend verkleinert werden. Beliebig kleine Bandlücken zu erzeugen, ist technisch jedoch bislang nicht gelungen (Gunapala und Bandara 1999). Beim neuerdings sehr erfolgreich in Infrarotkameras eingesetzten QWIP-Detektor (Quantum-Well Infrared Photodetector) umgeht man das technische Problem durch Anwendung quantenmechanischer Erkenntnisse. Anstatt die Bandlücke direkt zu verkleinern, wird beim QWIP-Detektor innerhalb des Valenzbandes eine Energie-Sub-Band-Struktur erzeugt, die mit dem einfachen Kastenpotential der Quantenme-
20
370
Kapitel 20 · Infrarot-Bildgebung
II
⊡ Abb. 20.4. Links: Einzeldetektorsysteme bilden die Bildmatrix mit Hilfe einer Kipp-Drehspiegel-Kombination. Rechts: Bei Systemen mit einem Focal-Plane-Array (FPA) ist der Detektor selbst matrixförmig aufgebaut
chanik zu verstehen ist. Durch Nanostrukturierung mittels Elektronenstrahlepitaxie werden – innerhalb eines Halbleiters mit großem Bandabstand (Esaki und Sakaki 1977) – Potentialwälle erzeugt, die nun sehr kleine Lücken zwischen erlaubten Energiezuständen aufweisen. ⊡ Abb. 20.3b zeigt das Energieschema des Potentialkastens innerhalb des Halbleiters. Die Grenzwellenlänge des Detektors kann variiert werden, indem die Schichtdicke der einzelnen Lagen sowie die Potentialtiefe verändert wird. Eine Materialkomposition aus GaAs/AlxGa1-xAs erlaubt eine kontinuierliche Einstellung der Detektorbandbreite. ⊡ Abb. 20.3c zeigt das Prinzip eines so genannten bound-to-quasibound QWIP-Detektors. Die Tiefe und Breite des Potentialkastens wird so eingestellt, dass das erste angeregte Niveau mit der Kastenöffnung zusammenfällt. Langwellige IR-Strahlung (LWIR) befördert Elektronen aus dem Grundzustand des Kastens in den ersten angeregten Zustand. Eine extern angelegte Spannung kippt das gesamte Energieniveau so, dass die angeregten Elektronen den Potentialberg hinunterlaufen und damit den gewünschten Fotostrom erzeugen (Levine 1993). ⊡ Abb. 20.3d zeigt das Empfindlichkeitsprofil eines typischen QWIP-Detektors. IR-Strahlung wird sehr schmalbandig zwischen λ1=6 µm und λ2=10 µm detektiert. Der Fotostrom ist dabei über das bandbegrenzte Stefan-Boltzmann-Gesetz λ2
I ∝ ³ ε (λ , T ) ρ (λ , T )d λ λ1
(4)
mit der Temperatur gekoppelt. In ⊡ Abb. 20.3e ist zu sehen, dass der Detektor hinter dem Eintrittsfenster aus mehreren QWIP-Lagen aufgebaut ist. Über Indium-Verbindungen (vgl. auch ⊡ Abb. 20.3f ) wird der Fotostrom einem Ausleseschaltkreis zugeführt.
20.3.2 IR-Kamerasysteme ⊡ Abb. 20.4 (links) zeigt das Prinzip mit dem – auch mit nur einem einzelnen Detektorelement – IR-Bilder erzeugt werden können. Dazu ist eine Kipp-Drehspiegel-Kombination erforderlich. Der Kippspiegel tastet den zu untersuchenden Körper vertikal ab und der nachgeschaltete Drehspiegel sorgt für die jeweilige horizontale Abtastung. So entsteht das IR-Bild zeilenweise. Schnell bewegte Gegenstände können mit diesem Prinzip natürlich nicht erfasst werden. Darüber hinaus erfordert die Konstruktion sehr hohe opto-mechanische Präzision und eine sehr kurze Antwortzeit des Detektorelements. Diese physikalischen Detektorprinzipien werden beständig weiterentwickelt, sodass inzwischen auch Detektorarrays zur Verfügung stehen, die eine schnelle IRBildgebung technisch ermöglichen. Bei Zeilenarrays kann bspw. auf den Drehspiegel verzichtet werden. Moderne IR-Kameras besitzen Detektormatrizen, so genannte Focal-Plane Arrays (FPA), wie sie in ⊡ Abb. 20.4 (rechts) skizziert sind. Der Detektor ist ungefähr in der Brennweite der Kameraoptik angebracht. Bei dieser Anordnung sind keine beweglichen Spiegel erforderlich, sodass
371 20.4 · IR-Bildgebung als medizinische Modalität
entweder schnelle Bewegungen erfasst werden können oder bei langsamen Bewegungen länger belichtet werden kann, womit das Signal-zu-Rausch-Verhältnis steigt. Allerdings ist die Fertigung der Arrays technisch sehr aufwendig, sodass überwiegend kleine Detektormatrizen von 320×240 Pixeln kommerziell erhältlich sind. Einige Modelle besitzen heute FPAs mit bis zu 640×480 Pixeln bei Detektorgrößen von 20–50 µm. Für Anwendungen in der Astronomie werden einzelne HgCdTe-Detektorarrays mit einer Matrixgröße von 2000×2000 Pixeln hergestellt (Hornak 2002). Obwohl es heute Kameras gibt, die mit ungekühlten Detektoren arbeiten, ist klar, dass ein gekühlter IR-Empfänger ein niedrigeres Rauschen aufweist als ein ungekühlter, denn bei Raumtemperatur blendet sich der Detektor selbst. Das ist übrigens auch der Grund warum die Evolution darauf verzichtet hat, dem menschlichen Auge eine Empfindlichkeit für IR-Strahlung zu geben – die Selbstblendung durch die 310-K-Kurve in ⊡ Abb. 20.2 produziert zu viel Rauschen. Bei den ersten Kameras wurden die Detektoren in ein Dewargefäß eingebettet und mit flüssigem Stickstoff gekühlt. In der Mitte der 80er Jahre wurden die Detektoren auf thermoelektrischem Wege, über den so genannten Peltier-Effekt, gekühlt. Moderne Geräte verwenden kleine Stirling-Kältemaschinen, mit denen ebenso effektiv wie mit flüssigem Stickstoff gekühlt werden kann.
20.4
IR-Bildgebung als medizinische Modalität
Sehr häufig wird bei der Anwendung der IR-Bildgebung in der Medizin von der Temperaturverteilung auf der Hautoberfläche auf Prozesse im inneren des Körpers geschlossen. Aufgrund des hohen spezifischen Emissionsvermögens der Haut ε=0.98±0.01 für Wellenlängen λ>2 µm erscheint dieses Vorgehen zunächst viel versprechend. Allerdings ist zu berücksichtigen, dass es physiologische Prozesse gibt, die die Kerntemperatur des Menschen nahezu konstant halten, sodass das thermographische Paradigma praktisch nur für Tiefen unterhalb von 20 mm und somit nur für oberflächennahe Stoffwechselvorgänge gilt. Sinnvolle Ergebnisse sind daher bspw. für die Diagnostik von oberflächennahen entzündlichen Prozessen wie Arthritis und Rheumatismus sowie bei Durchblutungsstörungen zu erwarten. Es ist zu beachten, dass die lokalen Temperaturerhöhungen relativ klein sind (Dössel 2000): Bei Entzündungen (z. B. Rheuma, Arthritis): ΔT =1-2 K, bei Gefäßerkrankungen (z. B. Thrombose): ΔT =1–2 K, bei malignen Melanomen: ΔT =2-4 K, bei Mammakarzinomen: ΔT =1,5–4 K. Einer guten Diagnostik sind darüber hinaus alle Formen der Allergie mit einer Symptomatik auf der Haut aber auch Verbrennungen, Verbrühungen
und Erfrierungen zugänglich. Weiterhin ist das Monitoring nach Hauttransplantationen sinnvoll. Zu qualitativen Messungen werden IR-Bilder heute auch in der Schmerzdiagnostik verwendet. Eine Übersicht der Ursachen, die eine Änderung der Hauttemperatur bewirken und durch IR-Bildgebung erfasst werden können, findet man bei Furukawa, 2004. Prinzipiell muss bei der Strahlung, die mit der IR-Kamera gemessen wird, beachtet werden, dass sie nicht nur das Resultat der Temperatur des Patienten sondern auch die Reflektion der Umgebungsstrahlung sein könnte. Aufgrund des hohen Emissionskoeffizienten und der schmalen Integrationsbandbreite des Detektors (⊡ Abb. 20.3d), kann die Störstrahlung, also der Strahlungsanteil, der nicht durch den Stoffwechselprozess selbst erzeugt wird, jedoch vernachlässigt werden.
20.4.1 Anwendungsbeispiele
Als prominentestes Beispiel einer Durchblutungsveränderung zeigt ⊡ Abb. 20.5a (Abb. 20.5 auch 4-Farbteil am Buchende) die effektive Abkühlung einer Hand eines Rauchers, während er eine Zigarette raucht. Dieses qualitative Beispiel demonstriert den Effekt der Gefäßverengung und der nachfolgenden Durchblutungsreduktion, die mit dem Rauchen einhergeht. Für diese Aufnahmesequenz wurde eine (MWIR) Zeilendetektor-Kamera (NEC TH5104 Thermo Tracer) verwendet. Diese Kamera besitzt eine Bildmatrix von 255×223 Pixeln und eine Temperaturauflösung von δT =100 mK. Das zweite Beispiel demonstriert den Einsatz der IR-Bildgebung als funktionelle Modalität (IRFI: Infrared Functional Imaging) sehr deutlich. ⊡ Abb. 20.5b zeigt die Temperaturverteilung der Oberschenkelhaut bei Belastungsexperimenten, die mit einem Fahrradergometer durchgeführt wurden. Während der langsam ansteigenden Belastung kühlt sich die Haut deutlich ab – während der Erholungsphase erwärmt sich die Hautoberfläche dann wieder. Diese sportmedizinischen Messungen wurden mit der jeweiligen Sauerstoffaufnahme korreliert und haben ergeben, dass der Grad der Hautabkühlung und die Wiedererwärmung von dem individuellen Konditionszustand des Probanden abhängt. Es wird derzeit untersucht, inwieweit die funktionelle IR-Bildgebung in der Lage ist, die Haemodynamik der Oberschenkelmuskulatur abzuschätzen (Merla, Di Donato und Romani 2002). Die Bilder wurden mit der (LWIR) AEG-Kamera AIM 256 PtSi aufgenommen. Die Detektormatrix besteht aus 256×256 Pixeln mit einer Temperaturauflösung von δT =100 mK. Als letztes Beispiel seien die Stoffwechselveränderungen bei bestimmten Krebsarten genannt. Viele Forschungsgruppen haben in der Vergangenheit die malignen Tumore der Mamma in den Vordergrund ihrer
20
372
II
Kapitel 20 · Infrarot-Bildgebung
⊡ Abb. 20.5a–c. Anwendungsbeispiele der IR-Bildgebung in der medizinischen Diagnostik. a Abkühlung der Hand als Reaktion der Gefäßverengung beim Rauchen, b Temperaturänderung der Oberschenkel bei sportlicher Belastung auf dem Ergometer (Arcangelo Merla: Functional Infrared Imaging Lab., University »G. d‘Annunzio«, Italien; Merla, Di Donato und Romani 2002) und c Wiedererwärmungssequenz eines Basalzellenkarzinoms nach Abkühlungsprovokation (Schumann et al. 2005)
Arbeiten gestellt. Dadurch, dass die IR-Bildgebung den Patienten überhaupt nicht belastet, würde sich das Verfahren nämlich als ideale Screening-Modalität eignen. Leider muss man hier aber feststellen, dass eine sichere Früherkennung von Brustkrebs über IR-Bildgebung gescheitert ist. Wenn sich ein Tumor der Brust tatsächlich über eine Veränderung der Temperaturverteilung auf der Hautoberfläche verrät, befindet er sich zumeist in einem zu späten Stadium. Daher sollte die sensible Krebsdiagnostik grundsätzlich nur auf einige Hautkrebsarten beschränkt bleiben. In diesem Bereich werden derzeit Arbeiten durchgeführt, die das Potenzial der IR-Bildgebung als Screening-Modalität für Hautkrebs untersuchen. ⊡ Abb. 20.5c (1. Bild) zeigt das Photo eines Basalzellenkarzinoms. Zur Charakterisierung der Hautveränderung fand das Verfahren der aktiven IR-Bildgebung Anwendung. Dabei wird das betroffene Hautareal und seine Umgebung zunächst provoziert – z. B. wie in ⊡ Abb. 20.5c (2. Bild) durch gleichmäßige Abkühlung. Charakteristisch für diese Tumorart ist die Temperatursignatur, also die spezifische Sequenz der Thermoregulationsprozesse. Hierbei ist zu erwarten, dass z. B. ein malignes Melanom aufgrund des hohen Metabolismus und eventueller Angiogenese eine schnellere Wiedererwärmung als das gesunde Gewebe zeigt. Beim Beispiel des Basalzellenkarzinoms scheint es umgekehrt zu sein. Aufgrund einer Abkapselung des Tumors vom benachbarten gesunden Gewebe, verläuft die Thermoregulation des Tumors langsamer. In ⊡ Abb. 20.5c (3. und 4. Bild) ist zu erkennen, wie der Tumor sich im Laufe der Regulation als Cold-Spot abbildet. Die Bilder wurden mit dem (LWIR) FLIR-Kamerasystem SC3000 aufgenommen. Die Kamera besitzt einen stirling-gekühlten QWIP-Detektor in FPA-Technologie. Die Detektormatrix besteht aus 320×240 Pixeln mit einer Temperaturauflösung von δT=30 mK.
20.4.2 Fehlerquellen der medizinischen
IR-Bildgebung Während man die technologischen Prozesse bei der Herstellung von hochpräzisen IR-Kameras heute sehr gut im Griff hat, sieht man sich bei der medizinischen Anwendung mit einer Reihe von Problemen konfrontiert. Typische Fehlerquellen der diagnostischen Bildgebung sind in der Übersicht zusammengefasst.
Typische Fehlerquellen der medizinischdiagnostischen Bildgebung
▬ Die Komplexität des exakten Modells der Thermore-
▬ ▬ ▬ ▬
▬
▼
gulation. Selbst die einfache Bio-Wärme-Gleichung von Pennes (Pennes 1948), die bereits einen Perfusions- und Metabolismusterm besitzt ist, stellt ein schlecht gestelltes mathematisches Problem dar. Die patienten-abhängige Variabilität des Thermoregulationsprozesses (verursacht durch unterschiedliche Bio-Feedback-Zeitkonstanten). Die Genauigkeit der spektralen Spezifikation sowie die Auflösung der IR-Kamera. Die aktive IR-Bildgebung ist in Bezug auf die thermische Provokation nicht standardisiert. Die thermische Signatur bei Hautkrebs besitzt eine Unsicherheit in Bezug auf die potenzielle Änderung des Emissionskoeffizienten verdächtiger Hautveränderungen bei Thermoregulation. Der Zusammenhang zwischen den thermoregulativen Zeitkonstanten und der jeweiligen Menge der applizierten Energie bei der aktiven IR-Bildgebung ist bislang unbekannt.
373 Literatur
▬ Die Inhomogenität und Geschwindigkeitsvariation bei der Energieapplikation bei der aktiven IR-Bildgebung. ▬ Der Einfluss der Rest-Reflexion der Hintergrundstrahlung. ▬ Unzureichende Patienten-Akklimatisierung vor der Diagnostik; patienteninduzierte Unsicherheit: Zeitpunkt der letzten Aufnahme einer warmen Mahlzeit; umgebungsinduzierte Unsicherheit: Instabile Thermoregulation des Untersuchungsraums.
Und nicht zuletzt muss man sich immer wieder ins Gedächtnis zurückrufen, dass man nur die Temperaturverteilung auf der Hautoberfläche sieht. Die IR-Bildgebung dringt natürlich nicht in den Körper ein. Eine Diskussion der technischen Schwierigkeiten bei der medizinischen IR-Bildgebung findet man bei Nowakowski, 2004. Im Übrigen muss an dieser Stelle darauf hingewiesen werden, dass die Mindestanforderungen für radiometrisch messende Wärmebildgeräte in Deutschland durch die Physikalisch-Technische Bundesanstalt festgelegt werden (Hutten 1992).
20.5
Dank
Ich danke der FLIR-Systems GmbH, Frankfurt für die Unterstützung bei den Abbildungen 1 und 4 sowie der Acero AB, Kista, Schweden für die Abbildungen 3e/f. Weiterhin möchte ich Dr. Arcangelo Merla, Functional Infrared Imaging Lab., University »G. d‘Annunzio«, Italien, für Abbildung 5b danken.
Literatur Dereniak EL, Boreman GD (1996) Infrared Detectors and Systems. John Wiley & Sons, New York Dössel O (2000) Bildgebende Verfahren in der Medizin. Springer-Verlag, Berlin Esaki L, Sakaki H (1977) IBM Tech. Disc. Bull. 20: 2456 Furukawa T (2004) Biological Imaging and Sensing. Springer-Verlag, Berlin Gunapala SD, Bandara SV (1999) Quantum Well Infrared Photodetector (QWIP) Focal Plane Array (FPA). Semiconductors and Semimetals 62: 197 Holst GC (1998) Testing and Evaluating of Infrared Imaging Systems. JCD Publishing, Winter Park Hornak JP (2002) Encyclopedia of Imaging Science and Technology. John Wiley & Sons, New York Hutten H (1992) Biomedizinische Technik. Bd. 1. Springer-Verlag, Berlin Levine BF (1993) J. Appl. Phys. 74: R1 Merla A, Di Donato L, Romani GL (2002) Proceedings of the 24th Annual International Conference of the IEEE EMBS (2002), 1142
Nowakowski AZ (2004) Proceedings of the 26th Annual International Conference of the IEEE EMBS (2004), 1179 Pennes HH (1948) Journal of Applied Physiology, vol. 1, no. 2: 93 Schumann S, Pfaffmann L, Marklewitz M, Reinhold U, Ruhlmann J, Buzug TM (2005) Skin-Cancer Detection Using Thermographic Images. Biomedizinische Technik 50, suppl. Vol 1, part 2: 1529 Schuster N, Kolobrodov VG (2000) Infrarotthermographie. Wiley-VCH, Weinheim
20
21 Langzeitbeatmungsgeräte für die Intensivtherapie T. Peyn 21.1 Aufgaben des Beatmungsgerätes und Ziele der Beatmung – 377 21.2 Funktion und Komponenten eines Langzeitbeatmungsgerätes – 378 21.3 Technische Realisierung
– 382
21.3.1 Continuous-Flow-Systeme – 382 21.3.2 Demand-Flow-Systeme – 382 21.3.3 Kombinierte Flowsysteme – 383
21.4 Steuerung des Beatmungsgerätes – 383 21.5 Beatmungsverfahren
– 384
21.5.1 Kontrollierte Beatmung (vollständige temsubstitution) – 384 21.5.2 Assistierte Spontanatmung – 386 21.5.3 Spontanatmung (keine Atemunterstützung) – 389 21.5.4 Misch-Ventilation (partielle Atemunterstützung in Kombination mit kontrollierten Beatmungsphasen) – 389
21.6 Beatmungszusätze und Sonderfunktionen – 393 21.6.1 IRV – Inverse Ratio Ventilation – möglich in volumen- und druckkontrollierter Beatmung – 393 21.6.2 Seufzer – ausschließlich in IPPV, IPPVAssist und ILV verfügbar – 393 21.6.3 AutoFlow – optional verfügbar in allen volumenkontrollierten Beatmungsmodi – 394 21.6.4 ATC – automatische Tubuskompensation, optional verfügbar in allen Beatmungsmodi TC – Tubuskompensation – 394 21.6.5 NIV-Maskenbeatmung – Non Invasive Ventilation – 395 21.6.6 Apnoeventilation, Backup Ventilation – 396
21.7 Patientenüberwachung und Alarmgrenzen – 396 21.8 Entwöhnungsstrategie und SmartCare – verfügbar in CPAP/ASB – 397 Weiterführende Literatur – 398
21.1
Aufgaben des Beatmungsgerätes und Ziele der Beatmung
Die in den Körperzellen kontinuierlich ablaufenden Stoffwechselprozesse erfordern die permanente Versorgung der Zellen mit Sauerstoff und Nährstoffen. Gleichzeitig müssen die Reaktionsprodukte Kohlendioxid und Wasser abtransportiert und ausgeschieden werden. In diesem Zusammenhang übernehmen die Lunge und der Blutkreislauf ganz wesentliche Funktionen, da sie die Zellen mit den entsprechenden Versorgungs- und Entsorgungssystemen verbinden. Um den Körper mit sauerstoffreicher Luft zu versorgen, vergrößert sich das Lungenvolumen bei der Einatmung. Es kommt so während der Inspiration zu einem Druckeinbruch in der Lunge, durch den die atmosphärische Luft in die Lunge hineingesaugt wird. Der umgekehrte Fall tritt in der Ausatemphase, der Exspiration, ein. Thorax und Atemmuskeln kehren in die Ruhelage zurück, das Lungenvolumen nimmt ab. Der resultierende, intrapulmonale Druckanstieg führt dazu, dass das kohlendioxidreiche Ausatemgas abgeatmet wird. Im Ruhezustand wiederholt sich dieser Vorgang beim Erwachsenen ca. 10–20-mal pro Minute. Bei einem Körpergewicht von 75 kg variiert das pro Atemzug bewegte Volumen (Atemzugvolumen, AZV) zwischen ca. 350 und 850 ml. Berücksichtigt man zusätzliche körperliche Aktivitäten, bei denen die Atmung um ein Vielfaches gesteigert werden kann, ist es durchaus möglich, dass unsere Atemmuskulatur im Laufe eines Tages eine Gesamtluftmenge von 10.000 bis
15.000 Litern bewegt. Die Zahlen unterstreichen den elementaren Stellenwert unseres Atemapparates für den Gesamtorganismus. Kommt es im Zusammenspiel der an der Atmung beteiligten Organe und Muskeln zu Störungen, können Beatmungsgeräte die zu verrichtende Atemarbeit vollständig oder, sofern der Patient z. B. lediglich zu flach atmet, auch nur anteilig übernehmen. Die zahlreichen Gründe, die den Einsatz eines Beatmungsgerätes erfordern können, lassen sich prinzipiell fünf verschiedenen Problemkreisen zuordnen (⊡ Tab. 21.1). Neben den hier genannten Beispielen kann die Anwendung eines Beatmungsgerätes auch durch die unerwünschte atemdepressive Wirkung starker Schmerzmittel oder durch den Einsatz von Muskelrelaxanzien erforderlich sein. Die angeführten Beispiele verdeutlichen bereits, dass Patienten aus recht unterschiedlichen Gründen darauf angewiesen sein können, dass ihnen Atemgas über spezielle Gasdosiereinrichtungen zugeführt wird. Hierbei ist zu unterscheiden, ob der Patient noch spontan atmet und vielleicht nur auf eine erhöhte Sauerstoffkonzentration aus einem Atemtherapiegerät angewiesen ist, oder ob die zu verrichtende Atemarbeit nicht mehr geleistet werden kann und von einem Beatmungsgerät erbracht werden muss. Unabhängig jedoch von der vorliegenden Atemstörung übernimmt ein Langzeitbeatmungsgerät in allen Anwendungsfällen eine lebenserhaltende Funktion. Vor diesem Hintergrund muss das Beatmungsgerät im Wesentlichen drei unterschiedliche Aufgaben erfüllen:
378
III
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
1. Oxygenierung des Patienten Bereitstellung und Versorgung des Patienten mit einem Sauerstoff-Luft-Gemisch 2. Partielle oder totale Übernahme der Atemarbeit Erzeugung und Dosierung definierter Gasflows bzw. Beatmungsdrucke 3. Überwachung des Gerätes und des Patienten Generierung von Alarmen und Visualisierung von Veränderungen Die Beatmungstherapie verfolgt primär das Ziel, die Atemarbeit des Patienten zu unterstützen oder zu ersetzen und so einen effizienten Gasaustausch zu gewährleisten. Der Anwender eines Beatmungsgerätes hat daher Sorge zu tragen, dass die von ihm gewählte Geräteeinstellung den Patienten adäquat mit Sauerstoff versorgt und die Ventilation das im Körper anfallende Kohlendioxid hinlänglich reduziert. Die erforderliche Effizienzkontrolle erfolgt mittels arterieller Blut-Gas-Analyse ( Kap. 39 »Respiratorisches Monitoring«). Dem Therapeuten wird mit einem Langzeitbeatmungsgerät gleichzeitig ein Arbeitsmittel an die Hand gegeben, mit dessen Hilfe er die Atemmuskulatur des Patienten trainieren und stärken kann, sodass der Patient schrittweise daran gewöhnt wird, die zu leistende Atemarbeit eigenständig zu erbringen. Dieser Entwöhnungsprozess (auch Weaning genannt) kann sich über Stunden, Tage oder auch Wochen hinziehen. Ein Grund für diese Varietät ist in der unterschiedlichen Beatmungsdauer zu sehen, bei der es zu einer Rückbildung (Atrophie) der Atemmuskulatur kommen kann. Ferner wird die Dauer der Entwöhnungsphase durch das Krankheitsbild des Patienten, den Gesundungsfortschritt sowie die klinische Gesamtsituation beeinflusst (⊡ Abb. 21.1).
21.2
einwirkenden Kraft, durch die das Atemgas in die Lunge befördert wird. Die künstliche Beatmung lässt sich somit durch die Dosierung definierter Gasflows und durch die Erzeugung positiver Drücke realisieren. Verglichen mit der Spontanatmung ergibt sich so ein gravierender Unterschied. Während der intrapulmonale Druck bei der Spontanatmung in etwa um die Nulllinie des atmosphärischen Druckes herum pendelt, wird das Atemgas bei einer künstlichen Beatmung mit einem positiven Druck in die Lunge befördert. Als Verbindung zwischen Beatmungsgerät und Patient dient ein Schlauch- bzw. Atemsystem, dass im Falle klinischer Langzeitbeatmungsgeräte i. d. R. als Zwei-Schlauchsystem ausgeführt ist (ein Inspirations- und ein Exspirationsschlauch). Die Verbindung des Patienten mit dem Beatmungssystem ist prinzipiell sowohl über eine Gesichtsmaske, als auch über einen in die Luftröhre einzuführenden Tubus möglich. Unter Abwägung der näheren Begleitumstände, wie z. B. der voraussichtlichen Beatmungsdauer, wird der Anwender sich für das eine oder andere Verfahren entscheiden und den Patienten medikamentös auf die jeweilige Situation einstellen.
Funktion und Komponenten eines Langzeitbeatmungsgerätes
Um eine gestörte Atemfunktion zu unterstützen bzw. zu ersetzen, bedarf es einer von außen auf den Patienten
⊡ Abb. 21.1. Intensiv-Beatmungsgerät (Quelle: EvitaXL, Dräger Medical AG & Co. KG)
⊡ Tab. 21.1. Gründe für den Einsatz von Beatmungsgeräten Grund zur Beatmung
Beispiele für mögliche Ursachen
Funktionelle Einschränkungen der Atemmuskulatur
z. B. aufgrund einer muskulären Verletzung oder Lähmung
Pathophysiologische Veränderungen der Atemwege und/oder des Lungengewebes
z. B. aufgrund erhöhter Atemwegswiderstände und/oder einer verminderten Lungendehnbarkeit
Störungen der Atemmechanik
z. B. im Falle von Thoraxverletzungen
Gasaustausch-/ Diffusionsstörungen
z. B. durch Ansammlung pulmonaler Flüssigkeit oder durch Veränderung der Alveolar-Membran
Störungen der Atemregulation
z. B. aufgrund einer neurologischen Störung, kranialer Erkrankung bzw. Verletzung
379 21.2 · Funktion und Komponenten eines Langzeitbeatmungsgerätes
Für die technische Realisierung eines Langzeitbeatmungsgerätes bedarf es verschiedener Systemkomponenten, deren Anordnung in ⊡ Abb. 21.2 schematisch dargestellt ist. ▬ Energieversorgung: Um ihre Funktion erfüllen zu können, benötigen Beatmungsgeräte elektrische Energie, Sauerstoff und Druckluft. Die Versorgung der Geräte erfolgt im Regelfall über eine externe Spannungsquelle sowie über die zentrale klinische Gasversorgung (ca. 3–6 bar Versorgungsdruck). In Funktionsbereichen, die über keine zentrale Gasversorgung verfügen, oder auch auf innerklinischen Transporten ist es erforderlich, den Gerätebetrieb anderweitig zu gewährleisten. Als mögliche Lösungen stehen hierfür separate Druckluftkompressoren, Druckgasflaschenpakete und Akkumulatoren zur Verfügung. Darüber hinaus kommen zunehmend auch druckluftunabhängige Beatmungsgeräte, die die Beatmung durch Filterung und Mitverwendung der Umgebungsluft realisieren, zur Anwendung. Derartige Ventilatoren benötigen zum Betrieb dann lediglich eine Sauerstoffquelle sowie eine Energieversorgung.
▬ Der Gasmischer ermöglicht es dem Anwender, die
Sauerstoffkonzentration des Inspirationsgases zwischen 21 und 100 Vol.-% zu variieren. Während Beatmungsgeräte in der Vergangenheit häufig über externe, mechanische Gasmischer versorgt wurden, hat sich im Laufe der technischen Entwicklung der elektronisch geregelte und in das Beatmungsgerät integrierte Gasmischer durchgesetzt. Häufig hat der Gasmischer eine Doppelfunktion und ist auch dafür verantwortlich, dass das zu applizierende Atemgas in der benötigten Menge und mit der erforderlichen Geschwindigkeit erzeugt und geliefert wird. Hierbei sind es gerade die Grenzbereiche, die dieses Dosiersystem vor besondere Herausforderungen stellen. Erfordert die Ventilation bspw. ein Volumen von 20 ml mit einer Sauerstoffkonzentration von 30 Vol.-%, müssen über das Druckluftventil 17,7 ml und über das Sauerstoffventil 2,3 ml Gas dosiert werden. ▬ Der Druck- bzw. Flowgenerator hat die Aufgabe, das vom Gasmischer bereitgestellte Mischgas entsprechend der an der Bedieneinheit eingestellten Beatmungsparameter zu dosieren. Gasflow bzw. Druck
⊡ Abb. 21.2. Komponenten eines Langzeitbeatmungsgerätes
21
380
III
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
können im einfachsten Fall manuell durch einen Handbeatmungsbeutel erzeugt werden. Technisch vergleichbare Verfahren sind in Ventilatoren älterer Bauart und Narkosebeatmungssystemen anzutreffen. In diesen Geräten generieren mechanisch bewegliche Teile, wie z. B. Faltenbälge oder Kolbenpumpen, den inspiratorischen Gasfluss. Neuzeitliche Intensiv-Beatmungsgeräte hingegen verfügen über kombinierte Gasmisch- und Dosiereinrichtungen, die die benötigten Gasmengen unmittelbar aus den Gasversorgungssystemen heraus zur Verfügung stellen. Aus technischer Sicht kann diese Komponente als Flow- oder Druckgenerator ausgestaltet sein. Bei einem Flowgenerator handelt es sich um ein geregeltes Ventil, an dessen Ausgang ein definierter Gasflow zur Verfügung steht, der Ausgangsdruck ist nicht spezifiziert. Ein Druckgenerator hingegen entspricht in seinem Verhalten einem Kompressor, an dessen Ausgang ein definierter Druck mit einem nicht spezifizierten Gasflow zur Verfügung gestellt wird. Druckgeneratoren werden häufig für den Antrieb von druckluftunabhängigen Beatmungsgeräten verwendet und nutzen die angesaugte Umgebungsluft für die Beatmung des Patienten. ▬ Das Atemsystem bildet die Schnittstelle zwischen dem Patienten und dem Beatmungsgerät. Klinische Langzeitbeatmungsgeräte werden üblicherweise über einen Inspirations- und einen Exspirationsschlauch mit dem Patienten verbunden (Zwei-Schlauchsystem). Während der Inspirationsphase wird das exspiratorische Ausatemventil verschlossen. Der dann aus der Inspirationstülle abströmende Gasflow wird, bevor er in die Lunge des Patienten gelangt, über einen Atemgasbefeuchter geführt und so klimatisch den Verhältnissen in der Patientenlunge angepasst (Näheres hierzu unter »Atemgasbefeuchter«). Die Ausatmung des Patienten erfolgt nach Abschluss der Inspirationsphase durch Öffnen des exspiratorischen Ausatemventils. Das Exspirationsgas passiert damit noch einmal das Beatmungsgerät, wird jedoch nicht wie bei Narkosebeatmungsgeräten für die nächste Inspiration mitverwendet. Basierend auf diesem Charakteristikum werden die Atemsysteme der Langzeitbeatmungsgeräte auch als »Nicht-Rückatemsysteme« bezeichnet. Der Vollständigkeit halber sei erwähnt, dass in einzelnen klinischen Funktionsbereichen Beatmungsgeräte mit »Ein-Schlauchsystemen« anzutreffen sind. Auch bei diesen Systemen handelt es sich um Nicht-Rückatemsysteme, allerdings ist das Ausatemventil in diesem Fall nicht geräteseitig, sondern patientennah positioniert. Einer durch den Einzelschlauch erleichterten Handhabung steht damit ein im Gesichtsfeld des Patienten angeordnetes Ausatemventil entgegen. Entsprechend der individuellen Produktanforderun-
gen haben sich in den Bereichen Notfall- und Homecare-Beatmung Beatmungsgeräte mit Einschlauchsystemen durchgesetzt. Auf Intensivstationen dagegen überwiegen, auch aufgrund einer hier geforderten exspiratorischen Volumen-Überwachung, Beatmungsgeräte mit Zwei-Schlauchsystemen. ▬ Atemgasanfeuchter dienen der Erwärmung und der Befeuchtung des Inspirationsgases. Da das trockene und relativ kühle Versorgungsgas die Atemwege des Patienten austrocknen und damit das Flimmerepithel irreversibel schädigen würde, ist es zwingend erforderlich, das Beatmungsgas auf dem Weg zum Patienten über ein Klimatisierungssystem zu befeuchten und zu erwärmen. Hierfür stehen aktive oder passive Atemgasanfeuchter zur Verfügung. Aktive Atemgasbefeuchter sind im Inspirationsschenkel angeordnet und erwärmen mittels elektrischer Energie ein Wasserbad, über das das Atemgas hinweggeführt wird. Bei dem Kontakt mit dem Wasserbad nimmt das kalte und trockene Gas Wassermoleküle auf und wird so klimatisiert. Passive Atemgasbefeuchter, sog. HME (»Heat and Moisture Exchanger«), hingegen werden patientennah, also zwischen Tubus und Y-Stück eingesetzt. Es handelt sich hierbei um Produkte, die aufgrund ihrer Beschaffenheit in der Lage sind, die im Ausatemgas enthaltende Wärme und Feuchtigkeit aufzunehmen und zu speichern. Das den passiven Atemgasanfeuchter während der nächsten Einatmung durchströmende Inspirationsgas wird dann mittels der zuvor gespeicherten Feuchte klimatisiert. Die gleichzeitige Verwendung eines HMEs zusammen mit einem aktiven Atemgasanfeuchter in einem Atemsystem ist unzulässig, da sie den Widerstand des HMEs erheblich beeinträchtigen würde. HMEs werden umgangssprachlich fälschlicherweise auch als »Filter« bezeichnet, haben mit diesen jedoch nichts gemeinsam, sofern sie nicht zusätzlich auch eine hygienische Funktion erfüllen (z. B. HMEs mit intergriertem Mikrobenfilter). ▬ Dem Exspirationsventil fallen, außer der bereits beschriebenen Umschaltfunktion, zwei weitere bedeutsame Aufgaben zu. Wird das Ventil während der Exspiration nicht vollständig geöffnet, kommt es in der Lunge zu einem positiven endexspiratorischen Druck (Positive End-Expiratory Pressure). Dieser PEEPDruck ist von therapeutischer Bedeutung, da er die Gasaustauschfläche der Lunge vergrößert. Darüber hinaus kann durch einen adäquaten PEEP das Kollabieren einzelner Alveolarbezirke vermieden werden. Eine weitere Funktion kann das Exspirationsventil erfüllen, sofern das Beatmungsgerät den Ventilsteuerdruck auch während der Inspirationsphase regelt. In diesem Fall können ungewollte Druckanstiege im Atemsystem, z. B. durch einen Hustenstoß des Patienten, durch das Ausatemventil ausgeglichen werden.
381 21.2 · Funktion und Komponenten eines Langzeitbeatmungsgerätes
▬ Die Bedien- und Anzeigeeinheit bildet die Schnitt-
stelle zwischen dem Beatmungsgerät und dem Anwender. Oftmals handelt es sich um TouchscreenBildschirme, auf denen sich Druck- und Flowkurven sowie unterschiedliche Menüs, z. B. für die Einstellung der verschiedenen Beatmungsmodi, die Anpassung der Alarmgrenzen oder auch Messwertübersichten, darstellen lassen. Die an der Bedieneinheit vorgenommenen Parametereinstellungen dienen den übrigen Gerätekomponenten als Ansteuersignale und prägen so entscheidend das auf den Patienten einwirkende Beatmungsmuster. ▬ Die Überwachungs- und Alarmeinrichtung wacht darüber, dass die an der Bedien- und Anzeigeeinheit eingestellten Beatmungsparameter tatsächlich zur Anwendung gelangen. Gleichzeitig macht sie den Anwender durch akustische und optische Alarmierung auf kritische patientenseitige Veränderungen oder technische Betriebsstörungen aufmerksam. Gemessen werden die inspiratorische Sauerstoffkonzentration (Funktionskontrolle des Gasmischers) sowie der Beatmungsdruck und das Beatmungsvolumen (Überwachung des Druck-/ Flowgenerators). Zusätzlich ist bei der Verwendung eines aktiven Atemgasanfeuchters eine inspiratorische Atemgastemperaturmessung mit Alarmierungseinrichtung obligatorisch (Kontrolle der Atemgastemperatur). Auf die Erläuterung der Sensorik sowie der verschie-
⊡ Abb. 21.3. Funktionsprinzip eines Langzeitbeatmungsgerätes
denen Messprinzipien wird an dieser Stelle bewusst verzichtet, da diese Thematik in Kap. 24 »Anästhesiegeräte« ausführlich behandelt wird. ▬ Das Patientenmonitoring überwacht die Vitalfunktionen des Patienten. Hierzu zählen z. B. das EKG, der Blutdruck (nicht-invasiv und/oder invasiv), die Sauerstoffsättigung und vielfach auch die Messung der Kohlendioxidkonzentration im Atemgas. Obgleich auf Patientenmonitoren vereinzelt auch Beatmungsdaten dargestellt werden, sind diese Geräte als eigenständige Anzeigeeinheit mit Alarmeinrichtung anzusehen. Das Patientenmonitoring ist damit eine wesentliche Ausstattungskomponente des intensivmedizinischen Arbeitsplatzes, jedoch nicht Bestandteil des Beatmungsgerätes. Weitere Informationen hierzu sind Kap. 36 »Patientenüberwachungssysteme« zu entnehmen. Das Funktionsprinzip eines Langzeitbeatmungsgerätes ist in ⊡ Abb. 21.3 dargestellt. Ein kontrollierter Beatmungszyklus wird in diesem Beispiel durch das Verschließen des Exspirationsventils eingeleitet. Das Beatmungsgerät öffnet im nächsten Schritt das Mischersystem HPSV (High Pressure Servo Valve), das die korrekte Gasmischung und -dosierung gewährleistet. Die Gaslieferung wird eingestellt, sobald das vom Anwender vorgegebene Abschaltkriterium erfüllt wurde (Tidalvolumen oder Inspirati-
21
382
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
onsdruck). Nach Ablauf der vom Anwender gewählten Inspirationszeit erfolgt die Umschaltung auf Exspiration durch Öffnung des Exspirationsventils. Das Exspirationsgas strömt aufgrund des Druckgefälles zum atmosphärischen Druckniveau in Richtung des Exspirationsventils und verlässt das Atemsystem über den nachgeschalteten Flowsensor.
III
21.3
Technische Realisierung
Beatmungsgeräte lassen sich aufgrund ihres Gasflowverhaltens unterscheiden. Neben Geräten, die die Ventilation durch einen kontinuierlichen Gasflow (Continuous-FlowSysteme) realisieren, kommen sog. Demand-Flow-Geräte zur Anwendung, die lediglich während der Inspirationsphase einen Gasflow liefern.
Mit Umschaltung auf Exspiration öffnet das Exspirationsventil und der Druck im Atemsystem fällt auf den Umgebungs- bzw. den PEEP-Druck zurück. Das Atemgas verlässt die Lunge durch das bestehende Druckgefälle, mischt sich mit dem Konstantflow und strömt am Exspirationsventil ab. In der Praxis haben sich ContinuousFlow-Systeme vorzugsweise in der Neonatal-Beatmung und in der Atemtherapie durchgesetzt. Atemtherapieoder auch CPAP-Geräte (Continuous Positive Airway Pressure) unterscheiden sich von den Beatmungsgeräten dadurch, dass ihr Ausatemventil lediglich einen konstanten, positiven Druck erzeugen kann. Die Anwendung eines Atemtherapiegerätes ist damit spontan atmenden Patienten, die z. B. auf eine erhöhte Sauerstoffkonzentration angewiesen sind, vorbehalten (⊡ Abb. 21.4).
21.3.2 Demand-Flow-Systeme 21.3.1 Continuous-Flow-Systeme
Über Dosierventile wird den Druckgasquellen ein kontinuierlicher Sauerstoff- und Druckluftflow entnommen. Dieser Gasflow wird über einen Inspirationsschlauch zum Patienten und von dort über einen Exspirationsschlauch zu einem Exspirationsventil geleitet. Ein spontan atmender Patient hat somit stets die Möglichkeit, seinen Luftbedarf aus dem Gasflow zu decken. Muss der Patient beatmet werden, wird das Exspirationsventil für eine definierte Zeit verschlossen. Es kommt so zu einem Druckanstieg im Atemsystem und der Gasflow gelangt in die Lunge des Patienten. Der inspiratorische Beatmungsdruck wird durch ein einstellbares Druckbegrenzungsventil limitiert.
⊡ Abb. 21.4. Continuous-Flow-System
Im Gegensatz zu den eingangs beschriebenen Continuous-Flow-Systemen liefern Demand-Flow-Systeme ausschließlich während der Inspirationsphase einen Gasflow. Im Falle einer kontrollierten Beatmung erfolgt die Taktung des Gasflows i. d. R. nach dem vom Anwender vorgegebenen Zeitmuster (zeitgesteuerte Beatmung). Dieses kann, je nach Bedienphilosophie des Gerätes, durch Regler z. B. für die In- und Exspirationszeit, festgelegt werden. Die Beantwortung spontaner Atemaktivitäten wird bei Demand-Flow-Systemen durch die Implementierung eines Auslöse- bzw. Trigger-Kriteriums realisiert (vgl. hierzu Abschn. 21.4 »Steuerung des Beatmungsgerätes« und Abschn. 21.5 »Beatmungsverfahren«). Demand-Flow-Systeme reduzieren den Gasverbrauch erheb-
383 21.4 · Steuerung des Beatmungsgerätes
lich und sind daher auch in Inhalationsapparaten, die die Einatemtiefe des Patienten fördern und/oder inspirationssynchron Aerosole applizieren, anzutreffen (⊡ Abb. 21.5).
21.3.3 Kombinierte Flowsysteme
Aus technischen Gründen oder auch aufgrund besonderer Betriebsanforderungen werden in einzelnen Beatmungsgeräten kombinerte Flowsysteme verwendet. Diese liefern, verglichen mit dem Gasbedarf des Patienten, einen geringen Konstant- oder auch Basisflow von einigen Litern pro Minute. Mit Auslösung der Inspiration erhöhen diese Systeme dann den Gasflow entsprechend dem jeweiligen Bedarf. Kombinierte Flowsysteme sind z. B. in Beatmungsgeräten anzutreffen, die das gesamte Patientenspektrum vom Frühgeborenen bis zum Erwachsenen abdecken müssen.
21.4
Steuerung des Beatmungsgerätes
Inspirationsauslösung Die Auslösung einer Inspirationsphase erfolgt in kontrollierten Beatmungsmodi, wie bereits dargestellt, mandatorisch nach Ablauf der Exspirationszeit. In assistierenden Beatmungsmodi hingegen, in denen das Beatmungsgerät die Atembemühungen des Patienten lediglich unterstützt, muss das Beatmungsgerät die Atemaktivitäten des Patienten erkennen und einen adäquaten Gasflow bereitstellen. Als Detektor für die Spontanatembemühungen fungiert der Trigger des Beatmungsgerätes. Es handelt sich hierbei
⊡ Abb. 21.5. Demand-Flow-System
um eine Gerätefunktion mit einem vom Anwender einstellbaren Schwellwert (die sog. Triggerschwelle). Obgleich die Spontanatemaktivität des Patienten sich in Druckund Flowveränderungen im Atemsystem widerspiegelt und prinzipiell beide Signale als Triggerkriterium verwendet werden könnten, kommen in heutigen Ventilatoren aufgrund ihrer geringeren Artefaktneigung überwiegend Flowtriggersysteme zur Anwendung. In diesem Fall reagiert der Ventilator auf das vom Patienten erzeugte Flowsignal, und die Triggerschwelle ist in l/min einstellbar.
Umschaltverhalten Das Umschaltverhalten des Beatmungsgerätes von In- auf Exspiration bzw. umgekehrt wird entscheidend durch die Steuerung des Langzeitbeatmungsgerätes geprägt. Es sind diesbezüglich vier verschiedene Steuerungsarten zu unterscheiden: ▬ Zeitsteuerung (vereinzelt auch als Zeit-Zeit-Steuerung bezeichnet): Die Dauer der In- und Exspirationsphase und damit auch der Zeitpunkt des Umschaltens wird durch vom Anwender einstellbare Zeitparameter bestimmt. Kontrollierte Beatmungsverfahren werden häufig durch diesen Steuerungstyp verwirklicht, da es so möglich ist, den Patienten mit einem definierten Atemzeitverhältnis (Inspirations- zu Exspirationszeit) zu beatmen. ▬ Drucksteuerung: Bei der Drucksteuerung erfolgt die Umschaltung von In- auf Exspiration bei Erreichen eines bestimmten Beatmungsdruckes. Die Inspiration kann nach Ablauf einer Zeitphase (Druck-Zeit-Steu-
21
384
III
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
erung) oder aber durch eine Patientenaktivität und Erreichen des Triggerkriteriums ausgelöst werden. Die Drucksteuerung wird heute lediglich bei unzulässig hohen Druckanstiegen in Verbindung mit einem akustischen Alarm als Sicherheitselement verwendet. ▬ Volumensteuerung: Die Umschaltung von In- auf Exspiration erfolgt hier nach Ablieferung eines vom Anwender zu definierenden Beatmungsvolumens (Atemzugvolumen, Tidalvolumen). Wie bei der Drucksteuerung kann die nächste Inspiration nach Ablauf einer Zeitphase (Volumen-Zeit-Steuerung) oder aber durch eine Patientenaktivität ausgelöst werden. Die Volumensteuerung ist vereinzelt in unterstützenden, in amerikanisch geprägten Märkten jedoch auch in kontrollierten Beatmungsmodi, anzutreffen. ▬ Flowsteuerung: Diese Steuerung wird primär für unterstützende Beatmungsverfahren eingesetzt und leitet bei Unterschreiten eines definierten Flowwertes (bei »Evita« z. B. 25% des inspiratorischen Spitzenflows) die Exspirationsphase ein. Der Inspirationsbeginn wird im Falle der Flowsteuerung grundsätzlich durch die Spontanatmung des Patienten und Auslösung des Triggers bestimmt.
21.5
Beatmungsverfahren
Prinzipiell gilt, dass Beatmungsgeräte trotz einer nahezu unüberschaubaren Anzahl von Beatmungsmodi lediglich zwei verschiedenen Verhaltensmustern folgen können. Hierbei handelt es sich einerseits um kontrollierte, andererseits um assistierende Beatmungsverfahren. Der wesentliche Unterschied zwischen diesen Verfahren ist, dass das Verhalten des Beatmungsgerätes in der kontrollierten (mandatorischen) Beatmung durch die vom Anwender eingestellten Beatmungsparameter definiert wird. Hingegen folgt das Beatmungsgerät bei der assistierten Beatmung den Atemaktvitäten des Patienten und unterstützt diese lediglich durch Anhebung des Druckes im Atemsystem. Abwandlungen dieser zwei Beatmungsverfahren sind die reine Spontanatmung, bei der kein Unterstützungsdruck angewandt wird und die so genannte MischVentilation, bei der mandatorische und assistierende Abschnitte alternieren. ⊡ Abb. 21.6 gibt einen Überblick über die verschiedenen Formen der Atmung/ Beatmung und verdeutlicht die medizinische Notwendigkeit einer individuellen Beatmungstherapie.
21.5.1 Kontrollierte Beatmung
(vollständige Atemsubstitution) Die dieser Kategorie zugehörigen Beatmungsmodi werden dadurch charakterisiert, dass die Patienten nicht spontan atmen und das Beatmungsgerät die gesamte Atemarbeit
übernimmt. Die verschiedenen Modi lassen sich in volumenkontrollierte Modi (z. B. IPPV, CMV, Vol.kontr.) und druckkontrollierte Modi (z. B. PC, PCV, BIPAP*, APRV, Druckkontr.) unterteilen. Volumenkontrollierte Modi sind dadurch gekennzeichnet, dass der Patient durch ein vom Anwender definiertes Atemvolumen beatmet wird. Es resultiert bei der volumenkontrollierten Beatmung ein Beatmungsdruck, der Rückschlüsse auf die Lungendehnbarkeit (Compliance) und Atemwegswiderstände (Resistance) zulässt. Im Gegensatz hierzu gibt der Anwender bei den druckkontrollierten Modi einen inspiratorischen Beatmungsdruck vor. Im Umkehrschluss ermöglicht bei diesen Modi nicht der Beatmungsdruck, sondern das Atemvolumen Erkenntnisse bezüglich des Zustandes der Patientenlunge. * Hinweis: Lizensierte Marke
Volumenkontrollierte Beatmung IPPV – Intermittent Positive Pressure Ventilation CPPV – Continuous Positive Pressure Ventilation (VC-) CMV – Controlled Mandatory Ventilation VCV – Volume Controlled Ventilation Volume Mode
Dieser Modus ist z. B. für lungengesunde Patienten ohne Spontanatmung geeignet. Achtung: In diesem Modus reagiert das Gerät nicht auf evtl. Spontanatemaktivitäten des Patienten. Zeitlicher Verlauf von In- und Exspiration: Mit Beginn der Inspiration schließt der Ventilator das Exspirationsventil und liefert den am »Flow«-Einsteller gewählten (konstanten) Inspirationsflow. Es kommt somit im Atemsystem und in der Lunge zum Druckanstieg. Wird der Inspirationsflow so groß gewählt, dass das eingestellte Atemvolumen »VT« vor Ablauf der Inspirationszeit »Tinsp« erreicht wird, schließt das Inspirationsventil und die Atemgaslieferung stoppt. Aufgrund eines Druckausgleichs zwischen dem Atemsystem und der Patientenlunge sinkt der Beatmungsdruck vom Spitzendruck PPeak auf den Plateaudruckwert PPlat ab. Das Exspirationsventil bleibt geschlossen bis die Inspirationszeit »Tinsp« abgelaufen ist. Diese inspiratorische Pause (Insp. Pause) ist in der Druckkurve als Plateaudruckphase PPlat zu erkennen. Mit Ablauf der Inspirationszeit »Tinsp« öffnet das Exspirationsventil. Der Druck im Atemsystem fällt damit auf das vom Exspirationsventil erzeugte PEEP-Druckniveau ab. Das Ausatemgas verlässt die Lunge und wird über den Exspirationszweig des Beatmungsgerätes der Atmosphäre zugeführt. Nach Ablauf der Exspirationsphase, deren Länge durch die Einstellung des Frequenzreglers »f« bestimmt wird, folgt die nächste Inspiration. Zur Vermeidung von Druckspitzen kann der inspiratorische Arbeitsdruck des Beatmungsgerätes über den Regler »Pmax« ggf. begrenzt werden. Die Druckbegrenzung steht, sofern am Gerät vorhanden, in allen volumenkontrollierten Beatmungs-
385 21.5 · Beatmungsverfahren
⊡ Abb. 21.6. Formen der Atmung/ Beatmung
modi zur Verfügung. Der in diesem Zusammenhang verwendete Begriff »PLV« (Pressure Limited Ventilation) sagt damit nichts über den aktuell wirksamen Beatmungsmodus aus. Die in der Grafik verwendete Abkürzung PAW steht für den englischen Begriff »Airway Pressure« (⊡ Abb. 21.7). Der Anwender sollte sich vergegenwärtigen, dass es in diesem Beatmungsmodus beim plötzlichen Einsetzen der Spontanatmung zu schweren Dissynchronien zwischen Patient und Beatmungsgerät kommen kann. Der Patient kämpft in so einem Fall mit seiner Spontanatmung regelrecht gegen das mandatorische Beatmungsmuster an. Die Aktivierung der Triggerfunktion (IPPVAssist bzw. CMVAssist oder AC für Assist Control) kann dieses Defizit zwar bedingt ausgleichen, jedoch wird das Gerät in dieser Betriebsart jede Einatemanstrengung des Patienten durch Abgabe des eingestellten Beatmungshubes beantworten. Das Ansteigen der Atemfrequenz und des Atemminutenvolumens führen dann zwangsläufig zum Absinken der arteriellen Kohlendioxidkonzentration. Der Atemantrieb wird so gemindert und führt ggf. zum Atemstillstand (Apnoe). Die volumenkontrollierte IPPV bzw. CMV Beatmung verliert zunehmend an Bedeutung, da der Beatmungsmodus SIMV (Misch-Ventilation) eine identische Beatmung ermöglicht, darüber hinaus jedoch zusätzlich über die Merkmale eines Entwöhnungsmodes verfügt (vgl. hierzu Abschn. 21.5.4 »Misch-Ventilation«).
ILV – Independent Lung Ventilation
Bei der ILV-Beatmung handelt es sich um die seitengetrennte Beatmung der Lunge über einen speziellen Doppellumentubus, dessen Anschlüsse jeweils mit einem eigenständigen Beatmungsgerät verbunden werden. Um die Aktionen beider Geräte zeitlich zu synchronisieren, können z. B. die Beatmungsgeräte vom Typ »Evita« über ein spezielles Verbindungskabel elektrisch miteinander gekoppelt werden. Ein Beatmungsgerät übernimmt dann die Funktion des »Masters«, der den Beatmungsrhythmus bestimmt. Entsprechend der gewählten Voreinstellung erfolgt die Beatmung durch das zweite, auch als »Slave« bezeichnete, Beatmungsgerät parallel, zeitlich versetzt oder invers zu den Aktionen des Masters. ILV steht nur als volumenkontrollierte IPPV-Beatmung zur Verfügung.
Druckkontrollierte Beatmung PCV – Pressure Controlled Ventilation (PC-) CMV – Controlled Mandatory Ventilation BIPAP – Biphasic Positive Airway Pressure Pressure Mode
In der klassischen druckkontrollierten Beatmung PCV erfolgt die Ventilation des Patienten durch die vom Anwender gewählten Druckwechselintervalle. Die druckkontrollierte Beatmung nimmt bei der Behandlung von Erwachsenen mit Lungenschädigungen einen wichtigen Stellenwert ein, ist diesen jedoch nicht ausschließlich vor-
21
386
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
III
⊡ Abb. 21.7. IPPV – Intermittent Positive Pressure Ventilation
behalten. Auf der neonatologischen Intensivstation dominiert die druckkontrollierte Beatmung, für die in diesen speziellen Klinikbereichen die Bezeichnung »IPPV« gebräuchlich ist. Bezüglich der Spontanatemeigenschaften bestehen zwischen PCV und BIPAP gravierende Unterschiede. Während Patientenaktivitäten in PCV ungewollte Druckanstiege erzeugen können und zu entsprechenden Alarmen führen, hat der Patient im Beatmungsmodus BIPAP die Freiheit, jederzeit nach Belieben ein- oder auszuatmen (Einzelheiten hierzu Abschn. »Druckkontrollierte Misch-Ventilation«) (vgl. auch ⊡ Abb. 21.8). Zeitlicher Verlauf von In- und Exspiration: Mit Beginn der Inspiration schließt der Ventilator das Exspirationsventil und liefert einen Initialflow, durch den es im Atemsystem zum Druckanstieg kommt. Obgleich der vom Anwender vorgegebene Inspirationsdruck »Pinsp« im Atemsystem sehr schnell aufgebaut wird, bedarf es, bedingt durch den Tubuswiderstand und die Ausdehnung der Lunge, einer deutlich längeren Zeit, bis der im Atemsystem herrschende Druck in der Lunge aufgebaut werden kann. Die sich in dieser Phase kontinuierlich verringernde Druckdifferenz zwischen dem Druck im Atemsystem und dem Druck in der Lunge spiegelt sich in einer dezelerierenden Gasflowlieferung wider. Sobald es zum vollständigen Druckausgleich gekommen ist, wird das Beatmungsgerät die Gasflowlieferung einstellen. Mit Ablauf der Inspirationszeit »Tinsp« öffnet das Exspirationsventil. Der Druck im Atemsystem fällt damit auf das vom Exspirationsventil erzeugte PEEP-Druckniveau ab. Das Ausatemgas verlässt die Lunge und wird über den Exspirationszweig des Beatmungsgerätes der Atmosphäre zugeführt. Nach Ablauf der Exspirationsphase, deren Länge durch die Ein-
stellung des Frequenzreglers »f« bestimmt wird, folgt die nächste Inspiration. Die Zeit, in der das Beatmungsgerät den Druckwechsel vom PEEP-Druck auf das Inspirationsdruckniveau vollzieht, kann durch den Regler »Rampe« (Anstiegsgeschwindigkeit) angepasst werden. Auch in der druckkontrollierten Beatmung besteht die Möglichkeit, den Druckwechsel durch den Patienten triggern zu lassen. Der Mode PCV wird so zu PCVAssist. Im Ergebnis führt dieses dazu, dass das Beatmungsgerät auf jede Einatembemühung des Patienten mit einer mandatorischen Inspirationsphase reagiert. BIPAPAssist verhält sich wie zuvor beschrieben, steht dem Anwender jedoch als separater Beatmungsmode zur Verfügung.
21.5.2 Assistierte Spontanatmung
Prinzipiell haben die dieser Gruppe angehörenden Modi verschiedene Gemeinsamkeiten. Hierzu zählt z. B., dass in der assistierten Spontanatmung allein der Patient über den Inspirationsbeginn, die Einatemtiefe und Inspirationsdauer entscheidet. Darüber hinaus beantwortet das Beatmungsgerät in allen an dieser Stelle beschriebenen Modi eine spontane Atemanstrengung des Patienten durch die Erzeugung eines positiven Druckes im Atemsystem. Die assistierte Spontanatmung wird aus diesem Grund auch »druckunterstützte Spontanatmung« genannt. Im internationalen Sprachgebrauch haben sich die Abkürzungen ASB und PS zwar unterschiedlich durchgesetzt, i. d. R. sind den Anwendern jedoch beide Bezeichnungen geläufig. Die assistierte Spontanatmung ist für Patienten mit geschwächter Atemmuskulatur und intakter Atemsteuerung geeignet.
387 21.5 · Beatmungsverfahren
⊡ Abb. 21.8. PCV – Pressure Controlled Ventilation; BIPAP – Biphasic Positive Airway Pressure
Konventionelle Druckunterstützung ASB – Assisted Spontaneous Breathing PSupp bzw. PS – Pressure Support PSV – Pressure Support Ventilation IHS – Inspiratory Helpsystem IPS – Inspiratory Pressure Support
Zeitlicher Verlauf von Inspiration und Exspiration in ASB (PS): Sobald durch eine Einatemanstrengung der Trigger des Beatmungsgerätes ausgelöst wird, liefert das Beatmungsgerät einen Gasflow und erzeugt den am Einsteller »PASB« (PS) definierten Inspirationsdruck. Die Geschwindigkeit, mit der das Beatmungsgerät den ASB-Druck aufbaut, kann durch den Regler »Rampe« beeinflusst werden. Eine schnelle Anstiegszeit führt zu einem hohen Initialflow und reduziert die Atemarbeit des Patienten. Mit Erreichen des ASB-Druckes und nach Rückgang des inspiratorischen Gasflows auf einen definierten Wert (bei Beatmungsgeräten vom Typ »Evita« 25% des maximalen Inspirationsflows) erfolgt die Umschaltung auf Exspiration. Obgleich der Patient bei diesem Verfahren unabhängig von der Intensität seiner Atemanstrengung stets die gleiche Druck-Unterstützung erhält, können die spontan geatmeten Volumina entsprechend der Aktivität des Patienten variieren (⊡ Abb. 21.9).
Proportionale Druckunterstützung PPS – Proportional Pressure Support PAV – Proportional Assist Ventilation
Bei den Beatmungsmodi PPS und PAV handelt es sich um eine Weiterentwicklung der zuvor im Abschn. »Konventionelle Druckunterstützung« beschriebenen Druckunterstützung. Während das Beatmungsgerät in der konventionellen Druckunterstützung nach Auslösung des Triggers den Unterstützungsdruck selbst dann bereitstellt, wenn der Patient nicht mehr aktiv mitatmet,
unterstützt das Beatmungsgerät in PPS (PAV) den Patienten proportional zu der von ihm geleisteten Atemarbeit. Hieraus resultiert auch die dem natürlichen Verlauf der Spontanatmung folgende auffällige Variabilität der Atemzugvolumina. Grundidee und Ziel der proportionalen Druckunterstützung ist es, dem Patienten exakt den Teil der Atemarbeit abzunehmen, den er selbst nicht zu leisten im Stande ist. Da die zu erbringende Atemarbeit durch die Atemwegswiderstände und die elastischen Rückstellkräfte der Lunge bestimmt wird, kann PPS durch zwei verschiedene Einstellparameter (»Vol. Assist« und »FlowAssist«) individuell an das jeweilige Krankheitsbild des Patienten angepasst werden. Die Differenzierung ist erforderlich, da ein Patient mit erhöhten Atemwegswiderständen mit einer grundsätzlich anderen Problematik als ein Patient mit einer pathologisch veränderten Elastizität zu kämpfen hat. Während es im ersten Fall zu einer Behinderung des Gasflows kommt, wird die Spontanatmung im zweiten Fall nur unzulängliche Volumina bewegen. Den Reglern ist daher ein unterschiedliches Druckverlaufsprofil zugeordnet. Die Unterstützung erfolgt bei erhöhter resistiver Atemarbeit mittels einer flowproportionalen Druckcharakteristik (»FlowAssist«). Wird das Krankheitsbild dagegen durch eine ausgeprägte elastische Atemarbeit geprägt, folgt der Druckverlauf proportional dem Atemvolumen (»Vol.Assist«). Zum besseren Verständnis wurden die unterschiedlichen Druckverlaufsprofile in der unteren Hälfte der ⊡ Abb. 21.10 separat dargestellt. Die für den Patienten tatsächlich wirksame Druckunterstützung resultiert aus der Überlagerung beider Kurvenfunktionen. Eine zu großzügig bemessene Unterstützung kann aufgrund der verstärkenden Eigenschaften des Systems dazu führen, dass der Patient mehr Volumen als beabsichtigt erhält (sog. »Runaway«). Der Druck- und Tidalvolumenalarmgrenze kommen aus diesem Grund hier besondere Bedeutung zu.
21
388
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
III
⊡ Abb. 21.9. ASB – Assisted Spontaneous Breathing
⊡ Abb. 21.10. PPS – Proportional Pressure Support
389 21.5 · Beatmungsverfahren
21.5.3 Spontanatmung
(keine Atemunterstützung) CPAP – Continuous Positive Airway Pressure SB – Spontaneous Breathing
In dieser Rubrik erhält der Patient weder eine Druckunterstützung, noch mandatorische Beatmungshübe. Genau genommen handelt es sich somit bei den dieser Gruppe zugeordneten Modi (CPAP, SB, Spont.) nicht um Beatmungs-, sondern um Spontanatemmodi. Der Anwender kann im CPAP-Mode über den »PEEP«-Regler ein kontinuierliches positives Druckniveau erzeugen, auf dem der Patient spontan atmet. Fällt der Druck im Atemsystem durch eine Einatmung etwas ab, wird sofort Gas nachgeliefert, um jederzeit ein konstantes Druckniveau aufrecht zu erhalten. Das Verfahren setzt voraus, dass Spontanatmung und Atemantrieb des Patienten hinreichend stabil sind und der Patient selbst die Verantwortung für die Atemfrequenz und das Atemvolumen tragen kann. Die Aufgabe des Beatmungsgerätes beschränkt sich auf die Bereitstellung des benötigten Atemgases, die Erzeugung des PEEP-Druckes und die Überwachung der Spontanatemaktivitäten des Patienten. Die Spontanatmung an einem Beatmungsgerät ist immer dann sinnvoll, wenn der Gesundheitszustand des Patienten die engmaschige Überwachung der Atemaktivitäten erfordert. Gleichzeitig besteht so die Möglichkeit, ▬ dem Kollabieren einzelner Alveolarbezirke entgegen zu wirken, ▬ die Gasaustauschfläche der Lunge durch einen positiven Atemwegsdruck zu vergrößern und ▬ den Patienten mit einer erhöhten Sauerstoffkonzentration zu versorgen.
Um dem Patienten die Atmung zu erleichtern, kann der CPAP-Mode mit einer Druckunterstützung kombiniert werden. Aus dem reinen Spontanatemmode wird so eine assistierte Spontanatmung. ⊡ Abb. 21.11 zeigt die Spontanatmung in Kombination mit einer ASB-Druckunterstützung.
21.5.4 Misch-Ventilation (partielle Atem-
unterstützung in Kombination mit kontrollierten Beatmungsphasen) Beatmungsgeräte sind, wie bereits dargestellt, durch verschiedene Beatmungsmodi individuell an die jeweilige Situation des Patienten adaptierbar. Bildlich gesprochen bilden die verschiedenen Beatmungsmodi jedoch auch den Weg, über den der Patient von der kontrollierten Beatmung an die Spontanatmung herangeführt wird. Im Interesse des Patienten und unter Berücksichtigung wirtschaftlicher Gesichtspunkte ist dieser Entwöhnungsprozess (auch »Weaning« genannt) frühest möglich einzuleiten und, dem Leistungsvermögen des Patienten entsprechend, zügig zu durchschreiten. Die der MischVentilation angehörenden Beatmungsmodi (z. B. SIMV, MMV, BIPAP, SIMV-Druckkontr.) setzen sich aus den Elementen der kontrollierten Beatmung und der assistierten Spontanatmung zusammen. Die mandatorischen Abschnitte erfolgen, wie bereits aus der kontrollierten Ventilation bekannt, druck- oder volumenkontrolliert und gewährleisten eine gewisse Mindestventilation. Ausgehend von der Art der kontrollierten Beatmung (volumen- oder druckkontrolliert) wird der Anwender seine Entwöhnungsstrategie analog gestalten und den vom Be-
⊡ Abb. 21.11. CPAP – Continuous Positve Airway Pressure in Kombination mit einer Druckunterstützung
21
390
III
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
atmungsgerät geleisteten Anteil der Atemarbeit schrittweise reduzieren. In der Praxis erfolgt diese Reduktion häufig durch die Verringerung der mandatorischen Frequenz, oder alternativ durch Absenkung des Inspirationsdruckes. Die Beatmungsmodi dieser Kategorie sind besonders für Patienten geeignet, die über keinen stabilen Atemantrieb und eine geschwächte Atemmuskulatur verfügen. Auch bei diesen Modi hat der Anwender ein besonderes Augenmerk darauf zu legen, dass die Einstellung des Ventilators der Leistungsfähigkeit des Patienten entspricht.
Volumenkontrollierte Misch-Ventilation (mit bzw. ohne Druckunterstützung) SIMV – Synchronized Intermittent Mandatory Ventilation Volume Mode mit Synchronisation
Unabhängig von eventuellen Spontanatemaktivitäten des Patienten gewährleistet der Modus SIMV eine definierte, konstante, mandatorische, volumenkontrollierte Ventilation. SIMV kann somit den Modus IPPV ersetzen und bereits in der Phase der kontrollierten Ventilation angewendet werden. Darüber hinaus hat das Beatmungsgerät in SIMV den Auftrag, die mandatorische Beatmung für den Patienten so angenehm wie möglich zu gestalten. Unter Einhaltung der Anzahl der Beatmungshübe pro Minute hat das Beatmungsgerät aus diesem Grund in SIMV die Freiheit, den Abstand zwischen den mandatorischen Beatmungshüben zu variieren. Das mandatorische Minutenvolumen MV ergibt sich, wie in IPPV, aus dem Produkt der Frequenz f und dem eingestellten Tidalvolumen VT. Mit Einsetzen der Spontanatmung erhält der Patient zusätzliches Atemgas, sodass sich das Gesamtminutenvolumen dann aus mandatorischem und spontanem Minutenvolumen zusammensetzt. Zeitlicher Verlauf mandatorischer und assistierter Phasen: In SIMV ist dem mandatorischen Beatmungshub ein so genanntes Triggerfenster vorgeschaltet. Atmet der Patient in dieser Phase ein, wird das Beatmungsgerät den wenig später ohnehin fälligen Beatmungshub bereits zu
⊡ Abb. 21.12. SIMV – Synchronized Intermittent Mandatory Ventilation
diesem Zeitpunkt abgeben. Die Zeitdifferenz zwischen der regulär vorgegebenen Zykluszeit (IMV-Zeit) und dem tatsächlichen Auslösezeitpunkt wird der nächsten Spontanatemphase hinzugerechnet, um die vom Anwender festgelegte Anzahl der Beatmungshübe pro Minute nicht ansteigen zu lassen. Zwischen dem Ende einer mandatorischen Phase und der erneuten Aktivierung des Triggerfensters unterstützt das Beatmungsgerät die Spontanatmung mittels der ASB-Druckunterstützung. Es erfolgt somit ein serieller Wechsel zwischen mandatorischen Abschnitten, in denen das Beatmungsgerät über das Beatmungsmuster entscheidet, und assistierten Phasen, in denen der Patient maximale Freiheit genießt. Obgleich dieses Verhalten prinzipiell nicht zu beanstanden ist, kommt es in der klinischen Praxis leider immer wieder zu Überlagerungen mandatorischer und spontaner Aktivitäten. Diese verursachen dann, da das Beatmungsgerät in der mandatorischen Phase nicht auf die Wünsche des Patienten reagiert, einerseits unangenehme Dissynchronien und bescheren dem Personal meist zusätzliche Alarme. Eine derartige Situation ist daher sowohl für den Patienten als auch für das Personal gleichermaßen belastend und sollte, auch im Hinblick auf die Entwöhnungsdauer, unter allen Umständen vermieden werden. Abhilfe schaffen in diesem Zusammenhang Beatmungsmodi (z. B. BIPAP) oder zusätzliche Funktionen (z. B. AutoFlow), die die Spontanatmung auch während der mandatorischen Phase tolerieren. MMV – Mandatory Minute Volume Ventilation
Der Beatmungsmode MMV (⊡ Abb. 21.13) verhält sich, sofern der Patient nicht spontan atmet, wie ein volumenkontrollierter Beatmungsmode und ist unter diesen Bedingungen augenscheinlich nicht von dem zuvor beschriebenen SIMV-Mode zu unterscheiden. Einziger und entscheidender Unterschied zwischen den beiden Modi ist, dass der mandatorische Anteil der Ventilation in MMV in Abhängigkeit der Spontanatemaktivitäten variieren kann. Atmet der Patient selbständig ein ausreichend großes Volumen, wird der kontrollierte Beatmungshub nicht abgegeben.
391 21.5 · Beatmungsverfahren
Auf diese Weise bietet MMV dem Patienten die »grenzenlose« Freiheit von der reinen kontrollierten Beatmung bis zur totalen Spontanatmung. Der Modus hat sich z. B. im Rahmen der postoperativen Beatmung bewährt, ersetzt jedoch nicht das gezielte Atemtraining des Patienten. Wie in anderen volumenkontrollierten Beatmungsmodi, kann es auch in MMV zu unangenehmen Überlagerungen von spontanen und mandatorischen Phasen kommen. Eine bessere Akzeptanz dieser Interferenzen lässt sich, sofern vorhanden, wie in SIMV durch Zuschaltung einer erweiterten Funktionalität (z. B. AutoFlow) erreichen. Zeitlicher Ablauf mandatorischer und assisitierter Phasen: Das mandatorische Minutenvolumen wird durch die Einstellung der Frequenz f und dem Tidalvolumenregler VT bestimmt. Die kontrollierte Beatmung erfolgt nach dem bereits bekannten Muster. Mit Einsetzen der Spontanatmung berechnet und prognostiziert das Beatmungsgerät kontinuierlich, welches Spontanatemvolumen der Patient in einer Minute erreichen wird. Ergibt die Kalkulation ein positives Saldo (der Patient atmet spontan mehr, als das Gerät mandatorisch liefern würde) wird das Beatmungsgerät die mandatorische Beatmung automatisch einstellen. Resultiert ein negatives Ergebnis, liefert das Beatmungsgerät eine entsprechende Anzahl synchronisierter mandatorischer Atemhübe, um das vom Anwender vorgegebene Minutenvolumen zu erreichen. Im Falle einer Apnoe erfolgt die Beatmung entsprechend der vorgegebenen Einstellparameter. Die Spontanatmung selbst kann durch Anwendung eines ASB-Druckes unterstützt werden. Darüber hinaus ist zur Erkennung einer beschleunigten Atmung (Tachypnoe) die adäquate Anpassung der Spontanatemfrequenz-Alarmgrenze fspn in MMV von besonderer Bedeutung.
Druckkontrollierte Misch-Ventilation (mit bzw. ohne Druckunterstützung) BIPAP – Biphasic Positive Airway Pressure Pressure Mode mit Synchronisation PCV+ – Pressure Controlled Ventilation mit »freier Durchatembarkeit«
BIPAP ist für Patienten mit Lungenfunktionsstörungen genauso wie für lungengesunde Patienten anwendbar. Der BIPAP-Beatmungsmodus lässt sich als zeitgesteuerte
und druckkontrollierte Beatmung beschreiben, bei der der Patient zu jeder beliebigen Zeit ein- oder ausatmen kann. BIPAP wird daher auch oft mit dem zeitgesteuerten Wechsel zwischen zwei verschiedenen CPAP-Niveaus verglichen. Die Mischung mandatorischer und spontaner Aktivitäten erfolgt somit nicht im zeitlichen Wechsel wie in SIMV, sondern simultan. Dieses auch als »freie Durchatembarkeit« bezeichnete Geräteverhalten steigert den Patientenkomfort erheblich und gestattet den fließenden Übergang von kontrollierter Beatmung bis hin zur vollständigen Spontanatmung. Technische Grundlage des Modes ist das dynamische Zusammenspiel der inspiratorischen Gasdosiereinrichtung und einem geregelten Exspirationsventil. Hierbei übernimmt die Gasdosierung im Falle eines Druckeinbruchs die Lieferung des zusätzlich benötigten Gasflows. Ein plötzlicher Druckanstieg hingegen (z. B. durch einen Hustenstoß des Patienten) wird durch ein kontrolliert-begrenztes Öffnen des Exspirationsventils ausgeglichen. Für Patient und Anwender hat diese spezielle Form der druckkontrollierten Beatmung verschiedene Vorteile: ▬ das Beatmungsgerät reagiert jederzeit auf die Wünsche des Patienten; er muss also nicht gegen geschlossene Ventile ankämpfen; die Beatmung ist damit stressfreier für den Patienten ▬ die harmonisierte Interaktion zwischen Gerät und Patient ermöglicht eine flachere Sedierung des Patienten; die Reduktion der Medikation führt zu Kosteneinsparungen und steigert den Atemantrieb des Patienten ▬ ein ansprechbarer Patient kann aktiviert und motiviert werden; beides kann den Gesundungsprozess positiv beeinflussen ▬ durch Kommunikation mit dem Patienten kann die Schmerzmedikation oder auch die Einstellung des Beatmungsgerätes optimiert werden ▬ die Spontanatmung des Patienten ermöglicht die Reduktion der mandatorischen Ventilation und verbessert den Gasaustausch ▬ die durch die Spontanatmung bedingte Verringerung der im Thorax (intrathorakal) herrschenden Druckkräfte führt zu einer kardialen Entlastung und wirkt sich positiv auf den venösen Rückfluss zum Herzen aus
⊡ Abb. 21.13. MMV – Mandatory Minute Volume Ventilation
21
392
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
▬ die frühzeitige Beteiligung des Patienten an der Ate-
marbeit kann die Beatmungsdauer verkürzen und verringert damit das Infektionsrisiko ▬ die »freie Durchatembarkeit« reduziert die Anzahl dissynchronisationsbedingter Alarme, die Beatmung ist damit nicht nur für den Patienten, sondern auch für das Personal stressfreier
dass auch die Länge der Inspirationsdauer in gewissem Maße variieren kann. Wie für die Beatmungsfrequenz erfolgt auch in diesem Fall eine rechnerische Korrektur und ein entsprechender Ausgleich über die Anpassung der Inspirationsdauer in der nächsten mandatorischen Beatmungsphase (⊡ Abb. 21.14). SIMV – druckkontrolliertes SIMV
III
Diese Vorzüge stehen dem Anwender bei Verwendung der Funktion »AutoFlow« auch in der volumenkontrollierten Beatmung zur Verfügung (Näheres hierzu Abschn. 21.6 »Beatmungszusätze und Sonderfunktionen«). Zeitlicher Verlauf mandatorischer und assistierter Phasen in BIPAP: Wie in SIMV ist dem mandatorischen Beatmungshub ein Triggerfenster vorgeschaltet. Atmet der Patient in dieser Phase ein, wird das Beatmungsgerät den wenig später ohnehin fälligen Druckwechsel bereits zu diesem Zeitpunkt vollziehen. Die Zeitdifferenz zwischen der eingestellten Zykluszeit und dem tatsächlichen Auslösezeitpunkt wird der nächsten Spontanatemphase hinzugerechnet. Die Verrechnung gewährleistet, dass die vom Anwender festgelegte Beatmungsfrequenz konstant bleibt. Zwischen dem Ende einer mandatorischen Phase und der erneuten Aktivierung des Triggerfensters unterstützt das Beatmungsgerät die Spontanatmung mittels der ASB-Druckunterstützung. Die vom Anwender mit dem Einsteller »Rampe« festgelegte Druckanstiegsgeschwindigkeit prägt sowohl den assistierten, als auch den mandatorischen Druckanstieg. Der Patient erhält das Atemgas damit stets mit einer einheitlichen Flowcharakteristik, deren dezelerierenden Verlauf i. d. R. deutlich angenehmer als ein Konstantflow empfunden wird. BIPAP verfügt als weitere Besonderheit über ein zusätzliches Triggerfenster, durch das der Druckwechsel vom Inspirationsdruck auf das PEEP-Niveau mit der Spontanatmung synchronisiert wird. Hierdurch ist es möglich,
⊡ Abb. 21.14. BIPAP – Biphasic Positive Airway Pressure mit Spontanatmung
Dieser Beatmungsmode verhält sich hinsichtlich des zeitlichen Wechsels mandatorischer und spontaner Ventilationsphasen wie die volumenkontrollierte SIMV-Variante. Einziger Unterschied zum volumenkontrollierten SIMV ist, dass die mandatorischen Beatmungshübe in diesem Fall druckkontrolliert erfolgen. Die unter BIPAP beschriebene »freie Durchatembarkeit« ist hier nicht obligatorisch oder steht herstellerbedingt nur eingeschränkt zur Verfügung. APRV – Airway Pressure Release Ventilation
Obgleich APRV (⊡ Abb. 21.15) in seinen wesentlichen Charaktereigenschaften dem Beatmungsmode BIPAP sehr ähnlich ist, handelt es sich um einen Mode, der auf einer gänzlich anderen Beatmungsphilosophie beruht. Im interessanten Kontrast zu allen übrigen Modi, in der die mandatorische Inspiration einen pulmonalen Druckanstieg erzeugt, erfolgt die Volumenverschiebung in APRV durch eine kurze Druckentlastung. Diese so genannte »Release-Phase« ermöglicht eine extrem kurze und unvollständige Exspiration. Zum besseren Verständnis des Sachverhalts mag es hilfreich sein, sich einen Patienten vorzustellen, der auf einem erhöhten Druckniveau spontan atmet (CPAP). Kommt es im weiteren Verlauf zu einer Verschlechterung der Spontanatmung und damit verbunden zu einem arteriellen Kohlendioxidanstieg, ist es erforderlich, die Ventilation zu steigern. Bislang wurde hierzu der Druck im Atemsystem erhöht und
393 21.6 · Beatmungszusätze und Sonderfunktionen
damit Volumen in die Lunge befördert. APRV hingegen nutzt den Umstand aus, dass die Patientenlunge durch den positiven Druck bereits gefüllt ist und erzwingt eine kurze Exspiration durch Reduktion des Druckes im Atemsystem. Die Druckentlastungsphase ist in APRV sehr kurz, typisch sind z. B. 0,5 s. Da diese Zeit in der Erwachsenenbeatmung keine vollständige Exspiration ermöglicht, werden sich in der Release-Phase nur die schnell ent- und belüftbaren Compartments der Lunge entleeren. Bereiche, in die das Gas aufgrund erhöhter Atemwegswiderstände nur sehr langsam gelangt, werden von dem kurzen Druckwechsel kaum beeinflusst. Oftmals handelt es sich jedoch gerade bei diesen Lungenbezirken um Bereiche, die sich mittels der konventionellen Beatmung nur unzulänglich belüften lassen und/oder zum Kollabieren neigen. Durch die stabileren Druckverhältnisse in diesen kritischen Lungenabschnitten kann durch APRV meist eine schonendere Ventilation und ein verbesserter Gasaustausch erreicht werden. Die APRVEinstellparameter weichen aufgrund der spezifischen Besonderheiten des Beatmungsmodes geringfügig von den sonst üblichen Bezeichnungen und Parametern ab. Um dem Anwender z. B. die Einstellung der kurzen Releasephasen zu erleichtern, kann in APRV an Stelle der Atemfrequenz die Exspirationszeit Ttief eingestellt werden. Entsprechend wird die Inspirationszeit als Thoch und der Inspirationsdruck als Phoch bezeichnet. Auch der Begriff »PEEP« würde hier ad absurdum geführt werden und wird daher durch die Bezeichnung Ptief ersetzt. Eine Druckunterstützung steht in APRV nicht zur Verfügung, da sie im Widerspruch zu der eigentlichen Philosophie des Beatmungsmodus stehen würde. APRV hat ansonsten die gleichen Spontanatemeigenschaften wie BIPAP, d. h. der Patient kann zu jedem beliebigen Zeitpunkt ein- oder ausatmen. APRV wurde in der Vergangenheit sehr erfolgreich bei Patienten mit schweren Gasaustauschstörungen eingesetzt und gewinnt, zumindest in diesem Anwendungsfall, an Bedeutung. Der Einsatz von APRV bei lungengesunden Patienten ist grundsätzlich möglich, aufgrund der beschriebenen Abweichungen zu den physiologischen Atemgewohnheiten allerdings nur selten zu beobachten.
21.6
Beatmungszusätze und Sonderfunktionen
21.6.1 IRV – Inverse Ratio Ventilation
– möglich in volumen- und druckkontrollierter Beatmung Im Normalfall ist die Inspirationsdauer kürzer als die Exspirationsphase. Bei Krankheitsbildern mit schweren Oxigenierungsstörungen ist es jedoch erforderlich, die Inspirationszeit zu Lasten der Exspirationszeit zu verlängern. Der Begriff IRV sagt lediglich aus, dass die Beatmung mit einem umgekehrten Atemzeitverhältnis erfolgt, die Inspirationszeit also länger als die Exspirationszeit ist. Die alleinstehende Bezeichnung IRV lässt keine Rückschlüsse zu, ob die Beatmung volumen- oder druckkontrolliert erfolgt.
21.6.2 Seufzer – ausschließlich in IPPV,
IPPVAssist und ILV verfügbar Die Beobachtung der eigenen Spontanatmung zeigt, dass die Atmung nicht ganz gleichmäßig erfolgt. Von Zeit zu Zeit erfolgt eine vertiefte Inspiration, wir seufzen. Die Seufzer-Funktion wurde in der Beatmung ursprünglich mit dem Ziel eingeführt, die für die Spontanatmung typischen Volumenschwankungen zu kopieren und so das monotone und unphysiologische Beatmungsmuster der volumenkontrollierten Beatmung zu durchbrechen. Die Seufzerfunktion wird auch als intermittierender PEEP bezeichnet und durch eine temporäre Anhebung des PEEP-Druckes auf einen höheren Wert realisiert. Bei »Evita« erfolgt die Erhöhung des PEEP-Drucks z. B. alle drei Minuten für zwei Atemzyklen. Der Begriff »Seufzer« resultiert aus der vertieften Inspiration, deren Entladung ein auffälliges Strömungsgeräusch, ähnlich dem eines spontanen Seufzers, erzeugt. Hinsichtlich der ursprünglichen Idee konnte sich die Anwendung eines Seufzers nicht etablieren. Allerdings erlangt die Seufzer-Funktion im Rahmen der Wiedereröffnung kollabierter Lungenareale (Recruitment) einen neuen Stellenwert. Es ist daher
⊡ Abb. 21.15. APRV – Airway Pressure Release Ventilation
21
394
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
durchaus nicht auszuschließen, dass der Seufzer schon bald eine Renaissance erleben könnte.
21.6.3 AutoFlow – optional verfügbar in allen
volumenkontrollierten Beatmungsmodi
III
Bei der Funktion AutoFlow handelt es sich um einen optionalen Zusatz, der in allen volumenkontrollierten Beatmungsmodi zur Verfügung steht (Ausnahme: ILV). Die Einstellung des Beatmungsmodus erfolgt mittels der für den jeweiligen Mode wirksamen Beatmungsparameter. Mit Aktivierung der AutoFlow Funktion ersetzt das Beatmungsgerät den für die volumenkontrollierte Beatmung typischen Konstantflow durch den aus der druckkontrollierten Beatmung bekannten dezelerierenden Flowverlauf. Im Ergebnis werden so die Vorzüge der druckkontrollierten Beatmung mit den Stärken der volumenkontrollierten Ventilation kombiniert. Die modifizierte volumenkontrollierte Beatmung lässt sich damit wie folgt charakterisieren: ▬ AutoFlow gewährleistet, dass das vom Anwender eingestellte Tidalvolumen mit dem geringstmöglichen Beatmungsdruck appliziert wird. ▬ AutoFlow passt den Beatmungsdruck automatisch an Complianceveränderungen der Lunge an, damit entfällt die in der druckkontrollierten Beatmung erforderliche manuelle Korrektur des Inspirationsdruckes. ▬ AutoFlow toleriert zu jedem belieben Zeitpunkt Spontanatemaktivitäten des Patienten und bereichert die volumenkontrollierte Beatmung so um die unter BIPAP aufgelisteten Vorzüge der »freien Durchatembarkeit«. ▬ AutoFlow eliminiert den für die volumenkontrollierte Beatmung typischen Spitzendruck, durch den es zur partiellen Überdehnung einzelner Lungenbezirke kommen kann. ▬ AutoFlow übernimmt die Einstellung der Regler »Flow« und »Pmax«. Die Reduktion der Parameter vereinfacht die Einstellung der volumenkontrollierten Beatmung. Ablauf von In- und Exspiration und Regelverhalten: Der zeitliche Verlauf von In- und Exspiration bleibt durch die AutoFlow-Funktion unberührt und entspricht dem Verhalten des jeweiligen Beatmungsmodus. Nach Aktivierung von AutoFlow appliziert das Beatmungsgerät den nächsten mandatorischen Beatmungshub mit minimalem Konstantflow. Der am Ende dieser Inspiration gemessene Beatmungsdruck wird in der folgenden Inspirationsphase als Inspirationsdruck verwendet. Die Flowlieferung erfolgt dann mit dezelerierendem Flowprofil. Nach Umschaltung auf Exspiration vergleicht das Beatmungsgerät das exspiratorische Tidalvolumen mit der vom Anwender vorgegebenen inspiratorischen Sollgröße. Differenzen
werden durch geringfügige Anhebung oder Absenkung des Inspirationsdruckes der folgenden mandatorischen Phase ausgeglichen. Der Anpassungsmechanismus ist von Atemzug zu Atemzug auf eine Schwankungsbreite von ±3 mbar begrenzt. Die Erhöhung des Druckes wird eingestellt, sobald sich der Inspirationsdruck der oberen Atemwegsdruck-Alarmgrenze bis auf 5 mbar angenähert hat. Kann das eingestellte Tidalvolumen nicht mehr vollständig appliziert werden, generiert das Gerät den Alarm »Volumen inkonstant«. Obwohl es durch Spontanatemaktivitäten zu Schwankungen des exspiratorischen Volumens kommen kann, wird im zeitlichen Mittel durch AutoFlow ein konstantes Atemzugvolumen appliziert. Die Anwendung von AutoFlow ist immer dann möglich und sinnvoll, sofern keine besonderen pulmonalen Restriktionen vorliegen und der Patient ohnehin volumenkontrolliert beatmet wird. Unabhängig von der aktuellen Beatmungssituation kommt der oberen AtemwegsdruckAlarmgrenze aufgrund der zuvor beschriebenen Doppelfunktion besondere Bedeutung zu. Einen Screenshot der EvitaXL zeigt ⊡ Abb. 21.16. Von links nach rechts ist ein konventioneller, volumenkontrollierter Beatmungshub, der nach Aktivierung von AutoFlow applizierte Hub mit minimalem Konstantflow sowie der erste der dann folgenden AutoFlow Beatmungshübe zu erkennen. VG (Volume Guarantee) und PRVC (Pressure Regulated Volume Controlled) ähneln in ihrem Verhalten der zuvor beschriebenen AutoFlow-Funktion. Unterschiede ergeben sich aufgrund abweichender Regelalgorhythmen sowie einer eingeschränkten Verfügbarkeit, da PRVC nicht als Zusatzfunktion, sondern lediglich als separater Beatmungsmode angeboten wird.
21.6.4
ATC – automatische Tubuskompensation, optional verfügbar in allen Beatmungsmodi TC – Tubuskompensation
Intubierten Patienten wird, bedingt durch die künstliche Einengung ihrer Atemwege, ein erhebliches Maß an Mehrarbeit zur Verrichtung ihrer Atemtätigkeit abverlangt. Die zusätzliche Atemarbeit (WOB: Work of Breathing) resultiert aus der über dem Tubus anfallenden Druckdifferenz, die zusätzlich vom Atemmuskel aufgebracht werden muss. Wesentliche Einflussfaktoren sind hierbei der Tubustyp (Endotrachealtubus oder Trachealkanüle), der Tubusdurchmesser und der aktuell durch den Tubus strömende Gasflow. Die Bedeutung und den Einfluss des Gasflows kann man sich leicht vergegenwärtigen, indem man einfach einmal versucht, mit verschlossener Nase für mehrere Minuten durch einen etwas dickeren Strohhalm zu atmen. Man wird hierbei bemerken, dass die Erzeugung größerer Gasflows mit einer deutlich erhöhten Atemanstrengung verbunden ist. In der Konsequenz ist es naheliegend, dass die Unterstützung des Patienten in
395 21.6 · Beatmungszusätze und Sonderfunktionen
⊡ Abb. 21.16. AutoFlow
Relation zum Flow erfolgen sollte. Basierend auf dieser Idee steigert ATC den Druck im Atemsystem während der Inspiration um den zwischen Tubuskonnektor und Tubusspitze flowinduzierten Druckabfall. In der Exspiration erfolgt die Kompensation durch Absenkung des PEEPNiveaus. Für den Patienten entsteht so der Eindruck, als sei er gar nicht intubiert. Allerdings kommt es aufgrund der dynamischen Druckanpassungen im Atemsystem zu deutlichen Veränderungen in der Druck-Zeit-Kurve. Diese für den Anwender anfänglich gewöhnungsbedürftigen Kurvenverläufe spiegeln jedoch lediglich die Druckschwankungen vor dem Tubus wider und entsprechen somit nicht dem pulmonalen Druckverlauf. Genauere Informationen hinsichtlich des Druckes an der Tubusspitze liefern Geräte, die diesen Druck rechnerisch ermitteln und als separte Drucklinie darstellen. Die Tubuskompensation steht in allen Beatmungsmodi zur Verfügung und wird durch Eingabe der Tubusart, des Tubusdurchmessers und der gewünschten prozentualen Kompensation an die aktuelle Beatmungssituation angepasst. Da ATC dem Patienten die Atemarbeit erheblich erleichtert, sollte der Anwender vor Aktivierung der ATC-Funktion die ASB-Druckunterstützung deutlich reduzieren oder ggf.
vorübergehend abschalten. Die Tubuskompensation ist prinzipiell für alle intubierten Patienten geeignet, kann jedoch z. B. für Patienten mit obstruktiven Atemwegserkrankungen durch eine Konfigurationsänderung auf die Inspirationsphase beschränkt werden (⊡ Abb. 21.17).
21.6.5 NIV-Maskenbeatmung –
Non Invasive Ventilation Zur Vermeidung einer Intubation oder auch als unterstützende Atemtherapie nach einer Extubation gewinnt die nicht-invasive Beatmungstherapie nicht zuletzt auch aufgrund des enormen Kostendrucks im Gesundheitswesen vielerorts an Bedeutung. Allerdings stellt die Maskenbeatmung Anwender, Patient und Beatmungsgerät gleichermaßen vor besondere Herausforderungen. Hierzu zählen z. B. die Verfügbarkeit und Akzeptanz geeigneter Gesichtsmasken, die Kommunikation und Kooperation zwischen dem Anwender und dem Patienten und nicht zuletzt auch spezielle technische Anforderungen an das Verhalten des Beatmungsgerätes, da es bei der Maskenbeatmung immer wieder zu Leckagen und Diskonnektionen
21
396
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
III ⊡ Abb. 21.17. ATC – Automatische Tubuskompensation
kommt. NIV ist ein optionaler Zusatz, der mit allen gängigen Beatmungsmodi kombiniert werden kann. Bedingt durch zahlreiche herstellerspezifische Besonderheiten sollen an dieser Stelle lediglich einige grundsätzliche Aspekte der Maskenbeatmung betrachtet werden. Allem voran ist es für die Qualität der Maskenbeatmung von entscheidender Bedeutung, ob das Beatmungsgerät aufgrund von Leckagen an der Beatmungsmaske zum Selbsttriggern neigt. Die erforderliche Anpassung der Triggerempfindlichkeit erfolgt, je nach Beatmungsgerät, entweder automatisch oder muss manuell vom Anwender nachgeführt werden. Auch hinsichtlich des applizierten Volumens kann es bei der volumenkontrollierten Beatmung von Fall zu Fall zu gravierenden Unterschieden kommen. In diesem Zusammenhang ist auch darauf hinzuweisen, dass nicht alle Beatmungsgeräte die volumenkontrollierte Anwendung von NIV ermöglichen. In jedem Fall kommt bei einer derartigen Applikation einer leistungsstarken Leckagekompensation besondere Bedeutung zu. Die Leckagekompensation vergleicht kontinuierlich das eingestellte Tidalvolumen mit dem exspiratorisch gemessenen Volumen und erhöht, im Falle von Undichtigkeiten, die inspiratorische Gaslieferung. Last but not least bedarf es im Rahmen der nicht-invasiven Beatmung besonderer Anforderungen an das Monitoring und die Alarmgrenzen. Muss z. B. der Sitz der Maske korrigiert werden, die Maske wird also kurzzeitig abgenommen und neu angesetzt, würde dies unter normalen Umständen sehr schnell zu einem Diskonnektalarm führen. Verhindern lässt sich ein derartiger Alarm durch eine einstellbare Alarm-Verzögerungszeit TDiskonnekt, die jedoch nur in der Betriebsart NIV zur Verfügung steht.
21.6.6 Apnoeventilation, Backup Ventilation
Im Rahmen der Entwöhnung teilen sich Ventilator und Patient die Verantwortung für das totale Atemminutenvolumen. Kommt es in dieser Phase, z. B. durch Überforderung des Patienten, zu einer Apnoe, kann das verbleiben-
de mandatorisch applizierte Volumen unter Umständen keine ausreichende Ventilation mehr gewährleisten. Zur Vermeidung einer Hypoventilation lässt sich aus diesem Grund der Apnoealarm in den Beatmungsmodi SIMV, BIPAP, CPAP und APRV mit einer so genannten Apnoeventilation kombinieren. In diesem Fall wird das Beatmungsgerät die definierte kontrollierte Beatmung des Patienten sicherstellen, bis der Anwender sich der aktuellen Patientensituation widmen kann. In der Erwachsenenbeatmung ist die Apnoeventilation i. d. R. als volumenkontrollierte Beatmung, in der Neonatologie hingegen als druckkontrollierte Beatmung realisiert.
21.7
Patientenüberwachung und Alarmgrenzen
Während zahlreiche Gerätefunktionen durch das Beatmungsgerät automatisch überwacht werden, müssen vom Anwender für verschiedene andere Messwerte manuell Alarmgrenzen eingestellt werden. Der Stellenwert der Patientenüberwachung wurde bereits am Beispiel der Apnoeventilation verdeutlicht. Dennoch werden Alarme seitens zahlreicher Anwender häufig als unangenehme Begleiterscheinung der Beatmung eingestuft. Ein positiveres Bild ergibt sich, wenn man die adäquate Einstellung der Alarmgrenzen mit einem um den Patienten herum aufgestellten »Schutzzaun« vergleicht. Solange der Patient seine Aktivitäten innerhalb der »umzäunten« Fläche ausübt, besteht weder Anlass zur Sorge noch Grund für einen Alarm. Sobald der Patient jedoch versucht, die für ihn geschaffene »Schutzzone« zu verlassen, meldet das Gerät diesen »Fluchtversuch« durch Generierung eines entsprechenden Alarms. Zwangsläufig drängt sich damit die Frage auf, welche Bedeutung der verschiedenen Alarmgrenzen beizumessen ist und wie diese eingestellt werden sollten. Grundsätzlich kann hierzu Folgendes gesagt werden: ▬ Es gibt keine unwichtigen Alarmgrenzen. Es gilt zu bedenken, dass die Situation des Patienten sich jederzeit ändern kann. Daher sollten auch Alarmgrenzen
397 21.8 · Entwöhnungsstrategie und SmartCare – verfügbar in CPAP/ASB
die aktuell nicht relevant erscheinen patientengerecht eingestellt werden. ▬ Die Alarmgrenzeneinstellung sollte sich stets an den jeweils aktuellen Messwerten und an dem Grundsatz »prinzipiell so weit wie möglich, aber immer so eng wie nötig« orientieren. ▬ Nach Einstellung oder Veränderung eines Beatmungsmodus sind grundsätzlich im nächsten Schritt alle Alarmgrenzen zu prüfen und ggf. bedarfsgerecht anzupassen. Durch diese Vorgehensweise lassen sich vorhersehbare Alarme und unnötiger Stress vermeiden. ▬ Es gibt keine sinnlosen Alarme. Jedem Alarm liegt eine patientenseitige Veränderung, eine anwenderseitige Fehleinschätzung oder aber eine technische Störung zugrunde, mit der der Anwender sich umgehend auseinanderzusetzen hat. Mit der im Weaning praktizierten Rückverlagerung der Atemarbeit auf den Patienten verschiebt sich auch die Aufgabe der Überwachungs- und Alarmeinrichtung. Wurde während der kontrollierten Beatmung primär die Aktivität des Gerätes sowie dessen Wirkung auf den Patienten überwacht, übernimmt die Überwachungs- und Alarmeinrichtung in der Entwöhnungsphase zusätzlich die Aufgabe der Patientenüberwachung. Aufgrund physiologischer Schwankungen der Atemfrequenz und des Atemzugvolumens liegt es in der Natur der Sache, dass die Alarmgrenzen, bezogen auf den aktuellen Messwert, in der kontrollierten Beatmung deutlich enger als in der Misch-Ventilation oder der (assistierten) Spontanatmung gesetzt werden können.
21.8
Entwöhnungsstrategie und SmartCare – verfügbar in CPAP/ASB
Die Beatmung und Entwöhnung eines Patienten kann hinsichtlich ihrer Gesamtdauer sehr stark variieren. Während ein postoperativer Patient vielleicht nur wenige Stunden nachbeatmet werden muss und im »Handumdrehen« entwöhnt werden kann, kann sich dieser Prozess in anderen Fällen als extrem problematisch und langwierig erweisen. Gerade im zweiten Fall wird der Anwender sich intensiv mit der Situation und Leistungsfähigkeit des Patienten auseinandersetzen müssen, um den Patienten einerseits nicht zu überfordern, andererseits jedoch die Entwöhnungsphase nicht unnötig auszudehnen. Die Beurteilung des Patienten sowie die hieraus abgeleitete Anpassung der Beatmungsparameter hat aus diesem Grund hohe Priorität und sollte möglichst engmaschig erfolgen. In der klinischen Praxis ist diese Forderung nicht immer oder nur bedingt durch das ärztliche Personal zu realisieren. Des Weiteren basierte die Beurteilung des Patienten und die Anpassung des Beatmungsgerätes in der Vergangenheit allein aufgrund individueller Erfahrungswerte des
verantwortlichen Arztes. Es war somit auch aufgrund der Vielzahl der zur Verfügung stehenden Beatmungsmodi nicht unbedingt in allen Fällen eine durchgängige Entwöhnungsstrategie erkennbar. Dennoch weisen verschiedene Indizien darauf hin, dass derartige Optimierungspotentiale vielfach bereits identifiziert wurden und eine positive Entwicklung der Situation zu erwarten ist. So stehen dem Anwender heute z. B. Beatmungsmodi zur Verfügung, die vom Beatmungsbeginn an die Spontanatmung zulassen. Da auch die Entwöhnung des Patienten im gleichen Beatmungsmodus möglich ist, entfällt damit der in der Vergangenheit erforderliche Wechsel des Beatmungsmodus. Ferner wurden im Rahmen von Qualitätssicherungsverfahren bspw. sogenannte »Protokolle« oder auch »Guidelines« entwickelt, durch die die Entwöhnung schrittweise beschrieben und vorgegeben wird. Zahlreiche Anwender sind damit gehalten, die Entwöhnung über einen vorgegebenen Weg zu realisieren. Erforderliche Abweichungen werden dokumentiert und fließen im Rahmen eines kontinuierlichen Verbesserungsprozesses in die Weiterentwicklung dieser Protokolle mit ein. Dessen ungeachtet ist eine Entlastung des klinischen Personals allerdings kaum erkennbar, sodass die Zeitabstände zwischen den einzelnen Entwöhnungsschritten nach wie vor oftmals länger sind als es eigentlich erforderlich wäre. Ein neuer und sehr erfolgversprechender Ansatz in der Entwöhnungstherapie wird durch die optionale Funktion SmartCare verwirklicht. SmartCare dient der Entwöhnung intubierter oder tracheotomierter Patienten und steht dem Anwender ausschließlich in dem Beatmungsmodus CPAP/ASB zur Verfügung. Bei diesem Verfahren handelt es sich um ein wissensbasiertes System, das den Entwöhnungsprozess auf Grundlage einer implementierten therapeutischen Strategie automatisiert. Anhand von verschiedenen im Entwöhnungsprotokoll festgelegten Grenzwerten, denen die aktuell gemessenen Werte der Atemfrequenz, des Tidalvolumens und der exspiratorischen Kohlendioxidkonzentration gegenüberstehen, kann SmartCare die Ventilationssituation selbständig beurteilen und u. a. auch eine »normale« Ventilation (Normoventilation) erkennen. Die Interpretation der Messwerte erfolgt alle 2 bzw. 5 min und führt im Ergebnis zu einer Anhebung oder Absenkung der Druckunterstützung. Erreicht der ASB-Druck einen vom Aufbau des Atemsystems abhängigen minimalen Unterstützungsdruck, führt das System mit dem Patienten einen Spontanatemversuch durch. In dieser Phase beobachtet und bewertet das System die Aktivitäten und eventuelle Instabilitäten des Patienten. Eine Instabilität liegt vor, wenn der Patient nicht mehr normoventiliert wird und SmartCare aus diesem Grund eine ASB-Druckanhebung vornimmt. Wird die Beobachtungsphase erfolgreich abgeschlossen, unterbreitet SmartCare den Vorschlag, den Patienten vom Beatmungsgerät zu trennen. Kann oder soll die Extubation erst zu einem späteren Zeitpunkt er-
21
398
III
Kapitel 21 · Langzeitbeatmungsgeräte für die Intensivtherapie
folgen, wird SmartCare weiterhin auf Veränderungen der 3 Eingangsgrößen reagieren und die Druckunterstützung ggf. erneut anpassen. In diesem Zusammenhang ist es möglich, dass SmartCare die Empfehlung, den Patienten vom Beatmungsgerät zu trennen, revidiert oder aber aufrecht erhält. Basis für diese Entscheidung sind die Anzahl sowie die relative Dauer der vom Gerät registrierten Instabilitäten. Bezugsgröße für die zeitliche Bewertung einer Instabilität ist hierbei die Zeitdauer der vorangegangenen stabilen Normoventilation. Die kurze Darstellung des komplexen Systems zeigt deutlich, dass SmartCare auf medizinischem Wissen und nicht auf mathematischen Algorithmen beruht. Die in mehrminütigen Abständen vorgenommenen Klassifikationen und automatischen Veränderungen des Unterstützungsdruckes entlasten den Intensivmediziner von Routineaufgaben und ermöglichen die Verkürzung der Entwöhnungsphase. Neben diesen Gründen sprechen weitere Anzeichen, wie z. B. der zunehmende Kostendruck, zahlreiche Standardisierungsbemühungen sowie die Anstrengungen zur qualitativen Verbesserung der Patientenversorgung dafür, dass die Symbiose aus klinischem Wissen und innovativer Technik schon bald auch in anderen Bereichen den Klinikalltag erobern dürfte.
Weiterführende Literatur Oczenski W, Andel H, Werba A (Hrsg) (2005) Atmen – Atemhilfen. Thieme, Stuttgart Larsen R, Ziegenfuß T (2004) Beatmung: Grundlagen und Praxis. Springer Verlag, Berlin Heidelberg New York Repschläger F, Droll L (1995) Evita-Fibel. Selbstverlag Müller E (Hrsg) (2000) Beatmung: wissenschaftl. Grundlagen, aktuelle Konzepte, Perspektiven. Thieme, Stuttgart Kuhlen R, Guttmann J, Rossaint R (Hrsg) (2000) Neue Formen der assistierten Spontanatmung. Urban & Fischer, München, Jena Franco K, Putnam J (1998) Advanced Therapy in Thoracic Surgery, chapter 3: New Directions in Ventilatory Management. BC Decker Inc Dojat M, Brochard L (2001) Knowledge-Based Systems for Automatic Ventilatory Management Respiratory Care Clinics of North America, vol. 7, no 3. W.B. Saunders Company http://www.draeger.com/MT/internet/DE/de/Library/tutor/int_tutor_cc_de.jsp
22 Defibrillatoren/ICD-Systeme R. Kramme
22.1 Defibrillation 22.2 Technik
– 399
22.6 Sicherheitstechnische Aspekte
– 399
22.2.1 Physikalische und technische Grundlagen – 399 22.2.2 Systemeigenschaften – 401
22.3 Therapeutische Intervention
– 402
22.3.1 Defibrillation/Kardioversion (synonym Elektroreduktion, Elektrokonversion) – 402 22.3.2 Externe und interne Defibrillation – 402
22.4 Methodische Hinweise 22.5 Komplikationen
22.7 Implantierbare Kardioverter/ Defibrillatoren (ICD) – 404 22.7.1 22.7.2 22.7.3 22.7.4 22.7.5 22.7.6
– 403
ICD-Entwicklung – 404 Systemtechnik – 405 Algorithmen – 405 Elektroden – 406 Komplikationen – 406 Funktionskontrolle – 406 Weiterführende Literatur – 406
– 403
Defibrillatoren sind elektrotherapeutische Hochspannungsgeräte, die im Rahmen der Reanimation und zur Terminierung von tachykarden supra- und ventrikulären Arrhythmien eingesetzt werden.
22.1
– 403
Defibrillation
Eine veränderliche Erregungsbildung oder Erregungsleitung kann Arrhythmien verursachen mit der Folge, dass die Koordination der Herzmuskelfasern beeinträchtigt, aufgehoben oder gar ins Chaos (Fibrillation) geführt wird. Unter Defibrillation wird ein kurzzeitig zugeführter phasischer Energieimpuls verstanden, der eine gleichzeitige Depolarisation aller Herzmuskelfasern bewirken soll. Ziel dieser Maßnahme ist die Terminierung von tachykarden supra- und ventrikulären Arrhythmien, sodass nach einer Refraktärperiode (in dieser Phase ist keine Erregung möglich), die i. d. R. zwischen 200 und 500 ms beträgt, der Sinusknoten als primäres Erregungszentrum die Schrittmacherfunktion wieder übernimmt (⊡ Abb. 22.1).
22.2
Technik
22.2.1 Physikalische und technische Grundlagen
Der tragbare Defibrillator ist ein meist netzunabhängiges Gleichstromsystem (⊡ Abb. 22.2), das sich im Wesentlichen aus folgenden Systemkomponenten zusammensetzt: ▬ Energieversorgung über Netzanschluss oder aufladbare Batterien, ▬ Kondensator als Energiespeicher (Kapazität = n-Impulse bei 360 J), ▬ einem Ladestromkreis zum Kondensator (Dauer der Aufladung, d. h. Erreichen der maximalen Energie, beträgt im Schnitt 10–8 s oder liegt bei einigen Fabrikaten auch deutlich darunter) und einem Entladestromkreis, der den Stromimpuls mit unterschiedlichen, vorwählbaren Energiestufen (z. B. 2....360 J) abgibt. Die Gleichstromimpulsreizung bewegt sich zwischen 3–8 ms bei einem Strom von 10–27 A (intern) sowie 22–60 A (extern).
⊡ Abb. 22.1. EKG-Dokumentation einer Defibrillation
400
Kapitel 22 · Defibrillatoren/ICD-Systeme
Eine automatische Sicherheitsentladung sollte erfolgen bei Nichtauslösung (nach ca. 10 s), Auslösung des Defibrillierimpulses und bei erneuter Energievorwahl sowie bei technischen Störungen. Die Energie (E), die in dem Kondensator gespeichert werden kann, lässt sich aus der Kapazität (C) und der verfügbaren Spannung (U) ermitteln:
III
E
1 C U 2 2
>VA
W @.
Unter dem Begriff Wellenform oder Kurventechnik wird die zeitlich geregelte Abfolge der Energieabgabe verstanden. Von der Form der Welle hängt es zum einen ab, wieviel Energie dem Patienten zugeführt wird, und zum andern, über welchen Zeitraum diese Energie abgegeben wird. Unterschieden wird in mono-, bi- und triphasische Defibrillationsimpulskonfigurationen (⊡ Abb. 22.3). Während bei der monophasischen Wellenform der Strom nur in eine Richtung fließt und die Polarität sich nicht ändert, wird bei der biphasischen Wellenform der Strom in eine Richtung abgegeben, unterbrochen und in entgegengesetzter Richtung fortgesetzt. Hier ändert sich die Polarität mit jeder Phase. Bei implantierbaren und automatischen
externen Defibrillatoren werden bevorzugt biphasische Schockformen eingesetzt, die sich durch unterschiedliche Anpassung an die Thoraximpedanz des Patienten (z. B. unterschiedliche Impulsabgabe, Spitzenspannung und Impulsdauer) unterscheiden. Biphasische Defibrillationen sind i. d. R. wirksamer und schonender als monophasische Defibrillationen und haben den Vorteil, dass die schockinduzierte Dysfunktion der Herzmuskelzellen geringer ist, der Defibrillationserfolg mit geringerer Energie und Spannung erzielbar und biphasische Impulsformen die weitere Miniaturisierung der Geräte ermöglichen. Bei der Betriebsart wird unterschieden in asynchronen und synchronen Betrieb: Während eigene Impulse des Herzens bei der synchronen Betriebsart berücksichtigt werden (sog. Synchronimpuls bzw. QRS-Triggerung), entfällt dies bei der asynchronen Betriebsart. Letztere Betriebsart sollte »reinen Notfalldefibrillationen« vorbehalten bleiben. Für die Kardioversion kommt nur die synchronisierte Betriebsart in Betracht. Die thorakale Impedanz ist der Körperwiderstand, der sich dem Energieimpuls bzw. Stromfluss des Defibrillators entgegenstellt. Sie schwankt zwischen 15 und 150 Ω; meist liegt sie bei 70–80 Ω. Die Impedanz sollte deshalb bei der
⊡ Abb. 22.2. Blockschema eines halbautomatischen Gleichstromdefibrillators (Bolz A, Urbaszek W, 2000)
1. Monophasische gedämpfte Sinuskurve (200 J, 50)
2. Biphasische Exponentialkurve (150 J, 50)
3. Biphasischer Rechteckimpuls (120 J, 50)
I (A) 50 40 30 20 10 0 -10 -20 ⊡ Abb. 22.3. Monophasische und biphasische Impulsformen
0
4
8
12
0
4
8
12
0
4
8
12
t (ms)
401 22.2 · Technik
notwendigen Energieabgabe berücksichtigt werden, da für die benötigte Energiemenge die Brustimpedanz des Patienten mit ausschlaggebend ist. Weil die Impedanz beim Menschen stark variiert, ist die dynamische Anpassung der Kurvenform des Energieimpulses ein wichtiges Merkmal. Bei fortschrittlichen Geräten wird die Brustimpedanz vor der Defibrillation automatisch gemessen und berücksichtigt, sodass eine genauere Energieabgabe möglich ist. Im Übrigen reduzieren größere Elektroden die Impedanz. Defibrillatoren können unterschieden werden in manuelle Defibrillatoren, Halbautomaten und automatische externe Defibrillatoren (AED), Vollautomaten sowie Defibrillatorimplantate (⊡ Abb. 22.4). Als Elektroden werden sog. Paddels, Klebeelektroden oder Löffelelektroden eingesetzt.
22.2.2 Systemeigenschaften
Neben den herkömmlichen manuellen Defibrillatoren gibt es halbautomatische und automatische Systeme (AED),
die über aufgeklebte Elektroden eine automatische EKGAnalyse durchführen und über ein integriertes Display verfügen. Bei Erkennen von Kammerflimmern wird beim halbautomatischen Gerät (⊡ Abb. 22.5) eine Empfehlung zur Defibrillation an den Bediener gegeben. Eine richtige Applikation der Klebeelektroden ist Voraussetzung für eine einwandfreie EKG-Registrierung und letztendlich Vorbeugung von gerätebedingten Fehlinterpretationen. Die erweiterbare Funktionalität, die meist durch steckbare Module erzielt wird, ermöglicht die echten Systemeigenschaften bei halbautomatischen Defibrillatoren: integrierter externer Pacer (transthorakaler Herzschrittmacher), nichtinvasiver Blutdruck, SpO2, Kapnographie, Arrhythmieerkennung und Registrierteil zur Dokumentation. AED-Systeme (⊡ Abb. 22.6) – vorwiegend mit Zweiphasenkurventechnik – geben nur dann einen Defibrillationsimpuls ab, wenn eine lebensbedrohliche Herzrhythmusstörung vorliegt und geräteseitig auch als solche erkannt wird. Zusätzlich wird der Anwender (kann
manueller Defibrillator transthorakale Anwendung
Halbautomat
automatisch externer Defibrillator (AED)
Vollautomat Defibrillatoren Einkammersystem intrakorporale Anwendung
ICD-Implantate
Zweikammersystem Dreikammersystem Atrialer Defibrillator/Atrioverter
⊡ Abb. 22.4. Übersicht der Gerätearten
a
b
⊡ Abb. 22.5a,b. a Halbautomatischer Defibrillator b Bedientableau (Quelle: Zoll)
22
402
Kapitel 22 · Defibrillatoren/ICD-Systeme
III ⊡ Abb. 22.7. Synchronisierte Defibrillation zum Zeitpunkt R+x
nicht koordiniert kontrahieren. Bei Vorhofflattern und -flimmern wird ca. 20–30% weniger Blut ausgeworfen, da die Füllmenge der Ventrikel durch Ausbleiben der Vorhofkontraktion nicht optimiert wird. Die Indikation für eine elektrische Kardioversion sind: ▬ atriales Flattern und Flimmern, ▬ AV-junktionale Reentrytachykardie, ▬ WPW- und ventrikuläre Tachykardie. ⊡ Abb. 22.6. AED (Quelle: Zoll)
auch durch angelernte Laienhelfer im Sinne einer »Public Access Defibrillation« durchgeführt werden) über ein Bedienmenü geführt. Fortschrittliche Systeme bieten darüber hinaus eine sprachunterstützte Bedienerführung. Die AHA (American Heart Association) vertritt die Auffassung, dass sich durch einen verbreiteten AED-Einsatz bis zu einem Drittel aller Todesfälle aufgrund des plötzlichen Herztods verhindern ließen. Die Anwendung von AED-Systemen wird als integraler Bestandteil der Basisreanimationsmaßnahmen eingestuft.
22.3
Therapeutische Intervention
22.3.1 Defibrillation/Kardioversion (synonym
Elektroreduktion, Elektrokonversion) Als elektrische Kardioversion wird eine synchronisierte Defibrillation (⊡ Abb. 22.7) bezeichnet, d. h. der Energieimpuls wird von der R-Zacke im EKG getriggert. Die Synchronisation wird durchgeführt, um zu verhindern, dass der Impuls in die vulnerable Phase (T-Welle) abgegeben wird und die Gefahr besteht, dass ein Kammerflimmern ausgelöst wird. Im Gegensatz dazu ist die asynchrone Kardioversion, die unabhängig von der R-Zacke erfolgt, die sog. Defibrillation (⊡ Abb. 22.8). Aus hämodynamischer Sicht wird während des Kammerflatterns und -flimmerns kaum bzw. kein Blut mehr in den Kreislauf gepumpt, da die einzelnen Muskelfasern
Bei ventrikulärem Flimmern ist die Defibrillation die einzige einzusetzende Therapie, die Aussicht auf Erfolg hat. Die elektrische Kardioversion ist kontraindiziert bei Digitalisüberdosierung, Hypokaliämie und Vorhofflimmern (wenn fehlende Antikoagulation von mindestens 2–3 Wochen und Rhythmusstörungen länger als 48 h bestehen).
22.3.2 Externe und interne Defibrillation
Die externe, transthorakale Defibrillation wird mittels Elektroden (sog. Paddles) und Energieimpulsen von ca. 2 J bis zu 360 J durchgeführt. Als Richtwert für die Impulsstärke, der sich auf das Körpergewicht bezieht, wird für Erwachsene 3 J/kg und bei Kindern 2 J/kg empfohlen. Seitens der Elektrodenapplikation wird zwischen Anterioranterior- und Anterior-posterior-Methode unterschieden: Während bei der Anterior-anterior-Methode, die hauptsächlich im Notfall angewendet wird, beide Elektroden auf den Thorax aufgesetzt werden (Herzbasis und Herzspitze), wird bei der Anterior-posterior-Methode eine großflächige Elektrode unter dem Rücken platziert. Zur Elektrotherapie bei Rhythmusstörungen wird die Anterior-posteriorMethode bevorzugt, da der größte Anteil des abgegebenen Energieimpulses direkt durch das Myokard fließt. Zur internen, d. h. intrakorporalen Defibrillation werden sterile Löffelelektroden verwendet, mit denen bei geöffnetem Thorax das freiliegende Herz (hier Perikard) umfasst wird, d. h. die Elektrodenoberflächen müssen ganzflächig am Herzmuskel anliegen. Der Energieimpuls beträgt bei der internen Defibrillation maximal 50 J.
403 22.6 · Sicherheitstechnische Aspekte
⊡ Abb. 22.8. Methodenübersicht Defibrillation/Kardioversion
Spezielle Applikationen Ösophageale Applikation Eine Ösophagusimpulselektrode (zylindrische Elektrode am Ende eines Katheters) wird in Höhe des linken Vorhofs plaziert. Die Gegenelektrode wird auf dem Thorax angebracht. Eine zusätzliche Elektrode zur Zylinderelektrode ermöglicht eine bipolare Stimulation sowie die Ableitung eines ösophagealen EKG-Signals, welches der Synchronisation des Energieimpulses dient. Intrakardiale Applikation Diese Applikation erfolgt ebenfalls über einen Katheter. Eine Elektrode liegt im Apex der rechten Herzkammer, während die zweite Elektrode in der oberen Hohlvene platziert wird.
22.4
Methodische Hinweise
Prinzipiell sind alle handelsüblichen Defibrillatoren in der Bedienung gleich und sowohl für die externe als auch interne Defibrillation geeignet. Ein optisches und/oder akustisches Signal erfolgt i. d. R., wenn der Defibrillator betriebsbereit, d. h. der Kondensator aufgeladen ist. Die mit Gel versehenen Elektroden werden fest auf den Thorax gesetzt und die vorgewählte Energiedosis ausgelöst. Meist erfolgt dies direkt über einen Auslöser an den Haltegriffen. Beginnend mit 150–200 J wird die Stromstärke bei der monophasischen Defibrillation sukzessiv erhöht. Für die externe Defibrillation hat die AHA (American Heart Association) folgendes Vorgehen empfohlen: Initial 3 Defibrillationen mit der Dosierung 200–200–360 J. Ein Maximum ist i. d. R. bei 360 J erreicht. Hingegen wird bei der biphasischen Defibrillation eine Serie mit identischer und geringerer Energie (z. B. 150 J) appliziert. Nach jeder Applikation ist der Puls und das EKG zu überprüfen.
Entscheidend für eine effiziente Defibrillation oder Kardioversion ist der abgegebene Energieimpuls und seine Amplitude, Schockform und Schockpolarität, Elektrodengröße und Elektrodenposition sowie die Homogenität der Stromdichte im Herzmuskel (Myokard).
22.5
Komplikationen
Durch die Kardioversion und Defibrillation kann es zu folgenden schwerwiegenden und leichten Komplikationen kommen: ▬ Ausgelöstes Kammerflimmern, z. B. durch falsche Triggerung, was letztlich in eine Asystolie (Herzstillstand) münden kann (Ströme von >10 mA, die durch das Herz fließen, können Flimmern in den Ventrikeln verursachen). ▬ Postdefibrillatorisch bedingte Rhythmusstörungen sind supra- und ventrikuläre Extrasystolen, ventrikuläres Flattern. ▬ Arterielle Embolien. ▬ Verbrennungen und Reizungen der Haut, bspw. durch eine unzureichende Menge an Elektrodenkontaktpaste auf der Elektrodenoberfläche.
22.6
Sicherheitstechnische Aspekte
Anwendung: ▬ Direktes Berühren der Elektroden (lebensgefährlich!), leitfähiges Berühren der Patienten oder anderer Personen vermeiden (Sicherheitsabstand!). ▬ Patientenhaut sollte keine Feuchtigkeit aufweisen (elektrische Brücke!), des Weiteren sollte der Patient elektrisch isoliert gelagert werden. ▬ Kardioversion nur bei artefaktfreiem EKG und wenn sichere EKG-Kontrolle möglich ist.
22
404
Kapitel 22 · Defibrillatoren/ICD-Systeme
▬ Bei zuviel Elektrodenkontaktpaste auf den Paddels be-
III
steht die Möglichkeit einer elektrischen Brücke (Kurzschlussgefahr). ▬ Alle zusätzlichen Geräte, die mit dem Patienten verbunden sind, müssen defibrillationsfest sein; andernfalls müssen diese während der Kardioversion/Defibrillation vom Patienten getrennt werden. ▬ Vorsicht bei Patienten mit energetischen Implantaten: Die Funktion der Implantate kann eingeschränkt oder aufgehoben, das Implantat selbst beschädigt oder gar unbrauchbar werden. Gerät: ▬ Defibrillatoren gehören zur Klasse IIb MPG. ▬ Defibrillatoren dürfen nur in explosionsgeschützter Atmosphäre verwendet werden. ▬ Geräte, die nicht defibrillatorgeschützt sind, sind vom Patienten zu trennen, ansonsten ▬ Gerätekennzeichnung nach DIN-IEC 601 mit Defibrillationsschutz. ▬ Maximale Energie 360 J. ▬ Auslösetasten nur an beiden Paddels (in Reihe geschaltet). ▬ Schutzschaltungen, die bei Ausschalten des Defibrillators reduzierte Energieeinstellung und spätestens nach 1 min nach Defibrillatoraufladung eine Energierücknahme gewährleisten. ▬ Defibrillatoren sollten aufgrund des unvorhersehbaren und häufig wechselnden Einsatzes auf ihrem Gerätestandort immer am Netz angeschlossen sein, um ad hoc funktionstüchtig und einsatzbereit zu sein.
22.7
Implantierbare Kardioverter/ Defibrillatoren (ICD)
Die sichere Erkennung und Behandlung von lebensbedrohlichen Kammertachykardien und von Kammerflimmern, welche sich medikamentös nicht therapieren lassen, sind primäres Einsatzgebiet implantierbarer Kardioverterdefibrillatoren (ICD-Systeme; ⊡ Abb. 22.9). Bei Bedarf kann der ICD auch in bradykarden Phasen Schrittmacherimpulse abgeben. Weiterhin können fortschrittliche ICD-Systeme antitachykard stimulieren, kardiovertieren und defibrillieren. ICD-Implantationen haben zahlenmäßig deutlich zugenommen. Folgende Gründe sind für diese Entwicklung ausschlaggebend: ▬ Eine vereinfachte Implantationstechnik reduziert die operationsbedingte Mortalität. ▬ Sehr geringe Morbidität. ▬ Hohe Patientenakzeptanz. ▬ Im Vergleich zur medikamentösen Therapie zur Verhinderung des plötzlichen Herztodes – im Rahmen der Sekundärprophylaxe bspw. nach hämodynamisch
⊡ Abb. 22.9. Thoraxaufnahme mit implantiertem ICD-System (Quelle: Medtronic)
wirksamer Kammertachykardie – ist die ICD-Therapie überlegen. ▬ Bei idiopathischem Kammerflimmern gibt es z. Zt. keine Alternative zur ICD-Therapie. ▬ Eine weitere Indikation ist die Primärprophylaxe bei symptomfreien Hochrisikopatienten. ▬ Durch sinkende Produktpreise bei steigender Produktlebensdauer sind die ICD-Therapiekosten erheblich gesunken.
22.7.1 ICD-Entwicklung
In der ICD-Entwicklung sind insbesondere folgende zeitliche Ereignisse von Interesse und Bedeutung: Die erste transthorakale Defibrillation mit Gleichstrom wurde 1962 von Lown durchgeführt. Bereits 1969 wurde von Mirowski das erste Modell eines implantierbaren automatischen Defibrillators (»automatical implantable cardioverter/defibrillator«, AICD) vorgestellt und 1980 erstmalig einem Menschen implantiert. Von diesen Systemen wurden Kammerflattern und -flimmern durch die Kriterien Herzfrequenz und/oder Fehlen isoelektrischer EKG-Anteile erkannt. Die Arrhythmiedetektion erfolgte über myokardiale Schraubelektroden. 1988 wurde ein programmierbares und bereits 1989 ein multiprogrammierbares ICD-System in der Klinik eingesetzt. Der erste Zweikammer-ICD wurde 1995 angeboten, während 1996 schon ein atrialer Defibrillator implantiert wurde. ICD-Systeme, die intraatrial implantiert werden, sind ein sicheres und effektives Verfahren zur Terminierung von Vorhofflimmern. Dabei ist zum einen die niedrige
405 22.7 · Implantierbare Kardioverter/Defibrillatoren (ICD)
Energieabgabe von Vorteil und zum anderen, dass der Patient keine Kurznarkose benötigt. 1997 erfolgte erstmals die Implantation eines kombinierten atrialen ventrikulären Defibrillators. Bei neueren atrioventrikulären Defibrillatoren ist von besonderem Interesse, dass sie neben der vollautomatischen Detektion von Vorhof- und Kammersignalen auch in beiden Herzkammern elektrische Impulse abgeben, um auftretende Arrhythmien zu terminieren. Ein weiterer Entwicklungsschub kam 1998 von der Freiburger Universitätsklinik durch die Einführung eines im Körper selbst generierten 6-kanaligen EKG. Dieses in das ICD-System integrierte EKG erlaubt es erstmals, akute Durchblutungsstörungen des Herzens und damit einen drohenden Herzinfarkt frühzeitig zu erkennen. Daneben können Risikoparameter fortlaufend erfasst werden, um den Patienten oder den behandelnden Arzt vor dem bevorstehenden Auftreten von lebensbedrohlichen Arrhythmien zu warnen.
22.7.2 Systemtechnik
Miniaturisierte Bauweise, effektivere Defibrillationen durch energieärmere Impulse sowie neue Batterietechnologien machen es möglich, dass heute eine subfaziale präpektorale Implantation bei transvenöser Elektrodeninsertion in Lokalanästhesie Standard ist (⊡ Abb. 22.10). Die ICD-Technik (gängige Produkte haben ein Volumen <40 cm3 und ein Gewicht <80 g bei einer durchschnittlichen Gerätelebensdauer von 4–6 Jahren), bietet heute integrierte Einkammer-, Zweikammer- und Dreikammer-Systeme (biventrikulär), wobei diese Systeme auch immer Schrittmacherfunktionen übernehmen können. Integrierte VVIR- oder DDDR-Herzschrittmacher Schaltkreise sind Standard in der heutigen ICD-Technik. Die Gerätelebensdauer von Zweikammersystemen ist etwas kürzer als die von Einkammersystemen. Neue Schockformen, verbesserte Elektrodensysteme und optimierte Schockabgaben bewirken eine deutliche Absenkung der Defibrillationsschwelle (DFT), die heute i. d. R. unter 15 J liegt. Hinzu kommt, dass kurze und konstante Ladezeiten einen Anstieg der DFT verhindern. Derzeit werden vorzugsweise biphasische oder sequentielle Defibrillatorimpulse klinisch eingesetzt. Untersuchungen haben bestätigt, dass die notwendige Impulsenergie mit der Zeitdauer des Kammerflimmerns und der Zunahme an Erregungsfronten zunimmt und umgekehrt die Energie geringer ist, je eher das Kammerflimmern nach dessen Entstehung terminiert wird. Umfangreiche diagnostische Programmspeicher, die im Zusammenhang mit der Patientennachbetreuung eine Validierung der therapeutischen Intervention ermöglichen, gehören heute zur Standardausstattung. Einige ICD-Geräte bieten die Möglichkeit, aufgenommene intrakardiale Elektro-
⊡ Abb. 22.10. Implantiertes ICD-System (schematisch) (Quelle: Medtronic)
gramme per Mobilfunk an eine zentrale Datenbank zu senden. Auf die überlieferten Daten kann der behandelnde Arzt via Internet zugreifen.
22.7.3 Algorithmen
Interne EKG-Signalerkennungsalgorithmen analysieren die Amplitude, Frequenz und Flankensteilheit des EKGs. Durch Fehlinterpretation tachykarder Rhythmusstörungen kann es sowohl zu falschen ICD-Entladungen als auch zum fehlerhaften Nichterkennen ventrikulärer Rhythmusstörungen kommen. Die Erkennung ventrikulärer Tachykardien beruht auf unterschiedlichen Algorithmen. ICD-Algorithmen unterscheiden supraventrikuläre und ventrikuläre Tachykardien nach Frequenzstabilität, QRSBreitenkriterium (wenn bspw. 6 von 8 QRS-Komplexen breiter sind als im Sinusrhythmus), »sudden-on set«, das Verhältnis atrialer und ventrikulärer Signale, Ort der Akzeleration, AV-Assoziation oder über eine Mustererkennung – über ein Zeitfenster zwischen zwei RR-Intervallen – verschiedene Varianten der AV-Beziehungen. Detektionskriterien können programmiert werden. Ferner ist es möglich, Vorhofereignisse in die Detektionsalgorithmen miteinzubeziehen. Der Mode-Switch-Algorithmus veranlasst einen automatischen Betriebsartwechsel vom DDDR- in den DDIR Betriebsmodus, um sicherzustellen, dass nach Erkennen hoher atrialer Frequenzen der getriggerte Modus für die Ventrikelstimulation zugunsten einer inhibierten Funktionsweise verlassen wird. Um die Sensitivität und Spezifität der Detektion ventrikulärer Tachykardien in der ICD-Therapie zu erhöhen, ist es sinnvoll, neben den elektrischen Kriterien auch Informationen über die hämodynamische Situation wie Kontraktilität des linken Ventrikels zu berücksichtigen.
22
406
Kapitel 22 · Defibrillatoren/ICD-Systeme
22.7.4 Elektroden
III
War Anfang der 1990er Jahre die ICD-Implantation noch ein aufwändiger herzchirurgischer Eingriff unter Einschluss extrakorporaler Zirkulation, so folgte mit der Entwicklung einer transvenösen Elektrode eine erhebliche Vereinfachung. Die Kombination transvenöser Elektroden mit subkutanen Defibrillationselektroden ist ein wesentlicher Fortschritt, da eine Thorakotomie, d. h. Öffnung des Brustkorbs, zur ICD-Implantation weitgehend vermieden werden kann. Neuere Systeme verfügen über eine intrakardiale Elektrode. Als Anode wird das elektrisch aktive Aggregatgehäuse (»active-can«) genutzt. Bi- und tripolare EKG-Ableitungen in ICD-Systemen ermöglichen eine zuverlässige Ischämieerfassung, die dem konventionellen OberflächenEKG wegen einer frühzeitigen Erkennung von Ischämien sowie deren Schwere und Dauer deutlich überlegen ist.
22.7.5 Komplikationen
Von harmlosen Komplikationen wie Hautreizungen, leichten Verbrennungen an der Elektrodenauflagefläche bis hin zu schweren Komplikationen wie dem Auftreten von Extrasystolen nach Defibrillation, Kammertachykardien, -flimmern (bei falscher Triggerung) oder dem Auftreten einer Asystolie nach Elektrokonversion beim Sinusknotensyndrom reicht das Spektrum der ICD-Komplikationen.
22.7.6 Funktionskontrolle
War es bis vor einiger Zeit aus technischen Gründen noch notwendig, die Funktionsfähigkeit des Implantats von ICD-Patienten alle 2 Monate zu überprüfen, wird dieser Check inzwischen von den Geräten selbständig ausgeführt. Eine 6- bis 12-monatige Funktionskontrolle des Systems (ICD-Abfrage, Analyse von gespeicherten EKG, Batteriestatus, Wahrnehmungstest u. a.) ist ausreichend. Bei Hinweis auf fehlerhafte Wahrnehmung (sog. Overoder Undersensing) wird i. d. R. der Thorax geröntgt, um Isolationsdefekte der Sonde zu erkennen. Ein Batteriewechsel ist nach ca. 200 abgegebenen Elektroimpulsen
erforderlich. Telemetrisch können abgespeicherte Daten wie Therapieepisoden, Elektrokardiogramme, Batteriezustand oder Elektrodenwiderstand abgefragt werden. Bei Schrittmacher- und ICD- Implantationen werden zur Funktionskontrolle unterschiedliche Geräteparameter intraoperativ gemessen und ggf. justiert (⊡ Tab. 22.1).
Weiterführende Literatur Adams HA et al. (1999) Kardiopulmonale Reanimation. In: Adams HA, Sefrin P, Hempelmann G (Hrsg) Notfallmedizin, Bd 3. Stuttgart Ahnefeld FW et al. (1991) Richtlinien für die Wiederbelebung und Notfallversorgung. Deutscher Ärzteverlag, Köln American Heart Association (1986) Standards and guidelines for cardiopulmonary resuscitation (CPR) and emergency cardiac care (ECC). J Am Med Assoc 255: 2841 ANSI/AAMI (1981) American National Standard for Cardiac Defibrillation Device. DF 2 Bolz A, Urbaszek W (2002) Technik in der Kardiologie. Springer, Berlin Heidelberg New York Tokio DIN-VDE 0750, Teil 201 (1985) Medizinische Geräte. Besondere Festlegung für die Sicherheit von Defibrillatoren mit und ohne Monitor DIN-VDE 0753, Teil 3 (1983) Anwendungsregeln für Defibrillatoren Erdmann E (2006) Klinische Kardiologie. Springer, Berlin Heidelberg New York Tokio Götz E, Zander J (1994) Wiederbelebung. In: Lawin P (Hrsg) Praxis der Intensivbehandlung, 6. Aufl. Thieme, Stuttgart, S 309–310 Haverkamp W et al. (2003) Moderne Herzrhythmustherapie. Thieme, Stuttgart Lutamsky B, Flake F (1997) Leitfaden Rettungsdienst. Fischer, Stuttgart Lüteritz B (1998) Herzrhythmusstörungen. Diagnostik und Therapie, 5. Aufl. Springer, Berlin Heidelberg New York Tokio Fiedermetz M (1999) Frühdefibrillation. In: Madler C, Jauch KW, Wodan K (Hrsg) Das NAW-Buch. Praktische Notfallmedizin, 2. Aufl. Urban & Schwarzenberg, München Wien, S 341–348 Fröhlig G et al. (2006) Herzschrittmacher und Defibrillator-Therapie, Thieme, Stuttgart Pop T (1998) Notfallmedizin. Repetitorium: Kardiovaskuläre Notfälle. Demeter, Stuttgart Planta M von (1999) Herz-Kreislaufstillstand/Cardiopulmonale Reanimation (CPR). In: Gyr E, Schoenenberger RA, Haefeli WE (Hrsg) Internistische Notfälle, 6. Aufl. Thieme, Stuttgart, S 8–13 Presseinformation (12/2000) Albert-Ludwigs-Universität Freiburg Sefrin P (1999) Notfalltherapie, 6. Aufl. Urban & Schwarzenberg, München Wien Roskamm H et al. (2004) Herzkrankheiten, 5. Aufl. Springer, Berlin Heidelberg New York Tokio Wietholt D et al. (1997) Implantierbare Kardioverter-Defibrillatoren. Thieme, Stuttgart Ziegenfuß T (1997) Rettungsmedizin. Thieme, Stuttgart
⊡ Tab. 22.1. Grenzwerte für die intraoperativen Messungen bei Implantationen von Schrittmachern und ICD-Systemen (Roskamm H, 2004) Ventrikel
Atrium
Signalamplitude
>5 mV, optimal >8 mV
>2 mV, optimal >3 mV
Reizstromschwelle (bei 0,5 ms)
<1 V, optimal <0,5 V
<1 V, optimal <0,5 V
Impedanz (elektrodenabhängig)
300 bis 1200 Ω
300 bis 1200 Ω
slew rate
>0,5 V/s
>0,3 V/s
23 Lasersysteme H. Albrecht, E. Rohde, F. Zgoda, G. Müller 23.1 Geschichte
– 407
23.2 Physik und Technik 23.2.1 23.2.2 23.2.3 23.2.4
– 408
Lasermedium – 409 Laserstrahl – 410 Lasergerät – 411 Strahlführungssysteme – 412
23.3 Anwendungsmethoden
– 412
23.3.1 Berührungsloser Einsatz – 412 23.3.2 Kontaktmethode – 413 23.3.3 Gas- oder Flüssigkeitsspülung beim Laserschneiden – 413 23.3.4 Spezielle Applikatoren – 413
23.4 Biophysikalische Wirkungen auf Gewebe – 413 23.4.1 23.4.2 23.4.3 23.4.4
Absorption und Eindringtiefe – 413 Photochemische Effekte – 414 Photothermische Effekte – 415 Photodekompositionseffekte – 415
23.5 Lasertypen in der Medizin – 416 23.5.1 Rubinlaser – 416 23.5.2 Neodym:YAG-Laser – 416 23.5.3 Frequenzverdoppelter Nd:YAG-Laser (sog. KTP-Laser) – 416 23.5.4 Erbium:YAG-Laser – 416 23.5.5 Holmium:YAG-Laser – 417 23.5.6 Alexandritlaser – 417
23.1
Geschichte
Die Geschichte des Lasers ist von Anfang an eng mit medizinischen Anwendungen verknüpft. Heilen mit Licht war schon zuvor Bestandteil der Medizin. Die Wirkung einer Lichttherapie zur Behandlung von Hautkrankheiten, die Unterstützung der Vitamin-D-Produktion durch UV-Licht und die Nutzung der Sonnenstrahlung zur Behandlung von Augenerkrankungen (Meyer-Schwickerath 1948) sind lange bekannt. Die Besonderheit der Laserstrahlung liegt darin, dass es sich um eine gut steuerbare Energiequelle handelt, die wahlweise zur gezielten Erhitzung von Gewebe, zur Zerstörung von körpereigenen Steinen oder zur selektiven Anregung photochemischer Prozesse eingesetzt werden kann [6]. Das Wort LASER ist ein Akronym aus Light Amplification by Stimulated Emission of Radiation, auf deutsch »Lichtverstärkung durch induzierte Emission von Strahlung«. Dieser Prozess, bereits 1917 von Einstein postuliert [9],
23.5.7 23.5.8 23.5.9 23.5.10 23.5.11 23.5.12 23.5.13
Diodenlaser – 417 CO2-Laser – 417 Argon- und Kryptonionenlaser – 417 Excimer-Laser – 418 HeNe-Laser – 418 Farbstofflaser – 418 Freie-Elektronen-Laser – 418
23.6 Anwendungsfelder 23.6.1 23.6.2 23.6.3 23.6.4 23.6.5 23.6.6 23.6.7 23.6.8
– 418
Auge – 418 Körperoberfläche – 420 Gefäßsystem – 420 Offene Chirurgie – 420 Endoskopie – 421 Photodynamische Therapie – 421 Lithotripsie – 421 Laserinduzierte Thermotherapie – 421
23.7 Sicherheitsaspekte
– 422
23.7.1 Zulässige Bestrahlung und Laserklassifizierung – 422 23.7.2 Sicherheitstechnische Anforderungen an Lasergeräte – 423 23.7.3 Organisatorische Schutzmaßnahmen und Anwendungssicherheit – 424
23.8 Zukunftsperspektiven
– 425
Weiterführende Literatur – 426
ist die Grundlage für die Erzeugung monochromatischen, kohärenten und kollimierten Lichts, womit höhere Leistungsdichten und größere spektrale Reinheit erreichbar sind als mit jeder anderen Lichtquelle. Townes realisierte 1954 nach diesem Prinzip den ersten MASER, einen Verstärker für Mikrowellen. 1958 wurde das Prinzip des Lasers für optische Strahlung erstmals durch Schawlow und Townes (USA) sowie durch Basov und Prokhorov (UdSSR) veröffentlicht. Maiman realisierte 1961 den ersten Laser mit sichtbarem Licht (Rubinlaser), noch im gleichen Jahr folgte Javan mit dem ersten infraroten Gaslaser (HeNe). In der Medizin wurde der Rubinlaser 1961 von Campbell in der Augenheilkunde und 1963 von Goldman in der Dermatologie eingesetzt. Während sich der Laser in der Ophthalmologie (zunächst vor allem der Argonionenlaser, L’Esperance 1968) von da an einen festen, allgemein anerkannten Platz erobern konnte, hielt er in andere Bereiche der Medizin erst nach und nach Einzug. Mester, ein
408
III
Kapitel 23 · Lasersysteme
Arzt aus Budapest, hat zuerst 1964 mit einem Rubinlaser, dann 1974 mit einem schwachen Helium-Neon-Laser die Biostimulation versucht. Ein weiterer Laser, der als »Lichtskalpell« in alle chirurgischen Disziplinen Eingang gefunden hat, ist der Kohlendioxidlaser (CO2-Laser). Seine ersten Anwendungen fanden 1965 durch Polanyi und 1967 durch Kaplan statt. Der Argonionen- und vor allem der Nd:YAG-Laser wurden für die breitere medizinische Applikation erst interessant, als es gelang, sie in Glasfasern einzukoppeln. 1971 entwickelte Naht eine Faser, die er zusammen mit Kiefhaber 1973 erstmals im Tierversuch über Endoskope im Magen-Darm-Trakt anwandte. Die weitere Entwicklung schritt dann sehr schnell voran. 1975 haben Dwyer in den USA und Frühmorgen in Erlangen einen Argonionenlaser zur Stillung von Magenblutungen an Patienten benutzt. Ende 1975 hat Kiefhaber hierfür einen Nd:YAG-Laser eingesetzt. 1976 erfolgte durch Hofstetter der Lasereinsatz in der Urologie, und 1979 meldete Choy ein Patent zur Eröffnung verkalkter Arterien mit dem Argonionenlaser an. Nachdem 1960 die Hämatoporphyrinderivate (HpD) entdeckt worden waren, fand diese Substanzklasse 1972 erstmals durch Diamond Anwendung in der photodynamischen Therapie, die dann 1975 von Dougherty weitgehend standardisiert werden konnte. Bei den gepulsten Systemen wurden 1977 erstmals Güteschaltung (Q-switching) und Phasenkopplung (modelocking) von Fankhauser und Aron-Rosa in der Ophthalmologie eingesetzt. 1983 fand in diesem Fachgebiet auch der erste Einsatz des Excimer-Lasers durch Trokel statt. Heute steht dem Arzt eine Vielzahl von Lasern für die verschiedensten Indikationen zur Verfügung. In zahlreichen medizinischen Bereichen hat sich der Laser dank seiner Vorteile als Standardverfahren etabliert, während zugleich ständig neue Anwendungsfelder erschlossen werden.
23.2
im Bereich des Ultraviolett (UV) mit einer Wellenlänge von etwa 0,2 μm beginnt und bis ins Infrarote bis etwa 10 μm Wellenlänge reicht. Da die meisten Laser auf einem schmalen spektralen Übergang von Elektronen beruhen, kann man sie nicht einfach wie einen Radiosender durchstimmen; eine Ausnahme bilden Farbstofflaser, vibronische Festkörperlaser und der Freie-Elektronen-Laser. Einige Gaslaser bieten zwar je nach Art des gewählten Mediums mehrere Wellenlängen, aber auch diese sind nicht veränderbar. Ferner unterscheiden sich Lasersysteme in ihrer technisch-physikalischen Ausgestaltung, was die konstruktive Anordnung und das Zeitverhalten des Laserstrahls betrifft. Der Laser allein stellt nur eine Lichtquelle dar, benötigt wird jedoch ein komplettes System, das mit einem Übertragungssystem und einem Endgerät die Strahlung dirigierbar an das zu therapierende Gewebe bringt, und ein Verfahren zur Kontrolle der Wirkung. Je nach Wellenlänge wird zur Übertragung eine Glas- oder Quarzfaser, ein Faserbündel, ein Hohlleiter oder ein Spiegelgelenkarm verwendet. Endgeräte können z. B. ein Operationsmikroskop mit Mikromanipulator, ein Endoskop oder eine Spaltlampe sein (⊡ Abb. 23.2).
Physik und Technik
Ein Laser ist ein Gerät zur Umwandlung elektrischer Energie in »geordnete« Lichtenergie. Konventionelle Lichtquellen, wie Glühlampen oder Leuchstoffröhren, verhalten sich zu Lasern wie eine Funkenstrecke zu einem Rundfunksender. Als ideale Lichtsender sind Laser das direkte Analogon im Terahertzbereich zum Radiosender im Megahertzbereich. Die von Einstein postulierte induzierte Emission ist zwar als Effekt in jeder Leuchterscheinung von Materie rudimentär vorhanden, kann aber nur in ausgewählten Materialien wirklich zur Dominanz gebracht werden. So wie in der Medizin bei verschiedenen Operationen spezielle Instrumente verwendet werden, gibt es auch zur Anpassung an das zu behandelnde Gewebe und spezielle Therapien unterschiedliche medizinische Lasergeräte (⊡ Abb. 23.1, auch 4-Farbteil am Buchende). Diese unterscheiden sich vor allem in ihrer Emissionswellenlänge, die
⊡ Abb. 23.1. Medizinische Lasersysteme mit ihren Wellenlängen
⊡ Abb. 23.2. Komponenten eines medizinischen Lasersystems
409 23.2 · Physik und Technik
Die Kontrolle der Wirkung hängt vom laserinduzierten Prozess ab und beruht in vielen Fällen auf der visuellen Beurteilung durch den erfahrenen Therapeuten. Bei sehr differenzierten Vorgehensweisen mit einer präzisen Dosissteuerung, wie der interstitiellen Thermotherapie von Tumoren oder Metastasen, können auch bildgebende Systeme wie Ultraschall oder Magnetresonanztomographie zum Einsatz kommen.
23.2.1 Lasermedium
Um die Notwendigkeit der Gerätevielfalt zu verstehen, seien einige physikalische Grundlagen erläutert, auf denen die verschiedenen »Lichtverstärker durch induzierte Emission« beruhen. Spontane Emission von Licht erfolgt, wenn einem Körper (Gas, Flüssigkeit oder Festkörper) Energie zugeführt wurde, sodass »Leuchtelektronen« aus dem Grundzustand n1 in einen angeregten Zustand (Niveau) n2 gebracht wurden, das Elektron nach einer charakteristischen mittleren Zeit wieder spontan in den Grundzustand übergeht und dabei ein Photon emittiert wird. Die Verteilung der Elektronen auf den Grundzustand und die angeregten Zustände (Besetzungszahl) hängt von der Temperatur ab (⊡ Abb. 23.3): Je höher die Temperatur ist, desto mehr Elektronen befinden sich im Mittel in angeregten Zuständen. Bei einer thermischen Lichtquelle (Glühlampe) wird ständig Energie durch Erwärmen zugeführt, um Elektronen wieder in höhere Niveaus zu »pumpen«. Die Verweildauer in den angeregten Niveaus ist kurz; damit das Elektron wieder in den Grundzustand übergehen kann, darf dieser nicht komplett gefüllt sein. Die Anre-
⊡ Abb. 23.3. Niveauschema für »Leuchtelektronen« und Besetzungszahlen für verschiedene Temperaturen
gung eines Elektrons kann auch durch Einstrahlen von Licht erfolgen. In diesem Fall wird durch Absorption der entsprechenden Energiedifferenz ΔE das höhere Niveau besiedelt. Neben dem unmittelbaren Übergang von einem höheren Niveau direkt zum Grundniveau kann die Rückkehr in den Grundzustand auch in Stufen über mehrere Zwischenniveaus erfolgen. Da die Lebensdauer der Niveaus unterschiedlich ist, d. h. die Niveaus unterschiedlich schnell entleert werden, können sich Elektronen in höheren Niveaus »ansammeln«. In diesem Fall spricht man von einer Besetzungsinversion. Die induzierte Emission ist ein Prozess, bei dem durch Einstrahlung eines Photons passender Energie der vorzeitige Übergang eines Elektrons aus einem besetzten höheren Niveau in das teilweise entleerte Grundniveau ausgelöst wird. Die Besonderheit ist, dass das emittierte Photon die gleiche Wellenlänge, Richtung und Phase wie das einfallende Photon besitzt, das bei diesem Vorgang nicht absorbiert wird. Das eingestrahlte Photon wurde also dupliziert, d. h. »verstärkt«. Die meisten Laser nutzen mehrere Niveaus, die sich in der Lebensdauer und der Besetzungszahl unterscheiden. Die ⊡ Abb. 24.4 zeigt die Schemata für einen 3- bzw. 4-Niveau-Laser. Für den Laserprozess muss die Zahl der Atome, bei denen das höhere, obere Laserniveau besetzt ist, immer größer gehalten werden als die Besetzungszahl des niedrigen, unteren Laserniveaus. Als Lasermedium können alle Stoffe verwendet werden, bei denen diese Besetzungsinversion erzeugt werden kann, z. B. freie Atome, Moleküle und Ionen in Gasen oder Dämpfen, in Flüssigkeiten gelöste Farbstoffmoleküle, in Festkörpern (Kristallen und Gläsern) eingebaute Atome und Ionen, dotierte Halbleiter und freie Elektronen in äußeren Feldern. Der jeweilige Anregungsmechanismus für die Erzeugung einer Besetzungsinversion ist spezifisch für den jeweiligen Lasertyp. Die wichtigsten Verfahren sind das optische Pumpen und die elektrische Gasentladung. Bei den Halbleiterlasern erfolgt die Anregung direkt durch elektrischen Strom (Ladungsinjektion). Auch chemische Reaktionen können zum Anregen genutzt werden. Bei kontinuierlich strahlenden Lasern muss die Besetzungsinversion ständig aufrechterhalten werden, d. h. es muss kontinuierlich »Pumpenergie« zugeführt werden. Im Lasermedium emittieren angeregte Atome bereits spontan Photonen in alle Richtungen. Diese können nun im Lasermedium durch induzierte Emission weitere Photonen erzeugen, die dann ihrerseits wiederum induzierte Photonen freisetzen usw. Dieser Vorgang setzt sich lawinenartig fort, bis die Photonen das Lasermedium verlassen. Gibt man dem Lasermedium in einer Richtung eine größere Ausdehnung, so werden Photonenlawinen, die zufällig in dieser Längsrichtung entstehen, bedeutend höher verstärkt als in jeder anderen Richtung, weil sie länger durch das Lasermedium laufen.
23
410
Kapitel 23 · Lasersysteme
Durch zwei Spiegel an den beiden Enden kann man die Photonenlawine wieder in das Lasermedium reflektieren und so eine weitere Verstärkung erreichen. Bei optimaler Justierung der Spiegel läuft die Photonenlawine bis zu einigen hundert Malen in der »Resonator« genannten Spiegelanordnung im Lasermedium hin und her. Damit ein Teil der Photonen den Resonator als nutzbarer La-
III
serstrahl verlassen kann, wird einer der Resonatorspiegel teildurchlässig ausgeführt. ⊡ Abb. 23.5 zeigt einen Vergleich zwischen einem Hochfrequenzsender mit den Komponenten Verstärker und Rückkopplung und einem Laser, bei dem Lasermedium und Resonator die entsprechenden Funktionen besitzen.
23.2.2 Laserstrahl
Im Unterschied zur Strahlung einer thermischen Lichtquelle sind für Laserlicht insbesondere drei Eigenschaften charakteristisch (⊡ Abb. 23.6): ▬ Kohärenz: Laserstrahlung hat eine bestimmte räumliche und zeitliche Ordnung (feste Phasenbeziehungen). ▬ Kollimation: Die Strahlung des Lasers ist sehr gut gebündelt (geringe Divergenz). ▬ Monochromasie: Ein schmales (»einfarbiges«) Spektralband hoher Intensität wird emittiert.
⊡ Abb. 23.4. Niveauschemata
⊡ Abb. 23.5. Vergleich des Funktionsprinzips eines Hochfrequenzsenders und eines Lasers mit dem Lasermedium als Verstärker
Diese drei Eigenschaften bedingen die gute Fokussierbarkeit zur Erreichung hoher Energiedichten und machen damit auch ein exaktes Arbeiten mit einem Strahl kleinster Querschnittsfläche möglich. Neben den physikalischen Grundeigenschaften Monochromasie, Kohärenz und Kollimation des Laserlichts sind für die medizinische Anwendung die optischen Eigenschaften der biologischen Gewebe von ausschlaggebender Bedeutung. Wichtig für die Diagnostik mit Laserlicht sind das Absorptionsverhalten, die Fluoreszenz und das Streuverhalten. Diese Eigenschaften werden photometrisch und spektroskopisch ausgewertet. In der Therapie werden überwiegend die Kollimation der Strahlung und die Absorptionseigenschaften des bestrahlten Gewebes genutzt. Die Wechselwirkung der Strahlung mit den verschiedenen Gewebearten wird im Wesentlichen durch zwei Parameter bestimmt: die Ein-
411 23.2 · Physik und Technik
wirkzeit der Strahlen auf das Gewebe und die effektiv zur Wirkung gelangende Leistungsdichte (⊡ Abb. 23.7). Durch entsprechende Wahl der Fokusgröße kann die Leistungsdichte in einem weiten Bereich variiert werden. Mit kurzen Brennweiten wird ein kleinerer Fokus erreicht
als mit längeren, allerdings verändert sich auch die Einstrahlfläche bei kleinen Abweichungen vom optimalen Abstand für kurze Brennweiten wesentlich stärker. Die Einwirkzeit kann gesteuert werden, indem die Strahlung kontinuierlich (cw = continuous wave) oder getaktet (mit einstellbarem Puls-Pause-Verhältnis) oder kurz gepulst angewendet wird. Damit lässt sich für die verschiedenen Gewebewirkungen das Verhältnis von therapeutischem Effekt zu Nebenwirkungen kontrollieren.
23.2.3 Lasergerät
Lasergeräte bestehen nicht nur aus dem Lasermedium, dem Resonator und der Pumpquelle. Da nur ein kleiner Teil der aufgewendeten Energie in Laserlicht umgewandelt wird, muss ein erheblicher Teil als Wärme abgeführt werden. ⊡ Abb. 23.8 gibt einen Überblick über das Verhältnis von Pumpenergie zu Laserenergie für gebräuchliche Lasertypen. Der Wirkungsgrad eines Argonionenlasers beträgt unter 0,1%, der eines Nd: YAG-Lasers ca. 1–3% und der eines CO2-Lasers 5–20%. Die Lichtausbeute einer Halogenglühlampe beträgt zum Vergleich ca. 3%. Die wesentlichen Komponenten medizinischer Lasersysteme zeigt ⊡ Abb. 23.9. Schematisch dargestellt sind der Laserresonator mit Pumpquelle, die Stromversorgung und Kühlung sowie der Detektor für die Leistungsmessung, der Sicherheits-Shutter zur Freigabe der Laserstrahlung und die Einkopplung eines Pilot- oder Zielstrahls bei Laserwellenlängen im unsichtbaren UV- oder IR-Bereich.
⊡ Abb. 23.6a–c. Eigenschaften von Laserlicht. a Kohärenz, b Kollimation, c Monochromasie
⊡ Abb. 23.7. Verhältnis von Fokusgröße und Leistungsdichte für verschiedene Brennweiten und Arbeitsabstände, Variation der Leistungsdichte und Fleckgröße beim Koagulieren und Schneiden
⊡ Abb. 23.8. Laserenergie in Relation zur Pumpenergie; die Verluste müssen durch Kühlung abtransportiert werden
23
412
Kapitel 23 · Lasersysteme
23.2.4 Strahlführungssysteme
III
Für die Applikation der Laserstrahlung auf das zu behandelnde Gewebe muss die Entfernung zwischen Lasergeräteausgang und Patient überbrückt werden (vgl. ⊡ Abb. 23.2). Für die Übertragung von sichtbarem Laserlicht und den angrenzenden Spektralbereichen von ca. 0,3–2 μm lassen sich flexible Glas- bzw. Quarzfasern, ggf. mit spezieller Dotierung, verwenden. Außerhalb dieses Bereichs werden Spiegelgelenkarme verwendet, um die Bereiche 0,19–0,3 μm (Excimer-Laser) und 3–10 μm (Erbium- und CO2-Laser) abzudecken (⊡ Abb. 23.10). CO2-Laserstrahlung wird teilweise auch mit Hohlleitern über kurze Entfernungen übertragen, allerdings erreicht die Strahlqualität dabei nicht die mit einem Spiegelgelenkarm mögliche. Besondere Anforderungen werden
bei der Übertragung kurzgepulster, energiereicher Laserstrahlung z. B. zur Laserlithotripsie und Laserangioplastie an die Lichtleitfasern gestellt. Für alle Wellenlängen und Leistungsdichten, die mit herkömmlichen Lichtleitfasern nicht oder nur schlecht übertragen werden können, sind die derzeit entwickelten photonischen Fasern (photonic bandgap fibers) von großem Interesse. Diese speziellen Fasern weisen einen hohlen Kern auf, der von einem periodisch mikrostrukturierten Mantel umgeben ist. Die zweidimensionale periodische Struktur stellt eine »photonische Bandlücke« im Fasermaterial dar, in der sich Strahlung einer bestimmten Wellenlänge nicht ausbreiten kann. Sie wird daher mit sehr geringer Dämpfung und praktisch dispersionsfrei im hohlen Kern geführt.
23.3
Anwendungsmethoden
23.3.1 Berührungsloser Einsatz
⊡ Abb. 23.9. Technische Komponenten eines Lasergerätes: Der Laserstrahl wird bei Wellenlängen außerhalb des sichtbaren Bereichs mit einem sichtbaren Zielstrahl markiert, der Detektor misst die Intensität oder Energie am Laserkopf. Nicht dargestellt ist der Fußschalter zur Freigabe der Strahlung
⊡ Abb. 23.10. Laserwellenlängen und Verfügbarkeit von Lichtwellenleitern für verschiedene Lasersysteme
Beim berührungslosen Einsatz wird die Laserstrahlung über Strahlführungssysteme an das Gewebe gebracht, ohne dass das Gewebe berührt wird. Hierfür kommen Spiegelgelenkarme und Quarz- bzw. Glasfasern in Frage. Gegenüber Spiegelgelenkarmen erlauben Lichtleitfasern eine flexiblere Anwendung. Mit der Ausnahme sogenannter bare fibers (Lichtleitfasern mit sauber gebrochener oder polierter Endfläche), die die Laserstrahlung divergent abstrahlen, werden am Ende der Strahlführungssysteme optische Endgeräte wie Fokussierhandstücke, Mikromanipulatoren (bei Verwendung von Operationsmikroskopen oder ophthalmologischen Spaltlampen) oder Endoskopkoppler (für starre Endoskope) angeschlossen.
413 23.4 · Biophysikalische Wirkungen auf Gewebe
23.3.2 Kontaktmethode
23.4
Das zu behandelnde Gewebe wird in direkten Kontakt mit dem Faserende (bare fiber) bzw. auf das Faserende aufgesetzte Saphirspitzen (hot tips) gebracht. Der Durchmesser handelsüblicher Lichtleiter (0,05–1 mm) erlaubt den endoskopischen Einsatz. Durch die heiße Faserspitze vaporisiert das Gewebe und eine scharf begrenzte, homogene Karbonisationszone bleibt als Schnittkante. Für diese Anwendungen werden auch Fasern mit speziell präparierten, fokussierenden Spitzen (sculptured fibers) angeboten. Entsprechendes kann auch mit einer geschwärzten, vom Anwender selbst präparierten Faserspitze erreicht werden, wobei hier durch ein »Freibrennen« der Spitze ein Wechsel der Anwendung zum berührungslosen Einsatz, z. B. zur Koagulation, leicht möglich ist.
23.4.1 Absorption und Eindringtiefe
23.3.3 Gas- oder Flüssigkeitsspülung
beim Laserschneiden Zum Schutz der patientenseitigen Optiken der Endgeräte, der Stirnfläche des Applikators oder der Faserspitze können die Endflächen mit Schutzgas gespült werden. Mit dem Nd:YAG-Laser kann auch unter Flüssigkeitsspülung gearbeitet werden. Die Spülung vergrößert auch die Schnitttiefe in Weichgewebe, indem die entstehenden Verdampfungs- oder Ablationsprodukte aus dem Schnittkanal gespült werden und die Laserstrahlung ungehindert eindringen kann. Bei der Photoablation im Kontakt kann der photohydraulische Effekt die Wirkung weiter verstärken, sodass Ablationskanäle entstehen, die die Faser ungehindert passieren lassen.
Biophysikalische Wirkungen auf Gewebe
In der Therapie wird die Wirkung der Strahlung auf die verschiedenen Gewebearten im Wesentlichen durch zwei Parameter bestimmt: die Einwirkdauer der Strahlung auf das Gewebe und die effektiv zur Wirkung gelangende Leistungsdichte, bei der die gewebespezifische Absorption und Streuung berücksichtigt ist [1; 2; 16]. Im sichtbaren Spektrum existieren z. T. spezifische Absorptionen, z. B. von Hämoglobin und Melanin, die die Eindringtiefe in das Gewebe begrenzen. Im nahen Infrarot verteilt sich die Strahlung dagegen recht homogen im Körpergewebe, deshalb kann die Eindringtiefe wellenlängenabhängig mehr als 5 mm betragen. Im mittleren und ferneren Infrarot (3,0–10,6 μm) wird die Lichtenergie im Wesentlichen vom Wasser absorbiert. Verglichen mit der Absorption der Laser im sichtbaren Bereich hat man es mit einer 10–100-fach effektiveren Ankopplung zu tun, sodass die Eindringtiefe und das Verteilungsvolumen sehr gering sind. Dadurch kommt es bereits bei geringeren Leistungsdichten zu einer Verdampfung des biologischen Materials. So lässt sich Gewebe abtragen und schneiden, ohne dass eine wesentliche thermische Schädigung der Umgebung auftritt. ⊡ Abb. 23.11 gibt den spektralen Verlauf des Absorptionskoeffizienten für Wasser und Gewebe wieder. Im sichtbaren Bereich weist Weichgewebe durch körpereigene Chromophore wie Hämoglobin, Melanin, Koenzyme u.a. eine deutlich höhere Absorption auf, während im IR-Bereich der Verlauf für Wasser eine gute Näherung darstellt. Bei der Bestrahlung von Körpergewebe ist zu beachten, dass sich bereits im Bereich photothermaler Effekte die optischen Eigenschaften, wie Absorption und Streu-
23.3.4 Spezielle Applikatoren
Neben den bereits erwähnten Standardapplikatoren wurden für bestimmte Anwendungen spezielle Ausführungen entwickelt. Für die interstitielle Koagulation von Tumoren und Metastasen finden Streuapplikatoren Verwendung, die eine homogene und isotrope Abstrahlung ermöglichen. Zur intrakardialen und urologischen Koagulation von Gewebe existieren verschiedene Formen von Kathetern, die Laserlicht seitlich abstrahlen. Die Laserangioplastie nutzt für die Übertragung der Strahlung des Excimer-Lasers (308 nm) Multifaserkatheter mit vielen dünnen Quarzfasern, um gleichzeitig einen großen Querschnitt für die Übertragung der Laserstrahlung, einen Spülkanal und eine hohe Flexibilität des gesamten Katheters zu erhalten. Für die photodynamische Therapie existieren Lichtleitfasern mit Mikrooptiken am distalen Ende, die die homogene Ausleuchtung eines scharf begrenzten Areals erlauben.
⊡ Abb. 23.11. Absorptionskoeffizient als Funktion der Wellenlänge für Wasser und Gewebe
23
414
Kapitel 23 · Lasersysteme
ung, mit fortschreitender Expositionsdauer erheblich verändern [16]. Für medizinische Behandlungen können in Abhängigkeit von Einwirkdauer und Leistungsdichte drei Hauptklassen von Wirkprinzipien unterschieden werden (⊡ Tab. 23.1, ⊡ Abb. 23.12) [1, 2, 10]:
▬ photochemische Effekte (10–1000 s; 10-3–1 W/cm2), ▬ photothermische Effekte (1 ms–100 s; 1–106 W/cm2)
und ▬ Photodekompositionseffekte (10 ps–100 ns; 108–1012
W/cm2).
23.4.2 Photochemische Effekte
III
⊡ Abb. 23.12. Energiedichtebereiche für die verschiedenen Gewebewirkungen von Laserstrahlung als Funktion der Einwirkdauer
Hierzu gehören die Photoinduktion oder Photoaktivierung, gewöhnlich Biostimulation genannt, und die Photobestrahlung, wobei die photodynamische Therapie (PDT) oder Photosensitivierung mit eingeschlossen ist. Die Laserenergie wird dazu benutzt, durch Absorption in entweder körpereigenen oder körperfremden Farbstoffen oder chromophoren Gruppen an Biomolekülen photochemische Reaktionen auszulösen. Vier grundsätzliche Arten photochemischer Reaktionsmechanismen können unterschieden werden: ▬ die photoinduzierte Isomerisation z. B. beim Bilirubinabbau, ▬ die photoinduzierte Ladungserzeugung z. B. im visuellen Prozess, ▬ die photoinduzierte Synthese z. B. bei der Photosynthese in Pflanzen, ▬ die photoinduzierte Dissoziation z. B. in der photodynamischen Therapie (PDT).
⊡ Tab. 23.1. Laser-Gewebe-Effekte Photochemische Effekte Photoinduktion
Biostimulation
Photoaktivierung von Drogen
POD
Photochemotherapie
Photodynamische Therapie (PDT) »Black Light Therapy« (PUVA)
Photothermische Effekte Photohyperthermie
37–43°C: reversible Schädigung von normalem Gewebe 43–65°C: Ödemisierung der Zellen, Gewebeschweißen, Eiweißfällung
Photothermolyse
Thermisch-dynamische Effekte Mikroskopisch geringe Überhitzung
Photokoagulation
65–100°C: Koagulation, Nekrose
Photokarbonisation
100–300°C: Austrocknen, Verdampfen von Wasser, Karbonisation
Photovaporisation
>300°C: Pyrolyse, Vaporisation von Gewebe
Photodekompositionseffekte Photoablation
Schnelle thermische Explosion
Photodisruption
Optischer Durchbruch, mechanische Stoßwelle
Photofragmentation
Lithotripsie
415 23.4 · Biophysikalische Wirkungen auf Gewebe
23.4.3 Photothermische Effekte
Hier wird die auftreffende optische Strahlung in Wärme umgewandelt und verursacht abhängig von der erreichten Temperatur die Koagulation, Vaporisation oder Karbonisation des Gewebes. Bei Temperaturen von 43–65°C kommt es zu einer Störung der Membranfunktionen, zu enzymatischen Veränderungen und nachfolgend zur Ödembildung. Die thermischdynamische Reaktion gehört in diesen Übergangsbereich. Hierbei kommt es zu einer Entzündungsreaktion. Die nachfolgende Organisation des bestrahlten Gewebes führt nach einigen Wochen zum Verschluss kleinster Gefäße. Dieses Wirkprinzip wird bei der Behandlung von Naevi flammei angewandt. Auch das Gewebeschweißen ist in diesem Temperaturbereich angesiedelt, basiert jedoch auf einer anderen, bisher nur vage definierten Gewebereaktion. Koagulation des Gewebes (Eiweißfällung) wird bei einer Temperatur von 65–100°C erreicht. Zur Blutstillung und Tumordenaturierung wird in diesem Temperaturbereich gearbeitet. In diesem Fall wird das Gewebe zwar abgetötet, aber als Gewebeverband erhalten, der dann später vom Körper abgebaut und durch einsprossendes neues Gewebe ersetzt wird. Bei der Karbonisation im Temperaturbereich von 100–300°C erfolgt die Verdampfung von Wasser und eine Austrocknung des Gewebes. Die Vaporisation, das Verdampfen von Gewebe, wird bei Temperaturen weit oberhalb von 300°C erreicht (vgl. ⊡ Tab. 23.1). Bei Temperaturen über 700°C schmilzt Knochenmaterial.
23.4.4 Photodekompositionseffekte
Nichtthermische Wirkungen wie Photoablation und Photodisruption können als Photodekomposition (Photospaltung) von Material zusammengefasst werden. Diese dritte Klasse von Wirkungen beruht auf nichtlinearen optischen
Effekten, da bei den hohen Intensitäten energiereicher Laserpulse auch die nichtlinearen Anteile des Absorptionskoeffizienten wirksam werden. Mit gepulsten Lasern können Lichtintensitäten im Bereich von Megawatt bis Terawatt (106–1012 W) im Nano- bis Femtosekundenbereich erzeugt werden [4, 8]. Dieses Prinzip wird heute in der Augenheilkunde bei der Zerstörung der Nachstarmembran benutzt und liegt der Steinzertrümmerung mit Laserlithotriptern zugrunde. Bestrahlt man Gewebe mit gepulster UV-Laserstrahlung, so wird diese in einer sehr dünnen Oberflächenschicht absorbiert. Diese Gewebeschicht nimmt dabei so viel Energie auf, dass sie sich explosionsartig vom Untergrund löst. Man nennt diese Wirkung Photoablation, da es hier möglich ist, Materialfragmente rein lichtinduziert von der Oberfläche abzulösen, ohne dass es sekundär zu einer Erwärmung des umliegenden Gewebes kommt. Allerdings darf hierbei eine bestimmte Wiederholrate der Laserpulse nicht überschritten werden, um eine thermische Aufheizung angrenzender Gewebeschichten zu vermeiden. Auf diesem Prinzip basiert die Laserrekanalisation arteriosklerotischer Gefäße und die Anwendung der Photoablation für die refraktive Korneachirurgie. Je nach optischer Eindringtiefe der Strahlung muss die Energie pro Laserpuls unterschiedlich hoch sein, um die Schwelle für die Photoablation zu überschreiten und Gewebe abzutragen. Da i. d. R. die Zerstörschwelle des Übertragungssystems die übertragbare Energiedichte begrenzt, kann durch eine Vergrößerung der Pulslänge die Energie pro Puls entsprechend erhöht werden. Eine größere Pulslänge bedeutet eine längere Einwirkdauer der Strahlung, in der eine Wärmeleitung aus dem erhitzten Volumen in das benachbarte Gewebe stattfindet, die erst mit dem explosionsartigen Herausschleudern der Gewebereste beendet wird. Aus dem Diagramm in ⊡ Abb. 23.13 lässt sich ermitteln, bei welcher Wellenlänge und welcher Laserpulsdauer
⊡ Abb. 23.13. Diagramm für die Schädigungszone ∆d in Abhängigkeit der Laserpulsdauer und der Wellenlänge für die Photoablation mit Darstellung der Bereiche für die primär thermisch bzw. optisch beeinflusste Zone (α: Absorptionskoeffizient in cm-1; κ: Temperaturleitfähigkeit 1,2·10-7 m2/s)
23
416
Kapitel 23 · Lasersysteme
die Schädigungszone Δd überwiegend durch die optische Eindringtiefe oder überwiegend durch die Wärmeleitung bestimmt wird [1, 2]. Damit können die Parameter eines Photoablationslasers in Hinblick auf geringe thermische Schädigungen optimiert werden.
23.5
III
Lasertypen in der Medizin
Der Laser hat sich in einer Reihe von medizinischen Fachgebieten seinen festen Platz erworben, z. B. in der Ophthalmologie, Dermatologie, Neurochirurgie, HNO, Pulmologie, Gastroenterologie, Allgemeinchirurgie, Urologie, Gynäkologie und Orthopädie [14]. Entsprechend den jeweils gewünschten Gewebewirkungen müssen die spezifischen Eigenschaften unterschiedlicher Lasersysteme herangezogen werden (vgl. ⊡ Abb. 23.1). Eine gängige Einteilung der Lasertypen erfolgt im Wesentlichen nach dem Aggregatzustand des Lasermediums in Festkörperlaser (z. B. Rubin-, Nd:YAG-, Er:YAG-, Ho:YAG-, Alexandritlaser), Diodenlaser, Gaslaser (z. B. CO2-, Argon- und Krypton-Ionen-, Excimer-, HeNe-Laser) und Flüssigkeitslaser (Farbstofflaser). Ein Exot in dieser Hinsicht ist der Freie-Elektronen-Laser (FEL).
23.5.1 Rubinlaser
Der Rubinlaser ist der erste jemals realisierte Laser. Seine Wellenlänge beträgt 694 nm. Frühere Rubinlaser wiesen eine Reihe technischer Schwächen auf, wie einen geringen Wirkungsgrad oder lokale Intensitätsüberhöhungen, die zu einer Zerstörung von Übertragungsfasern führten. Moderne medizinische Rubinlaser sind jedoch kompakte und zuverlässige Systeme. In der Auslegung als gütegeschaltete Lasergeräte (Q-switch-Rubinlaser, QSRL) liefern diese Laser hochenergetisches Licht mit einer Pulslänge von 20–40 ns. Der QSRL wird derzeit für die Behandlung von oberflächlichen pigmentierten Hautveränderungen sowie zur Entfernung von Tätowierungen angewendet. Neuerdings stehen Rubinlasergeräte zur Verfügung, die längere Pulsdauern (0,3–5 ms) ermöglichen. Diese Geräte werden in erster Linie zur Epilation (Haarentfernung) eingesetzt.
verselle Anwendung. Über flexible oder starre Endoskope kann er zur Koagulation von Blutungen, Fehlbildungen oder Tumoren benutzt werden, bei höherer Leistung auch zur Rekanalisation von Tumorstenosen. Mit einem Fokussierhandstück und entsprechend hoher Leistungsdichte sind Resektionen an parenchymatösen Organen, wie Leber, Milz, Pankreas und Niere, bei gleichzeitig guter Hämostase möglich. Die Wellenlänge 1320 nm wird hier insbesondere zur Tumorresektion in Lungenparenchym benutzt. Sehr häufig wird der Nd:YAG-Laser auch im Kontaktverfahren benutzt (vgl. Abschn. 23.3.2 »Kontaktmethode«). Im Nano- und Picosekundenbereich gepulste Nd: YAG-Lasersysteme (»Q-switch Nd:YAG«), mit denen eine Photodisruption erreicht werden kann, haben sich in der Ophthalmologie zur Behandlung von Nachstarmembranen, aber auch für die periphere Iridotomie zur Therapie des akuten Glaukomanfalls etablieren können. Über optomechanische Koppler werden sie auch zur Lithotripsie eingesetzt.
23.5.3 Frequenzverdoppelter Nd:YAG-Laser
(sog. KTP-Laser) Durch die Positionierung bestimmter Kristalle im Strahlengang eines Lasers können durch nichtlineare optische Effekte Oberwellen der eingestrahlten Grundwellenlänge generiert werden. Die Frequenzverdoppelung der Nd: YAG-Laserstrahlung erfolgt meist mit Hilfe eines Kaliumtitanylphosphatkristalls (KTP, KTiOPO4). Die entstehende Wellenlänge 532 nm wird von Hämoglobin gut absorbiert. Die klinische Anwendung entspricht weitgehend dem Argonionenlaser. Geräte mit hohen Ausgangsleistungen (bis 15 W) ermöglichen allerdings die Anwendung kurzer Impulszeiten, sodass die Schmerzhaftigkeit der Behandlung reduziert wird. Eine teilweise Frequenzverdopplung kurzgepulster Nd:YAG-Laserstrahlung wird in einigen Systemen für die Lithotripsie verwendet. Die höhere Absorption der kürzeren Wellenlänge erleichtert in diesem Fall die Zündung des für die Stoßwellenerzeugung nötigen Plasmas (freddy®-Prinzip).
23.5.4 Erbium:YAG-Laser 23.5.2 Neodym:YAG-Laser
Der Dauerstrich-Nd:YAG-Laser ist z.Z. der wichtigste medizinische Festkörperlaser. Mit seiner Wellenlänge von 1064 nm (seltener 1320 nm) ist er ein typischer Volumenkoagulator. Je nach verwendeter Leistungsdichte ist mit diesem Gerät eine tiefe, unspezifische Koagulation, eine Vaporisation bzw. das Schneiden von Gewebe möglich. Seine Übertragbarkeit durch Glasfasern gestattet eine uni-
Bei Er:YAG-Lasern handelt es sich um blitzlampengepumpte Festkörperlaser, die Infrarotlicht der Wellenlänge 2940 nm emittieren. Dies entspricht einem lokalen Absorptionsmaximum von Wasser. Als Strahlführungssysteme finden i. d. R. Spiegelgelenkarme, seltener Zirkoniumfluorid- oder Saphirfasern Verwendung. Bei der Anwendung kurzer Pulslängen (ca. 1 ms) ist ein nahezu athermisches Abtragen extrem feiner Hautschichten (je nach verwendeter Energiedichte bis zu 10 μm Schicht-
417 23.5 · Lasertypen in der Medizin
dicke) möglich. Dies prädestiniert den Er:YAG-Laser für Anwendungen im Bereich der Dermatologie und plastischen Chirurgie. Daneben wird er als Dentalbohrer in der Zahnmedizin eingesetzt, meist in Verbindung mit einer Wasserspraykühlung des Zahnschmelzes.
23.5.5 Holmium:YAG-Laser
Der Ho:YAG-Laser emittiert Infrarotlicht mit einer Wellenlänge von 2100 nm. Meist handelt es sich um blitzlampengepumpte gepulste Systeme, in letzter Zeit werden jedoch auch diodengepumpte Dauerstrichlaser geringer Leistung entwickelt. Anwendung findet der Ho:YAG-Laser zur Bearbeitung von Hartsubstanzen wie Knorpel und Knochen. Dank der Möglichkeit der Faserübertragung seiner Strahlung kann der Laser endoskopisch eingesetzt werden (Arthroskopie, Lithotripsie).
23.5.6 Alexandritlaser
Der Alexandritlaser emittiert Licht der Wellenlänge 755 nm. Als Q-switch-Laser verfügt dieses Gerät über Pulslängen im Nanosekundenbereich. Die klinischen Anwendungsfelder und die Applikationstechniken entsprechen weitgehend dem Q-switch-Rubinlaser. LangpulsAlexandritlaser mit Pulslängen im Millisekundenbereich wurden für die Laserepilation entwickelt.
23.5.7 Diodenlaser
Diodenlaser im nahen Infrarotbereich werden seit Ende der 1980er Jahre in der Ophthalmologie eingesetzt. Aufgrund der Weiterentwicklung sowohl des spektralen Emissionsbereichs (630–980 nm) als auch der Ausgangsleistung (in der Medizin bis zu 100 W) erobert sich der Diodenlaser ein immer weiteres Anwendungsfeld in der Medizin. Die Vorteile gegenüber den anderen Lasersystemen sind seine kompakte Bauweise, Tragbarkeit, wasserfreie Kühlung, leichte Installation und sein geringer Wartungsaufwand. Diodenlaser mit Leistungen bis zu etwa 1 W werden vielfach diagnostisch eingesetzt, z. B. zur optischen Bildgebung, in Laser-Doppler-Sensoren zur Bestimmung von Blutflüssen oder in der Fluoreszenzdiagnostik. Die Anwendungen, die mit dem Nd:YAG-Laser im Bereich der laserinduzierten Koagulation erfolgen, können auf einen Diodenlaser mit einer Emissionswellenlänge von 980 nm übertragen werden. Die minimal geringere Eindringtiefe bei 980 nm kann bei den meisten Geweben durch entsprechende Veränderungen der Applikationsparameter, wie z. B. höhere Leistung und längere Bestrahlungszeit, ausgeglichen werden. Die Tiefenwirkung
der Koagulation ist für 1064 nm und 980 nm identisch, weil die Bereiche jenseits der optischen Eindringtiefe ausschließlich durch wellenlängenunabhängige Wärmeleitung beeinflusst werden. Das Hauptindikationsfeld der neuen Hochleistungsdiodenlaser ist z. Zt. die Urologie [7], sie halten aber auch Einzug in andere Disziplinen, z. B. den HNO-Bereich [1]. Diodenlaser mit der Wellenlänge 630 nm werden als Lichtquelle für die photodynamische Therapie eingesetzt.
23.5.8 CO2-Laser
Der Dauerstrich-CO2-Laser (10.600 nm) ist wegen seiner hohen Wasserabsorption und damit geringen Eindringtiefe ein sehr exaktes Schneidinstrument. Er findet überall dort Verwendung, wo mikrochirurgisches Arbeiten oder flächenhaftes Abtragen gefordert ist, da sich mit ihm Gewebe abtragen oder schneiden lässt, ohne dass es zu einer wesentlichen thermischen Schädigung der Umgebung kommt. Seine blutstillende Wirkung ist allerdings gering, sodass sich lediglich kapilläre Blutungen verhindern lassen. Sein größter Nachteil ist die z. Zt. fehlende Transmission der Strahlung über Fasern und der dadurch notwendige Spiegelgelenkarm. In zunehmendem Maße werden deshalb Hohlleiter eingesetzt, die zwar eine flexible Strahlführung ermöglichen, aber nur eine relativ schlechte Strahlqualität und Fokussierbarkeit bieten. Fortschritte werden hier von photonischen Fasern erwartet ( Abschn. 23.2.4). Gepulste CO2-Laser emittieren anstatt eines kontinuierlichen Strahls eine sehr schnelle Folge kurzer Impulse mit hoher Energiedichte, was aufgrund der reduzierten Wärmeabgabe an das umliegende Gewebe einen Schneide- bzw. Vaporisationseffekt mit noch geringerer thermischer Beeinflussung der Umgebung ermöglicht. Gepulste bzw. Dauerstrich-CO2-Laser mit speziellen Scannersystemen, die das oberflächliche Abtragen von dünnen Hautschichten ermöglichen, werden vor allem im Bereich der Dermatologie und plastischen Chirurgie verwendet [5, 11, 14].
23.5.9 Argon- und Kryptonionenlaser
Argonionenlaser sind Dauerstrichlaser, die prinzipiell mehrere Wellenlängen im Bereich 250–530 nm emittieren können. In der Medizin sind Systeme üblich, die blaugrünes Mischlicht (488 und 514 nm) oder grünes Licht (nur 514 nm) emittieren. Der Argonionenlaser wird wegen seiner hohen Selektivität für körpereigene Chromophore (Hämoglobin, Melanin) hauptsächlich in der Ophthalmologie und Dermatologie benutzt. Das Licht wird über einen Lichtleiter geführt, an dessen Ende sich ein Fokussierhandstück oder eine Spaltlampe befindet.
23
418
III
Kapitel 23 · Lasersysteme
Es stehen auch spezielle Scanner zur Verfügung, die eine automatisierte und gleichmäßige Behandlung von größeren Arealen ermöglichen. Der Kryptonionenlaser kann ebenfalls mehrere Wellenlängen emittieren, wobei der Bereich in diesem Fall 350–800 nm beträgt. Die intensivsten Emissionslinien sind 531, 568 und 676 nm. Hauptanwendungsbereiche sind die Dermatologie und die photodynamische Therapie. Gasionenlaser sind erschütterungsempfindlich, voluminös und relativ teuer im Unterhalt. Die Laserröhren haben eine vergleichsweise kurze Lebensdauer von etwa 1000–10.000 Betriebsstunden. In vielen Anwendungen werden sie deshalb heute durch frequenzvervielfachte Festkörperlaser oder Diodenlaser ersetzt. Nur wo ihre exzellente Strahlqualität benötigt wird, bleiben sie unverzichtbar.
23.5.10 Excimer-Laser
Excimer-Laser sind Gaslaser, deren Lasermedium ein Gemisch ist aus einem Edelgas (Argon, Krypton oder Xenon), einem Halogen (Chlor oder Fluor) und einem Puffergas (Helium oder Neon). Je nach Gasgemisch liegt die Wellenlänge der ausschließlich gepulsten Lichtstrahlung im ultravioletten Bereich von 157–351 nm. Übliche Geräte arbeiten mit ArF (193 nm), KrF (249 nm) oder XeCl (308 nm). Bei diesen Wellenlängen wird mit kurzen Pulsdauern (10 ns) und sehr hohen Spitzenleistungsdichten (108 W/cm2) die Schwelle für den Prozess der Photoablation erreicht. Neben der Hornhautchirurgie zur operativen Korrektur von Fehlsichtigkeit werden diese Laser auch in der Laserangioplastie verwendet.
23.5.11 HeNe-Laser
Rote Helium-Neon-Laser (632 nm), die auch im Bereich der Low-Level-Lasertherapie (LLLT, Softlaser, Biostimulation) Verwendung finden, dienen häufig als Pilotlaser für die unsichtbare Strahlung chirurgischer Lasergeräte wie CO2- und Nd:YAG-Laser beim berührungslosen Einsatz. Seit einiger Zeit werden sie in dieser Funktion von kleineren und preiswerteren Diodenlasern verdrängt.
23.5.12 Farbstofflaser
Das Funktionsprinzip des Farbstofflasers (dye laser) basiert auf der Anregung einer organischen Farbstofflösung zur Fluoreszenz durch energiereiche Lichtblitze einer Blitzlampe (bei gepulsten Systemen; FDL, flashlamp pumped dye laser) oder einen Pumplaser (bei Dauerstrichsystemen, meist Argonionenlaser). Im Unterschied zu anderen Lasern wird dabei ein relativ breites Lichtspektrum emittiert. Mittels wellenlängenselektiver Filter wird
allerdings nur eine bestimmte – je nach Lasergerät festgelegte oder wählbare – Wellenlänge verstärkt und über ein Fasersystem ausgesendet. Zu den typischen verwendeten Farbstoffen zählt Rhodamin 6G, das durch entsprechende Abstimmung Wellenlängen im Bereich des sichtbaren Lichts von etwa 570–630 nm zu erzeugen vermag. Klinische Anwendung finden diese spezialisierten Laser in der Dermatologie [5, 11] und zur Lithotripsie [7].
23.5.13 Freie-Elektronen-Laser
Das Lasermedium des Freie-Elektronen-Lasers (FEL) ist ein hochenergetischer Elektronenstrahl, der relativistische Geschwindigkeiten (d. h. nahe der Lichtgeschwindigkeit erreicht. Im Unterschied zu den Elektronen, die in den materiellen Lasermedien herkömmlicher Laser an Atome oder Moleküle gebunden sind, oszillieren diese freien Elektronen in einem räumlich periodischen Magnetfeld [4]. Diese sehr aufwändige Technik erlaubt prinzipiell die durchstimmbare Erzeugung von Strahlung im Mikrowellenbereich über den sichtbaren und ultravioletten Spektralbereich bis in den Bereich der Röntgenstrahlung, wobei die Emissionsdauern von Quasidauerstrich bis zu Femtosekunden reichen können. Mit den bislang technisch realisierten Systemen lässt sich allerdings nur ein jeweils eingeschränkter Bereich dieses Parameterfelds tatsächlich nutzen. Ein medizinisches FEL-System im mittleren Infrarotbereich wurde bereits als chirurgisches Werkzeug in der Ophthalmologie, Otorhinolaryngologie und Neurochirurgie erprobt. Andere Forschungen beschäftigen sich mit Anwendungen des FEL in der Spektroskopie biologischer Moleküle, zur Abtötung pathogener Mikroorganismen und als Strahlungsquelle für die optische Kohärenztomographie (OCT) [3].
23.6
Anwendungsfelder
23.6.1
Auge
Aufgrund der optischen Transparenz von Cornea, Linse und Glaskörper des Auges ist der Laser für Anwendungen in der Ophthalmologie prädestiniert. In einem weiten Wellenlängenbereich kann durch diese transparenten Medien hindurch direkt auf den Augenhintergrund gestrahlt werden. Die erste Applikation war hier das Anschweißen von Netzhautablösungen, bis heute die weitestverbreitete ophthalmologische Laseranwendung. In der Behandlung des Glaukoms (grüner Star) kann mit der Laser-Trabekuloplastik (LTP) und der Laser-Iridotomie eine Senkung des erhöhten Augeninnendrucks erreicht werden. Die Photoablation mit kurz gepulsten Excimer-Lasern wird in großem Umfang zur refraktiven Hornhautchirurgie eingesetzt. Ein Beispiel für die Anwendung der Photo-
419 23.6 · Anwendungsfelder
⊡ Tab. 23.2. Medizinische Anwendungsfelder der Lasertypen Laser
Modus
Medizinisches Anwendungsfeld
Ar+, (Kr+)
cw
Dermatologie, Ophthalmologie, HNO
KTP
gepulst
Plastische Chirurgie, Dermatologie
FDL
gepulst
Dermatologie (585 nm), Urologie (504 nm)
Nd:YAG
cw
Chirurgie, Urologie, Gynäkologie, Neurochirurgie, Gastroenterologie, Pulmologie
Nd:YAG
gepulst
Ophthalmologie, Lithotripsie
CO2
cw
Chirurgie, Dermatologie, HNO, Gynäkologie, Neurochirurgie, plastische Chirurgie
Er:YAG
gepulst
Dermatologie, plastische Chirurgie, Zahnmedizin
Diode
cw
Chirurgie, Dermatologie (810, 940, 980 nm); PDT (630 nm); Dermatologie (800 nm)
Excimer
gepulst
Angiologie, Ophthalmologie
Rubin
gepulst
Dermatologie
Alexandrit
gepulst
Dermatologie
⊡ Abb. 23.14. Medizinische Anwendungsfelder des Laser
23
420
Kapitel 23 · Lasersysteme
disruption ist die Eröffnung von Nachstarmembranen mit gütegeschalteten Nd:YAG-Lasern (Laserkapsulotomie), die den Effekt des optischen Durchbruchs nutzt.
23.6.2 Körperoberfläche
III
Eines der ersten Gebiete der medizinischen Laseranwendungen war die Körperoberfläche. Die Indikationen können in zwei Hauptaufgaben unterteilt werden: ▬ das Abtragen oder Koagulieren von Haut- und Hautanhangsgebilden, ▬ die Therapie von intrakutanen Gefäßveränderungen und Missbildungen. Hauttumoren, wie Basaliome, Spinaliome und Metastasen maligner Melanome, werden heute vorzugsweise mit dem Nd:YAG-Laser koaguliert oder alternativ mit dem CO2Laser abgetragen. Mit dem Rubin- oder Alexandritlaser werden gutartige Pigmentanomalien behandelt, hier kann auch der Argonlaser zum Einsatz kommen. Zum Entfernen von viral induzierten Tumoren (Kondylome, Mollusken, Verrucae) werden der Argon-, Nd: YAG- und CO2-Laser eingesetzt. Der CO2-Laser führt wegen seiner geringen Eindringtiefe zu einer Vaporisation der Strukturen, während Argon- und Nd:YAG-Laser mit ihren größeren Eindringtiefen das Gewebe koagulieren, das später abgestoßen wird. Bei der Behandlung von Epitheldysplasien (Leukoplakien, M. Bowen) wird hauptsächlich der CO2-Laser eingesetzt, der zu einer sofortigen Vaporisation der Haut führt. Er wird ebenfalls zur Therapie chronischer Ulzera und zur Reinigung am Wundgrund eingesetzt. Zum Entfernen von Tätowierungen werden Rubin-, Alexandrit-, gepulste Nd:YAG- und CO2-Laser angewendet. 23.6.3 Gefäßsystem
In der Therapie oberflächlicher Gefäßveränderungen – Spidernävi, Naevi flammei und kutane planotuberöse Hämangiome – haben sich Argonionen-, Farbstoff- und Nd:YAGLaser bewährt. Besonders der Argonionenlaser mit seiner geringen Eindringtiefe und der hohen Absorption seiner Strahlung durch Hämoglobin kommt hier in Betracht. In den so behandelten Gefäßen wird eine thermisch-dynamische Reaktion in Form einer Angiitis induziert, die zu einer Okklusion der Teleangiektasien führt. Die okkludierten Gefäße werden der natürlichen Resorption überlassen. Der Farbstofflaser wird zur Behandlung von Feuermalen eingesetzt. Insbesondere die homogenen Feuermale des Kindesalters sprechen gut auf die FDL-Therapie an. Hämangiome sind die häufigsten Gefäßtumoren im Kindesalter. Ein Großteil der Hämangiome heilt bis zum 8. Lebensjahr spontan ab, weshalb ein Abwarten meist
gerechtfertigt ist. Führt eine ungünstige Lokalisation zu erheblichen funktionellen Störungen bzw. Entstellungen, ergibt sich jedoch eine Therapieindikation schon im Säuglings- oder frühen Kindesalter. Wegen seiner großen Penetrationstiefe kommt hierbei der Nd:YAG-Laser zum Einsatz. Um oberflächliche Verbrennungen zu vermeiden, kann die Haut während der Laserbestrahlung mittels spezieller Eiswürfel gekühlt werden [1, 2]. Eine weitere Applikation ist die perkutane interstitielle Bestrahlung voluminöser Kavernome mit der bare fiber. Nach einer Punktion der zu behandelnden Läsion wird die Faser im Gewebe platziert. Bei einer Laserleistung von 4–5 W und einer Expositionszeit von 1–5 s kommt es intraluminal zu einer Thrombosierung des Bluts und einer Schädigung der Gefäßwand mit nachfolgender Obliteration [12]. Bei der Verwendung höherer Leistungen (8–10 W) muss während der Laserbestrahlung das Faserende freigespült werden, da die Faser sonst zerstört wird. Auch hier kommt der Nd:YAG-Laser zum Einsatz [14].
23.6.4 Offene Chirurgie
Chirurgische Eingriffe sind auch bei exakter präoperativer Planung nicht frei von intra- oder postoperativen Komplikationen. Sorgen bereiten Blutungen während oder nach einem Eingriff, Gallenlecks bzw. -fisteln nach Leberresektion, Komplikationen nach Operationen am Pankreas, der Milz, Niere, Mamma und insbesondere im Gehirn. In der Kinderchirurgie kann ein Blutverlust von 100 ml bereits zu einem lebensbedrohlichen Zustand führen, der zur Transfusion zwingt. Unter diesen Umständen lassen sich die Vorteile des Lasers in den chirurgischen Disziplinen unter fünf Gesichtspunkten zusammenfassen: ▬ inhärente Blutstillung, ▬ präzises Arbeiten, ▬ Verringerung der Instrumentenzahl im Operationsfeld, ▬ berührungsfreie Gewebeabtragung (Asepsis), ▬ minimale Traumatisierung des umliegenden Gewebes durch Kräftefreiheit. In der Schädelhöhle setzen Neurochirurgen Nd:YAGund CO2-Laser zur Tumorresektion, Angiomverödung, bei stereotaktischen Operationen sowie zur Plexuskoagulation ein. In der offenen Thoraxchirurgie wird der Laser zur Lungenparenchymresektion eingesetzt, zur Behandlung von Fisteln und bei Dekortikationen. Für offene Operationen in der Bauchhöhle hat sich der Nd:YAG-Laser zur Resektion parenchymatöser Organe etabliert. Venen mit einem Durchmesser von 3–5 mm und Arterien bis zu 1,5 mm werden primär bei der Durchtrennung verschlossen, größere Gefäße müssen vorher ligiert werden [14].
421 23.6 · Anwendungsfelder
In der gynäkologischen offenen Abdominalchirurgie etablieren sich die Laser ebenfalls. Bei einigen operativen Refertilisierungsverfahren, so der intrapelvinen Adhäsiolyse bzw. der Tubenimplantation, sowie bei Myomexstirpationen kommt der CO2-Laser zur Anwendung. Bei Mammaamputationen und subkutanen Mastektomien werden CO2- und Nd:YAG-Laser eingesetzt. Eine weitere Indikation ist bei mechanisch irritierenden Fehl- oder Neubildungen gegeben, z. B. Interdigitalneurom, Ganglionzysten, Hackenneurom, dem knöchernen Hackensporn, Knochen- und Hüftgelenksoperationen bei Hämophiliekranken und beim Tarsaltunnelsyndrom. Durch Einsatz des CO2-Lasers werden die mechanisch irritierenden Strukturen vollständig vaporisiert und deren Neubildung verhindert.
23.6.5 Endoskopie
Mit der Einführung der Endoskopie vollzog sich ein grundlegender Wandel in der operativen Medizin. Durch Vermeidung der Eröffnung einer Körperhöhle sinkt das Infektionsrisiko, die Gefahr von postoperativen Verwachsungen wird deutlich geringer und die Operationsbelastung des Patienten ist generell erheblich reduziert. Laserlicht, das über Lichtwellenleiter durch den Arbeitskanal des Endoskops unter Sicht an den gewünschten Applikationsort geleitet wird, kann hier zu einer weiteren Miniaturisierung und damit Flexibilisierung des minimalinvasiven Operierens führen. Mit Hilfe dieser Technik können z. B. maligne Stenosen der Speiseröhre und des Magen-Darm-Trakts eröffnet werden. Bei der Behandlung angeborener narbiger, nicht bösartiger Veränderungen wird mit dem Nd:YAG-Laser in der Kontaktmethode mit einer bare fiber gearbeitet. CO2Laserstrahlung kann z. Zt. nur über einen Spiegelgelenkarm zur Behandlungsstelle geführt werden, sodass der Einsatz nur mit starren Endoskopen in Verbindung mit Endoskopkopplern möglich ist.
23.6.6 Photodynamische Therapie
Ein zunehmend wichtiger Behandlungsansatz ist die photodynamische Therapie (PDT). Nach intratumoraler Anreicherung eines Photosensibilisators (z. B. Hämatoporphyrinderivate, HpD) im Lauf von 24–48 h nach intravenöser Injektion werden die Tumoren mit einem Farbstoff- oder Diodenlaser (630 nm) oberflächlich oder interstitiell bestrahlt. Der Photosensibilisator absorbiert die Strahlung, zerfällt und setzt Sauerstoffradikale frei, die den Tumor lokal zerstören. Die photodynamische Therapie wird gegenwärtig für die Behandlung von oberflächlichen Läsionen wie Dysplasien und Frühstadien der Karzinome in der Der-
matologie, Gastroenterologie, Urologie, Gynäkologie und Neurochirurgie angewendet. In der Ophthalmologie wird die PDT neuerdings zur Behandlung von Neovaskularisationsprozessen eingesetzt. Die Entwicklung neuer Farbstoffe, die eine bessere Selektivität für Tumorgewebe haben und eine stärkere Absorption der tief in das Gewebe eindringenden roten und infraroten Strahlung aufweisen, ist derzeit Gegenstand intensiver Forschung.
23.6.7 Lithotripsie
Seit Entwicklung der extrakorporalen Stoßwellenlithotripsie (ESWL) hat die schon vorher mit mechanischen Techniken durchgeführte Zertrümmerung von Konkrementen einen starken Aufschwung genommen. Im Gegensatz zur ersten Generation der ESWL-Geräte können die Stoßwellen heute wesentlich besser fokussiert werden. Trotzdem lässt sich die ESWL nicht an allen Steinlokalisationen durchführen. Genannt seien hier insbesondere die intra- und extrahepatischen Gallengänge, der Ductus pancreaticus sowie die Uretheren im Bereich des Knochenschattens. Hier findet sich ein sinnvolles Anwendungsgebiet für die Laserlithotripsie (LLT). Anders als bei der ESWL wird die Stoßwelle nicht außerhalb des Körpers generiert und auf das Konkrement fokussiert – muss also nicht alle umgebenden Strukturen durchlaufen –, sondern direkt vor oder im Konkrement selbst erzeugt. Die Lichtenergie wird erst vor Ort in mechanische Energie umgesetzt. Möglich wurde dies durch die Entwicklung von Qswitch-Nd:YAG-, blitzlampengepumpten Farbstoff- und Alexandritlasern, deren sehr starke Laserimpulse den Bereich der nichtlinearen Wechselwirkungen Photodisruption und Ablation für die Medizin erschlossen. Über Wellenlänge, Impuls- und Intervalldauer und Pulsenergie lässt sich die Größe der Konkrementtrümmer varieren. Noch ist die LLT nicht zu den Routineverfahren zu rechnen, aber die Entwicklung verläuft sehr dynamisch. Als Hauptindikationen werden heute Gallengangskonkremente (in Kombination mit Lyse oder Extraktion) sowie Konkremente der Mund- und Bauchspeicheldrüse diskutiert.
23.6.8 Laserinduzierte Thermotherapie
Die laserinduzierte interstitielle Thermotherapie (LITT) wird seit längerer Zeit genutzt, um im Kontaktverfahren pathologische Gewebeveränderungen in verschiedenen Körperregionen zu therapieren. Dazu gehören die intraluminale Koagulation von Gefäßveränderungen sowie die seit einigen Jahren an Bedeutung zunehmende palliative Koagulation und Hyperthermie von Metastasen in Leber, Lunge und Gehirn.
23
422
III
Kapitel 23 · Lasersysteme
Zur subkutanen LITT kleinerer kongenitaler Malformationen (congenital vascular disorders, CVD) erfolgt eine Punktion mit einer bare fiber. Um größere Koagulationsvolumina bis zu 3 cm Durchmesser zu erreichen, wurden spezielle Streuapplikatoren entwickelt, mit denen über relativ lange Expositionsdauern von bis zu 20 min Nd: YAG- oder Diodenlaserstrahlung appliziert wird. Wassergekühlte Hüllkatheter erlauben dabei Laserleistungen bis zu 30 W, ohne dass es an der Grenzfläche zwischen Applikator und Gewebe zu einer Karbonisation kommt. Minimal-invasive Prozeduren wie die LITT isolierter Lebermetastasen, spezieller Gehirntumoren oder bei der benignen Prostatahyperplasie, erforden ein Echtzeitmonitoring zur präzisen Therapiesteuerung. Hierfür werden u. a. bildgebende Verfahren wie Ultraschall oder Magnetresonanztomographie (⊡ Abb. 23.15) eingesetzt [12, 16].
23.7
Sicherheitsaspekte
Als Quelle einer Strahlungsenergie, die in der Lage ist, abtragende Wirkungen auf biologisches Gewebe auszuüben, stellt ein Lasersystem natürlich auch eine potentielle Gefahrenquelle für Patient und Anwender dar, nicht anders als ein scharfes Skalpell oder ein HF-Chirurgiegerät. Allerdings kommt beim Laser noch der Aspekt der Fernwirkung der Strahlung auf das Auge hinzu, wobei die Schutzwirkung des bloßen Abstandhaltens von divergenten Strahlaustritten (Faserenden, Fokussierungsoptiken) meist überschätzt wird. Durch einfache Schutzmaßnahmen wird jedoch beim Lasereinsatz eine höhere Sicherheit erzielt als bei manch anderen Geräten. Voraussetzung hierfür sind allerdings die Kenntnis einiger grundlegender physikalischer Zusammenhänge und die Einhaltung der einschlägigen Vorschriften [13, 17, 18].
23.7.1 Zulässige Bestrahlung
und Laserklassifizierung Die Gefährdung des Auges (⊡ Abb. 23.16) und der Haut (⊡ Abb. 23.17, auch 4-Farbteil am Buchende) haben zur Festlegung von maximal zulässigen Bestrahlungen (MZB) geführt. Einige Beispiele für übliche medizinische Laser zeigt ⊡ Tab. 23.3. Alle Schutzmaßnahmen sind generell so auszulegen, dass eine unbeabsichtigte Bestrahlung die MZB-Werte nicht übersteigen kann. Da mögliche Schädigungen durch Laserstrahlung leistungs-, zeit- und wellenlängenabhängig sind, werden Lasersysteme nach diesen Parametern in Klassen eingeteilt, die das Gefährdungspotential des jeweiligen Geräts bezeichnen. Eine vereinfachte Darstellung der Laserklassen nach DIN EN 60825-1 zeigt ⊡ Abb. 23.18 ( auch 4-Farbteil am Buchende). Die Einteilung ist so gewählt, dass es sich bei der Klasse 1 um sog. eigensichere Systeme handelt, d. h. ein Blick in den direkten Laserstrahl ist für das Auge entweder nicht gefährlich oder konstruktiv ausgeschlossen. Bei der Klasse 2 handelt es sich um Laser im sichtbaren Spektralbereich (400– 700 nm). Bei dieser Klasse wird angenommen, dass eine reflektorische Abwendungsreaktion (einschließlich des Lidschlussreflexes) die Bestrahlungsdauer auf ungefährliche 0,25 s beschränkt. Neuere Untersuchungen zeigen jedoch, dass hierauf kein Verlass ist [15]. Bei Lasern der Klassen 1M und 2M kann der Blick in den Strahl mit optischen Hilfsmitteln (Fernrohr, Lupe, Operationsmikroskop etc.) gefährlich sein, während für das unbewaffnete Auge unter vernüftigerweise vorhersehbaren Bedingungen noch keine Gefahr besteht. Die Strahlung von Lasern der Klasse 3R kann für das Auge gefährlich sein, jedoch ist das Risiko geringer als bei der folgenden Klasse 3B. Bei Lasern der Klasse 3B ist das Betrachten ei-
⊡ Abb. 23.15. Schematische Zusammenstellung der Geräte für die MRT-kontrollierte laserinduzierte Thermotherapie (LITT)
423 23.7 · Sicherheitsaspekte
ner diffusen Reflexion (Haut) statthaft, der Blick in den direkten Strahl oder einen spiegelnden Reflex jedoch gefährlich. Bei Lasern der Klasse 4 sind auch diffuse Reflexionen für das Auge gefährlich, während der direkte Strahl zu Hautverbrennungen führen kann. Die in der Chirurgie und Ophthalmologie eingesetzten Lasersysteme sind alle der Klasse 4 zuzuordnen. Die Klasse eines Lasergeräts entscheidet über die nach der Unfallverhütungsvorschrift BGV B2 zu ergreifenden Schutzmaßnahmen.
23.7.2 Sicherheitstechnische Anforderungen
an Lasergeräte Sicherheitstechnische Anforderungen an medizinische Lasersysteme der Klassen 3B und 4 sind in der harmonisierten Norm DIN EN 60601-2-22 »Medizinische elektrische Geräte – Teil 2-22: Besondere Festlegungen für die Sicherheit von diagnostischen und therapeutischen Lasergeräten« festgelegt, die über undatierte Verweisungen auch die DIN EN 60825-1 »Sicherheit von Lasereinrichtungen – Teil 1: Klassifizierung von Anlagen, Anforderungen und Benutzer-Richtlinien« mit einbezieht. Die grundlegende Anforderung »Schutz vor Strahlungen« der EG-Medizinprodukterichtlinie 93/42/EWG ( Kap. 4) wird von diesen Normen in eine Reihe von konstruktiven Anforderungen umgesetzt. Danach muss jedes medizinische Lasersystem über die folgenden Einrichtungen verfügen: ▬ Schlüsselschalter zum Schutz vor unbefugter Benutzung, ▬ Not-Aus-Schalter zur sofortigen Unterbrechung der Emission, ▬ Stand-by/Bereit-Schaltung zum Schutz vor versehentlicher Auslösung, ▬ Interlock-Anschluss für fernbetätigte Verriegelung, ▬ optische und/oder akustische Laser-bereit- und Emissions-Anzeigen, ▬ Zieleinrichtung zur Anzeige des Wirkorts der Strahlung vor Auslösung.
⊡ Abb. 23.16. Gefährdung des Auges durch verschiedene Lasertypen
⊡ Abb. 23.17. Eindringtiefe von Laserstrahlung in die Haut und mögliche Hautschäden in Abhängigkeit von der Wellenlänge [nm]
⊡ Tab. 23.3. Maximal zulässige Bestrahlung (MZB) am Beispiel häufig eingesetzter Laser Lasertyp
Wellenlänge [nm]
Maximal zulässige Bestrahlung des Auges (MZB) nach DIN EN 60825-1:2001-11
Maximal zulässige Bestrahlung der Haut (MZB) nach DIN EN 60825-1:2001-11
Leistungsdichte [W/cm2]
Zeit [s]
Leistungsdichte [W/cm2]
Zeit [s]
Argon
488, 514
0,0018
1
1,1
1
Helium-Neon
633
0,0018
1
1,1
1
970
0,0062
1
3,8
1
1064
0,0090
1
5,5
1
0,56
1
0,56
1
Diode (GaAs) Nd:YAG CO2
10600
23
424
III
Kapitel 23 · Lasersysteme
Ferner darf die tatsächlich abgegebene Leistung bzw. Pulsenergie nur innerhalb bestimmter Grenzen vom voreingestellten Wert abweichen, der in SI-Einheiten (W, J) angezeigt werden muss. Der Ausfall einer explizit aufgelisteten Reihe von Baugruppen (z. B. Shutter, Auslöseschalter, Dämpfungsglieder, Zeitgeber, Überwachungskreise) darf keine Gefährdung hervorrufen. Alle Schutzmaßnahmen der mittelbaren Sicherheitstechnik müssen dabei innerhalb einer Fehlertoleranzzeit von ca. 130 ms wirsam werden, wenn Gewebeschädigungen durch überhöhte Laserleistungen sicher vermieden werden sollen. Sofern nicht eine bare fiber angewandt wird, kann das optische Endgerät am Ende des Strahlführungssystems seinerseits zur Gefahrenquelle werden. Ein schlecht konstruiertes Fokussierhandstück kann sich auf Temperaturen aufheizen, die zu Verbrennungen an der Hand des Operateurs führen, oder ein Mikromanipulator mit defektem oder falschem Arztschutzfilter reflektiert gefährliche Strahlungsdichten in das Auge des Anwenders. Deshalb muss jedes Zubehör zu einem medizinischen Lasergerät einem eigenen EG-Konformitätsbewertungsverfahren als Medizinprodukt unterzogen werden. Für den Hersteller von medizinischen Lasergeräten ist es wichtig zu wissen, dass diese Geräte i. d. R. gemäß den Klassifizierungskriterien in Anhang IX der EG-Richtlinie als Medizinprodukte der Klasse IIb zu betrachten sind. Nur Geräte mit einem erfolgreich abgeschlossenen Konformitätsbewertungsverfahren dürfen CE-gekennzeichnet und mit einer rechtsverbindlichen EG-Konformitätserklärung innerhalb der Europäischen Union in Verkehr gebracht werden ( Kap. 4).
⊡ Abb. 23.18. Übersicht über die Laserklassifizierung (für eine Emissionszeit von 103 s)
23.7.3 Organisatorische Schutzmaßnahmen
und Anwendungssicherheit Die für den Betreiber und Anwender von Medizinprodukten wichtigste Vorschrift, die in erster Linie dem Schutz des Patienten dient, ist die Medizinproduktebetreiberverordnung (MPBetreibV). Für den Betrieb medizinischer Lasersysteme ergeben sich hieraus als wesentliche Pflichten: ▬ Nur besonders ausgebildetes und eingewiesenes Personal darf Laser an Patienten anwenden. ▬ Vor dem Einsatz ist die Funktionssicherheit des Lasers zu prüfen. ▬ Es muss ein Medizinproduktebuch geführt werden. ▬ Die Gerätepflege hat nach der Gebrauchsanweisung zu erfolgen. ▬ Sicherheitstechnische Kontrollen sind regelmäßig durchzuführen. Die für den Schutz des Personals wesentliche Vorschrift ist die berufsgenossenschaftliche Unfallverhütungsvorschrift »Laserstrahlung« (BGV B2). Sie schreibt insbesondere vor: ▬ Die Inbetriebnahme eines Lasers der Klassen 3B und 4 muss der zuständigen Aufsichtsbehörde und Berufsgenossenschaft angezeigt werden. ▬ Der Betreiber hat schriftlich einen Laserschutzbeauftragten zu bestellen, wenn ein Laser dieser Klassen eingesetzt wird. ▬ Der Laserbereich ist abzugrenzen und mit Warnschildern zu kennzeichnen, der Betrieb eines Lasers der Klasse 4 darüber hinaus durch Warnlampen anzuzeigen. ▬ Schutzmaßnahmen müssen getroffen werden, wenn die Bestrahlungsstärken oberhalb der maximal zulässigen Bestrahlungsstärken liegen.
425 23.8 · Zukunftsperspektiven
▬ Es sind Schutzbrillen zu tragen. ▬ Die im Laserbereich Beschäftigten sind regelmäßig
▬ ▬ ▬ ▬
(mindestens jährlich) zu unterweisen, wenn Laser der Klassen 2 bis 4 eingesetzt werden. Gefährliche Reflexionen an medizinischen Instrumenten sind durch geeignete Oberflächen zu vermeiden. Schutzmaßnahmen gegen Brand und Explosion sind zu ergreifen. Beim Einsatz optischer Beobachtungsinstrumente sind Schutzfilter zu verwenden. Einmalartikel und Abdeckmaterialien sollen schwer entflammbar sein.
Die Anforderungen an Laserschutzfilter und Laserschutzbrillen sind in der Norm DIN EN 207 »Persönlicher Augenschutz – Filter und Augenschutzgeräte gegen Laserstrahlung (Laserschutzbrillen)« festgelegt. Nur Schutzbrillen, die dieser Norm entsprechen, werden von den Berufsgenossenschaften als Laserschutzbrille anerkannt. Die Kennzeichnung einer normgerechten Laserschutzbrille nach DIN EN 207 zeigt ⊡ Abb. 23.19. Es ist zu beachten, dass es keine Schutzbrille gibt, die für alle Wellenlängen Schutz bietet. Jede Schutzbrille schützt jeweils nur gegen die auf ihr angegebene Wellenlänge und bei der genannten Betriebsart. Durch die Pyrolyse von Geweben bei thermischen Laseranwendungen können Patienten und Anwender mit Stoffen in Berührung kommen, die ein gewisses toxisches und infektiöses Potenzial besitzen [1]. Nach dem Stand der Technik ist die einzig zuverlässige Schutzmaßnahme die Verwendung eines speziellen Rauchabsauggerätes, mit dessen Handstück die Abbrandprodukte so dicht wie möglich am Ort ihrer Entstehung erfasst werden sollten. Diese Geräte sind mit einem zweistufigen Filtersystem ausgestattet: Ein Membranfilter fängt Partikel und Tröpfchen auf, während ein nachgeschaltetes Aktivkohlefilter zu einer deutlichen Reduktion der Geruchsbelästigung führt.
23.8
Zukunftsperspektiven
Vor dem Hintergrund der angesprochenen Laseranwendungen in der Medizin zeichnen sich deutliche Perspektiven für die künftige Entwicklung ab. In technischer Hinsicht geht der Trend in immer stärkerem Maß zur Nutzung von Festkörper- und Halbleiterlasern (Diodenlasern), die die Realisierung kleinerer und einfacherer Systeme erlauben. Dies wird mit einer Kostensenkung einhergehen, die zu einer noch breiteren Akzeptanz des Lasers in der Medizin führen wird. Die Entwicklung entsprechenden Zubehörs wird im Bereich der endoskopischen Laserchirurgie immer neue und erweiterte Anwendungen ermöglichen. In diesem Zusammenhang ist die Verfügbarkeit flexibler optischer Transmissionssysteme für alle Spektralbereiche ein zentrales Entwicklungsziel. Eine weitere Ergänzung verspricht die In-vivo- bzw. Insitu-Diagnostik der erzielten Veränderung über dasselbe Applikatorsystem. Diese Kombination von Diagnose und Therapie zur Lokalisation des zu therapierenden Gewebes bzw. zur Therapiekontrolle selbst wird die nächste Generation von medizinischen Lasersystemen für die »minimalinvasive Medizin« kennzeichnen. Diese Entwicklung zu smart systems wird schrittweise erfolgen, wozu die Entwicklung neuer endoskopischer Verfahren wesentlich beiträgt. Neben den therapeutischen existiert eine große Zahl diagnostischer Anwendungen, auf die hier nicht eingegangen wurde. Sie werden ebenso wie die Laserchirurgie auf zellulärer Ebene an Bedeutung gewinnen. Betrachtet man die Entwicklung der Indikationsbreite und der Verbreitung von medizinischen Lasersystemen, lässt sich in den letzten Jahren eine starke Beschleunigung feststellen. Dabei steht der Laser nicht länger in Konkurrenz zum Skalpell, denn wenn ein Laser nur dasselbe leistet wie ein Skalpell, sollte man zum Skalpell greifen – es ist um Größenordnungen billiger!
⊡ Abb. 23.19. Kennzeichnung von Laserschutzbrillen nach DIN EN 207
23
426
Kapitel 23 · Lasersysteme
Weiterführende Literatur
III
1 Berlien H-P, Müller G (2000) Angewandte Lasermedizin: Lehr- und Handbuch für Praxis und Klinik. 3. Aufl. Ecomed, Landsberg München Zürich (19. Ergänzungslieferung 2004) 2 Berlien H-P, Müller G (2003) Applied laser medicine. Springer, Berlin Heidelberg New York 3 Edwards GS, Austin RH, Carroll FE et al. (2003) Free-electron-laser-based biophysical and biomedical instrumentation. Rev Sci Instrum 74: 3207–3245 4 Eichler J, Eichler H-J (2003) Laser: Bauformen, Strahlführung, Anwendungen, 5. Aufl. Springer, Berlin Heidelberg New York 5 Goldman MP, Fitzpatrick RE (1999) Cutaneous laser surgery. The art and science of selective photothermolysis. Mosby, St. Louis 6 Graudenz K, Raulin C (2003) Von Einsteins Quantentheorie zur modernen Lasertherapie. Hautarzt 54: 575–582 7 Hofstetter AG (2003) Lasergestützte Operationsverfahren in der Urologie. Thieme, Stuttgart New York 8 Jesse K (2005) Femtosekundenlaser. Springer, Berlin Heidelberg New York 9 Kleppner D (2005) Rereading Einstein on radiation. Phys Today 58: 30-33 10 Knappe V, Frank F, Rohde E (2004) Principles of lasers and biophotonic effects. Photomed Laser Surg 22: 411-417 11 Landthaler M, Hohenleutner U (1999) Lasertherapie in der Dermatologie. Springer, Berlin Heidelberg New York Tokio 12 Müller G, Roggan A (1995) Laser-induced interstitial thermotherapy. SPIE Press, Bellingham WA 13 Müller G (2001) Sicherheitsanforderungen an die Lasertechnik. In: World Congress Safety of Modern Technical Systems. TÜV-Verlag, Köln, pp 631–640 14 Reidenbach (1996) Lasertechnologien und Lasermedizin. Ecomed, Landsberg München Zürich 15 Reidenbach H-D, Dollinger K, Hofmann J (2003) Überprüfung der Laserklassifizierung unter Berücksichtigung des Lidschlussreflexes. Bundesanstalt für Arbeitsschutz und Arbeitsmedizin, Dortmund Berlin Dresden 16 Roggan A (1997) Dosimetrie thermischer Laseranwendungen in der Medizin. Ecomed, Landsberg München Zürich 17 Sliney D, Wolbarsht M (1980) Safety with lasers and other optical sources. Plenum, New York 18 Sutter E (1999) Schutz vor optischer Strahlung: Laserstrahlung, Inkohärente Strahlung, Sonnenstrahlung. VDE-Verlag, Berlin Offenbach
24 Anästhesiegeräte E. Siegel
24.1 Einsatzzweck der Anästhesiegeräte für die Allgemeinanästhesie – 427 24.2 Funktionsweise – Medizinischer Aspekt – 428 24.3 Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring – 429
24.4 Voraussetzung für den sicheren Betrieb – 441 24.4.1 24.4.2 24.4.3 24.4.4
Anschlussvoraussetzungen – 441 Einweisung und Weiterbildung – 441 Hygiene – 442 Instandhaltung und Prüfungen – 442
Weiterführende Literatur – 442
24.3.1 Medikamentendosierung – 429 24.3.2 Beatmungseinheit – 432 24.3.3 Monitoring – 438
24.1
Einsatzzweck der Anästhesiegeräte für die Allgemeinanästhesie
Das Anästhesiegerät hilft dem ausgebildeten Anästhesisten, damit operative und diagnostische Eingriffe schmerzfrei durchgeführt werden können, das Bewusstsein des Patienten ausgeschaltet und seine Sauerstoffversorgung sichergestellt werden kann. Um diese Aufgabe zu erfüllen, dosiert das Gerät die Medikamente ▬ Sauerstoff (ca. 30 Vol.-%), um die Oxigenierung des Patienten während der Operation ausreichend zu gewährleisten, ▬ Lachgas (ca. 70 Vol.-%) oder intravenös ein Opioid, z. B. Remifentanil, um die Schmerzlosigkeit des Patienten zu erreichen, ▬ Narkosemittel Isoflurane, Sevoflurane, Desflurane, die über die Lunge aufgenommen werden, oder Propofol, das intravenös verabreicht wird, um das Bewusstsein auszuschalten. Die Anästhesie wird Inhalationsanästhesie genannt, wenn das Schmerzmittel (Lachgas) und das Mittel zur Erzeugung der Bewusstlosigkeit (z. B. Isoflurane) über die Lunge vom Körper aufgenommen werden. Die Anästhesie wird Total Intravenöse Anästhesie (TIVA) genannt, wenn das Schmerzmittel (z. B. Remifentanil) als auch das Medikament für die Bewusstlosigkeit (Propofol) intravenös verabreicht werden. Die Anästhesie wird balancierte Anästhesie genannt, wenn je ein Medikament intravenös (z. B. Remifentanil),
das andere über die Lunge aufgenommen wird (z. B. Isoflurane). Da der Patient während der Operation normalerweise relaxiert wird, ist die Atemmuskulatur gelähmt, sodass zu jedem Narkosegerät eine Vorrichtung zur automatischen, kontrollierten Beatmung gehört. Ebenso ist es notwendig, eine manuelle Beatmung zu ermöglichen, damit der Arzt in die Narkoseeinleitung und -ausleitung und auch bei Bedarf eingreifen und während dieser Phasen assistiert beatmen kann. Um die Anästhesie sicher und transparent zu machen, wird sowohl das Gerät als auch der Patient überwacht. Dazu werden die Parameter des zugeführten Narkosegases, d. h. die inspiratorische Sauerstoffkonzentration, die Lachgas- und die Narkosemittelkonzentration gemessen, ebenso wird das abgeatmete CO2 und das abgeatmete Volumen bestimmt und der Druck im System kontrolliert. Dies sind die nach den heutigen Normen zu messenden Gerätemonitoringparameter. Um die Herzkreislauffunktion überprüfen zu können, wird das EKG und der nichtinvasive Blutdruck bzw. der invasive Blutdruck gemessen. Die Oxygenierung des Blutes wird mit der Sauerstoffsättigung beobachtet. Zusätzlich muss der Effekt der Anästhesie beobachtet werden, d. h. wie tief der Patient in Bewusstlosigkeit ist, wie schmerzfrei und wie tief relaxiert er ist. Ein Anästhesiegerät (⊡ Abb. 24.1) besteht also seiner medizinischen Zweckbestimmung nach aus ▬ einer Medikamentendosiereinheit, ▬ einem Beatmungsgerät, ▬ einer Überwachungseinheit, auch Monitoring genannt,
428
Kapitel 24 · Anästhesiegeräte
– die die Medikamentendosierung und das Beatmungsgerät überwacht (Gerätemonitoring) – die den Patienten überwacht (Patientenmonitoring), – die die »Anästhesietiefe« überwacht (Anästhesieeffektmonitoring).
III
24.2
Funktionsweise – Medizinischer Aspekt
In ⊡ Abb. 24.2 sind die drei Hauptkomponenten (Medikamentendosiereinheit, Beatmungseinheit, Gerätemonitoring) eines Inhalationsanästhesiegerätes dargestellt. Bei der Inspiration drückt das Beatmungsgerät das im Beatmungsbalg vorhandene Gas über den CO2-Absorber und das Inspirationsventil in die Lungen des Patienten. Die Medikamente Sauerstoff, Lachgas in einer Konzentration von ca. 30 Vol.-% O2 und 70 Vol.-% N2O sowie z. B. 2 Vol.-% Isoflurane strömen währenddessen kontinuierlich von der Medikamentendosierung in den Reservoirbeutel, der gleichzeitig auch Handbeatmungsbeutel ist. Bei der Exspiration wird der Weg zur Medikamentendosierung durch das gesteuerte Ventil geöffnet. Das Gas aus dem Reservoirbeutel strömt zusammen mit dem ausgeatmeten Gas des Patienten in den Beatmungsbalg des Beamtungsgerätes. Bei der Inspiration wird der Weg zum Reservoirbeutel durch das gesteuerte Ventil verschlossen,
und das Beatmungsgerät drückt das Gas wiederum zum Patienten. Die Größe des Frischgas-Flows richtet sich nach folgenden Überlegungen: ▬ Wie viel nimmt der Patient an Sauerstoff und Lachgas auf? ▬ Wie groß ist die Leckage des Gerätes? ▬ Welcher Rückatmungsgrad soll benutzt werden? In ⊡ Tab. 24.1 sind an einem Beispiel für einen 70 kg-Patienten die entsprechenden Werte zusammengestellt. Dabei ergibt sich, dass in der Einleitungsphase ein Mindestflow von 1300 ml/min benötigt wird, während man im Gleichgewicht 400 ml/min benötigt. Neben der Mindestmenge an Frischgas ist der gewünschte Gasrückatmungsgrad vom Arzt einzustellen. Der Patient benötigt bei der Beatmung und auch bei der Spontanatmung ein ausreichendes Atemminutenvolumen; bei einem Patienten von 70 kg ca. 7 l/min. Notwendig ist also, dass der Patient pro Minute diese Menge an Gas enthält. Das bedeutet aber nicht, dass das Frischgas, das von der Medikamentendosierung herrührt, immer diese Menge an Frischgas ins System bringen muss. Wird, wie in ⊡ Abb. 24.2 dargestellt, ein Teil des ausgeatmeten Gases wieder für die Inspiration benutzt, so genügt auch ein Bruchteil des Atemminutenvolumens als Frischgas-Flow. Ein solches Atemsystem, das einen Teil des exspiratorischen Gases benutzt, wird Rückatemsystem genannt. Häufig arbeitet man bei einem Frischgas-Flow von 3 l/min mit ca. 1 l Sauerstoff und 2 l Lachgas. Je nach Dichtigkeit des Systems und bei entsprechendem Monitoring kann der Frischgas-Flow weiter reduziert werden. Reduziert man den Frischgas-Flow auf ca. 1 l/min, so spricht man von einem Low-flow-System. Welcher Frischgas-Flow eingesetzt wird, hat auf die Güte der Anästhesie keinen Einfluss. Entscheidend für die Größe des Frischgas-Flows ist die Erfahrung des Anästhesisten, die Dichtigkeit des Gerätes und das vorhandene Monitoring. Arbeitet man mit einem geringen Frischgas-Flow, so sind Änderungen, die durch die Medikamentendosierung hervorgerufen werden, langsam in der Zeit, d. h. es dauert lange, bis diese Änderungen beim Patienten ankommen.
⊡ Tab. 24.1. Mindestgröße des Frischgas-Flowes Beispiel für einen Patienten mit 70 kg Körpergewicht
⊡ Abb. 24.1. Anästhesiegerät
Aufsättigung
Gleichgewicht
O2-Aufnahme
240 ml/min
240 ml/min
N2O-Aufnahme
1000 ml/min
100 ml/min
Geräteleckage
50 ml/min
50 ml/min
Mindestfrischgas-Flow
1290 ml/min
390 ml/min
429 24.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
Verwendet man hingegen einen großen Flow, so wird das System schnell gespült, und Änderungen in den Konzentrationen der Dosierungen gelangen auch schnell zum Patienten. Ein Hauptziel der Anästhesie ist es, die Sauerstoff(O2-)Versorgung des Patienten sicherzustellen. Diese wird zum einen durch die inspiratorische O2-Konzentration und den durch die Beatmung hervorgerufenen Mitteldruck bestimmt. Die O2-Versorgung muss dabei so eingestellt werden, dass der – durch die Blutgasanalyse gemessene – O2-Partialdruck ca. 100 mmHg bei Patienten bis 60 Jahren mit normalem Hämoglobingehalt erreicht. Das entspricht bei Erwachsenen einer Sauerstoffsättigung des arteriellen Blutes von mehr als 95%. Die Narkosemittelkonzentration bestimmt die Narkosetiefe (Hypnosetiefe). Je niedriger die endexspiratorische Konzentration ist, desto flacher ist die Narkose. Je höher der Wert, desto tiefer ist die Narkose. Die Narkosetiefe selbst ist schwer zu bestimmen und bedarf des erfahrenen Arztes, der anhand der klinischen Zeichen, wie z. B. Hautfarbe, Herzfrequenz und Blutdruck die Narkosetiefe bestimmt. Eine kontinuierliche Überwachung von Parametern, die aus dem EEG abgeleitet werden wie z. B. der BIS Index(Bi Spektral Index), ermöglicht eine objektive Bestimmung der Hypnosetiefe. Die am Beatmungsgerät eingestellten Parameter werden zum einen vom Sauerstoffbedarf des Patienten, zum anderen von der Tatsache, dass das CO2 abtransportiert werden muss, bestimmt. Dies wird dadurch erreicht, dass in einem ersten Schritt entsprechend dem Gewicht
des Patienten ca. 10 ml/kg Körpergewicht als Atemzug bzw. Tidalvolumen bei einer Frequenz von etwa 12/ min eingestellt wird. Ein 70 kg-Patient erhält also bei einem Tidalvolumen von 700 ml und einer Frequenz von 12 Atemzügen ca. 8,4 l in einer Minute als Atemminutenvolumen. Im zweiten Schritt wird der aktuelle endtidale CO2 Wert beobachtet und mit dem Zielwert verglichen. Angestrebt wird ein CO2-Partialdruck von ca. 35 mmHg. Mit Hilfe des gemessenen endexspiratorischen CO2-Wertes wird im dritten Schritt das Tidalvolumen den aktuellen Bedürfnissen des Patienten entsprechend angepasst.
24.3
Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
24.3.1 Medikamentendosierung
Dosierung von O2, N2O Für die Dosierung der Gase O2, Air, N2O werden heute zwei Prinzipien eingesetzt, die Dosierung über mechanische Dosierventile und mittels elektronischer Mischer. Beim Dosierprinzip mittels Dosierventile wird der jeweilige Einzelflow in l/min (z. B. 1 l/min O2, 2 l/min N2O) eingestellt beim Mischer jedoch die Gasauswahl O2/N2O oder O2/Air, die O2 Konzentration in % und der Gesamtflow in l/min (z. B. 33% O2 und 3 l/min Gesamtflow für O2/N2O, um dieselben 1 l/min O2 und 2 l/min N2O zu erhalten).
⊡ Abb. 24.2. Schematischer Aufbau eines Anästhesiegerätes
24
430
III
Kapitel 24 · Anästhesiegeräte
Funktionsprinzip mechanische Dosierung Bei diesem Prinzip (⊡ Abb. 24.3) erfolgt die Dosierung durch mechanische Feindosierventile. Der Druck in der Gasversorgung beträgt ca. 5 bar (Überdruck) und wird durch Druckminderer, die in Gasflussrichtung vor den Feindosierventilen angeordnet sind, auf ca. 3 bar reduziert. Dadurch wird vermieden, dass sich Druckschwankungen in der Gasversorgung auf den eingestellten Flow störend auswirken. Durch Drehen am Feindosierventil wird die Fläche eines ringförmigen Spaltes verändert, wodurch der Gasfluss eingestellt wird. Die Messung des Flows erfolgt bei einem Teil der Geräte mit einer Messröhre (konisches Glasrohr), in der sich ein speziell geformter Schwimmer je nach Stärke des Flows in entsprechender Höhe einstellt. Um genau messen zu können, muss die Messröhre vertikal stehen. Nur so kann sich der Schwimmer frei bewegen. Ebenso kann die Messung des Flows elektronisch erfolgen, sodass der am Feindosierventil eingestellte Flow digital angezeigt und auch als Bargraph auf dem Bildschirm dargestellt werden kann. Die Knöpfe der Dosierventile sind mit unterschiedlichen Profilen ausgestattet, sodass sich das Sauerstoffventil auch »blind« von den anderen Dosierventilen haptisch unterscheiden lässt. Sie sind ebenfalls gegen unbeabsichtigtes Verstellen geschützt. Funktionsprinzip elektronische Dosierung Bei der elektronischen Gasdosierung (⊡ Abb. 24.4) wird ein umschaltbarer Zweigasmischer eingesetzt, der je nach
Bedienerwahl O2 und N2O (Auswahl N2O) beziehungsweise O2 und Air (Auswahl Air) nach vorgegebener O2Konzentration und vorgegebenem Gesamtfrischgasflow bereitstellt. Die gewünschte O2 Konzentration und die Größe des Gesamtfrischgasflows werden also direkt eingestellt und müssen nicht wie in mechanischen Mischern aus den Einzelflows berechnet werden. Bei der elektronischen Dosierung werden die Gase zeitlich nacheinander jedes für sich allein dosiert und danach in einem Speicherbehälter gemischt. Ist durch die Entnahme von Gas der Mischgastank zum Teil entleert läuft folgender Prozess ab. Soll z. B. 33% O2 dosiert werden und fehlt im Mischgastank noch 300 ml, so wird von der Steuereinheit im ersten Schritt das O2 Gaseinlassventil geöffnet und über eine Flowdosierung mittels Flow und Zeitmessung 100 ml O2 in den Mischgastank gegeben. Sobald 100 ml abgegeben sind, schließt das O2 Ventil. Kurzzeitig sind alle Gaseinlassventile verschlossen. Danach wird als dritter Schritt das N2O Einlassventil geöffnet und über die Flow- und Zeitmessung 200 ml N2O in den Tank dosiert. Auf diese Weise entsteht im Tank ein 33% O2 Gemisch. Das N2O Ventil wird wieder geschlossen. Ein solcher Füllzyklus dauert ca. 1 s. Wird Gas entnommen, fällt der Druck im Gastank und der Prozess beginnt von vorne. Überwachungselemente der O2-, N2O-Dosierung Sauerstoffmangelsignal. Im Falle eines Ausfalls der Sauerstoffversorgung, sei es z. B. durch eine leere Sauerstoffflasche am Gerät, eine Unterbrechung der zentralen Gasversorgung oder durch versehentliches Herausnehmen der Sauerstoffkupplung, sorgt das Sauerstoffmangelsignal für einen Alarm (⊡ Abb. 24.3). Dieser Alarm setzt ein, wenn der Mindestversorgungsdruck in der 5 bar-Sauerstoffversorgungsleitung des Gerätes ca. 2 bar unterschreitet. Er dauert mindestens 7 s und ist nicht abschaltbar. Lachgassperre. Ein Ausfall der Sauerstoffversorgung birgt die Gefahr, dass plötzlich reines Lachgas ins Atemsystem gelangen würde. Um dies zu verhindern, wird bei einem Druckausfall in der Sauerstoffversorgungsleitung (5 bar) das Lachgas in der Lachgasversorgungsleitung durch die Lachgassperre abgesperrt (⊡ Abb. 24.3). Die Lachgasversorgung des Gerätes wird erst dann wieder aktiviert, wenn die Sauerstoffversorgung wiederhergestellt ist. Proportionalventil ORC (Oxygen-Ratio-Controller). Eine
⊡ Abb. 24.3. Prinzip mechanische Gasdosierung
Lachgasreduzierung im Niederdruckbereich, welche die zum Patienten fließenden Sauerstoff- und Lachgas-Flows überwacht und dafür sorgt, dass mindestens ca. 20-25 Vol.% O2 in der Frischgasleitung ist, nennt man ORC. Das Funktionsprinzip besteht darin, den N2O-Flow mit dem O2-Flow zu vergleichen und nur soviel Lachgas zuzulassen, dass das Verhältnis der Flows Lachgas zu Sauerstoff nicht größer als ca. 3:1 ist. Da in diesem Siche-
431 24.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
⊡ Abb. 24.4. Prinzip elektronische Gasdosierung
rungselement das Verhältnis von O2 zu N2O überwacht wird, heißt dieses Element »Proportionalventil«, ORC (»oxygen ratio controller«, Sauerstoffverhältnisüberwacher).In der mechanischen Gasdosierung ist das ORC pneumatisch realisiert in den elektronischen Mischern als Regelsoftware. Inspiratorische O2-Messung. Mit den Elementen Sauerstoffmangelsignal, Lachgassperre und Oxygen-RatioController (ORC) können nur die Fehlerfälle vermieden werden, bei denen das richtige Gas durch die dafür vorgesehene Leitung fließt. Wurde versehentlich O2 mit N2O in der Zuleitung vertauscht, so nützen diese Elemente nichts. Dieser Fehlerfall kann nur durch die direkte Gasartmessung erkannt werden. Daher ist auch in den Normen für Narkosegeräte die inspiratorische Sauerstoffmessung Pflicht, weil sie Fehler melden kann, die mit einer Minderdosierung oder Falschdosierung von O2 einhergehen.
Dosierung der Narkosemittel Isoflurane, Sevoflurane und Desflurane Funktionsprinzip Isoflurane, Sevoflurane und Desflurane werden heute für die Inhalations- und balancierte Anästhesie als Anästhetika zur Erzeugung der Bewusstlosigkeit eingesetzt. Sie werden auch volatile Anästhetika genannt, weil sie flüchtig und schnell verdunstend sind. Ein Narkosemittelverdunster transformiert die Narkosemittel Isoflurane oder Sevoflurane vom flüssigen in den dampfförmigen Zustand und mischt sie dem Frischgas in einer eingestellten Konzentration zu. Charakteristisch für die Narkosemittel Isoflurane und Sevoflurane ist, dass sie bei Zimmertemperatur einen relativ hohen Dampfdruck besitzen. So hat Isoflurane bei 20°C einen Dampfdruck von ca. 300 mbar.
Die Sättigungskonzentration (Dampfdruck/Luftdruck) beträgt bei 20°C für Isoflurane 30 Vol.-%. Da der Dampfdruck von der Temperatur abhängt, ergibt sich bei höheren Temperaturen eine höhere Sättigungskonzentration. Für Isoflurane z. B. erhöht sich die Konzentration des gesättigten Dampfes von 30 Vol.-% bei 20°C auf ca. 60 Vol.-% bei 35°C. Die Konzentration des gesättigten Dampfes ist bei 20°C sehr viel höher (20fach) als therapeutisch benötigt. Es wird eine Narkosemittelkonzentration für Isoflurane und Sevoflurane im Bereich von 1-3 Vol.-% eingesetzt. Daraus folgt, dass die Narkosemittel nicht direkt eingeatmet werden können und entsprechend verdünnt zur Anwendung kommen müssen. Die wesentliche Aufgabe des Verdunsters besteht darin, die hohe Sättigungskonzentration von z. B. 30 Vol.-% auf die in der Narkose benötigte Konzentration von z. B. 2 Vol.-% zu reduzieren. Hierzu wird der Frischgas-Flow in zwei Teilströme aufgetrennt (⊡ Abb. 24.5). Ein Verdunsterstrom, in dem das Gas mit dem Narkosemittel angereichert ist, und ein Strom, der ohne Narkosemittel den Verdunster umgeht. Anschließend werden beide Ströme wieder zusammengeführt. Der Dampfdruck des Narkosemittels ändert sich mit der Temperatur. Das hätte zur Folge, dass sich bei einer Temperaturänderung auch die abgegebene Narkosemittelkonzentration ändert, wäre der Narkosemittelverdunster nur nach dem beschriebenen Prinzip aufgebaut. Würde man bei einem solchen Verdunster z. B. 3 Vol.-% bei 20°C einstellen und die Temperatur dann auf 35°C unter Gleichgewichtsbedingungen anheben, so würde sich die abgegebene Konzentration für Isoflurane auf 6 Vol.-% erhöhen. Von einem Narkosemittelverdunster ist aber eine Temperaturunabhängigkeit der abgegebenen Narkosemittelkonzentration im relevanten Temperaturbereich zu fordern. Daher ist eine Kompensation des physikalischen Effektes der Temperaturabhängigkeit des Dampf-
24
432
Kapitel 24 · Anästhesiegeräte
Messung der Narkosemittelkonzentration. Um eine Fehlfunktion des Verdunsters und damit eine Über- oder Unterdosierung zu erkennen, wird die Messung der Narkosemittelkonzentration inspiratorisch eingesetzt. Dabei ist zu beachten, dass der Monitor stets auf das verwendete Mittel eingestellt ist.
III
⊡ Abb. 24.5. Prinzip des Narkosemittelverdunsters
druckes bzw. der Sättigungskonzentration notwendig. Das Prinzip der Temperaturkompensation beruht darauf, den Verdunster-Flow mit zunehmender Temperatur zu reduzieren, um das Ansteigen der Sättigungskonzentration zu kompensieren. Je höher die Temperatur, desto weniger Gas wird durch die Verdunsterkammer geleitet. Die technische Lösung nutzt die thermische Ausdehnung zweier verschiedener Metalle aus, die den Bypassspalt bei ansteigender Temperatur vergrößern. Wegen der unterschiedlichen Sättigungskonzentration und der unterschiedlichen Wirkung ist für jedes Narkosemittel ein eigener Verdunster erforderlich. Die Narkosemittelverdunster dürfen nur in der Frischgasleitung eingesetzt werden, da im Kreissystem durch mehrfaches Passieren des Gases durch den Verdunster unkontrollierbar hohe Konzentrationen entstünden. Ebenso ist der Verdunster stets unterhalb der Siedetemperatur (Isoflurane 48°C) zu betreiben. Oberhalb der Siedetemperatur ergeben sich unkontrollierte Konzentrationsabgaben. Da für Desflurane die Siedetemperatur bei 22°C liegt, muss für dieses Narkosemittel ein anderes als das oben beschriebene Bypassprinzip benutzt werden. Man heizt Desflurane in einer Heizkammer auf 40°C auf und dosiert dem Frischgas das dampfförmige Desflurane dazu. Für die zudosierende Menge ist die Kenntnis des Frischgasflows notwendig. Dieser wird über einen Regelkreis erhalten. Sicherungselemente Kodierte Füllvorrichtung. Ein Verwechseln des Narkosemittels hat je nach Narkosemittel und Verdunster eine Über- bzw. Unterdosierung zur Folge. Um dies zu vermeiden, besitzt ein Verdunster eine kodierte Einfüllvorrichtung. Diese stellt sicher, dass das Narkosemittel nur in den dafür vorgesehenen Narkosemittelverdunster gelangt. Dies wird durch eine geometrische Kodierung von Narkosemittelflasche, Füllschlauch und Vaporeinfüllöffnung erreicht.
Dosierung der intravenösen Narkosemittel Da das intravenöse Hypnosemittel Propofol und das intravenöse Schmerzmittel Remifentanil im Körper innerhalb von wenigen Minuten abgebaut werden, ist eine kontinuierliche Zuführung dieser Medikamente erforderlich. Deshalb werden für diese Medikamente Spritzenpumpen in der Anästhesie benötigt, die am Anästhesiegerät geeignet angebracht werden müssen ( Kap. 30 »Infusionstechnik«). Durch die Dosierung eines Bolus (eine bestimmte Medikamentenmenge in einer gewissen Zeit) wird das Medikament im Blut auf eine gewisse Konzentration gebracht. Die durch den Abbau des Medikaments verloren gehende Wirkung wird durch eine konstante Infusionsrate ausgeglichen. Die Blutkonzentration kann nicht direkt am Patienten gemessen werden. Daher ist der Arzt auf die Beobachtung der Wirkung angewiesen.
24.3.2 Beatmungseinheit
Die zweite Komponente eines Anästhesiegerätes ist das Beatmungsgerät (Ventilator). Seinen Aufgaben entsprechend sind zu unterscheiden: die Eingabeeinheit, die Steuereinheit, das Atemsystem, die Balgeinheit mit Antrieb, die Frischgaseinspeisung und die Überwachung der Beatmungseinheit (⊡ Abb. 24.6). Diese Komponenten ermöglichen die Beatmung des Patienten, wobei in der Anästhesie die Kontrollierte Beatmung die am häufigsten benutzte Beatmungsform darstellt.
Teilkomponenten der Beatmungseinheit Eingabeeinheit Die Eingabeeinheit des Ventilators, auch human interface genannt, ist die Verbindungsstelle zwischen Anwender und Gerät. Mit ihr kann das medizinische Personal der Steuereinheit entsprechend der Bedienphilosophie des Gerätes die Werte vorgeben, die dem jeweiligen Patienten adäquat sind. So kann z. B. die Inspirations- und Exspirationszeit wie in der Anästhesie weit verbreitet, durch Frequenz und Inspirations-/Exspirationsverhältnis vorgegeben werden. Die Gestaltung des kontrollierten Beatmungshubes wird in Volumenkontrollierter Beatmung durch die Vorgabe des zu verabreichenden Volumens und die inspiratorische Pausenzeit bestimmt oder aber durch das Volumen und den inspiratorischen Flow.
433 24.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
Die Eingabe der Parameter geschieht heute meist indirekt d. h. jede Änderung wird von der Steuereinheit erst dann durchgeführt und an den Patienten weitergegeben, wenn sie vom Anwender nochmals bestätigt wurde. Fehleinstellungen können so vor der Anwendung korrigiert werden. Steuereinheit Die Steuereinheit setzt die von der Eingabeeinheit vorgegebenen Einstellwerte in Maschinendaten um. Sie befehligt die Ventile und legt fest, zu welchen Zeitpunkten das Inspirationsventil, das Exspirationsventil, das Frischgasentkopplungsventil, das Überschussgasventil geöffnet oder geschlossen werden. Sie veranlasst ebenso die Antriebseinheit, das Tidalvolumen in der Inspiration dem Patienten zu verabreichen. Diese Aktivitäten hängen von dem jeweiligen Betriebsmodus ab. Die Anästhesieventilatoren werden heutzutage bei den kontrollierten Beatmungsmodi als Zeit-Zeit-gesteuerte Geräte betrieben. Bei diesen Zeit-Zeit-gesteuerten Geräten wird sowohl die Umschaltung von der Inspiration zur Exspiration als auch die Umschaltung von Exspiration zur Inspiration durch je eine definierte Zeitvorgabe vorgenommen.Diese Umschaltung geschieht unabhängig von der Beschaffenheit der Lunge des Patienten. Atemsystem In der klinischen Praxis gibt es zwei verschiedene Typen von Atemsystemen. Das Rückatemsystem und das Nichtrückatemsystem. Nichtrückatemsysteme werden in der Langzeitbeatmung eingesetzt. Das Frischgas wird dabei direkt in die Lunge des Patienten geleitet. Das ausgeatmete Gas gelangt ohne Umwege in die Umgebungsluft. Rückatemsysteme setzt man wegen der Kosten der Gase in Anästhesiegeräten ein (⊡ Abb. 24.7). Durch Rückführung des exspiratorischen Atemgases in den Gasfluss der Inspiration können die darin enthaltenen Narkosemittel optimal genutzt werden und eine geringere Zudosierung von Inhalationsnarkotika erreicht werden. Auf diese Weise kann das Frischgasvolumen weit unter das Atemminutenvolumen reduziert werden. Da die Ausatemluft CO2 enthält, ist es notwendig, einen CO2-Absorber in dieses System zu integrieren, damit der Patient CO2 freies Gas zum Einatmen erhält. Der Absorber ist das charakteristische Erkennungsmerkmal für Rückatemsysteme. Der darin enthaltene Atemkalk (hauptsächlich Ca(OH)2) bindet das CO2 der Ausatemluft. Gleichzeitig wird durch den chemischen Prozess Wärme und Feuchtigkeit produziert, was zur Anwärmung und Anfeuchtung des Gases beiträgt. Die zum Patienten gelangende inspiratorische Konzentration der Atemgase hängt entscheidend von der eingestellten Frischgaskonzentration und der Konzentration des exspiratorischen Gases ab.
⊡ Abb. 24.6. Komponenten eines Ventilators
⊡ Abb. 24.7. Prinzip des Rückatemsystems
Diese Rückatemsysteme haben sich heute in der Anästhesie durchgesetzt, weil sie weniger Gas verbrauchen, damit geringere Folgekosten bereiten, die Umwelt weniger belasten, eine verbesserte Anfeuchtung und Temperierung der Gase bieten.
24
434
Kapitel 24 · Anästhesiegeräte
Je nach Größe des Frischgas-Flows nennt man die Systeme ▬ High-Flow, ca. 3–6 l/min, ▬ Low-Flow, ca. 1 l/min, ▬ Minimal-Flow, ca. 0,5 l/min.
III
Je geringer der Frischgas-Flow eingestellt wird, desto höher sind jedoch die Dichtigkeitsanforderungen und die Anforderungen an das Gerätemonitoring. Balgeinheit mit Antrieb Die Balgeinheit ist der zentrale Teil eines Ventilators. Mit seiner Hilfe wird dem Patienten das notwendige Atemvolumen verabreicht. Der Balg kann pneumatisch mittels Druckluft ausgedrückt werden, wie z. B. beim Ventilog, AV1, Julian oder auch elektronisch mittels Motor, wie z. B. bei Cicero, Fabius oder Primus. Beim pneumatischen Ausdrücken (auch »Bellows-inbottle-Prinzip« genannt) ist der Balg in einer druckdichten Kammer befestigt. Durch Einströmen von Druckluft wird in der Inspirationsphase der Balg ausgedrückt und das im Balg enthaltene Gas zum Patienten befördert. In der Exspirationsphase wird die Kammer entlastet, sodass der Druck wieder auf Null fällt und der Balg in die Ausgangsposition zurückkehrt. Beim elektrischen Antrieb wird der Balg mit Hilfe eines Elektromotors mit angeschlossenem Getriebe hin und her bewegt und so das enthaltene Gas ausgedrückt. Ebenso kann dies mit einer Kolben- Zylinder Einheit realisiert werden. Ein Kolben bewegt sich in einem Zylinder vergleichbar mit einer großen Spritze. Der Kolben wird über
⊡ Abb. 24.8. Konventionelles Kreissystem mit kontinuierlicher Frischgaseinspeisung
eine Spindel von einem Schrittmotor hin und her bewegt. Da der Zylinder eine definierte Querschnittsfläche hat und der Antrieb über die Spindel sehr präzise erfolgt, kennt man sehr genau das aktuell gelieferte Volumen bei der Dosierung. Da beim elektrischen Antrieb kein Antriebsgas benötigt wird, entfallen die entsprechenden Kosten. Frischgaseinspeisung Wie in ⊡ Abb. 24.2 gezeigt, wird das O2-, N2O-Gemisch des Messröhrenblockes bzw. Mischers dem Narkosemittelverdunster zugeführt. Nach Passage des Verdunsters wird das Gasgemisch, bestehend aus O2, N2O und Narkosemittel, auch Frischgas genannt. Dieses Gasgemisch wird der Inspirationsseite des Atemsystems zugeleitet. Die Frischgaseinspeisung kann auf zwei verschiedene Arten geschehen: ▬ kontinuierlich (konventionelles System), ▬ diskontinuierlich (frischgasentkoppeltes System). Durch diese unterschiedliche Behandlung des Frischgases haben die Atemsysteme unterschiedliche Charakteristika. Kontinuierliche Frischgaseinspeisung in den Inspirationszweig. Dieses konventionelle System (⊡ Abb. 24.8; realisiert z. B. im Sulla 808 mit Ventilog 2) ist dadurch charakterisiert, dass bei kontrollierter Beatmung der Handbeatmungsbeutel nicht im Gaslauf enthalten ist und dass unabhängig von Inspiration und Exspiration kontinuierlich Gas ins Atemsystem strömt. Während der Inspiration strömt zusätzlich zum Volumen aus dem Balg das Frischgas zum Patienten. Das zum Patienten gelangende
435 24.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
Volumen ist daher Balgvolumen plus Frischgasvolumen. Das System hat daher folgende Charakteristika: ▬ Das Atemminutenvolumen ist Frischgas-Flow-abhängig. Das bedeutet: Reduziert man den Frischgas-Flow von z. B. 5 l/min auf 2 l/min, ohne die Beatmung zu verändern, so reduziert sich das Atemminutenvolumen (AMV) um 1,5 l bei einem I:E von 1:1. Änderung AMV = [1/2(5 l/min-2 l/min) = 1,5 l/min]. ▬ Bei einem großen Flow zeigt die Druckkurve in der Plateauphase einen kontinuierlichen Druckanstieg. Die Druckkurve erhält dadurch einen zweiten Druckpeak. ▬ Bei einem sehr kleinen Frischgas-Flow und fallendem Balg ergibt sich zu Beginn der Exspiration eine negative Druckphase, da das konventionelle System kein Gasreservoir besitzt. Daher ist auf einen genügend großen Frischgas-Flow zu achten, um diesen Effekt zu vermeiden. Diese Frischgasflowabhängigkeit wird heute in einigen Geräten auf dem Weltmarkt im steady state durch die so genannte Frischgaskompensation beseitigt. Durch Messung des Volumens z. B. in der Inspiration, das aus einem Frischgas und einem Ventilatoranteil besteht, kann mit einem Regelalgorithmus der Anteil aus der Balgeinheit so reduziert werden, dass die Summe aus Frischgas und Balganteil dem eingestellten Volumen entspricht. Diskontinuierliche Frischgaseinspeisung in den Inspirationsgaszweig. Dieses System (⊡ Abb. 24.9) wird auch frischgasentkoppeltes System genannt und ist z. B. im Cicero, Fabius, Primus realisiert. Es ist dadurch cha-
rakterisiert, dass der Frischgas-Flow nur in der Exspirationsphase des Patienten in die Inspirationsleitung des Atemsystems einströmen kann. In der Inspirationsphase strömt das Gas in einen Reservoirbeutel (Handbeatmungsbeutel) und ermöglicht so in der Exspirationsphase, den Balg zu füllen. Aufgrund dieser diskontinuierlichen Frischgaseinspeisung hat das System folgende Eigenschaften: ▬ Das Atemminutenvolumen ist unabhängig vom Frischgas-Flow, d. h. ändert man den Flow von z. B. 5 l/min auf 2 l/min, so ändert sich das Atemminutenvolumen nicht. Wegen dieser Eigenschaft ist die Frischgasentkopplung für die Anwendung der LowFlow-Narkose wesentlich. ▬ Durch die Entkopplung von Medikamentendosierung und Patienten gibt es keine Beeinflussung der Druckkurve vom Frischgas-Flow, insbesondere keine negative Phase bei kleinem Flow. ▬ Der Reservoirbeutel ist bei kontrollierter Beatmung im System integriert und füllt und entleert sich im Rhythmus der Beatmung. Daran ist auch die Frischgasentkopplung in Volumenkontrollierter Beatmung zu erkennen. Überwachung des Ventilators Um Fehlfunktionen der einzelnen Komponenten, wie hier des Ventilators inklusive Atemsystem, erkennbar und transparent zu machen und dem Anwender die Möglichkeit zum Eingreifen zu geben, sind Gerätemonitoring-Parameter unerlässlich. Drei Sensoren – Druck, Volumen und CO2 – sorgen dafür, den Ventilator und das
⊡ Abb. 24.9. Frischgasentkoppeltes System durch diskontinuierliche Frischgaseinspeisung
24
436
III
Kapitel 24 · Anästhesiegeräte
Atemsystem in seiner Funktion zu überwachen. Meist sind diese Sensoren in das übrige Gerätemonitoring integriert und erfüllen dabei zusätzliche Patientenüberwachungsaufgaben. Die Volumenmessung ermöglicht die Kontrolle des eingestellten Tidalvolumens. Die korrekte Beatmungsfrequenz lässt sich aus der Volumen-, Druck- oder CO2Messung ableiten. Die Druckmessung gibt eine Warnung vor einem zu großen Druck im Atemsystem (Stenose) und soll vor der Gefahr eines Barotraumas schützen. Die inspiratorische CO2-Messung erkennt einen nicht mehr funktionsfähigen Atemkalkabsorber. Eine Warnung vor einer Diskonnektion ermöglicht die exspiratorische CO2Messung und die Druckmessung (die eingestellte untere Druckgrenze wird bei Diskonnektion nicht mehr periodisch in beiden Richtungen durchlaufen).
Beatmungsmodi in der Anästhesie In der Anästhesie spielen heute 4 Beatmungsmodi eine Rolle. ▬ Die Handbeatmung. Die Handbeatmung ermöglicht es dem Anästhesisten, die Anästhesie einzuleiten, den Patienten zu beatmen und wieder aus der Anästhesie zur Spontanatmung zurück zu bringen. ▬ Die kontrollierte Beatmung. Sie spielt in der Anästhesie die dominierende Rolle, da bei der Narkose häufig ein Muskelrelaxans benutzt wird, welches als Nebenwirkung die Atemmuskulatur lähmt. Zwei Formen, die volumenkontrollierte und die druckkontrollierte Beatmung werden dabei unterschieden, die beide in der Anwendung verschiedene Schwerpunkte haben. Die Hauptindikation für volumenkontrollierte Beatmung sind die lungengesunden Patienten für druckkontrollierte Beatmung die Patienten mit pulmonalen Problemen, Neonaten und Patienten der Pädiatrie. ▬ Die Unterstützung der Spontanatmung (Pressure
Support). Bei einer Reihe von Operationen ist die Anwendung von Muskelrelaxantien nicht notwendig, und anstelle eines Tubus zur Sicherung der Atemwege wird eine Larynxmaske benutzt. Der Patient kann spontan atmen mit stabiler Spontanatemfrequenz, jedoch ist je nach Dosierung der Medikamente die Muskulatur geschwächt. Pressure Support hilft die durch die Medikamente geschwächten Atemmuskeln zu unterstützen und die Atmung zu vertiefen. ▬ Die Mischventilation. Wird eine Operation ohne Muskelrelaxantien durchgeführt, die Hypnose- und Schmerzmedikamente aber so hoch dosiert, dass die Spontanatemfrequenz instabil ist, kann es vorkommen, dass Phasen ohne Spontanatmung auftreten. Hier ist eine Mindestventilation sicherzustellen, damit der Patient seinen Sauerstoffbedarf decken kann. Der Patient atmet im Wesentlichen spontan. Der Ventilator gibt
mit einer eingestellten niedrigen Sicherheitsfrequenz synchron mit der Einatmungsbemühung des Patienten kontrollierte Beatmungshübe ab. Damit der Patient die Widerstände von Tubus und Nebenwirkung der Medikamente leichter überwinden kann, unterstützt man die Spontanatmung mit Pressure Support. In der Ausleitungsphase einer Anästhesie mit Muskelrelaxantien, wo die Konzentration der Medikamente sich allmählich verringert und die Spontanatmung wiederkommt, hilft die Mischventilation, die aufkommende Spontanatmung zu unterstützen und eine Mindestventilation sicherzustellen. Der Anästhesist hat dabei die Hände für andere Aufgaben frei. Ansonsten ist eine Hand mit assistierender Handbeatmung belegt. Volumenkontrollierte Beatmung Volumenkontrollierte Beatmung, auch IPPV (»intermittent positive pressure ventilation«) genannt, ist ein zeitgesteuerter, volumenkontrollierter Beatmungsmodus. Bei dieser kontrollierten Beatmung verabreicht der Ventilator das voreingestellte Tidalvolumen (z. B. 10 ml/kg Körpergewicht) mit einem fest vorgegebenen konstanten Inspirations-Flow mit der vorgegebenen Frequenz (z. B. für Erwachsene 12 1/min). Der Druckverlauf im Atemsystem und in der Lunge ergibt sich aus den eingestellten Parametern und der Resistance und Compliance der Lunge des Patienten (⊡ Abb. 24.10). Je nach Einstellung können hohe Druckspitzen auftreten. Daher ist eine maximale Druckgrenze Pmax einzustellen, die bewirkt, dass bei Erreichen der Druckgrenze der Flow automatisch reduziert wird. Daneben ist das Druckmonitoring wesentlich. Von Vorteil ist im IPPV Modus, dass stets ein definiertes Atemminutenvolumen zum Patienten gelangt, wenn sich auch die Lungeneigenschaften ändern. Dieser Modus wird vor allem bei lungengesunden Patienten angewandt und ist in der Anästhesie sehr populär. Ebenso wird er benutzt, wenn die Volumenkonstanz und damit die Einhaltung des arteriellen CO2 Partialdrucks innerhalb enger Grenzen ein primäres Ziel der Beatmung ist. Ein Beispiel hierfür ist das Schädel-HirnTrauma. Da die Hirndurchblutung CO2 abhängig ist, ist zur optimalen Einstellung des intrazerebralen Druckes das Volumen konstant zu halten. Druckkontrollierte Beatmung Druckkontrollierte Beatmung auch PCV (»pressure controlled ventilation«) genannt, ist ein zeitgesteuerter, druckkontrollierter Beatmungsmodus. Bei dieser kontrollierten Beatmung gibt der Ventilator einen Beatmungshub bei einem konstanten vorgegebenen Druckniveau z. B 15 mbar mit einem dezellerierenden inspiratorischen Flow-Muster während der gesamten Inspirationszeit mit der vorgegebenen Häufigkeit (Frequenz) ab (⊡ Abb. 24.11). Das
437 24.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
verabreichte Volumen kann nicht vorgegeben werden und ergibt sich aus dem angewandten Druck und der Compliance der Lunge. Je nach Druckeinstellung kann das abgegebene Volumen zu groß oder zu klein sein. Daher ist das exspiratorische Volumenmonitoring wesentlich. Vorteilhaft an diesem Mode ist vor allem, dass keine höheren als die eingestellten Druckwerte am Patienten auftreten. Dieser Modus wird vor allem bei Neonaten, Säuglingen und Kindern angewandt, wo der Thorax noch nicht so stabil ist und auch der Tubus nicht geblockt ist und daher Leckagen vorhanden sind. Ebenso ist er hilfreich bei Patienten mit inhomogenen Lungen, wo ein Überdehnen der normalen Bereiche vermieden werden soll. Auch ist dieser Modus geeignet, Patienten mit bronchuspleuralen Fisteln zu beatmen. Bei Beatmung mit Larynxmasken wird PCV auch zunehmend eingesetzt.
⊡ Abb. 24.10. Druck- und Flow-Kurve bei volumenkontrollierter Beatmung (IPPV)
⊡ Abb. 24.11. Druck- und Flow-Kurve bei druckkontrollierter Beatmung (PCV)
Unterstützung der Spontanatmung (Pressure Support) Pressure support ist ein druckunterstützter Beatmungsmodus, der bei erhaltener, aber nicht ausreichender Spontanatmung eingesetzt werden kann (⊡ Abb. 24.12). Er unterstützt jeden einzelnen Atemzug des Patienten. Dieser Modus wird auch ASB (»Assisted Spontaneous Breathing«) oder IHS (»Inspiratory Help System«) genannt. Ähnlich wie der Anästhesist die wiedereinsetzende Spontanatmung des Patienten am Beatmungsbeutel fühlt und manuell unterstützt, kann das Gerät eine insuffiziente Spontanatmung unterstützen. Das Gerät übernimmt einen Teil der Atemarbeit, der Patient jedoch kontrolliert den Inspirationsanfang und das Inspirationsende. Der Inspira-
⊡ Abb. 24.12. Druckkurve bei unterstützter Spontanatmung (Pressure Support)
24
438
III
Kapitel 24 · Anästhesiegeräte
tionsanfang wird mit Hilfe eines Triggersystems erkannt. Das Gerät stellt danach einen hohen Flow zur Verfügung, dessen Anstieg vorgewählt werden kann, und erzeugt dadurch einen Druckanstieg, der bis zum vorgewählten Unterstützungs-Druck steigt und auch konstant bleibt. Die Ausatmung beginnt, sobald der Inspirationsflow unter einen bestimmten Wert (z. B. 25% des Maximalflows) fällt. Durch Reduzierung des Unterstützungsdruckes wird die Unterstützung des Gerätes reduziert und der Patient zur Übernahme von mehr Atemarbeit veranlasst. Die Mischventilation SIMV/ PS Die Grundidee des SIMV (Synchronized Intermittent Mandatory Ventilation) (⊡ Abb. 24.13) besteht darin, dass der Patient im Wesentlichen spontan atmet und der Ventilator zwischendurch synchron mit der Einatmungsbemühung des Patienten kontrollierte Beatmungshübe (volumenkontrolliert oder druckkontrolliert) mit einer sehr niedrigen Sicherheitsfrequenz abgibt. Es wird verhindert, dass ein maschineller Atemhub während der spontanen Exspiration erfolgt. Während des kontrollierten Hubes ist keine Spontanatmung möglich. SIMV ist eine Mischform zwischen reiner Spontanatmung und kontrollierter Beatmung. Die Atemhübe des Gerätes werden mit dem Atemzug des Patienten synchronisiert, wozu die Triggerfunktion des Gerätes benutzt wird. Der Atemhub wird dann ausgelöst, wenn der Patient am Ende der Spontanatemphase eine neuerliche Einatemanstrengung unternimmt und dadurch den Triggerpuls auslöst. Sie ergeben eine Mindestventilation, die sich aus dem Produkt von Atemvolumen (VT) und der Frequenz ergibt. Zwischen diesen kontrollierten Hüben kann der Patient frei, spontan atmen. In diesen Spontanatemphasen kann der Patient zusätzlich mit Pressure Support durch eine geeignete Druckeinstellung unterstützt und ihm ein Teil seiner Atemarbeit abgenommen werden.
Beatmungsgerätes, andererseits die Auswirkungen der Anästhesie auf die physiologischen Funktionen des Patienten ständig zu überwachen. Anhand entsprechender Überwachungsgrößen wird festgestellt, ob das Gerät ordnungsgemäß arbeitet und der Patient in der gewünschten Weise anästhesiert und beatmet wird. Bei Überschreiten der Grenzen eines vorher festgelegten Bereiches wird der entsprechende akustische und optische Alarm des überwachten Parameters ausgelöst. Um die beiden wichtigsten Aufgaben, nämlich die Messung und Überwachung eines bestimmten Parameters zu erfüllen, sind verschiedene Systemkomponenten im Monitor notwendig: ▬ Die Messeinheit. Sie wandelt mit Hilfe eines Sensors die physikalischen Größen, wie z. B. Druck, Flow, Sauerstoffkonzentration, Temperatur, Absorption, in ein auswertbares elektrisches Signal um. So wird z. B. aus dem Atemgasstrom mittels eines Sensors ein elektrischer Strom erzeugt. ▬ Die Anzeigeeinheit. Sie zeigt das gemessene Ergebnis nach Umwandlung in die entsprechenden Einheiten an, wie z. B. Volumen in ml. Die Anzeige kann dabei als digitale Ziffernfolge oder als analoger Zeigerausschlag oder aber auch als Kurve ausgegeben werden. ▬ Die Überwachungseinheit. Sie hat die Aufgabe zu überprüfen, ob die Ist-Werte im Soll-Bereich liegen. Um dies zu erfüllen, werden der Überwachungseinheit vom Anwender untere und obere Grenzwerte eingegeben. Die Überwachungseinheit vergleicht den aktuellen Messwert mit dem unteren und oberen Grenzwert. Werden Grenzwerte überschritten, wird ein Alarm abgegeben, damit der Anwender eingreifen kann. Durch geeignetes Zusammenstellen der Ausgabenwerte der verschiedenen Sensoren kann der Bildschirm mit Kurven, Daten und Alarmdisplays unterschiedlich gestaltet werden.
24.3.3 Monitoring
Die dritte wesentliche Komponente eines Anästhesiegerätes ist das Monitoring. Es hat zum Ziel, einerseits die korrekte Funktion der Medikamentendosierung und des
⊡ Abb. 24.13. Druckkurve bei Mischventilation SIMV/ PS
Aufgaben der verschiedenen Sensoren An Anästhesiegeräten werden gewöhnlich 8 Sensoren eingesetzt.
439 24.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
▬ 5 Gerätemonitoringsensoren, um die Medikamenten-
dosierung und den Ventilator zu überwachen: – Sauerstoff, – Druck, – Volumen, – Kohlendioxid (CO2), – Anästhesiemittel; ▬ 3 Patientenmonitoring-Sensoren, um einen gesunden Patienten bei unkomplizierten Operationen zu überwachen: – das Elektrokardiogramm (EKG), – den nicht invasiven Blutdruck (NIBP) und – die Sauerstoffsättigung (SpO2). Anzeige der dosierten Gase Die Gasdosiereinheit und der Narkosemittelverdunster geben die Medikamente in den Frischgasstrom des Atemsystems. Aufgrund des Rückatemsystems weichen die inspiratorischen Konzentrationen von Sauerstoff, Lachgas und Narkosemittel von den an den Dosiereinrichtungen eingestellten Konzentrationen ab. Dieser Unterschied ist umso größer, je kleiner der Frischgas-Flow ist. Um zu wissen, welche Konzentrationen zum Patienten gelangen, ist die Messung und Anzeige der inspiratorischen Konzentration von Sauerstoff, Lachgas und Narkosemittel (Isoflurane, Sevoflurane, Desflurane) notwendig. Überwachung der Gerätekomponenten Mit oberen und unteren Alarmgrenzen sorgen fünf verschiedene Sensoren dafür, dass die Gerätekomponenten ständig überwacht werden. Der Sinn einer solchen Überwachung ist es, dass im Falle einer Fehlfunktion des Gerätes das qualifizierte und eingewiesene medizinische Personal umgehend Abhilfe schaffen kann. Die Sauerstoffmessung überwacht die Gasdosierung, um z. B. ein Vertauschen der O2- und N2O-Leitungen erkennbar zu machen. Dies kann zusätzlich durch die Messung der Lachgaskonzentration abgesichert werden. Daneben erkennt die Sauerstoffmessung eine Hypoxie, wenn z. B. eine zu niedrige O2-Konzentration eingestellt wurde. Die Narkosemittelmessung hat die Aufgabe, den Narkosemittelverdunster auf korrekte Funktion zu überwachen. Die CO2-Messung ermöglicht die Erkennung von Rückatmung, wenn z. B. ein Inspirations- oder Exspirationsventil defekt ist. Die inspiratorische CO2-Messung überwacht die CO2-Absorption des Atemkalkes und zeigt an, wann spätestens der Atemkalk ausgewechselt werden muss. Die exspiratorische CO2-Messung überwacht die adäquate Ventilation und so auch die Integrität des Atemsystems auf Diskonnektion zwischen Gerät und Patient. Druck- und Volumenmessung dienen dazu, den Ventilator in seiner Funktion zu überwachen. Die Volumenmessung zeigt das korrekte Arbeiten des Ventilators an, insbesondere, ob das eingestellte Volumen auch abgegeben wurde. Die Druckmessung sorgt dafür, dass eine Dis-
konnektion erkannt wird und andererseits der Arzt vor einem zu hohen Druck gewarnt wird, um ein Barotrauma zu verhindern. Überwachung des Patienten Durch die verschiedenen Sensoren, die für das Gerätemonitoring und das Patientenmonitoring vorhanden sind, erhält der Arzt die Möglichkeit, den Zustand des Patienten zu beurteilen. So bestimmen die inspiratorische Sauerstoffkonzentration und der bei der Beatmung entstehende Mitteldruck die Oxigenierung des Patienten. Der Unterschied von exspiratorischer und inspiratorischer O2-Konzentration gibt ein Maß für den O2-Verbrauch des Patienten. Die Volumenmessung zusammen mit der exspiratorischen CO2-Messung ermöglicht, die Ventilation des Patienten richtig einzustellen. Die exspiratorische Narkosemittelkonzentration liefert einen Anhaltspunkt für die Narkosetiefe. Die Differenz des inspiratorischen und exspiratorischen Narkosemittelkonzentrationswertes ist ein Maß für die Narkosemittelaufnahme des Patienten. Die Differenz zwischen Spitzendruck und Plateaudruck in volumenkontrollierter Beatmung weist auf die Atemwegswiderstände hin. Patienten- und Geräte-Compliance hingegen spiegeln sich im Plateaudruck in volumenkontrollierter Beatmung wider. Der Sauerstoffsättigungssensor zeigt die Oxigenierung im Blut an und macht zusätzlich eine Aussage über die Pumpfunktion des Herzens. Für die Überwachung des Patienten ist ebenso eine Überwachung des Blutkreislaufs notwendig. Die Pumpfunktion des Herzens kann an der Messung der Herzfrequenz über die Sauerstoffsättigung sowie durch Messung des nichtinvasiven Blutdruckes beobachtet werden. Das EKG zeigt an, ob und wie das Herz elektrisch aktiviert wird. Für Operationen am Herzen, in der Neurochirurgie und anderen ist neben diesem hier dargestellten Monitoring ein erweitertes Monitoring mit invasiver Blutdruckmessung notwendig.
Sensorprinzipien für das Gerätemonitoring Brennstoffzelle zur Sauerstoffkonzentrationsmessung
Die inspiratorische Sauerstoffkonzentrationsmessung überwacht die Sauerstoffdosierung. Ein oft angewandtes Verfahren für die O2-Messung ist die Brennstoffzelle (⊡ Abb. 24.14). Das elektrochemische Reaktionssystem der Brennstoffzelle befindet sich in einem Gehäuse, das durch eine sehr dünne Membran abgeschlossen ist. Diese Membran hat die Aufgabe, den Austritt des alkalischen Elektrolyten aus dem Gehäuse zu verhindern und Sauerstoffmoleküle hindurchdiffundieren zu lassen. Entsprechend der O2Konzentration im Gas stellt sich die O2-Konzentration im Elektrolyten der Brennstoffzelle ein.
24
440
Kapitel 24 · Anästhesiegeräte
III ⊡ Abb. 24.14. Prinzip der Brennstoffzelle zur Sauerstoffkonzentrationsmessung
In der alkalischen Elektrolytlösung befinden sich eine Bleianode und eine Goldkathode. Nachdem die Sauerstoffmoleküle des zu messenden Gases die Membran durchquert haben, laufen vereinfacht folgende Elektrodenreaktionen ab: An der Goldkathode entzieht der Sauerstoff Elektronen aus dem Kathodenmaterial, und es bilden sich OH-Ionen. Die Kathode lädt sich positiv auf. An der Anode reagiert Blei mit den OH-Ionen zu Bleioxid und Wasser. Dabei lädt sich die Anode negativ auf. Werden Kathode und Anode miteinander verbunden, so fließt ein Elektronenstrom, welcher der Sauerstoffkonzentration proportional ist. Piezoresistiver Wandler zur Druckmessung Die in- und exspiratorische Druckmessung ermöglicht es, Druckzeitdiagramme darzustellen und so die Beatmung transparenter zu machen. Sie sorgt dafür, Diskonnektionen und Apnoephasen zu erkennen und ebenfalls vor zu hohem Druck zu warnen. Ein elektrisches Drucksignal kann aus einem mechanisch-elektrischen (piezoresistiven) Wandler gewonnen werden (⊡ Abb. 24.15). Hierzu wird ein Druckbehälter mit einer beweglichen Membran abgeschlossen. Auf der Membran ist ein Festkörper befestigt, dessen elektrischer Widerstand von der Dehnung der Membran abhängt. Die elektronische Druckmessung beruht nun darauf, dass der momentan herrschende Druck die Membran ausdehnt. Durch die Ausdehnung der Membran wird der Festkörperstreifen verbogen, wodurch eine Widerstandsänderung auftritt. Auf diese Weise ist der momentan herrschende Druck mit dem gemessenen Widerstand eindeutig korreliert. Hitzdrahtprinzip zur Volumenmessung Die exspiratorische Volumenmessung erfasst die das System verlassende Gesamtgasmenge. Besonders bei druckkontrollierten Verfahren ist die Volumenmessung die einzige Möglichkeit, eine Information über das zum Patienten gegebene Volumen zu erhalten. Eine zusätzliche inspiratorische Messung erlaubt die Darstellung der inspiratorischen und exspiratorischen Flowkurve.
⊡ Abb. 24.15. Prinzip des piezoresistiven Wandlers zur Druckmessung im Atemsystem
⊡ Abb. 24.16. Prinzip des Hitzdrahtanemometers zur Volumenmessung
Ein rein elektrisches Verfahren zur Volumenmessung ist das Hitzdrahtanemometerverfahren (⊡ Abb. 24.16). Ein sehr dünner Platindraht wird dabei mit Hilfe des elektrischen Stromes auf eine Temperatur von etwa 180°C erhitzt. Strömt Gas an diesem Draht vorbei, so wird er gekühlt. Je größer das vorbeifließende Volumen pro Zeit ist, umso mehr kühlt sich der Draht ab. Wird die Temperatur des Platindrahtes durch einen Regelkreis konstant gehalten, kann der erforderliche Heizstrom als Maß für den Gasflow benutzt werden. Eine hohe Strömungsgeschwindigkeit erfordert einen hohen elektrischen Strom, um die Temperatur des Heizdrahtes kon-
441 24.4 · Voraussetzung für den sicheren Betrieb
⊡ Abb. 24.17. Infrarotabsorption zur Messung der CO2-, N2O- und Narkosemittelkonzentration
stant zu halten, eine kleinere Strömungsgeschwindigkeit erfordert einen kleinen elektrischen Strom, um die gleiche Temperatur zu erreichen. Durch elektronische Integration der Stromstärke über der Zeit erhält man das Volumen. Infrarotabsorptionsmessung zur CO2-, N2O-Narkosemittelkonzentrationsmessung Die Infrarotabsorptionsspektroskopie (⊡ Abb. 24.17) basiert auf dem physikalischen Prinzip, dass mehratomige Gase Infrarotstrahlung bei charakteristischen Frequenzen absorbieren. Die Stärke der Absorption hängt dabei von der Anzahl der Moleküle ab. Zur Messung werden die Moleküle in eine Küvette mit definierter Länge geleitet und mit einer Infrarotlichtquelle durchstrahlt. Das Nachweiselement (der Detektor) weist die nach der Absorption verbleibende Reststrahlung nach. Strahlt die Lichtquelle mit der Intensität I0 und wird der Strahl durch die Moleküle auf die Intensität I abgeschwächt, so kann die Konzentration nach dem LambertBeer-Gesetz berechnet werden zu: Konzentration = Absorptionskonstante *ln (I0/I). Mit je einer, aber für jedes Gas unterschiedlichen charakteristischen Lichtfrequenz werden im 4 µm-Bereich CO2, und N2O bestimmt. Die Narkosemittel Halothane, Enflurane, Isoflurane, Sevoflurane, Desflurane werden heutzutage durch Messung der Absorption auf 3 Wellenlängen im Bereich 8–9 µm identifiziert und die entsprechende Konzentration bestimmt. Sensorprinzipien für das Patientenmonitoring Die Prinzipien des EKG, der Sauerstoffsättigungsmessung und des Blutdruckes sind in Kap. 30 beschrieben.
24.4
Voraussetzung für den sicheren Betrieb
24.4.1 Anschlussvoraussetzungen
Die ordnungsgemäße Funktion des Gerätes ist nur in Räumen mit entsprechenden Versorgungsanschlüssen gewährleistet. So ist darauf zu achten, dass das Anäs-
thesiegerät als lebenserhaltendes System am krankenhausinternen Notstromnetz angeschlossen wird. Gleich wichtig ist, dass immer Sauerstoff, Druckluft und, wo eingesetzt, Lachgas aus der zentralen Versorgung mit geeignetem Druck (z. B. 5 bar) vorhanden sind. Ist eine Redundanz nicht gegeben, so ist Sorge dafür zu tragen, dass Reserveflaschen in der Nähe sind, um im Fall einer Störung der zentralen Versorgungsanlage den Narkosebetrieb aufrechterhalten zu können. Bei kardiologischen Eingriffen ist außerdem daran zu denken, dass das Gerät an die zentrale Erde im OP angeschlossen wird. Ebenso ist zu beachten, dass Mobilfunktelefone die Funktionsweise eines Gerätes stören können. Da im Gerät Lachgas und Narkosemittel (Isoflurane, Sevoflurane, Desflurane) benutzt werden, die nur der Patient einatmen sollte, nicht jedoch das OP-Personal, ist es notwendig, dass eine Narkosegasfortleitung vorhanden ist, um das Gas zu entsorgen. Da jedes Gerät eine gewisse Undichtigkeit besitzt und z. B. bei Maskennarkosen auch Narkosegase in das Umfeld gelangen, ist eine geeignete Luftwechselrate der Umluftanlage notwendig, damit die Belastung am Arbeitsplatz gering ist.
24.4.2 Einweisung und Weiterbildung
Die Einweisung beabsichtigt, dem Anwender die Kenntnisse und Handlungsabläufe zu vermitteln, die eine sachgerechte Anwendung des Gerätes ermöglichen. Bei der Einweisung spielt die Gebrauchsanweisung die zentrale Rolle, denn sie ist der entscheidende Informationsträger für den Anwender. Um die Anwendungssicherheit zu gewährleisten, ist daher neben der Ersteinweisung und dem Studium der Gebrauchsanweisung eine regelmäßig wiederkehrende Unterweisung und Weiterbildung notwendig. Ziel dieser Aus- und Weiterbildung muss es sein, die Funktionen des Anästhesiearbeitsplatzes beherrschen zu lernen, seine Möglichkeiten ausschöpfen zu können und durch die erworbenen Kenntnisse und Fertigkeiten die Gewähr für eine sichere Handhabung in Routine- und Notfallsituationen zu bieten.
24
442
Kapitel 24 · Anästhesiegeräte
24.4.3 Hygiene
III
Anästhesiegeräte können mit Krankheitserregern kontaminiert sein und so die Quelle von Infektionen darstellen. Die Anwendung solcher Geräte setzt daher eine vorherige Aufbereitung voraus, an die definierte Anforderungen zu stellen sind. Wichtige Punkte sind dabei: ▬ Alle atemgasführenden Teile müssen für jeden Patienten im Normalfall desinfiziert sein. Dies kann z. B. dadurch erreicht werden, dass für jeden Patienten die entsprechenden Teile des Atemsystems und Ventilators getauscht werden. Häufig werden heute Filter am Y-Stück eingesetzt, um diese Anforderung zu erfüllen. ▬ Invasiv eingesetzte Teile wie z. B. invasive Druckmessleitungen oder auch Beatmungstuben müssen sterilisiert sein. ▬ Mindestens täglich ist eine Geräteoberflächendesinfektion notwendig, um durch eine Keimreduktion eine Übertragung der Keime vom Gerät über die Hände auf den Patienten zu vermeiden.
ganzheitlich inklusive des Zubehörs in der üblicherweise angewandten Kombination durchzuführen. Das Ziel dieser Kontrolle ist die Feststellung und Beurteilung des sicherheitstechnischen Ist-Zustandes des Gesamtgerätes. Von der sicherheitstechnischen Kontrolle zu unterscheiden ist die Inspektion und Wartung, die das Ziel verfolgt, durch vorbeugende Zustandserhaltung die Verfügbarkeit des Gerätes durch Bereitstellung einer ausreichenden Nutzungsreserve bis zur nächsten Inspektion sicherzustellen. Detaillierte und quantitative Messungen und Prüfungen, die weit über die rein sicherheitstechnischen Aspekte hinausgehen, sind dazu notwendig. Zwischen diesen Intervallen hat der Anwender sich vor der Anwendung eines Medizinproduktes von der Funktionalität und dem ordnungsgemäßen Zustand des Medizinproduktes zu überzeugen. Ziel dieser Prüfung ist das Erkennen von Fehlern, die durch das Auseinandernehmen, Reinigen, Desinfizieren, Sterilisieren, Transportieren und Zusammenbauen entstanden sein können.
Weiterführende Literatur Für den hygienischen Zustand der Geräte ist entscheidend, dass ein festes Wechselregime benutzt wird und diese Routine durch hygienische Tests vor Ort abgesichert wird. Ist das Testergebnis nicht befriedigend, muss das Regime definiert verändert werden.
24.4.4 Instandhaltung und Prüfungen
Vom Hersteller wurden in der Konzept-, Entwicklungsund Fertigungsphase eines Gerätes sicherheitstechnische Maßnahmen in das Produkt integriert. Mit dem CEZeichen wird sichtbar gemacht, dass alle zutreffenden Schutzziele aller für das Medizinprodukt zu berücksichtigenden EG-Richtlinien erfüllt werden. Damit ist aber keinesfalls die gewünschte Sicherheit im klinischen Einsatz über Jahre gewährleistet, auch wenn die Geräte entsprechend der Gebrauchsanweisung bestimmungsgemäß eingesetzt und ordnungsgemäß bedient werden. Während seines Betriebes unterliegt ein solches Gerät bestimmten Verschleißerscheinungen, wobei sich der aktuelle Zustand (Ist-Zustand) von dem gewünschten Zustand (Soll-Zustand) entfernt. Anwender und Betreiber müssen daher eine laufende Überprüfung und Kontrolle im Routinebereich organisieren und durchführen, damit die Sicherheit eines Gerätes auch zwischen zwei für Narkosegeräte üblichen wiederkehrenden sicherheitstechnischen Kontrollen bzw. Inspektionen gewährleistet bleibt. Bei dieser wiederkehrenden sicherheitstechnischen Kontrolle werden die Vollständigkeit der Gerätedokumentation, alle wichtigen Funktionsparameter und alle relevanten Parameter zur Erkennung des Erstfehlers überprüft und aktenkundig gemacht. Diese Prüfung ist
Gärtner A (1992) Sicherheit im Alltag der Medizintechnik. Patientensicherheit, Anwendersicherheit. TÜV Rheinland, Köln Gärtner A (1993) Beatmungs- und Narkosetechniken. TÜV Rheinland, Köln Höhnel J (1991) Medizinische Gerätekunde für klinische Anwender. Enke, Stuttgart Rathgeber J (1990) Praxis der maschinellen Beatmung. In: Züchner K (Hrsg) Praktische Gerätetechnik. Medizinische Congress Organisation, Nürnberg
25 Blutreinigungssysteme C. Busse 25.1 Einleitung 25.2 Dialyse
25.6.5 Zyklisch kontinuierliche Peritonealdialyse (CCPD) – 450
– 443
– 443
25.7 Dialysetechnik
25.3 Physikalische und technische Grundlagen – 444 25.3.1 25.3.2 25.3.3 25.3.4
Diffusion – 444 Osmose – 444 Konvektion/ Ultrafiltration – 444 Adsorption – 445
25.4 Klassifizierung der Blutreinigungsverfahren
25.7.6
– 445
25.5 Extrakorporale Dialyseverfahren 25.5.1 25.5.2 25.5.3 25.5.4 25.5.5 25.5.6 25.5.7 25.5.8
25.7.1 25.7.2 25.7.3 25.7.4 25.7.5
– 445
Hämodialyse (HD) – 445 Hämofiltration (HF) – 446 Hämodiafiltration (HDF) – 447 Kontinuierliche Nierenersatzverfahren – 448 Membranplasmaseparation – 448 Extrakorporale Adsorptionsverfahren – 448 Verfahren der Leberfunktions-unterstützung – 448 Mögliche Komplikationen während der extrakorporalen Blutreinigungsverfahren – 449
25.6 Intrakorporale Dialyseverfahren: Peritonealdialyse (PD) – 449 25.6.1 Kontinuierliche ambulante Peritonealdialyse (CAPD) – 450 25.6.2 Automatische Peritonealdialyse (APD) – 450 25.6.3 Intermittierende Peritonealdialyse (IPD) – 450 25.6.4 Nächtliche intermittierende Peritonealdialyse (NIPD) – 450
25.1
Einleitung
Die Blutreinigung wird im menschlichen Organismus von den beiden Nieren und der Leber übernommen. Die Nieren entfernen harnpflichtige Substanzen aus dem Blut und scheiden diese mit dem Harn aus. Sie regulieren den Wasser- und Elektrolythaushalt sowie das Säure-BasenGleichgewicht. Außerdem produzieren sie verschiedene Hormone wie z. B. Erythropoetin (essentiell für die Bildung der roten Blutkörperchen) oder Vitamin D. Hauptfunktion der Leber ist der Stoffwechsel sowie die Entgiftung und Ausscheidung toxischer Stoffwechselprodukte, hauptsächlich als Galle über den Darm. Bei Funktionsstörung oder Ausfall dieser Organe müssen sich die Patienten einer extrarenalen bzw. extrahepatischen Blutreinigungstherapie unterziehen. Ziel ist, mit Hilfe der Blutreinigungstherapien die Konzentration harnpflichtiger bzw. pathogener Substanzen (niedrig-,
25.7.7 25.7.8 25.7.9 25.7.10
– 450
Technik der Hämodialyse-Therapiesysteme – 451 Hämodialysegeräte – 451 Desinfektion und Reinigung – 453 Regelkreise für eine physiologische Dialyse – 454 Effizienzkontrolle der Dialysebehandlung: Online Messung der Dialysedosis – 454 Technische Sicherheit von Hämodialysegeräten – 454 Batchsystem-Geräte und spezielle Heimhämodialysegeräte – 455 Extrakorporaler Blutkreislauf – 455 Gefäßzugang – Kanülen und Katheter – 456 Dialysator – 456
25.8 Technik der Peritonealdialysegeräte – 458 25.9 Epidemiologie und Anwendungsbereiche – 458 25.9.1 Akutbehandlung – 458 25.9.2 Risiko- bzw. Kliniksdialyse – 459 25.9.3 Chronische Dialyse bzw. Zentrumsdialyse
– 459
25.10 Planung und Organisation eines Dialysezentrums – 459 25.11 Dialyse-Datenerfassungssysteme
– 460
Weiterführende Literatur – 461
mittel-, und hochmolekular) im Blut und indirekt auch im Gesamtorganismus urämischer Patienten unterhalb der toxischen Grenzen zu halten. Dies gelingt bei der Nierenersatztherapie sehr gut. Die extrakorporalen Leberersatzverfahren ermöglichen zur Zeit noch keinen längerfristigen Ersatz der Leberfunktion, können aber helfen, die Wartezeit bis zur Verfügbarkeit eines geeigneten Transplantats zu überbrücken. Der heutige hohe Standard der verschiedenen Blutreinigungsverfahren gestattet eine individuelle Auswahl der bestmöglichen Therapie für die jeweilige Krankheitsphase des betroffenen Patienten.
25.2
Dialyse
Insbesondere die Nierenersatztherapie – auch Dialyse genannt – verfügt über verschiedene ausgereifte Verfahren
444
III
Kapitel 25 · Blutreinigungssysteme
zur effektiven Entgiftung niereninsuffizienter Patienten. Sie ermöglichen auch über längere Zeiträume (Jahre bis Jahrzehnte) einen symptomatischen Nierenersatz. Da die am häufigsten durchgeführte Blutreinigungsbehandlung die Dialyse niereninsuffizienter Patienten ist, stellen Dialyse und Dialysetechnik einen Schwerpunkt dieses Kapitels dar. Das physikalische Verfahren der Dialyse (gr. Dialysis Auflösung, Trennung) beschreibt die größenmäßige Trennung verschiedener gelöster Substanzen mittels einer halbdurchlässigen (semipermeablen) Membran. Diese Membran ist nur für Moleküle bis zu einer bestimmten Molekülgröße selektiv durchlässig, größere Moleküle werden zurückgehalten. In der Medizin ist die Dialyse eine der Nephrologie zugeordnete Therapieform. Bei chronischer Niereninsuffizienz, akutem Nierenversagen sowie schweren endogenen Intoxikationen stehen unterschiedliche extrarenale Blutreinigungsverfahren zur Verfügung. Die meisten dieser Verfahren sind sehr aufwändig in der apparativen Technik und damit kostenintensiv.
25.3
Physikalische und technische Grundlagen
Alle blutreinigenden Therapieverfahren basieren auf den physikalischen Grundprinzipien Diffusion, Osmose, Konvektion/ Ultrafiltration und Adsorption, welche die hauptsächlich exkretorischen Funktionen der Niere bzw. die hauptsächlich metabolischen Funktionen der Leber teilweise ersetzen. Ziel ist, wie bereits eingangs erwähnt, mit Hilfe der Blutreinigungstherapien die Konzentration harnpflichtiger bzw. pathogener Substanzen (niedrig-, mittel-, und hochmolekular) im Blut und indirekt auch im Gesamtorganismus urämischer Patienten unterhalb der toxischen Grenzen zu halten.
25.3.1 Diffusion
Bei der Diffusion (⊡ Abb. 25.1, auch 4-Farbteil am Buchende) wird das Bestreben von Molekülen, innerhalb eines Lösungsmittels einen Konzentrationsausgleich zu erreichen, genutzt. Die Moleküle wandern dabei zielstrebig von Orten höherer Konzentration zu Orten niedrigerer Konzentration. Antrieb dafür ist die Braun’sche Molekularbewegung. Die Braun’sche Theorie besagt, dass bei jeder Temperatur oberhalb des absoluten Nullpunktes die Moleküle der Materie in ständiger Bewegung sind. Steigende Temperatur verstärkt die Bewegung. Es wird unterschieden zwischen Diffusion und selektiver Diffusion. Die selektive Diffusion findet bei der Dialyse Anwendung. Hierbei werden semipermeable Membranen verwendet, die nur Teilchen bis zu einer bestimmten Größe passieren lassen. Bei der Hämodialyse
⊡ Abb. 25.1. Prinzip der Diffusion
ist dies eine künstliche Dialysatormembran, bei der Peritonealdialyse die natürliche Bauchfellmembran, das sog. Peritoneum.
25.3.2 Osmose
Lässt eine Membran zwar das Lösungsmittel, nicht aber die gelösten Teilchen passieren, kommt es zur Ausbildung eines hydrostatischen Druckgefälles (osmotischer Druck). Aufgrund des Bestrebens der Teilchen, ein Konzentrationsgleichgewicht zu erreichen, wird Lösungsmittel (Wasser) in die konzentrierte Lösung getrieben. Dieser Vorgang wird als Osmose bezeichnet. In der Peritonealdialyse nutzt man die Osmose gezielt für den Entzug überschüssiger Flüssigkeit im Körper über die Peritonealmembran in die Dialyselösung im Peritonealraum. Als osmotische Substanzen werden dabei Glucose oder spezielle Glucosepolymere verwendet. Eine weitere Form der Osmose, die bei der Dialyse ihre Anwendung findet, ist die Umkehrosmose. Sie ist eine Methode zur Gewinnung von entionisiertem Wasser, welches zur Aufbereitung des Dialysats benötigt wird. Dabei wird der osmotische Druck mit einem hydrostatischen Druck überlagert, sodass Wasser (Permeat) durch eine nur für Wassermoleküle permeable Membran gepresst wird. Bei der Trinkwassergewinnung aus Meerwasser wird diese Technologie in großem Maße eingesetzt.
25.3.3 Konvektion/ Ultrafiltration
Als Konvektion wird der Stofftransport in der flüssigen Phase bezeichnet, der unter Einfluss einer äußeren Kraft
445 25.5 · Extrakorporale Dialyseverfahren
erfolgt. Diese Kraft kann z. B. eine hydrostatische Druckdifferenz sein, in deren Folge das Lösungsmittel (z. B. Wasser) und die darin gelösten Stoffe durch eine semipermeable Membran transportiert werden. Dabei werden alle in der Flüssigkeit gelösten und deutlich unter der Membranporengröße liegenden Substanzen mit gleicher Geschwindigkeit transportiert und eliminiert. Ein Druckgefälle über eine Dialysemembran bewirkt eine solche Konvektion, bei der allerdings größere Moleküle (z. B. Proteine) und korpuskuläre Bestandteile des Blutes von der Membran zurückgehalten werden. Nur Wasser und die darin gelösten Substanzen, die klein genug sind, die Poren der Dialysemembran passieren zu können, gelangen durch die Membran in den Dialysierflüssigkeitsraum. Dieser Vorgang wird auch als Ultrafiltration bezeichnet.
25.4
Klassifizierung der Blutreinigungsverfahren
Prinzipiell unterscheidet man die verschiedenen Formen der Nierenersatztherapie von den sonstigen Blutreinigungsverfahren. Außerdem differenziert man zwischen extrakorporalen Verfahren, die sich künstlicher bzw. technischer Membranen oder Adsorbern bedienen (z. B. Hämodialyse und artverwandte Verfahren, LDL-Apherese etc.), und intrakorporalen Verfahren, die körpereigene, physiologische Membranen für den Stoffaustausch heranziehen (Peritonealdialyse) (⊡ Abb. 25.2).
25.5
Extrakorporale Dialyseverfahren
25.5.1 Hämodialyse (HD) 25.3.4 Adsorption
Unter Adsorption wird die Elimination von Stoffen durch Anlagerung an sog. aktive Oberflächen verstanden. Die Eigenschaft vieler Moleküle, sich an diesen Oberflächen abzusetzen, wird hierbei genutzt. Die eliminierbaren Moleküle besitzen z. B. eine hohe Affinität zu den elektrischen Ladungen der Adsorbenzien. Bei der Hämoperfusion wird diese Eigenschaft zur Giftelimination genutzt, indem das Blut des Patienten über granulierte Adsorbenzien (z. B. Aktivkohle oder Neutralharze) geleitet wird und so Toxine durch Adsorption entfernt werden.
Das weltweit am häufigsten angewandte extrakorporale Blutreinigungsverfahren ist die Hämodialyse zur Behandlung chronischer Niereninsuffizienz. Je nach Patientenstatus wird sie als vollassistierte Klinikdialyse, als Zentrumsdialyse / »limited care«-Dialyse und auch vom Patienten und seinen Angehörigen selbst als Heimdialyse durchgeführt. Dieses künstliche Blutreinigungsverfahren hat im Wesentlichen drei Aufgaben zu erfüllen: ▬ die Entfernung von im Blut gelösten toxischen Stoffen (Dialyse), ▬ die Entfernung von überschüssigem Wasser (Ultrafiltration),
BLUTREINIGUNGSVERFAHREN
Nierenersatztherapien
sonstige Blutreinigungstherapien
extrakorporale
intrakorporale
extrakorporale
diffusiv/konvektiv: künstliche/technische Membranverfahren
diffusiv/konvektiv: körpereignene/physiologische Membranverfahren
diffusiv/konvektiv: künstliche/technische Membranverfahren
Chronische Hämodialyse (HD)
Peritonealdialyse (PD):
Membranplasmaseparation (MPS)
- Hämodialyse (HD) (acetat- oder bicarbonat-gepuffert) - Hämofiltration (HF) - Hämodiafiltration (HDF)
- Kontinuierliche ambulante (CAPD) - Ambulante (APD) - - Kontinuierliche zyklische (CCPD) - - Nächtlich intermittierende (NIPD) - - Intermittierende (IPD)
möglich als 1. Einnadel- (single-needle SN) oder Doppelnadel-Verfahren 2. Heim- oder Zentrumdialyse
adsorptiv: künstliche/technische Adsorber - Hämoperfusion (HP) - Low density Lipoprotein (LDL) -Apherese - Immunadsorption
diffusiv/konvektiv und adsorptiv: künstliche Membran und Adsorber
Akutdialyse - kontinuierliche arterio-/venovenöse Hämofiltration (CAVH/CVVH) - kontinuierliche arterio-/venovenöse Hämodialyse (CAVHD/CVVHD) - kontinuierliche arterio-/venovenöse Hämodiafiltration (CAVHDF/CVVHDF) - langsame kontinuierliche Ultrafiltration (SCUF) - intermittierende Hämodialyse (iHD)
⊡ Abb. 25.2. Klassifizierung der Blutreinigungsverfahren
„Künstliche Leber“ (z.B. fraktionierte Plasmaseparation und Adsorption (FPSA) kombiniert mit einer High-Flux-Hämodialyse)
25
446
III
Kapitel 25 · Blutreinigungssysteme
▬ die Verbesserung des Säure-Basen-Status und der
▬ Dialysekanülen oder -katheter für den Gefäß- / Blut-
Elektrolytzusammensetzung des Blutes (hierbei werden gezielt Substanzen von der Dialyseflüssigkeit ins Blut transportiert).
▬ Ein Blutschlauchsystem transportiert das Blut vom
Prinzip: Bei der Hämodialyse wird das Patientenblut außerhalb des Körpers in einem Filter – dem (Hämo-) Dialysator oder auch (Hämo-) Filter – entgiftet. Das Patientenblut fließt entlang der semipermeablen Dialysatormembran. Auf der dem Blut gegenüberliegenden Membranseite durchströmt eine physiologische Elektrolytlösung mit Wasch- und Spülfunktion – Dialysat oder auch Dialysierflüssigkeit genannt – im Gegenstrom den Dialysator (⊡ Abb. 25.3, auch 4-Farbteil am Buchende). Der Konzentrationsgradient zwischen den beiden unterschiedlich zusammengesetzten Flüssigkeiten bewirkt, dass Moleküle unterhalb der Membranporengröße durch die Membranporen in das »frische« Dialysat diffundieren. Dazu gehören viele der harnpflichtigen Substanzen im Blut wie z. B. Harnstoff, Kreatinin, Phosphat u. a. Die essentiellen korpuskulären (Blutzellen) und hochmolekularen (z. B. Proteine) Blutbestandteile können die Membran jedoch nicht passieren und verbleiben im Blut des Patienten. Das dabei entstehende »verbrauchte« Dialysat (Elektrolytlösung mit harnpflichtigen Substanzen) wird nach einem Dialysator-Durchfluss verworfen (»single pass system«). Die Blutreinigung erfolgt also hauptsächlich durch Diffusion, der Flüssigkeitsentzug simultan durch Ultrafiltration. Zur Durchführung wird ein Hämodialyse Therapiesystem benötigt, welches aus einer Dialysemaschine und dazu passenden Verbrauchsmaterialien (Disposables) besteht:
⊡ Abb. 25.3. Prinzip der Hämodialysebehandlung
zugang. Patienten zum Dialysator und das gereinigte Blut zurück zum Patienten. ▬ Das Dialysat nimmt die Toxine im Dialysator auf. ▬ Die Dialysemaschine bereitet das Dialysat zu und kontrolliert und steuert die Behandlung. Die Hämodialyse ist durch die notwendige Dialysataufbereitung und Dialysatentsorgung an eine stationäre Wasserversorgung und Abwasserentsorgung gebunden. Die weitaus meisten Patienten werden in Dialysezentren behandelt, üblich sind 3 Behandlungen à etwa 4 h pro Woche. Heimdialyse gewinnt in letzter Zeit an Bedeutung, oft in Kombination mit medizinisch vorteilhafter häufigerer Behandlung (z. B. 5-mal wöchentlich oder täglich über Nacht). Häufig wird der Begriff Hämodialyse auch als Überbegriff für die verschiedenen hier beschriebenen extrakorporalen Verfahren der chronischen Nierenersatztherapie gebraucht: Hämodialyse, Hämofiltration, Hämodiafiltration und Online Hämodiafiltration.
25.5.2 Hämofiltration (HF)
Mit Einführung spezieller, hochpermeabler Dialysatormembranen (High Flux Dialysator oder auch »Hämofilter« genannt) hat die Hämofiltration als effektives Eliminationsverfahren für höhermolekulare Urämietoxine (sog. Mittelmoleküle) an Bedeutung gewonnen. Nachteilig ist jedoch die gegenüber der Hämodialyse deutlich (ca. 50%) verringerte Eliminationsrate für niedermolekulare Substanzen.
447 25.5 · Extrakorporale Dialyseverfahren
Ähnlich der Hämodialyse wird dem Patienten Blut entnommen und daraus im Hämofilter mittels forcierter Ultrafiltration ca. 6 l/h Plasmawasser/ Ultrafiltrat gewonnen. Die Entfernung der harnpflichtigen Substanzen erfolgt durch Konvektion. Das gewonnene Ultrafiltrat enthält die urämischen Toxine in gleicher Konzentration wie das Blut und wird verworfen. Das entzogene Ultrafiltrat muss dem Patienten durch simultane Zufuhr einer physiologischen Infusionslösung, unter Berücksichtigung des gewünschten Flüssigkeitsentzugs, substituiert werden. Je nach Zusammensetzung der Infusionslösung kann in begrenztem Umfang auch auf den Elektrolythaushalt des Patienten eingewirkt werden. Beim Einsatz steriler Hämofiltrationslösungen in Beuteln ist die Hämofiltration nicht an stationäre Vorrichtungen zur Dialysierlösungsherstellung gebunden. Bei der weniger gebräuchlichen Online Hämofiltration wird die sterile Hämofiltrationslösung online vom Dialysegerät aus Dialysierlösung produziert.
25.5.3 Hämodiafiltration (HDF)
Die Hämodiafiltration stellt eine Kombination der beiden Verfahren Hämodialyse und Hämofiltration dar. Während kleinmolekulare Substanzen auf diffusivem Wege sehr effektiv entfernt werden können, nimmt die diffusive Clearance mit steigendem Molekulargewicht ab (Clearance: von harnpflichtigen Substanzen vollständig gereinigter Anteil des Blutstroms; in ml/min). Die Eliminationsrate für höhermolekulare Stoffe kann durch einen starken transmembranen Flüssigkeitsstrom (Konvektion) wie ihn die Hämofiltration bietet, deutlich gesteigert werden. Die HDF kombiniert und vereinigt die Vorteile der HD (hohe diffusive Clearance niedermolekularer
⊡ Abb. 25.4. Flussschema der Online Hämodiafiltration
Toxine) und der HF (hohe konvektive Clearance von Mittelmolekülen) und bietet so eine hohe Eliminationsrate für die meisten harnpflichtigen Substanzen. Die Hämodiafiltration ist das derzeit effektivste Verfahren der Nierenersatztherapie und kommt der natürlichen Entgiftungsfunktion der Niere am nächsten. Auch bei der HDF muss das dem Patienten entzogene Ultrafiltrat durch physiologische Infusionslösung substituiert werden. Beim Einsatz steriler Hämofiltrationslösungen in Beuteln ist dabei ein hoher technischer und finanzieller Aufwand nötig.
Online Hämodiafiltration (Online HDF) Moderne Therapiesysteme ermöglichen eine einfach durchzuführende und gegenüber einer klassischen High Flux Hämodialyse praktisch kostenneutrale Hämodiafiltrationstherapie in Form der Online Hämodiafiltration (Online HDF). Die sterile Hämofiltrationslösung – die sog. Substitutionslösung – wird dabei online und vollautomatisch aus im Gerät ohnehin vorhandener Dialysierlösung produziert, und die gesamte Behandlungsdurchführung ist so konzipiert, dass der Aufwand nicht größer als bei einer »normalen« Hämodialyse ist (⊡ Abb. 25.4, auch 4-Farbteil am Buchende). Dies ermöglicht zukünftig den Einsatz der medizinisch vorteilhaften Online HDF (verbesserte Langzeitprognose und Lebensqualität der Dialysepatienten) als Standardtherapieform auf breiter Basis. Die Online Hämodiafiltration hat zahlreiche positive Einflüsse auf kardiovaskuläre Risikofaktoren des Patienten (z. B. Verbesserung der Blutdruck- und Anämiekontrolle, Verringerung von inflammatorischen Reaktionen und der Dyslipidämie). Kardiovaskuläre Erkrankungen stellen eines der Hauptprobleme und die häufigste Todesursache bei den heutigen Dialysepatienten dar.
25
448
III
Kapitel 25 · Blutreinigungssysteme
25.5.4 Kontinuierliche Nierenersatzverfahren
25.5.6 Extrakorporale Adsorptionsverfahren
Im Intensivbereich werden die vorangestellten Dialyseverfahren in abgewandelter Form seit geraumer Zeit eingesetzt. Hier wird grundlegend zwischen den arteriovenösen und den veno-venösen Verfahren unterschieden. Bei den erstgenannten wird das natürliche Druckgefälle zwischen dem arteriellen und dem venösen Gefäßsystem als treibende Kraft für die Durchströmung eines Hämofilters und die Ultrafiltration genutzt, bei den veno-venösen Systemen wird eine Blutpumpe als »Motor« eingesetzt. Da diese Verfahren i. d. R. zur dauerhaften (Tage bis Wochen) Behandlung akut niereninsuffizienter Patienten eingesetzt werden, bezeichnet man sie auch als kontinuierliche Behandlungsverfahren. Dabei sind zu unterscheiden: ▬ CAVH/CVVH (kontinuierliche arterio/veno-venöse Hämofiltration), ▬ CAVHD/CVVHD (kontinuierliche arterio/veno-venöse Hämodialyse), ▬ CAVHDF/CVVHDF (kontinuierliche arterio/venovenöse Hämodiafiltration), ▬ SCUF (slow continuous Ultrafiltration – langsam kontinuierliche Ultrafiltration), ▬ iHD (intermittierende Hämodialyse) – Anwendung eines nichtkontinuierlichen Hämodialyseverfahrens bei akut niereninsuffizienten Patienten, ▬ CVVHD (kontinuierliche veno-venöse Hämodialyse), ▬ SLEDD (langsame verlängerte tägliche Dialyse).
In Anlehnung an die klassischen Blutreinigungsverfahren für die Behandlung niereninsuffizienter Patienten wurden extrakorporale Techniken entwickelt, die – mehr oder weniger selektiv – pathogene und toxische Substanzen aus dem Blutkreislauf eliminieren können.
25.5.5 Membranplasmaseparation
Ziel einer Plasmaseparation ist die Entfernung großer Mengen schädlicher Antikörper oder immunologischer Komplexe (bei vielen Autoimmunerkrankungen), zahlreicher externer plasmagebundener Toxine, Proteine oder proteingebundener Substanzen aus dem Plasma, bevor innere Organe in ihrer Funktion beeinträchtigt oder zerstört werden. Dazu wird das Blutplasma durch entsprechend großporige Membranen von den korpuskulären Blutbestandteilen des Vollbluts – den Blutzellen – separiert. Das verworfene Plasma muss je nach Indikation durch geeignete Proteinlösungen substituiert werden. Die überwiegend als Plasmaseparatoren eingesetzten Plasmafilter ähneln in ihrem prinzipiellen Aufbau den Hämodialysatoren, besitzen jedoch großporige Membranen mit sehr hohen Ausschlussgrenzen. Pro Behandlung werden bis zu 3 l Plasma ausgetauscht. Um die korpuskulären Blutbestandteile nicht zu schädigen, wird in einem Primärkreislauf das Plasma separiert. Nachfolgend besteht die Möglichkeit, die pathologischen Bestandteile des Blutes mittels Immunadsorption (z. B. LDL-Apherese) oder über nachgeschaltete Filterstufen (Kaskadenfiltration) aus dem Plasma zu entfernen. Das gereinigte Plasma wird zurückgeführt.
Hämoperfusion (HP) Bei der Hämoperfusion wird das Blut des Patienten über granulierte Adsorbenzien geleitet, z. B. Aktivkohle oder Neutralharze, die in einer Adsorptions- oder auch Hämoperfusionskapsel zusammengefasst sind. Die im Blut enthaltenen Toxine werden durch Adsorption entfernt. Die Hämoperfusion gilt als das effektivste Eliminationsverfahren für Giftsubstanzen aus dem Blut bei exogenen Intoxikationen mit z. B. Sedativa, Psychopharmaka, Insektiziden oder Herbiziden.
LDL-Apherese Mit Hilfe besonderer Lipid-Adsorber kann bei der LDLApherese die Serumkonzentration von LDL-Cholesterin gesenkt werden. Diese Substanz liegt in seltenen Fällen durch angeborene Stoffwechseldefekte in abnorm hoher Konzentration vor und führt unbehandelt bei den betroffenen Patienten zur Ausbildung von Arteriosklerose bereits in jungen Jahren. Im extrakorporalen Blutkreislauf trennt ein Plasmafilter das cholesterinreiche Plasma von den zellulären Bestandteilen. Das Plasma wird über einen spezifischen Lipidadsorber geleitet, der einen Großteil des LDL-Cholesterins bindet. Anschließend wird das gereinigte Plasma mit den zuvor separierten Blutbestandteilen wieder zusammengeführt und dem Blutkreislauf des Patienten zurückgegeben.
Immunadsorption Bei speziellen Erkrankungen, wie z. B. dem Systemischen Lupus erythematodes (SLE) oder der Dilatativen Kardiomyopathie (DCM), kann es notwendig sein, immunologische Komplexe durch Adsorption an spezifischen Antikörpern mittels der Immunadsorption zu entfernen.
25.5.7 Verfahren der Leberfunktions-
unterstützung Die extrakorporalen Leberersatzverfahren ermöglichen aktuell einen nur kurzfristigen Ersatz der Leberfunktion zur Überbrückung bis zur Leberregeneration oder der Verfügbarkeit eines geeigneten Transplantats. Die Leberfunktionsunterstützung – der »artificial liver support« – beschränkt sich dabei heute im Wesentlichen
449 25.6 · Intrakorporale Dialyseverfahren: Peritonealdialyse (PD)
auf die Entfernung von hochmolekularen und proteingebundenen Toxinen, ein ausreichend wirksamer Ersatz auch von metabolischen Leberfunktionen gelingt noch nicht. Beim Prometheus-System wird eine FPSA (Fraktionierte Plasmaseparation und Adsorption) mit einer HighFlux Hämodialyse kombiniert. Mit diesem System können sowohl albumingebundene Toxine als auch frei im Plasma vorliegende nieder- und mittelmolekulare Substanzen effektiv entfernt werden. Mit dem MARS-System (Molekulares AdsorptionsRezirkulations-System) sollen die albumingebundenen Toxine über eine erste Membranstufe auf eine freie Albuminlösung übertragen werden, die dann über eine zweite Membran diffusiv und adsorptiv wieder regeneriert, d. h. von den Toxinen befreit wird.
25.5.8 Mögliche Komplikationen
während der extrakorporalen Blutreinigungsverfahren Infolge der extrakorporalen Blutreinigung und dem damit verbundenen Eingriff in den Elektrolyt-, Basen- und Flüssigkeitshaushalt des Patienten, sowie durch die extrakorporale Führung des Blutes über körperfremde Materialien, kann es zu Nebenwirkungen und Komplikationen kommen. Aus diesem Grunde ist man bestrebt, möglichst biokompatible Materialien und Verfahrensweisen einzusetzen. Mögliche Komplikationen können sein: ▬ Blutdruckabfall ▬ Blutdruckanstieg ▬ Herzrhythmusstörungen ▬ Kopfschmerzen, Übelkeit, Erbrechen ▬ Dysäquilibriumsyndrom ▬ Wadenkrämpfe ▬ Pyrogenreaktionen ▬ Allergische Reaktionen (z. B. gegen Ethylenoxid-Gas ETO) ▬ Hämolyse ▬ Luftembolie
25.6
Intrakorporale Dialyseverfahren: Peritonealdialyse (PD)
Die Peritonealdialyse (PD) ist eine relativ einfache, aber effektive Technik zur chronischen Nierenersatztherapie. Die PD ist deshalb die zur Zeit gebräuchlichste Methode für die Heimdialyse. Bei der PD wird das Blut im Körper des Patienten gereinigt, wobei man sich im Gegensatz zur künstlichen Membran der Hämodialyse bei der Peritonealdialyse eine körpereigene semipermeable Membran – das Peritoneum (»Bauchfell«) – für die Elimination urämischer Toxine
zunutze macht. Die anatomische Oberfläche des Peritoneums beträgt 1,5–2 m2. Der für den Flüssigkeits- und Stoffwechselaustausch relevante Anteil ist jedoch wesentlich kleiner. Das stark mit Kapillargefäßen durchsetzte Peritoneum gibt dabei im Blut enthaltene Urämietoxine an eine in den Bauchraum des Patienten gegebene Spüllösung (Peritonealdialyselösung = PD-Lösung) ab. Dem Austausch von harnpflichtigen Substanzen und Wasser liegen drei Transportvorgänge zugrunde: Diffusion, osmotische Ultrafiltration und konvektiver Transport. Diese Transportvorgänge werden durch die speziell zusammengesetzte Peritonealdialyse-Lösung ermöglicht. Typische Zusammensetzug der PD-Lösung: Glukose
1,5/ 2,3/ 4,25%
Ca2+
1,25/ 1,75 mmol/l
Na+
134 mmol/l
Mg2+
0,5 mmol/l
Cl-
101,5 mmol/l
Laktat
35 mmol/l
Bikarbonat
34 mmol/l
Die PD-Lösung wird regelmäßig nach erfolgter Equilibrierung der Stoffkonzentrationen in Blut und Spüllösung verworfen und durch frische PD-Lösung ersetzt. Der bei den meisten Patienten ebenfalls nötige Wasserentzug (durch Ultrafiltration) geschieht dabei durch Verwendung einer hyperosmolaren Elektrolytlösung, die über das Peritoneum Wasser aus dem Blut entziehen kann. Zur Einstellung der Ultrafiltration können unterschiedliche Glukosekonzentrationen gewählt werden. Über einen permanent implantierten Katheter wird die PD-Lösung in den Bauchraum appliziert und verbleibt dort zwischen vier und acht Stunden. Ein- und Auslauf der Lösung wird durch spezielle Systeme manuell (CAPD) oder maschinell (APD) geregelt. Neben dem vorteilhaft geringen technischen Aufwand und der nicht notwendigen Antikoagulation des Blutes birgt das Verfahren durch den dauerhaften Zugang (Katheter) zur Bauchhöhle trotz aufwändiger Hygiene das Risiko einer Peritonitis (Bauchfellentzündung). Durch den Einsatz neuer Dialysesysteme (z. B. »stay safe«) kann die Infektionshäufigkeit jedoch minimiert werden. Nachteilig ist auch der oft recht hohe Eiweißverlust. Das zusätzliche Flüssigkeitsvolumen im Bauchraum bereitet einigen Patienten Unbehagen. Verglichen mit der Hämodialyse hat die Peritonealdialyse eine um etwa 20% verminderte Effektivität für niedermolekulare Substanzen bei guten Eliminationsraten für Mittelmoleküle. Vorteile der Peritonealdialyse liegen im langsameren Rückgang der Nierenrestfunktion, insbesondere zu Dialysebeginn. Als kontinuierliche Form der Dialyse bietet die PD weiterhin den Vorteil gleich-
25
450
III
Kapitel 25 · Blutreinigungssysteme
bleibend niedriger Konzentrationen der harnpflichtigen Substanzen im Blut, im Gegensatz zu den regelmäßigen Konzentrationsschwankungen bei den nur diskontinuierlich durchgeführten Hämodialyse-Verfahren. Peritonealdialyse und Hämodialyse sind grundsätzlich gleichwertige therapeutische Verfahren zur Behandlung der chronischen Niereninsuffizienz. Vorteile der Peritonealdialyse liegen zu Beginn einer Dialysetherapie. Dieses macht sich das Integrated Care Therapiekonzept zu eigen. Patienten, die für ein Heimverfahren in Frage kommen, beginnen häufig mit der Peritonealdialyse, wechseln dann später zur Hämodialyse und erhalten dann gegebenenfalls ein Transplantat. Nach relativ kurzem Training können die Patienten die PD-Behandlung ohne fremde Hilfe zu Hause oder auch in geeigneten Räumlichkeiten am Arbeitsplatz oder Urlaubsort durchführen. Nach der Häufigkeit und Methode des Flüssigkeitsaustauschs unterscheidet man verschiedene Verfahren, prinzipiell stehen der CAPD (kontinuierliche ambulante PD) die unter den Begriff APD (automatisierte PD) zusammengefasste PD-Verfahren gegenüber.
25.6.1 Kontinuierliche ambulante
Peritonealdialyse (CAPD) Die CAPD kann vom Patienten ambulant und ohne Gerät durchgeführt werden. Täglich müssen 3–5 Flüssigkeitswechsel à 2–2,5 l sehr sorgfältig vom Patienten durchgeführt werden. Die dialysablen Substanzen in Blut und Dialysierflüssigkeit equilibrieren während der relativ langen Verweilzeit von 4–8 Stunden nahezu vollständig. Die notwendige sterile Spüllösung ist in Beuteln erhältlich und wird über kontaminationsgeschützte Kupplungs- und Überleitsysteme in den Bauchraum eingebracht und auch wieder entfernt. Die CAPD gewährt den Patienten ein hohes Maß an Mobilität und Freiheit, da sich die Wechsel der PD-Lösung gut in den Lebensalltag integrieren lassen.
25.6.3 Intermittierende Peritonealdialyse (IPD)
Über einen Verweilkatheter, der in den Bauchraum führt, wird bei diesem stationären Peritonealdialyseverfahren in intermittierenden Spülungen ein jeweils hochvolumiger Lösungsdurchfluss durch die Bauchhöhle eingestellt. Die dialysepflichtigen Substanzen im Blut wandern entlang des Konzentrationsgefälles in die Spüllösung und werden mit dieser verworfen. Als einfaches Verfahren allgemein bei der akuten Niereninsuffizienz angewandt, birgt es nur geringe technische Risiken und kann sowohl ohne fremde Hilfe zur Heimbehandlung als auch in einem Dialysezentrum eingesetzt werden. Zur chronischen Dialysebehandlung wird die IPD dreimal wöchentlich mit Hilfe eines Pertionealdialyse-Cyclers angewendet. Die Behandlungszeit beträgt jeweils 10–12 h.
25.6.4 Nächtliche intermittierende
Peritonealdialyse (NIPD) Bei diesem Verfahren erfolgt der periodisch wiederkehrende Austausch der Spüllösung ausschließlich nachts und wird vollautomatisch von einem PD-Cycler gesteuert durchgeführt.
25.6.5 Zyklisch kontinuierliche
Peritonealdialyse (CCPD) Bei diesem Verfahren erfolgt nachts von einem PD-Cycler gesteuert der periodisch wiederkehrende Austausch der Spüllösung. Tagsüber verbleibt jedoch Dialyselösung in der Bauchhöhle (⊡ Abb. 25.5, auch 4-Farbteil am Buchende). Da CCPD und NIPD überwiegend während der Nacht durchgeführt werden, sind die Patienten während des Tages in ihrer Lebensführung frei.
25.7 25.6.2 Automatische Peritonealdialyse (APD)
Die APD ist der Oberbegriff für alle PD-Verfahren, bei denen der Lösungswechsel maschinell mit Hilfe eines PD-Gerätes – dem sog. PD-Cycler – stattfindet. Es werden die CCPD (zyklisch kontinuierliche PD), die NIPD (nächtliche intermittierende PD) und die IPD (intermittierende PD) unterschieden. CCPD und NIPD sind wie die CAPD Heimverfahren, während die IPD ähnlich der Zentrums-Hämodialyse an Dialysezentren gebunden ist. Der Austausch der Dialyselösung findet automatisch meist nachts während des Schlafes statt.
Dialysetechnik
Insbesondere die extrakorporalen Blutreinigungsverfahren, bei welchen dem Patienten große Mengen Blut entnommen, außerhalb seines Körpers von Schadstoffen gereinigt und anschließend wieder zurückgegeben werden, verlangen in hohem Maße zuverlässige, redundant sichere und intuitiv bedienbare Technik zur Durchführung, Steuerung und Überwachung der Therapie. Aber auch die intrakorporalen Peritonealdialyseverfahren benötigen entsprechende modernste Technik zur Vermeidung von Entzündungen des Peritoneums oder der Infusion von falsch temperierter Peritonealdialyselösung, und insbesondere mit Blick auf die häufige Durchführung durch den Patienten selbst. Nur mit moderner, zeitgemäßer
451 25.7 · Dialysetechnik
⊡ Abb. 25.5. Prinzip der Peritonealdialysebehandlung
und entsprechend gewarteter Technik sowie geschulten Anwendern lassen sich die mit den verschiedenen Blutreinigungsverfahren assoziierten potentiellen Risiken beherrschen und auf ein akzeptables Maß reduzieren.
25.7.1 Technik der Hämodialyse-
Therapiesysteme
⊡ Abb. 25.6. Hämodialyse-Therapiesystem
Ein Hämodialyse-Therapiesystem (⊡ Abb. 25.6, auch 4-Farbteil am Buchende) setzt sich aus einer Dialysemaschine und den dazu passenden Verbrauchsmaterialien (Disposables) wie Dialysekanülen, Blutschlauchsystem, Dialysator, Dialysekonzentrate etc. zusammen. Weiterhin ist eine bestimmte Infrastruktur (Wasserversorgung, Abwasserentsorgung) sowie ausgebildetes Fachpersonal notwendig. Moderne Therapiesysteme besitzen einen hohen Integrationsgrad, die verschiedenen Komponenten sind perfekt aufeinander abgestimmt und ergänzen sich synergistisch im Sinne einer optimalen Bedienbarkeit und auch Ökonomie. Dies ermöglicht beispielsweise bei dem vollkommen neuentwickelten und erst seit 2005 auf dem Markt befindlichen 5008 Therapiesystem (Gewinner des Innovationspreises der deutschen Wirtschaft 2005) die Automatisierung lästiger wiederkehrender Routinen, z. B. beim Vorbereiten der Behandlung oder den kompletten Ersatz beutelgebundener Wasch-, Spülund Substitutionslösungen durch online vom System produzierte Lösungen.
Nachfolgend werden die beiden Kernelemente eines Hämodialysesystems, das Hämodialysegerät und der extrakorporale Blutkreislauf, in Funktion und technischem Aufbau beschrieben.
25.7.2 Hämodialysegeräte
Auf dem Markt werden verschiedene Gerätebauformen angeboten. Mit Abstand am gebräuchlichsten sind die flexibel, da modular aufgebauten Geräte mit permanenter interner Dialysataufbereitung. Mit einem solchen Gerät können die meisten der beschriebenen Hämodialyseverfahren durchgeführt werden. Verschiedene weitere Bauformen wie Batchsystem-Geräte (»Tank-Dialysesystem«) und spezielle Heimhämodialysegeräte erfahren in letzter Zeit wieder steigendes Interesse. Hämodialysegeräte lassen sich je nach Funktion grob in zwei Bereiche untergliedern:
25
452
Kapitel 25 · Blutreinigungssysteme
▬ Den Monitor, über dessen Bedienoberfläche die Pro-
grammierung und Kommunikation mit dem Dialysegerät und den wesentlichen Komponenten des Dialysesystems stattfindet. ▬ Das Dialysierflüssigkeitssystem, auch Hydraulik genannt, zuständig für die Flüssigkeitsbilanzierung und die Aufbereitung der Dialysierflüssigkeit.
III
Monitor Über den Monitor der Dialysesysteme wird die Behandlung gesteuert und fortlaufend überwacht. Er ist das zentrale Interface für die Kommunikation des Nutzers mit dem System (Eingabe der Behandlungsparameter und Information über den Patienten- und Behandlungsstatus, wichtige Systemparameter sowie den Alarmzustand). Eine Unterteilung des Monitors in die drei Bereiche Blut-, Dialysierflüssigkeits- und Ultrafiltrationsmonitor trägt sehr zur Übersichtlichkeit bei. Wichtige Schutzsysteme im extrakorporalen Blutkreislauf, wie die Messung des arteriellen Drucks, die venöse Druckmessung, die Messung des transmembranen Drucks im Dialysa-
⊡ Abb. 25.7. Monitor eines Hämodialysesystems
tor oder Hämofilter, sowie der Luft- und der Blutleckdetektor, bringen auf dem Blutmonitor ihre aktuellen Messwerte bzw. auch den jeweiligen Alarmzustand zur Anzeige. Separat werden die wichtigen Parameter des Dialysierflüssigkeitskreislaufs wie Temperatur, Konzentratzumischung, Dialysierflüssigkeitsfluss und Dialysierflüssigkeitsleitfähigkeit auf dem Dialysierflüssigkeitsmonitor dargestellt. Die eigentlichen Therapieparameter wie Dauer, Gewichtsentzug (Ultrafiltrationsziel) und aktuelle Ultrafiltrationsrate der Dialysebehandlung werden definiert und auf dem Ultrafiltrationsmonitor programmiert. Moderne Monitore sind als großzügig dimensionierte berührungsempfindliche LCD-Bildschirme (»Touch Screen«) ausgelegt und stellen die zentrale Bedien- und Informationsschnittstelle zum Anwender dar. Wesentliche Anforderungen sind eine stete Übersicht über die wichtigsten Parameter, hohe Übersichtlichkeit und eine schnelle, fehlervermeidende Dateneingabe und Programmierung. Eine Touch-Screen-unabhängige Notbedienung des Systems im Falle eines Bildschirmfehlers sollte vorgesehen sein (⊡ Abb. 25.7, auch 4-Farbteil am Buchende).
453 25.7 · Dialysetechnik
Dialysierflüssigkeitssystem – Hydraulik Das Hydraulikteil eines Dialysegerätes dient zur Aufbereitung der Dialysierflüssigkeit (Dialysat). Das Hydraulikteil mischt und erwärmt dabei entionisiertes, aufgereinigtes Wasser (aus einer Umkehrosmoseanlage) und meist flüssiges Dialysekonzentrat (enthält Elekrolyte, Puffer, etc.) in wohlproportionierten Verhältnissen, sodass ein Dialysat mit physiologischer Elektrolytkonzentration und Temperatur (meist Körpertemperatur 37°C) entsteht. Man unterscheidet nach der Art des Puffers Bicarbonat-Dialysat und Acetat-Dialysat. Bei der sog. Bicarbonatdialyse müssen aus Stabilitätsgründen zwei verschiedene Konzentrate – ein saures und ein basisches Bicarbonatkonzentrat – getrennt voneinander zugesetzt werden. Die Acetatdialyse benötigt nur ein azetatgepuffertes Dialysekonzentrat und ist somit einfacher in der Durchführung, hat jedoch aufgrund der deutlich physiologischeren Pufferung bei der Bikarbonatdialyse an Bedeutung verloren. Die modernen Dialysegeräte besitzen zahlreiche Sicherheitssysteme, die eine korrekte Leitfähigkeit (als Maß für die Elektrolytzusammensetzung) und Temperatur des Dialysats sicherstellen. Gasblasen in der Dialysierflüssigkeit können Probleme bei der Flüssigkeitsbilanzierung, der Leitfähigkeitsmessung und der Blutleckerkennung bereiten. Auch kann durch übermäßige Luftansammlung die Leistungsfähigkeit des Dialysators beeinträchtigt werden. Durch Erzeugung eines Unterdrucks wird die Dialysierflüssigkeit im Hydrauliksystem wirkungsvoll entgast. Ein wichtiges Charakteristikum bei der Dialysebehandlung ist der durch Ultrafiltration erzeugte Flüssigkeitsentzug. Dieser muss zuverlässig kontrolliert werden, um einen zu geringen oder – noch bedrohlicher – einen überhöhten Flüssigkeitsentzug zu verhindern. Die Menge an Ultrafiltrat hängt vom Transmembrandruck und von der Ultrafiltrationscharakteristik der Dialysatormembran ab. Für einen präzisen Flüssigkeitsentzug, insbesondere bei der High-Flux Dialyse, ist es wichtig, den Dialysierlösungsfluss zum und den Dialysatrückfluss vom Dialysator im gleichen Verhältnis zu bilanzieren (z. B. mittels Bilanzkammern). Aus solch einem hydraulisch geschlossenen System kann durch volumetrische Ultrafiltration mittels genau kalibrierter Pumpen der gewünschte Flüssigkeitsenzug exakt eingestellt werden. Der Dialysatfluss wird meistens auf einen starren Wert, oft z. B. 500 ml/min aber auch 300 ml/min oder 800 ml/min, eingestellt. Ein höherer Dialysatfluss kann bei hohen Blutflüssen zu einer besseren Blutreinigungseffizienz führen, bei nur niedrigem erzielbarem Blutfluss kann ein geringerer Dialysatfluss hingegen oft ohne verringerte Effizienz realisiert werden. Moderne Dialysegeräte verfügen daher in ihrer Hydraulik über intelligente Funktionen und Algorithmen, die ohne Qualitätsein-
bußen den Dialysat- und Energieverbrauch minimieren (z. B. die Funktionen »AutoFlow« – automatische Einstellung und Anpassung des Dialysatflusses an den effektiven Blutfluss – und »EcoFlow« – automatische Absenkung von Dialysatverbrauch und Heizenergiebedarf vom Vorbereiten bis zum Behandlungsbeginn – des 5008 Therapiesystems). Das verbrauchte Dialysat wird vom Gerät nach Wärmerückgewinnung durch einen Wärmetauscher als Brauchwasser entsorgt.
Medienversorgung Zur Aufbereitung der Dialysierflüssigkeit benötigen Hämodialysegeräte neben der elektrischen Versorgung speziell aufbereitete Medien, was eine besondere Infrastruktur voraussetzt. Dazu zählt insbesondere die Bereitstellung von entionisiertem Wasser, dem Permeat der Umkehrosmoseanlage. Je nach Anzahl und Wasserverbrauch der Dialysegeräte einer Station muss die Umkehrosmose entsprechend dimensioniert sein. Die benötigten Dialysekonzentrate (Azetat- oder saures sowie basisches Bicarbonatkonzentrat) können entweder in kleinen Gebinden in Kanisterform bereitgestellt oder aus großen Containern über Ringleitungssyteme bis an die Dialysegeräte herangeführt werden. Speziell konzipierte Medienschienen ermöglichen die Bereitstellung all dieser Medien sowie die Dialysatentsorgung in einer kompakten Einheit. Um die Menge des mit dem Dialysekonzentrat transportierten Wassers weiter zu minimieren, sind verschiedene gänzlich wasserfreie oder höherkonzentrierte Dialysekonzentrate verfügbar. Breite Anwendung finden beispielsweise die ausserdem sehr anwendungsfreundlichen basischen Bicarbonatkonzentrate in Pulverform als Bicarbonat-Beutel oder Kartusche (BiBag, BiCart etc.). Die saure Bicarbonatkonzentrat-Komponente ist auch als wasserfreier NaCl-Beutel kombiniert mit einem kleinvolumigen Elektrolytkonzentratbeutel verfügbar (3-mix System).
25.7.3 Desinfektion und Reinigung
Um eine Kreuzkontamination verschiedener Patienten zu verhindern muss nach jeder Dialysebehandlung eine Außendesinfektion des Dialysegerätes sowie eine Entkalkung und Desinfektion des Hydraulikkreislaufs durchgeführt werden. Zur Entkalkung und Desinfektion bieten die Dialysegeräte die Möglichkeit der chemischen und thermischen Desinfektion oder einer Kombination aus beiden Verfahren. Geräteseitig ist zu dieser Zeit sichergestellt, dass sich weder Blut im extrakorporalen Kreislauf befindet, noch ein Dialysator an die Hydraulik angekoppelt sein kann.
25
454
Kapitel 25 · Blutreinigungssysteme
25.7.4 Regelkreise für eine physiologische
Dialyse
III
Einige der typischen und häufigen Nebenwirkungen der Hämodialysebehandlung, wie z. B. Blutdruckabfälle, können durch gerätegesteuerte geschlossene Regelkreise zum Teil deutlich reduziert werden. Prinzipiell umfasst ein solcher Regelkreis Sensoren, deren Messinformationen (meist Patientenparameter) vom Gerät unter Nutzung von Regelalgorithmen zur aktiven, auf die Patientenbedürfnisse angepassten Regelung bestimmter Betriebsparameter verwendet werden. Die blutvolumengesteuerte Ultrafiltration stellt ein gutes Beispiel für einen solchen Regelkreis dar. Hierbei wird während der Behandlung das Blutvolumen des Patienten regelmäßig gemessen und vom Gerät zur Ultrafiltrationsraten-Einstellung herangezogen. Mit dem Blutvolumenmonitor BVM, welcher das Blutvolumen mittels Ultraschallimpulsen misst, konnten so bis zu 50% der Blutdruckabfälle verhindert werden. Ebenfalls positiven Einfluss auf das Auftreten von Blutdruckabfällen hat die Regelung der thermischen Energiebilanz der Dialysebehandlung. Zahlreiche Studien belegen, dass eine kontrollierte negative Wärmebilanz bei kreislaufinstabilen Patienten einen positiven Effekt auf die intradialytische Blutdruckstabilität hat. Der Bluttemperatur Monitor BTM bspw. misst die arterielle und venöse Bluttemperatur, aus der (unter Berücksichtigung der Rezirkulation) die Körperkerntemperatur berechnet werden kann. Über die gezielte Regelung der Dialysattemperatur wird dann die Bluttemperatur entsprechend beeinflusst. Weiterhin ermöglicht der BTM die Regelung und Stabilisierung von intradialytischer Körpertemperatur und extrakorporaler Wärmeenergiebilanz.
25.7.5 Effizienzkontrolle der Dialysebehand-
lung: Online Messung der Dialysedosis Die Qualität der Dialysebehandlung im Sinne des längerfristigen Gesundheitszustandes und der Lebensqualität des Patienten wird durch zahlreiche Parameter beeinflusst. Einer der wesentlichen Parameter ist die dem Patienten mit der Behandlung verabreichte Dialysedosis – zahlreiche Studien belegen ihre Korrelation mit der Morbidität und Mortalität des Patienten. Als Marker der Dialysedosis wird allgemein die Entfernung des Harnstoffmoleküls, als »Harnstoff-Clearance« (in ml/min) angegeben, herangezogen. Die Dialysedosis einer Behandlung wird damit als der Quotient Kt/V aus dem Produkt von effektiver Harnstoff-Clearance (K) und der Behandlungszeit (t) bezogen auf das Harnstoffverteilungsvolumen (V) des Patienten definiert. Verschiedene behandlungsspezifische Faktoren können die tatsächlich verabreichte Dialysedosis einer Behandlung erheblich von der verordneten
abweichen lassen, sodass eine regelmäßige Kontrolle des Kt/V indiziert ist. Bisher war die Dosisbestimmung oft nur retrospektiv durch aufwändige Laboranalytik in Verbindung mit Harnstoff-Kinetikmodellen möglich. Neuere Verfahren ermöglichen es, die Dialysedosis während einer laufenden Behandlung regelmäßig zu kontrollieren und ermöglichen so ein rechtzeitiges Gegensteuern. Weit verbreitet ist hierfür die indirekte HarnstoffMessung, z. B. mit dem Online Clearance Monitoring OCM (Fresenius Medical Care). Dabei wird mit den im Dialysegerät befindlichen Leitfähigkeits-Sensoren die Natrium-Ionen-Clearance bestimmt, aus der sich – da Natrium-Ion und Harnstoffmolekül ein praktisch identisches Diffusionsverhalten zeigen – die Harnstoff-Clearance (K) ableiten lässt. Da das Dialysegerät auch die Behandlungszeit (t) kennt, kann mit dem OCM nach Eingabe des Harnstoffverteilungsvolumen (V) die Dialysedosis Kt/V online bei jeder Dialyse ermittelt werden, was eine permanente Qualitätssicherung und Qualitätsdokumentation praktisch kosten- und aufwandsneutral ermöglicht. Verschiedene Hersteller bieten auch enzymbasierte (Urease) Systeme zur Harnstoffmessung im Dialysat an, die allerdings relativ hohe Betriebskosten verursachen.
25.7.6 Technische Sicherheit
von Hämodialysegeräten Die Therapieverfahren der extrakorporalen Blutreinigung und damit die Hämodialysegeräte beinhalten naturgemäß verschiedene prinzipielle Risiken. Leicht nachvollziehbare Beispiele sind Blutverlust in die Umgebung oder Luftinfusion. Zahlreiche gesetzliche und sicherheitstechnische Anforderungen und auch die Selbstverpflichtung der Industrie sorgen dafür, dass moderne Hämodialysegräte mit umfangreichen Sicherheitssystemen ausgestattet sind, welche das Risiko eines technisch bedingten tödlichen Ereignisses auf ein akzeptables minimales Maß reduzieren. Um dies zu erreichen, müssen für alle potentiell patientengefährdenden Gerätefunktionen zwei vollständig voneinander unabhängige Systeme vorhanden sein. Dies sind im Normalfall ein funktionserfüllendes sog. Betriebssystem und ein davon getrenntes Überwachungssystem, auch Schutzsystem genannt. Vor jeder Behandlung muss das korrekte Funktionieren beider Systeme sichergestellt sein, was bei den Betriebssystemen augenfällig ist. Alle Schutzsysteme werden unmittelbar vor der Behandlung im Rahmen des »initialen Selbsttests« oder auch »T1-Test« geprüft. Die potentiell patientengefährdenden Risiken, bei denen Gerätefunktionen involviert und, wie geschildert, redundant gesichert sind, umfassen im Wesentlichen: ▬ Dialysat: falsche Zusammensetzung oder zu hohe Temperatur, ▬ Bilanzierungsfehler (falsche Ultrafiltration),
455 25.7 · Dialysetechnik
▬ Blutverlust: in die Umgebung, durch Blutgerinnung
Auch beim Betrieb von Hämodialysegeräten kommt es trotz umfangreicher Isolationsmaßnahmen der spannungsführenden Bereiche zu sog. Leckströmen. Da bei der Hämodialyse der Patient über die elektrisch leitfähigen Medien Blut und Dialysat direkt mit dem Gerät verbunden ist, sind die maximalen Leckströme eines Hämodialysegerätes in einem Sicherheitsstandard definiert (IEC 60601-1). Die zunehmende Verwendung von bis ins Herz reichenden zentralvenösen Kathetern hat kürzlich für die Hämodialysegeräte zu einer Verschärfung dieser Anforderungen auf die höchste Schutzklasse CF (»Cardiac Floating«) geführt. Da diese Anforderung von zahlreichen im Markt betriebenen Dialysegeräten noch nicht erreicht wird, ist unbedingt vor dem Einsatz von zentralvenösen Kathetern die elektrische Unbedenklichkeit des zu verwendenden Dialysegerätes zu verifizieren.
von Genius auch in der Akutdialyse. Das Genius Therapiespektrum ermöglicht dementsprechend sowohl die chronische Hämodialyse als auch die Akutverfahren der kontinuierlichen veno-venösen Hämodialyse (CVVHD) und die langsame verlängerte tägliche Dialyse (SLEDD). Ein weiteres Batchsystem-Gerät, welches speziell für den Heimdialysebereich entwickelt wurde, stellt das Personal Hemodialysis System PHD (Aksys) dar. Eine weitere Spezifität des PHD Systems ist die Desinfektion des extrakorporalen Kreislaufs zusammen mit der Gerätehydraulik, was die mehrmalige Wiederverwendung von Dialysator und Blutschlauchsystem ermöglichen soll. Das NxStage System One Dialysegerät (NxStage) schließlich ist ein speziell für die Heimdialyse entwickeltes, seit kurzem in den USA auf dem Markt verfügbares System. Es zeichnet sich durch seine extrem kompakte Bauweise aus, die das gesamte System portabel macht. Für den extrakorporalen Kreislauf und die Hydraulik steht eine spezielle Kartusche zur Verfügung, die relativ einfach und sicher konnektiert werden kann. Das Dialysat wird bereits fertig gemischt in Beutelform appliziert. Wasserund Abwasseranschlüsse, zentrale Konzentratversorgung und aufwändige Elektroinstallationen sind dabei unnötig.
25.7.7 Batchsystem-Geräte und spezielle
25.7.8 Extrakorporaler Blutkreislauf
oder über die Dialysatormembran, ▬ Luftinfusion.
Elektrische Sicherheit zentralvenöser Katheter in der Hämodialyse
Heimhämodialysegeräte Im Gegensatz zu den vorab beschriebenen Geräten mit permanenter interner Dialysataufbereitung (auch als »Single-Pass-Geräte« klassifiziert) wird bei den Batchsystem-Geräten das gesamte für eine Behandlung benötigte Dialysat vorab und meist zentral produziert. Die Hydraulik dieser Geräte kann dementsprechend technisch sehr viel einfacher gestaltet werden. Auch die so wichtige exakte Flüssigkeitsbilanzierung ist bei den Batchsystemen einfach und sicher gewährleistet, da sie vollständig geschlossene Systeme darstellen und der Flüssigkeitsentzug beispielsweise bei den Geräten der Genius Baureihe (Fresenius Medical Care) direkt an einem Messbehälter ablesbar ist. Anhand der Genius-Baureihe als zur Zeit gebräuchlichster Batchsystem-Produktlinie können exemplarisch weitere Vorteile der Batchsystem-Geräte aufgezeigt werden: Das frische Dialysat wird zentral und bereits korrekt temperiert in den Genius-Dialysatbehälter gefüllt. Eine Dialysatheizung im Gerät kann daher entfallen. Das gebrauchte Dialysat wird im Laufe der Behandlung im Dialysatbehälter stabil unter das frische Dialysat geschichtet. Das Genius Gerät kann daher unabhängig von der sonst an jedem Dialyseplatz notwendigen Infrastruktur (Wasser, Abwasser, zentrale Konzentratversorgung, aufwändige Elektroinstallationen) praktisch an jedem Ort betrieben werden. Im Batteriebetrieb ist sogar ein vollkommen netzunabhängiger Einsatz problemlos möglich. Diese hohe Mobilität begünstigt den Einsatz
Im extrakorporalen Blutkreislauf findet der Bluttransport und die Blutreinigung statt, Steuerung und Überwachung dieses Prozesses übernimmt das Dialysegerät. Das urämische Blut des Patienten wird vom Gefäßzugang zum Dialysator transportiert, dort gereinigt und wieder zum Gefäßzugang zurücktransportiert. Im Normalfall der Doppelnadeldialyse fördert die arterielle Blutpumpe das Blut über eine Dialysekanüle aus dem Gefäßanschluss des Patienten in ein Blutschlauchsystem und weiter zum Dialysator. Der Druck auf der Saugseite der Pumpe wird dabei mit dem arteriellen Druckmonitor gemessen und überwacht. Mit der Heparinpumpe können dem Blut Antikoagulantien mit einstellbarer Rate kontinuierlich zudosiert werden. Nach dem Dialysator gelangt das Blut zum venösen Blasenfänger des Blutschlauchsystems. Dort wird der venöse Rücklaufdruck gemessen und überwacht. Der venöse Blasenfänger befindet sich im Luftdetektor, welcher den Patienten vor gefährlicher Luftinfusion schützt. Sinkt der Spiegel oder befindet sich Blutschaum im venösen Blasenfänger wird ein Alarm ausgelöst und das Gerät schaltet in den patientensicheren Zustand, d. h. die venöse Klemme schließt und die Blutpumpe bleibt stehen. Nach dem Blasenfänger passiert das Blut den optischen Detektor (OD). Dieser unterscheidet zwischen OD hell (Kochsalzlösung bzw. Luft im Schlauchsystem) oder OD dunkel (Blut im Schlauchsystem) und steuert das Alarmmenü des Systems. Vom optischen Detektor gelangt das Blut dann aus dem Blutschlauchsystem über
25
456
III
Kapitel 25 · Blutreinigungssysteme
eine zweite Nadel im Gefäßzugang zurück zum Patienten. Eine enge funktionelle Verflechtung und zahlreiche Schnittstellen insbesondere des Blutschlauchsystems und der Dialysemaschine (an Blutpumpe; arterieller und venöser Druckmesser; Heparinpumpe; optischer Detektor; venöse und arterielle Klemme; verschiedene optionale Sensoren z. B. zur Bluttemperaturmessung; Blutvolumenmessung) bedingen höchste Anforderungen an die Kompatibilität dieser Produkte miteinander.
25.7.9 Gefäßzugang – Kanülen und Katheter
Aufgrund der therapiebedingt häufigen Punktion der Blutgefäße zur Blutentnahme (meistens 3-mal wöchentlich je 2 Punktionen, entsprechend mehr als 300 Punktionen jährlich) werden falls möglich meist sog. Cimino-Fisteln als dauerhafte Gefäßzugänge operativ angelegt. Als Fistel bezeichnet den arterio-venösen Gefäßkurzschluss, der zu einem dilatierten venösen Gefäß mit ausreichend großer Punktionsfläche und großem Blutangebot führt. Bei hierfür ungeeigneten natürlichen Gefäßen kann notfalls auch ein Polymerschlauch (ePTFE) als künstlicher Gefäßersatz implantiert werden; ebenfalls verfügbare implantierbare Portsysteme haben sich bislang nicht durchsetzen können. Zur Punktion werden dann zwei Dialysekanülen (»Fistula needles«) verwendet, die zur Vermeidung von Rezirkulation einen möglichst weiten Abstand voneinander haben sollten, mit der blutzurückführenden Nadel (»venöse Nadel«) blutflussabwärts zur blutaufnehmenden (»arteriellen«) Nadel. Sollte dieses Doppelnadelverfahren aufgrund mangelnder Punktionsfläche und Steno-
⊡ Abb. 25.8. Extrakorporaler Blutkreislauf und Hydrauliksystem eines Dialysegeräts
sen nicht möglich sein, kann man die Dialyse auch im Single-Needle-Verfahren mit nur einer Nadel durchführen. Mit Hilfe zweier, alternierend laufender Blutpumpen (Doppelpumpenverfahren), einer Expansionskammer im Schlauchsystem und einer druckabhängigen Steuerung kann auch in diesen Fällen, unter Berücksichtigung einer ggf. verringerten mittleren Blutflussrate, eine adäquate Dialysebehandlung durchgeführt werden. Fistelalternativen stellen temporäre und permanente zentralvenöse Katheter dar. Diese sind in der chronischen Dialyse nur die zweite Wahl, in der Akutdialyse und bei den meisten sonstigen Blutreinigungstherapien sind sie unverzichtbar (⊡ Abb. 25.8, auch 4-Farbteil am Buchende).
25.7.10 Dialysator
Das Kernstück der Dialysebehandlung ist der Dialysator, die sog. Künstliche Niere, an dessen Membran mittels der physikalischen Prozesse Diffusion und Konvektion Schadstoffe aus dem Blut entfernt werden und somit die eigentliche Dialyse stattfindet. Das Prinzip ist relativ einfach: das zu reinigende, heparinisierte Blut wird über eine Blutpumpe durch ein von einer semipermeablen Dialysemembran begrenztes Kompartiment geführt. Die Außenseite dieser Dialysemembran wird von der Dialysierflüssigkeit (Dialysat) mit physiologischer Elektrolytzusammensetzung umspült. Der Diffusionsgradient als Maß für die Konzentrationsunterschiede einzelner gelöster Substanzen bewirkt, dass klein- und mittelmolekulare Substanzen durch die Membran aus dem Blut ins Dialysat diffundieren. Die gebräuchlichen Dialyse- und Hämofiltrationsmembranen bestehen
457 25.7 · Dialysetechnik
aus schaumartigen Polymerstrukturen mit symmetrischem oder asymmetrischem Aufbau. Die früher weitverbreiteten natürlichen Polymere und ihre Derivate (z. B. Cellulose, Celluloseacetat, Hemophan) weichen vermehrt den vollsynthetischen Polymeren (z. B. verschiedene Polysulfone, Polyacrylnitril u. a.), die sich durch eine meist höhere Blutkompatibilität und – im Falle mancher Polysulfone – der Möglichkeit einer Dampfsterilisation auszeichnen. Moderne Dialysatoren sind typischerweise Kapillardialysatoren, die aus mehreren tausend parallel geführten Hohlfasern bestehen, in deren Innenlumen Blut im Gegenstrom zum außen an den Kapillaren vorbeifließenden Dialysat fließt. Plattendialysatoren mit mehrlagiger Anordnung von Flachmembranfolien werden kaum noch verwendet. Je nach Durchlässigkeit der Membran wird unterschieden in Low-Flux- und High-Flux-Dialysatoren. Letztgenannte besitzen eine größerporige Dialysemembranen und eliminieren ein breites, der renalen Elimination ähnliches Spektrum an Toxinen. Aufgrund dieser offenporigeren Membranstruktur besitzen High Flux Dialysatoren auch eine höhere Wasserdurchlässigkeit (wässrige Permeabilität, angegeben als Ultrafiltrationskoeffizient [ml/h*mmHg]) und dürfen nur in Verbindung mit volumengesteuerten Dialysegeräten (wie sie heute Stand der Technik sind) eingesetzt werden. Früher gebräuchliche und nur noch vereinzelt eingesetzte transmembrandruckgesteuerte Dialysemaschinen mit offenem Hydrauliksystem dürfen aufgrund der nur schlecht kontrollierbaren Ultrafiltration NICHT für eine High-Flux Dialyse verwendet werden (⊡ Abb. 25.9, ⊡ Abb. 25.10). Wichtige Kriterien bei der Auswahl eines Dialysators für den klinischen Einsatz sind Clearance für bestimmte Substanzen, Ultrafiltrationsleistung, Siebkoeffizient als Maß für das Eliminationsspektrum, Membranoberfläche, Membranmaterial und Aufbau, Blutfüllvolumen, Sterilisationsart sowie die Biokompatibilität der Membran.
⊡ Abb. 25.9. High-Flux-Kapillardialysator mit synthetischer Polysulfonmembran
Wiederverwendung von Dialysatoren (»Re-use«) Mit dem Bestreben, die Kosten für den Dialysator pro Behandlung zu vermindern, wird verschiedentlich die Wiederverwendung von Dialysatoren betrieben. Dabei wird der benutzte Dialysator meist in speziellen Wiederverwendungsgeräten einer chemischen, thermischen oder kombinierten Reinigungsbehandlung unterzogen, um ihn bei der nächsten Behandlung bei demselben Patienten wieder zu verwenden. In den letzten Jahren war die Praxis des Dialysatoren-Re-use hauptsächlich aus zwei Gründen stark rückläufig: ▬ Erstens ist die Qualität eines derart gereinigten Dialysators als fraglich einzustufen, da meistens ausser einem Kapillarlumentest (Lumina bis minimal 80% des vom Hersteller spezifizierten Kapillarlumens werden meist als ausreichend angesehen) und evtl. einem Reinigungsmittel-Rückstandtests keinerlei Qualitäts-
⊡ Abb. 25.10. REM-Aufnahme des Querschnitts einer Kapillare (Wandstärke 35 µm, Innenlumen 185 µm)
25
458
III
Kapitel 25 · Blutreinigungssysteme
kontrolle stattfindet. Außerdem gibt es zahlreiche Berichte über negative klinische Effekte bis hin zu erhöhter Mortalität beim Einsatz von wiederverwendeten Dialysatoren. ▬ Zweitens ist es als fraglich anzusehen, ob mit Blick auf die heutigen stark gesunkenen Beschaffungskosten für Dialysatoren mit der Wiederverwendung überhaupt eine Einsparung realisiert werden kann, wenn man bei realistischer Kalkulation die durch den Reuse neu hinzukommenden Kosten für Geräte und Materialien, Personal sowie den Raum-, Energie-, Wasserund Abwasserbedarf etc. mit berücksichtigt.
25.8
Technik der Peritonealdialysegeräte
Mit Hilfe von Peritonealdialysegeräten, den sog. PDCyclern, können die aufwändigen und häufigen Flüssigkeitswechsel auch automatisch durchgeführt werden. Besonders die Möglichkeit, die PD-Behandlungsphase nun automatisiert in die Nacht zu verlegen, verleiht dem Dialysepatienten mehr Mobilität und ermöglicht eine flexible Planung des Tagesablaufs (⊡ Abb. 25.11). Die PD-Cycler steuern und kontrollieren den Einund Ausfluss sowie die Verweildauer der speziellen PDSpüllösung in der Bauchhöhle. Der Spüllösungswechsel muss durch geeignete volumetrische oder gravimetrische
a
Bilanzierungssysteme präzise kontrolliert werden, um eine Volumenüberlastung des Patienten auszuschließen. Moderne Cyclersysteme bieten die Möglichkeit, neben variablen Einlaufvolumina auch die Verweilzeit, die Anzahl der Zyklen und das Gesamtvolumen an Spülflüssigkeit vorzuwählen. Eine Vorwärmeinrichtung für PD-Spüllösung sowie ein Datenausgang für die Erfassung und Protokollierung der Behandlungsdaten gehören mittlerweile zum Gerätestandard.
25.9
Epidemiologie und Anwendungsbereiche
Mit der Akutdialyse werden Patienten therapiert, die wegen eines akuten Nierenversagens oder in Folge einer Urämie – meist als Sekundärkomplikation infolge schwerer Erkrankungen – oder schweren endo- bzw. exogenen Intoxikationen vorübergehend einer Behandlung bedürfen. Dies ist häufig auf intensivmedizinischen Stationen der Fall. Es bedarf in diesen Fällen meist keiner speziellen Aufnahme in eine klinische Dialyseeinrichtung, vielmehr wird die Dialysebehandlung direkt in die intensivmedizinische Therapie mit eingebunden. Zum Teil gehört ein Dialysegerät mit adäquater Medienversorgung zur apparativen Ausstattung der Intensivstation. In der weitaus häufigeren Zahl der Fälle werden die akut niereninsuffizienten Intensivpatienten jedoch mit den wesentlich schonenderen, kontinuierlichen Blutreinungsverfahren behandelt. In der Regel übernehmen Nephrologen und nephrologisches Pflegepersonal die Betreuung der Nierenersatztherapie auf der Intensivstation. Die kontinuierlichen Verfahren werden jedoch als eine stetig an Bedeutung gewinnende Disziplin der intensivmedizinischen Therapie angesehen und zunehmend durch Anaesthesisten und intensivmedizinisches Pflegepersonal eigenverantwortlich duchgeführt. Durch pathologische, traumatische oder auch genetische Ursachen bedingt, können Patienten jedoch chronisch niereninsuffizient werden, d. h. die renalen Funktionen sind weitgehend verloren bzw. ganz erloschen und die Patienten sind bleibend dialysepflichtig und müssen in ein chronisches Behandlungsprogramm aufgenommen werden. Als Hauptursachen des chronischen Nierenversagens sind aktuell Diabetes und Hypertonie zu nennen.
25.9.1 Akutbehandlung ▬ Patienten mit akutem Nierenversagen aus den klinib ⊡ Abb. 25.11a,b. a Peritonealdialysecycler und b dazugehöriges Disposable
schen Fachbereichen Innere Medizin, Chirurgie/Unfallchirurgie sowie Gynäkologie/Geburtshilfe. ▬ Entwässerung (Ultrafiltration) z. B. von kardiologischen Patienten mit starken Flüssigkeitseinlagerungen oder Patienten mit Eiweißmangelzuständen.
459 25.10 · Planung und Organisation eines Dialysezentrums
▬ Behandlung von schweren Intoxikationen mittels Hä-
moperfusion. ▬ Therapeutische Versorgung von bestimmten immunologischen Erkrankungen mittels Plasmaseparation (z. B. Myasthenia gravis, Goodpasture-Syndrom etc.). ▬ Frisch operierte Patienten nach Organübertragungen bis zur vollen Funktionsfähigkeit des Nierentransplantats oder während aufgetretener Komplikationen in der Nachbehandlungsphase.
25.9.2 Risiko- bzw. Kliniksdialyse ▬ Bei chronisch Nierenkranken mit zusätzlichem Risiko
wie hohes Alter, Sekundärerkrankungen (Stoffwechselerkrankungen, insbesondere Diabetes mellitus, Herz- oder Lebererkrankungen, usw.), werden sog. Risiko- oder Kliniksdialysen durchgeführt. ▬ Behandlung chronisch Nierenkranker, bevor diese an anderen Zentren weiterbehandelt werden können. Dazu gehören auch Patienten, die mittels einer kontinuierlichen ambulanten Peritonealdialyse (CAPD) therapiert werden. ▬ Therapie von Dialysepatienten, die aufgrund von sekundären Komplikationen (z. B. Fistelverschluss, Überwässerung, Hyperkaliämie, u. a.) oder zusätzlichen Erkrankungen von externen Zentren an die Klinik überwiesen werden (Auffangdialysen).
25.9.3
Chronische Dialyse bzw. Zentrumsdialyse
Chronisch nierenkranke Patienten mit stabilem Allgemeinzustand werden i. d. R. in ambulanten Dialysezentren, in einigen Fällen unter Berücksichtigung besondere Gegebenheiten auch zu Hause (Heimdialyse), therapiert. Dreimal wöchentlich müssen sich diese Patienten einer circa vierstündigen Dialysebehandlung unterziehen. Neuere Behandlungsschemata werden zunehmend diskutiert und auch angewandt, um die immer noch hohe Mortalitätsrate von Dialysepatienten weiter zu senken: Die tägliche kurze (zwei Stunden) Heimhämodialyse (DHHD -Daily Home Haemodialysis), die nächtliche Hämodialyse (dreimal 8 Stunden über Nacht) und die tägliche nächtliche Heimhämodialyse (DNHD – Daily Nocturnal Haemodialysis; 6 oder 7-mal je 8 Stunden über Nacht).
25.10
Planung und Organisation eines Dialysezentrums
Die Dialyse ist eine Therapieform, deren Rahmenbedingungen relativ aufwändig sind. Durch immer älter werdende Patienten, moderne Technologien und teils neue, weitreichende gesetzliche Bestimmungen (z. B. Quali-
tätssicherungs-Richtlinie Dialyse, MedGV) haben sich der Pflege- und technische Betreuungsaufwand sowie die Anforderungen an Qualitätssicherung und Qualitätsmanagement erheblich gesteigert. So müssen die Erbringer der Dialyseleistung ab 2006 den Kostenträgern auf elektronischem Wege regelmäßig verschiedene Parameter zur Dialysequalität übermitteln, um ihre Behandlungsvergütung zu erhalten. Das zunehmende Alter und eine erweiterte Indikationsstellung führen zu einem stetigen Anstieg der Patientenzahlen. Allein in der Bundesrepublik ist mit einer jährlichen Zunahme chronisch behandelter niereninsuffizienter Patienten von 3–4% zu rechnen. Die regionale Planung eines Dialysezentrums richtet sich dabei am Bedarf, Einzugsbereich, Bevölkerungsdichte sowie an den örtlichen Verkehrsanbindungen aus. Organisatorische Voraussetzungen für den Betrieb eines Dialysezentrums sind die Zulassung eines nephrologisch ausgebildeten Internisten bei der Kassenärztlichen Vereinigung, die ständige Verfügbarkeit einer Reanimationsvorrichtung und eines Labors für Notfallanalysen sowie die enge Kooperation mit einer nephrologischen Einheit in einer Klinik für den Fall einer Auffangdialyse. Für einen Hämodialyseplatz sollte man in einer Dialysestation 10–12 m2 Nutzfläche veranschlagen, für die Nebenräume den zweifachen Bedarf aller Dialyseplätze. Ein Drittel der Nebenräume sollten, trocken und hygienisch einwandfrei, als Lagerräume vorgesehen werden. Folgende Räumlichkeiten müssen bei der Planung berücksichtigt werden: ▬ Infektiöse Patienten (Hepatis B bzw. C) dürfen aufgrund des hohen Infektionsrisikos nicht zusammen mit nichtinfizierten Patienten ohne entsprechende Antikörper therapiert werden. Für diese Patienten müssen separate Räumlichkeiten bereitgehalten werden. – Umkleide-, Aufenthaltsräume und Toiletten für das Personal, – Umkleide-, Aufenthaltsräume und Toiletten für die Patienten, – Arztzimmer, Ambulanz und Sekretariat, – Labor, Archiv und Abstellräume, – Techniker-, Lagerräume und Entsorgungsbereich sowie die – Vorbereitungs- und Dialyseräume. Für die notwendige zentrale Wasseraufbereitungsanlage (Umkehrosmoseanlage) und für die etwaige Konzentratversorgungsanlage sowie für Lagerräume ist im Keller entsprechender Platz vorzusehen. Mittlerweile gibt es eine Vielzahl von Normen und gesetzlichen Vorschriften, die den Betrieb einer Dialysestation genau regeln. Durch die hohen Investitionskosten bedingt ist die Nutzung des Dialysezentrums im Schichtbetrieb erforderlich. Üblich sind 2 bis 3 Schichten pro Tag, wobei Montag, Mittwoch und Freitag als klassische Dialysetage mit hoher Auslas-
25
460
III
Kapitel 25 · Blutreinigungssysteme
tung gelten. Während dieser Zeit sollten zumindest ein nephrologisch ausgebildeter Arzt mit Dialyseerfahrung und ausreichend examiniertes Krankenpflegepersonal anwesend sein. Der Verwaltungs- und Organisationaufwand eines Dialysezentrums ist relativ groß. Für die Erfassung und statistische Auswertung einer Vielzahl von Patientendaten sowie die abrechnungstechnischen Formalitäten sind die nachfolgend beschriebenen speziellen DialyseDatenerfassungssyteme, auf Basis eines Computernetzwerkes in der Dialyseeinheit, von großem Vorteil.
25.11
Dialyse-Datenerfassungssysteme
Leistungsfähige Computersysteme können in Dialysestationen wertvolle Dienste leisten: Sie sind in der Lage, Routinearbeiten zu vereinfachen, die Behandlungsqualität zu verbessern und technische Bedienvorgänge zu erleichtern. Darüber hinaus kann die anfallende Dokumentationsarbeit automatisiert werden. Die dadurch eingesparte Zeit kann für eine intensivere Betreuung der Patienten eingesetzt werden.
⊡ Abb. 25.12. Systembeispiel für ein Dialysedatennetzwerk
Auf der Basis handelsüblicher Netzwerke kann mit relativ geringem Aufwand ein flexibles Netzwerksystem für Daten aus Dialysemaschinen erstellt werden. Die meisten Dialysemaschinen besitzen hierfür bereits integrierte Netzwerkschnittstellen oder können optional mit diesen nachgerüstet werden. Ebenso können andere Mess- und Analysesysteme (z. B. Patientenwaagen, Elektrolytmessgeräte etc.) in das Datenerfassungssystem integriert werden. Die Zuordnung der so elektronisch erfassten Daten zu den Patienten erfolgt z. B. über eine Patientenkarte, auf der eine patientenspezifische Identifikation gespeichert ist (⊡ Abb. 25.12). Aufzeichnungs- und Übertragungsfehler werden so von vornherein vermieden. Auf diese Weise können jedem Patienten die Messwerte für Gewicht vor und nach der Nierenersatztherapie, die Blutdruckwerte und der Puls sowie die Elektrolytmesswerte neben einer Vielzahl von Maschinendaten automatisch und sicher zugeordnet werden. Das Dialysegerät selbst liefert aktuelle Daten über die programmierten Behandlungsparameter, den Verlauf der Behandlung sowie Alarmsituationen, kann aber auch kinetische Daten hinsichtlich der Bluttemperatur und des
461 25.11 · Dialyse-Datenerfassungssysteme
Blutvolumens oder Qualitätsparameter wie Dialysedosis ausgeben, um nur einige Beispiele aufzuführen. Solche leistungsfähigen Computersysteme – meist eine Kombination von Hardware und Software – verbinden Dialysetechnik und Informationstechnik. Der modulare Aufbau ermöglicht es dabei, jedem Anwender genau die Werkzeuge zur Verfügung zu stellen, welche er für seinen täglichen Arbeitsablauf benötigt. Die wesentlichen Informationen stehen damit jedem Mitglied des interdisziplinär arbeitenden Dialyse-Teams jederzeit und überall zur Verfügung. Wesentliche Bestandteile eines Dialysedatenmanagementsystems sind die Softwareapplikationen für das Behandlungsmonitoring und die Verwaltung der patientenspezifischen Daten. Der Stationsmonitor stellt auf einen Blick alle wichtigen Informationen zu den aktuell stattfindenden Behandlungen einer Dialysestation zur Verfügung. Hier werden für den einzelnen Patienten in chronologischer Reihenfolge die dokumentierten Daten angezeigt, wie z. B. die Gewichte, der Behandlungsverlauf oder die Vitalparameter (⊡ Abb. 25.13). Die mit fortschrittlichem klinischen Datenmanagement verbundenen kontinuierlichen Qualitätsverbesserungen lassen sich dabei zurückführen auf: ▬ die Möglichkeit zur Planung und Organisation der täglichen Routinearbeiten, ▬ die Optimierung von zeitintensiven Abläufen durch deren Automatisierung, ▬ den direkten Zugriff auf relevante Behandlungsparameter von allen Arbeitsplätzen aus für die weitere Datenverarbeitung.
⊡ Abb. 25.13. Behandlungsmonitoring mit dem Stationsmonitor
Durch die oben aufgeführten Merkmale der Datenerfassungssysteme wird deutlich, dass diese den verantwortungsbewussten Anwender erheblich bei der Qualitätserfassung und Qualitätssicherung unterstützen können.
Weiterführende Literatur Hörl WH , Wanner C, Hrsg (2004) Dialyseverfahren in Klinik und Praxis. Thieme, Stuttgart, New York Schleipfer, D (1988) Dialysetechnik. Bionic Medizintechnik GmbH & Co KG, Friedrichsdorf Schönweiß, G (1992) Dialysefibel. Perimed-spitta, Nürnberg Wetzels, E et al. (1986) Hämodialyse, Peritonealdialyse, Membranplasmapherese und verwandte Verfahren. Springer, Heidelberg New York Tokyo DIN IEC 601 Teil 1/ VDE 0750 Teil 05.82: Sicherheit elektromedizinischer Geräte, allgemeine Festlegungen DIN VDE 0753 Teil 4, 9/1986: Anwendungen für Hämodialysegeräte VDE 0752 5/1983: Grundsätzliche Aspekte der Sicherheit elektrischer Einrichtungen in der medizinischen Anwendung (IEC 513) Ministerialblatt für das Land Nordrhein-Westfalen, 34/67 (1981) Richtlinien für die Errichtung und den Betrieb von Dialysezentren Seipp HM, Stroh A (2001) Hygienemanagement in der Dialyse. Pabst, Lengerich Robert Koch Institut, Hrsg (1994) Anforderungen der Hygiene an die funktionelle und bauliche Gestaltung von Dialyseeinheiten. Anlage zu Ziffer 4.3.4. Bundesgesundheitsblatt 12, 1994 European Pharmacopoeia (1997) Haemodialysis solutions, concentrates, water for diluting AAMI (Association for the advancement of medical instrumentation; 1999) National dialysis standards reference book Baldamus CA et al. (1999) Anforderungen und Überprüfungen der mikrobiologischen Wasserqualität für die Hämodialyse. Mitteilungen der Deutschen Arbeitsgemeinschaft für Klinische Nephrologie
25
462
III
Kapitel 25 · Blutreinigungssysteme
Deutsche Arbeitsgemeinschaft für klinische Nephrologie. Dialysestandard 2000 der Deutschen Arbeitsgemeinschaft für Klinische Nephrologie e.V., unter Mitarbeit der Arbeitsgemeinschaft für Pädiatrische Nephrologie und der Deutschen Dialysegesellschaft Niedergelassener Ärzte e.V. EBPG Expert Group on Haemodialysis (2002) European Best Practice Guidelines for Haemodialysis. Nephrol Dial Transplant 17 [Suppl7] Vertrag zur Änderung der Qualitätssicherungsvereinbarung zu den Blutreinigungsverfahren (2002) § 135 Abs. 2 SGB V. Dt Ärzteblatt 99: B811 Quellhorst E, Baldamus CA, Boesken W, et al. (2001) Dialysestandard 2000. Mitt Klin Nephrol 30: 92–134 Quellhorst E, Boesken WH, Brech J, et al. (2001) Empfehlungen der Deutschen Arbeitsgemeinschaft für Klinische Nephrologie zu Struktur und Aufgaben nephrologischer Schwerpunktabteilungen an Kliniken. Mitt Klin Nephrol 30: 135–7 Canaud B, Bosc JY, Leray H., Stec F, Argiles A, Leblanc M, Mion C.(1998) On-line haemodiafiltration – state of the art. Nephrol Dial Transplant 13 [Suppl5]: 3–11 Göhl H, Pirner M (1999) Ultrafilter und Dialysatoren für On-line Verfahren. Nieren- und Hochdruckkrankheiten 28: 64–70 Berland Y, Brunet P, Ragon A et al. (1995) Dialysis fluid and water: their roles in biocompatibility Nephrol Dial Transplant 10 [Suppl10]: 45–7 Fassbinder W (1998) Renaissance of the batch methods? Nephrol Dial Transplant 3: 3010–2 Kleophas W, Haastert B, Backus G, Hilgers P, Westhoff A, van Endert G (1998) Long-term experience with an ultrapure individual dialysis fluid with a batch type machine. Nephrol Dial Transplant 13: 3118–25 II. NKF-K/DOQI. (2001) Clinical Practice Guidelines for Peritoneal Dialysis Adequacy: update 2000. Am J Kidney Dis. 37 [Suppl1]: S 65–136 Diaz-Buxo JA (2002) Continuous flow peritoneal dialysis: clinical applications. Blood Purif 20: 36–9 Berland Y, Brunet P, Ragon A, Reynier JP (1995) Dialysis fluid and water: their roles in biocompatibility. Nephrol Dial Transplant 10: 45–7 Ledebo I, Nystrand R (1999) Defining the microbiological quality of dialysis fluid. Artif-Organs 23: 37–43 International Electrotechnical Commission (IEC). IEC-60601-1. Medical electrical equipment – Part 1: General requirements for safety. Geneva: Central Office of the IEC International Electrotechnical Commission (IEC).IEC-60601-2-16: Medical electrical equipment – Part 2–16: Particular requirements for the safety of haemodialysis, haemodiafiltration and haemofiltration equipment. Geneva: Central Office of the IEC Qualitätssicherungsmaßnahmen für die Erbringung von Dialyseleistungen mit Qualifikationsvoraussetzungen (1997) §135 Abs. 2 SGB V zur Ausführung und Abrechnung von Blutreinigungsverfahren. Dt Ärzteblatt 94: B1859–1864 »Qualitätssicherungsrichtlinie Dialyse« vom 20.12.2005 und Richlinie »Qualitätsmanagement vertragsärztliche Versorgung« vom 18.10.2005. Gemeinsamer Bundesausschuß G-BA
26X
463 xxxx · xxxx
Herz-Lungen-Maschinen (HLM) A. Hahn, F. Sieburg 26.1 Historische Entwicklung der extrakorporalen Zirkulation – 463 26.2 Einführung in die extrakorporale Zirkulation (EKZ) – 465 26.3 Aufbau und Funktion der Herz-LungenMaschine – 466 26.3.1 26.3.2 26.3.3 26.3.4 26.3.5 26.3.6
Blutpumpen und ihre Funktion – 466 Oxygenator und Gasaustauschfunktion – 467 Schlauchsysteme für die EKZ – 468 Blutfilter – 468 Kardiotomiereservoir – 469 Kanülen und Intrakardialsauger – 469
26.4 Komponenten einer HLM – 470 26.4.1 Grundkomponenten – 470 26.4.2 Zusätzliche Komponenten einer HLM
– 472
26.6 Differenzierung von HLM-Geräten – 477 26.6.1 Modulare Systeme – 478 26.6.2 Nicht modulare Systeme – 478
26.7 Sicherheitstechnische Aspekte
– 479
26.8 Ausblick auf weitere Entwicklungen – 481 Literatur
– 481
Weiterführende Literatur – 482 – 472
Bei zahlreichen Operationen am Herzen und Eingriffen an den großen Gefäßen ist es notwendig, Herz und Lunge vom natürlichen Kreislauf abzukoppeln und zeitweise stillzulegen. In der Regel wird bei offenen und koronarchirurgischen Eingriffen die Herz- und Lungenfunktion von einer externen Herz-Lungen-Maschine (HLM) übernommen. Dieser Vorgang wird auch als extrakorporale Zirkulation (EKZ) oder kardiopulmonaler Bypass bezeichnet.
26.1
26.5 Monitoring der EKZ
26.5.1 Durchführung der EKZ – 472 26.5.2 Patientenüberwachung und Therapie an der EKZ – 473 26.5.3 Komplikationen an der EKZ – 476
Historische Entwicklung der extrakorporalen Zirkulation
Schon zu Beginn des 19. Jahrhunderts hatte der französische Physiologe Julien Jean César Le Gallois in seiner Monographie [1] die ersten realistischen Grundlagen der extrakorporalen Zirkulation niedergeschrieben. Er schlug vor, die Funktion des Herzens mittels einer kontinuierlichen Injektion von natürlichem, oder wenn realisierbar, künstlich hergestelltem Blut zu ersetzen. Die Umsetzung dieses Vorhabens erfolgte aber erst 1828 durch James Phillips Kay [9] und Jahre später auch von Eduard Brown-Séquard [4]. Der Deutsche Karl Eduard Loebell [13] befasste sich 1849 ebenfalls mit der isolierten Organperfusion. Er untersuchte explantierte Nieren, die künstlich perfundiert wurden, auf ihre Sekretproduktion. Ernst Bidder wiederholte diese Experimente, jedoch benutzte er zur künstlichen Perfusion einen unter Druck stehenden Behälter, der als Volumenreservoir diente. 1867 verfeinerte A. Schmidt [14] vom physiologischen Institut zu Leipzig diese Perfusionstechnik. Seine
künstliche Perfusion konnte bezüglich Perfusionsfluss und -druck durch einen in der Höhe verstellbaren Behälter beeinflusst werden, jedoch konnte bis zu diesem Tage das Blut nicht mit Sauerstoff angereichert werden. Erst durch die Erfindung einer Apparatur durch Waldemar von Schröder [17] im Jahr 1882 konnte Blut während der Organperfusion künstlich oxygeniert werden, indem Luft direkt in das Blut geleitet wurde, um es mit Sauerstoff anzureichern. Die Grundvoraussetzung zur künstlichen O2-Anreicherung war damit aber nur teilweise erreicht, denn durch die extreme Schaumbildung fand diese Methode bis zu jenem Zeitpunkt keine sichere Anwendung. 1885 entwickelten Max von Frey und Max Gruber [16] am Institut zu Leipzig den ersten Vorreiter der heutigen HLM (⊡ Abb. 26.1). Er beinhaltete einen Filmoxygenator, bestehend aus einem rotierenden Glaszylinder, der die künstliche Anreicherung des Blutes mit Sauerstoff gewährleistete. Anders als zuvor verwendeten von Frey und Gruber erstmals eine Spritzenpumpe mit entsprechender Ventilsteuerung zur Perfusion in einem geschlossenen System. 1890 stellte Carl Jacobj [8] aus dem Institut zu Straßburg seine Entwicklung, den Hämatisator, vor (⊡ Abb. 26.2). Hierbei handelte es sich um eine Blutpumpe, die in der Lage war, einen pulsatilen Fluss zu erzeugen. Gesteuert von 2 Ventilen wurde ein Gummiballon rhythmisch durch eine federnde Wippe komprimiert, angetrieben von einem Wassermotor. Jacobj erkannte die Problematik der bis dahin verwendeten Oxygenierungsverfahren und wandte sich einer neuen Technik zu. Er benutzte explantierte isolierte Lungen und verwies auf die deutlich einfachere Handhabung. Zur Umsetzung musste er 2 Organe per-
464
III
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
fundieren, weshalb er seine Apparatur später doppelten Hämatisator nannte. Erst ein halbes Jahrhundert später gelang John H. Gibbon [7] der revolutionäre Durchbruch. Dem Chirurgen am Jefferson Medical College in Philadelphia gelang es, in 20-jähriger Entwicklungsarbeit eine HLM herzustellen. 1934 hatte er einen Pumpoxygenator konstruiert, mit dem er bei Katzen, denen die Lungenschlagader abgeklemmt wurde, die Funktion von Herz und Lunge für 25 min ersetzte. In den USA folgten in den 1950er Jahren Versuche mit Kaninchen- und Affenlungen, die wenig erfolgreich verliefen. Gibbon erhielt 1950 finanzielle und technische Hilfe durch die Computerfirma IBM. Durch die raschen technischen Fortschritte und neuen Erkenntnisse auf dem Gebiet der Physiologie wurde es überhaupt erst möglich, einen Einsatz am Menschen zu realisieren. Seine Maschine basierte auf einer Rollerpumpe und seinem Gitteroxygenator, die 1952 erstmals eingesetzt wurden. Sein erster Patient starb jedoch aufgrund einer Fehldiagnose.
⊡ Abb. 26.1. Kreislaufapparat nach Gruber und Frey (1885). Erste Anwendung eines mechanischen extrakorporalen Kreislaufs im geschlossenen System zur pulsatilen Invitro-Perfusion von Organen. (Aus Galetti u. Brecher [6])
⊡ Abb. 26.2. Der extrakorporale Kreislauf nach Jacobj 1890 [8]
Am 6. Mai 1953 setzte Gibbon seine HLM das erstemal erfolgreich am Menschen ein. Es handelte sich hierbei um eine 18-jährige Patientin, die an einem angeborenen Vorhofseptumdefekt litt. Die Maschine arbeitete 45 min im partiellen, davon 26 min im totalen Bypass und übernahm damit vollständig die Funktion von Herz und Lunge. Noch im selbem Jahr führte Gibbon 4 weitere Operationen durch, jedoch erfolglos. Gibbon hatte zwar einen bedeutenden Erfolg in der Geschichte der Herzchirurgie erzielt; die Wissenschaft konzentrierte sich jedoch auf die 1949 publizierten Ergebnisse von William G. Bigelow [3], welche die Senkung der Körperkerntemperatur als Basis zu korrektiven operativen Eingriffen im Kreislaufstillstand vorsah. Durch Hypothermie erreichte man eine Absenkung des Stoffwechsels, was ein Abklemmen der Hohlvenen für kurze Zeit möglich machte, ohne die empfindlichen Organe durch O2-Entzug zu schädigen. F.J. Lewis [11] aus Minneapolis gelang es 1953 mittels Oberflächenhypothermie, einen Vorhofseptumdefekt er-
465 26.2 · Einführung in die extrakorporale Zirkulation (EKZ)
folgreich zu verschließen. Jahre später kombinierte W.C. Sealy [15] die tiefe Oberflächenhypothermie mit dem partiellen kardiopulmonalen Bypass zur chirurgischen Korrektur. Anfang 1954 machte Walton C. Lillehei [12] mit seiner Idee der »cross circulation« (⊡ Abb. 26.3) auf sich aufmerksam. Hierbei handelte es sich um ein Verfahren, bei dem auf eine künstliche Blutoxygenierung und den Einsatz einer HLM verzichtet werden konnte. Im »gekreuzten Kreislauf« fand kontinuierlich ein Blutaustausch zweier Individuen statt. Der blutgruppengleiche Spender übernahm dabei die Oxygenierung des Patientenblutes. Mittels einer Sigmarotorpumpe wurde das arterielle Spenderblut in den Empfängerkreislauf gepumpt. Am 26. März 1954 führte Walton C. Lillehei die erste Operation mittels »cross circulation« durch. In Folge konnten erstmals kompliziertere kongenitale Herzfehler, wie z. B. Ventrikelseptumdefekt und Fallot-Tetralogie mit Erfolg operiert werden. Da jedoch die Nachteile, wie beispielsweise reduziertes Pumpvolumen, im Vergleich zur HLM deutlich überwogen, fand die »cross circulation« wenig Anklang. Außerdem stellte sie nicht nur für den Patienten, sondern auch für den Spender eine große Gefahr mit hoher Letalitätsrate dar. 1955 wurde an der Mayo Clinic in Rochester, Minnesota, eine weitere Reihe von Operationen kongenitaler Vitien durch John W. Kirklin [10] mit der inzwischen weiterentwickelten Mayo-Gibbon-HLM durchgeführt. Die größten Probleme waren der Bedarf an Frischblutkonserven (5–11 Einheiten) zum Befüllen der HLM und die Risiken von letalen Embolien, verursacht durch schäumendes Blut, welches einen kontrollierten niedrigen Blutfluss durch den Oxygenator erforderlich machte. Als Blutpumpen standen zunächst Sigmarotorpumpen zur Verfügung, später die erstmals von Beck 1924 [2] beschriebenen Rollerpumpen, die zu Transfusionszwecken genutzt wurden und die Gibbon letztlich übernahm. Diese Rollerpumpen wurden später nach ihrem Fürsprecher De Bakey [5] benannt. Erst durch die Entwicklung von diversen Oxygenatoren wie Bubble-, Film-, Scheiben-, Spiral- und Membranoxygenatoren Mitte der 1950er Jahre konnten weitere Fortschritte in der Herzchirurgie erzielt werden. Der erste kommerziell gefertigte Membranoxygenator kam 1967 in den Handel. Neben der Erkenntnis von Zuhdi [19] im Jahr 1961, dass die HLM auch ohne Blut gefüllt werden kann, wurde die Hypothermie durch direktes Kühlen des Blutes durch einen integrierten Wärmetauscher zu einer wichtigen Entwicklung. R. Zenker [18] führte die erste offene Herzoperation in Deutschland durch, 1958 in Marburg. 1962 beschrieben die Autoren Galetti und Brecher [6] die »ideale Perfusion« als einen Eingriff, bei dem die Funktion des Herzens und der Lunge von einer Maschine vollständig übernommen wird, möglichst ohne schädigenden Einfluss auf den Körper. Diese Vorstellung konnte zwar durch Weiterentwicklung auf dem Gebiet
⊡ Abb. 26.3. Prinzip der sog. »cross circulation« nach Lillehei mit Verwendung eines Spenders zur Oxygenierung des Patientenblutes. (Aus Galetti u. Brecher [6])
der Gerätetechnologie und Materialkunde, durch neue chirurgische Techniken und verbesserte Perfusionstechniken durchaus vorangebracht, aber bis zum heutigen Tage nicht optimiert werden.
26.2
Einführung in die extrakorporale Zirkulation (EKZ)
Im Gegensatz zu den Anfängen der Herzchirurgie, als überwiegend Korrekturen von kongenitalen Vitien durchgeführt wurden, stehen heutzutage die erworbenen Herzfehler deutlich im Vordergrund. Können Herzerkrankungen nicht durch medikamentöse Therapie oder kardiologische Intervention behoben werden, ist die Herzchirurgie gefordert. Weltweit werden derzeit pro Jahr ca. 1 Mio. Herzoperationen mit HLM durchgeführt (Stand 1999). In den 79 Herzzentren in Deutschland (Quelle: Herzbericht 1998 E. Bruckenberger) wurden 1998 insgesamt 96.889 Herzoperationen mit HLM und weitere 41.353 Fälle ohne HLM durchgeführt. Von der Gesamtzahl der Herzoperationen wurden 9,4% als Notfälle deklariert, 7,8% davon waren Notfälle nach PTCA-Eingriffen. Der Hauptanteil der durchgeführten Operationen entfiel mit 76,4% auf die Koronaroperationen, gefolgt von den Herzklappenfehlern mit 14,7%, den angeborenen Herzfehlern mit 4,7% und letztlich den sonstigen herz-, thorax- und gefäßchirurgischen Eingriffen mit 4,2%. Die minimalinvasive Herzchirurgie (MIHC) kam in den letzten Jahren zunehmend als alternative Methode zur Revaskularisierung des Herzens zum Einsatz, um das Operationstrauma des Patienten zu reduzieren. Im Vordergrund steht hier, möglichst herzchirurgische Eingriffe ohne die Hilfe einer HLM durchzuführen. 1998 wurden an 66 der 79 deutschen Herzzentren 3128 minimalinvasive Eingriffe durchgeführt, allein davon 2396 Fälle ohne Zuhilfenahme einer HLM. Die Ten-
26
466
III
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
denz der minimalinvasiven Herzchirurgie ist in den letzten Jahren deutlich steigend. Die extrakorporale Zirkulation hat sich von den ersten Anfängen im Bereich der experimentellen Organperfusion zu einem Routineverfahren der offenen Herzchirurgie entwickelt. Sie wird immer dann nötig sein, wenn operative Eingriffe am stillgelegten kardioplegierten Herzen durchgeführt oder eine assistierte Perfusion zur Kreislaufunterstützung in Erwägung gezogen wird. Die HLM mit kreislaufaufrechterhaltenden Komponenten übernimmt während des kardiopulmonalen Bypasses lebensnotwendige Organfunktionen, wie die Pumpfunktion des Herzens und den künstlichen Atemgasaustausch, der durch den Blutoxygenator gewährleistet wird, der in einem Schlauchsystem integriert ist.
26.3
Aufbau und Funktion der Herz-Lungen-Maschine
Die HLM als Basis der extrakorporalen Zirkulation übernimmt nach Einleitung des kardiopulmonalen Bypasses mit gleichzeitiger Stilllegung des Herzens 2 wichtige Organfunktionen: ▬ Pumpfunktion des Herzens, ▬ Gasaustauschfunktion der Lunge. Von besonderer Bedeutung während jeder EKZ ist ein ausreichendes Perfusionsvolumen (2,4 l/min/m2 Körperoberfläche), welches dem normalen Herzzeitvolumen des jeweiligen sich in Narkose befindlenden Patienten entsprechen muss, sowie ein adäquater Perfusionsdruck (60–70 mmHg). Des Weiteren muss durch die HLM eine ausreichende Oxygenierung und CO2-Eliminierung des Blutes gewährleistet sein. Zur Grundausstattung eines extrakorporalen Kreislaufs, wie er heute in der Herzchirurgie Verwendung findet, gehören folgende Komponenten: ▬ Blutpumpen, ▬ Oxygenator, ▬ Schlauchsystem mit unterschiedlichen Schlauchdiametern, ▬ Blutfilter mit unterschiedlichen Funktionen, ▬ Kardiotomiereservoir, ▬ Kanülen und Intrakardialsauger. Da die HLM und die verwendeten Einwegmaterialien als eine geschlossene und funktionelle Einheit zu sehen sind, müssen diese einen bestimmten Aufbau aufweisen. Der extrakorporale Kreislauf basiert dabei immer auf der gleichen Grundlage. Das venöse Blut wird über die venöse Kanülierung, entweder beider Venae cavae oder des rechten Vorhofes, in das venöse Kardiotomiereservoir geleitet. Von hier aus muss das Blut durch eine arterielle Blutpumpe (Rollerpumpe
oder Zentrifugalpumpe) aktiv durch den Blutoxygenator und über eine Perfusionskanüle in der Aorta ascendens in das arterielle Gefäßsystem zurückgepumpt werden. Zwischen dem Oxygenator und der zum Patienten zurückführenden arteriellen Linie ist zusätzlich ein arterieller Filter eingebaut, der Leukozyten- und Plättchenaggregate, Zell- und Gewebetrümmer, denaturiertes Eiweiß, Luft und Partikelabrieb aus dem Schlauchsystem abfangen soll. Zusätzliche Pumpen werden benötigt, um als sog. Kardiotomie- und Ventsauger und des Weiteren als Kardioplegiepumpen zu fungieren. Während der Eröffnung des Herzens kann mittels der Kardiotomiesauger das Koronarsinusblut aus dem Operationsgebiet und mit dem Ventsauger das Blut aus dem linken Herzen in das Kardiotomiereservoir abgesaugt werden, um anschließend gefiltert und entschäumt zu werden. Die Kardioplegiepumpen dienen dazu, die kardioplegisch wirksamen Lösungen volumen-, fluss- und druckgesteuert in die Aortenwurzel bzw. selektiv in die beiden Koronarostien zu verabreichen. ⊡ Abb. 26.4 zeigt den schematischen Aufbau einer HLM. Es sind einige der wichtigsten Messwertaufnehmer und deren Platzierung angegeben.
26.3.1 Blutpumpen und ihre Funktion
Blutpumpen können grundsätzlich nach ihrer Funktionsweise in 2 Gruppen unterteilen werden: ▬ Rollerpumpen nach De Bakey, ▬ Zentrifugalpumpen. Im Wesentlichen sollten beide Pumpentypen an der HLM folgende Kriterien erfüllen: ▬ Flüssigkeiten dosiert fördern und anzeigen, dabei gleichzeitig den Förderbereich sinnvoll begrenzen, ▬ externe Regelung ermöglichen (z. B. für Überwachungsfunktionen), ▬ einen ausreichenden Druck bzw. Unterdruck erzeugen, ▬ Blutschädigung vermeiden, ▬ eine Okklusionseinstellung ermöglichen (nur bei Rollerpumpen), ▬ pulsatilen Flow erzeugen, ▬ einen hohen Wirkungsgrad erreichen, ▬ hohe Zuverlässigkeit und Sicherheit gewährleisten, ▬ einen Notbetrieb ermöglichen (z. B. Handbetrieb).
Rollerpumpen Blutpumpen nach De Bakey arbeiten nach dem Verdrängungsprinzip, indem durch die Rotation von Rollen entlang eines Schlauchsegments das Blut aus dem Pumpengehäuse gefördert wird. Die Rollerpumpe besteht aus einem rotierenden Pumpenarm, an dem 2 zylindrische Rollen angebracht sind, und einem Pumpengehäuse, in
467 26.3 · Aufbau und Funktion der Herz-Lungen-Maschine
⊡ Abb. 26.4. Schematischer Aufbau einer HLM
dem üblicherweise ein halbkreisförmiges Schlauchsegment aus Silikon eingelegt und mit speziellen Schlauchinserts festgehalten wird. Durch die Rotation der beiden Roller wird das Schlauchsegment alternierend zusammengedrückt und die enthaltene Flüssigkeit in Abhängigkeit von der Umdrehung und Flussrichtung gefördert. Entscheidend für die Förderung ist die exakte Einstellung (Okklusion) der beiden Roller. Durch Drehen eines zentralen Rändelrades bewegen sich die Okklusionsrollen symmetrisch nach außen und okkludieren gleichmäßig den eingelegten Schlauch. Damit wird sichergestellt, dass die Erythrozyten weder durch Scherkräfte noch durch direktes Quetschen geschädigt werden.
Blasen- und Membranoxygenatoren verwendet. Der Unterschied zwischen den beiden Oxygenatoren liegt darin, dass beim Blasenoxygenator die Blutsäule mit Gasbläschen durchströmt wird und somit Blut und Gas in direktem Kontakt stehen, beim Membranoxygenator hingegen ist Blut und Gas durch eine halbdurchlässige Membran voneinander getrennt.
Zentrifugalpumpen
Im Oxygenierungsabschnitt wird das venöse Blut mit Sauerstoff über eine Diffusorplatte durchblasen. An der Oberfläche der dabei entstehenden kleinen Gasbläschen erfolgt der eigentliche Gasaustausch. O2 diffundiert aus den Gasblasen in das Blut, CO2 wird aus dem Blut abgegeben. Die Steuerung des arteriellen Sauerstoff- (paO2) und des Kohlendioxidpartialdrucks (paCO2) im Blut gestaltet sich bei diesem System wesentlich schwieriger als vergleichsweise beim Membranoxygenator. Wird der O2Fluss am Gasflowmeter erhöht, erfolgt gleichzeitig eine Erhöhung des paO2 und als Nebeneffekt eine Senkung des paCO2 im Blut. Um einer Hypokapnie entgegenzuwirken, muss dem Ventilationsgas CO2 zugemischt werden. Im Entschäumerteil findet die Trennung der Gasblasen vom Blut statt, da es sonst zu einer massiven Luftembolie durch Mikroblasen kommen würde. Das Entschäumermaterial besteht überwiegend aus Polypropylenfasern und Polyurethanschaum, die zusätzlich mit schaumhemmendem Silikon beschichtet sind. Das arterielle Reservoir dient dazu, das oxygenierte und entschäumte Blut zu sammeln.
Sie arbeiten ohne direkten Verdränger und sind damit nichtokklusive Pumpen. Das Blut wird nicht durch Auspressen der Schläuche, sondern durch Zentrifugalkräfte bewegt. Aufgrund des technischen Funktionsprinzips ist die Zentrifugalpumpe nur begrenzt einsetzbar. Zwar kann sie durchaus als arterielle Pumpe eingesetzt werden, jedoch nicht als Saugerpumpe. Die Vorteile der Zentrifugalpumpen liegen darin, dass sie nur begrenzt Luft fördern können und in der Langzeitanwendung blutschonender arbeiten. Als Nachteil ist anzumerken, dass die Förderleistung nur mit Hilfe eines zusätzlichen Flowmeters bestimmt werden kann.
26.3.2 Oxygenator und Gasaustauschfunktion
Die künstliche Lunge, auch als Oxygenator bezeichnet, übernimmt im Rahmen der extrakorporalen Zirkulation die Funktion der Lunge und damit den Austausch von lebensnotwendigen Gasen. Heute werden überwiegend
Blasen- oder Bubbleoxygenatoren Der Blasenoxygenator besteht im Wesentlichen aus 3 Hauptkomponenten: ▬ Oxygenierungsabschnitt, ▬ Entschäumer, ▬ arterielles Reservoir.
26
468
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
Membranoxygenatoren
III
Der Gasaustausch erfolgt über eine semipermeable Membran, die den Gasstrom und den Blutstrom voneinander trennt. Durch ihren Partialdruckgradienten diffundieren O2 und CO2 durch die mikroporöse Membran; eine selektive Steuerung von paO2 und paCO2 ist hier möglich. Die Membranen werden heute größtenteils aus Polypropylen oder Polyethylen gefertigt und werden als Kapillar- oder Plattenmembran angeboten. Der Vorteil des Membranoxygenators gegenüber dem Blasenoxygenator besteht darin, dass durch die Trennung der Blut- und Gasphase die Gefahr einer Mikroembolie reduziert und die Blutschädigung der festen Bestandteile des Blutes geringer ist. Wesentlich längere Bypasszeiten (mehrere Tage) sind gegenüber dem Blasenoxygenator (ca. 6–8 h) möglich.
Konfiguration eines Schlauchsystems sollte darauf geachtet werden, dass die Schlauchlängen möglichst kurz und die Durchmesser so gering wie möglich ausgewählt werden, um die Fremdoberfläche und somit das Priming (Füllvolumen) zu reduzieren. Die venöse Linie im Schlauchsystem stellt jedoch besondere Anforderungen, so dass hier die Schlauchdimension groß genug gewählt werden muss, um einen adäquaten Rückfluss zu garantieren. Bei der Konfiguration eines Erwachsenenperfusionssets werden i. d. R. für die arterielle Linie ein 3/8‘‘-Schlauch, für die venöse Linie ein 1/2‘‘-Schlauch verwendet. Bei Säuglings- und Kinderperfusionen kommen Schläuche mit einem Durchmesser von 3/16‘‘ und 1/4‘‘ zum Einsatz.
26.3.4 Blutfilter 26.3.3 Schlauchsysteme für die EKZ
Das Schlauchsystem hat die Aufgabe, die einzelnen Komponenten der EKZ zu verbinden und mit dem Anschluss an das Gefäßsystem des Patienten einen geschlossenen Kreislauf zu bilden. Schlauchsysteme werden heute aufgrund der gestiegenen Operationszahlen und den hohen Qualitätsansprüchen industriell in Reinräumen der Klasse 10.000 US-Norm gefertigt und in verschiedenen Varianten angeboten. Die komplett vorkonnektierten Systeme (⊡ Abb. 26.5) werden zunehmend von den Kardiotechnikern bevorzugt, da eine innere Kontamination mit Keimen beim Aufbau des Schlauchsystems an die HLM ausgeschlossen werden kann. Eine Standardisierung von Schlauchsystemen wäre von Seiten der Industrie wünschenswert, um durch Produktion von höheren Stückzahlen die Gesamtkosten in der Herstellung senken zu können. Dies ist aber nur in wenigen Ausnahmen möglich, da u. a. die Grundkonfiguration der HLM und deren Standort zum Operationstisch abweichen kann und die operativen Techniken sehr variieren können. So wird jedes Schlauchsystem individuell nach den Vorgaben und Wünschen des Kunden konfektioniert. Bei der
⊡ Abb. 26.5. Komplett vorkonnektiertes Schlauchsystem mit Säuglingsoxygenator (Fa. Dideco S. p. A.)
Blutfilter werden in das EKZ-System integriert, um vorwiegend Mikroembolien durch autologe Einflüsse, Fremdmaterialien und Mikroluftblasen zu vermeiden.
Tiefenfilter Tiefenfilter, die aus Dacronwolle oder Polyurethan-Schaumstoff bestehen, werden in Kardiotomiereservoire eingesetzt und dienen hauptsächlich der Partikelfiltration. Die Porengröße variiert bei der Grobabscheidung von Partikeln von 80–100 μm bis in den Mikroporenbereich von 20–40 μm.
Netzfilter Netzfilter werden als arterielle Blutfilter genutzt und haben das Funktionsprinzip eines Siebs. Die Porengröße des Netzfilters liegt zwischen 20 und 40 μm. Das Material besteht aus einem Netz gewebter Polyesterfäden. Anders als Tiefenfilter besitzen die Netzfilter nur geringe Adhäsionskräfte. Luftblasen werden erst bei einer bestimmten Druckdifferenz durch das Filtermedium gelassen (»bubble-point-pressure«), sodass sie über sehr gute Luftrückhalteeigenschaften verfügen.
469 26.3 · Aufbau und Funktion der Herz-Lungen-Maschine
26.3.5 Kardiotomiereservoir
Das Kardiotomiereservoir dient üblicherweise dazu, das aus dem Operationsfeld gesaugte Blut zu filtrieren und anschließend bei Bedarf in den extrakorporalen Kreislauf zurückzuführen. Gleichzeitig wird es als Volumendepot genutzt. Ein integriertes Entschäumerteil ist notwendig, da mit dem gesaugten Blut zusätzlich Luft in das Kardiotomiereservoir mitgeführt wird. Eine Kombination aus Tiefen- und Netzfilter gewährleistet eine optimale Blutfiltration. Das Kardiotomiereservoir sollte über eine vielseitige Anordnung von Anschlussmöglichkeiten zur Verbindung der üblichen Schlauchdimensionen verfügen. Um ein genaues Ablesen der Volumensituation zu gewährleisten, ist eine detaillierte Skala auf dem Reservoir notwendig. Während der EKZ ist darauf zu achten, dass sich stets ein Restvolumen im Kardiotomiereservoir befindet, um die Förderung von Luft in das extrakorporale System zu vermeiden.
26.3.6 Kanülen und Intrakardialsauger
Der Anschluss des Patienten an die EKZ stellt besondere Anforderungen, um die Vitalfunktionen während der Perfusion aufrecht zu erhalten.
Arterielle Kanülierung Um das oxygenierte Blut in den Körperkreislauf des Patienten zurückzuführen, erfolgt bei routinemäßigen Eingriffen die Kanülierung der Aorta ascendens. In einigen Ausnahmefällen wie z. B. bei Reoperationen ist die Kanülierung der A. femoralis oder A. iliaca notwendig. Die Größe und Art der Kanüle muss gemäß den entsprechenden anatomischen Verhältnissen und dem erforderlichen Minutenvolumen ausgewählt werden. Zur Kanülierung der Aorta ascendens werden etliche Varianten mit gerader und gebogener Spitze, mit Nähkragen oder Wulstkragen, drahtverstärkt oder nicht drahtverstärkt angeboten.
Venöse Kanülierung Die venöse Drainage des Blutes erfolgt entweder durch 2 Hohlvenenkanülen, wobei die obere und untere Hohlvene separat kanüliert wird, oder über 1 Zweistufenkanüle, deren Kanülenspitze mit ihren seitlichen Öffnungen in die untere Hohlvene platziert wird und deren in der zweiten Stufe befindliche Öffnungen das Blut der oberen Hohlvene und des rechten Vorhofs drainieren. Die Technik der Doppelkanülierung ist Voraussetzung bei allen herzchirurgischen Eingriffen, bei denen der rechte Vorhof eröffnet wird und ein Blutrückstrom in den rechten Vorhof verhindert werden soll. Mit dieser Kanülierungstechnik
können nahezu alle herzchirurgischen Eingriffe realisiert werden. Die Zweistufenkanülierung bietet in den meisten Fällen einen adäquaten Rückfluss und wird überwiegend in der Bypass- und Klappenchirurgie verwendet.
Ventkatheter Um das kardioplegierte Herz und speziell den linken Ventrikel während der Aortenklemmung durch zurückströmendes Blut aus den Thebesius-Venen und der Bronchialzirkulation vor einer Überdehnung zu schützen, wird zusätzlich ein sog. Ventkatheter zur Drainage entweder über die Herzspitze, eine der Lungenvenen oder über das linke Herzohr eingelegt. Ein Mandrin oder ein formbarer Draht im Ventkatheter erleichtert dem Chirurgen die Einführphase und die endgültige Platzierung der Kanüle.
Kardioplegiekanülierung, Myokardprotektion Eine Myokardprotektion ist für viele Eingriffe am stillgelegten Herzen notwendig. Die häufigste Methode der Myokardprotektion besteht u. a. in der Verabreichung von kardioplegisch wirksamen Lösungen. Unter dem Begriff Kardioplegie versteht man den pharmakologischen künstlich herbeigeführten reversiblen Herzstillstand. Die Verabreichung solcher hyperkaliämischer Lösungen hat eine Unterbrechung der elektrischen und mechanischen Aktivität des Herzens zur Folge. Ein weiterer Wirkmechanismus zum Schutz der Herzmuskelzellen wird durch Verabreichung von kalter Kardioplegie erreicht. Als Basislösungen stehen Blut, Elektrolytlösungen und Kolloide zur Verfügung. Zur Verabreichung von kardioplegischen Lösungen kommen abhängig von der geplanten Operation verschiedene Kanülenausführungen zum Einsatz. Bei suffizienter Aortenklappe kann die Kardioplegielösung mittels einer Aortic-root-Kanüle über die Aortenwurzel verabreicht werden. Nach Verabreichung der kardioplegischen Lösung dient die Kanüle als Aorticroot-Vent zur Entlastung und Entlüftung des linken Ventrikels. Weist die Aortenklappe eine Insuffizienz auf, ist die Infusion der kardioplegischen Lösung über die Aortenwurzel nicht möglich. Bei geklemmter Aorta würde die Lösung, bedingt durch die unvollständig geschlossene Aortenklappe, retrograd in den linken Ventrikel fließen. Hier muss die Myokardprotektion mittels direkter selektiver Kanülierung der Koronarostien mit Koronarperfusionskanülen erfolgen. Eine weitere Methode zur Verabreichung von Kardioplegielösung besteht in der Anwendung einer retrograden Kardioplegiekanüle. Die Einführung der Kanüle erfolgt über den rechten Vorhof. Anschließend wird die kardioplegische Lösung retrograd über den Koronarsinus verabreicht. Die retrograde Infusion von kardioplegisch wirksamen Lösungen mittels einer retrograden Kardioplegiekanüle entgegen dem normalen koronarvaskulären
26
470
III
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
Blutstrom stellt eine Alternative dar, auch die poststenotischen Bereiche des Herzmuskels zu erreichen. Aufgrund der Tatsache, dass im venösen Koronarsystem keine Stenosen vorherrschen, wird eine optimale Verteilung der Kardioplegielösung erreicht und damit die Myokardprotektion wesentlich verbessert. Die Anwendung mit einer retrograden Kardioplegiekanüle zur Applizierung von kardioplegischen Lösungen hat sich besonders während koronarer Reoperationen bei gleichzeitig vorhandenem inadäquatem nativem Koronarfluss, schlechter koronarer Kollateralisierung sowie bei Patienten, bei denen die Gefahr einer Embolisierung von arteriosklerotischem Material besteht, als Alternative herausgestellt.
Intrakardialsauger Intrakardialsauger, die in unterschiedlichen Ausführungen zur Verfügung stehen, dienen dazu, das im Operationsfeld befindliche Blut in das Kardiotomiereservoir zurückzuführen. Da die Kardiotomiesaugung einen großen Anteil zur Blutschädigung beiträgt, sollte dem gesamten Saugerregime besondere Aufmerksamkeit zukommen. Bereits durch geringe Luftbeimischung und die entstehenden Scherkräfte an den Saugerspitzen wird eine Blutschädigung durch Hämolyse verursacht. Deshalb sollte der Intrakardialsauger möglichst blutschonend durch kontrolliertes Saugen und nur wenn unbedingt notwendig zum Einsatz kommen.
26.4
▬
▬
Komponenten einer HLM
26.4.1 Grundkomponenten
Die wichtigsten Grundkomponenten einer modern ausgestatteten HLM sind nachfolgend aufgelistet und kurz beschrieben: ▬ Fahrbare Konsole: (für 3–5 Pumpen) mit Stromversorgung, Notstromversorgung und Elektronik. ▬ Verstellbares Mastsystem: zum Anbringen von Halterungen z. B. für Oxygenator, Blutfilter, Kardiotomiereservoire und Zusatzgeräte. ▬ Blutpumpen: a) Rollerpumpen: Pumpen für arteriellen Blutfluss, als Sauger und/oder zum Entlüften (⊡ Abb. 26.6); b) Doppelpumpe: 2 unabhängige Pumpen für niedrige Flussraten, die zur Säuglings- und Kinderperfusion oder zur Applizierung von kardioplegischer Lösung dienen (⊡ Abb. 26.7, ⊡ Tab. 26.1); c) Zentrifugalpumpen: Pumpen für arteriellen Blutfluss. ▬ Steuer- und Überwachungsgeräte: a) Doppeldrucksteuerung inklusive Sensoren zur Erfassung des systemischen Drucks im Schlauchsys-
▬
▬
tem und zur Messung der Druckdifferenz (Δp) des Oxygenators; b) Temperaturmessgerät (4-Kanal) inklusive Sensoren zur Überwachung der Patiententemperatur/ Kardioplegietemperatur; c) Niveauüberwachung inklusive Sensoren zur Überwachung und Regelung des Blutspiegels im Oxygenator oder venösen Kardiotomiereservoir; d) Luftblasendetektor inklusive Sensoren als Teil eines Schutzsystems gegen Luftförderung; e) pulsatile Steuerung zur Erzeugung und Steuerung eines pulsatilen Flusses; f) Kardioplegiesteuerung inklusive Drucksteuerung und Luftblasendetektor: überwacht und steuert die Verabreichung der Kardioplegielösung; g) Timer (3–4-Kanal) zur Zeiterfassung wichtiger Perfusionszeiten wie z. B. Gesamtperfusionszeit, Aortenklemmzeit und Reperfusionszeit. Bedienpult mit integrierten Überwachungsfunktionen: Doppeldruckanzeige, Temperaturanzeige, Niveaukontrolle, Luftblasendetektor, pulsatile Steuereinheit, Kardioplegiesteuerung und Timer. Elektronische oder mechanische Gasflussmess- und -regelgeräte: Die Oxygenierung des extrakorporalen Blutflusses kann von verschiedenen Systemen gemessen, überwacht und angezeigt werden. 2 verschiedene Systeme sind nachfolgend beschrieben: a) Elektronischer Gasblender zur Messung, Anzeige, Überwachung und Regelung der Gasflüsse Luft, O2, CO2 und FIO2; b) mechanischer Gasflowmeter (Gasrotameter) zur mechanischen Regulierung, Messung und Anzeige der Gasflüsse Luft, O2 und CO2. Venöse Flussklemmen: Sie dienen zur Steuerung und Regelung des venösen Rückflusses während der extrakorporalen Zirkulation. Ein Datenmanagementsystem (DMS) dient der Aufzeichnung und Verwaltung aller perfusionsrelevanten Daten (⊡ Abb. 26.8) während und nach der EKZ. Das DMS besteht aus einem konventionellen Notebook und einer DMS-Software mit prä-, intra- und postoperativen Programmteilen. Das DMS basiert auf einem Server-Online-Konzept. Der Server speichert die zentralen Daten der Operation, der Onlineteil die intraoperativen Daten während der EKZ. Der Datentransfer zwischen den beiden Computern erfolgt via Datenträger oder, wenn vorhanden, über ein Netzwerksystem.
⊡ Abb. 26.9 zeigt eine HLM auf heutigem Standard. Besonders hingewiesen sei auf die Anzeige und Registrierung von Messwerten, Verlaufskurven und Trendanalysen auf dem angeschlossenen Panel-PC.
471 26.4 · Komponenten einer HLM
⊡ Abb. 26.6. Rollerpumpe der 5. Generation (Fa. Sorin Group Deutschland GmbH)
⊡ Abb. 26.7. Doppelpumpe der 5. Generation (Fa. Sorin Group Deutschland GmbH)
⊡ Abb. 26.8. Auszug eines HLM-Protokolls mit Patienten- und intraoperativen Daten
26
472
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
⊡ Tab. 26.1. Technische Daten von Rollerpumpen (Quelle: S5 Stöckert)
III
Anzeige
S5-Rollerpumpe
S5-Doppelpumpe
RPM-Anzeigebereich
0–250 RPM
0–250 RPM
RPM-Kontrollbereich
3–250 RPM
3–250 RPM
RPM-Anzeigegenauigkeit
±0,5% bezogen auf Skalenendwert 250 RPM
±0,5% bezogen auf Skalenendwert 250 RPM
LPM-Anzeigebereich
0–3,29 LPM für 1/4‘‘-Schläuche
0–1,6 LPM für 1/4‘‘-Schläuche
0–6,98 LPM für 3/8‘‘-Schläuche
0–2,28 LPM für 5/16‘‘-Schläuche
0–11,3 LPM für 1/2‘‘-Schläuche
0–16,2 LPM für 5/8‘‘-Schläuche
stellte als auch die aktuelle Temperatur angezeigt werden. Um Über- und Untertemperaturen auszuschließen, sind ausschließlich Temperaturbereiche von 2–40,5°C zulässig. Das Gerät muss mit diversen Sicherheitseinrichtungen ausgestattet sein, um kritische Situationen zu vermeiden: a) Wasserpumpen: Zweikammerpumpen sollen dafür sorgen, dass sich im Wärmetauscher kein Druck durch das geförderte Wasser aufbaut. b) Wasserstandsanzeige: Ein zu niedriger Wasserstand im Tank wird über eine Anzeige am Bedienfeld angezeigt und akustisch dem Betreiber gemeldet. c) Systemfehleranzeige/automatische Selbsttests: Kontinuierliche Selbsttests während der Einschaltphase und während des Betriebs sollen den sicheren Betrieb garantieren. d) Temperaturüberwachung: Exakte Regelung bis auf •0,5°C der vorgewählten Temperatur; Temperaturbegrenzung auf maximal 41,5°C.
26.5
⊡ Abb. 26.9. Abbildung einer industriell angebotenen Herz-Lungen-Maschine mit Panel-PC und Datenmanagementsystem (Fa. Sorin Group Deutschland GmbH)
Monitoring der EKZ
Die Überwachung der extrakorporalen Zirkulation ist grundsätzlich die gemeinsame Aufgabe des Kardiotechnikers und des Anästhesisten, wobei der Anästhesist zusätzlich Verantwortung trägt für die Aufrechterhaltung der Vitalfunktionen und für die medikamentöse Therapie während der EKZ. Die Bedienung und Überwachung der HLM erfolgt ausschließlich durch einen ausgebildeten Kardiotechniker.
26.4.2 Zusätzliche Komponenten einer HLM
Normo- oder Hypothermiegerät
26.5.1 Durchführung der EKZ
Die Anforderungen dieses Geräts beinhaltet die präzise und schnelle Temperierung des Patienten sowie der kardioplegischen Lösungen. Moderne Geräte arbeiten unabhängig von der Kalt-/Warmwasserversorgung im OP. Im Gerät eingebaut sind ein Kühlaggregat, ein Heizkörper, der Wassertank mit Temperaturfühlern und die entsprechende Elektronik. Auf dem Bedienfeld sollte sowohl die einge-
Die Durchführung der EKZ beginnt im eigentlichen Sinne schon mit dem Aufbau, dem Füllen (Priming) und der technischen Funktionsüberprüfung der HLM. Der Kardiotechniker prüft mit Hilfe einer Checkliste alle perfusionsrelevanten Maschineneinstellungen und kontrolliert alle externen und internen Geräteanschlüsse, die das
473 26.5 · Monitoring der EKZ
Gesamtsystem betreffen. Des Weiteren wird das extrakorporale Schlauchsystem mit allen seinen Komponenten auf eine sichere Verbindung und soweit möglich auf die Funktionalität überprüft. Während des HLM-Einsatzes müssen folgende Parameter ständig kontrolliert und laufend durch Regeleingriffe vom Kardiotechniker gesteuert werden: ▬ Perfusionsfluss: Ein ausreichender Perfusionsfluss bei Erwachsenen in Normothermie wird mit 2,2–2,4 l/m2 KOF/min angegeben. Wird der Patient in Hypothermie versetzt, kann der Perfusionsfluss unter Berücksichtigung der arteriovenösen O2-Gehaltsdifferenz (avDO2) reduziert werden. ▬ Temperaturen: a) Bluttemperaturen in der arteriellen und venösen Linie des extrakorporalen Schlauchsystems; b) Soll- und Ist-Temperaturen des Hypo-/Normothermiegeräts; c) Temperatur der kardioplegischen Lösung. ▬ Drücke im extrakorporalen Schlauchsystem: a) Druckmessung vor und nach dem Oxygenator zur Bestimmung des transmembranösen Drucks (Δp); b) Druckmessung in der arteriellen Linie; c) Druckmessung in der Kardioplegielinie. ▬ Perfusionszeiten: a) Gesamtperfusionszeit; b) Aortenklemmzeit; c) Reperfusionszeit; d) ggf. Kreislaufstillstandszeit mit Angabe der niedrigsten Körperkerntemperatur (rektale Temperatur). ▬ Niveauüberwachung im Oxygenator/Kardiotomiereservoir. Die Niveauüberwachung dient als Schutzsystem gegen Luftförderung im extrakorporalen Blutkreislauf. Der Niveausensor wird an das gewünschte Minimumniveau am Oxygenator oder an einem Kardiotomiereservoir angebracht. Bei Unterschreiten des Minimumniveaus wird die angewählte Rollerpumpe, in diesem Fall die arterielle Pumpe, automatisch gestoppt oder verlangsamt und zusätzlich akustische und optische Warnsignale abgegeben. Moderne Niveauüberwachungen verfügen über 2 Betriebsarten: a) Start-Stopp-Betrieb, d. h. bei einem Stoppniveau wird die Pumpe gestoppt, und erst bei einem Freigabeniveau startet die Pumpe automatisch; b) Regelbetrieb, d. h. die Pumpendrehzahl wird soweit verringert, dass sich ein Regelniveau (oberhalb des Stoppniveaus) konstant hält. ▬ Luftblasendetektor: Der Luftblasendetektor stellt eine weitere Schutzeinrichtung gegen Luftförderung dar. Der Sensor besteht üblicherweise aus einem Ultraschallsender und -empfänger. Alle Luftblasen, die den Alarmgrenzwert überschreiten, werden erkannt und an das Steuergerät
weitergeleitet. Dabei wird die arterielle Pumpe bei Überschreitung des Alarmgrenzwerts gestoppt, und zusätzlich werden akustische und optische Warnsignale abgegeben. Luftblasen, deren Volumen kleiner als der Alarmgrenzwert ist, werden zur Darstellung der relativen Aktivität der Mikroluftblasen auf einer Balkenanzeige dargestellt. Zwischen Luftblasensensor und Patient muss in Abhängigkeit der Schlauchdimension ein Mindestabstand von 1,0–2,5 m eingehalten werden, um eine ordnungsgemäße Luftblasenüberwachung zu ermöglichen. Dieser Abstand gewährleistet, dass nach Erkennung bis zum Pumpenstopp die Luft nicht den Patienten erreicht. ▬ Saugstärke der Kardiotomiesauger: Während eines herzchirurgischen Eingriffs ist ein blutfreies Operationsfeld unbedingt notwendig. Der Chirurg hat die Möglichkeit, mittels eines, oder – in Abhängigkeit des geplanten Eingriffs – mehrerer Kardiotomiesauger ein sichtfreies Operationsfeld zu schaffen. Die Saugstärke der Kardiotomiesauger sollte jedoch immer auf die entsprechende Situation der Operation angepasst werden. Der Operateur sollte deshalb dem Kardiotechniker mitteilen, ob zu dem Zeitpunkt des Bedarfs eine starke oder milde Kardiotomiesaugung notwendig ist. Eine unnötig hohe Kardiotomiesaugung hat eine vermehrte Hämolyse zur Folge. Auch ein Ansaugen des Kardiotomiesaugers an umliegendes Gewebe sollte möglichst vermieden werden, um daraus resultierende Gewebeschädigungen und unnötige Hämolyse zu vermeiden. ▬ Saugstärke am Ventkatheter: Die Saugstärke am Ventkatheter sollte möglichst so gewählt werden, dass das Herz während der Stillstandphase völlig entlastet ist und in der Reperfusionsphase keine eigene Auswurfleistung erbringen muss. Wie auch schon bei der Kardiotomiesaugung sollte hier ebenfalls eine zu hohe Saugleistung vermieden werden, um einerseits eine Blutschädigung zu vermeiden und andererseits Gewebeschäden durch Ansaugen der Katheterspitze im Herzinnenraum auszuschließen.
26.5.2 Patientenüberwachung und Therapie
an der EKZ Während der EKZ wird die Herz- und Kreislauffunktion, der Gasaustausch, der Säure-Basen-Haushalt und die Nierenfunktion überwacht, um einen sicheren und kontrollierten Operationsablauf zu gewährleisten. Alle lebensnotwendigen Parameter sind vom Kardiotechniker in einem Gesamtbild zu erfassen. Die richtige Interpretation sich verändernder Parameter ist ausschlaggebend, um mögliche Komplikationen frühzeitig zu erkennen und therapeutische Maßnahmen einzuleiten.
26
474
III
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
Als übliche Überwachungsparameter zählen das Elektrokardiogramm (EKG) und die hämodynamischen Parameter wie der mittlere arterielle Druck (MAD), der zentralvenöse Druck (ZVD), der Pulmonalarteriendruck (PAP) und der Druck im linken Vorhof (LAP). Des Weiteren werden die Patiententemperaturen (rektal, ösophageal oder nasopharyngeal) zur Steuerung der Hypothermie und Wiedererwärmung gemessen und überwacht. Nicht selten wird zusätzlich die myokardiale Temperatur gemessen, denn eine Spülung mit 4°C kalter Ringer-Laktatlösung in den Herzbeutel (topische Kühlung) verlängert die Ischämietoleranz des Herzens.
Hämodynamik Im Vordergrund der hämodynamischen Überwachung steht der arterielle Blutdruck. Der arterielle Blutdruck kann bei einer nicht pulsatilen Perfusion nur als mittlerer arterieller Druck (MAD) registriert werden, bei einer pulsatilen Perfusionstechnik können zusätzlich systolische und diastolische Drücke verzeichnet werden. Die Meinungen über einen idealen Perfusionsdruck sind von Klinik zu Klinik sehr unterschiedlich. Es sollten jedoch i. d. R. bei Erwachsenen durchschnittliche Perfusionsdrücke von 60–70 mmHg, bei Kindern und Säuglingen von 30–50 mmHg angestrebt werden, wobei aus Kliniken, in denen eine Low-flow-lowpressure-Methode angewendet wird, ebenfalls sehr gute Resultate vorliegen. Demnach hat der Perfusionsdruck im Gegensatz zum Perfusionsfluss, der für eine ausreichende Organperfusion und Mikrozirkulation absolut notwendig ist, nur einen untergeordneten Stellenwert. Der MAD kann durch die beiden Größen Pumpenminutenvolumen (PMV) und totaler peripherer Gefäßwiderstand (TPR) gesteuert werden. Eine Reduzierung des PMV hat auch unweigerlich einen Abfall des MAD zur Folge, eine Erhöhung des PMV einen Anstieg des MAD in Abhängigkeit des TPR. Der TPR kann zusätzlich medikamentös durch Verabreichung von gefäßerweiternden (Vasodilatatoren), gefäßverengenden Arzneistoffen (Vasopressoren) und durch Narkosemittel beeinflusst werden.
O2-Angebot Wie beim physiologischen Atemgasaustausch durch die Lunge muss der O2-Bedarf der einzelnen Organe auch während der EKZ zur Verfügung gestellt werden. Das O2Angebot an den Organismus ist abhängig vom arteriellen O2-Gehalt (aO2) und dem Fluss (Q):
O2 Angebot
Q u aO2 .
Der O2-Verbrauch errechnet sich aus dem Produkt von Fluss (Q) und der arteriovenösen O2-Konzentrationsdifferenz (avDO2):
O2 Verbrauch
Q u avDO2 .
Die Versorgung der Organe mit Sauerstoff hängt von der Position der O2-Bindungskurve, die sigmoid verläuft, bzw. vom P50 ab. Der P50 ist der sog. O2-Halbsättigungsdruck, bei welchem das Hämoglobin (Hb) zu 50% mit O2 gesättigt ist. Die Bedeutung des P50 für die O2-Versorgung der Organe und Gewebe ist um so größer, je stärker die O2Transportkapazität während der EKZ eingeschränkt ist. Kommt es zu einer Linksverschiebung der O2-Bindungskurve z. B. durch Hypothermie, nimmt der P50 aufgrund einer höheren O2-Affinität des Hb ab. Die O2-Abgabe in den Organen und Geweben verschlechtert sich. Eine Rechtsverschiebung der O2-Bindungskurve z. B. durch Temperatursteigerung oder Azidose führt hingegen dazu, dass die O2-Affinität des Hb abnimmt und der P50 ansteigt, was die O2-Abgabe an das Gewebe begünstigt. Eine einfache und sichere Methode zur Überwachung eines adäquaten O2-Angebots während der EKZ ist ein kontinuierliches Monitoring der arteriellen (saO2) und der gemischtvenösen O2-Sättigung (svO2) an der HLM. Die arterielle O2-Sättigung ist dabei ein aussagekräftiger Parameter, um die Oxygenierungsleistung zu beurteilen, die gemischtvenöse O2-Sättigung zeigt ein eventuelles Missverhältnis von O2-Angebot und O2-Bedarf an.
Blutgasanalyse und Management des Säure-Basen-Status Während der hypothermen EKZ können 2 verschiedene Methoden angewendet werden, um den Säure-Basen-Status zu steuern. Es gibt dabei unterschiedliche Meinungen, welches der beiden Regime die physiologischere Variante zur Steuerung des Säure-Basen-Haushalts darstellt. Die pH-stat-Messmethode beruht auf der Tatsache, dass ein pCO2 von 40 mmHg und ein pH-Wert von 7,40 als die Normalwerte anzusehen sind, ohne dabei die aktuelle Temperatur zu berücksichtigen. Die bei 37°C gemessene Blutgasanalyse wird auf die aktuelle Bluttemperatur angeglichen. Unter dem Verfahren der pH-stat-Methode muss der Partialdruck des CO2 durch Zuführung von CO2 in den Oxygenator konstant gehalten werden, um die Menge des zusätzlich im Blut gelösten Kohlendioxids zu ersetzen. Dies entspricht einem Zustand von respiratorischer Azidose und Hyperkapnie. Die α-stat-Messmethode basiert hingegen auf der Grundlage, dass der pH-Wert, der bei 37°C gemessen wird, nicht auf die aktuelle Bluttemperatur des Patienten korrigiert wird. Unter hypothermen Bedingungen würde dies bedeuten, dass der pCO2 erniedrigt und der pH-Wert erhöht sein müsste und demzufolge eine Hypokapnie bzw. respiratorische Alkalose vorliegt. Welche der beiden Methoden zur Regulation des Säure-Basen-Status während eines hypothermen Kreislaufs die bessere ist, konnte bislang noch nicht geklärt werden. Die α-stat-Methode bringt gegenüber der pHstat-Methode jedoch eine Reihe von Vorteilen mit sich:
475 26.5 · Monitoring der EKZ
▬ Unter dem α-stat-Regime korreliert der zerebrale
Hypothermie
Blutfluss mit dem zerebralen O2-Verbrauch während Hypothermie. Die zerebrale Autoregulation bleibt intakt. ▬ Aufrechterhaltung eines physiologischen pH-Werts im Intrazellulärraum.
Die künstliche Herabsetzung der Körpertemperatur (induzierte Hypothermie) während der EKZ reduziert den Stoffwechsel des Organismus und ermöglicht es somit, den O2-Bedarf der Gewebe für den Zeitraum der Hypothermie zu verringern. Die eigentliche Umsetzung der Hypothermie erfolgt durch Blutstromkühlung mittels eines im Oxygenator integrierten Wärmetauschers. Schon bei einer Senkung der Körperkerntemperatur z. B. auf 30°C erfolgt eine Abnahme des O2-Verbrauchs um ca. 50%. Gleichzeitig wirkt die Hypothermie protektiv auf die Organe und führt zu einer Verbesserung der Ischämietoleranz der einzelnen Gewebe. Zwar werden heutzutage die sog. Standardoperationen immer mehr in normothermer und leichter Hypothermie durchgeführt, andererseits aber kann bei einigen chirurgischen Interventionen, die einen zeitweiligen Kreislaufstillstand oder eine Low-flow-Perfusion erforderlich machen, auf die tiefe systemische Kühlung des Patienten nicht verzichtet werden. Ein Vorteil der Hypothermie besteht sicherlich darin, dass bei Auftreten von unvorhersehbaren Komplikationen während der EKZ, wie z. B. das Versagen des Oxygenators oder Ausfall der arteriellen Pumpe, dem Kardiotechniker für die Problemlösung deutlich mehr Reaktionszeit zu Verfügung steht. Im Fall eines Oxygenatortauschs verursacht die notwendige kurzzeitige Unterbrechung der Perfusion (ca. 1–3 min) i. d. R. keine irreversiblen zerebralen Schäden am Patienten, vorausgesetzt, der Wechsel wird in angemessener Hypothermie durchgeführt. Neben den Vorteilen der Hypothermie bestehen auch negative Effekte wie z. B. der Viskositätsanstieg des Blutes, der sich besonders bei hohem Hämatokritwert ungünstig auf die Mikrozirkulation auswirkt. Die Viskositätssteigerung kann jedoch durch entsprechende Blutverdünnung (Hämodilution) je nach Temperaturgrad stufenweise kompensiert werden. Des Weiteren bewirkt die Hypothermie eine Linksverschiebung der O2-Bindungskurve, sodass die Abgabe des Sauerstoffs in das Gewebe bei gleicher Höhe des pO2 im Blut erschwert wird. Die Hypothermie wird klinisch in Abhängigkeit der angestrebten Temperatur in verschiedene Stufen eingeteilt, wobei von der Körperkern- bzw. Rektaltemperatur ausgegangen wird (⊡ Tab. 26.2).
Da jedoch auch Vorteile auf Seiten des pH-stat-Regimes bei tiefer Hypothermie aufgrund einer verbesserten zerebralen Durchblutung und Kühlung besteht, könnten beide Regime (pH-stat während der hypothermen Phase und α-stat während der Aufwärmphase) zur Anwendung kommen.
Blutgerinnung Voraussetzung für die Aufnahme der EKZ ist die systemische Heparinisierung des Patienten. Die zu verabreichende initiale Dosis von Heparin zur Antikoagulation reicht von 200–400 IE/kg KG. Die Antikoagulation im kardiopulmonalen Bypass wird überwiegend in Form der »activated clotting time« (ACT) überwacht und bestimmt. Um Gerinnungskomplikationen während der Aufnahme der EKZ zu vermeiden, wird dem Priming der HLM bereits ein Teil der Heparindosis – je nach Klinik und Gerinnungsmanagement variiert diese bei Erwachsenen zwischen 2500 IE und 10.000 IE – zugesetzt. Die Verabreichung der Initialdosis erfolgt über einen zentralvenösen Zugang oder mittels Injektion in den rechten Vorhof oder die Aortenwurzel. Bevor die EKZ aufgenommen werden kann, sollte unbedingt 2–5 min nach Verabreichung der Heparindosis primär eine ACT-Kontrolle erfolgen. Grundsätzlich ist anzumerken, dass bei einer ACT von <400 s die EKZ nicht begonnen werden sollte. In diesem Fall muss eine weitere Kontroll-ACT erfolgen und ggf. Heparin nachdosiert werden. Während des kardiopulmonalen Bypasses sollten ACT-Werte von >400 s angestrebt werden und in jedem Fall bei Absinken des Wertes von <400 s immer Heparin im Bolus von 5000–10.000 IE substituiert werden. Nach Beendigung der EKZ erfolgt die Antagonisierung des Heparins mit Protamin im Verhältnis 1:1 zur primär verabreichten Heparindosis. Demnach sollte nach der Antagonisierung ein Normalwert der ACT bzw. ein ACT-Wert <130 s angestrebt werden. Die Protamingabe erfolgt im Gegensatz zur Heparingabe nicht im Bolus, sondern als Kurzinfusion über ca. 5–10 min, da nicht selten bei einer zu schnellen Verabreichung eine periphere Gefäßerweiterung in Verbindung mit einem Blutdruckabfall und einer Kardiodepression beobachtet wurde. Unmittelbar nach dem Start der Protamingabe sollte die Kardiotomiesaugung eingestellt und auf eine Substitution von Blutvolumen aus der EKZ über die Aortenkanüle verzichtet werden, um thrombembolische Komplikationen zu vermeiden.
⊡ Tab. 26.2. Hypothermiestufe in Abhängigkeit von der Körperkern- bzw. Rektaltemperatur Hypothermiestufe
Temperatur [°C]
Leichte Hypothermie
37–32°
Moderate Hypothermie
32–28°
Tiefe Hypothermie
28–18°
Profunde Hypothermie
18–4°
26
476
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
Urinproduktion
III
Während der extrakorporalen Zirkulation ist die Nierenfunktion anhand der Urinproduktion kontinuierlich zu überprüfen. Eine Urinproduktion von 0,5–1,0 ml/kgKG/h wird während des Zeitraums an der EKZ als angemessen angesehen. Um eine ausreichende Diurese zu gewährleisten, sind adäquate Perfusionsflüsse und -drücke notwendig. Wird während der EKZ ein Rückgang der Urinausscheidung verzeichnet, sollte der Perfusionsdruck primär durch Steigerung des Perfusionsminutenvolumens und erst bei nicht erfolgtem Effekt durch medikamentöse Therapie angehoben werden. Die Diurese sollte nur dann zusätzlich medikamentös durch Schleifendiuretika (Furosemid) therapiert werden, wenn ein Volumenüberschuss bzw. eine zu hohe Hämodilution bei normothermer Perfusion vorliegt.
26.5.3 Komplikationen an der EKZ
Im Rahmen der Weiterentwicklungen auf dem Gebiet der HLM-Gerätetechnologie, der Verbesserung von Überwachungsfunktionen und kontinuierlichem Patientenmonitoring, der Verfeinerung von chirurgischen Operations- und Perfusionstechniken ist die Häufigkeit der sog. Perfusionszwischenfälle in der heutigen Zeit zwar deutlich gesunken, jedoch sind diese trotzdem aufgrund von Fehlmanipulationen oder -interpretationen von Geschehnissen während des kardiopulmonalen Bypasses nicht völlig auszuschließen. Deshalb ist es entscheidend, präventive Maßnahmen zum frühzeitigen Erfassen solcher Zwischenfälle zu ergreifen, um diese weitestgehend zu vermeiden. Hinzu kommen die Perfusionszwischenfälle, die nicht unmittelbar durch den Anwender ausgelöst werden, wie z. B. ein Totalausfall der arteriellen Blutpumpe aufgrund eines technischen Defektes. Auch in solchen Situationen muss der Kardiotechniker in der Lage sein, schnellstmöglich zu reagieren und die Perfusion mittels einer Ersatzpumpe weiterführen, um irreversible Schäden des Patienten zu vermeiden. Im Folgenden werden die noch heute registrierten möglichen Perfusionszwischenfälle des kardiopulmonalen Bypasses aufgeführt.
Fehllage der arteriellen Kanüle Die korrekte arterielle Kanülierung des betreffenden Gefäßes (Aorta ascendens, A. femoralis etc.) und die richtige Wahl der verwendeten Kanüle (Dimension, Ausführung) ist maßgeblich für eine adäquate Körperperfusion. Häufigste Ursachen von kanülenbedingten Komplikationen sind zu klein dimensionierte arterielle Perfusionskanülen oder auch materialbedingte Fehler. Des Weiteren können aber auch beim Kanülierungsvorgang und im intraoperativen Verlauf Komplikationen auftreten, die für den
Patienten im Nachhinein folgenschwere Auswirkungen mit sich bringen können. Dazu zählen: ▬ Aortendissektion, ▬ Displatzierung der arteriellen Kanüle, ▬ Dislokation der arteriellen Kanüle.
Fehllage der venösen Kanüle(n) Da die Drainage des venösen Blutes aus dem Patienten in die HLM i. d. R. unter Ausnutzung des hydrostatischen Gefälles geschieht, ist der Rückfluss des Blutes zum einen abhängig vom zentralen venösen Druck, dem Widerstand der venösen Kanüle(n) und zum anderen von der Schlauchdimension der venösen Linie. Die richtige Auswahl der Kanülengröße kann mittels von den Herstellern erstellten sog. Flow-Charts, die das Durchflussvermögen der Kanüle beschreiben, relativ leicht für die entsprechenden Erfordernisse ermittelt werden. Eine zu klein dimensionierte Kanüle kann während des totalen kardiopulmonalen Bypasses erheblich zur Limitierung des venösen Rückflusses beitragen und u. U. zu Stauungsproblemen mit Rechtsherzdilatation führen. Dies würde den Kardiotechniker dazu zwingen, bedingt durch das Absinken des Blutniveaus im Oxygenator oder Reservoir, das Pumpenminutenvolumen entsprechend den Gegebenheiten zu reduzieren bzw. anzupassen. In jedem Fall sollte bei diesem Ereignis eine Fehlerbehebung z. B. durch Umkanülierung oder zusätzliche Kanülierung stattfinden, um eine angemessene Perfusion fortführen zu können. Es können aber auch andere Faktoren eine Behinderung der venösen Drainage auslösen: ▬ Dislokation der venösen Kanüle(n), ▬ Displatzierung der venösen Kanüle(n), ▬ massive Luft in der venösen Linie (»airblock«), ▬ Verlegung der venösen Linie, ▬ Herzluxation, ▬ hypovolämischer Zustand des Patienten, ▬ unzureichendes hydrostatisches Gefälle.
Arterielle Luftembolien Die systemische arterielle Luftembolie gehört wohl zu den schwerwiegendsten Komplikationen im kardiopulmonalen Bypass und kann auf die verschiedenste Weise ausgelöst werden. Zu den häufigsten Ursachen der arteriellen Luftembolie gehören das Arbeiten mit zu niedrigen Reservoirlevels, Luftembolisierung über Kardioplegiekanülen, Luftapplikation durch den in die falsche Richtung laufenden Ventsauger, Oxygenatordefekte, Diskonnektion des Schlauchsystems, Materialermüdung mit Ruptur des arteriellen Pumpensegments und aggressives Aufwärmen des Patienten. Die Liste der Komplikationen könnte aufgrund der in der Literatur beschriebenen Vielfältigkeit der Ereignisse noch um Etliches weitergeführt werden. Für den Patienten
477 26.6 · Differenzierung von HLM-Geräten
kann die arterielle Luftembolie je nach Menge und Intensität der Luftzuführung katastrophale Folgen mit irreversiblen Organschäden zur Folge haben. Aufgrund der zu befürchtenden hypoxischen Hirnschäden müssen bei Erkennung einer arteriellen Luftembolie sofortige Maßnahmen zur Reduzierung der Folgeschäden eingeleitet werden. Sollte es trotz aller Präventivmaßnahmen (Niveausensor, Luftblasensensor, arterieller Filter) zu einer Luftembolie kommen, sind umgehend Maßnahmen zu treffen, die sich nicht nur auf die Entfernung der Luft aus dem systemischen Kreislauf beschränken: ▬ sofortige Unterbrechung des kardiopulmonalen Bypasses und maximale Trendelenburg-Lagerung (Kopftief-Position) des Patienten; ▬ Dekanülierung der Aortenkanüle und Entlüftungsmanöver über die Inzisionstelle unter Zuhilfenahme eines Saugers; ▬ Entlüftung der arteriellen Linie und Aortenkanüle; ▬ hypotherme, retrograde Perfusion über die obere Hohlvene, bis keine Luft mehr über der Aortenwurzel zu verzeichnen ist; ▬ intermittierende Komprimierung der beiden Karotiden; ▬ Hypertension mittels Vasokonstriktoren, ▬ medikamentöse Therapie mit Steroiden und Barbituraten; ▬ antegrade hypotherme (ca. 20°C) über 45 min dauernde Perfusion (Hypothermie verbessert die Gaslöslichkeit!); ▬ hyperbare Sauerstofftherapie als Ultima-ratio-Maßnahme.
Oxygenatorversagen Eine unzureichende Oxygenatorleistung kann u. U. während des kardiopulmonalen Bypasses zu schwerwiegenden Folgen mit hypoxischen Organschäden führen. Diverse Überwachungsmöglichkeiten (arterielle O2-Sättigung, arterielle Blutgase und visuelle Beurteilung) tragen dazu bei, um die Gasaustauschleistung des Oxygenators relativ schnell zu interpretieren und bei Komplikationen Sofortmaßnahmen einleiten zu können. Schon beim Start der extrakorporalen Perfusion kann durch den Kardiotechniker rein visuell eine Beurteilung des zurückgeführten arteriellen Blutes erfolgen. Werden zu Beginn der Perfusion eine deutlich reduzierte arterielle O2-Sättigung und inakzeptable arterielle pO2-Werte bei ausreichender Ventilation der zugeführten Gase registriert, muss davon ausgegangen werden, dass ein Oxygenatorversagen durch einen Materialfehler der Membran oder aber ein produktionsbedingter Fehler des Oxygenatormoduls vorliegt. Befindet sich der Patient noch im Stadium Normothermie und partieller Bypass, sollte unbedingt ein Weaning des Patienten von der HLM erfolgen, um den defekten Oxygenator zu tauschen.
In der einschlägigen Literatur wird das Auftreten eines abnormalen Druckgradienten über die Oxygenatormembran (»high pressure drop excursion«) beschrieben, das nicht produktspezifisch ist und sowohl bei Routine- als auch bei Notoperationen vorkommen und im Extremfall zum totalen Oxygenatorversagen führen kann. Durch Manifestation von Fibrinauflagerungen und zellulären Adhäsionen (Thrombozyten und Leukozyten) im Oxygenator kommt es zu einer Reduzierung des Querschnitts im Blutpfad des Oxygenators, so dass sich der Widerstand des Blutflusses kritisch erhöht. Das typische Phänomen beginnt in der frühen Phase des kardiopulmonalen Bypasses und erreicht seine Spitzenwerte nominell nach 10–45 min. Die Schwere des Ereignisses ist abhängig von der Größenordnung der Ablagerungen auf der Oxygenatormembran. Die Druckerhöhung kann im Einzelfall jedoch so massiv und anhaltend sein, dass ein Oxygenatortausch während der laufenden EKZ unumgänglich ist.
Technisch bedingte Zwischenfälle Die Unterbrechung der Stromversorgung im OP während der EKZ stellte in der Vergangenheit eine schwerwiegende Problematik dar, da nicht nur die arterielle Pumpe, sondern das Gesamtsystem vom Ausfall betroffen war. Um den Sicherheitsansprüchen und vor allen Dingen den sicherheitstechnischen Forderungen der heutigen Zeit gerecht zu werden, verfügen moderne HLM über eine netzunabhängige interne Notstromversorgung. Der Batteriebetrieb mit der Notstromversorgung (ununterbrochene Stromversorgung, USV) erlaubt es, das gesamte System über einen Zeitraum von ca. 20–130 min (abhängig von der Anzahl der Verbraucher) zu betreiben. Die USV schaltet bei Ausfall der Stromversorgung oder des Netzteils über einen internen elektrischen Schalter automatisch die Akkumulatoren ein und bei Rückkehr der Stromversorgung automatisch wieder ab. Ein zusätzliches USV-Steuermodul ermöglicht es, bei Netzausfall den Entladezustand der Batterien zu überwachen und die Restzeit anzuzeigen. Bei technisch bedingtem Störfall der arteriellen Rollerpumpe ermöglicht es der Pumpenbetrieb mit der Handkurbel als letzte Sicherheitsmaßnahme, die extrakorporale Perfusion aufrecht zu erhalten. Kann der Störfall nicht unmittelbar nach dem Ereignis behoben werden, sollte nach Stabilisierung der Situation ein Austausch der defekten Rollerpumpe oder das Umlegen des arteriellen Pumpensegments in eine Ersatzrollerpumpe erfolgen.
26.6
Differenzierung von HLM-Geräten
HLM-Geräte werden unter Berücksichtigung sicherheitstechnischer Aspekte, Funktionalität, ergonomischen Aspekten, der Prämisse einer optimalen Benutzerführung und der intuitiven Bedienung konstruiert und entwickelt.
26
478
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
Entscheidend ist es, dem Anwender ein sicheres, auf dem heutigen Stand der Technik befindliches, einfach überwachbares und bedienbares System zur Verfügung zu stellen. Die wesentlichen Unterscheidungsmerkmale von HLM-Geräten beschränken sich daher hauptsächlich auf den konzeptionellen Aufbau und sind durch modulare oder nicht modulare Bauweise geprägt.
III
platziert und über eine Steckverbindung an den Elektronik- und Notstromblock (E/N-Block) angeschlossen. Das Bedienpult (⊡ Abb. 26.11) dient zur Aufnahme sämtlicher modularer Überwachungs-, Steuer- und Messgeräte. Da unterschiedliche Operationen auch unterschiedlichen Überwachungsaufwand erfordern, stehen dem Anwender Bedienpulte zur Verfügung, die die Aufnahme einer verschiedenen Anzahl von Bedienmodulen ermöglichen.
26.6.1 Modulare Systeme
Das modulare Konzept von HLM-Systemen (⊡ Abb. 26.10) hat den Vorteil, dass es dem Anwender ein Höchstmaß an Flexibilität bietet. Das Gesamtsystem ist individuell konfigurierbar und erlaubt dem Anwender, eine HLM nach seinen klinischen Anforderungen zu konfigurieren. Den Anwendungsbedürfnissen entsprechend können einzelne Komponenten, Module und Zubehörteile nachträglich ergänzt oder bei einem Defekt ausgetauscht werden. Der Umbau bzw. die Systemerweiterung mit zusätzlichen Überwachungs-, Steuer- und Messgeräten ermöglicht es, die HLM für unterschiedliche Perfusionsaufgaben zu nutzen. Modulare Systeme bestehen aus einer fahrbaren Grundkonsole, die je nach Konfiguration die Aufnahme von 3–6 Rollerpumpen ermöglicht. Die modularen Rollerpumpen sind die Grundbausteine des Perfusionssystems. Sie werden auf dem Pumpentisch der Konsole
Modulare Systeme für spezielle Anwendungsbereiche Die Kriterien und Anforderungen an eine Kinder- oder Säuglingsperfusion unterscheiden sich deutlich von einer Erwachsenenperfusion. Nicht nur, dass das Perfusionsminutenvolumen und der Perfusionsdruck den Erfordernissen des kleineren Körpergewichtes und der kleineren Körperoberfläche angepasst werden müssen, auch der Anteil der Fremdoberfläche des extrakorporalen Systems gegenüber der Körperoberfläche des Patienten ist um ein Mehrfaches höher als beim Erwachsenen. Die Anordnung der Rollerpumpen an ein flexibles Anbaumastsystem (⊡ Abb. 26.12) mit schwenkbarem Auslegerarm ermöglicht es, den Aufbau der einzelnen Komponenten des extrakorporalen Systems in direkter Nähe des Patienten zu platzieren. Ergebnis dieses speziellen Konzeptes ist die Reduktion von Fremdoberfläche durch verkürzte Schlauchwege und die Reduktion von Primingvolumen.
Sonderanfertigungen Sonderanfertigungen von HLM sind i. d. R. selten. Die Umsetzung von kundenspezifischen Vorgaben ist durch den erhöhten Entwicklungsaufwand und die gewünschten Modifikationen sehr kostenintensiv. Auch bei Sonderanfertigungen wird meistens auf standardisierte Komponenten zurückgegriffen, die dann in eine nach Anwenderangabe konstruierte Konsole integriert werden. Dies wird im Allgemeinen mit einer Erweiterung der Überwachungselektronik kombiniert. Auch Sonderanfertigungen müssen, bevor sie klinisch eingesetzt werden können, die entsprechenden Zulassungsprüfungen durchlaufen und ein CE-Zeichen aufweisen.
26.6.2 Nicht modulare Systeme
⊡ Abb. 26.10. Modulare HLM
Entgegen der modularen Bauweise handelt es sich hierbei um eine Systemkonfiguration, bei der die Anzahl, die Ausführung und Anordnung der Rollerpumpen sowie der Umfang des Monitorings mit seinen Überwachungsund Steuerfunktionen bereits durch das Konzept und die Konstruktion bestimmt wird (⊡ Abb. 26.13). Das System verfügt über alle entscheidenden Überwachungs- und Steuerfunktionen wie z. B. Luftblasenüber-
479 26.7 · Sicherheitstechnische Aspekte
⊡ Abb. 26.13. Kompakte HLM in nichtmodularer Bauweise
⊡ Abb. 26.11. Bedienpult zur Aufnahme der Überwachungs-, Steuerund Messgeräte und dem zentralen Anzeige- und Bedienmodul (ZAB). Die Bedienmodule der Überwachungs-, Steuer- und Messgeräte können auf dem Bedienpult untereinander beliebig gesteckt werden
wachung, Niveauüberwachung, Doppeldrucksteuerung, Kardioplegiesteuerung, Temperaturüberwachung und Zeitnehmer. Die Rollerpumpen sind bei diesem System in das Gehäuse, die Standardüberwachungsfunktionen in einem Bedienpult der HLM fest integriert und können untereinander nicht getauscht werden. Eine Systemerweiterung mit weiteren Rollerpumpen, Überwachungs-, Steuer- und Messgeräten ist im Vergleich zur modularen Bauweise nur eingeschränkt möglich. Anders als bei modularen Systemen können die Grundbausteine der HLM bei technischem Defekt ausschließlich durch autorisiertes Servicepersonal ausgetauscht werden.
26.7
⊡ Abb. 26.12. HLM mit schwenkbarem Mastsystem, 2 Mastpumpen und einer modularen Rollerpumpe
Sicherheitstechnische Aspekte
HLM-Geräte müssen unter dem Gesichtspunkt der Sicherheitsoptimierung entworfen, konstruiert und gefertigt werden. Die Technik der Systeme muss für den Anwender beherrschbar sein, insbesondere bei auftretenden unerwünschten Ereignissen. Das Erkennen von Gefahren, die zwangsläufig beim Einsatz von technischen Geräten und bei der Interaktion von Mensch und Maschine entstehen, muss deshalb im Mittelpunkt jeder Sicherheitsbetrachtung stehen. Die höchste Sicherheitsanforderung für die Anwendung der HLM ist die Aufrechterhaltung des Blutkreislaufs des Patienten. Der Kardiotechniker trägt wesentlich zur Sicherheit des Verfahrens bei. Ziel ist es, präventive Lösungen zu finden, die das Eintreten eines oder mehrerer unerwünschter Ereignisse
26
480
III
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
verhindern. Als Sicherheitsminimalanforderung ist die Erfüllung der gesetzlichen Bestimmungen (grundlegende Anforderungen) und der einschlägigen Normen anzusehen. Eine wichtige Präventivmaßnahme ist die Risikoanalyse, die in Anlehnung an die EN 1441 zum Risikomanagement erweitert wurde. Das Risikomanagement verlangt über die reine Risikoanalyse hinaus eine Entscheidung über die Akzeptierbarkeit von Risiken, Maßnahmen zu deren Reduzierung sowie die Überprüfung der getroffenen Maßnahmen. Sollte es trotz der ergriffenen Maßnahmen zu einem unerwünschten Ereignis kommen, muss eine zielgerichtete Reaktion erfolgen, d. h. ein sicherer Zustand festgelegt werden, der so definiert ist, dass die Gesundheit und Sicherheit des Patienten und Anwenders möglichst wenig beeinträchtigt wird. Da die Wahrscheinlichkeitseinschätzung von einer genauen Zuordnung der Gefährdungen abhängt, müssen diese folgendermaßen klassifiziert werden: 1. nicht beabsichtigtes unerwünschtes Ereignis, wie z. B. Pumpe stoppt – bedingt durch einen technischen Defekt; 2. beabsichtigtes unerwünschtes Ereignis, wie z. B. Pumpe stoppt – ausgelöst durch das Erkennen einer Luftblase im Schlauchsystem. Eine Unterbrechung der Funktion mit Alarmgabe ist bei lebenserhaltenden Systemen kein sicherer Zustand. Ein kurzzeitiger Pumpenstopp kann jedoch unter bestimmten Bedingungen in Kauf genommen werden, um eine Gefährdung durch ein unerwünschtes Ereignis, wie z. B. Lufteintritt in das Schlauchsystem, abzuwenden. Nachfolgende Normen sind für die Auslegung von HLM-Geräten verbindlich einzuhalten: ▬ Richtlinie 93/42 EWG bzw. MPG, ▬ ISO 9000 ff., ▬ EN 46001, ▬ EN 601-1-1, EN 601-1-2, EN 601-1-4 (um die Wichtigsten zu nennen), ▬ EN 1441, ▬ DIN VDE 0801. Alle Anforderungen sind zu Beginn der Entwicklung festzulegen und in System-, Geräte- und Komponentenspezifikationen umzusetzen. Eine Risikoanalyse zu jeder Funktion und zum Gesamtsystem ist zu erstellen. Es sind Maßnahmen zur Fehlerbeherrschung aufzuzeigen und durch Rechnung und Versuche zu belegen. Alle Entwicklungsversuche sowie die gesamte Dokumentation ist in einem sog. Master-File festzuhalten. HLM-Geräte müssen in jedem Fall erstfehlersicher konstruiert sein, d. h. ein beliebiger Fehler, wie z. B. Bauteileversagen durch Kurzschluss oder Unterbrechung, darf das Gerät nicht in einen unkontrollierbaren Betriebszustand bringen. In jedem Fall muss der Fehler erkannt und mit
Alarmgabe angezeigt sowie die Funktion in einen Stoppzustand versetzt werden. Der Kardiotechniker entscheidet dann, mit welcher Maßnahme weitergearbeitet werden kann. Fällt z. B. eine Pumpe durch Motorversagen aus, kann das entsprechende Schlauchsegment in eine Reservepumpe eingelegt, oder notfalls kann die Pumpe mit einer Handkurbel bedient werden. Fällt z. B. der Niveausensor am Kardiotomiereservoir oder am Oxygenator aus, kann unter manueller Überwachung des Niveaus durch den Kardiotechniker die entsprechend zugeordnete Pumpe bezüglich Förderleistung gestoppt oder verlangsamt werden. Zur Überprüfung der Alarm-/Sicherheitsfunktionen führt das Gerät beim Einschalten eine Selbsttestroutine, den sog. T1-Test, durch. Während des Betriebs werden alle sicherheitsrelevanten Funktionen zyklisch geprüft (T0-Test). Der Nachweis der »Erstfehlersicherheit« ist Voraussetzung für die Zulassung. Selbstverständlich müssen auch die Erfordernisse der elektrischen Sicherheit, der elektromagnetischen Verträglichkeit, der Explosionssicherheit und des Brandschutzes sowie der Umwelterfordernisse im OP (z. B. Temperaturbereich) eingehalten werden. Dazu kommen Prüfungen über Transport- und Lagerungsbelastungen. Für den Anwender sind weiterhin Nachweise der adäquaten Ergonomie, der Reinigungsmöglichkeit und Desinfizierbarkeit von Interesse. Es sei darauf hingewiesen, dass die Gebrauchsanweisung Bestandteil des Gerätes ist und ebenfalls im Zuge des Zulassungsverfahrens überprüft wird. Die Gebrauchsanweisung trägt als beschreibende Sicherheit wesentlich zum sicheren Betrieb des Gerätes bei. Neben der reinen Beschreibung der Bedienung des Gerätes sind deshalb auch Hinweise zur Fehlerprävention sowie Warnhinweise vor unerlaubten Betriebszuständen oder Kombinationen mit nicht getesteten oder nicht zugelassenen weiteren Geräten enthalten. Herz-Lungen-Maschinen sind Geräte der Klasse IIb MPG und müssen mindestens einmal jährlich im Krankenhaus einer sicherheitstechnischen Kontrolle unterzogen werden. Die Übergabe an den Betreiber schließt ebenfalls eine Überprüfung ein, die zusätzlich zu dokumentieren ist. Der Betreiber muss des Weiteren in die Gerätefunktion bei der Übergabe formal eingewiesen werden. Das Ergebnis ist ebenfalls zu dokumentieren. Nach Auslieferung hat der Hersteller für ein effizientes Complaint- und Marktbeobachtungswesen (»vigilance system«) zu sorgen. Es wird unterschieden in Störungen/Fehler, die den Patienten nicht gefährdet haben, und Störungen mit Patientengefährdung (Vorkommnisse oder Beinahevorkommnisse), die den Aufsichtsbehörden (Gesundheitsamt) gemeldet werden müssen. Der Hersteller hat immer die Pflicht, Fehler zu dokumentieren, die Ursache zu ermitteln, wenn nötig Korrekturmaßnahmen einzuleiten und bei meldepflichtigen
481 Literatur
Störungen die zuständigen Behörden (in Deutschland das Gesundheitsamt) zu informieren. Die Behörde entscheidet bei meldepflichtigen Vorkommnissen über das weitere Vorgehen, das z. B. die Stilllegung von Geräten oder die Nachbesserung an allen ausgelieferten Geräten enthalten kann. Weiterhin hat der Hersteller die Verwendung der Geräte zu kontrollieren und bei bekannt gewordenen Verwendungen, die nicht dem bestimmungsgemäßen Gebrauch entsprechen, Maßnahmen zu ergreifen. Dazu gehört die Marktbeobachtungspflicht, auch VigilanceSystem genannt, die gesetzlich geregelt ist. Insbesondere muss der Geräteeinsatz in Kombination mit anderen Geräten überwacht werden, da ihm der Nachweis der Kombinationssicherheit obliegt. Der Hersteller soll deshalb den Anwender auf eine nicht geprüfte und zugelassene Kombination der Geräte hinweisen.
26.8
Ausblick auf weitere Entwicklungen
Die Herzchirurgie hat sich in den letzten Jahren durch die zunehmende Anwendung minimalinvasiver und videoassistierter endoskopischer und neuerdings roboterassistierter Techniken weiterentwickelt. Die Entwicklung neuer, weniger invasiver Operationstechniken hat das Ziel, einerseits das chirurgische Trauma durch Verkleinerung des operativen Zugangs zu reduzieren und andererseits auf den Einsatz einer HLM zu verzichten. Die Verwendung der HLM in der jetzigen Form wird im Verlauf der nächsten 10 Jahre zurückgehen, während gleichzeitig Herz-Lungen-Maschinen, die die Bedürfnisse minimalinvasiver Eingriffe besser unterstützen, entwickelt und angeboten werden. Auch die Entwicklung von neuen nichtinvasiven optischen und elektrochemischen Sensorsystemen zur gleichzeitigen Erfassung funktioneller 3D- und 4D-Strukturen und Messung von verschiedenen Parametern im Gewebe wird in Zukunft dazu beitragen können, bei isolierten Organperfusionen und speziell während der Reperfusion des Herzens nach Kardioplegie, das Entstehen pathophysiologischer Abweichungen frühzeitig zu erkennen. Mit Hilfe von sensorgesteuerten Pumpensystemen zur kontrollierten antegraden und retrograden Reperfusion des Herzens und durch neuartige Mikrolichtleiterphotospektrometer zum kontinuierlichen Gewebemonitoring werden sich völlig neue Einblicke in die Funktionsweise und den Zustand des Herzmuskels eröffnen. Solche Systeme werden wesentlich dazu beitragen können, Schädigungen des Herzens während der Reperfusion nach Kardioplegie zu vermeiden und damit die postoperative Komplikationsrate deutlich zu senken. Es ist zu erwarten, dass im Rahmen der zukünftigen Entwicklungsarbeiten im Bereich der HLM sog. Expertensysteme mit einfließen werden. Diese Expertensysteme haben das Ziel, bestimmte manuelle Regeleingriffe
während der EKZ wie z. B. die Steuerung der arteriellen Blutgase am mechanischen oder elektronischen Gasblender durch ein rechnerunterstütztes Programm zu automatisieren. Parallel zur Gerätetechnik gehen die Entwicklungen in Richtung biokompatibler Oberflächen bei den verwendeten Einmalartikeln wie Oxygenatoren, Blutfiltern und Kardiotomiereservoire. Es werden komplette Schlauchsets mit biokompatibler Beschichtung angeboten, die z. B. Heparin oder Phospholipid enthalten bzw. auch direkt biokompatible Zusätze im Kunststoffgrundmaterial aufweisen. Diese Maßnahmen verhindern, dass die Gerinnungskette des Blutes aktiviert wird.
Literatur 1. Le Gallois JJC (1812) Expériences sur le principe de la vie, notamment sur celui des mouvemens du coeur, et sur le siège de ce principe; suivies du rapport fait à la première classe de l’Institut sur celles relatives aux mouvemens du coeur. D’Hautel, Paris 2. Beck A (1925) Über Bluttransfusion. München Med Wochenschau 72: 1232 3. Bigelow WG, Lindsay WK, Greenwood WF (1950) Hypothermia – its possible role in cardiac surgery: an investigation of factors governing survival in dogs at low body temperatures. Ann Thorac Surg 132: 849 4. Brown-Séquard E (1858) Recherches expérimentales sur les propriétés physiologiques et les usages du sang rouge et du sang noir et leurs principaux éléments gazeux, l’oxygène et l’acide carbonique. Journal de la Physiologie de l’Homme et des Animaux 1:95–122, 353–367, 729–735 (D’Hautel, Paris) 5. De Bakey ME (1934) Simple continuous-flow blood transfusion instrument. New Orleans Med S J 87: 386–389 6. Galetti PM, Brecher GA (1962) Heart-lung bypass: principles and techniques of extracorporeal circulation. Grune & Stratton, New York London 7. Gibbon JH Jr (1954) Application of a mechanical heart and lung apparatus to cardiac surgery. Minnesota Med 36:171–180 8. Jacobj C (1890) Apparat zur Durchblutung isolierter überlebender Organe. Archiv für Experimentelle Pathologie und Pharmakologie 26:388–391 9. Kay JP (1828) Physiological experiments and observations on the cessation of the contractility of the heart and muscles in the asphyxia of warm-blooded animals. The Edinburgh Medical and Surgical Journal 29: 37–66 10. Kirklin JW, Du Shane JW, Patrick RT (1955) Intracardiac surgery with the aid of a mechanical pump oxygenator system (Gibbon type): report of eight cases. Proceedings of Staff Meetings of Mayo Clinic 30: 201–207 11. Lewis FJ (1953) Closure of atrial septal defects with the aid of hypothermia. Experimental accomplishments and the report of one successful case. Surgery 33: 52 12. Lillehei WC (1955) Controlled Cross Circulation for direct Vision intracardiac surgery correction of ventricular septal defects, atrioventricularis communis, and tetralogy of Fallot. Postgrad Med 17: 388–396 13. Loebell CE (1849) De conditionibus quibus secretiones in glandulis perficiuntur. Dissertatio Inauguralis Marburgenis 14. Schmidt A (1867) Die Atmung innerhalb des Blutes. Zweite Abhandlung. Berichte über die Verhandlungen der königlichen sächsischen Gesellschaft der Wissenschaften zu Leipzig. Mathematisch-physische Classe 19: 99–130
26
482
III
Kapitel 26 · Herz-Lungen-Maschinen (HLM)
15. Sealy WC, Brown IW, Young WG (1958) A report on the use of both extracorporal circulation and hypothermia for open heart surgery. Ann Thorac Surg 147: 603 16. Frey M von, Gruber M (1885) Untersuchung über den Stoffwechsel isolierter Organe. 1. Ein Respirationsapparat für isolierte Organe. Archiv für Physiologie. Physiologische Abteilung des Archives für Anatomie und Physiologie 6: 519–532 17. Schröder W von (1882) Über die Bildungsstätte des Harnstoffs. Archiv für Experimentelle Pathologie und Pharmakologie 15: 364– 402 18. Zenker R (1961) Herzoperationen mit Hilfe der Herz-Lungen-Maschine. Zentralbl Chir 86: 193–199
Weiterführende Literatur Baraka HS, Baroody MA, Haroun ST (1992) Effect of α-stat vs. pH-stat strategy on oxyhemoglobin dissociation and whole-body consumption during hypothermic cardiopulmonary bypass. Anaest Analg 74: 32 Buckberg GD (1989) Antegrade/retrograde blood cardioplegia to ensure cardioplegic distribution: operative techniques and objectives. J Card Surg 4:216 Davidson KG, (1986) Cannulation for cardiopulmonary bypass. Cardiopulm Bypass 5: 115–169 Döring V, Dose H, Pokar H (1991) Kardioplegie und Myokardprotektion. In: Plechinger H (Hrsg) Handbuch der Kardiotechnik, 2. Aufl. Fischer, Stuttgart New York, S 233 Hattersley TG (1966) Activated coagulation time of whole blood. JAMA 196: 436 Klövekorn WP, Meisner H, Sebening F (1991) Technische Voraussetzung der Herzchirurgie. Kirschnersche allgemeine und spezielle Operationslehre, Bd VI. Teil 2, 2. Aufl. Springer, Berlin, S 14–43 Kurusz M, Conti VR, Arens JF, Brown B, Faulkner SC, Manning JV (1986) Perfusion accident survey. Proc Am Acad Cardiovasc Perfusion 7: 57–65 Lauterbach G (Hrsg) (1996) Handbuch der Kardiotechnik, 3. Aufl. Fischer, Lübeck Stuttgart Jena Ulm Lauterbach G (1991) Oxygenatoren. In: Plechinger H (Hrsg) Handbuch der Kardiotechnik, 2. Aufl. Fischer, Stuttgart New York, S 233 Lo HB, Hildinger KH (1991) Schlauchsystem und Kanülen. In: Plechinger H (Hrsg) Handbuch der Kardiotechnik, 2. Aufl. Fischer, Stuttgart New York, S 233 Magner JB (1971) Complications of aortic cannulation for open heart surgery. Thorax 26: 172–273 McAlpine WA, Selman MW, Kawakami T (1967) Routine use of aortic cannulation in open heart operations. Am J Surg 114: 831–834 Mills NL, Ochsner JL (1980) Massive air embolism during cardiopulmonary bypass. J Thorac Cardiovasc Surg 80: 798–817 Mora CT (1995) Cardiopulmonary bypass. Principles and techniques of extracorporeal circulation. Springer, Berlin Heidelberg New York Tokyo Plechinger H (Hrsg) (1991) Handbuch der Kardiotechnik, 2. Aufl. Fischer, Stuttgart New York Taylor KM (1988) Cardiopulmonary bypass. Chapman & Hall, London Tschaut RJ (Hrsg) (1999) Extrakorporale Zirkulation in Theorie und Praxis. Pabst Science, Berlin Düsseldorf Leipzig
27 Einsatz von Stoßwellen in der Medizin F. Ueberle 27.1 Einleitung – die historische Entwicklung – 483 27.2 Physikalische Begriffserklärung: Akustik – Schallwellen – Druckpulse – Stoßwellen – 484 27.2.1 27.2.2 27.2.3 27.2.4
Wellenformen in der Schalltherapie – 484 Schallwellen: mechanische Wellen in Medien – 485 Definition von Stoßwelle und Druckpuls – 485 Mechanische Effekte von Schallwellen an Grenzflächen – 487 27.2.5 Mechanische Effekte von Schallwellen, die durch nichtlineare Erscheinungen in Medien verursacht sind – 489 27.2.6 Thermische Effekte durch die Schallwellen – 490
27.3 Das Schallfeld eines Lithotripters – Messtechnische Grundlagen – 491 27.3.1 27.3.2 27.3.3 27.3.4
Sensoren und Messtechnik – 492 Messparameter für Lithotripterschallfelder – 493 Energiegrößen im Schallfeld – 494 Was bedeuten die Druckpulsparameter für die Wirksamkeit der Lithotripsie? – 496 27.3.5 Welche physikalischen Effekte spielen bei der Steinzertrümmerung eine Rolle? – 498 27.3.6 Wirkungen der Druckpulse auf Gewebe – 499
27.4 Erzeugung von Druckpulsen zur extrakorporalen Steintherapie (ESWL) und Schmerztherapie (ESWT) – 501 27.4.1 Punktförmige und flächige Schallquellen – 501 27.4.2 Erzeugung sphärischer Schallwellen – 501 27.4.3 Erzeugung ebener Schallwellen – 503
27.5 Praxis der Extrakorporalen Lithotripsie (ESWL) und der Extrakorporalen Stoßwellentherapie (ESWT) – 505 27.5.1 Systemkomponenten eines Lithotripters – 505 27.5.2 Ansätze zur Online-Zertrümmerungskontrolle während der Behandlung – 507
27.6 Der Patient
27.7 Bewertung der klinischen Effizienz von Lithotriptoren – 508 27.7.1 Die Kontroverse um die richtige Fokusgröße 27.7.2 Nebenwirkungen und Sicherheit – 510
Einleitung – die historische Entwicklung
Am 26.2.1980 wurde der erste Nierensteinpatient mit einer »extrakorporalen Stoßwellenlithotripsie (ESWL)« minimal invasiv von seinem Steinleiden befreit. Seit der Idee zu dieser revolutionären Behandlungsmethode waren ca. 10 Jahre Forschung und Entwicklung notwendig gewesen. Die ersten Vorschläge zur Steinbehandlung mit Schall reichen bis in die 40er Jahre des 20. Jahrhunderts zurück, als eine englische Arbeitsgruppe sich in vitro bemühte, Gallensteine mit sinusförmigem Dauerschall (CW) bei 400 kHz mit 5–60 s Dauer zu zerkrümeln, sie hatten dabei in vitro in ca. 80% Erfolg (Lamport 1950). Diese und weitere Versuche führten jedoch bei in vivoVersuchen zu starken, für die Versuchstiere letalen Gewebsschädigungen, sodass sie 1956 endgültig aufgegeben wurden (Berlinicke 1951, Mulvaney 1953, Coats 1956). Die Entdeckung, dass Stoßwellen ohne direkte Schäden durch Weichteilgewebe weitergeleitet werden konnten, war einem Zufall zu verdanken, als 1966 ein Dornier-Techniker bei Arbeiten mit Hochgeschwindigkeitsgeschossen das Target berührte, als es gerade beschossen
– 509
27.8 Fachgesellschaften für Lithotripsie und Schmerztherapie – 510 27.9 Zum Abschluss Literatur
27.1
– 507
27.6.1 Patientenlagerung bei der ESWL und ESWT – 507 27.6.2 Stein- und Patientenabhängige Einflüsse – 508
– 510
– 511
wurde (Hepp 1984). Er verspürte eine Art »elektrischen« Schlag, ohne dass es zu weiteren sichtbaren Schäden kam. Das Phänomen der Weiterleitung von Stoßwellen in Gewebe wurde bis 1971 von Dr. Hoff bei Dornier System in Friedrichshafen untersucht. Im Rahmen einer Zusammenarbeit wurde von Prof. Häusler (Saarbrücken) die Idee aufgebracht, mit Schallpulsen, die von verteilten Schallquellen durch das Körpergewebe übertragen werden, Steine zu zertrümmern. Die folgenden Forschungsarbeiten führten schnell weg von den ursprünglich unfokussierten, von Hochgeschwindigkeitsgeschoss-Einschlägen erzeugten Stößen zu fokussierten Stoßwellen, die durch eine Funkenstrecke erzeugt wurden (Rieber 1951). Nachdem 1972 die Unterstützung von Prof. Schmiedt am Klinikum Grosshadern der Universität München, mit seinen Mitarbeitern Prof. Chaussy (München) und Prof. Eisenberger (heute Stuttgart) gewonnen wurde, konnten Fördermittel des Bundes eingeworben werden, um die nachfolgenden Tierexperimente sowie später die Entwicklung einer leistungsfähigen Ortung zu ermöglichen. Nach den ersten Behandlungen von ca. 200 Patienten konnte 1983 das erste Seriengerät in Stuttgart der Öffent-
484
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
⊡ Tab. 27.1. Übersicht über etablierte und in Erprobung befindliche Anwendungen von Druckpulsen und Stoßwellen Anwendung
Klinische Untersuchungen seit
Literatur
Lithotripsie der Harnwege (Niere, Ureter)
1980/ 1983
(Chaussy 1980)
Gallenlithotripsie
1985
(Sauerbruch 1986)
Gallengang-Lithotripsie
1985
(Sauerbruch 1989) (Delhaye 1992)
Speicheldrüsen-Lithotripsie
1989
(Iro 1989)
Behandlung von verzögerter Knochenbruchheilung (Pseudarthrose)
1989
(Valchanou 1991)
Stoßwellen -Wirkung auf Tumore (mit und ohne zusätzliche Zellgifte)
1989
(Delius 1999)
Behandlung von Verkalkungen im Sehnenansatzbereich der Schulter (Tendinosis calcarea)
1993
(Loew 1993)
Schmerzbehandlung im Sehnenansatzbereich (Tennisellenbogen, Fersenspornschmerzen, Schulterschmerzen)
1992
(Dahmen 1992) (Rompe 1996)
Therapie von spastischen Bewegungseinschränkungen
1994
(Lohse-Busch 1997)
Stoßwellen -induzierte Transfektion von Zellen
1995
(Delius 1995) (Tschoep 2001)
Pankreasgang-Lithotripsie
III
Induratio Penis Plastica (Peyronie’s Disease)
1997
(Michel 2003)
Behandlung von Durchblutungsstörungen der Herzkranzgefäße
2002
(Nishida 2004)
⊡ Abb. 27.1. Das erste Seriengerät Dornier HM3 zur extrakorporalen Lithotripsie wurde 1983 eingeführt. Der Patient wurde zur Behandlung in eine wassergefüllte Wanne gebracht
lichkeit übergeben werden. Von der ursprünglich auf Nierensteine beschränkten Anwendung wurde das Verfahren zügig auf Steine im gesamten Harntrakt erweitert. 1985 begannen Versuche zur Gallenlithotripsie, die heute in bestimmten Fällen1 ebenfalls als minimal invasive extrakorporale Methode eingesetzt wird, obwohl sie durch Einführung der minimal invasiven Cholezystektomie stark an Bedeutung verloren hat.
1
(Sauerbruch 1987)
Beschränkungen sind: Ein bis maximal drei Steine, Steinmasse entsprechend max. 3 cm³, Motilität der Gallenblase gesichert. Weitere Indikationen sind Gallengangsteine sowie Pankreas-Steine, insbesondere bei multimorbiden Risiko-Patienten.
Seither wird der medizinische Anwendungsbereich dieser Energieform kontinuierlich erweitert (⊡ Tab. 27.1). Derzeit befindet sich die »Extrakorporale Stoßwellentherapie (ESWT)« zur Behandlung von Weichteilschmerzen gerade im Prozess der weltweiten klinischen Evaluierung und Zulassung. Die verwendeten Schallquellen und Systeme bei ESWL und ESWT sind eng verwandt – kein Wunder, da die ersten Versuche zur ESWT auf konventionellen Nierenbzw. Gallen-Lithotriptern stattfanden. In jüngster Zeit wird der Einsatz von Stoßwellen zur Anwendung Biotechnischer Heilmittel mit aussichtsreichen Vorergebnissen erprobt, da man herausgefunden hat, dass es unter dem Einfluss von Stoßwellen-induzierter Kavitation zu einer kurzzeitigen Öffnung von Zellmembranen kommen kann. Während der Öffnungszeit können dann Moleküle in die Zellen eindringen (Delius 1995, Tschoep 2001, Ueberle 2000). Aufgrund der engen Verwandtschaft der »ESW«-Disziplinen kann in der folgenden technischen Beschreibung weitgehend auf das Vokabular und die Erkenntnisse der ESWL zurückgegriffen werden.
27.2
Physikalische Begriffserklärung: Akustik – Schallwellen – Druckpulse – Stoßwellen
27.2.1 Wellenformen in der Schalltherapie
Die einfachste Schallwellenform ist eine sinusförmige Abfolge von Überdruck- und Unterdruckphasen. Man kann ihr – im Gegensatz zur Stoßwelle – eine eindeutige Schallfrequenz zuordnen. Ist diese Frequenz höher als ca. 16.000 Schwingungen pro Sekunde, so spricht man von
485 27.2 · Physikalische Begriffserklärung: Akustik - Schallwellen – Druckpulse - Stoßwellen
⊡ Abb. 27.2. Eine typische Stoßwelle ist gekennzeichnet durch einen Druckstoß mit extrem kurzer Anstiegszeit tr, auf den ein exponentieller Abfall folgt. Danach folgt eine Unterdruckphase von wenigen Mikrosekunden Dauer
⊡ Abb. 27.3. Schallwellen breiten sich in flüssigen und gasförmigen Medien als Dichtewellen (Longitudinalwellen) aus
Ultraschall. Verwendet man – wie z. B. bei diagnostischen Ultraschallgeräten – nur einen kurzen Zeitausschnitt von einer oder wenigen Signalperioden Länge, so kann man dies als Schallpuls bezeichnen. Ein Druckpuls besteht typisch aus einem einzigen Überdruckstoß, dem nach einem exponentiellen Abfall auf Umgebungsdruck innerhalb 1 bis 5 µs eine Unterdruckphase von einigen Mikrosekunden Dauer folgt (⊡ Abb. 27.2). Ist die Anstiegszeit des Druckpulses ausreichend kurz (wenige Nanosekunden), so spricht man von einer Stoßwelle. Danach herrscht – bis zur nächsten Welle nach etwa einer Sekunde – wieder Umgebungsdruck.
Akustische Eigenschaften von Medien Medien unterscheiden sich durch ihre mechanischen Eigenschaften wie Elastizität und Kompressibilität. Sie bestimmen die Ausbreitungsgeschwindigkeit des Schalls c sowie den Wellenwiderstand, genannt akustische Impedanz Z=ρ×c, das Produkt aus Dichte ρ und Schallgeschwindigkeit c. ⊡ Tab. 27.2 enthält einige Werte biologischer Materialien, ⊡ Tab. 27.3 fasst bekannte Daten verschiedener Steine zusammen.
27.2.3 Definition von Stoßwelle
und Druckpuls 27.2.2 Schallwellen: mechanische Wellen
in Medien Eine Schallwelle ist eine mechanische Welle, die sich in einem Medium, z. B. Gas, Flüssigkeit oder Festkörper ausbreiten kann. Im Medium ändern sich bei der Wellenausbreitung lokal in geringem Maß die Abstände von Molekülen. Speziell in Flüssigkeiten und Gasen breiten sich Wellen als Dichtewellen aus (⊡ Abb. 27.3). In festen Medien sind auch andere Wellenformen wie Transversalwellen, Dehnwellen, Oberflächenwellen etc. ausbreitungsfähig. Diese Formen spielen für die extrakorporale Stoßwellentherapie eine untergeordnete Rolle und sollen hier nicht weiter diskutiert werden.
Wissenschaftlich definiert ist eine Stoßwelle eine mechanische Welle2 in einem Fluid (Flüssigkeit oder Gas), an deren Wellenfront der positive (Über)druck innerhalb weniger Nanosekunden (10-9 s) vom Umgebungsdruck auf den Maximaldruck (Amplitude) ansteigt. Ursache dafür sind die nichtlinearen Eigenschaften von Fluiden, die unter Überdruckbeaufschlagung zu einer lokalen Erhöhung der Schallgeschwindigkeit führen. Dadurch holen zeitlich spätere Überdruckanteile zunehmend zur Front auf. Der Effekt erreicht seine Sättigung, wenn sich Aufsteilung und Dissipation die Waage halten. Nur dann ist
2
Auch als akustische Welle oder Schallwelle bezeichnet.
27
486
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
⊡ Tab. 27.2. Akustische Eigenschaften einiger wichtiger Medien (Kuttruff 1988, Stranne 1990)
III
Material
Dichte kg/m³
Schallgeschwindigkeit m/s
Impedanz Ns/m³
Luft
1,293
331
429
Wasser
998
1483
1,48×106
Fettgewebe
920
1410–1479
1,33×106
Muskelgewebe
1060
1540–1603
1,67×106
Knochen
1380–1810
2700–4100
4,3–6,6×106
⊡ Tab. 27.3. Mechanische und akustische Parameter einiger Steinmaterialien (Ausführliche Daten besonders für Nierensteine sind in (Heimbach 2000) veröffentlicht) Druckstärke/ MPa
Zugstärke/ MPa
Vikers Härte/ kg mm-²
Schallgeschwindigkeit/ m s-1
Dichte/ g cm-³
Impedanz/ 106 Rayl
Energie zur Zertrümmerung mJ/ cm³
Literatur
11
1,4
18,8
2096–3195
1,1
2,4–3,7
1599–1764
(Granz 1992) (Heimbach 2000) (Koch 1989)
Calcitsteine
5800
(Hepp 1989)
Graphit
22.500
(Hepp 1989)
Glimmer
67.000
(Hepp 1989)
Glas
1500
(Hepp 1989)
Glasmurmeln
3669
(Delius 1994)
Tonsteine
620–670
(Delius 1994)
8050 (4336– 17.850)
(Koch 1989) (Delius 1994)
Material
Modellsteine Gipssteine mit 10% Microsphere Beimischung
Gallensteine
2,2–3,2
0,4–1,0
Nierensteine: MagnesiumAmmoniumphosphat
8
0,6
Tricalciumphosphat
4,8
0,6
22–40
1700–2100
1,1–1,5
1,9–3,1
2600–3800
1,8–3,0
4,8–7,8
2050
(Delius 1994)
(Chaussy 1980) (Singh 1990)
(Chaussy 1980)
Harnsäure
1,8
31,2–41,6
3318–3471
Calciumoxalat
1,1
98–125
3000
(Chaussy 1980) (Singh 1990)
1875–3390
(Chuong 1992)
Vermischte Daten von CaOx, Ca Apatit, Mg Amn Phos
2,0–17,6
0,1–3,4
1,48–1,54
5,4–6,2
(Chaussy 1980) (Heimbach 2000)
487 27.2 · Physikalische Begriffserklärung: Akustik - Schallwellen – Druckpulse - Stoßwellen
es physikalisch korrekt, von einer Stoßwelle zu sprechen. Neben der direkten Erzeugung einer Stoßwelle durch eine Schallquelle, die sich im Fluid mit Überschallgeschwindigkeit bewegt, wird eine Stoßwelle auch durch Aufsteilung einer ausreichend starken Überdruckwelle erzeugt. Dies kann z. B. im konvergierenden Schallfeld eines Lithotripters geschehen. Heute therapeutisch übliche Druckamplituden betragen zwischen 10 MPa und mehr als 100 MPa (Mega-Pascal, 1 MPa=10 Bar, also etwa der 10-fache Atmosphärendruck). Da sich diese Stoßwelle – wie alle Schallwellen – mit einer vom Ausbreitungsmedium und der Intensität der Stoßwelle bestimmten Geschwindigkeit ausbreitet, kann man eine »Stoßfrontdicke« berechnen. Dies ist die räumliche Ausdehnung zwischen dem Ort, an dem (noch) Umgebungsdruck herrscht, und dem Ort, an dem die Druckamplitude erreicht ist. In Gewebe beträgt diese Stoßfrontdicke z. B. 1,5 bis 6 µm (Mikrometer, 10-6 m). Beim Durchgang der Welle z. B. durch eine Zellwand, die wenige Moleküllagen dick ist, können deshalb bereits merkliche Kräfte auf die Wand ausgeübt werden, da vor und hinter der Wand augenblicklich Druckunterschiede herrschen. Der Druckgradient, d. h. die Änderung des Drucks zwischen zwei Orten, ist bei einer gegebenen Wellenamplitude in der Stoßfront im Vergleich zu anderen Schallsignalformen, z. B. sinusförmigem Leistungsultraschall, besonders groß. An dieser Stelle soll noch auf eine verbreitete Ungenauigkeit bei der Begriffsverwendung hingewiesen werden: Nicht alle »Stoßwellen« im umgangssprachlichen Sinn sind nämlich im oben beschriebenen physikalischen Sinn Stoßwellen, da ihre Anstiegszeit oft auch größer als wenige Nanosekunden ist. Man verwendet dafür korrekterweise den Begriff »Druckpulse« gemäss IEC 61846 (IEC 1998). Auf die Probleme, solch schnelle Druckanstiege überhaupt zu messen, wird weiter unten eingegangen.
27.2.4 Mechanische Effekte von Schallwellen
an Grenzflächen Beim Durchgang von Schallwellen durch eine Grenzfläche zwischen zwei Medien kann bei unterschiedlicher Impedanz (Schallwiderstand der Medien) die Schallfortpflanzung erheblich verändert werden. Meist genügt zur Charakterisierung der Medieneigenschaften die Angabe des Betrags der Schallimpedanz, der sich als Produkt aus Mediendichte und Schallgeschwindigkeit berechnet.
Transmission und Reflexion von Schallwellen Sind die Impedanzen der Medien unterschiedlich, z. B. beim Übergang von Fett- in Muskelgewebe, so wird ein Teil der Schallenergie in das Einfallsmedium 1 reflektiert. Der Rest der Schallenergie wird in das Medium 2 weitergeleitet. Dass der transmittierte Schallanteil je nach Medium wie z. B. Knochen schon deutlich geschwächt sein kann, zeigen die Beispiele in ⊡ Tab. 27.4. Eine weitere, sehr wichtige Eigenschaft der reflektierten Schallwelle kann man aus der Reflexionsformel ebenfalls entnehmen: Ist die Impedanz des 2. Mediums geringer als die des ersten, so erhält der reflektierte Druck ein negatives Vorzeichen. Das bedeutet, dass ein Überdruckstoß nach Reflexion als Unterdruckstoß in das Medium 1 reflektiert wird. Bei ebenen Grenzflächen und vollständiger Reflexion kann die reflektierte Amplitude die gleiche, aber negative Höhe des ursprünglichen Schalldrucks erreichen. Der Druckgradient an der Grenzfläche nimmt in diesem Fall die doppelte Höhe der im homogenen Medium laufenden Welle an. Es gelangt keine Energie in das Medium 2. Dies geschieht besonders an allen Grenzflächen zwischen Gewebe und Luft, also z. B. am Übergang zu Lungengewebe. Da an dieser Grenzfläche
⊡ Tab. 27.4. Rechenbeispiele für reflektierte und transmittierte Schallenergie an Mediengrenzflächen gemäß der Reflexionsformel für den Druck r=(Z2-Z1)/(Z2+Z1) mit den Impedanzbeträgen der beiden Medien Z1 und Z2 Grenzfläche
Reflektierter Druck
Reflektierte Schallenergie
Transmittierte Schallenergie
Wasser – Fettgewebe
–5%
0,3%
99,7%
Fettgewebe – Muskelgewebe
11%
1,3%
98,7%
Muskelgewebe – Fettgewebe
–11%
1,3%
98,7%
Muskelgewebe – Knochen
44–60%
19–36%
81–64%
Muskelgewebe – Modellstein
18–38%
3–14%
97–86%
Modellstein – Muskelgewebe
–18– –38%
3–14%
97–86%
Muskelgewebe – Luft
–99,95%
99,9%
0,1%
27
488
III
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
fast die gesamte Energie reflektiert wird, ist das Gewebe ab einer gewissen Wellenamplitude nicht mehr in der Lage, den Kräften standzuhalten und zerreißt. Wird der Fokus eines Druckpuls-Geräts also auf Lungengewebe gerichtet, so sind starke Schäden zu erwarten. Ähnliches gilt für die Oberfläche anderer gasgefüllte Körperhohlräume wie z. B. Gasblasen, die an die Darmwand angrenzen sowie mitunter die Haut/Luftgrenze auf der dem Schalleintritt gegenüberliegenden Körperseite. Befinden sich Luftbläschen an der Einkoppelstelle der Schallwelle in den Körper, so kommt es auch dort oft zu Petechien (kleinen Einblutungen). Der Effekt der Druckumkehr findet übrigens noch an einer weiteren in der Lithotripsie wichtigen Grenzfläche statt: Wenn nämlich die in ein Konkrement transmittierte Schallwelle das Material auf der Rückseite verlässt. Auch hier wird wiederum ein Teil in das Konkrement reflektiert – diesmal mit negativem Vorzeichen, da das Gewebe hinter der Konkrementrückseite eine geringere Impedanz als das Steinmaterial hat. Diese reflektierte Welle überlagert sich mit »späteren« Unterdruckanteilen der einfallenden Welle, sodass auf die Rückseite des Konkrements besonders starke Zugkräfte wirken. Dieser nach Hopkins benannte Abplatzeffekt (engl.: Spallation) konnte z. B. bei in vitro-Experimenten mit Modellsteinen in einer Lammschulter beobachtet werden (⊡ Abb. 27.4, Loew 1994, Zhong 1994).
Brechung von Schallwellen an Grenzflächen Eine Welle, die schräg unter einem bestimmten Winkel aus einem Medium in ein anderes einfällt, läuft je nach den verschiedenen Ausbreitungsgeschwindigkeiten in einem anderen Winkel in dem zweiten Medium weiter. Man nutzt diesen Brechungseffekt – analog zur Optik – zum Aufbau akustischer Linsen zur Fokussierung von Schall. Der Brechungseffekt kann auch an Gewebegrenzflächen sowie beim Übergang von der Koppelflüssigkeit der Schallquelle in den Patienten auftreten. Er wird als Hauptgrund für eine »Verschmierung« des Fokus im Patienten sowie für mögliche Missweisung zwischen Ortung und Druckpulsquelle angesehen (Ueberle 1988, Folberth 1990, Vergunst 1989 und 1990).
Beugung von Schallwellen An einer Kante wird – ebenfalls wie in der Optik – Schall gebeugt. Ein gewisser Anteil des Schalls breitet sich also nicht geradlinig aus, sondern wird um die Kante herum gelenkt. Am Strahlerrand aller Schallsender sowie an Störkonturen wie Inline-Scannern (s. unten) etc. entsteht die sogenannte Randbeugungswelle. Dieser bei endlich ausgedehnten Strahlern unvermeidliche Wellenanteil äußert
⊡ Abb. 27.4. Trifft eine Schallwelle auf eine Grenzfläche zwischen zwei Medien, so wird ein Teil der Schallenergie reflektiert. Ist die Impedanz des zweiten Mediums geringer als die des ersten, so ändert sich die Polarität der reflektierten Welle: aus Überdruck wird Unterdruck und umgekehrt. Bei impaktierten Konkrementen kann der Hopkins-Effekt besonders gut beobachtet werden: Das Konkrement wird nicht auf der Schalleintrittsseite beschädigt, sondern durch die an der Rückseite reflektierte, invertierte Welle wird seine Zugfestigkeit überschritten. Es zerfällt also von hinten nach vorne
sich v. a. auf der Strahlerachse und in der Fokusregion als Unterdruck, der dem primär abgestrahlten Überdruckstoß folgt, auch wenn vom Strahler zunächst nur eine Überdruckwelle abgestrahlt wird.
Absorption und Dämpfung Absorption und Dämpfung von Schallwellen führen in jedem Gewebe zu einem Energieverlust des Signals. Da die Dämpfung frequenzabhängig ist (i. d. R. 0,5–0,7 dB cm1 MHz-1, was einer Abschwächung des Drucks einer 1 MHz – Welle auf die Hälfte innerhalb von 12 cm entspricht), äußert sie sich nicht nur in der Abnahme der Schallamplitude, sondern auch durch Signalveränderungen (Vergunst 1989). Positive Druckpulsanteile werden bei (Nierensteintypischen) Eindringtiefen von 100 bis 120 mm um 15–30% verringert (Cleveland 1998). Dagegen wird bei den Unterdruckamplituden P- lediglich eine Abnahme um 6% beobachtet (Coleman 1995). Dies ist zu erklären aus dem Frequenzgehalt des Unterdruckanteils (z. B. 5–8 µs Dauer, vgl. ⊡ Abb. 27.9), der eher sinusförmig verläuft, nicht aufsteilt und im Wesentlichen Frequenzen zwischen 120 und 200 kHz enthält. Im Gegensatz dazu haben die Überdruckanteile durch die nichtlineare Aufsteilung ein sägezahnförmiges Aussehen und enthalten Frequenzanteile bis in den hohen Megahertz-Bereich, welche besonders stark durch die frequenzabhängige Dämpfung abgeschwächt werden.
489 27.2 · Physikalische Begriffserklärung: Akustik - Schallwellen – Druckpulse - Stoßwellen
27.2.5 Mechanische Effekte von Schallwellen,
die durch nichtlineare Erscheinungen in Medien verursacht sind Bisher gingen wir bei der Erläuterung der Schallwellenfortpflanzung von Medien aus, deren Eigenschaften sich auch bei hohen Schallamplituden nicht verändern, die also linear sind. In der Natur verhalten sich jedoch alle Medien nicht linear, daher sollen im Folgenden nichtlineare Effekte besprochen werden.
Aufsteilung der Überdruckanteile von Schallwellen Hohe lokale Überdrucke erzeugen in den Medien eine starke lokale Kompression und somit eine lokale Dichteerhöhung. Gleichzeitig wird aufgrund der elastischen Medieneigenschaften auch die Schallgeschwindigkeit lokal erhöht. Dadurch schließen zeitlich später folgende Schallanteile während der Laufzeit zu der Front auf, sodass sich schließlich eine ideal steile Stoßfront ausbildet. Dies geschieht bei ausreichend hohen Überdruckamplituden auch bei einer Welle, die zunächst einen nur allmählichen Anstieg hat. Die Zeitdauer bis zur vollständigen Aufsteilung hängt ab vom Druck der Schallwelle, der Fokussierung, und den Medieneigenschaften, insbesondere dem Nichtlinearitätskoeffizienten. Bei Medien mit geringer Dämpfung wie z. B. in Wasser wird die Aufsteilung schon bei recht geringen Energieeinstellungen der ESW-Geräte auf dem Weg zum Fokus erreicht. Im Gewebe werden jedoch gerade die schnellen Druckänderungen, die sich als hohe Frequenzen im Schallsignal beschreiben lassen, stark gedämpft. Daher ist anzunehmen, dass zur Aufsteilung bis zum Fokus in Gewebe ein längerer Laufweg bzw. höhere Drucke notwendig sind.
Erzeugung und Anregung von Kavitation Unter Kavitation versteht man das Auftreten von gasgefüllten Hohlräumen in einem flüssigen Medium. Stabile Kavitationsblasen befinden sich im Gleichgewicht, wenn der Dampfdruck im Inneren der Blase und der äußere Druck der Flüssigkeit gleich groß sind. Überschreitet der Unterdruck einer Schallwelle den Schwellwert, der sowohl frequenzabhängig (Kuttruff 1988) wie medienabhängig ist, so können auch in homogenen Medien chemische Bindungskräfte überschritten werden, und es bilden sich Kavitationsblasen. Für Gewebe wird als Zerreißschwelle anhand theoretischer Überlegungen –16 MPa angegeben (Herbertz 1996, Church 1999), bei Lithotripsien werden aber bereits bei geringeren Unterdrücken Kavitationserscheinungen beobachtet, hauptsächlich in Steinnähe sowie in Gefäßen (Fedele2004). Durch den Unterdruckanteil der Schallwelle entsteht ein weiterer Kavitationseffekt: Mikroblasen wie z. B. die
Reste der kollabierten Blase vergrößern sich während des Unterdrucks. Sie erreichen dabei u. U. eine stabile Größe, die bis zu 3 Größenordnungen über der Keimgröße sein kann und die sich über mehrere hundert Mikrosekunden hält. Bei solchen stabilen Blasen folgt eine Oszillationsphase bis zur endgültigen Größenreduktion. Jeweils zu den Zeitpunkten, zu denen die Blasen dabei ihre minimale Größe erreichen, strahlen sie Schallwellen in die Umgebung ab, die sogenannten Kollapswellen. Danach vergrößern sie sich wiederum. Die maximale Blasengröße wie auch Anzahl der Oszillationen hängt stark von dem umgebenden Medium ab. Die Blasen sind bisweilen nach über einer Sekunde noch nachweisbar (Ueberle 1988). In großen Blutgefäßen konnten Blasenwolken mit bildgebendem Ultraschall beobachtet werden (Delius 1992). Durch einen extrakorporal angebrachten Sensor wurden auch während einer Lithotripsie bereits Blasenkollapswellen gemessen (Coleman 1996). Trifft eine Stoßwelle auf eine Kavitationsblase, so bewirkt der erhöhte Außendruck ein Schrumpfen der Blase, wobei sie einen Teil der Schallenergie aufnimmt. Waren die anregenden Kräfte und Energien groß genug, so führt dies zum erzwungenen Blasenkollaps. Dabei wird ein Teil der in der Blase gespeicherten Energie als neue akustische Welle an das Medium abgegeben. Sind die Blasenradien ca. 500 µm, so wird beim erzwungenen Kollaps die meiste Energie freigesetzt. Dies gilt in Wasser und bei typischen in der Lithotripsie eingesetzten Stoßwellen . Die Blasen zerfallen etwa 2–3 µs nach Durchgang der Stoßwelle. Der entstehende Kollapsdruck ist ca. 1/10 des Stoßwellendrucks, seine Zeitdauer beträgt typisch 30 ns. Somit ist also die Schallenergie der kollabierenden Blase um den Faktor 1000 geringer als die der anregenden Stoßwelle. Größere Blasen zerfallen nicht so »hart«, weil sie durch die Unterdruckphase der Stoßwelle abgebremst werden. Durch das einseitige Auftreffen der Stoßwelle sowie insbesondere in der Nähe von Grenzflächen zerfällt die Blase asymmetrisch und schickt dabei einen Wasserjet in Richtung der Oberfläche (⊡ Abb. 27.5). Der Wasserjet kann in Wasser Geschwindigkeiten von 400 bis über 800 m/s erreichen, die zur Perforation von Aluminiummembranen und Kunststoffen ausreichen. Durch die lokalen Effekte beim Blasenkollaps können Effekte in Gewebe wie nadelförmige Blutungen (Petechien) hervorgerufen werden. Auf Zellebene wurde die Erhöhung der Permeabilität von Zellwänden auf Kavitation zurückgeführt (Schelling 1994, Ueberle 2000). Anfang der 90er Jahre wurde die Frage untersucht, ob durch den Blasenzerfall freie Radikale erzeugt werden. Diese konnten bisher in vitro nur im Extrazellularraum nachgewiesen werden. Über eine Induktion von freien Radikalen in der Zelle in vivo wird noch kontrovers diskutiert (Suhr 1991, Gambihler 1992).
27
490
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
Jede Druckpulsquelle erzeugt neben den gewünschten Überdruckstößen auch einen gewissen Unterdruckanteil, wie später noch erläutert wird. Durch das Unterdrucksignal der Schallquellen werden Blasenkeime von einigen Mikrometern zu Blasen mit mehreren hundert Mikrometern Radius vergrößert, es werden durch Aufreißen der Flüssigkeit an diesen Keimen also wirksame neue Kavitationsblasen generiert. Die genauen Grenzwerte dafür sind allerdings nicht definiert. Für Wasser findet man je nach Reinheitsgrad und Gasgehalt zwischen –0,5 und –20 MPa. Für Gewebe wurde theoretisch eine Schwelle von –12 bis –16 MPa abgeschätzt (Herbertz 1993). Die Pulsdauer des Unterdrucksignals spielt ebenfalls eine wichtige Rolle, je kürzer sie ist, desto höhere Zugamplituden hält das Gewebe aus. Im Tierversuch wurden bereits bei ca. –1,5 MPa Schäden am Gedärm von Mäusen beobachtet (Miller 1994). Besonders Lungengewebe ist sehr leicht verletzbar (Delius 1987). Von High-Speed-Photos ist bekannt, dass in Wasser auf der Schallachse bereits weit vor dem Fokus Kavitationsblasen beobachtet werden können (Keller 1990). Es gibt auch neuere Messungen während Steinbehandlungen, die das Vorhandensein von Kavitation in der Steinumgebung zeigen (Jordan 1998). In welcher Stärke Kavitation auch in anderem Gewebe auftritt, ist weitgehend ungeklärt. Im Gewebe verhalten sich Kavitationsblasen deutlich anders als im freien Wasser, wo sie mehrere Millimeter Durchmesser erreichen. Kavitation im Gewebe tritt am wahrscheinlichsten in Gefäßen und Kapillaren auf, deren Durchmesser bei 100 µm liegt. Bereits nach der ersten Stoßwelle ziehen sich diese Gefäße weiter zusammen (Delius 1990). Es ist zu erwarten, dass die Blasengröße im Gewebe durch die Wände der Gefäße beschränkt wird (Delius 1987 und 1990, Zhong 2001). Der Kollaps solcher kleineren Blasen erfolgt entsprechend weniger gewaltvoll. Delius (Delius 1997) fand heraus, dass bereits ein geringer statischer Überdruck von 0,1 MPa Kavitation erfolgreich unterdrücken kann. Zur Vermeidung unerwünschter Nebenwirkungen, die sich durch Kavitationsbildung und deren Interaktion mit nachfolgenden Stoßwellen ergeben, muss die maximale Pulsfolgefrequenz der Stoßwellen beschränkt werden (Wiksell 1995). Neben verringerten Schäden ist auch die Anzahl der Stöße zur Zertrümmerung deutlich geringer, wenn man die Pulsfolgefrequenz zu 60/min oder evtl. sogar darunter wählt (Pace 2005).
III
27.2.6 Thermische Effekte durch die
Schallwellen
⊡ Abb. 27.5. Wird eine Kavitationsblase von einer Stoßwelle getroffen, so kollabiert sie mit einem Wasserjet in Richtung der Schallausbreitung (nach Philipp 1993)
Die Pulsdauer einer klinischen Stoßwelle ist sehr kurz, i. d. R. dauert sie 3 bis 5 Mikrosekunden. Dabei wird eine Schallspitzenleistung von über einem Megawatt erreicht. Die durchschnittliche Schallenergie pro Puls ist in der ge-
491 27.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
samten Fokusregion zwischen 10 und 150 mJ. Abhängig von Pulsintensität, Energieeinstellung des Geräts, Wiederholrate, Steinmaterial und Wärmeabfuhr durch das umgebende Medium kann während einer Behandlung eine Erwärmung des Steins erfolgen. In vitro wurden maximal 1,5°C gemessen (Lovasz 1999).
27.3
Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
Bei der Beschreibung des Schallfelds werden vornehmlich die Parameter diskutiert, mit denen man in der Praxis häufig konfrontiert wird. Die Korrelation dieser durch die internationale Messtechnik-Norm IEC 61846 doku-
mentierten Parameter zur Steinzertrümmerung wird in ⊡ Tab. 27.6 zusammengetragen. Die für die Steinzertrümmerung wichtigste Messgröße ist die akustische Energie, die auf das Konkrement wirkt (Lobentanzer 1991, Forssmann 2002). Die biologische Bedeutung dieser Parameter ist weniger gut bekannt, Ansätze werden in einem späteren Kapitel diskutiert. Die erforderlichen Schallmessungen werden normgemäß – und mangels geeigneten Gewebephantoms – in entgastem Wasser durchgeführt. Da Wasser gegenüber Gewebe geringere Dämpfung und andere Nichtlinearitätsparameter aufweist, sind die Messwerte auf den individuellen Patienten nur bedingt übertragbar. Bei größeren Strecken im Gewebe können die Schallsignale von der
⊡ Tab. 27.5. Hydrophone für Lithotriptermessungen Sensor Typ
Vor-/Nachteile
Verwendet seit
Literatur
Piezokeramischer Sensor
+ Einfache Benutzung + Lange Standzeit – Wenig naturgetreue Signalwiedergabe
1970
Hydrophone zur Qualitätskontrolle (z. B. Langzeitstabilität von Lithotriptern)
PVDF Membransensor
+ Gute Signalwiedergabe – Kurze Standzeit – Teuer
ca. 1982
(Coleman 1990) (Schafer 1993) »Focus hydrophone« gemäß IEC 61846; »Reference hydrophone« gemäß FDA (FDA 1991)
Kontaktloser PVDF Membransensor
+ Lange Standzeit – Vergleichsweise große effektive empfindliche Zone
1992
(Schätzle 1992)
PVDF needle (IMOTEC)
O Brauchbare Signalwiedergabe + Lange Standzeit + Relativ günstiger Preis – P- Wiedergabe unpräzise
1987
(Müller 1985 und 1990) Meistbenutzter Hydrophontyp in den letzten 15 Jahren; »Field hydrophone« gemäß IEC 61846
Faseroptisches Hydrophon auf Basis der Messung von Dichteunterschieden des Mediums
+ Gute Signalwiedergabe + Extrem langlebig, Faser kann einfach präpariert werden + Preis pro Messung günstig + Gute Wiedergabe des Unterdrucks – Handhabung erfordert Erfahrung
1988
(Staudenraus 1993) »Focus Hydrophone« und »Field hydrophone« gemäss IEC 61846
Faseroptisches Hydrophon nach dem InterferometerPrinzip
+ Gute Signalwiedergabe + Gute Wiedergabe des Unterdrucks + Kann in vivo verwendet werden – Handhabung erfordert Erfahrung ? Kurze Standzeit der Faserbeschichtung
1998
(Koch 1997, Coleman 1998)
Lichtpunkt-Hydrophon (LSHD)
+ Gute Signalwiedergabe + Gute Wiedergabe des Unterdrucks + Robust und dauerhaft, Glasblock leicht auszuwechseln, bei Schaden reicht oft ein Nachjustieren, ohne den Messort verlassen zu müssen + Kalibrierung jederzeit überprüfbar – relativ großer Messkopf
2004
(Granz 2004)
Stahlkugel-Sensor
– Signalwiedergabe nicht naturgetreu + Sehr langlebig + Preis pro Messung günstig
1991
(Pye 1991) Für Qualitätskontrolle sowie zum Messen von Kavitations-Signalen
Kapazitiver StahlflächenSensor
– Signalwiedergabe nicht naturgetreu + Sehr langlebig + Preis pro Messung günstig
1990
(Filipiczinsky 1990) Für Qualitätskontrolle
27
492
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
Gewebeschichtung, der Dämpfung und der Nichtlinearität beeinflusst werden. Man kann i. d. R. von einer deutlichen Dämpfung der Amplituden sowie von einer Verringerung hochfrequenter Schallanteile ausgehen, was längere Anstiegszeiten der Wellen sowie eine für jeden Fall individuelle Veränderung der Fokusgeometrie zur Folge haben kann (Vergunst 1989 und 1990).
III
27.3.1 Sensoren und Messtechnik
Auch heute noch werden Sensoren für die Lithotripsie entwickelt. Die wichtigsten Anforderungen an Sensoren für Druckpulswellen sind: ▬ Kleiner effektiver Durchmesser, um auch stark fokussierte Schallfelder vermessen zu können, bei denen die Schalldruckamplitude um mehr als 50% innerhalb von 2–5 mm variiert. ▬ Breitbandig von kleiner als 100 kHz bis weit über 10 MHz bei geringer Variation der Empfindlichkeit (Lewin 1991, Harris 1989). ▬ Widerstandsfähig für zumindest einige tausend Schallpulse. ▬ Gute nachgewiesene Linearität über einen großen Schalldruckbereich (kleiner als –10 MPa bis mehr als 50 MPa). ▬ Konstanz der Kalibrierung sowie leichte Kalibrierbarkeit im Betrieb. ▬ Günstiger Verbrauchsmaterialpreis pro Messung. ▬ Hydrophone müssen je nach Einsatzbereich den Anforderungen eines »Focus hydrophone« oder zumindest eines »Field hydrophone« entsprechend IEC 61846 genügen (vgl. ⊡ Tab. 27.5). ▬ Hohe Adhäsion von Wasser zu dem Oberflächenmaterial, um Kavitation am Hydrophon zu vermeiden.
⊡ Abb. 27.6. Vergleich der Fokuswellenformen einer Schallquelle bei unterschiedlichen Energieeinstellungen, gemessen mit drei unterschiedlichen Hydrophontypen. Die Amplituden wurden auf P+ kalibriert. Während die Parameter Anstiegszeit und Unterdruck mit
Insbesondere dieser letzte Punkt ist bei einem aus Kunststoff gefertigten Hydrophon kaum zu erfüllen, mit solchen Messgeräten können Unterdruckanteile kleiner als –5 MPa oft nicht mehr zuverlässig bestimmt werden. In dieser Hinsicht sind die faseroptischen Hydrophone besonders vorteilhaft (Staudenraus 1993), weil wegen der guten Kohäsion von Wasser Unterdruckanteile besonders verlässlich gemessen werden können3. Tritt dennoch Kavitation auf, so wird dies sofort durch einen Sprung im Ausgangssignal sichtbar, weil sich die Lichtreflexion am Faserende in einer Gasblase sprunghaft gegenüber Wasser ändert. Das neue »Light Spot Hydrophone« LSHD benutzt einen dicken Glasblock und kann ebenfalls sehr hohe Unterdruckamplituden ohne Kavitationsabriss darstellen (Granz 2004). PVDF Membran Hydrophone können darüber hinaus leicht durch »Durchlöchern« der Elektroden durch Kavitationswirkung zerstört werden. PVDF Nadelhydrophone (Müller 1985) sind dagegen zwar weniger empfindlich, was sie aufgrund ihrer recht hohen Lebensdauer zum Messstandard vergangener Jahre prädestinierte (Delius 1994, Müller 1990, Granz 1992). Da die vom PVDFKunststoff umhüllte Metallnadel jedoch von dem Schallpuls zu Eigenschwingungen angeregt wird und zusätzlich eine starke Beugungswelle erzeugt, ist die Messung des Druck-Zeitsignals und damit besonders der Energieparameter wenig zuverlässig (⊡ Abb. 27.6). Aus den genannten Gründen sowie wegen des unvertretbar hohen Preises von geeigneten PVDF Membranhydrophonen ist heute die Verwendung eines optischen Hydrophons Standard.
3
Mit speziellen Unterdruck-Reflektoren wurden schon -50 MPa gemessen.
allen drei Hydrophonen korrekt wiedergegeben werden, ist das DruckZeitsignal und damit der Intensitätswert bei der PVDF-Nadelsonde deutlich unterschiedlich, während PVDF-Membran und Faseroptische Sonde fast gleiche Signalwerte anzeigen
493 27.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
27.3.2 Messparameter für
Lithotripterschallfelder IEC 61846 beschreibt die Messparameter im Detail. Weitere Anforderungen, insbesondere für ESWT-Geräte sind in einer Konsensusvereinbarung der Technischen Arbeitsgruppe der Deutschen Gesellschaft für Stoßwellenlithotripsie (DGSL) spezifiziert (Wess 1997). Sie werden auch von der Deutschen und Internationalen Gesellschaft für Stoßwellentherapie zur Bewertung von ESWT-Geräten zur orthopädischen Therapie und Schmerztherapie herangezogen. Ihre Korrelation mit der Steinzertrümmerung sowie mit biologischen Wechselwirkungen wird im Folgenden diskutiert.
Die Druck-Zeit- Parameter: Schalldruck, Intensität, Energieflussdichte, Pulsdauer, Anstiegszeit Man entnimmt den Oszillogrammen (⊡ Abb. 27.2 und ⊡ Abb. 27.6) zunächst die Amplituden der Überdruckund der Unterdruckphase. Die Bedeutung des Spitzendrucks für die Beschreibung der Effizienz eines Lithotripters wurde früher oft überbewertet. Heute ist man sich sicher, dass er oberhalb einer gewissen Schwelle keine besondere Korrelation zur Zertrümmerung hat, hierfür sind die Energieflussdichte und die Energie wesentlicher. Die Anstiegszeit wird zwischen 10% und 90% der Amplitude des Überdrucksignals bestimmt. Um das Vorhandensein von Stoßwellen mit einer Anstiegszeit von <5...10 ns nachweisen zu können, ist allerdings eine Messbandbreite von zumindest 500 MHz sowie Abtastraten von 1GSample/Sekunde notwendig. Gleichzeitig muss der effektive Nachweisbereich des Sensors exakt parallel zur Stoßfront ausgerichtet sein, da sonst Teile des Sensors mit zeitlicher Verzögerung von der Welle getroffen werden und damit die Anstiegszeit länger erscheint. Da die Anstiegszeit in den in der ESWL oder ESWT üblichen Bereichen (<5 ns bis einige 10 ns) jedoch nach bisherigen Kenntnissen kein allzu relevanter Parameter ist, kann man den Aufwand bei der Messung im Rahmen halten und darüber hinaus durch etwas geringere Bandbreiten (z. B. 20 MHz) das Rauschen begrenzen und so die Messgenauigkeit für wichtigere Parameter steigern. Die Pulsbreite ist definiert als die Signaldauer zwischen den Zeitpunkten, bei denen jeweils 50% der Überdruckamplitude erreicht wird. Bei komplizierten Signalen kann diese Angabe daher recht irreführend sein, insbesondere wenn die Signale an sich eine längere Zeitdauer haben, jedoch eine kurzzeitigen Peak aufweisen. Solche Signale findet man oft außerhalb des Fokus. Die Schallintensität ist ein Maß für die mittlere Leistung, die durch den Schallpuls übertragen wird. Sie wird auch als Energieflussdichte pro Puls mit der Einheit Joule/mm2 bezeichnet. Herstellerangaben der Ener-
gieflussdichte beziehen sich i. d. R. auf den maximalen im Fokus gemessenen Wert. Die Korrelation zwischen ED und der Kratertiefe im Modellsteinversuch ist hoch. In in vitro-Untersuchungen mit perfundierten Schweinenieren wurde aber auch die Bedeutung der positiven Energieflussdichte ED+ als relevant für Nierenschädigung unterstrichen (Rassweiler 2005).
Die Signal-Ortsverläufe im Schallfeld Bereits wenige Millimeter abseits des Fokus verändern sich die Pulsverläufe drastisch (Staudenraus 1991). Seitlich des Fokus nimmt die Anstiegszeit des Signals schnell zu (Ueberle 1997). Der zeitliche Signalverlauf vor und hinter dem Fokus hängt deutlich von der Art der Quelle ab: Bei Funkenquellen hat man vor dem Fokus immer eine Stoßfront, während sich bei den weniger »steilen« EMSE- und Piezo-Quellen erst einige Millimeter vor dem Fokus durch Aufsteilung eine Stoßfront ausbildet. Die Bedeutung der Frontsteilheit für die Steinzertrümmerung ist jedoch gering (Dreyer 1998).
Axiale und laterale Schalldruckverteilung, Halbwertsbreite (FWHM) des Schalldrucks Üblicherweise werden typische axiale und laterale Verteilungen des Überdrucks in der Region um den Fokus graphisch dargestellt ⊡ Abb. 27.7, auch 4-Farbteil am Buchende). Daraus werden nach Norm Zahlenangaben für Fokusabmessungen entnommen, die das Fokusvolumen definieren sollen. Die Zahlenangaben sind sogenannte Halbwerts- oder FWHM-Angaben (Full Width Half Maximum). Sie kennzeichnen die Entfernungen zwischen den Orten, bei denen jeweils der halbe Maximalwert der Kurve gemessen wird. Aus den axialen und lateralen Abmessungen wird auch das »Fokusvolumen« berechnet, und zwar vereinfacht unter Annahme einer elliptischen Fokus-»Zigarre«, deren lange Achse in Richtung der Stoßwellenausbreitung liegt. Die medizinische Bedeutung dieser Messwerte ist jedoch nicht geklärt. All diese Angaben basieren normgemäß auf relativen Werten des positiven Schalldrucks bezogen auf den fokalen Spitzendruck. Der Spitzendruck im Fokus und damit die Basis der FWHM-Angaben ist sehr stark vom Aperturwinkel des fokussierenden Systems abhängig – je größer der Aperturwinkel, desto höher der Fokusdruck und desto schmaler der Fokus. Die Korrelation zwischen Schalldruck und Zertrümmerungswirkungen ist gering, da für die Wirkung auf Konkremente die Wirkenergie entscheidend ist, wie weiter unten gezeigt wird. Auch für biologische Wirkungen beziehen sich manche Autoren nicht auf den Druck, sondern auf die Energieflussdichte (Steinbach 1993, Rassweiler 2005).
27
494
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
III
⊡ Abb. 27.7. Viele räumliche DruckpulsFeld-Parameter werden normgemäß aus den axialen und radialen Druckverteilungen des Überdrucks abgeleitet. Für die Bewertung der Zertrümmerungswirkung ist allerdings die Energie E12mm in der Zone innerhalb eines 12 mm Durchmessers sowie die Energie E5MPa in der Zone, in der der positive Druck 5 MPa übersteigt, von weitaus größerer Bedeutung
27.3.3 Energiegrößen im Schallfeld
Die Energieflussdichte wird durch Integrieren des quadrierten Drucksignals über die Zeitdauer eines Pulses berechnet und daher bisweilen auch als Integral der Pulsintensität (PII) bezeichnet. Die räumliche Verteilung der Energieflussdichte nimmt lateral zumindest so schnell ab wie der Fokusdruck, da sie vom Quadrat des Schalldrucks abhängt. Durch Integrieren der Energieflussdichtewerte über eine gewisse Fläche in der Fokusebene kann man die durch diese Fläche im Fokus fließende Energie berechnen. Meist wird die Fokusenergie angegeben, die in einer Kreisfläche mit dem Durchmesser der Fokus-Halbwertsbreite4 der Druckverteilung wirkt (⊡ Abb. 27.8, auch 4-Farbteil am Buchende sowie (1) in ⊡ Abb. 27.7). Effektive Energieangaben sind charakterisiert durch die Annahme einer gewissen Wirkfläche, z. B. ein Kreis mit Radius 6 mm (eine typische Steingröße bei der ESWL). Ein Vergleich verschiedener Stoßquellen ist nur durch Vergleich der effektiven Energien unter Angabe der Energiewerte für identische Flächen möglich. Zuweilen wird auch die Gesamtenergie im Fokus angegeben, die in guter Näherung durch die Angabe von E5MPa beschrieben ist. Diese fokale Gesamtenergie ist bei Flächenschallquellen im Wesentlichen so groß wie die von der Quelle primär abgegebene akustische Energie.
Bei Reflektorsystemen hängt die fokussierte Energie zusätzlich von dem Anteil der abgestrahlten Welle ab, den der Spiegel auffängt5. Bei diesen Reflektor basierten Systemen ist die fokale Gesamtenergie also mitunter geringer als die erzeugte primäre akustische Energie. Die nicht fokussierten Anteile gelangen unter Umständen zu unterschiedlichen Zeiten ebenfalls zum Patienten, wobei sie aber nicht zur Steinzertrümmerung beitragen. Möglicherweise sind sie für die Kavitationsdynamik von gewisser Bedeutung. Generell gilt: Je größer der Aperturwinkel des Systems, desto höher sind bei gegebener Schallwellenanregung der Fokusdruck und die erreichbare Fokusenergieflussdichte. Dagegen werden die lateralen Fokusabmessungen mit wachsendem Aperturwinkel immer geringer. Eine Schallquelle mit geringer Energie, aber großem Aperturwinkel und resultierend kleinem Fokusdurchmesser kann daher dennoch eine hohe Energieflussdichte im Fokus haben. Eine Wirkung auf biologische Materialien und Konkremente tritt nur dann auf, wenn gewisse materialabhängige Energie-Schwellwerte überschritten werden.
4
Die Fokusbreite wird auch als FWHM oder auch –6 dB- Breite bezeichnet. 5 Dies ist bei den sphärisch abstrahlenden Funkenquellen der umfasste Raumwinkel.
495 27.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
⊡ Abb. 27.8. Energien (Kreissymbol) werden durch räumliche Integration der Energieflussdichte (Rautensymbol) bestimmt. Bei kreissymmetrischer Schallquelle kann man die Energie in Abhängigkeit vom Radius der Querschnittsfläche im Fokus angeben. Biologisch wirksame Flächen sind diejenigen, deren Rand von Schwellwerten wie dem für Stressfaserbildung in Zellen (0,1 mJ/mm²) oder Endothelablösung (0,3 mJ/mm²) begrenzt wird. Auch für Konkrementzertrümmerung gibt es solche Grenzwerte. 1. Fokusenergieflussdichte 2. Radius r2 der Fläche, die Energieflussdichten größer als 0,3 mJ/mm² einschließt;
3. Radius r3 der durch die Druckhalbwertsbreite FWHM eingeschlossenen Fläche, Integration ergibt die Fokusenergie; 4. Radius r4 der Fläche, die Energieflussdichten größer als 0,1 mJ/mm² einschließt; 5. Radius r5 (hier 6 mm) der Fläche eines typischen Konkrements oder eines Standard-Modellsteins, Integration ergibt eine für die Steinzertrümmerung relevante effektive Energie;
Primäre akustische Energie und elektrische Energie
ne weniger empfindlich auf Unterdrucksignale, oder diese Anteile werden durch Reflexionen am Hydrophonaufbau verfälscht. Seit Einführung des Glasfaserhydrophons und des LSHD sind verlässlichere und reproduzierbare Daten für die Unterdruckverläufe messbar, da die Adhäsion von Wasser zu Glas hin stark ist und die Flüssigkeit nicht – im Gegensatz zu Kunststoffmembranen – von der Oberfläche abreißen und somit an der Grenzfläche Kavitation verursachen kann. Sind andere Keime an der Glasfläche, so ist das Einsetzen von Kavitation sofort durch einen Signalsprung zu detektieren. Das von einer Funken- oder EMSE- Quelle erzeugte Signal enthält direkt an der Quelle zunächst nahezu keine messbaren Unterdruckanteile. Der in der Fokusregion und auf der Stoßwellenachse beobachtete Unterdruck stammt vielmehr von der Randbeugungswelle der Quelle. Diese Randbeugungswelle ist ein Spiegelbild des Überdrucksignals, das vom Rand des fokussierenden Systems abgestrahlt wird. Bei der Auslegung der Schallquellen bemüht man sich i. d. R. um möglichst geringe Unterdruckamplituden. Da das Unterdrucksignal auch nicht von der überdruckabhängigen Nichtlinearität betroffen ist und daher auch nicht aufsteilt, ist seine Amplitude im Fokus i. d. R. geringer (ca. 1/10 bis 1/5 des Überdrucksignals) als die des
Die primäre akustische Energie wird durch Fokussierung auf den Fokusbereich konzentriert. Je nach Schallquellentyp kann nicht die komplette Primärenergie fokussiert werden, wie oben am Beispiel der Funkenquelle erläutert wurde. Bei Schallquellen, die Einbauten wie Inline-Scanner enthalten, kann ebenfalls ein Teil der Energie abgeschattet werden (Delius 1994). Die zur Ansteuerung der Schallquelle notwendige elektrische Energie wird aus der Ladespannung und der Kapazität des Speicherkondensators errechnet. Sie wird nur zu einem Bruchteil in akustische Energie umgesetzt und ist wegen der unterschiedlichen elektroakustischen Wirkungsgrade von Funkensystem, elektromagnetischem System und piezoelektrischem System zum Vergleich von verschiedenen Quellentypen nicht geeignet.
Räumliche Verteilung des Unterdrucks Früher war eine genaue Bestimmung des Unterdrucks in Fokusnähe nur unbefriedigend möglich. Bereits ab wenigen MPa Unterdruck bildet sich Kavitation, d. h. Flüssigkeiten beginnen aufzureißen (Kuttruff 1988) oder sich von der Oberfläche eines Wasserschallsensors (Hydrophon) abzulösen. Außerdem reagieren einige Hydropho-
Die Integration bis zum Rand des messbaren Bereiches ergibt die Gesamtenergie im Fokus. Der Wert wird i. Allg. gut angenähert durch Integration bis zur 5 MPa Grenze (nicht im Bild gezeigt)
27
496
III
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
aufgesteilten Überdrucksignals. Seine messbare Zeitdauer beträgt ca. 2–5 ms. Überdrucksignale erfahren durch die nichtlineare Aufteilung eine geringe axiale Verschiebung des Fokus (Normgemäß Ort des Maximalen Drucks!) weg von der Schallquelle. Bei nicht aufgesteilten Signalen ist je nach Frequenzgehalt eine geringe Verschiebung zur Quelle hin zu beobachten. Daher kann sich das Maximum des Unterdrucks wenige Millimeter vor dem Überdruckfokus befinden. Die Piezo-Quelle erzeugt zusätzlich zur Randbeugungswelle noch ein definiertes primäres Unterdrucksignal, das im Fokus schließlich mit der Randbeugungswelle zusammentrifft. Durch schaltungstechnische und konstruktive Maßnahmen kann man diesen Unterdruckanteil klein halten.
27.3.4 Was bedeuten die Druckpulsparameter
für die Wirksamkeit der Lithotripsie? In den früheren Jahren war es zunächst mangels geeigneter Sensoren nicht möglich, die meisten Druckpulsparameter ausreichend genau zu bestimmen. In den frühen Veröffentlichungen wird daher oft auf die Ladespannung der Generatoren Bezug genommen. Da sich diese Spannung naturgemäß je nach Schallquellentyp (Elektrohydraulisch, EMSE, Piezoelektrisch) und Kapazität des Ladekreises stark unterscheiden kann, sind frühere klinische Ergebnisse nur schwer vergleichbar. Seit Einführung der Norm IEC 61846 ist eine deutlich bessere Datenqualität möglich.
Die Korrelation der verschiedenen Druckpulsparameter mit den physikalischen und klinischen Effekten ist in ⊡ Tab. 27.6 dargestellt. Die Pulsintensität oder Energieflussdichte korreliert mit der Tiefe des kegelförmigen Kraters, der aus sehr großen Steinen durch viele Stöße ausgearbeitet wird. Die beste Korrelation zur zertrümmerten Steinmenge liefert die effektive Energie, die über den Steinquerschnitt bestimmt wird (i. d. R. ein Kreis mit dem Durchmesser 12 mm, wodurch die Energie E12mm fließt), sowie die Gesamtenergie im Fokus, die durch E(5MPa) gut angenähert wird (Wess 1997). Das ist diejenige Energie, deren Druckwert größer als 5 MPa ist, was ungefähr der Zertrümmerungsschwelle von Kunststeinmaterial entspricht (ca. 2 MPa bis 10 MPa (Eisenmenger 2001, Sass 1992). Dabei wird auch ein Dosiseffekt deutlich: Steigert man bei gegebenem Steinvolumen V die effektive Energie E´eff pro Einzelstoß, so verringert sich proportional (Koch 1989) die Anzahl Sz der notwendigen Stöße: E´eff/V = constMaterial / Sz. Die »Konstante« constMaterial ist materialabhängig, je nach Steinkomposition kann sie deutlich variieren. Für Modellsteine liegt der Wert bei ca. 2 mJ (Lobentanzer 1991). Die Zertrümmerung kann aber erst bei Überschreiten einer Schwellenergie E0, die ebenfalls materialspezifisch ist, beginnen. Die tatsächlich wirksame effektive Energie ist daher E´eff = Eeff – E0. Der Endpunkt der Zertrümmerung ist erreicht, wenn das Steinvolumen in Restkonkremente kleiner als 2–3 mm zerlegt ist, da diese im Harnweg gut abgangsfähig sind.
⊡ Tab. 27.6. Parameter zur Beschreibung einer Druckpulsquelle (IEC 1998, Wess 1997). Die mit * markierten Anmerkungen zur Korrelation der Parameter mit der Zertrümmerung und den biologischen Effekten entstammen Granz 1992, Dreyer 1998 und Seidl 1994. Die Korrelationskoeffizienten ** wurden aus Messungen an 6 verschiedenen Druckpulsquellen ermittelt (Mishriki 1993). Die Korrelationen *** entstammen Granz 1992, diejenigen **** sind aus Dreyer 1998 entnommen. Anschaulich sind die Parameter in den Abbildungen 2 sowie 6 bis 10 dargestellt Symbol
Parameter
Maßeinheit
Typischer Wertebereich
Fokusparameter
Anmerkung
Sie sollen normgemäß am Ort der maximalen Druckamplitude, dem akustischen Fokus angegeben werden (IEC 1998) 7 bis >80 MPa (ESWT)
Geringe Korrelation zur Zertrümmerung*
20 bis >100 MPa (ESWL)
(Korrelationskoeffizient zwischen 0,704** und 0,54***)
Megapascal MPa
–3 bis –15 MPa
Korrelation zur Zertrümmerung ungeklärt*
(Nano) sekunden ns
<5 bis 500 ns
Positiver Spitzenschalldruck (Überdruckamplitude)
Megapascal MPa
P-
Negativer Spitzenschalldruck (Unterdruckamplitude)
Tr
Anstiegszeit (Gemessen zwischen 10% und 90% von P+)
P+
Bedeutung für die Lithotripsie
(0,394**) Geringe Korrelation zur Zertrümmerung (0,006**)
Als Schwellwert für die Entstehung von transienter Kavitation bedeutend Stoßwellentypisch geringe Werte von wenigen Nanosekunden nur direkt im Fokus
497 27.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
⊡ Tab. 27.6. Fortsetzung Symbol
Parameter
Maßeinheit
Typischer Wertebereich
Bedeutung für die Lithotripsie
Anmerkung
Tw
Pulsdauer (gemessen zwischen dem Anstieg auf 50% von P+ und dem folgenden Abfall auf 50%)
(Nano) sekunden ns
<150 bis >500 ns
Bestimmt die Integrationsgrenzen für die Pulsintensität mit
Je länger die Pulsdauer, desto mehr Energie kann ein Puls enthalten
PII+
Energieflussdichte (oder Integral der Pulsintensität)des positiven Signalanteils
(Milli)joule pro Quadrat(Milli)meter mJ/mm²
<0,02 bis 0,8 mJ/ mm² (ESWT),
Korreliert zur Kratertiefe im Stein sowie zu zellulären Effekten im Gewebe*
Die laterale Verteilung von PII+ in der Fokusebene ist sehr ähnlich wie die laterale Druckverteilung von P+ (Ueberle 1997)
Energieflussdichte (oder Integral der Pulsintensität) des gesamten Wellenzuges inklusive der negativen Anteile
(Milli)joule pro Quadrat(Milli)meter mJ/mm²
<0,03 bis 1,0 mJ/ mm² (ESWT),
Gute Korrelation zur Kratertiefe in Steinen (Korrelationskoeffizient 0,99***) sowie zu zellulären Effekten*. Mäßige Korrelation zum zertrümmerten Steinvolumen (0,801**)
Die laterale Verteilung von PII in der Fokusebene korreliert zu der lateralen Verteilung von P+ (Ueberle 1997)
PII
<0,1 bis >1,2 mJ/ mm² (ESWL)
<0,1 bis >1,2 mJ/ mm² (ESWL)
(0,75***) Parameter des Schallfelds fx, fy, fz
Vf
Fokus-Abmessungen, die anhand der Druckverteilungen entlang der Achsen X, Y (lateral) und Z (axial) bei jeweils 50% der Druckamplitude P+ ermittelt werden
Millimeter mm
Fokus-Volumen, approximiert durch die Ellipsen-Näherung:
Kubikmillimeters mm³
Fokusenergie6, die durch Integrieren der Intensitätsverteilung von PII(r) in der Fokusebene bis zu den Grenzen fx, fy errechnet wird
(Milli)joule mJ
Effektive Energie, die durch Integrieren der Intensitätsverteilung von PII (r) über eine vorgegebene Fläche (z. B. mit 12 mm Durchmesser) in der Fokusebene errechnet wird
(Milli)joule mJ
lateral: <2 bis >8 mm
Geringe Korrelation zur Steinzertrümmerung*
Die Fokusabmessungen sind rein messtechnisch definierte Werte, die in der Praxis oft überinterpretiert werden
<100 bis >1000 mm³
Korrelation zur Steinzertrümmerung unbekannt
Das Fokusvolumen ist ein rein messtechnisch definierter Wert, der in der Praxis oft überinterpretiert und mit der erforderlichen Zielgenauigkeit verglichen wird
E+: 0,5 bis 180 mJ
Geringe Korrelation zur Steinzertrümmerung *
Darf nicht zum Vergleich verschiedener Schallquellen mit unterschiedlichen Fokusabmessungen fx, fy verwendet werden
axial: <15 bis >100 mm
Vf = π/6 wx wy wz
E+, E
Eeff+, Eeff
6
E: <1,5 bis 230 mJ
(Korrelationskoeffizient zwischen 0,442** und 0,62****)
E+12mm: 0,5 bis 65 mJ E12mm: <1,5 bis 80 mJ
Beste Korrelation aller Energieparameter zum zertrümmerten Steinvolumen (E12mm,: Korrelationskoeffizient0,98***)
Dies ist (siehe auch im Text) der wichtigste Parameter zur Beurteilung der Zertrümmerungs-Effizienz einer Schallquelle
(E5Mpa: Korrelationskoeffizient0,97****)
Die zeitlichen Integrationsgrenzen bestimmen dabei, ob nur der positive (Über)druckanteil des Signals (Positive Energie E+) oder der vollständige Signalverlauf (Energie E) in die Berechnung einbezogen wird. Diese Unterscheidung wurde u. a. gemacht, um den Problemen in der Darstellung der Unterdruckanteile mancher Hydrophone Rechnung zu tragen.
27
498
III
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
Zur Beurteilung anderer Effekte in der Stoßwellentherapie – insbesondere bei der ESWT – muss man in Zukunft vermutlich auf weitere Querschnittsflächen zurückgreifen, die von Schwellwerten der Energieflussdichte (PII) bestimmt werden (Ueberle 1997, Meier 1998). Die anderen Parameter wie Spitzendruck, Pulsweite und Anstiegszeit spielen nach Literaturangaben eine geringere Rolle für die Effektivität der Steinzertrümmerung, zumindest innerhalb den in ⊡ Tab. 27.6 angegebenen Grenzen. Die Fokusabmessungen werden normgemäß durch Bestimmung der Orte ermittelt, an denen der Druck jeweils auf 50% des fokalen Maximalwerts abgefallen ist. Es ist leicht einzusehen, dass der Wert für die Fokusbreite damit sehr stark vom Spitzendruck abhängt. Je stärker eine Schallquelle fokussiert ist, desto höher ist der Spitzendruck und desto kleiner wird scheinbar der Fokusdurchmesser. Der wirksame Fokusdurchmesser hängt jedoch nicht vom Spitzendruck ab, sondern von der Überscheritung gewisser Druck- oder Energieflussdichtewerte. So ist auch leicht einsichtig, dass die normgemäße –6 dB Fokusgröße kein geeignetes Maß für die Wirksamkeit eines Lithotripters oder ESWT Geräts ist. Deren Angabe sorgt eher für Verwirrung, was sich in einer stetigen Diskussion über die Effizienz von Geräten mit kleinem oder großem Fokus ausdrückt (Siehe weiter unten). In Ergänzung zum –6 dB Fokusdurchmesser soll daher ein wichtigerer Parameter eingeführt werden: Als Zertrümmerungsbreite sei hier der Flächendurchmesser bezeichnet, an dessen Rand die Anzahl der Schallpulse zur Zertrümmerung eines Konkrements doppelt so hoch ist als wenn das Konkrement genau im Fokus liegt (⊡ Abb. 27.9). Messungen haben gezeigt, dass sich die Zertrümmerungsbreite nicht von der normgemäßen (Druck-) Fokusbreite abhängt, sie ist vielmehr für unterschiedliche
⊡ Abb. 27.9. Die Pulszahl zur Zertrümmerung eines 12 mm durchmessenden Steins in Konkremente <2 mm verdoppelt sich, wenn der Stein um ±11 mm seitlich aus dem Fokus verschoben wird. Das Experiment wurde mit unterschiedlichen Schallquellen (Funken, Aperturwinkel 54° und EMSE, 62°) mit den genannten unterschiedlich starken Fokussierungen durchgeführt. Dennoch sind die gemessenen Unterschiede minimal. Die Zertrümmerungsbreite f´x, definiert durch eine Abnahme der Zertrümmerungsleistung auf 50% oder eine Verdopplung der notwendigen Stosszahl pro Steinvolumen beträgt jeweils 22 mm.
Schallquellen unabhängig vom Erzeugungsprinzip (Funken oder EMSE) und auch vom Aperturwinkel (betrachtet wurden zwischen 54 und 74 Grad) sehr ähnlich und durchmisst 18 bis 22 Millimeter (Ueberle 2002). Dies wird durch ⊡ Abb. 27.9 und ⊡ Abb. 27.10 illustriert. Andere Wirkdurchmesser, z. B. für bestimmte Gewebereaktionen, müssen anhand noch zu bestimmender Wirkschwellen erst ermittelt werden. Ein Ansatz dafür könnten die in den nächsten Abschnitten genannten Druck- und Energieflussdichte-Grenzwerte für Gewebezerstörungen sein.
27.3.5 Welche physikalischen Effekte
spielen bei der Steinzertrümmerung eine Rolle? Aus der Literatur ist eine ganze Anzahl von Effekten bekannt, die alle zur Steinzertrümmerung beitragen: ▬ Direkte Krafteinwirkung auf den Stein führt zu Spannungsrissen und Risswachstum (Vakil 1991). ▬ Durch scharf fokussierte Wellen werden Steine kegelförmig ausgehöhlt (Eisenmenger 2003). ▬ Spallationseffekte durch die Reflexion des Druckpulses an der Steinrückseite bei gleichzeitiger Phasenumkehr (Hopkins-Effekt) (Vakil 1991). Der reflektierte Puls überlagert sich dabei dem Zuganteil des einlaufenden Pulses und führt zu hohen Zugspannungen im Steininneren. Durch diesen Effekt ist zu erklären, dass manche impaktierten Steine zuerst auf der Rückseite zerfallen. ▬ Kavitationseffekte besorgen die Aufweitung bestehender Risse, induzieren lokal hohe Kollapsdruckpulse von wenigen Nanosekunden Dauer direkt auf den Stein und bohren seine Oberfläche mit Wasser-Jets von 200–800 m/s an (Vakil 1991, Koch 1998). Ent-
499 27.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
sprechende Krater sind im Mikroskopbild an der Steinvorderfront sowie in Rissflächen zu sehen. ▬ Cluster von Kavitationsblasen sammeln sich um den Stein und erzeugen beim Zerfall einen Wasserhammer-Effekt (Kedrinskii 1998). ▬ Durch unterschiedliche Schallgeschwindigkeiten im Stein und in der umgebenden Schicht werden mechanische Spannungen erzeugt, die zu zusammenwachsenden Mikro-Spannungsrissen und in der Folge zu binärer Fragmentation, dem Zerbrechen in jeweils 2 Teilstücke führen (Eisenmenger 2001).
überschritten werden. Zertrümmerung findet überall dort statt, wo die Druckschwelle überschritten ist. Dabei ist die Höhe der Überschreitung wohl eher nachrangig, was man aus der geringen Korrelation zwischen Fokusdruck und Zertrümmerungswirkung sehen kann. Bei der Behandlung der Patienten spielen aber auch die Einflüsse des Gewebes sowie geometrische Randbedingungen auf dem Schallweg eine wesentliche Rolle für den Behandlungserfolg. Diese Einflüsse werden in einem gesonderten Abschnitt diskutiert.
Der Anteil der jeweiligen Effekte ist nach wie vor nicht geklärt. Es steht zu erwarten, dass je nach Umgebung des Steins (In Flüssigkeit schwimmend, in Gewebe ganz oder teilweise impaktiert oder eingewachsen) die Effekte unterschiedliches Gewicht haben. Unterdrückt man die Kavitation mittels geringen statischen Überdrucks, so nimmt die Zertrümmerung um ca. 20% ab. Bringt man den Stein in eine höher viskose Umgebung, z. B. ein Öl, so benötigt man wegen der unterdrückten Kavitation deutlich mehr Stöße und die Trümmer werden größer (Zhu 2002). Bei höherem Überdruck oder impaktierten Steinen kann die zusätzliche Vorspannung das Risswachstum erheblich behindern (Eisenmenger 2001). Den unterschiedlichen Steinmaterialien lässt sich jeweils eine typische Energiemenge zuordnen, die zur Zertrümmerung einer Volumeneinheit notwendig ist (Delius 1994, Holtum 1993). Diese liegt für Modellsteine, wie sie in der Lithotripsie zu Testzwecken verwendet werden7, bei ca. 2 mJ (Lobentanzer 1991). Dabei muss ein Druck von mindestens 2–10 MPa (Eisenmenger 2001, Sass 1992)
27.3.6 Wirkungen der Druckpulse
auf Gewebe In diesem Zusammenhang ist es von besonderem Interesse, zwischen unerwünschten Nebenwirkungen (z. B. Blutungen bei Steinzertrümmerung oder Gefühlsstörungen nach ESWT) und gewünschten Wirkungen (Schmerzreduktion durch ESWT) zu unterscheiden. Während die Mechanismen der Steinzertrümmerung bei der ESWL wie oben erläutert weitgehend bekannt sind, sind die heilenden Wirkungen der ESWT bisher biophysikalisch nicht verstanden. Möglicherweise werden mit der Stoßwelle Mikroschäden gesetzt, die zu einem Umbauprozess des erkrankten Gewebes führen, und damit den späteren Heilungsprozess der ESWT
7
Synthetischer Gips gemischt mit Glashohlkugeln zur Homogenisierung.
⊡ Abb. 27.10. Die Fokus-Druckverteilung von stärker und schwächer fokussierenden Quellen zeigen hauptsächlich im Bereich ±2 mm um den Fokus große Unterschiede. Dadurch ist normgemäß berechnet die Fokusbreite Fx des stark fokussierten Systems (Kreissymbole) lediglich 2,5 mm, die der schwächer fokussierten Systeme sind 6 mm (Dreiecke) bzw. sogar 18 mm (Rautensymbole). Der Wirkdurchmesser der Systeme, innerhalb dem noch eine Steinzertrümmerung stattfindet, ist jedoch annähernd gleich, da der Zertrümmerungsschwellwert von ca. 10 MPa jeweils bei ca. 18–22 mm erreicht wird
27
500
III
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
gezielt initiieren. Es konnte bisher gezeigt werden, dass durch Stoßwellenfokussierung auf Weichteilgewebe die Substanz P freigesetzt wird sowie zelluläre Kaskaden getriggert werden (Maier 2003). Folgende Mechanismen werden beschrieben: ▬ ein Dosis-Effekt, der mit steigender Impulszahl zunimmt (Miller 1995), ▬ ein energieabhängiger Effekt, der mit steigender Energie pro Puls zunimmt, ▬ der Kavitationseffekt, der hauptsächlich der Stoßwellen-Blaseninteraktion zugeschrieben wird (Delius 1998). Die bislang in der Literatur beschriebenen biologischen Grenzwerte wurden i. d. R. für stoßwellenbedingte Nebenwirkungen8 bei der Nierenlithotripsie ermittelt. Insgesamt treten hier schwere, behandlungspflichtige Nebenwirkungen nur in einer geringen Anzahl von Behandlungen auf (Jocham 1998, Drach 1986), eine transiente Hämaturie ist dagegen als übliche Nebenwirkung akzeptiert. Als Ursache für die potentiellen Schädigungsmechanismen wird zum größten Teil Kavitation angesehen. An gekühlten humanen Nabelschnüren wurden Grenzwerte der Energieflussdichte für die Ausbildung von Stressfasern und stärkere Wirkungen auf Zellen ermittelt (Steinbach 1993). Die Effekte und zugehörige Pulsintensitäten sind in ⊡ Tab. 27.7 aufgeführt. Es sei darauf hingewiesen, dass die Werte mit PVDF-Nadelhydrophonen über die gesamten Wellenzüge ermittelt wurden. Die mit
8
Andere Nebenwirkungen der Lithotripsie sind eher biologisch bedingt, z. B. durch Obstruktionen der Harnableitenden Wege.
diesen Messinstrumenten möglichen hohen Fehler bei Absolutangaben wurden bereits im Abschnitt über die Messtechnik diskutiert. Aus diesen Grenzwerten kann man anhand der gemessenen örtlichen Verteilung der Energieflussdichte die jeweilige biologische Wirkzone abschätzen (Analog zur Zertrümmerungsbreite für Konkremente (vgl. ⊡ Abb. 27.12 und ⊡ Abb. 27.13). Derzeit dienen die Werte zunächst als grobe Richtschnur zur Einstellung von Geräten. Um sie auf die in vivo Behandlungssituation übertragen zu können, müssen sie mit verbesserter Druckmesstechnik noch an weiteren, realistischeren Modellen abgesichert werden. Aus Versuchen mit perfundierten Schweinenieren hat sich ebenfalls eine starke Korrelation von Schädigung zur positiven Energieflussdichte ED+ gezeigt (Rassweiler 2005), während zu weiteren Stoßwellenparametern keine gute Korrelation bestand. Grenzwerte für ungewollte Schäden am Knochen sind nur indirekt bekannt. Mikro- und Makrofrakturen wurden zumeist für Energieeinstellungen beschrieben, die nur selten im Bereich höchster Geräteeinstellungen bei der Steinzertrümmerung (Delius 1995, Kauleskar 1993, Haupt 1992) benutzt werden. Aus der Orthopädie-Literatur sind bislang keine langdauernden Nebenwirkungen oder diagnostisch nachweisbare Schäden durch ESWT-Behandlungen bekannt. Es fehlt aber nicht an Hinweisen, dass eine saubere Indikationsstellung absolut notwendig ist (DGSL 1995). Die Druckschwelle für Hautschäden wurde zu 0,6– 1,6 MPa und für Darmblutungen zu 1,6–4 MPa bestimmt (Miller 1995). Thermische Einwirkungen wurden ausgeschlossen sodass als wahrscheinlichster Wirkmechanismus Kavitation in Frage kommt. Blut und anderes abdominale Gewebe waren deutlich weniger von den
⊡ Tab. 27.7. Grenzwerte für biologische Wirkungen von Druckpulsen auf Zellen PII (Energieflussdichte)
Befund
Anmerkung
0,3 mJ/mm²
Völlige Ablösung von Endothelzellen der Gefäße auf der Schalleintrittsseite; wahrscheinlich durch den Schalldruck verursacht.
Bewirkt möglicherweise Thrombosen und Gefäßverschluss; Messungen mit PVDF-Nadelhydrophon
(Steinbach 1993)
0,22 mJ/mm²
Veränderte Mitochondrien in Nachbarzellen
Messungen mit PVDF-Nadelhydrophon
(Steinbach 1993)
0,1 mJ/mm²
Bildung von Stressfasern im anliegenden Endothel; wahrscheinlich durch Kavitation verursacht
Stressfasern treten als Reaktion awuf Scherkräfte auch bei anderweitig in die Zelle eingebrachten Kräften auf Messungen mit PVDF-Nadelhydrophon
(Steinbach 1993)
0,045 mJ/mm²
Blutungen von Eingeweiden
Mausmodell, ED Werte aus den veröffentlichten Signalkurven berechnet
(Miller 1995)
0,007 mJ/mm²
Hautschäden
Mausmodell, ED Werte aus den veröffentlichten Signalkurven berechnet
(Miller 1995)
501 27.4 · Erzeugung von Druckpulsen zur extrakorporalen Steintherapie (ESWL) und Schmerztherapie (ESWT)
Druckpulsen beeinflusst. Die Energieflussdichten bei diesen Untersuchungen können aus den veröffentlichten Grafiken abgeschätzt werden, sie liegen bei9 0,007 – 0,045 mJ/mm2.
27.4
Erzeugung von Druckpulsen zur extrakorporalen Steintherapie (ESWL) und Schmerztherapie (ESWT)
mechanismen. Aus dem im Fokus gemessenen Schallsignal kann man i. d. R. nicht auf die verwendete Quelle schließen. Spezifische Unterschiede zeigen sich eher im Schallfeld außerhalb des Fokus, wie im Folgenden erläutert wird.
27.4.2 Erzeugung sphärischer Schallwellen
Funkenstrecke In der Praxis bestehen alle ESW-Generatoren aus einer elektrischen Energiequelle, einem elektroakustischen Umwandlungsmechanismus und einer Einrichtung zur Fokussierung der Schallwellen. Um eine gezielte Wirkung zu erreichen, müssen die Schallwellen fokussiert werden. Bei Punktquellen (z. B. Funken) und Zylinderquellen bietet sich die Anwendung eines fokussierenden Spiegels an, bei Flächenquellen kommen Linsen oder ein selbstfokussierender Aufbau in Form eines Sphärenabschnitts zur Anwendung. Am Ende jedes Kapitels wird auf quellenspezifische Unterschiede in der Erzeugung der Schallwellen und ihre Auswirkungen auf die Schallfront eingegangen. Es muss aber betont werden, dass über die medizinische und biologische Relevanz der angesprochenen Parameter bislang keine Aussage getroffen werden kann.
27.4.1 Punktförmige und flächige
Schallquellen Man unterscheidet je nach Erzeugungsprinzip punktförmige und flächige Schallquellen. Punktförmige Schallquellen erzeugen sphärisch expandierende Schallwellen. Flächenschallquellen erzeugen je nach Aufbau ebene, zylindrisch expandierende oder sphärisch konvergierende Schallwellen. Alle diese Ausbreitungsformen der primären Schallwellen erfordern verschiedene Arten von Fokussierungs-
9
10,9 µs Dauer von P- und 5,5 µs Dauer von P+, bei Variation zwischen 1,6–4 MPa (Miller 1995).
Die ersten Nierenlithotripter arbeiteten mit einer Funkenquelle .Auch heute noch ist dieses »klassische« Prinzip im Einsatz. Analog zu einer Autozündkerze wird dabei durch Anlegen einer Hochspannung (Üblich sind ca. 12–30 kV) zwischen zwei Elektroden unter Wasser ein Blitzschlag erzeugt. Dadurch entsteht eine expandierende Plasmablase, die zu einer Kompression der umgebenden Flüssigkeit führt. Nach Entleerung des elektrischen Energiespeichers bleibt eine Dampfblase bestehen, die sich weiter mit abnehmender Geschwindigkeit ausdehnt und schließlich nach einigen hundert Mikrosekunden wieder kollabiert. Als »Nutzschallwelle« wird lediglich die Kompressionswelle während der Plasmaphase abgestrahlt. Da sich die primäre Blase zunächst mit Überschallgeschwindigkeit bewegt, ist die Schallfront der Kompressionswelle von Anfang an extrem steil und somit eine Stoßwelle im physikalischen Sinn (⊡ Abb. 27.11). Ihre Zeitdauer ist eine bis ca. 3 ns. Beim sekundären Blasenkollaps entsteht wie oben beschrieben eine weitere, schwächere Schallwelle. Die Hochspannung ist in einem Kondensator von 40 nF bis zu einigen 100 nF gespeichert. Dessen gesamte Energie wird im Augenblick des Durchbruchs in die entstehende Plasmablase überführt. Der akustische Anteil beträgt dabei lediglich einige Promille. Fokussierendes Ellipsoid für Kugelwellen Ein Rotationsellipsoid hat die Eigenschaft, alle Schallereignisse, die in seinem ersten Brennpunkt erzeugt werden, in den zweiten Brennpunkt abzubilden. Soll das Ziel, z. B. die Verkalkung, in den zweiten Brennpunkt eingebracht werden, so muss das Ellipsoid an geeigneter Stelle abgeschnitten werden (⊡ Abb. 27.12). Der verbleibende
⊡ Abb. 27.11. Primärer Druckpuls einer elektrohydraulischen Funkenschallquelle. Kleines Bild: Vergrößerter Ausschnitt aus der Schallfront mit dem stoßwellentypisch steilen Anstieg (begrenzt durch die Anstiegszeit der Messsonde)
27
502
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
Spezielle Eigenschaften und neuere Ansätze elektrohydraulischer Schallquellen
III ⊡ Abb. 27.12. Die primäre Kugelwelle der Funkenstrecke in Brennpunkt F1 kann über ein Rotationsellipsoid auf den Brennpunkt F2 fokussiert werden
Restspiegel umschließt einen gewissen Raumanteil der Kugelwelle und fokussiert diesen, während der übrige Kugelwellenanteil als unfokussierter Anteil das Gewebe durchdringt. Dieser Anteil wird im 2. Fokus, dem sogenannten »Therapeutischen Fokus« zeitlich früher beobachtet als die fokussierte Stoßwelle. Er hat eine maximale Amplitude von weniger als 1 MPa bis 2 MPa. Dieser Wert ist damit deutlich geringer als der Spitzendruck der fokussierten Stoßwelle. Nichtlineare Aufsteilungsvorgänge bewirken bei zunehmenden Schallamplituden eine geringfügige Verschiebung des Druckmaximums um ca. 2–5 mm über den geometrischen Fokus F2 hinaus. Besondere Eigenschaften der Funkenquelle Typisch für Funkenquellen (auch elektrohydraulische Schallquellen genannt) ist eine dem fokussierten Signal um ca. 40 µs voreilende, unfokussierte Überdruckwelle, die im Fokusgebiet einen Druck von wenigen MPa hat. Fast eine Millisekunde nach dem Nutzsignal folgt eine weitere, recht schwache Druckwelle, die vom Kollaps der beim Durchbruch primär erzeugten Gasblase stammt. Es sei nochmals betont, dass die Blase eine Folge dieses Erzeugungsprinzips ist und keinen Zusammenhang mit Kavitationsblasen hat, die anderswo im Schallfeld entstehen können. Funkenerzeugte Druckpulse haben für gewöhnlich Stoßwellencharakter. Dies bedeutet, dass die Schallfront von Anfang an extrem steil ist. Dadurch ist sie beim Durchlaufen großer Strecken in Gewebe insbesondere dem Einfluss der Dämpfung hoher Frequenzen ausgesetzt, so dass man annehmen kann, dass ein Teil ihrer Energie im Gewebe vor dem Fokus weggedämpft wird. Infolge der Aufsteilung werden aber die hochfrequenten Anteile ständig wieder nachgeliefert, was wiederum zu Dämpfungsverlusten führt.
Beginnend bei den elektrohydraulischen Lithotriptern der ersten Generationen wurde das Konzept verfolgt, pro Patient eine neue Funkenstrecke einzusetzen. Dieses Vorgehen hat den unbestreitbaren Vorteil, dass der Behandlungsverlauf in jedem Fall gut bekannt ist. Bedingt durch den zunehmenden Abbrand der Elektroden ergeben sich einige Nachteile: ▬ Ein zunehmender Spaltabstand bedingt einen länger werdenden Zündverzug. Währenddessen fließt Ladung ab, sodass ein Teil der bereitgestellten elektrischen Energie nicht mehr in Stoßwellenenergie verwandelt wird. ▬ Durch die unregelmäßig erodierte Elektrodenoberfläche schwankt der Zündzeitpunkt ebenso wie der Durchschlags-Pfad von Stoß zu Stoß. Dadurch schwankt sowohl die primäre Druckamplitude als auch der genaue Ort der Stoßerzeugung. Dies äußert sich in einer »Schuss-zu-Schuss«-Variation des Fokusdrucks von teilweise ±30%. ▬ Die wahren Fokusabmessungen sind nur äußerst schwer zu bestimmen. Da bei der Messung normgemäß mit statistischen Methoden gearbeitet werden muss, erscheinen die Fokusbreiten größer, während die Spitzendrücke und Puls-Intensitätswerte (Energieflussdichten) geringer werden. Neuere Entwicklungen versuchen, die Zündfreudigkeit der Elektrode bei zunehmendem Abbrand durch erhöhte elektrische Leitfähigkeit zu steigern. Dazu wird bisweilen ein Elektrolyt eingesetzt (Cathignol 1991). Durch diese Maßnahmen wird die Fokusdruckvariation weitgehend unterbunden, die Effizienz der Behandlung nimmt deutlich zu, während die Fokusabmessungen deutlich kleiner werden. Andere Hersteller haben nachfahrbare Elektroden entwickelt. Da die Elektroden im Zentrum von Explosionen sind, spielen Sicherheit und Positionsgenauigkeit der Elektrodenspitzen bezüglich des Ellipsoidbrennpunktes eine große Rolle. Über einen gänzlich anderen Ansatz berichtet eine tschechische Arbeitsgruppe. Sie verwendet einen Metallzylinder, der durch eine poröse Keramikschicht hindurch zahlreiche Durchschlagspfade zum umgebenden hochleitfähig gemachten Wasser hin bildet. Dadurch entsteht eine elektrohydraulische Zylinderquelle, die über einen parabolischen Spiegel fokussiert wird (Sunka 2004).
Explosionsladungen und Lasererzeugte Stoßwellen Bereits 1986 kam ein japanischer Lithotripter auf den Markt, der kleine Explosionsladungen im Fokus eines Rotationsellipsoids benutzte. Das Gerät wird weiterhin
503 27.4 · Erzeugung von Druckpulsen zur extrakorporalen Steintherapie (ESWL) und Schmerztherapie (ESWT)
klinisch eingesetzt, inzwischen wurde auch über Versuche zur Schmerztherapie berichtet. Auch der lasererzeugte thermische Durchbruch einer Flüssigkeit wurde zur Erzeugung von Stoßwellen untersucht (Steiger 1987). Dieses Verfahren liefert zwar ebenfalls sehr präzise Druckpulse, aber die Kosten für einen entsprechenden Laser sind gegenüber den anderen Generatoren nicht konkurrenzfähig. Daher wird diese Methode ausschließlich im akademischen Bereich für Grundlagenexperimente eingesetzt.
27.4.3 Erzeugung ebener Schallwellen
Elektromagnetische Schallquelle (EMSE) Bei dem elektromagnetischen Stoßwellen-Emitter (EMSE), dessen Prinzip 1962 zuerst von Eisenmenger (Eisenmenger 1962) beschrieben wurde, wird eine Flachspule verwendet. Wird sie von einem impulsförmigen elektrischen Strom von mehreren Kilo-Ampère Stärke durchflossen, so erzeugt sie ein starkes Magnetfeld. Auf die Spule ist isoliert eine gut leitfähige Membran aufgelegt. In dieser wird durch das primäre Magnetfeld ein Wirbelstrom erzeugt, der wiederum ein Magnetfeld mit entgegengesetzter Polarisation zur Folge hat. Diese beiden Magnetfelder bewirken eine Abstoßung der Membran (⊡ Abb. 27.13). Dabei wird im Membranbereich das Wasser komprimiert und so ein ebener Überdruckpuls mit dem zeitlichen Verlauf einer quadrierten halben Sinuswelle abgestrahlt (⊡ Abb. 27.14). Der Druck ist über die Membranfläche im Wesentlichen konstant. Die Zeitdauer der Welle beträgt ca. 2–5 μs. Als elektrischer Energiespeicher dient wiederum ein Kondensator, der i. d. R. einige hundert Nanofarad Kapazität hat und somit deutlich größer ist als bei der Funkenquelle. Die Ladespannung (ca. 8 kV bis max. 16–20 kV) ist meist geringer als beim Funken. Dadurch sind die elektro-akustischen Wirkungsgrade der Quellen nicht vergleichbar. Ein Vergleich der Ladespannungen oder auch der elektrischen Primärenergien ist daher nicht zum Vergleich verschiedener Druckpulsquellen geeignet.
Linsen zur Fokussierung der Schallwelle Für ebene Schallsender wie EMSE oder Piezo-Wandler werden zur Fokussierung akustische Linsen verwendet. Je nachdem, ob das Material eine höhere Schallgeschwindigkeit als das Übertragungsmedium Wasser hat (z. B. Plexiglas) oder eine geringere (z. B. Silikon-Kautschuk), wird die Linsenform konkav oder konvex. Spezielle Eigenschaften der Elektromagnetischen Schallquelle Das primäre EMSE-Signal hat zunächst die Form einer quadrierten Sinushalbwelle (vgl. ⊡ Abb. 27.14) mit einer
⊡ Abb. 27.13. Der elektromagnetische Stoßwellenemitter (EMSE) erzeugt effektive ebene Druckpulse, die durch eine akustische Linse fokussiert werden und im Fokus durch Aufsteilung Stoßwellencharakter haben, wenn der Druck der primären ebenen Welle entsprechend groß gewählt wird und die Dämpfung im Gewebe nicht zu stark ist
⊡ Abb. 27.14. Die Form der primär abgestrahlten akustischen Welle der elektromagnetischen Stoßwellenquelle (EMSE) entspricht dem Quadrat des antreibenden Stroms (Eisenmenger 1962). Sie enthält nur wenig hochfrequente Spektralanteile und wird dadurch in Gewebe nur wenig gedämpft. Die Ausbildung einer Stoßwellenfront findet erst auf dem Weg zum Fokus statt
endlichen Anstiegszeit von einigen hundert Nanosekunden. Es enthält daher nur einen geringen Anteil an höheren Frequenzen und wird demzufolge in Gewebe wenig gedämpft. Die höheren Spektralanteile treten erst bei Ausbildung einer Stoßfront auf dem Weg zum Fokus auf. Aufsteilung im Stoßrohr. Um schon vor der Linse ein aufgesteiltes Signal zu erzeugen, kann man ein langes Stoßrohr zwischen EMSE und Linse einfügen. Während des Laufwegs wird darin die Anstiegszeit der Welle immer kürzer, am Stoßrohrende erhält man im idealen Fall eine Stoßwelle. Nachteilig ist neben größerer Baulänge und Gewicht der Energieverlust durch in die Rohrwandung eingekoppelte Wellenanteile. In neueren Gerätekonzepten findet man üblicherweise kein Stoßrohr. Aufsteilung durch Fokussierung. Auf dem Weg zum Fokus steilt die Schallwelle ebenfalls auf, wobei dieser Effekt durch die zunehmende Bündelung unterstützt wird. Im Wasserbad kann man daher i. d. R. bei Systemen mit entsprechender Auslegung (Entfernung Linse – Fokus, Anfangsdruck) im Fokusgebiet Stoßwellen messen. Ob
27
504
III
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
die gleichen Signale auch in Gewebe vollständig aufsteilen, lässt sich nur schwer vorausberechnen. Weil dessen Verhältnisse (z. B. Schichtung, Dämpfung, Nichtlinearität) beim individuellen Patienten nicht vorhersehbar sind, ist eine genaue Vorhersage der Steilheit im Fokus nicht möglich. Experimente in vivo zeigen aber, dass die Welle voll aufgesteilt sein kann. Bei Schallsignalen mit weniger als etwa 25 MPa im Fokus wird bei in der ESWT üblichen Geometrien (Fokusentfernung 5–10 cm von der Quelle) auch in Wasser kein voll aufgesteiltes Fokussignal erreicht, während bei höheren Drucken und den ESWT-typischen Aperturen von EMSE-Systemen mit Linsenfokussierung regelmäßig Stoßwellen gemessen werden können. In einem ESWL-System mit selbst fokussierender KalottenEMSE von 12 cm Apertur (Eisenmenger 2003) entstehen dagegen auch schon bei geringeren Fokusdrücken durch einen entsprechend langen Laufweg zum Fokus voll aufgesteilte Stoßwellen. Die Zylinder-EMSE Bei dieser besonderen Form der EMSE wird die Spule zylinderförmig aufgebaut und von einer zylindrischen Membran umgeben. Der Schallpuls wird dabei radial abgestrahlt. Er hat den gleichen Zeitverlauf wie bei der flachen Bauform. Die Wellen der Zylinder-EMSE werden durch einen Rotationsparaboloid auf einen Fokus konzentriert. Dabei wird nur ein kleiner Abschnitt des Paraboloids verwendet (Wess 1989).
Piezoelektrische Schallquelle Bei der piezoelektrischen Schallquelle geschieht die Umsetzung von elektrischer in mechanische Energie in polarisierten Keramikplättchen, z. B. aus Blei-Zirkonat-Titanat, die sich aufgrund des piezoelektrischen Effekts beim Anlegen einer elektrischen Spannung (bis ca. 5 kV) ausdehnen oder kontrahieren. Meist verwendet man einige Dutzend bis zu mehreren tausend Plättchen, die eng benachbart in einer Ebene oder auf einer kugelabschnittförmigen Trägerstruktur (Anfangs mit 50 cm Durchmesser) aufgebaut werden und insgesamt eine großflächige Schallfront abstrahlen (Riedlinger 1986, Ueberle 1987). Der zeitliche Verlauf der Piezo-Schallwelle hängt wesentlich vom mechanischen Aufbau der Strahler-Frontund Rückseite (»Backing«) sowie von der gewählten elektrischen Ansteuerung ab. Bei akustisch gut angepasstem Backing lässt sich ohne weitere elektrische Pulsformung als kürzester Schallpuls eine Welle mit einer Überdruck- und einer Unterdruckphase erzielen (Riedlinger 1986, Ueberle 1987). Die Zeitdauer des Signals hängt dabei von der Dicke der Piezoelemente (z. B. 5 mm) (Dreyer 2001) ab, sie wird i. d. R. zwischen 1 und 2 µs pro Halbwelle gewählt. Auch Pulsformen, die mehrere Über- und Unterdruckphasen beinhalten, können durch entsprechende
Wandlerkonstruktion erzeugt werden. Die Wechsel zwischen Über- und Unterdruck erzeugen dann im Fokus starke Kavitationswirkung, die große Gewebeschäden zur Folge hat. Mögliche Anwendungen hierfür finden sich bei der Tumorzerstörung (Feigl 1995, Schneider 1994, Joechle 1996) sowie beim Einsatz von Druckpulsen zur Beeinflussung von Zellen in der Biotechnologie (Tschoep 2001, Ueberle 2000).
Selbstfokussierte Aufbauten – Sphärische Schallquellen Piezoelektrische Schallsender werden bevorzugt auf einer sphärischen Oberfläche angeordnet. Dadurch kommen alle von den Einzelelementen abgestrahlten Schallwellen gleichzeitig im Kugelzentrum an, wo sich der Fokus bildet. Je geringer der Raumwinkel (Apertur) der strahlenden Fläche ist, desto mehr verschiebt sich das Druckmaximum in Richtung des Strahlers. Dieser Verschiebung wirkt eine durch die Aufsteilung bedingte positive Verschiebung des Druckmaximums in Richtung Fokus entgegen. Bei voll aufgesteilten Schallwellen fallen geometrischer Fokus und Druckmaximum meist zusammen. Auch bei EMSE-Schallquellen findet man selbstfokussierende Aufbauten mit einer gekrümmten Spiralspule und entsprechender Membran (Staudenraus 1991, Eisenmenger 2003). Neue Ansätze zur Effizienzsteigerung piezoelektrischer Druckpulsquellen Der primäre Schalldruck des einlagigen Piezo-Generators ist mit <1 MPa geringer als der einer EMSE Quelle. Da dadurch auch die Schallenergiedichte an der Piezowandleroberfläche deutlich geringer sind als bei EMSE, ist eine größere Wandlerfläche zur Erzeugung der notwendigen Fokusenergien notwendig. Neue Ansätze (Dreyer 2000, Chapelon 2000) beschreiben geschichtete Wandlerstrukturen, die aus aufeinandergesetzten Einzelelementen bestehen, die zeitlich versetzt angesteuert werden. Im Prinzip wird die patientenseitige Wandlerschicht erst dann angesteuert, wenn die Schallwelle der entfernteren Schicht an ihrer Oberfläche ankommt. Dadurch kann der Primärdruck verdoppelt werden, die Energie wird also vervierfacht (Dreyer 2000). Dies erlaubt z. B. die Reduktion des Wandlerdurchmessers auf 30 cm (für ESWL), wodurch neuartige Systemkonstruktionen möglich werden. Ein geschichteter Wandleraufbau wird z. B. durch Bekleben der Vorder- und der Rückseite einer metallischen Sphäre mit Piezo-Elementen realisiert. Für ESWT-Zwecke gibt es dadurch handgehaltene Wandlerköpfe von <10 cm Durchmesser. Besondere Eigenschaften der Piezo-Schallquelle Ein Piezo-Schwinger erzeugt wie die EMSE zunächst keine Stoßwellen, sondern dreieckförmig ansteigende Si-
505 27.5 · Praxis der Extrakorporalen Lithotripsie (ESWL) und der Extrakorporalen Stoßwellentherapie (ESWT)
gnale. Da sie nur geringe hohe Frequenzanteile enthalten, gelten in etwa die gleichen Verhältnisse wie beim EMSE. Das typische Schallsignal des Piezo-Schwingers enthält einen Unterdruckanteil, der zunächst eine ähnliche Amplitude hat wie der Überdruckanteil. Da er aber im Gegensatz zum Überdruckanteil nicht aufsteilt, erzielt man im Fokus eine geringere Unterdruckamplitude. Zu dieser addiert sich noch die Unterdruckamplitude der Randbeugungswelle. Dabei ist eine optimale Signalformung durch elektrische und mechanische Maßnahmen wichtig. Wenn der Wandler wenig gedämpft ausschwingt und dabei mehrere Über- und Unterdruckperioden abstrahlt (Ueberle 1987, Feigl 1995), kann dies zu größerer Gewebezerstörung durch Kavitation führen. Solche Wandler werden für gezielte Gewebezerstörung eingesetzt, nicht aber zur Lithotripsie. Es wurden erhebliche Anstrengungen unternommen, sowohl monopolare Schallpulse zu erzeugen wie auch die Randbeugungswelle zu minimieren (Riedlinger 1987, Cathignol 1989). Durch die vielfältigen Möglichkeiten zur Pulsformung bieten Piezowandler ein weites Feld für die Untersuchung verschiedenster Bioeffekte. Eine Studie der Effekte von Schallpulsen, die mit einer Unterdruckphase beginnen (Cathignol 1998), zeigte, dass diese inversen Pulse signifikant größere Schäden in Agar und Kaninchenleber verursachten. Andere Autoren berichten dagegen von deutlich geringerer Hämolyse, wenn sie Unterdruckpulse mit einem schallweichen Reflektor und einer Funkenquelle erzeugten (Evan 1998, Jordan 1998). Die Steinzertrümmerung dieser Anordnung war wesentlich geringer als bei funkenerzeugten (Überdruck-) Stoßwellen mit einer vergleichbaren Reflektorgeometrie bei schallharter Reflexion (Crum 1998).
⊡ Abb. 27.15. Ein moderner Lithotripter, der gleichzeitig als urologischer Arbeitsplatz genutzt werden kann. Das Bild zeigt alle Systemkomponenten wie Stoßquelle mit Positionierungsmechanik und angebautem Ultraschall-Outline – Ortungssystem, Röntgenortung an einem drehbaren C-Bogen mit Monitorwagen, den in drei Achsen verfahrbaren Lagerungstisch sowie die Bedienkonsole (Dornier Lithotripter S)
Ankopplung Zwischen Schallquelle und Patient wird i. d. R. ein Wasservorlauf eingesetzt, der patientenseitig durch einen Koppelbalg abgeschlossen ist. Der Wasserdruck im Balg kann zur Unterstützung der Ankopplung eingestellt werden. Zwischen Balg und Haut wird ein Ultraschall-Koppelgel gegeben. Dabei sind insbesondere Luftblasen im Gel zu vermeiden, welche die Schallwellentransmission stören und möglicherweise durch ihre Kavitationswirkung Petechien verursachen könnten.
Ortung 27.5
Praxis der Extrakorporalen Lithotripsie (ESWL) und der Extrakorporalen Stoßwellentherapie (ESWT)
27.5.1 Systemkomponenten eines Lithotripters
Ein typisches Lithotriptersystem wie es in ⊡ Abb. 27.1 und ⊡ Abb. 27.15 zu sehen ist, besteht aus folgenden Komponenten: ▬ Schallquelle mit Ansteuerung und Ankoppelkissen (Wasserkreislauf); ▬ Schallquellenpositionierung; ▬ Ortungseinrichtung(en) mit Monitorsupport; ▬ Gehäuse mit Netzteilen, Steuerung, Stoßgeneratoren etc.; ▬ Patientenlagerung (z. B. Tisch) mit Zubehör zur Halterung von Extremitäten; ▬ EKG-Gerät zur Herzfrequenz-abhängigen Druckpulsauslösung.
Während bei der Nieren- oder der Gallenlithotripsie, bei der Zertrümmerung eines Schulter-Kalkdepots und bei einem Knochenbruch das Zielgebiet mittels Ultraschalloder Röntgengeräten objektiv lokalisiert werden kann, ist der Arzt bei der Schmerztherapie von Epikondylitiden und Ansatztendinosen auf die Mitwirkung des Patienten angewiesen. Er lässt sich i. d. R. die genaue Lage des Punkts maximaler Schmerzen angeben und richtet während der Behandlung die Schallwellen gemäß Patientenangaben auf diesen Ort. Diese Art der Behandlung findet zumeist unter Ultraschallkontrolle statt, da damit auch Gewebestrukturen wie Sehnen und Muskeln darstellbar sind. Bei einigen Systemen ist »Dual Imaging« möglich. Darunter versteht man die simultane Verwendung von Röntgenortung zur präzisen Einstellung des Ziels und einer Realtime-Ultraschallkontrolle. Dadurch ist eine fortlaufende Behandlungskontrolle bei minimaler Strahlenbelastung möglich. Allerdings kann schon aus anatomischen Gründen nicht in allen Therapiesituationen mit Ultraschall geortet werden. Daher gibt es bei fast allen
27
506
III
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
etablierten Lithotriptern eine Röntgenortung oder Möglichkeiten, eine solche zu integrieren. An die Genauigkeit der Ortung werden hohe Anforderungen gestellt. Wie oben gezeigt, hat die wirksame Fokusebene lediglich einen Durchmesser von ca. 22 mm um die Schallachse, und auch in Achsrichtung hat man nur wenig mehr Platz. Der Mittelpunkt der Ortungsanzeige muss daher hochgenau auf den Fokus zeigen, ungeachtet aller mechanischen Anforderungen an die Positioniermechaniken. Um die Qualität dieser Einstellungen sicherzustellen, wird ein Fokusphantom verwendet, das auf den Therapiekopf aufgesetzt werden kann und die genaue Position des Therapiefokus im Ortungssystem anzeigt und mit dem der Lithotripter in regelmäßigen Zeitabständen geprüft werden sollte. Röntgenortung Eine Ortungseinrichtung muss generell in der Lage sein, das Gebiet um den Fokus in allen Raumrichtungen darzustellen. Während das Problem bei älteren Lithotriptern durch zwei Röntgensysteme gelöst wurde, deren Schnittpunkt der Röntgenachsen auf den Stoßwellenfokus ausgerichtet war, verfügen neuere Geräte über einen isozentrisch um den Schallfokus schwenkbaren Röntgenarm. Damit wird der Fokus zunächst durch Verfahren der Schallquelle oder des Patienten in einer horizontalen Ebene bei AP-Durchleuchtung auf das Ziel eingestellt. Anschließend wird das Röntgengerät isozentrisch in eine schräge Position, z. B. cranial-caudal (cc) geschwenkt. In dieser Projektion kann das Ziel vertikal eingestellt werden (⊡ Abb. 27.16). Anstelle der cranial-caudal-Ebene zur Einstellung der vertikalen Patientenposition kann auch eine Lateral-Ebene verwendet werden. Während der Behandlung sind gelegentliche Ortungskontrollen wichtig, besonders wenn der Verdacht besteht, dass sich der Patient bewegt hat. Varianten der Röntgenortung Die ersten Lithotripsiegeräte (⊡ Abb. 27.1) hatten zur Ortung zwei unabhängige Röntgensysteme, die fest auf den Stoßwellenfokus ausgerichtet waren. Die Röntgenstrahlen gingen dabei schräg durch den Körper, was die Orientierung erschwerte. Neuere Geräte verwenden mitunter für eine Projektionsrichtung das sogenannte Inline-Röntgen, bei dem durch eine strahlendurchlässige Öffnung auf der Mittelachse der Schallquelle geröntgt wird. Nachteilig sind unter Umständen der abschattungsbedingte kleine Bildausschnitt sowie die erhöhte Streustrahlung in der Koppelflüssigkeit, was durch aufblasbare Luftstrecken gelöst werden kann. Besteht kein direkter Röntgenzugang an der Schallquelle vorbei oder durch sie hindurch, so wird auch ein »OfflineRöntgen« eingesetzt. Dabei ist der Röntgenbogen gegenüber der Schallquelle entlang der Tischlängsachse ver-
⊡ Abb. 27.16. Bei der Röntgenortung wird zunächst bei AP-Durchleuchtung (oberes Bild) das Ziel in den Fokus der Therapiequelle durch Verfahren des Patienten in der horizontalen X-Y-Ebene eingestellt. Anschließend kann bei schräggestelltem Röntgenbogen mittels ccDurchleuchtung unter 30° Schrägstellung die Z-Koordinate des Ziels in den Therapiefokus justiert werden, indem der Tisch oder die Therapiequelle in der Höhe verfahren wird
schoben angeordnet. Zur Ortung wird der Tisch um eine definierte Strecke verschoben. Man kann sich vorstellen, dass die Anforderungen an die mechanische Genauigkeit solcher Anordnungen außerordentlich hoch sind, zumal während der Behandlung die Steinlage und der Zertrümmerungsfortschritt nicht kontrolliert werden kann, ohne den Patienten von der Schallquelle abzukoppeln. In neuerer Zeit wurden auch Ortungssysteme konstruiert, die keine mechanische Verbindung zwischen Schalltherapiekopf und Röntgensystem mehr erfordern. Stattdessen wird die Position der beiden Komponenten
507 27.5 · Praxis der Extrakorporalen Lithotripsie (ESWL) und der Extrakorporalen Stoßwellentherapie (ESWT)
gegeneinander durch ein Navigationssystem mit einer Ultraschallsensorik oder infrarotoptischen Mitteln gemessen. Der behandelnde Arzt wird über numerische oder Bildschirmanzeigen über die Position des Schallfokus im Röntgenbild informiert (Köhrmann 1999). Wesentlich kostengünstiger, aber ebenso exakt arbeitet ein System, das die Position des Therapiekopfs mit Hilfe von Laserpointern auf kleinen Zielscheiben anzeigt, die am Röntgen-Bogen angebracht werden. Damit ist es möglich, jeden beliebigen C-Bogen als Ortungssystem einzusetzen. Ultraschallortung Je nach Anordnung des bildgebenden Ultraschallwandlers unterscheidet man zwischen Inline- und Outlinesystem. Beim Inlinesystem ist der Schallkopf im Zentrum der Therapiequelle eingebaut. Oft kann er um seine Achse geschwenkt oder axial verschoben werden. Vorteilhaft ist, dass Ultraschallbild und Therapiequelle das gleiche Schalleintrittsfenster verwenden. Nachteilig ist, dass der Inline-Scanner einen Teil der Therapiewellen abschattet und an ihm Beugungswellen entstehen. Der resultierende Energieverlust muss durch eine erhöhte akustische primäre Energie ausgeglichen werden. Zudem wird durch die Wasservorlaufstrecke und das Koppelkissen das Bild beeinträchtigt, und es kann zusätzlich zu Artefakten kommen, die die Ortung erschweren. Zur Minimierung dieser Probleme wird oft der Inline-Scanner zur Ortung durch einen axialen Antrieb an den Patienten herangefahren, während der Stoßwellenbehandlung wird er dann möglichst weit zurückgezogen. Beim Outlinesystem ist der Ultraschallscanner auf einem zum Therapiefokus isozentrisch beweglichen Arm angeordnet. Damit ist es möglich, für die Ortung wie für die Druckpulsquelle jeweils das optimale Schallfenster zu wählen. Da die Ortungsachse nicht mit der Therapieachse übereinstimmt, sind beim Outlinesystem zwar geringfügig erhöhte Anforderungen an die anatomische Orientierung des Arztes gestellt, dafür ist es aber möglich, mit StandardSchnittebenen zu arbeiten, was für eine korrekte Beurteilung des Krankheitsbildes Voraussetzung ist. Vorteilhaft ist außerdem die einfache Wechselbarkeit der Scanner zur optimalen Anpassung an jede Behandlungssituation sowie das artefaktfreie ungestörte Bild. Durch unterschiedliche Schallwege von Ortung und Stoßquelle können bei der Outlineortung unter ungünstigen Umständen Missweisungen von einigen Millimetern entstehen (Folbert 1990), die in der Praxis aber durch die Echtzeit-Beobachtung des Zertrümmerungsvorgangs kompensiert werden können. Auch für die Ultraschallortung wurden schon sensorbasierte Navigationssysteme zur Anzeige der Fokusposition eingesetzt. Der Therapiefokus wird dabei in das Ultraschallbild eingeblendet oder über eine numerische Anzeige dem Arzt mitgeteilt. Zur Halterung des Ultraschallscanners ist dennoch ein mechanischer Arm
notwendig, wenn eine andauernde Beobachtung der Behandlung gewünscht wird.
27.5.2 Ansätze zur Online-Zertrümmerungs-
kontrolle während der Behandlung Bereits früh wurden Ansätze untersucht, den Fortgang der Steinzertrümmerung online zu verfolgen. Piezo-Wandler können auch Signale empfangen. Damit können sowohl Echos von Testpulsen als auch Signale, die nach den Hochenergiepulsen in der Fokusregion entstehen, empfangen werden. Durch Auswertung der Signalpolarität ist dabei eine Unterscheidung zwischen Kavitations- und Steinsignalen möglich (Ueberle 1988). Durch Einblendung der Signale in ein synchronisiertes Ultraschallbild konnten ebenfalls Echos aus der Fokusregion verstärkt werden, um damit ein »Hit-Miss«-Monitoring zu realisieren (Kuwahara 1991). In neueren klinischen Versuchen wurde gezeigt, dass durch Auswertung der Zeitdauer von Dopplersignalen, die direkt nach einem Druckpuls erfasst werden, eine hochsignifikante Aussage über Treffer oder Fehlschuss zu machen ist und auch der Zertrümmerungsfortgang beobachtet werden kann (Bohris 2003). All diese Verfahren fanden jedoch bislang klinisch keine Verbreitung. Insbesondere Lösungen, die die Abgabe von Stoßwellen bei nicht vorhandenen Steinreflexen im Fokus unterbinden, führten – wie auch Atemtriggerung – zu einer unregelmäßigen Stoßwellenabgabe, was auf Patienten und Behandler stark irritierend wirkt (Rassweiler 2005). So bleibt man bislang bei einer kontinuierlichen, gleichmäßigen Stoßwellenabgabe und nimmt dabei eine gewisse Anzahl (bis zu 30%) Fehlschüsse in Kauf. Eine sowohl kontinuierliche als auch wohlgezielte Stoßwellenapplikation könnte durch eine Online-Zielverfolgung erreicht werden. Mechanische Nachführungen lassen sich aufgrund der großen bewegten Massen der Druckpulsquellen kaum umsetzen. Ein Ansatz wäre die elektronische Fokussierung der Druckpulse, etwa mittels »Phased Array« aus vielen Einzelquellen (16–128). Derartige Konstruktionen wurden als »Akustischer Spiegel« vorgestellt und bereits klinisch erprobt, konnten sich aber aufgrund ihres hohen technologischen Aufwandes und damit Preises bislang nicht behaupten (Fink 1999).
27.6
Der Patient
27.6.1 Patientenlagerung bei der ESWL
und ESWT Bei der Steinbehandlung wird der Patient i. d. R. liegen. Dies erleichtert die Analgesie und die Überwachung von Blutdruck und Puls.
27
508
III
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
Zur ESWT- Behandlung kann der Patient sitzend oder liegend gelagert werden. Eine liegende Position kann auch hier zur Vermeidung von Kreislaufproblemen vorteilhaft sein, besonders wenn unter Lokalanästhesie behandelt wird. Durch entsprechende Halterungen können die Extremitäten gestützt und in eine geeignete und bequeme Ankoppelposition gebracht werden. Dadurch wird auch das Abkoppeln durch schmerz- oder schreckbedingte Reflexe verringert.
27.6.2
Stein- und Patientenabhängige Einflüsse
Im Abschnitt über die Steinzertrümmerung wurden bereits die beteiligten Effekte aus physikalischer Sicht diskutiert. Dabei wurde von idealisierten Bedingungen ausgegangen, wie man sie nur bei der Messung im Wasserbad findet. Um den Patienteneinflüssen Rechnung zu tragen, wurde von einer Arbeitsgruppe der Deutschen Gesellschaft für Stoßwellenlithotripsie (DGSL) ein Patienten-Phantom entwickelt (Wess 1997), um das es allerdings – auch aufgrund der erheblichen Anzahl von zu berücksichtigenden Parametern – recht ruhig geworden ist. Bei der realen Steinbehandlung spielen folgende Einflüsse der »wirklichen Welt« eine große Rolle für das Zertrümmerungsergebnis, die benötigte Energie pro Puls und die Gesamt-Energiedosis: 1. Abschwächung durch Gewebeabsorption; 2. Energiedissipation und Verluste durch nichtlineare Veränderung der Schallpulse; 3. Reflektion an Gewebegrenzflächen (Haut, Fett, Muskel, Nierenkapsel, Harnleiter etc.); 4. Abschattung durch Knochenstrukturen (Rippen, Rückgrat, Hüftknochen) (Delius 1994); 5. Abschattung durch Einbauten in der Schallquelle, z. B. Ultraschall-Inline-Schwinger (Delius 1994, Wess 1989); 6. Abschattung durch gasgefüllte Strukturen (z. B. Gas im Darm); 7. Abschattung und Absorption durch »Sludge«, d. h. bereits zertrümmerter Steinmasse (Lobentanzer 1991); 8. Aberration an Grenzschichten durch Schallbrechung (führt auch zu Missweisung der Ortung); 9. Einfluss des den Stein umgebenden Mediums (Gewebe, Urine, Gallenflüssigkeit etc.) auf die Bildung und Ausbreitung von Kavitation (Koch 1998, Delius 1994, Vakil 1991, Zhong 2001); 10. Impaktierte Steine, z. B. im Ureter (Parr 1992, Nitsche 1994) oder auch Verkalkungen in der Schulter (Loew 1994) benötigen deutlich höhere Energiedosen zur Zertrümmerung als frei schwimmende Steine in der Niere. Bei viskoser Steinumgebung wie PVA
11.
12. 13. 14. 15.
wurden 8–10-fach mehr Druckpulse zur Steinzertrümmerung benötigt verglichen mit reinem Wasser (Delius 1994); Gasbläschen im Stoßwellenpfad (z. B. im Koppelgel zwischen Koppelbalg und Patient oder in Fettschichten an der Haut) erhöhen die Dämpfung im Stoßwellenpfad deutlich; Unterschiedliche Steinzusammensetzung kann die notwendige Stoßzahl vervielfachen (Heimbach 2000); Fehlpositionierung durch Ortungsfehler können rasch zu Verschiebungen im Zentimeterbereich führen; Bewegung des Organs und des Steines durch Atemverschiebung, typisch sind um 30 mm (Carlson 1986); Fehlpositionierung aufgrund einer Bewegung des Patienten – daher ist gelegentliche Ortungskontrolle (trotz ggf. damit verbundener Röntgendosis) wichtig.
Diese Einflüsse summieren sich zu einem starken Einfluss auf die Gesamtschusszahl auf: Die Anzahl der Pulse pro Steinbehandlung (1000 bis >5000 Pulse pro Behandlung bei einer Wiederbehandlungsrate von 10% bis >40%) ist i. d. R. zumindest 5–10-mal höher als die Pulszahl, die ein vergleichbarer Modellstein in einem idealen Labormodell mit entgastem Wasser benötigt (z. B. 0,9 ml Modellsteinmaterial benötigen 50–500 Pulse (Köhrmann 1993).
27.7
Bewertung der klinischen Effizienz von Lithotriptoren
Für die Beurteilung der klinischen Effizienz eines Lithotripters spielt nicht nur die reine Zertrümmerungsleistung eine Rolle. Vielmehr sind patientenbezogene Faktoren zu berücksichtigen, die sowohl Anforderungen an die Analgesie und Anästhesie wie auch Auxiliärmaßnahmen nach der Behandlung, z. B. endourologische Eingriffe bei Harnstau sowie Mehrfach-Lithotripsien (Re-ESWL) berücksichtigen. Alle diese Anforderungen wurden in einem Effizienz-Quotienten zusammengefasst (Tailly 1999, Rassweiler 1992), der wie folgt definiert ist: EQA =
% steinfreie Patienten 100% + %Zweitbehandlung + %Auxiliärmaßnahmen nach ESWL
Moderne Behandlungsstrategien beinhalten außerdem Auxiliärmaßnahmen vor der Behandlung wie das Legen von Kathetern oder das Zurückschieben eines Harnleitersteins in die Niere. Sie werden als zusätzlicher Summand im Nenner berücksichtigt, der Quotient wird dann als EQB bezeichnet. Bei Geräten der ersten Generation fand man EffizienzQuotienten ab 25%, während mit den modernen Geräten bis 67% erreicht werden (Köhrmann 2005). Dabei spielt sowohl die seither erhöhte Steinfreiheit (Üblicherweise
509 27.7 · Bewertung der klinischen Effizienz von Lithotriptoren
nach 3 Monaten kontrolliert) wie auch die stetige Verringerung auxiliärer Maßnahmen und die für den Patienten weniger belastenden, schmerzärmeren Schallquellen eine große Rolle. Unterschiedliche Autoren finden aber beim gleichen Gerät oft sehr unterschiedliche Effizienzquotienten (z. B: HM3: 0,25–0,67 – Interessant ist, dass gerade dieses vor 25 Jahren eingeführte Gerät von einigen Ärzten bis heute als das effizienteste Gerät geschätzt wird (Gerber 2005). Gemäß einer neueren Studie spielen sowohl die angewandte Behandlungsstrategie (Energie, Stoßzahl, Ortung) wie das Training und die Erfahrung der Anwender eine entscheidende Rolle (Logarakis 2000) für die Effizienz der Behandlung. Ein weiterer Grund für größere Abweichungen kann in der unterschiedlichen Patientenpopulation von Studien liegen, z. B. durch Ein- oder Ausschluss von Uretersteinen oder die Beschränkung der Steingröße. Nachdem heutzutage durch die verbesserte Messtechnik auch die technischen Daten der Schallquellen ausreichend genau erfasst werden können, sollte die Einführung einer Druckpuls-Dosimetrie bei den Behandlungen in Angriff genommen werden. Eine sinnvolle Größe bei der Steinbehandlung ist die gesamte effektive Energie einer Behandlung, also die Summe der effektiven Energien pro Druckpuls E12mm (Forssmann 2002). Bei der ESWT wird ebenfalls eine aufsummierte effektive Energie (Meier 1998) oder auch die Summe der Pulsintensitäten diskutiert.
27.7.1 Die Kontroverse um die richtige
Fokusgröße Aussagen über die Fokusgröße beziehen sich traditionsund normgemäß auf die axialen und lateralen (–6 dB) Fokusabmessungen, ein Wert, der leider, wie oben gezeigt, keine brauchbare Korrelation zur Zertrümmerungseffizienz hat und sogar zu Fehleinschätzungen der Druckpulsquellen verführt. Auch in neueren Arbeiten, bei denen Geräte verschiedener Hersteller mit kleinerem und größerem Fokus verglichen werden, werden i. d. R. keine effektiven Energiewerte aufgelistet. Ursache dafür ist eine mangelnde Verpflichtung zu solchen Angaben. In einer Konsensvereinbarung (Wess 1997) hat man sich zwar in Deutschland auf einen entsprechenden Datensatz geeinigt. Umgesetzt wurde diese Vereinbarung aber bislang erst für ESWT-Geräte, deren technische Daten konsistent mit Glasfasersonden gemessen wurden und auf den Internetseiten der (DIGEST) zugänglich sind. Für Lithotripter existiert eine solche Datenbasis bislang nicht. Publizierte Vergleiche mit Hilfe von Modellsteinen geben eine gewisse Orientierung (Teichmann 2000), werden aber nicht von allen Herstellern akzeptiert. Eine Standardisierung einer Modellstein-Messtechnik steht noch aus. Ein Vergleich von klinischen und technischen Daten
zwischen Geräten mit breitem Fokus und niedrigem Spitzendruck und Geräten mit kleinerem Fokus und deutlich höherem Spitzendruck anhand der klinischen Effizienzquotienten EQA ist aufgrund unvollständiger Daten und der oben erwähnten Streuung nur unvollständig möglich. Dennoch seien zwei Beispiele genannt: Ein Gerät mit 18 mm (–6 dB) Fokus bei 20–32,8 MPa vs. Einem Gerät mit 6 mm (–6 dB) Fokus und ca. 90– 100 MPa: Die klinischen EQA liegen in beiden Fällen bei 0,65 (Niederdruckgerät) bzw. 0,62 (Hochdruckgerät) und sind somit vergleichbar (Eisenmenger 2001). Allerdings wird von anderen Autoren die Vermutung geäußert wird, dass das Patientengut zwischen den Studien große Unterschiede aufweise (Rassweiler 2005). Ein weiterer Vergleich mit Hilfe von Daten aus zwei verschiedenen Publikationen ergibt für das »Niederdruckgerät« (33 MPa bei 16 mm –6 dB Breite) einen EQA von bis zu 0,67 gegenüber einem EQA von 0,71 für das »Hochdruckgerät« (90 MPa bei 5,4 mm –6 dB Breite, Forssmann 2002, Niersteenverbrijzeling-eng 2005). Aus diesen Daten lässt sich also derzeit kein wirklicher Vor- oder Nachteil der beiden Philosophien »großer Fokus, niederer Druck« bzw. »kleinerer Fokus, hoher Druck« ableiten. Bislang kaum berücksichtigt oder schwer zu ermitteln sind die Nebenwirkungen verschiedener Geräte. Dazu ist anzumerken, dass der Anteil schwerer klinisch relevanter Nebenwirkungen (offenbar bei allen am Markt befindlichen Geräten) i. d. R. zu gering ist, um eine statistisch signifikante Aussage für einen Gerätetyp zu ermöglichen. Von Befürwortern großer Foki und geringem Spitzendruck wird aber besonders auf die sehr geringen Nebenwirkungen und (beim ersten Beispiel, s. oben) auch auf völligen Verzicht auf Anästhesie und sogar Analgesie trotz hoher Effizienz bei geringer Gesamt-Stoßwellenzahl hingewiesen. Als Grund wird der außerordentlich geringe Unterdruckanteil von weniger als 5 MPa angeführt, wodurch gewebeschädigende Kavitation weitestgehend vermieden wird (Eisenmenger 2003). Die Befürworter anderer Philosophien beziehen sich auf die positiven Erfahrungen in mehreren Millionen erfolgreichen Behandlungen, wobei subkapsuläre Nierenhämatome als häufigste schwere Komplikation lediglich in 0,1–0,7% der Fälle vorkommen und andere Organe weitaus seltener geschädigt werden (Hirata 1999). Aufgrund der offenen Fragen um die beste Fokussierung verwundert es nicht, dass von einigen Herstellern Geräte mit umschaltbaren Fokuseigenschaften angeboten werden. Dies wurde früher durch komplett auswechselbare Reflektorsysteme erreicht. Bei neueren Geräten variiert man die Pulsdauer der EMSE-Ansteuerung oder die Verzögerungszeiten von zwei Piezo-Lagen. Der größere Fokus soll dabei für Nierensteine gewählt werden. Für impaktierte Uretersteine wäre wohl eher der kleinere Fokus zu wählen.
27
510
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
27.7.2 Nebenwirkungen und Sicherheit
III
Als unmittelbare Nebenwirkungen der ESWL werden aufgeführt: Schmerz, Harntraktinfektion, Obstruktion der Harnwege, Hämaturie, Herzrhytmusstörungen, Nierenhämatome und subkapsuläre Hämatome sowie Verletzungen umliegender Organe. Lediglich die letzten drei Nebenwirkungen werden als schwer eingeschätzt. Verzögerte Komplikationen sind Funktionsverluste der Niere, Bluthochdruck (umstritten), Steinstrasse, Restkonkremente und wiederkehrende Steinbildung. Die meisten dieser Komplikationen sind selten; einige werden unterschiedlich bewertet und fast alle können durch die Einhaltung entsprechender Behandlungsrichtlinen minimiert werden (Maheshwari 2002). Bei der niederenergetischen ESWT der Epicondylitiden treten sehr geringe Nebenwirkungen wie transiente Hautrötung ,Schmerzen, kleine Hämatome und selten Migräne auf (Haake 2002). Bei höher energetischen ESWT Behandlungen kann es selten auch zu großflächigeren Hämatomen kommen. An gashaltigen Geweben wird die Schallenergie fast vollständig reflektiert. Besonders an der Lunge kann es dabei zu schweren Schäden kommen. Bei der Therapieplanung ist daher zu berücksichtigen, dass die Lunge nicht im Schallweg auf der Schallachse ist, auch nicht in weiterer Entfernung vom Fokus. Der Sicherheitsabstand zum Fokus richtet sich nach den konstruktiven Merkmalen der Schallquelle. Die Stoßwellenwirkung auf Nerven ist bislang ungeklärt. Es wurde zunächst nachgewiesen, dass Nerven durch Kavitation angeregt werden können (Hepp 1992). Über mögliche Schäden gibt es aber bislang keine Untersuchungen. Das unbeabsichtigte Beschallen von Nerven, die sich in Fokusnähe oder auf der Stoßwellenachse befinden, sollte daher vermieden werden. Anzeichen von Taubheit und andere neurologische Reaktionen sollten sorgfältig beachtet werden. Inzwischen werden jedoch bereits Patente auf die Beschallung von Nerven mit Hochenergie-Schallpulsen erhoben. Bei der Einnahme blutverdünnender Medikamente werden verstärkt Hämatome beobachtet – solche Mittel sollten daher rechtzeitig vor dem Behandlungstermin abgesetzt werden. Die Deutsche Gesellschaft für Stoßwellenlithotripsie schreibt vor, dass die Medikamente vor der ESW-Behandlung zumindest 10 Tage abgesetzt werden sollen (DGSL 1999). Bei Schwangeren ist nicht nur aufgrund der Belastung durch eine Röntgenortung Vorsicht geboten. Die Wirkung der Stoßwellen (auch indirekt durch Schmerzen bei der Behandlung) auf die Entwicklung des Fötus ist noch nicht ausreichend untersucht. Bei Schrittmacherpatienten muss sichergestellt sein, dass das Gerät im eingestellten Modus nicht durch die starken elektromagnetischen Pulse der Therapiequelle
beeinflusst wird, andernfalls ist von der Behandlung abzusehen. Während bei den Geräten der ersten Generation generell mit EKG-Triggerung gearbeitet wurde, kann bei den neueren Geräten auf Festfrequenz umgeschaltet werden. Die maximale Wiederholrate ist dabei 120 bis (selten) 240 Pulse pro Minute. Aufgrund der Kavitationsbildung ist jedoch die Wirkung der Pulse auf den Stein mit steigender Wiederholrate geringer, während die Gefahr von Nierenhämatomen ansteigt (Delius 1988, Wiksell 1995). Neuere Tierexperimente deuten ebenfalls auf verringerte Nierenschädigung bei langsameren Pulsfolgefrequenzen hin. Bei Patienten mit Neigung zu Herzrhythmusstörungen muss das EKG überwacht werden, gegebenenfalls können die Druckpulse EKG-getriggert ausgelöst werden. Dies gilt auch, wenn Teile des Herzens im Bereich der Druckpulswellenachse liegen. Die generellen Anforderungen an die Gerätesicherheit von Lithotriptoren sind in der internationalen Norm IEC 601-2-36 nachzulesen. Medizinische Richtlinien werden von urologischen bzw. orthopädischen Fachgesellschaften erarbeitet und immer wieder den neuesten Erkenntnissen angepasst.
27.8
Fachgesellschaften für Lithotripsie und Schmerztherapie
In Deutschland wurden einige Fachgesellschaften gegründet, die sich mit allen Aspekten der Stoßwellenlithotripsie und Schmerztherapie beschäftigen. An dieser Stelle sei besonders auf die Deutsche Gesellschaft für Stoßwellenlithotripsie hingewiesen, die im Rahmen der Deutschen Gesellschaft für Urologie insbesondere für die Nierenlithotripsie und verwandte Gebiete zuständig ist. Sie entwickelt Richtlinien zur Qualitätssicherung und beobachtet auf breiter Ebene die technische und medizinische Entwicklung der extrakorporalen und intrakorporalen Steinzertrümmerung und verwandter Gebiete. Die Deutsche und Internationale Gesellschaft für Stoßwellentherapie (DIGEST) widmet sich den Belangen der Schmerztherapie und der Pseudarthrosenbehandlung mit Hilfe von Stoßwellen. Im internationalen Umfeld arbeitet die ISMST (International Society for Muscosceletal Shockwave Therapy) mit ähnlichen Zielen.
27.9
Zum Abschluss
Den Beitrag möchte ich meinem leider kürzlich verstorbenen verehrten Kollegen Dr. Wolfgang Hepp widmen, der sich der ESWL seit ihren Pioniertagen verschrieben hat. Ich danke allen Kollegen der »ESWL-Szene« für ihre stets freundlichen und kooperativen Anregungen.
511 Literatur
Literatur Berlinicke, Schenneten (1951) Vorläufige Mitteilung d.I.Med.Univ.Klin. d.Charite Berlin.Klin. Wschi. 21/22, p 390 Bohris, Bayer, Lechner (2003) Hit/Miss Monitoring of ESWL by Spectral Doppler Ultrasound, Ultrasound Med Biol Vol 29(5): 705–712 Carlson, Boysen, Banner, Gravenstein (1986) Stone Movement During ESWL. In: Gravenstein, P (ed) Extracorporeal shock-wave lithotripsy for renal stone disease, Butterworths: ESWL for Renal Stone Disease. Boston, pp 77–85 Cathignol, Chapelon, Mestas et al. (1989) Minimization of the negative pressure in piezoelectric shock wave. Ultrasonics Int. Conf. Proc., pp 1142ff Cathignol, Tavakkoli, Arefiev (1998) Influence of the pressure time waveform on the transient cavitation effect. 135th ASA conf. Proc., pp 2799f, Seattle (WA) Cathignol, Mestas, Gomez, Lenz (1991) Influence of Water Conductivity on the Efficiency and the Reproducibility of Electrohydraulic Shock Wave Generation. Ultrasound Med Biol Vol.17(8): pp 8, 19–828 Chapelon, Cathignol, Cain et al. (2000) New Piezoelectric Transducers for Therapeutic Ultrasound. Ultrasound Med Biol 26(1): 153–159 Chaussy (1980) Berührungsfreie Nierensteinzertrümmerung durch extrakorporal erzeugte, fokussierte Stoßwellen. S. Karger Verlag, Basel Chuong, Zhong, Preminger (1992) A comparison of stone damage caused by different modes of shock wave delivery. J.Urol. 148: 200 Church (1999 On Nucleation Theory. DKE 821.3 Document 55/99, VDE, Frankfurt Cleveland, Bailey, Crum et al. (1998) Effect of Overpressure on Dissolution and Cavitation of Bubbles Stabilized on a Metal Surface, 135th ASA Conf. Proc., 2499–2500 Coats (1956) The J.Of Urology 75(5): B65–876 Coleman, Saunders (1990) A comparison of PVDF Hydrophone Measurements in the Acoustic Field of a Shock Wave Source. In: Extraund Intrakorporale Lithotripsie bei Harn-, Gallen-, Pankreas und Speichelsteinen, Thieme, Stuttgart, pp 15–22 Coleman, Codama, Choi et al. (1995) The cavitation threshold of human tissue exposed to 0,2 M Hz pulsed ultrasound: Preliminary measurements based on a study of clinical lithotripsy«. UMB 21: 405–417 Coleman, Choi, Saunders (1996) Detection of acoustic emission from cavitation in tissue during clinical extracorporeal lithotripsy. Ultrasound Med. Biol. Vol. 22(8): 1079–1087 Coleman, Draguioti, Tiptaf et al. (1998) Acoustic Performance and Clinical Use of a Fiberoptic Hydrophone. UMB Vol. 24(1): 143–151 Crum, Bailey, Kaczkowski et al. (1998) Therapeutic Ultrasound: A Promising Future in Clinical Medicine. 135th ASA conf. Proc., pp 7, 19f, Seattle (WA) Dahmen, Meiss, Nam Skruodies (1992) Extrakorporale Stoßwellentherapie (ESWT) im knochennahen Weichteilbereich der Schulter. Extr Orthop 11: 25 Delhaye, Vandermeeren, Baize, Cremer (1992) Extracorporeal shock wave lithotripsy of pancratic calculi. Gastroenterology 102: 610– 620 Delius, Enders, Heine et al. (1987) Biological Effects of Shock Waves: Lung Hemorrhage by Shock Waves in Dogs – Pressure Dependence. UMB 13: 61–67 Delius, Jordan, Eizenhöfer et al. (1988)Biological Effects of Shock Waves: Kidney Haemorrhage by Shock Waves in Dogs – Administration Rate Dependence. Ultrasound Med Biol 14: 689–694 Delius, Denk, Berding et al. (1990) Biological Effects of Shock Waves: Cavitation by Shock Waves in Piglet Liver. Ultrasound Med Biol 16: 467–472 Delius M, Gambihler (1992) Sonographic imaging of extracorporeal shockwave effects in the liver and gallbladder of dogs. Digestion, 52–60
Delius, Ueberle, Gambihler (1994) The destruction of gall stones and model plaster stones by extracorporeal shock waves. Ultrasound in Med. & Biol. Vol. 20(3), pp 251–258 Delius, Hofschneider PH, Lauer U, Messmer K (1995) Extracorporeal shock waves for gene therapy? Lancet 345: 1377 Delius, Draenert et al. (1995) Biological effects of shock waves: in vivo effect of high energy pulses on rabbit bone. Ultrasound in Med. and Biol. Vol. 21(9): 12, 19–1225 Delius (1997 »Minimal static excess pressure minimizes the effect of extracorporeal shock waves on cells and reduces it on gallstones. UMB 23: 611–617 Delius (1998) Ueberle, Eisenmenger: »Extracorporeal Shock Waves Act by Shock Wave – Gas Bubble Interaction. Ultrasound Med. Biol. Vol. 24(7): 1055–1059 Delius (1999) Adams: Shock Wave Permeabilization with Ribosome Inactivationg Proteins: A New Approach to Tumor Therapy. Cancer Research 59: 5227–5232 DIGEST: http://www.digest-ev.de DGSL (1995 Deutsche Gesellschaft für Stoßwellenlithotripsie: Konsensus-Workshop 4 der deutschen Gesellschaft für Stoßwellenlithotripsie. Die Stoßwelle. Attempto-Verlag, Tübingen DGSL (1999 Deutsche Gesellschaft für Stoßwellenlithotripsie, Mitgliederversammlung 1999: Anmerkung zum rechtzeitigen Absetzen von blutverdünnenden Mitteln vor ESWL Drach, Dretler, Fair et al. (1986) Report of the United States cooperative study of extracorporeal shock wave lithotripsy. J. Urol. Vol. 135: 1127–1133 Dreyer, Riedlinger, Steiger (1998) Experiments on the relation of shock wave parameters to stone disintegration. 135th ASA Conf. Proc., 2811–2812 Dreyer, Krauss, Bauer, Riedlinger (2000) Investigations of Compact Self Focusing Transducers using Stacked Piezoelectric Elements for Strong Sound Pulses in Therapy, IEEE Ultrasonics Symposium Proc., 1239–1242 Dreyer, Riedlinger (2001) Modeling of Piezoceramic Composite Transducer Structures Generating Strong Sound Pulses in Therapy. IEEE Ultrasonics Symposium Proc., 1027–1030 Eisenmenger (1962) Elektromagnetische Erzeugung von ebenen Druckstössen in Flüssigkeiten. Akustische Beihefte, Acustica Heft 1: 185–202 Eisenmenger (2001) The Mechanisms of Stone Fragmentation in ESWL. Ultrasound Med Biol 27(5): 683–693 Eisenmenger (2003) Die Physik der akustischen Nierensteinzertrümmerung und neue klinische Resultate. Vortrag anläßlich der Verleihung der Hermann von Helmholtzmedaille bei der DAGA Tagung Aachen, Proceedings, DPG Verlag, Bad Honnef Evan, Willis, Connors et al. (1998) Separation of cavitation and renal injury induced by ahock wave lithotripsy (SWL) from SWL-induced impairment of renal hemodynamics. 135th ASA conf. Proc., pp 2487f, Seattle (WA) FDA (1991) Draft of suggested information for reporting extracorporeal shock wave lithotripsy device shock wave measurements, FDA, Rockville, USA Fedele, Coleman, Leighton, White, Hurrell (2004) A New Sensor for Detecting and Characterising Acoustic Cavitation in Vivo During ESWL. Proceedings of the Institute of Acoustics, vol. 26 Pt2: 422–432 Feigl, Waldfahrer et al. (1995) Destruction of normal and malignant human cells by high-energy pulsed ultrasound. Proc. World congress on Ultrasonics, pp 1087–1090 Filipiczinsky (1990) Capacitance Hydrophone for Pressure Determination in Lithotripsy. Ultrasound Med Biol Vol. 16: 157–165 Fink (1999) Time-reversed acoustics. Scientific American 281: 91–97 Folbert, Hassler (1990) Die Wertigkeit von Inline-und Outline Ultraschall-Lokalisation in der extrakorporalen Stoßwellen-Lithotripsie. Z Urologie Poster I, p 46
27
512
III
Kapitel 27 · Einsatz von Stoßwellen in der Medizin
Forssmann, Ueberle, Bohris (2002) Towards a New EMSE Generation. J Endourol 16 (Suppl 2): 18–21 Gambihler, Delius (1992) Influence of dissolved and free gases on iodine release and cell killing by shock waves in vitro. Ultrasound in Med. and Biol. Vol 18. No 6/7: 617–621 Gerber, Studer, Danuser (2005): Is Newer Always Better? A comparative Study of 3 Lithotriptor Generations. J Urol 2005 Jun; 173(6): 2013–6 Granz, Köhler (1992) What makes a shock wave efficient in lithotripsy?. J.Stone Dis, Vol. 4, No.2, April 1992, pp 123–125 Granz, Nanke, Fehre, Pfister, Engelbrecht (2004) Light Spot Hydrophone, Innovation in Lithotripsy. Medical Solutions, June 2004, 86–87 Haake, Boddecker, Decker et al. (2002) Side-effects od Extracorporeal Shock Wave Therapy (ESWT) in the Treatment of Tennis Elbow. Arch Orthop Trauma Surg 2002, may; 122(4): 222-8 Harris (1989) Lithotripsy pulse measurement errors due to non-ideal hydrophone and amplifier frequency response. FDA, Rockville Haupt et al. (1992) Influence of shock waves on fracture healing. Urology 39, 6: 529–532 Heimbach, Munver, Zhong et al. (2000) Acoustic and mechanical properties of artificial stones in comparison to natural stones« J. Urol. Vol. 164: 537–544 Hepp (1984) Überblick über die Entwicklung der Stoßwellenlithotripsie, September 1984. Dornier Medizintechnik, Friedrichshafen Hepp (1989) Work bond index values (persönliche Mitteilung) Herbertz (1993) Physikalische Grenzwerte für die sichere medizinische Anwendung des Ultraschalls am Menschen. DAGA, Fortschritte der Akustik, DPG-Verlag Herbertz (1988) Spontaneous Cavitation in Liquids Free of Nuclei. Fortschritte der Akustik DAGA 88, DPG Verlag, Bad Honnef, pp 439–442 Hirata, Kushida, Ohguri et al. (1999) Hepatic subcapsular hematoma after extracorporeal shock wave lithotripsy (ESWL) for pancreatic stones« J Gastroenterol 1999 Dec.; 34 (6): 713–6 Holtum (1993) Eigenschaften und Desintegration von menschlichen Gallensteinen unter Stoßwelleneinwirkung. Dissertation, Stuttgart 1993 IEC (1998) Norm 61846 Pressure Pulse Lithotripters, International Electrotechnical Commission, Genf 1998 Iro, Nitsche, Schneider, Ell (1989) Extracorporeal shock wave lithotripsy of salivary gland stones. Lancet II: 115 Jocham (1998) Report at the meeting of the German Society for Shockwave Lithotripsy Joechle (1996) Kavitationsdosimetrie in hochenergetischen Ultraschallfeldern« Dissertation, Heidelberg 1996 Jordan, Bailey, Cleveland, Crum (1998) Detection of Lithotripsy Induced Cavitation in Blood. 135th ASA conf. Proc. pp 2809f, Seattle (WA) Kauleskar, Sukul et al. (1993) The effect of high energy shock waves focused on cortical bone. J. Surg. Res. 54: 46–51 Kedrinskii (1998) On a mechanism of target disintegration at shock wave focusing in ESWL. 135th ASA Conf. Proc.: 2803–2804 Keller, Riedlinger (1990) Vergleich der Kavitation bei verschiedenen Stoßwellengeneratoren. Biomed. Tech. Ergänzungsband 35: 233– 234 Koch, Grünewald (1989) Disintegration mechanisms of weak acoustic shock waves. Ultras. Int. Conf. Proc 1136–1141 Koch, Molkenstruck, Reibold (1997) Shock-Wave Measurement using a Calibrated Interferometric Fiber-tip Sensor. UMB Vol. 23, no. 8, pp 1259–1266 Köhrmann, Kahmann, Weber et al. (1993) Vergleich verschiedener Lithotripter anhand der Desintegrativen Effektivität (DE) un Desintegrativen Bandbreite (DB) am In-vitro-Steinmodell. Akt. Urol. 24: 320–325 Köhrmann, Michel, Braun et al. (1999) New Interactive Navigation System for Integration of Fluoroscopic and Ultrasound Imaging«, J Endourol, Vol.13 Suppl 1, FP3-5 and 3–6, p A32
Köhrmann (2005) Comparison of Lithotripters. Business Briefing European Pharmacotherapy, 90–93 Kuttruff (1988) Physik und Technik des Ultraschalls. Hirzel, Stuttgart Kuwahara, Kambe, Taguchi et al. (1991) Initial Experience Using a New Extracorporeal Lithotripter With an Anti-Misshot Control Device. J. Lithotr. Stone Disease 3: 141–146 Lamport, Newman, Eichorn (1950) Federation Proc: 9 mar. 1950, pp 73–74 Lewin, Shafer (1991) Shock wave sensors: I. Requirements and Design. J. Lithotripsy and Stone Disease Vol. 3, no 1: 3–17 Lobentanzer (1991) The concept of acoustic energy in lithotripsy. Dornier User Letter 7: 22–26 Loew (1993) Die Wirkung extrakorporal erzeugter hochenergetischerr Stossellen auf den klinischen, röntgenologischen und histologischen Verlauf der Tendinosis calcarea der Schulter – eine prospektive Studie. In: Chaussy et al. (Hrsg) Die Stoßwelle, Forschung und Klinik. Attempto Tübingen, pp 153–156 Loew (1994) Die Wirkung extrakorporal erzeugter hochenergetischer Stoßwellen auf den klinischen, röntgenologischen und histologischen Verlauf der Tendinosis calcarea der Schulter. Habilitationsschrift Heidelberg, 1994 Logarakis, Jewett, Luymes, Honey (2000) »Variation in clinical outcome following shockwave lithotripsy. J.Urol. Vol. 163, 2000, 721–725 Lohse-Busch, Kraemer, Reime (1997) The Use of Extracorporeal Shock Wave Fronts for Treatment of Muscle Dysfunction of Various Etiologies: An Overview of First Results. In: Siebert, Buch (Eds) Extracorporeal Shock Waves in Orthopedics, chapt 14. Springer, Berlin Heidelberg New York Lovasz, Palfi, Romics (1999) Temperature elevation of stones during extracorporeal shock wave lithotripsy (ESWL) a hypothesis for possible cause of complications. Abstracts Tagung der Deutschen Urologischen Gesellschaft DGU, Abstract Session V2.5 Maheshwari, Andankwar, Saple, Oswal (2002) Extracorporeal Shock Wave Lithotripsy: Complications and Their Prevention. www,bhj. org/journal/2002_4402_apr/endo_181.htm Meier, Ueberle, Rupprecht (1998) Physikalische Parameter extrakorporaler Stoßwellen. Biomed. Tech. 43: 269–274 Michel, Ptaschnyk, Musial et al. (2003) Objective and subjective changes in patients with Peyronie’s Disease after Management with Shockwave Therapy. J.Endourology, 17(1): 41–44 Miller (1995) Thresholds for hemorrhages in mouse skin and intestine induced by lithotripter shock waves. UMB vol. 21(2): 249–257 Mishriki, Cohen, Baker et al. (1993) Choosing a powerful lithotripter. Brit. J. Urol 71: 653–660 Müller, Platte (1985) Einsatz einer breitbandigen Piezodrucksonde auf PVDF-Basis zur Untersuchung konvergierender Stoßwellen in Wasser. Acustica 58 Müller (1990) Dornier-Lithotripter im Vergleich: Vermessung der Stoßwellenfelder und Fragmentationswirkungen. Biomed. Technik 35(11): 250 – 262 Mulvaney (1953) The J. of Urology 70(5): 704–707 niersteenverbrijzeling-eng (2005) http://www.urologiena.com/subspecialisaties/niersteenverbrijzeling-eng.htm#Results Nishida, Shimokawa, Oi et al. (2004) Extracorporeal Cardiac Shock Wave Therapy Markedly Ameliorates Ischemia-Induced Myocardial Dysfunction in Pigs in Vivo. Circulation 110: 2977 Nitsche (1994) Amelsberg, Berg, Fölsch: Extracorporeal shock wave lithotripsy of gallstones in different biles and water in vitro. Digestion 55: 175–178 Pace, Ghiculete, Harju, Honey (2005) Shock wave lithotripsy at 60 or 120 shocks per minute: a randomized, double-blind trial. J Urol. 174(2): 595–9 Parr, Pye, Ritchie, Tolley (1992) Mechanisms responsible for diminished fragmentation of uretreal calculi. J.Urol. 148: 1079–1083 Philipp, Delius, Scheffcyk et al. (1993) Interaction of lithotripter-generated shock waves with air bubbles. JASA 5: 2496–2509
513 Literatur
Pye (1991) Parr, Munro, Anderson, McDicken: »Robust Electromagnetic Probe for the Monitoring of Lithotripter Output. UMB Vol. 17(9): 931 –939 Rassweiler, Henkel, Köhrmann et al. (1992) Lithotriptor Technology: present and future. J. Endourology 6(1): 1–15 Rassweiler, Bergsdorf, Ginter et al. (2005) Progress in Lithotripter Technology. In Chaussy, Haupt, Jocham et al. (eds) Therapeutic Energy Applications in Urology. Thieme, Stuttgart New York Rieber (1951) Shock Wave Generator. US Patent 2: 559 227 Riedlinger, Weiß, Ueberle (1987) Nichtlinearitäten des transienten Schallfeldes eines piezoelektrischen Hochenergie-Pulssenders. Fortschritte der Akustik DAGA: 489–493 Riedlinger, Ueberle, Wurster et al. (1986) Die Zertrümmerung von Nierensteinen durch piezoelektrisch erzeugte Hochenergie-Schallpulse. Urologe A 25: 188–192 Rompe, Hopf, Küllmer et al. (1996) Analgesic effect of extracorporeal shock wave therapy on chronic tennis elbow. J. Bone Joint Surgery (Br) 78 B: 233–237 Sass, Steffen, Matura et al. (1992) Experiences with Lithotripters: Measurement of Standardized Fragmentation. J.Stone Disease Vol.4(2) Sauerbruch, Delius, Paumgartner et al. (1986) Fragmentation of gallstones by extracorporeal shockwaves. New England J. Med 314: 818–822 Sauerbruch, Holl, Sackmann et al. (1987) Disintegration of a pancreatic duct stone with extracorporeal shock waves in a patient with cronic pancreatitis. Endoscopy 19: 207–208 Sauerbruch, Stern (1989) Fragmentation of bile duct stones by extracorporeal shock waves. Gastroenterology 96: 146–152 Schätzle (1992) Spezielle Fokusdruck-Sensoren für die Lithotripsie und deren Kalibration. Fortschritte der Akustik DAGA 1992 Schafer (1993) Cost effective shock wave hydrophones. J. Stone Disease Vol. 5: 73–76 Schelling, Delius et al. (1994) Extracorporeal shock waves stimulate frog sciatic nerves indirectly via a cavitation-mediated mechanism. Biophysical Journal 6: 133–140 Schneider, Feigl, Löhr et al. (1994) In vitro effects of high energy pulsed ultrasound on human tumor cells. Eur J Gastroenterol & Hepatol 6: 257–262 Seidl, Steinbach, Wöhrle, Hofstädter (1994) Induction of stress fibres and intercellular gaps in human vascular endothelium by shockwaves. Ultrasonics Vol. 32(5): 397ff Singh, Agarwal (1990) Mechanical and Ultrasonic Parameters of Kidney Stones. J. Lithotripsy and Stone Disease, Vol. 2(2): 117–123 Staudenraus (1991) Erzeugung und Ausbreitung freifeldfokussierter Hochenergiedruckpulse in Wasser. PhD Thesis, University of Stuttgart Staudenraus (1993) Eisenmenger: Fibre-Optic Probe Hydrophone for Ultrasonic and Shock Wave Measurements in Water. Ultrasonics 31: 267–273 Steiger (1987) Extracorporal Laser Induced Shock Wave Lithotripsy (ESWL). Laser, pp 201–206, MZV-EBM Verlag Steinbach et al. (1993) Effekte hochenergetischer Ultraschallstoßwellen auf Tumorzellen in vitro und humane Endothelzellen in situ. In: Chaussy et al. (Hrsg) Die Stoßwelle. Attempto-Verlag, Tübingen, SS 104–109 Steinbach, Hofstaedter, Roessler, Wieland (1993) Determination of energy-dependent extent of vascular damage caused by high-energy shock waves in an umbilical cord model. Urological Research 21: 279–282 Stranne, Cocks, Gettliffe (1990) Mechanical property studies of human gallstones Journal of Biomedical Materials Research, Vol. 24: 1049–1057 Suhr, Brümmer, Hülser (1991) Cavitation-generated free radicals during shock wave exposure: Investigations with cell-free solutions and suspended cells. Ultrasound Med. Biol. 17: 761–768
Sunka, Babicky, Clupek et al. (2004) Localized damage of tissues induced by focused shock waves. IEEE Trans. Plasma Sciences, Vol. 32(4): 1609–1613 Tailly (1999) Consecutive Experience with Four Dornier Lithotripters: HM4, MPL 9000, Compact and U/50. J. Endourology Vol. 13(5) Teichmann, Portis, Parker et al. (2000) In vitro Shock Wave Lithotripsy Comparison. J Urol 164: 1259–1264 Tschoep, Hartmann, Jox et al. (2001) Shock Waves: A Novel Method for Cytoplasmic Delivery of Antisense Oligonucleotides. J Mol Med 79: 306–313 Ueberle (1987) Piezoelektrisch erzeugte Hochenergiepulse und ihre Eignung zur Eignung zur Lithotripsie. in: Ziegler (ed.) die extracorporale und laserinduzierte Stoßwellenlithotripsie bei Harn- und Gallensteinen, Springer, Berlin Heidelberg New York Ueberle (1988) Ein Konzept zur Ortung und Erkennung von Zielen für Schallpulse hoher Energie. Dissertation, Karlsruhe 1988 Ueberle (1997) Acoustic Parameters of Pressure Pulse Sources Used in Lithotripsy and Pain Therapy. in: Chaussy et al (eds) High Energy Shock Waves in Medicine, pp 76–85, Thieme Stuttgart, New York 1997 Ueberle (1997) Shock Wave Technology. in Siebert, Buch Extracorporeal Shock Waves in Orthopedics, Springer, Berlin Heidelberg New York, pp 59–87 Ueberle (2000) Cell transfection by pulsed sound wave effects. Proceedings Microtec. VDI-Verlag Hannover Ueberle (2003) Pressure Pulses in Medicine. In: Srivastava, Leutloff, Takayama, Groenig (eds) Shock Focussing Effects in Medical Science and Sonoluminescence. Springer, Heidelberg New York Vakil, Gracewski, Everbach (1991) Relationship of Model Stone Properties to Fragmentation Mechanisms during Lithotripsy. J. Lithotripsy and Stone Disease Vol. 3(4): 304–310 Valchanou, Michailow (1991) High energy shockwaves in the treatment of delayed and nonunion fractures. Internat. Orthopedics (SICOT) 15: 181–184 Vergunst, Onno, Terpestra et al. (1990) In vivo assessment of shockwave pressures, Gastroenterology, SS 1467–1474 Vergunst, Onno, Terpestra et al. (1989) Assessment of Shock Wave Pressure Profiles In Vitro: Clinical Implications. J. Lithotripsy and Stone Disease, Vol.1(4) Wess, Marlinghaus, Katona (1989) Lars, eine großaperturige leistungsschallquelle für medizinische Anwendungen. Fortschritte der Akustik DAGA 295ff, DPG Verlag, Bad Honnef Wess, Ueberle, Dührßen, Hilcken, Reuner, Schultheiß, Staudenraus, Rattner, Haaks, Granz (1997) Working Group Technical Developments – Consensus Report. in Chaussy et al (eds) High Energy Shock Waves in Medicine. Thieme, Stuttgart New York, pp 59–71 Wiksell, Kinn (1995) Implications of cavitation phenomena for shot intervals in extracorporeal shock wave lithotripsy. British Journal of Urology, 75: 720–723 Zhong, Preminger (1994) Mechanisms of differing stone fragility in extracorporeal shock wave lithotripsy. J Endourol 8: 163–168 Zhong, Cioanta, Cocks, Preminger (1998) Effects of Tissue Constraint on Shock Wave-Induced Bubble Oscillation in vivo. 135th ASA conf. Proc., pp 2495f, Seattle (WA) Zhong, Zhou, Zhu (2001) Dynamics of Bubble Oscillation in Constrained Media and Mechanisms of Vessel Rupture in ESWL. Ultrasound Med. Biol. 2001, 27(1): 119–134 Zhu, Zhong (2002) The role of stress waves and cavitation in stone comminution in shock wave lithotripsy. Ultrasound Med Biol 28: 661–671; found in: http://www.duke.edu/~slzhu/research/fv/ sf/research1g.html
27
28 Hochfrequenzchirurgie B. Hug, R. Haag
28.1 Entwicklung der Hochfrequenzchirurgie
28.4 Stromformen und Applikation – 515
28.2 Physikalische und technische Grundlagen – 518 28.2.1 Bioelektrische und -thermische Wirkungen am Gewebe – 518 28.2.2 Koagulation – 520 28.2.3 Elektrotomie (Schneiden) – 520
28.3 Technik
– 521
28.3.1 HF-Generatortechnik – 521 28.3.2 HF-Applikationstechnik – 522 28.3.3 Ableitströme – 523
Hochfrequenzchirurgie (im Weiteren auch als HF-Chirurgie bezeichnet) ist seit vielen Jahren die dominierende Form der Elektrochirurgie. Hierunter versteht man den assistierenden Einsatz von elektrischer Energie in der Chirurgie zur thermisch induzierten Veränderung oder Zerstörung von Gewebezellen mit dem Ziel der Hämostase (Blutstillung), Gewebedurchtrennung oder -versiegelung. Bei der HF-Chirurgie wird hochfrequenter Wechselstrom (bevorzugt 0,3–4 MHz) über spezielle Applikatoren in das zu behandelnde Gewebe geleitet, wo es durch den elektrischen Gewebewiderstand zu einer thermischen Gewebewechselwirkung kommt. Im Gegensatz hierzu wird oder wurde bei der heute unbedeutenden elektrochirurgischen Operationsmethode der Galvanokaustik ein Gleichstrom dazu verwendet, einen Kauter (griech. Brenneisen) als chirurgisches Instrument direkt zu erhitzen, um von diesem die Hitze auf das Gewebe zu übertragen. Das Verfahren kommt heute nur noch bei wenigen Indikationen zum Einsatz; dann, wenn jeglicher Stromfluss durch das Körpergewebe vermieden werden soll (z. B. Ophthalmologie). Dagegen ist die HF-Chirurgie ein unentbehrliches Handwerkszeug aller operativen Fachdisziplinen geworden, sei es im stationären, sei es im niedergelassenen Bereich. Ein wesentlicher Vorteil der hochfrequenzchirurgisch assistierten Gewebetrennung gegenüber herkömmlicher Schneidetechnik mit dem Skalpell oder der Schere ist, dass gleichzeitig mit dem Schnitt eine Blutungsstillung durch Verschluss der betroffenen Gefäße erfolgt. Weitere Vorteile liegen in der Verhütung der Keimverschleppung, mechanischen Gewebeschonung und der Möglichkeit des
– 524
28.4.1 Schneideströme – 524 28.4.2 Koagulationsströme – 528
28.5 Methodische Hinweise für die Anwendung und Sicherheit – 534 28.5.1 28.5.2 28.5.3 28.5.4 28.5.5
Patienten- und Anwendersicherheit – 534 Neutralelektrode (NE) – 535 HF-Instrumente und -Kabel – 536 HF-Chirurgiegerät – 537 Vorkommnisse bei der Anwendung der HF-Chirurgie – 537
28.6 Ausblick
– 537
Literatur
– 538
endoskopischen Einsatzes. Beim Einsatz der Methode zur gezielten Hämostase blutender Gefäße kann im Vergleich zur alternativen Gefäßligatur schnell und einfach durch räumlich eng umschriebene Gewebeverkochung (Koagulation) ohne den Einsatz körperfremder Materialien eine gezielte Blutstillung erreicht werden. Bedingt durch seine Entwicklungsgeschichte wird eine Vielzahl synonymer Begriffe für die Methode verwendet. Wenngleich die eine oder andere Bezeichnung historisch bedingt auf völlig unterschiedlichen Technologien basiert, ist heute damit meist ein und dasselbe Anwendungsverfahren gemeint. Ohne den Anspruch auf Vollständigkeit seien nachfolgend einige der international gängigen Begriffe aufgeführt: HF-Chirurgie, RF-Chirurgie, Radiochirurgie, Elektrochirurgie, Kauter, Elektrokauter, Diathermie, Endothermy, Transthermy, Elektrotom oder – häufig in den USA – auch nach einem amerikanischen HF-Chirurgie-Pionier als »Bovie« bezeichnet.
28.1
Entwicklung der Hochfrequenzchirurgie
Den Ausgang für die Entwicklung der Methode bildet die vorteilhafte therapeutische Anwendung von Hitze. Bereits in den im 2. Jahrtausend v. Chr. von den Ägyptern verfassten Papyri (Papyrus Ebers, Papyrus Edwin Smith) finden sich Hinweise auf den gezielten, therapeutischen Einsatz von Hitze. Die Behandlung von Kriegswunden mit erhitzten Steinen, das Eröffnen von Eiterherden mittels in siedendem Öl erhitzter Holzspäne oder das Ausbrennen von Wunden mit dem »Feuerbohrer« (glühen-
516
III
Kapitel 28 · Hochfrequenzchirurgie
der Holzkohlenstumpf) wurden dort empfohlen. Auch Hippokrates, oft als »Vater der Medizin« bezeichnet (ca. 400 v. Chr.), bediente sich des »Ferrum candens« (Glüheisen) genauso wie arabische und römische Ärzte, um bei Amputationen mit glühenden Messern die Blutung geringer zu halten. Bis ins 19. Jahrhundert war das auf unterschiedliche Weise erhitzte Ferrum candens das Mittel der Wahl in der Chirurgie. Schon immer hielten neue Technologien schnellen Einzug in die Medizin. So war der von Graf Volta um 1800 entwickelte Vorläufer der elektrischen Batterie (Voltasche Säule) nur wenige Jahre bekannt, und an elektrische Straßenbeleuchtung war noch lange nicht zu denken, da wurde die Ära der Elektrochirurgie eingeläutet. Dabei waren weniger die Empfehlungen des Engländers Humphrey Davy (1807), die Elektrizität zur Zersetzung organischer Teile zu verwenden, ausschlaggebend als die Anregungen des Münchener Physikers Karl August Steinheil, nach denen in Wien der Zahnarzt Moritz Heider 1845 mit einem elektrisch erhitzten Platindraht einen Zahnnerven abgetötet hat. In ganz Europa arbeiteten nun vornehmlich Ärzte an der neuen Methode; der finnische Arzt Gustav Crusell prägte schließlich den Begriff Galvanokaustik. Als weitere Pioniere in dieser Zeit sind die Franzosen Alphonse Amussat, Charles Sedillot, Auguste Nelaton und Leroy d‘Etoiles, die Engländer John Marshall, T. Harding, J. Waite und Robert Ellis zu nennen. Wenngleich ihm nicht die Rolle des Erfinders der Galvanokaustik zukommt, so hat sich der Breslauer Arzt Albrecht Theodor Middeldorpf (1824–1883) um die neue Methode sehr verdient gemacht, indem er Operationsmethoden standardisiert und in seinem Werk »Die Galvanocaustik. Ein Beitrag zur operativen Medizin« im Jahr 1854 umfassend beschrieben hat. Auf ihn geht das Basisinstrument der Galvanokaustik zurück, der Galvanokauter und die galvanokaustische Schneideschlinge – Ligatura candens. Einer der renommiertesten Chirurgen der damaligen Zeit, Theodor Billroth (1826–1894), der Middeldorpf sogar als den Erfinder der Galvanokaustik würdigte, schrieb 1878 in seinem »Handbuch der allgemeinen und speciellen Chirurgie«: »…Middeldorpf hat die Galvanokaustik nicht nur erfunden, sondern auch in seinem Buch, wie mir scheint, vollkommen erschöpft, indem er die zweckmäßigste Batterie, die zweckmäßigsten Instrumente erfand und auch die Indicationen für die Verwendbarkeit dieser Operationsmethode aufs Präciseste formulierte« (Sudermann, 2000). Einer der wenigen aus der ersten Garde deutscher Chirurgen, die sich nach Middeldorpf um das Thema verdient gemacht haben, war der Chirurg Victor von Bruns. Auf ihn gehen im Wesentlichen technische Verbesserungen der Ligatura candens zurück, bei der ein zusammenziehbarer, schlingenförmiger Platindraht Verwendung findet, der mit Gleichströmen von 10–20 A bei Spannungen von 3–6 V aufgeheizt wurde. Es war nun möglich, an schwer zugänglichen Stellen zu operieren und
die Glühhitze einwirken zu lassen, nachdem man zuvor ungehindert den noch kalten Draht appliziert hatte – also ideale Voraussetzungen, um die Methode endoskopisch einzusetzen. Letztlich war es dann auch der endoskopische Bereich, in dem sich die Galvanokaustik etablieren konnte. In der Allgemeinchirurgie setzte sich zwar die Glühkaustik durch, allerdings nicht elektrisch basiert als Galvanokaustik, sondern in Form des Thermokauters nach Paquelin. Bei ihm wurden verschieden geformte Hohlkörper aus Platin zum Glühen erhitzt und dann, durch Einblasen eines Benzin-Luft-Gemisches, das an der glühenden Platinfläche verbrannte, glühend erhalten. Dass dem Thermokauter nach Paquelin überall dort der Vorzug gegeben wurde, wo man offen zugänglich arbeiten konnte, mag daran liegen, dass der Einsatz des Galvanokauters kompliziert und teuer war. Nicht zuletzt war der Umgang mit den damaligen Batterien (meist vom ZinkPlatin-Typ) teuer und wartungsintensiv. Die Voraussetzungen, den elektrischen Strom nicht nur als Energieform zum Betrieb eines modernen Ferrum candens einzusetzen, sondern unmittelbar im Gewebe zur Anwendung zu bringen, wurden ebenfalls in der Mitte des 19. Jahrhunderts erarbeitet. Aus den elektrophysiologischen Experimenten von Duchenne de Boulogne, deren Ergebnisse er 1855 publizierte, wusste man, dass niederfrequente Wechselströme zu Muskelkontraktionen und Nervenreizungen führen und insofern für chirurgische Zwecke unbrauchbar sind. Ende des 19. Jahrhundert zeigten Tesla und Jacques-Arsène d’Arsonval, dass Wechselströme im Frequenzbereich von 2 kHz bis 2 MHz zu einer Gewebeerwärmung führen, ohne dabei Muskel- oder Nervenreizungen hervorzurufen. Die Deutung dieser Ergebnisse und den Nachweis des elektrophysiologischen Wirkungszusammenhangs zeigte Walther Nernst im Jahre 1899 auf. Er formulierte das nach ihm benannte Nernst’sche Reizschwellengesetz, das den Schwellenwert der für eine Nervenreizung nötigen Stromstärke in Beziehung zur Frequenz des Reiz auslösenden Wechselstroms setzt. Diese grundlegenden Erkenntnisse bildeten die Basis dafür, dass Rivière im Jahre 1900 in Paris über Erfolge der Funkenbehandlung von Geschwülsten und tuberkulösen Hauterkrankungen berichten konnte. Das Zeitalter der Hochfrequenzchirurgie hatte begonnen. Zunächst wurde ein Apparat von d’Arsonval verwendet, dessen gedämpfte Schwingungen mit hohen Spannungsspitzen eine Gewebezerstörung durch Funkenübertritt auf das Gewebe ermöglichten. Pozzi bezeichnete dieses Verfahren als Fulguration (lat.: fulgur, Blitz), eine Bezeichnung, die bis heute für die quasi berührungslose Form der Energieübertragung auf den Patienten gängig ist. Neben Pozzi sind die Arbeiten von de Keating-Hart richtungsweisend. Er hat in Marseille und Paris (Hospital Broca) mit einem auch von Professor Czerny empfohlenen Fulgurationsapparat (⊡ Abb. 28.1) die Funkenbestrahlung bösartiger Ge-
517 28.1 · Entwicklung der Hochfrequenzchirurgie
⊡ Abb. 28.1. Fulgurationsapparat nach DE KEATING HART zur »Blitzbehandlung (Fulguration) der Krebse«. Einige zehn Minuten lang wurden kräftige »Blitzfunkenbüschel« auf das Tumorgewebe appliziert. Übermäßige Hitzewirkung verhinderte ein koaxial über die Elektrode geleiteter Kohlensäurestrom. (Wiesner 1908)
schwüre in Kombination mit deren operativer Entfernung durchgeführt. Seit 1907 ist die Elektrodesikkation (William L. Clark) bekannt. Bei dieser Methode kommen Nadelelektroden zur Anwendung, die aufgesetzt oder ins Gewebe eingestochen werden und unter dem Einfluss von HF-Strom zu einer Gewebeverkochung und Austrocknung führen. 1909 berichtete Eugène L. Doyen über ein zweipoliges Verfahren zur »Electrocoagulation« bösartiger Geschwüre. Der Begriff »Voltaisation bipolaire« war nun eingeführt. Die Anwendungsmöglichkeiten der Methode waren anfangs dennoch begrenzt, und zwar wegen der zur Verfügung stehenden Generatoren (Oudin’sche Resonatoren und Löschfunkensender mit weniger als 3 kHz Funkenfrequenz). Denn, wie Nernst schon nachwies, sind die niedrigen Frequenzen von starker faradischer Gewebereizung begleitet. Zwar standen ab 1907 Löschfunkensender mit Frequenzen bis ca. 1 MHz zur Verfügung, womit der Einsatz auch auf neurochirurgische Indikationen erweitert werden konnte, eine Gewebetrennung (Elektrotomie) war mit der gegebenen Technologie dennoch nicht befriedigend möglich. Hierfür werden – wie später gezeigt wird – unmodulierte bzw. gering modulierte HF-Ströme benötigt, wie sie von Funkenstreckensendern nicht generiert werden konnten. Dies gelang erst mit Röhrengeneratoren, wie sie Mitte der 1920er Jahre durch George A. Wyeth
(The endotherm) zum Einsatz kamen. Allerdings war bei diesen Generatoren die Hämostasewirkung nicht so gut ausgeprägt wie bei den Funkenstreckengeneratoren. Für Elektrotomie und Hämostase wurden daher lange Zeit zwei getrennte Generatoren verwendet (Schneiden mit Röhre, Blutstillung mit Funkenstrecke). So stellt die Patentanmeldung des Amerikaners William T. Bovie im Jahre 1928 (US 1,813,902) einen weiteren Meilenstein in der Entwicklung der HF-Chirurgie dar. Er schlug vor, mit ein und demselben Gerät über ein und denselben Applikator wahlweise verschiedene Arten von HF-chirurgischen Strömen dem Operateur anbieten zu können. Es war nun ein technischer Stand erreicht, bei dem faradische Reizungen weitgehend vermieden wurden und ein »zuckungsfreies Schneiden« möglich war. Während sich in den USA William T. Bovie in Zusammenarbeit mit dem Neurochirurgen Harvey Cushing um die Methode verdient gemacht haben, war es in dieser Zeit in Deutschland der Elsässer Hans von Seemen (1898–1972), der in seiner Münchener Zeit ein frühes Standardwerk (»Allgemeine und spezielle Elektrochirurgie«) über das Thema verfasste. In den folgenden Jahren konzentrierten sich die Entwicklungen hin zu höheren Frequenzen und damit zur Heilbehandlung mit abgestrahlten elektrischen oder magnetischen Feldern. Dabei wurden moderat zu erwärmende Körperpartien in den elektrischen Einfluss eines Kondensatorfeldes (Schliephake) oder den magnetischen Einfluss eines Spulenfeldes (Esau) gebracht. Die in den 1930er und 1940er Jahren verfügbaren Kurzwellen- (27,12 MHz) und Dezimetergeräte (433,92 MHz) wurden nach der Verfügbarkeit des Magnetrons aus der Radartechnik nach dem zweiten Weltkrieg um Mikrowellengeräte (2,45 GHz) erweitert. Wenngleich einige der angebotenen Kurzwellengeräte auch für den chirurgischen Einsatz geeignet waren, stand bei ihnen die HF-Hyperthermie – also die künstliche Erzeugung zeitlich und lokal begrenzten »Fiebers« – im Vordergrund. In der Chirurgie setzten sich die Geräte vermutlich wegen des hohen Preises der Senderöhren erst nach 1945 durch. Für den chirurgischen Einsatz beinhalteten die Geräte nach wie vor für die Blutstillung einen Funkenstreckengenerator und für das Gewebeschneiden einen Röhrengenerator. Erst 1955 wurde das erste vollelektronische auf Röhrenbasis entwickelte Universalgerät für die HF-Chirurgie angeboten. Die Entwicklung moderner Transistortechnik in den 1970er Jahren bot gerätetechnisch eine technologische Adaption. Mit dieser Technik konnten die Geräte wesentlich kleiner und kompakter gebaut werden. Der Methode selbst eröffneten sich hinsichtlich neuer Anwendungen dadurch allerdings keine wesentlichen Bereicherungen. Einen wichtigen Meilenstein stellte dann allerdings die Entwicklung des sog. Argonbeamers Mitte der 1970er Jahre dar. Ausgehend von einem »Plasma Scalpel«, wie es von den Amerikanern Robert Shaw (1966), Robert Goucher (1972) und Frank Incropera (1975) zur Vaporisa-
28
518
Kapitel 28 · Hochfrequenzchirurgie
III ⊡ Abb. 28.2. Modernes HF-Chirurgiegerät mit menügeführter Bedienoberfläche. Die Behandlungsparameter sind auf einem Bildschirm räumlich dem jeweiligen Patientenausgang zugeordnet
tion von Gewebe vorgeschlagen wurde, entwickelte Charles Morrison (1976) den Argonbeamer, wie er im Prinzip bis heute zum Einsatz kommt. Während beim »Plasma Scalpel« ein energiereicher Plasmastrahl – vergleichbar einem Schneidbrenner – auf das Gewebe gerichtet wurde, nutzt man beim Argonbeamer lediglich einen ionisierten Argonstrahl als leitfähiges Medium, um berührungslos die HF-Energie ins Gewebe zu leiten. Während das »Plasma Scalpel« völlig ohne medizinische Bedeutung blieb, schuf sich der Argonbeamer seinen festen Platz in der medizinischen Anwendung. Seit Anfang der 1990er Jahre werden mikroprozessorgesteuerte HF-Chirurgiegeräte eingesetzt. Regelungstechnisch ergaben sich dadurch völlig neue Möglichkeiten. Eine Vielzahl verschiedener Stromformen, die auf die jeweilige Indikation und Applikation abgestimmt wurden, konnten so realisiert werden. Durch die vielfältigen verschiedenen Einsatzmöglichkeiten mit den jeweils auf den Prozess abgestimmten Behandlungsparametern wurden die Geräte hinsichtlich ihrer Bedienung sehr komplex. Dem trug die weitere Entwicklung Rechnung, indem heute Bildschirm-Geräte (⊡ Abb. 28.2) mit menügeführter Bedienoberfläche angeboten werden.
28.2
Physikalische und technische Grundlagen
28.2.1 Bioelektrische und -thermische
Wirkungen am Gewebe Fließt elektrischer Strom durch biologisches Gewebe, treten je nach Stromart, Stromstärke und Frequenz drei unterschiedliche Effekte auf: ▬ Elektrolytischer Effekt Bei Gleichstrom und niederfrequenten Wechselströmen dominiert der elektrolytische Effekt, d. h. es kommt zu Ionenverschiebungen im Gewebe. Positiv geladene Ionen wandern zum negativen Pol (Kathode), negativ geladene Ionen zum positiven Pol
(Anode). Dieser Effekt wird in der Medizin bei der Iontophorese genutzt, um bestimmte Medikamente in den Körper einzuschleusen. In der HF-Chirurgie ist dieser Effekt nicht erwünscht, weil das Gewebe elektrolytisch geschädigt werden kann. ▬ Faradischer Effekt Fließen Wechselströme mit einer Frequenz bis 20 kHz durch biologisches Gewebe, entsteht der faradische Effekt. Ströme innerhalb dieses Frequenzspektrums reizen Nerven und Muskelzellen, sodass es zu Muskelkontraktionen kommen kann. Die maximale Reizung entsteht bei Frequenzen zwischen 10 und 100 Hz (⊡ Abb. 28.3). Der faradische Effekt wird in der Reizstromdiagnostik und der Reizstromtherapie sinnvoll genutzt (z. B. bei Muskellähmungen). In der HF-Chirurgie ist dieser Effekt nicht erwünscht, da Muskelkontraktionen für den Patienten unangenehm, sogar gefährlich, und für den Chirurgen hinderlich sind. ▬ Thermischer Effekt Mit hochfrequenten Wechselströmen wird im biologischen Gewebe sowohl der elektrolytische als auch der faradische Effekt weitgehend vermieden und es dominiert der thermische Effekt. Die Frequenz des Wechselstroms beträgt dabei mindestens 300 kHz; daher die Bezeichnung HF-Chirurgie. Dieser gewünschte thermische Effekt wird hauptsächlich für zwei verschiedene Anwendungen genutzt, nämlich das Schneiden und das weitaus häufigere Koagulieren. Die Erwärmung des Gewebes hängt im Wesentlichen vom spezifischen Widerstand des Gewebes, der Stromdichte und der Einwirkdauer ab. Der thermische Effekt wird dadurch erreicht, dass die elektrische Energie in Wärmeenergie umgewandelt wird. In jeder stromdurchflossenen Materie entsteht Wärme. Die Umwandlung von elektrischer Energie in Wärmeenergie erfolgt verlustfrei. Nach dem Joule’schen Gesetz ergeben sich folgende Zusammenhänge: Q = Pt = UIt = I2Rt = U2t/R [J = Ws] Hier bedeuten: P Leistung, U Spannung, I Strom, R Widerstand, t Zeit. Die zum Koagulieren erforderliche Hochfrequenzleistung PK kann näherungsweise aus der Wärmemenge QK und der Koagulationsdauer tK berechnet werden: PK = QK / tK [W] Die Wärmemenge QK ist abhängig von der Menge mK des zu koagulierenden Gewebes, von dessen spezifischer
519 28.2 · Physikalische und technische Grundlagen
Für die gesamte Wärmemenge bedeutet dies: QGes = QK + QU + QAE [Ws] Hier bedeuten: Wärmemenge zum Koagulieren, QK QAE Wärmemenge aktive Elektrode, QU Wärmemenge Umgebung, unbeabsichtigt, QGes Wärmemenge gesamt, tK Koagulationsdauer, PK Leistung zum Koagulieren, ΔtK Temperaturdifferenz, mK Menge des zu koagulierenden Gewebes, cK spezifische Wärmekapazität. Die zum Schneiden erforderliche Hochfrequenzleistung PS kann näherungsweise ebenfalls aus der Wärmemenge QS und der Schnittdauer tS berechnet werden: PS = QS / tS [W] ⊡ Abb. 28.3. Nernst’sches Reizschwellengesetz, das den frequenzabhängigen Schwellenwert der für eine Nervenreizung nötigen Stromstärke angibt
Wärmekapazität cK und der Temperaturdifferenz ∆tK (von ca. 37°C auf 60°–100°C) zwischen Beginn und Ende der Koagulation im Koagulat: QK = mKc∆tK [Ws] In QK ist nur die Wärmemenge berücksichtigt, die zur Koagulation erforderlich ist. Je nach angewendeter Koagulationstechnik muss auch eine zusätzliche Wärmemenge QU berücksichtigt werden, welche unbeabsichtigt in anderen vom elektrischen Strom durchflossenen Gewebebereichen entsteht. Während QU bei bipolaren Koagulationstechniken im Vergleich zu QK vernachlässigbar klein bleibt, kann QU bei monopolaren Koagulationstechniken im Vergleich zu QK unter ungünstigen Umständen sehr groß sein. Zu diesen ungünstigen Umständen zählen z. B. monopolare Koagulationstechniken, bei denen ein großer Teil des hochfrequenten Stroms an dem zu koagulierenden Gewebe vorbeifließt, wie bspw. durch die Spülflüssigkeit bei der TUR. Die Wärmemenge QU stellt stets ein Risiko für unerwünschte Nebenwirkungen dar und ist daher unbedingt zu beachten. Hieraus erklärt sich auch, dass bei der monopolaren Applikationsform im Vergleich zur bipolaren ein höherer Leistungswert erforderlich ist. Außer den Wärmemengen QK und QU ist bei verschiedenen Koagulationsverfahren auch die Wärmemenge QAE zu berücksichtigen, welche während der Koagulation die aktive Elektrode erwärmt. Die Temperatur der aktiven Elektrode sollte während der Koagulation nicht ansteigen, weil hierdurch das Problem entsteht, dass das Koagulat an der aktiven Elektrode anklebt; in Folge des direkten Kontakts der aktiven Elektrode mit dem Koagulat wird diese aber unvermeidlich erhitzt.
Beim Schneiden wird ein Gewebevolumen, welches proportional zu der Länge, der mittleren Tiefe und der Breite des Schnittes ist, so stark erhitzt, dass dessen Wassergehalt verdampft. Die hierfür erforderliche Wärmemenge QS ergibt sich aus der Wärmemenge Q100, welche das Gewebevolumen VS von ca. 37°C auf 100°C erhitzt, und der Wärmemenge QD, welche den Wassergehalt des Gewebevolumens VS verdampft: QS = Q100 + QD [Ws] Analog der Wärmebilanz beim Koagulieren müssen auch beim Schneiden die Wärmemenge für die unvermeidliche Erwärmung des am Schnitt unbeteiligten Gewebes sowie die Wärmemenge für die unvermeidliche Erwärmung der aktiven Schneideelektrode berücksichtigt werden. Für die gesamte Wärmemenge bedeutet dies: QGes = QS + QU + QAE [W] Hier bedeuten: Leistung zum Schneiden, PS QS Wärmemenge zum Schneiden, QD Wärmemenge, die den Wassergehalt des Gewebevolumens verdampft, Q100 Wärmemenge von 37°C auf 100°C, VS Gewebevolumen, Schnitt, tS Schnittdauer. Die Stromdichte J nimmt eine Schlüsselrolle bei der HFChirurgie ein; nur wenn die Stromdichte ausreichend groß ist (üblich 1–6 A/cm2), kann der gewünschte Schneideoder Koagulationseffekt entstehen. Die Stromdichte nimmt quadratisch mit der Entfernung r ab. J ~ l/r2 [A/cm2]
28
520
Kapitel 28 · Hochfrequenzchirurgie
Die Temperaturerhöhung nimmt bei homogenen Gewebeeigenschaften mit der 4. Potenz zur Entfernung r ab. ∆t ~ l/r4 [°C]
III
Das biologische Gewebe selbst verhält sich im Wesentlichen wie ein Ohm’scher Widerstand (⊡ Tab. 28.1). Während der spezifische Widerstand bei Muskelgewebe und gut durchblutetem Gewebe relativ gering ist, haben flüssigkeitsarme Gewebe wie Knochen, Knorpel und Fettgewebe einen hohen spezifischen Widerstand, was wiederum bedeutet, dass ein verhältnismäßig kleiner Strom fließt. Beim Schneiden im Muskelgewebe liegt der Widerstand im Bereich von 150 und 300 Ω, während er im Fettgewebe zwischen 500 und 1000 Ω liegt. Unabhängig von der Art, wie eine Gewebeerhitzung durchgeführt wird (HF-Strom, Laser, IR-Koagulator, Ultraschall, Ferrum candens,…), lassen sich die thermischen Wirkungen qualitativ wie in ⊡ Tab. 28.2 aufgeführt einteilen.
⊡ Tab. 28.1. Spezifischer Widerstand ρ von biologischem Gewebe (0,3–1 MHz), modifiziert nach Reidenbach 1983 Gewebe Blut
160–300
Muskel, Niere
160–260
Milz
270–300
Herz
200–230
Leber
200–380
Gehirn
670–700
Lunge
160–1000
Fett
1600–3300
28.2.2 Koagulation
Die Bezeichnung Koagulation (lat.: coagulare, gerinnen) bezeichnet allgemein die Ausfällung, Ausflockung oder Gerinnung eines Stoffes, also den Übergang kolloidaler Stoffe (Kolloid: von griech. kolla »Leim«, und eidos »Form, Aussehen«) aus dem Lösungszustand in den Gelzustand. Der Prozess könnte vereinfacht auch als Gewebeverkochung bezeichnet werden. Dabei wird das Gewebe vom hochfrequenten elektrischen Strom relativ langsam erhitzt, sodass intra- und extrazelluläre Flüssigkeit verdampft und dadurch das Gewebe schrumpft. Der entstandene »Gewebeleim« und die Gewebeschrumpfung führen dazu, dass perforierte Blutgefäße verschlossen werden und eine Hämostase erfolgt. Diese schnelle und effiziente Blutstillung ersetzt bei kleinen, blutenden Gefäßen in vielen Fällen teuren Fibrinkleber oder die aufwändige Ligatur. Im täglichen Umgang mit der HF-Chirurgie wird die Bezeichnung Koagulation nicht nur für die beschriebene Gewebereaktion verwendet, sondern umfassender auch für eine bestimmte Betriebsart von HF-Chirurgiegeräten. Abhängig von der Qualität des HF-Stromes und bedingt durch unterschiedliche Applikationsformen wird in Kontaktkoagulation, Forcierte Koagulation, Desikkation, Fulguration (auch Spraykoagulation genannt) sowie argonassistierte Koagulation und Gefäßversiegelung unterschieden ( Abschn. 28.4.2).
28.2.3 Elektrotomie (Schneiden)
Wenngleich die biophysikalischen Vorgänge beim Schneidvorgang im Detail bis heute nicht hinreichend untersucht sind, so lässt sich der Prozess über eine phänomenologische Beschreibung und theoretische Überlegungen plausibel erklären. Dabei müssen zwei unterschiedliche Ausgangssitua-
⊡ Tab. 28.2. Thermische Gewebeschädigung in Abhängigkeit von der Temperatur Temperatur
Gewebereaktion
bis ca. 40°C
Keine signifikanten Zelländerungen.
ab ca. 40°C
Reversible Zellschädigung (abhängig von der Expositionsdauer).
ab ca. 49°C
Irreversible Zellschädigung.
ab ca. 60–65°C
Koagulation: Kollagene werden in Glukose umgewandelt, das kollagenhaltige Gewebe schrumpft und es kommt zur Hämostase blutender Gefäße.
ab ca. 90–100°C
Dehydration/Desikkation (Austrocknung): Übergang von intra- und extrazellulärer Flüssigkeit in die dampfförmige Phase. Glukose kann aufgrund der Dehydration einen Klebeeffekt zeigen, das Koagulat schrumpft.
ab ca. 200 °C
Karbonisation: Das Gewebe verkohlt wie bei einer Verbrennung IV. Grades, unangenehmer Geruch des verbrannten Gewebes, der postoperative Verlauf kann beeinträchtigt werden.
einige hundert °C
Vaporisation (Verdampfung des Gewebes): Rauch und Gasentwicklung.
521 28.3 · Technik
tionen berücksichtigt werden; zum einen, die Schneidelektrode ist zu Beginn des Schneidvorgangs bereits in Gewebekontakt – zum anderen, die Schneidelektrode nähert sich im aktivierten Zustand allmählich dem Gewebe. Mit hochfrequentem Wechselstrom lassen sich über kleinflächige messer- oder nadelförmige Elektroden lokal begrenzt relativ hohe Stromdichten im Gewebe erzeugen. Dieses erhitzt sich dadurch blitzartig über 100°C, sodass der entstehende Dampfdruck die Zellmembranen explosionsartig zerreißt. Der entstandene isolierende Dampf zwischen Elektrode und Gewebe verhindert in der Folge den ungehinderten Ohm’schen Stromfluss ins Gewebe, sodass sich eine Spannung (Schneidespannung) zwischen Elektrode und Gewebe aufbaut, die zu einer Funkenbildung zwischen diesen führt. Der weitere Energieeintrag erfolgt nun über Funken, in deren nur wenige μm großen Fußpunkten (r=10–20 μm) extrem hohe Energiedichten auftreten, unter deren Einfluss die einbezogenen Gewebezellen vaporisieren. Dabei spielt es keine Rolle, ob dieser Vorgang offen unter Atmosphäre oder unter elektrisch nicht leitender Flüssigkeit erfolgt. Diese Modellvorstellung wird auch durch die Arbeiten der Arbeitsgruppe um K. Fastenmeier (1996) untermauert. Nähert man sich dagegen mit einer bereits unter Spannung stehenden Elektrode dem Gewebe, zündet die anstehende Spannung bei entsprechender räumlicher Nähe zum Gewebe Funken. Diese für einen Schneidvorgang unbedingt notwendigen Funken überbrücken also zunächst den »letzten« Luftspalt, bevor eine dann entstehende Dampfschicht den Prozess wie oben beschrieben unterhält. Der im ersten Fall beschriebene Ohm’sche Stromfluss ins Gewebe zu Beginn eines gewünschten Schneidvorgangs führt zu einem »verzögerten Anschnitt«. Dies wurde in der Vergangenheit durch eine pulsartige Leistungserhöhung zu Beginn der Stromaktivierung überwunden (Anschnitthilfe); heute wird das Phänomen regelungstechnisch kompensiert. Ein mit dem »F-Messer« ausgeführter Gewebeschnitt erfolgt ohne mechanischen Kraftaufwand. Die Schneidelektrode gleitet quasi durch das Gewebe – vergleichbar einem heißen Draht durch Butter oder Wachs. Durch die entstehenden hohen Temperaturen am Schnittsaum wird die Gefahr einer Keimverschleppung vermindert. Zudem wird gleichzeitig beim Schneiden eine Hämostase erzielt. Die präzise Schnittführung kann vom Chirurgen sowohl offenchirurgisch als auch endoskopisch genutzt werden.
28.3
Technik
28.3.1 HF-Generatortechnik
Die Hauptaufgabe eines HF-Generators besteht darin, den Netzstrom in Hochfrequenzstrom umzuwandeln. Die sichere galvanische Trennung zwischen Netz- und Patientenkreis steht dabei im Vordergrund des Sicher-
heitsinteresses. Die heutige Generation der mikroprozessorgesteuerten HF-Generatoren wurde auf der Grundlage der exakten Analyse der Gewebeeffekte und der Berücksichtigung der besonderen Erfordernisse der unterschiedlichen Fachdisziplinen entwickelt. Damit stehen HF-Chirurgiegeräte zur Verfügung, mit denen reproduzierbare Schneide- und Koagulationseffekte erzielt werden können. Dies ermöglicht bspw. eine sanfte Koagulation ohne Karbonisation oder reproduzierbare Schneideeigenschaften, weitestgehend unabhängig von äußeren Bedingungen wie z. B. Schnittgeschwindigkeit oder Elektrodengröße. Das Ausgangsleistungsniveau automatisch geregelter HFChirurgiegeräte liegt wesentlich niedriger als das konventioneller Geräte. Vor 1975 wurden noch Geräte angeboten mit einer Ausgangsleistung bis zu 1000 W; dabei wurden auch damals wie heute selbst bei Anwendungen mit relativ hohem Leistungsbedarf (Applikationen unter Flüssigkeit) nicht mehr als typisch 150 W benötigt. Diesem damaligen Trend zu immer höheren Ausgangsleistungen hin wurde durch die Normengebung (IEC 60601-2-2) entgegengewirkt, indem eine Obergrenze der max. HFAusgangsleistung für HF-Chirurgiegeräte von 400 W definiert wurde. Eine Reihe von heute in den Geräten implementierten Überwachungseinrichtungen wie z. B. NeutralelektrodenMonitoring, Überdosierungs-Schutzschaltungen, optische und akustische Aktivierungsanzeigen, GewebeimpedanzMonitoring und HF-Ableitstromkompensation bedeuten für den Patienten und Operateur mehr Sicherheit. Für alle HF-Chirurgiegeräte-Hersteller ist international normativ vorgegeben, dass Geräte mit einer HF-Ausgangsleistung von über 50 W mit einer Überwachungseinrichtung ausgestattet sein müssen, die eine Unterbrechung in der Neutralelektrodenzuleitung erkennen und eine Energieabgabe im Fehlerfall verhindern kann. Es wird allerdings empfohlen, nur Geräte einzusetzen, die nicht nur eine Kabelunterbrechung erkennen, sondern darüber hinaus die korrekte Applikation der Neutralelektrode am Patienten überwachen. Der Patientenausgangskreis (Anwendungsteil) darf bei HF-Chirurgiegeräten keinen galvanischen Erdbezug haben; d. h. das Anwendungsteil muss »floatend« aufgebaut sein. HF-Geräte dürfen also nicht als Geräte mit einem Anwendungsteil vom Typ B aufgebaut werden. Bei einem vollständig floatenden Ausgang – Geräte mit Anwendungsteil vom Typ CF (Cardiac Floating) – hat keine der beiden Patienten-HF-Zuleitungen einen konstruktiv gewollten HF-Erdbezug; bei Geräten mit einem Anwendungsteil vom Typ BF (Body Floating) wird dagegen dem Neutralelektrodenanschluss konstruktiv über einen Kondensator Erdbezug gegeben. Für den Einsatz am offenen Herzen und für die Kombination mit intrakardialen Kathetern stehen HF-Chirurgiegeräte mit isoliertem Anwendungsteil vom Typ CF und defibrillationsfestem Ausgang zur Verfügung.
28
522
III
Kapitel 28 · Hochfrequenzchirurgie
Da kapazitive Ableitströme – also HF-Ströme, die aufgrund vielfältiger Teilkapazitäten von Gehäuse, Leitungen und Patient gegen Erde – unkontrolliert auftreten und dem Patienten Verbrennungen zuführen können, dürfen normierte Grenzwerte nicht überschritten werden. Da die Ableitströme mit zunehmender Frequenz größer werden, ist der HF-chirurgischen Anwendung praktisch eine obere Frequenzgrenze gesetzt. Niedrige Frequenzen führen dagegen – wie Nernst schon zeigte – zu Nerven- und Muskelreaktionen. Vor diesem Hintergrund empfiehlt die IEC 60601-2-2 nur Arbeitsfrequenzen oberhalb von 300 kHz zu verwenden. Aufgrund der Ableitstromproblematik empfiehlt sie, Frequenzen oberhalb von 5 MHz nicht anzuwenden. Auch bei den genannt hohen Arbeitsfrequenzen können faradische Reizungen auftreten. Sie beruhen auf der gleichrichtenden Wirkung von Funken – wie sie ja z. B. bei der Elektrotomie zwingend erforderlich sind. Um faradische Reizungen zu vermeiden, wird in den Patientenstromkreis ein sog. Antifaradisationskondensator geringer Kapazität eingefügt. An bestimmten Stellen ist es dennoch nicht vollständig auszuschließen, dass Muskelzuckungen auftreten (z. B. Obturatoriusreizung bei Resektion in der Harnblase).
28.3.2 HF-Applikationstechnik
Die verschiedenartigen Anwendungsformen können prinzipiell in monopolare, monoterminale und bipolare Verfahren eingeteilt werden. Die monopolare Anwendungstechnik kommt dabei am häufigsten zum Einsatz.
Monopolare Technik Bei der monopolaren Technik müssen eine aktive und eine sog. Neutralelektrode am HF-Chirurgiegerät angeschlossen sein. An der Aktivelektrode werden die für die Elektrochirurgie notwendigen physikalischen Effekte erzeugt (Schneiden, Koagulieren). Die im Vergleich zur Aktivelektrode sehr viel großflächigere Neutralelektrode wird üblicherweise am Oberschenkel oder Oberarm des Patienten platziert. Die Kontaktfläche zwischen Neutralelektrode und Haut des Patienten ist groß, damit die Stromdichte (Strom pro Fläche) relativ gering bleibt. Dagegen bietet die aktive Elektrode nur eine kleine Kontaktfläche, woraus eine sehr hohe Stromdichte resultiert. Nur aufgrund der großen Stromdichte und des Gewebewiderstands kann eine selektive Erwärmung, d. h. eine hohe Temperatur durch die aktive Elektrode im Gewebe entstehen. Die Neutralelektrode wird synonym auch als Plattenelektrode, passive Rückflusselektrode, dispersive Elektrode, indifferente Elektrode, oder fälschlicherweise auch als Erdungselektrode bezeichnet. Berührt der Operateur bei aktiviertem HF-Chirurgiegerät mit der monopolaren
⊡ Abb. 28.4. Monopolarer Stromkreis mit am Oberschenkel des Patienten angelegter, großflächiger Neutralelektrode
aktiven Elektrode das Gewebe, fließt hochfrequenter elektrischer Strom zum Patienten und verursacht unmittelbar an der Gewebe-Kontaktstelle zur relativ kleinflächigen Aktivelektrode den gewünschten physikalischen Effekt (⊡ Abb. 28.4).
Monoterminale Technik Hier schließt sich der Stromkreis über die Kapazität des Patientenkörpers zu dessen geerdeter Unterlage (⊡ Abb. 28.5). Es wird ohne Neutralelektrode gearbeitet. Im Grunde handelt es sich um eine Sonderform der monopolaren Arbeitsweise. Diese Technik ist nur im Bereich kleiner Arbeitsströme sicher und eignet sich daher nur für kleine Eingriffe, z. B. in der Zahnheilkunde und in der Dermatologie. Es sollten für diese Anwendungstechnik nur Geräte mit einer maximalen HF-Ausgangsleistung von 50 W zum Einsatz kommen. Bei diesen Geräten ist ein Betrieb auch ohne Neutralelektrode möglich. Da bei dieser Arbeitsweise der HF-Strom bestimmungsgemäß über Erde zum Gerät zurückfließt, können in erhöhtem Maße elektromagnetische Interferenzprobleme mit anderen elektrischen Geräten auftreten. Geräte mit höherer Ausgangsleistung als 50 W dürfen monoterminal nicht eingesetzt werden. Fehlbedienungen könnten zu ernsten Verbrennungen beim Patienten führen.
Bipolare Technik Sind beide Elektroden (Aktiv- und Neutralelektrode) in einem Instrument wie z. B. der bipolaren Pinzette mit gegeneinander isolierten Schenkeln (Branchen) integriert, spricht man von bipolarer Technik (⊡ Abb. 28.6). Dabei fließt der Strom über die eine Elektrode ins Gewebe und über die andere Elektrode zum HF-Chirurgiegerät zurück. Das bedeutet, dass der Strom nur in dem eng um-
523 28.3 · Technik
⊡ Abb. 28.5. Monoterminaler Stromkreis: Die HF-seitige Erdung des HF-Geräts erlaubt den Stromrückfluss über einen geerdeten Behandlungsstuhl, an den der Patient kapazitiv gekoppelt ist
Hatte die bipolare Technik früher ihren Einsatzbereich hauptsächlich in der Neurochirurgie, so wird sie heute erfolgreich u. a. in der HNO, der Gynäkologie und insbesondere im Rahmen minimalinvasiver Eingriffe (MIC) angewandt. Im Wesentlichen wird die bipolare Technik für die Koagulation über bipolare Pinzetten und für die Gefäß- und Gewebeversiegelung eingesetzt. Das bipolare Schneiden blieb bislang trotz mehrfacher Versuche auf wenige »Spezialitäten« beschränkt. Hier besteht das grundsätzliche Problem, dass die notwendige Funkenbildung für einen richtungsgeführten Schnitt auf die konstante Existenz einer differenten und einer indifferenten Elektrode angewiesen ist. Bei der bipolaren Technik sind beide Elektroden mehr oder weniger gleich groß. Dies bedeutet, dass die Aktiv-/Passivzuordnung während des Schnittes wechseln kann und der Schneidvorgang zum Erliegen kommt. Eine Ausnahme hiervon stellt das bipolare Schneiden unter leitfähiger Kochsalzlösung für transurethrale Resektionen dar ( 28.4.1, Abschn. «Bipolare transurethrale Resektion (Bipol-TUR)«). Allerdings müsste man hier korrekterweise von einer quasi bipolaren Technik sprechen, da die beiden Elektroden signifikant verschieden groß sind und auch applikationsbedingt immer definiert ist, welche der beiden Elektroden die Funktion der aktiven Elektrode übernimmt. Im Grunde wird hier die Neutralelektrode – wie man sie aus der monopolaren Technik kennt – stark verkleinert und räumlich sehr nahe an die Aktivelektrode geführt.
28.3.3 Ableitströme
⊡ Abb. 28.6. Bipolarer Stromkreis: Der Stromfluss bleibt auf das zwischen den beiden Pinzettenspitzen gefasste Gewebe begrenzt
schriebenen Gewebebereich zwischen den beiden Elektrodenspitzen fließt. Daher bietet die bipolare Technik insbesondere bei neurologischen Feinpräparationen mehr Sicherheit. Eine separate Neutralelektrode ist zum Betrieb nicht notwendig. Im Vergleich zur monopolaren Technik bietet dies folgende Vorteile: ▬ Der Strom fließt nur zwischen den beiden Elektroden durch das Gewebe, wo der thermische Effekt erwünscht ist. ▬ Die Gefahr von Verbrennungen am Patienten durch Berührung leitfähiger Gegenstände während der Operation ist vernachlässigbar. ▬ Keine vagabundierenden Ströme. ▬ Reduzierte Beeinflussung von Herzschrittmachern und Geräten, die neben dem HF-Gerät am Patienten angeschlossen sind (z. B. Monitoring).
Bei der Anwendung der HF-Chirurgie in der flexiblen Endoskopie und der sog. Minimal Invasiven Chirurgie (MIC) sollte berücksichtigt werden, dass, bedingt durch die hohe Frequenz, ein kapazitiver Strom fließen kann. Und zwar immer dann, wenn ein kapazitiver (Blind)widerstand vorhanden ist (Kondensatoreffekt). Der kapazitive Widerstand folgt der Beziehung: XC = l/2πƒC [Ω] Hier bedeuten: C Kapazität eines Kondensators, f Frequenz, die am Kondensator anliegt, XC kapazitiver Widerstand. In der Praxis wird häufig auch von kapazitiver Kopplung gesprochen. »Kapazitive Kopplung« ist eine Bezeichnung für einen physikalischen Effekt, der immer dann auftritt, wenn hochfrequenter Strom von einem elektrisch leitfähigen Medium, getrennt durch einen Isolator, zu einem anderen elektrisch leitfähigen Medium fließt. Dies kann geschehen, weil ein Isolator für hochfrequenten Strom nicht die gleichen isolierenden Eigenschaften besitzt wie für
28
524
III
Kapitel 28 · Hochfrequenzchirurgie
niederfrequenten Strom (z. B. 50 Hz Netzfrequenz). Da aber unsere Erfahrungen über die Eigenschaften von Isolierstoffen aus dem Bereich der Niederfrequenz geprägt sind, erwartet der Anwender von diesen Stoffen ein ähnliches Isolier-Verhalten beim Einsatz von HF. Der kapazitiv gekoppelte Strom ist beim Anwender deshalb nicht im Bewusstsein. Dabei hängt die kapazitive Kopplung von einer Reihe von Faktoren ab, wie z. B. ▬ dem Abstand der beiden elektrischen Leiter: je kleiner der Abstand, desto höher ist der kapazitive Strom; ▬ den Flächen der elektrischen Leiter: je größer die Flächen, desto höher ist der kapazitive Strom; ▬ der Höhe der elektrischen Spannung: je höher die elektrische Spannung, desto höher ist der kapazitive Strom; ▬ der Höhe der Frequenz: je höher die Frequenz, desto höher ist der kapazitive Strom; ▬ der Form der elektrischen Spannung: Spannungsverläufe mit wenig Oberwellen verursachen einen geringeren kapazitiven Strom als stark Oberwellen-behaftete Spannungen. Bei Anwendungen in der offenen Chirurgie spielt der kapazitive Kopplungseffekt eine untergeordnete Rolle. Bei laparoskopischen Eingriffen und in der flexiblen Endoskopie hingegen tritt der kapazitive Kopplungseffekt, bedingt durch die langen Instrumente, verstärkt auf. Da Ableitströme unvermeidbar, unerwünscht, unbemerkt und nicht vorhersagbar sind, ist es besonders wichtig, dass der Anwender beim Einsatz der Instrumente beachtet, dass der kapazitive Kopplungseffekt auftreten kann. In der Praxis bedeutet dies, dass auch durch eine isolierende Kunststoffschicht, wie sie z. B. bei Trokaren oder MICInstrumenten vorhanden ist, ein Strom fließen kann und bei entsprechender kleinflächiger Berührung mit dem Gewebe eine so hohe Stromdichte zustande kommen kann, dass eine Verbrennung möglich ist.
28.4
230 Veff (Netzspannung) einen Spitzenwert (U _ p) von ca. 325 Vp, der Crestfaktor (CF) ist hier 1,41 (√2). Bei konstanter Ausgangsleistung muss demnach bei einem Strom mit hohem Crestfaktor auch die Ausgangsspannung größer sein. Hinsichtlich der Auswirkungen auf den Gewebeeffekt gilt: Je höher der Crestfaktor, desto ausgeprägter ist die Koagulationswirkung; je niedriger, desto ausgeprägter ist die Schneidwirkung. Bedingt durch die verwendeten sinusförmigen Stromformen in der HF-Chirurgie kann der Crestfaktor den Wert 1,41 nicht unterschreiten. Up C (Sinus) = 1,41, C Crestfaktor = F F Ueff (symmetrisches Rechteck) = 1
28.4.1 Schneideströme
Mit hochfrequentem Wechselstrom ist ein Schnitt durch Gewebe nur möglich, wenn die elektrische Spannung zwischen der aktiven Elektrode und dem Gewebe so groß ist, dass elektrische Funken zünden (⊡ Abb. 28.7). Führt man die aktive Elektrode durch Gewebe, zünden elektrische Funken überall dort, wo der Abstand zwischen aktiver Elektrode und Gewebe genügend klein ist. Funken entstehen allerdings erst ab einer Mindestspannung von etwa 200 Vp. Erhöht man die Spannung, so nimmt die Funkenintensität proportional zu. Bestimmt vom Aussehen der Schnittflächen wird zwischen »glattem Schnitt« und »verschorftem Schnitt« unterschieden. Beim glatten Schnitt, bei dem die Schnittflächen keine Verfärbung durch Hitzeeinwirkung zeigen, kommt ein HF-Strom mit einem Crestfaktor von
Stromformen und Applikation
Welche Wirkung ein HF-Strom im Gewebe hervorruft, ist im Wesentlichen durch dessen Einwirkdauer, Spannungshöhe und den Grad der Amplitudenmodulation vorgegeben. Die Frequenz (0,3–5 MHz) spielt dabei keine entscheidende Rolle. Eine wichtige Kenngröße stellt dabei der sog. Crestfaktor (engl.: crest, Scheitelpunkt) dar. Er beschreibt das Verhältnis von Spitzenwert (Scheitelwert) zu Effektivwert einer elektrischen Wechselgröße und gibt somit einen Hinweis darauf, wie stark ein Strom in seiner Amplitude moduliert ist. So hat z. B. eine sinusförmige Wechselspannung mit einem Effektivwert (Ueff ) von
⊡ Abb. 28.7. Dissektion: Das HF-chirurgische Schneiden (Elektrotomie) basiert auf einer Funkenbildung zwischen Schneidelektrode und Gewebe
525 28.4 · Stromformen und Applikation
ca. 1,4 zum Einsatz. Beim verschorften Schnitt, bei dem die Schnittflächen bräunlich verfärbt sind, kommt je nach gewünschtem Koagulationsgrad ein HF-Strom mit einem Crestfaktor zwischen 2 und 4 zur Anwendung. Je stärker die Schnittflächen verschorft sind, desto effektiver ist die den Schnitt begleitende Hämostase. Ein Strom mit noch höherem Crestfaktor als 4 lässt ein befriedigendes Schneiden nicht mehr zu (»Rupfen«). Da zunächst nach Einführung der Röhrengeneratoren (1920) die unmodulierten Ströme beim Schneiden zu wenig Hämostasewirkung hatten, wurde ein auf Funkenstrecke basierter Fulgurationsstrom dem Schneidestrom überlagert (dazugemischt). Man sprach von einem Misch- oder Blend-Strom – eine Bezeichnung, die bis heute für modulierte Ströme gebräuchlich ist. Eine für einen glatten Schnitt häufig verwendete Bezeichnung ist »Pure Cut«, für mittlere Verschorfung »Blend Cut« und für starke Verschorfung »Super Blend Cut« (⊡ Abb. 28.8, auch 4-Farbteil am Buchende). Prozessgrößen, die für die Schnittqualität ausschlaggebend sind, werden heute regelungstechnisch beherrscht.
Die folgenden Faktoren spielen dabei eine wesentliche Rolle: ▬ Größe und Form der Schneideelektrode: Für den HF-Generator sind es völlig unterschiedliche Bedingungen, ob bspw. mit einer großen Messerelektrode oder mit einer feinen Nadel geschnitten wird. ▬ Schnittführung und -geschwindigkeit: ▬ Die Schneidequalität hängt davon ab, ob oberflächlich oder tiefer, schneller oder langsamer geschnitten wird. ▬ Gewebeeigenschaften: Wird die Schneideelektrode durch Gewebe mit geringem elektrischem Widerstand geführt (Muskeln, Gefäße), bricht die Ausgangsspannung z. T. stark zusammen; bei Gewebe mit großem elektrischem Widerstand (Fett) dagegen weniger stark.
⊡ Abb. 28.8. HF-chirurgische Schnitte mit unterschiedlichen Crestfaktoren. Oben: Mit unmoduliertem Strom resultiert ein »glatter« Schnitt (pure cut), der am Schnittrand nur eine minimale, thermische Wirkung zeigt. Mitte: Modulierter Strom verursacht einen »verschorften« Schnitt (blend cut), durch dessen thermische Wirkung am Schnittrand
ein schmaler Koagulationssaum resultiert. Unten: Stark modulierter Strom verursacht einen »stark verschorften« Schnitt (super blend cut). Aus der kräftigen, thermischen Wirkung resultieren ein breiter Koagulationssaum und eine leichte Karbonisierung am Schnittrand
Je nach Gegebenheit kommen verschiedene Regelalgorithmen zur Anwendung, die sich auf die Ausgangsleistung, Ausgangsspannung und die Funkenintensität be-
28
526
Kapitel 28 · Hochfrequenzchirurgie
ziehen. Das Ziel dabei ist, dem Anwender weitestgehend unabhängig von äußeren Bedingungen reproduzierbare Schneideeigenschaften zu bieten.
Geregelte Schneideströme
III
Bei der Spannungsregelung werden sinusförmige Spannungen im Bereich von 200–650 Vp eingesetzt. Dabei nimmt auch die Höhe der Ausgangsspannung Einfluss auf die Funkenintensität und damit auch auf den Koagulationsgrad beim Schneiden (neben dem Modulationsgrad beeinflusst also auch die Funkenintensität den Koagulationsgrad). Unter 200 Vp ist kein Schnitt möglich, da bei dieser Spannung kein elektrischer Funke zwischen aktiver Elektrode und Gewebe zündet. Spannungen von über 650 Vp führen dagegen zu unerwünschter Karbonisation des Gewebes und zu einem übermäßigen Verschleiß der aktiven Elektrode. In homogenem Gewebe kompensiert die Spannungsregelung variable Schnitttiefen, -geschwindigkeiten und Elektrodengrößen. Da aber im chirurgischen Einsatz meist heterogenes Gewebe bzw. unterschiedliche Gewebearten geschnitten werden, ist eine »Konstantspannungs-Regelung« allein nicht ausreichend. Niederohmiges Gewebe (z. B. Muskel) erfordert für einen bestimmten Schneideffekt eine deutlich niedrigere Schneidespannung als hochohmiges Gewebe (z. B. Fett). Ein rein spannungsgeregelter Schneidprozess kann also beim Schnitt durch eine Fettstruktur zum Erliegen kommen. Um dies zu verhindern, wechselt bei modernen HF-Generatoren der Regelalgorithmus auf ein anderes Regelkriterium – z. B. die Ausgangsleistung. Die Ausgangsspannung »darf« in diesem Fall fluktuieren; dafür wird aber dann die Ausgangsleistung konstant gehalten. Wenn unter dieser Bedingung ein Gewebeimpedanzsprung (Schnitt vom Muskel- ins Fettgewebe) auftritt, wird die Ausgangsspannung erhöht, um den Leistungseintrag ins Gewebe konstant zu halten. Damit ist ein konstantes Schneidergebnis durch heterogenes Gewebe mit stark unterschiedlichen Gewebeimpedanzen gewährleistet. Als ein weiterer wesentlicher Faktor für den Schneidprozess wurde bereits die Funkenintensität angeführt. Da die Existenz von Funken nicht ohne Rückwirkung auf den Generator selbst bleibt, kann dies regelungstechnisch genutzt werden. Zum einen verursachen Funken Oberwellen im Strom; zum anderen haben Funken eine gleichrichtende Wirkung. Dies wurde im Zusammenhang mit faradischen Reizungen, die bei der Elektrotomie auftreten können, bereits angesprochen. Es werden also während des Schneidens elektrische Größen generiert, die in unmittelbarem Zusammenhang zur Funkenintensität und damit zum Schneidprozess selbst stehen. Regelt man auf eine dieser Größen, kann die Funkenintensität konstant gehalten werden. Auf diese Weise ist die Schnittqualität ebenfalls reproduzierbar und weitestgehend unabhängig von der Schnittgeschwindigkeit und Gewebeart. Aber
auch die Funkenregelung allein wäre für einen umfassenden Regelalgorithmus, der alle Gegebenheiten befriedigend abdeckt, nicht ausreichend. Wird die aktive Elektrodenfläche reduziert – z. B. am Ende eines Schnittes beim Herausfahren aus dem Gewebe – wird sowohl ein Leistungskonstant- als auch ein Funkenkonstant-Algorithmus versuchen, bis zum Schluss über eine immer kleiner werdende wirksame Elektrodenfläche den Prozess aufrecht zu erhalten. Als Ergebnis bekäme man eine viel zu heftige Reaktion. Dieses Phänomen kann dann allerdings wieder vom Spannungskonstant-Algorithmus beherrscht werden. Ein allumfassender Regelalgorithmus verknüpft die drei Einzelkriterien zu einem Komplex, in dem impedanz-, spannungs- und stromabhängig der jeweils am besten geeignete Regelalgorithmus zum Eingriff kommt. Dabei wird das erforderliche Ausgangsleistungsniveau so niedrig wie möglich, aber so hoch wie nötig eingestellt. Als Schneidelektroden kommen beim offenchirurgischen Arbeiten Nadel-, Messer- und Lanzettelektroden zum Einsatz; bei transurethralen, hystero- und cystoskopischen Resektionen starre Schlingenelektroden und bei laparoskopischen Eingriffen Hakenelektroden.
Fraktionierte Schneideströme HF-chirurgische Eingriffe in der Gastroenterologie stellen eine besondere Herausforderung dar. Im Vordergrund stehen dabei die endoskopische Polypektomie (Abtragung einer Schleimhautgeschwulst meist im Darm), Mukosektomie (flächenhafte Abtragung der Magen- oder DarmSchleimhaut) und die Papillotomie (weitende Eröffnung der Gallen- und Pankreasgangsmündung im Duodenum, auch Sphinkerotomie genannt). Bei beiden Indikationen sollen kollaterale thermische Läsionen so gering wie möglich, für eine ausreichende Hämostase aber so stark wie nötig ausgebildet werden. Die Wandstärken der Zielorgane schwanken nach Lage und Dehnungszustand erheblich (Magen 2–8 mm, Kolon 0,5–4 mm), was eine Resektion wegen der bestehenden Perforationsgefahr stark erschwert. Dabei ist zu berücksichtigen, dass nicht nur ein offener Durchbruch, sondern auch eine wanddurchgängige Koagulation als Perforation zu werten ist. Die Ausgangsvoraussetzungen für die Elektrotomie sind insbesondere bei der Polypektomie aus physikalischer Sicht sehr ungünstig. Mit der Polypektomie-Drahtschlinge wird vor der HF-Aktivierung nach Möglichkeit der Polyp vollständig umfasst und unter innigem, mechanischem Zug gehalten. Daraus resultiert eine für den elektrischen Schneidvorgang sehr ungünstige Kontaktsituation zum Gewebe. Der Schneidvorgang kann sich durch den anhaltenden mechanischen Druck der Schneidelektrode auf das Gewebe nicht als gleitender, wachsartiger Schnitt ausbilden. Der Schnitt wird – nachdem der Schneidvorgang begonnen hat – ruckartig ausgeführt. Um unter den gegebenen Kontaktbedingungen zum Gewebe den Prozess
527 28.4 · Stromformen und Applikation
zu starten, muss zunächst eine sehr hohe HF-Leistung angeboten werden. Diese führt zu Beginn zu einem sehr viel stärkeren, begleitenden Koagulationseffekt als die danach im stationären Schneidprozess notwendige Schneidleistung, die um Größenordnungen niedriger ist als die Anfangsschneidleistung. Als Ergebnis erhält man eine stark inhomogen koagulierte Resektionsfläche, die an den Außenrändern zu intensiv (Perforationsrisiko) und im Zentrum zu schwach (Blutungsrisiko) ausgebildet ist. Gelöst wird dieses Problem, indem der Schneideprozess quasi unmittelbar nachdem er sich ausgebildet hat wieder abgebrochen wird. Diesem kurzen Schneidvorgang schließt sich eine Koagulationsphase an, in der keine Gewebetrennung erfolgt. Mit weiteren intensiven Schneidepulsen, die in ihrer Intensität regelungstechnisch auf den Prozess abgestimmt sind, wird das in den jeweiligen Pulspausen vorkoagulierte Gewebe schrittweise (fraktioniert) geschnitten. Als Ergebnis erhält man eine homogen koagulierte Resektionsfläche. Abhängig von der Art des Polypen – flachbasig oder gestielt – kann der Koagulationsgrad durch die Wahl der entsprechenden Stromart gewichtet werden. Beim endoskopisch assistierten Hantieren einer Schneidelektrode bei der Papillotomie muss der Operateur häufig Richtungskorrekturen vornehmen, er muss intermittierend zum Schnitt das Gewebe beurteilen und einschätzen, ob die erlangte Schnittlänge für sein Vorhaben ausreichend ist. Dabei ist es für ihn sehr hilfreich, wenn der Schnitt nicht kontinuierlich, sondern fraktioniert abläuft. Das heißt der Schneidvorgang schreitet »Millimeter für Millimeter« pulsartig voran, wobei der Operateur in den Schnittpausen entscheiden kann, ob er im Prozess fortfährt oder abbricht.
Argonassistiertes Schneiden Wenn der Einsatz von Argongas mit dem normalen Schneidemodus des HF-Chirurgiegerätes kombiniert wird, spricht man von argonassistiertem Schneiden. Hierzu wird ein spezieller Applikator verwendet. Aus dem Applikatorschaft ragt eine aktive Schneideelektrode, die beim Schneidevorgang von Argongas koaxial umströmt wird. Beim argonassistierten Schneiden wird mit den normalen Schneidespannungen des HF-Chirurgiegerätes gearbeitet; d. h. das Argongas wird nicht ionisiert und somit auch nicht leitfähig. Die Schneidestelle ist von einer inerten Argongasatmosphäre umgeben, die hier die Funktion einer Schutzgasatmosphäre einnimmt. Durch das Argongas kommt weniger Sauerstoff an die Schnittfläche, dies führt zu ▬ einer reduzierten Rauchbildung – der Operateur hat somit eine bessere Sicht zum OP-Feld; ▬ weniger Karbonisation – dies bedeutet postoperativ einen besseren Heilungsverlauf. Argonunterstütztes Schneiden ist insbesondere für die Mammachirurgie und Leberchirurgie geeignet.
Bipolares Schneiden Prinzipiell herrschen beim bipolaren Schneiden die gleichen physikalischen Gesetzmäßigkeiten wie beim monopolaren Schneiden. Die Stromqualitäten und die regelungstechnischen Möglichkeiten, wie sie für die monopolaren Schneidströme aufgezeigt wurden, können grundsätzlich auch bei der bipolaren Applikationsform zum Einsatz kommen. Die im Zusammenhang mit dem bipolaren Schneiden unter 28.3.2., Abschn. »Bipolare Technik« erläuterten Einschränkungen liegen primär im verfügbaren Applikationsinstrumentarium begründet. Zwar wurden Mitte bis Ende der 1990er Jahre große Anstrengungen unternommen, die Performance und das Angebot an bipolarem Schneidinstrumentarium zu verbessern; als wirklicher Standard konnte sich bis heute jedoch keines der Instrumente durchsetzen. Auch die Versuche, zusätzliche Elektroden in ein Instrument zu integrieren, um in tri- oder multipolarer Anordnung arbeiten zu können, führten nicht zum erhofften Durchbruch.
Bipolare transurethrale Resektion (Bipol-TUR) Die transurethrale Resektion der hypertrophen Prostata (TUR-P), Resektionen in der Blase (TUR-B) in der Urologie oder die transzervikale Resektion des Endometriums in der Gynäkologie sind Standardverfahren, die traditionell HF-chirurgisch monopolar unter elektrisch nicht leitender Spülflüssigkeit durchgeführt werden. Als Spülmedium dient meist eine Zuckerlösung (Sorbit + Mannit), die bedingt durch intraoperative Blutungen über den Spüldruck in den Kreislauf eingeschwemmt werden kann. Durch die eingeschwemmte, hypotone Spülflüssigkeit kann es in der Folge zu einer Elektrolytverschiebung (Hyponatriämie) kommen, die – als TUR-Syndrom beschrieben – zu einem Hirn- oder Lungenödem führt und intensivmedizinisch behandelt werden muss. Mit zunehmender Operationsdauer steigt dieses Risiko, deshalb ist die OP-Dauer zeitlich begrenzt. Bei der Anwendung der Bipol-TUR kann im Gegensatz zur monopolaren Resektion als Spülmedium physiologische Kochsalzlösung verwendet werden, unter deren Einfluss das TUR-Syndrom vermieden wird. Bei der Bipol-TUR sind die beiden Elektroden im Resektoskop vereint; entweder bildet der Resektoskopschaft die indifferente Elektrode oder sie wird als Gegenelektrode in räumlicher Nähe zur aktiven Schlingenelektrode geführt. In beiden Fällen handelt es sich entsprechend 28.3.2., Abschn. »Bipolare Technik« um eine quasi bipolare Anordnung. Da Kochsalzlösung leitfähig ist, besteht beim Resezieren das Problem, dass diese Flüssigkeit einen elektrischen Nebenschluss bildet und den elektrischen Strom von der Schneidelektrode am Gewebe vorbei ableitet. Die notwendige Schneidespannung kann sich so also nicht ausbilden. Um diese Situation zu überwinden,
28
528
Kapitel 28 · Hochfrequenzchirurgie
28.4.2 Koagulationsströme
III
⊡ Abb. 28.9. TUR-Anwendung: Über ein starres Resektoskop wird transurethral Blasen- oder Prostatagewebe HF-chirurgisch monopolar unter elektrisch isolierender Zuckerlösung oder bipolar unter elektrisch leitfähiger NaCl-Lösung mit einer Schlingenelektrode reseziert
muss mindestens kurzzeitig eine sehr hohe Leistung an der Schlingenelektrode umgesetzt werden. Der hohe Leistungseintrag führt dazu, dass die Spülflüssigkeit entlang der ganzen Schneidelektrode schlagartig verdampft und sich so eine Plasmaschicht entlang der Schlingenelektrode ausbildet. Dabei ist völlig klar, dass die zur Ausbildung des Plasmas notwendige Energie von der Oberfläche der Schlingenelektrode abhängig ist. Die weitere Existenz des so etablierten Plasmas kann dann auf einem wesentlich niedrigeren Leistungsniveau aufrechterhalten werden. In diesem Zustand ist die Schlinge resektionsbereit, sodass Gewebe, das in Kontakt zur Schlinge gelangt, ohne das beschriebene Anschnittphänomen und ohne einem Schlingendruck auszuweichen, unmittelbar geschnitten wird. Die Methode bietet die folgenden Vorteile: ▬ Vermeidung des TUR-Syndroms. ▬ Statistisch signifikant geringeres Auftreten einer Obturatoriusreizung. Durch die bipolare Anordnung fließt der Strom nicht durch den Körper zur am Oberschenkel applizierten Neutralelektrode, sondern nur in enger räumlicher Umbebung vom Resektionsort. ▬ Geringerer Blutverlust. ▬ Risikoärmer für Schrittmacher-Patienten durch geringere Interferenz. ▬ Keine Gewebeerwärmung in tieferen Schichten. ▬ Geringfügig kostengünstigere Spülflüssigkeit. ▬ Einsparung der Neutralelektrode.
Ziel der Koagulation ist es, mit Hilfe von hochfrequentem Strom Gewebe zu denaturieren bzw. Gefäße so weit zu verengen, dass »Blutungen stehen«. Die Koagulationswirkung hängt im Wesentlichen von Höhe und Form der Ausgangsspannung, der Stromdichte im Gewebe, vom Gewebewiderstand, von Form und Größe der aktiven Elektrode und der Applikationszeit ab. Um biologisches Gewebe zu koagulieren ist eine Temperatur von etwa 70°C notwendig. Wird die Koagulationstemperatur von ca. 70°C überschritten, dehydriert das glukosehaltige Koagulat, und das Gewebe kann an der aktiven Elektrode kleben. Bei noch höheren Temperaturen kann es zu einer Karbonisation des Gewebes kommen (vgl. ⊡ Tab. 28.2). Bei der Koagulation sind die Anforderungen an ein HF-Chirurgiegerät sehr komplex, daher ist es wichtig, verschiedene Koagulationsmodi nutzen zu können, um allen chirurgischen Anforderungen gerecht zu werden. Folgende Modi sollten zur Verfügung stehen: Kontaktkoagulation, Forced Koagulation, Desikkation, Spraykoagulation, argonassistierte Koagulation, bipolare Koagulation und bipolare Gefäßversiegelung. So kann der Anwender den für den jeweiligen Eingriff am besten geeigneten Koagulationsmodus vorwählen und die Einstellung der Intensität jeweils optimieren.
Kontaktkoagulation Zwei grundsätzlich verschiedene Applikationsformen werden hier unterschieden: ▬ Direkte Applikation des HF-Stromes am Gewebe vom HF-Chirurgiehandgriff aus über spezielle Kontaktkoagulationselektroden wie Kugel- oder Plattenelektrode. ▬ Indirekte Applikation des HF-Stromes am Gewebe über ein chirurgisches Instrument, auf das vom HF-Chirurgiehandgriff aus i. d. R. über eine Schneidelektrode (Nadel-, Messerelektrode) der Strom übertragen wird. Die direkte Applikation kommt sehr viel seltener zur Anwendung als die indirekte Applikation. Sie spielt im Niedergelassenen Bereich, wo nur wenig geschnitten wird, eine bedeutendere Rolle als in der täglichen Routineanwendung im OP-Saal. Dort geht gezielte Blutstillung mit Schneiden einher und findet im permanenten Wechsel »Schneiden/Koagulieren« statt. Da die Quelle spontan auftretender Blutungen schnell über eine chirurgische Präparierpinzette vom Chirurgen gefasst, komprimiert und somit mechanisch gestoppt wird, bietet es sich an, diese Stelle zu »verkochen«, indem HF-Strom auf eben diese Pinzette gegeben wird (indirekte Applikation). Da der Operateur, der die Pinzette mit einer Hand fasst, häufig mit seiner zweiten Hand ebenfalls in Patientenkontakt steht, wird er – elektrisch betrachtet, da nur durch sehr dünne OP-
529 28.4 · Stromformen und Applikation
Handschuhe isoliert – »Teil des Patienten«. Je höher dabei die zur Anwendung kommende Koagulationsspannung ist, umso größer ist das Risiko für den Operateur in dieser Situation, dass die Isolation des Handschuhs versagt. Als Folge würde er die koagulierende Wirkung des HF-Stroms selbst an der betroffenen Stelle seiner Hand spüren. Um dieses Risiko gering zu halten, sollten bei der indirekten Applikationsform nur HF-Spannungen von ca. 600–700 Vp zur Anwendung kommen. Um den Anwender hier zu unterstützen, werden heute speziell optimierte Ströme für die Klemme als sog. Klemmenstrom angeboten. Um das Risiko einer wie oben beschriebenen Verbrennung beim Anwender noch stärker zu reduzieren, müssen Instrumente verwendet werden, die im Haltebereich elektrisch isoliert sind (⊡ Abb. 28.10). Die Vielfalt der unterschiedlichen Gewebearten (u. a. Muskel, Fett) und deren Zustände (blutend, trocken, inniger oder loser Elektrodenkontakt…), an denen HF-Strom appliziert wird, bilden ein sehr breites Impedanzspektrum ab (ca. 50–1000 Ω). Eine breitbandige Anpassung des HFGenerators, d. h. konstante Leistungsabgabe über einen breiten Gewebeimpedanzbereich, ist deshalb hier gefordert. Da man hinsichtlich der maximalen Ausgangsspannung für indirekt applizierte Kontaktkoagulationen limitiert ist, können nur Koagulationsströme mit für solche Anwendungen vergleichsweise niedrigen Crestfaktoren eingesetzt werden. Diese Ströme besitzen einen teilweise schneidenden Charakter, den manche Anwender bewusst dann zum Schneiden nutzen, wenn der Schnitt von ausgeprägter Hämostasewirkung begleitet sein soll, oder wenn das Risiko einer Keimverschleppung relativ groß ist (z. B. Schnitt am Darm). Eine Sonderform stellt die sog. Care Koagulation (engl.: care, schonen, Sorgfalt) dar. Bei der Care Koagulation (auch Soft Koagulation) bleibt die Spitzenspannung zwischen aktiver Elektrode und Gewebe auf Werte <200 Vp beschränkt. Bei diesen niedrigen Spannungswerten kann kein elektrischer Funke zwischen aktiver Elektrode und Gewebe entstehen. Ein ungewollter Schneideffekt und eine unerwünschte Karbonisation werden dadurch ausgeschlossen. Ein weiterer Vorteil der Care Koagulation ist die geringere Verschmutzung der aktiven Elektrode, die deshalb während des Eingriffs seltener gereinigt werden muss. Die Care Koagulation eignet sich für alle Eingriffe, bei denen die aktive Elektrode direkt mit dem zu koagulierenden Gewebe in Kontakt gebracht wird (z. B. in der Neurochirurgie, Gynäkologie, HNO und insbesondere bei minimalinvasiven Eingriffen). Der Umstand, dass der Strom einen vom Koagulationsfortgang abhängigen Verlauf zeigt, kann als Kriterium zum Abschalten der Energiezufuhr genutzt werden. Während des Koagulationsvorgangs sinkt in der ersten Phase die Gewebeimpedanz deutlich, wodurch der Strom ansteigt. Wenn die intra- und extrazelluläre Flüssigkeit in Dampf überführt ist, steigt aufgrund der Dehydration
⊡ Abb. 28.10. Indirekte Kontaktkoagulation über eine isolierte, chirurgische Pinzette. Alternativ kann die HF-Chirurgie-Elektrode auch in direktem Gewebekontakt zur Kontaktkoagulation verwendet werden
die Impedanz rapide an, wodurch sich der Strom dann abrupt auf ein Minimum reduziert. Eine dynamische Sensorik registriert diese Änderung und schaltet den Generator beim Erreichen eines bestimmten Grenzwerts automatisch ab. Man spricht in diesem Zusammenhang von Kontaktkoagulation mit Auto Stopp Funktion. Für den Operateur bedeutet dies, dass selbst dann eine optimale Koagulation möglich ist, wenn er die Spitze der Elektrode im Gewebe nicht beobachten kann. Der Anwender kann das Abschaltkriterium bei der Auto-Stopp-Koagulation unterschiedlich einstellen und damit unterschiedliche Koagulationsqualitäten vorwählen. Abhängig von der Ausgangsspannung ändert sich die Geschwindigkeit im Ablauf der Koagulation. Bei höherer Ausgangsspannung wird die Dehydration im Gewebe früher erreicht, bei niedrigerer wird weniger Leistung pro Zeiteinheit im Gewebe appliziert, und es muss insgesamt mehr Zeit aufgewendet werden. Während dieser Zeit kann sich die Koagulation aufgrund der Wärmeleitung räumlich weiter ausbreiten, bis die Koagulation abgeschlossen ist. In Abhängigkeit von der Einstellung am HF-Chirurgiegerät können also unterschiedliche Koagulationstiefen mit gleich großen Elektroden erreicht werden.
Desikkation Mit dem Begriff Desikkation (lat.: desiccare, austrocknen) wird weniger eine bestimmte Stromform als vielmehr eine ganz spezielle Applikationsform abgegrenzt. Dabei wird eine nadelförmige Elektrode in das Gewebe eingestochen und für die Zeitdauer der Stromeinwirkung an der glei-
28
530
III
Kapitel 28 · Hochfrequenzchirurgie
chen Stelle belassen. Bei entsprechender Stromintensität kommt es dann im engeren Bezirk der Nadel zur Gewebsverkochung und Austrocknung. Da die Desikkation einen Vorgang in der Tiefe des Gewebes darstellt und die thermische Gewebereaktion optisch nicht kontrolliert werden kann, wird diese Applikationsform vorteilhaft mit der bereits unter 28.4.2, Abschn. »Kontaktkoagulation« beschriebenen »Auto Stopp Funktion« kombiniert. In der Tumortherapie möchte man im Zusammenhang mit der Desikkation möglichst große Gewebevolumina erreichen. Daher eignet sich als Strom der Care Koagulationsstrom oder ein spezieller Desikkationsstrom, der heute für die HF induzierte interstitielle Tumortherapie (HFITT) angeboten wird. Bei der HFITT werden spezielle mono- bi- oder multipolare Applikatoren in das Zentrum eines Tumors oder einer Metastase unter bildgebender Kontrolle (MRT, Röntgen, Ultraschall) gebracht. Es wird über einen längeren Zeitraum (typ. 20 min) HFStrom appliziert und die Ausbreitung der thermischen Läsion unter Bildgebung beobachtet. Wenn sich die Koagulationsfront bis ins Gesunde ausgedehnt hat, wird die Energiezufuhr gestoppt. Damit man möglichst große Koagulationsvolumina generieren kann, werden die Nadelelektroden teilweise gekühlt, um eine zu frühe Desikkation des an der Nadel anliegenden Gewebes zu verhindern. Würde dieses zu früh austrocknen, wäre der weitere Energieeintrag wegen der hohen Impedanz von ausgetrocknetem Gewebe verhindert und der Tumor könnte nicht vollständig nekrotisiert werden. Die größte Erfahrung über den Einsatz der HFITT in der Tumortherapie besitzt man heute für Lebertumore und -metastasen.
trisch nicht leitender Spülflüssigkeit zur Anwendung (vgl. ⊡ Abb. 28.9). Hier ist es ganz besonders wichtig, dass der Strom nicht zum Schneiden neigt, denn hier werden die Koagulationen über sehr dünne Drahtschlingenelektroden mit Drahtstärken von 0,3–0,4 mm ausgeführt. Mit einem schneidenden Koagulationsstrom würde die Schlingenelektrode bei leichtem Gewebeanpressdruck einsinken, was bei einer Resektion in der Blase bei den dort gegebenen dünnen Gewebewandstärken nicht toleriert werden kann.
Spraykoagulation oder Fulguration Durch die Art der zur Verfügung stehenden Apparate zur Zeit Pozzis war die Fulguration, die heute meist als Spraykoagulation – selten auch als Sidération – bezeichnet wird, die erste Anwendungsmöglichkeit des HF-Stromes am lebenden Gewebe (⊡ Abb. 28.11). Bei der Spraykoagulation werden sehr hohe pulsförmige, extrem stark modulierte Ausgangsspannungen von einigen tausend Volt (bis zu 8 kVp) verwendet (Crestfaktor: bis 20). Nähert der Anwender sich mit einer unter Sprayspannung stehenden kleinflächigen Elektrode (Nadelelektrode) dem Gewebe, wird bereits in einer Entfernung zum Gewebe von 3–4 mm die Luft zwischen Elektrodenspitze und Gewebe ionisiert. Über die im elektrischen Feld ionisierte Luft entlädt sich ein Funke auf das Gewebe, gefolgt von weiteren Funkenentladungen, die räumlich ausgedehnt eine relativ große Gewebeoberfläche »besprühen« und koagulieren – daher die Bezeichnung Spraykoagulation. Wird anstelle einer Nadelelektrode eine Kugelelektrode verwendet, resultiert an der stumpfen »Elektrodenspitze« bei gleichem Gewebeabstand eine geringere elektrische Feldstärke. Diese nimmt erst mit ab-
Forced Koagulation Bei diesem Koagulationsmodus wird mit hohen pulsförmigen, stark modulierten Ausgangsspannungen von bis zu 3 kVp gearbeitet (Crestfaktor: 5–7). Man bezeichnet diesen Koagulationsstrom als »forced«, weil er durch seine hohe Spannung auch hochohmige Gewebeimpedanzen überwindet und eine Koagulation auch in »ungünstigen« Ausgangssituationen quasi erzwingen kann. Auch wird durch die Bezeichnung »forced« der ausschließliche Koagulationscharakter des Stromes unterstrichen. Durch die relativ hohen Spannungen können bei der forcierten Koagulation zwischen der aktiven Elektrode und dem Gewebe Funken entstehen, und man kann in kurzer Zeit ausgeprägte Koagulationen erzielen. Dieser Modus erfüllt die Anforderungen an eine Standardkoagulation und ermöglicht dem Operateur ein schnelles und effektives Arbeiten – allerdings mit dem Kompromiss einer möglichen Karbonisation des Gewebes. Wenn eine forcierte Koagulation indirekt über ein chirurgisches Instrument appliziert werden soll, muss das Instrument elektrisch isoliert sein. In geringfügig modifizierter Form kommt dieser Strom auch bei transurethralen und gynäkologischen Eingriffen unter elek-
⊡ Abb. 28.11. Spraykoagulation – auch Fulguration genannt
531 28.4 · Stromformen und Applikation
nehmendem Gewebeabstand wieder zu, sodass die Ionisation der Luft mit der einhergehenden Funkenentladung beim Einsatz einer Kugelelektrode erst bei geringerem Abstand stattfindet. Elektrische Spannung U [kV] Elektrische Feldstärke E = Abstand 1 [mm] Mit Hilfe der Spraykoagulation kann also Gewebe berührungsfrei koaguliert werden (»Nonkontaktkoagulation«). Immer dann, wenn eine Oberflächenkoagulation oder eine Stillung diffuser Blutungen notwendig ist, kann die Spraykoagulation vorteilhaft eingesetzt werden, bspw. bei der Koagulation parenchymatöser Gewebe (Leber, Niere, Milz, Lunge). Dort wo aus Wärmegründen der direkte Kontakt mit dem Gewebe vermieden werden soll oder aufgrund der hohen Gewebeimpedanz ein Energieeintrag per Kontaktkoagulation nicht möglich ist – z. B. bei der Blutstillung am knöchernen Sternum in der Thoraxchirurgie – ist die Spraykoagulation häufig die einzig mögliche Applikationsform zur Blutstillung. Für endoskopische Anwendungen werden bedingt durch die Anforderungen an die Spannungsfestigkeit des Instrumentariums in der Spannung reduzierte Spraykoagulationströme (Endo Spray) eingesetzt (typ. bis 4 kVp).
Argonassistierte Koagulation (Argonbeam) Es gibt klinische Situationen, die sich mit Hilfe der herkömmlichen mono- und bipolaren Koagulationsverfahren nur unzureichend bewältigen lassen. Problematisch ist u. a. die offene oder endoskopische Koagulation großflächiger Blutungs- oder Tumorareale, die mit den üblichen Methoden nur unter technischen Schwierigkeiten und mit erheblichem Zeitaufwand zu behandeln sind. Insbesondere für die endoskopische Anwendung sollte außerdem eine sichtbehindernde Rauchbildung und eine Karbonisation des Gewebes sowie ein Festkleben des koagulierten Gewebes an der Elektrode ausgeschlossen sein. Seit Mitte der 1980er Jahre steht hierfür in der offenen Chirurgie und seit Mitte der 1990er Jahre auch in der flexiblen Endoskopie mit dem Argonbeamer eine HF-Methode zur Verfügung. Heute können moderne HF-Chirurgiegeräte mit einer Argongas-Zusatzeinheit erweitert werden, sodass bedarfsorientiert die Stromform Argonbeam zur Verfügung steht (⊡ Abb. 28.12, auch 4-Farbteil am Buchende). Argonbeam ist ein monopolares Koagulationsverfahren, bei dem hochfrequenter Wechselstrom durch ionisiertes und dadurch elektrisch leitfähiges Argongas (Argonplasma) auf das zu koagulierende Gewebe geleitet wird. Vergleichbar mit der Spraykoagulation ist auch hier eine hohe Spannung (z. B. >2000 Vp) und ein entsprechend geringer Abstand zum Gewebe eine Voraussetzung. Prinzipiell läuft der Prozess ähnlich ab wie bei der Spraykoagulation. Mit dem Unterschied, dass die erforderliche elektrische Feldstärke zur Ionisation von
⊡ Abb. 28.12. Moderne HF-Chirurgie-Behandlungseinheit mit HF-Gerät und Argonbeamer. Die Argongasflasche wird im Gerätewagen deponiert
Argongas deutlich geringer ist als die für Luft (Argon: 5 kV/cm, Luft: 25 kV/cm). Der Applikator kann deshalb im Vergleich zur Spraykoagulation in deutlich größerem Abstand zum Gewebe geführt werden (⊡ Abb. 28.13, auch 4-Farbteil am Buchende). Außerdem ist die Qualität des thermisch generierten Gewebeschorfs deutlich verschieden von dem, den man mit der Spraykoagulation erzielen kann. Der Argonbeam erzeugt eine gebündelte, kontrollierte Stromverteilung im Beam, was sich durch eine gleichmäßige, homogene Koagulation der Gewebeoberfläche ausdrückt. Dazu kommt, dass der ArgongasStrahl Gewebeflüssigkeiten von der zu koagulierenden Stelle wegbläst, sodass die Energie nicht nur in einen, dem Gewebe möglicherweise aufliegenden Blutfilm, sondern unmittelbar ins Gewebe gelangt. Physikalisch bedingt wendet sich der Plasmastrahl automatisch von koagulierten (hochohmigen) Arealen ab, hin zu blutenden oder noch nicht ausreichend koagulierten (niederohmigen) Gewebebereichen im Applikationsgebiet. So wird eine automatisch begrenzte, gleichmäßige Koagulation nicht nur in der Tiefe, sondern auch in der Fläche erreicht. Dabei bleibt die Tiefenwirkung praktisch auf eine Eindringtiefe von 2–3 mm begrenzt.
28
532
Kapitel 28 · Hochfrequenzchirurgie
III
⊡ Abb. 28.13. Gegenüberstellung einer argonunterstützten Koagulation (links) und einer Spraykoagulation (rechts)
Im Vergleich zu herkömmlichen mono- und bipolaren Verfahren bietet die argonunterstützte Koagulation bedeutende Vorteile: ▬ Rasche, flächenhafte Koagulation oberflächlicher Blutungen. ▬ Der Strom fließt automatisch zu dem noch nicht (ausreichend) koagulierten Gewebe, daher lückenlose und gleichmäßig tiefe Verschorfung. ▬ Möglichkeit der lateralen Koagulation. ▬ Zuverlässige Blutstillung bei geringer Traumatisierung des Organs. ▬ Berührungslose Applikation (»Nonkontaktkoagulation«), deshalb kein Verkleben der Elektrode. ▬ Eindringtiefe maximal 3 mm, dadurch geringeres Perforationsrisiko beim Koagulieren in dünnwandigen Organen. ▬ Bessere Wundheilung, da minimale Nekrose und weniger Karbonisation. ▬ Keine Vaporisation. ▬ Der Argon-Flow bläst auftretendes Blut beiseite. Die Blutungsquelle wird so direkt erreicht, was eine verbesserte Koagulationswirkung bedeutet. ▬ Verminderte Rauchentwicklung (bessere Sicht), weniger Geruchsbelästigung. ▬ Kürzere Operationszeiten. ▬ Geringere Komplikationsrate. Insbesondere hat sich der endoskopische Einsatz des Argonbeams bei vielen lndikationen bewährt, bspw. zur Stillung von Tumorblutungen oder von Blutungen nach Dilatation oder Bougierung, der Behandlung von Anastomosen- und Narbenstenosen sowie partiell stenosierenden oder wandnahen Tumoren. Tumor- und Granulationsgewebe, das nach Stenteinlage durch den Ma-
schenstent wächst, lässt sich mit Hilfe der endoskopischen Argonbeam Applikation devitalisieren. Tumorgewebe in perforationsgefährdeten Bereichen (Duodenum, Kolon) kann nekrotisiert werden. Für die Bronchoskopie stehen dünne, flexible Sonden zur Verfügung, angepasst an den Arbeitskanal des Bronchoskops. Im Tracheobronchialbaum lassen sich mit Hilfe des Argonbeams Blutungen stillen und stenosierende Tumoren behandeln. Bedingt durch die vielen Vorteile, die diese Koagulationsmethode bietet, hat sich der Argonbeam relativ schnell in den Operationssälen durchgesetzt. Limitiert werden die Einsatzgebiete derzeit hauptsächlich durch die notwendigen Spezialapplikatoren, die für die jeweilige Disziplin/Indikation erforderlich sind. Hier ist zu erwarten, dass neue Entwicklungen von Kombinationsinstrumenten der Methode zusätzliche Indikationen zuführen werden.
Bipolare Koagulation Wie beim bipolaren Schneiden gelten auch für die bipolaren Koagulationsströme hinsichtlich der Gewebewechselwirkung die gleichen physikalischen Gesetzmäßigkeiten wie für die monopolaren. Bedingt durch die Integration beider Pole in ein Instrument können aus Gründen der Spannungsfestigkeit allerdings nur Ströme mit nicht allzu hoher Ausgangsspannung (max. 500–800 Vp) zur Anwendung kommen. Stark amplitudenmodulierte Ströme mit hohen Crestfaktoren und hohen Spannungspulsen – wie sie für die Nonkontaktkoagulation benötigt werden – scheiden daher aus praktischen Gründen aus. Die bipolare Koagulation wird daher heute ausschließlich als Kontaktkoagulation und Desikkation ausgeführt. Dabei kommt eine indirekte Applikation des Stromes über chir-
533 28.4 · Stromformen und Applikation
urgische Instrumente nicht in Betracht; das Gewebe muss mit dem bipolaren Instrument direkt in Kontakt gebracht werden. In den überwiegenden Fällen handelt es sich dabei um bipolare Pinzetten, die in einer großen Vielfalt mit für die jeweiligen Fachdisziplinen angepassten Geometrien angeboten werden.
Auto Start- und Auto Stopp-Funktion Wie bei der monopolaren Kontaktkoagulation gibt es auch bei der bipolaren Koagulation die Möglichkeit, die Koagulation automatisch, d. h. per Auto Stopp, zu beenden. Diese Funktion wird vorteilhaft bspw. bei der Koagulation der hypertrophen Nasenmuschel- und Myomkoagulation genutzt, bei der eine bipolare Nadelanordnung in das Gewebe gestochen und unter HF-Energieabgabe nekrotisiert wird (Desikkation). Zusätzlich zur Auto Stopp-Funktion gibt es beim bipolaren Koagulieren die Möglichkeit der automatischen Aktivierung ohne Fußschalter (Auto Start). Ein Berührungssensor registriert, wenn sich das zu koagulierende Gewebe zwischen den beiden Elektroden befindet, und aktiviert den Generator automatisch. Damit der Operateur vor der Aktivierung des Generators ausreichend Zeit zum Positionieren und Präparieren hat, kann er individuell programmierbare Verzögerungszeiten vorwählen. Die Auto Start-Funktion ist nur bei offenen Eingriffen empfehlenswert und zulässig. Die Kombination der Auto Start- mit der Auto Stopp-Funktion ergibt ein hohes Maß an Bedienungskomfort. Der Generator aktiviert automatisch mit der vorgewählten Verzögerungszeit, er liefert automatisch die richtige Leistung und schaltet bei Erreichen des optimalen Koagulationsergebnisses automatisch ab. Zusätzlich werden unerwünschte Nebeneffekte wie Verkleben der Elektrode und Karbonisation vermieden.
Non-stick-Technologie Ähnlich wie beim Anbraten in einer Pfanne neigt Gewebe beim Erhitzen zum Zweck der Gewebekoagulation über eine elektrochirurgische Pinzette dazu, an der Metallkontaktfläche anzuhaften. Beim Versuch, die Pinzette vom Gewebe zu lösen, kann es dann vorkommen, dass Gewebe mit »abgerissen« wird und die Blutungsquelle wieder aufgeht. Welche chemisch-physikalischen Abläufe für das Ankleben letztendlich verantwortlich sind, ist weitgehend unbekannt. Was jedoch beobachtet werden kann ist, dass der Effekt umso stärker auftritt, je höher die Temperatur an der Pinzette wird. Ganz besonders stark also dann, wenn zwischen dem Gewebe und den Pinzettenelektroden Funken entstehen. Eine Möglichkeit, die Elektrodentemperatur zu limitieren, besteht darin, die an der Elektrodenkontaktstelle auftretende Wärmeenergie möglichst effektiv abzuführen. Dies kann z. B. dadurch erfolgen, dass für die Elektroden ein Material mit hoher spezifischer Wärmekapazität und guter Wärmeleitfähigkeit gewählt wird. Der üblicherweise für Pinzetten verwendete Edelstahl besitzt zwar eine re-
lativ hohe Wärmekapazität (0,5 kJ/(kg×K); im Vergleich hierzu Silber mit 0,235 oder Kupfer mit 0,383 kJ/(kg×K)), also ein für eine Koagulationselektrode sehr günstiges Verhältnis zwischen zugeführter Wärmemenge und erzielter Temperaturerhöhung, aber eine relativ schlechte Wärmeleitfähigkeit. Diese beträgt für Edelstahl nur 15 W/(m×K) und ist damit z. B. 25-mal kleiner als die von Kupfer. Der Abtransport der Wärme von der Kontaktstelle ins Pinzettenvolumen geschieht also zu langsam; es kommt zum Hitzestau. Der beste Wärmeleiter mit 418 W/(m×K) ist Silber. Aus diesem Grund wird bei Non-Stick-Pinzetten für den distalen Elektrodenbereich (Gewebe Kontaktbereich) eine Silber-Legierung gewählt, die mechanisch robust ist und die herausragenden thermischen und elektrischen Eigenschaften von Silber bei gegebener Biokompatibilität in sich vereinigt. Über die distalen Pinzettenbranchen wird die Wärmeenergie rasch von der Gewebekontaktstelle abgeleitet, hin zum Edelstahl-Komposit, das mit seiner Wärmekapazität die Wärmeenergie aufnimmt. Bei der unter Elektro-Hydro-Thermosation (EHT) bekannt gewordenen Methode nach Reidenbach wird Flüssigkeit (z. B. NaCl) durch die Pinzettenbranchen hindurch auf die Elektrodenkontaktstellen zum Gewebe geführt. Diese die Elektroden umgebende Flüssigkeit führt u. a. dazu, dass bei einer Elektrodenerwärmung bedingt durch Siedekühlung die Temperatur 100°C nicht übersteigen kann. Diese Temperatur ist für die gewünschte Gewebekoagulation ausreichend hoch, führt aber nicht zur vollständigen Austrocknung an den Kontaktflächen oder gar zur Karbonisation des Gewebes. Die EHT-Methode ist zwar sehr effektiv, aber aufwändig, da spezielle Pinzetten erforderlich sind und zusätzlich Spülflüssigkeit bereitgestellt werden muss. Hinzu kommt, dass bei einigen Indikationen eine Spülflüssigkeitszufuhr nicht akzeptiert werden kann. Non-stick-Pinzetten sind daher eine attraktive Alternative. Sie kommen insbesondere in der Neurochirurgie vorteilhaft zum Einsatz; aber auch überall dort, wo das Anhaften von Gewebe nicht toleriert wird.
Bipolare Gefäßversiegelung Obwohl die bipolare Applikationsform bereits Anfang des 20. Jahrhunderts (E.L. Doyen) vorgestellt wurde und die Wirkmechanismen bei der Koagulation zum Verschluss von Blutgefäßen Anfang der 1960er Jahre hinreichend untersucht waren (Bernhard Sigel et al 1965), gelang es bis Ende des 20. Jahrhunderts »nur«, kleinere Gefäße mit einem Durchmesser von ca. 2–3 mm bipolar zuverlässig zu verschließen. Einen Meilenstein in der bipolaren Technik stellt deshalb zweifelsfrei die Entwicklung einer amerikanischen Arbeitsgruppe um Steven P. Buysse und Thomas P. Ryan dar. Sie stellten Ende der 1990er Jahre ein System vor, mit dem es glückte, durch einen speziell geregelten Ablauf des Koagulationsvorgangs über eine
28
534
III
Kapitel 28 · Hochfrequenzchirurgie
bipolare Klemme auch bedeutend größere Gefäße zu versiegeln (⊡ Abb. 28.14). Das Gewebe durchläuft im Verlauf einer Erwärmung verschiedene Stadien. Zunächst kommt es zu einer Koagulation von Bindegewebe mit Erhalt der Faserstruktur; gefolgt von amorpher Koagulation – d. h. Strukturen lösen sich auf – und schließlich zur vollständigen Zerstörung, welche als Karbonisation mit Substanzverlust erscheint. Bei der Gefäßversiegelung kommt es darauf an, unter Erhalt der morphologischen Gewebestruktur das körpereigene Kollagen und Elastin – also das faserige Grundgerüst von Bindegewebe – zu verschmelzen. Mechanischer Druck ist für die Verbindung dieser Fasern während der Erhitzung notwendig, damit die Gefäßwände dabei in innigem Kontakt zueinander stehen. Unzureichender Druck führt lediglich zu einer Thrombusbildung im Gefäß, welche keinen zuverlässigen Gefäßverschluss bei größeren Gefäßen darstellt. Eine unzureichende Erwärmung führt zu einer schwachen Verbindung oder nur zu einer Verbindung der Adventitia-Schichten (das Blutgefäß umgebende lockere Bindegewebe). Zu starke Erhitzung zerstört die physikalischen Eigenschaften der Bindegewebsfasern. Das amorphe Koagulat würde zum Brechen neigen und sich vom übrigen Gewebe lösen; die Faserstruktur wäre zerstört und damit die mechanische Stabilität und Elastizität verloren. Eine ideale Versiegelung entsteht nur, wenn die physikalischen Gewebeeigenschaften erhalten bleiben. Wenn Funken auf das Gewebe wirken, entstehen Temperaturen über 1000 K, welche die Integrität des Gewebes zerstören. Der bipolare Gefäßversiegelungsstrom darf also keine Spannungswerte annehmen, die zu einer Funkenbildung führen (<180–200 Vp). Damit mit solch niedrigen HFSpannungen dennoch genügend Energie ins Gewebe für eine ausreichende Koagulation gebracht werden kann, muss
der Energieeintrag regelungstechnisch unterstützt ablaufen. Man nutzt dabei den Umstand aus, dass die Gewebeimpedanz nach der ersten Desikkationsphase unmittelbar nach Unterbrechung der HF-Energiezufuhr wieder sinkt und eine wiederholte Energieabgabe auch bei der zulässig niedrigen HF-Spannung möglich ist. Man koaguliert also das Gewebe, indem man die Energie in einer gepulsten Weise appliziert. Erst wenn ein gewünschter Versiegelungsgrad erreicht ist, wird der Prozess automatisch gestoppt. Bei einer zuverlässigen Versiegelung erscheint das versiegelte Gewebe pergamentartig transluzent und weist nur einen schmalen, thermisch geschädigten Randbereich auf. Die Hauptvorteile der Methode sind: ▬ Kein körperfremdes Material – wie Nahtmaterial und Clips – wird im Patienten hinterlassen. ▬ Kostenreduktion durch Einsparen von Nahtmaterial. ▬ Kürzere OP-Zeiten (Patientenschonung und Kosten). ▬ Bipolares Verfahren mit den prinzipbedingten Vorteilen (keine aberrierenden Ströme, keine Erwärmung entfernt liegender Gewebestrukturen, Verzicht auf eine Neutralelektrode, elektromagnetische Verträglichkeit).
28.5
Methodische Hinweise für die Anwendung und Sicherheit
Moderne HF-Chirurgiegeräte, ausgestattet mit automatischen Überwachungsfunktionen, vereinen Bedienungskomfort und Funktionsvielfalt mit größtmöglicher Sicherheit und Schonung für die Patienten. Bei allen HFChirurgiegeräten hängt die Sicherheit aber auch von der Handhabung ab. Für maximale Sicherheit gibt es einige grundsätzliche Regeln, deren Einhaltung ebenso zur Routine gehören sollte wie das Beachten der Gebrauchsanweisung. Aus der Erfahrung der Praxis ist die folgende Zusammenfassung mit 4 Schwerpunkten entstanden: 1. Patient, 2. Neutralelektrode, 3. Instrumente und Kabel, 4. HF-Chirurgiegerät.
28.5.1 Patienten- und Anwendersicherheit
Allgemeine Anwendungsregeln
⊡ Abb. 28.14. Wiederverwendbare bipolare Instrumente. Links: Eine bipolare Klemme für die Gefäßversiegelung in der offenen Chirurgie: Gewebe wird vor dem Schneiden intensiv mit Hilfe der Klemme versiegelt. Rechts: Eine bipolare Schere erlaubt die Applikation von koagulierendem, bipolarem HF-Strom über die beiden Scherenblätter während des mechanischen Schneidens. Die Hämostase ist dabei im Gegensatz zur Gefäßversiegelung nur für kleinere Gefäße ausreichend
▬ Der Patient muss trocken und elektrisch isoliert gelagert werden. Er sollte nicht mit elektrisch leitfähigen Gegenständen in Berührung kommen, die geerdet sind oder eine große Kapazität gegen Erde haben, wie z. B. OP-Tisch oder Infusionsständer. ▬ Bei lang andauernden Eingriffen ist der Urin durch einen Katheter abzuleiten. ▬ Wenn möglich, sollten nasse OP-Tischauflagen und Abdecktücher durch trockene ersetzt werden.
535 28.5 · Methodische Hinweise für die Anwendung und Sicherheit
▬ Bei der Patientenlagerung sollte kein punktueller Haut-zu-Haut-Kontakt entstehen, etwa zwischen Fingern und Oberschenkel. ▬ Die Kabel zum Elektrodengriff und zur Neutralelektrode sind möglichst so zu führen, dass sie weder andere Leitungen noch den Patienten berühren. ▬ Die Hochfrequenzkabel nicht aufwickeln und nicht mit einer Metallklemme, sondern mit einer Kunststoffklemme am OP-Tuch fixieren. ▬ Ausreichender Abstand von mindestens 15 cm zwischen der aktiven HF-Elektrode und einer EKG-Elektrode sollte eingehalten werden. ▬ Bei Patienten mit Herzschrittmachern oder -elektroden ist eine Gefährdung des Patienten durch Störung oder Beschädigung des Schrittmachers möglich. – Die Konsultation eines Kardiologen wird empfohlen. ▬ Auf eventuell vorhandene Metallteile im und am Körper achten. Falls möglich, sollte Piercing-Schmuck entfernt werden. ▬ Vorsicht mit Anästhesie-, Entfettungs- und Desinfektionsmitteln! Sie müssen restlos verdunstet und aus dem Bereich der Funkenbildung entfernt sein. Der darin enthaltene Alkohol kann sich durch einen elektrischen Funken entzünden. ▬ Vor der HF-Anwendung im Magen-Darm-Trakt muss sichergestellt werden, dass keine brennbaren endogenen Gase vorhanden sind. ▬ Wenn während einer TUR nicht ausreichend gespült wird, können H2O-Moleküle zu H2 und O2 dissoziieren und sich am Harnblasendach ansammeln. Wird in diesem Gasgemisch reseziert, kann es zu einer Explosion kommen. ▬ Der Elektrodengriff soll nicht auf dem Patienten abgelegt werden; er gehört immer auf die Instrumentenablage oder in den entsprechenden Köcher. ▬ Bei chirurgischen Eingriffen, bei denen der HF-Strom durch Organe oder Gefäße mit relativ kleinem Querschnitt fließt, lassen sich unerwünschte thermische Schädigungen sicher vermeiden, indem die bipolare Technik eingesetzt wird. ▬ Elektrische Verbindung zum Instrument erst unmittelbar vor der gewünschten HF-Anwendung herstellen – insbesondere wenn es sich um ein über Fußschalter aktiviertes Instrument handelt. ▬ Akustisches Signal, welches den aktivierten Zustand des HF-Generators anzeigt, stets gut hörbar einstellen.
Anwendungsregeln beim Einsatz des Argonbeamers Im Zusammenhang mit der Applikation von Argongas am Patienten gilt: ▬ Die argonassistierte Koagulation ist eine monopolare HF-chirurgische Anwendungsform; die Sicherheitsre-
▬ ▬ ▬ ▬ ▬
geln für die monopolare HF-Chirurgie müssen beachtet werden. Argongas nicht in offene Blutgefäße einblasen. Den Gasauslass des Applikators nicht gegen Gewebe drücken, weil hierdurch ein Gasemphysem verursacht werden kann. Zur Gasionisation sind hohe HF-Spannungen erforderlich; auf die unversehrte elektrische Isolation von Leitungen und Applikatoren ist zu achten. Argon ist schwerer als Luft 1:1,38); es kann sich in Bodennähe anreichern und den Sauerstoff verdrängen. Argongasflaschen stehen unter hohem Druck (200 bar). → Vorsichtiger Umgang mit Druckbehältern.
Anwendungsregeln in der Endoskopie Neben den allgemeinen Anwendungsregeln müssen in der Endoskopie die folgenden Punkte zusätzlich beachtet werden: ▬ Keine Aktivierung des HF-Geräts, wenn die Elektrode nicht im Blickfeld ist. ▬ Das in die betroffene Körperhöhe strömende Argongas erhöht dort den bereits durch insufflierte Luft oder CO2-Insufflation vorhandenen Druck. → Es sollen nur druckablassgeregelte Insufflatoren verwendet werden. ▬ Führungsdrähte, die in Kombination mit einer HFAnwendung eingesetzt werden, müssen elektrisch isoliert sein (z. B. Terumodrähte). ▬ Endogene Gase aus dem Lumen des betreffenden Organs vor der Argonbeamapplikation entfernen. ▬ Kein sauerstoffangereichertes, brennbares Beatmungsgas vor oder während der Argonbeamanwendung in das Tracheobronchialsystem einleiten. ▬ Beim Einsatz eines Videoendoskops darauf achten, dass das Argon-Plasma nicht auf den Kamerachip gerichtet wird; eine Zerstörung des Chips wäre sonst möglich.
28.5.2 Neutralelektrode (NE)
Bei der monopolaren Applikationsform ist ein thermischer Effekt ausschließlich an der Aktivelektrode gewünscht. Unter der Neutralelektrode darf dagegen keine thermische Reaktion stattfinden. Damit eine Verbrennung des Patienten verhindert ist, muss eine mögliche Erwärmung im Anlagebereich der NE unter 6°C bleiben (ANSI AAMI HF 18). Eine korrekte Anlage der NE und die Gewähr dafür, dass sie sich im Verlauf einer OP nicht ablöst, sind hierfür Voraussetzungen. Moderne HF-Chirurgie-Geräte bieten Überwachungseinrichtungen (NE-Monitoring), die eine korrekte NE-Anlage überwachen und im erkannten Problemfall die Abgabe von monopolarer HF-Energie verhindern (Contact Quality Monitor). Die Verwendung
28
536
Kapitel 28 · Hochfrequenzchirurgie
⊡ Tab. 28.3. CQM (Contact Quality Monitor) verschiedener Anbieter
III
Akronym
Anbieter
Wortlaut
PCS
Martin
Patient Control System
REM
Valleylab
Remote Electrode Monitoring
ARM
Conmed
Aspen Return Monitor
NESSY
Erbe
Neutral Elektroden Sicherheits System
PDM
Aesculap
Permanent Dynamic Monitoring
PACC
Integra
Patient Contact Controlsystem
⊡ Abb. 28.15. Kontinuierliche Statusanzeige über die Anlagequalität der geteilten Neutralelektrode
einer geteilten Neutralelektrode ist hierfür Voraussetzung. Hinter den von verschiedenen Herstellern verwendeten Akronymen verbergen sich unterschiedliche Überwachungsmonitore mit jeweils unterschiedlichen Überwachungs-Philosophien (⊡ Tab. 28.3). Die ursprüngliche Annahme, dass der zurückfließende Strom aus tiefen Gewebeschichten mehr oder weniger gleich verteilt zur Neutralelektrode gelangt, war nicht richtig. Die Stromverteilung zeigt eine ausgeprägte Stromkonzentration an den Rändern der NE (engl.: edge effect, Randeffekt). Verursacht wird der Effekt durch den Schichtaufbau der menschlichen Haut mit gut leitfähiger Lederhaut über schlecht leitender Unterhaut mit Fettgewebe. Bei rechteckigen Neutralelektroden addieren sich die Randeffekte der auf eine Ecke zulaufenden Kanten, sodass sich dort ein »hot spot« bildet. Ideal ist eine möglichst runde Elektrode mit ausreichend langer Umfangskante, die zum OP-Feld hin ausgerichtet ist. Da bedingt durch den bevorzugten Stromfluss an der Gewebeoberfläche eine Gleichverteilung des Stromes in den beiden NE-Hälften nicht möglich ist, haben sich Monitorsysteme, die auf eine Strom-Gleichverteilung abgestimmt sind, in der Praxis nicht bewährt. Dagegen bieten Monitore, die den dynamischen Impedanzverlauf zwischen den beiden NE-Hälften kontinuierlich auswerten, die höchste Patientensicherheit (⊡ Abb. 28.15, auch 4-Farbteil am Buchende). Dabei können moderne Monitore erkennen, ob eine ein- oder zweiteilige Neutralelektrode angeschlossen ist und bei gegebenem Sicherheitsbewusstsein anbieten, den Betrieb von einteiligen Neutralelektroden nicht zuzulassen.
▬ Gelegentliche Überprüfung, ob der NE-Alarm des HF-Chirurgiegerätes anspricht. ▬ Positionierung der Neutralelektrode mit der langen Kante zum Operationsfeld. ▬ Positionierung der Neutralelektrode möglichst nahe am Operationsfeld an einer der geeigneten Extremitäten (Oberarm, Oberschenkel). ▬ Auf einen guten Gewebekontakt achten; um guten Kontakt sicherzustellen, müssen ggf. Haare abrasiert werden. ▬ Flüssigkeiten vom Bereich der Neutralelektrode fernhalten. Diese können sowohl die Klebewirkung als auch die elektrischen Eigenschaften negativ beeinflussen. ▬ Neutralelektroden zum Einmalgebrauch auch nur einmal verwenden – aus Gründen der Sicherheit und der Hygiene. ▬ Verfallsdatum der Neutralelektrode beachten. ▬ Die Neutralelektrode darf nicht zugeschnitten oder verkleinert werden. ▬ Keinesfalls noch zusätzliches Kontaktgel auf die Neutralelektrode aufbringen. ▬ Ungeeignet für das Anbringen der Neutralelektrode sind: knochige oder unebene Oberflächen, Stellen, unter denen ein Implantat liegt, Stellen mit dicken Fettschichten wie z. B. Bauch oder Gesäß, vernarbtes Gewebe. ▬ Contact Quality Monitor nutzen, indem ausschließlich geteilte Neutralelektroden verwendet werden. ▬ Auf dem Boden liegende NE-Kabel mechanisch nicht stressen; nicht mit Gerätewagen oder gar C-Bogen darüber fahren.
Anwendungsregeln im Zusammenhang mit der Applikation der Neutralelektrode
28.5.3 HF-Instrumente und -Kabel
▬ Vergewisserung darüber, dass die Isolation des Neutralelektrodenkabels nicht beschädigt ist. ▬ Gewissenhafte Verbindung des NE-Kabels mit dem Chirurgiegerät und der Neutralelektrode.
▬ Nur vom Hersteller des HF-Chirurgiegerätes empfohlenes Originalzubehör verwenden. Im Zweifelsfall Konformitätsbescheinigung vom Hersteller oder Händler anfordern.
537 28.6 · Ausblick
▬ Vor jedem Einsatz Sichtprüfung, ob schadhafte Stellen an der Isolation von Stecker, Kabeln und Instrumenten sichtbar sind. Eine kurze Funktionsprüfung der Instrumente empfiehlt sich. ▬ Während der Operation die Elektroden am besten mit einem feuchten Tuch (Tupfer) reinigen. Nicht Kratzen, die Oberfläche und die Isolation der Elektrode könnten beschädigt werden. ▬ Es ist zweckmäßig, die Elektroden immer sauber zu halten und unmittelbar nach dem Eingriff zu reinigen. Elektroden mit angetrockneten Geweberesten werden vor der Reinigung in Lösung gelegt. ▬ Bei der Aufarbeitung, Reinigung und Sterilisation müssen die vom Hersteller empfohlenen Angaben beachtet werden. ▬ Entsorgung von Einmalinstrumenten (Disposables) stets unmittelbar nach der Operation (Mehrfacheinsatz ist nicht zu verantworten). ▬ Wiederverwendbare Instrumente (Reusables) sorgfältig aufbewahren. Das Beachten der Handhabungsund Pflegehinweise der Hersteller erhöht die Sicherheit des Patienten und die Lebensdauer der Instrumente. ▬ Zubehör mit erkennbaren Defekten von der Medizintechnik im Haus oder vom Hersteller überprüfen lassen.
28.5.4 HF-Chirurgiegerät
▬ Der Einsatz eines jeden HF-Chirurgiegerätes setzt voraus, dass der Anwender mit dessen korrekter Bedienung vertraut ist. ▬ Nur HF-Geräte mit Contact Quality Monitor verwenden. ▬ Die Einstellung der HF-Leistung sollte immer so niedrig wie möglich und so hoch wie nötig gewählt werden. Optimal sind automatisch geregelte HF-Chirurgiegeräte. ▬ Die Schneide- und Koagulationsfunktion sollte man nur solange aktivieren wie sie tatsächlich benötigt wird. ▬ Vor der Operation einen Funktionstest durchführen. Bei angelegter Neutralelektrode kurz über den Handgriff per Tastendruck aktivieren. ▬ Auf Fehlermeldungen und Alarmsignale achten. ▬ Schulungen über die Grundlagen der Hochfrequenzchirurgie und deren sichere Anwendung jährlich wiederholen (Schulungsangebot von Herstellern in Anspruch nehmen). ▬ Um bei älteren Systemen Videostörungen zu vermeiden, sollten die HF-Chirurgiekabel möglichst weit entfernt vom Kamerakabel verlegt werden.
28.5.5 Vorkommnisse bei der Anwendung
der HF-Chirurgie Das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) in Berlin hat im Rahmen des Vollzugs des Medizinproduktegesetzes die gemeldeten Vorkommnisse auf dem Gebiet der HF-Chirurgie über einen Zeitraum von sechs Jahren (1996–2002) ausgewertet. Als Fazit wurde festgehalten, dass vorwiegend Anwendungsprobleme, die nicht einer Fehlfunktion der Medizinprodukte anzulasten waren, Ursache für die wenigen, gemeldeten Komplikationen waren. Aus den Anwendungsfehlern wurden Richtlinien vom BfArM abgeleitet, die bei den o. g. Anwendungsregeln berücksichtigt wurden. Von den wenigen Vorkommnissen betraf die überwiegende Zahl Schädigungen unter der Neutralelektrode. In diesem Zusammenhang stellte das BfArM fest: »…Es zeigt sich eine eindeutige Vorkommnishäufung bei der Verwendung der einteiligen Bauform, bei der keine Sicherheitsüberwachung stattfindet. Die vereinzelt bei geteilten Elektroden beobachteten »Verbrennungen« sind auf andere Ursachen als hohe Stromdichten zurückzuführen. …Verätzungen durch nicht verdunstete Desinfektionsmittel…«. Im Zusammenhang mit Schädigungen im Steiß- und Rückenbereich stellte das BfArM fest »…Zum Teil nannten die Anwender Verbrennungen, obwohl gem. Untersuchung der Hersteller oder Auswertung der mitgelieferten Fotos Verätzungen oder Entzündungen vorlagen. Während der OP ist der Bereich über dem Sacrum besonders druckbelastet, wodurch es zu einer geringen Perfusion der betreffenden Hautareale kommt. …« (Schröder 2003). Um so mehr muss gelten, dass HF-Geräte nur von Fachpersonal in Betrieb genommen und angewendet werden, das speziell geschult wurde und mit dem Gerät vertraut ist.
28.6
Ausblick
Die derzeit verfügbaren automatisch geregelten HF-Chirurgiegeräte weisen einen sehr hohen Standard auf, sowohl im sicherheitstechnischen Bereich als auch beim ergonomischen Bedienungskomfort. Die fortschreitenden technischen Möglichkeiten werden dazu beitragen, auch diese Standards weiter zu verbessern. Zusätzlich werden anwendungsspezifische Verbesserungen bewirken, dass sich die Handhabung der HF-Chirurgiegeräte noch einfacher gestaltet. Instrumentenerkennung und daraus resultierende, automatische Geräte-Parametrierung mit geeigneten Einstellwerten wird hier eine Rolle spielen. Innerhalb erlaubter Grenzen können dann nur noch logische und sinnvolle Veränderungen an den automatisch voreingestellten Einstellungen vorgenommen werden (Expertensysteme). In der Konsequenz wird es deshalb keine standardisierten Schnittstellen für das HF-
28
538
III
Kapitel 28 · Hochfrequenzchirurgie
Instrumentarium geben, sondern herstellerspezifische Lösungen. Die Integration von HF-Geräten in OP-Systeme über Kommunikations-Netzwerke wird einen Beitrag leisten, um über eine gemeinsame Bedienoberfläche alle für eine OP benötigten Geräte steuern zu können. Touch-ScreenMonitore und Sprachsteuerung sind hier zwei relevante Schlagworte. Da HF-Ströme mehr und mehr auf spezifische Anwendungen hin optimiert werden, wird es einen Trend weg vom Generalisten, hin zum Spezialisten bei den HFGeneratoren geben. Man wird mit speziellen Geräten und Systemen für z. B. die Gastroenterologie, Urologie oder Neurochirurgie in den Kosten und in ihrer Bedienung optimierte Lösungen für die verschiedenen Fachgebiete anbieten. Die argonunterstützten Anwendungen werden eine noch gewichtigere Bedeutung beim täglichen Einsatz im OP bekommen. Das Anwendungsspektrum ist hier noch lange nicht erschöpft und wird nur begrenzt durch die heute verfügbaren Applikatoren. Hier werden Kombinationsinstrumente – wie z. B. Polypektomieschlingen, Sklerosiernadeln oder Biopsiezangen mit der Möglichkeit zur Applikation von argonunterstützten Koagulationen – der Methode neue Indikationen zuführen. Große Bedeutung wird der Weiterentwicklung des Instrumentariums zukommen, insbesondere im Hinblick auf spezialisierte, indikationsspezifische Instrumente. Eine große Herausforderung wird es sein, die Qualität der Instrumente zu erhöhen und die Nutzung im täglichen Einsatz für den Anwender einfacher zu gestalten. Trotz des massiven Kostendrucks, unter dem das Gesundheitswesen weltweit steht, wird sich ein Trend hin zum Einsatz von Einmal-Instrumentarium (Disposables) abzeichnen. Denn Hepatitis, Aids, Tollwut-Virus, Creutzfeld-JakobKrankheit (CJK) und die Bovine Spongiforme Enzephalopathie (BSE) sind nur einige der gefürchteten ansteckenden Krankheiten, die jährlich um Weitere ergänzt werden und die die Instrumentenaufbereitung im Krankenhaus laufend problematischer machen. Der Gefäßversiegelung wird insbesondere im Rahmen der laparoskopischen OP-Technik eine bedeutende Rolle zukommen. Chirurgische Nähte und Ligaturen sind hier besonders schwierig auszuführen und hinterlassen im Patienten Fremdmaterial. Eine zuverlässige Gefäßversiegelung wird diesen Bereich hinsichtlich standardisierter OP-Techniken stark verändern. Die Vielzahl der verschiedenen Methoden zur Gewebe-Dissektion wird sich reduzieren. Ultraschall- und Wasserstrahl-Dissektion lassen hinsichtlich ihrer Performance Wünsche offen und sind zudem teure Verfahren. Sie werden durch die bipolare HF induzierte Gewebeversiegelung abgelöst. Wichtig ist zudem, dass sich die Anwender, der Chirurg und die Operationsfachkräfte mit den heutigen und zukünftigen Entwicklungen der Industrie auseinander-
setzen, um dem Patienten das größtmögliche Maß an Sicherheit zu bieten.
Literatur American National Standard ANSI/AAMI HF18, (2001) Electrosurgical Devices. Bovie W et al (1931) Electrosurgical Apparatus. US Patent 1,813,902 DIN EN 60601-2-2 (03. 2001) Medizinische elektrische Geräte Teil 2-2: Besondere Festlegungen für die Sicherheit von HochfrequenzChirurgiegeräten. DIN, Beuth Haag R (1993) Grundlagen der HF-Chirurgie. Krankenhaustechnik 3: 36–37/ 4: 36-38 Morrison Jr. et al (1977) Electrosurgical Method and Apparatus for Establishing an Electrical Discharge in an Inert Gas Flow. US Patent 4,060,088 Reidenbach H-D (1983) Hochfrequenz- und Lasertechnik in der Medizin. Springer, Berlin Heidelberg New York Tokio Reidenbach H-D (1992) Entwicklungstendenzen in der HF-Chirurgie. Biomed Tech 37: 134–140 Roos E (1972/1973) Elektrochirurgie im modernen Krankenhaus I–V. Gebrüder Martin, Tuttlingen Seemen H (1932) Allgemeine und spezielle Elektrochirurgie, Springer, Berlin Schröder D (2003) Vorkommnisse bei der Anwendung der HF-Chirurgie. Medizintechnik 123: 145–147 Sigel B, Dunn M (1965) The Mechanism of Blood Vessel Closure by High Frequency Electrocoagulation. Surgery; Gynecology&Obstetrics Oct.: 823–831 Sudermann H (2000) Albrecht Theodor Middeldorpf (1824–1868) und die Elektrochirurgie. Würzburger medizinhistorische Mitteilungen Bd 19, Königshausen&Neumann Thiel C, Fastenmeier K (1996) Biomedizinische Technik, Bd 41, Ergänzungsband 1: 494–495 Wiesner B (1908) Ueber Fulguration nach de Keating Hart. Münchener Medizinische Wochenschrift 11: 569–570
29 Medizinische Strahlentherapie P.H. Cossmann 29.1 Einleitung
– 539
29.2 Historische Entwicklung
– 539
29.3 Physikalisch-technische Grundlagen der Strahlenphysik – 541 29.3.1 29.3.2 29.3.3 29.3.4
Strahlenarten – 541 Strahlenquellen – 542 Wechselwirkungen mit Materie Dosimetrie – 543
29.4 Therapieformen
– 542
– 544
29.4.1 Perkutane Therapie – 544 29.4.2 Brachytherapie – 545 29.4.3 Radionuklidtherapie – 545
29.5 Gerätetechnologien zur Strahlungserzeugung – 546 29.5.1 29.5.2 29.5.3 29.5.4
29.1
Röntgengeräte – 546 Kobaltgerät – 547 Linearbeschleuniger – 547 Miniaturbeschleuniger – 548
Einleitung
Im physikalischen Institut der Universität Würzburg entdeckte W.C. Röntgen am 8.11.1895 eine neue Strahlenart. Röntgen sprach in seiner ersten Mitteilung von sogenannten X-Strahlen, da er nicht wusste, um was für eine Strahlenart es sich handelte. Er legte hiermit den Grundstein für die medizinische Strahlentherapie. Die Therapie mit ionisierenden Strahlen begann schon wenige Monate nach Röntgen’s Entdeckung in Wien im Jahre 1896. Erste Berichte über die erfolgreiche therapeutische Anwendung von Röntgenstrahlung gehen auf Freund, Sjögren und Stenbeck zurück. Professor Freund aus Wien hatte aufgrund von Zeitungsberichten über Hautrötungen und Haarausfall nach Einwirkung mit Röntgenstrahlen 1896 ein junges Mädchen, welches an einem Tierfellnaevus litt, bestrahlt. Die Patientin wurde 1966 am deutschen Röntgenkongress vorgestellt. Das Ergebnis, welches in ⊡ Abb. 29.1 illustriert ist, zeigte deutlich auf: Die Strahlung hatte zweifelsohne ihre Wirkung nicht verfehlt, sprich die Behaarung war an dieser Stelle definitiv verschwunden. Jedoch kam es – vermutlich auch aufgrund fehlender Kenntnisse zu einer adäquaten Dosierung – zu einer signifikanten Nebenwirkung, einer deutlichen Wirbelsäulenkrümmung im Bestrahlungsbereich. Dies illustrierte in eindrücklicher Weise, wo letztendlich das Hauptproblem auch dieser Therapieform liegt: Die Erzielung einer erwünschten Wirkung unter Vermeidung unerwünschter Nebenwirkungen.
29.5.5 Brachytherapiequellen und Brachytherapiegeräte – 549 29.5.6 Radioaktive Implantate – 550
29.6 Spezielle Techniken und neuere Entwicklungen in der Teletherapie – 552 29.6.1 Stereotaktische Radiochirurgie/-therapie (Stereotactic radiosurgery/-therapy, SRS/SRT) – 552 29.6.2 Intensitätsmodulierte Strahlentherapie (Intensity modulated radiotherapy, IMRT) – 553 29.6.3 Atmungsgetriggerte Strahlentherapie (Breathing adapted radiotherapy, BART) – 553 29.6.4 Bildgeführte Strahlentherapie (Image guided radiotherapy, IGRT) – 553 29.6.5 Intensitätsmodulierte Rotationstherapie (Intensity modulated arc therapy, IMAT) – 554 29.6.6 Dynamisch adaptierte Radiotherapie (Dynamic adaptive radiotherapy, DART) – 554 29.6.7 Tomotherapie – 554
Weiterführende Literatur – 555
Im Jahre 1899 berichteten T. Sjögren und T. Stenbeck in Stockholm erstmals von erfolgreichen Behandlungen von Lippen- und Wangenkarzinomen mittels Röntgenstrahlung. ⊡ Abb. 29.2 zeigt die genannten Beispiele.
29.2
Historische Entwicklung
Als Therapiesysteme wurden anfangs Gasionenröhren, bestehend aus einem teilweise evakuierten Glaskolben mit Kaltkathode und Anode, eingesetzt. Die erste Röntgenröhre war eine Hittorfsche Röhre wie sie in ⊡ Abb. 29.3 gezeigt ist. Die zur Röntgenstrahlerzeugung benötigte Hochspannung wurde mit Funkeninduktoren erzeugt, welche im Prinzip einen Transformator mit einer Primär- und Sekundärspule auf einem Eisenkern darstellen. Die Kathode ist hohlspiegelförmig, sodass sich die aus der Kathode senkrecht zur Kathodenoberfläche austretenden Kathodenstrahlen in einem Punkt treffen. In diesem Fokus befindet sich die um etwa 45° geneigte Antikathode, ein Metallblech aus Platin oder Wolfram, die mit der Anode leitend verbunden ist. Durch die auf die Elektroden (Kathode und Anode) auftreffenden Metall-Ionen und Elektronen wird Röntgenstrahlung erzeugt; gleichzeitig findet eine Zerstäubung des Elektrodenmaterials statt. Durch die zerstäubten Metallteilchen werden die in der Hittorfschen Röhre vorhandenen Gasmoleküle absorbiert und das Vakuum der Röhre nimmt zu. Man muss um den Stromfluss zu gewährleisten
540
Kapitel 29 · Medizinische Strahlentherapie
III
⊡ Abb. 29.1. Erste Bestrahlung zur Entfernung eines Tierfellnaevus (Quelle: Tagesband des Deutschen Röntgenkongresses 1966)
⊡ Abb. 29.2. Erste Behandlungen von Lippen- und Wangenkarzinomen mittels Röntgenstrahlung (Quelle: Sjögren, T.A.U., 1899 sowie Stenbeck, M, Sitz Ges. Schwedischer Ärzte 19, 1899)
541 29.3 · Physikalisch-technische Grundlagen der Strahlenphysik
immer höhere Spannungen anlegen. Infolge der höheren Spannung werden die Röntgenstrahlen immer härter und schließlich hört die Röhre ganz auf zu arbeiten. Um sie wieder brauchbar zu machen, musste man Gas in die Röhre eintreten lassen. Weiche Röntgenstrahlen sind Strahlen mit größerer Wellenlänge, also mit kleinem Durchdringungsvermögen, erzeugt durch niedere Spannung (ca 30.000–50.000 V). Harte Röntgenstrahlen haben eine kleine Wellenlänge mit hohem Durchdringungsvermögen und geringer Absorbierbarkeit. (100.000–300.000 V). Bei modernen Röntgenröhren wie der sogenannten Coolidgeröhre handelt es sich um Hochvakuum-Glühkathodenröhren; dies sind reine Elektronenröhren. Die Glühkathode ist eine Heizspirale aus Wolfram, das einen sehr hohen Schmelzpunkt hat. Die Röhre hat keine spezielle Antikathode, vielmehr steht der Kathode die Anode als Antikathode gegenüber. Sie ist aus Kupfer, einem guten Wärmeleiter und wegen der großen Erhitzung durch die auf sie auftreffenden Kathodenstrahlen mit einer Kühlvorrichtung, z. B. Wasserkühlung, versehen. An der Stelle, wo die Kathodenstrahlen auftreffen, trägt die Anode zum Schutz ein Wolframplättchen. Eine solche Coolidge-Röhre ist in ⊡ Abb. 29.4 illustriert. Glühkathodenröhren haben diverse Vorteile zu Kaltkathodenröhren. Zum einen kann durch variable Spannungen weiche oder harte Röntgenstrahlung erzeugt werden, deren Intensität ist durch Veränderung des Heizstroms regulierbar. Sie verändern ihre Eigenschaften nur sehr langfristig. Moderne Röhren werden ausschließlich mit Wechselstrom des Stromnetzes und einem Transformator betrieben. Die Spannung von 220 V wird hierzu auf 30.000–300.000 V heraufreguliert. Die 1898 von Marie Curie gefundene Strahlung des Radiums führte durch Zufall zu einer therapeutischen Anwendung radioaktiver Stoffe, denn 1901 zog sich Bequerel eine Dermatitis durch eine Radiumquelle zu, wobei diese von einer Röntgendermatitis nicht zu unterscheiden war. Daraufhin wurde mit einer von M. Curie zur Verfügung gestellten Radiumquelle am Pariser St.-Louis-Hospital die Therapie dermatologischer Erkrankungen begonnen. Anfangs wurden hauptsächlich die Betastrahlen des Radiums zu therapeutischen Zwecken genutzt. Später, d. h. ab 1906, waren die Quellen gekapselt, um nur die Gammastrahlung auszunutzen. Radium hatte besonders in der gynäkologischen Strahlentherapie eine große Bedeutung, wurde jedoch – v. a. aus Strahlenschutzgründen – inzwischen durch Nachladeverfahren mit künstlichen radioaktiven Strahlern vollständig abgelöst. Die Tele-Curie-Therapie mit künstlichen radioaktiven Stoffen begann nach der Entdeckung der künstlichen Radioaktivität durch Joliot-Curie im Jahre 1934 und v. a. mit der Möglichkeit, 60Co und 137Cs in Kernreaktoren zu produzieren. Im Jahre 1952 folgte der erste Einsatz eines Telekobaltgerätes für die Strahlentherapie. Es dauerte bis Mitte des 20. Jahrhunderts, ehe erste klinische Anwendungen eines Elektronen-Kreisbeschleu-
⊡ Abb. 29.3. Hittorf’sche Röhre (Kaltkathoden-Röhre) (Quelle: Fa. Siemens, Erlangen)
⊡ Abb. 29.4. Coolidge-Röhre (Glühkathodenröhre) (Quelle: Fa. Siemens, Erlangen)
niger (Betatron) realisiert werden konnten. Der Beginn des Einsatzes des 1930 erstmals entwickelten Linearbeschleunigers (Linac) kann auf die frühen 70er Jahre datiert werden. Linacs haben die Betatrons inzwischen fast vollständig abgelöst und sind heute im Bereich der Teletherapie die wichtigsten Strahlenquellen.
29.3
Physikalisch-technische Grundlagen der Strahlenphysik
29.3.1 Strahlenarten
Strahlung, welche beim Durchgang durch Materie durch Stoßwechselwirkungen Ionen erzeugen kann, bezeichnet man als ionisierend. Man unterscheidet direkt und indirekt ionisierende Strahlung. Direkt ionisierende Strahlung
29
542
III
Kapitel 29 · Medizinische Strahlentherapie
besteht aus geladenen Teilchen wie Elektronen, Protonen, α-Teilchen und schweren Ionen; deren kinetische Energie reicht aus, um eine Stoßionisation eines Atoms zu erzielen. Bei indirekt ionisierender Strahlung werden von ungeladenen Teilchen wie Photonen oder Neutronen geladene Teilchen erzeugt, welche dann in einem zweiten Schritt ihre Energie wiederum über Stoßionisation an die Atome der Umgebung übertragen. In der Strahlentherapie finden mehrheitlich Photonen – in Form von Röntgen- und γ-Strahlung – sowie Elektronen Anwendung. Daneben werden auch vermehrt Protonen – sowie vereinzelt Schwerionenstrahlung – eingesetzt, wobei insbesondere die Erzeugung/Applikation von Schwerionen sehr hohe technologische Anforderungen stellt, welche außer in einem Forschungszentrumsumfeld z. Zt. noch nicht realisierbar sind. In letzter Zeit wurden mit der Bor-Neutronen-Einfang-Therapie zudem wieder Neutronen zur Therapie in die Diskussion gebracht, wobei es sich hier um eine auf wenige Anwendungsgebiete beschränkte Therapieform handelt, welche zudem technologisch aufwändig und daher bisher nur wenig verbreitet ist. Nachdem in der Strahlentherapie hauptsächlich mit Photonen für die Tiefentherapie und Elektronen für die Oberflächen- und Halbtiefentherapie bestrahlt wird, beschränken sich die folgenden Kapitel auf diese Strahlenarten.
29.3.2 Strahlenquellen
Die Erzeugung von Photonen in Form von Röntgenund γ-Strahlung geschieht entweder mittels Abbremsung/Energievernichtung von beschleunigten Teilchen in einem Target (⊡ Abb. 29.5) oder durch radioaktiven Zerfall. Technische Grundlage hierfür bilden einerseits Röntgenröhren im niedrigen bis mittleren Energiebereich (kV) und Beschleuniger im hohen Energiebereich (MV). Letztere werden auch zur Erzeugung hochenergetischer Elektronen eingesetzt. Als weitere Strahlungsquelle dienen radioaktive Stoffe. Die drei möglichen Zerfallsarten sind in ⊡ Abb. 29.6 illustriert. Nach einem α- oder β-Zerfall befindet sich der Tochterkern oft in einem angeregten Zustand. Die meisten dieser angeregten Zustände haben sehr kurze Halbwertszeiten und gehen unter Aussendung von therapeutisch einsetzbarer γ-Strahlung in ein niedrigeres angeregtes Niveau oder in den Grundzustand über.
29.3.3 Wechselwirkungen mit Materie
Photonen werden durch Materie einerseits durch Absorption (Photoeffekt oder Paarbildung) und andererseits durch Streuung (Anregung oder Compton-Effekt) geschwächt.
Die Absorption hängt vom linearen Schwächungskoeffizienten, einer Materialkonstante, sowie der Schickdicke ab. Beim photoelektrischen- oder Photoeffekt überträgt das Photon seine ganze Energie auf ein Elektron und dieses Photoelektron verlässt die Atomhülle. Bei Photonenenergien oberhalb von 1.022 MeV kann das Photon in ein Elektron-Positron-Paar umgewandelt werden. Bei der elastischen Streuung von Photonen werden die Elektronen der Atomhülle angeregt und die Energie dann in eine andere Richtung mit dem gleichen Betrag ausgestrahlt. Beim Compton-Effekt handelt es sich um eine inelastische Streuung, d. h. das Photon löst mit einem Teil seiner Energie ein Elektron aus der Hülle und es bewegt sich dann in eine veränderte Richtung weiter. Innerhalb des Energiebereichs von etwa 20 keV–20 MeV, also praktisch im gesamten Energiespektrum der Strahlentherapie, dominiert für alle menschlichen Gewebe der Compton-Effekt. Die Wechselwirkung von Photonen mit Gewebe vollzieht sich in zwei Stufen. In der ersten Stufe werden geladene Teilchen freigesetzt (Elektronen), in der zweiten Stufe übertragen diese Teilchen ihre Energie auf die Materie oder setzten wiederum Elektronen frei. Da Photonen ihre Wirkung auf diesem Wege indirekt entfalten, spricht man auch von indirekt ionisierender Strahlung. Je höher die Energie eines Photons ist, desto tiefer kann es in das Gewebe eindringen, bevor es ein Elektron freisetzt. Bei den durch Linearbeschleunigern erzeugten Photonen mit Energien von 4–25 MV (ultraharte Röntgenstrahlung) wird in der Tiefe eine höhere Dosis erzeugt als an der Hautoberfläche; man bezeichnet das als den sogenannten Aufbaueffekt, der bei den Röntgenstrahlen im Energiebereich von 200–400 kV noch nicht
⊡ Abb. 29.5. Aufbau einer Röntgenröhre
AX→ A.4 Y Z Z.2
+ 24He
-
AX→ A Y Z Z+1
+ß +v
AX→ A Y Z Z-1
+
AX+→ AX Z Z
+γ
+ß +v
⊡ Abb. 29.6. Radioaktive Zerfallsarten (links: α-Zerfall; Mitte: β-Zerfall; rechts: γ-Strahlung)
543 29.3 · Physikalisch-technische Grundlagen der Strahlenphysik
auftritt. Je höher die Energie ist, umso weniger werden die Photonen abgebremst; sie werden v. a. in Vorwärtsrichtung gestreut. Auf diese Art und Weise erreicht man mit ultraharten Röntgenstrahlen eine höhere Dosis für tiefer gelegene Zielvolumina. Dies führt gleichzeitig zu einer besseren Hautschonung und durch den geringen Anteil seitlicher Streuung zu einer schärferen seitlichen Dosisbegrenzung. Die Wechselwirkung von Elektronen mit Materie geschieht ausschließlich über Streuprozesse. Elastische Streuung führt zu einer Richtungsänderung der Teilchen. Bei der inelastischen Streuung ändern die Teilchen ihre Richtung und verlieren Energie durch die Anregung der Atomhülle, durch die Ionisation von Atomen oder durch die Erzeugung von Röntgenbremsstrahlung. Elektronen sind elektrisch geladene Teilchen, die ihre Energie direkt dem Gewebe übertragen, es handelt sich also um direkt ionisierende Strahlung. Daraus resultieren eine relativ hohe Hautbelastung, ein großer Bereich, in der die Maximaldosis deponiert wird und ein schneller Dosisabfall im Anschluss an das Dosismaximum, sodass die Region hinter dem oberflächlich gelegenen Zielvolumen besser geschont wird als bei Photonen.
29.3.4 Dosimetrie
Eine Dosimetrie im heutigen Sinne war in der Anfangsphase der Strahlentherapie unbekannt. Zur semiquantitativen Bestimmung der Strahlenmenge wurden folgende drei Effekte genutzt: die Rötung der Haut des Patienten als »biologisches Dosimeter«, die Schwärzung einer fotographischen Platte oder das Leuchten verschiedener Stoffe (meist Bariumzyanyr). Für eine Dosisabschätzung war es wichtig, die Strahlenhärte zu kennen, da alle drei Methoden bei unterschiedlichen Strahlengemischen zu verschiedenen Ergebnissen führen. Unter »Dosis« im Bereich der Strahlentherapie versteht man die Energie, die bei Durchstrahlung von Gewebe von diesem absorbiert wird, denn nur die im Gewebe verbliebene Energie kann zu einer Strahlenwirkung führen. Man spricht von der sogenannten Energiedosis gemessen in »Gray«, wobei 1 Gray einer Energie von 1 Joule pro Kilogramm Gewebe entspricht. Um Dosierungen verschiedener Kliniken bei internationalen Kooperationen oder in Veröffentlichungen vergleichbar zu machen, gibt es wiederum Normen, wie diese angegeben werden sollten. Beim hierfür eingesetzten Referenzpunktkonzept wird häufig auf den ICRU 50 Report Bezug genommen (International Commission on Radiation Units and Measurements, ICRU 50 Report: Prescribing, recording, and reporting photon beam therapy, Washington/DC). Daher spricht man auch im klinischen Alltag oft vom »ICRU-Referenzpunkt«, oder von »Dosierung nach ICRU«.
Zur Dosismessung von ionisierender Strahlung können alle Materialien eingesetzt werden, bei denen ein Signal durch die Strahlenexposition entsteht. Es lässt sich daher grundsätzlich jeder physikalische, chemische oder sogar biologische Effekt ausnutzen, welcher durch ionisierende Strahlung verursacht wird. Unter den Strahlungsnachweis- und Messverfahren hat die Ionisationsdosimetrie bis heute die größte Bedeutung. Sie basiert auf dem primären Wechselwirkungsprozess von Strahlung und Materie, der Ionisation. Ionisationskammern werden hauptsächlich in zwei Bauarten verwendet: Zylinder- und Flachkammern. Zylinderkammern – sie werden auch Kompaktkammern genannt – bestehen aus einer zylindrischen Kammerwand in leitendem Material und einer axialen, meist metallischen Elektrode. Die Hauptvorteile dieses Dosimetrieansatzes liegen in der Tatsache, dass man auf bewährte elektrische bzw. elektronische Messtechnik zurückgreift, das System höchste Empfindlichkeit, Messgenauigkeit, Reproduzierbarkeit und Langzeitstabilität aufweist, nicht durch Strahlung geschädigt wird und im gesamten Anwendungsbereich ionisierender Strahlung bei geringer Energieabhängigkeit eingesetzt werden kann. Daneben sind die Kammern handlich, bedienungsfreundlich und recht robust. Auch die Ionisation von Festkörpern, v. a. Halbleitern, wird mittlerweile routinemäßig in der Dosimetrie angewendet. Hierbei werden durch Strahlung im Halbleiter bewegliche Elektronen sowie bewegliche positiv geladene »Löcher« erzeugt, d. h. er wird n-leitend oder p-leitend gemacht. Die Empfindlichkeit bei gleich großen Messvolumina ist bei Halbleitern rund 20.000-mal größer als bei Ionisationskammern. Vorteil der Halbleiterdetektoren ist eine hohe Ortsauflösung, jedoch nimmt auf längere Sicht bedingt durch irreversible Strahlungsschäden im Material die Empfindlichkeit ab. Neuerdings werden auch Diamantdetektoren eingesetzt. Sie zählen zu den sogenannten Leitfähigkeitsdetektoren und weisen nach einer obligatorischen Vorbestrahlung Detektorströme auf, welche diejenigen von Ionisationsdetektoren um mehrere Zehnerpotenzen übertreffen können – dies zudem mit besonders hohen Ortsauflösungen. Szintillationsdetektoren beruhen auf dem physikalischen Phänomen der Anregung und finden vornehmlich Verwendung zum Strahlungsnachweis. Die dabei in höheren Bahnen gehobenen Hüllenelektronen fallen unter Aussendung von Licht in den Grundzustand zurück – die ausgesandten Lichtpulse werden hierbei meist durch den Einsatz von Photomultipliern verstärkt. Die Thermolumineszenzdosimetrie verwendet als Detektoren spezielle Ionenkristalle, sogenannte Thermolumineszenzdosimeter (TLD). Diese Lithium- oder Calciumfluoridkristalle werden gezielt mit Fremdatomen wie Magnesium, Mangan oder Titan dotiert und zeichnen sich dadurch aus, dass sie nach Anregung nicht unmittelbar in ihrem Grundzustand zurückkeh-
29
544
III
Kapitel 29 · Medizinische Strahlentherapie
ren. So bleibt eine langfristige Leuchterscheinung nach Strahlungseinwirkung bestehen, welche als Lumineszenz bezeichnet wird. In den Kristallen wird ein Teil der absorbierten Energie gespeichert und kann durch kontrolliertes Erhitzen in Form einer Lichtemission abgerufen werden. TLD’s existieren in verschiedenen Formen und eignen sich sowohl für in-vivo- als auch für Phantommessungen. Eine gleichzeitige Bestrahlung von mehreren dieser miniaturisierten Dosimetern ermöglicht zudem auch die Messung von Dosisverteilungen möglich ist. Es lassen sich Ortsauflösungen bis in den Submillimeterbereich mit Messgenauigkeiten von bis zu 1% erzielen, Letzteres allerdings mit recht großem experimentellem Aufwand. Auch Filme eignen sich, wie schon früh erkannt wurde, sehr gut als Dosimeter. Nach einer Bestrahlung mit nachfolgender Entwicklung werden die Filme mit speziellen Geräten (Densitometer, Filmscanner) densitometrisch ausgewertet. Die Reproduzierbarkeit der Prozessbedingungen von der Filmherstellung über die Entwicklung bis hin zur Auswertung spielen für die Genauigkeit der Messungen eine elementare Rolle – dies macht Filme für den Routineeinsatz nur bedingt brauchbar. Filme sind die Dosimeter mit der höchsten Ortsauflösung, da praktisch jedes einzelne Silberkorn als Dosimeter fungiert. Letztendlich aber wird die Auflösung durch den Durchmesser des Lichtstrahls eines Densitometers resp. durch die CCD-Detektorendichte des eingesetzten Filmscanners begrenzt. Die Eisensulfatdosimetrie, auch Fricke-Dosimetrie genannt, zählt zur Gruppe der chemischen Methoden und war gleichzeitig der erste Ansatz innerhalb der sogenannten Geldosimetrie. Dem Messverfahren liegt zugrunde, dass 2-wertiges Eisen in einer luftgesättigten wässrigen Schwefelsäurelösung durch ionisierende Strahlung irreversibel zu 3-wertigem Eisen oxidiert wird. Die Stoffmengenkonzentration der 3-wertigen Eisenionen wird mittels Extinktionsmessung ermittelt. Die Methode weist in einem breiten Dosisbereich eine Proportionalität von Stoffmengenkonzentration und Energiedosis auf, ist unabhängig von der Dosisleistung, und es können absolute Dosisbestimmungen mit einer Genauigkeit von 1% erreicht werden. Die Methode wird daher auch von Kalibrierdiensten zur Kalibration/Eichung von Dosimetern eingesetzt. Die Geldosimetrie gewinnt in den letzten Jahren vermehrt an Bedeutung, nachdem inzwischen neue, weniger schwierig zu verarbeitenden Gele verfügbar sind. Zu dieser Gruppe zählen die seit kurzer Zeit verfügbaren BANG (Bis-Acrylamide-Nitrogen-Gelatine)-Gele. Es handelt sich um ein Monomer, welches in eine Gelatinematrix eingebunden ist. Unter Bestrahlung wird eine Polymerisation ausgelöst, was eine Änderung der Spinrelaxationszeit T2 in Abhängigkeit der jeweilig örtlich aufgenommenen Dosis zur Folge hat. Als Auswerteverfahren wurde anfangs ausschließlich die Kernspintomographie (MRI)
eingesetzt; mittlerweile gibt es auch optische Systeme, welche auf einem CT basieren und sich die gleichzeitig eintretende Veränderung der optischen Dichte zunutze machen. Der Vollständigkeit halber sei auch noch die Kalorimetrie als weiterer Ansatz erwähnt. Er basiert auf der Grundlage, dass bei einer vollständigen Umwandlung der absorbierten Energie in Wärme diese Energie direkt und absolut gemessen werden kann. Neben Graphitkalorimetern werden in nationalen Standardlabors verstärkt Wasserkalorimeter eingesetzt, da inzwischen die Wasserenergiedosis als Grundlage der klinischen Dosimetrie gilt. Aufgrund des großen experimentellen Aufwandes ist die Kalorimetrie in der klinischen Routine nicht zu gebrauchen. Besonders in den letzten Jahren wurden auch verschiedene biologische Dosismessmethoden weiterentwickelt und klinisch eingesetzt. Hierzu zählen neben der genannten, sicherlich überholten rein qualitativen Methode der Hautrötungsbeurteilung die quantitative Ringchromosomenzählung und die Fluoreszenzanalyse an chemisch markierten DNS-Strängen.
29.4
Therapieformen
Im Allgemeinen lässt sich die heutige Strahlentherapie in drei Formen unterteilen: Die perkutane Strahlentherapie, die Brachytherapie und die Radionuklidtherapie. Bei einer perkutanen Therapie, auch Teletherapie genannt, befindet sich die Strahlungsquelle außerhalb des Patientenkörpers, der bestrahlt werden soll, und die Strahlen dringen durch die Haut in den Körper ein. Beispiele hierfür sind Bestrahlungen an einem TelegammaGerät oder an einem Beschleuniger. Bei einer Brachytherapie werden eine oder mehrere kleine Strahlungsquellen in jene Körperregion eingeführt, welche bestrahlt werden soll. Die Bestrahlung findet somit unmittelbar am Tumor, also in einem kurzen Abstand statt (griech. Brachy = kurz). Eine Brachytherapie kann »intrakavitär« sein, wie z. B. in der Gebärmutter, oder »intraluminal«, wie z. B. in der Vagina, der Speiseröhre und den Bronchien, oder »interstitiell« mit extra im Tumor bzw. im Tumorbett implantierten Nadeln oder dünnen Kathetern. Bei der Radionuklidtherapie werden radioaktive Substanzen verabreicht, welche sich bevorzugt in einem bestimmten Organ oder Körperteil anreichern.
29.4.1 Perkutane Therapie
Bei der perkutanen Therapie unterscheidet man in Abhängigkeit von der Tiefe der zu bestrahlenden Region zwischen Oberflächentherapie, Halbtiefentherapie und Tiefentherapie. Zur Oberflächentherapie zählen einerseits Hautbestrahlungen und andererseits intraoperative
545 29.4 · Therapieformen
Bestrahlungen. Sie werden mit speziell hierfür entwickelten Therapiesystemen durchgeführt, welche üblicherweise im Energiebereich zwischen 10 und 50 kV liegen. Anwendungsgebiete der Halbtiefentherapie sind hauptsächlich die Behandlung benigner Erkrankungen wie z. B. entzündlicher Prozesse des Band- und Gelenkapparates. Hierfür werden einerseits Photonen im Bereich von 150 und 300 kV von so genannten Orthovoltgeräten als auch teilweise niederenergetische Elektronen von Linearbeschleunigern eingesetzt. Die Tiefentherapie mit Hochvoltgeräten wird heute mehrheitlich mit Linearbeschleunigern durchgeführt, welche das Kobaltgerät praktisch verdrängt haben. Der Energiebereich für diese sogenannte Hochvolttherapie liegt zwischen 1 und 25 MeV. Typische in der Teletherapie applizierte Dosen liegen bei ca. 2 Gy pro Bestrahlungssitzung; unterschiedliche Sitzungszahlen führen letztendlich zu Gesamtdosen von bis zu ca. 75 Gy.
29.4.2 Brachytherapie
Im Gebiet der Brachytherapie lassen sich sowohl aufgrund der eingesetzten Dosisrate als auch der bestrahlten Region Unterscheidungen vornehmen. Nimmt man als Messgrösse die Dosisrate, so wird zwischen LowDose-Rate (LDR), Medium-Dose-Rate (MDR), HighDose-Rate (HDR) und Pulsed-Dose-Rate (PDR) unterschieden. Gemäß Definition nach ICRU (International Commission on Radiation Units and Measurements, Bethesda/USA) betragen die Dosisraten bei der LDR 0,4 bis 2,0 Gy/h, bei MDR 2,0 bis 12,0 Gy/h und bei HDR mehr als 12,0 Gy/h, wobei die üblichen Dosisraten mit heutigen HDR-Brachytherapie-Systemen zwischen 100 und 300 Gy/h liegen. Die Pulsed-Dose-Rate ist eine neuere Variante, welche sich aus Strahlenschutzgründen immer mehr als Ersatz von LDR-Ansätzen zu etablieren scheint. Eine alternative Einteilung ergibt sich aus der Art der Applikation: Hier unterscheidet man zwischen Kontakt-, intrakavitärer, endoluminaler und interstitieller Therapie. Bei der Kontaktherapie werden mit speziell geformten radioaktiven Applikatoren oder in Moulagen eingebrachten radioaktiven Präparaten oberflächennahe Therapien durchgeführt. In der intrakavitären Therapie werden natürlich vorhandene oder künstlich geschaffene Hohlräume im menschlichen Körper genutzt, um radioaktive Substanzen einzubringen. Bei der endoluminalen Therapieform, auch als intravaskulär bezeichnet, werden radioaktive Quellen temporär (HDR) oder in Form von Stents permanent (LDR) in das Gefäßlumen eingebracht. Die interstitielle Therapie ist eine temporäre oder permanente Einbringung von radioaktiven Strahlern direkt in das Tumorgewebe, wobei diese in vorab gelegte Katheter oder Hohlnadeln appliziert werden.
29.4.3 Radionuklidtherapie
In der Radionuklidtherapie kennt man v. a. die RadiojodTherapie zur Behandlung von Schilddrüsenerkrankungen. Sie wird seit den 50er Jahren weltweit durchgeführt und zählt im Gegensatz zur Radiotherapie nicht zum Fachgebiet Strahlentherapie/Radio-Onkologie, sondern zur Disziplin Nuklearmedizin. Aufgrund statistischer Untersuchungen an über hunderttausend behandelten Patienten konnte sichergestellt werden, dass durch die Radiojod-Behandlung keine Zunahme von Schilddrüsenkrebs oder anderen bösartigen Erkrankungen im Körper erfolgt. Die Strahlenbelastung, die der Körper dabei erfährt, entspricht der einer gründlichen Röntgenuntersuchung. Eine Radiojod-Therapie wird durchgeführt bei Schilddrüsenfunktionsstörungen (Basedow-Hyperthyreose, unioder multifokale Autonomie , latente Hyperthyreose), zur Verkleinerung großer Schilddrüsen (»Struma«, »Kropf«) sowie zur Nachbehandlung eines Schilddrüsen-Karzinoms. Aus Strahlenschutzgründen muss die Therapie stationär durchgeführt werden, da die Patienten mit ihren Ausscheidungen (Urin, Stuhlgang, Schweiß und Speichel) sowie auch in ihrer Atemluft Radioaktivität abgeben. Alle Abwässer der Therapiestation müssen aufgefangen werden und dürfen erst nach Abklingen der Radioaktivität an das öffentliche Kanalnetz abgegeben werden. Das radioaktive Jod wird dem Patienten in einer zuvor durch einen Radiojodtest individuell ermittelten Menge oral verabreicht. Das zur Radiojod-Therapie verwendete Isotop131I ist ein Betaminusstrahler mit nachfolgender Gammastrahlung. Es strahlt 90% mit einer Beta-Strahlung und 10% mit einer Gamma-Strahlung. Therapeutisch wirksam ist die Beta-Strahlung, deren mittlere Reichweite im Gewebe lediglich 0,5 mm beträgt. Dadurch wird die Strahlenbelastung der Nachbarschaftsorgane minimal. Das Nuklid besitzt eine Halbwertzeit von rund 8 Tagen und eine Gammaenergie von 360 keV. Die für die Strahlentherapie erforderliche Radiojodmenge wird abhängig von der gewünschten Herddosis aus der Höhe der maximalen thyreoidalen Jod-Aufnahme, der effektiven Halbwertszeit und dem zu bestrahlenden Schilddrüsenvolumen berechnet. Als Zieldosis werden 150–200 Gy bei der Basedow’schen Krankheit, 200– 400 Gy bei der thyreoidalen Autonomie angesetzt, zur Verkleinerung einer Struma 150–180 Gy. Bei Hyperthyreosen ist in etwa 80% der Fälle mit einer dauerhaften Beseitigung der Stoffwechselstörung zu rechnen. Mit Hilfe der Gamma-Strahlung, welche aus dem Körper austritt, erfolgen die Strahlenschutzmessungen und die posttherapeutischen Kalkulationen der Strahlendosis. Die Gonadenbelastung bei der Radiojod-Therapie gutartiger Schilddrüsenerkrankungen beträgt 0,02–0,05 Gy. Die Gonadendosis, die zu einer Verdoppelung der spontanen Mutationsrate führt, beträgt 0,2–2,0 Gy. Die Jod-
29
546
Kapitel 29 · Medizinische Strahlentherapie
Betastrahlung hat im Zellsystem der Schilddrüse folgende radiobiologische Wirkungen: Funktionseinschränkung, Verlust der Regenerationsfähigkeit sowie Zelltod. Aus dem Niedergang von einzelnen Schilddrüsenzellen resultiert neben der Beeinflussung der Funktion auch eine Verkleinerung der Struma, welche gewöhnlich ca. 40% beträgt.
III
29.5
Gerätetechnologien zur Strahlungserzeugung
In der Strahlentherapie wird ionisierende Strahlung eingesetzt, welche entweder aus radioaktiven Zerfallsprozessen resultiert oder aber durch die Beschleunigung geladener Teilchen erzeugt wird. Zur Beschleunigung geladener Teilchen werden neben Röntgenröhren verschiedene Technologien wie Linear- und Kreisbeschleuniger eingesetzt – zu den Kreisbeschleunigern zählen außer dem inzwischen nicht mehr eingesetzten Betatron das Mikrotron, das Zyklotron und das Synchrotron. Nachdem insbesondere Linearbeschleuniger und Afterloading-Geräte klinisch zur Strahlungserzeugung Verwendung finden, wird in den folgenden Kapiteln v. a. auf diese Technologien vertiefend eingegangen.
29.5.1 Röntgengeräte
Man unterscheidet heutzutage zwischen Weichstrahlund Hartstrahltherapie – letztere wird auch als Orthovolttherapie bezeichnet. Die Grenze zwischen den beiden Therapieformen liegt bei einer Röhrenspannung von 100 kV. Der Therapieabstand – auch Fokus-Haut-Abstand genannt – beträgt bei der Nahbestrahlung zwischen 0
⊡ Abb. 29.7. Röntgentherapiegerät Gulmay D3225 (links) mit Bedienkonsole (rechts) (Quelle: Fa. Gulmay Medical/ Camberley, GB)
und 5 cm und ansonsten zwischen 10 und 30 cm bzw. in Ausnahmefallen bis 50 cm. Neben den heute noch immer eingesetzten teilweise über 50 Jahre alten »Klassikern« der Firmen Siemens (Dermopan, Stabilipan 2) und Müller resp. Philips (RT50, RT100, RT250) werden inzwischen mikroprozessorgesteuerte Systeme mit integrierter Patientendatenbank eingesetzt, welchen einen Röhrenspannungsbereich von 10 bis zu 300 kV abdecken. In ⊡ Abb. 29.7 ist ein modernes Röntgentherapiegerät illustriert. Therapeutische Röntgenbestrahlungsgeräte bestehen aus einer gekühlten Röhre, die in einem auf einem Stativ fixierten Strahlerkopf integriert ist, einem Generator, einem Schaltpult, einer Patientenliege sowie einem Satz Applikatoren. Als Stative werden je nach Einsatzspektrum Systeme mit Decken- oder kombinierter WandBodenmontage verwendet. Nachdem die verwendeten Stromstärken mit 20 bis 30 mA deutlich geringer als diejenigen von Diagnostikröhren sind, tritt weniger Erwärmung auf, und somit können feststehende, d. h. konstruktiv einfachere Anoden verwendet werden. Da die erzeugte Röntgenstrahlung eine breite, kontinuierliche Photonenenergieverteilung aufweist, wird eine Grundfilterung vorgenommen, welche die niederenergetischen Komponenten eliminiert und so eine Strahlaufhärtung bewirkt. Moderne Geräte dieser Art sind neben den klassischen Applikatoren – auch Tubusse genannt – für die Kontaktherapie teilweise auch mit einem Kollimator mit verstellbaren Blenden zur Feldbegrenzung ausgestattet. Zudem können für die Formung irregulärer Felder individuell angefertigte Bleiausschnitte in die Tubusse eingesetzt werden. Daneben ist ein neuerer Ansatz die Verwendung eines Multilamellenkollimators, welcher anstelle des Blendenkollimators eingesetzt wird. Es handelt sich
547 29.5 · Gerätetechnologien zur Strahlungserzeugung
hierbei um ein Gerät, das eine irreguläre Feldformung durch manuelles Positionieren der einzelnen voneinander unabhängigen Lamellen erlaubt.
29.5.2 Kobaltgerät
Kobaltgeräte zählen zu den sogenannten Telegammageräten, d. h. sie werden für die Teletherapie eingesetzt. Damit im therapeutischen Abstand von üblicherweise 80 cm ausreichend hohe Dosisraten erreicht werden, müssen die Quellen eine sehr hohe Aktivität aufweisen. Um zudem nur selten einen Wechsel der hochaktiven Quelle durchführen zu müssen, sind Radionuklide mit einer möglichst langen Halbwertszeit wünschenswert. Als Radionuklide finden daher Co-60 und nur noch in seltenen Fällen Cs-137 Verwendung. Co-60 hat gegenüber Cs-137 eine höhere Photonenenergie von ca. 1 MeV und somit therapeutische Vorteile, wenngleich die viel kürzere Halbwertszeit von 5,25 Jahren i. d. R. einen Quellenwechsel schon nach 5–10 Jahren notwendig macht. In ⊡ Abb. 29.8 ist ein modernes Kobaltgerät illustriert. Der Strahlerkopf des Kobaltgeräts ist durch einen um eine horizontale Achse drehbaren Tragarm mit einem Stativ verbunden. Diese Konstruktion wird auch als Gantry bezeichnet und ermöglicht eine Rotationsbestrahlung um einen virtuellen, fix im Raum liegenden Punkt, dem sogenannten
⊡ Abb. 29.8. Kobaltgerät UJP Terabalt® 80 (Fa. UJP/ Praha, CZ)
Isozentrum. Der Strahlerkopf selbst besteht aus der Quelle, einem Quellenschieber oder einem Drehverschluss, der Bleiabschirmung, den Blenden zur Feldbegrenzung, einem Lichtvisier sowie einer Entfernungsanzeige. Neben dem Tragarm lassen sich auch die Blenden rotieren. Der mit dem System fest verbundene Behandlungstisch lässt sich in alle 3 Raumrichtungen linear bewegen und erlaubt neben einer isozentrischen eine exzentrische Rotation um die eigene Achse.
29.5.3 Linearbeschleuniger
Heute werden moderne Linearbeschleuniger zur Erzeugung therapeutischer Elektronenstrahlung von 2–25 MeV und ultraharter Photonenstrahlung von 4–25 MV Grenzenergie angeboten. Es existieren mehrere umschaltbare Elektronen-Energiestufen sowie – je nach Hersteller – bis zu 3 Photonenenergien. Daneben gibt es, als eine Art Sonderform, die »Nur-Photonen-Maschinen« mit niedrigen Photonengrenzenergien zwischen 4 und 6 MV. Sie dienen meist als Ersatz für ausgemusterte Kobaltanlagen, d. h. diese lassen sich meist ohne große Zusatzmaßnahmen im Bereich Strahlenschutz in vorhandenen Therapieräumen installieren. Derartige Systeme kommen ohne bewegliche Teile im Beschleunigungssegment aus und haben zudem Beschleunigungsrohre von maximal 50 cm Länge. Hierdurch ist eine deutlich kompaktere, einfachere Bauweise ohne Strahlumlenkung resp. –analyse möglich, und dies senkt entsprechend die Kosten. Linearbeschleuniger sind Hochfrequenzbeschleuniger, die Elektronen in geraden Beschleunigungsrohren mittels Hochfrequenzwellen von 3 GHz und 10 cm Wellenlänge beschleunigen. Die Systeme bestehen im Wesentlichen aus den fünf Baugruppen Energieversorgung, Modulator, Beschleunigungseinheit, Strahlerkopf und Bedieneinheit. In ⊡ Abb. 29.9 ( auch 4-Farbteil am Buchende) ist schematisch der Aufbau eines modernen Hochenergie-Linearbeschleunigers gezeigt. Der Modulator enthält die Quelle zur Hochfrequenzerzeugung, sowie die Steuerelektronik plus elektrische Versorgung. Die Hochfrequenzgeneratoren stammen ursprünglich aus der Radartechnik; sie erzeugen Mikrowellen in Magnetrons oder Klystrons und verstärken diese. Magnetrons werden bevorzugt bei kleinen und mittleren Elektronenenergien eingesetzt, sind preiswerter als Klystrons, haben jedoch auch eine deutlich geringere Lebensdauer als diese. Bei Klystrons, welche bei höheren Elektronenenergien eingesetzt werden, unterscheidet man zwischen Einkammerund Zweikammersystemen. Die Beschleunigungseinheit setzt sich zusammen aus einer Elektronenkanone, dem Beschleunigungsrohr sowie Kühlaggregaten und Vakuumpumpen. Die Elektronenkanone ist entweder eine direkt geheizte Glühkathode aus Wolframdrahtwendeln oder eine indirekt geheizte
29
548
III
Kapitel 29 · Medizinische Strahlentherapie
⊡ Abb. 29.9. Linearbeschleuniger Varian Clinac 21 EX® (links) mit Strahlführung (rechts) (Quelle: Fa. Varian Medical Systems/ Palo Alto, USA)
Wolframmatrix. Daneben finden auch nicht geheizte Gitterkathoden, sogenannte Kaltkathoden, welche z. B. mit Bariumsulfat beschichtet sind. Diese Beschichtungen reduzieren die Austrittsarbeit für die Elektronen dermaßen, dass sie durch alleiniges Anlegen einer Hochspannung extrahiert werden können. Die Extraktionsspannungen liegen zwischen 15 und 50 kV. Je nach Hersteller werden als Beschleunigungsmedium Wanderwellen oder Stehwellen eingesetzt. Beim Wanderwellenprinzip läuft die Hochfrequenzwelle durch das Rohr und zieht dabei die Elektronen mit sich; am Ende des Rohres wird die elektromagnetische Wanderwelle dann vernichtet. Im Gegensatz hierzu wird beim Stehwellenbetrieb die elektromagnetische Longitudinalwelle am Ende des Rohres so reflektiert, dass sich eine stehende Welle ausbildet. Konstruktive Unterschiede liegen hauptsächlich in der Länge des Beschleunigungsrohres, welches für Wanderwellen länger als für Stehwellen ist. Andererseits besteht bei einem Wanderwellensystem eine geringere Frequenzabhängigkeit der Beschleunigungsleistung und weniger hohe Anforderungen an die Energieschärfe der eingeschossenen Elektronen. Der Strahlerkopf hat die Aufgabe, den in Richtung des Beschleunigungsrohres zeigenden Nadelstrahl von nur wenigen Millimetern Durchmesser einerseits umzulenken und andererseits geometrisch an die Bedürfnisse anzupassen. Die hierfür notwendigen Schritte sind a) Bündelung, Fokussierung und Ablenkung, b) Primärkollimation, c) Homogenisierung, d) Strahlüberwachung (Lage und Symmetrie), e) Dosisüberwachung und Dosisleistungsregelung sowie f) Feldformung.
nen werden hierzu sogenannte Tubusse eingesetzt, welche kaskadierend kollimieren und in der untersten Ebene eine Aufnahmemöglichkeit für einen individuell geformten Einsatz zur Erzeugung einer irregulären Feldform bieten. Zur Begrenzung des Strahlfeldes werden einerseits Blendensysteme mit variabler, ggf. asymmetrischer Öffnung eingesetzt auch dynamisch betrieben werden können. Die Limitierung solcher Systeme auf rechteckig geformte Felder hat zur Integration von Blöcken geführt, welche zwar individuell hergestellt werden müssen, aber mit denen praktisch beliebige irreguläre Feldformen erzeugt werden können. Modernere Beschleunigersysteme bieten heute zudem Multi-Lamellen-Kollimatoren (MLC), welche – je nach Lamellenbreite – fast beliebig geformte Feldkonfigurationen ermöglichen. Je nach Hersteller lassen sich diese MLCs zudem dynamisch betreiben. Es existiert die Möglichkeit, das Feld zu modulieren. Dies geschieht entweder mittels Keilfiltern oder Kompensatoren, wobei diese entweder hardware- oder softwaretechnisch erzeugt werden. Externe Keilfilter sowie physikalische Kompensatoren werden aus Schwermetall gefertigt. Erstere sind standardmäßige Bestandteile eines Linearbeschleunigers, Letztere hingegen werden für den Patienten individuell angefertigt. Beides lässt sich bei modernen Linearbeschleunigern auch durch einen dynamischen Betrieb der Kollimatorblenden resp. des Multileafkollimators erzeugen. Hierzu fahren die Blenden resp. die Lamellen während der Bestrahlung und modulieren hierdurch die Intensitätsverteilung innerhalb des Feldes gemäß den gemachten Vorgaben.
Die dazu eingesetzten Komponenten sind der 270°-Umlenkmagnet, die Strahlsteuerung, der Primärkollimator, das Karrusell mit Photonenausgleichskörpern und Elektronenstreufolien, die Doppelionisationskammer, die Kollimatorblenden X,Y sowie der Multilamellenkollimator. Die Feldformung geschieht bei Photonen mittels Kollimatorblenden sowie Multilamellenkollimator, bei Elektro-
Eine massive Miniaturisierung der Röntgenquelle, die ein mobiles, von Operationssaal zu Operationssaal transportables System ermöglicht, wurde vor nicht allzu langer Zeit erstmals realisiert. Bei der Quelle (⊡ Abb. 29.10 rechts), welche ein Gewicht von nur 2 kg aufweist, handelt es sich um einen kompakten Linearbeschleuniger mit einer Energie von 50 kV; diese kann mit Spannungen von
29.5.4 Miniaturbeschleuniger
549 29.5 · Gerätetechnologien zur Strahlungserzeugung
110–230 V und ggf. sogar mit Batterie bei 9,6 V betrieben werden. Die Beschleunigungsstrecke beträgt ca. 40 cm, und es lassen sich Dosisleistungen von 2,8 Gy/min in 1 m Abstand erzielen. Der Aufbau eines solchen Systems ist in ⊡ Abb. 29.10 ( auch 4-Farbteil am Buchende) illustriert; das Gerät ist in einen stereotaktischen Roboter integriert und erlaubt somit intraoperative Hochpräzisionsbestrahlungen. Aus der Miniaturisierung der Quelle und der verwendeten Energie resultiert zusätzlich auch die Beschränkung der Strahlung auf ein kleines Volumen. Dadurch entfallen die bei konventionellen Geräten (Linearbeschleuniger, radioaktive Strahler) notwendigen Investitionen in Schutzräume und persönliche Schutzmaßnahmen. Durch die räumliche Beschränkung und isotrope Ausbreitung der Strahlung wird nur das betroffene Gewebe um das Tumorbett bestrahlt und gesundes Gewebe geschont. Die starke Strahlenbelastung des gesunden Gewebes ist hingegen bei den konventionellen Methoden der Strahlentherapie ein kritischer Nebeneffekt der Behandlung, da aus medizinischen Gründen Grenzwerte im Strahlenschutz bestehen.
29.5.5 Brachytherapiequellen
und Brachytherapiegeräte In der Brachytherapie werden ausschließlich geschlossene radioaktive Quellen angewendet, bei denen die radioaktive Substanz von einer festen inaktiven Ummantelung umgeben oder in diese so eingebettet ist, dass bei normaler Anwendung ein Austreten unmöglich ist. Im Gebiet der LDR werden mehrheitlich radioaktive Drähte eingesetzt, welche das Isotop 192Ir enthalten. Die lange Anwendungsdauer der anfänglich eingesetzten Applikationsformen verbunden mit der hohen Strahlenbelastung des Personals hat dazu geführt, dass ferngesteuerte
Nachladeverfahren, sogenannte Afterloading-Verfahren, entwickelt wurden. Hierzu wurden verschiedene ferngesteuerte Nachlade- oder Afterloadingsysteme konstruiert, welche mit 192Ir, 137Cs oder 60Co als radioaktivem Strahler arbeiten. Mit dem Gammastrahler 192Ir lassen sich hohe Dosisleistungen und hierdurch sehr kleine Therapiezeiten erreichen. Die Halbwertszeit von Iridium beträgt 74 Tage und die mittlere Gammaenergie 0,35 MeV. Daher hat sich – bis auf wenige Anwendungen – Iridium durchgesetzt. Im Zuge einer Kostenoptimierung werden inzwischen jedoch wieder Mehrquellensysteme angeboten, welche mit einer 60Co Quelle in gleicher Größe, aber mit ca. nur einem Viertel der Aktivität bestückt werden können. Üblicherweise ist nur ein Strahleraustausch in den ersten 10 Jahren Betrieb erforderlich, verglichen mit 35 bis 40 Strahleraustauschen beim herkömmlichen Ir-Strahler. ⊡ Abb. 29.11 zeigt ein modernes Mehrkanal-Afterloading-Gerät. Es werden zwei verschiedene Antriebssysteme eingesetzt, welche die praktisch punktförmige Quelle aus einem Tresor ferngesteuert in den Applikator fahren: Stahlseelen in Form von biegsamen Wellen oder massiven Drähten. Erstere weisen eine besonders hohe Biegsamkeit bei größerem Durchmesser auf, währenddem Letztere zwar sehr dünn aber auch deutlich weniger flexibel sind. Die Ir-Quelle ist ein kombinierter BetaGamma-Strahler, deren Gammastrahlungskomponente zur Therapie genutzt wird. Die gekapselten Strahler sind von 1 bis 2 Edelstahlhüllen umgeben, welche einerseits die unerwünschten Betastrahlungsanteile abschirmen und andererseits den Verschleiß der Quelle beim Transport durch den Führungsschlauch und Bewegung in den Applikatoren reduzieren. Ein Indexersystem, wie es in ⊡ Abb. 29.11 rechts illustriert ist, erlaubt es – je nach Hersteller – bis zu 40 Kanäle sequentiell anzusteuern und so in Verbindung mit entsprechenden Applikatorkonfigurationen räumlich komplexe Dosisverteilungen
⊡ Abb. 29.10. Miniaturbeschleuniger Zeiss INTRABEAM® (links) mit Beschleunigersektion (rechts) (Quelle: Fa. Zeiss/ Oberkochen)
29
550
III
Kapitel 29 · Medizinische Strahlentherapie
zu erzeugen. Vor der eigentlichen Bestrahlung wird die Bestrahlungssitzung mit einem nichtstrahlenden Metalldraht – auch Dummy genannt – simuliert, um die Fahrwege vorab auf eventuelle Widerstände aufgrund starker Krümmungen oder Anschlussprobleme der Verbindungen zu Indexer und/oder Applikator zu überprüfen. Neben den Ir-HDR-Geräten, welche eine initiale Quellenaktivität von 10 Curie besitzen, existieren auch PDR-Systeme, welche sehr ähnlich konstruiert sind. Diese Systeme sind für regelmäßige Wiederholungsbestrahlungen ausge-
legt und haben eine Anfangsquellenaktivität von 1 Curie. Es existieren vereinzelt Systeme für spezielle Anwendungen, darunter auch das sogenannte Curietron. Es handelt sich um ein ferngesteuertes Nachladegerät für geringe bis mittlere Dosisleistung zum Einsatz von Cs-137-Quellen für die intrakavitäre gynäkologische Brachytherapie. Zur endovaskulären Bestrahlung mit Nachladern werden spezielle Systeme verwendet: Die Applikation von Gammastrahlen erfolgt derzeit mittels 192Iridium, während für Betastrahlen unterschiedliche Quellen angewendet werden. Die klinisch relevante Anwendung von Betastrahlen erfolgt bislang mit einem 90Yttrium-Draht oder mit einem 90Strontium/90Yttrium-Aktivitätszug. Die Systeme unterscheiden sich auch hinsichtlich ihrer Zentrierung im Gefäßlumen: Einige verwenden einen speziellen Zentrierungsballon, andere sind selbstzentrierend (radioaktive Ballonkatheter, radioaktive Stents). Es muss allerdings hier erwähnt werden, dass selbst sogenannte zentrierte Systeme in Bezug auf den sogenannten Plaque immer exzentrisch bleiben, sodass Dosisschwankungen im Gefäß unvermeidlich sind. Wahrscheinlich wird in Zukunft das endovaskuläre Afterloading mit Gammastrahlen v. a. bei größeren Gefäßdurchmessern wie venösen Bypassgefäßen und peripheren Gefäßen angewandt werden, während sich für Koronararterien die Brachytherapie mittels Betastrahlen – v. a. bei in-Stent-Restenosen – etablieren wird.
29.5.6 Radioaktive Implantate
Bei der Verwendung radioaktiver Implantate handelt es sich eigentlich um eine Unterform der Brachytherapie. Da jedoch diese Therapieform ganz spezifische Anwendungen im Bereich der Tumor– resp. Gefäßerkrankungen kennt, werden diese im Folgenden gesondert beschrieben.
Augenapplikatoren Bei der Oberflächenkontaktherapie von Tumoren am Auge werden kalottenförmige Plättchen eingesetzt, welche als Radionuklid den Beta-Strahler Ruthenium (106Ru) enthalten. Die nominelle Oberflächendosisleistung beträgt 120 mGy/min und die Aktivität variiert zwischen 10 und 50 MBq. Diese Applikatoren (⊡ Abb. 29.12, auch 4-Farbteil am Buchende) erlauben Bestrahlungen bis zu 100 Gy in eine Tiefe bis 2 mm, ohne benachbart liegende empfindliche Strukturen zu schädigen.
Seeds
⊡ Abb. 29.11. HDR-Afterloader Varian GammaMedPlus® (oben) mit Indexer (unten) (Quelle: Fa. Varian Medical Systems/ Palo Alto, USA)
Die permanente Brachytherapie oder Seedimplantation ist eine kurative (heilende) und gleichzeitig besonders schonende Form der Strahlentherapie beim lokal begrenzten Prostatakarzinom. Aufgrund ihrer hohen Wirk-
551 29.5 · Gerätetechnologien zur Strahlungserzeugung
samkeit wird sie immer häufiger als Alternative zur radikalen Prostatektomie, der Totaloperation, eingesetzt. Mit Hilfe spezieller Hohlnadeln werden die Strahlenquellen in Form von winzigen radioaktiven Implantaten (Seeds) bei diesem Verfahren direkt in die Prostata eingebracht. In ⊡ Abb. 29.13 sind solche Seeds sowie die Situation nach der Applikation gezeigt. Als radioaktive Quellen werden Iod (125I) oder Palladium (103Pd) eingesetzt, welche auf Trägermatrizen aufgebracht und in laserverschweißte Titanhülsen eingebettet sind. Auf diese Weise können deutlich höhere Strahlendosen direkt in der Prostata mit Schonung umliegender Organe verabreicht werden als bei einer externen Bestrahlung. Die Implantate verbleiben in der Prostata und geben die Strahlung langsam abnehmend über mehrere Monate (bei Iod-125 in etwa 12 Monaten und bei Palladium-103 in etwa 3 Monaten) unmittelbar in das Tumorgewebe ab. So wird das Prostatakarzinom allmählich zerstört, ohne dass gesundes Gewebe relevante Schäden erleidet. Wesentlich bei der Implantation von
⊡ Abb. 29.12. Ruthenium-106-Applikator mit Ausschnitt für die Hornhaut
Seeds ist die genaue Positionsbestimmung während der Applikation mittels Ultraschall. Typischerweise werden 40–200 Seeds, deren Aktivität 20–80 Mbq beträgt, in einem Tumor implantiert. Mittels einer ultraschallgestützten Therapieplanung wird sichergestellt, dass an der Prostataoberfläche eine Dosis von 144 Gy erreicht wird. Es werden zwei verschiedene Applikationsformen eingesetzt: Neben der Applikation einzelner isolierter Seeds werden bei der sogenannten Rapid-Strand-Technik die Seeds verkettet appliziert. Hiervon verspricht man sich insbesondere eine geringere Beweglichkeit der Quellen.
Stents Die mitunter häufigste Todesursache in den Staaten der westlichen Welt stellt die koronare Herzkrankheit dar. Gesunde Koronararterien haben normalerweise eine glatte, elastische Wand. Bei der koronaren Herzerkrankung beginnen sich Ablagerungen von Cholesterin, einem natürlichen Blutbestandteil, an der Gefäßwand festzusetzen und den Blutfluss zu vermindern (Stenose). Neben der Möglichkeit einer operativen Therapie (Bypaß-Operation) sind vor allen Dingen nichtoperative Methoden zur Weitung der verengten Herzkranzgefäße für die Behandlung von Gefäßverengungen bedeutsam geworden. Schon im Jahre 1979 wurde die Ballondilatation oder PTCA (Percutaneous Transluminal Coronary Angioplasty) als nichtoperative Behandlungsmethode der koronaren Herzkrankheit eingeführt. Durch das Aufweiten der Koronararterie durch einen Ballon entstehen feinste Verletzungen in der Gefäßwand. Diese Verletzungen verheilen wieder problemlos. Allerdings verringert das durch den Heilungsprozeß ausgelöste Zellwachstum den Gefäßquerschnitt erneut (Narbenbildung). In der Medizin spricht man dann von einer Proliferation (Wucherung) des Gewebes. Dadurch zeigt sich bei rund einem Drittel der
⊡ Abb. 29.13. Jod-Seed-Therapie des Prostatakarzinoms (links: Seeds, rechts: Durchleuchtungsbild, aufgenommen nach der Applikation) (Quelle: Fa. Eckert & Ziegler BEBIG/ Berlin)
29
552
III
Kapitel 29 · Medizinische Strahlentherapie
erfolgreich geweiteten Koronargefäße nach kurzer Zeit eine Restenose (erneuter Gefäßverschluss). Hauptverursacher von Restenose sind die Kontraktion der Gefäßwände nach Entfernung des Ballonkatheters und das vermehrte Zellwachstum aufgrund von Heilungsprozessen in der verletzten Gefäßwand. Da Stents nur die Kontraktion der Gefäßwände nach der Ballondilatation verhindern, musste nach neuen Möglichkeiten gesucht werden, die Gewebewucherungen zu stoppen. Mit Hilfe der Radioaktivität, die durch Ionenimplantation in die Stentoberfläche eingebracht wird, soll die Proliferation des Gewebes verhindert werden. In Studien konnte gezeigt werden, dass durch Bestrahlung der Gefäßwand das Zellwachstum nach einer Ballondilatation deutlich vermindert werden kann. Es bedarf jedoch einer gewissen Minimalaktivität (>100 kBq), damit der Stent medizinisch wirksam ist, d. h. die Zellwucherungen verhindert. Es konnte zudem gezeigt werden, dass durch das temporäre Einbringen einer starken Quelle in das Herzkranzgefäß nach der Stentimplantation mittels HDR-Afterloading-Technik ebenfalls eine Reduktion der Restenoserate bewirkt werden kann. Diese Methode hat allerdings gegenüber radioaktiven Stents den Nachteil, dass eine sehr starke radioaktive Quelle (bis zu 400 MBq) in den Körper des Patienten eingebracht werden muss, um in kurzer Zeit eine entsprechend hohe Strahlendosis auf die Gefäßwand zu bringen. Operationsteam und Patienten sind somit einer höheren Strahlenbelastung ausgesetzt, als bei Verwendung eines radioaktiven Stents, dessen Aktivität deutlich niedriger ist (<1 MBq). In ⊡ Abb. 29.14 ( auch 4-Farbteil am Buchende) ist der Effekt einer radioaktiven Beschichtung illustriert. Nach einer Ballondilatation mit folgendem Einbau eines inaktiven Stents wächst das Blutgefäß langsam wieder zu (Restenose), währenddem eine Bestrahlung mittels radioaktivem die Zellen der Gefäßwand schädigt und dadurch das Wachstum der Außenwand und einen erneuten Gefäßverschluss verhindert. Der erste radioaktive Stent wurde 1992 am Forschungszentrum Karlsruhe (FZK) produziert. Es handelte sich hierbei um einen Stent aus Stahl, dessen Legierungselemente aktiviert wurden. Die heute wichtigsten Nuklide in Bezug auf die Stentbeschichtung sind Palladium (103Pd) und Phosphor (32P). Das radioaktive Isotop des Phosphors wurde erstmals mit Ionenimplantation in das Grundmaterial des Stents eingebracht. Hierbei erreichte man eine homogene Verteilung über den gesamten Stent und eine gute Haftung auf dem Grundmaterial. In klinischen Studien wurde die Wirksamkeit dieses Produkts bewiesen. Um einen Stent mit Palladium zu versehen wird zuerst eine Goldschicht durch Galvanisieren auf dem Stent aufgebracht. Diese dient als Haftvermittler für das Palladium, welches ebenfalls galvanisch auf dem Stent abgeschieden wird. Im Anschluss wird das Palladium mit einer letzten Goldschicht
⊡ Abb. 29.14. Einfluss eines Stents auf das Zellwachstum; links ohne und rechts mit radioaktiver Beschichtung (Quelle: aus Vorlesungsskript ETH Zürich, CH)
abgedeckt, um ein Auswaschen zu verhindern. Auch wird auf diese Weise die unerwünschte niederenergetische Röntgenstrahlung des Palladiums absorbiert.
29.6
Spezielle Techniken und neuere Entwicklungen in der Teletherapie
Die Strahlentherapie verzeichnet – v. a. auch bedingt durch die immer weiter fortschreitende Computerisierung – eine rasante Entwicklung bei der Implementierung neuer Therapietechnologien. Im Folgenden werden verschiedene solcher Ansätze beschrieben, welche technologisch meist auf einem Linearbeschleuniger aufbauen.
29.6.1 Stereotaktische Radiochirurgie/
-therapie (Stereotactic radiosurgery/ -therapy, SRS/SRT) Hochpräzise Bestrahlungen im Schädelbereich stellen einerseits sehr hohe Anforderungen an die Genauigkeit des Strahlfeldes als auch die Patientenpositionierung. Um Genauigkeiten im Bereich von 1 mm oder darunter zu erzielen, wurde schon in den 60er Jahren ein spezielles Therapiegerät, das sogenannte Gamma Knife, entwickelt, welches mit einem stereotaktischen Ring zur Schädelfixation ausgestattet ist. Es handelt sich letztendlich um ein Kobaltgerät, jedoch mit der Besonderheit, dass es 201 Quellen beinhaltet, welche alle auf einen Punkt kollimiert sind. Für die intra- sowie extracranielle Stereotaxie existieren in der Zwischenzeit neuere Systeme, welche entweder auf einem konventionellen LINAC beruhen oder aus einen auf einem Roboterarm fixierten kompakten LINAC bestehen. Diese Systeme sind im Gegensatz zum Gammaknife mit zusätzlicher Bildgebungshardware ausgestattet, welche eine Positionskontrolle des Patienten ermöglichen. Die eingesetzten Bildgebungssysteme basieren auf digitalem Röntgen allerdings mit der Besonderheit, dass es sich um zwei in einem definierten Winkel zueinander angeordnete, fest installierte kV-Einheiten, bestehend jeweils aus einer Röntgenröhre sowie einem digitalen Imaging-Panel, handelt.
553 29.6 · Spezielle Techniken und neuere Entwicklungen in der Teletherapie
29.6.2 Intensitätsmodulierte Strahlen-
therapie (Intensity modulated radiotherapy, IMRT) Dieser neuartige Ansatz beinhaltet eine Modulation der Felder, welcher technologisch prinzipiell auf zwei verschiedene Arten realisiert werden kann: Entweder mittels eines physikalischen Kompensators oder mit Hilfe eines Multilamellenkollimators (MLC). Heutzutage wird praktisch ausschließlich die Feldmodulation mit MLC durchgeführt; ⊡ Abb. 29.15 ( auch 4-Farbteil am Buchende) zeigt einem modernen Multileafkollimator mit erhöhter Auflösung, d. h. einer reduzierten Lamellenbreite von 5 mm statt der meist üblichen 1 cm breiten Lamellen. Je nach Beschleunigerhersteller existieren zwei verschiedene Applikationstechniken: Die Step-and-Shoot-Technik (SS) und die dynamische MLC-Technik (dMLC). Bei der Step-and-Shoot werden sequentiell verschiedene Subfelder – sogenannte Segmente – überlagert und so eine Feldmodulation erzielt, d. h. es wird erst eine definierte MLC-Position angefahren, dann ein Teil der Dosis appliziert gefolgt von Wiederholungen mit anderen MLC-Layouts. Bei der dynamischen MLC-Technik fahren die einzelnen Lamellen während der gesamten Bestrahlungszeit. Da diese Technik mit über das Feld hinübergleitenden fensterähnlichen Öffnungen arbeitet, wird sie auch Sliding-Window-Technik genannt. Durch die IMRT tritt ein Paradigmenwechsel bei der dosimetrischen Therapieplanung ein. Bei der bisherigen Vorwärtsplanung verändert der Planer interaktiv die Feldkonfiguration solange, bis eine zufriedenstellende Dosisverteilung erzielt wird. Die IMRT erlaubt hingegen eine inverse Therapieplanung. Man definiert im Planungssystem gewisse Restriktionen in Form von Zieldosen (für den Tumor) resp. Maximaldosen (für kritische Organe) sowie dazugehörige Wichtungsfaktoren. Der Planungscomputer errechnet hieraus dann in einem iterativen Rückwärtsprozess die optimale Feldkonfiguration. Die intensitätsmodulierte Strahlentherapie wurde schon früh als neue Wunderwaffe gehandelt. Die Erfahrungen zeigen jedoch, dass mit dem Einsatz dieser Technik zwar die Dosisverteilung deutlich besser an das Zielvolumen angepasst werden kann, jedoch dabei auch die Dosisverteilung über eine größere Region verschmiert wird.
29.6.3 Atmungsgetriggerte Strahlentherapie
(Breathing adapted radiotherapy, BART) Insbesondere im Thorax- und oberen Abdominalbereich erfordert die Atmungsverschieblichkeit der Zielvolumina, dass die Bestrahlungsregionen größer als das eigentliche Tumorvolumen gewählt werden müssen, um die Tumorkontrolle nicht zu gefährden. Hieraus resultieren teils sehr massive Nebenwirkungen. Neuere Ansätze haben nun dazu geführt, dass es möglich ist, die Bestrahlung über
⊡ Abb. 29.15. Multilamellenkollimator (MLC) (Quelle: Fa. Varian Medical Systems/ Palo Alto, USA)
die Atmung zu steuern, d. h. den Therapiestrahl nur dann zu aktivieren, wenn sich das Zielvolumen im Bestrahlungsfeld befindet. Die Therapietechnik wird auch Gating genannt. Zur Atmungsüberwachung werden verschiedene Systeme eingesetzt, welche entweder auf einem Spirometer aufbauen und somit das Atemvolumen messen oder aber mit externer Messtechnik die Thoraxexkursion aufzeichnen. Um eine stabile und konstante Atmung des Patienten zu erzielen, werden zwei AtmungscoachingTechniken eingesetzt. Zum einen werden mittels digitalisierten Audiokommandos (»einatmen«/»ausatmen«) über Lautsprecher die Patienten unterstützt, einen regelmäßigen Atmungszyklus einzuhalten. Daneben existieren verschiedene Systeme (Prismen-/Spiegelbrille, LCD-Brille/-Monitor), um durch visuelle Informationen (Biofeedback) den Patienten zu unterstützen, die Atmungstiefe resp. Thoraxexkursion zu stabilisieren. Diese ist insbesondere von Bedeutung, wenn Tumoren bestrahlt werden, welche sich simultan mit der Thoraxwand bewegen.
29.6.4 Bildgeführte Strahlentherapie
(Image guided radiotherapy, IGRT) In letzter Zeit wurden Linearbeschleuniger entwickelt, welche mit dedizierten IGRT-Systemen ausgerüstet sind. Die grundlegende Idee solcher Systeme ist es, Bildgebungstechnologien am Bestrahlungsgerät zur Verfügung zu haben, welche primär der Verifikation der Patientenpositionierung dienen. Neben einem radiologischen Modus, welcher die Aufnahme von digitalen Röntgenbil-
29
554
III
Kapitel 29 · Medizinische Strahlentherapie
dern ermöglicht, existieren ein Fluoroskopie-Modus für Live-Durchleuchtungen sowie ein ComputertomografieModus, welcher das Fahren eines CT Scans mit konischer Strahlanordnung erlaubt und daher Cone-BeamCT (CBCT) genannt wird. ⊡ Abb. 29.16 zeigt ein solches System. Es setzt sich aus zwei verschiedenen Bildsystemen zusammen. Eines verwendet die MV-Therapiestrahlung und ist seit einiger Zeit als Portalbildgebung (Portal Imaging) bekannt. Das zweite System basiert auf klassischer kV-Bildgebung und besteht aus einer Röntgenröhre sowie einem hochauflösenden Detektor. Auflösungen derartiger Systeme, welche allesamt auf modernster Halbleitertechnik (amorphes Silizium) basieren, liegen inzwischen bei bis zu 4 Millionen Pixeln bei Detektorflächen von bis zu 40×40 cm2. Um die Patientenposition auf der Basis von internen Knochenstrukturen zu verifizieren, können entweder MV-basierte oder kV-basierte Kontrollaufnahmen angefertigt werden. Diese lassen sich dann online mit den vorhandenen Referenzbildern durch digitale Überlagerungstools, sogenanntes Matching, vergleichen und ermöglichen so eine sofortige Repositionierung auf der Basis eines 2D/2D-Match, wobei die Bilder orthogonal zueinander aufgenommen werden müssen. Der ConeBeam-CT-Modus ermöglicht einen Match auf Basis von dreidimensionalen Datensätzen, welche zudem Weichgewebsstrukturen zeigen. Insbesondere im Becken sind solche Ansätze von Vorteil, da dort die zu bestrahlenden Zielvolumen nicht in einem festen Bezug zu knöchernen Strukturen stehen. Der Fluoroskopie-Modus liefert ein Live-Durchleuchtungsbild und erlaubt somit bewegte Strukturen im Thoraxbereich, wie z. B. einen Lungentumor, hinsichtlich seiner Bewegungen zu analysieren und ggfs. Korrekturen vorzunehmen.
29.6.5 Intensitätsmodulierte Rotationstherapie
(Intensity modulated arc therapy, IMAT) Die intensitätsmodulierte Rotationstherapie vereint die klassische Rotationsbestrahlung – früher auch Pendelbestrahlung genannt – mit der Intensitätsmodulation. Diese Technik stellt außergewöhnlich hohe Anforderungen an die LINAC-Steuerung, denn es müssen die dynamischen Lamellenbewegungen des Multileafkollimators mit der Gantry-Rotation koordiniert d. h. synchronisiert werden. Daher ist mit einer klinischen Einführung erst nach tiefgreifenden Modifikationen im Bereich der Steuerungssysteme seitens der Linearbeschleunigerhersteller zu rechnen. Aufgrund dieser kombinierten Applikationsform, welche noch weiter optimierte Dosisverteilungen ermöglicht, werden – ähnlich der später folgenden Tomotherapie – bessere Heilungschancen bei geringeren Nebenwirkungen erwartet.
29.6.6 Dynamisch adaptierte Radiotherapie
(Dynamic adaptive radiotherapy, DART) Hierbei handelt sich um einen neuartigen Ansatz, welcher zum Ziel hat, die Therapie kontinuierlich an die sich ändernden Rahmenbedingungen anzupassen. Die bisherigen Ansätze fußten auf der Annahme, dass sich die anatomischen Verhältnisse im Verlaufe der Therapie nur geringfügig ändern. Jedoch hat insbesondere IGRT aufgezeigt, dass dem nicht so sein muss. Das Konzept der dynamisch adaptierten Radiotherapie basiert darauf, dass mit Hilfe von regelmäßig akquirierten Cone-BeamCT-Daten ein neuer Plan erstellt wird, wobei dies bei den derzeit verfügbaren Technologien nur als offline-Prozess möglich ist. D. h. der Therapieplan wird aufgrund der neuen Gegebenheiten, wie z. B. die Schrumpfung des Zielvolumens, entsprechend angepasst. Hierdurch lässt sich u. a. eine verstärkte Schonung von gesundem Gewebe erzielen.
29.6.7 Tomotherapie
⊡ Abb. 29.16. Varian Trilogy® mit On board imager OBI (Quelle: Fa. Varian Medical Systems/ Palo Alto, USA)
Bei dieser neuen Generation von Strahlentherapiegeräten eines US-amerikanischen Herstellers handelt es sich um die direkte Kombination eines Linearbeschleunigers mit einem Computertomographen in einem Gerät. Der Linearbeschleuniger läuft ähnlich wie die Röntgenröhre in einem CT um den Patienten herum und wird hier zusätzlich für die medizinische Bildgebung genutzt, sodass die Überprüfung der Tumorposition und die nachfolgende Behandlung ohne aufwändige Umrechnungs- und Anpassungsprozesse erfolgen können. Die Therapie selbst findet sozusagen schnittbasierend, also scheibchenweise statt – daher auch die Bezeichnung Tomotherapie. Durch
555 Weiterführende Literatur
die mit dieser Technik erreichte bessere Verteilung der Strahlendosis wird eine weitere Reduzierung der Nebenwirkungen erwartet, also eine Zerstörung des Tumors bei noch besserer Schonung vom den Tumor umgebendem gesunden Gewebe und Risikoorganen. Allerdings steht die Tomotherapie in ihrer Entwicklung noch am Anfang.
Weiterführende Literatur Konecny E, Roelke V, Weiss B (2003) Medizintechnik im 20. Jahrhundert. VDE-Verlag, Berlin Krieger H (2001) Strahlenphysik, Dosimetrie und Strahlenschutz, Bd 2: Strahlungsquellen, Detektoren und klinische Dosimetrie. Teubner, Stuttgart Podgorsak E (2005) Radiation Physics Handbook for Medical Physicists. Springer, Berlin Heidelberg New York Produktebroschüren der Firmen Varian Medical Systems, MDS Nordion, Gulmay Medical Systems, Zeiss, Bebig Richter J, Flentje M (1998) Strahlenphysik für die Radioonkologie. Thieme, Stuttgart Schlegel W, Bille J (2002) Medizinische Physik 2: Medizinische Strahlenphysik. Springer, Berlin Heidelberg New York Wintermantel E, Ha SW (2002) Medizintechnik mit biokompatiblen Werkstoffen und Verfahren. Springer, Berlin Heidelberg New York
29
30 Infusionstechnik W. Weyh, D. Röthlein 30.1
Einleitung – 557
30.2
Infusionstherapie – 557
30.3
Infusionssysteme – 557
30.6.5
Patientenkontrollierte Analgesie (PCA) – 565 Optimierte Applikation von Medikamenten mit kurzer Halbwertszeit – 565 Infusionsprofile – 565
30.4
Schwerkraftinfusion – 558
30.7
Parallelinfusion – 565
30.5
Automatisierte Infusion – 559
30.8
Datenverarbeitung – 566
30.5.1 30.5.2 30.5.3
Infusionspumpen – 559 Infusionsspritzenpumpen – 561 Abgrenzung zwischen Infusions- und Infusionsspritzenpumpen – 562 Optimierte Bedienkonzepte – 562 Automatisierte Infusionssysteme – 563
30.9
Weitere Kriterien zur Beurteilung von Infusionspumpen und Infusionsspritzenpumpen – 566
30.5.4 30.5.5
30.6
30.6.1 30.6.2
30.1
Spezielle Bereiche für den Einsatz von Infusions- und Infusionsspritzenpumpen – 564
30.6.3 30.6.4
30.10 Methodische Hinweise – 567 30.10.1 Handhabung – 567 30.10.2 Pflege und Wartung – 568
Weiterführende Literatur – 568
Totale intravenöse Anästhesie (TIVA) – 564 Target Controlled Infusion (TCI) – 564
Einleitung
Für die Infusionstherapie (⊡ Abb. 30.1, auch 4-Farbteil am Buchende) kommt ein breites Spektrum von Medizinprodukten zur Anwendung. Es umfasst Einmalartikel wie Infusionsleitungen, Spritzen, Dreiwegehähne, Katheter und Kanülen sowie auch die aktiven Medizinprodukte: Infusions- und Infusionsspritzenpumpen. Im einfachen Fall kann die Infusionstherapie schwerkraftbetrieben sein – bei komplexeren Infusionsregimes, insbesondere in der Intensivbehandlung oder auch in Intermediate Care, erfolgt sie meist automatisiert, also unter Zuhilfenahme von Infusions- und Infusionspritzenpumpen. Dies sind Apparate zur kontrollierten Verabreichung von Flüssigkeiten (Infusionslösungen) mit oder ohne medikamentöse Bestandteile, um bspw. den Wasser- und Elektrolythaushalt aufrechtzuerhalten oder wiederherzustellen. Solche Pumpen unterstützen die Infusionstherapie durch ▬ hohe Fördergenauigkeit, ▬ hohe Förderkonstanz, ▬ Druckaufbau (wenn notwendig), ▬ Anwenderhinweise beim Auftreten von Störungen, ▬ Automatisierung der Dokumentation. Infusionstechnik bzw. Infusionspumpen sind aus dem heutigen klinischen Alltag nicht mehr wegzudenken. Sie stellen jedoch immer »nur« ein Mittel dar, um Lösungen und Medikamente kontrolliert und einzeln steuerbar mit hoher Genauigkeit zu applizieren. Die medizinische
Bedeutung ist daher stark an die der medikamentösen Therapie gekoppelt.
30.2
Infusionstherapie
Unter Infusionstherapie (lat. infundere eingießen) versteht man das Einfließenlassen von Flüssigkeiten in den Patienten. Der Zugang erfolgt meist intravenös. Die Ziele der Infusionstherapie sind ▬ Ausgleich von Flüssigkeits-/Volumenverlusten, ▬ Regulierung des Wasser-Elektrolyt-Haushaltes, ▬ Regulierung des Säure-Basen-Gleichgewichtes, ▬ künstliche Ernährung (enteral und parenteral) sowie die ▬ Verabreichung von Medikamenten. Es gibt einfache und komplexe Anwendungsbereiche der Infusionstherapie, die unterschiedliche Anforderungen an die Technik stellen.
30.3
Infusionssysteme
In der Infusionstechnik werden typische Komponenten, die zur sicheren Durchführung der Therapie notwendig sind, verwendet, z. B.: ▬ Infusionslösungsbehälter (Flaschen, Spritzen, Beutel etc.), ▬ Infusionsgeräte bzw. -bestecke oder -leitungen,
558
Kapitel 30 · Infusionstechnik
III
⊡ Abb. 30.1. Ausgedehnte Infusionstherapie bei Intensivpatienten
▬ Einmal-Zubehör für Infusionspumpen: – Infusionsleitungen für Infusionspumpen (mit oder ohne spezifische, in die Leitung integrierte Pumpsegmente), – spezielle, für den Einsatz in Infusionsspritzenpumpen entwickelte Einmalspritzen, ▬ Kanülen und Katheter, ▬ Verbindungselemente (LS-Verbinder, Dreiwegehähne, Hahnbänke etc.), ▬ Zusatzelemente (Filter, Zuspritzstücke etc.) und ▬ Pumpen zur automatisierten Infusionstherapie. Der Begriff Infusionssystem erstreckt sich also von einfachsten Kombinationen o. g. Komponenten zur Schwerkraftinfusion (Behälter, Infusionsbesteck, Kanüle) bis zu vielschichtigen Infusionsregimes mit mehreren Pumpen (automatisierte Infusionssysteme). Um die Pumpen platzsparend unterzubringen, sie mit Energie zu versorgen und um Systemfunktionen wie ein gemeinsames Patientengewicht oder Datum zur Verfügung zu stellen, können anbieterspezifische Systemkomponenten verwendet werden ( Kap. 30.5.5).
Zu beachten ist, dass alle o. g. Elemente und deren Kombination den entsprechenden gesetzlichen und quasigesetzlichen Regelwerken entsprechen (MPG, Betreiberverordnung etc.), die sowohl für den Hersteller als auch für den Betreiber bzw. Anwender Auflagen enthalten.
30.4
Schwerkraftinfusion
Soll also die Infusionslösung in einem Infusionsystem vom Behälter in den Patienten fließen, so ist ein Druck notwendig, der die auftretenden Widerstände bei der gewünschten Fließgeschwindigkeit überwindet. Dabei gilt: ▬ Je höher die Viskosität und/oder ▬ je länger das Überleitsystem und/oder ▬ je größer der gewünschte Volumenstrom und/oder ▬ je kleiner der Radius des Überleitsystems und/oder ▬ je höher der Gegendruck des Patienten desto höher ist der notwendige Druck. Im Umkehrschluss gilt, dass bei einem bestimmten zur Verfügung stehenden Druck lediglich ein entsprechend begrenzter Volumenstrom realisiert werden kann.
559 30.5 · Automatisierte Infusion
Ein Infusionsfilter kann den Strömungswiderstand entscheidend erhöhen. Die Infusionslösung fließt hier auf Grund des hydrostatischen Druckes. Als hydrostatischer Druck wird der Druck ruhender Flüssigkeiten bezeichnet, der gleichmäßig allseitig wirkt. Er wird durch das Gewicht der Flüssigkeit hervorgerufen und ist der Tiefe der Flüssigkeit und deren spezifischem Gewicht proportional. Pro Meter Wassersäule entsteht ein Druck von etwa 0,1 bar. Eine Schwerkraftinfusion ist also physikalisch immer möglich, wenn der Druck ausreicht, um den gewünschten Volumenstrom zu erzielen. Das Infusionslösungsbehältnis wird also über Patientenniveau plaziert, die Lösung fließt aufgrund des hydrostatischen Druckes in den Patienten, und die Flussrate wird mittels Rollenklemme eingestellt. Allerdings ist die Schwerkraftinfusion relativ ungenau und verfügt nicht über eigene Überwachungssysteme. Sie eignet sich daher nur für unkritische Infusionen und muss durch das Pflegepersonal kontrolliert werden. In Europa werden Scherkraftinfusionen kaum mehr auf Intensivstationen eingesetzt.
30.5
Automatisierte Infusion
Infusions- und Infusionsspritzenpumpen kommen zum Einsatz, wenn ▬ der hydrostatische Druck nicht ausreicht, ▬ höhere Anforderungen an die Fördergenauigkeit und -konstanz gestellt werden oder ▬ die Infusion automatisch überwacht werden soll. Aktiv pumpende Infusionsapparate nehmen meist elektrische Energie auf, setzen diese in mechanische Bewegungen um und entleeren so einen Infusionslösungsbehälter. Die hierbei u. U. entstehenden Drücke lassen sich variabel begrenzen. Exkurs Druck im Infusionssystem Ein über dem hydrostatischen liegender Druck kommt in der Praxis selten vor. Eine Infusionspumpe wirkt z. B. quasi als »Bremse«, wenn sich das Infusionslösungsbehältnis so weit über dem Patienten befindet, dass sich das Infusionslösungsbehältnis aufgrund des hydrostatischen Druckes schneller entleeren würde, als es die an der Infusionspumpe eingestellte Förderrate vorgibt. Merke: 1 mH2O entspricht einem Druck von ca. 0,1 bar. Weiterhin bringt eine unter Patientenniveau platzierte Pumpe lediglich so viel Druck auf, wie zur Überwindung der Summe der Gegendrücke notwendig ist. Merke: Ein ZVD (Zentraler Venendruck) von ca. 6 mmHg entspricht ca. 0,008 bar. ▼
Eine Schwerkraftinfusion (über dem Patienten) kann also einen ZVD genau so leicht überwinden wie eine apparative Infusion. Ebenso kann eine Infusionspumpe (unter dem Patienten) die Summe aus ZVD und hydrostatischem Druck mit geringem Aufwand überwinden. Nennenswerter Druck wird lediglich bei Vorlage einer Stenose oder Okklusion in der Leitung aufgebaut. Er entsteht aber immer zwischen der Okklusion und der Pumpe, aber nicht zwischen Okklusion und Patient. Wird die Stenose oder Okklusion jedoch behoben, kann ein ungewollter Bolus verabreicht werden.
30.5.1 Infusionspumpen
Zur Applikation höherer Volumina werden meist Infusionspumpen eingesetzt, die sich in drei Kategorien einteilen lassen. ▬ Tropfengeregelte Infusionspumpen haben sich in Deutschland aufgrund der verschiedenen Einflüsse auf das Tropfenvolumen nicht durchgesetzt und werden daher in diesem Rahmen nicht behandelt. ▬ Gleiches gilt für volumengesteuerte Infusionspumpen mit aufwändigen, in das Leitungssystem integrierten Förderelementen (z. B. Kolben und Kassetten). Da die Einmalartikel sehr hohe Folgekosten nach sich ziehen und das Leistungsspektrum solcher Pumpen gegenüber den im Folgenden aufgeführten Pumpen keine signifikanten Vorteile aufweist, sind diese fast vom Markt verdrängt. ▬ Volumengesteuerte Infusionspumpen sind heute meist als Finger-Peristaltikpumpen, seltener als Rollen-Peristaltikpumpen ausgelegt. Hierbei treibt ein Motor eine Exzenterwelle an, deren Schieber die Infusionsleitung wellenförmig gegen ein Widerlager abquetschen. Determiniert durch Leitungsquerschnitt und Länge des abgequetschten quasi zylinderförmigen Leitungsabschnittes, ergibt sich ein definiertes Fördervolumen pro Exzenterwellenumdrehung. Sie arbeiten meist mit einem relativ kostengünstigen Einmalartikel mit linear gerichtetem Pumpsegment aus Silikon. Da die Pumpen durch Mikroprozessoransteuerung sehr genau arbeiten, ergeben sich die Abweichungen in Förderrate und Förderkonstanz aus dem Einmalartikel. Pumpen, die einen speziellen Einmalartikel verwenden, z. B. ein Pumpsegment aus Silikon, erzielen hierbei bessere Werte als solche mit einem Standardeinmalartikel aus z. B. PVC. Silikon ist elastischer und stellt sich daher nach einem Pumpvorgang eher in die zylindrische Form zurück. Moderne Infusionspumpen verfügen über etliche sicherheitstechnische Einrichtungen in Steuerung und Sensorik wie das in ⊡ Abb. 30.2 dargestellte Blockschaltbild zeigt.
30
560
Kapitel 30 · Infusionstechnik
III
⊡ Abb. 30.2. Blockschaltbild einer Infusionspumpe
Wir erkennen u. a. folgende Sicherheitseinrichtungen: ▬ Selbstüberwachende Steuerung (Funktions- und Kontrollprozessor), ▬ Überwachung der Motorumdrehungen und der Antriebsposition, ▬ Sicherheitsklemme, ▬ Luftsensor, ▬ Temperatursensor, ▬ Drucksensor downstream (Verschlusserkennung), ▬ Drucksensor upstream (Funktion ähnlich Tropfensensor, der eine geschlossene Rollenklemme erkennen kann). Wird durch eine dieser Sicherheitseinrichtungen ein Fehler oder überschrittener Grenzwert erkannt, geht eine Infusionspumpe immer in den sicheren Zustand (Pumpenstop + Alarmgabe optisch und akustisch). Jede Infusionspumpe verfügt über zu erwartende (Flasche leer) und unerwartete (kein Tropfen – Rollenklemme zu) Alarme, die zur Fortsetzung der Therapie eine Aktion des Anwenders notwendig werden lassen. Gängige Alarme sind in ⊡ Tab. 30.1 aufgeführt.
⊡ Abb. 30.3. Frontansicht und Bedienungselemente einer Infusionspumpe
Eine moderne Infusionspumpe ist in ⊡ Abb. 30.3 dargestellt. Man beachte, dass die Linearperistaltik (Antrieb) horizontal ausgerichtet ist, um eine Stapelbarkeit der Pumpen zu ermöglichen. Um auch nach Herausnahme der Infusionsleitung eine unkontrollierte Infusion zu verhindern, ist bei modernen Infusionspumpen eine in die Leitung integrierte Schiebeklemme eingebaut, die sich bei Herausnahme der Leitung aus der Pumpe automatisch schließt (⊡ Abb. 30.4).
561 30.5 · Automatisierte Infusion
⊡ Tab. 30.1. Alarme einer Infusionspumpe Alarm
Ursache
Aktion
Tropfalarm
Tropfkammer beschlagen
Durch Schütteln entfernen
Sensor nicht aufgesetzt
Sensor auf Tropfkammer aufsetzen
Flasche leer
Flasche ggf. ersetzen
Rollenklemme zu
Rollenklemme öffnen
Infusionsleitung oberhalb der Pumpe geknickt
Knick beseitigen
Druckalarm
Schlauch nach Pumpe geknickt, Katheter verstopft etc.
Ursache beseitigen
Druckstufe zu gering gewählt (z. B. bei Filtereinsatz)
Druckstufe erhöhen
Luftalarm
Luft im System
System überprüfen
Akku-Alarm, Akku-Voralarm
Akku leer, fast leer
Akku laden
KOR (KVO) Venenoffenhaltungsrate
Infusion abgelaufen, Pumpe geht in KOR-Betrieb
Neue Infusion vorbereiten
30.5.2 Infusionsspritzenpumpen
Müssen Medikamente aufgrund hoher Konzentration mit kleinen Förderraten verabreicht werden, geschieht dies meist über Infusionsspritzenpumpen, da hier sehr hohe Genauigkeiten erreicht werden können. Exkurs Ein Blick in die Geschichte ⊡ Abb. 30.4. Position der Schiebeklemme
⊡ Abb. 30.5. Infusionsapparat nach Dr. Hess
⊡ Abb. 30.6. Frontansicht und Bedienungselemente einer Infusionsspritzenpumpe
Die erste Infusionsspritzenpumpe weltweit wurde bereits 1951 entwickelt, der sog. Infusionsapparat nach Dr. Hess (⊡ Abb. 30.5). Dieser verfügte zwar lediglich über einen Ein-/Ausschalter und folglich nur über eine Geschwindigkeit, das Funktionsprinzip einer Infusionsspritzenpumpe war aber schon damals das gleiche wie heute. Sollten unterschiedliche Dosierungen verabreicht werden, musste die Konzentration des Medikamentes in der Spritze entsprechend angesetzt werden.
Funktionsprinzip: Durch einen Motor angetrieben, wird der Spritzenkolben über einen Spindelantrieb langsam in den fest in der Infusionsspritzenpumpe arretierten Spritzenzylinder geschoben. Eine moderne Infusionsspritzenpumpe ist in ⊡ Abb. 30.6 dargestellt. Um die Bauhöhe zu reduzieren, wurde die Spritze hinter den Bedienelementen platziert. Ein Ausschnitt mit Vergrößerungsglas ermöglicht dennoch die Erkennbarkeit der Spritzenkolbenposition. Der tatsächliche Beginn der Förderung initial oder nach Spritzenwechsel lässt sich entscheidend verbessern, wenn Antrieb und Spritze kraft- und formschlüssig optimal aneinander angepasst werden. Dies kann durch automatisches Heranfahren und Greifen der Spritzenkolbenplatte erfolgen. Während dieser Phase wird die Kolbenstange durch Heranfahren einer Kolbenbremse fixiert.
30
562
Kapitel 30 · Infusionstechnik
⊡ Tab. 30.2. Alarme einer Infusionsspritzenpumpe Alarm
Ursache
Aktion
Spritzen-Endalarm/ Voralarm
Spritze leer/fast leer
Neue Spritze aufziehen, einlegen und Infusion starten oder Spritze entnehmen und Infusion beenden
Druckalarm
Schlauch nach Pumpe geknickt, Katheter verstopft etc.
Ursache beseitigen
Druckstufe zu gering gewählt (z. B. bei Filtereinsatz)
Druckstufe erhöhen
Akku-Alarm Akku-Voralarm
Akku leer, fast leer
Akku laden
KOR (KVO) Venenoffenhaltungsrate
Infusion abgelaufen, Pumpe geht in KOR-Betrieb
Neue Infusion vorbereiten
III
Insbesondere wenn eine Vielzahl verschiedener Medikamente gleichzeitig gefördert werden sollen, ist es erforderlich, das Flüssigkeitsvolumen so gering wie möglich zu halten. Wegen der sehr hohen Fördergenauigkeit der Infusionsspritzenpumpen lassen sich die Wirkstoffe höher konzentrieren. Deshalb werden in diesen Anwendungsbereichen Spritzenpumpen bevorzugt. Der Anteil der Spritzenpumpen auf Intensivstationen liegt daher in Europa bei etwa 70%. ⊡ Abb. 30.7. Position der Kolbenbremse
30.5.4 Optimierte Bedienkonzepte
So wird eine mögliche Bolusgabe während des Spritzenwechsels verhindert, wie in ⊡ Abb. 30.7 gezeigt. Auch Infusionsspritzenpumpen verfügen über Alarmgaben, die denen der Infusionspumpen ähneln (⊡ Tab. 30.2).
30.5.3 Abgrenzung zwischen Infusions- und
Infusionsspritzenpumpen Während sich in Europa, wie gezeigt, in den 1950er Jahren zunächst die Infusionspritzenpumpen entwickelten, um Medikamente genau und kontinuierlich zu verabreichen, haben sich Infusionspumpen in den 1960er Jahren durchgesetzt, um Infusionslösungen, meist ohne Bestandteile mit phamakologischer Wirkung, zu verabreichen. Diese Unterscheidung ist im Prinzip bis heute so geblieben. Die beiden großen Kategorien Infusionspumpen und Infusionsspritzenpumpen unterscheiden sich daher technisch durch die in ⊡ Tab. 30.3 aufgeführten Hauptmerkmale. Infusionspumpen werden daher meist verwendet, um größere Volumina bei geringerem Anspruch an Fördergenauigkeit und –konstanz zu verabreichen, wogegen Infusionspritzenpumpen ihren Einsatz finden, wenn Medikamente mit hoher Genauigkeit und Konstanz appliziert werden sollen.
Eine Infusionspumpe wird innerhalb ihres Lebenszyklus mehrere 1000-mal programmiert. Dass hierbei Fehler auftreten können ist unbestritten. Ca. 2/3 aller schweren Komplikationen unter Verwendung von Infusionspumpen sind auf eine inkorrekte manuelle Programmierung zurückzuführen. Moderne Infusionspumpen müssen denjenigen, die die Verordnungen treffen, also die Möglichkeit geben, ihre Therapien und Prozesse zu standardisieren. Dies kann mit mit sog. »Dose Error Reduction Systems« (DERS) realisiert werden. Diese bestehen im Kern aus ▬ einer Medikamentendatenbank (MedDB), u. a. mit medikamentenspezifischen Standard-Förderraten, ▬ Dosis- oder Förderratengrenzen (sog. Hard- und/oder Soft-Limits) für weitere Eingaben, ▬ einem Dialog-Fenster an der Pumpe für den Fall der Verletzung der Grenzen, ▬ Indikatoren für den Fall, dass die DERS-Funktion nicht genutzt wird. Die Programmierung der Infusionspumpen (⊡ Abb. 30.8) wird dadurch nicht nur deutlich sicherer, sondern auch einfacher und schneller, da im einfachsten Fall lediglich ein Medikament ausgewählt und mit der vorgegebenen Standardrate gestartet wird. Im Falle einer Änderung der Förderrate oder Dosisrate wird die Eingabe gegen die in
563 30.5 · Automatisierte Infusion
⊡ Tab. 30.3. Technische Unterscheidungsmerkmale* Kriterium
Infusionspumpe
Infusionsspritzenpumpe
Fördergenauigkeit
±5%
±2%
Förderkonstanz
gut, bei geringen Förderraten jedoch ungünstiger (Rückzugseffekt der Peristaltik)
sehr gut, Cave: abhängig von Gleiteigenschaften der Spritze
Förderratenbereich
1–1000 ml/h in Inkrementen von 1 ml/h (bei kleineren Raten auch Inkremente von 0,1 ml/h möglich)
0,1–100 ml/h in Inkrementen von 0,1 ml/h (bei kleineren Raten auch Inkremente von 0,01 ml/h möglich)
Max. Bolusrate
1000 ml/h, falls Funktion vorhanden
1200–1800 ml/h (bei Verwendung von 50 ml Spritzen)
Fördervolumen ohne Wechsel des Einmalartikels
je nach Infusionslösungsbehältnis von 100 bis 3500 ml
Spritzengrößen von 2–60 ml, »Standard«: 50 ml
Luftsensorik
erkennt Luft in der Leitung, Empfindlichkeit einstellbar
technisch nicht notwendig, aber Spritze komplett entlüften!
Drucksensorik
gut, kann oft aber erst bei Drücken über 200 mmHg zuverlässig arbeiten
sehr gut, arbeitet meist zuverlässig bereits bei Drücken unter 100 mmHg
*Angaben sind übliche Werte, tatsächliche Daten sind herstellerabhängig
Medikament auswählen
Pumpe aktiviert Parameter aus der MedDB
MedDB erstellen und in Pumpe laden
Start
Eingabe: Neue Rate
der MedDB hinterlegten Limits geprüft. Ist ein Hard Limit gesetzt, kann dieses nicht überschritten werden – ein Soft Limit hingegen kann vom Anwender in einem Dialog-Fenster bewusst ignoriert und dadurch überschritten werden. Überschreitungen durch den Anwender, Ablehnungen durch die Pumpe und weitere Parameter werden für spätere Auswertungen an Computern und so für die Optimierung der Therapie gespeichert. Gängige Handelsnamen sind DoseGuardTM (B. Braun Melsungen AG) und Guardrails® (Cardinal Health). Aktuelle Erfahrungen aus den USA haben gezeigt, dass sich die sog. »Medication Errors« mit DoseGuardTM um 95% senken ließen (z. B. San Mateo Medical Centre, interne Untersuchung, März 2006).
30.5.5 Automatisierte Infusionssysteme Im Limit?
J
Lauf mit neuer Rate
N
Dialog: ignorieren?
J
Lauf mit neuer Rate
N Rate korrigieren ⊡ Abb. 30.8. Ablauf einer Pumpenprogrammierung und anschließender Ratenänderung mit Soft Limit
Besteht ein Infusionssystem hauptsächlich aus Infusionsund Infusionsspritzenpumpen, evtl. ergänzt um Schwerkraftinfusionen, so spricht man auch von automatisierten Infusionsystemen (⊡ Abb. 30.9). Dabei liegt die Forderung nahe, dass die darin verwendeten Pumpen keine Standalone-Produkte sind, sondern sich ergonomisch physikalisch integrieren und sinnvoll logisch vernetzen lassen. Physikalisch integrieren heißt: ▬ Die Pumpen lassen sich platzsparend stapeln. ▬ Die Abfolge von Infusions- und Infusionsspritzenpumpen sollte dabei keine Rolle spielen. ▬ Die Pumpen sind idealerweise einzeln aus dem Verbund entnehmbar.
30
564
Kapitel 30 · Infusionstechnik
▬ Das System verfügt über eine gemeinsame Energieversorgung (lediglich eine Netzanschlussleitung). ▬ Das System verfügt über eine zentrale Datenschnittstelle.
30.6
Spezielle Bereiche für den Einsatz von Infusions- und Infusionsspritzenpumpen
30.6.1 Totale intravenöse Anästhesie (TIVA)
III
Logisch vernetzen heißt: ▬ Jede Pumpe verfügt automatisch über die gleichen Patientendaten (z. B. Name, Gewicht etc.). ▬ Jede Pumpe verfügt ebenso über die gleiche Zeitinformation (wichtig für Dokumentation). ▬ Jede Pumpe verfügt über gleiche MedDB. ▬ Jede Pumpe ist gleich konfiguriert (aktivierte Funktionen, Displayeinstellungen etc.). Die in einem System verwendeten Pumpen sollten selbstverständlich über das gleiche Bedienkonzept verfügen (User Interface). Vorteilhaft ist außerdem eine gemeinsame Alarmierung (optisch und akustisch), die sich deutlich von anderen medizintechnischen Produkten unterscheidet. Derart zu einem System gefügte Infusionspumpen bieten vielfachen Nutzen: ▬ geringeren Platzbedarf, ▬ einfachere Bedienung, ▬ flexiblere Handhabung, ▬ geringere Unfallgefahr, ▬ einfachere Dokumentation, ▬ sicherere Programmierung.
Mit dem Begriff »Totale intravenöse Anästhesie« (TIVA) werden Anästhesietechniken bezeichnet, bei denen ausschließlich intravenöse Anästhetika und Analgetika zum Einsatz kommen und auf Inhalationsanästhetika ganz verzichtet wird. Der Anteil der i.v.-Narkosen an der Gesamtzahl der Anästhesien hat in den letzten 20 Jahren ständig zugenommen. Da die exakte Dosierung von Medikamenten gerade in der Anästhesie entscheidend ist, werden bei der TIVA überwiegend Infusionsspritzenpumpen eingesetzt. Zusätzlich zu den für Spritzenpumpen üblichen Anforderungen hinsichtlich z. B. Alarmgaben und Genauigkeit müssen aus Anwendersicht für den Einsatz bei einer TIVA folgende Eigenschaften erfüllt sein: ▬ Möglichkeit zur Bolusapplikation, wobei durch Betätigen einer Taste schnell eine Flussrate von mindestens 800, besser 1200 ml/h erreicht werden muss, ohne zuvor die Pumpe zu stoppen oder die Einstellungen zu ändern. ▬ Weite Variabilität der Flussrate, von sehr niedrigen Raten bis zu hohen konstanten Raten, die z. B. bei der Einleitung der Anästhesie notwendig sein können, in Schritten von 0.1 ml/h einstellbar. ▬ Einstellbarkeit von Dosisraten z. B. μg/kg KG/min. ▬ Ausreichend lange Batterie- oder Akkulaufzeiten, die die Flexibilität der TIVA unterstützen.
30.6.2 Target Controlled Infusion (TCI)
⊡ Abb. 30.9. Automatisiertes Infusionssystem in der Praxis
Unter »Target Controlled Infusion« (TCI) versteht man die an einer Zielkonzentration (Target) orientierte, intravenöse Applikation von Anästhetika mit Hilfe von computergesteuerten Infusionsspritzenpumpen. Die Zielkonzentration bezieht sich dabei entweder auf das Blutplasma oder den Wirkort. Grundlage für die Steuerung sind die pharmakokinetischen Eigenschaften des Medikamentes, die in einen Kontrollalgorithmus einfließen. Dieser berechnet auf Grundlage des pharmakokinetischen Modells regelmäßig die Infusionsraten, die zur Erreichung und Erhaltung einer vom Anwender gewählten Zielkonzentration notwendig sind. Die berechneten Raten werden direkt von der Pumpe umgesetzt. In der Praxis wählt der Anwender also eine Zielkonzentration aus. Um diese zu erreichen, wird initial eine hohe Infusionsrate benötigt (Bolus), die dann kontinuierlich im weiteren Verlauf angepasst werden muss. Diese Ratenberechnungen und -anpassungen werden automatisch vom TCI System durchgeführt; die Steuerung der
565 30.7 · Parallelinfusion
Narkose wird damit vergleichbar einfach – wie mit einem volatilen Anästhetikum. Das erste kommerzielle TCI System wurde 1997 für Propofol eingeführt, wobei hier spezielle vorgefüllte Propofolspritzen und Infusionsspritzenpumpen mit einem TCI Modul notwendig waren. Mittlerweile wurden sog. offene Systeme eingeführt, bei denen Infusionsspritzenpumpen zusätzlich zu ihrer normalen Funktionalität einen im Menü anwählbaren TCI Modus beinhalten und das Medikament in handelsüblichen Einwegspritzen verwendet wird. Darüber hinaus wird die TCI nicht nur für Propofol angeboten, sondern auch für Opioide wie Remifentanil und Sufentanil. Die Anwendung konzentriert sich auf die Anästhesie. Infusionspumpen mit TCI sind damit die ersten im großen Maßstab kommerzialisierten Systeme, bei denen modellbasiert Infusionsraten berechnet und umgesetzt werden – ein wichtiger Schritt in Richtung direkt computergestützter Therapien. Die TCI ist theoretisch für jedes Medikament und für jede Therapie denkbar. Die Realisierung ist jedoch von der Lage der klinischen Studien und den daraus resultierenden Umsetzungen durch geeignete Anbieter abhängig. Als nächster Schritt für die TCI ist die Sedierung auf Intensivstationen denkbar.
30.6.3 Patientenkontrollierte
Analgesie (PCA) Die patientenkontrollierte Analgesie ist eine vom Patienten mit Hilfe von Pumpen selbst gesteuerte Zufuhr von Schmerzmitteln. Der Hauptvorteil liegt in der Möglichkeit, dass der Patient die Dosis entsprechend seinem individuellen Bedarf abfordern kann. Das Prinzip der PCA ist weder an bestimmte Geräte noch Applikationsverfahren gebunden. In den meisten Fällen wird auf die intravenöse Applikation von Opioiden zurückgegriffen, aber die Grundidee wird auch in Modifikationen angewendet, so z. B. die immer häufiger genutzte PCA über einen Epiduralkatheter. In der Regel werden programmierbare Infusionsspritzenpumpen mit speziellen Eigenschaften für einen PCA Modus eingesetzt, seltener sind auch mechanische PCA Pumpen mit einem Reservoir in Gebrauch. Bei den programmierbaren Spritzenpumpen wird auf Anforderung des Patienten über einen externen Taster ein Schmerzmittel appliziert. Diese Bolusgabe kann durch eine Basalrate (Basisinfusion) ergänzt werden. Um eine Überdosierung zu vermeiden, geben Dosieralgorithmen nicht jede Bolusanforderung (Demand) frei. Die durch den Arzt einstellbaren Parameter (wie z. B. Bolusgröße, Sperrzeit zwischen zwei Demands, Basalrate) können aufgrund einer von der Pumpe zur Verfügung gestellten Statistik optimiert werden.
30.6.4 Optimierte Applikation von Medikamenten
mit kurzer Halbwertszeit Insbesondere bei der Verabreichung von Katecholaminen kommt es selbst bei kurzen Unterbrechungen der Zufuhr – wie z. B. beim Spritzenwechsel – vor, dass unerwünschte Reaktionen des Patienten beobachtet werden. Um solche Unterbrechungsphasen zu minimieren, erlauben manche Infusionspritzenpumpen den automatischen Start einer zweiten, für das gleiche Medikament vorbereiteten, Pumpe nach Ablauf der Infusion durch die erste Pumpe. Diese Eigenschaft wird Take Over Modus (B. Braun Melsungen AG) oder Relay Funktion (Fresenius Kabi GmbH) genannt.
30.6.5 Infusionsprofile
Für Anwendungen wie z. B. die enterale Ernährung sind Infusionsprofile sinnvoll. Profile können sein: ▬ Intervallbolus – in einstellbaren Intervallen werden gleich große Boli verabreicht. ▬ Rampenfunktion – die Förderrate wird kontinuierlich auf einen Zielwert gesteigert (oft verwendet bei der totalen parenteralen Ernährung). ▬ Ausschleichfunktion (Tapering) – die Förderrate wird kontinuierlich bis zum Stop gesenkt. ▬ Freies Profil (Circadian) – Raten und Zeiten sind frei wählbar und wiederholen sich. Infusionsprofile werden allerdings noch selten angewendet. Die meisten Infusionen erfolgen kontinuierlich, wobei je nach Zustand des Patienten Raten angepasst oder Boli (z. B. initial) verabreicht werden.
30.7
Parallelinfusion
Bei allen Vorteilen, die die Infusionstherapie bietet, entstehen auch gewisse, beherrschbare Risiken, die sich insbesondere aus der Parallelinfusion ergeben. Diese sind weniger durch die verwendeten Produkte als durch physikalische Gegebenheiten begründet. Auftreten können: ▬ Fehldosierungen, ▬ Luftinfusion, ▬ Rupturen. Eine Parallelinfusion ist in ⊡ Abb. 30.10 vereinfacht dargestellt. Diese Checkliste zur Parallelinfusion kann die Risiken vermindern: ▬ Nur medizinisches Fachpersonal – eingewiesen in alle Medizinprodukte – einsetzen. ▬ Kombinationen von Schwerkraftinfusionen (1) und Pumpen (10) möglichst vermeiden.
30
566
Kapitel 30 · Infusionstechnik
1 3 2 4
III 6
5 10
7
8
9
⊡ Abb. 30.10. Elemente einer Parallelinfusion. (1) Schwerkraftinfusion, (2) ZVD-Messung, (3) Tropfkammer, (4) Rollenklemme, (5) Rückschlag-
ventil, (6) 20 cm unter Herzniveau, (7) Syphon, (8) Drei-Wege-Hahn, (9) Y-Konnektor, (10) Infusionspumpe
▬ Wenn unvermeidbar: Schwerkraftinfusion durch Rückschlagventil (5) absichern. ▬ Infusionen kontinuierlich überwachen. ▬ Patientenmonitoring einsetzen. ▬ Zur Verhinderung von Luftinfusion Syphon (7) legen [20 cm unter Herzniveau (6)]. ▬ Druckfeste Produkte verwenden. ▬ Geringe Druckalarmschwellen wählen. ▬ Bei ausgeschalteten Infusionspumpen Rollenklemme schließen. ▬ Nur Pumpen gleichen Typs verwenden. ▬ Änderungen von Flussraten einer Infusion können zu Fehldosierungen bei anderen Infusionen führen!
30.9
30.8
Datenverarbeitung
Moderne Infusionspumpen sollten über eine Datenschnittstelle verfügen. Die Vernetzung gestaltet sich wesentlich einfacher, wenn diese als Systemschnittstelle für alle Pumpen gemeinsam am Patientenbett vorliegt. Neben einer seriellen Schnittstelle sollte bei diesen auch eine netzwerkfähige (Ethernet) Schnittstelle zur Verfügung stehen. Infusionspumpen können wertvolle Daten zur Dokumentation der Therapie, aber auch zu ihrer Optimierung und für den Technischen Service liefern. Die einfachste Form der Anbindung liegt vor, wenn das Infusionspumpensystem eine Web-Server-Applikation bietet, wie z. B. in ⊡ Abb. 30.11, auch 4-Farbteil am Buchende. Komplexere Anbindungen werden oft auch krankenhausspezifisch für verschiedene Softwareprodukte (HIS, PDMS etc.) realisiert. Hierbei wird meist jedoch lediglich der Verlauf der Medikation aufgezeichnet.
Weitere Kriterien zur Beurteilung von Infusionspumpen und Infusionsspritzenpumpen
In den vorangegangenen Kapiteln wurden Funktionen moderner Infusionspumpen aufgezeigt. Welche hiervon im Einzelfall relevant sind, muss individuell geklärt werden. Weitere objektive Kriterien werden im Folgenden kurz dargestellt. Um die Fördergenauigkeit und -konstanz von Infusions- und Infusionsspritzenpumpen beurteilen zu können, wurden in der DIN VDE 0750 Teil 232 sog. Anlaufkurven und Trompetenkurven definiert. Anlaufkurven bilden die Förderrate als Funktion der Zeit ab und stellen das Förderverhalten innerhalb der ersten Stunde nach Start der Pumpe grafisch dar (⊡ Abb. 30.12). Verzögerungen beim Förderbeginn und damit der Medikamentenzufuhr sind daraus zu erkennen. Trompetenkurven bilden die prozentuale Abweichung von der eingestellten Förderrate als Funktion der Zeit ab und zeigen dem Betrachter die Schwankungsbreite der Fördergenauigkeit für verschieden lange Beobachtungsintervalle. Diese Aussagen können bei der Verabreichung von Medikamenten mit kurzer Halbwertszeit eine wichtige Rolle spielen. Letztlich stellt die Trompetenkurve die prozentuale Fördergenauigkeit der Pumpe, gemessen in der 2. Stunde nach Start, dar (⊡ Abb. 30.13). Ebenso können betrachtet werden: ▬ Kosten, ▬ Bedienungsfreundlichkeit (auch Reinigung, Klartextanzeigen etc.),
567 30.10 · Methodische Hinweise
⊡ Abb. 30.11. Allgemeine und servicerelevante Daten, mit handelsüblichem Browser abrufbar
▬ Servicefreundlichkeit, ▬ Größe, Gewicht, ▬ Kompatibilität zu Einmalartikeln (z. B. verschiedene Spritzengrößen, verschiedene Hersteller), ▬ Druckbegrenzung.
⊡ Abb. 30.12. Anlaufkurve
⊡ Abb. 30.13. Trompetenkurve
30.10
Methodische Hinweise
30.10.1
Handhabung
Wichtig ist grundsätzlich eine korrekte Entlüftung von Spritzen, Infusionsleitung etc. Spritzen und Leitungen sollten der besseren Übersicht halber gekennzeichnet werden. Aus hygienischen Gründen sollten alle Einmalartikel alle 24 h gewechselt werden. Wird ein patientennahes Sterilfilter benutzt, ist eine Verwendung der Einmalartikel bis zu 92 h möglich (Achtung: bei einigen Pumpen führt die Ermüdung von Einmalartikeln zu erhöhten Förderratenabweichungen. Außerdem ist die Dauer abhängig von der Infusionslösung. Bei Fett häufiger wechseln!).
30
568
Kapitel 30 · Infusionstechnik
30.10.2
III
Pflege und Wartung
Infusions- und Infusionsspritzenpumpen sind einer regelmäßigen sicherheitstechnischen Kontrolle (STK) zu unterziehen, deren Fristen und Umfang vom Hersteller festgelegt werden. Wie bei allen Apparaten mit mechanischen Teilen sollte auf Sauberkeit und Gängigkeit dieser Elemente geachtet werden. Dies gilt insbesondere für Pumpen, da diese nicht selten mit auskristallisierenden Flüssigkeiten (z. B. Glukose-Lösung) in Berührung kommen.
Weiterführende Literatur Absalom A, Struys M (2005) Overview of Target Controlled Infusions and Total Intravenous Anaesthesia. Academia Press, Gent Fa. Braun Melsungen AG (2005): Anwendungshinweise zur Parallelinfusion (Firmenschrift) Laakmann O, Galan J (1998) Das Perfusorbuch. Blackwell Wiss, Berlin von Hintzenstern U (2004) i. v., 3. Aufl. Elsevier, München
31 VAD-Systeme (Ventricular Assist Devices) G. Trummer
31.1 Einführung
31.4.3 Biventrikuläre Systeme – 575 31.4.4 Kathetergestützte Systeme – 576 31.4.5 Total Artificial Heart (TAH) – 576
– 569
31.2 Akute und chronische Herzinsuffizienz – 569 31.2.1 Therapie der Herzinsuffizienz
– 569
31.3 Einteilung der Assist Devices – 570 31.3.1 Indikationen, Kontraindikationen, Komplikationen – 570 31.3.2 Komplikationen – 571
31.4 Systembeschreibungen
– 573
31.5 Nachbehandlung nach Implantation eines Assist Devices – 577 31.6 Ökonomische Aspekte 31.7 Schlussfolgerung Literatur
– 577
– 578
– 578
31.4.1 Pulsatile linksventrikuläre Assist Device – 573 31.4.2 Nicht pulsatile linksventrikuläre Assist Devices (Axialpumpen) – 574
31.1
Einführung
Etwa ein Viertel aller Sterbefälle in Deutschland sind auf eine kardiale Ursache zurückzuführen. Neben der chronischen ischämischen Herzkrankheit und dem Myokardinfarkt zählt die Herzinsuffizienz zu den häufigsten Diagnosen. In Europa sind schätzungsweise 10 Mio. Einwohner an einer symptomatischen Herzinsuffizienz erkrankt. Die Prognose der chronischen Herzinsuffizienz ist i. Allg. sehr schlecht und vergleichbar mit den meisten Malignomerkrankungen, da 50% der Patienten mit schwerer Herzinsuffizienz innerhalb eines Jahres versterben. Die Herzinsuffizienz ist eine Erkrankung, die im höheren Lebensalter auftritt. Während in der Bevölkerungsgruppe von 45–55 Jahren unter 1% betroffen sind, steigt die Prävalenz auf 2–5% bei den 65- bis 75-Jährigen und auf etwa 10% bei den über 80-Jährigen.
31.2
Akute und chronische Herzinsuffizienz
Als Herzinsuffizienz bezeichnet man die Unfähigkeit des Herzmuskels, die vom Körper benötigte Pumpleistung zu erbringen, die erforderlich ist, um die Gewebe mit genügend Blut und Sauerstoff zu versorgen. Unterschieden wird die akute Herzinsuffizienz von der chronischen Herzinsuffizienz. Das akute Herzversagen tritt im Rahmen schwerer kardialer und extrakardialer Erkrankungen auf. So können z. B. massive Elektrolytverschiebungen, schwere Blutverluste, ausgedehnte Herzinfarkte oder höhergradige Herzrhythmusstörungen zu einem akuten Pumpversagen führen und unmittelbar tödlich sein.
Die chronische Herzinsuffizienz verläuft eher schleichend und kann vom Patienten zunächst unbemerkt bleiben. Eine zunehmende verminderte körperliche Belastbarkeit, Kurzatmigkeit, Beinödeme, bläuliche Hautfärbung und Herzrhythmusstörungen weisen auf eine Herzinsuffizienz hin. Durch die verringerte Pumpleistung des Herzens kann es zu einer Minderperfusion anderer Organsysteme kommen, die in eine vorübergehende oder auch dauerhafte Organschädigung münden. So sind Nierenversagen und Leberinsuffizienz häufige Begleiterkrankungen der chronischen Herzinsuffizienz. Dieser Symptomenkomplex sowie die kardiologische Diagnostik (Laboruntersuchungen, Echokardiographie, Rechts- und Linksherzkatheter) sichern die Diagnose der chronischen Herzinsuffizienz. Die chronische Herzinsuffizienz ist meistens Folge einer Erkrankung, die den Herzmuskel über viele Jahre zunehmend geschwächt hat. In Deutschland sind langjähriger Bluthochdruck und die koronare Herzkrankheit in 75–90% aller Fälle die Ursache der chronischen Herzinsuffizienz. Eine Schädigung des Herzmuskels durch Alkoholmissbrauch, Entzündungen des Herzmuskels, Fehlfunktionen der Herzklappen oder angeborener Missbildungen des Herzens, sind in Deutschland seltene Ursachen einer Herzinsuffizienz.
31.2.1 Therapie der Herzinsuffizienz
Die Symptome der chronischen Herzinsuffizienz können durch eine differenzierte medikamentöse Therapie verbessert werden. Die Progredienz der verschlechterten
570
III
Kapitel 31 · VAD-Systeme (Ventricular Assist Devices)
Pumpfunktion des Herzmuskels lässt sich damit verzögern, aber nicht aufhalten. Somit ist für die Patienten im Endstadium einer chronischen Herzinsuffizienz die Herztransplantation weiterhin der Goldstandard. Der zunehmenden Prävalenz der Herzinsuffizienz in der Bevölkerung steht jedoch durch den Mangel an Spenderorganen weltweit eine kontinuierliche Abnahme der Anzahl an Herztransplantationen gegenüber. Der Mangel an Spenderorganen ist somit das vorrangige Problem in der Behandlung von Patienten mit schwerer chronischer Herzinsuffizienz. In dieser Situation ist es naheliegend, mechanische Kreislaufunterstützungssysteme einzusetzen, die die Funktion des Herzmuskels vorübergehend oder dauerhaft ersetzen sollen. In der Vergangenheit wurden eine Vielzahl solcher Systeme entwickelt und konnten auch teilweise auch im klinischen Alltag erfolgreich etabliert werden (El-Banayosi et al. 2000, Frazier et al. 2001; Oz et al. 1997; Pasque et al. 2002). So wird z. B. die intraaortale Ballonpumpe (IABP) schon seit über 20 Jahren erfolgreich bei Patienten mit akutem Herzversagen nach Herzoperationen oder Herzinfarkten routinemäßig eingesetzt. Die so genannten »Kunstherzen« (Assist Devices) wurden anfänglich nur in ganz verzweifelten Fällen implantiert, wenn eine akut lebensbedrohliche Situation vorlag und rechtzeitig kein passendes Spenderherz zur Verfügung stand. Inzwischen ist in diesem Bereich eine enorme technische Entwicklung erfolgt, die eine Vielzahl neuer Modelle von Kreislaufpumpen hervorgebracht hat. Da diese Systeme noch nicht durch ein zentrales Register erfasst werden, gibt es auch keine gesicherte Statistik über die Zahl der implantierten Systeme. In den folgenden Abschnitten wird der Stand der bisherigen Entwicklung beschrieben und eine Übersicht über die in Deutschland implantierten Assist Devices gegeben.
31.3
Einteilung der Assist Devices
VAD-Systeme (syn.: Heart-Assist-Device-System, Kunstherz) sind elektromechanische Systeme zur Herzkreislaufunterstützung, die partiell oder vollständig implantiert
werden und die Pumpfunktion einer oder beider Herzkammern übernehmen können. Eine Einteilung der Assist Systeme kann nach verschiedenen Kriterien erfolgen, je nachdem ob technische oder klinische Aspekte im Vordergrund stehen. Eine grobe Einteilung unterscheidet, ob die linke oder rechte Herzkammer unterstützt wird. So lässt sich eine Differenzierung in linksventrikuläre (LVAD) und biventrikuläre Assist Devices (BVAD) vornehmen, wobei es darüber hinaus auch noch seltene Fälle von ausschließlich rechtsventrikulärer Unterstützung (RVAD) gibt. Eine Sonderstellung nimmt das »Total Artificial Heart« ein, das nach Explantation des kranken Herzens im Bereich des Herzbeutels platziert wird und ein »Kunstherz« im engeren Sinne darstellt (⊡ Tab. 31.1). Darüber hinaus ist eine Einteilung nach der geplanten Dauer der Kreislaufunterstützung üblich. Es wird dabei zwischen Systemen für die kurzzeitige, mittelfristige und langfristige Unterstützung unterschieden (⊡ Tab. 31.2).
31.3.1 Indikationen, Kontraindikationen,
Komplikationen Mit zunehmender klinischer Erfahrung und technischer Weiterentwicklung haben sich auch die Indikationen zur mechanischen Kreislaufunterstützung in den letzten Jahren deutlich erweitert. Prinzipiell ist zunächst eine Indikation bei allen Formen der akuten und chronischen Herzinsuffizienz gegeben, bei denen entweder eine Erholung des Myokards erwartet werden kann (»Bridge to Recovery«) oder bei denen die Patienten später einer Transplantation zugeführt werden sollen (»Bridge to Transplant«). Darüber hinaus ist es vorstellbar, dass sich die mechanische Kreislaufunterstützung zukünftig auch zu einer echten Alternative zur Transplantation (»Destination Therapy«) entwickelt (Rose et al. 2001 u. Westaby et al. 2000) (⊡ Tab. 31.3). Ebenso wie bei der Transplantation haben sich die absoluten Kontraindikationen hinsichtlich der mechanischen Kreislaufunterstützung im Laufe der Zeit verringert. Ein Alter über 60 Jahre stellt heute
⊡ Tab. 31.1. Einteilung der mechanischen Kreislaufunterstützungssysteme nach Implantationsort und Pulsatilität Kategorie
Kunstherzmodelle
Linksventrikuläre Unterstützungssysteme (implantierbar, elektrischer Antrieb) a) Pulsatil b) Non-pulsatil
HeartMate-1®, Novacor®, LionHeart® DeBakey-Heart®, Jarvik 2000® Incor®Impella® (Mikroaxialpumpe)
Biventrikuläre Unerstützungssysteme (externe Ventrikel, pneumatischer Antrieb)
Berlin Heart®, Thoratec®, Medos®, Abiomed®
Total Artificial Heart
Abiocor®, CardioWest®
571 31.3 · Einteilung der Assist Devices
keine absolute Kontraindikation mehr dar, wenn der Allgemeinzustand des Patienten und die übrigen Organe den Einsatz eines Kunstherzsystems zulassen. Auch bei beginnendem Multiorganversagen (Nierenversagen, beatmungspflichtiges Lungenversagen), das durch eine chronische Herzschwäche verursacht wird, kann der Einsatz mechanischer Kreislaufunterstützungssysteme gerechtfertigt sein, wenn auch die Erfolgsaussichten geringer sind als bei frühzeitiger Implantation eines Assist-Systems (Deng et al. 2001; Übersicht).
der Wechsel auf ein implantierbares System erfolgen und der Patient später einer elektiven Herztransplantation zugeführt werden. Dieses Vorgehen bezeichnet man als »Bridge to Bridge«.
31.3.2 Komplikationen
Hierbei wird zwischen Komplikationen in der Frühphase, nach Implantation eines Assist-Systems und Spätkomplikationen unterschieden.
Kontraindikationen ventrikulärer Assist-Devices ▬ ▬ ▬ ▬ ▬
Generalisierte Sepsis Irreversible Hirnschädigung Fortgeschrittenes Multiorganversagen Schwere Gerinnungsstörungen Schwere psychische Erkrankungen
Wichtig ist in diesem Zusammenhang die Frage, ob eine Unterstützung der linken Herzkammer ausreicht oder ob primär die Indikation zu einem biventrikulären System mit Unterstützung beider Herzkammern gestellt werden muss. Hierzu sind Risikoscores als Entscheidungshilfe entwickelt worden (Ochiai et al. 2002; Oz et al. 1995). Liegt eine akute Herzinsuffizienz vor und ist nicht absehbar, ob sich das Myokard wieder erholt, z. B. nach Herzoperationen, Herzinfarkten oder einer akuten Entzündung des Herzmuskels (Myokarditis), dann ist es sinnvoll, ein Kurzzeitsystem zu implantieren. Nach 1–2 Wochen kann nach Erholung der anderen Organe (Lunge, Leber, Niere) bei weiterhin bestehender Herzinsuffizienz dann
Rechtsherzversagen Bei etwa 90% der Patienten mit terminaler Herzinsuffizienz ist eine alleinige Linksherzunterstützung (LVAD) ausreichend. Ist der Auswurf des LVAD in der Frühphase zu hoch, kann es zu einer Volumenbelastung des rechten Herzens und dadurch, insbesondere bei erhöhtem Lungengefäßwiderstand, zu einem Rechtsherzversagen kommen. Durch adäquate Patientenselektion anhand eines Risikoscores (Oz et al. 1995) und vorsichtige Entwöhnung von der extrakorporalen Zirkulation mit inhalativem Stickstoffmonoxid (NO), Prostaglandinen und Katecholaminen ist es möglich, den Anteil des Rechtsherzversagens auf <10% zu begrenzen (Ochiai et al. 2002).
Nachblutungen Während der ersten Tage nach der Implantation der Assist Systeme ist immer die Gefahr einer Nachblutung gegeben. Neben chirurgischen Blutungsquellen sind hierfür auch komplexe Störungen der Blutgerinnung verantwortlich.
⊡ Tab. 31.2. Einteilung der mechanischen Kreislaufunterstützungssysteme nach geplanter Unterstützungsdauer System
Unterstützungsdauer
Intraaortale Ballonpumpe (IABP), Zentrifugalpumpe (Biomedicus®), Diagonalpumpe (Deltastream®), Impella®
Kurzfristige Unterstützung (7–10 Tage)
Berlin-Heart®, Thoratec®, Medos®, Cardiowest®
Mittelfristige Unterstützung (2–6 Monate)
Heartmate-1®, Novacor®, LionHeart®, Jarvik 2000®, DeBakey®, Incor®, Abiocor®
Langfristige Unterstützung (1–3 Jahre)
⊡ Tab. 31.3. Indikationen zur mechanischen Kreislaufunterstützung Indikation
Unterstützungsziel
Akuter Myokardinfarkt, Postkardiotomie-Versagen, Myokarditis
»Bridge to recovery«
Dilatative Kardiomyopathie, koronare Herzkrankheit, Myokarditis, akuter Myokardinfarkt
»Bridge to transplant«
Patienten mit Herzinsuffizienz und Kontraindikationen bei einer Herztransplantation (z. B. pulmonale Hypertonie, Amyloidose, Systemerkrankungen)
»Destination therapy« (Dauertherapie)
31
572
III
Kapitel 31 · VAD-Systeme (Ventricular Assist Devices)
Die Verwendung der Herz-Lungen-Maschine ( Kap. 26) bei der Implantation kann zu einer deutlichen Beeinträchtigung der plasmatischen Gerinnung und der Blutplättchenfunktion führen. Je nach Größe des Implantats besteht ein kontinuierlicher Kontakt des Blutstroms mit Fremdkörperoberflächen, die ebenfalls zu einer anhaltenden Aktivierung des Gerinnungssystems und damit zu einem Verbrauch an Gerinnungsfaktoren sowie zu einer Schädigung der Thrombozyten (Blutplättchen) beitragen. Thrombozyten und plasmatische Gerinnungsfaktoren müssen häufig nach Implantation eines Assist Devices substituiert werden, um Blutungskomplikationen zu verringern. Zur Vermeidung thromboembolischer Komplikationen muss bei vielen Systemen (z. B. Axialpumpen, Novacor) schon ab dem zweiten postoperativen Tag eine Blutverdünnung (Antikoagulation) erfolgen. Auch diese Maßnahme erhöht das Risiko von Nachblutungen.
Thromboembolische Komplikationen Neben einer verstärkten Blutungsneigung kann der Kontakt des Blutes mit Kunststoffoberflächen und unphysiologische Strömungsverhältnisse die Bildung von Thromben und thromboembolischen Komplikationen verursachen. Obwohl diese Komplikationen prinzipiell bei allen Systemen auftreten können, sind deutliche Unterschiede zwischen den verschiedenen Kreislaufpumpen vorhanden. So zeichnet sich z. B. das Heartmate I (implantierbares linksventrikuläres Assist Devices) durch eine sehr niedrige Thromboembolierate von 6–8% aus, obwohl nur eine vergleichsweise milde Antikoagulation mit 100 mg Aspirin täglich erforderlich ist. Bei den anderen Systemen stellen thromboembolische Komplikationen auf der einen Seite und Blutungen aufgrund der starken Antikoagulation auf der anderen Seite die wichtigsten Komplikationen dar (Goldstein 2000).
plantation zugeführt werden (Holman et al. 1999). Eine lebensbedrohliche, aber sehr seltene Komplikation stellt die sog. »Device-Endokarditis« dar, bei der eine bakterielle Besiedelung der inneren Oberfläche des Assist-Systems eingetreten ist. Die Behandlung besteht in hochdosierter Antibiose sowie Transplantation nach Rückbildung des septischen Krankheitsbildes.
Funktionsstörungen der Assist-Systeme Insbesondere bei längerer Unterstützungsdauer muss mit Verschleißerscheinungen und Defekten gerechnet werden, die im Einzelfall bis zum Totalausfall des Assist Devices reichen können (Pasque et al. 2002). Zu den häufigsten Komplikationen zählen Ermüdungsbrüche der Kabel innerhalb der Driveline und Einrisse an den Kunststoffprothesen, durch die das Assist Device mit dem nativen Herzen und den großen Gefäßen verbunden ist. Bei großen und schweren Pumpen kann es im Laufe der Zeit zu Knickbildungen kommen, die zu Funktionsstörungen und zum Einreißen der Kunststoffprothesen führen können. Einige implantierbare pulsatile Blutpumpen, wie das HeartMate VE und das Novacor, arbeiten mit biologischen Herzklappen, die als Ein- und Auslassventile funktionieren. Aufgrund der unphysiologischen Belastungen (hohe Drücke, hohe Flussbeschleunigung) kann beim HeartMate-VE ein rascher Verschleiß an diesen Klappen beobachtet werden. Weiterhin ist bei diesem System in mehreren Fällen auch ein erheblicher Abrieb des Motors aufgrund der Dauerbelastung festgestellt worden (Rose et al. 2001). Eine längere Unterstützungsdauer von über einem Jahr ist deshalb mit dem HeartMate nur bei einem geringen Teil der Patienten möglich.
Bildung von HLA-Antikörpern Infektionen Infektionen entwickeln sich v. a. bei implantierten Systemen entlang der »Driveline«, einer Kabelverbindung, die die implantierte Pumpe mit der Batterie und der Steuereinheit, dem »Controller«, verbindet. Tägliche sterile Verbandswechsel, lokale Antiseptika sowie spezielle Verbandstechniken, bei denen eine Minimierung der Scherkräfte an der Austrittstelle durch die Haut erzielt wird, sind Maßnahmen, die durchgeführt werden, um diese Infektionsrate gering zu halten. Oberflächliche Infektionen lassen sich lokal oder mit Antibiotika meist gut behandeln, wenn jedoch die Aggregattasche infiziert ist, kann eine dauerhafte Sanierung nicht mehr erwartet werden. Unter hochdosierter und dauerhafter Antibiotikagabe in Kombination mit chirurgischen Maßnahmen können zwar septische Komplikationen verhindert werden, die Patienten müssen aber dennoch einer baldigen Trans-
Bei Patienten mit implantierbaren linksventrikulären Assist Devices ist eine gehäufte Bildung von HLA-Antikörpern nachgewiesen. Hierfür sind mehrere Ursachen verantwortlich. Der Einsatz implantierbarer Systeme ist häufig mit der Substitution von Blutbestandteilen verbunden. Insbesondere die Anzahl der verabreichten Thrombozytenkonzentrate korreliert mit der HLA-Sensibilisierung (Massad et al. 1997). Eine andere Ursache ist die Wechselwirkung der Kunststoffoberflächen mit den immunologischen Komponenten des Blutes, die zu einer Funktionsstörung der T-Lymphozyten und einer Überfunktion der B-Zellen führen kann (Itescu et al. 2000). Die HLA-Antikörper-Titer erreichen 2–4 Monate nach Implantation eines Assist Devices ein Maximum und gehen danach wieder kontinuierlich zurück. Im Fall einer Herztransplantation kann die HLA-Sensibilisierung zur lebensbedrohlichen humoralen Abstoßung führen. Um die HLA-Antikörper-Titer zu senken, wird eine Be-
573 31.4 · Systembeschreibungen
handlung mit Immunglobulinen und Cyclophosphamid schon vor der Transplantation empfohlen (John et al. 1999). Eine Akutbehandlung ist darüber hinaus mit Plasmapherese möglich.
31.4
Systembeschreibungen
31.4.1 Pulsatile linksventrikuläre Assist Device
HeartMate VE (Thoratec Corporation, Pleasanton, CA, USA) Das HeartMate I (⊡ Abb. 31.1, auch 4-Farbteil am Buchende) ist das weltweit am häufigsten implantierte System (insgesamt über 4000 Implantationen). Die Pumpe wird präperitoneal unter die eröffnete Rektusscheide oder auch intraperitoneal implantiert und transportiert das Blut vom linken Ventrikel in die Aorta ascendens, wodurch das linke Herz komplett entlastet wird. Das gesamte Implantat wiegt 1190 g. Der Antrieb erfolgt mit einem
integrierten Elektromotor, dessen Drehbewegung in eine Vorschub- und Rückwärtsbewegung umgewandelt und auf eine Druckplatte (»pusher plate«) übertragen wird. Biologische Klappen dienen als Ein- und Auslassventile. Die Pumpe kann einen pulsatilen Fluss von bis zu 11 l/min erzeugen. Der Betrieb kann mit einer fest eingestellten Frequenz oder aber in einem »Auto-Modus« erfolgen, was eine gute Leistungsanpassung ermöglicht. Dabei erfolgt der Auswurf, sobald sich die Pumpkammer mit Blut gefüllt hat. Das Innere des Gerätes ist mit einer grobporigen Titanoberfläche ausgekleidet, wodurch das Einwachsen einer festen Neointima ermöglicht wird. Aufgrund dieser Beschichtung sind thromboembolische Komplikationen selten, und es genügt eine Antikoagulation mit 100 mg Aspirin täglich. Über eine Driveline, die im rechten Oberbauch aus einem subkutanen Tunnel ausgeleitet wird, ist die Pumpe mit der Kontrolleinheit und zwei Batterien verbunden. Der Patient kann somit ambulant betreut werden und an den meisten Aktivitäten des täglichen Lebens teilnehmen. In einer randomisierten Studie an Patienten mit terminaler Herzinsuffizienz und Kontraindikationen bei einer Herztransplantation wurde das HeartMate I als Langzeit-Unterstützungssystem eingesetzt. Die Überlebensraten nach 1 bzw. 2 Jahren betrugen bei konservativer Therapie 25 bzw. 8%, bei Patienten mit einem HeartMate 52 und 23%. Auch die Lebensqualität war nach Implantation eines Assist Devices signifikant besser als unter konservativer Therapie (Rose et al. 2001).
Novacor N100PC (WorldHeart Corporation, Ottawa, Ontario, Canada)
⊡ Abb. 31.1. Das HeartMate VE ist das weltweit am meisten implantierte Assist Device. Die granulierte Titanbeschichtung der inneren Oberfläche ermöglicht das Einwachsen von Bindegewebszellen (A) und die Entwicklung einer stabilen Neointima (B). Dadurch besteht nur ein geringes Risiko thromboembolischer Komplikationen, eine Antikoagulation mit 100 mg Aspirin pro Tag ist ausreichend Vorteile: Geringe Thromboembolierate, kein Cumarin erforderlich, hoher pulsatiler Fluss. Nachteile: Häufige Infektionen der Aggregattasche, Verschleiß der biologischen Klappen, Aggregatversagen bei langer Unterstützungsdauer
Dieses Unterstützungssystem (⊡ Abb. 31.2) wird ebenfalls in die Bauchdecke oder intraperitoneal implantiert und kann einen pulsatilen Fluss von bis zu 8 l/min erzeugen. Die Pumpe enthält einen Polyurethansack, der durch eine Federgabel mittels Elektromagneten rhythmisch komprimiert wird. Biologische Klappen dienen als Ein- und Auslassventile. Weltweit sind bisher über 1350 Systeme implantiert worden (Deng et al. 2001; El-Banayosy et al. 1999; Portner et al. 2001). Dabei wurde bei drei Patienten eine Unterstützungsdauer von über vier Jahren erreicht, weshalb das Novacor auch als das technisch zuverlässigste System gilt. Die hohe Rate an thromboembolischen Hirninfarkten konnte nach Einführung einer verbesserten Einflusskanüle von 21 auf 12% gesenkt werden (Portner et al. 2001).
LionHeart LVD-2000 (Arrow International, Reading, PA, USA) Dieses System ist im Gegensatz zum HeartMate oder Novacor vollständig implantierbar und benötigt keine Driveline (Mehta et al. 2001). Damit entfällt das Risiko einer Driveline-Infektion und einer permanenten Wunde.
31
574
Kapitel 31 · VAD-Systeme (Ventricular Assist Devices)
Therapie zu einer Gratwanderung zwischen thromboembolischen Komplikationen einerseits und Blutungen auf der anderen Seite macht.
DeBakeyHeart Diese mit NASA-Technologie entwickelte Blutpumpe erzeugt einen gleichmäßigen, also nicht pulsatilen Blutfluss (DeBakey 1999). Das Prinzip entspricht einer archimedischen Schraube. Im Inneren einer blutdurchströmten Röhre befindet sich ein Metallzylinder mit einem schraubenähnlichen Gewindegang. Außen ist die Röhre von Elektromagneten umgeben, die ein schnell rotierendes elektromagnetisches Feld erzeugen. Diese Rotation wird ohne Antriebswelle auf den Metallzylinder im Inneren der Röhre übertragen, so dass bei einer Drehzahl von 8000– 12.000/min ein Blutfluss von bis zu 6 l/min erzeugt wird. Die Pumpe wird in den Herzbeutel zwischen linker Herzkammer und Aorta ascendens implantiert. Weltweit sind bisher über 100 Pumpen implantiert worden, das System wird auch in mehreren deutschen Kliniken verwendet.
III
Jarvik 2000
⊡ Abb. 31.2. Das Novacor ist ein implantierbares linksventrikuläres Assist Device, welches präperitoneal in die Rektusscheide implantiert wird. Das Blut wird aus dem linken Ventrikel in die Aorta ascendens gepumpt Vorteile: Wenig Infektionen, hohe mechanische Zuverlässigkeit Nachteile: gehäuft Thromboembolien, Cumarin und ThrombozytenAggregationshemmer erforderlich
Die Energieübertragung erfolgt perkutan mittels elektromagnetischer Induktion. Auch hier muss der Patient die meiste Zeit eine Batterie tragen, da die Betriebsdauer der implantierten Batterie nur etwa 20 min beträgt. Die Kontrolleinheit ist ebenfalls implantiert und kann telemetrisch umprogrammiert werden. Das Gesamtgewicht der Implantate beträgt 1300 g. Weltweit sind bisher etwa 30 Systeme implantiert worden (Milton 2006).
31.4.2 Nicht pulsatile linksventrikuläre Assist
Devices (Axialpumpen) Die neue Generation der Axialpumpen hat sich aufgrund ihrer überragenden technischen Vorteile sehr schnell in der klinischen Praxis etablieren können. Die Pumpen sind klein und leicht (Gewicht ca. 100 g) und können daher in den Herzbeutel implantiert werden. Bei geringem Strombedarf werden 6–9 l Blut/min vom linken Ventrikel in die Aorta gepumpt. Nachteil bei diesen Pumpen ist die Notwendigkeit einer intensiven Antikoagulation, was die
Die von Robert Jarvik entwickelte Axialpumpe wiegt nur 85 g und wird direkt in die Spitze des linken Ventrikels implantiert (Siegenthaler et al. 2002). Das Jarvik 2000 (⊡ Abb. 31.3) erzeugt einen nicht pulsatilen Blutfluss von bis zu 6 l/min bei einer Leistungsaufnahme von 5 Watt. Vom linken Ventrikel wird das Blut in die Aorta descendens gepumpt. Der operative Zugang erfolgt bei diesem System nicht wie bei den meisten anderen Assist Devices über eine mediane Sternotomie, sondern über eine linkslaterale Thorakotomie. Die Driveline wird intrathorakal bis zur linken Pleurakuppel geführt und über dem linken Schulterblatt dorsal ausgeleitet. Durch einen subkutanen Tunnel wird das Antriebskabel bis hinter das linke Ohr geführt. Dort wird das Kabel mit einem Titanstecker verbunden, der im Schädelknochen verschraubt ist. Über diesen Titanstecker erfolgt die Verbindung zu Batterie und Controller. Der Titanstecker hat sich über viele Jahre als Energieübertragung für kochleare Implantate bewährt und hat den großen Vorteil, dass es nur sehr selten zu Driveline-Infektionen kommt. Die Patienten können mit dem Jarvik 2000 duschen und Haare waschen. Batterien und Controller wiegen nur etwa 1000 g bei einer Betriebsdauer von etwa acht Stunden. Das ermöglicht eine gute Mobilität der Patienten und einen Gewinn an Lebensqualität. Die hohe technische Zuverlässigkeit des Systems lässt eine langfristige oder sogar permanente Kreislaufunterstützung möglich erscheinen (Frazier et al. 2001; Westaby et al. 2000; Siegenthaler et al. 2002). Insgesamt wurden bisher über 50 Pumpen implantiert. In Freiburg als einzigem deutschem Zentrum sind sieben Patienten mit einem Jarvik 2000 versorgt worden.
575 31.4 · Systembeschreibungen
pirin/Clopidogrel) ist erforderlich. Aufgrund erster klinischer Erfahrungen besteht aber auch bei diesem System das Risiko von Thromboembolien. Mit diesem System sind bisher insgesamt etwa 15 Patienten, vorwiegend an deutschen Kliniken, behandelt worden.
31.4.3 Biventrikuläre Systeme
Thoratec (Thoratec Corporation, Pleasanton, CA, USA)
⊡ Abb. 31.3. Eine Besonderheit des Jarvik 2000 im Vergleich mit anderen Axialpumpen ist seine intrakardiale Position. Die 100 g schwere Blutpumpe wird über eine Inzision in der Herzspitze in den linken Ventrikel eingebracht. Das Blut wird über eine Dacron-Prothese in die Aorta descendens transportiert. Die Driveline endet an einem Titanstecker, der fest mit dem Schädelknochen verschraubt ist und die einzige Verbindung nach außen darstellt
Incor (BerlinHeart, Berlin Heart AG, Berlin) Diese sehr leistungsfähige Axialpumpe wiegt 200 g und kann bis zu 7 l Blut/min fördern. Aufgrund einer technischen Weiterentwicklung schwebt die rotierende, das Blut transportierende Schraube ohne Welle und Lager im Blutstrom, was die Gefahr thromboembolischer Komplikationen vermindern soll. Eine Antikoagulation mit Cumarin und Thrombozytenaggregationshemmern (As-
Dieses Assist Device ist weltweit eines der am häufigsten implantierten parakorporalen Systeme. Es eignet sich sowohl für eine univentrikuläre als auch für eine biventrikuläre Kreislaufunterstützung. Die Pumpkammern befinden sich außerhalb des Körpers auf der Bauchdecke und sind über Kanülen mit dem Herzen und den großen Gefäßen verbunden. Das Innere der Pumpen ist durch eine bewegliche Membran in eine Kammer für Blut und eine Kammer für Druckluft getrennt. Diese Membran wird durch das rhythmische Einblasen und Absaugen von Druckluft in Bewegung versetzt. Ein- und Ausstrom des Blutes werden über mechanische Herzklappenprothesen geregelt. Für die linksventrikuläre Unterstützung wird die Pumpe zwischen linker Herzkammer und Aorta ascendens platziert. Rechtsventrikuläre Unterstützungssysteme pumpen das Blut vom linken Vorhof/Ventrikel in die A. pulmonalis. Das Thoratec kann auch als biventrikuläres System an einen batteriebetriebenen pneumatischen Antrieb angeschlossen werden, sodass eine Mobilisation der Patienten möglich ist. Wegen der mechanischen Herzklappenprothesen ist eine Antikoagulation mit Cumarin erforderlich. Seit kurzem ist auch ein neues Modell mit implantierbaren Pumpkammern für die biventrikuläre Unterstützung verfügbar (Reichenbach et al. 2001). Bei biventrikulärer Unterstützung von 50 Patienten über eine mittlere Dauer von 55±46 Tagen betrug die Überlebensrate bis zur Transplantation 58% (El-Banayosi et al. 2000). Haupttodesursachen waren Multiorganversagen und Sepsis.
Weitere Biventrikuläre Systeme Das BerlinHeart wird seit über 20 Jahren v. a. im Deutschen Herzzentrum Berlin erfolgreich zur Überbrückung bis zur Herztransplantation eingesetzt. Auch dieses System hat einen pneumatischen Antrieb (Drews et al. 2000). Das MEDOS-HIA (⊡ Abb. 31.4, auch 4-Farbteil am Buchende) wurde vom Helmholtz-Institut in Aachen entwickelt und besteht aus einer vollständig transparenten Polyurethankammer mit einer ebenfalls transparenten Membran (Thuaudet 2000). Es sind insgesamt 3 Pumpengrößen vorhanden, u. a. auch eine Pumpe mit einem Füllungsvolumen von 10 ml. Das System wird deshalb auch relativ häufig in der Kinderherzchirurgie eingesetzt. Ein transportabler Antrieb soll demnächst klinisch ver-
31
576
Kapitel 31 · VAD-Systeme (Ventricular Assist Devices)
fügbar sein. Weltweit wurden bisher ca. 500 Patienten mit einem MEDOS versorgt. Das Abiomed (ABIOMED Inc, Danvers, MA, USA) ist ein pneumatisches Assist Device für die Kurzzeitunterstützung, das seit vielen Jahren v. a. in den USA eingesetzt wird und das weltweit am häufigsten implantierte parakorporale Assist Device darstellt.
III
31.4.4 Kathetergestützte Systeme
Intraaortale Ballonpumpe (verschiedene Hersteller) Die intraaortale Ballonpumpe (IABP) stellt die einfachste und häufigste Form der mechanischen Herz- KreislaufUnterstützung und kann etwa 15% der Pumpleistung des Herzens übernehmen. Hierbei wird ein Ballonkatheter über die Leistengefäße eingeführt und in der throakalen Aorta platziert. In der Füllungsphase (Diastole) des Her-
zens wird der Ballon mit Helium gefüllt, während in der folgenden Kontraktionsphase (Systole) der Ballon wieder entleert wird. Durch die diastolische Augmentation kommt es zu einer verbesserten Perfusion der Herzkranzgefäße in Kombination mit einer Nachlastsenkung, die zu einer weiteren Entlastung des Herzmuskels beiträgt. Der wesentliche Effekt dieser Therapie beruht.auf diesen Mechanismen, die Pumpleistung der IABP ist bei dieser Therapieform nur von untergeordneter Bedeutung. Die Behandlung mit einer IABP kann bis zu 14 Tage dauern. Sie ist vergleichsweise einfach in der Anwendung und ein kostengünstiges Verfahren zur Kreislaufunterstützung nach Herzoperationen oder akutem Myokardinfarkt. Seit der klinischen Einführung der IABP im Jahr 1967 wird eine steigende Anzahl von – meist akut – herzinsuffizienten Patienten mit diesem Therapieverfahren versorgt. Aktuell werden etwa 100.000 intraaortale Ballonpumpen pro Jahr implantiert (Mehlhorn 2001).
Impella Linksherzunterstützung Recover® LP 2.5 (Impella Cardiosystems GmbH, Aachen) Mikroaxialpumpen sind miniaturisierte Axialpumpen, die in die Spitze eines 9-French-Katheters integriert werden können (Meyns B et al. 2002). Diese Pumpen können über eine Gefäßprothese retrograd in die Aorta ascendens eingebracht und bis in die linke Herzkammer vorgeschoben werden. Mikroaxialpumpen ermöglichen einen Blutfluss von über 4 l/min bei einer Drehzahl von über 20.000/min bei nur moderater Hämolyse. Mit diesen Systemen können Patienten mit Pumpversagen nach akutem Infarkt oder nach einer Hochrisiko-Herzoperation 10–14 Tage unterstützt werden, bis sich das eigene Herz wieder erholt hat. Insgesamt sind etwa 100 Patienten mit dieser Mikroaxialpumpe behandelt worden, die meisten davon in Deutschland.
31.4.5 Total Artificial Heart (TAH)
⊡ Abb. 31.4. Schematische Darstellung einer biventrikulären Unterstützung MEDOS HIA. Das linksventrikuläre Device pumpt Blut vom linken Vorhof in die Aorta ascendens. Alternativ ist auch eine Kanülierung der linken Ventrikelspitze anstelle des linken Vorhofes möglich. Die rechtsventrikuläre Pumpe transportiert Blut vom rechten Vorhof in die A. pulmonalis. A: Die Pumpkammern und die Klappen sind vollständig aus Polyurethan gearbeitet, was die Erkennung von Thromben erleichtert. (Quelle: Medos Medizintechnik AG, Stolberg)
Bei diesen »Kunstherzen« im engeren Sinne wird das Herz des Patienten entfernt und eine biventrikuläre Pumpe in den Perikardraum implantiert. Nachteile dieser Systeme sind chirurgisch-technische Probleme und relativ häufige Blutungskomplikationen sowie die Tatsache, dass ein Stillstand der Pumpe von einem unmittelbaren Kreislaufstillstand begleitet wird, während bei anderen biventrikulären Assist-Systemen meist die eigene Herzleistung für ein kurzfristiges Überleben ausreicht. Seit der Erstimplantation eines Jarvik 7 im Jahr 1982 haben die TAH deshalb auch nur eine begrenzte Verbreitung erfahren (Cooley 1982). Die meisten klinischen Erfahrungen liegen mit dem CardioWest® (CardioWest Technologies, Inc, Tucson, Arizona, USA) vor (Copeland et al. 1996 und Copeland et al. 2001). Dieses System hat einen pneumatischen
577 31.6 · Ökonomische Aspekte
Antrieb, der über zwei Schläuche mit den implantierten Kunstherzventrikeln verbunden ist. Erfahrene Anwender sehen die Indikation für ein TAH als Überbrückung zur Herztransplantation bei biventrikulärem Versagen und einer Körperoberfläche über 1,7 m2. Hier soll das TAH extrakorporalen Systemen überlegen sein, weil es eine bessere venöse Drainage des großen Kreislaufs ermöglicht und somit bessere Voraussetzungen für die Erholung der Leber- und Nierenfunktion schafft, was von entscheidender Bedeutung für das Überleben bei beginnendem Multiorganversagen ist (Copeland et al. 2001). Das AbioCor (ABIOMED Inc, Danvers, MA, USA, ⊡ Abb. 31.5) ist ein elektrohydraulisch angetriebenes, vollständig implantierbares TAH. Wie beim LionHeart (s. oben) wird die Energie aus einer transportablen Batterie über elektromagnetische Induktion ohne Antriebskabel in das Körperinnere übertragen. Derzeit wurden im Rahmen einer klinischen Studie in den USA 9 Patienten mit diesem System versorgt, die Genehmigung für eine klinische Studie in Deutschland liegt vor.
31.5
Nachbehandlung nach Implantation eines Assist Devices
In der Frühphase richten sich die Bemühungen v. a. auf die Vermeidung von Blutungskomplikationen. Bei den meisten Systemen muss aber nach 24–48 Stunden mit der Antikoagulation begonnen werden, um thromboembolische Komplikationen zu vermeiden. Bei hochdosierter Thrombozytenaggregation, wie sie insbesondere bei den Axialpumpen und beim Novacor angestrebt wird, sind regelmäßige Funktionstests der Blutplättchen erforderlich, die nur von wenigen, spezialisierten Laboren durchgeführt werden (Koster et al. 2000). Patienten mit implantierbaren Systemen können während der Wartezeit auf ein Spenderherz meist ambulant betreut werden (El-Banayosy et al. 2001; Holman 2002) und in häuslicher Umgebung an den meisten Aktivitäten des täglichen Lebens teilnehmen, womit eine deutliche Verbesserung der Lebensqualität erreicht ist. Die Patienten und deren Angehörige erlernen zuvor den Umgang mit dem Assist-System wie das Wechseln und Aufladen der Batterien, einfache Wartungsarbeiten (Filterwechsel) und das Verbinden der Driveline. Bei Gabe von Marcumar ist auch das Erlernen und die regelmäßige Durchführung eines Selbsttests zur Bestimmung der INR ein wichtiger Bestandteil in der Nachversorgung von Assist Device Patienten. Von großer Bedeutung ist in diesem Zusammenhang auch die begleitende Betreuung der Patienten durch speziell geschulte Psychologen. Eine stabile psychische Verfassung ist eine wichtige Voraussetzung für eine erfolgreiche Therapie mit einem Herzunterstützungssystem sowie die angestrebte Herztransplantation.
31.6
Ökonomische Aspekte
Die Kosten für Assist-Systeme sind vor dem Hintergrund der Gesamtkosten für die Behandlung der Herzinsuffizienz zu sehen. In den USA betragen diese Ausgaben 5,4% des gesamten nationalen Gesundheitshaushaltes, in Großbritannien sind es 1,1% (Beyersdorf 2001). In Deutschland sind Kunstherzsysteme im Rahmen einer Herzinsuffizienztherapie im DRG-System (Diagnostic Related Groups) repräsentiert und werden als Zusatzentgelte von den Krankenkassen erstattet. Wiederverwendbare Komponenten wie Antriebskonsolen und Ladestationen für die Batterien können gekauft oder gemietet werden, für die jeweiligen Implantationssets berechnen die Hersteller separate Kosten, die ebenfalls je nach Marksituation und Zentrum variieren. Ein Implantationsset für ein HeartMate XVE kostet etwa 74.000 €, für ein Novacor 70.000 €. Ein Kunstherzventrikel eines Thoratec wird mit 25.000 € verrechnet, ein Medos-Ventrikel mit 11.000 €. Die Finanzierung von Systemen, die nur im Rahmen klinischer Studien eingesetzt werden dürfen (z. B. Jarvik 2000 oder Incor), wird entweder vom Hersteller übernommen oder erfolgt über gesonderte Budgets der implantierenden Zentren. Trotz der hohen Kosten besteht in Deutschland derzeit für alle Patienten die Möglichkeit, ein Assist Device zu erhalten, wenn die medizinische Indikation gegeben ist.
⊡ Abb. 31.5. Das AbioCor ist weitgehend transparent, da alle blutführenden Komponenten aus Polyurethan bestehen. Größe und Form des Devices wurden dem natürlichen Herzen angenähert, sodass dieses Total Artificial Heart nach Explantation des kranken Herzens in den Herzbeutel implantiert werden kann
31
578
Kapitel 31 · VAD-Systeme (Ventricular Assist Devices)
31.7
III
Schlussfolgerung
Die verfügbaren Assist Devices gestatten heute eine zuverlässige Kreislaufunterstützung mit vertretbarem Risko bei fast allen Formen der terminalen Herzinsuffizienz. Die Auswahl der Systeme richtet sich nach der Indikation und dem klinischen Zustand der Patienten. Besondere Sorgfalt erfordert die postoperative Betreuung, um lebensbedrohliche Komplikationen zu vermeiden. Hauptziel ist derzeit die Überbrückung bis zur Herztransplantation, aufgrund der technischen Weiterentwicklung könnten aber die Assist Devices schon bald eine Alternative zur Herztransplantation darstellen.
Literatur Beyersdorf F (2001) Economics of ventricular assist devices: European view. Ann Thorac Surg 71: 192–194 Cooley DA (1982) Staged cardiac transplantation: a report of three cases. J Heart Transplant 1: 145–153 Copeland JG, Pavie A, Duveau D, Keon WJ, Masters R, Pifarre R, Smith RG, Arabia FA (1996) Bridge to transplantation with the CardioWest total artificial heart: the international experience 19931995. J Heart Lung Transplant 15: 94–99 Copeland JG, Smith RG, Arabia FA, Nolan PE, Mehta VK, McCarthy MS, Chisholm KA (2001) Comparison of the CardioWest total artificial heart, the Novacor left ventricular assist system and the thoratec ventricular assist system in bridge to transplantation. Ann Thorac Surg 71: 92–97 DeBakey ME (1999) A miniature implantable axial flow ventricular assist device. Ann Thorac Surg 68: 637–640 Deng MC, Loebe M, El-Banayosy A, Gronda E, Jansen PGM, Vigano M, Wieselthaler GM, Reichart B, Vitali E, Pavie A, Mesana T, Loisance DY, Wheeldon DR, Portner PM (2001) Mechanical circulatory support for advanced heart failure. Effect of patient selection on outcome. Circulation 103: 231–237 Drews T, Loebe M, Hennig E, Kaufmann F, Muller J, Hetzer R (2000) The ‘Berlin Heart’ assist device. Perfusion 15: 387-396 El-Banayosi A, Arusoglu L, Kizner L, Tenderich G, Boethig D, Minami K, Körfer R (2000) Predictors of survival in patients bridged to transplantation with the thoratec VAD device: a single-center retrospective study on more than 100 patients. J Heart Lung Transplant 19: 964–968 El-Banayosy A, Deng M, Loisance DY, Vetter H, Granda E, Loebe M, Vigano M (1999) The European experience of Novacor left ventricular assist (LVAS) therapy as a bridge to transplant: a retrospective multi-centre study. Eur J Cardiothorac Surg 15: 835–841 El-Banayosy A, Fey O, Sarnowski P, Arusoglu L, Boethig D, Milting K, Morshuis M, Körfer R (2001) Midterm follow-up of patients discharged from hospital under left ventricular assistance. J Heart Lung Transplant 20: 53–58 Frazier OH, Rose EA, Oz MC, Dembitsky W, McCarthy P, Radovancevic B (2001) Multicenter clinical evaluation of the HeartMate vented electric left ventricular assist system in patients awaiting heart transplantation. J Thorac Cardiovasc Surg 122: 1186– 1195 Goldstein DJ (2000) Thermo cardiosystems ventricular assist devices. In: Goldstein DJ, Oz MC (eds). Cardiac assist devices. Futura Publishing Co, Inc, Armonk, NY 307–321 Holman WL, Davies JE, Rayburn BK, McGiffin DC, Foley BA, Benza RL, Bourge RC, Blood P, Kirklin JK (2002) Treatment of end stage heart
disease with outpatient ventzricular assist devices. Ann Thorac Surg 73: 1489–1493 Holman WL, Skinner JL, Waites KB, Benza RL, McGiffin MD, Kirklin JK (1999) Infection during circulatory support with ventricular assist devices. Ann Thorac Surg 68: 711–716 Homepage Milton S (2006) Hershey Medical Center, Penn State University (www.hmc.psu.edu/lionheart/faqs) Itescu S, Ankersmit JH, Kocher AA, Schuster MD (2000) Immunbiology of left ventricular assist devices. Prog Cardiovasc Dis 43: 67–80 John R, Lietz K, Burke E, Ankersmit J, Mancini D, Suciu-Foca N, Edwards N, Rose E, Oz M, Itescu S (1999) Intravenous immunoglobulin reduces anti-HLA alloreactivity and shortens waiting time to cardiac transplantation in highly sensitized left ventricular assist device recipients. Circulation 100 (Suppl2): 229–235 Koster A, Loebe M, Hansen R, Potapov EV, Noon GPO, Kuppe H, Hetzer R (2000) Alterations in coagulation after implantation of a pulsatile Novacor LVAD and the axial flow MicroMed. DeBakey LVAD. Ann Thorac Surg 70: 533–537 Massad MG, Cook DJ, Schmitt SK, Smedira NG, McCarthy JF, Vargo RL, McCarthy PM (1997) Factors influencing HLA sensitation in implantable LVAD recipients. Ann Thorac Surg 64: 1120–1125 Mehlhorn U, de Vivie ER (2001) Mechanische Herzunterstützung mit der intraaortalen Ballonpumpe. Dt Ärztebl 2001; 98: A 2653–2658 Mehta SM, Pae WE, Rosenberg G, Snyder AJ, Weiss WJ, Lewis JP. et al. (2001) The LionHeart LVD-2000: A completely implanted left ventricular asasist device for chronic circulatory support. Ann Thorac Surg 71: 156–161 Meyns B, Autschbach R, Boning A, Konertz W, Matschke K, Schondube F, Wiebe K, Fischer E (2002) Coronary artery bypass grafting supported with intracardiac microaxial pumps versus normothermic cardiopulmonary bypass: a prospective randomized trial. Eur J Cardiothorac Surg 22: 112–117 Ochiai Y, McCarthy P, Smedira NG, Banbury MK, Navia JL, Feng J, Hsu AP, Yeager ML. et al. (2002) Predictors of severe right ventricular failure after implantable left ventricular assist device insertion: analysis of 245 patients. Circulation 106 (Suppl 1): 198–202 Oz MC, Argenziano M, Catanese KA, Gardocki MT, Goldstein DJ, Ashtom RC, Gelijins AC, Rose EA, Levin HR (1997) Bridge experience with long-term implantable left ventricular assist devices. Circulation 95: 1844–1852 Oz MC, Goldstein DJ, Pepino P, Weinberg AD, Thompson SM, Catanese K, Vargo RL, McCarthy PM, Rose EA, Levin HR (1995) Screening scale predicts patients successfully receiving long-term implantable left ventricular assist devices. Circulation 92: 169–173 Pasque MK, Rogers JG (2002) Adverse events in the use of HeartMate vented electric and Novacor left ventricular assist devices: Comparing apples and oranges. J Thorac Cardiovasc Surg 124: 1063– 1067 Portner PM, Jansen PGM, Oyer PM, Wheeldon DR, Ramasamy N (2001) Improved outcomes with an implantable left ventricular assist system: a multicenter study. Ann Thorac Surg 71: 205–209 Reichenbach SH, Farrar DJ, Hill JD (2001) A versatile intracorporeal ventricular assist device based on the Thoratec VAD-system. Ann Thorac Surg 71: 171–175 Rose EA, Gelijns AC, Moskowitz AJ, Heitjan D, Stevenson LW, Dembitsky W, Long JW, Ascheim DD (2001) Long-term use of a left ventricular assist device for end-stage heart failure. N Engl J Med 345: 1435–1443 Siegenthaler MP, MartinJ, van de Loo A, Doenst T, Bothe W, Beyersdorf F (2002) Implantation of the permanent Jarvik-2000 left ventricular assist device: a single-center experience. J Am Coll Cardiol 39: 1764–1772 Thuaudet S (2000) The Medos ventricular assist device system. Perfusion 15: 337–343 Westaby S, Banning AP, Jarvik R et al. (2000) First permanent implant of the Jarvik 2000 Heart. Lancet 356: 900–903
32 Herzschrittmachersysteme A. Bolz
32.3.4 32.3.5 32.3.6 32.3.7 32.3.8
32.1 Aufbau eines Schrittmachersystems – 580 32.1.1 Das Programmiergerät – 580 32.1.2 Der Schrittmacher – 581 32.1.3 Die Schrittmacherelektrode – 581
Frequenzadaptive Schrittmacher – 591 Antitachykarde Schrittmacher – 592 Biatriale Stimulationssysteme – 592 Biventrikuläre Stimulationssysteme – 592 Auswahlkriterien – 593
Literatur
32.2 Die Funktionalität eines Herzschrittmachers – 583
– 594
32.2.1 Die Wahrnehmungsfunktion – 583 32.2.2 Die Stimulationsfunktion – 584
32.3 Stimulationsmodi
– 586
32.3.1 Internationaler (NBG-) Schrittmachercode 32.3.2 VVI-Schrittmacher – 587 32.3.3 Zweikammer-Schrittmacher – 588
– 587
Pathologische Veränderungen der Erregungsbildung bzw. -leitung innerhalb des Herzens werden in bradykarde (verlangsamende) und tachykarde (beschleunigende) Krankheitsbilder unterteilt. Liegen bradykarde Veränderungen vor, so ist in aller Regel das Herzzeitvolumen zu gering, sodass der Patient unter Schwindelanfällen, geringer körperlicher Belastbarkeit und sogar Bewusstseinsstörungen leidet. In diesen Fällen eröffnet die Herzschrittmachertherapie die Möglichkeit, den Sinusrhythmus wiederherzustellen und so die Symptome zu lindern oder gar zu beseitigen. Die Idee, das Herz elektrisch zu stimulieren, geht auf Burns und Aldini (einen Neffen Galvanis) Anfang des letzten Jahrhunderts zurück. Aber erst Hyman baute 1927 den ersten funktionsfähigen externen Schrittmacher, einen von einem Uhrwerk betriebenen kleinen, elektrischen Generator. 1948 erfanden Shockley, Bardeen und Brattain den Transistor und ermöglichten damit eine erhebliche Verkleinerung elektrischer Schalteinheiten, die auch den Schrittmacherbau vorantrieben. Den ersten implantierbaren Schrittmacher setzte 1958 der schwedische Arzt Elmquist ein. Dieses Gerät bestand noch aus 20 diskreten Bauteilen und hatte ein Gewicht von ca. 180 g. Heutige Schrittmacher besitzen bei etwa 60 g die Funktionalität eines Kleinrechners. Die Schrittmachertherapie basiert auf der Abgabe von Strompulsen, die zu einer künstlichen Depolarisation einiger Herzzellen führen und so über das Reizleitungssystem sowie über die »Gap junctions« – interzelluläre Ionenverbindungskanäle, die der direkten Erregungsübertragung von Zelle zu Zelle dienen – eine vollständige Kontraktion
des Herzens auslösen. Aufgrund dieses Triggereffektes von künstlichen Impulsen wird hierbei auch vom »Allesoder-Nichts-Gesetz« gesprochen. Prinzipiell lassen sich die Strompulse über vier verschiedene Wege applizieren: Transkutane Stimulation. In seltenen Fällen wird das
Herz über extern aufgeklebte Elektroden stimuliert. Prinzipiell ist dies zwar möglich, aufgrund des großen Abstandes zum Herzen ist dieser Weg jedoch ineffektiv, sodass hohe Stromstärken erforderlich sind, die wiederum unerwünschte Kontraktionen der Skelettmuskeln auslösen. Sinnvoll ist die externe Stimulation daher nur in Notfällen, z. B. bei Verwendung eines externen Defibrillators. Ösophagus-Stimulation. Ein minimalinvasives Verfahren
stellt die Ösophagus-Stimulation dar. Hierbei wird ein Katheter über den Mund oder die Nase in die Speiseröhre so weit vorgeschoben, dass die Elektroden in der Nähe des Herzvorhofs zu liegen kommen. Dieser Zugang wird vorwiegend für diagnostische Zwecke genutzt, da die atriale Lage eine bessere Differenzierung von Vorhof- und Kammeraktionen ermöglicht. Die Stimulation innerhalb der Speiseröhre verursacht jedoch Schmerz-empfindungen, sodass die Ösophagus-Stimulation keine wesentliche Verbreitung fand. Passagere intrakardiale Stimulation. In vielen Fällen liegt
die Bradykardie nur vorübergehend vor, sodass eine temporäre Therapie ausreicht (im allg. Sprachgebrauch wird dies als passagere Stimulation bezeichnet). Sie ist z. B. indiziert bei:
580
Kapitel 32 · Herzschrittmachersysteme
▬ Asystolien oder extremen Kammerbradykardien bei
▬ ▬ ▬ ▬
III
akuten sinuatrialen (SA) und atrioventrikulären (AV) Blöcken; Akuten Überleitungsstörungen bei frischem Vorderwandinfarkt; Komplizierten Schrittmacherwechseln; Als Prophylaxe bei Operationen am Herzen; Akuten Vergiftungen, vor allem mit Medikamenten, z. B. Digitalis oder Antiarrhytmika.
In diesen Fällen wird ein Katheter über einen venösen Zugang ins rechte Herz geschoben. Alternativ werden auch sog. Herzdrähte (flexible, isolierte Drähte mit jeweils einer Nadel an beiden Enden) durch die Brustwand hindurch im Herzen fixiert. Dies eignet sich insbesondere bei Operationen am offenen Herzen, da der Zugang dann ohnehin vorliegt. Die Pulsgenerierung erfolgt jeweils über einen externen Stimulator. Intrakardiale Stimulation mit Hilfe von Implantaten. Be-
sonders häufig ist jedoch eine permanente Stimulation bis ans Lebensende, z. B. bei: ▬ Erheblichen Störungen des Erregungsleitungssystems, wie sinuatriale (SA-) oder atrioventrikuläre (AV-) Blöcke 2. und 3. Grades oder fascikuläre Blöcke; ▬ Bradykardien und Arrhythmien nach Herzinfarkt; ▬ Krankem Sinusknoten (Sick-Sinus-Syndrom); ▬ Carotis-Sinus-Syndrom (dieses Krankheitsbild zeichnet sich durch eine Überempfindlichkeit der Pressorezeptoren im Carotis-Sinus aus, sodass z. B. durch Drehen des Kopfes eine akute Einschränkung der Herztätigkeit bewirkt wird). Technisch gesehen sind alle Wege sehr ähnlich. Klinisch ist jedoch die Anwendung von Implantaten von besonderer Bedeutung, sodass im Folgenden ausschließlich die Implantattechnik diskutiert werden soll.
⊡ Abb. 32.1. Aufbau eines Schrittmachersystems
32.1
Aufbau eines Schrittmachersystems
Ein Schrittmachersystem besteht aus einem externen Programmiergerät, dem eigentlichen Herzschrittmacher, der die Batterie und die elektronischen Elemente enthält, sowie der Schrittmacherelektrode (⊡ Abb. 32.1). Die Elektrode wird fast ausschließlich über einen venösen Zugang (z. B. die Vena Cava sup.) unterhalb des Schlüsselbeins in die rechte Herzhälfte vorgeschoben und dort verankert. Anschließend wird der Schrittmacher angeschlossen und subkutan in einer Hauttasche implantiert.
32.1.1 Das Programmiergerät
Durch Programmieren des Schrittmachers soll eine optimale Systemanpassung an die Bedürfnisse des Patienten erfolgen und die Lebensdauer der Batterie maximiert werden. Bei den heute erreichten langen Laufzeiten ist nicht davon auszugehen, dass die Bedingungen am Implantationstag über die gesamte Schrittmacherlebensdauer hinweg konstant bleiben. Es ist daher nötig, den Schrittmacher an wechselnde Bedingungen anpassen zu können. Zur Programmierung werden externe Geräte verwendet, die i. d. R. auf einer PC-Plattform basieren und eine herstellerabhängige kurzreichweitige Telemetrieeinrichtung betreiben. Diese meist auf einer induktiven Nahfeldkopplung im Bereich unter 100 kHz basierende Datenübertragung ermöglicht das Abfragen bzw. Neuprogrammieren des Implantates. Dazu wird zunächst der Programmierkopf auf der Haut über dem Schrittmachergehäuse platziert. Daraufhin werden die aktuellen Schrittmacherparameter sowie diagnostische Werte (Marker, Ereignishistogramme, EKG etc.) nach außen übertragen und ausgewertet. Abschließend werden die aktualisierten Parameter in das Implantat zurückgeladen. Wesentliche programmierbare Parameter sind:
581 32.1 · Aufbau eines Schrittmachersystems
▬ ▬ ▬ ▬ ▬
Stimulationsfrequenz (untere und obere Grenze); Impulsamplitude und –dauer; Eingangsempfindlichkeiten; Refraktärzeiten; Hysterese (Differenz zwischen Interventions- und Stimulationsfrequenz); ▬ AV-Zeit und –Hysterese; ▬ Schrittmachermodus. Die Zahl programmierbarer Parameter ist mittlerweile dreistellig und die optimale Schrittmacherprogrammierung erfordert ein Spezialwissen, das auch für den Kardiologen eine zusätzliche Ausbildung nötig macht. Aus diesem Grund werden zunehmend Automatismen implementiert, die eine Selbstadaption des Implantates vornehmen. Zudem sind webbasierte Expertensysteme angedacht bzw. befinden sich bereits in der Erprobung, die eine ständige Verfügbarkeit des aktuellsten Wissens garantieren sollen. Für weiterführende Informationen muss auf die jeweiligen Handbücher der Schrittmacher sowie entsprechende Spezialliteratur (Alt 1995, Bolz u. Urbaszek 2002, Fischer u. Ritter 1997, Schaldach 1992) verwiesen werden.
32.1.2 Der Schrittmacher
Der Schrittmacher selbst besteht aus einer Batterie, der Elektronik sowie einem hermetisch schließenden TitanGehäuse und einem Epoxydharz-Konnektor zur Aufnahme der Elektroden (⊡ Abb. 32.2). Üblicherweise werden heutzutage Lithiumiodid-Batterien (Leerlaufspannung etwa 2,8 V, Kapazität etwa 1 Ah, Innenwiderstand zwischen einigen 100 Ω und 50 kΩ) als Energiequellen verwendet. Bei diesem Batterietyp besteht die Anode aus Lithium und die Kathode aus Jod. Die Lithiumiodid-Batterie bietet neben ihrer außerordentlich geringen Selbstentladung (< %/Jahr) vor allem auch eine große Stabilität des Innenwiderstandes über die Entladezeit hinweg. Erst gegen Ende der Lebensdauer fällt die Leerlaufspannung rapide ab. Lithiumiodid-Batterien bieten damit größtmögliche Sicherheit bei langer Laufzeit, geringen Abmessungen und geringem Gewicht. Auf diese Weise werden heute Laufzeiten von 5–10 Jahren erreicht (Fischer u. Ritter 1997). Der in den Anfängen der technischen Entwicklung und auch heute noch gelegentlich diskutierte Trend zu Primärzellen, also wiederaufladbaren Akkumulatoren, bietet keinen wesentlichen Vorteil. Der vermeintlichen Lebensdauerverlängerung ist ein deutlicher Anstieg der alterungsbedingten Ausfälle nach etwa 10 Jahren gegenüberzustellen, sodass sich ein Implantatwechsel nach dieser Zeit ohnehin empfiehlt. Die Elektronik ist i. d. R. als Multichipmodul in Hybridbauweise ausgeführt. Die ehemals verwendete Dickfilmtechnik wird aufgrund der zunehmenden Komple-
⊡ Abb. 32.2. Schnittbild eines DDD-Schrittmachers (Quelle Biotronik)
xität der Schaltungen zunehmend durch Mehrlagenkeramiken abgelöst. In neuerer Zeit finden auch ganz neue PCB-Technologien Interesse (z. B. Dycostrate), die dank ihrer Flexibilität eine deutliche Vereinfachung der elektrischen Verbindungstechonologie erlauben und somit die Qualität der Geräte verbessern.
32.1.3 Die Schrittmacherelektrode
Die Schrittmacherelektrode oder Sonde stellt die Verbindung zwischen Schrittmacher und Herz her. Sie besteht aus dem Konnektor, d. h. dem Stecker zum Anschluss an den Schrittmacher, dem Elektrodenleiter und der Elektrodenspitze (⊡ Abb. 32.3). Mit dem IS-1-Standard wurde eine Vereinheitlichung der Konnektorkonfiguration erreicht (Schaldach 1992), sodass sich alle Elektroden neuerer Bauart an beliebige Schrittmacher anschließen lassen. Eine der wesentlichen technischen Herausforderungen stellt die hohe Biegebelastung von etwa 40 Millionen Lastwechseln pro Jahr dar. Aus diesem Grunde werden die Elektrodenleiter heutzutage aus vier gewendelten Einzeldrähten gefertigt, wodurch größtmögliche Sicherheit bei hoher Flexibilität erzielt wird. Durch das Wendeln des Drahtes wird zudem der Biegeradius reduziert, was die Wechsellastbeanspruchung des Zuleitungsmaterials (i. d. R. Edelstahl MP35N) reduziert. Elektrodenbruch stellt daher kein nennenswertes Problem mehr dar. Die neuesten Entwicklungen im Bereich der multifokalen Stimulation ( Abschn. 32.3.6 und 32.3.7) erfordern teilweise sehr dünne Elektroden. In diesen Fällen finden sog. DFT-Seile Anwendung, die aus Spezialdrähten mit einem Mantel aus MP35N und einem Silberkern her-
32
582
III
Kapitel 32 · Herzschrittmachersysteme
gestellt werden. Diese gewährleisten geringe elektrische Widerstände bei gleichzeitiger hoher mechanischer Festigkeit. Besondere Anforderungen werden an das Isolationsmaterial gestellt. Es muss biokompatibel sein und zugleich der mechanischen und chemischen Belastung im Körper standhalten. Derzeit werden Isolationen aus Silikon und Polyurethan verwendet (Fischer u. Ritter 1997, Schaldach 1992). Polyurethan weist zwar einen wesentlich geringeren Reibungskoeffizienten auf, weshalb es insbesondere bei Implantation mehrerer Elektroden über das gleiche Gefäß bevorzugt wird. Die klinischen Erfahrungen zeigen jedoch, dass es bei geringfügigen, in der Produktion kaum kontrollierbaren Verschmutzungen zu einer Hydrolyse und damit einer Alterung bzw. Versprödung neigt, die letzten Endes zu einem lebensgefährlichen Kurzschluss führt. Aus diesem Grund mussten vor wenigen Jahren mehrere 10.000 Elektroden verschiedener Hersteller explantiert bzw. ersetzt werden, weshalb zur Zeit Silikon als Isolationsmaterial bevorzugt wird.
⊡ Abb. 32.3. Schematischer Aufbau einer Schrittmacherelektrode
Ferner werden uni- und bipolare Schrittmacherelektroden unterschieden (⊡ Abb. 32.4). Unipolar bedeutet, dass die Elektrodenspitze als Kathode und das Schrittmachergehäuse (bzw. eine andere großflächige Gegenelektrode) als Anode arbeiten. Wegen der erheblich größeren Oberfläche des Schrittmachers gegenüber der Elektrodenspitze wird das Gehäuse auch als »indifferenter Pol« bezeichnet. Bipolare Sonden arbeiten ebenfalls mit einer kathodischen Spitze. Die Anode ist jedoch zusätzlich im distalen Elektrodenbereich (ca. 2,5 cm von der Spitze entfernt) angeordnet. Bipolare Sonden sind etwas dicker und steifer als unipolare Elektroden, da sie zwei Zuleitungswendeln besitzen. Eine Reparatur bei Elektrodenbruch ist kaum möglich. Wichtige Vorteile der bipolaren Sondentechnik sind die Unempfindlichkeit gegenüber elektrischen Potenzialen, deren Ursprung außerhalb des Implantationsortes der Elektrodenspitze liegt (Potenziale der Skelettmuskulatur, P-Welle bei Ventrikelsonden, R-Zacke bei Vorhofsonden) und das geringere Risiko von Muskelkontraktionen auch bei hoher Energieabgabe (Alt 1995, Fischer u. Ritter 1997). Außerdem heben sich Störungen durch elektromagnetische Einkopplungen in die Zuleitungen auf. Ein verbreiteter Kompromiss ist die Implantation bipolarer Sonden im Herzvorhof (kleineres Potential erfordert eine höhere Empfindlichkeit und die Unterdrückung von Störsignalen) und unipolarer Sonden im Herzkammerbereich. Der Elektrodenkopf steht in direktem Kontakt zum Endokard. Seine Größe, Geometrie und Oberflächenstruktur stellen wesentliche Determinanten der Stimulations- und Detektionseigenschaften dar. Eine poröse bzw.
⊡ Abb. 32.4. Elektrische Feldverteilung und EKG bei uni- und bipolarer Reizung
583 32.2 · Die Funktionalität eines Herzschrittmachers
fraktale Oberfläche hat sich als vorteilhaft erwiesen (Bolz 1994). Die Verankerung des Sondenkopfes wird über verschiedene Fixationssysteme erreicht (⊡ Abb. 32.5a,b). Man unterscheidet Elektroden mit passiver Fixierung (widerhakenähnliche Ankersysteme aus dem Isolationsmaterial der Elektrode) von solchen mit aktiver Fixierung (Schraubsystem am Elektrodenkopf). Erstere werden bevorzugt für die Elektrodenverankerung in der stark gegliederten Oberfläche der rechten Herzkammer (Trabekelstruktur), letztere für die Verankerung im glatteren rechten Herzvorhof angewandt. Einen Zwitter stellen sog. J-Elektroden dar, die dank einer J-förmigen Vorformung der Elektrodenzuleitung für einen stabilen Wandkontakt sorgen. Sie finden vorwiegend im Atrium Anwendung. Für die passagere Schrittmacherstimulation zur Überbrückung von Notfallsituationen werden Sonden ohne Fixationsmechanismus eingesetzt, die sich problemlos wieder entfernen lassen. Alle beschriebenen Elektroden werden transvenös zum rechten Herzen geführt. Sie stimulieren die Herzinnenseite und werden daher als endokardiale Elektroden bezeichnet. Epikardiale Elektroden, die außen auf dem Herzen angebracht werden, sind für die permanente Schrittmachertherapie nicht mehr von Bedeutung. Sie spielen allenfalls für pädiatrische Anwendungen noch eine geringe Rolle. Schrittmacherelektroden sind innen hohl. Dies erlaubt, während der Implantation einen Versteifungsdraht (Mandrine) einzuführen, was das Einschieben der Elektrode erleichtert. Vor dem Anschluss der Elektrode an den Schrittmacher wird der Mandrine wieder entfernt.
32.2
a
Die Funktionalität eines Herzschrittmachers
Ein Herzschrittmacher stimuliert nicht nur blind in einem festgelegten Takt, sondern versucht, sich auf den noch vorhandenen Rhythmus des Herzens zu synchronisieren und nur im Bedarfsfall einzugreifen. Sein Aufbau lässt sich somit in drei Grundmodule unterteilen, die Eingangsstufe zur Detektion intrakardialer elektrischer Signale und damit von physiologischen Ereignissen, die Ausgangsstufe zur Stimulation des Herzens und eine Steuereinheit, die die physiologischen Erfordernisse wie Herzrate, Synchronität etc. berücksichtigt (⊡ Abb. 32.6). Die Komplexität der Steuereinheit wird in besonderem Maße von der Art des Krankheitsbildes und damit dem zu verwendenden Stimulationsmodus bestimmt, sodass diesem Aspekt ein besonderer Abschnitt gewidmet ist ( Abschn. 32.3).
32.2.1 Die Wahrnehmungsfunktion
Die Eingangsempfindlichkeit eines Schrittmachersystems beschreibt seine Fähigkeit, elektrische Signale des Her-
b ⊡ Abb. 32.5a,b. a Passiv und b aktiv verankerbare Sondenköpfe von Herzschrittmacherelektroden. Die oberste der passiven Elektroden ist eine sog. J-Elektrode, darunter folgen eine bipolare sowie eine unipolare Standardelektrode. Die aktiv zu verankernde Schraubelektrode ist einmal mit ausgefahrener Spitze (bereit zum Einschrauben in das Myokard) und daneben mit zurückgezogener Spitze (zur Vermeidung von Komplikationen beim Einführen der Elektrode in das Herz) dargestellt
32
584
III
Kapitel 32 · Herzschrittmachersysteme
⊡ Abb. 32.6. Grundlegendes Blockschaltbild eines Herzschrittmachers
zens im Millivoltbereich wahrzunehmen und als Kontraktion des Vorhofes bzw. der Kammer zu interpretieren (Wahrnehmungs-, Detektions- oder Sensingfunktion). Der grundlegende Aufbau der dafür erforderlichen Eingangsstufe entspricht der eines EKG-Verstärkers (Bolz u. Urbaszek 2002) wobei die Randbedingungen eines Implantates (Baugröße, Versorgungsspannung, Energiebedarf) teilweise besondere Lösungsansätze erfordern. Zur Differenzierung von physiologischen Signalen des Herzens und Störsignalen werden in Schrittmachern Eingangsfilter benutzt. Die Filtercharakteristik ist mittlerweile standardisiert (z. B. DIN 7505, Teil 9), um verbindliche Sicherheitsstandards zu schaffen. Die größte Eingangsverstärkung eines Schrittmachers liegt danach zwischen 30 und 70 Hz (Hubmann et al. 1993). In der klinischen Praxis wird ferner ein indirektes Maß für den Frequenzgehalt des elektrischen Signals verwendet, die maximale Anstiegssteilheit (Slew rate), die durch Differenzieren leicht zu bestimmen ist. Damit ein Signal vom Schrittmacher als solches erkannt wird, muss es eine bestimmte Slew rate übersteigen. Die Grenzwerte der Slew rate liegen im Herzvorhofbereich bei 0,5 V/s und in der Herzkammer bei 1 V/s. Ein weiterer Parameter zur Definition der Wahrnehmungsfunktion ist die Amplitude des Signals. Die sog. Wahrnehmungsschwelle oder Empfindlichkeit eines Schrittmachers ist in aller Regel programmierbar. Im Herzvorhof wird eine Amplitude von 2,5 mV angestrebt, in der Herzkammer sind Werte bis zu 10 mV abzugreifen, häufig liegen die realen Signale jedoch deutlich tiefer (Alt 1995). Eine weitere Besonderheit ist das sog. »Blanking«. Der Detektionskanal hängt an der gleichen Elektrode wie die Ausgangsstufe. Durch den Stimulationsimpuls würde der Verstärker übersteuert und längere Zeit außer Funktion gesetzt werden. Aus diesem Grund werden kurz vor Abgabe eines Impulses die Eingänge über einen Transistor entkoppelt, was allgemein als »Blanking« bezeichnet wird. Wenige ms nach dem Stimulationsimpuls werden die Blanking-Schalter wieder geschlossen. An das physikalische Blanking im Sinne eines Schalters schließt sich das »logische Blanking« an. Das bedeutet, dass alle Detektionsereignisse innerhalb eines bestimm-
ten Fensters nach dem Impuls von der nachfolgenden Schaltung nicht ausgewertet werden. Dies hat mehrere Gründe. Zum einen werden Schwingungsvorgänge, wie sie beim erneuten Einschalten des Verstärkers aufgrund geringfügiger Spannungsunterschiede unvermeidlich sind, nicht als physiologische Ereignisse fehlinterpretiert. Zum anderen lassen sich auf diese Weise in Analogie zum zellulären Verhalten Refraktärzeiten einführen, in denen ein Eingangsverstärker unempfindlich geschaltet wird. Die Vorteile einer solchen Refraktärzeit werden im Abschn. 32.3 bei der Vorstellung der unterschiedlichen Schrittmachermodi näher erläutert.
32.2.2 Die Stimulationsfunktion
Das Verhalten eines Stimulationssystems wird durch den eigentlichen Impulsgenerator, die zur Ankopplung erforderlichen Elektroden und das Gewebe bestimmt, durch das der Erregungsstrom fließt. Eine sehr detaillierte Beschreibung dieses Systems findet sich in (Bolz 1994). Der Impulsgenerator. Nahezu alle Impulsgeneratoren be-
ruhen auf dem Prinzip der Kondensatorentladung, d. h. ein sog. Reservoirkondensator Cres wird über den Schalter S1 während der passiven Phase auf eine bestimmte Spannung aufgeladen und entlädt sich in der aktiven Phase über den Schalter S2 und einen zusätzlichen Koppelkondensator Cc in das zu erregende Gewebe (⊡ Abb. 32.7). Liegt die benötigte Stimulationsspannung über der Batteriespannung Ubat, so sorgt eine nachgeschaltete Ladungspumpenschaltung für eine Spannungsvervielfachung um den Faktor n. Dieser Aufbau verhindert, dass im Falle eines einzelnen Bauteildefektes (z. B. Schalter defekt) die Batterie direkt an das Myokard angekoppelt wird, was zu einer Elektrolyse und damit einer Schädigung des umliegenden Gewebes führen würde. Dieses Prinzip erhöht die Sicherheit der Stimulatoren und wird als »single failure safety« bezeichnet. Ausgangsspannung und -strom sind damit zeitlich keineswegs konstant, sondern sinken in Abhängigkeit von der Impedanz der externen Komponenten nahezu exponentiell ab. Da sich kapazitive Komponenten (Cc sowie die Phasengrenzkapazitäten der Elektroden) durch den Stimulationsimpuls aufladen, muss zwischen den einzelnen Stimuli für eine effektive Entladung gesorgt werden. Dies erfolgt mit Hilfe eines sog. Autoshort-Schalters S3, der während der passiven Phase geschlossen wird. Die Elektroden. Vom elektrotechnischen Standpunkt aus betrachtet stellen Schrittmacherelektroden FestkörperElektrolyt-Übergänge dar. Eine ausführliche Beschreibung derartiger Systeme findet sich in (Bolz u. Urbaszek 2002). Damit weisen sie aufgrund der Helmholtzschicht und
32
585 32.2 · Die Funtionalität eines Herzschrittmachers
⊡ Abb. 32.7. Ersatzschaltbild eines Stimulationssystems bestehend aus Impulsgenerator, Elektroden und Gewebe
eventueller oxidischer Deckschichten kapazitive Eigenschaften auf. CH beschreibt im Folgenden die spezifische Helmholtzkapazität, die erst durch Multiplikation mit der geometrischen Elektrodenoberfläche A die für das Schaltbild interessante Kapazität liefert. Auf diese Weise lassen sich Oberflächenmodifikationen, die zu einer Aufrauhung und damit einer größeren elektrochemischen Kontaktfläche führen, leicht im Modell berücksichtigen. RF beschreibt entsprechend den Faraday-Widerstand und RL steht für den Zuleitungswiderstand.
schätzungen möglich sind (⊡ Tab. 32.1). Mit Hilfe der Laplace-Transformation und den Vereinfachungen
( C1 + C1 + C
C1 =
res
c
1 1 . A + CHindiff . Ain ,
diff H
Cm . A , 2
C2 =
)
(1)
(2)
R = Rfibrotic + Rtissue,
(3)
indiff , R1 = Rdiff F + RF
(4)
R2 = Rshunt,
(5)
a = (R1 . R2 + R1 . R + R2 . R) . C1 . C2,
(6)
b = (R2 + R) . C2 + (R1 + R2) . C1,
(7)
Das Gewebe. Zur Elektrostimulation des Herzens ist die
Erregung mindestens einer Herzmuskelzelle (Myozyte) erforderlich, d. h. eine Depolarisation ihrer Zellmembran. Im Ruhezustand beträgt das Transmembranpotential etwa –90 mV. Wird dieser Wert um die Depolarisationsspannung Udep von etwa 30 mV erhöht, so setzt eine automatische Depolarisation und damit die Kontraktion ein. Für die Stimulation mit Hilfe extrazellulärer Elektroden ist somit ein Verschiebungsstrom über die Zellmembran hinweg notwendig. Das elektrotechnische Ersatzschaltbild für das Zielorgan besteht folglich in erster Näherung aus einer spezifischen Zellmembrankapazität Cm und einem parallel angeordneten ohmschen Widerstand Rextra, der den Extrazellularraum berücksichtigt. Hinzu kommen drei weitere annähernd ohmsche Beiträge. Rfibrotic repräsentiert den Widerstand der dünnen Schicht fibrotischen Gewebes, dass sich nach der Implantation zwischen Elektrode und Stimulationsort entwickelt. Rtissue beschreibt den Widerstand des Gewebes zwischen dem Stimulationsort und der Gegenelektrode. Rshunt steht für einen Verluststrom, der über das Blut oder andere Gewebeteile nicht in das Zielorgan eingekoppelt wird, sondern direkt in die Gegenelektrode fließt. Alle genannten Elemente sind zumindest in ihrer Größenordnung bekannt, sodass auch quantitative Ab-
und den beiden Polen p1 und p2 p1
b b 2 4a , 2a
(8)
p1
b b2 4a , 2a
(9)
ergibt sich die als Reizschwelle bezeichnete, für eine erfolgreiche Stimulation mindestens erforderliche Pulsspannung zu: U thr
2 U dep C1 R 2
b 2 4a . exp(p1 T) exp( p2 T)
(10)
Auf die gleiche Weise erhält man auch eine für die Berechnung der Lebensdauer wichtige Beziehung für die Ladung, die pro Stimulus der Batterie entnommen werden muss (Bolz 1994). Eine für die Entwicklung neuer Sys-
586
Kapitel 32 · Herzschrittmachersysteme
⊡ Tab. 32.1. Zusammenfassung der verwendeten Parameter und ihrer Zahlenwerte (Schmidt u. Thews 1980, Snell 1968, Vetter 1961, Zheng 1984) Parameter
Bereich
Mittelwert
Quelle
Reservoirkapazität Cres
5–20 µF
10 µF
10
Koppelkapazität Cc
5–20 µF
10 µF
10
2
0,2 µF
11
2
10–500 µF/mm
40 µF
12
Zuleitungswiderstand R1
10–100 Ω
50 Ω
10
Geom. Elektrodenfläche A
1–20 mm2
10 mm2
Spez. Helmholtz-Kapazität CH
III
Polierte Oberfläche Fraktale Oberfläche
Fläche der indifferenten Elektrode Ain
Unipolar Bipolar
Impulsdauer T
0,1–0,4 µF/mm
2
2
5–15 cm
10 cm 2
10 10
2
20–100 mm
50 mm
10
0,1–2 ms
0,5 ms
10
0,01 µF/mm2
13
Membrankapazität Cm Gewebewiderstand R
30–70 kΩ
40 kΩ
14
Shuntwiderstand Rshunt
0,1–2 kΩ
600 Ω
10
30 mV
15
Depolarisationsspannung Udep
teme besondere Bedeutung besitzt die spezifische Helmholtzkapazität. Mit zunehmendem CH sinken sowohl die Reizschwelle als auch der Ladungsschwellenwert. Klinisch bedeutet dies, dass Elektroden mit fraktaler Oberfläche den geringsten Energieverbrauch und damit die längste Implantatlebensdauer gewährleisten. Um zugleich die ohmschen Anteile des Gewebes zu maximieren, sollte der Elektrodenkopf möglichst klein sein. Diese Bauform, geometrisch kleiner Kopf mit hoher spezifischer Phasengrenzkapazität, ist in den letzten 5 Jahren unter dem Begriff »Hochohmelektroden« ein Standard geworden. Die ⊡ Abb. 32.8 zeigt die Abhängigkeit der Reizschwelle von der Impulsdauer. Aus dem Blickwinkel der Ausgangsspannung empfiehlt es sich, die Impulsdauer groß zu wählen, um somit das mit hohen Umwandlungsverlusten behaftete Einschalten einer Ladungspumpe zu umgehen. Zugleich zeigt sich jedoch, dass längere Impulsdauern nahezu linear den Ladungsverbrauch erhöhen. Aus klinischer Sicht ist somit die kürzeste Impulsdauer zu wählen, die ohne Ladungspumpe noch möglich ist. Um eine einfache Faustformel für die Optimierung der Impulsparameter angeben zu können, sind empirisch die beiden Begriffe Chronaxie und Rheobase eingeführt worden, die sich anhand der Reizschwellenkurve bestimmen lassen. Die Rheobase ist ein theoretischer Wert und beschreibt die minimale Spannung, die bei unendlicher Impulsdauer eine elektrische Antwort des Herzens auslöst. Die Chronaxie bezeichnet die Impulsdauer an der Reizschwelle für eine Spannung der doppelten Rheobasestärke. Das energetische Optimum liegt erfahrungsgemäß in der Nähe der Chronaxie (Alt 1995).
⊡ Abb. 32.8. Die Reizschwelle als Funktion der Impulsdauer. Bei Amplitudenwerten oberhalb der Kurve ist eine effektive Stimulation zu erreichen
32.3
Stimulationsmodi
Aus physiologischer Sicht werden die beiden Vorhöfe bzw. die beiden Kammern stets gemeinsam erregt. Aus diesem Grunde sind nur maximal zwei Stimulationsorte – einer in der atrialen und/oder einer in der ventrikulären Ebene – und entsprechend nur maximal zwei Detektionsorte erforderlich. Auf dieser Basis wurde der allgemein anerkannte NBG-Code zur Definition der Stimulationsmodi entwickelt. Die in neuerer Zeit für besondere Herzerkrankungen (interatriale Reizleitungsstörung, Herzinsuffizienz) eingeführten multifokalen Modi ermöglichen eine biatriale bzw. biventrikuläre Stimulation, sind jedoch im NBGCode noch nicht berücksichtigt.
587 32.3 · Stimulationsmodi
32.3.1 Internationaler (NBG-)
Schrittmachercode Der seit 1988 geltende NBG-Code (NASPE/BPEG Generic Pacemaker Code) beschreibt die globale Funktion eines Schrittmachers unter Angabe von maximal fünf Buchstaben, von denen die ersten drei immer, der vierte und fünfte Buchstabe wahlweise verwendet werden (Fischer u. Ritter 1997, Übersicht).
Beschreibung der globalen Funktion eines Schrittmachers nach NBG-Code 1. Der erste Buchstabe bezeichnet den Stimulationsort: V: Ventricle: Stimulation nur in der Herzkammer A: Atrium: Stimulation nur im Herzvorhof D: Dual: Stimulation in Atrium und Ventrikel S: Single: Einkammerstimulation in Atrium oder Ventrikel 0: Keine Stimulation 2. Der zweite Buchstabe kennzeichnet den Ort der Wahrnehmung: V: Ventricle: Detektion nur in der Herzkammer A: Atrium: Detektion nur im Herzvorhof D: Dual: Detektion in Atrium und Ventrikel S: Single: Einkammerwahrnehmung in Atrium oder Ventrikel 0: Keine Wahrnehmung 3. Der dritte Buchstabe definiert die Betriebsart, d. h. die Schrittmacherfunktion, die durch ein wahrgenommenes Signal ausgelöst wird: I: Inhibited: Die Schrittmacherstimulation wird unterdrückt T: Triggered: Ein wahrgenommenes Signal führt zur Impulsabgabe des Schrittmachers D: Dual: Inhibierung und Triggerung 0: Keine Inhibierung und keine Triggerung 4. Der vierte Buchstabe beschreibt Programmierbarkeit, Telemetrie und Frequenzadaption: 0: Nicht programmierbar P: Programmable: Bis zu zwei Funktionen programmierbar M: Multi programmable: Mehr als zwei Funktionen programmierbar C: Communication: Datentelemetrie möglich R: Rate modulation: Anpassung der Schrittmacherfrequenz an ein belastungsinduziertes Signal 5. Der fünfte Buchstabe bezeichnet die antitachykarde Funktion: 0: Keine antitachykarde Funktion P: Pacing: Antitachykarde Stimulation S: Shock D: Dual: Pacing und Shock
Durch Kombination unterschiedlicher Detektions- und Stimulationskanäle in Verbindung mit verschiedenen Betriebsarten ergibt sich eine Vielzahl möglicher Schrittmachermodi. Eine umfassende Erläuterung findet sich in (Bolz u. Urbaszek 2002). Im Folgenden werden die beiden häufigsten Modi, der VVI und der DDD-Modus, detaillierter erläutert.
32.3.2 VVI-Schrittmacher
Der VVI-Schrittmacher ist ein Einkammerschrittmacher, bei dem eine einzige Elektrode im rechten Ventrikel verankert wird. Er detektiert zusätzlich zur starrfrequenten Ventrikelstimulation des V00 auch die Ventrikelaktivität und inhibiert bei Auftreten einer ventrikulären Eigenaktion seinen Ausgang. Somit stimuliert ein VVI-System nur bei Bedarf, d. h. bei Ausfall der natürlichen Erregung, weshalb er zur Gruppe der sog. »Demandschrittmacher« gezählt wird. Das Prinzipschaltbild zeigt die ⊡ Abb. 32.9. Das Flussdiagramm (⊡ Abb. 32.10) zeigt die prinzipielle Funktionsweise. Zeitgleich werden das Grundintervall
⊡ Abb. 32.9. Blockschaltbild des VVI-Schrittmachers. Die Ventrikelelektrode führt über einen Eingangsverstärker (1) und ein Monoflop zur Kontrolle der Ventrikelrefraktärzeit (2) zu einer Steuer- und Logikschaltung (ST&LS), die zugleich auch den Ausgang des Grundintervallzählers (6) auswertet. Der Stimulationskanal gleicht dem V00Schrittmacher
⊡ Abb. 32.10. Flussdiagramm eines VVI-Schrittmachers
32
588
III
Kapitel 32 · Herzschrittmachersysteme
⊡ Abb. 32.11. Funktionsdiagramm eines VVI-Schrittmachers
und die Refraktärzeit des ventrikulären Detektionskanals gestartet. Wird eine Eigenaktion innerhalb der Refraktärzeit detektiert, so wird sie als Störung interpretiert und verworfen. Wird sie außerhalb der Refraktärzeit wahrgenommen, so werden der Grundintervall- und Refraktärzeitzähler zurückgesetzt. Wird keine R-Zacke detektiert, so verhält sich der VVI-Schrittmacher wie ein V00 und stimuliert nach Ablauf des Grundintervalls. Im Funktionsdiagramm (⊡ Abb. 32.11) sind die ventrikulären Stimuli mit V gekennzeichnet. Im Vergleich zum V00-Prinzip kommen nun R-Ereignisse hinzu, die die Detektion einer R-Zacke anzeigen. Eine dritte Markierung, unterhalb der Zähleranzeige aufgetragen, zeigt das Ende der künstlichen Refraktärzeit (RFZ-V) des ventrikulären Detektionskanals an. Im EKG sind zunächst zwei stimulierte Ereignisse (V) dargestellt, die durch das Ablaufen des Grundintervalls ausgelöst wurden. Es folgt ein natürliches Ereignis (R), das außerhalb der Refraktärzeit detektiert wird und den Zähler zurücksetzt. Der Schrittmacher gibt keinen Stimulationsimpuls ab, d. h. er befindet sich im inhibierenden Modus. Danach liegt ein Ausweichintervall vor, da keine Eigenaktion detektiert wird. Es schließt sich wieder ein normales Grundintervall an. Die auf das stimulierte Ereignis (V) folgende ventrikuläre Extrasystole (VES) wird, weil außerhalb der Refraktärzeit, als herzeigene Erregung erkannt, sodass der Zähler wieder zurückgesetzt wird. Danach folgt wieder ein Ausweichund ein Grundintervall mit den zugehörigen Ventrikelstimuli.
Einsatzgebiet des VVI-Schrittmachers. Generell lassen sich mit einem VVI-Schrittmacher alle Bradykardien therapieren. Umfangreiche Studien haben jedoch in den letzten Jahren bewiesen, dass die Mortalität von Patienten mit einem VVI-Schrittmacher deutlich höher liegt als bei synchron stimulierten Patienten. Sinnvoll ist der Einsatz von VVI-Schrittmachern daher nur bei Patienten mit Vorhofflattern oder -flimmern in Verbindung mit einem AV-Block sowie Vorhof-Paralysen (nicht kontraktionsfähiger Vorhof).
32.3.3 Zweikammer-Schrittmacher
Bei Zweikammer-Herzschrittmachern werden sowohl im Vorhof als auch in der Kammer Elektroden eingebracht, um eine synchrone Stimulation gewährleisten zu können. Daraus ergeben sich zwei prinzipielle Funktionsmöglichkeiten, die vorhof- und die ventrikelbasierte Aktion. Beim vorhofgesteuerten Ablauf starten der Grundintervallzähler und der neu hinzugekommene AV-Zähler, der das natürliche PR-Intervall nachbildet, immer gleichzeitig. Der ventrikelbasierte Ablauf verwendet dagegen eine Serienschaltung der beiden Zähler, bei der zunächst der AV-Zähler ablaufen muss, bevor der Zeitzähler gestartet werden kann und umgekehrt. Der unterschiedliche Ansatz lässt sich besonders gut am Beispiel des DDD-Schrittmachers erläutern.
Der vorhofgesteuerte DDD–Schrittmacher Klinische Beurteilung des VVI-Schrittmachers. Der VVI-
Schrittmacher arbeitet energiesparend, da er nur aktiv wird, wenn keine herzeigene Aktivität vorliegt (Demandschrittmacher). Ebenso führt er nicht zu Parasystolien und vermeidet die Stimulation in die vulnerable Phase. Wie der V00 Schrittmacher ist er aber nicht in der Lage, über eine Ratenadaption eine Anpassung an die körperliche Belastung vorzunehmen. Das Hauptproblem stellt jedoch die Asynchronie zum Vorhof dar, die ein Schrittmachersyndrom auslösen kann.
Die Nachteile des DVI-Schrittmachers, inbesondere die Gefahr der Stimulation in die vulnerable Phase einer atrialen Eigenaktion, behebt der DDD-Schrittmacher (⊡ Abb. 32.12), der aus Sicht der Rhythmologie gewissermaßen den »Alleskönner« unter den Herzschrittmachern darstellt. Er kombiniert die Funktionsmodi AAI, VAT und VVI. Von allen Schrittmachern kommt der DDD-Schrittmacher der physiologischen Funktion des Herzens am nächsten. DDD bedeutet, dass sowohl im Ventrikel als
589 32.3 · Stimulationsmodi
auch im Vorhof stimuliert und detektiert werden kann. Ebenso beherrscht der Schrittmacher den Trigger- und den Inhibit-Modus. Nach jeder Vorhoferregung (natürlich oder nach Ablauf des Grundintervalls künstlich hervorgerufen) wird das AV-Intervall gestartet. Wird keine ventrikuläre Herzaktivität detektiert, so wird am Ende des AV-Intervalls der Ventrikel stimuliert. Ventrikuläre Extrasystolen (VES) setzen den Grundintervallzähler zurück, ohne ein AV-Intervall zu starten. Dies führt automatisch zu einer Kompensationspause. Der Grundintervallzähler wird folglich zurückgesetzt, wenn a) ein atrialer Stimulus abgegeben wird, b) eine natürliche Vorhoferregung detektiert wurde oder c) eine natürliche spontane Ventrikelerregung außerhalb des AV-Intervalls – also eine ventrikuläre Extrasystole auftritt.
⊡ Abb. 32.12. Vorhofgesteuerter DDD-Schrittmacher: Sowohl das Atrium als auch der Ventrikel verfügen über einen Detektions- und einen Stimulationskanal. Der Grundintervallzähler (6) ist an die Vorhofsteuereinheit angeschlossen, die über den AV-Zähler auf die ventrikuläre Steuereinheit wirkt
Zusätzlich werden nach jedem Ereignis die jeweiligen Refraktärzeiten gestartet. Als Besonderheit sollte an dieser Stelle eine atriale Refraktärzeit aufgeführt werden, die zusätzlich zu der bereits beschriebenen nach ventrikulären Ereignissen beginnt. Diese sog. »postventrikuläre atriale Refraktärzeit« (PVARP) hat die Aufgabe, das Detektieren von ventrikulären Stimuli bzw. deren retrograder Rückführung auf den Vorhof zu unterbinden. Ohne diese Schutzmaßnahmen käme es leicht zu einer Selbstdetektion des eigenen Ausgangssignals und damit zu einer schrittmacherinduzierten Tachykardie. Details zeigt ⊡ Abb. 32.13. In der ersten Zeile des Funktionsdiagramms (⊡ Abb. 32.14) sind Detektion und Stimulation im Vorhof (P, A) und Ventrikel (R, V) dargestellt. Die kleinen Striche nach oben geben die Endpunkte der Refraktärzeiten des Vorhofes und die nach unten die des Ventrikels an. Die zweite Zeile des Funktionsdiagramms enthält den Grundintervallzähler mit den Refraktärzeiten der Ventrikel und der Vorhöfe. Die unterste Zeile stellt den AV-Zähler dar, der über eine sog. AV-Hysterese verfügt. Das AV-Intervall lässt sich mit Hilfe eines zweiten Triggerlevels verlängern, sobald das vorangegangene atriale Ereignis stimuliert wurde und nicht physiologischer Natur war. Auf diese Weise werden Laufzeitunterschiede kompensiert, was eine gleichbleibend gute AV-Synchronisierung gewährleistet. Die dritte Zeile im Funktionsdiagramm (⊡ Abb. 32.14) enthält das Oberflächen-EKG. Das EKG zeigt zunächst eine atriale Schrittmacherstimulation (A) mit anschließender künstlicher P-Welle. Nachdem das AV-Intervall
⊡ Abb. 32.13. Flussdiagramm eines vorhofgesteuerten DDDSchrittmachers
32
590
Kapitel 32 · Herzschrittmachersysteme
III
⊡ Abb. 32.14. Funktionsdiagramm des vorhofgesteuerten DDD-Schrittmachers
⊡ Abb. 32.15. Flussdiagramm des ventrikelgesteuerten DDD-Schrittmachers
abgelaufen ist, erfolgt die Ventrikelstimulation und die PVARP wird gestartet. Nachdem der Zeitzähler abgelaufen ist, wiederholt sich der oben beschriebene Zyklus. Nun folgt eine detektierte natürliche Vorhoferregung (P). Der Grundintervallzähler wird zurückgesetzt und ein AV-Intervall gestartet. Da es sich um eine natürliche PWelle handelt, wird keine AV-Hysterese verwendet. Während des AV-Intervalls wird keine natürliche ventrikuläre Erregung detektiert und folglich nach dessen Ablauf ein ventrikulärer Schrittmacherstimulus abgegeben (V) sowie der PVARP-Timer gestartet. Anschließend läuft der Grundintervallzähler ab, woraufhin ein Schrittmacherimpuls im Vorhof erzeugt wird (A). Noch bevor das AV-Intervall abläuft, wird die R-Zacke der ventrikulären Eigenaktion detektiert. Der vorgesehene Ventrikelstimulus wird inhibiert und kein PVARP–Timer gestartet. Die nun folgende ventrikuläre Extrasystole erkennt der Schrittmacher, woraufhin er den Grundintervallzähler zurücksetzt und die Refraktärzeit startet. Nach der Kompensationspause folgen wiederum ein atrialer (P) und ein ventrikulärer Schrittmacherstimulus (V). Die P-Welle des nachfolgenden natürlichen EKGs wird vom Schrittmacher erkannt (P) und der atriale Stimulus inhibiert. Die detektierte R-Zacke (R) verhindert einen Ventrikelstimulus, da sie vor Ablauf des AV-Intervalls auftritt.
DDD-Schrittmacher (ventrikelgesteuert) Der entscheidende Vorteil des DDD-Systems – die komplette Synchronität beider Kammern – lässt sich natürlich auch bei einer Zeitsteuerung durch die Ventrikelebene erzielen. Beim ventrikelbasierten Timing arbeiten die beiden Zähler AV und Grundintervall (hier auch als VorhofEscape bezeichnet) in Serie und sind niemals gleichzeitig aktiv (⊡ Abb. 32.15). Zunächst wird im Vorhof gemessen. Tritt eine atriale Eigenaktion ein, so wird der AV-Zähler gestartet und in der Kammer versucht, Signale zu detektieren. Falls keine Vorhoferregung auftritt, wird am Ende eines Vorhof-Escapeintervalls ein künstlicher Vorhofstimulus abgegeben und dann in der Kammer weiter gemessen. Tritt in der Kammer eine natürliche Erregung auf, so wird wieder im Vorhof gemessen und der zugehörige Zeitzähler gestartet. Ist dies nicht der Fall, so wird nach Ablauf eines AV-Intervalls wieder ein Ventrikelstimulus abgegeben, der Zähler zurückgesetzt und im Vorhof gemessen. Zur Vereinfachung wurde hier auf die Darstellung der Refraktärzeiten verzichtet. Klinische Beurteilung des DDD-Schrittmachers. Der Schrittmacher kommt der physiologischen Funktion am nächsten. Bei ihm ist kein Schrittmachersyndrom möglich. Die Arbeitsweise ist energiesparend. Lediglich bei
591 32.3 · Stimulationsmodi
chronotroper Inkompetenz ist das System nicht in der Lage, sich der körperlichen Belastung anzupassen. Das Detektieren der atrialen elektrischen Aktion ist gefährlich, wenn die Herzvorhöfe tachykarde Rhythmusstörungen aufweisen. Um zu verhindern, dass dabei ventrikuläre Tachykardien entstehen, wird die 1:1-VorhofKammer-Überleitungsfrequenz begrenzt. Überschreitet die atriale Frequenz diese als maximale Synchronisationsfrequenz bezeichnete Grenze, so erfolgt nur noch eine teilweise Überleitung auf die Herzkammer, indem bspw. die AV-Zeit von Schlag zu Schlag ansteigt, bis ein Schlag nicht mehr übergeleitet wird und anschließend der Zyklus von neuem beginnt (Wenckebach-Modus). Eine weitere Möglichkeit besteht darin, nur noch jede zweite Vorhofaktion auf die Herzkammer überzuleiten. Unter dem Begriff »Dual Demand« wurde eine retriggerbare Vorhofrefraktärzeit eingeführt, die zu einer variablen Verlängerung bei Auftreten von Tachyarrhythmien führt und somit ebenso eine Schutzfunktion darstellt. Die meisten dieser Methoden haben jedoch den Nachteil, dass sie bei Auftreten einer atrialen Tachyarrhythmie eine abrupte Änderung der Ventrikelfrequenz zur Folge haben, was die Patienten als unangenehm empfinden. Aus diesem Grunde wurden in letzter Zeit unter dem Namen »Mode Switching« komplexere Methoden der Reaktion auf tachykarde Vorhofrhythmusstörungen eingeführt. Voraussetzung ist ein Algorithmus zum automatischen Erkennen atrialer Tachyarrhythmien. Den Stand der Technik stellt heutzutage der sog. x-aus-y-Algorithmus dar, bei dem eine programmierbare Mindestzahl x an PP-Intervallen aus einer Gesamtzahl y aufeinanderfolgender Intervalle unter einem bestimmten Grenzwert liegen müssen. Auf diese Weise werden auch unregelmäßige Vorhoftachykardien sicher erfasst. Beim Einsetzen einer solchen Rhythmusstörung schaltet der Schrittmacher auf eine von der Vorhofaktion unabhängige Stimulation der Herzkammer um (z. B. VVI). Nach Ende der atrialen Tachyarrhythmie erfolgt die weitere Stimulation wieder im DDD-Modus. Einsatzgebiet des DDD-Schrittmachers. DDD-Schrittmacher eignen sich bei a) Patienten mit normaler Sinusknotenfunktion und AVBlock, b) seltenen atrialen Arrhythmien und c) angeborenem langen QT-Syndrom und Torsade des Pointes (besondere Art der ventrikulären Tachykardie).
Eine spezielle Indikation zum Einsatz der Zweikammerstimulation ist die hypertroph obstruktive Kardiomyopathie. Durch Muskelwulstbildung im Ausflusstrakt des linken Ventrikels kommt es zur Behinderung des Blutausstromes. Durch Wahl einer sehr kurzen AV-Zeit und teilweise auch einer Stimulation im Ausflusstrakt lässt sich die muskuläre Erregung so modifizieren, dass ein deut-
liches Nachlassen der Ausflussbahnobstruktion erreicht wird (Alt 1995). Bei supraventrikulären Tachyarrhythmien sollte der Schrittmacher nicht eingesetzt werden. In diesem Fall ist ein VVI-System indiziert.
32.3.4 Frequenzadaptive Schrittmacher
Frequenzadaptive Schrittmacher ermöglichen auch bei Patienten mit gestörter Sinusknotenfunktion eine Steigerung der Herzfrequenz in Belastungssituationen. Sie sind daher bei körperlich leistungsfähigen Patienten mit unzureichendem Herzfrequenzanstieg unter Belastung (chronotrope Inkompetenz) indiziert. Die Frequenzadaption wird dabei über Sensoren erzielt, die belastungsabhängige Kenngrößen ermitteln und diese in eine Beziehung zur Stimulationsfrequenz stellen (sog. Störgrößeneinkopplung). Bislang wurde eine Vielzahl unterschiedlicher Parameter erprobt (Fischer u. Ritter 1997), z. B.: ▬ Körperliche Aktivität (Vibrations- oder Beschleunigungsmesser), ▬ Atemminutenvolumen, ▬ Bluttemperatur, ▬ Blutsauerstoffgehalt. Daneben werden weitere Parameter getestet, bisher hat jedoch nur die körperliche Aktivitätsmessung breiten Einzug in die Praxis gefunden. Sie ist dank miniaturisierter Beschleunigungssensoren technisch einfach auszuführen und spricht prompt an. Der Nachteil besteht jedoch in der unphysiologischen Sensorinformation. Darüber hinaus werden passive Bewegungen (z. B. Fahren über Kopfsteinpflaster) fehlinterpretiert. Den Stand der Technik bilden daher sog. »Zweisensorsysteme«, in denen die Bewegungsinformation mit dem auf der transthorakalen Impedanz beruhenden Signal des Atemsensors verknüpft wird. Auf diese Weise werden die Reaktionszeiten angepasst und unphysiologische Effekte durch Vergleich beider Signale vermieden. Emotionale Belastung oder Fieber, welche ebenfalls eine Herzfrequenzsteigerung erfordern, werden jedoch auch davon nicht erkannt. Der derzeit erfolgversprechendste Lösungsansatz besteht in der Entwicklung regelnder Schrittmachersysteme. Der gesunde Körper verfügt über mehrere Stellglieder zur Stabilisierung des Kreislaufs. Neben dem bei Vorliegen einer chronotropen Inkompetenz erkrankten Sinusknoten wirken auch der AV-Knoten, das Myokard sowie das Gefäßsystem regulativ. Regelnde Systeme basieren auf der Grundannahme, dass sich die Stellgrößen intakter Stellglieder nutzen lassen, um die physiologisch richtige Herzrate zu bestimmen. So zeigt z. B. eine erhöhte Inotropie an, dass ein höheres Herzzeitvolumen erforderlich ist, was zu einer Erhöhung der Stimulationsfrequenz genutzt wird. ⊡ Abb. 32.16 verdeutlicht die Zusammenhänge. Als Eingangsgrößen werden derzeit erprobt:
32
592
III
Kapitel 32 · Herzschrittmachersysteme
⊡ Abb. 32.16. Vereinfachtes Regelschema des Barorezeptorreflexes (Schmidt und Thews 1980)
▬ ▬ ▬ ▬
AV-Zeit (Dromotropie), QT-Intervall des intrakardialen EKG-Signals, Kontraktilität des Myokards (dp/dt), Bewegungsdynamik des Myokards (Beschleunigung, Impedanz).
Der dromotrope Schrittmacher besticht zwar durch seine Eleganz, ist jedoch nur eingeschränkt verwendbar, da ein Teil der chronotrop inkompetenten Personen auch eine gestörte AV-Funktion aufweisen. Das QTIntervall zur Erfassung der myokardialen Kontraktilität hat sich bereits klinisch bewährt, weist jedoch unter gewissen Randbedingungen eine positive Rückkopplung auf, da auch noch andere Parameter das Kammeraktionspotential beeinflussen. Die beiden letztgenannten Ansätze erscheinen aus heutiger Sicht besonders vielversprechend und befinden sich auch bereits in ersten Implantaten in der klinischen Erprobung. Ihre weitere klinische Akzeptanz wird davon abhängen, inwiefern es gelingt, die Langzeitstabilität zu gewährleisten. Aufgrund des Einwachsens der Sensoren, einer myokardialen Restrukturierung bzw. einfach nur einer Alterung unterliegen diese Systeme nämlich einer Drift, die eine Nachkalibration erfordert.
32.3.5 Antitachykarde Schrittmacher
Die Beendigung einer Tachykardie lässt sich sowohl über eine bestimmte Folge von Stimulationsimpulsen als auch mittels Elektroschock versuchen. Da in der Therapie atrialer Tachykardien zunehmend Erfolg mit kathetergestützten Ablationsverfahren erzielt wird, besitzt die Schrittmacherbehandlung bei diesen Krankheitsbildern nur noch eine untergeordnete Bedeutung. Die Hauptindikation zur elektrischen Rhythmisierungsbehandlung stellen gefährliche tachykarde Rhythmusstörungen der Herzkammern dar. Die entsprechenden Systeme werden jedoch in aller Regel in Verbindung mit einer Defibrillationsmöglichkeit (sog. ICDs) angeboten.
32.3.6 Biatriale Stimulationssysteme
In neuerer Zeit wurde deutlich, dass eine pathologische Verlängerung der interatrialen Überleitungszeit zu atrialen Reentrytachykardien führen kann. Aus diesem Grunde wurden spezielle Schrittmachersysteme entwickelt, die eine in kurzem zeitlichen Abstand aufeinanderfolgende Stimulation in beiden Vorhöfen erlauben. Diese sog. biatrialen Stimulationssysteme haben sich bei Patienten mit verlängerter P-Welle mittlerweile bewährt. Technisch gesehen gleichen sie einem DDD-System, wobei die zweite Elektrode jedoch im linken Vorhof zu liegen kommt. Die Herausforderung besteht hier in der Entwicklung geeigneter Elektrodensysteme. Den Stand der Technik bei der Stimulation des linken Atriums bildet der Zugang über den Sinus Coronarius. Auf diese Weise bleibt das Implantat im Niederdrucksystem. Dies stellt jedoch hohe Anforderungen an die Flexibilität der Elektrode und die Fähigkeiten des Implanteurs.
32.3.7 Biventrikuläre Stimulationssysteme
Ziel der biventrikulären Stimulation ist die Behandlung der schweren myogenen Herzinsuffizienz unabhängig von der Ursache, die zur Schädigung des Herzmuskels geführt hat. Obwohl bereits die Optimierung der Herzfrequenz und die atrioventrikuläre Synchronisation günstige Effekte bei herzinsuffizienten Patienten bewirken (Nishimura et al. 1997), gelingt es damit häufig nicht, eine ausreichende hämodynamische Verbesserung zu erreichen. Dies trifft besonders für Patienten mit ausgeprägtem Linksschenkelblock zu, der zu einer Desynchronisation der Kontraktion von rechter und linker Herzkammer führt (Auricchio et al. 1999). Technische Grundlage der biventrikulären Stimulation ist ein vorhofgesteuerter Kammerschrittmacher (DDD-System), der zusätzlich einen zweiten ventrikulären Ausgang zur Erfassung der linken Herzkammer besitzt. Die linksventrikuläre Elektrode wird dabei in einer
593 32.3 · Stimulationsmodi
Herzvene des linken Ventrikels platziert. Zugangsweg ist – wie bei der biatrialen Stimulation – der Sinus coronarius (⊡ Abb. 32.17). Die noch sehr neue Methode hat bereits Einzug in die klinische Praxis genommen, ihren Langzeiterfolg muss sie jedoch noch in größeren Studien nachweisen (Ritter 2000). Verbesserungen der hämodynamischen Situation sind mit diesem speziellen Stimulationsverfahren zu belegen. Für die weitere Entwicklung ist einerseits eine Verbesserung der Elektrodentechnologie nötig, andererseits gilt es, geeignete Parameter zur Patientenauswahl und zur optimalen Programmierung des Schrittmachersystems auszuwählen. Die Kombination mit einem implantierbaren Kardioverter/Defibrillator ist möglich.
32.3.8 Auswahlkriterien
⊡ Abb. 32.17. Halbschematische Darstellung der biventrikulären Stimulation. Es befinden sich Stimulationselektroden im rechten Vorhof, im rechten Ventrikel und in einer Herzvene (V. cordis), welche lateral über den linken Ventrikel verläuft (LA linker Vorhof, RA rechter Vorhof, LV linker Ventrikel, RV rechter Ventrikel, V. cordis)
Die richtige Auswahl eines geeigneten Schrittmachersystems erfordert trotz aller Automatismen auch heute noch Expertenwissen, da die genaue Diagnose häufig von wesentlichen Details bestimmt wird. ⊡ Abb. 32.18 versucht dennoch, die Auswahl zu formalisieren, um wenigstens einen groben Anhaltspunkt zu geben.
⊡ Abb. 32.18. Auswahl eines geeigneten Schrittmachersystems (Schaldach 1992)
32
594
Kapitel 32 · Herzschrittmachersysteme
Literatur
III
Alt E (1995) Schrittmachertherapie und Defibrillatortherapie, Bd. 1 Schrittmachertherapie. Spitta Verlag, Balingen Auricchio A, Stellbrink C, Block M et al. (1999) For the Pacing Therapies for Congestive Heart Failure Study Group, Kramer a, Ding J, Salo R, Tockman B, Pochet T, Spinelli J for the Guidant Congestive Heart Failure Research Group. Effect of pacing chamber and atrioventricular delay on acute systolic function of paced patients with congestive heart failure. Circulation 99: 2993–3001 Bolz A (1994) Die Bedeutung der Phasengrenze zwischen alloplastischen Festkörpern und biologischen Geweben für die Elektrostimulation. Schiele & Schön, Berlin Bolz, A, Urbaszek, W. (2002) Technik in der Kardiologie. Springer, Berlin Heidelberg New York Fischer W, Ritter P. (1997) Praxis der Herzschrittmachertherapie. Springer, Berlin Heidelberg New York Hubmann M, Hardt R, Priessnitz B et al. (1993) Beeinflussbarkeit von Herzschrittmachern durch Warensicherungssysteme. In: Hubmann M, Hardt R, Lang E (Hrsg) Schrittmachertherapie und Hämodynamik. MMV Verlag, München, S 143–152 Lüderitz B (1998) Herzrhythmusstörungen: Diagnostik und Therapie. Springer, Berlin Heidelberg New York Ritter P (2000) Cardiac stimulation in heart failure. are we going too fast, are we going to far? Europace 2: 1–3 Schaldach M (1992) Electrotherapy of the Heart. Springer, Berlin Heidelberg New York Schmidt RF, Thews G (1980) Physiologie des Menschen, 20. Aufl. Springer, Berlin Heidelberg New York Snell FM, Shulman S, Spender RP, Moos C (1968) Biophysikalische Grundlagen von Struktur und Funktion. Hirzel Verlag, Stuttgart Vetter KJ (1961) Elektrochemische Kinetik. Springer, Berlin Heidelberg New York Zheng E, Shao S, Wenster JG (1984) Impedance of Sceletal Muscle from 1 Hz to 1 MHz. IEEE Transactions on Biomedical Engineering 31: 477–481
33 Einführung in die Neuroprothetik K.-P. Hoffmann
33.1 Neuroprothetik
– 595
33.4 Anwendung von Neuroprothesen
33.2 Biologisch technische Schnittstelle
– 596
33.2.1 Bioverträglichkeit und Biokompatibilität 33.2.2 Elektroden – 596 33.2.3 Kapselung – 596
– 596
33.3 Technologische Besonderheiten
– 596
33.3.1 33.3.2 33.3.3 33.3.4
33.1
Energieversorgung – 596 Elektronik – 597 Signalverarbeitung – 597 Signalübertragung – 598
Neuroprothetik
Die Neuroprothetik ist ein vergleichsweise sehr junges, sich dynamisch entwickelndes Fachgebiet mit zweistelligen Zuwachsraten im Umsatz. Aufgrund der Anforderungen an Implantierbarkeit, Bioverträglichkeit und Miniaturisierung ist es stark an die Entwicklung der Mikrosystemtechnik, der Nanotechnik, der Informationstechnik, der Biotechnologie und an den Einsatz neuer Materialien gebunden. Das Anwendungsgebiet von Neuroprothesen sind Erkrankungen, die mit Einschränkungen myogener oder neurogener Funktionen einhergehen. Diese können bis zum Verlust der gesamten Funktionsfähigkeit führen. Neuroprothesen stimulieren mit elektrischen Reizen neuronale Strukturen, Muskeln oder Rezeptoren, um die jeweilige gestörte oder verloren gegangene Funktion zu unterstützen, zu ergänzen oder teilweise wieder herzustellen. Zu den Funktionsstörungen gehören Lähmungen nach einem Schlaganfall, die Verminderung der Hörfähigkeit, der Tremor als ein Beispiel für eine Bewegungsstörung oder der Verlust einer Extremität. Oftmals kann der Einsatz einer Neuroprothese die Lebensqualität der Betroffenen verbessern. Das Ziel ist die Unterstützung der Teilnahme des Betroffenen am täglichen Leben. Dabei sind kosmetische, ethische und soziale Aspekte immer zu berücksichtigen. Die ⊡ Abb. 33.1 gibt eine Übersicht über gebräuchliche Neuroprothesen wieder. Dabei haben sich Herzschrittmacher, Cochlea-Implantat, sowie Implantate zur Tiefenhirnstimulation in der klinischen Praxis seit Jahren bewährt. Patienten nach einem Schlaganfall, Querschnittsgelähmte
33.4.1 33.4.2 33.4.3 33.4.4 33.4.5 33.4.6
– 598
Herzschrittmacher – 598 Cochlea-Implantat – 598 Tiefe Hirnstimulation – 598 Blasenstimulation – 599 Human-Computer-Interfaces – 599 Extremitätenprothese – 600
33.5 Zukünftige Entwicklungen
– 600
Weiterführende Literatur – 601
und Patienten mit einem Fallfuß kann oftmals mit einer funktionellen Elektrostimulation geholfen werden. Implantierbare Elektrostimulatoren werden immer häufiger für die Therapie von chronischen Schmerzen und der Inkontinenz mittels Neuromodulation eingesetzt. Andere Anwendungen, wie bspw. das Retina-Implantat, sind in der klinischen Prüfung. Die Neuroprothetik beschäftigt sich zusammengefasst mit der Neuromodulation und der Überbrückung bzw. dem Ersatz gestörter oder verloren gegangener neuronaler Strukturen und Funktionen. Die ⊡ Tab. 33.1 fasst die Zahl der bisher implantierten Neuroprothesen weltweit
⊡ Abb. 33.1. Beispiele für den Einsatz von Neuroprothesen
596
Kapitel 33 · Einführung in die Neuroprothetik
⊡ Tab. 33.1. Zusammenfassung implantierter Neuroprothesen (>1.000 implantierte Systeme) nach [4]
III
Neuroprothese
Zahl der Implantate
Herzschrittmacher
>1.000.000
Cochlea-Implantat Unterstützung der Hörfunktion
>130.000
Rückenmarkstimulation Behandlung von Schmerzen und Bewegungsstörungen
>55.000
Tiefe Hirnstimulation Einsatz bei Tremor, Parkinson und Schmerz
>20.000
Stimulation N. vagus Behandlung von Epilepsie
>17.000
Stimulation der Sakralnerven Inkontinenz Entleerung der Blase Stimulation des N. phrenicus Steuerung der Atmung
>10.000 >2.500 >1.600
pro Jahr zusammen. Herzschrittmacher und CochleaImplantat stellen ca. 90% der gegenwärtig implantierten Neuroprothesen.
33.2
Biologisch technische Schnittstelle
33.2.1
Bioverträglichkeit und Biokompatibilität
Eine der wesentlichen Grundvoraussetzungen für den Einsatz von Neuroprothesen ist deren Bioverträglichkeit. Darunter versteht man die Ausübung einer gewünschten Funktion in einer spezifischen Anwendung bei einer angemessenen Wirtsreaktion. Oftmals ist die Auslösung biologischer Funktionen und Reaktionen erwünscht und Ziel des Einsatzes von Neuroprothesen. Diese erwünschte Verträglichkeit zwischen einem technischen System und dem biologischen Gewebe im Sinne einer Anpassung von Struktur und Oberfläche des Implantates an das Empfängergewebe wird als Biokompatibilität bezeichnet. Die Oberflächenkompatibilität beinhaltet die Anpassung der chemischen, physikalischen, biologischen und morphologischen Oberflächeneigenschaften des Implantates. Die Anpassung der Implantatstruktur an das mechanische Verhalten des Empfängergewebes ergibt die Strukturkompatibilität. Der Nachweis der Bioverträglichkeit für das Gesamtsystem erfolgt in drei Phasen: 1. In vitro-Tests mit isolierten Zellen, Zellkulturen und Organstrukturn 2. In vivo-Tests an Versuchstieren als Langzeittests 3. Klinische Studien
Implantationsort, Verweildauer, verwendete Materialien und ihre Funktionalität bestimmen den Einsatz einer Neuroprothese.
33.2.2 Elektroden
Der unmittelbare Kontakt zwischen der Neuroprothese als technisches System und dem biologischen Gewebe wird mittels implantierbarer Mikroelektroden (⊡ Abb. 33.2) hergestellt. Dabei dienen die Elektroden sowohl der Stimulation als auch der Erfassung biologischer Potentialdifferenzen. Obwohl sie meist nur eine geringe Oberfläche haben, wird ein kleiner Übergangswiderstand zwischen Elektrode und Gewebe gefordert. Dies kann durch elektrolytische Behandlung der Metallelektroden, durch Oberflächenstrukturierung, Beschichtung mittels Polymerstrukturen, Einlagerung von Nanopartikeln usw. erfolgen. Traditionelle Elektrodenmaterialien sind Silber, Silber/ Silberchlorid, Platin, Platinumblack, Gold, Iridium und Iridiumoxid. Je nach Anwendung variiert ihre Bauform. Die Selektivität der Elektrode nimmt mit der Invasivität ihres Einsatzes zu.
33.2.3 Kapselung
Die Kapselung der Neuroprothesen schützt zum eine das Implantat vor den Einflüssen der Körperflüssigkeiten, zum anderen den Organismus im Sinne der Biokompatibilität. Darüber hinaus sind die elektronischen Schaltungen vor Korrosion und dem möglichen Auftreten von Kurzschlüssen zu bewahren. Eine weitere Funktion ist der mechanische Schutz des Implantats vor körpereigenen Kräften. Eine wesentliche Grundforderung ist, dass die Kapselung die Funktion des Implantats nicht beeinflussen darf. Auch muss sie so gewählt werden, dass eine Sterilisierbarkeit gewährleistet ist. Für Herzschrittmacher werden seit vielen Jahren Titangehäuse eingesetzt, wobei häufig das Metallgehäuse gleichzeitig als Gegenelektrode eingesetzt werden kann. Andere Materialien sind Keramik (z. B. beim CochleaImplantat) oder Glas (z. B. BIONsTH). Für flexible Mikroimplantate werden Kapselungen aus Silikon, Parylen, Polyimid oder weiteren Polymeren eingesetzt.
33.3
Technologische Besonderheiten
33.3.1 Energieversorgung
Lithium-Jodid-Batterien stellen die klassische Form der Energieversorgung implantierbarer Neuroprothesen dar. Bei hinreichend kleiner Bauform gewährleisten sie
597 33.3 · Technologische Besonderheiten
⊡ Abb. 33.2. Beispiele für implantierbare Mikroelektroden. Von links oben nach rechts unten: Cuff-Elektrode, Schaft-Elektrode, Sieb-Elektrode, tf-LIFE Elektrode, Elektrode zum Retina-Implanta
eine Laufzeit von 5–10 Jahren. Eingesetzt werden diese Batterien bspw. bei Herzschrittmachern und Tiefenhirn-Stimulatoren. Für andere Anwendungen, z. B. Retina-Implantat oder Cochlea-Implantat müssen alternative Energiequellen gefunden werden. Oftmals wird die erforderliche Energie telemetrisch übertragen. Zukunftskonzepte gehen von einer Energiegewinnung aus der unmittelbaren Umgebung des Implantats aus. Beispiele hierfür sind biochemische, piezoelektrische, thermoelektrische, elektromagnetische, kapazitive oder thermomechanische Generatoren.
kung mit anderen Diagnostik- und Therapiemethoden, wie bspw. MRT, HF-Chirurgie oder Defibrillator, sollte die Funktionalität nur wenig beeinflussen. Die rasante Entwicklung in der Mikroelektronik hat in den letzten Jahren zu immer kleineren Volumina geführt. Monolithische Schaltungen und »low voltage« Anwendungen sind Beispiele hierfür. Darüber hinaus müssen die allgemeinen Forderungen an ein Medizinprodukt und die Einhaltung der elektromagnetischen Verträglichkeit erfüllt werden.
33.3.3 Signalverarbeitung 33.3.2 Elektronik
Die Anwendung von Neuroprothesen stellt hohe Anforderungen an die jeweilige Elektronik. Diese muss die Funktionalität des Implantates über einen sehr langen Zeitraum gewährleisten. Sie muss daher selbst prüfend sein und den jeweiligen Betriebszustand sowie eventuell mögliche Fehler nach außen übertragen. Das Design der Elektronik muss energiesparend sein. Eine Wechselwir-
Neuroprothesen stimulieren zum einen myogenes oder neurogenes Gewebe, zum anderen erfassen sie biologische Signale. Dabei muss das Biosignal bzw. der Reiz an das technische System bzw. das biologische Gewebe angepasst werden. Beim Cochlea-Implantat werden bspw. externe akustische Signale aufgenommen, analysiert und nach einer entsprechenden Interpretation in ein Stimulationssignal gewandelt. Dies erfordert eine unmittelbare
33
598
III
Kapitel 33 · Einführung in die Neuroprothetik
Signalverarbeitung am Implantationsort. Integrierte digitale echtzeitfähige Signalprozessoren (DSP) gestatten die Implementierung anspruchsvoller Analyseroutinen und Algorithmen. Hierzu gehören Filterungen, Detektion von bestimmten Signalmerkmalen (z. B. Spikes) und deren Klassifizierung auf der Grundlage der Fouriertransformation, Waveletanalyse, neuronaler Netze usw. Im Fall des Cochlea-Implantates wird das akustische Signal in einzelne Frequenzbänder zerlegt, deren Inhalt nach einer Signalanpassung jeweils einer Stimulationselektrode zugeordnet wird. Damit ist eine tonotope Reizung der Cochlea möglich.
33.3.4 Signalübertragung
Der Datentransfer vom und zum Implantat wird häufig über induktive Schnittstellen realisiert. Dabei kann gleichzeitig das Implantat mit Energie versorgt werden. Das Feld einer externen Sendespule wird in die Empfangsspule des Implantats eingekoppelt. Zur Datenübertragung wird die Trägerwelle des Senders moduliert. Damit wird es bspw. beim Cochlea Implantat möglich eine Leistung von 30 mW zu übertragen und gleichzeitig eine Datenrate von 400 kBit/s zu realisieren. Die Kommunikation des Implantates nach außen lässt sich prinzipiell über gleiche Wege realisieren.
33.4
Anwendung von Neuroprothesen
33.4.1 Herzschrittmacher
Die bisher am häufigsten eingesetzte Neuroprothese ist der Herzschrittmacher. Die elektrische Stimulation des Herzen dient der Kompensation von pathologischen Veränderungen der Reizbildung und Reizweiterleitung einschließlich von Störungen des Herzrhythmus. Durch entsprechende Stimulationen lassen sich die entsprechenden Symptome und damit die Auswirkungen auf den Patienten positiv beeinflussen. Klassische Herzschrittmacher sind seit vielen Jahren im Einsatz. Sie sind als Einkammersystem mit einer Stimulation im rechten Vorhof oder in der rechten Kammer oder aber als Zweikammersystem konzipiert. Letztere ermöglichen die Korrektur von Störungen in der atrioventrikulären Überleitung. Als frequenzadaptives System passen sie sich mit ihrer Stimulationsfrequenz an die jeweilige körperliche Belastung der Betroffenen an. Zum Therapiekonzept gehört die regelmäßige Nachsorge von Implantatpatienten. Diese kann zukünftig durch den Einsatz von telemedizinischen Systemen der Fernüberwachung ergänzt werden. Ereignisbezogene Daten lassen sich täglich mittels Mobilfunk- und Internettechnologien zu einem medizinischen Zentrum übertragen. Dies
kann mit einer automatischen Alarmierung des Arztes im Bedarfsfall ergänzt werden. Weiterhin sehen zukünftige Entwicklungen von Herzschrittmachern auch eine Stimulation der linken Kammern vor. Auch sind vagusgesteuerte Herzschrittmacher in der präklinischen Erprobung.
33.4.2 Cochlea-Implantat
Cochlea-Implantate ermöglichen in vielen Fällen die Wiederherstellung von Höreindrücken und das Verstehens von Sprache. Gehörlose Kinder können so häufig an das Hören und Sprechen herangeführt werden. Voraussetzung für den Einsatz eines Cochlea-Implantets ist ein intakter gesunder Hörnerv. Mit Hilfe eines Cochlea-Implantats können die ausgefallenen Funktionen des Innenohres ersetzen werden. Es wird in den Schädelknochen hinter dem Ohr eingesetzt. Die Reizelektrode wird in der Cochlea platziert. Die Zahl der getrennten Kanäle einschließlich der zugehörigen Elektroden bestimmt die erreichbare zu übertragende Bandbreite an Informationen. Ein externer Sprachsignalprozessor mit Mikrophon und Spule nimmt die akustischen Signale auf und überträgt sie an den implantierten Empfänger. Die erforderliche Energie wird gemeinsam mit den gewandelten akustischen Signalen telemetrisch übertragen. Obwohl der Sprachprozessor für jeden Patienten individuell eingestellt wird, muss das Verstehen akustischer Signale und damit das Hören und Verstehen wieder neu erlernt werden. Für viele Patienten ist nach der Operation das Ablesen vom Mund wesentlich erleichtert und sie können Gesprächen besser folgen. Eine beidseitige Versorgung des Patienten mit einem Cochlea-Implantat ist aufgrund des verbesserten räumlichen Hörens empfehlenswert. Ist die Funktion der beiden Hörnerven ausgefallen ist der Einsatz eines Cochlea-Implantates nicht sinnvoll. Hier lassen sich durch Simulation der höheren Bahnen z. B. im Nucleus cochlearis (im Hirnstamm) akustische Sinneseindrücke erzielen, die ein rudimentäres Hören erlauben. Vorstellbar sind auch die Stimulation des Hörzentrums.
33.4.3 Tiefe Hirnstimulation
Schwere Bewegungsstörungen lassen sich durch elektrische Stimulation in der Tiefe des Gehirns behandeln (⊡ Abb. 33.3). Insbesondere für Patienten mit Morbus Parkinson ergibt sich hier ein therapeutischer Ansatz. Ladungsausgeglichene kurze rechteckförmige elektrische Reize, bspw. im Nucleus subthalamicus, hemmen die krankhaft überaktiven Kernregionen. Der Neurostimulator wird ähnlich dem Herzschrittmacher zwischen Haut und Brustmuskel implantiert. Die bisherigen Anwendungen der tiefen Hirnstimulation gingen häufig mit einer Verbesserung der psychischen
599 33.4 · Anwendung von Neuroprothesen
⊡ Abb. 33.3. Tiefe Hirnstimulation. Die Abbildung zeigt das Gesamtsystem, die Implantationsorte und das Implantat einschließlich Steuereinheit der Fa. Medtronic [4]
Situation einher. Erste Ergebnisse einer Stimulation im Bereich des Nucleus accumbens bei Patienten mit Zwangsneurosen ergaben Verbesserungen im Bereich der Sprache, Stimmungslage und des motorischen Verhaltens. Ein viel versprechender Ansatz liegt in der elektrischen Unterdrückung epileptischer Anfälle. Einige Studien zeigen, dass die elektrische hochfrequente Stimulation eine großräumige Synchronisation von Neuronen verhindern kann. Allerdings kommt diese Methode nur bei Patienten zur Anwendung, deren Anfallsleiden medikamentös und chirurgisch nicht therapierbar ist.
33.4.4 Blasenstimulation
Im Rahmen einer Querschnittslähmung kann es neben der Beeinträchtigung der Bewegungsfreiheit auch zu einer Verminderung der Kontrolle über innere Körperfunktionen, wie bspw. die Steuerung des Harnflusses kommen. Die Speicherfunktion der Harnblase wird durch chirurgische Begleitmaßnahmen bei Querschnittsgelähmten wieder hergestellt. Die elektrische Stimulation der Sakralwurzeln erlaubt die gezielte Entleerung der Harnblase
ohne Katheter. Neben den positiven sozialen Aspekten bewirkt der Blasenstimulator auch eine Verringerung des Infektionsrisikos.
33.4.5 Human-Computer-Interfaces
Patienten mit einem »locked in« Syndrom, Amyotropher Lateralsklerose (ALS) oder mit einer Querschnittslähmung fällt es häufig schwer, mit ihrer Umwelt zu kommunizieren. Mittels Human-Computer-Interfaces lassen sich technische Systeme über erfasste Biosignale des peripheren oder zentralen Nervensystems steuern. Damit wird es möglich, verloren gegangene Kommunikationskanäle wieder aufzubauen, bzw. auf die Umwelt aktiv einzuwirken. Häufig geschieht die Ableitung, Verstärkung, Analyse und Generierung der Steuer- oder Kommunikationssignale computergestützt unter Einbeziehung von integrierten Mikroprozessoren (embedded sytems). Ein Teilgebiet sind die Brain-Computer-Interfaces, die über zerebrale Aktivitätsänderungen gesteuert werden (⊡ Abb. 33.4). Dabei lassen sich Systeme unterscheiden, welche die Signale mittels Oberflächenelektroden (EEG-
33
600
Kapitel 33 · Einführung in die Neuroprothetik
III
⊡ Abb. 33.4. Schematische Darstellung eines Brain-Computer-Interfaces
gesteuert), auf den Kortex platzierten Plattenelekroden (ECoG-gesteuert) oder mittels implantierter Multielektroden (Elektrodenarrays) erfassen. Ziel ist bei allen genannten Systemen die Kontrolle von speziellen Ausgabegeräten (bspw. den Cursor auf einem Computermonitor) oder die Steuerung von technischen Systeme oder Aktuatoren (z. B. technische Greifarme oder Prothesen).
33.4.6 Extremitätenprothese
Handprothesen gehören zu den Prothesen der oberen Extremitäten. Eine technische Herausforderung stellt dabei die Realisierung der verschiedenen Greifbewegungen der Hand, wie z. B. Zylindergriff, Pinzettengriff, Lateralgriff, sphärischer Griff dar. Stand der Technik sind hierbei myoelektrisch gesteuerte Handprothesen. Sie nutzen die Muskelaktionspotentiale der noch verbliebenen Muskulatur des Unterarmes. Die Einhüllende der abgeleiteten Aktivität ist proportional der Anzahl der aktivierten Muskelfasern und damit der Muskelkraft. Damit lässt sie sich als Steuersignal für Prothesen verwenden. Voraussetzung für eine abgestimmte Bewegung ist, dass der Prothesenträger unterschiedliche Muskelgruppen gezielt und unabhängig anspannen kann.
33.5
Zukünftige Entwicklungen
Zukünftige Entwicklungen auf dem Gebiet der Neuroprothetik sind gekennzeichnet von einer fortschreitenden Miniaturisierung, dem Einsatz neuer Materialien und
Technologien sowie der Integration kognitiver technischer Systeme. Dabei geht es auch um die Klärung häufig noch unverstandener grundlegender Fragen der Kopplung von Neuronen mit technischen Materialien. Bioaktive Substanzen, die nach einer Implantation freigesetzt werden, können die Bioverträglichkeit verbessern. Das Forschungsgebiet der Neuroprothetik ist daher noch stark von experimentellen und präklinischen Arbeiten geprägt. Gegenwärtige Betätigungsfelder liegen auf folgenden Gebieten: ▬ Zentrale Lähmungen, z. B. Lähmungen infolge eines Schlaganfalls ▬ Lähmungen infolge Verletzungen des Spinalkanals ▬ Hypoventilation zentralen Ursprungs, Schlafapnoe ▬ Gehörlosigkeit, Blindheit ▬ Multiple Sclerose, Anfallsleiden, Depression, M. Parkinson ▬ Schmerz, Clusterkopfschmerz ▬ Blasenschwäche, Inkontinenz, Impotenz ▬ Stimmbandlähmung Das Konzept für eine bidirektionale Handprothese (⊡ Abb. 33.5, auch 4-Farbteil am Buchende) ist ein Beispiel für einen zukünftigen Ansatz. Diese Prothese soll über die efferenten Fasern eines peripheren Nerven gesteuert werden. Hierzu wird mittels implantierbarer Mikroelektroden die für eine gewünschte Bewegung vom motorischen Kortex ausgesandte Innervationsrate im peripheren Nerv erfasst, verstärkt, analog/digital gewandelt und telemetrisch zur eigentlichen Handprothese übertragen. Ein der Innervationsrate entsprechendes Steuersignal wird zur
601 Weiterführende Literatur
⊡ Abb. 33.5. Schematische Darstellung einer bidirektionalen Handprothese
Ausführung der gewünschten Handbewegung genutzt. Die Handprothese soll mit Sensoren ausgestattet sein, die bspw. Temperatur, Haltedruck und Oberflächenbeschaffenheit des gehaltenen Gegenstandes erfassen. Diese Messwerte können dann an einen Stimulator übertragen werden, der über die implantierten Elektroden die afferenten Fasern elektrisch stimuliert. In den sensiblen kortikalen Projektionsfeldern soll dann das zughörige Gefühl entstehen. Damit kann es möglich werden, dem Betroffenen ein Feedback über die Greif- und Haltefunktion der Handprothese einschließlich der Eigenschaften von Gegenständen zu ermöglichen. Neuroprothesen der Zukunft werden kleiner und intelligenter sein. Aufgrund neuer Materialien werden unerwünschte Nebenwirkungen seltener oder mit geringerer Intensität auftreten.
Weiterführende Literatur 1. 2. 3. 4. 5. 6.
Bronzino JD (Hrsg) (2006) Tissue Engineering and Artificial Organs. CRC Press Dario P, Meldrum D (eds) (2006) Proceedings of BioRob 2006, Biomedical Robotics and Biomechatronics, Pisa Eliasmith C (ed) (2002) Neural Engineering, Computation, Representation, and Dynamics in Neurobiology Systems. MIT Press Hoffmann KP, Dehm J (Hrsg) (2005) VDE-Studie zum Anwendungsfeld Neuroprothetik. VDE, Frankfurt Horch KW, Dhillon GS (eds) (2004) Neuroprosthetics: Theory and Practice. World Scientific, University of Utah IEEE EMBS (2005) Biomimetic Systems, Implantable, Sophisticated, and Effective. IEEE Engineering in Medicine and Biology 24(5)
33
34 Einführung in die Elektrotherapie W. Wenk 34.1 Einleitung
– 603
34.2 Historischer Abriss der elektrotherapeutischen Entwicklung – 603 34.3 Einführung in die Elektromedizin – 605 34.3.1 Elektrodiagnostik in der Physiotherapie – 605 34.3.2 Elektrotherapie – 605 34.3.3 Stromformen der Elektrotherapie – 607
34.4 Ultraschalltherapie
– 611
34.5 Lasereinsatz in der Elektrotherapie – 612 34.6 Elektrotherapeutische Elektroden
– 613
34.6.1 Elektrodenapplikation – 613
Weiterführende Literatur – 614
34.1
Einleitung
Die Elektrotherapie, ein Teilbereich der physikalischen Therapie bzw. Physiotherapie, wird der Elektromedizin zugeordnet. Mittels elektrischer, thermischer, mechanischer oder elektromechanischer Energie werden Behandlungsverfahren durchgeführt, die auf das jeweilige Krankheitsbild abgestimmt sind. Dabei steht die therapeutische Anwendung mit elektrischen Strömen wie konstanter, pulsierender und niederfrequenter Gleichstrom, mittel- und hochfrequenter Wechselstrom sowie Interferenzstrom im Vordergrund des Interesses. Im Folgenden wird eine kurze Einführung in die Elektrotherapie gegeben.
34.2
suchungen am Zitteraal wurden kurzzeitige Spannungen bis 800 V und Stromstärken bis zu 1 A gemessen. Es dauerte mehrere Jahrhunderte bis zum nächsten Versuch, Strom mittels Reibung zu erzeugen (sog. Reibungselektrizität) und für therapeutische Zwecke zu nutzen. Otto von Guericke konstruierte 1660 die erste Reibungselektrisiermaschine, der weitere in unterschiedlicher Bauweise folgten (⊡ Abb. 34.1). Der Arzt Christian Gottlieb Kratzenstein setzte 1741 erstmals eine sog. Elektrisiermaschine zur Therapie ein. Der nächste Meilenstein wurde durch die Erfindung der Gleichstrombatterie 1799 durch den Physiker Alessandro Volta gesetzt. Er ist der eigentliche Begründer der Lehre vom »Galvanismus« und konstruierte die erste galvanische Stromquelle, sodass erstmalig elektrische Ströme
Historischer Abriss der elektrotherapeutischen Entwicklung
Die ersten Aufzeichnungen zur Elektrotherapie stammen von dem römischen Arzt Scribonius Largus (14– 54 n. Chr.). Bereits in der Antike war die schmerzlindernde Wirkung elektrischer Reize bekannt. Zur Behandlung von Beschwerden des Bewegungsapparates oder Gicht wurden laut seiner Rezeptsammlung »Compositiones Medicae« Zitterrochen (Torpedinidae) zu einer Art »Elektroschocktherapie« eingesetzt. Neben den Zitterrochen besitzen auch Zitteraale (Electrophorus) und Zitterwelse (Malapterurus) elektrische Organe, die aus umgewandelten Muskelfasern, sog. elektrischen Platten, bestehen. Bei bioelektrischen Unter-
⊡ Abb. 34.1. Elektrisiermaschine, die Elektrizität durch Influenz erzeugte (um 1903)
604
III
Kapitel 34 · Einführung in die Elektrotherapie
(Spannung) als Resultat chemischer Reaktionen verfügbar waren. Für die Elektrotherapie bedeutete dies, dass die Behandlung mit Gleichstrom möglich wurde (Galvanisation). Es folgte 1831 die Behandlung mit unterbrochenem Gleichstrom (sog. Wagner’sche Hammer) im Induktionsapparat nach Faraday (Faradisation, ⊡ Abb. 34.2). Auf der Grundlage der Entdeckung der elektromagnetischen Wellen 1888 durch Heinrich Hertz, wurden 1892 von D‘Arsonval hochfrequente Ströme – noch ohne ausreichende Tiefenwärmewirkung – in die Elektrotherapie eingeführt. Das erste Handbuch der Elektrotherapie wurde von Wilhelm Erb 1886 herausgegeben (Handbuch der Elektrotherapie, Bd. 3 des Ziemssen’schen Handbuchs der allgemeinen Therapie. Leipzig: Vogel, 1882, 1886). Mit dem 1891 von Tesla entwickelten Transformator konnte von Zeyneck 1894 Wärmewirkungen der Hochfrequenzströme nachweisen und mit dem 1905 von Paulsen entwickelten Funkenstreckensender thermische therapeutische Durchwärmungen bei Patienten erzielen. 1907 nannte Nagelschmidt dieses Verfahren Diathermie, welches aber infolge seiner im Langwellenbereich liegenden Wellenlänge die Luft nicht überbrücken konnte. Deshalb wurde der Hochfrequenzstrom dem Körper über Elektroden zugeführt. Nach dem Bau der Elektronenröhre 1927 durch Esau wurde 1929 durch Schliephake die Kurzwellenkondensatorfeldmethode mit dem Abstandsprinzip therapeutisch eingesetzt. Damit war es möglich, den hochfrequenten Strom auch ohne Hautkontakt in den Körper zu übertragen. Ab 1934 wurde durch Kowarschik in Wien und durch Merriman, Holmquist und Osborne in den USA die Spulenfeldmethode zu Heilzwecken genutzt. Ein weiteres Verdienst von Kowarschik war die Einführung von Exponentialstromimpulsen zur selektiven Behandlung schlaffer Lähmungen. Als Folge der Entwicklung der Radartechnik im 2. Weltkrieg konnte Krusen 1946 mit
Magnetronröhrengeräten die ersten Behandlungen mit Mikrowellen durchführen. 1938 nutzte Pohlman den Ultraschall zur Therapie von Erkrankungen des Bewegungsapparates und des peripheren Nervensystems. Nach dem 2. Weltkrieg kamen in der Reizstromtherapie neben den variabel einstellbaren Impulsströmen auch fest vorgeformte Ströme, wie z. B. die Diadynamischen Ströme (Sinusimpulse) nach Bernard, der Ultrareizstrom nach Träbert (Rechteckimpulse) oder die Impulsgalvanisation nach Jantsch zum Einsatz. Gleichzeitig wurden die Mittelfreqenzströme als Interferenzstrom durch Nemec und als amplitudenmodulierter Mittelfrequenzstrom durch Jasnogorodski in die Therapie eingeführt. Die Entwicklung der modernen Mikroelektronik ermöglichte den Bau kleiner Taschenstimulatoren zur transkutanen elektrischen Nervenstimulation (TENS) und zur Muskelstimulation (⊡ Abb. 34.3). Die 1965 veröffentlichte Gate-control-Theorie von Melzack und Wall lieferte sowohl den Anstoß als auch die physiologische Untermauerung der Entwicklung von kleinen batteriebetriebenen Geräten für den Hausgebrauch. Die technische Weiterentwicklung der Geräte in Richtung Computersteuerung gestattete sowohl die Abgabe vielfältiger Stromformen, so z. B. auch die extrem kurzer Impulse mit hohem Spannungsbedarf (Hochvolttherapie), als auch die Abspeicherung aller gewählten Parameter. In den siebziger Jahren ging die Entwicklung in Richtung Lasertherapie. Hierbei wird mit einem Laserstrahl von 632 nm bzw. 904 nm Wellenlänge ein Krankheitsherd therapiert. Neuere Verfahren wie z. B. die pulsierende Magnetfeldtherapie oder Elektromagnetmatten tauchten in den letzten Jahren auf, wobei ihre Wirksamkeit jedoch nicht allgemein anerkannt ist. Wissenschaftlich am besten belegt ist die Laser- und Ultraschalltherapie, da hierzu eine Vielzahl von Untersuchungs- und Forschungsergebnissen vorliegt.
⊡ Abb. 34.2. Elektrische Muskelgymnastik (Bergonisation) mit Hilfe eines faradischen Schwellstroms
⊡ Abb. 34.3. TENS-Gerät mit Elektroden
605 34.3 · Einführung in die Elektromedizin
34.3
Einführung in die Elektromedizin
Bei der Elektrodiagnostik können Ströme abgeleitet (Aktionspotentiale bei EKG, EEG, EMG, EDG, EcoG u. a.) oder angewendet (z. B. Reizstromdiagnostik, galvanische Erregbarkeitsprüfung, Nervleitungsprüfung, Chroaxie u. a.) werden.
Charakteristik) geprüft. Hierbei wird der ggf. vorliegende Schädigungsgrad eines Muskels bestimmt. Zuerst wird mit schnellen Impulsfolgen die faradische Erregbarkeit getestet. Ist die Kontraktion zufriedenstellend, kann mit faradischen Strömen behandelt werden. Ziel ist es, die Kontraktion des Muskels in seiner Leistungsfähigkeit zu steigern. Lässt sich der Muskel nicht mehr reizen, wird mit Einzelimpulsen weiter geprüft. In einer sog. it- Diagnostikkurve (intensity–time) wird die Erregbarkeit mit Dreieckstrom und Rechteckstrom getestet. Aus der ermittelten it-Kurve kann der Physiotherapeut charakteristische Werte ablesen, die ihm Auskunft darüber geben, ob ein Muskel schlaff oder spastisch gelähmt ist und wie stark der Lähmungsgrad ist. Bei dieser Prüfung werden auch die optimalen Reizstromparameter für eine Behandlung ermittelt. Wird in regelmäßigen Abständen eine solche itKurve erstellt, kann anhand der Wertegegenüberstellung der therapeutische Erfolg und der Zustand der Erkrankungen abgelesen werden.
Reizstromdiagnostik
Elektropalpation
Bei der Reizstromdiagnostik wird mit einem Reizstromgerät das Nerven-Muskel-System auf Erregbarkeit mittels Rechteckimpulsen (RIC-Charakteristik) und der Akkommodationsschwellenwert mittels Dreieckimpulsen (DIC-
Zur Ermittlung von Triggerpunkten, Irritationszonen und geschädigtem Gewebe wird ein Gleich- oder Reizstrom eingesetzt. Dazu wird mit einer mobilen Elektrode ein Gebiet abgetastet, während der Strom fließt. Der Patient gibt an, wo er den Strom besonders intensiv empfindet oder wo Schmerzen auftreten. An diesen Stellen zeigt sich meistens eine charakteristische Rötung, deren Zonen dann behandelt werden.
Die Elektromedizin ist ein Teilgebiet der Medizin, das sich nach Anwendungsbereichen (Elektrodiagnostik und Elektrotherapie), Frequenzbereichen (nieder-, mittel- und hochfrequente Elektromedizin) (⊡ Tab. 34.1), historischen Aspekten (z. B. Bernard’sche Ströme, Nemec’sche Ströme u. a.) sowie speziellen Bezeichnungen und Eigenschaften (galvanischer Strom, diadynamischer Strom, bipolarer Strom u. a.) gliedert.
34.3.1 Elektrodiagnostik in der Physiotherapie
⊡ Tab. 34.1. Gliederung nach Frequenzbereichen Stromart
Frequenzbereich
Konstanter Gleichstrom
0 Hz
Pulsierender Gleichstrom/ Niederfrequente Reizströme Diadynamische Ströme/ Bernard’sche Ströme Ultrareizstrom TENS Hochvolt Impulsgalvanisation neofaradischer Schwellstrom Exponentialstrom
bis 1 kHz
Mittelfrequente Wechselströme Interferenzströme Nemec’sche Ströme Stereodynamische Interferenzströme
1–300 kHz 2–11 kHz
Hochfrequente Ströme
über 300 kHz
Kurzwelle
27,12 MHz; λ~11 m
Dezimeterwelle
433,9 MHz; λ~69 cm
Mikrowelle
2450 MHz; λ~12,5 cm
34.3.2 Elektrotherapie
Die Elektrotherapie umfasst Verfahren zur Behandlung von Krankheitssymptomen sowie die Nachbehandlung und Wiederherstellung von Funktionen des Bewegungsapparates mit verschiedenen spezifischen Stromformen. Durch die elektrische Therapie sollen Sekundärsymptome einer Erkrankung oder eines Traumas so beeinflusst werden, dass der circulus vitiosus aus Schmerz – Tonuserhöhung, Minderdurchblutung, Schmerzverstärkung – durchbrochen und eine günstige Ausgangssituation für die physiotherapeutische Behandlung geschaffen wird (⊡ Tab. 34.2).
Aufbau und Funktion eines Elektrotherapiegeräts Die meisten Elektrotherapiegeräte (⊡ Abb. 34.4) bieten heute alternativ einen strom- oder spannungskonstanten Betrieb. Kombinationsgeräte sind einsetzbar zur Stimulation, Ultraschall- und Kombinationstherapie. Einfache Geräte ermöglichen nur eine Behandlung mit konstantem Gleichstrom (Galvanisation) und faradischem Strom
34
606
Kapitel 34 · Einführung in die Elektrotherapie
⊡ Tab. 34.2. Indikationen und Kontraindikationen für elektrotherapeutische Maßnahmen
III
Indikation
Kontraindikation
alle degenerativen Erkrankungen des Stütz- und Bewegungsapparates aus dem Bereich der Orthopädie
akute fieberhafte Prozesse
alle traumatischen Erkrankungen aus dem Bereich der Chirurgie
Infektionserkrankungen
einige Erkrankungen des Nervensystems wie z. B. neurogen bedingter Schmerz oder periphere Lähmungen
Tumoren
einige Erkrankungen aus dem Bereich der Inneren Medizin wie z. B. Durchblutungsstörungen oder Obstipationen
elektron. Implantate (z. B. Herzschrittmacher)
einige Erkrankungen aus dem Bereich der Hals-Nasen-Ohrenkunde wie z. B. Mittelohrentzündung oder Kieferhöhlen- bzw. Stirnhöhlenvereiterung
Hämophilie
einige Erkrankungen aus dem Bereich der Dermatologie wie z. B. Furunkel, Karbunkel, Abszesse
Schwangerschaft
(Faradisation). Wesentliche Elemente des Bedientableaus eines Elektrotherapiegeräts sind: ▬ Taste für Strom- oder Programmwahl: Die Stromart wird gewählt. Bei neueren Geräten wird anstelle der Stromart die Indikation gewählt. ▬ Taste für Stromform: Alternativ Dreieck- oder Rechteckstrom. ▬ Taste für Impuls- und Pausenzeitwahl: Impuls- und Pausenzeit können unabhängig voneinander eingestellt werden. ▬ Taste zur Wendung der Polarität: Umkehrung der Polarität des Behandlungsstroms. ▬ Intensitätsregler: Taste oder Drehknopf zur Regelung der Stromstärke. ▬ Digitale oder analoge Anzeige der Stromstärke. ▬ Spitzenstromknopf: nur bei Analoganzeige. Ansonsten Anzeige des Effektivstroms. ▬ Zeitschalter: Vorwahl der Behandlungsdauer. Nach Beendigung schaltet das Gerät automatisch ab. Das Geräteteil enthält neben der Stromversorgung das Netzteil, den Impulserzeuger, den Impulsformer, den Schwellstromerzeuger und den Endverstärker.
Wirksamkeit elektrotherapeutischer Behandlungen Bei elektrotherapeutischen Verfahren sind folgende positive Wirkungen auf den Organismus nachgewiesen: ▬ Schmerzlinderung, ▬ Durchblutungsförderung, ▬ Detonisierung quergestreifter Skelett- und Gefäßmuskulatur, ▬ Stoffwechselsteigerung, ▬ Resorptionsförderung von Ödemen und Gelenkergüssen, ▬ Muskelkräftigung.
⊡ Abb. 34.4. Modernes Elektrotherapiegerät
Schmerzlinderung Die Schmerzlinderung erfolgt aufgrund ▬ vermehrter Durchblutung: dadurch werden Gewebshormone (Bradykinin, Serotonin, Histamin, Prostaglandine), die die Schmerzrezeptoren erregen, schneller aus dem geschädigten Gewebe eliminiert; ▬ der Anwendung von Gleichstrom, indem der Anelektrotonus unter der Anode das kritische Membranpotenzial der Schmerzrezeptoren und damit die Schmerzschwelle erhöht; ▬ des Verdeckungseffektes, der bei allen niederfrequenten Reizströmen auftritt und auf der »Gate-ControlTheorie« nach Melzack und Wall basiert. Durch die Anwendung von Reizströmen werden Mechano- bzw. Vibrationsrezeptoren erregt und über die schnellleitenden »AB-Fasern« zum Rückenmark weitergeleitet. Dort aktivieren sie Zwischenneurone in der Substantia gelatinosa, die die Weiterleitung der Schmerzimpulse an den Transmissionszellen hemmen. Da aber hierbei mehr oder minder schnell ein Gewöhnungseffekt eintritt, wird durch die Einführung eines Frequenzwech-
607 34.3 · Einführung in die Elektromedizin
sels (Frequenzmodulation, Impulsbreitenmodulation) versucht, den Gewöhnungseffekt zu reduzieren; ▬ des »Plateaueffektes« bei den Interferenzströmen (= mittelfrequente Wechselströme): Er kann die Zellen in einem Dauerdepolarisationszustand halten und sie daher unerregbar für Reize machen. Dieser Effekt stellt das Gegenteil der Hyperpolarisation mit der Anode bei Gleichstrom dar.
Muskelkräftigung Nach der eingangs erwähnten Elektrodiagnostik können Muskeln gezielt und angepasst an ihren Schädigungsgrad gereizt und damit einerseits vor Muskelschwund bewahrt, andererseits aber auch aufgebaut werden. Drei Möglichkeiten stehen dem Therapeuten hierfür zur Verfügung: ▬ Bipolare Methode. Hierbei werden zwei Elektroden direkt auf den Muskel gelegt. ▬ Monopolare Methode. Bei sehr kleinen Muskeln kommt eine Elektrode als Reizelektrode auf den Muskel, die andere wird etwas weiter davon entfernt platziert. ▬ Eine punktförmige Reizelektrode wird auf dem zugehörigen Nerv an einer sehr gut zu erreichenden Stelle (Nervenreizpunkt) platziert, die andere in der näheren Umgebung. Gereizt wird mit maximal erträglicher Stromstärke.
34.3.3 Stromformen der Elektrotherapie
In der Elektrotherapie kommen unterschiedliche Stromformen zur Anwendung. Im Folgenden werden die in der Elektrotherapie klassischen Anwendungen mit den jeweiligen Stromformen vorgestellt.
Gleichstrombehandlung Der Gleichstrom, der synonym auch als galvanischer Strom bezeichnet wird, ist ein Strom, der zeitlich konstant bleibt, mit gleicher Stärke fließt und die Richtung beibehält. Eingesetzt werden konstanter Gleichstrom (Galvanisation, Iontophorese, Gleichstromüberlagerung nach Bernard oder hydroelektrische Bäder wie bspw. Stangerbad oder Vierzellenbad) und pulsierender Gleichstrom (zwei diadynamische Ströme nach Bernard, drei Exponentialströme, zwei faradische Ströme und Ultrareizstrom nach Träbert). Unter Iontophorese (griech. Iontos, Gehendes; phoresis, das Tragen), synonym auch als Ionentherapie oder Kataphorese bezeichnet, wird die therapeutische Anwendung von Gleichstrom mit einer Stromstärke von 0,1–0,5 mA/cm2 zum Einschleusen von Medikamenten durch die Haut verstanden. Dazu wird vom Elektrotherapiegerät eine Gleichstromspannung von 200 bis 300 V erzeugt. Bei pulsierendem
Gleichstrom, der am häufigsten in der Elektrotherapie eingesetzt und auch als Reiz- oder Impulsstrom bezeichnet wird, werden Frequenzen von 0,1 kHz bis 1 kHz erzeugt. Da sich der menschliche Organismus wie ein Elektrolyt verhält – das Gewebe leitet elektrischen Strom, da es wässrige Salze enthält – verändert sich die lonenkonzentrationen an der Zellmembran bei Anlegung eines Gleichstroms durch wandernde Ionen zur Elektrode. Dieser Prozess bewirkt eine analgesierende und hyperämisiernde Wirkung. Die Durchblutung kann so in der Haut um ca. 500% und in der Muskulatur um ca. 300% gesteigert werden. Weitere Vorteile der Behandlung mit Gleichstrom sind: ▬ verstärkte Zellteilung des Epithels und des Bindegewebes, ▬ schnellerer Verschluss von Hautwunden, ▬ Festigung und Stärkung der Epidermis und bindegewebeartigen Strukturen (z. B. Sehnen), ▬ Erhöhung der ATP-Bildung und Proteinsynthese. Auch vasomotorisch wirksam ist die Applikation von Gleichstrom. Nachgewiesen wurde von Lissner eine ausgeprägte Wirkung an der gegenüberliegenden Extremität, die ca. 50% der Wirkung der behandelten Extremität betrug. Zudem erfolgt ▬ eine Steigerung des arteriellen Zuflusses, des venösen und lymphatischen Abflusses, ▬ eine Resorptionsförderung von Gelengergüssen, Ödemen und Hämatomen und ▬ eine schmerzstillende Wirkung, die unter der Anode stärker ausgeprägt ist.
Niederfrequente Reizströme Unter niederfrequenten Reizströmen werden in der Elektrotherapie pulsierende Gleichströme mit Frequenzen im Bereich 0,1–1 kHz verstanden, wobei anzumerken ist, dass in der Praxis nur bis maximal 200 Hz Reize gesetzt werden (⊡ Abb. 34.5 und ⊡ Abb. 34.6). Dieser Frequenzbereich wird auch als elektrotherapeutischer Niederfrequenzbereich bezeichnet. Durch das Elektrotherapiegerät bzw. Reizstromgerät wird der Gleichstrom in zeitlichen Intervallen unterbrochen, sodass ein sog. Impulsstrom, der auch als Rechteckstrom bezeichnet wird, resultiert, welcher beliebig konfigurierbar ist: Rechteckimpuls mit steilem, sprunghaften Anstieg, Dreieckimpuls mit linearem Anstieg oder Dreieckimpuls mit exponentiellem Anstieg (syn. Exponentialimpuls). Die Reizstrom-Applikation erfolgt direkt über Elektroden oder Bäder (⊡ Tab. 34.3). Bei Reizstromgeräten können die niederfrequenten Ströme mit folgenden Parametern konfiguriert werden: 1. Stromform: Rechteck, Dreieck, Sinusform 2. Impulsdauer mit Anstiegs- und Abfallzeit 3. Pausendauer 4. Schwellzeit 5. Schwellpause
34
608
Kapitel 34 · Einführung in die Elektrotherapie
Niederfrequente Reiz-/Impulsströme
Wechselstrom
Gleichstrom
frequenzkonstant
frequenzmoduliert
III konstante Impulsfolge
unterbrochene Impulsfolge
Ultrareizstrom
stochastische Impulsfolge
neofaradischer Schwellstrom RS
DF MF
CP
Impulsgalvanisation
LP TENS
stochastisches TENS-Verfahren
Burst TENS
Hochvolt Continious TENS Exponentialstrom
biphasischer Nadelimpulsstrom biphasisches TENSVerfahren
⊡ Abb. 34.5. Übersicht niederfrequente Ströme
Einsatzgebiete der niederfrequenten Reizströme
Linderung von Schmerzen
diadynamische Ströme Ultrareizstrom nach Träbert Impulsgalvanisation TENS-Verfahren Hochvoltstrom
Behandlung atrophierter und geschwächter Muskeln
Behandlung peripherer Lähmungen
neofaradischer Schwellstrom andere faradische Ströme
Exponentialstrom
⊡ Abb. 34.6. Niederfrequente Reizströme und ihre Einsatzgebiete
⊡ Tab. 34.3. Wirkung niederfrequenter Reizströme Frequenzbereich (Hz)
Wirkung
0,5–10
Aktivierung des Sympathikus mit nachfolgender Gefäßkonstriktion.
5–30
Rhythmische Muskelkontraktionen, die optisch einzeln noch deutlich voneinander abgegrenzt werden (»Schüttelfrequenz«) und Schmerzlinderung.
20–25
Aktivierung des Parasympathikus vegetativer Dystonie.
50
Optimale Reizfrequenz für die quergestreifte Muskulatur. Die Kontraktionen können hierbei optisch nicht mehr voneinander abgegrenzt werden, es erscheint eine Dauerkontraktion des Muskels. Durch rhythmische Stromstärkeänderungen werden dem Muskel Erholungspausen geboten.
100
Sympathikusdämpfung. Optimale Frequenz für die Schmerzlinderung.
609 34.3 · Einführung in die Elektromedizin
Zusätzlich kann zwischen monophasischen (gleichgerichtet) oder biphasischen (Stromrichtung wechselnd) Impulsströmen gewählt werden. Biphasische Ströme werden in symmetrische und asymmetrische eingeteilt, wobei asymmetrische Ströme in balancierte und nicht balancierte unterteilt werden. Eine kontinuierliche Reizstromimpulsfolge hat den großen Nachteil, dass sich der Körper sehr schnell an diese Impulsfolge gewöhnt (Adaptation) und somit der Schmerzlinderungseffekt nicht so wirksam ist. Abhilfe schafft hier die Modulation, die am Reizstromgerät wählbar ist. Modulation ist die Veränderung einer Impulsfolge in Form von Amplituden-, Impulsbreiten- oder Frequenzmodulation. Die Veränderung der Impulsfolge betrifft die Höhe, die Breite oder den Abstand der Impulse. Am häufigsten kommt die Frequenzmodulation zum Einsatz. Die Wirkungen der niederfrequenten Impulsströme (vgl. Abb. 34.6) sind primär die Schmerzstillung und die Muskelstimulation. Die Schmerzminderung erfolgt auf segmentaler, spinaler Ebene: Aktivierung des Gate-control-Systems über die den Eingang peripherer Schmerzinformationen hemmenden Interneurone der Substantia gelatinosa im Hinterhorn des Rückenmarks (Gate-control-Modell nach Melzack und Wall). Der schmerztherapeutische Effekt beruht bei der Anwendung höherer Intensitäten (direkt unter oder gerade über der Schmerzschwelle) auf der Anregung supraspinaler antinozeptiver Systeme und auf einer Aktivierung endogener Opioidpeptide (Eriksson und Sjölund). Die Theorie des Gate-control-Systems wurde 1965 von Melzack und Wall entwickelt. Sie postuliert, dass durch eine elektrische Stimulation der rasch leitenden A-Beta-Fasern die hemmend wirkenden Interneurone der Substantia gelatinosa im Hinterhorn des Rückenmarks aktiviert werden. Damit wird die Weiterleitung von Schmerzinformationen aus den C- und A-Delta-Fasern über zentralwärts aufsteigende Bahnen blockiert. Durch die Frequenzen von 50–150 Hz wird das Gewebe über Druck- und Vibrationssensoren gereizt. Eine besondere Wirkung beruht auf dem Phänomen des Gegenreizes (sog. Gegenirritationswirkung). Durch eine Stimulation mit hoher Intensität direkt unter oder gerade über der Schmerzschwelle der Rezeptoren wird eine Schmerzhemmung über Neurone im Hirnstamm und eine Endorphinausschüttung bewirkt. Die Muskelreizung erfolgt aufgrund der Membranpotentialverschiebungen. Dabei wird die Reizschwelle der motorischen Nerven herabgesetzt: Unter der Kathode ist sie stärker ausgeprägt, als unter der Anode. Sie wird deshalb zur Vorbehandlung und als eigenständige Behandlung schlaffer Lähmungen genutzt. Nur Reizstrom ist in der Lage, eine Kontraktion des Muskels zu bewirken.
⊡ Abb. 34.7. Biphasisches TENS-Verfahren
⊡ Abb. 34.8. Stochastisches TENS-Verfahren
⊡ Abb. 34.9. TENS mit Impulsbreitenmodulation
ienten verstanden. Bei diesem Verfahren werden Rechteckimpulsströme mit Impulszeiten von 30 bis 400 µs angewendet. Die Pausen zwischen den abgegebenen Impulsen ist gerätespezifisch und liegt zwischen 5 und 100 ms. TENS-Geräte werden ausschließlich mit Batterien betrieben, am Körper getragen und zur Selbstbehandlung eingesetzt.
Diadynamische Ströme Die diadynamischen Ströme werden zu den niederfrequenten Reizströmen gezählt. Sie bestehen aus einer Folge von positiven Halbwellen eines sinusförmigen Wechselstroms und haben eine Impulsdauer von 10 ms. Es werden zwei Grundformen unterschieden: 1. DF (diphasé fixe) 100 Hz: Aus einer Impulslänge von 10 ms ergibt sich eine Anzahl von 100 Impulsen/s. 2. MF (monophasé fixe) 50 Hz: Da die negativen Halbwellen unterdrückt werden, entsteht eine Pause von 10 ms. Impuls und Pause ergeben eine Zeitspanne von 20 ms, sodass eine Anzahl von 50 Impulsen/s daraus resultieren. Aus den zwei Grundformen lassen sich noch drei modulierte Formen (CP, LP und RS) ableiten.
TENS-Verfahren
Stochastischer Reizstrom
Unter TENS (transkutane elektrische Nervenstimulation) (⊡ Abb. 34.7, ⊡ Abb. 34.8, ⊡ Abb. 34.9) wird ein Analgesieverfahren zur Heimbehandlung chronischer Schmerzpat-
Reizstrom, dessen Impulsfrequenz sich in seiner Bandbreite in zufälliger Abfolge verändert. Die Bandbreite ist gerätespezifisch vorgegeben. Dabei werden mono- oder
34
610
Kapitel 34 · Einführung in die Elektrotherapie
biphasische Dreieck- oder Rechteckimpulse mit meist sehr kurzer Impulszeit (sog. Nadelimpulse) abgegeben. Der Frequenzbereich von 5 bis 30 Hz ist hinsichtlich der Schmerzstillung besonders wirksam. Stochastischer Reizstrom wird bei der Impulsgalvanisation und TENSVerfahren eingesetzt.
III
Mittelfrequente Reizströme Der mittelfrequente Reizstrom, der sich unterscheidet in reinen und amplitudenmodulierten Reizstrom (⊡ Abb. 34.10), ist ein Wechselstrom mit einer Frequenz von 1–100 kHz und konstanter Intensität. Therapeutisch genutzt wird allerdings nur der Bereich von 2–11 kHz. Dieser Frequenzbereich dient als Trägerfrequenz für die eigentliche Amplitudenmodulationsfrequenz, die sich im Niederfrequenzbereich befindet und die Reizwirkung auf Schmerzrezeptoren und Muskeln ausübt. Die Trägerfrequenz als Wechselstrom dient nur als Mittel zum Zweck: ▬ sie macht den Strom für den Patienten verträglicher, was zu einer ▬ tieferen Wirkung führt, ▬ erlaubt Behandlung von Patienten mit Metallimplantaten und ▬ vermeidet die Entstehung von Säure und Lauge auf der Haut, die bei Gleichstrom und jedem gleichgerichteten Reizstrom mehr oder minder auftritt. Zwei Applikationsformen sind in der Praxis üblich: 1. Die vierpolige Applikationsweise. Hierbei werden zwei mittelfrequente Ströme mit unterschiedlicher Frequenz von zwei Stromkreisen dem Körper zuge-
führt. Im Körpergewebe überlagern sich die Ströme, und es entstehen durch Interferenz die niederfrequenten Schwebungen. Deswegen werden diese mittelfrequenten Ströme auch Interferenzstrom genannt (⊡ Abb. 34.11). 2. Die zweipolige Applikationsweise. Hierbei werden beide Ströme bereits im Gerät gekoppelt und die Interferenz entsteht sowohl unter den Elektroden als auch im Gebiet dazwischen. In der Praxis ist die gebräuchlichste Form des amplitudenmodulierten Stroms der Interferenzstrom. Das elektrotherapeutische Verfahren mit Interferenzstrom wird mit einem modifizierten Elektrotherapiegerät, dem Interferenzstromgerät (⊡ Abb. 34.12), durchgeführt.
⊡ Abb. 34.11. Vierpoliger Interferenzstrom mit Verteilung im Behandlungsgebiet
Mittelfrequenz Verfahren
Stromform
unmoduliert
moduliert
Wymoton
zweipolig dreipolig (bipolar) (tripolar)
vierpolig sechspolig (tetrapolar)
Interferenz unter den Elektroden und im Körper
Interferenz nur im Körper
⊡ Abb. 34.10. Mittelfrequente Reizströme und Verfahren
Amplipuls
Interferenzverfahren n. Nemec
Stereodynamisches Verfahren
611 34.4 · Ultraschalltherapie
Hochfrequente Ströme Hochfrequente Ströme werden in der Elektrotherapie zur Hochfrequenztherapie eingesetzt. Dabei finden elektrische und magnetische Wechselfelder sowie elektro-
magnetische Wellen >100 kHz Anwendung. Ein direkter Kontakt mit der Hautoberfläche besteht nicht. Elektromagnetische Wellen werden im Körper in Wärme umgewandelt und haben eine tiefgehende Wirkung. Hierzu werden die Kurzwelle, Mikrowelle und Dezimeterwelle eingesetzt.
Kurzwelle Die Kurzwelle wird in der Elektrotherapie mit einer festen Frequenz von 27,12 MHz und einer dazugehörigen Wellenlänge von 11,06 m eingesetzt, da es ansonsten zu Störungen im Funkverkehr kommt. Sie wird entweder in einem elektrischen Wechselfeld (Kondensatorfeld, ⊡ Abb. 34.13) oder in einem magnetischen Wechselfeld (Spulenfeld) verabreicht.
Mikrowelle Für die Elektrotherapie werden Mikrowellen mit einer Frequenz von 2450 MHz und einer Wellenlänge von 12,5 cm eingesetzt. Appliziert werden die Mikrowellen mit monopolarer Technik in Form von Strahlern (z. B. Hohlfeld-, Rundfeld-, Langfeld- oder Fokusstrahler), die auf Gerätehaltearme montiert sind. ⊡ Abb. 34.12. Interferenzstromgerät (Stromkreis 1: dunkles Elektrodenkabel; Stromkreis 2: helles Elektrodenkabel)
Dezimeterwelle Die Dezimeterwelle (433,9 MHz; λ~69 cm) wird wie die Mikrowelle mit monopolarer Technik in Form von Strahlern (z. B. Pyrodor-Strahler, Rundfeld- oder Langfeldstrahler), die auf Gerätehaltearme montiert sind, appliziert.
34.4
⊡ Abb. 34.13. Gerät zur Hochfrequenztherapie mit Kondensatorelektroden
Ultraschalltherapie
Als Ultraschall wird eine mechanische Schwingung (Dichte- oder Druckwelle) mit einer Frequenz zwischen 20 kHz und einem GHz innerhalb des akustischen Spektrums bezeichnet. Für elektrotherapeutische Anwendungen werden Frequenzen von 800 KHz, 1 MHz und 3 MHz eingesetzt. Die therapeutische Wirkung des Ultraschalls beruht auf der Absorption der Schallwellen im Gewebe und deren Umwandlung in Wärme. Die Schallintensitäten liegen um 0,5 W/cm2. Da das piezoelektrische Element nicht auf seiner ganzen Fläche gleichmäßig schwingt, ist die effektiv abstrahlende Fläche (ERA = Effective Radiating Area) des Schallkopfes immer kleiner als seine geometrische Oberfläche (⊡ Abb. 34.14). Das in den Körper eindringende Ultraschallbündel lässt sich in ein Nahfeld (Fresnel Zone) und Fernfeld (Fraunhofer Zone) einteilen. Während das Nahfeld unmittelbar unter dem Schallkopf beginnt und die Ausdehnung der Schallwellen von der Schallfrequenz und der Schallkopfgröße abhängt, weist das Fernfeld keine Interferenzphänomene auf und ist deshalb für die therapeutische Anwendung nicht von Bedeutung. Als sog.
34
612
Kapitel 34 · Einführung in die Elektrotherapie
geometrisches Arreal ERA
Nahfeld = 10 cm
Fernfeld
III ⊡ Abb. 34.14. Effektives Strahlungsareal (ERA) eines Ultraschallkopfs ⊡ Abb. 34.15. Lasergerät zur elektrotherapeutischen Anwendung mit Laserstift
Beschallungsverfahren werden die dynamische, semistatische und statische Beschallung unterschieden, wobei die ersten beiden Verfahren direkt lokal oder indirekt angewendet werden können. Das Wirkungsspektrum der Ultraschalltherapie umfasst: ▬ Wärmewirkung durch mechanische Reibung, ▬ Zellstoffwechselerhöhung und Permeabilitätssteigerung, ▬ Schmerzlinderung, ▬ Anregung von Knochenwachstum nach Frakturen, ▬ Lösen von Gewebsverklebungen, Verhärtungen und Narbenadhäsionen, ▬ Reduktion von Kalkablagerungen und ▬ Stimulation der lokalen Abwehr bei der Wundheilung.
34.5
Lasereinsatz in der Elektrotherapie
Die Lasertherapie gilt neben der Hochfrequenz in der Elektrotherapie als die wirksamste Methode, um eine Tiefenwirkung zu erzielen. Der Laserstrahl kann problemlos oberflächliche Strukturen durchdringen und so in der Tiefe seine Wirkung entfalten. Für die elektrotherapeutische Anwendung kommen zwei Arten von Laser zum Einsatz: Helium-Neon-Laser (HeNE-Laser), ein Gaslaser mit einer Wellenlänge von 632 nm und der GalliumArsenidlaser (GaAs-Laser), ein Halbleiterlaser mit Galliumarsenid als aktivem Material, mit einer Wellenlänge von 904 nm. In der Physiotherapie kommen Intensitäten zwischen 10 und 500 mW zur Anwendung. Es werden zwei Applikationsformen unterschieden: 1. punktuelle statische Behandlung, bei der der Lasergriffel aufgesetzt und nicht bewegt wird; 2. lokale Strichführung, indem der Laserstift linear über das Behandlungsgebiet geführt wird, um eine größtmögliche Eindringtiefe zu erreichen. Die Anwendung erfolgt mit einem kleinen Laserstab, genannt Lasergriffel (⊡ Abb. 34.15), der über das fokussierte Gebiet in Form von Strichen geführt wird. Die
Behandlungszeiten sind im Gegensatz zu den anderen elektrotherapeutischen Methoden relativ kurz: Eine bis etwa fünf Minuten. Das spezifische Wirkungsspektrum der Lasertherapie umfasst: ▬ Entzündungshemmung, ▬ Schmerzlinderung, ▬ Beschleunigung der Wachstumsgeschwindigkeit von verletzten Nerven, der Ödemresorption sowie der Regeneration von arteriellen, venösen und lymphatischen Gefäßen und ▬ Aktivierung der Bildung neuer Blutkörperchen im Knochenmark. Die Behandlungszeit kann nach der Formel t=
benötigte Dosis (
J ) ⋅ Behandlungsfläche (cm 2 ) ⋅1000 cm 2 Laserleistung (mW )
berechnet werden. Die durchschnittliche Laserleistung (mW) lässt sich aus PLaser =
Spitzenleistung (W ) ⋅ Im pulsdauer (ns ) ⋅ Frequenz ( Hz ) 10 6
ermitteln.
Lichttherapie Unter Lichttherapie (syn. Phototherapie) wird die Behandlung mit natürlichem oder künstlichem Licht verstanden. Folgende Lichtbehandlungen lassen sich unterscheiden: 1. Photochemotherapie mit einem lichtsensibilisierenden, langwelligen UV-A-Licht (PUVA) 2. Selektive UV-Phototherapie (SUP) mit überwiegendem UV-B-Anteil (λ=292–335 nm) 3. UV-A1-Therapie mit langwelligen UV-A Strahlen (λ=340–400 nm) 4. Photodynamische Therapie mit Photosensibilisatoren und Laserlicht (λ=580–740 nm)
613 34.6 · Elektrotherapeutische Elektroden
34.6
Elektrotherapeutische Elektroden
Je nach Anwendungsgebiet und Krankheitsbild werden unterschiedliche Elektroden für elektrotherapeutische Anwendungen eingesetzt. Die ⊡ Tab. 34.4 gibt eine Übersicht über die gebräuchlichsten Elektroden. Elektrotherapeutische Elektroden, die an der zu behandelnden Körperstelle angelegt werden, werden als differente Elektrode oder Wirkelektrode bezeichnet. Hingegen fungiert die indifferente Elektrode nur als Bezugselektrode und kann prinzipiell überall am Körper angelegt werden. Bei Gleichstrom wird die differente Elektrode als Anode genutzt, da unter dieser der Anelektrotonus zur Beruhigung und Schmerzschwellenerhöhung genutzt werden soll. Dagegen ist bei niederfrequenten Reizströmen die Kathode die differente Elektrode, da unter ihr die Auslösung des »Schmerzverdeckungseffektes« besonders wirksam ist. Sind zwei Elektroden unterschiedlich groß, dient die kleinere Elektrode aufgrund der größeren Stromdichte als differente Elektrode. Bei der lontophorese können Anode oder Kathode oder beide als differente Elektroden fungieren, je nach verwendetem Medikament. Beim Wechselstrom (Interferenz, biphasischer Impulsstrom) gibt es keine differente Elektrode.
34.6.1 Elektrodenapplikation
Die zur elektrotherapeutischen Anwendung kommenden Elektroden werden unterschiedlich angebracht:
1. Querdurchströmung (transversale Applikation). Hierbei wird das Elektrodenpaar so angelegt, dass der Strom quer zur Körperlängsachse fließt. Hauptindikation ist die Behandlung von Gelenken. 2. Längsdurchströmung. Die Stromrichtung liegt parallel zur Körperlängsachse. Es ist unbedingt zu beachten, dass bei Behandlungen an der Wirbelsäule die Anode kranial und die Kathode kaudal angelegt wird (absteigende Behandlung). Diese Anordnung wirkt beruhigend auf das Nervensystem und schmerzlindernd. Bei umgekehrter Elektrodenanlage können besonders an der Halswirbelsäule unangenehme Reaktionen, z. B. Kopfschmerz oder Schwindel, hervorgerufen werden. Eine spezielle Anwendungsform sind die hydrogalvanischen Teilbäder. 3. Schmerzpunktbehandlung. Die differente Elektrode (bei Gleichstrom die Anode, bei Reizströmen die Kathode) wird auf dem Schmerzpunkt angelegt, die Bezugselektrode in einigen Zentimetern Entfernung nach den Regeln der absteigenden Behandlung: – proximal bei Reizströmen, – distal bei Gleichstrom oder – auf gleicher Höhe bei beiden Stromarten. Mobile Applikation. Hauptanwendungsgebiet ist die Behandlung eines großen Gebietes oder das Auffinden hyperalgetischer Zonen, der »Triggerpoints« (Schmerzpunktsuche). Eine oder zwei Elektroden sind ständig in Bewegung. Sind beide Elektroden mobil, z. B. bei den Handschuhelektroden, muss der Patient die Stromstärke
⊡ Tab. 34.4. Elektrotherapeutische Elektroden Elektrodenart
Eigenschaften
Plattenelektrode
Häufigste Elektrodenart, die in unterschiedlichen Größen aus Zinnblech oder graphitbeschichtetem Weichgummi hergestellt wird und selbst angefertigt werden kann. Geeignet für mittlere bis große Behandlungsflächen: Rumpf, Schulter-, Hüft-, Hand- oder Fußgelenk. Das Zinnblech lässt sich sehr gut auf eine gewünschte Größe zuschneiden. Nachteil der Zinnblechelektroden ist, dass sie mit der Zeit korrodieren und brüchig werden.
Saug- oder Vakuumelektrode
Eine im Aufbau einer Saugglocke aus Kunststoff ähnelnde Elektrode, in der ein runder Schwamm als feuchte Zwischenlage die Verbindung zur Elektrode herstellt. Sie lässt sich schnell angelegen und gut fixieren. Besonders für Hals- und Brustwirbelsäule geeignet, da hier ansonsten schlechte Fixierungsmöglichkeiten bestehen.
Klebeelektrode
Einmalelektrode mit selbstklebender Metalloberfläche, die zwar leicht anzulegen, aber auch teuer ist.
Punktelektrode
Hat die Form eines Stiftes mit einer Filzolive an einem Ende. Geeignet für Nervenreizpunkte, Schmerzpunkte und Reizung von kleinen Muskeln.
Bügelelektrode
Elektrode, die für kleine Behandlungsflächen, segmentale Behandlungen an der Wirbelsäule oder bipolare Muskelreizung geeignet ist. Nachteilig ist bei längeren Behandlungszeiten die Ermüdung der Hand.
Rollenelektrode
Elektrode, die die Form einer Rolle aufweist und einen Griff besitzt. Sie wird manuell über das Behandlungsgebiet geführt. Vorteile: Der Strom lässt sich schnell an der Körperoberfläche verteilen, ist geeignet für größere Behandlungsareale und bietet einen zusätzlichen Massageeffekt.
Handschuhelektrode
Handschuh aus Kunststoff mit Schwammunterlage. Vorteile wie Rollenelektrode.
Spangen- oder Kopfhörerelektrode
Der Aufbau ist ähnlich dem eines Kopfhörers: Ein Metallbügel mit Rundelektroden an beiden Enden. Vorteilhaft ist die leichte Fixation.
34
614
III
Kapitel 34 · Einführung in die Elektrotherapie
regeln. Bei einer mobilen Elektrode ist die indifferente Elektrode am Körper fixiert, während die differente Elektrode über das therapeutisch zu beeinflussende Gebiet geführt wird. Die gebräuchlichsten mobilen Elektroden sind: Rollenelektroden, Handschuhelektroden oder der Ultraschallkopf bei der Kombination von Ultraschall und Strom (= Simultanbehandlung). Gangliotrope Applikation. Ein Ganglion wird direkt durch die differente Elektrode (Kathode) mit Strom beeinflusst. Wichtigste Indikation ist die Behandlung des Ganglion stellatum bei Morbus Sudeck. Nervenstammapplikation. Das Elektrodenpaar wird im Verlauf eines peripheren Nerven angelegt, um diesen direkt zu beeinflussen. Vasotrope Applikation. Die Elektroden werden direkt im Verlauf eines arteriellen peripheren Gefäßes angebracht. Hierdurch wird der Gefäßtonus durch Lumenerweiterung direkt beeinflusst (z. B. bei Durchblutungsstörungen). Wirbelsäulenapplikationen. Bei der Therapie der Wirbelsäule wird diese direkt oder ein dem entsprechenden Segment zugeordnetes peripheres Körpergebiet indirekt behandelt (indirekte, segmentale, radikuläre oder Nervenwurzelbehandlung).
Weiterführende Literatur Wenk W (2004) Elektrotherapie. Springer, Berlin Heidelberg New York Kramme R (2004) Springer Wörterbuch. Technische Medizin. Springer, Berlin Heidelberg New York
35 Biosignale erfassen und verarbeiten K.-P. Hoffmann
35.1 Messen in der Medizin
– 617
35.1.1 Besonderheiten des Messens in der Medizin 35.1.2 Biosignale – 618 35.1.3 Biologische Messkette – 618
– 617
35.3.1 Biostatistische Verfahren – 634 35.3.2 Biosignalanalyse – 635
35.2 Erfassung biologischer Signale – 627 35.2.1 35.2.2 35.2.3 35.2.4 35.2.5 35.2.6
35.1
Bioakustische Signale – 627 Biochemische Signale – 628 Bioelektrische und biomagnetische Biomechanische Signale – 630 Biooptische Signale – 633 Biothermische Signale – 633
Signale
35.3 Messwert- und Signalanalyse aus messtechnischer Sicht – 634
– 628
Messen in der Medizin
35.1.1 Besonderheiten des Messens
in der Medizin Messen ist die experimentelle Bestimmung eines Messwertes durch quantitativen Vergleich der Messgröße mit einer Vergleichsgröße. Der so gewonnene Messwert wird als Produkt aus Zahlenwert und Maßeinheit angegeben. Er kann kontinuierlich als zeitliche Veränderung einer physikalischen Größe oder zu einzelnen Zeitpunkten diskontinuierlich erfasst werden. Die Abweichung des Messwertes von der Messgröße ist der Messfehler. Er ist vom gewählten Messverfahren, vom Messmittel oder Messgerät und den Einflüssen der Umwelt abhängig. Man unterscheidet systematische und zufällige Fehler. Die Messung selbst kann direkt oder in Abhängigkeit von gewählten Messverfahren auch indirekt erfolgen. So wird bspw. die Konzentration von Stoffen über die messbaren Größen Extinktion, Ionenaktivität, Dielektrizitätskonstante oder magnetische Suszeptibilität bestimmt. Dabei wird die Messgröße mit dem Ziel einer weiteren Signalverarbeitung in eine oder mehrere Zwischengrößen umgewandelt. Das Ergebnis einer Messung besteht aus dem Messwert selbst oder einer Verknüpfung von mehreren Messwerten. Das Messen in der Medizin dient der objektiven Beschreibung des Zustands eines ggf. auch nicht kooperationsfähigen Patienten. Es soll dem Arzt helfen, die jeweilige Therapie festzulegen bzw. den Therapiever-
35.4 Vesuchsplanung und klinische Studien – 637 Weiterführende Literatur – 638
lauf zu beurteilen. Auch lässt sich so oftmals die Prognose des Krankheitsverlaufs abschätzen. Langzeitige Überwachungen physiologischer Größen im Rahmen eines Monitorings sind mit einer Alarmfunktion beim Über- bzw. Unterschreiten eingegebener Grenzwerte verbunden. Die Weiterentwicklung besteht in Closedloop-Systemen, die sich nach Analyse der Messwerte direkt auf den Zustand des Patienten auswirken, bspw. bei der Infusionstherapie durch Erhöhung oder Verminderung der Infusionsrate. Aber auch die Untersuchung von nicht kooperationsfähigen Patienten wird durch die Gewinnung von objektiven Parametern oftmals erst möglich (⊡ Abb. 35.1).
⊡ Abb. 35.1. Messen in der Medizin
618
IV
Kapitel 35 · Biosignale erfassen und verarbeiten
Häufig werden in der Medizin verschiedene Verfahren kombiniert, wie z. B. in der Kopfdiagnostik die Kombination von funktionellen, metabolischen und morphologischen Methoden beim »functional brain imaging«. Hier kann die gemeinsame Auswertung von EEG, CT, MRT, PET und MEG bspw. in der prächirurgischen Diagnostik epileptischer Anfallsleiden und der Lokalisation des epileptischen Fokus neue Erkenntnisse bringen. Für die Messtechnik in der Medizin lassen sich damit folgende Aufgaben finden: 1. Messtechnische Erfassung, Wandlung, Verarbeitung und ggf. telemetrische Übertragung von biologischen Signalen. 2. Messung der Reaktion oder des Verhaltens des biologischen Objektes auf einen äußeren Reiz. 3. Messungen im Rahmen des Einsatzes von extra- oder intrakorporalen Assistsystemen zur Unterstützung von Organfunktionen oder als Organersatz sowie von Manipulatoren zur Durchführung therapeutischer Maßnahmen. 4. Applikation von Substanzen, Strahlungen oder Wellen und Messung von Reflexion, Absorption, Streuung, Verteilung oder Fluoreszenz zur Darstellung von Strukturen und Funktionsabläufen im Organismus. 5. Entnahme von Körperflüssigkeiten, Substanzen und Geweben sowie Test im klinisch-chemischen Labor. Vergleicht man technische Messungen mit denen am biologischen Objekt, so findet man aufgrund der biologischen Variabilität interindividuelle und intraindividuelle Abweichungen. Dies bedeutet, dass sich die gewonnenen Messwerte von Patient zu Patient unterscheiden. Aber auch bei ein und demselben Patienten treten im Tagesverlauf unterschiedliche Messwerte (z. B. Blutdruck) auf. Der Grad der Belästigung für den Patienten und die Durchführung der Methode hat einen direkten Einfluss auf die Auswertbarkeit der gewonnenen Messwerte. Beachtet werden muss auch, dass biologische Störquellen (biologische Artefakte physiologischer Herkunft) der zu messenden Größe überlagert sind. Die Messzeit und die Wiederholbarkeit einer Untersuchung sind bei den meisten Methoden limitiert. Hinzu kommt die breite Variabilität der zu untersuchenden Personen, die vom Fetus über das Kleinkind und den durchtrainierten Sportler bis hin zum Greis führt. Demgegenüber stehen die subjektiven Methoden, die auf die Mitarbeit des Patienten angewiesen sind. Hierzu zählen Audiometrie, Vibrationstests und Temperaturempfinden.
relevante Aussagen messtechnisch erfasst werden soll. Man kann die Biosignale als Phänomen zur Beschreibung des Funktionszustands und der Zustandsänderung eines lebenden Organismus bzw. Teilen davon definieren. Sie geben Auskunft über metabolische, morphologische und funktionelle Veränderungen, beschreiben physiologische und pathophysiologische Zustände sowie die Dynamik von Prozessen. Für ihre Analyse ist der Ort der Generierung und damit die räumliche und zeitliche Zuordnung bedeutungsvoll. Sie werden vom lebenden Organismus, Organen und Organteilen bis hin zu einzelnen Zellen gewonnen. Biosignale lassen sich aufgrund ihrer Eigenschaften unterscheiden. So findet man einerseits Strukturgrößen, wie z. B. Länge, Fläche, Menge, Volumen, Elastizität und Viskosität, andererseits Funktionsgrößen, wie z. B. Temperatur, Druck, Flow, elektrische Potentiale und akustische Geräusche. Beschrieben werden Biosignale durch ihre Frequenz, Amplitude, Form und den Zeitpunkt ihres Auftretens. Sie lassen sich im Zeit- und Frequenzbereich, aber auch als zwei- und dreidimensionale Bilder darstellen. Ihr Auftreten kann stochastisch, stationär, periodisch und diskret sein. ⊡ Abb. 35.2 gibt einige Beispiele für Biosignale. Entsprechend ihren physikalischen Eigenschaften lassen sich Biosignale einteilen in: 1. bioakustische Signale (Herzschall, Lungengeräusche, Sprache), 2. biochemische Signale (Stoffzusammensetzungen, Konzentrationen), 3. bioelektrische und biomagnetische Signale (elektrische Potentiale, Ionenströme), 4. biomechanische Signale (Größe, Form, Bewegungen, Beschleunigung, Flow), 5. biooptische Signale (Farbe, Lumineszenz), 6. biothermische Signale (Körpertemperatur).
35.1.3 Biologische Messkette
Die biologische Messkette dient der messtechnischen Erfassung von Biosignalen. Sie besteht aus der Erfassung (Sensor, Wandler), der Verarbeitung (Verstärkung, Filterung, Linearisierung, Übertragung), der Analyse (Biostatistik, Biosignalanalyse, Bildverarbeitung) und der Darstellung der biologischen Signale. Ziel ist es, dem Arzt für die Befundung und Diagnosestellung eine Hilfe zu geben. ⊡ Abb. 35.3 zeigt den prinzipiellen Aufbau einer biologischen Messkette.
35.1.2 Biosignale
Messfühler
Das Biosignal ist in der biologischen Messkette die eigentliche Messgröße, die als Zielgröße für diagnostik-
Ein Biosensor ist ein Messfühler zur Erfassung von Lebensvorgängen und morphologischen Strukturen. Er ist häufig unmittelbar mit einem Wandler verbunden oder selbst
619 35.1 · Messen in der Medizin
⊡ Abb. 35.2. Beispiele für messtechnisch erfassbare Biosignale
⊡ Abb. 35.3. Aufbau der biologischen Messkette
35
620
IV
Kapitel 35 · Biosignale erfassen und verarbeiten
der Wandler (z. B. Elektrode), der das primäre Messsignal in ein sekundäres wandelt. Das sekundäre Messsignal ist meistens ein elektrisches Signal, welches leicht elektronisch weiter verarbeitet werden kann. Beispiele für erfassbare Größen sind Blutdruck, Körpertemperatur, Herzfrequenz, bioelektrische Potentiale (EEG, EKG, EMG, EOG), metabolische Parameter (Glukose, pH-Wert) sowie die Größe und Lokalisation von raumfordernden Prozessen. Bei Biosensoren im engeren Sinne ist der an den Wandler gekoppelte Messfühler eine biologische Detektionskomponente. Diese hat die Aufgabe, mit der zu analysierenden Substanz spezifisch und sensitiv zu reagieren. Dabei können Wärme, Elektronen, Protonen, Licht, Ionen, Gase, Fluoreszenz und Masseänderungen entstehen. Die biologische Komponente als eigentlicher Signalgeber kann aus Enzymen, Mikroorganismen, Organellen, Zellverbänden, oder Antikörpern bestehen. Sie wird am Wandler immobilisiert. ⊡ Abb. 35.4 zeigt schematisch einen Biosensor. Die hauptsächliche Anforderung an Biosensoren ist eine rückwirkungsfreie Erfassung der Signale. Sie müssen reproduzierbare Messergebnisse liefern. Das Übertragungsverhalten muss über eine lange Zeit konstant bleiben, um Langzeitableitungen und das Monitoring zu ermöglichen. Enge Auslieferungstoleranzen, eine hohe Bioverträglichkeit, geringe Belastung für den Patienten, geringe Masse und geringes Volumen sind weitere Forderungen. Die Anwendung sollte einfach und überschaubar sein. Dies betrifft im besonderen Maße Möglichkeiten der Reinigung, Desinfektion und ggf. Sterilisation. Entwicklungsziele für Sensoren liegen in der Erhöhung der Zuverlässigkeit einschließlich der Verringerung von Artefakten, der Erhöhung der Kanalzahl (Multitransducertechnik) und der Erhöhung der Komplexität (Closedloop-Systeme). Dies wird zum einen durch die Miniaturisierung einschließlich der Verringerung von Masse, Volumen und Leistungsaufnahme, durch neue biokompatible Materialien und durch die Verbesserung der Möglichkeit
⊡ Abb. 35.4. Schematische Darstellung eines Biosensors
einer Inkorporation erreicht. Zum anderen gilt es, neue berührungslose Messverfahren zu entwickeln, die dann eine völlig rückwirkungsfreie Erfassung gestatten.
Wandler Chemoelektrische Wandler Chemoelektrische Wandler dienen der Messung einzelner chemischer Komponenten im Blut, im Körpergewebe, der Atemluft oder auf der Haut. Man unterscheidet ▬ potentiometrische Sensoren, basierend auf Messung der Zellspannung, ▬ amperometrische Sensoren, basierend auf dem Zellenstrom und ▬ konduktometrische Sensoren, basierend auf der Admittanz. Potentiometrische Wandler bestehen i. Allg. aus einer in die zu untersuchenden Elektrolyten eingetauchten Metallelektrode, die mit einer selektiv durchlässigen Membran umgeben ist. Die an der Elektrode ankommenden Ionen oder Moleküle verändern die elektrochemische Potentialdifferenz zwischen dieser Messelektrode und einer in eine definierte Referenzlösung getauchten Bezugselektrode. Die zugehörige Spannungsänderung ist proportional dem Logarithmus der Ionenkonzentration. ⊡ Abb. 35.5 veranschaulicht als Beispiel das Prinzip einer pCO2-Elektrode. Bei ionenselektiven Feldeffekttransistoren ist das Gate von einer Membran umgeben. Eine Diffusion von Ionen oder Molekülen durch die Membran bewirkt eine Änderung des Drainstroms, der als Messsignal erfasst werden kann. Elektrische und magnetische Wandler Elektrische Wandler sind Ableitelektroden, die ein elektrisches Signal (Ionenstrom) in ein elektrisches Signal (Elektronenstrom) wandeln. Sie werden nach den Eigenschaften des jeweiligen Biosignals, der Lokalisation des Entstehungsortes, der Ausdehnung des bioelektrischen Generators und den Umgebungseinflüssen ausgewählt. Man unterscheidet Mikroelektroden (Glaskapillarmikroelektroden, Metallmikroelektroden) und Makroelektroden (Oberflächenelektroden, subkutane Nadelelektroden und Tiefenelektroden). ⊡ Abb. 35.6 stellt schematisch verschiedene Nadelelektroden dar. Bei reinen Metallelektroden bzw. polarisierbaren Elektroden treten positiv geladene Metallionen in die Elektrolytlösung, wodurch es zum Aufbau der HelmholtzDoppelschicht mit molekularem Abstand kommt. Dies bewirkt, dass insbesondere im niederfrequenten Bereich höhere Elektrodenwiderstände auftreten. Damit ist das Anwendungsgebiet dieser Elektroden die Ableitung höherfrequenter Signale, wie z. B. die evozierten Potentiale. Bei unpolarisierbaren Elektroden ist das Anion der Elektrolytlösung Bestandteil der Metallelektrode (z. B. Ag/
35
621 35.1 · Messen in der Medizin
⊡ Abb. 35.5. Aufbau und Wirkungsweise einer pCO2-Elektrode
men wird. Diese bewirkt eine Auslenkung der Membran, die mit einer Formänderung von Dehnmessstreifen oder Halbleiterwiderständen, einer Verschiebung kleiner Eisenoder Ferritkerne in einer Spule bzw. einer Änderung des Plattenabstands eines Kondensators verbunden ist. Für einen Dehnmessstreifen ergibt sich der Widerstand aus den geometrischen Verhältnissen. R
⊡ Abb. 35.6. Nadelelektroden für elektromyographische Untersuchungen. Von oben nach unten: konzentrische Nadelelektrode, Einzelfaserelektrode, unipolare Nadelelektrode (oben indifferent, unten different)
AgCl-Elektrode, Elektrolyt NaCl, Anion Cl–). Dies führt zur Verminderung und Stabilisierung der Galvani-Spannung und damit zu geringen Übergangswiderständen im gesamten Frequenzbereich. ⊡ Abb. 35.7 zeigt das Ersatzschaltbild einer Elektrode einschließlich der Polarisationsspannung. Biomagnetische Untersuchungen sind mittels supraleitendem Quanteninterferometer möglich. Diese enthalten 1 oder 2 Josephson-Elemente, die einen Stromfluss ohne Spannungsabfall ermöglichen. Sie sind als Gradiometer aufgebaut, um die homogenen sensorfernen Magnetfelder, insbesondere das Erdmagnetfeld, zu unterdrücken (⊡ Abb. 35.8). Mechanoelektrische Wandler Zur Messung von Längenänderungen, Dehnungen, Druckschwankungen im Gewebe, Körperflüssigkeiten und Organen, Messungen von Geräuschen, Mikrovibrationen und Blutflussmessungen werden mechanoelektrische Wandler eingesetzt. Resistive, induktive und kapazitive Wandler haben eine Membran, über die die Kraftänderung aufgenom-
U
I A
(1)
Hier bedeuten: R Ohm’scher Widerstand, ρ spezifischer Widerstand, l Länge, A Leiterquerschnitt. Aufgrund der Veränderung des Plattenabstands eines Kondensators infolge einer Krafteinwirkung ändert sich auch dessen Kapazität. CX
H 0 HJ
A x
(2)
Hier bedeuten: C Kapazität, A Fläche, x Plattenabstand, ε Dielektrizitätskonstante. Über geeignete Messbrücken wird der Messwert ermittelt. Piezoelektrische Wandler bestehen aus piezoelektrischen Kristallen. Bei mechanischer Beanspruchung in Richtung einer polaren elektrischen Achse entstehen bei sehr kleinen Verformungen durch die Verschiebung der Atome elektrische Ladungen. Die induzierte Oberflächenladung ist das Produkt aus piezoelektrischer Konstante und äußerer Kraft. 'q
k 'F
Hier bedeuten: Δq induzierte Oberflächenladung, ΔF Kraftänderung, k piezoelektrische Konstante.
(3)
622
IV
Kapitel 35 · Biosignale erfassen und verarbeiten
⊡ Abb. 35.7. Elektrisches Ersatzschaltbild zur Ableitung von Biopotentialen mittels Oberflächenelektroden (U Spannungsquelle für Signal und Artefakte, Ri Innenwiderstand, RG CG Gewebeimpedanz, RH CH Hautimpedanz, RÜ CÜ Elektrodenübergangswiderstand, UP Polarisationsspannung)
Hall-Sonden werden benutzt, um Magnetfelder auszumessen und somit alle Größen zu erfassen, die Magnetfelder erzeugen oder beeinflussen. Die Hall-Spannung entsteht infolge der Lorenz-Kraft und ist proportional einem Steuerstrom in Längsrichtung des von einem Magnetfeld durchsetzten Plättchens und dessen magnetischer Flussdichte. Sie nimmt mit der Elektronenkonzentration ab und mit der Elektronengeschwindigkeit bzw. der Elektronenbeweglichkeit zu. ⊡ Abb. 35.10 zeigt den Aufbau und die Kennlinie einer Hall-Sonde.
⊡ Abb. 35.8. Schematische Darstellung eines Gradiometers 1. (links) und 2. (rechts) Ordnung zur Erfassung biomagnetischer Felder in unabgeschirmter Umgebung
Daraus lässt sich die Spannungsänderung berechnen. 'U
'q 'C
k 'F
H0 HJ A
x
(4)
Hier bedeuten: ΔU Spannungsänderung, ΔC Kapazitätsänderung, A Fläche, x Plattenabstand, ε Dielektrizitätskonstante. Die Änderung der Oberflächenladung ist messbar. ⊡ Abb. 35.9 zeigt schematisch den Aufbau einer Piezokeramik.
Photoelektrische Wandler Als photoelektrische Transducer sind Photowiderstand, Photodiode, Photoelement und Phototransistor zu zählen. In Abhängigkeit von der einfallenden Lichtstärke ändert sich der durch das Bauelement fließende Strom. Damit sind Lichtabsorptionen und Lichtreflexionen von Körpergewebe und biologischen Substanzen zur Messung der Durchblutung und der Sauerstoffsättigung erfassbar. Thermoelektrische Wandler Bei einem Thermoelement, das aus 2 verschiedenen Metalldrähten besteht, lässt sich bei einer Temperaturdifferenz zwischen den Kontakten eine Thermospannung messen. UT
D T T2 T1
(5)
Hier bedeuten: UT Thermospannung, T Temperatur, αT Seebeck-Koeffizient. Diese ist abhängig von der Temperatur und den gewählten Metallen (⊡ Abb. 35.11).
623 35.1 · Messen in der Medizin
⊡ Abb. 35.9. Grundprinzip des piezoelektrischen Effekts am Beispiel eines SiO2Quarzkristalls. Aufgrund der positiven Si-Ionen und negativen O2-Ionen kommt es zu einer Oberflächenspannung im deformierten Zustand. (A Oberfläche, F Kraft, Q+ und Q– elektrische Ladungen)
Thermistoren (NTC-Widerstände oder Heißleiter) sind gesinterte Bauelemente aus Oxidgemischen. In Abhängigkeit von der Temperatur ändert sich ihr Ohmscher Widerstand. Eine Linearisierung des exponentiellen Verlaufs der Kennlinie ist mittels Parallelschaltung eines Widerstandes möglich. Die Messung des Atemstroms und der Körpertemperatur wird routinemäßig mittels Thermistoren durchgeführt (vgl. auch ⊡ Abb. 35.27). Infrarotempfindliche Halbleitermaterialien, wie HGCdTe, InSb und PtSi, ermöglichen die Wandlung der von einem Patienten ausgehenden Infrarotstrahlung in ein elektrisch auswertbares Signal. Damit werden Temperaturverteilungen messbar. Voraussetzung ist die Kühlung der Materialien, die mittels flüssigem Stickstoff, StirlingKühler oder Peltier-Element erfolgen kann.
⊡ Abb. 35.10. Schematischer Aufbau einer Hall-Sonde (oben) und der zugehörigen Kennlinie (unten)
⊡ Abb. 35.11. Darstellung eines Thermoelements, das aus den Metallen A, B und C besteht. Die Thermospannung ist proportional der Summen der 3 Einzelspannungen an den Metallübergängen
Weitere Wandler Für eine indirekte Messung von Biosignalen werden auch Methoden eingesetzt, die nicht unmittelbar das Biosignal selbst erfassen, sondern die Beeinflussung von Strahlen und Wellen sowie die Verteilung radioaktiver Stoffe usw. messen. Hierzu zählen insbesondere die bildgebenden Verfahren mit dem Einsatz radioaktiver Isotope (PET, SPECT), Magnetfelder (MRT) und Röntgenstrahlen (CT, Angiographie). Wandler hierfür ist beim Einsatz von Isotopen die Szintillationskamera. Diese besteht aus einem NaJ-Einkristall, der eine γ-Strahlung in ein Lichtsignal wandelt. Treffen die Lichtquanten auf eine Photokatode, werden Elektronen frei, die mittels Sekundärelektronenvervielfacher verstärkt werden können. Bei Röntgenstrahlen nutzt man Leuchtschirme mit einer angrenzenden Photokatode und einem Bildverstärker. Für biochemische Untersuchungen in einem klinischchemischen Labor kommen vielfältige Wandler und Methoden zur Anwendung. Es werden chemische und biologische Reaktionen bspw. mit Antikörpern und Enzymen zum Einsatz gebracht, Zellkulturen auf Nährlösungen gezüchtet, Stoffe in ihre Bestandteile getrennt sowie die Wechselwirkung mit Licht, Magnetfeldern oder Flammen registriert. Wandler müssen eine Zählung von Teilchen, Zellen und Blutkörperchen sowie die zeitliche und räumliche Fraktionierung von Stoffen erfassen können. Hierzu
35
624
Kapitel 35 · Biosignale erfassen und verarbeiten
sind auch Veränderungen der chemischen Zusammensetzung von Stoffgemischen, Veränderungen der Färbung oder Temperatur, Absorption und Emission von Strahlung sowie die Erfassung der kernmagnetischen Resonanz und Elektronenspinresonanz zu zählen. Wandler sind bspw. Mikrophone bei einem PhotoAkustik-Spektrometer, Photodioden bei der Zählung fließender Blutkörperchen, die kurzzeitig einen Laserstrahl unterbrechen bzw. schwächen, Spulen bei der Magnetresonanzspektroskopie oder Halbleiter bei der Infrarotspektroskopie.
IV
Verstärker ⊡ Abb. 35.12 zeigt das prinzipielle Schaltbild eines Biosignalverstärkers bestehend aus zwei Eingangsimpedanzwandlern und einem Differenzverstärker. Dieser zeichnet sich durch einen hohen Eingangswiderstand bei geringem Ausgangwiderstand aus. Er ist als Differenzverstärker mit einer hohen Gleichtaktunterdrückung aufgebaut, sodass die Ausgangsspannung (U3) ein Vielfaches der Differenz der beiden Eingangsspannungen (U1 und U2) ist. Die weiteren Eigenschaften des Verstärkers sind die Empfindlichkeit bzw. Verstärkung, die Linearität zwischen Eingangs- und Ausgangssignal, der Frequenzgang, der Phasengang und das Rauschen. Je nach Eigenschaften des Biosignals sind Verstärkung und Frequenzgang zu wählen. Letzterer wird mittels Hoch- und Tiefpass geregelt.
Signalverarbeitung Das ideale Übertragungsverhalten einer Messkette ist linear, d. h. es besteht eine eindeutige direkte Beziehung zwischen einer Änderung der Messgröße und dem zugehörigen Messwert. Real finden sich aufgrund des ge-
wählten Messverfahrens, der Nichtlinearität der Wandler, des Einflusses messfehlerverursachender Störgrößen und der indirekten Erfassung der Messgröße keine linearen Zusammenhänge (⊡ Abb. 35.13). Einflussgrößen sind Veränderungen aufgrund von Temperaturschwankungen, Druckänderungen und der Alterung der Wandler. Ein Beispiel für ein nichtlineares Übertragungsverhalten eines Messsystems ist die invasive Messung des arteriellen Blutdrucks mit einem externen Wandler. Dieses setzt sich aus dem arteriellen Katheter, dem Mehrweghahn, dem Wandlerdom mit einem drucksensitiven Wandler und dem Spülsystem zusammen. Diese Koppelstrecke ist mit physiologischer Kochsalzlösung gefüllt. Infolge der Wandnachgiebigkeit der Schläuche und der Wandlermembran, des Strömungswiderstandes und des Volumens stellt es ein schwingungsfähiges Gebilde dar. Um den Einfluss auf Amplitude und Phase des Nutzsignals zu minimieren, sollten Katheter und Verbindungsschläuche möglichst steif, kurz und großlumig sein, Luftblasen vermieden werden, die Wandlermembran möglichst steif sein und die Koppelstrecke fixiert werden. Ziel der Signalverarbeitung ist daher die Korrektur des nichtlinearen Übertragungsverhaltens der Messkette. Durch eine meist mehrstufige Signalverarbeitung wird das Signal in ein vorrangig elektrisches Ausgangssignal überführt. Die Digitalisierung erlaubt dabei eine Vielzahl aufwändiger Algorithmen und Steuerungen. Zu ihnen gehören neben der Messgrößenumformung, Signalwandlung, Filterung und Verstärkung insbesondere die Linearisierung. Dies wird zum einen durch eine Stabilisierung des Nullpunktes und der Empfindlichkeit sowie die Vermeidung von Driften weitestgehend erreicht. Durch eine Kennliniennachführung ist die Steuerung des Übertra-
⊡ Abb. 35.12. Verstärkung von Biosignalen. Links: Aufbau eines Differenzverstärkers, rechts: Regelung des Frequenzgangs mit Hoch- und Tiefpass
625 35.1 · Messen in der Medizin
gungsverhaltens der Messkette möglich. Weitere Ansätze sind die Beschreibung der Messkette als Modell und die Identifikation der Koeffizienten sowie die Bestimmung der Parameter für eine adaptive Regelung. Voraussetzung hierfür ist eine Analog-Digital-Wandlung des Signals. Dabei wird das kontinuierliche Signal zeitlich abgetastet und in seiner Amplitude quantifiziert. Das Abtasttheorem nach Shannon besagt, dass die Abtastfrequenz dabei mindestens doppelt so groß sein muss wie die höchste im Signal enthaltene Frequenz (NyquistFrequenz). Für eine optimale Umsetzung der Kurvenform sollte die Abtastfrequenz noch höher (das 5–10fache der maximalen Signalfrequenz) gewählt werden. Ein Verletzen des Abtasttheorems wirkt sich in einer Verfälschung des Signals im Zeitbereich und durch das Auftreten von Spiegelungen im Frequenzbereich (»aliasing«) aus, die sich als scheinbare Amplitude im Frequenzspektrum zeigen.
Speicherung und Registrierung Direktschreibverfahren Direktschreibverfahren ermöglichen die direkte und unmittelbare Ausgabe der Signale auf einem Registrierpapier. Dies wird mit einem Schreibzeiger oder Hebelschreiber erreicht, dessen Auslenkung über ein Messwerk, häufig einen Drehmagneten in einem Spulenfeld, realisiert wird. Der Schreibzeiger kann beheizt sein und hinterlässt so auf einem thermosensitiven Papier einen Ausschrieb. Er kann aber auch als Düse ausgebildet sein, bei dem durch Spannungsimpulse ein Piezoelement angeregt wird oder durch Stromimpulse in einem Heizelement eine Dampfblase entsteht. In beiden Fällen wird durch den entstehenden Druck Tinte auf das Registrierpapier gespritzt. Beim Pigmentverfahren laufen Kohlepapier und Registrierpapier entgegengesetzt über eine Schreibkante, auf die der Schreibzeiger drückt. Seine Bewegungen hinterlassen so einen orthogonalen Ausschrieb. Weitere Verfahren sind der Laserdrucker und der Thermokammschreiber (⊡ Abb. 35.14). Bei letzterem sind auf einem Keramiksubstrat Thermoelemente angebracht, die digital ansteuerbar sind. Sie hinterlassen auf thermosensitivem Papier einen Ausschrieb. Neben den Kurven sind auch alphanumerische und graphische Ausgaben möglich. Indirektschreibverfahren Photoschreiber und UV-Schreiber, bei denen über einen Spiegel ein sich bewegender Lichtpunkt auf spezielles Photopapier projiziert wird, gehören zu den Indirektschreibverfahren. Hier liegt das Ergebnis erst nach der Entwicklung des Photopapiers vor. Monitor Messergebnisse sind ebenso auf einem Monitor oder auf digitalen und analogen Anzeigen darstellbar. Aufgrund der einfachen Ablesbarkeit kommt gerade letzteren eine große Bedeutung in der medizinischen Diagnostik und für das Monitoring intensivtherapierter Patienten zu. Speicherung Die Speicherung biologischer Signale erfolgt auf üblichen Datenträgern, wie z. B. Festplatte, DVD, CD-ROM, MOD, ZIP-Disketten und Magnetband. Dabei muss sichergestellt werden, dass die Datenträger ihre Informationen über einen Zeitraum von 10 Jahren in einem einwandfreien Zustand bewahren.
Übertragung (Telemetrie) ⊡ Abb. 35.13. Dynamische Eigenschaften eines Sensors. Links: Eingangs- und Ausgangsbeziehung bei nichtlinearer Übertragungsfunktion, rechts: Sensor mit Zeitverzug (Totzeit) und Schwingverhalten
Im Rahmen medizinischer Fragestellungen werden Signale immer häufiger telemetrisch übertragen. Dies kann Signale betreffen, die direkt im Körper des Patienten entstehen und über den Zustand des Patienten bzw. den Funkti-
35
626
IV
Kapitel 35 · Biosignale erfassen und verarbeiten
onszustand eines implantierten Gerätes Auskunft geben können. Beide Signale müssen zur Auswertung außerhalb des Körpers dargestellt werden (z. B. bei Herzschrittmacherpatienten das intrakardiale EKG und der Zustand der Batterie des Herzschrittmachers). Dies wird durch magnetische Übertragungsspulen realisiert. Zusätzlich kann auch ein Herzschrittmacher über diesen Weg programmiert werden. ⊡ Abb. 35.15 zeigt als Beispiel die Telemetrie für einen programmierbaren Herzschrittmacher. Dabei können die ausgelesenen Daten auch über Internet an eine Befundungsstation weitergegeben werden. Eine weitere Anwendung der Telemetrie findet man in der Untersuchung von Patienten, die sich während der Untersuchung frei bewegen. Hier müssen die Untersuchungsergebnisse an eine Auswertstation oder ein Diagnosezentrum übertragen werden. Insbesondere für Langzeituntersuchungen von EEG, EKG, Blutdruck und Wehendruck sowie in der Sport- und Arbeitsmedizin haben solche Anwendungen Bedeutung erlangt. Voraussetzung für eine telemetrische Übertragung ist ein Sender und eine entsprechende Modulation des zu übertragenden Signals. Bei der Amplitudenmodulation
⊡ Abb. 35.14. Aufbau eines Thermokamms
⊡ Abb. 35.15. Telemetrische Übertragungsstrecken für einen programmierbaren Herzschrittmacher (A über Sende- und Empfangsspulen, B über Internet zu einem Befundrechner)
wird das niederfrequente Signal in ein höherfrequentes Signal mit konstanter Frequenz, aber mit sich ändernder Amplitude gewandelt. Bei der Frequenzmodulation ist die Amplitudenänderung des Biosignals in der Frequenzänderung, bei der Pulsbreitenmodulation in der zeitlichen Dauer von Rechtecksignalen und bei der Pulsstellenmodulation in der zeitlichen Stellung zweier Impulse zueinander kodiert. Für die Auswertung und Darstellung benötigt man auf der Empfängerseite eine Demodulation. Auch Übertragungen über Telefon und Mobiltelefon sind möglich. Die digitale Übertragung von Biosignalen hat weitere Möglichkeiten der Signalübertragung auch über das Internet erschlossen. Dabei stehen prinzipiell die parallele und die serielle Datenübertragung zur Verfügung. Es existieren standardisierte Schnittstellen, wobei Datenübertragungsprotokolle erforderlich sind. Über telemetrische Übertragungen kann aber auch direkt auf den Patienten eingewirkt werden. Beispiele sind die Anwendung von Operationsrobotern in dünn besiedelten Gebieten der Erde. Hier eröffnet die Telemedizin neue Möglichkeiten.
627 35.2 · Erfassung biologischer Signale
Applikation von Reizen, Substanzen, Strahlungen und Wellen Für medizinische Fragestellungen ist es oftmals von Bedeutung, die Reaktion des Patienten auf Reize unter diagnostischen Gesichtspunkten zu betrachten. Diese Reize können mechanisch sein, bspw. zur Auslösung von Reflexen, elektrisch oder magnetisch zur Bestimmung der Nervenleitgeschwindigkeit, akustisch, optisch und elektrisch für die Stimulation im Rahmen der Ableitung evozierter Potentiale und der Prüfung von Sinnesleistungen. Mittels Substanzen, die auch radioaktiv markiert sein können, lässt sich deren Teilnahme am Stoffwechsel untersuchen und damit die Geschwindigkeit ihres Transports, der Ort ihrer Anreicherung und die Dynamik des Ausscheidungsprozesses bestimmen. Die Reflexion von Ultraschallwellen erlaubt die Darstellung auch von sich bewegenden Grenzflächen zur Darstellung von anatomischen Strukturen, aber auch von Bewegungsabläufen, bspw. der Herzklappen, und die Messung der Geschwindigkeit des Blutflusses. Die Messung der Absorption von Röntgenstrahlen erlaubt die Vermessung anatomischer Strukturen. Physische Belastungen werden für die Ergometerie und psychische Reize bei psychologischen Untersuchungen, bei denen z. B. die sympathische Hautantwort oder die Herzfrequenz gemessen wird, eingesetzt.
Prozesssteuerung Das zeitliche Zusammenspiel innerhalb der Messkette steuert die Prozesssteuerung. Hierzu sind insbesondere die Vorgänge der Signalverarbeitung mit der Einstellung der Abtastrate für die A/D- Wandlung, die Synchronisation des Averagers und des Stimulators sowie die Wahl des jeweiligen Zeitfensters zu zählen. Die Einstellung der Parameter für Verstärkung, Signalanalyse, die Speicherung und Registrierung erfolgt ebenfalls über die Prozesssteuerung.
⊡ Abb. 35.16. Biologische Artefakte im EEG. Von oben nach unten: Augenbewegungen, Schwitzen, Muskelkontraktionen, Puls und EKG
Elektrodenposition direkt über einem pulsierenden Gefäß, starkes Schwitzen und Spontanbewegungen des Patienten. In ⊡ Abb. 35.16 sind einige biologische Artefakte dargestellt. 2. Technische Artefakte sind Fehler in der Ableit- und Registriertechnik. Man findet sie aber auch in den Kontaktstellen (ElektrodeHaut, Kabel-Elektrode, Kabel-Stecker, Stecker-Buchse), bei gleichzeitiger Verwendung unterschiedlicher Elektrodenarten und Elektrodenmaterialien, Kabeldefekten, Kabelbewegungen und fehlender Erdung. 3. Extern verursachte technische Artefakte sind galvanisch eingekoppelte Störungen über direkte, auch hochohmige Leitungswege, kapazitiv eingekoppelte Ströme infolge elektrostatischer Wechselfelder, magnetische Wechselfelder und hochfrequente elektromagnetische Wechselfelder.
35.2
Erfassung biologischer Signale
Artefakte Die erfassten Biosignale sind häufig von Störungen, den sogenannten Artefakten, überlagert. Diese werden parallel mit dem Nutzsignal erfasst und erschweren die Auswertung bzw. machen sie oftmals unmöglich. Je nach Entstehungsort unterscheidet man biologische und technische Artefakte. Ursachen sind insbesondere in der Messtechnik, der verwendeten Methode und dem Patienten zu sehen. Am Beispiel der Elektroenzephalographie sollen die Artefakte kurz erläutert werden. 1. Physiologische Artefakte sind biologische Signale, die dem EEG überlagert, aber nicht zerebralen Ursprungs sind. Beispiele hierfür sind Augenbewegungen (EOG), verspannter Nacken (Muskelartefakte), EKG, Pulswelle bei einer
35.2.1 Bioakustische Signale
Viele biologische Prozesse sind mit akustischen Phänomenen (⊡ Tab. 35.1) verbunden. Hierzu zählen Geräusche der oberen Atemwege (Schnarchen, Sprache), Lungengeräusche und der Herzschall. Letzterer entsteht beim Öffnen und Schließen der Herzklappen und wird phonokardiographisch erfasst. Bei der unblutigen Messung des Blutdrucks werden Oszillationen der Gefäßwände als Signal registriert. Dieses entsteht beim Abdrücken der Gefäße und erreicht sein Maximum bei einem Manschettendruck, der zwischen dem systolischen und diastolischen Wert liegt. Mittels Mikrophon und Stethoskop sind bioakustische Signale erfassbar.
35
628
Kapitel 35 · Biosignale erfassen und verarbeiten
⊡ Tab. 35.1. Bioakustische Signale Signal
Spezifizierung
Frequenz [Hz]
Herzschall
Erwachsener
15–1000
Fetus
15–150
Lunge
0,2–10
35.2.2 Biochemische Signale
IV
Biochemische Signale lassen sich sowohl in vivo, d. h. innerhalb des Körpers eines Patienten, als auch in vitro in einem Labor bestimmen. Sie sind Ausdruck metabolischer Prozesse und durch Bestimmung der Struktur, Zusammensetzung, Konzentration der Bestandteile und Partialdruck beschreibbar. Sie können direkt oder durch Reaktion mit Enzymen, Antikörpern oder Zellen erfasst werden. Bei der Untersuchung von Gewebe oder Körperflüssigkeiten reichen die Methoden von der Elektrophorese über die Gaschromatographie, Flammenabsorptionsspektroskopie, Massenspektroskopie, Infrarotspektroskopie bis hin zur Elektronenrastermikroskopie. Die hier eingesetzten chemischen Wandler dienen der Bestimmung der Struktur, der Zusammensetzung und der jeweiligen Konzentrationen. Hierzu ist auch die Zählung von Zellen und Blutbestandteilen zu rechnen. Als Beispiel des Nachweises biochemischer Signale sei die Bestimmung der Glukose genannt. Die durch Glukoseoxidase (GOD) katalysierte Reaktion (6)
lässt sich amperometrisch über den O2-Verbrauch oder die Wasserstoffperoxidbildung nachweisen. Eine amperometrische Glukoseelektrode ist schematisch in ⊡ Abb. 35.17 dargestellt. Infrarotspektrometer messen die Intensitätsabschwächung der Infrarotstrahlung nach Durchgang durch eine Messküvette und vergleichen diese mit einer Referenz. Ia
I 0 e k cl
35.2.3 Bioelektrische und biomagnetische
Signale
GOD H 2O2 Glukose O2 o Gluconolacton H 2 O o
Glucansäure H 2O2
⊡ Abb. 35.17. Schematischer Aufbau einer amperometrischen Glukoseelektrode
(7)
Hier bedeuten: Ia Ausgangsintensität, I0 Eingangsintensität, c Konzentration, l Schichtdicke, k Proportionalitätskonstante. Durch den Chopper wird der Detektor abwechselnd mit beiden Intensitäten bestrahlt. Das polychromatische Licht wird vor dem Detektor auf die Messwellenlänge gefiltert. Der schematische Aufbau ist in ⊡ Abb. 35.18 wiedergegeben.
Bioelektrische Signale (⊡ Tab. 35.2) sind Potentialdifferenzen, die ihren Ursprung in Vorgängen an den Membranen von Nerven und Muskelzellen haben und zu Ruhe- und Aktionspotentialen führen. Erregungen werden als Aktionspotential weitergeleitet und ziehen im Fall einer motorischen Einheit Muskelkontraktionen nach sich. Je nach Generierung lassen sich EEG, EMG, EOG, ERG, EKG usw. unterscheiden. Bioelektrische Potentiale lassen sich mittels Elektroden ableiten. Wird dabei die Potentialdifferenz zwischen zwei Elektroden, die jeweils auf elektrisch aktiven Gebieten platziert sind, erfasst, spricht man von der bipolaren Ableitung. Ist jedoch eine der beiden Elektroden auf einem elektrisch eher als inaktiv einzuschätzenden Gebiet, bspw. am Ohrläppchen bei EEG-Ableitungen, platziert, spricht man von der unipolaren Ableitung. Als Beispiel sei die Ableitung des EKG angegeben mit der bipolaren Extremitätenableitung nach Einthoven und den unipolaren Ableitungen nach Wilson und Goldberger (⊡ Abb. 35.19). Bei letzteren Ableitungen ist die Referenz der Sternpunkt der Zusammenschaltung von verschiedenen Elektroden über gleich große Wi-
35
629 35.2 · Erfassung biologischer Signale
derstände, sodass eine Durchschnittsreferenz mit dem mittleren Potential dieser Elektroden entsteht. Extremitäten- und Brustwandableitung stehen orthogonal zueinander. Damit ist die räumliche Potentialverteilung berechenbar. Da elektrische Phänomene immer von einem Magnetfeld begleitet werden, sind sie auch über das Magnetfeld erfassbar. Mittels supraleitender Interferometer (SQUID) lassen sich diese Magnetfelder erfassen. Der Vorteil liegt in der genaueren Lokalisierbarkeit der Quellen. ⊡ Abb. 35.20 zeigt als Beispiel die simultane Registrierung eines somatosensiblen evozierten Potentials und dessen zugehöriges magnetisches Feld nach elektrischer Stimulation des N. medianus. Zur magnetischen Registrierung wurden 5 Gradiometer 2. Ordnung benutzt. Damit ist die Messung in unabgeschirmter Umgebung möglich.
⊡ Tab. 35.2. Bioelektrische Signale Signal
Frequenz [Hz]
Amplitude [mV]
EKG (Herz)
0,2–200
0,1–10
EEG (Hirn)
0,5–100
2–100 µV
EMG (Muskel)
10–10000
0,05–1
EGG (Magen)
0,02–0,2
0,2–1
EUG (Gebärmutter)
0–200
0,1–8
ERG (Retina)
0,2–200
0,005–10
EOG (Auge)
0–100
0,01–5
FAEP (Hirnstamm)
100–3000
0,5–10 µV
SEP (somato- sensibles System)
2–3000
0,5–10 µV
VEP (visuelles System)
1–300
1–20 µV
⊡ Abb. 35.18. Prinzipieller Aufbau eines Infrarotspektrometers (I0 Eingangsintensität, Ia Ausgangsintensität, Ib Bezugs- oder Referenzintensität)
⊡ Abb. 35.19. Möglichkeiten der EKGAbleitung mittels Oberflächenelektroden (Standardableitungen)
630
Kapitel 35 · Biosignale erfassen und verarbeiten
35.2.4 Biomechanische Signale
Biomechanische Signale spiegeln die mechanischen Funktionen des biologischen Systems wider. Einige Beispiele sind in der ⊡ Tab. 35.3 angegeben.
Bewegung Die Messung von Bewegungen ist für diagnostische Fragestellungen, aber auch zur Optimierung von Bewegungsabläufen wichtig. So wird der Bewegungsablauf
IV
beim Gehen sowohl zur Anpassung von Prothesen der unteren Extremitäten erfasst als auch bei der Physiotherapie nach Frakturen. Hierzu können die Extremitäten mit Leuchtpunkten markiert und der Bewegungsablauf mittels Videokamera erfasst werden. Verfahren der Bildanalyse bestimmen die Stellung der Leuchtpunkte zueinander und berechnen die Bewegung. Bei Tracking-Untersuchungen der oberen Extremitäten wird ein Goniometer bspw. am Ellbogengelenk befestigt und der Winkel zwischen Ober- und Unterarm erfasst. Von diagnostischer Bedeutung ist auch die quantitative Erfassung des Tremors bspw. bei Patienten mit M. Parkinson und von spontanen periodischen Beinbewegungen im Schlaf. Die Bewegungen der Augen können elektrookulographisch, photoelektrisch und videookulographisch erfasst werden. Aus den registrierten Bewegungen sind Geschwindigkeit und Beschleunigung der Bewegung berechenbar.
Druck
⊡ Abb. 35.20. Simultane Erfassung eines somatosensorisch evozierten Potentials und des somatosensorisch evozierten magnetischen Feldes nach Stimulation des N. medianus an der rechten Hand
Druck wird als Blutdruck, Hirndruck, Augeninnendruck, Wehendruck usw. gemessen. Der Blutdruck kann z. B. invasiv über einen Katheter mit angeschlossenem Druckwandler, der aus einer auslenkbaren Membran und angeschlossenen Dehnmessstreifen besteht, gemessen werden. Bei einer anderen Bauform wird der Wandler in das zu untersuchende Blutgefäß direkt eingebracht. ⊡ Abb. 35.21 zeigt zwei Druckwandler.
⊡ Tab. 35.3. Biomechanische Signale Signal
Spezifizierung
Amplitude
Puls
20–200 min–1
Atmung
5–60 min–1
Blutdruck (arteriell)
Umrechnung
Systole
8–33 kPa
60–250 mmHg
Diastole
5–20 kPa
40–150 mmHg
Blutdruck (venös)
0–4 kPa
0–30 mmHg
Intaokulardruck
0–7 kPa
0–50 mmHg
Blutfluss
0,05–5 l/min
Blutströmungsgeschwindigkeit
0,05–40 cm/s
Atemströmungsgeschwindigkeit
20–120 cm/s
Herzminutenvolumen
3–8 l/min
Atemzugvolumen
200–2000 ml/Schlag
Muskelarbeit
10–500 W
Blutvolumen
Erwachsener
7000 ml
Harnmenge
Erwachsener
1500 ml/Tag
Nervenleitgeschwindigkeit
N. medianus
50–60 m/s
35
631 35.2 · Erfassung biologischer Signale
Indirekt ist der Blutdruck über den Manschettendruck erfassbar, der eine Arterie abdrückt. Beim Einsetzen des Blutstroms entstehen messbare Geräusche, die bei einem ungehinderten Blutstrom wieder verstummen. Damit sind systolischer und diastolischer Blutdruck messbar.
Flow, Volumenstrom Der Nachweis des Atemflusses (Flow) ist für das Monitoring von Patienten, die vital gefährdet sind, von Bedeutung. Seine Registrierung ist indirekt mittels unter der Nase angebrachten Thermistoren möglich, die die Temperaturdifferenz zwischen Aus- und Einatemluft erfassen. Quantitativ kann der Atemfluss mit einem Pneumotachographen gemessen werden. Dabei ist neben der Bestimmung des Flows auch die Berechnung des Volumens aus dem Integral des Flows möglich (⊡ Abb. 35.22).
4 = π ⋅ r ⋅ ∆p V 8⋅l⋅µ
(8)
Hier bedeuten: . V Volumenstrom (Flow), r Radius, l Länge, η Viskosität, Δp Druckdifferenz. t
V = ³ V ⋅ dt
(9)
0
Hier bedeutet: V Volumen. Die Messung von Blutströmungen kann mittels magnetisch-induktiver Durchflussmethode und dem Ultraschalldopplerverfahren gemessen werden (⊡ Abb. 35.23). Das Messsignal ist die Frequenzverschiebung zwischen Sende- und Empfangssignal aufgrund der Bewegung der Blutkörperchen.
⊡ Abb. 35.22. Funktionsprinzip eines Pneumotachographen. Das Atemvolumen ergibt sich aus dem Integral des Atemflusses über der Zeit
⊡ Abb. 35.21. Sensoren und Wandler zur invasiven Messung des Blutdrucks. Links: als externer Wandler, rechts: als interner Wandler
⊡ Abb. 35.23. Messung der Blutflussgeschwindigkeit mittels Dopplereffekt
632
Kapitel 35 · Biosignale erfassen und verarbeiten
Δf = f1 .
2 . v . cosφ 2
(10)
Hier bedeuten: Δf Frequenzänderung, Frequenz des gesendeten Ultraschalls, f1 φ Einfallswinkel, v Geschwindigkeit des Teilchens, c Schallgeschwindigkeit im Gewebe.
IV
digkeit weist im Vergleich einige Besonderheiten auf. Sie wird elektroneurographisch nach Stimulation eines Nervs an zwei Orten und der Registrierung der zugehörigen motorischen Antwort für motorische Nerven bestimmt. Aus der Differenz der Latenzzeiten und dem Abstand der Reizorte lässt sich die Nervenleitgeschwindigkeit berechnen. NLG =
Das Volumen spielt für funktionelle Fragestellungen als Volumenstrom eine große Rolle. So wird bspw. die Urinmenge in einer bestimmten Zeit gemessen, das Einatemvolumen innerhalb 1 s (Sekundenvolumen) und das Herzminutenvolumen. Zur Bestimmung des Herzzeitvolumens werden Indikatorverdünnungsverfahren eingesetzt. Als Indikator werden Farbstoffe, radioaktive Substanzen und gekühlte NaCl-Dextrose-Lösung eingesetzt. Der Indikator wird möglichst impulsförmig injiziert, um eine homogene Vermischung mit dem vorbeiströmenden Blut zu erzielen. Stromabwärts wird eine Indikatorverdünnungskurve registriert, deren Verlauf die Geschwindigkeitsverteilung im betrachteten Strombahnabschnitt widerspiegelt und die der Übertragungsfunktion entspricht (⊡ Abb. 35.24). Das Herzzeitvolumen lässt sich hiermit bestimmen.
∆s ∆t
(12)
Hier bedeuten: NLG Nervenleitgeschwindigkeit, Δs Abstand der Reizelektroden, Δt Latenzdifferenz der motorischen Antwortpotentiale. Für sensible Nerven unterscheidet man die orthodrome und antidrome Leitgeschwindigkeit.
Größe, Form, Volumen, Masse
Geschwindigkeiten sind bei der Registrierung von Bewegungen und der Messung des Volumenstroms schon besprochen worden. Die Messung der Nervenleitgeschwin-
Größe und Körpergewicht sind zur Beurteilung der Entwicklung eines Menschen von großer Bedeutung. Dies trifft auch auf einzelne Organe zu. Messverfahren sind hierbei der Einsatz eines Metermaßes und einer Personenwaage. Aber auch zur Normierung von Laborwerten, wie z. B. bei der Bestimmung des Kreatininclearance, benötigt man Gewicht und Körpergröße. Aus ihnen lässt sich die Körperoberfläche bestimmen, die der Größe der Glomerulamembran entspricht. Die Lokalisation, Größe und Ausdehnung von raumfordernden Prozessen und Läsionen sowie die Veränderung dieser Parameter ist ebenfalls bedeutsam. Sie lassen sich mittels bildgebender Verfahren bestimmen. Hierzu zählt auch die Beurteilung und Ausmessung von Frakturen und die Größe und Lage von Organen. Kleine Massen mit einer Nachweisgrenze von 10–12 g werden mit der Quarzmikrowaage erfassbar (⊡ Abb. 35.25). Das Prinzip ist die Messung der Resonanzfrequenzänderung eines Schwingquarzes durch Ablagerung von Substanzen auf der Kristalloberfläche.
⊡ Abb. 35.24. Indikatorverdünnungskurve zur Erfassung des Herzminutenvolumens (t0 Injektionszeitpunkt, t1 Beginn des Konzentrationsanstiegs, t2 Konzentrationsmaximum, t3 Beginn der Rezirkulation)
⊡ Abb. 35.25. Funktionsprinzip einer Quarzmikrowaage
HZV
m0 f
³ ct dt
(11)
t0
Hier bedeuten: HZV Herzzeitvolumen, injizierte Substanzmenge, m0 c Indikatorkonzentration.
Geschwindigkeit
633 35.2 · Erfassung biologischer Signale
∆f =
2,3 ⋅10 6 f 02 ∆M A
(13)
Hier bedeuten: Δf Frequenzänderung, f0 Resonanzfrequenz der unbelegten Fläche, A belegte Fläche, ΔM Änderung der Masse. Die Oberfläche kann aber auch chemisch aktiv sein, sodass selektiv Stoffe adsorbiert werden, die dann zu einer Erhöhung der Masse führen. Die elektrischen Eigenschaften biologischen Gewebes lassen sich über die Dielektrizitätskonstante und den spezifischen Widerstand beschreiben. In Abhängigkeit von der Durchblutung ändern sie sich. Mit der Impedanzplethysmographie werden Volumenänderungen bzw. Pulsationen über die damit verbundene Impedanzänderung registriert. Daraus ist das Schlagvolumen bestimmbar.
zur Einschätzung der momentanen vitalen Situation. Der Einsatz fluoreszierender Farbstoffe ermöglicht die optische Messung von pH-Wert, CO2 und O2 mittels sog. Optoden. Voraussetzung sind die für die jeweilige Bestimmung erforderlichen sensitiven Reagenzien. Ein weiteres Anwendungsgebiet ist die Bestimmung der O2-Sättigung aufgrund der unterschiedlichen Absorptionscharakteristik von oxygeniertem und desoxygeniertem Hämoglobin (⊡ Abb. 35.26). Die unterschiedliche Fluoreszenz von Gewebe beim Einsatz von Laser erlaubt die Unterscheidung von gesundem Gewebe und Tumorgewebe während der Operation.
35.2.6 Biothermische Signale
Wichtiges biothermisches Signal ist die Körpertemperatur, die mittels Thermometer, Thermistor oder Infrarotthermometer gemessen werden kann (⊡ Abb. 35.27). Mittels Thermographie kann die Temperaturverteilung über einem Hautareal gemessen werden. Veränderungen findet man
Kraft Kraft kann mittels mechanischer Dynamometer gemessen werden, welche eine elastische Verformung aufgrund der Kontraktion eines Muskels oder einer Muskelgruppe anzeigen. Bei der einfachsten Form erfolgt die Kraftmessung über die Dehnung einer Feder. Hydraulische Dynamometer, bei denen in einer Flüssigkeit der durch einen bewegten Kolben erzeugte Druck angezeigt wird, sowie Quarzdynamometer mit einem Piezokristall werden ebenfalls eingesetzt.
35.2.5 Biooptische Signale
Die Beurteilung der Farbe z. B. der Haut von Neugeborenen oder Patienten mit Schock ist ein wichtiges Kriterium
⊡ Abb. 35.27. Messung der Körpertemperatur mit einem Thermistor
⊡ Abb. 35.26. Absorptionsspektrum von Desoxyhämoglobin und Oxyhämoglobin. Die unterschiedlichen Absorptionen werden für die Messung der Sauerstoffsättigung mittels Pulsoxymeter benutzt
35
634
Kapitel 35 · Biosignale erfassen und verarbeiten
⊡ Tab. 35.4. Parameter der univariaten Statistik Parameter Mittelwert
Formel
x
Standardabweichung
s Prüfgröße für StudentTest (t-Test)
IV
t
SG
hier bei oberflächlichen raumfordernden Prozessen infolge einer Zunahme der Durchblutung und bei Durchblutungsstörungen. ⊡ Abb. 35.28 ( auch 4-Farbteil am Buchende) zeigt den Einfluss von Nikotin auf die Durchblutung und damit eine simulierte Durchblutungsstörung.
35.3
Messwert- und Signalanalyse aus messtechnischer Sicht
1 1 ¦ xi x n 1 i 1
x1 x 2 SG
n1 1 s12 n2 1 s 22 n1 n2 2
f
n1 n2 2
Regressionsgerade
y
a bx
Linearer Korrelationskoeffizient
n
b yx
2
n1 n2 n1 n2
Freiheitsgrade
Anstieg der Regressionsgeraden berechnet aus dem Minimum der quadratischen Abweichungen der Messwerte γi von der Geraden
⊡ Abb. 35.28. Thermographische Registrierung der Oberflächentemperatur des Handrückens einer 20-jährigen Probandin vor und 2 min nach dem Rauchen einer Zigarette. Die Verminderung der Temperatur infolge einer Reduzierung der Durchblutung ist gut zu erkennen
1 n ¦ xi ni1
¦ x
x y i y
i
i 1
n
¦ x
x
i
2
i 1
a yx
y b yx x n
rxy
¦ x
i
x y i y
i 1
n
¦ x
i
x
i 1
2
n
¦ y
2
i
y
i 1
Die ⊡ Tab. 35.4 zeigt die Berechnung von Mittelwert, Standardabweichung, der Prüfgrößen für den t-Test, der Berechnung des Korrelationskoeffizienten und der Berechnung der Koeffizienten einer linearen Regressionsfunktion. Beim t-Test wird die Nullhypothese, dass beide Mittelwerte mit einer gewählten Irrtumswahrscheinlichkeit einer gemeinsamen Grundgesamtheit angehören, verworfen, wenn die Prüfgröße größer als das Quantil der t-Verteilung ist.
35.3.1 Biostatistische Verfahren
Multivariate statistische Verfahren Univariate statistische Verfahren Die statistische Auswertung der gewonnenen Messwerte erfolgt zum einen deskriptiv als Beschreibung der Ergebnisse, die unmittelbar aus den Stichproben entnommen werden können, zum anderen analytisch, als Vergleich der Ergebnisse der konkreten Stichprobe mit der Grundgesamtheit. Hierbei liefern Schätzverfahren Näherungen für die Kennwerte der Grundgesamtheit. So gestattet der t-Test eine Aussage, ob zwei Mittelwerte einer Grundgesamtheit angehören. Weitere Testverfahren sind der χ2-Test, F-Test und U-Test. Aufschlussreich ist auch die graphische Darstellung der Messwerte in Häufigkeitsverteilungen, Diagrammen oder Zeitreihen.
Im Unterschied zu den univariaten Verfahren werden bei multivariaten Verfahren mehrere Messwerte oder gewonnene Parameter gleichzeitig in die Analyse einbezogen. Wichtige Verfahren sind die Clusteranalyse, die Diskriminanzanalyse und die Faktorenanalyse. Clusteranalyse Bei der Clusteranalyse erfolgt eine Zusammenfassung der Fälle einer Stichprobe in mehrere Cluster. Kriterium für eine Zusammenfassung ist, dass die Fälle innerhalb eines Clusters möglichst homogen sind, die Cluster sich aber untereinander deutlich unterscheiden. Die Ähnlichkeit ist das Kriterium für eine Zusammenfassung der Fälle
35
635 35.3 · Messwert- und Signalanalyse aus messtechnischer Sicht
zu Clustern. Für das Vereinigen von Clustern gibt es eine Reihe unterschiedlicher Methoden. Die Clusterzugehörigkeit gibt dem Arzt einen Hinweis darauf, zu welcher Patientengruppe ein Patient zuordenbar ist.
Patienten sind hierfür eine wichtige Hilfe. Dies betrifft auch die bereits erwähnten biostatistischen Verfahren.
Zeitbereich Diskriminanzanalyse Die Diskriminanzanalyse wird mit dem Ziel durchgeführt, für neue Beobachtungen eine Vorhersage ihrer Gruppenzugehörigkeit treffen zu können. Dies bedeutet im einfachsten Fall die Zuordnung zu einem positiven oder negativen Testergebnis, also pathologisch oder gesund. Die abhängigen Variablen repräsentieren die Zugehörigkeit zu zwei oder mehreren Teilgruppen. Die Diskriminanzanalyse wird in zwei Schritten durchgeführt: 1. der Schätzung einer Diskriminanzfunktion und 2. der Klassifizierung der Fälle aufgrund dieser Funktion. Die Diskriminanzfunktion ist dabei häufig eine Linearkombination von für die Trennung unentbehrlichen Merkmalen. n
D = b0 + ¦ bi ⋅ xi i =1
(14)
Hier bedeuten: D Diskriminationswert, b Koeffizienten, x Messwerte. Die Diskriminanzfunktion wird in einem mehrstufigen Verfahren gewonnen, wobei jedesmal die Unentbehrlichkeit und das Trennmaß zur Optimierung herangezogen werden. ⊡ Abb. 35.29 zeigt das Ergebnis einer Reklassifikation.
35.3.2 Biosignalanalyse
Die rasche Entwicklung der Computertechnik hat viele Möglichkeiten der Messwertanalyse im Zeit-, Frequenzund Bildbereich eröffnet. Dabei werden häufig die Ergebnisse der Verfahren kombiniert und gemeinsam dargestellt. Die Verbindung mit Krankenhausinformationssystemen und der unmittelbare Zugriff auf alle Daten eines
Die Biosignalanalyse im Zeitbereich hat die Aufgabe, die gewonnenen Biosignale in ihrer Auswertbarkeit zu verbessern und Merkmale sowie Parameter aus dem Signal zu gewinnen. Das Hauptanwendungsgebiet sind zeitvariate Signale, die innerhalb der Funktionsdiagnostik den Funktionszustand oder seine Änderung beschreiben. Beispiele hierfür sind Änderung der Herzfrequenz und das Auftreten epileptischer Aktivitäten im EEG. Die 1. Stufe der Signalanalyse ist das Erkennen und die Unterdrückung von biologischen und technischen Artefakten sowie dem hochfrequenten Rauschen. Letzteres kann durch eine gleitende Mittelwertbildung oder die Anwendung von Glättungsalgorithmen leicht minimiert werden.
yn =
y n −2 + 2 y n −1 + 3 y n + 2 y n+1 + y n+ 2 9
(15)
Hier bedeutet: y Amplitudenwert. Der Einfluss biologischer Artefakte lässt sich minimieren, indem das jeweilige biologische Signal zusätzlich selbst mit erfasst wird. Unter Berücksichtigung der Amplitudenverhältnisse und eventueller Formveränderungen lässt sich der Artefakt (z. B. EOG oder Puls im EEG) vom Nutzsignal subtrahieren. Ein häufig angewendetes Verfahren zur Verbesserung des Signal-Rausch-Abstands ist das Averaging. Voraussetzung ist, dass das Nutzsignal mit einem Ereignis, z. B. einem Reiz, in einem festen zeitlichen Zusammenhang steht. Bei der fortwährenden Mittelwertbildung wird eine Verbesserung des Signal-Rausch-Abstands erreicht, die der Quadratwurzel aus der Anzahl der Mittelungsschritte entspricht. Das Averaging ist für die Ableitung evozierter Potentiale, die vom EEG überlagert sind, unentbehrlich. Weitere Verfahren sind Erkennung von Mustern und Ereignissen und ihre Vermessung hinsichtlich ihres zeitlichen Auftretens, ihrer Dauer, Amplitude, Frequenz und Form sowie der einzelnen Komponenten. Beispiele hierfür sind die Vermessung der Wellen und Zacken im EKG, die
⊡ Abb. 35.29. Reklassifikation der Fälle aufgrund der Berechnung der Werte einer Diskriminanzfunktion. Es ist die Häufigkeitsverteilung dargestellt. Die Gruppe der Gesunden und die Gruppe der Patienten lassen sich gut voneinander trennen
636
IV
Kapitel 35 · Biosignale erfassen und verarbeiten
Gewinnung der Herzfrequenz aus dem Abstand der R-Zacken und die Latenz einzelner Wellen in einem evozierten Potential. Oftmals ist mit der Gewinnung von Merkmalen und Parametern eine Klassifikation verbunden. Zur Bestimmung der Ähnlichkeit zweier Signale lässt sich die Kreuzkorrelationsfunktion berechnen. Wird das Signal mit sich selbst korreliert, erhält man die Autokorrelationsfunktion. Diese gestattet Aussagen über einen im Signal vorhandenen periodischen Anteil und, aus dem exponentiellen Abfall, über den stochastischen Anteil. Ein Beispiel für die periodische Veränderung des R-Zackenabstands aufgrund der Atmung, die mittels Autokorrelation aus dem Ruhe-EKG gewonnen werden kann, zeigt ⊡ Abb. 35.30. Zur Darstellung zweidimensionaler Potentialverteilungen über eine Körperregion werden die Potentialwerte zwischen den Elektroden durch Interpolation berechnet. Anschließend werden die Punkte mit gleichen Potentialen verbunden (Isopotentiallinien) oder farblich kodiert. Die so erhaltenen Karten (Maps) ermöglichen einen schnellen Überblick über die Aktivitätsverteilung und ggf. lokalisatorische Aussagen über Ereignisse. ⊡ Abb. 35.31 ( auch 4-Farbteil am Buchende) zeigt als Beispiel für ein Map die kortikale Potentialverteilung während einer sakkadischen Augenbewegung. Das Mapping wird auch im Frequenzbereich angewandt. Unter Zuhilfenahme mathematischer Modelle lassen sich Berechnungen zur Lokalisation bioelektrischer Quellen durchführen und das inverse Problem lösen. Dies bedeutet, dass man die gemessene Magnetfeldverteilung mit einer auf der Grundlage eines angenommenen Dipols berechneten Feldverteilung vergleicht und dabei die Dipollage optimiert.
Frequenzbereich Eine Signalanalyse im Frequenzbereich wird mit dem Ziel durchgeführt, Aussagen über die im Signal enthaltenen Frequenzen zu erhalten. Das Biosignal, dessen Amplitude eine Funktion der Zeit ist, wird in ein Signal transformiert, dessen Amplitude eine Funktion der Frequenz ist. Das häufig eingesetzte Verfahren ist die Fourier-Transformation oder auch Fast-Fourier-Transformation (FFT). Hiermit lassen sich Amplitudenspektren und Leistungsspektren berechnen. Letztere geben an, mit welcher Leistung eine bestimmte Frequenz im Signalgemisch enthalten ist. Ist das Frequenzspektrum einer Störung bekannt und liegt es außerhalb des Spektrums des Nutzsignals, lässt es sich vom Signalgemisch subtrahieren. Nach Rücktransformation in den Zeitbereich hat man ein weitgehend ungestörtes Signal. Dieses Verfahren wird als Optimalfilterung bezeichnet. Aber auch Hochund Tiefpass können so realisiert werden. Weitere Transformationen sind die z-Transformation, die Walsh-Transformation und Wavelet-Transformation.
⊡ Abb. 35.30. Berechnung der Autokorrelationsfunktion aus dem EKG. Der aufgrund der Atmung sich ändernde Abstand zwischen den R-Zacken spiegelt sich im periodischen Anteil der Funktion wider (HF Herzfrequenz, AKF Autokorrelationsfunktion)
Letztere gehen nicht von einer Reihe von Sinus- und Kosinusfunktionen aus, sondern von Rechteckfunktionen bzw. Wavelet-Funktionen.
Bildverarbeitung Bilder sind zweidimensionale Darstellungen, die zum einen mittels bildgebender Verfahren (CT, MRT, PET, Thermographie) oder durch Mapping von Biopotentialen gewonnen werden. Bei der Erzeugung und Verarbeitung werden sie als Matrizen von Grauwerten repräsentiert. Ein Hauptziel der Auswertung von Bilddaten ist das Auffinden und die Lokalisation von Raumforderungen und anderer darstellbarer Prozesse sowie die Ausmessung von geometrischen Strukturen. Hierzu werden auf der Grundlage sehr unterschiedlicher physikalischer Verfahren Bilder erzeugt. In der Bildverarbeitung lassen sich die Stufen ▬ Bildaufbereitung, ▬ Bildverbesserung, ▬ Erkennung und ▬ Segmentierung unterscheiden. Lineare Verfahren der Bildverbesserung betreffen den Kontrast, die Bildschärfe und die Rauschunterdrückung. Unterschiedliche Verfahren der Faltung, Filterung, Drehung und Transformation kommen hierbei zur Anwendung. Aber auch die Subtraktion von Bildern bspw. bei der digitalen Subtraktionsangiographie gehört zur Bildverarbeitung. Hierbei wird eine Maske von einem Lehrbild subtrahiert, um wichtige Bildbestandteile, die sich nur schwer gegenüber umliegenden Strukturen abgrenzen, in ihrem Kontrast anzuheben und damit die gewünschte
637 35.4 · Vesuchsplanung und klinische Studien
⊡ Abb. 35.31. Mapping der kortikal erfassbaren bioelektrischen Potentiale während einer Blickwendung nach rechts. Es ist die Dynamik der Potentialverteilung in 1-msAbschnitten in einem Zeitbereich von 5 ms vor bis 9 ms nach dem Beginn der Sakkade dargestellt
Struktur herauszuarbeiten. Durch Bestimmung des zeitlichen Verlaufs und der Konzentration von Kontrastmitteln lassen sich in einer Region des Gefäßsystems Aussagen zur Dynamik gewinnen.
Beschreibung von Regelkreisen, wie z. B. die Regelung des Blutdrucks, der Körpertemperatur, der Herzaktivität, der Pupille, Augenbewegungen und Reflexe. Das Wissen der Regelung des Blutzuckerspiegels und dessen Simulation ist eine der Voraussetzungen für die Entwicklung und den Einsatz implantierbarer Insulinpumpen.
Wissensbasierte Systeme Zur Unterstützung des Arztes bei der Entscheidungsfindung werden häufig Methoden der künstlichen Intelligenz eingesetzt. So haben Expertensysteme eine Wissensbasis, auf die der Untersucher zugreifen kann und durch Erstellung von Verknüpfungen zu einer Lösung kommt. Dabei werden häufig Regeln abgearbeitet, mit denen das Spezialwissen und die Vorgehensweise von Experten simuliert werden. Wichtig ist die Erklärungskomponente, die den Lösungsweg aufzeigt. Neuronale Netze können nach einer Anlernphase bspw. zur Mustererkennung eingesetzt werden. Nachteilig ist hierbei, dass sie über keine Erklärungskomponente verfügen, sodass die Deutung der Ergebnisse mitunter problematisch erscheint.
Biologische Modelle und Simulation Die Beschreibung biologischer Systeme durch Modelle und die Identifikation ihrer Parameter ist hilfreich, um neue Erkenntnisse zu gewinnen (Systemforschung), das System zu verstehen und technische Kenntnisse anzuwenden (Systemsteuerung). Die erstellten Modelle können für PCSimulationen herangezogen werden. Durch Experimente einschließlich der Messung von Zielgrößen lässt sich das Modell mit dem biologischen System vergleichen sowie validieren und auf dieser Grundlage weiter verbessern. Aber auch die Messung des Übertragungsverhaltens biologischer Systeme und die Identifikation der Ordnung führt zu neuen Modellen. Besondere Bedeutung hat die
35.4
Vesuchsplanung und klinische Studien
Zur Durchführung klinischer Studien sind die erforderlichen Messungen zu planen. Dabei können die Daten retrospektiv, prospektiv oder durch ein Experiment erhoben werden. Es gilt, den Umfang der Stichproben abzuschätzen und sicherzustellen, dass die Stichproben zufällig erhoben worden sind. Diese Forderung beinhaltet die Berücksichtigung der Unabhängigkeit der Elemente einer Stichprobe, die jeweils die gleiche Chance haben, in die Stichprobe aufgenommen zu werden. Zur Vermeidung einer Einflussnahme des Patienten auf das Untersuchungsergebnis (Placeboeffekt) wird in Blindversuchen sichergestellt, dass der Patient keine Kenntnis über die Einflussfaktoren hat. Dies bedeutet, dass er bei Medikamentenstudien nicht weiß, ob er ein Placebo oder das Medikament selbst erhält. Wird dies auch dem Untersucher verschwiegen, spricht man von Doppelblindversuchen. Beobachtungseinheiten, die weitgehend homogen in Bezug auf Störgrößen sind, kann man zu Blöcken zusammenfassen. Man kommt so zu verbundenen bzw. paarigen Stichproben. Besondere Berücksichtigung ist der Pharmakokinetik und der biologischen und physikalischen Halbwertszeit zu schenken. Letztere hat speziell für den Einsatz radioaktiv markierter Substanzen Bedeutung, die am Stoffwechsel teilnehmen sollen.
35
638
IV
Kapitel 35 · Biosignale erfassen und verarbeiten
Für den Test von Medikamenten lassen sich 4 Phasen unterscheiden: ▬ Phase I: Klärung von Fragen der Pharmakokinetik und Dosierung an gesunden Probanden. ▬ Phase II: Prüfung der grundsätzlichen Wirksamkeit bei verschiedenen Krankheiten. ▬ Phase III: Exakter Vergleich der Wirksamkeit unter konkurrierenden Therapieverfahren und Erfassung von Nebenwirkungen an einem großen Patientenkollektiv. ▬ Phase IV: Prüfung seltener Nebenwirkungen und genaue Abgrenzung des Anwendungsbereichs mit zugelassenen Medikamenten. Für langzeitige Untersuchungen ist mit dem Ausscheiden einzelner Probanden und Patienten, der sog. »Drop-out-
⊡ Tab. 35.5. Kontingenztafel zur Beurteilung diagnostischer Verfahren Patient krank K
Patient gesund K
Test positiv
Richtig-positiv
Falsch-positiv
T
TK
TK
Test negativ
Falsch-negativ
Richtig-negativ
T
TK
TK
Summe
TK + TK
TK + TK
Summe
TK + TK
TK + TK
⊡ Tab. 35.6. Parameter zur Beurteilung einer Diagnostikmethode Parameter
Beschreibung
Formel
Sensitivität
Richtig erkannte Kranke
p(T/K) =
TK TK + TK
Spezifität
Richtig erkannte Gesunde
p(T/K) =
TK TK + TK
Effizienz
Richtiges Testergebnis
p(T/K,T/K) =
Relevanz
Wahrscheinlichkeit der Erkrankung bei positivem Test
Segreganz
Wahrscheinlichkeit des Fehlens der Erkrankung bei negativem Test
TK + TK TK + TK + TK + TK
p(K/T) =
TK TK + TK
p(K/T) =
TK TK + TK
Rate« zu rechnen. Dies kann zu systematischen Verzerrungen führen. Die Güte eines Diagnoseverfahrens lässt sich aus der Kontingenztafel (⊡ Tab. 35.5) ableiten. Hierzu können Sensitivität, Spezifität und Effizienz der Methode bestimmt werden (⊡ Tab. 35.6). Wichtig ist dabei auch die Lage des Cutoff-point, der das Verhältnis von Sensitivität und Spezifität bestimmt (vgl. hierzu auch ⊡ Abb. 35.29).
Weiterführende Literatur 1. Akay M (1994) Biomedical signal processing. Academic Press, London 2. Akay M (1996) Detection and estimation methods for biomedical signals. Academic Press, London New York 3. Bronzino JD (eds) (2000) The biomedical engineering handbook. Springer, Berlin Heidelberg New York Tokio 4. Carr JJ, Brown JM (eds) (1998) Introduction to biomedical equipment technology. Prentice Hall, Upper Saddle River New Jersey 5. Coombs RRH, Robinson DW (eds) (1996) Nanotechnology in medicine and the biosciences. Gordon & Breach, Amsterdam 6. Eichmeier J (1997) Medizinische Elektronik. Springer, Berlin Heidelberg New York Tokio 7. Enderle J, Blanchard S, Bronzino J (2000) Introduction to biomedical engineering. Academic Press, London New York San Francisco 8. Feldhoff R (1990) Elektrische und elektronische Messtechnik. Hanser, München Wien 9. Harten HU, Nägerl H, Schulte H-D (1994) Statistik für Mediziner. Chapman & Hall, Weinheim 10. Hudson DL, Cohen ME (2000) Neural netsworks and artifical intelligence for biomedical engineering. IEEE Press, New York 11. Hütten H (1991) Biomedizinische Technik. Springer, Berlin Heidelberg New York Tokio 12. Lehmann T, Oberschelp W, Pelikan E, Repges R (1997) Bildverarbeitung für die Medizin. Springer, Berlin Heidelberg New York Tokio 13. Lipinski HG (1999) Einführung in die medizinische Informatik. Oldenbourg, München Wien 14. List WF, Metzler H, Pasch T (Hrsg) (1998) Monitoring in der Anästhesie und Intensivmedizin. Springer, Berlin Heidelberg New York Tokio 15. Mackay S (1993) Bio-medical telemetry: sensing and transmitting biological information from animals and man. IEEE Press, New York 16. Meyer-Waarden K (1975) Einführung in die biologische und medizinische Messtechnik. Schattauer, Stuttgart New York 17. Mornburg H (Hrsg) (1995) Bildgebende Systeme für die medizinische Diagnostik. Publicis MCD, München 18. Orrison WW, Lewine )D, Sanders JA, Hartshorne ME (1995) Functional brain imaging. Mosby, St. Louis 19. Peters TM, Williams J (1998) The fourier transform in biomedical engineering. Birkhäuser, Boston Basel Berlin 20. Robb RA (1998) Three-dimension biomedical imaging, principles and practice. Wiley & Son, New York 21. Scheper T (1991) Bioanalytik. Vieweg, Braunschweig 22. Schubert H (1989) Sensorik in der medizinischen Diagnostik. TÜV Rheinland, Köln 23. Theodorescu HN, Kandel A, Jain LC (1998) Fuzzy and neurofuzzy sytems in medicine. CRC Press, Boca Raton New York 24. Togawa T, Tamura T, Öberg PA (1997) Biomedical transducers and Instruments. CRC-Press, Boca Raton New York 25. Webster JG (Hrsg) (1998) Medical Instrumentation application and design. Wiley, New York 26. Werner J (1992) Biomathematik und Medizinische Statistik. Urban & Schwarzenberg, München Wien Baltimore
36 Patientenüberwachungssysteme R. Kramme, U. Hieronymi
36.1 Einsatzbereiche von Patientenüberwachungssystemen – 639 36.1.1 36.1.2 36.1.3 36.1.4 36.1.5 36.1.6
Monitorarten – 640 Monitorbild – 641 Bedienung – 642 Alarme, Ereignisse – 642 Trenddarstellung – 642 Automatische Berechnungen – 643
36.2 Erweiterte Systemeigenschaften
– 643
36.2.1 Zentrale Überwachung und Dokumentation – 643
Der Begriff Patientenüberwachung (Monitoring) beschreibt die apparative Messwerterfassung von Organ- und Vitalfunktionen des Patienten und die sichere Alarmierung von Über- oder Unterschreitungen von ausgewählten Grenzwerten. Die physiologischen Größen werden kontinuierlich, in automatischen Intervallen oder auch in Einzelmessungen erfasst, analysiert, als Kurven und/oder Zahlenwerte auf einem Display angezeigt, als Trend gespeichert und bei Bedarf ausgedruckt oder z. B. an Patientendaten-Managementsysteme weitergeleitet. Klassisch steht die Überwachungsfunktion am Bett oder im Operationssaal im Vordergrund, die über kürzere (Kurzzeitüberwachung z. B. während einer Operation) oder längere Zeit (Langzeitüberwachung z. B. auf Intensivstationen) durchgeführt wird und das medizinische Personal möglichst rechtzeitig und sicher auf physiologisch instabile Zustände aufmerksam machen soll. Dies setzt eine zuverlässige und reproduzierbare Messwertermittlung und -anzeige voraus und umfasst sowohl die Selbstüberwachung des Gerätes als auch die Überwachung der Wirksamkeit lebenserhaltender Systeme, die mit dem Patienten verbunden sind. Aus dem konventionellen elektronischen Mess- und Überwachungsgerät oder Monitor (lat. Monitor, Mahner, Warner) ist ein multifunktionales, softwaregesteuertes System geworden, das mit seiner Datenermittlung und -speicherung sowohl der Diagnostik als auch in Kombination mit anderen klinischen Beobachtungen und Erhebungen der therapeutischen Entscheidungsfindung und nicht zuletzt der Therapiekontrolle dient (Klassifizierung ⊡ Tab. 36.1). In Normen findet man die allgemeine Bezeichnung »Programmierbares Elektronisches Medizinisches System« (PEMS). Für den Anwender stehen
die Bedienfreundlichkeit von Gerät und Zubehör, deren möglichst universelle Nutzbarkeit sowie die Zuverlässigkeit der Messungen und der Alarme im Vordergrund. Es soll möglichst wenig Fehlalarme geben, und es soll v. a. niemals eine lebensbedrohliche Situation unerkannt bleiben. Von heutigen Monitoren wird erwartet, dass sie skalierbar sind, d. h. dass sie den jeweiligen Anforderungen durch einfaches Hinzufügen oder Weglassen von Zusatzmodulen oder Software-Optionen angepasst werden können. Durch Updates und Upgrades müssen sie zukunftsoffen mit neuen Entwicklungen Schritt halten und z. B. durch neue Messmethoden erweiterbar sein. Moderne Monitore zeichnen sich durch möglichst intuitive Bedienphilosophie aus, kommunizieren über Netzwerkverbindungen miteinander und mit Überwachungszentralen. Die Kommunikation mit anderen Geräten und mit Netzwerken des Krankenhauses gehören zu den erweiterten Systemeigenschaften (s. unten).
36.1
Einsatzbereiche von Patientenüberwachungssystemen
Domänen der Patientenüberwachungssysteme sind: ▬ allgemeine und spezielle Operationsräume (insbesondere Herz-, Gefäß- und Neurochirurgie), ▬ Einleitungs- und Ausleitungsräume, Aufwachräume und Wachstationen, ▬ allgemeine und spezielle Intensivstationen (z. B. neonatologische Stationen aber auch Stroke Units), ▬ Notfall- und Eingriffsräume sowie Ambulanzen, ▬ Rettungswesen und Patiententransport.
640
Kapitel 36 · Patientenüberwachungssysteme
⊡ Tab. 36.1. Klassifizierung von Patientenüberwachungssystemen Ausstattung
IV
Art des Monitorings
Basismonitoring mit nichtinvasiven Parametern
Basis- und erweitertes Monitoring mit nichtinvasiven und invasiven Parametern
erweitertes und hochspezialisiertes Monitoring mit nichtinvasiven, invasiven und speziellen Parametern
Messparameter
1–3 mit Trend
3–7 mit Trend und Berechnungen
>8 mit Trend, Berechnungen und Kommunikation zu anderen Systemen
Simultan dargestellte Kurven
1–4, (Farb-) LCD
3–8, ggf. auch 12-Kanal-EKG, Farb-LCD/TFT
6–32, Farb-LCD/TFT
Kommunikation
Stand-alone oder vernetzbar
vernetzbar (festverdrahtet oder wireless), Geräteanbindung am Arbeitsplatz
vernetzt, ggf. mit Web-Browser und erweiterter Kommunikation sowie diversen Anbindungen
Einsatzbereiche
Einleitung/Ausleitung, Aufwachräume, Notfallräume, Ambulanzen, Step-Down Unit, Transport
Einleitung/Ausleitung, OP, Aufwachräume, Notfallräume; Intensivtherapie, Intermediate Care,Transport
allgemeine und spezielle Intensivtherapie, spezielle OP-Einheiten, Forschungsbereiche
Darüber hinaus werden Monitore regelmäßig in Stationen und Einrichtungen verwendet, die Patienten möglichst frühzeitig aus Intensivstationen übernehmen (StepDown Units).
36.1.1 Monitorarten
Stand-alone Monitor. Ein Monitor, der nicht mit anderen Monitoren oder einer Zentrale kommuniziert und oft nur zur punktuellen Messung oder kurzzeitigen Überwachung weniger Parameter am Patienten eingesetzt wird. Transportmonitor (⊡ Abb. 36.1c). Portables, möglichst leichtes Gerät mit integriertem Display, das am Bett oder an der Transport-Liege befestigt werden kann und im Akku-Betrieb zur Überwachung des Patienten während eines Transportes dient. Telemetrie-Sender oder -Monitor. Tragbarer Sender, oft ohne Display zur drahtlosen Überwachung von Patienten in einem umschriebenen, mit einer Antennenanlage versehenen Empfangsbereich der klinischen Einrichtung. Wird im Gegensatz zum Transportmonitor vom gehfähigen Patienten getragen und dient der Überwachung des EKGs und ggf. der Sauerstoffsättigung und des Blutdrucks an einer Zentralstation. Vorkonfigurierter Monitor oder Kompaktmonitor. Gerät mit integriertem Display und einer begrenzten Anzahl von Messparametern, die fest vorgegeben sind. Semimodulare (Kompakt-) Monitore lassen sich darüber hin-
aus um ein Modul für zusätzliche Messungen erweitern. Ein Registrierer kann integriert sein. Eine Einbindung in Netzwerke ist heute meist möglich. Bei Ausstattung mit Akkumulatoren gibt es keine strenge Trennung zur Verwendung als Transportmonitor. Mit weiterer Miniaturisierung des Monitors und Einbindung in ein Funknetz kann zukünftig sicherlich eine separate Telemetrie-Anlage auf qualitativ höherem Niveau (mehr Parameter, sichere digitale Funkverbindung) ersetzt werden. Modularer Monitor. Die Leistungsfähigkeit des Monitors ist durch Auswechseln oder Hinzufügen von Modulen (Einschübe oder als externe Erweiterungen) für die Erfassung weiterer Parameter sowie durch Software-Optionen (z. B. für erweiterte Arrhythmie-Überwachung) beliebig skalierbar und kann jeweils den konkreten Erfordernissen angepasst werden. Diese Monitore mit integriertem oder separatem Bildschirm sind oft nur stationär am Patientenbett oder im OP einsetzbar und in aller Regel zu Monitorsystemen in einem Netzwerk zusammengeschlossen. Informationsmonitor mit integriertem Transport (⊡ Abb. 36.1a). Kombination eines zum krankenhausweiten Transport geeigneten modularen Monitors mit einem logisch zugeordneten medical-grade Panel-PC. Der Monitor steht am Bett sicher verriegelt auf einer sogenannten Docking Station, die alle Verbindungen zu Spannungsversorgung, Netzwerk, ggf. Fremdgeräten und weiteren Sichtgeräten enthält (⊡ Abb. 36.1). Durch einen Hebeldruck werden die mechanischen und elektrischen Verbindungen gelöst, und der Monitor wird ohne Unterbrechung der Überwachung als Transport-
641 36.1 · Einsatzbereiche von Patientenüberwachungssystemen
a
b
c
⊡ Abb. 36.1a–c. Komponenten eines modernen Monitoring-Systems. a Informationsmonitor (Vordergrund) mit integriertem Transportmo-
nitor (im Hintergrund auf Dockingstation), b Zentrale für 16 Patienten, c Monitor wird zum Transport auf Betthalterung gesetzt
monitor verwendet (Pick & Go Prinzip). Bei Rückkehr vom Transport wird der Monitor einfach auf die Docking Station gestellt und alle zuvor getrennten Verbindungen werden durch das Umlegen des Hebels wieder hergestellt. Jegliches Umstecken von Kabeln und/oder Modulen zwischen Bett- und Transportmonitor entfällt, und es ist eine absolut nahtlose Überwachung des Patienten ohne Einschränkung der Parameter gewährleistet. Der dedizierte Panel-PC am Krankenbett wird erstens zum erweiterten Monitoring genutzt, um die Fülle von Monitor-Informationen in verschiedenen Bildschirm-Layouts groß, klar und übersichtlich darzubieten. Zweitens dient er Ärzten und Pflegern als IT-Portal, um auf alle im KrankenhausIntranet verfügbaren Patienteninformationen (Bilder z. B. von Röntgen, MRT und Ultraschall, Laborwerte, Anamnesen und Vorerkrankungen) und auf Datenbanken (Rote Liste, Pflegerichtlinien) zugreifen zu können. Damit stehen wesentliche Informationen dort, wo sie gebraucht werden – am Krankenbett, dem »Point of Care« – ohne zeitraubende Suche zur Entscheidungsfindung über die
weitere Therapie zur Verfügung. Drittens kann der PC gleichzeitig zur papierlosen Dokumentation in einem Patientendaten-Managementsystem genutzt werden.
36.1.2 Monitorbild
Display. Bis auf ganz einfache Blutdruck- und Temperatur-Messgeräte, die nur Zahlenwerte anzeigen, haben praktisch alle Monitore einen Bildschirm zur Darstellung der Kurven von kontinuierlich gemessenen Parametern (meist EKG, Pulskurve, Atmung, invasive Blutdrücke) und der zugehörigen Bezeichnungen, Messwerte und Grenzwerte sowie von Trenddarstellungen und weiteren Informationen. Farb-Flachbildschirme in LCD- (Liquid Crystal Display) und TFT- (Thin Film Transistor) Technologie in Größen von 6« (15 cm) bis 17« (43 cm) Bildschirmdiagonale und größer mit Auflösungen von 640×480 bis 1024×768 Pixel haben sich durchgesetzt. Monochrome
36
642
Kapitel 36 · Patientenüberwachungssysteme
LCD- oder EL- (Elektrolumineszenz) Bildschirme findet man fast nur noch bei kleinen Stand-alone- und Transportmonitoren. Gute Bildschirme sind flimmerfrei, kontrastreich und entspiegelt und haben einen ausreichend großen Betrachtungswinkel (>160°), sodass sie auch bei Fremdlicht und aus ungünstigen Blickwinkeln eine gute Erkennbarkeit gewährleisten.
farbig hervorgehoben: Alarmquittierung) und logische, gut überschaubare Menüführung in nicht mehr als 2–3 Ebenen sind bedienerfreundlich. Einige Monitore bieten Hilfsfunktionen und eingebaute Simulationsprogramme zum Erlernen der Bedienung.
36.1.4 Alarme, Ereignisse
IV
Kanäle. Neben der Größe und Güte des Bildschirms beschreibt die Anzahl der möglichen Bildschirmkanäle die Leistungsfähigkeit eines Monitors, d. h. die maximale Anzahl der zur Überwachung wählbaren Kurven und ihrer zugehörigen Parameter, die in Parameterfenstern (Parameterboxen) dargestellt werden. Transport- und Kompaktmonitore haben meist 3 oder 4 Kanäle. Modulare Monitore klassisch 5, 6 oder 8 Kanäle. Moderne Monitore mit 17«-Bildschirm bieten bis zu 32 Kanäle. Kurvendarstellung. Entweder bewegen sich die Kurven vom rechten zum linken Bildrand (Quell- oder Papiermodus) oder sie werden immer aufs Neue von links nach rechts auf den Bildschirm geschrieben, wobei ein Löschbalken die Kurve aus dem vorherigen Durchgang löscht (Löschbalkenmodus). Die Ablenkgeschwindigkeit ist zumindest bei modularen Monitoren wählbar. Übliche Geschwindigkeiten sind 25 oder 50 mm/s für EKG und Blutdruckkurven und 12,5 oder 6,25 mm/s für Atemkurven. Viele Monitore haben eine Freeze-Funktion, die ein Einfrieren des Bildschirminhalts zur genaueren Betrachtung ermöglicht. Kurven, die physikalische Messwerte präsentieren (EKG, Blutdruck), haben eine Skalenangabe. Bildschirmkonfiguration. Die Anordnung der Kurven und Parameter auf dem Bildschirm (Positionierung, Layout) ist i. d. R. vom Nutzer einstellbar. Mindestens eine solche Konfiguration kann gespeichert werden und dient als Standard beim Einschalten des Monitors. Bei modularen Monitoren sind meist 5 oder 10 Layouts speicherbar.
36.1.3 Bedienung
Bedienelemente. Fixtasten am Monitor, Drehknopf und Touchscreen sind allein oder in jeder erdenklichen Kombination die Bedienelemente am Monitor. Manche Monitore bieten zusätzlich eine drahtgebundene oder eine Infrarotfernbedienung. Monitore mit integrierten Webbrowsern können Tastatur und Maus haben. Bedienerführung, Bedienphilosophie. Einfache, logische und möglichst intuitive Bedienbarkeit sind Voraussetzung für eine gute Akzeptanz durch die Nutzer und die Vermeidung von Fehlbedienungen. Direkter Zugriff auf wichtige Funktionstasten (Alle Alarme aus, Standby, Standardbild und als wichtigste Taste möglichst
Wesentliche Funktion des Monitors ist die akustische und optische Alarmgebung in mindestens drei verschiedenen Stufen. Höchste Priorität hat die Alarmierung lebensbedrohlicher Situationen (wie Herzstillstand, Kammerflimmern), die sich akustisch und optisch als rote Alarme bemerkbar machen müssen. Ernste Warnungen, z. B. bei Grenzwertverletzungen, werden gelb dargestellt. Technische und/oder hinweisende Alarme erscheinen weiß. Die akustischen Alarme sollen aufmerksam machen. Die Alarmstufen müssen sich akustisch deutlich voneinander unterscheiden und vom Personal problemlos von den Alarmen anderer medizinischer Geräte unterschieden werden können. Die optischen Alarme dienen dem schnellen Erkennen a) des alarmierenden Monitors (Alarmleuchte am Monitor) und b) der Alarmursache (farbig blinkender Messwert). Ein Alarm kann auf einem (Laser-) Drucker oder einem speziellen Alarmrekorder automatisch ausgedruckt und im Monitor und/oder einer Zentrale als »Ereignis« gespeichert werden. Die Speicherung erlaubt eine spätere Bewertung und ggf. gezielte Dokumentation. Sie kann ein Ausdrucken aller Ereignisse ersparen. In einem Monitorsystem kann die Anzeige des Alarms von einem Patientenbett auch an allen anderen Monitoren angefordert werden, damit das medizinische Personal sofort Art und Ort des Alarms erkennen kann. Im einfachsten Fall ist dies eine kurze Angabe von Bett und alarmierendem Parameter in einer Informationszeile der anderen Monitore (einfache Bett-zu-Bett-Kommunikation). Auf Wunsch kann aber auch die Bildinformation des alarmgebenden Monitors auf den anderen Monitoren automatisch erscheinen (volle Bett-zu-Bett-Kommunikation). In jedem Fall ertönt und erscheint ein Alarm auf einer angeschlossenen Zentrale. Insbesondere bei sehr unübersichtlich gebauten Stationen kann es erforderlich sein, wichtige Alarme auch an eine vorhandene Schwesternrufanlage zu leiten und auf weit sichtbaren Informationsdisplays auf dem Gang sichtbar zu machen.
36.1.5 Trenddarstellung
Alle gemessenen Werte werden vom Monitor im Trendspeicher abgelegt. Von kontinuierlich gemessenen Para-
643 36.2 · Erweiterte Systemeigenschaften
metern werden meist Minutenmittelwerte (oder Medianwerte) der letzten 24 h oder mehr gespeichert (96 h sind bereits üblich). Die Darstellung der Trends erfolgt als Tabelle oder als Grafik und kann von 24 h bis zu wenigen Minuten vom Nutzer gewählt werden (Zoom).
36.1.6 Automatische Berechnungen
Physiologische Berechnungen von abgeleiteten Größen aus den kontinuierlich und diskontinuierlich gemessenen Parametern sind für Hämodynamik, Beatmungsgrößen und Sauerstoffversorgung üblich. Auch diese Ergebnisse stehen dann als Trend zur Verfügung. Viele Monitore erlauben auch Dosisberechnungen für diverse Medikamente und Infusionen.
36.2
Erweiterte Systemeigenschaften
Datenintegration am Arbeitsplatz. Durch Einbindung der Daten aus Fremdgeräten (z. B. spezialisierten Monitoren von anderen Herstellern) und/oder Beatmungs- oder Narkosebeatmungsgeräten gelingt es, zusätzliche Kurven und Parameter gemeinsam mit den Monitordaten anzuzeigen, und es wird eine gemeinsame Datenbasis (Trendspeicherung) geschaffen. Die Daten werden z. B. via MIB (Medical Information Bus) oder seriell übertragen. Monitornetzwerk. Die Vernetzung (LAN = Local Area Network) ist der Schritt vom Einzelmonitor zum Monitorsystem. Nach Industriestandards festverdrahtet oder drahtlos per Funk (Wireless LAN = WLAN) kommunizieren die Monitore miteinander von Bett zu Bett und mit Überwachungszentralen sowie z. B. mit gemeinsam genutzten Druckern. Via Netzwerk und spezielle Übertragungsrechner (Gateways) können Daten vom Monitoringsystem importiert (z. B. demographische Daten aus dem Krankenhausinformationssystem oder Laborwerte) und exportiert werden (z. B. in ein Patientendaten-Managementsystem). Mit dem medical-grade Rechner der o. g. Informationsmonitore können z. B. die im Krankenhaus elektronisch verfügbaren patientenbezogenen Informationen mittels Webbrowser oder mit speziellen Applikationen am Krankenbett dargestellt und in das Monitoring integriert werden (⊡ Abb. 36.2). Es wird weniger Zeit für Informationssuche verschwendet und es gehen keine Daten für eine Dokumentation verloren. Gateway-Server können die Bild- und Trendinformationen der Monitore im Intranet des Krankenhauses webbasiert zur Verfügung stellen, sodass sie durch berechtigte Ärzte von jedem beliebigen PC im Krankenhausnetzwerk mittels Standard-Browser abgerufen werden können. Konsultationen oder Befundungen sind dadurch kran-
⊡ Abb. 36.2. Informationsmonitor mit integriertem PatientendatenManagementsystem
kenhausweit möglich. Außerdem ist die Ansteuerung von Pager-Systemen möglich, um Ärzten oder Pflegepersonal z. B. Alarminformationen auch außerhalb einer Station und unabhängig von fest installierten Monitoren und Zentralen zur Verfügung zu stellen. Da in einem Monitoring-Netzwerk lebenswichtige Alarme nicht verzögert werden dürfen und Lücken in übertragenen Kurven nicht akzeptabel sind, wurde in der Vergangenheit stets eine strikte physikalische Trennung zwischen Krankenhausnetzwerk und Monitornetzwerk gefordert. Moderne Techniken zur Sicherung der Priorität der zeitkritischen Daten erlauben inzwischen auch das Betreiben eines Monitornetzwerkes innerhalb der Netzinstallation eines Krankenhauses durch logische Trennung der Netzwerksegmente mittels virtueller LANs (VLAN) mit entsprechender Ausfallsicherheit und Gewährleistung einer Mindestbandbreite für die priorisierte Anwendung als Quality of Service (QoS). Erst dadurch wird möglich, dass Monitore und z. B. Visiten-Rechner in einem Funknetz (WLAN) über dieselben Zugriffspunkte (Access Points) kommunizieren, ohne sich gegenseitig zu stören.
36.2.1 Zentrale Überwachung
und Dokumentation Monitoring-Zentralen (⊡ Abb. 36.1b) bieten via Netzwerk alle Alarme optisch und akustisch an zentralen Arbeitsplätzen sowie einen Überblick über den Zustand der angeschlossenen Patienten auf einem oder mehreren Bildschirmen. Grenzwerte der Bettmonitore oder ggf. Telemetrie-Geräte können von der Zentrale aus verändert werden. Auch Zentralen müssen skalierbar sein und sich in ihrer Leistung den Erfordernissen durch Hardund/oder Software-Optionen anpassen lassen: Anzahl der darzustellenden bzw. zu überwachenden Patienten (meist zwischen 4 und 32) mit oder ohne Telemetrie, Anzahl
36
644
IV
Kapitel 36 · Patientenüberwachungssysteme
der Kurven pro Patient, Langzeitspeicherung für Kurven (z. B. 1–3 Tage Full Disclosure von 4 bis 16 Kurven) und Ereignisse (z. B. 1000 pro Patient als Event Disclosure) und weitere Funktionalitäten, z. B. Ansicht von Betten anderer Abteilungen oder von in anderen Zentralen gespeicherten Kurven sowie der Export der Langzeit-Kurven und Ereignisse in das Intranet zur Betrachtung an ArztPCs, dort, wo sie zur Befundung benötigt werden. Eine weitere wichtige Funktion ist die Dokumentation, also die Möglichkeit, Berichte in variablen Formaten und Zeiträumen, Trends und Ereignisse auszudrucken. Standard ist heute ein Laserdrucker mit normalem DIN-A4-Papier. Netzwerk-Drucker können auch ohne Zentralen von den Monitoren direkt angesteuert werden.
37 Kardiovaskuläres Monitoring R. Kramme, U. Hieronymi
37.1 Monitoring der Herzfunktion
– 645
37.1.1 Elektrokardiogramm (EKG) und Herzfrequenz (HF) – 645 37.1.2 Arrhythmieüberwachung – 646
Weiterführende Literatur – 657 Literatur »Nichtinvasiver Blutdruck« – 657
37.2 Monitoring der Kreislauffunktion (hämodynamisches Monitoring) – 647 37.2.1 Puls – 648 37.2.2 Nichtinvasiver Blutdruck (NIBD) – 648 37.2.3 Invasive Druckmessung im Hoch- und Niederdrucksystem – 652 37.2.4 Bestimmung des Herzzeitvolumens (HZV) – 655 37.2.5 Berechnung hämodynamischer Größen – 656
Unter dem Oberbegriff »Kardiovaskuläres Monitoring« wird die Überwachung von Herz- und Kreislauffunktionen zusammengefasst. Bei kardiologischen Erkrankungen, instabilen Kreislaufzuständen und Schock sowie für die prä-, intra- und postoperative Überwachung des Herz-KreislaufSystems ist das kardiovaskuläre Monitoring unerlässlich und von ausschlaggebender Bedeutung. Zum einen müssen bei Beeinträchtigungen rechtzeitig Interventionen eingeleitet werden können, zum anderen dienen die Messungen der Statusbeurteilung, Diagnosefindung, Therapieentscheidung und Therapiekontrolle. Die Überwachung umfasst die Herzfunktion als elektrische Erscheinung (EKG) und deren mechanische Auswirkung, d. h. den Druckaufbau und die von Herzfrequenz, Kontraktilität, Vorlast und Nachlast abhängende Volumenförderung. Insbesondere bei Schockzuständen kommt es darauf an, die Hauptfunktion des Kreislaufs, eine ausreichende Sauerstoffversorgung des Körpers, aufrecht zu erhalten bzw. wiederherzustellen. Dazu steht dem Arzt neben Beatmung und Volumenmanagement eine Vielzahl unterschiedlich auf Herz und Gefäßsystem wirkender Mittel zur Verfügung, die nur mit aussagekräftigen Messungen gezielt eingesetzt und auf ihre Wirksamkeit überprüft werden können.
37.1
Monitoring der Herzfunktion
37.1.1 Elektrokardiogramm (EKG)
und Herzfrequenz (HF) In der Notfall- und Intensivmedizin, in operativen Bereichen und im Rettungswesen ist die kontinuierliche EKGÜberwachung obligat (Basismonitoring). Das EKG liefert
Informationen über Herzfrequenz und -rhythmus, Erregungsbildung, -leitung und -rückbildung und deren Störungen, jedoch keine direkte Aussage über die Pumpleistung des Herzens (d. h. die mechanische Herzfunktion). Das EKG ist die Aufzeichnung von Summenpotenzialen der elektrischen Herzaktivität und lässt sich sehr einfach mit Elektroden direkt von der Körperoberfläche ableiten (⊡ Abb. 37.1). Üblich ist die Verwendung von 3, 5, 6 oder (z. B. zur Überwachung in der Kardiologie) 10 Elektroden. Mit einem 3-adrigen Elektrodenkabel lässt sich nur eine EKG-Ableitung anzeigen. Aus 5, 6 und 10 Elektroden werden 7, 8 und 12 EKG-Ableitungen gewonnen, von denen auf herkömmlichen 5–8-Kanal-Monitoren i. d. R. bis zu 3 zur dauernden Darstellung auf den Bildschirmkanälen ausgewählt werden können. Zur Ermittlung der Herzfrequenz (HF) reicht ein 3-adriges Elektrodenkabel aus, das oft zur Grundüberwachung z. B. im Normal-OP genutzt wird. In der Neonatologie findet man ausschließlich drei besonders kleine Neonatal-Elektroden. Für eine bessere Artefaktunterdrückung, zum sicheren Erfassen von Herzrhythmusstörungen (Arrhythmien) und zur Schrittmachererkennung ist die simultane Überwachung mehrerer Ableitungen angezeigt. Zusätzlich kann eine EKG-Vermessung durchgeführt werden. Die automatische Analyse und Überwachung der ST-Strecken im EKG hat besondere Bedeutung bei ischämischen Herzerkrankungen und Infarktpatienten. Dabei kommt es darauf an, das Herz möglichst von allen Seiten zu »betrachten«, d. h. bis zu 12 Ableitungen auszunutzen, damit lokale Ischämien nicht übersehen werden. Zu diesem Zweck sind auch Methoden entwickelt worden, die mit nur 6 Elektroden (reduced lead set), die ganz normal platziert werden, eine sehr zuver-
646
IV
Kapitel 37 · Kardiovaskuläres Monitoring
⊡ Abb. 37.1. Standard-Elektrodenpositionen für EKG-Überwachung mit 3, 5 und 6 Elektroden. Farben und Bezeichnungen nach IEC1: R: rot, L: gelb, F: grün, N: schwarz, V: weiß, V+: grau-weiß
lässige ST-Überwachung aus 8 echten und 4 errechneten Ableitungen ermöglichen. Mit 10 Elektrodenleitungen können moderne Monitore ein 12-Kanal-Ruhe-EKG in diagnostischer Qualität anzeigen und ggf. automatisch auswerten. Dabei ist unbedingt zu beachten, dass eine korrekte Elektrodenapplikation Grundlage für die diagnostische Qualität des EKGs ist. Die in der Überwachung praktizierte Elektrodenplatzierung auf dem Thorax kann die echten, zur Diagnose erforderlichen Extremitätenableitungen nicht vollständig ersetzen. Sie kann scheinbar pathologische Abweichungen der Herzachse vorspiegeln, die bei korrekter Elektrodenplatzierung an den Extremitäten gar nicht vorhanden sind. Die Herzfrequenz (typischer Messbereich 15– 300 Schläge/min) wird als gleitendes Mittel über eine bestimmte Zeit (z. B. 10 s) oder eine bestimmte Anzahl von QRS-Komplexen gebildet und numerisch angezeigt. Alternativ zum EKG kann sie (bei Störungen des EKGs z. B. durch Kautern im OP automatisch vom Monitor umgeschaltet) als Pulsfrequenz aus dem arteriellen Blutdruck oder der Pulskurve aus dem Sp02-Signal gewonnen werden. Grundlage der Herzfrequenzmessung ist die sichere Erkennung der QRS-Komplexe im EKG und die Ermittlung ihrer Abstände (R-R-Abstände) mit digitalen Filtern und Detektionstechniken. So ist es möglich, dass Störimpulse oder Bewegungsartefakte eliminiert und nicht für die Ermittlung der Herzfrequenz gezählt werden. Impulse von Herzschrittmachern werden aufgrund ihrer besonderen Charakteristika (sehr kurz und sehr steil) bereits vor der eigentlichen QRS-Erkennung ermittelt und können als Marker in das EKG eingeblendet werden. Die Über- oder Unterschreitung einstellbarer Grenzwerte kann alarmiert und als kurze EKG-Episode in einem Ereignisspeicher des Monitors oder einer Zentrale abgelegt werden. Zahlreiche Faktoren stören und beeinträchtigen die EKG-Überwachung: Patientenbezogene Störungen sind in erster Linie abgefallene EKG-Elektroden, unzureichender Elektrodenkontakt mit der Haut, feuchte und fettige Haut sowie Bewegungsartefakte durch den Patienten. Technische Störungen, die das EKG überlagern, können v. a. durch Hochfrequenz (z. B. HF-Chirurgiege-
räte), eingekoppelte Wechselspannung oder durch Impulse transkutaner elektrischer Nervenstimulation (TENS) hervorgerufen werden. In Operationssälen wird die Verwendung von speziellen Leitungen und/oder Filtern zum Reduzieren der Störungen empfohlen oder vom Hersteller vorgeschrieben.
37.1.2 Arrhythmieüberwachung
Die kontinuierliche Arrhythmieüberwachung dient dem Erkennen von Herzrhythmusstörungen und deren Vorstufen und Anzeichen in Echtzeit. Eine erkannte Arrhythmie kann alarmiert und als EKG-Strip im Ereignisspeicher abgelegt werden (⊡ Abb. 37.2, auch 4-Farbteil am Buchende). Lebensbedrohliche Zustände wie Asystolie, Kammerflimmern oder ventrikuläre Tachykardie müssen sicher erkannt und akustisch und optisch deutlich alarmiert werden (roter Alarm). Diese drei Formen gehören zur Basis- oder Letalarrhythmie, die jeder moderne Monitor grundsätzlich erkennen und alarmieren sollte. Der Asystoliealarm erfolgt, wenn innerhalb eines bestimmten Zeitraums (i. d. R. 4 s) kein QRS-Komplex identifiziert wird. Liegt der Grund in abgelösten Elektroden, wird ein entsprechender technischer Hinweis erzeugt und der Asystoliealarm nicht gegeben. In der Neonatologie gehört die Bradykardie (zu niedrige Herzfrequenz) zu den Letalalarmen und sollte von jedem Monitor im Neonatalmodus grundsätzlich als lebensbedrohlich erkannt werden. Grundlage für die Arrhythmieanalyse sind die überwachten EKG-Ableitungen. Herzrhythmusstörungen sind häufig mit Herzkrankheiten verbunden und können vereinzelt auch bei Herzgesunden auftreten. Art und Anzahl von Ereignissen sind von besonderem klinischen Interesse. Monitorsysteme bieten oft die Möglichkeit, kontinuierlich die EKGs mehrerer Patienten über Tage hinweg zu speichern und zu analysieren. Die Arrhythmieüberwachung startet mit einer Lernphase, um den für den Patienten derzeit typischen normalen Kammerkomplex zu ermitteln, der als individueller Normalschlag »gelernt« und als Muster oder
647 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
37.2
⊡ Abb. 37.2. Monitorbild mit Arrhythmie-Ereignisfenster
Referenzkomplex gespeichert wird. In der Folge werden alle eingehenden QRS-Komplexe mit dem Muster verglichen (»template matching«). Es geht dabei um die Online-Entscheidung, ob es sich um einen Normalschlag, einen ventrikulären Schlag oder einen Artefakt handelt. Dazu werden verschiedene Merkmale bzw. Erkennungskriterien des EKG-Zyklus herangezogen (»feature extraction«), z. B. Polarität, Breite und Form (Morphologie) des QRS-Komplexes, Steigung und Fläche der ST-Strecke, sowie zeitliches Intervall (RR-Abstand) der Komplexe. Die Entscheidung normal oder ventrikulär wird dabei nicht mehr nach einem Regelwerk fester Messwertkriterien getroffen (»rule based system«), sondern die Monitore imitieren menschliche Herangehensweisen beim Mustervergleich, z. B. mittels Wahrscheinlichkeitskriterien oder Fuzzy Logik. Parallel wird eine Frequenzanalyse (Erkennen von Flattern und Flimmern) und Artefaktanalyse (durch Netzspannung, Muskelzittern u. a.) durchgeführt. Nach der Klassifikation der einzelnen QRS-Komplexe erfolgt mit der Rhythmus-Logik die Unterscheidung, ob es sich um eine isolierte ventrikuläre Extrasystole (VES) handelt oder um gekoppelte Ereignisse (Paare, Salven, ventrikuläre Tachykardie, Bigeminie u. a.). Wenn ein Schrittmacherimpuls detektiert wurde, ist nur noch die Entscheidung wichtig, ob eine physiologische Antwort des Herzens vorliegt oder nicht. Da durch Schrittmacherimpulse elektrische Ausgleichsvorgänge am Herzen hervorgerufen werden, die einer Herzaktion sehr ähnlich sein können, ist diese Entscheidung durchaus nicht trivial. Deshalb sollten Schrittmacherpatienten immer eine zusätzliche Überwachung der Kreislauffunktion haben, z. B. die Pulsfrequenz aus der SpO2-Überwachung oder den kontinuierlich gemessenen arteriellen Blutdruck. Die Analysequalität der Monitore wird u. a. durch Tests mit Referenz-EKG-Aufzeichnungen von internationalen Gesellschaften (American Heart Association AHA) oder anerkannten Institutionen ermittelt.
Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
Hämodynamik ist die Lehre von den Bewegungen des Blutes im Kreislauf. Diese Bewegung wird durch den vom Herzen aufgebrachten Druck angetrieben. Da der Druck im Gefäßsystem stark von Aktivität und Körperlage (hydrostatischer Druck) abhängt, werden Blutdruckmessungen immer in Ruhe vorgenommen und auf die Höhe des Herzens (rechte Vorkammer) bezogen. Das Gefäßsystem ist funktionell unterteilt in Niederdrucksystem (kleiner, pulmonaler oder Lungenkreislauf) und Hochdrucksystem (großer, systemischer oder Körperkreislauf), die miteinander durch das »zentrale Antriebselement« Herz verbunden sind. Das Herz baut in seiner Anspannungsphase (Systole) einen Druck auf, durch den das Schlagvolumen (SV) aus dem Ventrikel in das arterielle Gefäßsystem ausgestoßen wird. Jedes geförderte Schlagvolumen erzeugt eine Pulswelle. Der Spitzendruck während der Austreibung des Schlagvolumens aus dem Ventrikel ist der systolische Blutdruck (höchster Punkt der Druckkurve). Der Druck am Ende der Entspannungsphase (Diastole) wird als diastolischer Blutdruck bezeichnet (niedrigster Punkt der Druckkurve). Die Differenz zwischen Systolen- und Diastolendruck ist die Blutdruckamplitude. Der Druck, der den Blutstrom im Gefäßsystem aufrechterhält, also die treibende Kraft der Perfusion, ist der Mitteldruck (im Körperkreislauf der arterielle Mitteldruck Pm (auch MAD oder MAP), im Lungenkreislauf der pulmonalarterielle Mitteldruck PAPm). Das Schlagvolumen ist abhängig von der Vorlast (Preload), der Kontraktionsfähigkeit des Herzmuskels (Kontraktilität) und der Nachlast (Afterload). Preload ist die durch die passive Füllung der Herzkammer am Ende der Diastole hervorgerufene Dehnung (= Vorbelastung) des Herzmuskels und wird am besten durch das enddiastolische Volumen beschrieben. Afterload ist der Kraftaufwand der Herzmuskulatur zur Überwindung der Widerstände in der Ausstrombahn des linken Ventrikels und des peripheren Kreislaufs. Arterieller Mitteldruck und Gefäßwiderstand werden als Maße für die Nachlast genutzt. Faktoren, die das Blutdruckverhalten bestimmen, sind neben der Druck-Volumenarbeit des Herzens auch die Elastizität des Gefäßsystems, das zirkulierende Blutvolumen und insbesondere der periphere Gefäßwiderstand, der durch die vom sympathischen Nervensystem gesteuerte Wandspannung der Gefäße (den Gefäßtonus) beeinflusst wird. Die Fördermenge Blut pro Minute wird Herzminutenvolumen (HMV) oder Herzzeitvolumen (HZV; engl. CO: Cardiac Output) genannt und ist das Produkt aus Schlagvolumen und Herzfrequenz. Regelmechanismen des Körpers regulieren den Kreislauf mit dem Ziel, das Herzzeitvolumen dem Durchblutungsbedarf des Organismus anzupassen, den Blutdruck
37
648
Kapitel 37 · Kardiovaskuläres Monitoring
IV
⊡ Abb. 37.3. Übersicht Kreislaufmonitoring
weitgehend konstant zu halten und die Durchblutung in den einzelnen Organen und Geweben auf den jeweiligen Funktionszustand einzustellen. Da dem Arzt Mittel zur Verfügung stehen, die einzelnen Determinanten des Herzzeitvolumens gezielt zu therapieren (Chronotropika für die Herzfrequenz, Inotropika für die Kontraktilität, Vasodilatatoren und -konstriktoren für den Gefäßtonus und Diuretika bzw. Volumengaben für die Vorlast), ist es so wichtig, im Monitoring diese Informationen als Entscheidungsbasis und Therapiekontrolle auf möglichst zuverlässige Weise zu erhalten. Zum Monitoring der Kreislauffunktion gehören nichtinvasive und invasive Messungen von Vitalwerten mit indirekten und direkten Verfahren, die im Hochdruck- oder Niederdrucksystem ihre Anwendung finden ⊡ Abb. 37.3).
37.2.2 Nichtinvasiver Blutdruck (NIBD)
Blutdruckmessungen mit nichtinvasiven Methoden (⊡ Tab. 37.1) gehören zu den Basisminimalüberwachungskriterien sowohl im intensivmedizinischen Bereich als auch in der prä-, peri- und postoperativen Patientenüberwachung. Nichtinvasive Blutdruckmessungen werden mittels Manometer oder halbautomatischen und automatischen Blutdruckautomaten mit Digitalanzeige durchgeführt; daneben aber auch als separates Messmodul oder als vorkonfigurierter Messparameter in Kompaktmonitoren eingesetzt, die häufig nach dem oszillometrischen Messprinzip arbeiten. Nichtinvasive Methoden der Blutdruckmessung sind mit Ausnahme der plethysmographischen Blutdruckmessung diskontinuierliche Messverfahren. Man unterscheidet folgende Methoden und Blutdruckverfahren:
37.2.1 Puls
Sphygmomanometer und Membranmanometer Eine Pulsüberwachung erfolgt entweder invasiv aus der arteriellen Druckkurve oder nichtinvasiv aus dem Plethysmogramm der Pulsoxymetrie ( Kap. 39 »Respiratorisches Monitoring«, Abschn. 39.2 »Gasaustausch«). Die Pulsüberwachung hat besondere Bedeutung als Sicherheitsmaßnahme bei der Überwachung von Schrittmacherpatienten (s.oben).
Riva Rocci entdeckte 1896 eine nichtinvasive palpatorische Messmethode zur Bestimmung des Blutdrucks. Er entwickelte ein Sphygmomanometer (Sphygmometrie: Druckmessung mit Gummihohlmanschette), mit dem er über eine aufblasbare Manschette den Blutdruck am Oberarm messen konnte. Der Manschettendruck war nötig, um die Oberarmarterie zu schließen, bis am Handgelenk kein
649 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
⊡ Tab. 37.1. Blutdruckmessgeräte und nichtinvasive Messmethoden Blutdruckmessgeräte
Messmethoden
Sphygmomanometer
palpatorisch
Membranmanometer
auskultatorisch
Halbautomaten
auskultatorisch, oszillometrisch
Automatische Messgeräte
oszillometrisch
NIBD-Monitormodul
oszillometrisch
Doppler
dopplersonographisch
Plethysmomanometer
plethysmographisch
Puls mehr tastbar war. Der gefundene Okklusionsdruck wurde dem systolischen Blutdruck gleichgesetzt. Es bedurfte einer weiteren Entdeckung, um nichtinvasiv auskultatorisch den diastolischen Blutdruck zu ermitteln. Der russische Arzt Korotkow entdeckte 1905 Turbulenzgeräusche, die beim Ablassen des Manschettendrucks über der Brachialarterie in der Ellenbogenbeuge auskultiert werden konnten. Funktionsprinzip der auskultatorischen Messmethode
Die Manschette muss am freien Oberarm platziert werden, sodass der Mittelpunkt der Gummiblase über der Brachialarterie liegt und sich die Blutdruckmanschette auf Herzhöhe befindet. Nach Palpieren der Brachialarterie wird die Manschette ca. 30 mmHg über den Druck aufgepumpt, bei dem die Pulsgeräusche nicht mehr wahrnehmbar sind. Das Stethoskop wird nun auf die Brachialarterie gelegt, und mit Hilfe des Ablassventils wird der Druck langsam abgelassen. Durch die Pulsation hervorgerufene Turbulenzen sind als pulssynchrone Strömungsgeräusche (sog. Korotkow-Töne) zu hören: Zuerst werden die Klopfgeräusche lauter, bis zwei Pulsschläge klar zu bestimmen sind. An dieser Stelle liest man am Manometer den systolischen Blutdruck ab. In der zweiten Korotkow-Phase werden die Geräusche leiser und verschwinden zeitweise ganz. Die Geräusche kommen in der dritten Phase wieder und sind nun deutlicher zu hören, allerdings stärker gedämpft als in der ersten Phase. In der vierten Phase werden die Töne abrupt gedämpft und schwächer, bis in der fünften Phase kein Ton mehr zu hören ist. Die fünfte Phase kommt dem diastolischen Druck am nächsten. Es herrscht immer noch Uneinigkeit darüber, ob der diastolische Druck auskultatorisch in Phase 4 oder Phase 5 nach Korotkow gemessen werden soll. Die Phase 5 kommt dem arteriellen Blutdruck am nächsten, wobei sie häufig nicht klar zu identifizieren ist, denn bei einigen Patienten sind auch noch Geräusche hörbar, wenn die Manschette nicht mehr unter Druck steht.
Halbautomatische und automatische Blutdruckmessgeräte Halbautomatische Blutdruckmessgeräte arbeiten größtenteils mit der auskultatorischen Methode, wobei ein Mikrophon in der Manschette das Stethoskop ersetzt. Einige der Geräte arbeiten auch nach dem oszillometrischen Verfahren. Der französische Arzt Pachon entdeckte 1909 die oszillometrische Messmethode, die in automatischen Blutdruckmessgeräten angewendet wird. Er erkannte, dass nach dem Ablassen des Manschettendrucks und nach dem Erreichen des systolischen Drucks die Gefäßwände zu schwingen (oszillieren) beginnen und dieses Verhalten beibehalten, bis das Gefäß nicht mehr okkludiert wird. Diese Oszillationen werden von der Luft in der Manschette übertragen und sind am Manometer abzulesen. Heute werden diese Schwingungen mit Hilfe von Messaufnehmern elektronisch gemessen. Funktionsprinzip der oszillometrischen Methode
Bei der oszillometrischen Methode wird die Manschette zu Beginn der Messung aufgepumpt, bis die Arterie geschlossen ist. Das Gerät registriert geringe Oszillationsamplituden, die vom proximal der Manschette liegenden Teil der Arterie kommen (Roloff 1987). Der Druck wird automatisch mit 2–3 mmHg/s aus der Manschette abgelassen (Mieke 1991). Sinkt der Manschettendruck unter den Wert des systolischen Blutdrucks, beginnt die Arterie sich zu öffnen, und die Schwingungen werden stärker. Sie erreichen ihr Maximum, wenn der Manschettendruck dem mittleren arteriellen Druck entspricht. Mit weiter sinkendem Manschettendruck werden die Oszillationsamplituden wieder kleiner und bleiben schließlich konstant, wenn der Manschettendruck den diastolischen Wert erreicht hat (⊡ Abb. 37.4). Ein- und Zweischlauchsysteme
Das Manschettensystem ist mit 1- oder 2- Schlauchsystemen gebräuchlich. Um zu vermeiden, dass im Drucksystem entstehende Luftverwirbelungen die Messergebnisse beeinflussen, sollte ein Druckschlauch aus zwei Lumen bestehen. Eines führt ohne Abzweigungen direkt von der Manschette zum Druckaufnehmer, das andere ist nur zum Aufpumpen und Druckablassen bestimmt. Plausibilitätskontrolle bei oszillometrischen Blutdruckmessgeräten
Die Artefakterkennung ist die wichtigste Voraussetzung für eine zuverlässige oszillometrische Messung. Mechanische Einwirkungen auf die Manschette oder den Blutdruckschlauch während der Messung dürfen vom Gerät nicht als Oszillationsamplituden registriert werden, da sonst falsche Blutdruckwerte gemessen werden können. Während der oszillometrischen Messung eliminieren einige Geräte diese Artefakte dadurch, dass der Druck in
37
650
Kapitel 37 · Kardiovaskuläres Monitoring
IV
⊡ Abb. 37.4. Prinzip der oszillometrischen Methode
Stufen abgelassen wird und auf jeder Stufe zwei Pulse annähernd gleicher Oszillationsamplitude gesucht werden, um dann auf die nächste Stufe abzulassen. Treten Artefakte auf, so verharrt das Gerät auf einer Druckstufe, bis zwei gleiche Pulse identifiziert sind. Durch den doppelten Druckstufenablass können auch kleinste Artefakte erkannt werden, wie bspw. bei Neonaten. Verfahren, die dagegen mit einem kontinuierlich-linearen Druckablass arbeiten, geben häufig falsche Werte an. Während einer Messung auftretende starke Blutdruckschwankungen verfälschen häufig den Verlauf der Oszillationskurve. Ein Monitor wird ohne Plausibilitätskontrolle in diesem Fall falsche Messwerte anzeigen. Bei dieser Kontrolle wird der plausible Zusammenhang der vier gemessenen Parameter geprüft. Bei mangelnder Plausibilität zeigt ein solides Gerät dem Anwender, dass keine exakte Messung möglich war. Bei Schockpatienten mit extrem niedrigen Druckwerten – aufgrund des flachen Verlaufes der Oszillationskurven – können der systolische und diastolische Wert nur sehr ungenau erkannt werden. Das Schwingungsamplitudenmaximum und somit der MAD können noch gemessen werden. Systole und Diastole würden als nicht genau messbar mit dem Wert Null angezeigt. MAD und Pulsfrequenz werden hingegen ausgewiesen.
Weitere nichtinvasive Blutdruckmessverfahren Dopplerverfahren
Bei diesem Verfahren wird die Arterie mit Hilfe einer Manschette okkludiert. Der Messfühler, ein schwingender Kristall, sendet Ultraschallwellen mit konstanter Frequenz schräg zur Längsachse einer Arterie aus. Treffen die Schallwellen auf sich zum Messkopf bewegende Erythrozyten, werden sie in der Frequenz geändert und von einem zweiten Kristall empfangen. Dieser sog. Dopplereffekt führt zu einer Frequenzerhöhung der reflektierten Wellen, die proportional zur Strömungsgeschwindigkeit der korpuskulären Elemente im Blut ansteigt. Das geänderte Frequenzmuster bei verschiedenen Manschettendrücken wird für die Bestimmung des Blutdrucks herangezogen. Plethysmographisches Verfahren
Das Gerät misst am Finger mit Hilfe einer Manschette kontinuierlich nichtinvasiv den arteriellen Blutdruck. Diese Manschette enthält eine photoplethysmographische Messeinrichtung und wird über eine nachgeschaltete Pumpe mit Druck-Transducer, die ständig zu den Blutdruckwerten korrespondiert, aufgeblasen. Es wird kontinuierlich der systolische, diastolische und der mittlere arterielle Blutdruck sowie die Pulsfrequenz ausgewiesen (Rohs 1990).
651 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
Methodische Hinweise Manschettengröße
Eine der häufigsten Fehlerquellen bei der Blutdruckbestimmung ist die falsche Wahl der Manschettengröße. Für die manuelle und automatische Blutdruckmessung gilt: Die Manschettenbreite sollte ca. 40% des Umfangs der Extremität betragen. Stimmt dieses Verhältnis nicht, kommt es zu erheblichen Fehlmessungen. Mit zu kleinen Manschetten wird zu hoch und mit zu großen Manschetten wird zu niedrig gemessen. Deshalb ist es unbedingt erforderlich, besonders bei adipösen Patienten, Kindern und Neonaten, jeweils die richtige Manschettengröße zu nutzen. Berücksichtigung des hydrostatischen Drucks
Bei der Blutdruckmessung am Oberarm würde sich eine Verschiebung des Messortes von der Herzhöhe nur bei einer Seitenlage oder beim Hochheben des Armes ergeben. Mit den automatischen Blutdruckgeräten kann auch problemlos am Unterarm, Finger, Ober- und Unterschenkel gemessen werden, wenn der Oberarm als Messort nicht zur Verfügung steht. Es muss darauf hingewiesen werden, dass – hervorgerufen durch den hydrostatischen Druckunterschied – unterhalb der Herzebene ein höherer und oberhalb der Herzebene ein niedrigerer Blutdruck gemessen wird. Als Faustformel gilt: Pro 10 cm unterhalb Herzniveau werden 7–8 mmHg zuviel gemessen; oberhalb 7–8 mmHg zu wenig. Variabilität und Normwerte des Blutdrucks
Der Blutdruck ist nicht immer konstant, sondern kann sich innerhalb von Sekunden ändern. Die Blutdruckwerte sind abhängig von der Tageszeit, der körperlichen Aktivität, der nervlichen Anspannung und der Nahrungsaufnahme. Diese Einflussfaktoren müssen bei der Diagnose Berücksichtigung finden. Deshalb sollten 2, maximal 3 reproduzierbare Folgemessungen innerhalb von 10 min durchgeführt werden. Vor der Einleitung medikamentöser Therapien bei pathologischem Blutdruck ist die Wiederholung dieser Messung 4–5-mal täglich erforderlich. Die Weltgesundheitsorganisation (WHO) definiert den normalen arteriellen Blutdruck (Normotonie) bei einem systolischen Blutdruckwert unter 140 mmHg und einem diastolischen Blutdruckwert unter 90 mmHg. Der mittlere arterielle Blutdruck (MAD) sollte im Mittel um
die 100 mmHg liegen. Unter Ruhebedingungen liegt eine stabile arterielle Hypertonie unabhängig vom Lebensalter dann vor, wenn der systolische Blutdruckwert konstant 160 mmHg und/oder der diastolische Blutdruck konstant 95 mmHg beträgt (Laube 1990). In Anlehnung an das Joint National Committee findet zunehmend die in ⊡ Tab. 37.2 aufgeführte Einteilung Verwendung. Sie berücksichtigt im Wesentlichen die Höhe des diastolischen Blutdrucks. Neuere Untersuchungen belegen allerdings die größere Wertigkeit eines erhöhten systolischen Blutdrucks und warnen vor einer Überbewertung allein der diastolischen Blutdruckschwankungen. Mögliche und vermeidbare Fehlerquellen bei der nichtinvasiven Blutdruckmessung
Messfehler können durch die Geräte, durch die Patienten und durch die Anwendung der Technik hervorgerufen werden. Bei den manuellen Methoden sind überraschend große Abweichungen der Messergebnisse zwischen verschiedenen Anwendern festzustellen, die auf unterschiedliche Faktoren bei der Messung zurückzuführen sind. Wird das Stethoskop zu stark auf die Arterie gedrückt, werden dadurch Geräusche auch unterhalb des diastolischen Drucks erzeugt. Ein weiterer Anwendungsfehler ist die Tendenz verschiedener Anwender, Messwerte aufoder abzurunden. Erwartete oder gewünschte Messergebnisse aufgrund der Beurteilung des Patienten können den Anwender ebenfalls prägen und einen Messfehler verursachen. Weiterhin kann es zu Ungenauigkeiten durch die verschiedenen Korotkow-Phasen kommen, und oftmals ist die Ablassgeschwindigkeit des Manschettendrucks zu hoch. Ein zu lockeres Anlegen der Manschetten kann ebenfalls zu Messfehlern führen. Darüber hinaus können Messfehler durch patientenseitige Bewegungen verstärkt werden. Dies ist hauptsächlich bei Kindern oder bei postoperativer Überwachung zu berücksichtigen. Undichtigkeiten im pneumatischen Schlauch- oder Manschettensystem führen geräteseitig oftmals zu wertlosen Messungen. Grenzen der nichtinvasiven Blutdruckmessung
Während des Messvorgangs wird das unter der Manschette liegende Gewebe der Messextremität komprimiert. Die Gefahr von nervalen Druckläsionen ist besonders bei
⊡ Tab. 37.2. Diastolenwerte zur Einteilung der Hypertonie Hypertonieart leichte Hypertonie
Minimale Diastole
Maximale Diastole
90 mmHg
100 mmHg
mittelschwere Hypertonie
>100 mmHg
115 mmHg
schwere Hypertonie
>115 mmHg
–
37
652
IV
Kapitel 37 · Kardiovaskuläres Monitoring
kachektischen Patienten, unreifen Neugeborenen und Patienten mit neuromuskulären Erkrankungen gegeben, da das die Nerven schützende Muskel- und Fettgewebe reduziert ist. Deshalb sollten bei diesen Patienten nichtinvasive Druckmessungen in möglichst großen Zeitintervallen durchgeführt werden. Ansonsten wird empfohlen, nichtinvasive Blutdruckmessungen in Zeitintervallen von höchstens 5–10 min durchzuführen, um Druckschäden im Bereich der Manschette sowie im Versorgungsbereich der Arterie zu vermeiden (List 1989). Bei notwendigen engmaschigen Blutdrucküberwachungen ist das Risiko der Druckläsion gegen die Risiken der invasiven Messung abzuwägen (Roloff 1987).
37.2.3 Invasive Druckmessung im Hoch-
und Niederdrucksystem Die invasive Blutdruckmessung ist ein direktes Verfahren zur Ermittlung der Druckverhältnisse im Hoch- oder Niederdrucksystem. Der wesentliche Vorteil gegenüber der nichtinvasiven Blutdruckmessung ist die kontinuierliche Verfügbarkeit des Messsignals (Druckkurve) und der Druckwerte. Damit ist die Möglichkeit der Alarmierung bei Unter- oder Überschreiten von vorgegebenen Grenzwerten sowie einer weiteren Signalverarbeitung der gewonnenen Messdaten gegeben.
Druckmessung im Hochdrucksystem: Invasiver arterieller Blutdruck Über einen intraarteriellen Katheter wird eine Verbindung zwischen intravasaler Blutsäule und einem flüssigkeitsgekoppelten Druckwandler hergestellt, der die mechanische Größe Druck in ein elektrisches Signal umsetzt. Der arterielle Druck ist vom Schlagvolumen des linken Herzventrikels und vom Gefäßwiderstand abhängig. Glieder der direkten Druckmesskette (⊡ Abb. 37.5) sind im Wesentlichen: ▬ Kanüle oder arterieller Katheter, ▬ flüssigkeitsgefülltes Schlauchsystem mit Dreiwegehahn, ▬ Druckwandler (wiederverwendbar: mit Druckdom, ohne oder mit abschließender Membran sowie mit separatem oder integriertem Spülsystem; Einmalwandler stets inklusive Spülsystem) mit Monitorkabel, ▬ Monitor. Druckaufnehmer und Druckübertragung Wiederverwendbare Druckaufnehmer (⊡ Abb. 37.6) bestehen aus einem mechano-elektrischen Druckwandler (Transducer) und einem austauschbaren, flüssigkeitsgefüllten Hohlraum (Druckdom). Der Druckdom (Einmalgebrauch pro Patient) ist über eine integrierte dünne Kunststoffmembran mechanisch direkt mit der Messflä-
⊡ Abb. 37.5. Messkette für die invasive Druckmessung
che (Druckwandlermembran) gekoppelt. Über das flüssige Medium (Kochsalzlösung) in der Druckmessleitung und dem Katheter wird die arterielle Druckwelle auf den Druckdom übertragen und bewirkt eine entsprechende Auslenkung der Druckwandlermembran. Die Umwandlung der mechanischen Membranauslenkung erfolgt bei wiederverwendbaren und Einmaldruckwandlern über druckempfindliche Chips, deren elektrische Eigenschaften sich proportional zum Druck verändern. Eine angelegte Spannung bewirkt ein linear druckproportionales elektrisches Signal, das zum Monitor weitergeleitet und dort nach Verstärkung am Bildschirm angezeigt wird. Je größer der Abstand der Katheterspitze zum Herzen ist, umso höhere Druckamplituden werden registriert. Eine zeitliche Verzögerung der Registrierung ist bedingt durch die Laufzeit. Aus den jeweiligen Druckverläufen werden elektronisch die systolischen, diastolischen und Mittelwerte errechnet und angezeigt. Anschlüsse Der Druckdom hat meist zwei Luer-Lock-Anschlüsse, denen jeweils ein Dreiwegehahn aufgesetzt ist. Sie dienen der Druckzuleitung, der Systementlüftung bei der Füllung und der Spülung der Druckmessleitung. Die Druckwandler werden i. d. R. in Halteplatten eingesetzt, die der Befestigung z. B. an einem Infusionsständer in der richtigen Höhe relativ zum Herzen dienen. Für die unterschiedlichen invasiven Druckmessungen sind die Zugangsschläuche und/oder die Steckplätze der Halteplatten oft farblich kodiert: ▬ Rot: arterielle Druckmessung, ▬ Blau: venöse Druckmessung, ▬ Gelb: pulmonalarterielle Druckmessung, ▬ Weiß: sonstige Druckmessung (z. B. intrakranielle Druckmessung). Anforderungen an ein »ideales« Drucksystem Ein idealisiertes invasives Druckmesssystem hat folgende Charakteristika, die den heutigen klinischen Anforderungen entgegenkommen:
653 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
▬ einfacher und schneller Aufbau des Systems, ▬ leichte Füllbarkeit bei einfacher und sicherer Entlüftung sowie Sichtkontrolle auf Luftblasen, ▬ integriertes Dauerspülsystem mit »Einhandbedienung«, zuverlässige Spülrate auch bei Schnellspülung, ▬ geschlossenes Überdrucksicherheitsventil, ▬ hohe Zuverlässigkeit aller Einzelkomponenten der Druckmesskette, ▬ gute Resonanzfrequenz, ▬ hohe Langzeitstabilität, ▬ Möglichkeiten der Negativkalibrierung, ▬ Arm- und Halterungsmontage, ▬ niedriger Eingangswiderstand (Impedanz). Messtechnische Anforderungen Die Messung des invasiven Blutdrucks ist technisch eine Differenzdruckmessung zwischen Blutgefäß und Umgebungsdruck (atmosphärischem Druck). Daher muss der Druckwandler vor jeder Messung abgeglichen werden (Nullabgleich, Wandler auf Herzhöhe zur Vermeidung von Messfehlern durch hydrostatische Drücke aus dem Schlauchsystem). Druckwandler sind temperaturabhängig, d. h. bei Temperaturänderung kann der Nullpunkt von seinem eigentlichen Wert abweichen (Nullpunktdrift). Schwächstes Glied in der Messkette ist die mechanische Druckübertragung. Der Druck kann nur exakt bestimmt werden, wenn alle Komponenten des Systems bestimmte Voraussetzungen erfüllen, wie z. B. hohe sta-
a
b
tische und dynamische Genauigkeit des Messsystems (Übertragungsverhalten, Eigenfrequenz, Dämpfung u. a.). Die Übertragungseigenschaften hängen von Länge und Dehnbarkeit (Compliance) sowie dem Innendurchmesser des Druckschlauchs ab. Es gilt, möglichst kurze, druckfeste Schlauchverbindungen ohne zusätzliche Steckverbindungen zu verwenden. Alle Komponenten sollten vor jeder Messung auf ihre Funktionalität überprüft werden (blasenfreies Messsystem, sichere Konnektion der einzelnen Systemkomponenten, keine Leckagen). Bei der Verwendung von wiederverwendbaren Druckwandlern ist eine Kalibrierung zur Überprüfung der Funktionsfähigkeit vor jeder Messung empfehlenswert. Das Drucksystem enthält einen schwingungsfähigen Anteil (hydraulisches System: Kanülenspitze bis zur Membran des Druckwandlers) und kann zu Eigenschwingungen angeregt werden, die das Drucksignal verändern. Messtechnisches Ziel ist, die Druckkurve mit Frequenzen bis zu 12 Hz unverfälscht zur Darstellung zu bringen. Unterhalb 20 Hz – hier hat das Drucksignal Frequenzanteile – macht sich die Eigen- bzw. Resonanzfrequenz des Messsystems besonders bemerkbar, d. h. es kommt zu unerwünschten Überlagerungen und Verformungen des eigentlichen Drucksignals. Durch Luftblasen im Messsystem, Koagel an der Katheterspitze oder im Schlauchsystem, diskonnektierten oder losen Druckdom des Druckwandlers, Bewegungsartefakte seitens des Patienten oder eine veränderte
c
⊡ Abb. 37.6a–c. a Wiederverwendbarer Druckwandler, b Schema Einmaldruckwandler, c Wheatstone’sche Brücke (Quelle: BD Deutschland GmbH, Heidelberg)
37
654
Kapitel 37 · Kardiovaskuläres Monitoring
Katheterposition wird die Druckkurve gedämpft oder verändert und die Messinformation beeinträchtigt.
Druckmessungen im Niederdrucksystem Ziel von Druckmessungen im Niederdrucksystem ist es, anhand der gewonnenen Messergebnisse Informationen über die Rechtsherzfunktion, den Lungenkreislauf und den Füllungszustand des Gefäßsystems zu erhalten. Zentralvenöser Druck (ZVD)
IV
Über einen zentralen Venen- bzw. Cavakatheter (sog. zentralvenöser Katheter, ZVK), der am Eingang zum rechten Vorhof des Herzens in der V. cava superior platziert wird, erfolgt über ein Flüssigkeitsmanometer oder einen Druckaufnehmer die Messung des zentralen Venendrucks. Druckwandler haben im Gegensatz zur Wassersäulenmanometrie den Vorteil, dass die Messinformationen kontinuierlich und bestimmte Signalcharakteristika der ZVD-Kurve zusätzlich verfügbar sind. Wegen der kleinen Druckwerte ist besonders wichtig, dass sich das Druckmesssystem auf Herzhöhe (korrekte Nullpunktpositionierung) befindet, um die Messwertermittlung durch hydrostatische Druckdifferenzen nicht zu verfälschen. Die ZVD-Kurve zeigt in ihrem Verlauf die Vorhofkontraktion (A-Welle), den Beginn der Kammerkontraktion (D-Welle) und die Erschlaffungsphase (V-Welle). Der ZVD (engl. CVP) wird nur als Mittelwert angezeigt (Normwert 3–8 mmHg bzw. 4–11 cm H20) und wird im Wesentlichen beeinflusst von der Kapazität des Gefäßsystems, dem Herzzeit- und Blutvolumen, der Compliance des Myokards sowie der Nachlast der rechten Herzkammer. Erhöhte ZVD-Werte sind u. a. auf Verminderung der Herzleistungsfähigkeit, Hypervolämie, Zunahme des intrathorakalen Drucks oder mechanische Hindernisse zurückzuführen. Erniedrigte ZVD-Werte sind Ausdruck einer Hypovolämie (ZVD-Kurve und andere Drücke ⊡ Abb. 37.7, auch 4-Farbteil am Buchende).
⊡ Abb. 37.7. Unterschiedliche Druckkurven und Minitrends im Monitorbild
Pulmonalarteriendruck (PAP) und Pulmonalkapillärer Wedgedruck (PCWP)
Zur Überwachung und Messung der Hämodynamik des rechten Herzens wird ein Ballonkatheter durch das Venensystem in den rechten Vorhof, die rechte Herzkammer und von dort durch die Pulmonalklappe in die A. pulmonalis vorgeschoben. Anhand der typischen unterschiedlichen Druckverläufe kann der Weg des Katheters verfolgt werden (⊡ Abb. 37.8, auch 4-Farbteil am Buchende). Die richtige Katheterlage ist erreicht, wenn die sog. Wedge-Position (⊡ Abb. 37.9, auch 4-Farbteil am Buchende) eingenommen wird, d. h. der aufgeblähte Ballon des Katheters den Pulmonalarterienast verschließt. Liegt die Katheterspitze an der Pulmonalarterienwand (sog. Pseudo-Wedge-Position), kommt es zur Druckkurvendämpfung beim Füllen des Ballons und zum kontinuierlichen Druckanstieg. Obwohl der Katheter im rechten Herzen liegt, kann in Wedge-Position über das distale Lumen auf den Druck des linken Vorhofs geschlossen werden: Der PCWP-Wert entspricht in erster Näherung dem linken Vorhofdruck LAP (linksatrialer Druck) und damit dem enddiastolischen Füllungsdruck des linken Ventrikels, da linker Vorhof, Lungenkapillaren und Pulmonalarterie unter normalen Bedingungen während der Diastole eine gemeinsame Druckverbindung bilden. Ballonkatheter. Mit unterschiedlichen Ballonkathetern (sog. Einschwemmkatheter, Pulmonaliskatheter oder Swan-Ganz-Katheter), die sich in Länge und Stärke, Anzahl der Lumina, Lage der Lumenaustrittstellen und anderen Charakteristika unterscheiden, können gleichzeitig ZVD, PAP und Körperkerntemperatur sowie intermittierend PCWP und HZV gemessen werden. Darüber hinaus bieten spezielle Ballonkatheter zusätzliche Möglichkeiten wie intrakardiale EKG-Ableitung (z. B. HIS-Bündel-EKG), supraventrikuläre und ventrikuläre Stimulation, Messen der gemischtvenösen Sauerstoffsättigung SvO2 durch Integration einer Fiberoptik, Einführen einer transluminalen Stimulationssonde oder zusätzliche Infusionslumina. Ballonkatheter, die neu gelegt werden oder bereits seit Stunden oder Tagen intravasal verweilen, sind nicht risikofrei und können Komplikationen hervorrufen, die teilweise vom Ort des Katheterzugangs abhängig sind: ▬ supraventrikuläre und ventrikuläre Arrhythmien, ▬ ventrikuläre Tachykardien oder Kammerflimmern (selten), ▬ venöse Thrombosen (besonders bei niedrigem HZV), ▬ Sepsis (mit zunehmender Liegedauer erhöht sich das Risiko), ▬ Lungeninfarkt (durch Katheterokklusion einer peripheren Lungenarterie), ▬ Pulmonalarterienruptur (durch Balloninflation oder die Katheterspitze).
655 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
⊡ Abb. 37.8. Messorte und typische Druckverlaufskurven in verschiedenen Herz- und Gefäßabschnitten
37.2.4 Bestimmung des Herzzeitvolumens
(HZV) Das Herzzeitvolumen, das pro Minute geförderte Blutvolumen, wird in l/min angegeben. Als klassisch gilt die Bestimmung des HZV nach Adolf Fick (Fick’sches Prinzip), dessen Berechnung ganz einfach auf dem Masseerhaltungssatz beruht: HZV ist der Quotient aus Sauerstoffverbrauch (VO2) des Körpers und Sauerstoffgehaltsdifferenz (avDO2) zwischen zum Körper fließendem arteriellem und vom Körper zurückkommendem gemischtvenösem Blut: HZV=VO2/ avDO2. In der Klinik lässt sich jedoch unter Routinebedingungen eine Sauerstoffverbrauchsmessung nicht mit hinreichender Genauigkeit durchführen.
Dilutionsmethoden
⊡ Abb. 37.9. PA-Katheter in Wedge-Position
In den 20er Jahren des vorigen Jahrhunderts entstanden die grundlegenden Arbeiten von Stewart und Hamilton zur Bestimmung des HZV mittels Farbstoffdilution. Mit der Einführung des Thermistorkatheters durch Swan und Ganz in den 70er Jahren hat sich von allen bekannten
37
656
IV
Kapitel 37 · Kardiovaskuläres Monitoring
Indikatorverdünnungsmethoden (Farbstoff (dye dilution), Kälte, Ionen, Radioisotope) die Thermodilution mittels Pulmonaliskatheter als sehr praktikabel in der Klinik durchgesetzt. Eine definierte Menge physiologischer Kochsalzlösung (mit einer Temperatur von 0–25°C; je kälter desto genauer die Messung) wird über den proximalen Port des mehrlumigen Pulmonaliskatheters in den rechten Vorhof eingespritzt. Da das Injektat mit dem strömenden warmen Blut (37°C) vermischt und somit verdünnt wird, kann die Temperaturänderung im Blutstrom mit dem nahe der Katheterspitze liegenden Thermistor gemessen werden. Die Form und die Fläche der Dilutionskurve ändern sich mit dem Herzzeitvolumen. Bei bekannter Temperatur von Injektat und Blut sowie bekanntem Injektatvolumen ermittelt das Messsystem das Herzzeitvolumen aus der Fläche der Thermodilutionskurve (⊡ Abb. 37.10). Die Nachteile dieser Methode sind die Diskontinuität und die Notwendigkeit des Pulmonaliskatheters, dessen Indikation spätestens seit der Studie von Connors (1996) besonders kritisch betrachtet wird. Der Nachteil Diskontinuität wurde überwunden, indem mit einem speziellen Pulmonaliskatheter Wärmeimpulse an das Blut abgegeben werden und deren Dilutionskurve ausgewertet wird. Da Wärmeimpulse in recht kurzen Abständen (30–60 s) applizierbar sind, entsteht praktisch eine kontinuierliche Messung. Die PiCCO-Technologie
Die Thermodilution lässt sich prinzipiell auch transpulmonal durchführen, d. h. der Kältebolus durchläuft die Lunge und ein Thermistor im arteriellen System nimmt die Verdünnungskurve auf. Der Kältebolus wird wie bei normaler Thermodilution, jedoch mit einem normalen, bei Intensivpatienten üblichen zentralvenösen Katheter in den rechten Vorhof injiziert, der Temperaturverlauf aber (vorzugsweise) in der A. femoralis gemessen. Vorteilhaft bei dieser Methode ist, dass sie weniger invasiv ist (Wegfall des Pulmonaliskatheters und damit der o. g. Gefährdungen) und dass respiratorische Einflüsse auf die Messung reduziert werden. Die PiCCO-Technologie (1997 von Pulsion Medical Systems in den Markt eingeführt; von PCCO = Pulse Contour Cardiac Output) ist eine Kombination von transpulmonaler Thermodilution (als HZV-Messung) und Pulskonturanalyse (als kontinuierliche Bestimmung der Änderungen des HZV). Dabei wird aus der invasiv gemessenen arteriellen Druckkurve Schlag für Schlag auf das HZV geschlossen. Zuvor ist die Kalibration mittels der Thermodilution erforderlich, die spätestens alle 8 Stunden wiederholt werden sollte. Der große Wert der PiCCO-Methode liegt nicht allein in der weniger invasiven und kontinuierlichen HZV-Messung, sondern in den außerordentlich wertvollen Parametern für die Beurteilung des Kreislaufes und der Volumensituation des Patienten, die völlig ohne weiteren Aufwand vom Monitor ermittelt werden. Dies sind v. a.
⊡ Abb. 37.10. Monitor-Fenster zur HZV-Messung: Aus einer Reihe von Messungen werden Fehlmessungen gestrichen und ein Mittelwert gebildet
die Vorlastindikatoren GEDV (Global enddiastolisches Volumen) und Intrathorakales Blutvolumen (ITBV), die wesentlich sensitiver und spezifischer sind als die Füllungsdrücke ZVD und PCWP, die Kontraktilitätsmaße dP/dtmax (maximaler Druckanstieg) und GEF (Globale Ejektionsfraktion), der systemische Gefäßwiderstand SVR als Maß für die Nachlast, der Parameter EVLW als Maß für das extravaskuläre Lungenwasser und (bei beatmeten Patienten ohne Arrhythmie) die Schlagvolumenvariation SVV. Die letzten Parameter dienen einem optimalen Flüssigkeitsmanagement insbesondere bei Schockpatienten, wo es wichtig ist, den Kreislauf und damit die Sauerstoffversorgung zu stabilisieren und ein Lungenödem zu vermeiden bzw. rechtzeitig zu erkennen. Weitere invasive Verfahren nutzen die Pulskonturmethode allein oder in Kombination mit der LithiumionenDilution. Weiterhin wird die kontinuierliche Messung der gemischtvenösen Sättigung SvO2 mittels Fiberoptik in einem Pulmonaliskatheter zur Abschätzung von Veränderungen des HZV verwendet. Ein nichtinvasives kontinuierliches Verfahren zur HZV-Messung, die transthorakale Impedanzmessung, wird in Kap. 39 »Respiratorisches Monitoring« behandelt.
37.2.5 Berechnung hämodynamischer
Größen Aus den Messgrößen Druck und Fluss lassen sich die Gefäßwiderstände errechnen. Der totale periphere Gefäßwiderstand (TPR; engl. auch Systemic Vascular Resistance SVR) ist der Widerstand des Körperkreislaufes und mathematisch einfach der Quotient aus treibender Druckdifferenz (arterieller Mitteldruck Pm minus zentralvenöser Druck ZVD) und dem Fluss (HZV): SVR=(Pm-ZVD)/HZV. Im kleinen Kreislauf ist die Druckdifferenz der pulmonale Mitteldruck minus Wedgedruck PCWP (als Maß für den
657 Literatur »Nichtinvasiver Blutdruck«
linken Vorhofdruck). Damit ist der pulmonalvaskuläre Widerstand (Pulmonary Vascular Resistance): PVR=(PAPm-PCWP)/HZV. Als Maßeinheit hat sich hier international dyn*s/cm5 gehalten (entstanden aus der alten Druckeinheit dyn/cm2 dividiert durch den Volumenfluss cm3/s). Monitore bieten i. d. R. Berechnungsprogramme an, mit denen auch weitere zirkulatorische Kenngrößen (z. B. Herzarbeit) und – wenn zusätzlich Blutgase und Atemgase gemessen werden – auch Sauerstoffangebot (D02) . und Sauerstoffaufnahme (V02) berechnet werden können ( Anhang B »Organprofile und Tabellen«).
Weiterführende Literatur Buchwalsky R (1996) Einschwemmkatheter, 4. Aufl. Perimed-spitta, Balingen Connors AF et al. (1996) The effectiveness of right heart catheterization in the initial care of critically ill patients, JAMA 276: 889–897 Della Rocca G et al. (2002) Continuous and intermittend cardiac output measurement: pulmonary artery catheter versus aortic transpulmonary technique, Br J Anaesth 88(3): 350–356 Dieterich HJ, Groh J (1989) Invasives Monitoring der Herzkreislauffunktion. In: Negri L, Schelling G, Jänicke U (Hrsg) Monitoring in Anästhesie und operativer Intensivmedizin. Wissenschaftliche Verlagsabteilung Abbott, Wiesbaden, 3.4.1–3.4.5 Franke N (1995) Eine Einführung in die Theorie und Praxis der invasiven Messung, 4. Aufl. Ohmeda, Erlangen Haufe G et al. (1998) Medizintechnik in der Intensivmedizin. ExpertVerlag, Renningen-Malmsheim (Kontakt & Studium Bd. 546) Hochrein H et al. Invasive technische Verfahren. In: Sturm A, Largiader F, Wicki O (Hrsg) Checkliste der Kardiologie. Thieme, Stuttgart, S 46–51 Kutz N, Murr R (1994) Monitoring der Herz- und Kreislauffunktionen. In: Taeger K, Rödig G, Finsterer U (Hrsg) Grundlagen der Anästhesiologie und Intensivmedizin für Fachpflegepersonal, 3. Aufl, Bd. II. Wissenschaftliche Verlagsabteilung Abbott, Wiesbaden, 8.26–8.31 Lake CL, Hines RL, Blitt CD (2001) Clinical monitoring: practical applications for anesthesia and critical care, 1st ed. W.B. Saunders Company, Philadelphia de Lange JJ (1991) Die Signalübertragung bei invasiver Blutdruckmessung, 2. Aufl. Ohmeda, Erlangen List WF (1989) Kardiovaskuläres Monitoring. In: List WF, Oswald PM (Hrsg) Intensivmedizinische Praxis. Springer, Berlin Heidelberg New York Tokyo, S 41–62 Mathey D, Schofer J (1991) Invasive Kardiologie. Springer, Berlin Heidelberg New York Tokyo, S 22–31 Mendler N (1985) Invasives hämodynamisches Monitoring – meßtechnische Aspekte. In: Rügheimer E, Pasch T (Hrsg) Notwendiges und nützliches Messen in Anästhesie und Intensivmedizin. Springer, Berlin Heidelberg New York Tokyo, S 196–205 Michard F, Perel A (2003) Management of circulatory and respiratory failure using less invasive volumetric and functional hemodynamic monitoring, in: Vincent JL (Ed) Yearbook of Intensive Care and Emergency Medicine. Springer-Verlag Berlin-Heidelberg-New York, pp 508-520 Prien TH, Lawin P (1994) Kathetertypen. In: Lawin P (Hrsg) Praxis der Intensivbehandlung, 6. Aufl. Thieme, Stuttgart, S 467–474 Schmidt A (1992) Die Rolle des Einschwemmkatheters in der internistischen Intensivmedizin. In: Kress P (Hrsg) Die Einschwemmkatheter-Untersuchung. Pflaum, München, S 127–133
Shoemaker WC, Velmahos GC, Demetriades D (2002) Procedures and monitoring for the critically ill, W.B. Saunders Company, Philadelphia Sykes MK et al. (1991) Principles of measurement and monitoring in anaesthesia and intensive care, 3rd edn. Blackwell Scientific Publications, Oxford Wendt W et al. (1994) Elektronische Überwachung und Datenverarbeitung. In: Lawin P (Hrsg) Praxis der Intensivbehandlung, 6. Aufl. Thieme, Stuttgart, S 164–185
Literatur »Nichtinvasiver Blutdruck« 1.
2.
3. 4.
5.
Laube H (1990) Diagnostik und Klinik der arteriellen Hypertonie. In: Deutsches Institut für Blutdruckforschung (Hrsg) Programed. P-med 56: 40–41 List WF (1989) Blutdruckautomaten. In: List WF, Osswald PM (Hrsg) Intensiv-medizinische Praxis. Springer, Berlin Heidelberg New York Tokyo, S 43–44 Mieke S (1991) Non-invasive blood pressure measurement. In: Bulletin OIML-N° 125/12: 18–28 Rohs M (1990) Klinische Erfahrungen mit einem neuen Blutdruckmonitor. In: Doenicke A, Kilian J (Hrsg) Neue Technologien in Infusionstherapie und Monitoring. Braun, Melsungen, S 78–82 Roloff D (1987) Nichtinvasive Blutdruckmessung. In: Freiboth K, Sonntag H, Züchner K (Hrsg) Praktische Gerätetechnik. MCN, Nürnberg, S 215–228
37
38 Impedanzkardiographie: nichtinvasives hämodynamisches Monitoring H. Kronberg
38.1 Vorteile der Impedanzkardiographie – 660 38.2 Messgenauigkeitseinschränkungen – 660 38.3 Hämodynamischer Statusbericht Literatur
– 660
– 661
Seit Jahrzehnten gab es Versuche, den hämodynamischen Patientenstatus, gekennzeichnet z. B. durch Schlagvolumen (SV) des Herzens und Herzzeitvolumen (HZV), aus den elektrischen Impedanzschwankungen des Thorax zu bestimmen (Nyboer 1950). Geräte, die kardiogene Impedanzschwankungen aufzeichnen und auswerten, werden als Impedanzkardiographen bezeichnet, die Messgröße selbst als thorakale elektrische Bioimpedanz (TEB). Während die Hersteller einiger auf dem Markt verfügbarer Impedanzkardiographen nur behaupten, den hämodynamischen Trend korrekt wiederzugeben, ist es erst in den letzten Jahren gelungen, Geräte zu entwickeln, die den klinischen Anforderungen an die Messgenauigkeit entsprechen. Im Weiteren soll daher das nichtinvasive hämodynamische Monitoring am Beispiel eines solchen neueren Impedanzkardiographen mit dem Produktnamen »BioZ. com« [Bio-Impedanz(Z)-cardiacoutputmonitor] der kalifornischen Firma CardioDynamics dargestellt werden, zu dem klinische Studien vorliegen, die dessen Messgenauigkeit und Reproduzierbarkeit belegen (Yung et al. 1999). Im Unterschied zur Impedanzpneumographie, die das atembezogene periodische Impedanzmuster über EKGElektroden eher qualitativ erfassen und im Wesentlichen Atemfrequenz und Apnöen überwachen können, erfordert die Impedanzkardiographie (IKG) zur quantitativen nichtinvasiven Überwachung des hämodynamischen Status eine modifizierte Elektrodenanordnung (⊡ Abb. 38.1). Die Impedanzkardiographie nutzt einen schwachen konstanten elektrischen Wechselstrom (z. B. 2,5 mAeff & 70 kHz), der über die äußeren Elektroden durch den Thorax geleitet wird (hohe Ausgangsimpedanz der Strom-
quelle, daher stabiler Messstrom). Entsprechend der Darstellung in ⊡ Abb. 38.1 sucht sich der Strom im Wesentlichen den Pfad des geringsten Widerstands, nämlich die blutführende Aorta. Über die inneren unabhängigen Hautelektroden wird stromlos der Spannungsabfall abgegriffen, sodass die thorakale Impedanz weitgehend unabhängig von den Elektroden-Haut-Übergangswiderständen und damit von Patientenbewegungen erfasst werden kann. Der Impedanzkardiograph misst zunächst die Basisimpedanz (den Wechselstromwiderstand) Z0 gegenüber diesem elektrischen Wechselstrom, die normalerweise
⊡ Abb. 38.1. Je 2 Doppelelektroden werden seitlich auf Hals und Thorax geklebt
660
IV
Kapitel 38 · Impedanzkardiographie: nichtinvasives hämodynamisches Monitoring
etwa 35 Ω beträgt. Sie wird um so geringer, je mehr Flüssigkeit sich im Thoraxbereich ansammelt. Dieser Basisimpedanz sind Schwankungen überlagert, die einerseits von der Atmung, andererseits vom Aortenpuls herrühren. Das vergleichsweise niederfrequente Atemsignal interessiert hier nicht weiter und wird ausgefiltert. Die verbleibende höherfrequente Impedanzschwankung ΔZ(t) (Amplitude ca. 0,15 Ω) folgt der pulssynchronen Blutfüllung und Flussgeschwindigkeit in der Aorta und wird als Impedanzkardiogramm (IKG) dargestellt. Hier kann nur an das allgemeine Verständnis appelliert werden, dass sich aus ΔZ(t) das Schlagvolumen und damit auch das Herzzeitvolumen berechnen lässt, wenn man die Messgrößen in ein verfeinertes Modell der blutfüllungsabhängigen Thoraximpedanz einsetzt, dessen Grundstein bereits Nyboer gelegt hatte. Eine ausführlichere, gut verständliche theoretische Darstellung findet sich bei Osypka und Bernstein (Osypka und Bernstein 1999). Der Grund, warum frühere Impedanzkardiographen häufig zwar gut die Änderungen hämodynamischer Parameter wiedergaben, sich aber in der klinischen Routine wegen zu großer Absolutfehler in den Angaben von SV und HZV nicht durchsetzen konnten, lag einerseits in den zu groben theoretischen Modellen der Thoraximpedanz, andererseits aber auch in den beschränkten Rechenleistungen der Geräte, die ja kompakt bleiben mussten. So wurden insbesondere bei älteren Patienten mit abnehmender Aortencompliance große Abweichungen gegenüber den herkömmlichen invasiven Messmethoden (z. B. Thermodilutionsverfahren mit Pulmonalarterienkatheter) beobachtet. Mit dem »BioZ.com« scheint hier ein Durchbruch gelungen zu sein: Seine hohe Signalabtastrate von 1000 Hz gestattet auch eine zuverlässige Auswertung von Steigung und Krümmung im IKG, sodass sich nun auch die Aortencompliance und Blutbeschleunigungsindizes auswerten lassen und wesentliche Korrekturen am Impedanzmodell möglich sind. Dies wurde beim »BioZ. com« mit einem Algorithmus berücksichtigt, den CardioDynamics als »Z MARC« bezeichnet (Z Modulating AoRtic Compliance). – Die Arbeit von Van De Water et al. (2003) vergleicht Messgenauigkeit und klinische Wertigkeit dieses Algorithmus mit den früheren Algorithmen von Kubicek, Sramek und Sramek-Bernstein. Nur der Z Marc Algorithmus wurde bewertet als »klinisch akzeptabel genau« und obendrein als überlegen gegenüber herkömmlicher Thermodilutionsmessung hinsichtlich Reproduzierbarkeit von Patient zu Patient. Es ist immer sinnvoll, sich vor der Anschaffung eines Impedanzkardiographen über den verwendeten Algorithmus zu informieren und klinische Studien zu verlangen. Die vorliegenden klinischen Studien belegen, dass Messgenauigkeit und Reproduzierbarkeit der mit dem Impedanzkardiographen völlig nichtinvasiv und kontinuierlich bestimmten Parameter wie SV und HZV (und damit auch deren Indizes, die auf die Körperoberfläche
normiert sind, SI bzw. HI) klinisch gleichwertig sind mit der Thermodilutionsmethode – deren Genauigkeit zwar auch begrenzt ist, aber klinisch völlig ausreicht.
38.1
Vorteile der Impedanzkardiographie
▬ ▬ ▬ ▬
Methode ist völlig nichtinvasiv. Kein Patientenrisiko. Kontinuierliche Schlag-zu-Schlag-Messung. Überall einsetzbar, von der Privatpraxis über den Patiententransport bis zu allen Krankenhausabteilungen einschließlich OP. ▬ Kosteneffektiv, da risikolos und unabhängig von spezialisierten Intensivstationen.
38.2
Messgenauigkeitseinschränkungen
Wie bei jedem nichtinvasiven Messverfahren muss auch bei der Impedanzkardiographie mit eingeschränkter Messgenauigkeit gerechnet werden, wenn das Modell der thorakalen Bioimpedanz nicht mehr den klinischen Bedingungen des Patienten entspricht. Für den »BioZ. com« wird angegeben, dass solche Bedingungen vorliegen können bei: ▬ septischem Schock, ▬ defekter Aortenklappe mit Regurgitation, ▬ Patienten <1,20 m, ▬ Patientengewicht <30 kg oder >155 kg, ▬ aortaler Ballonpumpe, ▬ starker Patientenbewegung (nicht für Stresstest zugelassen), ▬ Operationen am offenen Thorax. Trotzdem sollten diese Einschränkungen nicht missgedeutet werden. So eignet sich der Impedanzkardiograph sehr wohl zur hämodynamischen Überwachung von Patienten, bei denen die Entwicklung eines septischen Schocks zu befürchten ist: Hier kann die Verschlechterung des Zustands noch früh erkannt werden!
38.3
Hämodynamischer Statusbericht
Impedanzkardiographen ermitteln neben dem SV und HZV i. Allg. auch weitere klinisch interessante Parameter. Im Beispiel des »BioZ.com« werden neben dem HZV weitere 11 diagnostisch wichtige Parameter angegeben, wie z. B. systemischer Gefäßwiderstand, Indizes der Herzkontraktilität und der thorakale Flüssigkeitsgehalt. Unter den ausdruckbaren Patientenberichten des »BioZ.com« hat sich besonders der hämodynamische Statusbericht als außerordentlich hilfreich für schnelle kritische Therapieentscheidungen erwiesen (⊡ Abb. 38.2).
661 38.3 · Hämodynamischer Statusbericht
⊡ Abb. 38.2. Hämodynamischer Statusbericht
Neben dem EKG und IKG werden darin alle Messwerte graphisch mit Normierung auf Normalbereiche dargestellt, sodass ein aktuelles Patientenprofil entsteht. In dem Beispiel steht der Arzt vor der Entscheidung, welche(s) Medikament(e) einzusetzen ist (sind). Mit herkömmlichen Diagnosemethoden, die sich meist auf EKG und Blutdruckmessung beschränken, läge es nahe, einen β-Blocker zur Senkung von Herzfrequenz und Blutdruck einzusetzen. Das Profil zeigt jedoch, dass die Herzkontraktilität schwach ist (Beschleunigungsindex ACI deutlich unternormal), mit den Folgen eines geringen Schlagvolumens, das mit einer hohen Herzfrequenz zu einem annähernd normalen Herzzeitvolumen kompensiert werden muss. Obendrein ist der systemische Gefäßwiderstand so hoch, dass dieses Herzzeitvolumen auch nur mit einem erhöhten Blutdruck erreicht werden kann. Schließlich deutet der hohe thorakale Flüssigkeitsgehalt auf einen schon längeren Schwächezustand hin. Wenn also nicht weitere diagnostische Parameter dagegensprechen, wird der Arzt schnell helfen können, indem er ein positiv-inotropes Mittel zur Stärkung des Herzmuskels (z. B. Digitalis) einsetzt, was das Schlagvolumen erhöhen und die Herzfrequenz senken wird, zusätzlich einen Vasodilatator zur Senkung des systemischen Gefäßwiderstands mit der Folge fallenden Blutdrucks sowie ein Diuretikum zur Senkung des thorakelen Flüssigkeitsgehalts und damit allgemeiner Entlastung des Kreislaufs. Dies ist nur ein Beispiel für die große Bedeutung eines hämodynamischen Monitorings zusätzlich zum Moni-
toring der rein elektrischen Herzaktivität (ein weiteres wichtiges Beispiel ist z. B. die Optimierung der Schrittmacherparameter unter SI-Kontrolle). Bislang wurde die Indikation zur HZV-Bestimmung nach dem üblichen Thermodilutionsverfahren mittels Pulmonalarterienkatheter jedoch wegen des hohen Aufwands und Patientenrisikos sehr eng gestellt, zumal sie meist nur nichtkontinuierlich möglich war. Mit einem Impedanzkardiographen ist es nun nicht nur möglich, öfter auf das hochinvasive Thermodilutionsverfahren zu verzichten oder die Liegedauer des Katheters zu verkürzen, sondern viel häufiger und früher ein umfassendes hämodynamisches Monitoring einzusetzen. Damit ist ein großer Schritt auf dem Weg zu wesentlich verbesserter Pflegequalität bei deutlicher Kostensenkung getan.
Literatur Nyboer J (1950) Electrical impedance plethysmography. A physical and physiologic approach to peripheral vascular study. Circulation 2: 811–821 Osypka MJ, Bernstein DP (1999) Electrophysiological principles and theory of stroke volume determination by thoracic electrical bioimpedance. AACN Clin Issues 10/3: 385–399 Van De Water JM et al. (2003) Impedance cardiography – The next vital sign technology? Chest 123: 2028–2033 Yung GL, Fletcher CC, Fedullo PF et al. (1999) Noninvasive cardiac index using bioimpedance in comparison to direct Fick and thermodilution methods in patients with pulmonary hypertension. Chest 116:4 (Suppl 2), pp 281
38
39 Respiratorisches Monitoring R. Kramme, H. Kronberg 39.1 Atemmechanik
– 663
39.1.1 Überwachung der Atmungsfrequenz (AF)
39.2 Gasaustausch
– 664
39.2.1 Vorbemerkungen zum Gasmonitoring 39.2.2 Pulsoxymetrische Erfassung der Sauerstoffsättigung – 666 39.2.3 Transkutane Blutgasmessung – 668 39.2.4 Messung der Atemgase – 670
39.3 Kapnographie
– 663
– 664
– 674
Literatur zum Abschn. »Gasaustausch« – 677 Literatur zum Abschn. »Kapnographie« – 677
Das respiratorische Monitoring beinhaltet die Messung, Beurteilung und Überwachung von Messgrößen des respiratorischen Systems, die sich gliedern in ▬ Messgrößen der Atemmechanik und der maschinellen Beatmungsmechanik (Atemfrequenz, -volumen und -druck) sowie ▬ Messgrößen des Gasaustauschs (Atemgase, Blutgase und Anästhesiegase). Ventilation und Oxygenation stehen im Mittelpunkt der Überwachung bei der maschinellen Beatmung ( Kap. 21 »Langzeitbeatmungsgeräte für die Intensivtherapie«) im OP oder auf Intensivstationen. Das Monitoring der Beatmungsparameter erfolgt über die Respiratoren (syn. Ventilatoren). Kardiovaskuläre Parameter, Blutgase sowie ggf. Narkosegase werden i. d. R. mittels eines separaten Patientenmonitors überwacht.
39.1
Atemmechanik R. Kramme
39.1.1
Überwachung der Atmungsfrequenz (AF)
Der Vitalwert Atemfrequenz lässt sich vorzugsweise ermitteln ▬ aus der Impedanzpneumographie (indirektes Verfahren), ▬ aus der Kapnographie (indirektes Verfahren).
Prinzip der Impedanzpneumographie Mit der Ein- und Ausatmung ist eine Zu- bzw. Abnahme des Thoraxvolumens verbunden. Zwischen zwei Thoraxelektroden, die auch für die EKG-Ableitung genutzt werden, erhöht sich durch die thorakale Volumenzunahme während der Inspirationsphase der Wechselstromwiderstand (z). Dies hat zur Folge, dass sich der konstante Wechselstrom (i), der zwischen den beiden Elektroden fließt, ändert. Das gewonnene Atemsignal, mit dem sich die Atemfrequenz darstellen lässt, resultiert also aus der atmungsbedingten Schwankung des Wechselstromwiderstands und der damit verbundenen atmungsabhängigen Spannung.
Apnoeüberwachung Neben der Überwachung der Atemfrequenz ist es vielfach auch möglich, mit Hilfe einer vorgegebenen sog. Triggerschwelle, die die Mindestatemtiefe festlegt, sowohl Atemtiefe als auch auftretende Atempausen bzw. Apnoen zu überwachen. Nur Atemzüge, die diese Triggerschwelle erreichen oder überschreiten, werden registriert und gezählt. Die Zeitspanne zwischen den Atemzügen (Apnoezeit) ist vom individuellen Atemzyklus abhängig. Zur Überwachung wird eine Apnoezeit vorgegeben. Wird innerhalb dieses Zeitfensters kein Atemzug registriert oder erkannt, erfolgt ein Alarm (Atemstillstand). Überwachung des Atemvolumens und Atemwegsdrucks Kap. 21 »Langzeitbeatmungsgeräte für die Intensivtherapie«.
664
Kapitel 39 · Respiratorisches Monitoring
39.2
Gasaustausch H. Kronberg
Unter dem Oberbegriff Gasaustausch lassen sich Messmethoden und Messgrößen der Atemgase, Blutgase und Anästhesiegase als sog. Gasmonitoring zusammenfassen.
39.2.1 Vorbemerkungen zum Gasmonitoring
IV
Es gibt sehr unterschiedliche Bedingungen, unter denen die Atem- und Blutgase eines Patienten überwacht werden müssen. So kann der Patient z. B. spontan atmen oder maschinell beatmet werden; er kann Umgebungsluft atmen oder in sauerstoffreicher Atmosphäre liegen. Bei der Beatmung während Narkosen werden oft zusätzlich zu einer erhöhten Sauerstoffkonzentration gasförmige Medikamente eingesetzt, wie Lachgas N2O als Analgetikum und volatile Anästhetika als Hypnotika. In den Lungenalveolen haben die Atemgase über eine kurze Diffusionsstrecke durch die Alveolarwände Kontakt mit dem Blut. Während sich Sauerstoff (O2) zunächst in der wässrigen Plasmaphase löst, diffundiert es weiter in die roten Blutkörperchen (Erythrozyten), die als Sauerstofftransportmittel den roten Blutfarbstoff Hämoglobin (Hb) enthalten. Sauerstoff wird nicht chemisch an Hb gebunden, Hb also nicht oxidiert, sondern nur an das Eisenatom der Hämgruppen angelagert, »oxygeniert«, damit er wieder leicht ans Gewebe zur Unterhaltung des Stoffwechsels abgegeben werden kann. Der Stoffwechsel erzeugt als Abfallprodukt andererseits ständig Kohlendioxid CO2, das teilweise ebenfalls in der wässrigen Plasmaphase als Gas gelöst ist, im Wesentlichen jedoch als Bicarbonat und durch Anlagerung an eine NH2-Gruppe des Hämoglobins chemisch gebunden zurück zu den Alveolen transportiert wird. Während bei Blutgasanalyse (BGA) und kontinuierlichem Blutgasmonitoring als Gase immer nur Sauerstoff und Kohlendioxid gemessen werden, ist in den Atemgasen erforderlichenfalls zusätzlich die Konzentration von Lachgas und volatilem Anästhetikum zu überwachen. Man misst die Atemgase meist als Konzentration in Volumenprozent, die Blutgase aber als Partialdrücke in mmHg (= Torr) oder kPa. Beide Größen lassen sich ineinander umrechnen; es wäre zwar grundsätzlich physiologisch sinnvoll, nur Partialdrücke als Standardlungenwerte BTPS (»body temperature/atmospheric pressure/ H20-saturated«) zu betrachten, doch hat die Gasmischtechnik historisch dazu geführt, insbesondere eingeatmete Gase als Volumenkonzentration eines trockenen Gasgemisches unter Standardbedingungen STPD (»standard temperature and pressure, dry«: 0°C, 760 mmHg, trocken) anzugeben. Man bedenke den großen Unterschied, Luft mit der höhenunabhängigen Sauerstoffkonzentration von 21%
auf Meereshöhe oder in 5500 m Höhe zu atmen; im zweiten Fall enthält jeder Atemzug nur noch die Hälfte an O2-Molekülen, entsprechend dem halbierten O2-Partialdruck! In einem Gemisch aus idealen Gasen mit den Konzentrationen ci [Vol.-%] ist der Partialdruck pi eine Komponente des konzentrationsproportionalen Anteils am Gesamtdruck (z. B. pbaro): pi = ci . pbaro ; entsprechend trägt jede einzelne Gaskomponente mit ihrem eigenen Partialdruck zum Gesamtdruck bei: p1 + p2 + ... + pn = c1 × pbaro + c2 × pbaro + ... + cn . pbaro = pbaro . Normale Atemluft mit der bekannten Zusammensetzung (⊡ Tab. 39.1) wird beim Einatmen auf 37°C angewärmt und mit Wasserdampf aufgesättigt, entsprechend einem (ausschließlich temperaturabhängigen) H2O-Partialdruck von 47 mmHg (37°C) oder 6,2 Vol.-% (bezogen auf den Standardumgebungsdruck von pbaro=760 mmHg, denn cH2O= (47/760)×100%; bei niedrigerem Umgebungsdruck erhöht sich entsprechend der Volumenanteil des Wasserdampfs). Die Atemluft nimmt dann – in ihrer sonst unveränderten Zusammensetzung – nur noch 93,8% des Raums ein, Sauerstoff hat also in diesem feuchten Gas nur noch eine Konzentration von 19,7% (=0,938×21%) oder einen Partialdruck von 19,7%×760 mmHg=150 mmHg. In den Alveolen mischt sich Exspirationsgas mit diesem Frischgas, sodass sich ein leicht erinnerbarer spürbar niedrigerer alveolarer O2-Partialdruck ergibt (»A« für »alveolar«): pO2 (Alveole) = pAO2 ≈ 100 mmHg (= 13,33 kPa). (Umrechnung Kilopascal=kilo-N/m2: 100 kPa = 750 mmHg, also 1 mmHg = 0,133 kPa.) Ähnlich leicht zu merken ist der normale alveolare CO2-Partialdruck: pAO2 ≈ 40 mmHg (= 5,3 kPa). Die Spontanatmung ist primär auf eine Stabilisierung des CO2-Partialdrucks und pH-Werts im Blut gerichtet, während große Schwankungen im O2-Partialdruck toleriert werden. Deshalb ist es sinnvoll, auch im Atemgas Kohlendioxid als Partialdruck und nicht als Volumenkonzentration zu messen, da letztere wetter- und höhenabhängig ist. Wie oben erwähnt, wird der Sauerstoff im Wesentlichen in den Erythrozyten transportiert. Hämoglobin bindet etwa 70-mal mehr O2 als das Blutplasma lösen kann. Wieviel Hämoglobin mit Sauerstoff beladen wird, hängt vom O2-Partialdruck im Blut ab und wird als »Sauerstoffsättigung« sO2 angegeben, dem prozentualen Verhältnis von oxygeniertem Hämoglobin zur Gesamthämoglobinmenge. Begriffe und Maßeinheiten im Zusammenhang mit dem Sauerstofftransport zeigt ⊡ Tab. 39.2.
665 39.2 · Gasaustausch
Neben den funktionellen Hämoglobinderivaten Hb (Desoxyhämoglobin), O2Hb (Oxyhämoglobin) gibt es eine Reihe dysfunktioneller Hb-Derivate, deren häufigste Vertreter COHb (Carboxy-Hb, das durch Kohlenmonoxid vergiftete Hb) und MetHb (Methämoglobin) meist in Anteilen von unter 5% bzw. 1% im Blut enthalten sind. Während die Menge physikalisch im Blut gelösten Sauerstoffs einfach proportional zum O2-Partialdruck ist, wird der wesentlich komplexere Zusammenhang zwischen dem pO2 und dem Grad der Hämoglobinoxygenation, d. h. der Sauerstoffsättigung sO2, durch die »Sauerstoffbindungskurve« des Hämoglobins dargestellt (⊡ Abb. 39.1). Lage und Form der O2-Bindungskurve hängt von verschiedenen Faktoren im Blut ab, wie z. B.: ▬ pH-Wert und pCO2, ▬ Temperatur, ▬ Hämoglobintyp (fetal oder adult), ▬ Anteil dysfunktioneller Hb-Derivate, v. a. COHb, ▬ Enzymgehalt (2,3 DPG). In der Regel führen Abweichungen vom Normalwert zu einer verbesserten O2-Versorgung. Bei Fieber oder erhöhtem pCO2 z. B. ist die Bindungskurve rechtsverschoben, sodass Sauerstoff leichter an die Zellen abgegeben wird. Gebirgsbewohner haben einen erhöhten 2,3-DPG-Gehalt, der ebenfalls eine günstige Rechtsverschiebung zur Folge hat. Eine Kohlenmonoxidvergiftung mit der Bildung hoher Konzentrationen von COHb ist hingegen begleitet von einer gefährlichen Linksverschiebung der Bindungskurve, d. h. dass das verbliebene funktionelle Hämoglobin den Sauerstoff obendrein schwerer wieder abgibt! O2-Versorgungsgefahren können im arteriellen Blut sowohl durch Überwachung des arteriellen O2-Partialdrucks paO2 als auch der Sauerstoffsättigung saO2 verhindert werden. Während früher zu diesem Zweck arterielle Blutproben im Laboranalysator nur in größeren Zeitabständen untersucht werden konnten, stehen inzwischen für beide Messgrößen nichtinvasive kontinuierliche Überwachungsverfahren zur Verfügung: die Pulsoxymetrie zur Bestimmung des SpO2 als Maß der arteriellen O2-Sättigung sowie die transkutane Blutgasmessung von ptcO2 (und ptcCO2) als Korrelate der arteriellen Gaspartialdrücke paO2 (und paCO2). Die O2-Bindungskurve in ⊡ Abb. 39.1 lässt erkennen, dass bei Sauerstoffmangel schon geringe Änderungen des paO2 große saO2-Änderungen bedeuten, die O2-Sättigung also eine sehr empfindlich reagierende Größe bei O2Mangel ist und deshalb die Pulsoxymetrie sich besonders zur Überwachung des O2-Mangels eignet. Andererseits ist bereits bei einem normalen paO2≈90 mmHg fast alles Hämoglogin oxygeniert, sodass bei höheren Partialdrücken keine pulsoxymetrische Überwachung mehr sinnvoll, sondern die transkutane Blutgasmessung vorzuziehen ist. Bislang am häufigsten wird deshalb die transkutane
⊡ Tab. 39.1. Zusammensetzung von Luft Bestandteil
Abkürzung
Anteil [Vol.-%]
Sauerstoff
O2
ca. 21
Stickstoff
N2
ca. 78
Argon
Ar
ca. 1
Kohlendioxid
CO2
ca. 0,03
⊡ Tab. 39.2. Begriffe und Maßeinheiten im Zusammenhang mit dem Sauerstofftransport Bestandteil
Abkürzung
Einheit
Sauerstoffgehalt (»content«)
cO2
ml/dl
Hämoglobingehalt
cHb
g/dl
Sauerstoffpartialdruck oder -spannung
pO2
mmHg oder kPa
Sauerstoffsättigung = c (Oxyhämoglobin)/ c (Gesamthämoglobin)
sO2
%
⊡ Abb. 39.1. Sauerstoffbindungskurve des Hämoglobins unter Normalbedingungen (Temperatur 37°C; pH 7,4)
Blutgasüberwachung eingesetzt zur Vermeidung von Hyperoxien bei Neugeborenen; längerwährende Hyperoxien führen bei ihnen zu irreversibler Erblindung. Weitere Anwendungen der transkutanen Blutgasmessung mit stetig wachsender Bedeutung: hyperbare Sauerstofftherapie, Angiologie, minimalinvasive Chirurgie (hier speziell zur CO2-Überwachung). Weiterführende Informationen sind bei Silbernagel u. Despopoulos [5] zu finden.
39
666
Kapitel 39 · Respiratorisches Monitoring
39.2.2 Pulsoxymetrische Erfassung
der Sauerstoffsättigung Eines der wichtigsten Ziele der Intensivpflege ist die Verhinderung von Sauerstoffmangelzuständen. Begriffe zu physiologischen O2-Mangelzuständen: pO2 ↓ Hypoxie sO2 ↓ Hypoxygenation cO2 ↓ Hypoxämie cHb ↓ Anämie
IV
Mit der Pulsoxymetrie zur Messung der Sauerstoffsättigung des Hämoglobins nutzt man zunächst die bekannte Eigenschaft des roten Blutfarbstoffs, je nach O2-Beladung den Farbton von hellrot (saO2 nahe 100%) nach zyan (saO2<85%) zu ändern, da die Absorptionsspektren von Oxyhämoglobin und Desoxyhämoglobin gerade im Wellenlängenbereich um 660 nm, der als rot empfunden wird, sehr verschieden sind. ⊡ Abb. 39.2 zeigt, dass diese »rote« Wellenlänge von Desoxyhämoglobin etwa 10-mal stärker absorbiert wird als von Oxyhämoglobin.
⊡ Abb. 39.2. Absorptionsspektren der funktionellen Hb-Derivate Hb und O2Hb sowie der dysfunktionellen Hb-Derivate COHb und MetHb
⊡ Abb. 39.3. Messzyklus eines typischen Pulsoxymeters
Um diese beiden Hb-Derivate in ihrer relativen Zusammensetzung quantifizieren zu können, wird die Absorption einer ca. 660-nm-Messstrahlung bestimmt und mit der Absorption einer zweiten Referenzstrahlung im Infrarotbereich zwischen 900 nm und 950 nm gewichtet. Pulsoxymetriesensoren bestehen deshalb bis heute meist aus 2 Leuchtdioden, die Strahlung dieser beiden Wellenlängen abwechselnd in durchblutetes Gewebe – wie z. B. das von Fingerkuppen – einstrahlen und die auf dem Absorptionsweg sättigungsabhängig geschwächte Strahlung mit einer Photodiode in ein elektrisches Messsignal umsetzen (⊡ Abb. 39.3). Um Fehlereinflüsse störenden Umgebungslichts zu eliminieren, wird auch dessen Einfluss in einer 3. Dunkelphase der Leuchtdioden gemessen (⊡ Abb. 39.3). An dieser Stelle muss darauf hingewiesen werden, dass die 2-Wellenlängen-Pulsoxymetrie grundsätzlich erhebliche Messfehler liefert, wenn das Blut auch größere Mengen von Dyshämoglobinen enthält. ⊡ Abb. 39.2 zeigt z. B., dass COHb bei 660 nm ähnlich gering absorbiert wie O2Hb (das Blut von Kohlenmonoxidopfern deshalb auch hellrot aussieht), sodass es vom Pulsoxymeter weitgehend fälschlich als funktionelles O2Hb interpretiert wird.
667 39.2 · Gasaustausch
Umgekehrt absorbiert MetHb im Rotbereich ähnlich wie Desoxyhämoglobin. Erst wenn Pulsoxymetersensoren zusätzliche Wellenlängen abstrahlen, kann dieses messtechnische Problem gelöst werden. Neuerdings ist es einer kalifornischen Firma tatsächlich gelungen, Sensoren mit acht Wellenlängen zu entwickeln, mit denen zunächst neben der Sauerstoffsättigung SpO2 (s.unten) auch die Kohlenmonoxidsättigung SpCO an fortentwickelten sogenannten Puls-CO-Oxymetern angezeigt werden. Diese Technologie verspricht für die absehbare Zukunft auch die nichtinvasive Überwachung der Methämoglobinsättigung SpMet sowie die Angabe der fraktionellen Sauerstoffsättigung SpaO2 (s.unten) – Laboroxymeter arbeiten mit in der Photometrie üblichen anderen Strahlungsquellen bei 4–6 Wellenlängen. Zur Überwachung von O2-Mangelzuständen ist v. a. die arterielle O2-Sättigung saO2 wesentlich, das durchstrahlte Gewebe enthält jedoch sowohl arterielles als auch
venöses Blut (Normalwerte: saO2≈97%; svO2≈73%, organabhängig). Um die Wirkung der arteriellen Absorption von übrigen Einflüssen abzutrennen, nutzt man den Umstand, dass im Unterschied zu venösen Gefäßen und sonstigen Gewebeschichten nur das arterielle Gefäßbett pulsiert. Es werden also nur die pulsierenden Signalkomponenten ausgewertet (allerdings normiert auf die mittlere Signalstärke der jeweiligen Wellenlänge: ACrot/DCrot = R bzw. ACirot/ DCirot = IR). Daher die Bezeichnung Pulsoxymetrie. In ⊡ Abb. 39.4 sind die Signale R und IR für verschiedene Sauerstoffsättigungen angegeben; bei einer Sättigung von 85% sind beide Amplituden identisch. Es ist ein weitgehend empirisches Ergebnis, dass der Quotient R/IR eine Funktion des saO2 ist. In ⊡ Abb. 39.5 ist eine Kalibrierkurve saO2 über R/IR für ein spezielles Wellenlängenpaar des Sensors dargestellt. Ein Pulsoxymeter ermittelt also im Prinzip den Quotienten R/IR und zeigt die entsprechend seiner Kalibrierung umgerechneten Sättigungswerte an. Zur Unterscheidung von Laboranalysen, deren Messwerte als saO2 gekennzeichnet werden, ist für pulsoxymetrische Messwerte die Bezeichnung SpO2 eingeführt.
Messgenauigkeit und Fehlereinflüsse in der Pulsoxymetrie
⊡ Abb. 39.4. Sättigungsabhängige Amplituden der normierten Plethysmogramme des Rot- und Infrarotsignals
⊡ Abb. 39.5. Schematische Darstellung einer pulsoxymetrischen Kalibrierkurve
Die Messgenauigkeit der Pulsoxymetrie wird vom Anwender i. d. R. völlig falsch eingeschätzt, sodass immer wieder große Verunsicherung aufkommt, wenn der SpO2 offenbar nicht mit dem klinischen Bild des Patienten vereinbar ist. Die scheinbar einfache Handhabung der Pulsoxymeter steht jedoch in krassem Gegensatz zur Komplexität des Messgegenstands. Hauptproblem sind Bewegungsartefakte, die trotz aufwändiger – hier nicht näher beschriebener – Eliminationsalgorithmen insbesondere bei geringer arterieller Perfusion am Messort als Pulssignal fehlinterpretiert werden können. Deshalb muss als Grundregel immer das Plethysmogramm ins Urteil einbezogen werden, an
39
668
IV
Kapitel 39 · Respiratorisches Monitoring
dem Bewegungsartefakte von arteriellen Pulsationen leicht zu unterscheiden sind. Hersteller werben mit rechenaufwändigen Verfahren zu herausragender Artefaktbeherrschung, teilweise hinsichtlich Patientenbewegung, oder Patientenbewegung und geringer arterieller Perfusion. Höchste Anforderungen an Pulsoxymeter stellt die Überwachung von Frühgeborenen (unruhig, kleine Signalamplitude ähnlich wie bei geringer arterieller Perfusion), während im allgemeinen anästhesierte Patienten die geringsten messtechnischen Probleme machen (ruhig, kontrollierte Hämodynamik). Pulsoxymeter sind keine Photometer und können deshalb niemals deren Messgenauigkeit, wie sie von Laboroxymetern bekannt ist, erreichen: Laboroxymeter messen mit wohldefiniertem Strahlengang in einer Küvette klares, hämolysiertes Blut »physikalisch« nach dem Gesetz von Lambert-Beer in reiner Transmission, Pulsoxymeter »schätzen« streuendes Vollblut und Gewebe hinsichtlich des SpO2 eher ab. Wie bei den meisten nichtinvasiven Messmethoden ist daher v. a. auf Messwertänderungen zu achten, der Absolutwert dagegen kritisch zu betrachten! Nicht zuletzt werden die Genauigkeitsangaben der Hersteller mit z. B. ±2% im Sättigungsbereich über 90% und ±3% im Bereich von 70–90% fehlinterpretiert. Da es sich um Angaben der Standardabweichung handelt, bedeutet dies, dass bspw. bei einem Laborwert SaO2=85% der SpO2 in 68% der Messfälle zwischen 82 und 88% liegt, aber eben doch in immer noch fast 1/3 der Fälle größere Abweichungen zu erwarten sind (5% der Messergebnisse werden sogar außerhalb von 79 bzw. 91% liegen!). Weitere Verwirrung stiften häufig Kontrollmessungen arterieller Blutproben mit einem Blutgasanalysator, der neben den Gaspartialdrücken auch die Sauerstoffsättigung angibt. Blutgasanalysatoren messen die Gaspartialdrücke direkt mit chemoelektrischen Sensoren, berechnen aber nur den SaO2, indem sie von der Standard-O2-Bindungskurve der ⊡ Abb. 39.1 ausgehen, ohne Berücksichtigung modifizierender Einflüsse auf Lage und Form (pH-Wert wird berücksichtigt). Laborvergleiche sind deshalb ausschließlich mit Messwerten aus Oxymetern zulässig! Von geringerer Bedeutung ist die herstellerabhängig unterschiedliche Kalibrierung der Pulsoxymeter: Kalibrierung entweder bezüglich fraktioneller oder funktioneller Sättigung. Der Unterschied liegt in der Berücksichtigung aller Hb-Derivate bzw. nur der funktionellen Derivate: ▬ fraktionelle Sauerstoffsättigung: SaO2 = cO2Hb/(cO2Hb+cHb+cCOHb+cMetHb+...), ▬ funktionelle Sauerstoffsättigung: saO2,func = cO2Hb/(cO2Hb+cHb). Da Laboroxymeter alle Hb-Derivate messen, geben sie als SaO2 die fraktionelle Sättigung an; aus den Messwerten kann natürlich auch die höhere funktionelle Sättigung abgeleitet werden. Wenn das untersuchte Blut kein Dyshämoglobin
enthält, sind beide Werte identisch. Da Pulsoxymeter Dyshämoglobinderivate nicht von funktionellen Hb-Derivaten unterscheiden können, machen sie grundsätzlich Messfehler bei Anwesenheit von Dys-Hb-Derivaten. Allgemein kann gesagt werden, dass Pulsoxymeter mit Kalibrierung bezüglich fraktioneller Sättigung etwa 2% niedrigere Sättigungswerte gegenüber solchen mit funktioneller Sättigung angeben. Damit glauben die Hersteller, besser dem durchschnittlichen Gehalt an COHb und MetHb Rechnung zu tragen. Es ist jedoch kein Argument für die funktionelle Kalibrierung, dass Pulsoxymeter angeblich nur funktionelles Hb messen! Als weiterführende Literatur zur Pulsoxymetrie sind die Arbeiten von Wukitsch et al. [6], Forstner [2] und Hampson [3] zu empfehlen.
Gemischt-venöse Sauerstoffsättigung Sν–O2 Zu diesem Thema eines invasiven Monitorings soll hier nur weiterführende Literatur von Olthoff [4] empfohlen werden. Ein Katheter mit Fiberoptik wird in die Pulmonalisarterie geschoben, wo das venöse Blut aller Organe gut durchmischt anlangt. Mit zwei oder mehr Wellenlängen wird die rückgestreute Strahlung hinsichtlich O2-Sättigung ausgewertet und mit dem gleichzeitig bestimmten Hämatokritwert korrigiert. Unter Berücksichtigung der arteriellen Sauerstoffsättigung saO2 und des Herzminutenvolumens können wichtige Informationen zur O2-Ausschöpfung des Organismus gewonnen werden.
39.2.3 Transkutane Blutgasmessung ⊡ Abb. 39.6 zeigt zusätzlich zur O2-Bindungskurve des Hämoglobins (Angabe der Sättigung saO2 an der linken Ordinate) mit einer darüber liegenden Kurve den Gesamtgehalt an Sauerstoff im Blut einschließlich der gelösten Menge (rechte Ordinate; Normwerte für einen gesunden erwachsenen Mann). Zunächst scheint es angesichts des geringen Unterschieds sinnlos, speziell die gelöste O2-Menge zu überwachen, nämlich in Form des paO2. Alle Körperzellen werden jedoch nur mit dem Sauerstoff versorgt, der sich vom Hämoglobin gelöst hat und durch die wässrige Plasmaphase bis zu den Zellen diffundiert ist. Letztlich ist also immer der O2-Partialdruck für die Stoffwechselaktivität ausschlaggebend, die saO2 ist ein Maß für den verfügbaren Sauerstoffvorrat (bei normalem Hämoglobingehalt). Wegen des flachen Verlaufs der O2-Bindungskurve können per Pulsoxymetrie keine Aussagen mehr über die Menge des gelösten Sauerstoffs gemacht werden, sobald der paO2 über etwa 100 mmHg liegt. Derart hohe Partialdrücke sind bei Sauerstofftherapien meist erwünscht, aber bei der Beatmung von Neugeborenen wegen der Erblindungsgefahr unbedingt zu vermeiden. Da die Ventilation
669 39.2 · Gasaustausch
beatmungspflichtiger Säuglinge auch eine CO2-Überwachung erfordert, die mit der bei Erwachsenen üblichen Kapnographie bislang nicht möglich erscheint (Problem ist das geringe Atemzugvolumen von Neugeborenen), wird auch diese Überwachung mittels transkutaner Blutgasmessung durchgeführt. Miniaturisierte chemoelektrische Sensoren vom ClarkTyp, wie sie aus Blutgasanalysatoren im Prinzip bekannt sind, werden direkt auf die Haut gesetzt. Eine Messmembran umschließt ein sehr kleines Elektrolytvolumen, in das Sauerstoff oder/und Kohlendioxid aus dem kutanen Kapillarbett diffundieren kann. Da wieder nur arterielle Werte interessieren, wird das Kapillarbett mittels Heizung im Sensor auf 42–45°C temperiert und damit arterialisiert; denn die hohe Temperatur »lähmt« den Gefäßtonus, die Arteriolen erschlaffen, und arterielles Blut schießt in das Kapillarbett vor. Der transkutane Sauerstoffpartialdruck ptcO2 wird nach dem polarographischen Verfahren gemessen ⊡ Abb. 39.7): Platin- (oder Gold-)Mikroelektroden stehen im Elektrolyt und werden gegenüber einer Silberanode mit einem festen Plateaupotential vorgespannt (typisch 0,8 V). Dann fließt ein kleiner ptcO2-proportionaler Messstrom,
⊡ Abb. 39.6. O2-Bindungskurve mit überlagertem Anteil physikalisch gelösten Sauerstoffs
I ~ ptc O2, der durch die Reduktion von O2-Molekülen an den Mikroelektroden entsteht: O2 + 2H2O → 4OH––4e–. Gleichzeitig setzt sich Silber an der Anode zu Silberchlorid um:
⊡ Abb. 39.7. Polarogramm eines chemoelektrischen O2-Wandlers
4Ag + 4Cl– → 4AgCl– + 4e–. Die Ansprechzeit (bezogen auf 10–90% von Partialdrucksprüngen = «T90«) liegt bei etwa 8 s und ist deshalb nicht träger als die Pulsoxymetrie, die zur Stabilisierung der Messwerte ähnliche Mittelungszeiten einsetzt. Der transkutane Kohlendioxidpartialdruck ptcCO2 wird nach dem potentiometrischen Verfahren mit einer pH-Elektrode gemessen. Als Beispiel ist in ⊡ Abb. 39.8 das Schema einer Transkapnode mit Iridium/IridiumoxidpH-Elektrode wiedergegeben. Dieser Elektrodentyp ist mechanisch wesentlich stabiler und hat eine deutlich störsicherere, niedrigere Ausgangsimpedanz als die üblichen Glaselektroden. Das in die Messzelle eindiffundierende CO2 verschiebt den pHWert durch Bildung von Kohlensäure: CO2+H2O ⇔ H2O3 ⇔ H+ +HCO3– ⇔ 2H+ + O32–. Im Gleichgewicht der Teilreaktionen besteht ein logarithmischer Zusammenhang zwischen CO2- Partialdruck und pH-Wert, sodass das an der pH-Elektrode liegende Potential ebenfalls logarithmisch vom ptcCO2 abhängt: U ~ log (ptcCO2).
Die Ansprechzeit (T90) für die ptcCO2-Messung wurde in den letzten Jahren deutlich verkürzt und ist jetzt typisch 40 s. Die transkutane O2-Überwachung erfordert eine Mindestheiztemperatur von 43°C, die CO2-Überwachung kommt bereits mit 42°C aus. Als guter Kompromiss zwischen gewünschter hoher Korrelation mit arteriellen Messwerten und Risiko einer lokalen Hautverbrennung gelten 43,5°C. 45°C dürfen nicht überschritten werden und erfordern ein etwa stündliches Umsetzen des Sensors, während Säuglinge eine Heiztemperatur von 42°C schon über 24 h ohne Verbrennung vertragen haben.
Messgenauigkeit und Fehlereinflüsse bei der transkutanen Blutgasmessung Transkutane Blutgassensoren sollen möglichst schnell auf Partialdruckänderungen reagieren und enthalten deshalb eine nur sehr dünne Elektrolytschicht. Heizung der Sensoren und Schwitzen des Patienten führen schon bald zur Austrocknung bzw. Verdünnung des Elektrolyts, mit der
39
670
IV
Kapitel 39 · Respiratorisches Monitoring
⊡ Abb. 39.8. Schnittzeichnung durch eine Transkapnode
Folge instabiler Messwerte. Deshalb sind solche Sensoren wenigstens einmal täglich an Luft (pO2 = 0,21×pbaro) und erforderlichenfalls an mindestens einem definierten CO2-Gemisch (5% oder 5% und 10% CO2) zu kalibrieren. Erfahrungsgemäß müssen auch mindestens einmal wöchentlich Elektrolyt und Messmembran ausgetauscht werden. Man klebt die Sensoren ähnlich EKG-Elektroden mit Kleberingen auf die Haut, nachdem allerdings ein Tröpfchen wässriges Kontaktmittel auf die Applikationsstelle gegeben wurde. Dies verhindert den Einschluss eines zwar geringen Volumens der Umgebungsatmosphäre, das sonst aber ein schnelles Angleichen an echte transkutane Messwerte behinderte, da noch zu lange die Zusammensetzung der Umgebungsatmosphäre gemessen würde. Grundsätzlich stimmen transkutane und arterielle Blutgaswerte nicht überein, ein gutes Messsystem garantiert aber eine hohe Korrelation (r>0,8) der ptcO2- und ptcCO2-Werte mit den paO2- bzw. paCO2-Werten. Die Erhitzung des Kapillarblutes führt zu deutlichen temperaturabhängigen Erhöhungen sowohl des O2- als auch des CO2-Partialdrucks (kapillararterielle Anhaltswerte: pcapO2+6%/°C, pcapCO2+4,8%/°C). Denn eine Temperaturerhöhung verschiebt sowohl die Sauerstoffbindungskurve des Hämoglobins als auch das chemische Gleichgewicht zwischen gelöstem Kohlendioxid und gebundenem CO2 (als Bikarbonat oder an Hämoglobin gebunden). Während der Diffusion der Blutgase durch die Epidermis wird aufgrund des gesteigerten zellulären Metabolismus einerseits Sauerstoff verbraucht und andererseits zusätzlich Kohlendioxid abgegeben. Der kompensatorische Sauerstoffeffekt liefert deshalb bei Neugeborenen ptcO2Werte, die sich wenig vom paO2 unterscheiden (und bei älteren Patienten immer unter dem paO2 liegen), während die ptcCO2-Werte etwa um 50% erhöht sind. Die ptcCO2-Werte werden deshalb meist als korrigierte Werte angegeben, da hier der individuelle Hauteffekt gegenüber dem systematischen Temperatureffekt relativ klein ist. Einige Hersteller erlauben zusätzlich eine »Invivo-Korrektur«, mit der die transkutanen Messwerte den
Ergebnissen einer Blutgasanalyse angepasst werden. Dann gibt es bei stabilen peripheren Perfusionsverhältnissen keinen Unterschied mehr zwischen transkutanen und zentralarteriellen Messwerten. Aber gerade die transkutane O2-Messung liefert bei Mangelperfusion – z. B. infolge einsetzender Zentralisation – irreführend niedrige Werte. Dann kann es gefährlich sein, den Neugeborenen zur Kompensation mit erhöhter O2-Konzentration zu beatmen. Doch liefert die transkutane Messmethode selbst einen ausgezeichneten Schlüssel zur Abklärung dieser Situation, was leider in den vergangenen Jahren in Vergessenheit geraten ist: Ein plötzliches Absinken der elektrischen Heizleistung deutet auf eine Minderperfusion hin! Denn der Sensor wird auf eine vorgegebene stabile Temperatur geheizt, die mit z. B. 43,5°C über der Temperatur des anströmenden Bluts liegt. Bei starker Perfusion wird der Sensor also deutlicher vom Blut gekühlt als bei minderer Perfusion; um die Temperatur zu halten, ist demnach bei starker Perfusion eine höhere Heizleistung erforderlich. Der Trend der Heizleistung läuft also parallel mit dem Trend der Perfusion. ⊡ Abb. 39.9 zeigt zusammenfassend die transkutanen Messwerttrends mit einem perfusionsbedingten Abfall des ptcO2 um 20.00 Uhr mit gleichzeitigem Einbruch der Heizleistung ptc. Die Kreuze markieren den Augenblick und die Labormesswerte einer arteriellen Blutprobe, die wenig später für eine In-vivo-Korrektur genutzt wurden. Die invivo-korrigierten Werte sind gestrichelt dargestellt. Es muss hier noch einmal betont werden, dass die transkutane Blutgasmessung sehr wohl auch bei Erwachsenen möglich und sinnvoll ist, wie von Baumbach [1] eingehend dargestellt wurde!
39.2.4 Messung der Atemgase
Unter »Atemgas« sollen hier neben Sauerstoff und Kohlendioxid zusätzlich Lachgas und volatile Anästhetika (Halothan, Enfluran, Isofluran, Desfluran, Sevofluran) verstanden werden. Üblicherweise werden sie im Atemstrom des
671 39.2 · Gasaustausch
⊡ Abb. 39.9. Trenddarstellung der transkutanen Blutgaswerte eines Kombisensors einschließlich Heizleistungsverlauf und In-vivoKorrektur
intubierten Patienten gemessen. Verbreitet ist das sog. »Nebenstromverfahren«, bei dem das Atemgasgemisch mittels Probenschlauch aus dem Beatmungsschlauch des Patienten mit einem Gasfluss zwischen 50 ml/min und 250 ml/min abgezogen und über eine Wasserfalle und Trocknungsstufe (»Nafion-Schlauch«) den Messzellen im Monitor zugeführt wird. Zur isolierten Überwachung des Kohlendioxids ( Abschn. 39.3 »Kapnographie«) setzt sich immer häufiger das Hauptstromverfahren durch, bei dem der Sensor direkt auf einem speziellen Atemwegsadapter sitzt. Vorteil des Hauptstromverfahrens ist die schnellere Reaktion auf Änderungen in der Zusammensetzung des Atemgases, Vorteil des Nebenstromverfahrens sind der robustere Aufbau und der nur geringe zusätzliche Totraum im Atemschlauch.
Messzellen Sauerstoff wird entweder mit preiswerten, aber trägen Brennstoffzellen gemessen ( Kap. 24 »Anästhesiegeräte«) oder atemzugsynchron mit paramagnetischen Messzellen. ⊡ Abb. 39.10 zeigt als Beispiel eine paramagnetische Messzelle in hantelförmigem Aufbau von überraschend stossgeschützter Konstruktion. Zwei dünnwandige stickstoffgefüllte Glaskugeln sind in dem stark inhomogenen Magnetfeld eines Permanentmagneten aufgehängt. Sauerstoff in der Umgebung der Magnetspalte verdrängt die Glaskugeln. Das daraus resultierende Torsionsmoment wird mit einem Regelstrom durch Spulen auf den Glaskugeln kompensiert und die Hantel in fester Position gehalten. Damit ist das schwingfähige System einerseits stark gedämpft, andererseits ist
⊡ Abb. 39.10. Paramagnetische O2-Messzelle
der Regelstrom proportional zum O2-Partialdruck pO2 im Atemgas. O2-Konzentration: %O2 = pO2 / pbaro. Kohlendioxid CO2, Lachgas N2O und Anästhesiegase haben im Unterschied zu Sauerstoff polare Moleküle, die durch infrarote Bestrahlung im Wellenlängenbereich zwischen 2,5 μm und 15 μm zu mechanischen Schwingungen angeregt werden können und dabei Strahlung charakteristischer Wellenlängen absorbieren. ⊡ Abb. 39.11 zeigt den Aufbau einer Infrarotmesszelle mit rotierender Filterscheibe (meist fälschlich als nichtdispersive Infrarotmesstechnik, NDIR, bezeichnet). Entsprechend dem Grundgesetz der Photometrie nach Lambert-Beer ist die Absorption A proportional zur Men-
39
672
Kapitel 39 · Respiratorisches Monitoring
ge c (häufig unsauber als »Konzentration« bezeichnet) der im Strahlengang wechselwirkungsfähigen Moleküle: A = log (I0 / I)=ε × l × c. Hier bedeuten: I0, I eingestrahlte bzw. gemessene Strahlintensität, ε molarer Extinktionskoeffizient, l Länge des wechselwirkenden Strahlengangs.
IV
Je höher der Partialdruck der gemessenen Gaskomponente im Gemisch, desto häufiger treffen Photonen auf solche Moleküle; mit der Infrarotphotometrie werden deshalb primär die absoluten Partialdrücke der Gaskomponenten bestimmt und wieder erst unter Berücksichtigung des wirksamen Gesamtdrucks die prozentuale Gaskonzentration bestimmt. ⊡ Abb. 39.12 zeigt die Absorptionsbanden der interessierenden Atemgase einschließlich Wasserdampf. Wenn das angesaugte Gasgemisch nicht getrocknet würde, läge eine starke Wasserdampfbande (2,7–3,6 μm)
gerade über den Anästhesiegasbanden (»A-Gase«), die dann wahrhaftig im Dunkeln verschwänden. Auch die Absorptionsbanden der Anästhesiegase überlagern sich derart, dass nur je eine Komponente nach Angabe gemessen werden kann. Analysatoren mit automatischer Identifikation ziehen deshalb weitere Spektralbereiche mit Wellenlängen oberhalb der dargestellten heran. Die Absorptionsbanden von CO2 (4,26 μm) und N2O (4,55 μm) liegen in einer Lücke des Wasserdampfspektrums und können mit entsprechenden Filtern in der Filterscheibe der Messzelle sicher getrennt werden. Die Filterscheibe enthält in einer zusätzlichen Position einen Filter, der Strahlung in einer Lücke des Gesamtabsorptionsspektrums durch die Durchflussküvette schickt. Dies dient einer Referenzmessung zur Stabilisierung der Messwerte, verhindert also eine Messwertdrift bei allmählicher Kontamination der Messküvette. Die früher üblichen Zweistrahlsysteme müssen entweder häufiger kalibriert werden oder eine einfache Reinigungsprozedur vorsehen. Als Alternativen zur Infrarotphotometrie gibt es die nahe verwandte »photoakustische Spektroskopie« (PAS): Über eine schnell rotierende Filterscheibe wird das Messgas per Infrarotabsorption erwärmt und damit periodisch dessen Druck erhöht, der mit einem Mikrophon messbar ist. Techniken wie Raman-Streuung und Massenspektrometrie mit ihrer hohen Sensitivität und Spezifität sind sehr aufwändig und Labormessungen vorbehalten.
Messgenauigkeit und Fehlereinflüsse bei der Atemgasmessung
⊡ Abb. 39.11. Einstrahlinfrarotmesszelle
⊡ Abb. 39.12. Absorptionsspektren der Atemgase (vereinfacht, ohne Angabe der Feinstruktur)
Größere Anästhesiegasmessfehler treten bei Nebenstrommesssystemen auf, wenn Probenschläuche aus falschem Material verwendet werden. ⊡ Abb. 39.13 zeigt, wie ein Probenschlauch aus Polyethylen (untere Kurve) durch Oberflächenadsorption von Halothan die sprunghaften atemsychronen Konzentrationsänderungen völlig verschleift und auch falsche inspiratorische und exspiratorische Messwerte liefert. Vergleichsmessungen mit Probenschläuchen aus Polyethylen verschiedener Herstellverfahren haben allerdings ergeben, dass deren Gasadsorptionseigenschaften sehr unterschiedlich sind und vergleichbar genaue Messergebnisse liefern können wie das bislang optimale Polyurethan (obere Kurve). Es ist also unbedingt zu beachten, nur die vom Hersteller des Messsystems empfohlenen Probenschläuche zu verwenden! Ähnliche Effekte entstehen in Bezug auf die Messung auch der übrigen Gase, wenn ein Probenschlauch aus Sparsamkeit wiederholt desinfiziert wird: Die inneren Oberflächen werden sehr rauh, es gibt keine laminare Strömung mehr im Probenschlauch, sodass Konzentrationsstufen auf dem Weg zum Analysator verschliffen werden. In der klinischen Routine treten v. a. immer wieder Fragen nach der Messgenauigkeit der endexspiratorischen
673 39.2 · Gasaustausch
⊡ Abb. 39.13. Verfälschung der Anästhesiegaswerte durch fehlerhaftes Probenschlauchmaterial
CO2-Messwerte (etCO2) auf. Abweichungen der Messergebnisse aus dem Atemgas von den Blutgaswerten sind der Grund: der etCO2 ist i. d. R. um 2–13 mmHg niedriger als der paCO2. Auch verunsichern Messwertunterschiede der Geräte verschiedener Hersteller. Dafür gibt es technische und physiologische Erklärungen. Es gibt eine Kreuzempfindlichkeit der CO2- Messung mit den übrigen Gasen, teils aufgrund spektraler Überlappung (mit N2O), teils wegen eines indirekten Einflusses von O2 auf die CO2-Absorptionsbande (»collision broadening effect«). Wenn ein Kapnograph nicht gleichzeitig auch die übrigen Gase misst, verlangt er i. Allg. zur Korrektur die Angabe, ob O2 und/oder N2O in größerer Konzentration im Gasgemisch enthalten sind. Bei Nichtbeachtung können Fehler um etwa 2 mmHg entstehen. Es gibt heute allerdings wieder echte NDIR-Messzellen mit Glimmlampen als Strahlungsquellen, die das CO2Feinstrukturspektrum abstrahlen und keine Korrektur erfordern. Andererseits existieren Infrarotanalysatoren, deren CO2-Messwerte mit den Anästhesiegaskonzentrationen automatisch korrigiert werden; die Angabe eines falschen Anästhesiegases hat dann nicht nur beim Anästhesiegas, sondern auch beim pCO2 größere Fehler zur Folge. Beispiel: Isofluran angegeben, aber Halothan benutzt: pCO2 um bis zu 7 mmHg zu tief!
Heute wird die Angabe des CO2-Partialdrucks als Lungenwert entsprechend dem BTPS-Standard verlangt, denn nur CO2-Lungenwerte können im Idealfall praktisch mit Blutgaswerten übereinstimmen. Da die Infrarotmesszellen aber im trockenen Gas messen, muss der Lungenwert noch um etwa 2,5 mmHg reduziert werden: pCO2 (Lunge) ≈ pCO2 (R – Zelle) . (pbaro – 47)/pbaro. (Tatsächlich ist diese Korrektur bereits etwas zu scharf, da das Gas in der IR-Zelle nur auf Umgebungsfeuchtigkeit getrocknet ist.) Unterschätzt wird häufig der Einfluss der Totraumventilation infolge eines Ventilations-Perfusions-Missverhältnisses, die direkt in die Diskrepanz zwischen etCO2 und paCO2 eingeht. Alveolare Shunts tragen zu etwa 2 mmHg niedrigeren endexspiratorischen Werten bei (gegenüber zentralarteriellen Werten). Selten ist bewusst, dass bei größeren Operationen das Blut des Patienten spürbar unterkühlt ist, die Blutgasanalyse üblicherweise aber bei 37°C durchgeführt wird. Damit sind die Blutgasanalysewerte um ca. 4,8% pro °C gegenüber den Lungenwerten überhöht! Ist also der Patient z. B. auf 34°C abgekühlt, würde der unkorrigierte Blutgasanalysewert um etwa 4,3 mmHg über dem tatsächlichen Partialdruck im Blut des Patienten liegen.
39
674
Kapitel 39 · Respiratorisches Monitoring
39.3
Kapnographie R. Kramme
IV
Die Spontanatmung ist primär auf eine Stabilisierung des arteriellen CO2-Partialdrucks (paCO2) auf Werte um etwa 40 mmHg gerichtet ( Abschn. 39.2 »Gasaustausch«) und stellt den wesentlichen Atemantrieb dar, während der O2-Partialdruck vergleichsweise stark schwanken kann. Stärkere Abweichungen des paCO2 haben erhebliche physiologische Folgen, wie z. B. eine Gefäßerweiterung bei Hyperkapnie mit der möglichen Folge von Hirndrucksteigerungen. Hypokapnien führen dagegen zu Gefäßverengungen mit der Gefahr von Organmangeldurchblutungen, die in erster Line das Gehirn gefährden. Daraus ergibt sich, dass die Kapnographie als nichtinvasives und kontinuierliches Überwachungsverfahren der Ventilation einen hohen Stellenwert für die Sicherheit des Patienten während der Allgemeinanästhesie und in der Intensivmedizin hat. Unter Kapnographie ist die Messung und graphische Darstellung des CO2 im Atemgas zu verstehen. Im sog. Kapnogramm wird der CO2-Partialdruck über die Zeit aufgezeichnet. Der endexspiratorische CO2 (petCO2) ist der Spitzenwert am Ende des Alveolarplateaus, der mit dem paCO2 korreliert. Durch unterschiedliche Aufzeichnungsgeschwindigkeiten lassen sich einerseits CO2-Kurven (12,5 mm/s) und andererseits CO2-Trends (25 mm/min) darstellen (⊡ Abb. 39.14 und ⊡ Abb. 39.15). Es gibt unterschiedliche physikalische Verfahren, um den Partialdruck des CO2 während des respiratorischen Zyklus zu bestimmen. Die bekannteste und am häufigsten angewandte Methode ist die infrarotspektroskopische Messung. Bei Durchstrahlung des Atemgases mit Infrarotlicht werden einzelne Spektralanteile der Strahlung absorbiert. Die Absorption von Infrarotstrahlung (2–5 μm) verhält sich zum CO2-Gehalt der Messprobe logarithmisch proportional (CO2 hat ein Absorptionsmaxium bei einer Wellenlänge λ=4,28 μm). Auf der Basis des photometrischen Absorptionsgesetzes von Lambert-Beer wird die Konzentration des CO2 im Atemgasgemisch bestimmt: I A = log 0 = ecd. I Hier bedeuten: A Extinktion = Absorption, I0 Strahlintensität vor der Probe, I Strahlintensität nach der Probe, e molarer Extinktionskoeffizient [l/mol], c Konzentration des lichtabsorbierenden Stoffs [mol/l], d Schichtdicke der Probe [m]. Die Funktion e=f(λ) ist das Absorptionsspektrum einer Substanz. Nach der Lokalisation des CO2-Sensors werden zwei Messmethoden unterschieden:
1. Beim Hauptstromverfahren, das sehr genaue Ergebnisse ohne zeitliche Latenz liefert, befindet sich der Messsensor auf einem als Messküvette gestalteten Atemschlauchadapter zwischen Tubus und Beatmungsschläuchen. Der Fortschritt in der technischen Entwicklung hat inzwischen die früheren Nachteile hohen Sensorgewichts und großer mechanischer Empfindlichkeit überwunden, sodass das Hauptstromverfahren heute bei intubierten Patienten bevorzugt wird. 2. Bei der Messung im Seitenstromverfahren (auch Nebenstromverfahren genannt) wird das Atemgas über eine feine Schlauchleitung, die meist mit einem TStück am Tubusende des Patienten verbunden ist, abgesaugt. Der Messvolumenstrom (»sampling rate«) liegt meist zwischen 50 und 250 ml/min. Die Messkammer befindet sich im Patientenmonitor. Das Nebenstromverfahren gestattet auch die Überwachung nichtintubierter Patienten, die eine »Atembrille« tragen, die aus feinen Schläuchen aufgebaut ist und Atemgas aus den Nasenöffnungen abzieht. Als Indikation zur Kapnographie kommen in Frage: ▬ Monitoring der Ventilation während der maschinellen Beatmung in Anästhesie und Intensivtherapie; ▬ Monitoring während der kardiopulmonalen Wiederbelebung; ▬ Früherkennung einer intraoperativen Luftembolie, malignen Hyperthermie, Diskonnektion des Schlauchsystems und Stenose; ▬ Erkennung von Obstruktion, Totraumventilation, Rückatmung, Dysfunktion im Absorber- oder Ventilsystem, Tubusdislokation während der Narkose und hämodynamischen Veränderungen (z. B. Blutdruckabfall, Herz-Kreislauf-Stillstand); ▬ indirekte Informationen über die Muskelrelaxation. Grenzen und Fehlerquellen der Kapnographie sind im Wesentlichen: ▬ Störungen der Atemphysiologie: Ventilations-Perfusions-Missverhältnis, Totraumventilation, Shuntzunahme; ▬ Störungen technischer Art: Kalibrationsfehler, Kondensat oder Sekret im Ansaugschlauch, Stenosierung oder Abknicken des Ansaugschlauchs; ▬ methodische Grenzen: hohe Atemfrequenz, Mischgasanalyse, Interferenz von Fremdgasen (z. B. Lachgas, Wasserdampf); ▬ anwenderbedingte Fehler: Interpretationsfehler. Die Kapnogramme in ⊡ Abb. 39.14 und ⊡ Abb. 39.15 zeigen zum einen den Aufbau eines normalen Kapnogramms und zum anderen Einflüsse seitens der Anästhesie und des Patienten, die sich in den jeweiligen Kapnogrammen widerspiegeln.
675 39.3 · Kapnographie
⊡ Abb. 39.14. Normales Kapnogramm. E–F Beginn der Ausatmung (exspiratorische Phase). Aus dem anatomischen Totraum wird Gas ausgeatmet. F–G Steiler Anstieg der CO2-Konzentration vornehmlich aus den unteren Atemwegen. G–H Alveolarplateau, bestehend aus
39
der CO2-Konzentration bzw. dem CO2-Partialdruck des Alveolargases. H Endexspiratorischer oder endtidaler pCO2 (syn. PetCO2 oder pECO2). H–I Absteigende Kurve; die inspiratorische Phase zeigt eine rasche Abnahme der CO2-Konzentration durch das aufgenommene Frischgas
⊡ Abb. 39.15. Die Kapnogramme zeigen Einflüsse seitens der Anästhesie und des Patienten, die sich in den jeweiligen Kapnogrammen widerspiegeln (Nachdruck mit freundlicher Genehmigung von HP und Agilent Technologies)
676
Kapitel 39 · Respiratorisches Monitoring
IV
⊡ Abb. 39.15.
677 Literatur
Literatur zum Abschn. »Gasaustausch« 1. 2.
3. 4.
5. 6.
Baumbach P (1988) Verständnis transkutaner pO2- und pCO2-Messungen. Radiometer A/S, Kopenhagen Forstner K (1990) Pulsoximetrie. In: Doenicke A, Kilian J (Hrsg) Neue Technologien in Infusionstherapie und Monitoring. Braun, Melsungen Hampson NB (1998) Pulse oximetry in severe carbon monoxide poisoning. Chest 114: 1036–1041 Olthoff D (1992) Wissenschaftlicher Workshop. Die kontinuierliche Überwachung der gemischtvenösen und organvenösen O2-Sättigung beim kritisch Kranken – aktueller Stand und Perspektiven. Wissenschaftliche Verlagsabteilung Abbott, Wiesbaden Silbernagel S, Despopoulos A (1988) Taschenatlas der Physiologie. Deutscher Taschenbuch-Verlag, München Wukitsch MW, Petterson MT, Tobler DR, Pologe JA (1988) Pulse oximetry: analysis of theory, technology, and practice. J Clin Monit 4: 290–301
Literatur zum Abschn. »Kapnographie« 1. 2. 3.
Böbel M et al. (1996) Kapnometrie in der Notfallmedizin. Rettungsdienst 4: 24–28 Bone H-G, Marquardt U (1999) Kapnographie – Eine Übersicht für Anwender. mt 5: 188–192 List WF et al. (1999) Monitoring in der Anästhesie und Intensivmedizin. 2. Aufl. Springer, Heidelberg
39
40 Metabolisches Monitoring R. Kramme
40.1 Hyperthermie und Hypothermie – 679 40.2
Messorte für die Temperaturmessung – 679
40.3
Temperaturaufnehmer und -sonden – 679
40.4 Methodische Hinweise
– 681
Weiterführende Literatur – 681
Temperaturmessungen sind in der Intensiv- und Notfallmedizin sowie der Narkoseführung als Standardmonitoring unverzichtbar. Die Überwachung der Körpertemperatur (sog. metabolisches Monitoring) ist in der Intensivmedizin von besonderer Bedeutung, da Fieber – Erhöhung der Körperkerntemperatur über 38°C – ein frühes Zeichen einer Sepsis ist; eine der häufigsten Todesursachen auf Intensivstationen. Folgende Fiebertypen sind für die Überwachung von Intensivpatienten wichtig: ▬ Fieberkontinua (Temperaturschwankungen >1°C), ▬ remittierendes Fieber (Temperaturschwankungen >2°C), ▬ intermittierendes Fieber (Temperaturschwankungen >2°C im Tagesverlauf, wobei sie auch unter Normaltemperatur sinken kann), ▬ undulierendes Fieber (ständig veränderte Körpertemperatur ohne Tendenz).
40.1
Hyperthermie und Hypothermie
Übersteigt die Wärmezufuhr die Wärmeabgabe des Körpers (z. B. bei Hitzschlag, Alkohol- oder Medikamentenentzug, Hyperthyreose, malignem neuroleptischem Syndrom oder maligner Hyperthermie), so wird dieser Zustand als Hyperthermie bezeichnet. Infolge erhöhter Wärmeabgabe wird die Körperkerntemperatur unter 35,5°C als Hypothermie bezeichnet (z. B. nach operativen Eingriffen, bei extrakorporaler Blutzirkulation und Blutreinigungsverfahren, zu Beginn einer Sepsis).
40.2
Messorte für die Temperaturmessung
Ausschlaggebend für die Bewertung der Körpertemperatur ist der Messort (⊡ Tab. 40.1), denn zwischen den verschiedenen Körperbereichen kann eine Temperaturdifferenz bis zu 5°C bestehen. Ein Temperaturgefälle kann auch zwischen der Körperkerntemperatur und der Temperatur an der Peripherie vorhanden sein (z. B. Schockzustand).
40.3
Temperaturaufnehmer und -sonden
Zur Ermittlung der Temperatur als thermische Messgröße stehen unterschiedliche Temperaturaufnehmer und -sonden zur Verfügung (typischer Messbereich: 24–42°C, optimaler Messbereich 10–45°C, um auch körperextreme Temperaturen, wie z. B. tiefe Unterkühlungen oder Hyperthermie, messen zu können), die technisch kaum Probleme bereiten: Thermistoren (sog. Heißleiter) sind thermosensitive Halbleiterelemente, deren elektrischer Widerstand mit steigender Temperatur abnimmt. Ändert sich der Widerstand – auch sehr geringe Temperaturänderungen bewirken Änderungen aufgrund hoher Ansprechempfindlichkeit des Aufnehmers –, so ändert sich die Stromspannung an der Brückenschaltung proportional zur Temperaturänderung. Diese Spannung wird verstärkt und über ein kalibriertes (°C) elektrisches Temperaturmessgerät angezeigt. Thermistoren sind die in der Praxis am meisten verwendeten Temperaturaufnehmer.
680
Kapitel 40 · Metabolisches Monitoring
⊡ Tab. 40.1. Übersicht der Temperaturaufnehmer/-sonden und Messorte für die Ermittlung der Körpertemperatur (s. auch ⊡ Abb. 40.1–4) Lokalisation
Bemerkungen
1. Körperoberflächentemperaturaufnehmer Axilla
Um ~1°C niedriger als im Rektum, weniger geeignet für Temperaturmessungen auf Intensivstationen und im OP.
Haut
Applikation an unterschiedlichen Körperstellen (z. B. Stirn, Fußsohle u. a.), Temperaturwerte sind abhängig von der Durchblutungsqualität der Haut.
2. Temperaturaufnehmer und -sonden für Körperöffnungen
IV
Sublingual
Weniger geeignet für Temperaturmessungen auf Intensivstationen und im OP.
Rektum
Einfachste Annäherung an die Körperkerntemperatur (aber nicht repräsentativ), da Temperaturabhängigkeit von der Durchblutung der Darmschleimhaut, räumlicher Temperaturgradient, Fäzes kommt als Temperaturisolator in Betracht.
Nasopharynx
Applikation: Mukosa des Nasopharyngealraums, gute Verhältnisse für die Temperaturmessung durch räumliche Nähe zur A. carotis interna.
Äußerer Gehörgang
Applikation in Nähe des Trommelfells, Messresultate vergleichbar mit der Ösophagustemperatur.
3. Intrakorporale Temperatursonden Ösophagus
Applikation im unteren Drittel mittels Ösophagusstethoskop mit integrierter Temperatursonde, Temperaturverhältnisse vergleichbar denen des Gehirns (entspricht annähernd der Körperkerntemperatur).
Pulmonalarterie
Über Swan-Ganz-Katheter Online-Messung der Temperatur, Messwertbeeinflussung durch kalte Infusionslösungen möglich.
Harnblase
Über Foley-Katheter, Temperaturverhältnis entspricht annähernd der Körperkerntemperatur.
⊡ Abb. 40.2. Einmalsonden für Rektal- oder Ösophagustemperaturmessungen
⊡ Abb. 40.1. Einmalsonde für Hautoberflächenmessungen
⊡ Abb. 40.3. Foley-Katheter für Temperaturmessungen in der Harnblase
681 Weiterführende Literatur
Thermoelemente werden aus zwei miteinander verbundenen Metallen gebildet. Eine Verbindungsstelle wird auf konstanter Temperatur gehalten, während die zweite den eigentlichen Temperaturaufnehmer bildet. Zwischen den Metallverbindungen kommt es bei Erwärmung zu einer Temperaturdifferenz, die der elektrischen Spannung proportional ist. Thermomessstreifen sind mit Cholesterinkristallen imprägniert, deren molekulare Anordnung sich in Abhängigkeit von der Temperatur verändert. Weitere Aufnehmer und Sonden zur Temperaturermittlung sind: ▬ Wärmestrahlungsaufnehmer, ▬ Nadelthermometer, ▬ Deep-body-temperature-Sensoren. In der klinischen Praxis ist es weitgehend üblich, die Temperaturdifferenz der Körperkerntemperatur zu einer peripheren Temperatur (Oberflächentemperatur) zu überwachen. Die Temperaturdifferenz ist ein wesentliches Kriterium zur Früherkennung beginnender Schockzustände, da die Temperatur an der Körperperipherie schneller absinkt als die Körperkerntemperatur.
⊡ Abb. 40.4. Temperaturmessgerät (äußerer Gehörgang)
40.4
Methodische Hinweise
Wiederverwendbare Temperaturaufnehmer und -sonden dürfen nicht autoklaviert oder heißluftsterilisiert werden. Dagegen ist eine Gas- (Ethylenoxid) oder Plasmasterilisation möglich. Temperaturaufnehmer und -sonden müssen das CEZeichen tragen. Sie unterliegen gemäß MedizinprodukteBetreiberverordnung (MPBetreibV Anhang 2 zu §11) der Pflicht zu messtechnischen Kontrollen in einem Rhythmus von zwei Jahren (für Infrarot-Strahlungsthermometer beträgt die Frist ein Jahr).
Weiterführende Literatur Briegel J et al. (1994) Fieber als Leitsymptom in der Intensivmedizin. Intensivmedizin im Dialog 1: 1–4 Negri L, Weber W (1989) Körpertemperatur. In: Negri L, Schelling G, Jänicke U (Hrsg) Monitoring in Anästhesie und operativer Intensivmedizin. Wissenschaftliche Verlagsabteilung Abbott GmbH, Wiesbaden, 7.1–7.8 Zander JF (1994) Fiebersenkende Maßnahmen in der Intensivtherapie. Intensivmedizin im Dialog 1: 5–7
40
41 Zerebrales Monitoring B. Schulz, A. Schulz, H. Kronberg 41.1
EEG-Monitoring im Operationssaal und auf der Intensivstation – 683
41.1.1 41.1.2 41.1.3 41.1.4
Indikationen – 683 EEG-Bilder – 683 Spektralanalyse – 683 Weitere gebräuchliche Parameter zur Analyse und Beschreibung des EEG – 684 41.1.5 EEG-Stadien der Narkose bzw. der Sedierung – 684 41.1.6 EEG-Narkoseverlauf – 685 41.1.7 Technische Voraussetzungen – 686 41.1.8 Benefit des EEG-Monitorings im OP – 686 41.1.9 Benefit des EEG-Monitorings auf der Intensivstation – 687 41.1.10 Zusammenfassung – 687
41.1
EEG-Monitoring im Operationssaal und auf der Intensivstation B. Schultz, A. Schultz
Die Registrierung der Hirnströme (Elektroenzephalogramm, EEG) eignet sich zur Patientenüberwachung im Operationssaal und auf der Intensivstation (Freye u. Levy 2005).
41.1.1 Indikationen
Indikationen für den Einsatz des EEG-Monitorings im Operationssaal sind die Beurteilung der Effekte hypnotisch wirkender Substanzen, die frühzeitige Erkennung zerebraler Gefahrensituationen, z. B. durch Hypoxie, und die Darstellung der zerebralen Auswirkungen von induzierter Hypothermie. Auf der Intensivstation ergeben sich als Anwendungsgebiete die Sedierungssteuerung, die Therapiesteuerung, z. B. im Status epilepticus, die Zustands- und Verlaufsbeurteilung bei komatösen Patienten sowie die orientierende diagnostische Nutzung im Hinblick auf epilepsietypische Aktivität und umschriebene zerebrale Funktionsstörungen.
41.1.2 EEG-Bilder
Eine Dämpfung der Hirnfunktion geht meist mit einer Verlangsamung des EEG einher. Die Frequenzzusammen-
41.2
Intrakranieller Druck (ICP) – 687
41.2.1 41.2.2 41.2.3
Einleitung – 687 Physiologie des Hirndrucks – 688 Hirndruckmessung als Therapiekontrolle
– 690
Literatur zum Abschn. »EEG-Monitoring im Operationssaal und auf der Intensivstation« – 692 Literatur zum Abschn. »Intrakranieller Druck (ICP)« – 692
setzung des EEG bietet daher einen Anhalt zur Einschätzung der Schwere einer zerebralen Funktionsveränderung bzw. Funktionsstörung. Für ein EEG-Monitoring sind auch spezielle Potenzialformen von Interesse, wie z. B. epilepsietypische Potenziale. Grundsätzlich ist zwischen generalisierten und fokalen EEG-Veränderungen zu unterscheiden. Generalisierte EEG-Veränderungen zeichnen sich dadurch aus, dass sie über allen Regionen des Schädels sehr ähnlich ausgeprägt sind. Typische Beispiele sind EEG-Effekte durch hypnotisch wirksame Substanzen, Hypothermie, Hypoglykämie und globale Hypoxie. Fokale EEG-Veränderungen beschränken sich auf Teilbereiche des Schädels und können z. B. durch Tumoren, Blutungen oder lokal begrenzte Hypoxien bedingt sein. Konventionelle EEG-Ableitungen mit einer Vielzahl von Kanälen sind mit einem hohen praktischen Aufwand verknüpft. Generalisierte EEG-Veränderungen lassen sich aber mit hoher Zuverlässigkeit anhand einer einzigen EEGAbleitung beurteilen. Dies ist eine wesentliche Voraussetzung für den Einsatz des EEG als Monitoringmethode.
41.1.3 Spektralanalyse
Die herkömmliche visuelle Beurteilung des EEG-Signals erfordert spezielle Kenntnisse und Erfahrung. Daher stellt es für den Anwender eine wesentliche Vereinfachung dar, wenn das EEG für die Nutzung im OP und auf der Intensivstation mit Hilfe von computergestützten Verfahren analysiert wird und Interpretationshilfen gegeben werden.
684
IV
Kapitel 41 · Zerebrales Monitoring
Eine häufig eingesetzte Methode zur EEG-Signalanalyse ist die Spektralanalyse. Hierbei wird das EEG-Signal in definierten Zeitabschnitten in seine zugrundeliegenden Frequenzanteile zerlegt. Als Ergebnis erhält man ein EEG-Powerspektrum, das grafisch dargestellt werden und als Grundlage für weitere Auswertungen dienen kann. Es lassen sich einzelne Spektralparameter extrahieren, wie z. B. das 50%- und das 90%- bzw. 95%-Quantil des Powerspektrums, die auch als Median bzw. als spektrale Eckfrequenz bezeichnet werden. Andere gebräuchliche Spektralparameter sind die Gesamtleistung (Power) sowie die Leistung in einzelnen Frequenzbereichen. Man unterscheidet die Frequenzbänder Delta (δ : 0,5–3,5 Hz), Theta (ϑ : 3,5–7,5 Hz), Alpha (α : 7,5–12,5 Hz) und Beta (β: >12,5 Hz). Derartige Monoparameter erlauben es zwar häufig, generelle Trends im EEG darzustellen, die komplexe Information eines EEG lässt sich durch Monoparameter aber nicht umfassend beschreiben.
41.1.4 Weitere gebräuchliche Parameter zur
Analyse und Beschreibung des EEG
Stadien A (wach) bis F (sehr tiefe Narkose/Sedierung) (⊡ Abb. 41.1) stammen von Kugler (1981). Eine Stadieneinteilung von A bis F, die im Hinblick auf das EEG-Monitoring modifiziert worden war, diente als Grundlage für die Entwicklung einer automatischen EEG-Klassifikation. Diese wurde mit Hilfe eines multivariaten Ansatzes unter Einbeziehung spezieller Mustererkennungsalgorithmen realisiert und ist Bestandteil des EEG-Monitors Narcotrend, der für den Einsatz im Operationssaal und auf der Intensivstation entwickelt wurde (Schultz et al. 2003b). Zur Beurteilung der hypnotischen Komponente von Narkose und Sedierung mit Hilfe dieses Gerätes wird standardmäßig ein EEG-Kanal verwendet, wofür üblicherweise drei Einmal-EKG-Elektroden auf der Stirn des Patienten befestigt werden. In Abhängigkeit von der Art des operativen Eingriffs oder bei Kopfverletzungen können auch andere Elektrodenarten (z. B. Nadelelektroden) und Elektrodenpositionen zum Einsatz kommen. Zwei-Kanal-Registrierungen sind ebenfalls möglich. Der Narcotrend wertet das EEG in Segmenten von 20 s Dauer aus, wobei die Ausgabe der Bewertung alle 5 s aktualisiert wird. Insgesamt werden 15 Unterstadien im
Für das Monitoring des Narkose- und des Intensiv-EEG werden auch andere mathematische bzw. statistische Parameter eingesetzt. Beispielsweise geht in den Wert des Bispektrums neben Informationen aus dem Powerspektrum auch die Phasenkopplung ein. Die Bispektralanalyse ist ein Bestandteil der Funktionen, die für die Geräte der Firma Aspect (Aspect Medical Systems, Natick, MA, USA) verwendet werden (Bruhn 2006b). Entropie bezeichnet das Maß der Ordnung bzw. Unordnung, somit Zufälligkeit oder Vorhersagbarkeit eines Systems. Die spektrale Entropie bildet die Grundlage des in Überwachungseinheiten der Firma Datex-Ohmeda (Datex-Ohmeda (GE), Helsinki, Finnland) genutzten Algorithmus (Bruhn 2006a, Bruhn 2006c). Mit Hilfe autoregressiver Parameter lässt sich der Verlauf der Roh-EEG-Kurve beschreiben. Es handelt sich hierbei um ein Regressionsmodell, bei dem der aktuelle Zeitreihenwert als gewichtete Summe eines oder mehrerer Vergangenheitswerte und eines Zufallsterms modelliert wird. Autoregressive und andere Parameter werden im Narcotrend (MT MonitorTechnik, Bad Bramstedt, Deutschland) verwendet (Schultz et al. 2003b).
41.1.5 EEG-Stadien der Narkose
bzw. der Sedierung Unter dem Einfluss von hypnotisch wirksamen Substanzen kommt es dosisabhängig zu einer fortschreitenden Verlangsamung des EEG. Vorschläge für Kriterien einer visuellen Klassifikation dieser EEG-Veränderungen in die
⊡ Abb. 41.1. Typische Beispiele für das EEG in den Stadien A–F
685 41.1 · EEG-Monitoring im Operationssaal und auf der Intensivstation
Bereich A–F unterschieden, und als Verfeinerung wird zusätzlich der Narcotrend-Index (100-0) angezeigt. Ein Ausschnitt aus dem Messbildschirm des Narcotrend ist in ⊡ Abb. 41.2 dargestellt.
Als Beispiel für die Anwendung der automatischen EEGBewertung zeigt ⊡ Abb. 41.3 einen EEG-Stadienverlauf aus einer Narkose mit dem Hypnotikum Propofol und
dem Opioid Remifentanil. Beide Substanzen sind wegen ihrer kurzen Halbwertszeiten sehr gut steuerbar und wurden mittels Spritzenpumpen kontinuierlich intravenös appliziert. Nach der Narkoseeinleitung vom A- bis in den E/F-Bereich erfolgte die Narkoseaufrechterhaltung in tiefer Narkose im D/E-Bereich. Ca. um 10.00 Uhr wurde im EEG ein plötzliches Wacherwerden bis in den B-Bereich entdeckt. Ursache war eine kurzfristige, technisch bedingte Unterbrechung der Narkosemittelzufuhr. Bei Narkoseführung in derartig flachen Stadien ist nicht auszuschließen, dass Patienten sich postoperativ an die intraoperative
⊡ Abb. 41.2. Ausschnitt aus dem Messbildschirm des Narcotrend. Oben: Original-EEG, unten links: aktuelle Werte für Stadium (E0) und Index (29), darunter die aktuellen Elektrodenimpedanzen, unten rechts: EEG-Stadienverlauf (Cerebrogramm). Nach Gabe des Einleitungshypnotikums Propofol erreichte die Patientin vom Wachzustand (Stadium A) schnell ein tiefes Schlafstadium (Stadium E/D, ca. 8.35 Uhr) und
wurde nach Gabe eines Relaxans intubiert. Aufgrund der kurzen Halbwertszeit des Hypnotikums flachte die Narkose innerhalb weniger Minuten bis in den B-Bereich ab (ca. 8.40 Uhr). Durch einen Propofolbolus (ca. 8.43 Uhr) erfolgte eine Vertiefung der Narkose in den D/E-Bereich, in dem sie dann weitergeführt wurde. Das bei der Narkoseeinleitung und -aufrechterhaltung verwendete Opioid war Remifentanil
41.1.6 EEG-Narkoseverlauf
⊡ Abb. 41.3. Cerebrogramm einer Narkose mit einem nicht beabsichtigten kurzfristigen Wacherwerden der Patientin durch eine technisch bedingte Unterbrechung der Narkosemittelzufuhr (ca. 10.00 Uhr)
41
686
IV
Kapitel 41 · Zerebrales Monitoring
Situation erinnern können (Awareness). Durch einen Bolus des Hypnotikums Propofol wurde die Narkose bis in den F-Bereich vertieft. Die weitere Narkoseaufrechterhaltung erfolgte im E-Bereich. Gegen 11.30 Uhr begann die Narkoseausleitung mit einem kontinuierlichen Flacherwerden der Narkose vom E-Bereich bis zum Erwachen im A/B-Bereich. Die Patientin hatte postoperativ keine Erinnerung an intraoperative Ereignisse. Die zur Aufrechterhaltung der Narkose erforderliche Dosis des Hypnotikums wurde für diese Patientin individuell anhand des Hirnstrombildes eingestellt, daher ließen sich länger dauernde Über- und Unterdosierungen vermeiden. Die kurzfristige unerwünschte Abflachung der Narkose konnte anhand des EEG schnell erkannt und sofort korrigiert werden. In der Klinik gebräuchliche Parameter zur Patientenüberwachung während der Narkose sind u. a. Blutdruck und Herzfrequenz. Kreislaufparameter stellen, insbesondere bei intravenösen Narkosen, keine verlässliche Grundlage zur Beurteilung der hypnotischen Komponente der Narkose dar. Das EEG erfasst die Effekte hypnotisch wirksamer Substanzen direkt am Wirkorgan, dem Gehirn, und ist für den Anästhesisten eine wertvolle Hilfe zur Dosisfindung. Bei der Anwendung und Interpretation des EEG in der Praxis ist die klinische Gesamtsituation zu beachten, da auch andere Einflussgrößen wie Hypoxie, Hypoglykämie und Hypothermie das EEG in ähnlicher Weise wie Narkotika/Sedativa beeinflussen können. Visuell klassifizierte EEG-Epochen stellen eine sichere und eindeutige Grundlage für die Entwicklung von automatischen Klassifikationsalgorithmen dar und erlauben eine einfache Validierung. Für den Anwender bedeutet die Verwendung der visuellen EEG-Bewertung als Basis methodische Transparenz, denn es besteht eine eindeutige Beziehung zwischen den Charakteristika des Original-EEG und der automatischen Bewertung. Dies kann als ein wesentlicher Vorteil des Narcotrend gegenüber anderen Ansätzen zur automatischen EEG-Bewertung angesehen werden, bei denen darauf verzichtet wird, eine eindeutige Beziehung zwischen EEG-Bildern und mathematisch-statistisch ermittelten Parametern, wie z. B. Indizes, festzulegen.
41.1.7 Technische Voraussetzungen
Bei der praktischen Durchführung des EEG-Monitorings mit dem Narcotrend haben sich die folgenden Gerätemerkmale als wichtig herausgestellt. Da die Signalqualität des EEG und damit auch die Zuverlässigkeit automatischer Folgeauswertungen in hohem Maße von einem konstant guten Elektroden-HautKontakt abhängig sind, ist es erforderlich, engmaschige Impedanzkontrollen durchzuführen.
Das EEG-Signal ist sehr störanfällig, daher stellt eine automatische Artefakterkennung eine unverzichtbare Voraussetzung für eine Weiterverarbeitung des Signals dar. Die visuelle Auswertung war jahrzehntelang das Standardverfahren zur EEG-Analyse und ist auch heute noch in der klinischen Praxis unverzichtbar (z. B. Kontrolle des Signals im Hinblick auf Störungen, Erkennung spezieller EEG-Bilder und Potenzialformen wie epilepsietypischer Potenziale). Daher ist eine sehr deutliche Darstellung des Roh-EEG mit unterschiedlichen Skalierungsmöglichkeiten und zuschaltbaren Filtern erforderlich. Veränderungen des EEG mit dem Lebensalter sind sowohl bei der automatischen Bewertung als auch bei der EEG-Darstellung zu berücksichtigen. Unterschiedliche Operationsgebiete, Lagerungen und Verletzungsmuster der Patienten bedingen, dass neben möglichst variablen Elektrodenpositionen auch verschiedene Elektrodenarten gebraucht werden. Für eine orientierende Untersuchung zum Seitenvergleich des EEG-Bildes sollten mindestens zwei Kanäle zur Verfügung stehen. Zur Dokumentation sollten sowohl Momentaufnahmen des Original-EEG als auch Verläufe von EEG-Parametern bzw. -Bewertungen ausgedruckt werden können. Ebenso sollte eine Archivierung der vollständigen Original-EEG-Daten möglich sein.
41.1.8 Benefit des EEG-Monitorings im OP
Eine Verbesserung der Narkosequalität durch das EEGMonitoring, z. B. hinsichtlich individuell angepasster Dosierung, Vermeidung von Awareness-Situationen und einer zügigen postoperativen Erholung, konnte in zahlreichen klinischen Untersuchungen nachgewiesen werden. Dies soll durch einige Beispiele illustriert werden. Die große interindividuelle Variabilität hinsichtlich des Bedarfs an hypnotisch wirksamen Substanzen wurde in einer Multicenterstudie mit 4630 Patienten deutlich (Wilhelm et al. 2002), es zeigte sich auch, dass das EEGMonitoring eine altersgerechte Dosierung unterstützt (Schultz et al. 2004). Bei einem Teil der Narkosen in dieser Studie wurde das EEG verblindet registriert, d. h. die EEG-Bewertungen waren für den Anästhesisten nicht zugänglich. Nur 68,6 % der Patienten mit verblindeter EEG-Registrierung hatten im Steady state der Narkose ein EEG im mittleren bis tiefen Narcotrend-Stadienbereich D/E. Die übrigen Narkosen waren entweder sehr flach, sehr tief oder unruhig im Verlauf. Zwei von 603 Patienten, deren EEGs verblindet registriert wurden, berichteten postoperativ über intraoperative Wahrnehmungen (Schultz et al. 2006). Wurde hingegen die Narkose anhand des EEG im Stadienbereich D/E-Bereich gesteuert, gab es in keinem Fall intra- oder postoperativ Hinweise für eine intraoperative Awareness.
687 41.2 · Intrakranieller Druck (ICP)
In einer anderen Studie wurden neurochirurgische Patienten mit Operationen von Hirntumoren intraoperativ mit dem Narcotrend überwacht. Diese Patienten, deren Narkosen im Steady state in tiefen EEG-Stadien gesteuert wurden, erhielten nur etwa die Hälfte der Propofoldosis, die Patienten aus einer Vergleichsgruppe ohne EEG-Monitoring bekamen. Die meisten der EEGüberwachten Patienten konnten schon im Operationssaal extubiert werden. Das erleichterte unmittelbar postoperativ die neurologische Beurteilung. Der Pflegeaufwand auf der Intensivstation war vermindert (Schultz et al. 1999). Mit Hilfe des EEG konnten bei Patienten mit Thoraxeingriffen sehr kurze Aufwachzeiten erzielt werden. Hierdurch wurde eine effektivere Kapazitätsausnutzung im Operationsbereich erreicht (Schulze et al. 2004). In einer Untersuchung von Rundshagen et al. (2004) erholten sich Patienten hinsichtlich ihrer psychomotorischen Funktionen nach Narkosen mit EEG-Monitoring schneller als nach Narkosen ohne EEG-Überwachung. Die Autoren interpretieren die Ergebnisse so, dass es mittels EEG besser möglich ist, die Narkose adäquat zu steuern, was zu einer Verminderung des Anästhetikaüberhangs in der frühen postoperativen Phase und zu verbesserten psychomotorischen Funktionen führt. Studien von Weber et al. (2005a, 2005b) zeigten, dass sich auch bei Kindern mit dem EEG-Monitoring die Dosierung der Hypnotika individuell vornehmen ließ. Bei Kindern mit Cochlea-Implantation half das EEG zuverlässig, kurzfristig in der Implantattestphase sehr flache Narkose-EEG-Stadien anzusteuern. Eine möglichst geringe Beeinflussung der Hirnfunktion – und damit auch der Hörverarbeitung – durch hypnotisch wirksame Substanzen ist in dieser Phase wichtig, damit die bei der Implantattestung gewonnenen Messergebnisse als Grundlage für die postoperative individuelle Anpassung des Sprachprozessors genutzt werden können (Schultz et al. 2003a).
41.1.9 Benefit des EEG-Monitorings
auf der Intensivstation Die Einbeziehung des EEG als Monitoringverfahren erlaubt nicht nur im OP, sondern auch auf der Intensivstation eine differenziertere Beurteilung des Patienten in Situationen, in denen die Möglichkeiten der klinischen Untersuchung und Beurteilung eingeschränkt sind. Dies gilt für relaxierte Patienten und Personen in tiefen Sedierungs- oder Komastadien mit nur noch spärlichen Reaktionen auf externe Reize. Ein Zweijahresvergleich hinsichtlich der Liegezeit von beatmeten Patienten auf einer anästhesiologisch-chirurgischen Intensivstation ergab, dass in einem Jahr mit regelmäßigen EEG-Kontrollen zur Sedierungssteuerung die Liegezeit im Mittel etwa 22% kürzer war als in ei-
nem Jahr ohne EEG-Überwachung (Schultz et al. 2001). Die Erfahrung zeigt, dass geriatrische Patienten, bei denen häufig Vorerkrankungen und eine eingeschränkte Kompensationsfähigkeit bestehen, besonders von einem EEG-Monitoring der Sedierung profitieren. Die Gefahr von Sekundärkomplikationen durch unnötig lange Beatmungszeiten bei Intensivpatienten wird verringert. Die Sedierungssteuerung ist eine wichtige Indikation für das EEG-Monitoring bei Intensivpatienten. Daneben gibt es zahlreiche Diagnostik und Therapie unterstützende Anwendungen, z. B. in der Hirndrucktherapie, bei der Diagnose und Behandlung zerebraler Erregbarkeitssteigerungen, bei der Zustands- und Verlaufsbeurteilung komatöser Patienten und der orientierenden Untersuchung im Hinblick auf umschriebene zerebrale Funktionsstörungen (Schultz 2006, Stöhr u. Kraus 2002, Zschocke 2002).
41.1.10 Zusammenfassung
Zusammenfassend lässt sich feststellen, dass das EEGMonitoring durch die moderne technische Umsetzung und insbesondere durch die automatische Interpretation heute mit geringem Aufwand als Routinemethode in der Praxis anwendbar ist. Es stellt eine sinnvolle und wichtige Ergänzung der bislang üblichen Patientenüberwachungsverfahren dar. Durch die Nutzung des EEG-Monitorings lässt sich eine erhebliche Qualitätsverbesserung von Narkose und Intensivtherapie erreichen.
41.2
Intrakranieller Druck (ICP) H. Kronberg
41.2.1 Einleitung
Raumfordernde Prozesse im Gehirn können zu gefährlichen Anstiegen des Hirndrucks (ICP; »intracranial pressure«) führen, wenn die Kompensationskapazität der betroffenen homöostatischen Regelmechanismen ausgeschöpft ist. Überhöhter Hirndruck verursacht zerebrale Sauerstoffmängel infolge mangelhafter Blutperfusion, da das Druckgefälle zwischen systemischem arteriellen Druck SAP und dem ICP (CPP; »cerebral perfusion pressure«) vermindert ist. Schließlich bergen die zugrundeliegenden raumfordernden Prozesse die Gefahr einer lebensgefährlichen Hirnstammeinklemmung mit Atemlähmung. Raumfordernde Prozesse können langsam ablaufen (Tumor), sich in Stunden bis Tagen entwickeln (Hirnödem) oder auch plötzlich auftreten (Massenblutung). Es gibt auch wellenartige pathologische ICP-Anstiege, die wahrscheinlich mit Schwankungen des zerebralen Blutvolumens zusammenhängen.
41
688
IV
Kapitel 41 · Zerebrales Monitoring
Häufigste Indikation zur ICP-Überwachung ist das Schädel-Hirn-Trauma (SHT). Denn die übliche Notfallbehandlung des Patienten mit Beatmung, Sedierung und Relaxierung verdeckt die klinische Symptomatik von ICPAnstiegen. Eine prophylaktische Therapie gegen erhöhten Hirndruck ohne Langzeitnebenwirkungen gibt es nicht. Deshalb müssen solche Patienten unter kontinuierlicher Kontrolle des Hirndrucks – Dauer meist 3 bis 6 Tage – behandelt werden. Zur ICP-Messung wurden verschiedene Methoden eingeführt, die sich im Wesentlichen in 2 Gruppen unterschiedlicher Invasivität einteilen lassen. Als invasive Methoden mit erhöhter Infektionsgefahr bei längerer Überwachungsnotwendigkeit: die direkte Kathetermessung des intraventrikulären Drucks (»Goldstandard«), des intraparenchymalen oder des subduralen Drucks, und als »geringinvasive« Methode, deren Infektionsrisiko gut beherrschbar ist, aber unter häufigen Messartefakten leidet: die epidurale Hirndruckmessung. Die früher mitunter bevorzugte Lumbaldruckmessung mit der Möglichkeit einer Liquorentnahme wird wegen der Gefahr einer Hirnstammeinklemmung nicht mehr empfohlen. Dass Bedeutung und Indikation der Hirndruckmessung kaum mehr umstritten sind, zeigt sich an der großen Zahl von Veröffentlichungen in den vergangenen 35 Jahren. Obwohl die Hirndruckmessung schon seit etwa 100 Jahren mit Einführung der Lumbalpunktion durch Quincke in der klinischen Forschung praktiziert wurde, ist die ICP-Überwachung erst mit der klassischen Studie von Lundberg (1960) und der von ihm eingeführten Definition von Hirndruckwellen endgültig in die klinische Routine des zerebralen Monitorings eingeführt worden. – Als Beitrag, der eine Übersicht zur Physiologie und Messtechnik bietet, sei der Artikel von Allen (1986) empfohlen, eine umfangreiche Darstellung einschließlich Messbeispielen findet sich bei Gaab u. Heissler (1984), während Steinbereithner et al. (1985) eine kurze Übersicht über die Therapie des Schädel-Hirn-Traumas mit Würdigung der Hirndruckmessung bringen. Betsch (1993) hat sich in seiner Dissertation speziell mit den technischen Problemen der für die klinische Routine in Deutschland bevorzugten epiduralen ICP-Messung befasst. Die aufgeführten Arbeiten enthalten umfangreiche weiterführende Literaturhinweise, sodass im Folgenden auf Zitate verzichtet wird.
41.2.2 Physiologie des Hirndrucks
Das Zentralnervensystem (ZNS) schwimmt im Liquor cerebrospinalis (CSF; »cerebrospinal fluid«) und ist von der harten Hirnhaut (Dura mater) umschlossen. Dabei bildet der Schädel nach Schließen der Fontanellen eine feste Hülle des Hirns, während der Lumbalsack, der das Rückenmark schützt, eine begrenzte Ausdehnungsmög-
lichkeit besitzt. Das Erwachsenenhirn enthält etwa 1500 ml Parenchym und je 120 ml Blut und Liquor. Die interstitielle Flüssigkeit trägt zu 10–15% des Hirngewichts bei. Ständig wird in den Ventrikeln Liquor als »Blutfiltrat« gebildet (ca. 500 ml/Tag) und fließt in den Subarachnoidalraum, eine wenige Millimeter dicke Schicht zwischen ZNS und Dura. Schließlich wird der Liquor wieder über druckempfindliche ventilartige Zotten (Pacchioni-Granulationen) vom venösen Kreislauf resorbiert. Das Resultat von Produktion und Resorption ist ein normaler Hirndruck von 5–15 mmHg. Da die Liquorproduktion weitgehend unabhängig vom ICP ist, bestimmt der Venendruck wesentlich den mittleren Hirndruck. Hirndruckbereiche (ICP) beim Erwachsenen: normal
5–15 mmHg,
leicht erhöht
15–20 mmHg
therapiepflichtig
20–40 mmHg
schwerste Erhöhung
>40 mmHg
Raumfordernde Prozesse einer Hirnkomponente – z. B. beim Ödem – bedingen eine reziproke Volumenänderung wenigstens einer der übrigen Komponenten, wenn der Hirndruck konstant bleiben soll. Bis zu einem ICP von etwa 15 mmHg verhindern dabei homöostatische Regelmechanismen eine Mangeldurchblutung des Gehirns. Zunächst kann Liquor in den dehnbaren Lumbalsack getrieben werden, bei weiterer Raumforderung wird auch mehr Liquor venös resorbiert. Schließlich kann noch das venöse System komprimiert und damit das Blutvolumen im Hirn reduziert werden. Sind diese Kompensationswege ausgeschöpft, droht eine Einklemmung des Hirngewebes im Tentorialspalt mit schnell wachsendem ICP. ⊡ Abb. 41.4 zeigt schematisch diese Druck-VolumenBeziehung. Ist die homöostatische Autoregulation erschöpft (ICP>15 mmHg) oder defekt, so folgt die zerebrale Blutperfusion und damit die Sauerstoffversorgung des Gehirns der Druckdifferenz zwischen arteriellem Zufluss und venösem Abfluss. Diese Druckdifferenz entspricht weitgehend dem zerebralen Perfusionsdruck CPP=SAP– ICP als mittlere Differenz aus systemischem arteriellen Druck und Hirndruck. Perfusionsdruckbereiche (CPP): normal
50–150 mmHG, typ. 80 mmHg
Mangelperfusion
<50 mmHg
Therapeutische Maßnahmen zur Hirndrucksenkung dürfen den CPP nicht unter 50 mmHg absenken; neben dem ICP ist daher immer auch der CPP zu überwachen! Der normale Hirndruck ist nicht statisch, sondern von dynamischen Komponenten überlagert, die von arteriellen Blutdruckwellen und venös übertragenen Atem-
689 41.2 · Intrakranieller Druck (ICP)
druckschwankungen herrühren. Während der spontanen Inspiration fällt der ICP und steigt wieder bei der Exspiration (⊡ Abb. 41.5). Der Druckverlauf einzelner ICP-Pulse zeigt noch eine ausgeprägte Feinstruktur bei normalem Hirndruck, die sich mit wachsendem ICP verändert und allmählich verschwindet (⊡ Abb. 41.6). Die Klärung der klinischen Relevanz dieses Phänomens ist jedoch noch Gegenstand der Forschung. Pathologische Werte des Hirndrucks treten häufig in Wellen auf. Plateau- oder A-Wellen sind ICP-Anstiege auf ein Niveau von 50–100 mmHg für Dauern von 5–20 min. Offenbar hängen A-Wellen mit Phasen zerebraler Vasodilatation und damit vermehrter Blutfülle zusammen. B-Wellen sind plötzliche ICP-Sprünge von normalen Werten in den Bereich von 30–60 mmHg mit
einer Häufigkeit von etwa einem Sprung pro Minute. Die Wellen werden häufig beim SHT beobachtet und sind durch Störungen der Liquorzirkulation und ebenfalls Schwankungen der zerebralen Blutfülle bedingt. C-Wellen sind Druckoszillationen mit geringerer Amplitude bis zu 20 mmHg und Frequenzen von etwa 6 pro Minute. Sie korrelieren mit Traube-Hering-Mayer-Oszillationen des arteriellen Blutdrucks. Intrakranielle Raumforderungen führen leicht zu Zirkulationsbehinderungen oder gar Gewebeeinklemmungen im Bereich der Foramina der Septen, insbesondere bei schnellen Prozessen. Dann treten Druckgradienten zwischen den kraniospinalen Kompartimenten auf, die eine Indikation zur ICP-Überwachung an mehreren Orten sein können; jedenfalls ist der ICP im Bereich der Läsion zu überwachen!
⊡ Abb. 41.4. Intrakranielle Druck-Volumen-Charakteristik (schematisch)
⊡ Abb. 41.5. Dynamische Komponenten des Hirndrucks eines Säuglings mit Hydrozephalus
⊡ Abb. 41.6. Feinstruktur der ICP-Pulskurve, druckabhängig
41
690
Kapitel 41 · Zerebrales Monitoring
41.2.3 Hirndruckmessung als
Therapiekontrolle
IV
Ziel der Therapie des überhöhten Hirndrucks ist es, Sekundärschäden des ZNS zu vermeiden. Kopf- und Nackenlage sind kritisch zu beachten, da sie das zerebrale venöse Blutvolumen und damit den ICP deutlich beeinflussen können. Eine leichte Kopfhochlage senkt den zerebralen Venendruck und ICP. Hyperventilation führt über die begleitende Hypokapnie zu einer Vasokonstriktion mit Minderung der intrakraniellen Blutfülle. Bei längerer Hyperventilation birgt die verminderte Blutperfusion jedoch die Gefahr einer Hypoxie, in deren Folge ein ICP-steigerndes Hirnödem entstehen kann. Dehydrierende und diuretische Medikamente zur Osmotherapie sind nur zur akuten Senkung eines erhöhten ICP geeignet, wegen unerwünschter Nebenwirkungen nicht aber zur Therapie des Hirnödems. Eine Barbituratbehandlung mit Herabsetzung des Hirnstoffwechsels senkt den zellulären Sauerstoffverbrauch und schützt vor Dauerfolgen einer Hypoxie. Längerfristige hohe Barbituratdosierungen senken jedoch den arteriellen Blutdruck mit der Gefahr eines zu geringen Perfusionsdrucks CPP. Es gibt also keine prophylaktische Dauertherapie gegen überhöhten Hirndruck. Die verschiedenen Therapieformen sollten immer unter Hirndruck-Kontrolle geführt werden. Beim SHT gelten die ersten 48 h nach der Verletzung als besonders kritisch, in den meisten Fällen muss der ICP nicht länger als eine Woche überwacht werden. Verschiedene Studien haben gezeigt, dass mit Einführung der Hirndrucküberwachung die Letalität um etwa 40% gesenkt wurde, ohne Steigerung der Morbidität. Die Methoden der Hirndruckmessung sind
⊡ Abb. 41.7. Technische Möglichkeiten zur klinischen Hirndruckmessung
nach dem heutigen Stand der Technik immer noch invasiv, unterscheiden sich jedoch in ihrem Infektionsrisiko (⊡ Abb. 41.7, auch 4-Farbteil am Buchende): 1. Messung des intraventrikulären, intraparenchymalen oder subduralen Drucks über Katheter, 2. Messung des epiduralen Drucks mit Miniaturdruckwandlern oder über pneumatische Sensoren. Ungewöhnlich hohe Anforderungen sind an die Nullpunktstabilität der Sensoren (Drift ≤ 2 mmHg/Tag) zu richten, da der ICP selber ein Niederdrucksignal ist. Viele Sensoren sind jedoch nach Applikation v. a. wegen Feuchtigkeitsdrift weniger stabil und erfordern daher einen regelmäßigen Nullpunktabgleich. Wenn die Feinstruktur der Pulswellen interessiert, muss das Messsystem eine Bandbreite von etwa 20 Hz (bei Säuglingen 40 Hz) haben, allerdings genügt eine Bandbreite von etwa 3 Hz, um die ICPPulsamplitude mit ausreichender Dynamik zu erfassen. Alle Methoden erfordern ein Schädelbohrloch für die Sensorapplikation. Zur intraventrikulären ICP-Messung wird ein Katheter durch die geschlitzten Hirnhäute und das Parenchym bis in die Seitenventrikel geschoben und der Druck extern wie bei der Blutdruckmessung üblich erfasst. Der externe Drucksensor muss dabei genau auf Höhe der Seitenventrikel liegen, um hydrostatische Fehler zu vemeiden (1 mmHg = 13 mm Liquorsäule). Diese Methode gilt als »golden standard« und hat den Vorzug, dass akute Hirndruckanstiege häufig per Liquordrainage therapiert werden können. Probleme: bei fortgeschrittener Raumforderung und daher engem Ventrikel ist die Katheterapplikation schwierig bis unmöglich, ein wohlapplizierter Katheter kann verstopfen – und v. a. steigt das Infektionsrisiko im immunschwachen intrazerebralen
691 41.2 · Intrakranieller Druck (ICP)
Raum erheblich nach etwa 2 Tagen. Infektionen schleichen sich über die oszillierende Flüssigkeitssäule im Katheter ein (Puls- und Atmungswellen), in der Bakterien gegen Spülfluss und Schwerkraft mit etwa 1,5 m/24 h wandern. Deshalb hat sich in der klinischen Routine die epidurale Hirndruckmessung 2) auf der geschlossenen Dura mater gegenüber den Methoden 1) weitgehend durchgesetzt. Wenn trotzdem Infektionen auftreten (selten), sind sie meist leicht zu beherrschen. Obwohl auch dieses Verfahren ein Bohrloch in der Schädelkalotte erfordert, gilt es daher als vergleichsweise geringinvasiv. Problem: die epidurale Sensorapplikation erfordert erhöhte »handwerkliche« Sorgfalt, um Duraartefakte zu vermeiden. Dies wird in der Routine häufig vernachlässigt, mit der Folge fehlerhaft überhöhter epiduraler ICP-Werte. Die Druckmessung auf der geschlossenen Dura basiert auf dem Prinzip der Applanationstonometrie, das auch die Augeninnendruckmessung ermöglicht. Der Drucksensor selbst ebnet die Dura an der Applikationsstelle, sodass die Du-
raspannung keinen Einfluss mehr auf das Messergebnis haben kann. ⊡ Abb. 41.8 stellt dieses Prinzip schematisch dar, einschließlich Fehlereinflüssen durch Knochenreste oder Blutkoagel auf der Dura, die sich als »Wilhelm-TellEffekt« messwerterhöhend auswirken, indem sie Komponenten der Duraspannung dem reinen Drucksignal überlagern. Voraussetzungen für eine korrekte epidurale ICP-Messung sind demnach: Bohrloch auf der Seite der Läsion anlegen; Dura mit stumpfem Haken in einem Bereich von ca. 10 mm von der Tabula interna lösen, damit sie sich ohne Randspannung an die Messmembran anlegen kann; sorgfältige Blutstillung im Bereich der Applikationsstelle (Knochenwachs, etc.) und Spülung der Dura. Es ist daher vorteilhaft, wenn der Operateur die Applikationsstelle direkt betrachten kann (gegenüber einer Sensorapplikation zwischen Dura und Tabula interna). ⊡ Abb. 41.9a gibt als Beispiel die Technik der epiduralen Hirndruckmessung mit einem pneumatischen System
⊡ Abb. 41.8a–c. Prinzip der Applanationstonometrie. a Freier »Duraballon«, der ein Überdruckvolumen umschließt. Membran im Gleichgewicht der austreibenden Kraft F(ICP) und der resultierenden Gegenkraft aus der Duraspannung F(Dura), b steife Sensormessmembran applaniert die Dura, die Duraspannungskräfte kompen-
sieren sich [F(Dura)=0], sodass nur die dem ICP entsprechende Kraft F(ICP) messwirksam bleibt, c Durainhomogenitäten, Knochenreste oder Blutkoagel führen eine Duraspannungskomponente F(Dura) ein, die sich der Hirndruckkraft F(ICP) mit messwerterhöhender Wirkung überlagert
⊡ Abb. 41.9a,b. a Epidurale Applikation eines pneumatischen Einmalsensors, b intraventrikuläre Druckmessung
41
692
IV
Kapitel 41 · Zerebrales Monitoring
an. Die Sensoren sind Einmalsensoren, die über einen katheterähnlichen Schlauch den Druck im Sensorkopf pneumatisch übertragen. Für dieses Hirndruckmesssystem gibt es drei Sensortypen: zur Applikation konzentrisch im Bohrloch, zum Einschieben zwischen Tabula interna und abgelöster Dura sowie zur intraventrikulären ICP-Messung (⊡ Abb. 41.9b) mit der Möglichkeit der Liquordrainage über ein zweites Lumen.
Weber F, Pohl F, Hollnberger H, Taeger K (2005b) Impact of the Narcotrend Index on propofol consumption and emergence times during total intravenous anaesthesia with propofol and remifentanil: a clinical utility study. Eur J Anaesthesiol 22: 741–747 Wilhelm W, Kreuer S, Larsen R und die Narcotrend-Studiengruppe (2002) Narcotrend-EEG-Monitoring bei total intravenöser Anästhesie. Anaesthesist 51: 980–988 Zschocke S (2002) Klinische Elektroenzephalographie, 2. Aufl. Springer, Berlin Heidelberg New York Barcelona Hongkong London Mailand Paris Tokyo
Literatur zum Abschn. »EEG-Monitoring im Operationssaal und auf der Intensivstation«
Literatur zum Abschn. »Intrakranieller Druck (ICP)«
Bruhn J (2006a) Entropie. In: Wilhelm W, Bruhn J, Kreuer S (Hrsg) Überwachung der Narkosetiefe, 2. Aufl. Deutscher Ärzte-Verlag Köln, S 53–63 Bruhn J (2006b) BIS-Monitor. In: Wilhelm W, Bruhn J, Kreuer S (Hrsg) Überwachung der Narkosetiefe, 2. Aufl. Deutscher Ärzte-Verlag Köln, S 89–107 Bruhn J (2006c) Datex-Ohmeda Entropie-Monitor. In: Wilhelm W, Bruhn J, Kreuer S (Hrsg) Überwachung der Narkosetiefe, 2. Aufl. Deutscher Ärzte-Verlag Köln, S 133–145 Freye E, Levy JV (2005). Cerebral monitoring in the operating room and the intensive care unit: an introductory for the clinician and a guide for the novice wanting to open a window to the brain. Part I: The electroencephalogram. J Clin Monit Comput 19: 1–76 Kugler J (1981) Elektroenzephalographie in Klinik und Praxis. Thieme, Stuttgart New York Rundshagen I, Dressler I, Thattamanil N et al. (2004) Hat die EEG-gestützte Narkoseführung einen Einfluss auf die Erholung der psychomotorischen Funktionen in der frühen postoperativen Phase? Abstractband DAC: 140 Schultz A, Grouven U, Beger FA et al. (2004) Age-related effects in the EEG during propofol anaesthesia, Acta Anaesthesiol Scand 48: 27–34 Schultz A, Lüllwitz E, Schultz B et al. (1999) EEG-gesteuerte Narkosen bei Tumorkraniotomien. Anästhesiol Intensivmed 40: S 205 Schultz B (2006) EEG-Monitoring auf der Intensivstation. In: Wilhelm W, Bruhn J, Kreuer S (Hrsg) Überwachung der Narkosetiefe. 2. Aufl., Deutscher Ärzte-Verlag Köln, S 300–317 Schultz B, Beger FA, Weber BP et al. (2003a) Influence of EEG monitoring on intraoperative stapedius threshold values in cochlear implantation in children. Paediatr Anaesth 13: 790–796 Schultz B, Büttner NA, Schönberg G et al. (2006) EEG-gestützte Narkoseüberwachung: Untersuchung hinsichtlich einer EEG-adaptierten Propofoldosierung. Klin Neurophysiol 37: 1–5 Schultz B, Kreuer S, Wilhelm W et al. (2003b) Der Narcotrend-Monitor – Entwicklung und Interpretationsalgorithmus. Anaesthesist 52: 1143–1148 Schultz B, Schultz A, Grouven U et al. (2001) EEG-Monitoring bei plastisch-chirurgischen Intensivpatienten – Indikationen und Erfahrungen. Handchir Mikrochir Plast Chir 33: 129–132 Schulze K, Kraus G, Nordhausen R et al. (2004) DRGs: Fast-TrackAnästhesie in der Thoraxchirurgie – total intravenöse Anästhesie (TIVA) mit EEG-Monitoring. Anästhesiol Intensivmed 45: 746–747 Stöhr M, Kraus R (2002) Einführung in die klinische Neurophysiologie. Steinkopff, Darmstadt Weber F, Hollnberger H, Gruber M et al. (2005a) The correlation of the Narcotrend Index with endtidal sevoflurane concentrations and hemodynamic parameters in children. Paediatr Anaesth 15: 727–732
Allen R (1986) Intracranial pressure: a review of clinical problems, measurement techniques and monitoring methods. J Med Eng Technol 10: 299–320 Betsch HM (1993) Experimentelle und klinische Untersuchungen über Fehler und Artefakte der epiduralen Hirndruckmessung. Inauguraldiss., Universität Heidelberg Gaab MR, Heissler HE (1984) ICP Monitoring. Crit Rev Biomed Eng 11/3: 189–250 Lundberg N (1960) Continuous recording and control of ventricular fluid pressure in neurosurgical practice. Acta Psychiatr 36 (Suppl. 149) Steinbereithner K, Mauritz W, Sporn P (1985) Therapie des SchädelHirn-Traumas – aktueller Stand. Notfallmedizin 11: 1002–1013
42 Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme M. Nagel, A. Bindszus 42.1
Kardiotokographie (CTG) – 693
42.1.1 42.1.2 42.1.3 42.1.4 42.1.5 42.1.6 42.1.7 42.1.8
Einsatzbereiche – 693 Messverfahren – 693 Direkt-EKG-Messverfahren – 694 Toco-Messverfahren – 694 Intrauterine Druckmessung – 694 Messung der fetalen Sauerstoffsättigung – 695 Zusatzfunktionen und Optionen – 695 Auswahlkriterien für CTG – 696
42.2
Geburtenüberwachungssysteme – 696
42.2.1 Einsatzbereiche – 696 42.2.2 Systemaufbau – 696 42.2.3 Datenerfassung und -aufbereitung der angeschlossenen CTG – 698 42.2.4 Auswertung der CTG-Daten und Alarmierung – 699
42.1
42.2.5 42.2.6 42.2.7 42.2.8 42.2.9 42.2.10 42.2.11 42.2.12 42.2.13
Präsentation der CTG-Daten – 700 Patientendatenmanagement – 701 Archivierung und Datenabruf auf Langzeitspeichermedien – 702 Rechner-Kommunikation im geburtshilflichen Umfeld – 703 Rechner-Kommunikation und Datenzugriff auf andere Krankenhaussysteme – 704 Kommunikation mit dem Krankenhausverwaltungsrechner – 706 Export der Patientendaten zu anderen Krankenhaussystemen – 706 Laborrechneranbindung – 706 Zugriff auf krankenhausinterne Rechnersysteme – 706
Kardiotokographie (CTG)
42.1.1 Einsatzbereiche
Die Kardiotokographie dient zur Überwachung der fetalen Herzfrequenz und Wehentätigkeit. Sie findet sowohl Einsatz bei der Geburtsvorsorge (antepartal, vorgeburtlich) als auch »unter der Geburt« (intrapartal) im Kreissaal. Die Geräte werden von Hebammen und Schwestern bedient. Die Auswertung der Kurven erfolgt ebenfalls durch Hebammen und Schwestern sowie durch die behandelnden Ärzte. Kardiotokographen erlauben in erster Linie die Überwachung der kindlichen Herzfrequenz und Wehentätigkeit mit externen und internen Messmethoden über sog. Aufnehmer (Transducer, ⊡ Abb. 42.1). Darüber hinaus erlauben einige Geräte auch die Messung der mütterlichen Herzfrequenz, sowie des Blutdruckes und der Sauerstoffsättigung der Gebärenden. ⊡ Tab. 42.1 stellt die verschiedenen Messverfahren gegenüber.
42.1.2 Messverfahren
Ultraschallmessverfahren Bei diesem Verfahren senden im Aufnehmer angebrachte Quarze hochfrequente Schallsignale aus. Diese Schallwellen werden durch das Körpergewebe unterschiedlich stark reflektiert und vom Aufnehmer wieder empfangen und verstärkt. Durch die Frequenzverschiebung der reflektierten Schallsignale (Dopplereffekt) werden Bewegungen
⊡ Abb. 42.1. Beispiele für Aufnehmer. Von links nach rechts: Zwei Ultraschallaufnehmer, Aufnehmer für Skalpelektrode, Aufnehmer für EKGElektroden, Toco-Aufnehmer und Markierer
erkannt. Eine Optimierung auf die Bewegungsmuster des fetalen Herzens und zusätzliche Signalaufbereitungsverfahren (Autokorrelation) ermöglichen es die Schlagfrequenz des fetalen Herzens sehr genau zu bestimmen. Zusätzliche Verfahren wie z. B. eine Tiefenselektion (entsprechend der Laufzeit der Ultraschallwellen im Gewebe) kommen zum Einsatz, um Störsignale von Bewegungen, die nicht vom fetalen Herzen kommen, auszublenden.
Kineto-CTG Mit Hilfe des oben beschriebenen Ultraschallmessverfahrens lassen sich auch die kindlichen Bewegungen im Mutterleib erfassen. Die für die Ableitung der fetalen Herz-
694
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
⊡ Tab. 42.1. Externe und interne Messmethoden mit Kardiotokographen Patient
Fetus
Mutter
Parameter
Externe Messmethode
Interne Messmethode
Aufnehmertyp
Einsatzbereich
Einheit
Aufnehmertyp
Einsatzbereich
Einheit
Herzfrequenz
Ultraschallsensor
Antepartal, intrapartal
1/min
Skalpelektrode
Intrapartal, Risikoschwangerschaft
1/min
Kineto-CTG
Ultraschallsensor
Antepartal, intrapartal
%
–
–
–
Sauerstoffsättigung
–
–
–
Fetaler Sauerstoffsensor
Intrapartal, Risikoschwangerschaft
%
Herzfrequenz
Hautelektrode, indirekt auch über Blutdruckmanschette oder Lichtsensor
Antepartal, intrapartal
1/min
–
–
–
Wehentätigkeit
Drucksensor (TocoTransducer)
Antepartal, intrapartal
Relativer Druck
Katheter mit Drucksensor
Intrapartal, Risikoschwangerschaft
mmHg oder kPa
Blutdruck
Druckmanschette
Bei Anästhesien
mmHg
–
–
–
Sauerstoffsättigung
Lichtsensor
Bei Anästhesien
%
–
–
–
IV
frequenz erst mal ausgeblendeten Signale können separat untersucht werden und liefern wertvolle Informationen über das fetale Bewegungsmuster. Bei diesem Verfahren werden die Bewegungen des Körpers und der Gliedmaßen des Feten ausgewertet. Neben der reinen Markierung von vorhandenen Aktivphasen kann von den Geräten auch eine prozentuale Angabe erfolgen, was die manuelle Auszählung der Bewegungsmuster einspart. Dieser zusätzliche Parameter gibt Auskunft über die Vitalität des Feten.
42.1.3 Direkt-EKG-Messverfahren
Bei diesem Verfahren wird eine sog. Skalpelektrode am Kopfe des Kindes befestigt. Über diese Elektrode wird das fetale EKG ermittelt und daraus die Herzfrequenz abgeleitet (⊡ Abb. 42.2). Es handelt sich hier um eine sogenannte interne Messung, die nur unter der Geburt durchgeführt werden kann, und zwar erst nach Sprung der Fruchtblase und wenn der Muttermund wenigstens bereits 2–3 cm geöffnet ist. Sie wird hauptsächlich dann eingesetzt, wenn Signalverlust der üblicherweise verwendeten Ultraschallaufnehmer keine verlässliche Beurteilung der Herzfrequenzkurve zulässt. Dies kann insbesondere in der späten Austreibungsperiode, z. B. durch heftigere Bewegungen der Patientin erforderlich sein. Gleichzeitig erlaubt die direkte fetale EKG-Messung die qualitative Analyse des fetalen EKGs, wobei insbesondere die Analyse der STStrecke im fetalen EKG (STAN) an Bedeutung gewinnt.
42.1.4 Toco-Messverfahren
Dieses Verfahren dient dazu, die Wehentätigkeit über druckempfindliche Sensoren aufzunehmen, wobei die Sen-
⊡ Abb. 42.2. Direkt EKG-Verfahren
soren die Verhärtung (Anspannung) des Uterusmuskels abtasten. Der gemessene Wert ist nur relativ und abhängig von vielen Faktoren, wie z. B. der Position des Aufnehmers. Darum muss die Anzeige nach Anlegen der Aufnehmer am Gerät zunächst auf einen Basiswert eingestellt werden. Ein absoluter Wert lässt sich bei diesem Verfahren jedoch nicht ermitteln – dazu ist eine Methode erforderlich, die im folgenden Abschnitt näher erläutert wird.
42.1.5 Intrauterine Druckmessung
Hierzu wird ein Katheter in den Uterus über die Vagina eingeführt. Der Katheter wird mit einer neutralen Lösung gefüllt und an einen Drucksensor angeschlossen. Mit diesem Verfahren wird der Druck absolut gemessen. Bei einer heute immer stärker verbreiteten Form von Aufnehmern befindet sich der Drucksensor direkt auf der Spitze eines flexiblen Stabes, der ebenfalls über die Vagina in
695 42.1 · Kardiotokographie (CTG)
⊡ Abb. 42.3. Intrauterine Druckmessung
den Uterus eingeführt wird (⊡ Abb. 42.3), dies erspart die umständliche und trainingsintensive Prozedur des Kathedersystemabgleichs.
42.1.6 Messung der fetalen
Sauerstoffsättigung Die kontinuierliche Überwachung der fetalen Sauerstoffsättigung erfolgt in der intrauterinen Umgebung mit Hilfe eines fetalen Sauerstoffsensors, der in den Geburtskanal eingeführt wird. Die fetale Pulsoximetrie (FSpO2) informiert über den Status der kindlichen Sauerstoffsättigung unter der Geburt und kann bei der Beurteilung von suspekten fetalen Herzfrequenzkurven hilfreich sein. Das Messverfahren entspricht dem aus der Intensivmedizin bekannten Pulsoximetrie Messverfahren, wobei für die fetale Anwendung besondere (Infrarot) Lichtwellenlängen eingesetzt werden und die Signale über wesentlich längere Zeiten gemittelt werden. Bei dem in ⊡ Abb. 42.4 gezeigten Sensor wird über Kontaktelektroden festgestellt, ob der Sensor richtig anliegt. Ein Vergleich der ermittelten Pulsrate mit der fetalen Herzfrequenz kann zusätzliche Sicherheit für die korrekte Sensorplatzierung geben. FSpO2 liefert numerische Werte für die Sauerstoffsättigung des funktionellen Hämoglobins im fetalen Arterienblut und wird im Kanal für die Wehentätigkeit protokolliert. Dieses Messverfahren ist für die Überwachung bei Risikogeburten gedacht, findet aber bislang nur wenig Einsatz.
42.1.7 Zusatzfunktionen und Optionen
⊡ Abb. 42.4a,b. Messung der fetalen Sauerstoffsättigung. a Sensorapplikation, b dem Fetus zugewandte Sesnorseite: 1 Kontaktelektroden, 2 IR-Lichtquelle, 3 Lichtsensor
▬
▬
▬ ▬
Zu den oben genannten Verfahren bieten die Gerätehersteller eine Fülle zusätzlicher Funktionen und Optionen an, die die tägliche Arbeit vereinfachen oder deren Qualität erhöhen. Dazu gehören z. B.: ▬ Automatische kanalübergreifende Herzfrequenzüberwachung. Das CTG überprüft dabei ständig, ob nicht auf dem fetalen Kanal versehentlich die mütterliche Herzfrequenz oder die des anderen Feten (bei Mehr-
▬
lingsüberwachung) überwacht wird (Cross-ChannelVerification, Coincidence Detection). Batteriebetriebene, wasserdichte Aufnehmer ermöglichen auch den Einsatz in der Badewanne zur Fortsetzung einer kontinuierlichen Überwachung bei der rein entspannenden Anwendung eines Bades bis hin zu Unterwassergeburten. Anschlussmöglichkeit an ein Telemetriesystem oder schnurlose Aufnehmer (⊡ Abb. 42.5) zur Überwachung ambulierender Patienten sowie zur Unterwasserüberwachung (⊡ Abb. 42.6) Integrierte maternale Messungen (Fetaler/Maternaler Monitor). Anschlussmöglichkeiten an Geburtenüberwachungssysteme zur zentralen Darstellung mehrerer Betten mit intelligenter Alarmierung und automatischer Archivierung der Überwachungsprotokolle und Patientenakten. Speicherung der Kurven mit der Möglichkeit der Fernübertragung per Telefon. Einsatzmöglichkeiten finden sich bei Entbindungen zu Hause oder zur Beratung kleinerer angeschlossener Kliniken.
42
696
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
▬ Erweiterbarkeit auf Systemschnittstelle für Systemanbindung; ▬ Anschlussmöglichkeit einer Telemetrie; ▬ kodierte Stecker oder automatische Erkennung der angeschlossenen Aufnehmer; ▬ latexfreie Aufnehmer und Zubehör; ▬ wasserdichte Aufnehmer für Reinigungszwecke; ▬ Möglichkeit der Integration von mütterlicher Herzfrequenz und Blutdruckmessung; ▬ einfache Bedienbarkeit. 2. Anforderungen im intrapartalen Bereich
IV ⊡ Abb. 42.5. Schnurloses Aufnehmersystem
Die hier aufgeführten Eigenschaften sind abweichend bzw. zusätzlich zu den unter 1. aufgeführten Eigenschaften im intrapartalen Anwendungsbereich erforderlich: ▬ ein oder zwei Ultraschallkanäle (zwei Kanäle, falls Zwillingsüberwachung notwendig), ▬ Direkt-EKG-Messung, ▬ Kanal zur intrauterinen Druckmessung, ▬ Kanal für mütterliches EKG (MECG), ▬ Möglichkeit der Integration von mütterlichen Vitalparametern (Blutdruck, SpO2, MEKG). 3. Optionale Funktionen
▬ Alarmierungsfunktionen für Tachykardie und Bradykardie sowie vorhandener mütterlicher Vitalparameter, ▬ Systemschnittstelle, ▬ zusätzliche Eingabemöglichkeiten (Strichcodeleser, Maus, Tastatur etc.).
⊡ Abb. 42.6. Unterwasserüberwachung mit Hilfe eines schnurlosen Aufnehmersystems
42.1.8 Auswahlkriterien für CTG
CTGs sollten folgende Anforderungen erfüllen: 1. Anforderungen im antepartalen Bereich
▬ Ein bis drei Ultraschallkanäle (zwei/drei Kanäle, falls Zwillings- bzw. Drillingsüberwachung notwendig); ▬ ein Toco-Kanal; ▬ Kineto-CTG; ▬ Schreiber mit wählbarer Papiergeschwindigkeit (1,2,3 cm/min); ▬ Digitalanzeige für Herzraten und Toco; ▬ Lautstärkeregelung für die Herztöne; ▬ geringe Energie des Ultraschallsignals; ▬ Autokorrelation des Ultraschallsignals; ▬ kanalübergreifender Signalvergleich (bei Mehrlingsüberwachung); ▬ Verfahren zur Verringerung von Artefakten (z. B. Tiefenselektion); ▬ montierbar auf Wagen oder an die Wand;
42.2
Geburtenüberwachungssysteme
42.2.1 Einsatzbereiche
Geburtenüberwachungssysteme finden Einsatz in antepartalen, intrapartalen und postpartalen Bereichen von Krankenhäusern mit 500 und mehr Geburten pro Jahr. Je nach Anforderung sind eine oder auch mehrere der folgenden Funktionen gefordert: ▬ zentrale CTG-Überwachung mit Bettenübersicht, ▬ automatische Alarmierungsfunktion, ▬ Patientendatenmanagementfunktionen, wie z. B. Erstellen und Verwalten einer elektronischen Patientenakte, ▬ Datenarchivierungs- und -abruffunktion auf Langzeitspeichermedien, ▬ Rechner-Kommunikation im geburtshilflichen Umfeld, ▬ Rechner-Kommunikation und Datenzugriff auf andere Krankenhaussysteme.
42.2.2 Systemaufbau
Das hier zur Illustration herangezogene kommerzielle System dient nur zur Erläuterung bestimmter aufgeführter Systemeigenschaften. Es ist nicht Sinn und Zweck die-
697 42.2 · Geburtenüberwachungssysteme
se Kapitels ein einzelnes System zu beschreiben. Grundlegendes Arbeitsgerät für den Benutzer ist eine Arbeitsstation, wobei es sich heute üblicherweise um einen in ein vernetztes System eingebundenen Personal Computer handelt. Je nach Arbeitsbereich und augenblicklichem Benutzer des PC werden unterschiedliche Funktionen angewendet und evtl. unterschiedliche Konfigurationen gefordert. Beispielsweise benötigt eine Hebamme die Möglichkeit, bei der Patientin vor Ort Untersuchungsergebnisse einzugeben, wohingegen der Arzt gern von seinem Zimmer aus auf alle Daten zugreifen möchte. Beispiele für die verschiedenen Arbeitsbereiche oder Einsatzgebiete für PC sind (⊡ Abb. 42.7): ▬ Zentralstation, ▬ Kreißsaal, ▬ Ambulanz, ▬ Arztzimmer, ▬ Schwesternaufenthaltsraum, ▬ Hebammenzimmer, ▬ Postpartaler Bereich, ▬ Neugeborenenkrippe. Entsprechend den oben genannten Einsatzgebieten übernimmt ein Rechner je nach Anforderung und Konfiguration eine oder mehrere Aufgaben, z. B. ▬ Datenerfassung und -aufbereitung der angeschlossenen CTGs, ▬ Auswertung der CTG-Daten und Alarmierung, ▬ Präsentation der CTG-Daten,
▬ Patientendatenmanagement erlaubt das Erstellen, Verwalten und Ausgeben der elektronischen Patientenakte und unterstützt den Arbeitsablauf in der Abteilung, ▬ Archivierung und Abruf aller Daten auf Langzeitspeichermedien, ▬ Rechner-Kommunikation im geburtshilflichen Umfeld, ▬ Rechner-Kommunikation und Datenzugriff auf andere Krankenhaussysteme. Bei allen Funktionen des Geburtenüberwachungssystems ist der Patientendatenschutz oberstes Gebot. Dies wird erreicht durch ▬ Einschränkung von Zugriffsberechtigungen im Rahmen eines Rollenmodells, ▬ Protokollierung aller Zugriffe und Transaktionen insbesondere Patientendatenänderungen und Konfigurationsänderungen, ▬ verschlüsselte Patientenidentifikation und Patientendaten in der Datenbank, ▬ verschlüsselte Kommunikation in Verbindung mit VPN, ▬ kein physikalischer Zugriff auf zentrale Systemkomponenten (Datenbankserver, WEB/Terminal Service Server, Netzwerkkomponenten wie Switches and Routers). In den folgenden Abschnitten wird näher auf die einzelnen oben genannten Funktionen und Funktionsweisen eingegangen.
⊡ Abb. 42.7. Arbeitsbereich in der Geburtenüberwachung
42
698
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
42.2.3 Datenerfassung und -aufbereitung
der angeschlossenen CTG
IV
Eine der wichtigsten Aspekte der Geburtenüberwachungssysteme ist die zentrale Überwachung der CTG-Daten der Schwangeren. Zu diesem Zweck werden die CTG an das System angebunden. Praktisch alle CTG bieten heutzutage Schnittstellen an, die eine Übertragung von Daten an ein Überwachungssystem erlauben. Folgende Arten kommen zum Einsatz: ▬ Digitale Anbindung – serielle Datenübertragungsprotokolle (standardisierte RS232-, RS422-, RS485-Schnittstellen mit proprietären Datenformaten), – Local Area Network (LAN) (standardisiertee Netzwerkprotokolle mit proprietären Datenformaten) ▬ Analoge Anbindung – Signalübertragung erfolgt über mehrere Leitungen entsprechend den – unterstützten Parametern. Die Signalpegel sind proprietär. Die digitale Anbindung zeigt sich der analogen aus folgenden Gründen überlegen: 4. umfangreichere Daten, 5. höhere Störsicherheit in der Übertragung, 6. flexibel bezüglich Änderungen im Funktionsumfang der CTG sowie 7. niedrigere Material-, Installations- und Wartungskosten. Die analoge Anbindung findet heute nur noch bei älteren CTG Geräten Verwendung. Bei der Wahl des Systems
⊡ Abb. 42.8. Beispiel von am CTG eingegebenen Notizen
bezüglich der Anbindung an das CTG sind die zu übertragenen Parameter von zentraler Bedeutung: ▬ Folgende Parameter sollten mindestens übertragen werden: – fetale Herzfrequenz – zusätzliche zweite fetale Herzfrequenz (Zwillingsüberwachung) – mütterliche Herzfrequenz, – TOCO, – automatische Zeitsynchronisation der CTG mit dem System, – CTG-Zustandsänderungen, z. B. Änderung des Aufnehmers, – Schreiberstatus. ▬ Die folgenden zusätzlichen Parameter oder Daten sind wünschenswert: – zusätzliche dritte fetale Herzfrequenz (Drillingsüberwachung) – zusätzliche maternale Parameter (z. B. SpO2, nichtinvasiver Blutdruck, Herzfrequenz), – fetale Sauerstoffsättigung, – am CTG eingegebene Notizen (⊡ Abb. 42.8, auch 4Farbteil am Buchende) (z. B. Vaginaluntersuchungen), – Kineto-CTG, – Ergebnis des kanalübergreifenden Signalvergleichs zur Vermeidung von Verwechselungen (Mutter – Fetus, Fetus – Fetus), – ST-Segment Analyse des mütterlichen EKGs (STAN), – Messung der auftretenden Kräfte bei der Saugglocken-Extraktion, – Automatische Übertragung von Muttermundsweite und Höhenstand des Kindes, – Fehler/ Störungen am CTG.
699 42.2 · Geburtenüberwachungssysteme
42.2.4 Auswertung der CTG-Daten
und Alarmierung Eine wichtige Funktion von Geburtenüberwachungssystemen ist die Auswertung der CTG-Daten, um den Benutzer ggf. auf Probleme beim Patienten aufmerksam zu machen. Die einfachste Methode besteht in einer Alarmierung bei Grenzwertüberschreitungen, d. h. übersteigt oder unterschreitet die fetale Herzfrequenz für einen gewissen Zeitraum einen bestimmten Grenzwert, so alarmiert das System den Nutzer. Eine »Schwäche« des Verfahrens liegt darin begründet, dass der Nutzer häufiger alarmiert wird
als notwendig, z. B. durch Fehlalarme oder Signalverluste. Verbesserte Verfahren, sog. intelligente Alarme, sind heutzutage in der Lage, den Signalverlauf der Herzfrequenz zu überwachen und sie auf gewisse verdächtige, gefährliche oder sogar pathologische Muster hin zu untersuchen und den Anwender darauf aufmerksam zu machen. Dies geht sogar soweit, dass Abhängigkeiten zwischen unterschiedlichen Parametern einbezogen werden, z. B. der Verlauf der fetalen Herzfrequenz in Relation zur Wehentätigkeit. ⊡ Abb. 42.9 erläutert die beiden Alarmierungsprinzipien, und ⊡ Abb. 42.10 ( auch 4-Farbteil am Buchende) zeigt ein Beispiel eines intelligenten Alarms.
Regelbasierende Alarmierung Kurven Parameter Extraktion Kontraktionen Dezelerationen Akzelerationen
Basislinie
Variabilität Bradykardie/ Tachykardie
Signal Verlust
Validierung der einzelnen Muster (Menge von Musterregeln)
Validierung kombinierter Muster (Menge von Klassifizierungsregeln)
Muster Analyse
Erweiterte Alarmierung
Schnelle Analyse
Einfache Alarmierung
⊡ Abb. 42.9. Schematische Darstellung der Alarmierung am Beispiel eines regelbasierten Algorithmus
⊡ Abb. 42.10. Beispiel eines intelligenten Alarms
42
700
IV
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
Die folgende Liste ist eine Zusammenstellung der Mindestanforderungen, die an die verschiedenen Verfahren gestellt werden sollten: 1. Alarmierung bei Grenzwertüberschreitung: – Alarmierung bei Tachykardie (einstellbarer Schwellwert und Zeitverzögerung), – Alarmierung bei Bradykardie (einstellbarer Schwellwert und Zeitverzögerung), – Signalverlust für einen zu definierenden Zeitraum. 2. Intelligente Alarmierung: – Erkennung von Akzelerationen und Dezelerationen sowie die Typen (z. B. frühe Dezeleration, späte Dezeleration etc.), – Erkennung von Wehen, – Bestimmung der Basislinie, – Erkennung der Variabilität. Von besonderer Bedeutung bei der Alarmierung ist auch das Bedienkonzept und die Art der Alarmierung. Prinzipiell kann ein Alarm optisch oder akustisch erfolgen. Im ersten Fall beginnt gewöhnlich ein Teil des Bildschirms, z. B. eine Alarmglocke, auffällig zu blinken. Im zweiten Fall erfolgt die Alarmierung durch ein akustisches Signal. Die Lautstärke des akustischen Alarms sollte einstellbar sein. Manche Systeme ermöglichen es auch, die Alarme mit der zentralen Rufanlage zu verbinden. Ein anstehender Alarm sollte (falls nicht anders konfiguriert) immer zum Benutzer durchdringen, unabhängig davon, an welcher Arbeitsstation er gerade angemeldet ist oder bei welcher Bildschirmmaske er sich augenblicklich aufhält. Die Art der Alarmierung sollte von der Verantwortlichkeit
⊡ Abb. 42.11. Beispiel für eine Übersichtsdarstellung
des Benutzers abhängig und konfigurierbar sein, z. B. nur optische Alarme oder nur akustische. Alarme sollten immer bestätigt werden. Die Bestätigung sollte automatisch dokumentiert werden und eventuell mit Kommentar versehen werden können.
42.2.5 Präsentation der CTG-Daten
Wie bereits erläutert, stellt die zentrale Überwachung der Schwangeren eine der wichtigsten Aufgaben des Systems dar. Zu diesem Zweck sollte das System über eine Reihe von verschiedenen Darstellungsmöglichkeiten der CTG-Kurven verfügen, wie z. B. Übersichtsdarstellung in verschiedenen Konfigurationen (2-, 4-, 6-, 9-, 12-, 16- Betten-Übersichten), Einzelbettdarstellung und komprimierte Einzelbettdarstellung (⊡ Abb. 42.11, auch 4-Farbteil am Buchende). Jeder PC sollte individuell einstellbar sein, um ein Maximum an Flexibilität zu garantieren. Zumindest in der Einzelbettdarstellung sollte eine schnelle Durchsicht der Kurven (»schnelles Rollen«) möglich sein. Bei der Wahl des Systems ist auf Folgendes zu achten: ▬ Das Verhältnis von Zeitachse zu Herzfrequenz sollte gewahrt bleiben (1:1 Abbild des CTG-Schriebes). Dies gilt sowohl für die Präsentation auf dem Bildschirm also als auch beim Drucken; ▬ die Übersichtsbildschirme sollten in verschiedenen Darstellungsformen konfigurierbar sein, z. B. 2-, 4-, 6-, 9-, 12-Betten-Übersichtsdarstellung unter Wahrung des Seitenverhältnisses (CTG Schrieb);
701 42.2 · Geburtenüberwachungssysteme
▬ zumindest in der normalen und komprimierten Einzelbettdarstellung sollte ein Blättern möglich sein. Es ist darauf zu achten, dass das Blättern bis an den Anfang, d. h. zur ersten CTG-Kurve nach der Aufnahme möglich ist und nicht in den CTG-Kurven nur der letzten 12 oder 24 h; ▬ zumindest in der normalen Einzelbettdarstellung sollte es möglich sein, Notizen direkt zu annotieren.
42.2.6 Patientendatenmanagement
Die Anforderungen an ein heutiges Patientendatenmanagement umfassen einen sehr weiten Rahmen, der mit dem ersten Patientenbesuch beginnt, sich über den gesamten Schwangerschafts- und Geburtsverlauf sowie den Geburtsausgang erstreckt und für die Mutter im postpartalen Nachfolgebereich und für den Neugeborenen in der Krippe endet. Natürlich kann auf vorhergehende Schwangerschaften und Geburten zugegriffen werden (⊡ Abb. 42.12, ⊡ Abb. 42.13). Das Patientendatenmanagement in der Geburtshilfe ist dadurch gekennzeichnet, dass wir es mit mehreren »Patienten« zu tun haben (⊡ Abb. 42.14): Der Mutter, dem Fetus und später dem oder den Neugeborenen. Der Fetus wird typischerweise bei der Mutter mitverwaltet, das oder die Neugeborenen erhalten eine eigene Patientenakte bzw. eine eigene Identität.
Generell kann der Aufgabenbereich des Patientendatenmanagements in drei Klassen eingeteilt werden: Organisation, Dokumentation und Qualitätssicherung. Die lückenlose Führung der Patientenakte durch Speicherung aller eingegebenen und automatisch erfassten Patientendaten sichert ein verbessertes Patientenmanagement durch ständige Verfügbarkeit aller aktuellen und früheren Daten einer Patientin. Natürlich sollten die Daten auf der ganzen Abteilung schnell und einfach verfügbar sein. Die lückenlose Führung der Patientenakte ermöglicht auch die statistische Auswertung und Berichterstellung für Verwaltung, Forschung und zur Qualitätssicherung. Die Dateneingabe sollte problemlos an die Anforderungen der jeweiligen Patientin angepasst werden und einen krankenblatt-basierenden Patientenbericht erstellen können, der i. d. R. folgende Informationen enthalten sollte: ▬ Datenerhebung/ Dateneingabe: – vordefinierte / konfigurierbare Eingabemasken, die alle Belange der erforderlichen Patientendokumentation abdecken, – Partogramm (⊡ Abb. 42.15, auch 4-Farbteil am Buchende), – Plausibilitätsprüfungen bei der Eingabe. ▬ Patientenverwaltung: – Aufnahme, Verlegung und Entlassung, – Leistungserfassung, – Zustimmung zum Kaiserschnitt, – Übergabe des Kindes an die Eltern.
Continuum of Care: Patient Flow for Obstetrics See Hospital L&D or Birth Center Patient Flow
Private OB-Gynand/or Clinic Pre-Pregnancy Fertility, sterility and genetic counseling
Weeks 7 20/25 of Pregnancy
Weeks 26 33 of Pregnancy
Weeks 34 36 of Pregnancy
Multipara ? via ultrasound IUGR? via ultrasound Hb re-ve check Rh-ve antibody check Blood pressure Weight Abdominal circumference Fetal movement activity Vaginal bleeding Antepartum FHR monitoring (NST) AFP levels (nervous system anomalies) Pre-term labor? Possible home uterine activity monitoring
Fetal Lie? Breech? Pelvic assessment Placenta Praevia? Blood pressure Weight Abdominal circumferance Antenatal fetal monitoring (NST) US imaging (Amniotic fluid volume, BPD, CRL...) Pre-term labor
Weeks 1-6 of Pregnancy
EDT/History Pregnancy testing and diagnosis Date of conception Examination Protein & glucose levels Infection present? Blood group (R-ve test) Rubella test Hb and red cell test Syphilis test HIV test Blood pressure Ultrasound scan Risk assessment
Bi-manual uterine exam hCG tests Chorionic villus sampling (9-11 weeks when appropriate) Cervical smear Ultrasound for CRL, BPD, etc.(16-18 weeks) Iron deficiency Blood pressure Weight Abdominal circumferance Pre-term labor? Fetal movement activity > 16 weeks Vaginal bleeding? hPL test? Doptone FHR sounds Amniocentesis from 35 years onwards 16 weeks gest.
> 42 Weeks of Pregnancy Post maturity 1/2 weekly visits to obstetrician Possible induction of labor
Weeks 37 40 of Pregnancy
Head engagement Blood pressure Weight Abdominal circum. Antenatal FHR monitoring (FHS) Amniotic fluid volume assessment (US imaging)
> 40 Weeks of Pregnancy
Imminence of labor? Cervical ripening? Effacement/station Onset of labor
HOSPITAL L&D or Birthing Center ⊡ Abb. 42.12. Continuum of Care – Die Schwangerschaft
42
702
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
Continuum of Care: Patient Flow for OB & Newborn Hospital L&D or Birth Center Labor & Delivery (Hospital/Birth Center)
IV
Admission CTG in L&D department Full and detailed clinical history Full examination including: fetal lie presenting part estimated size PROM
First Stage of Labor
Onset of labor Cervix dilates up to 10 cm. Fetal heart rate monitoring Possible rupture of membranes (ROM) Meconium present? Analgesia/Anesthesia * Maternal monitoring O2 saturation NIBP EKG Epidural or possible general anesthetic with C-section
Second Stage of Labor
Third Stage of Labor and Delivery
Full dilation of cervix FHR monitoring Delivery of baby Possible episiotomy Possible forceps vacuum extraction Possible C-section Baby cleaned of mucus Cord clamped and divided Weigh & measure baby, plus preliminary exam APGAR score Blood gas values (cord)
Expulsion of the placenta and membranes Examination of complete placenta
Mother Recovery
Post Partum
Third Stage of Labor and Delivery Fetal outcome?
Post Delivery
Discharge
Well baby nursery or »rooming-in« concept First full exam at 24 hours Urine passage Meconium passage Eyes Fontanelle eflexes (CNS) Hearing Hips Abdomen Genitalia Heart (murmur?) Possible phototherapy
NICU
Discharge examination Blood tests Jaundice Heart murmur
HOME
⊡ Abb. 42.13. Continuum of Care – Geburtsvorgang, Postpartum und Neugeborenenkrippe
▬ Berichtsschreibung: – Arztbrieferstellung mit vordefinierten/konfigurierbaren Masken und Texten, – Auftrag an Transportdienst, – Verlegungsbericht, – Geburtsbericht, – Entlassungsmitteilung der Mutter an Krankenhausverwaltung, – Entlassungsbericht des Neugeborenen an die Krankenhausverwaltung, – Entlassungsbericht der Mutter/Kindes an den niedergelassenen Arzt, – Geburtenanzeige beim Standesamt. ▬ Routinedokumentation: – Etikettenerstellung, – Mutterpass, – Geburtenbuch, – Ausdruck der vollständigen Patientenakte. ▬ Statistiken, Trendanalyse und Reports: – Adhoc Datenbankabfragen, – wöchentliche, monatliche oder jährliche Geburtenstatistiken, – spezielle Statistiken: z. B. Kaiserschnitt pro Arzt, durchschnittliche Verweildauer der Patienten, auffällige Ereignisse, – spezielle QA Statistiken.
Patient Model: Mother and Newborn Mother
Pregnancy 1
Pregnancy 2
Baby 1
Episode 1
Episode 2
Pregnancy 3
Baby 2
Episode 3
⊡ Abb. 42.14. Die drei Patienten (Mutter, Fetus, Neugeborenes)
42.2.7 Archivierung und Datenabruf
auf Langzeitspeichermedien Für viele Krankenhäuser haben in den letzten Jahren die elektronische Datenarchivierung und der elektronische Datenabruf an Bedeutung gewonnen. Dies ist insbesondere auf die erhöhte Anzahl von Rechtsstreitigkeiten von Eltern geschädigter Kinder zurückzuführen, aber auch auf medizinisches Interesse an der nachträglichen Ana-
703 42.2 · Geburtenüberwachungssysteme
⊡ Abb. 42.15. Dokumentationsbeispiel für einen krankenblatt-basierenden Patientenbericht (Partogramm)
lyse von Geburten. Die heute übliche Methode der Archivierung erfolgt häufig über optische Medien, die sog. WORM (»write once, read many«), bei denen die Daten nur einmal eingegeben, aber beliebig oft abgerufen werden können. Falls keine WORM-Medien verwendet werden, ist darauf zu achten, dass ein hinreichender Schutz vor Überschreibungen oder Löschungen gegeben ist. Dies ist aus rechtlichen Gründen notwendig, da es einem Benutzer nicht mehr möglich sein darf, auch Jahre später die Daten zu ändern. Die Hersteller von optischen Speichermedien garantieren heutzutage eine Lesbarkeit der Daten von 30 Jahren aufgrund eines beschleunigten Lebenszyklustestes. Die Langzeitspeicherung auf optischen Platten ermöglicht die vollständige Archivierung von Patientenakten (ambulant und stationär) und verringert das Risiko unauffindbarer Patientenakten oder CTGAufzeichnungen. Die »interessanten« Fälle gehen ohne optischen Speicher immer zuerst verloren und fehlen dann bei Gerichtsverhandlungen. Ein einfacher Zugriff auf die gespeicherten Informationen zur Überprüfung, Forschung oder zum Aufrufen eines abgeschlossenen Falls sollte gewährleistet sein. Eine Jukebox mit optischen Speichern kann Jahre an Patienteninformation im direkten Zugriff vorhalten. Unerlässlich für die Archivierung ist ein gutes Sicherheitskonzept. Für ein System, in dem nur die CTG-Kurven überwacht werden sollen, ist dies weniger von Bedeutung. Folgende Punkte sollten aber unbedingt erfüllt sein: 1. Sicherung der Stromversorgung über eine nichtunterbrechbare Stromversorgung (USV), an der die Server, das optische Laufwerk und die Netzwerkkomponenten angeschlossen sein sollten.
2. Sicherung der Daten auf dem Server entweder über a) Hochverfügbarkeitskonzept: Ein zweiter Server arbeitet parallel zum ersten. Im Falle eines Defekts übernimmt der intakte Server vollständig die Aufgaben, bis der andere wieder funktionsfähig ist; b) RAID-Technologie: Dies ist ein Verbund aus Festplatten, die die Daten selbsttätig redundant speichern. Fällt eine Festplatte wegen eines Defekts aus, kann sie während des Betriebs ausgetauscht werden. Das System sorgt automatisch dafür, dass die reparierte Platte wieder auf den aktuellen Stand kommt; 3. Erstellung von Sicherheitskopien der opt. Platten. Dadurch ist man in der Lage, das Original an einem feuergeschützten Ort aufzubewahren und die Kopie für die tägliche Arbeit zu benutzen.
42.2.8 Rechner-Kommunikation
im geburtshilflichen Umfeld Hier reden wir von der Kommunikation zwischen geburtshilflichen Abteilungen in verschieden Krankenhäusern einer Stadt, der Kommunikation mit kleineren ambulaten Kliniken, die mit einem Krankenhaus kooperieren, der Hebamme, die vor Ort CTGs erfasst, oder dem Arzt, der von zuhause oder von seiner Paxis aus Patientendaten beurteilen muss (⊡ Abb. 42.16). Geburtenüberwachungssysteme sollten die Patientenverlegung nicht nur von Bett-zu-Bett im eigenen Krankenhaus, sondern auch die Patientenverlegung in andere Krankenhäuser ermöglichen. Dadurch ist die Patientenakte auch
42
704
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
OB Trace Vue Beyond the Hospital Satellite hospital & clinics
Private MD offices Link between OB systems
Web access
Hospital Fetal trace Transmission
IV ⊡ Abb. 42.16. Geburtshilfe außerhalb des Krankenhauses
Web access Private MD homes
Patients & home care
⊡ Abb. 42.17. System mit Fernzugriff (Arzt zu Hause)
dort im direkten Zugriff. Dies kommt besonders dann vor, wenn die Frau mit ihrer früheren Entbindung nicht zufrieden war oder der Entbindungsort aus Dringlichkeitsgründen nicht mehr angesteuert werden kann (Verkehrsstau). In der Kommunikation des Arztes zu Hause oder in seiner Praxis spielt der WEB-Zugriff auf die Patientenakte eine große Rolle, vorausgesetzt das Krankenhaus besitzt die notwendige Infrastruktur gerade was die Sicherheit der Kommunikation anbelangt. Moderne CTG-Geräte erlauben die Übertragung von CTG-Kurven über das Telefon. Hier ist eine schnelle Konsultierung möglich, ob eine stationäre Aufnahme der Gebärenden erforderlich ist (⊡ Abb. 42.17, ⊡ Abb. 42.18, auch 4-Farbteil am Buchende).
42.2.9 Rechner-Kommunikation
und Datenzugriff auf andere Krankenhaussysteme Das Geburtsüberwachungssystem ist nur eines von vielen Systemen in einem Klinikum. Eine Einbindung in das Gesamtnetz ist von größter Wichtigkeit, sodass Insellösungen in den Hintergrund treten. Normalerweise verwendet man eine HL-7-basierte Schnittstelle zur Verbindung mit anderen Rechnersystemen. Die Einbindung kann sowohl als direkte Datenübertragung realisiert werden als auch durch Arbeitsplatzzugriff auf andere Systeme (⊡ Abb. 42.19).
705 42.2 · Geburtenüberwachungssysteme
⊡ Abb. 42.18. Identifizierung fernübertragener CTG-Daten per Telefonsymbol
Hospital Information System
Administrative Financial Applications Billing / Accts Rec Accounts Payable General Ledger Staffing / Scheduling Fixed Asset Mgmt Material Management Managed Care Contracts Abstracting Credentialing Cost Accounting Budget / Forecasting Utilization Review Time Keeping Patient Care Management Medical Records Registration Scheduling
EMR / CPR / CDR / Portal
Point of Care
Clinical IS
Clinical Applications Order Entry Pharmacy Radiology IS Physicians Practice Management Patient Care
Cardiac/Critical Care Monitoring Telemetry Central Stations Clinical Information Systems
Radiology X-Ray MRI CAT Ultrasound PACS
Lab Laboratory Pathology Blood Bank Microbiology
Labor & Delivery Fetal Monitoring Surveillance OB Info Systems
Cardiology ECG Holter Stress Cath Lab Electrophysiology Echocardiography Nuclear CHF Clinic MI/Chest Pain Clinic Cardiac Rehab PACS
Ancillary Dietary Respiratory Therapy Dictation Home Health Speech Department Admin
Surgery Monitoring Anes Charting Tracking OR Info Systems Emergency Dept Monitoring ED Info Systems
Middleware Interface Engine, EDI, paging, dictation, email, ad hoc reporting, asset management,
⊡ Abb. 42.19. Geburtshilfe und Krankenhaus
42
706
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
42.2.10
Kommunikation mit dem Krankenhausverwaltungsrechner
Die bidirektional Verbindung erlaubt hier die einfache Patientenaufnahme durch automatisiertes Einlesen von Personalien und ermöglicht die Meldung von Entlassungen und Verlegungen an den Krankenhausverwaltungsrechner.
42.2.11
IV
Export der Patientendaten zu anderen Krankenhaussystemen
Durch Datenexporte an ein Datenarchiv stehen Daten auch für andere Anwendungen zur Verfügung, z. B. für die krankenhausweite Patientenakte.
42.2.12
Laborrechneranbindung
Durch Datenimport von einem Laborrechner werden automatisch die Laborwerte in der Patientenakte dokumentiert.
42.2.13
Zugriff auf krankenhausinterne Rechnersysteme
Hier haben sich mehrere Verfahren herauskristallisiert: ▬ Der direkte Zugriff mittels einer Client-Applikation, die auf der geburtshilflichen Arbeitsstation installiert wurde; ▬ Der direkte Zugriff via Internet Explorer auf eine WEB basierende Applikation; ▬ Der indirekte Zugriff via WEB-basierenden Krankenhaus-Portalen. Eine visuelle Integration von geburtshilflicher Applikation und anderen Applikationen ist möglich, sofern die Applikationen ihren Kontext austauschen können. (Benutzerkontext und/oder Patientenkontext). Wechselt ein Benutzer innerhalb des Programms von einer Patientin zur nächsten, so erkennt dies das andere System und wechselt dann ebenfalls zur entsprechenden Patientin.
43 Neonatologisches Monitoring R. Hentschel
43.1 EKG
– 708
43.2 Impedanzpneumographie
– 709
43.3 Kombinierte kardiorespiratorische Analyse – 710 43.4 Pulsoxymetrie
– 710
43.8 Überwachung der Oxygenierung – welche Methode? – 714 43.9 Festlegung von Alarmgrenzen und Grenzwerten – 715 Weiterführende Literatur – 716
43.5 Transkutane Messung des Partialdrucks – 713 43.6 Messung des ptcCO2 (Transkapnode) – 713 43.7 Die Messung des ptcO2 (Transoxode) – 714
Kranke Neugeborene sind wegen ihrer im Vergleich zum Erwachsenen naturbedingten Hilflosigkeit auf sorgfältige Beobachtung angewiesen, wegen ihrer pathophysiologischen Besonderheiten unterscheidet sich das Monitoring z. T. erheblich von dem erwachsenener Patienten. Um dieses zu verstehen, ist es erforderlich, einige Besonderheiten der Neonatologie voranzustellen. Die wichtigsten Diagnosen neonatologischer Patienten sind: ▬ Frühgeburtlichkeit, ▬ Anpassungsstörungen von Atmung und Kreislaufsystem, ▬ Sepsis, ▬ angeborene Fehlbildungen, insbesondere des HerzKreislauf-Systems. Allen Neugeborenen gemeinsam ist eine Instabilität der Atmung und des Herz-Kreislauf-Systems. Je unreifer ein Frühgeborenes ist, desto eher bedarf es einer Beatmung oder Atemunterstützung wegen Lungenunreife (Surfactantmangel) oder ausgeprägter zentraler Atemregulationsstörungen. Als Folge von Atempausen (»zentrale Apnoen«), Verlegung der oberen Atemwege (»obstruktive Apnoen«) oder durch das typische Atemmuster des Frühgeborenen (»periodisches Atmen«) kommt es zum Abfall der O2-Sättigung mit nachfolgender Bradykardie. Die Untersättigung des Bluts tritt im Unterschied zum Erwachsenen extrem schnell ein, da die O2-Speicher, gemessen am O2-Bedarf, sehr gering sind. Bradykardien können andererseits auch durch Aktivierung von Vagusreflexen im Bereich des Rachens (Sekretansammlung)
spontan entstehen. Zentrale, obstruktive oder gemischte Apnoen sind ein zentrales Problem des Monitorings bei Frühgeborenen. Neugeborene weisen hinsichtlich ihrer Atmung zwei Besonderheiten auf: Sie sind obligate Nasenatmer, und sie atmen im Unterschied zum Erwachsenen überwiegend mit dem Zwerchfell. Da der Thorax des Frühgeborenen mechanisch sehr instabil ist, kommt es häufig zu einer »paradoxen« oder Schaukelatmung: Das Lungenvolumen, welches durch Tiefertreten des Zwerchfells in der Inspiration »gewonnen« wird, geht größtenteils durch Einwärtsbewegungen von Sternum und oberem Thorax wieder verloren. Vielfältige pathophysiologische Störungen, wie ▬ zerebrale Unreife, ▬ Hirnblutungen, ▬ Surfactantmangel, ▬ Infektionen, ▬ angeborene Stoffwechselstörungen, ▬ Elektrolytimbalancen, ▬ Krampfanfälle, ▬ Hypo- oder Hyperthermie, ▬ Hypoglykämien oder ▬ Anämie äußern sich in kardiorespiratorischen Störungen des Früh- und Neugeborenen. Aus dem Gesagten ist zu entnehmen, dass die folgenden Parameter im Zentrum des neonatologischen Monitorings stehen: ▬ 1-Kanal-EKG, ▬ Atmung,
708
Kapitel 43 · Neonatologisches Monitoring
▬ O2-Sättigung, ▬ transkutane Blutgaswerte, ▬ Blutdruck.
IV
Darüber hinaus spielt wegen der besonderen Thermolabilität von Früh- und Neugeborenen aber auch die Temperaturüberwachung eine große Rolle. Frühgeborene werden deshalb in Inkubatoren gepflegt. Frühgeborene sind hinsichtlich ihres O2-Status im Unterschied zum Erwachsenen besonders gefährdet. Eine toxische (zu hohe) inspiratorische O2-Konzentration kann, wie beim Erwachsenen, eine sterile Entzündungsreaktion der Lunge in Gang setzen und zu chronischen Lungenschäden führen. Darüber hinaus kann bei Frühgeborenen aber auch die gefürchtete Retinopathie der Netzhaut (eine Gefäßwucherung, die zur Erblindung führen kann) durch eine zu hohe inspiratorische O2-Konzentration mit nachfolgender Hyperoxie ausgelöst werden; diese Gefahr besteht bis zu dem Zeitpunkt, an dem ein Frühgeborenes seinen ursprünglich erwarteten Geburtstermin erreicht hat. Eine engmaschige Überwachung des O2-Status ist deshalb unumgänglich. Die inspiratorische O2-Konzentration wird bei beatmeten Patienten über das Beatmungsgerät eingestellt und auch überwacht. Auch bei Frühgeborenen, die spontan atmen oder an ein CPAP-Gerät angeschlossen sind, ist in jedem Falle ein O2-Überwachungsgerät anzubringen. Wird über eine Nasenbrille ein bestimmter Gasflow mit einer bestimmten O2-Konzentration gegeben, so erlaubt die Kenntnis dieser Größen nicht, die inspiratorische O2-Konzentration abzuschätzen, da das Kind »Nebenluft« atmen kann. Günstiger ist es, in dem »Mikroklima« des Inkubators eine bestimmte O2-Konzentration einzustellen und mit einem geeigneten Mess- und Alarmsystem zu überwachen. Wie beim Erwachsenen werden auch in der Neonatologie zumeist modulare Universalmonitoren eingesetzt, bei denen unterschiedliche Parameter mit jeweils einem eigenen Messmodul erfasst und an einem multichromen Mehrkanalmonitor sichtbar gemacht werden.
43.1
EKG
Das EKG registriert die elektrische Aktivität des Herzens in ihrer wechselnden Amplitude und wechselnden Richtung der elektrischen Hauptachse. Das 1-Kanal-EKG wird in herkömmlicher Weise, wie beim Erwachsenen, mittels EKG-Elektroden von den typischen Stellen am Brustkorb abgeleitet. Es empfiehlt sich gelegentlich eine Platzierung aller Elektroden am seitlichen Thorax, um bei den häufig durchzuführenden Röntgenbildern möglichst wenig Überdeckung der Lunge zu haben, sodass die Elektroden nicht zum Röntgen entfernt werden müssen. Elektroden können zu diesem Zweck auch auf Oberarme und Abdomen geklebt werden.
Da das 1-Kanal-EKG üblicherweise nicht der kardiologischen Diagnostik dient, sind Standardplatzierungen unnötig, die rote und gelbe Elektrode wird ansonsten in der elektrischen Herzachse angeordnet. Die Elektroden für Neugeborene sind kleiner als die des Erwachsenen, sie sind üblicherweise rückseitig mit einem Haftmittel beschichtet, das zugleich wie ein Kontaktgel den Übergangswiderstand herabsetzt. Bei Frühgeborenen ist auf Hautverträglichkeit des verwendeten Materials und auf Röntgentransparenz zu achten. Probleme treten bei reifen Neugeborenen kurz nach der Geburt besonders dann auf, wenn diese viel »Käseschmiere« besitzen; häufig ist es erst nach entfettenden Maßnahmen mit gut klebenden Elektroden möglich, eine EKG-Ableitung zu bekommen. Durch heftige (Atem-)bewegungen kommt es häufig zum »Verwackeln« des EKG; für die Registrierung der Herzfrequenz ist dies unkritisch, nicht jedoch für die gelegentlich erwünschte Registrierung von Rhythmusstörungen. Durch wechselseitiges Verschalten zwischen den 3 Brustwandelektroden ist es möglich, 3 unterschiedliche Ableitungen zu erhalten, vorausgesetzt, alle Elektroden haften gut. Die gewählte Verstärkung soll stets dazu führen, dass die Amplitude des kompletten EKG-Signals die gesamte Bandbreite des Monitorkanals ausfüllt; nur so lassen sich zuverlässig Störungen der normalen Erregungsausbreitung und ihrer Rückbildung (z. B. bei Hyperkaliämie) erkennen. Sicher lassen sich aus dem 1-Kanal-EKG aber nur folgende Diagnosen stellen: Bradykardie, Tachykardie, Asystolie, supraventrikuläre und ventrikuläre Extrasystolen, ektoper Rhythmus, Vorhof- und Kammerflattern oder flimmern. Automatische Auswertungen, wie Arrhythmiediagnostik, Vermessungen der EKG-Anteile u. Ä. sind in der Neonatologie nicht gebräuchlich. Die Positionierung der Elektroden ist, wie bereits erwähnt, hinsichtlich der Ableitung des EKG meist unkritisch, für die Ableitung der Thoraximpedanzkurve ist sie jedoch entscheidend und muss deshalb in dieser Hinsicht mit großer Sorgfalt ausgewählt werden (s. unten). Das 1-Kanal-EKG dient in erster Linie der Erkennung von Tachykardien und (häufiger) von Bradykardien. Zu diesem Zweck sind die Alarmgrenzen der Herzfrequenz entsprechend den Altersnormwerten einzustellen (⊡ Tab. 43.1). Die meisten Monitore bieten heute die Speicherregistrierung der Herzfrequenz und weiterer Parameter über wenigstens 24 h. Über einer unterschiedlich weit zu spreizenden Zeitachse lässt sich dann die Dauer einer Herzfrequenzabweichung exakt retrospektiv verfolgen. Wünschenswert ist darüber hinaus ein »Event-Recording«, das beim Auslösen eines herzfrequenzbezogenen Alarms eine Registrierung von 5–6 elektrischen Herzzyklen automatisch vornimmt, sodass eine spätere Analyse des Ereignisses in originalgetreuer Abbildung möglich ist. Leider stellen die meisten Monitore diese Ereignisse nur
43
709 43.2 · Impedanzpneumographie
⊡ Tab. 43.1. Normalwerte der Herzfrequenz (Mittelwert und einfache Standardabweichung). (Nach Stopfkuchen 1991)
⊡ Tab. 43.2. Normalwerte der Atemfrequenz (Mittelwert und einfache Standardabweichung). (Nach Stopfkuchen 1991)
Alter
Mittelwert+1SD (Schläge/min)
Alter
Mittelwert+1 SD (Schläge/min)
0–24 h
133
22
Frühgeborenes
50
10
1. Lebenswoche
119
16
Neugeborenes
40
10
31
8
2.–4. Woche
163
20
Säugling
1.–3. Monat
154
19
1.–4. Jahr
24
4
3.–6. Monat
140
21
5.–9. Jahr
20
2
6.–12. Monat
140
19
10.–14. Jahr
19
3
1.–3. Jahr
126
20
14.–16. Jahr
17
3
3.–5. Jahr
98
18
5.–8. Jahr
96
16
8.–12. Jahr
79
15
12.–16. Jahr
75
13
mit einer Kompression der Zeitachse dar, die eine genauere Rhythmusanalyse unmöglich macht. Wenigstens 20 Ereignisse sollten gespeichert werden können.
43.2
Impedanzpneumographie
Diese Methode erfasst Änderungen eines elektrischen Wechselstromwiderstands, der während eines Atemzyklus zwischen 2 Elektroden, wahrscheinlich durch Änderungen der Gefäßfüllung, auftritt. Durch die Anfälligkeit des Früh- und Neugeborenen für respiratorische Störungen gewinnt dieser Teil des Monitorings eine wesentliche Bedeutung in der Neonatologie. Die Methode kann über die vorhandenen EKG-Elektroden Atemfrequenz, Atemmuster, Amplitude und Atempausen sichtbar machen. Bei instabiler Atmung von Frühgeborenen sollte eine möglichst langsame Ableitegeschwindigkeit (z. B. 6 mm/ s) gewählt werden, da diese am ehesten Auskunft gibt über das Atemmuster (z. B. periodisches Atmen). Die Platzierung der Elektroden sollte im Bereich der größten Umfangsänderung während eines Atemzyklus erfolgen. Dieser liegt zwischen 2 Elektroden in der vorderen rechten und linken Axillarlinie im Bereich des Rippenbogens. Problematisch ist die große Variabilität des Atemmusters bei Früh- und Neugeborenen. Durch Unreife auf verschiedenen Ebenen der Atemregulation ist die Atmung nicht so autonom (»maschinenartig«) wie beim Erwachsenen. Es resultieren nicht nur ausgeprägte Atempausen, sondern auch Variationen der Amplitude und der Atemausgangslage. Die Registrierung und Verarbeitung der Thoraximpedanzkurve stellt deshalb erhebliche Anforderungen an die Software eines Monitors. Überwacht wird mittels altersangepasst einstellbarer Grenzen die Atemfrequenz (⊡ Tab. 43.2), die Häufigkeit
von Apnoen, gelegentlich auch die Dauer der einzelnen Apnoen. Unterschwellige Atempausen, die die gewählte Dauer einer definierten Apnoe nicht erreichen, können bei einigen Monitoren zu »Atemdefiziten« mittels einstellbarer Grenzwerte aufaddiert werden, um so periodisches Atmen erkennbar zu machen. Definitionsgemäß liegt eine Apnoe bei einem Atemstillstand von wenigstens 20 s Dauer vor. Es sollten aber auch andere Intervalle für die Überwachung frei gewählt werden können. Durch das im Vergleich zum Erwachsenen volumenmäßig stark überdimensionierte Herz (im Vergleich zum Thoraxvolumen) bilden sich Schwankungen der Herzgröße während eines normalen Herzzyklus bei entsprechender Verstärkung in der Impedanzpneumographie gelegentlich wie normale Atemzyklen ab. Dies gilt insbesondere bei der im Rahmen von kardialen Problemen (z. B. Ductus arteriosus) sehr häufig zu beobachtenden kardialen Hyperaktivität. In dieser Situation kann der Monitor u. U. die Herzaktion, die auch bei komplettem Sistieren der Atmung noch für eine Weile fortbesteht, fälschlicherweise für eine fortbestehende Atemtätigkeit halten. Durch Aktivierung eines Erkennungsmodus, der die registrierte Herzfrequenz mit der fälschlicherweise registrierten »Atemfrequenz« vergleicht, kann dieses Signalproblem erkannt werden, sodass Alarm ausgelöst wird. Zur Interpretation von kausalen Zusammenhängen ist es erforderlich, eine retrospektive Auswertung mit Bezug zu aktuellen Maßnahmen wie Nahrungssondierung, Versorgungszeiten oder Medikamentengaben zu bekommen. Nur dann ist es möglich, Aussagen über die mögliche Ätiologie einer Atemstörung zu machen. Die Registrierung eines kompletten Atemzyklus setzt einen Kurvenverlauf in jeweils gegengesetzte Richtungen (Inspiration und Exspiration) voraus, bei dem jeweils eine bestimmte Mindestamplitude, ausgehend von einem Minimal- bzw. Maximalwert, erreicht wurde. Die Amplitude kann entweder fest eingegeben werden, oder sie passt sich nach einem meist sehr komplizierten Algorithmus den wechselnden Atemtiefen an.
710
IV
Kapitel 43 · Neonatologisches Monitoring
Eine Verschiebung der Atemmittellage ist für die Erkennung eines Atemzuges meistens kein Problem. Dennoch wird gelegentlich fälschlicherweise eine Apnoe registriert. Moderne Monitoren sind in der Lage, die Größe der abgebildeten Amplitude und den Nulldurchgang innerhalb gewisser Grenzen so zu variieren bzw. automatisch anzupassen, dass eine einigermaßen realistische Abbildung des Atemmusters und damit eine optische Registrierung von Apnoen möglich wird. Nach jeder Änderung der Position von Elektroden, aber auch nach dem Umlagern des Patienten, muss die Monitoreinstellung für die Impedanzpneumographie neu justiert werden (Einstellung der Atemtiefe und der Amplitudengröße oder Anwahl der automatischen Einstellfunktion). Für die ungestörte Überwachung der Atmung werden die Elektroden üblicherweise bei Säuglingen sehr stark seitlich und tief (bezogen auf das gesamte Projektionsfeld Thorax–Abdomen) angebracht. Auch in dieser Position sollte eine ungestörte Ableitung des 1-Kanal-EKG möglich sein. Wünschenswert ist die Möglichkeit, in zwei übereinander liegenden Kanälen die thorakale und die abdominelle Impedanzpneumographie auf der Zeitachse zu registrieren. Idealerweise liegen die Amplitudenmaxima bei gleicher Ausrichtung der Ableitung exakt übereinander. Jede Phasenverschiebung zwischen beiden Ableitungen bedeutet eine Verminderung der Atemökonomie, im Extremfall liegt bei einer gegensätzlichen Auslenkung eine »paradoxe Atmung« mit völlig ineffektiver Atemarbeit vor (»thorakoabdominale Asynchronie«). Dieses teilweise zyklisch auftretende Phänomen findet sich bei bestimmten chronischen Lungenerkrankungen des Frühgeborenen (»bronchopulmonale Dysplasie«). Da es durch verschiedene Maßnahmen (Medikamente, Inhalationen, Blähmanöver, CPAP) u. U. gebessert werden kann, ist diese diagnostische Möglichkeit von großer Bedeutung. Leider ist diese Diagnostik mit Standardmonitoren bisher nicht möglich, es gibt jedoch spezielle Geräte, die zusätzlich zur Darstellung des Phänomens auch noch den Winkel der Phasenverschiebung exakt berechnen können.
43.3
Kombinierte kardiorespiratorische Analyse
Für die Erkennung der Ätiologie einer kardiorespiratorischen Störung des Frühgeborenen ist es wichtig, die genaue zeitliche Reihenfolge von Atmung (Atemmuster), Herzfrequenz und Sättigungsverlauf retrospektiv analysieren zu können. Nur dann ist es möglich, zu unterscheiden, ob eine primäre O2-Untersättigung zu einer Apnoe und dann zu einer Bradykardie geführt hat, ob eine primäre Reflexbradykardie zu einer Untersättigung mit nachfolgender Apnoe geführt hat, oder ob eine
primäre Apnoe eine Untersättigung mit anschließender Bradykardie ausglöst hat (⊡ Abb. 43.1). Zusätzlich wäre es wünschenswert, neben der retrospektiven Anlyse der O2-Sättigung auch die Kurvendarstellung zu sehen. Für einen derart großen Datenumfang sind die vorhandenen Speicherkapazitäten von Standardmonitoren leider zumeist nicht ausreichend. Die kardiorespiratorische Überwachunng oder Analyse hat ihre Bedeutung insbesondere im Bereich des Heimmonitorings von Säuglingen, die ein Risiko für den plötzlichen Kindstod (»SIDS«) aufweisen. Dieses sind insbesondere Geschwisterkinder von Säuglingen, die einen plötzlichen Kindstod erlitten haben, Kinder mit schweren neurologischen Störungen und Säuglinge, die fortwährende Atemstörungen aufweisen. Die alleinige Überwachung der Atmung geschieht z. B. mit einem mechanischen Applanationssensor (Graseby-Kapsel). Dieser Sensor registriert Druckänderungen innerhalb eines geschlossenen luftgefüllten Systems, wenn durch eine Atembewegung ein konvex gewölbter Ballon, der im Bereich des Abdomens auf die Haut geklebt wird, leicht komprimiert wird. Da er frustrane Atembewegungen und auch eine finale Schnappatmung mit begleitender Bradykardie nicht von einer effektiven Atmung unterscheiden kann, ist eine alleinige Überwachung des Säuglings nach dieser Methode heute nicht mehr der gültige Standard. Vielmehr ist eine Überwachung von Herzfrequenz und Atmung erforderlich. Dies geschieht üblicherweise mit der Impedanzpneumographie in Kombination mit einem 1-Kanal-EKG. Bei Sauerstoffbedarf ist eine zusätzliche pulsoxymetrische Überwachung erforderlich. Die meisten SIDS-Monitore haben die Möglichkeit, Alarmsequenzen und Trendkurven der überwachten Parameter aufzuzeichnen und mit einer speziellen Auswertesoftware offline auszuwerten.
43.4
Pulsoxymetrie
Die Pulsoxymetrie hat sich als kontinuierliches, nichtinvasives indirektes Messverfahren zur Standardmethode der Überwachung des O2-Status entwickelt. Es handelt sich um ein transmissionsphotometrisches Verfahren, bei dem nach dem Lambert-Beer-Gesetz die Konzentration von oxygeniertem und desoxygeniertem Hämoglobin gemessen wird. Diese beiden Hämoglobinformen weisen unterschiedliche spektrale Eigenschaften auf. 2 Leuchtdioden leiten im Bereich der Extinktionsmaxima beider Substanzen (sichtbarer Bereich ca. 660 nm und Infrarotbereich ca. 940 nm) Licht durch ein peripheres Körperteil, an der gegenüberliegenden Austrittsstelle befindet sich eine Photodiode. Aus der Schwächung beider Lichtstrahlen wird der prozentuale Anteil des gesättigten Hämoglobins errechnet.
711 43.4 · Pulsoxymetrie
⊡ Abb. 43.1. Impedanzpneumotachografie. Nasen-Flow, Abdomenbewegung, Herzfrequenz, Sauerstoffsättigung (von oben nach unten). Ausgeprägte, langdauernde, obstruktive Apnoe mit einem Fehlen des
Entscheidend ist dabei, dass das Messsystem eine Pulswelle registriert und damit nur den pulsatilen Anteil des Messsignals auswertet. Erkannt wird der pulsatile Anteil durch eine Verlängerung der Strecke, die die Lichtstrahlen in der arteriellen Füllungsphase im Gewebe zurücklegen. Ist keine Pulswelle erkennbar, zeigt das Gerät keine zuverlässigen Werte an; die Registrierung der Pulskurve (Plethysmogramm) ist deshalb elementarer Bestandteil jeder Pulsoxymetrie, wobei der Darstellung einer echten Pulskurve auf einer Zeitachse (x-Achse) der Vorzug zu geben ist gegenüber einem einfachen Leuchtdiodendisplay mit ansteigenden und abfallenden »Stufenwerten«. Aus der Pulskurve wird i. d. R. auch eine Pulsfrequenz errechnet. Die Pulskurve eignet sich auch als diagnostisches Mittel, um die Qualität der peripheren Pulswelle, z. B. bei einer Reanimation, darzustellen. In der Neonatologie werden keine Clipsensoren, sondern ausschließlich Klebesensoren oder weiche Kunststoffsensoren verwendet, die locker um die bevorzugten Ableitestellen gelegt und mit einem Klettbändchen fixiert werden (⊡ Abb. 43.2). Bevorzugte Lokalisationen sind: Handwurzel, Vorfuß, Arm und Bein.
Nasen-Flows bei guter Eigenatmung. Beachte die artefakt-bedingten Sättigungsabfälle!
⊡ Abb. 43.2. Pulsoxymetrie beim Frühgeborenen
Bei schlechter peripherer Mikrozirkulation (z. B. auch im Rahmen von Katecholamingaben) ist die Anbringung des Sensors schwierig; häufig wird keine Pulswelle registriert, da allein der leichte Druck des Sensors auf der Haut und dem darunter liegenden Gewebe ausreicht, um die Durchblutung in diesem Messbereich zu stoppen. Erkennbar wird dies durch eine unphysiologische
43
712
IV
Kapitel 43 · Neonatologisches Monitoring
Plethysmographiekurve oder eine Diskrepanz zwischen gemessener Pulsfrequenz und der Herzfrequenz anhand der EKG-Ableitung. Auch in ödematösem Gewebe ist eine zuverlässige Messung häufig nicht möglich. Um Drucknekrosen zu vermeiden, sind bei sehr kleinen Frühgeborenen die Ableitestellen u. U. sogar in Abständen von 3–4 h zu wechseln. Durch die Sensoren kann es zu Verbrennungen der Haut kommen, und zwar dann, wenn die Oberfläche beschädigt ist oder wenn Sensor und Gerät nicht optimal aufeinander abgestimmt sind. Im Fall von einfallendem Streulicht werden fälschlicherweise meist zu niedrige Sättigungswerte angezeigt. Allerdings kann u. U. auch bei einem vollständigen Verlust des Hautkontakts ein normaler Sättigungswert angezeigt werden. Hier fehlt dann allerdings die Registrierung einer Pulskurve. Liegen beide Dioden nicht exakt der Haut an, kann es gleichfalls zu falsch-hohen oder falschniedrigen Sättigungswerten kommen. Bei Blutdruckwerten unter 30 mmHg arbeiten manche Geräte nicht mehr zuverlässig. Leider zeigen die meisten Pulsoxymetriegeräte trotz einer erkennbaren Störung der Ableitung durch Bewegungsartefakte o. Ä. im Display Messwerte an. Es muss gefordert werden, dass alle Pulsoxymetriewerte, die nicht aus einer artefaktfreien Ableitung stammen, vom Gerät unterdrückt werden und jedenfalls nicht als numerischer Wert angezeigt werden. Alle Geräte errechnen Durchschnittswerte aus einer bestimmten, z. T. wählbaren Anzahl von Herzaktionen, oder sie mitteln über einen bestimmten Zeitraum. Je länger die Dauer der Mittelung, desto träger reagiert das Gerät auf akute Änderungen, desto niedriger ist aber auch die Rate von (falschen) Alarmen. Es gibt Verbesserungen der Software, die es gestatten, Bewegungsartefakte besser zu erkennen und für die rechnerische Analyse auszuschalten. Diese Geräte filtern die durch Bewegungsartefakte entstehenden venösen Pulswellen aus der Analyse heraus. Zeigt das Pulsoxymeter keine Pulskurve an oder sind die Werte unzuverlässig, so ist zunächst auszuschließen, dass Streulicht (insbesondere von Wärmelampen) in den Sensor einstrahlt. Als nächster Schritt sollte versuchsweise die Fixierung gelockert werden. Löst auch dies das Problem nicht, sollte eine andere Ableitestelle gewählt werden, bei der weniger Gewebe durchstrahlt wird. Auch pulsoxymetrische Werte müssen, wegen der aufgezeigten Fehlerquellen, regelmäßig mit arteriellen oder hyperämisierten kapillären Blutgasen gegenkontrolliert werden. Dabei sollten Abnahmestelle der Blutprobe und Ableitung der Pulsoxymetrie identisch in Bezug auf die Lagebeziehung zum Ductus sein (s. unten). Die Kennlinie der Messtechnik ist nicht linear: Im Bereich unter 75% zeigt der Sensor unzuverlässige Werte an, im oberen Bereich ist die Aussagekraft des gemessenen Wertes durch den physiologischerweise flachen Verlauf eingeschränkt. Die Geräte berücksichtigen zumeist pau-
schale Durchschnittswerte von Hämoglobinmolekülen, die nicht als Sauerstoffträger dienen (COHb und MetHb), deren Anteil liegt jedoch zusammengenommen meist unter 3%. Durch kooxymetrische Bestimmung in modernen Blutgasanalysesystemen kann deren Anteil exakt bestimmt werden. Erhöhte COHb- und MetHb-Werte können zu fehlerhaften pulsoxymetrischen Messwerten führen. Der MetHb-Wert kann unter der Anwendung von NO-Gas ansteigen. Bedingt durch die asymptotische Beziehung zwischen O2-Partialdruck und zugehöriger Sättigung eignet sich die Pulsoxymetrie zur Überwachung von Frühgeborenen nur bedingt: Eine Hyperoxie kann nicht sicher erkannt werden, während ein O2-Abfall recht gut registriert wird. Da bei Frühgeborenen eine Hyperoxie unbedingt vermieden werden muss, ist die Pulsoxymetrie keine geeignete Methode zur Überwachung von Frühgeborenen mit O2Bedarf. Bei Frühgeborenen ohne zusätzlichen O2-Bedarf (Raumluft) ist die Pulsoxymetrie zur Registrierung von Sättigungsabfällen eine gute Methode, der obere Grenzwert kann nämlich in dieser Situation auf 100% eingestellt werden, da unter Raumluft eine Hyperoxie praktisch ausgeschlossen, in jedem Fall aber auch gar nicht verhindert werden kann. Einen guten Kompromiss als einfaches Überwachungsgerät bietet die Pulsoxymetrie insofern, als mit einem einzigen Kabel und dem zugehörigen Sensor sowohl die Herzfrequenz als auch die Sättigung als zentrale kardiorespiratorische Größen erfasst werden können, sodass das Anbringen von EKG-Kabeln entfallen kann. Dies ist insbesondere bei sehr unreifen Frühgeborenen von Vorteil, wenn deren sehr empfindliche Haut das Anbringen von EKG-Klebeelektroden nicht toleriert. Allerdings ist die Pulsregistrierung wegen der Anfälligkeit für Bewegungsartefakte nicht sehr zuverlässig. Wesentliche Bedeutung hat die Pulsoxymetrie auch in der Erkennung von pathophysiologischen Durchblutungsstörungen, bei denen obere und untere Körperhälfte unterschiedlich gesättigtes Blut erhalten. Bei seltenen komplexen Herzfehlern kann die untere Körperhälfte besser oxygeniert sein als die obere, häufiger ist jedoch die gegenteilige Situation: Bei der Persistenz fetaler Zirkulationsverhältnisse (»PFC-Syndrom«) wird durch einen hohen Druck im Lungenkreislauf nichtoxygeniertes Blut aus der Pulmonalarterie über den Ductus arteriosus in die untere Körperhälfte geleitet und führt so zu einer Untersättigung in diesem Bereich, wohingegen die obere Körperhälfte über den Aortenanteil vor der Einmündung des Ductus mit sauerstoffreichem Blut versorgt wird. Diese häufig stark wechselnde pathophysiologische Situation ist von großer Bedeutung und wird deshalb mit Hilfe von jeweils einem Pulsoxymetriesensor an der rechten Hand und an einem Fuß überwacht. Leider bieten die meisten Universalmonitore nicht die Möglichkeit der Registrierung von zwei Pulsoxymetriewerten.
713 43.6 · Messung des ptcCO2 (Transkapnode)
⊡ Tab. 43.3. Empfohlene Grenzwerte für die Überwachung des Sauerstoffstatus in der Neonatologie Parameter
Empfohlene Grenzwerte
Pulsoxymetrie Frühgeborene
83–93%
Kranke Neugeborene
92–98%
Transoxode Frühgeborene
45–65 mmHg
Kranke Neugeborene
65–90 mmHg
Die Standardisierung von Pulsoxymetriegeräten ist sehr schwierig, sie variiert von Hersteller zu Hersteller und von Gerät zu Gerät. Auch der Rechenalgorithmus variiert zwischen verschiedenen Herstellern, je nachdem, ob die fraktionelle oder die funktionelle O2-Sättigung angegeben wird. Für die gängigsten Geräte gibt es jedoch inzwischen in der wissenschaftlichen Literatur gute Daten zur Korrelation von O2-Sättigungen und O2-Partialdrücken. Empfohlene Alarmgrenzen für die Überwachung von Früh- und Neugeborenen sind in ⊡ Tab. 43.3 wiedergegeben.
43.5
Transkutane Messung des Partialdrucks
Die Methode der transkutanen Partialdruckmessung für Kohlendioxid (ptcCO2) und Sauerstoff (ptcO2) ist eine Besonderheit der Pädiatrie, da die größere Hautdicke des Erwachsenen eine korrekte Messung meist verhindert. Unter der lokalen Hyperthermie der Messsonde kommt es zu einer Arterialisierung der Messstelle. Die Blutgase, die unter diesen Bedingungen mit den Partialdruckwerten im peripheren Gewebe in einem Äquilibrium stehen, können so nichtinvasiv überwacht werden. Allerdings müssen die Werte regelmäßig mit (bevorzugt arteriellen) Blutproben kalibriert werden. Beide Gase (ptcCO2 und ptcO2) werden häufig in einer Kombielektrode zusammen gemessen. Um Verbrennungen der Haut auszuschließen, überwachen die Monitore die Dauer der Sensorapplikation an einer Messstelle, fordern zum Wechsel des Applikationsortes und zur Neukalibrierung auf und schalten u. U. sogar die Heizung des Sensors bei Überschreiten einer bestimmten Zeitspanne automatisch ab. Die für eine konstante Sensortemperatur benötigte Heizleistung wird meistens angezeigt, ihr Verlauf gibt wertvolle Hinweise auf eine Zentralisierung des Kreislaufs, vorausgesetzt, die Umgebungstemperatur wird konstant gehalten.
⊡ Abb. 43.3. Transkutane Messsonde für ptcO2/ ptcCO2 beim Frühgeborenen
Bei einem starken Anstieg der Heizleistung sollte die Applikationsstelle besonders engmaschig auf Zeichen eines thermischen Schadens überprüft werden. Bei einer Heiztemperatur von 43°C muss z. B. bei sehr kleinen Frühgeborenen in 2–3-stündlichem Abstand die Platzierung der Sonde gewechselt werden. Durch die lokale Überwärmung kommt es zu einer Verschiebung der Hämoglobinbindungskurve, aus der eine Erhöhung sowohl des ptcO2 als auch des ptcCO2 resultiert. Dem wirkt der O2-Verbrauch im diffundierten Gewebe rechnerisch entgegen, sodass es zu einer realistischen O2-Messung kommt, die nahe den arteriellen Werten liegt. Durch die Produktion von CO2 im erwärmten Gewebe liegen die ptcCO2-Werte jedoch meist zu hoch. Diese Effekte können durch eine In-vivo-Korrektur rechnerisch kompensiert werden. Bei stark schwankender Heizleistung müssen engmaschig arterielle Blutgaswerte zur Überprüfung der angezeigten Messwerte abgenommen werden. Die Sensoren werden mit Kleberingen und einem Tropfen Kontaktlösung unter Vermeidung von Lufteinschluss auf die Haut geklebt (⊡ Abb. 43.3). In etwa wöchentlichen Abständen sind die Sensoren mit einer neuen Membran zu bespannen. Eine Kalibrierung sollte wenigstens einmal pro Tag erfolgen.
43.6
Messung des ptcCO2 (Transkapnode)
Mit dem auf die Haut aufgeklebten Sensor wird eine lokale Hauttemperatur von 43°C erzeugt. CO2 diffundiert dann aus der Haut, in der es die gleiche Konzentration aufweist wie in der kapillären Endstrombahn des Blutes, über eine Membran mit hydrophoben Eigenschaften (Silikon oder Teflon) in eine Elektrolytlösung. Dort werden aus den CO2-Molekülen H+-Ionen, die den pH-Wert verändern. Diese Änderung wird von einer pH-Elektrode registriert
43
714
IV
Kapitel 43 · Neonatologisches Monitoring
und mit einer Referenzelektrode verglichen, das Spannungspotential ist dem pCO2 proportional. Als Fehlerquelle gilt das in der Haut selbst gebildete CO2, das von metabolischen Prozessen abhängig ist. Da die Partialdruckdifferenz zwischen arteriellem und gemischt-venösem Blut sehr viel kleiner ist und CO2 wegen des unterschiedlichen Löslichkeitskoeffizienten besser diffundiert als O2, ist der Grad der (arteriellen) Gewebeperfusion weniger kritisch als bei der Messung des ptcO2 (Transoxode). Aus den genannten Gründen liegt der ptcCO2 häufig über dem arteriellen pCO2. Eine 2-PunktKalibrierung erfolgt in festgelegten Abständen mit einem speziellen Eichgas, das CO2-Konzentrationen von 5 und 10% liefert. Die Transkapnode ist weniger abhängig von Messort, Blutdruck, pH-Wert, Körpertemperatur und Hämatokrit, eine Sondentemperatur von 42°C ist oft ausreichend. Die Responsezeit ist mit 30–50 s länger als die von Transoxoden.
43.7
Die Messung des ptcO2 (Transoxode)
Die Zuverlässigkeit der Methode ist abhängig von der Hautdicke, dem Messort und der peripheren Durchblutung an dieser Stelle. Beeinflusst wird sie außerdem durch die gewählte Sondentemperatur und die Fixierung der Sonde. Sie ist darüber hinaus aber auch bei pH-Werten von 7,0 und tiefer sowie bei starker Anämie (Hämatokrit <28%) unzuverlässig. Diese Bedingungen sind selten zu finden, im Gegensatz zu systolischen Blutdruckwerten unter 32 mmHg, die bei sehr kleinen, kranken Frühgeborenen durchaus vorkommen und dann die Zuverlässigkeit der ptcO2-Messung stark einschränken. Dies kann jedoch auch anders interpretiert werden: Die Diskrepanz zwischen einer arteriellen Blutgasanalyse mit normalen Werten und einer unzuverlässigen ptcO2-Messung mit erniedrigten Werten weist u. U. auf einen beginnenden Zusammenbruch des peripheren Kreislaufs hin. Bei Frühgeborenen mit chronischen Lungenerkrankungen (bronchopulmonale Dysplasie) ist die Messung des ptcO2 häufig unzuverlässig, wahrscheinlich wegen starker Schwankungen der Hautperfusion. Für eine optimale Korrelation mit dem arteriellen pO2 ist eine Sondentemperatur von 44°C zu empfehlen, bei kleinen Frühgeborenen sind 43°C ein brauchbarer Kompromiss zwischen der Zuverlässigkeit der Messwerte und der Gefahr der thermischen Schädigung. Eine Kalibrierung erfolgt mit der Umgebungsluft unter Berücksichtigung des aktuellen Luftdrucks. Bis zu stabilen Steady-state-Bedingungen bedarf es einer Zeitspanne von 10–15 min nach jeder Neupositionierung des Sensors. Die Responsezeit auf akute Änderungen des pO2 schwankt je nach Bedingungen zwischen 20 und 60 s.
43.8
Überwachung der Oxygenierung – welche Methode?
Die Philosophie, wie der Sauerstoffstatus überwacht werden sollte, variiert von Klinik zu Klinik sehr stark. Es gibt für verschiedene Standards gute Begründungen. Es gilt zunächst, die Schwankungen der Sauerstoffsättigung bei Früh- und Neugeborenen, die ohnehin sehr viel größer sind als beim Erwachsenen, in engen Grenzen konstant zu halten. Eine Hyperoxie ist bei Frühgeborenen zunächst im Hinblick auf die Entwicklung der gefürchteten Retinopathie gefährlich. Aber auch chronische Lungenschäden können durch unnötig hohe inspiratorische O2-Konzentrationen entstehen. Schließlich ist die Bildung von Sauerstoffradikalen auch für andere pathophysiologische Prozesse von Bedeutung. Eine Hypoxie ist natürlich gleichermaßen unerwünscht; schließlich sind alle Körperzellen, insbesondere aber das sich entwickelnde Gehirn, hochgradig O2-abhängig. Das Dilemma der engen O2-Grenzen wird vergrößert durch den Umstand, dass ein optimaler Zielbereich für die Oxygenierung von Früh- und Neugeborenen bisher nicht schlüssig definiert wurde und auch methodisch nur sehr schwer definiert werden kann. Bekannt ist, dass der Fetus intrauterin einen paO2-Wert von nur etwa 30 mmHg im arteriellen Blut aufweist und damit problemlos gedeiht. Für das extrauterine Leben wird ein zusätzlicher O2-Bedarf rein pragmatisch definiert, da zusätzliche Funktionen von Organen (z. B. Atmung), Stoffwechselaktivitäten und auch die Wärmeproduktion »anlaufen«. Für kleine Frühgeborene mit der Gefahr der Retinopathie sollte nach gegenwärtig vorherrschender wissenschaftlicher Auffassung der arterielle pO2 nicht über 65 mmHg und nicht unter 45 mmHg liegen. Es ist sinnvoll, die Grenzen anhand des pO2 zu setzen, da aufgrund von Besonderheiten der O2-Bindungskurve eine obere Grenze mittels Sättigung (Pulsoxymetrie) nicht exakt überwacht werden kann (⊡ Abb. 43.4). Außer der Tatsache, dass eine Komplettsättigung des Hämoglobins von 100% für Frühgeborene bereits gefährlich sein kann, muss der zusätzlich im Blut gelöste Sauerstoff im Hinblick auf seine zusätzliche Toxizität berücksichtigt werden. Die nichtinvasive Überwachung des O2-Status sollte deshalb bei kleinen Frühgeborenen, die eine erhöhte inspiratorische O2-Konzentration benötigen, mittels Transoxode erfolgen. Besteht der Verdacht auf kurzfristige Unter- bzw. Übersättigungen, sollte zusätzlich das schneller reagierende Pulsoxymeter eingesetzt werden. Bei Frühgeborenen ohne zusätzlichen O2-Bedarf und bei reifen Neugeborenen ist ein Pulsoxymeter ausreichend. Bei sehr empfindlicher Haut von sehr kleinen Frühgeborenen mit schlechter Perfusion kann es nötig sein, auf transkutane Gassensoren (und evtl. EKG-Elektroden)
715 43.9 · Festlegung von Alarmgrenzen und Grenzwerten
zu verzichten und ausschließlich mit der Pulsoxymetrie zu überwachen. Bei reiferen Patienten kann es durch Bewegungsartefakte zu Fehlalarmen der Pulsoxymetrie kommen, sodass sich eine Transoxodenüberwachung anbietet. Andererseits wirken bei Patienten, die zunehmend mobil werden, die starren Kabel der Transoxoden bzw. Transkapnoden sehr hinderlich.
Wenn bei einem akuten Notfall eine Sauerstoffüberwachung erforderlich wird, ist grundsätzlich in jedem Reifealter zunächst der Pulsoxymetrie wegen ihrer schnellen Einsatzfähigkeit der Vorzug zu geben. Auch bei schwerer bronchopulmonaler Dysplasie des Frühgeborenen sollte die Pulsoxymetrie wegen ihrer größeren Zuverlässigkeit in dieser Patientengruppe bevorzugt angewendet werden. Bestehen Zweifel über die Relevanz von Messwerten mit einer der beiden Methoden bei einem individuellen Patienten, sollte die alternative Methode zusätzlich angewendet werden. Eine Zusammenstellung von Vor- und Nachteilen der beiden Alternativen für die Überwachung der Oxygenierung findet sich in ⊡ Tab. 43.4.
43.9
⊡ Abb. 43.4. Sauerstoffbindungskurve (aus Obladen 1995)
Festlegung von Alarmgrenzen und Grenzwerten
Bei der Festlegung von Grenzwerten ist zwischen Zielbereich und Alarmwerten (Alarmgrenzen) zu unterscheiden. Der Zielbereich umfasst die Werte, die angestrebt werden, d. h. innerhalb dieser Spannbreite sollen sich die kontinuierlich registrierten Werte überwiegend befinden. Im Gegensatz dazu geben die Alarmwerte die Werte an, deren Überschreiten oder Unterschreiten durch Alarmierung eine Reaktion des Personals in Gang setzen soll (Stimulierung des Kindes bei einer Apnoe, Anpassen der inspiratorischen O2-Konzentration usw.). Wird der Alarmbereich zu »großzügig« gewählt und zeigen die registrierten Werte nur geringfügige Schwankungen, kann es sein, dass über lange Perioden kein Alarm registriert wird, obwohl das Kind während dieser Zeit überwiegend nicht in dem enger zu definierenden, medizinisch begründeten Zielbereich liegt. Die
⊡ Tab. 43.4. Vor- und Nachteile der Überwachungssysteme für den O2-Status Pulsoxymetrie
Transoxode
Vorteile:
Schnelle Einsatzbereitschaft Keine Kalibrierung nötig Kurze Responsezeit Kaum lokale Irritationen Geringe Abhängigkeit vom Kreislauf Geeignet für alle Altersstufen
Messung der relevanten Größe (pO2) Gute Korrelation zum arteriellen pO2 Wenig Artefakte
Nachteile:
Ungeeignet für Hyperoxieüberwachung Ungenauigkeit <75% Sättigung Bewegungsartefakte häufig Empfindlich für Streulicht Häufige Alarme
Vorlaufphase bis 10 min Lange Responsezeit Unsensibel für kurzzeitige Schwankung der Oxygenierung Zuverlässigkeit eingeschränkt bei bestimmten pathophysiologischen Zuständen Lokale Verbrennung Arbeitsaufwändig durch häufige Kalibration Störanfällig seitens der Membran Starre Kabel
43
716
IV
Kapitel 43 · Neonatologisches Monitoring
Festsetzung von Alarm- und Grenzwerten ist bei neonatologischen Patienten eine wichtige ärztliche Aufgabe, die teilweise normiert werden kann, teilweise aber auch individuell erfolgen muss. Es gibt eine Vielzahl von Studien, in denen Sensitivität und Spezifität verschiedener Alarmgrenzen für die Diagnose einer Hyperoxie bzw. Hypoxie bei verschiedenen Pulsoxymetriegeräten getestet wurden. Diese seien für ein vertiefendes Studium und für die Erstellung von Leitlinien empfohlen. Jede neonatologische Abteilung sollte jedoch die eigenen Geräte am Patienten standardisieren und individuelle Grenzen festlegen. Eine solche Standardisierung für O2Sättigung und Partialdrücke für O2 und CO2 sollte anhand einer arteriellen Blutprobe erfolgen. Am besten geschieht dies über eine liegende arterielle Gefäßkanüle, da das Kind bei einer aktuellen Gefäßpunktion, insbesondere, wenn diese schwierig ist, wegen der mit der Schmerzreaktion verbundenen Schreiattacke selbst im intubierten Zustand rasche Veränderungen der Blutgase bietet. Die dann akut erhöhten pCO2-Werte und die erniedrigten pO2-Werte werden wegen der Latenzzeiten durch die nichtinvasiven Verfahren (insbesondere Transoxode und Transkapnode) dann noch nicht korrekt erfasst (⊡ Tab. 43.3).
Weiterführende Literatur 1. 2. 3. 4.
Obladen M (1995) Neugeborenen-Intensivpflege. Springer, Berlin Heidelberg New York Tokio Stopfkuchen H (1991) Pädiatrische Intensivpflege. Wiss Verlagsges, Stuttgart Stocks J et al. (1996) Infant respiratory function testing. Wiley-Liss, New York Chichester Brisbane Toronto Singapur Hentschel R et al. (1995) Apnoen bei Neugeborenen. In: Pädiatrische Praxis 49, S 203–211. H. Marseille, München
44 Grundlagen der Vernetzung H. Tanck 44.1
Einführung – 719
44.1.1 Warum Netzwerke im Krankenhaus? – 719 44.1.2 Die Begriffe »LAN«/ »MAN«/ »WAN« – 719
44.2
Das OSI/ISO-Modell – 720
44.2.1 Die sieben Schichten des OSI/ISO-Modells – 720
44.3
Die Übertragungsmedien – 721
44.3.1 Struktur und Ausdehnung universeller Verkabelungssysteme – 721 44.3.2 Twisted-Pair-Kabel – 722 44.3.3 Lichtwellenleiter (LWL) – 722 44.3.4 Koaxialkabel – 723 44.3.5 Weitere Übertragungsmedien – 723 44.3.6 Fazit – 724
44.4
Netzwerke – 724
44.4.1 Netzwerk-Strukturen/ Netzwerk-Topologien – 724 44.4.2 Netzwerk-Architektur und Netzwerk-Topologien – 725
44.1
Einführung
44.1.1 Warum Netzwerke im Krankenhaus?
Seit dem Inkrafttreten der Bundespflegesatzverordnung 1996, durch die sich die abrechnungsrelevanten Grundlagen der Krankenhäuser grundlegend geändert haben, steigen die Anforderungen an die elektronische Datenverarbeitung im Gesundheitswesen stetig. Die leistungserbringenden Stellen im Krankenhaus wurden vernetzt um Leistungen die am Patienten erbracht werden ohne Zeitverzug zu erfassen. Ein weiterer Aspekt ist die stetig steigende Kommunikation mit externen Partnern des Krankenhauses. Wurden in der Vergangenheit Leistungen am Patienten fachabteilungsspezifisch betrachtet, steht heute der Begriff des Behandlungsprozesses im Vordergrund. Das Netzwerk schafft die Grundlage, die Daten des Behandlungsprozesses mittels Software miteinander zu verknüpfen und so abteilungsübergreifende Informationen zu gewinnen. Die Verzahnung der Daten aus der Administration, Pflege und Medizin, die in elektronische Patientenakten, Langzeitarchiven und Picture Archive Communication Systemen zusammenfließen, bildet heute die Grundlage zur effizienten Steuerung des »Unternehmens Krankenhaus«. Alle am Behandlungsprozess eingesetzten Systeme benötigen ein gemeinsames Medium zur Kommunikation das Netzwerk. Erst ein Netzwerk ermöglicht die »oneline« Erfassung von Daten. Nur so können z. B. Daten die aus medizinisch-technischen Geräten »one-line« gewonnen und an Anwendungen zur weiteren Verarbeitung übergeben werden.
44.5
Aktive Netzwerkkomponenten – 728
44.5.1 44.5.2 44.5.3 44.5.4 44.5.5 44.5.6 44.5.7 44.5.8 44.5.9 44.5.10
Repeater – 728 Sternverteiler – 728 Workgroup-Hub – 728 Hub – 728 Konzentrator – 728 Bridge – 729 Switch – 729 Router – 729 Access Points – 729 Firewall – 730
44.6
Kryptosysteme – 730
44.6.1 44.6.2 44.6.3
Asymmetrisches Kryptosystem – 730 Symmetrisches Kryptosystem – 731 Hybride Kyryptosysteme – 731
Literatur – 731
44.1.2 Die Begriffe »LAN«/ »MAN«/ »WAN«
Ein LAN (Local Area Network) ist ein Datenkommunikationssystem, welches angeschlossenen Geräten die Möglichkeit bietet, miteinander zu kommunizieren. Der Begriff LAN bezieht sich auf die Ausdehnung des Netzwerkes und besagt, dass die angeschlossenen Geräte sich in einem geographisch begrenzten Gebiet befinden. Der Begriff WLAN leitet sich aus dem Begriff LAN ab WLAN = Wireless Local Area Network. Die Kommunikation in einem LAN vollzieht sich über Übertragungsmedien mit mittlerer bis hoher Übertragungsgeschwindigkeit. Die Begriffe MAN (Metropolitan Area Network) und WAN (Wide Area Network) beziehen sich ebenfalls auf die Ausdehnung des Netzwerkes. Zur Verdeutlichung der Unterschiede kann folgender Vergleich herangezogen werden: Geht man davon aus, dass die Telefonanlage eines Krankenhauses einem LAN entspricht, so ermöglicht die Telefonanlage den Mitarbeitern die interne Kommunikation innerhalb des Krankenhauses (⊡ Abb. 44.1). Die Möglichkeit innerhalb des Ortes eine Kommunikation aufzubauen, d. h. der Anschluss der Telefonanlage an das Ortsnetz der Telekom, entspricht in diesem Fall einem MAN. Und der Schritt zum WAN wird durch die Eingabe einer Vorwahl zum Verbindungsaufbau im Inland oder Ausland erreicht. Der Verbindungsaufbau und die Möglichkeit der Kommunikation werden auch hier, wie bei einem Netzwerk, über so genannte »passive« und »aktive« Komponenten realisiert.
720
Kapitel 44 · Grundlagen der Vernetzung
V ⊡ Abb. 44.1. »LAN/ MAN/ WAN« ⊡ Abb. 44.2. Das OSI/ISO-Modell
44.2
Das OSI/ISO-Modell
Grundlage für alle Standards im Netzwerkbereich ist das offene Kommunikationsmodell OSI (Open System Interconnection) der ISO (International Standard Organisation). Das OSI-Modell (zu deutsch »Offene Systemverbindungen«) kann als die wichtigste Standardisierung für Netzwerke angesehen werden. Es besteht aus »7 Schichten«, die eine universell anwendbare logische Struktur spezifizieren und alle Anforderungen an die Datenkommunikation zwischen Systemen umfassen (⊡ Abb. 44.2). Die Standardisierung soll eine vom Hersteller unabhängige Kompatibilität der Endprodukte (herstellerübergreifende Kommunikation) gewährleisten. Das heißt, dass miteinander vernetzte Computersysteme sich auch dann verstehen müssen, wenn Bauteile verschiedener Hersteller in die Struktur des Netzwerkes integriert werden. Der logische Aufbau des OSI/ISO-Modells dient den Herstellern von Netzwerkprodukten als Referenz bei der Entwicklung von neuen Übertragungstopologien und bei der Definition entsprechender Protokolle.
44.2.1 Die sieben Schichten
des OSI/ISO-Modells Die Schichten eins bis drei sind ausschließlich netzspezifischer Art, die vierte Schicht dient dem Transport der Daten und die Schichten fünf bis sieben sind anwendungsorientiert, d. h. benutzerspezifisch. ▬ Schicht 1: Die Bitübertragungsschicht (physical layer) beschäftigt sich mit der Übertragung von rohen Bits über
ein Kommunikationsmedium. Sie betrifft Vereinbarungen über die physikalische Schnittstelle, die elektrischen Gegebenheiten (Kabel, Widerstände usw.) sowie die einheitliche Pinbelegung der Steckverbindungen (RS232, V.24, V.28, V.35, X.21, etc.). Diese Schicht ist für die Aufrechterhaltung der physikalischen Verbindung verantwortlich. ▬ Schicht 2: Die Sicherungsschicht (data link layer) soll die übertragenen Rohdaten in eine Datenreihe verwandeln, die ohne Übertragungsfehler an die Vermittlungsschicht weitergegeben wird. Die Sicherungsschicht dient der Definition von Übertragungsprotokollen und sorgt für die problemlose Verbindung zwischen Sender und Netzwerk und Empfänger. Um Übertragungsfehler zu vermeiden, die u. a. durch Störungen im Übertragungsmedium (Kabelverbindung) auftreten, wird ein Datenprotokoll aufgebaut. Darüber hinaus enthält diese Ebene den Abgleich der Prüfsumme eines Datenpaketes. ▬ Schicht 3: Die Vermittlungsschicht (network layer) beschäftigt sich mit der Steuerung des Subnet-Betriebs. Sie wählt die Paketleitwege vom Ursprungs- zum Bestimmungsort aus. Das heißt, diese Schicht stellt den datenmäßigen Verbindungsaufbau zwischen den Nutzern des Netzwerkes her. Bei Rundsendenetzen ist aus verständlichen Gründen das Problem der Wegbestimmung einfach. Daher kann es vorkommen, dass diese Schicht in Netzen dieser Struktur sehr dünn oder gar nicht vorhanden ist. Die Aufgaben sind hier: Vermitt-
721 44.3 · Die Übertragungsmedien
lung, Verbindungsauf- und Verbindungsabbau, Fehlererkennung, Unterbrechung sowie der Transport der Informationen zwischen den Endpunkten des Netzes. ▬ Schicht 4: Die Transportschicht (transport layer) übernimmt die Daten von der Sitzungsschicht, zerlegt sie wenn nötig in kleinere Einheiten und übergibt sie an die Vermittlungsschicht, die dann wie erläutert dafür sorgt, dass alle Teile richtig beim Empfänger ankommen. Somit sorgt die Transportschicht für eine lückenlose Datenübertragung zwischen den Endgeräten, wobei die Medien der Schichten eins bis drei keinen Einfluss hierauf haben. Dies wird insbesondere durch die Anpassung der Transportleistung an die Netzleitung und die Kontrolle über den Datenfluss gewährleistet. Zudem ist diese Ebene für die Unterscheidung der so genannten Datenpakete zuständig, indem jedes Paket eine eindeutige Identifikationsnummer erhält. Diese Nummer verhindert, dass eine Sendung mehrmals (oder auch gar nicht) beim Empfänger ankommt. ▬ Schicht 5: Die Sitzungsschicht (session layer) ermöglicht den Anwendern an verschiedenen Maschinen, zu Sitzungen zusammenzukommen. Sie ist für die Koordination einer Sitzung verantwortlich. Das heißt, sie übernimmt die Aufnahme, Durchführung und Beendigung einer Sitzung. Darüber hinaus zählen zu den Aufgaben dieser Schicht auch die Passwortabfrage, die Dialogverwaltung, die Synchronisierung und der Wiederaufbau von Sitzungen nach einem Störfall in den darunter liegenden Schichten. In dieser Ebene liegt auch die Zuordnung von Gerätenamen zu den Knotenpunkten des Netzwerks. Man könnte diese Stufe dementsprechend auch als die oberste Stufe des eigentlichen Datentransports bezeichnen. ▬ Schicht 6: Die Darstellungsschicht (presentation layer) behandelt die Interpretation und Strukturierung der Informationen der Anwenderschicht. Es handelt sich z. B. um Informationen über den Bildaufbau bei Datex-P (BTX) oder die Anpassung des Codes und der Druckformate. Diese Stufe sorgt ebenfalls für die Bereitstellung von so genannten virtuellen Terminals. ▬ Schicht 7: Die Anwendungsschicht (application layer), die als oberste Ebene des OSI-Modells abschließt, definiert schließlich das Betriebssystem und die Dienstprogramme (z. B. File Transfer, Remote-Job-Entry, Remote-Access, Virtual-Terminals, etc.). Sie übernimmt also direkt als Schnittstelle zwischen Netz und Benutzer die Steuerung der Anwendung und die Benutzerführung. In welchem Maße die Anwendung benutzerfreundlich ist (oder nicht) wird auf den Schichten 6 und 7 festgelegt.
44.3
Die Übertragungsmedien
Ein Netzwerk setzt ein »Übertragungsmedium« (Schicht eins des OSI-Modells) voraus. Um der zunehmenden Komplexität einer krankenhausweiten Verknüpfung aller Informations- und Kommunikationsdienste Rechnung zu tragen, erhält die konsequente Anwendung von strukturierten und dienstneutralen Verkabelungssystemen eine zentrale Bedeutung. Zukunftsorientierte Verkabelungssysteme sorgen im Rahmen einer modernen Netzwerkstrategie für: ▬ ein hohes Maß an Wirtschaftlichkeit, ▬ eine große Anschlussflexibilität und Ausbaufähigkeit durch hierarchische Strukturierung, ▬ eine dienstneutrale Integration von Sprach-, Datenund Bildübertragung, ▬ die Bewältigung jetziger und zukünftiger Datenmengen (z. B. für den 10-Gigabit Ethernet-Standard), ▬ die Einhaltung der EMV-Bestimmungen (Elektromagnetische Verträglichkeit) hinsichtlich Störaussendung und Störfestigkeit, ▬ die sichere Erfüllung nationaler und internationaler Verkabelungsstandards. Bei der Verkabelung sollten unbedingt die in dem europäische Standard EN 50173-1 und der ISO/IEC 11801 festgelegten Mindestanforderungen für Verkabelungssysteme und deren Komponenten eingehalten werden.
44.3.1 Struktur und Ausdehnung universeller
Verkabelungssysteme Universelle Verkabelungssysteme bestehen aus 3 hierarchisch strukturierten Ebenen: ▬ Primärverkabelung (Geländeverkabelung) Gebäudeübergreifende Standortverkabelung zur Verbindung von Gebäudeverteilern; ▬ Sekundärverkabelung (horizontale oder vertikale Gebäudeverkabelung) Gebäudeinterne Verkabelung zur Verbindung der Gebäudeverteiler mit den Etagenverteilern; ▬ Tertiärverkabelung (Etagenverkabelung) Etagen- bzw. Raumverkabelung zur Verbindung der Etagenverteiler mit den Anschlussdosen am Arbeitsplatz. Die Arbeitsplatzverkabelung – sie verbindet die Anschlussdose mit den eingesetzten Endgeräten – sollte im Gegensatz zu den drei vorgenannten Verkabelungsebenen nicht fest und dienstneutral sein. Lediglich durch die Wahl des entsprechenden Anschlusskabels (z. B. Telefon oder Netzwerk) muss hier eine Dynamik in der Verkabelung erreichbar sein (⊡ Tab. 44.1).
44
722
Kapitel 44 · Grundlagen der Vernetzung
44.3.2 Twisted-Pair-Kabel
V
Die richtige Wahl des Twisted-Pair Datenkabels ist von entscheidender Bedeutung für die Zukunftssicherheit und für den Investitionsschutz einer Verkabelung. Als Beispiel sei hier für den LAN-Bereich FDDI, ATM und Fast Ethernet genannt. Auf dem Markt befinden sich derzeit die verschiedensten Twisted-Pair Kabelvarianten: ▬ UTP; Unshielded Twisted-Pair (Kabel ohne Paarschirm, ohne Gesamtschirm), ▬ S/UTP; Screened Unshielded Twisted-Pair (Kabel ohne Paarschirm, mit Gesamtschirm), ▬ STP; Shielded Twisted-Pair (Kabel mit Paarschirm, ohne Gesamtschirm), ▬ S/STP; Screened Shielded Twisted-Pair (Kabel mit Paar- und Gesamtschirm) (⊡ Abb. 44.3).
Charakteristika Die Bezeichnung »2x2« bzw. »4x2« beschreibt die Anzahl der Kupferleitung, die in einem Kabel vorhanden
⊡ Tab. 44.1. Beispiel einer hierarchischen Verkabelungsstruktur Ebene
Anwendungsgebiet
Primärverkabelung
Telefon
EDV
Weitere Dienste
LWL*
LWL
LWL
LWL
LWL
LWL
TP**
TP
TP
TP
TP
TP
LWL
LWL
LWL
Sekundärverkabelung
Tertiärverkabelung
* LWL = Lichtwellenleiter ** TP = Twisted-Pair
⊡ Abb. 44.3. Aufbau eines S/STP Kabels
sind. Weitere Begriffe, die häufig im Zusammenhang mit Twisted-Pair Kabeln fallen, sind die Begriffe Level und Category (Cat.). Hierbei ist zu beachten, dass lediglich der Begriff Category zertifiziert ist. Mit steigender Kategorie verbessern sich die Übertragungseigenschaften der eingesetzten Kabel. So beschreibt die Kategorie 5 die Charakteristika eines Kabels, das bis zu 100 MHz spezifiziert ist. Es ist für Sprach- und Datenübertragungsgeschwindigkeiten bis zu und einschließlich 100 MBit/s (z. B.: IEEE 802.5, ANSI X3T9, 5, TPDDI) vorgesehen. Kabel dieser Category können als UTP-, FTP (Folien Geschirmtes TP-Kabel) – oder STP Kabel ausgeführt sein. Kabel die der Kategorie 5e entsprechen sind für Gigabit Ethernet bis 1 Gbit/s ausgelegt. Bei Kabeln der Kategorie 6 ist der Frequenzbereich auf 250 MHz festgelegt, und ein Kabel der Kategorie 6a (augmented) umfasst den Frequenzbereich bis 625 MHz und ist für 10-Gigabit-Ethernet geeignet. Die Kategorie 7 ist für Datenkabel mit einer Übertragungsfrequenz von 600 MHz geeignet, wodurch der Einsatz dieser Kabel im ATM Bereich mit 622 Mbit/s ermöglicht wird.
44.3.3 Lichtwellenleiter (LWL)
In Glasfaserkabeln (engl. optical fibre cabel) erfolgt die Informationsübertragung durch dünne Glasfasern mittels extrem kurzer Lichtimpulse (im Nanosekundenbereich) in hoher Impulsrate (Bandbreite bis zu mehreren GHz). Deshalb heißen sie auch Lichtwellenleiter oder Lichtleiter. Entsprechend den örtlichen Gegebenheiten werden Innen- bzw. Außenkabel verlegt. Mit steigender Datenrate und zukünftigen Standards wird die Bandbreite des Datenkabels für die Funktionsfähigkeit der Anlage entscheidend sein. Aus diesem Grunde sollten heute LWL mit der folgenden Mindestspezifikation verwendet werden: ▬ Dämpfung bei 850 nm <3,5 db/km bzw. <1,0 db/km bei 1300 nm Wellenlänge;
723 44.3 · Die Übertragungsmedien
▬ Bandbreiten-Längen-Produkt bei 850 nm >200 MHz × km, bzw. >500 MHz × km bei 1300 nm Wellenlänge; ▬ 50/125 bzw. 62,5/125 µm Faser (Gradientenfaser).
LWL-Kabel mit Verseilelementen. Die Kabelseele dieser Kabel beinhaltet GFK-(Kunststoff-) Stützelemente mit mehreren Verseilelementen, die als Bündelader (enthält Gradientenfasern) oder als Blindader ausgeführt sind. Enthält das Kabel mehrere Gradientenfasern, so sind diese farblich gekennzeichnet. Die Kabelseele ist mit Petrolat gefüllt und der Kabelmantel besteht aus PE (Polyethylen).
44.3.5 Weitere Übertragungsmedien
Waren die Übertragungstechniken, Funk oder Laser-Link vor Jahren noch Exoten in der Netzwerklandschaft, so steigt zumindest die Bedeutung der Funkverbindungen permanent. Wireless LAN ist ein internationaler Standard für kabellose Funknetzwerke. Das Gremium IEEE, hat für die kabellosen Funknetzwerke allgemeinverbindliche Normen definiert. Die gebräuchlichsten Normen sind:
LWL-Kabel mit zentraler Bündelader. Bei diesem Kabel gibt es einen zentralen Kern, der mehrere Gradientenfasern enthält.
44.3.4 Koaxialkabel
In der Vergangenheit wurden die meisten Netzwerkinstallationen mit Koaxialkabel durchgeführt. So ist im Bereich der Mainframes (Großrechner) z. B. IBM 3090 und der MDT (Mittlere Datentechnik) z. B. IBM /36 und IBM /38 Koaxialkabel für den Anschluss der Terminals genutzt worden. Aber auch für die Realisierung von Arcnet und Ethernet Netzwerken ist dieser Kabeltyp zum Einsatz gekommen. Die Seele eines Koaxialkabels besteht aus einem starren Kupferdraht, der von einem Isolationsmantel umgeben ist. Der Isoliermantel wird von einem geflochtenen Metallgeflecht umschlossen, der wiederum von einem Plastikmantel umgeben ist. Man unterscheidet BasisbandKoaxialkabel (50 Ohm Kabel) und Breitband-Koaxialkabel (75 Ohm Kabel). Im Bereich der LAN-Technologien hat sich das Basisband-Koaxialkabel durchgesetzt. Hierbei muss, um digitale Signale über ein analoges Netzwerk senden zu können, jede Schnittstelle über die entsprechende Elektronik verfügen, um abgehende Bitfolgen in Analogsignale und ankommende Analogsignale wieder in Bitfolgen umwandeln zu können.
⊡ Abb. 44.4. Aufbau eines LWL-Kabels
802.11b
11 Mbit/s, aktueller Standard für das 2,40 GHz-Band
802.11a
54 Mbit/s, Standard für das 5 Ghz-Band Nicht kompatibel zu 802.11b-Standard
802.11g
54 Mbit/s, Erweiterung des 802.11b-Standards Kompatibel zum 802.11b-Standard
Die Funktionalitäten eines WLAN sind identisch mit der LAN-Verkabelung. Es besteht die Möglichkeit, Direktverbindung zwischen zwei Computern und serverbasierte Verbindungen zu realisieren. Die Reichweite eines Wireless LANs beträgt in Gebäuden bis zu maximal 300 m. Bei diesem Wert handelt es sich um einen theoretischen Wert, der in Abhängigkeit von den Gebäudestrukturen zu sehen ist. Wasser- und Stromleitungen, Stahlträger sowie Struktur und Wandstärke vermindern die Reichweite des WLAN, sodass durchaus Reichweiten von 30 m maximal realisierbar sind. Generell erfolgt z. B. bei Richtfunkverbindungen (engl. radio beam transmisson) die Informationsübertragung drahtlos mittels gebündelter elektronischer Wellen, die vom Sender zum Empfänger gestrahlt werden. Auf der Sende- und auf der Empfangsseite werden Richtantennen mit hoher Bündelung verwendet, wodurch auch bei Sendern mit kleiner Leistung eine störungsarme Übertragung erreicht und eine gewisse Sicherheit gegen das Abhören gewährleistet wird.
44
724
Kapitel 44 · Grundlagen der Vernetzung
44.3.6 Fazit
V
Krankenhäuser weisen im Bereich der Verkabelung Besonderheiten auf. Während im Verwaltungsbereich der Krankenhäuser überwiegend Kupferkabel verwendet werden kann, sollten im Bereich der Medizin (bspw. OP, Intensivmedizin, etc.) Lichtwellenleiter eingesetzt werden. Das Netzwerk oder besser die Übertragungsmedien einschließlich der Anschlusssysteme müssen in diesen kritischen Bereichen EMV technisch einwandfrei arbeiten. Die EMV ist definiert als »Die Fähigkeit einer elektrischen Einrichtung, in ihrer elektromagnetischen Umgebung zufriedenstellend zu funktionieren, ohne diese Umgebung, zu der auch anderen Einrichtungen gehören, unzulässig zu beeinflussen.« Das heißt, es darf von den Übertragungsmedien keine Abstrahlung ausgehen (Störaussendung). Es könnte sonst der Fall eintreten, dass medizintechnische Geräte fehlerhafte Messwerte aufweisen. Der umgekehrte Fall, die mangelhafte Störfestigkeit, kann dazu führen, dass ein Netzwerk nicht oder nur sporadisch funktionsfähig ist, es also beim Netzbetrieb zu Störungen bei der Übertragung von Datenpaketen kommt. Generell sollte ein Anforderungsprofil für die Übertragungsmedien erstellt werden. Dieses Anforderungsprofil sollte neben der zukunftssicheren Kabelentscheidung für alle Netzwerkbereiche und den Bestimmungen der EMV Richtlinien auch die zukünftig zum Einsatz kommenden Anwendungen berücksichtigen. Die Antwort auf folgende Frage verdeutlicht nochmals die Wertigkeit einer zukunftsorientierten und strukturierten Verkabelung: »Netzwerktechnik wird nur sehr ungern ausgetauscht – WARUM?« – »Weil der zugrunde liegende zeitliche und finanzielle Aufwand sehr hoch ist!«
44.4
Die Bus-Topologie (⊡ Abb. 44.5) ist die einfachste Form. Sie besteht aus einem einzigen durchlaufenden Kabel, an das die Rechner der Reihe nach in Linienform (= Bus) angeschlossen sind. Dieses Verfahren ist sehr ökonomisch, da es lediglich voraussetzt, dass das zentrale Buskabel an jede Station des Netzes angeschlossen wird. Eine feste Reihenfolge der Stationen oder für bestimmte Aufgaben reservierte Äste sind in dieser Struktur nicht vorgesehen. Die Kosten für die Einrichtung eines solchen Netzes sind relativ niedrig, da sämtliche Stationen ein und denselben Bus benutzen. Sollte eine der Stationen ausfallen, so hat dies keinerlei Auswirkungen auf die Funktionstüchtigkeit des restlichen Netzes. Der Ausfall oder die Beschädigung des Verbindungskabels bringt jedoch das gesamte Netz zum Erliegen. Die Stern-Topologie (⊡ Abb. 44.6) sieht vor, dass jede Station separat mit einem zentralen Koppelelement verbunden wird. Rein optisch hinterlässt dieses Gebilde den
⊡ Abb. 44.5. Die »Bus-Topologie«
Netzwerke
44.4.1 Netzwerk-Strukturen/ Netzwerk-
Topologien Der Aspekt der Kosteneinsparung hat sehr viele Netzwerke hervorgebracht, bei denen Computer in einem Gebäude (LAN) untergebracht worden sind. Die räumliche Anordnung der einzelnen Verbindungen zwischen den einzelnen Computern bestimmt die Struktur des gesamten Systems, die in diesem Zusammenhang als Topologie (Art der Verkabelung) bezeichnet wird und ebenso Teil der Hardware ist. Sie wird von der Art der Schnittstellenkarte und der Kabel vorgegeben. Die gebräuchlichsten Topologien sind der Bus, der Stern, der Ring und der verteilte Stern. Aufgrund von gewachsenen Strukturen sind Mischformen einzelner Topologien in einem LAN die Regel. Man spricht hier von einem heterogenen Netzwerk.
⊡ Abb. 44.6. Die »Stern-Topologie«
725 44.4 · Netzwerke
Eindruck eines Sterns. Sofern das Netz um zusätzliche Stationen erweitert werden soll, müssen zwangsläufig auch weitere Kabelverbindungen verlegt werden. Vom betriebstechnischen Standpunkt aus gesehen, ist diese Form eine der besten Lösungen, da sowohl der Ausfall einer Station als auch die Störung eines Kabels keine weiteren Auswirkungen auf die Funktionalität des restlichen Netzes hat. Mit der Ring-Topologie (⊡ Abb. 44.7) wird eine Kombination aus gemeinsam benutzten und individuellen Kabeln verwendet. An einem zentralen Ring werden hier Verteiler installiert, die ihrerseits wieder mehrere Stationen bedienen können. Der zentrale Ring muss übrigens nicht zwangsläufig auch physikalisch vorhanden sein. Die Ringstruktur ist im Grunde genommen mehr ein logisches Konzept der Datenübermittlung. Nachrichten der einzelnen Stationen werden nicht wie beim Stern über das Koppelelement weitergeleitet, sondern jeweils von einer Station zur nächsten übermittelt, bis sie letztendlich beim Empfänger ankommen. Der verteilte Stern (⊡ Abb. 44.8) ist vom Prinzip her gesehen eine Kombination des linearen Busses mit einem Stern. Ein zentrales Kabel wird mit mehreren Verteilern versehen, und an diese Verteiler wird jeweils eine Gruppe von Rechner sternförmig angeschlossen. Der Ausfall einer Station hat keinerlei negativen Einfluss auf die übrigen Stationen, jedoch kann der Ausfall des zentralen Verbindungskabels den Zusammenbruch einzelner Teile des Netzwerkes nach sich ziehen.
optional Twisted-Pair oder LWL ein. Die Segmentlänge beträgt vom Verteiler zum Rechner maximal 30 m, bei einer Gesamtlänge von 6,5 km.
⊡ Abb. 44.7. Die »Ring-Topologie«
44.4.2 Netzwerk-Architektur und Netzwerk-
Topologien Eine Übersicht über Netzwerkarchitektur und Netzwerktypologien zeigt ⊡ Tab. 44.2.
ArcNet ArcNet verwendet Token Passing als Zugriffsverfahren. Es verfügt über eine Übertragungsrate von 2,5 MBit/s und setzt als Übertragungsmedium »RG 62 Koaxialkabel«,
⊡ Abb. 44.8. Der »verteilte Stern«
⊡ Tab. 44.2. Übersicht Netzwerkarchitekturen und Typologien Netzwerk-Architektur
Netzwerk-Typologie
Zugriffsverfahren
ArcNet
Bus/Stern
Token Passing
Ethernet
Bus/Stern
CSMA/CD
Fast-Ethernet
Abschn. 4.2.3
Abschn. 4.2.3
Gigabit-Ethernet
Abschn. 4.2.4
Abschn. 4.2.4
Token Ring
Ring
Token Passing
FDDI
Ring
deterministisches Token Passing
44
726
Kapitel 44 · Grundlagen der Vernetzung
Ethernet Ethernet (IEEE 802.3) arbeitet mit dem CSMA/CD (carrier sense multiple access / collision detection) Zugriffsverfahren und mit einer Übertragungsrate von 10 MBit/s auf den Übertragungsmedien Yellow Cable, RG 58 Koaxialkabel, Twisted-Pair oder LWL.
Ethernet auf Basis Yellow Cable (Standard Ethernet / 10Base-5). Das Ethernet-Datensegment benutzt
V
ein dickes Koaxialkabel (0,4 inch, 50 Ohm) als physikalisches Übertragungsmedium und ermöglicht eine Übertragungsgeschwindigkeit von 10 MBit/s. Die maximale Segmentlänge beträgt 500 m. Jede Station ist über einen externen Transceiver und ein an die 15-polige DIX-Buchse der Karte angeschlossenes Transceiverkabel mit dem Koaxialkabel verbunden. Die Verbindung vom Transceiver zum Ethernet-Kabel wird mittels Vampirklemme oder einem N-Connector hergestellt. Beide Enden des Thick Wire Kabels müssen mit einem 50-Ohm-Abschlusswiderstand (Terminator) abgeschlossen sein, um elektrische Reflektionen im Kabel zu verhindern. Cheapernet (Thin Ethernet / 10Base-2. Cheapernet ist
eine kostengünstige Verkabelung, die mit einem dünneren Koaxialkabel (0,2 inch, 50 Ohm) bis auf die maximale Segmentlänge (185 m) ähnliche Leistungsmerkmale wie das Standard Ethernet aufweist. Die Stationen sind direkt über die BNC-Buchse der Netzwerkkarte mit dem Koaxialkabel verbunden. Somit entfallen die Kosten für die Receiver. Die zwei Segmentenden müssen ebenfalls jeweils mit einem 50-Ohm-Widerstand abgeschlossen werden. Ethernet 10BASE-T (Ethernet via Twisted Pair). Entspricht
der IEEE 802.3 Norm und ermöglicht somit den Anschluss an ein Unshieled Twisted-Pair (UTP) Kabel von bis zu 100 m Länge. Bei der TP-Verkabelung handelt es sich um eine rein sternförmige Verkabelung. Das heißt, es kann immer nur eine Netzwerkkarte an einen Port des Sternverteilers oder des 10BASE-T Hub angeschlossen werden. Der Anschluss erfolgt über einen 8-poligen RJ 45-Stecker und das verwendete Kabel muss der 10BASE-T Norm für UTP genügen.
Fast Ethernet Ethernet, zweifellos der erfolgreichste Klassiker unter den Netzwerk-Topologien, existiert mittlerweile seit 20 Jahren. Das Bus-System für lokale Netzwerke wurde von Xerox, INTEL und DEC entwickelt. 1983 setzte sich der Standardisierungsvorschlag der Arbeitsgruppe IEEE 802 durch. Die genügsame Ethernet-Technik eroberte sich aufgrund ihrer Einfachheit den überwiegenden Anteil des Netzwerkmarkts. In den entsprechenden Gremien wurden Erweiterungen bezüglich Redundanz und Sternstrukturen, die auf Kupferkabel und LWL basieren, in
den Standard übernommen, aber die Übertragungsgeschwindigkeit blieb gleich. Daher lag der Gedanke nahe, mit Hilfe modernerer Technik den mehr als 20 Mio. installierten Ethernet-Knoten durch eine 100 MBit/s Taktung zu neuem Leben zu verhelfen. Im November 1992 wurde ein Vorschlag beim 802 Komitee des IEEE zur Normung eingebracht. Hewelett Packard, AT&T Microelektronik und Verbündete stellten ihre 100 MBit/s schnelle Ethernet-Version namens 100Base-VG vor. Die Wahrung der Ethernet-Tradition durch größtmögliche Nähe zum Standard übernahm eine Gruppe um 3Com, Cabeltron, David Systems, Grand Junction, INTEL, Lannet, National Semiconductor, SMC, SynOptics und anderen. Der als 100Base-X bekannt gewordene Gegenvorschlag eröffnete eine kontroverse Diskussion in dem Gremium und in der Presse. 100Base-T2. Ermöglicht die Datenübertragung mit 100 Mbit/s Datenrate über Kategorie 3 Kabel. Zurzeit gibt es keine Produkte, die wettbewerbsfähig sind. 100Base-T4. Ermöglicht ebenfalls die Datenübermittlung mit 100 Mbit/s Ethernet über ein Kategorie 3-Kabel. Dieser Vorschlag resultierte aus dem Umstand, dass in vielen bestehenden Installationen ein Kabel der Kategorie 3 verwendet wurde. Bei 100Base-T4 werden alle vier Adernpaare des Kabels zur Datenübermittlung benötigt. Auch dieser Standard konnte sich nicht durchsetzen. Einer der Gründe ist in der Kategorie 5-Verkabelung zu sehen, die in heutigen Installationen die Mindestnorm darstellt. 100Base-TX IEEE 802.3u. Besagt, dass es sich um ein Fast Ethernet mit 100 MBit/s Übertragung und einer maximalen Segmentlänge von 100 m bei kupferbasierter Verkabelung handelt. Als Übertragungsmedium werden Kupfer Twisted-Pair Kabel verwendet, die mit RJ 45Verbindungen versehen sind. Der 100Base-TX-Standard kann heute als die Standard Fast Ethernet-Technologie bezeichnet werden. 100Base-FX IEEE 802.3u. Besagt, dass es sich um ein Fast
Ethernet mit 100 MBit/s Übertragung handelt. Die maximale Segmentlänge beträgt 400 m zwischen Stationen und aktiven Netzwerkkomponenten beim Einsatz von Glasfaser Duplexkabeln.
Gigabit Ethernet 1000Base-CX. Hierbei handelt es sich um den Vorgänger
von 1000Base-T. Als Übertragungsmedium wird Shielded Twisted-Pair Kabel (STP) mit einer maximalen Kabellänge von 25 m und einer Impendanz von 150 Ohm eingesetzt. Der Anschluss erfolgt über RJ 45-Verbindungen in einer Stern-Topologie. Die Übertragungsrate beträgt 1000 Mbit/s.
727 44.4 · Netzwerke
1000Base-T IEEE 802.3ab. Besagt, dass es sich um ein Gi-
gabit Ethernet mit 1000 Mbit/s Übertragung handelt. Die maximale Segmentlänge beträgt 100 m bei kupferbasierter Verkabelung. Es werden 4 Doppeladern genutzt, wobei über jedes Adernpaar 250 MBit/s übertragen werden. 1000Base-SX IEEE 802.3z. Besagt, dass es sich um ein Gigabit Ethernet mit 1000 Mbit/s Übertragung über Short Wavelength (die Wellenlänge beträgt 850 nm) handelt. Die maximale Segmentlänge beträgt bei der Verwendung von 62,5/125 Multimodefasern 275 m und bei der Verwendung von 50/125 Multimodefasern 550 m. Dieser Standard basiert auf einer Punkt-zu-Punkt-Verbindung.
sis sowie der ANSI-Standard TP-PMD (Physical Medium Dependent Layer) auf STP- und UTP-Basis. Green Book Industriestandard. Die Green Book Spe-
zifikation für FDDI beschreibt die Übertragungsstrecke auf Kupfermedien zwischen Konzentrator und der angeschlossenen Single Attach Station. Verabschiedet wurde dieser Industriestandard im Mai 1991 von den sogenannten »Big Five« (AMD, Chipcom, DEC, Motorola und SynOptics). Sie beschreibt vollständig die Übertragung von 100 MBit/s über Shielded Twisted-Pair Kabel (150 Ohm). SDDI Industriestandard. Der SDDI Industriestandard
1000Base-LX IEEE 802.3z. Besagt, dass es sich um ein
Gigabit Ethernet mit 1000 MBit/s Übertragung über Long Wavelength (die Wellenlänge beträgt 1300 nm) handelt. Die maximale Segmentlänge beträgt bei der Verwendung von Multimodefasern 550 m und bei der Verwendung von 9/125 Monomodefasern maximal 5000 m. Dieser Standard basiert auf einer Punkt-zu-Punkt-Verbindung in Full-Duplex, d. h. ohne Verwendung des CSMA/CD Verfahrens.
Token Ring (IEEE 802.4) Setzt als Zugriffsverfahren auf das Token Passing und arbeitet mit Übertragungsraten von 4 oder 16 MBit/s auf Twisted-Pair Kabeln. Die Segmentlänge beträgt 2 km, wobei der Abstand zwischen Ringleitungsverteiler und Rechner höchstens 300 m betragen darf und max. 260 Stationen im Ring angeschlossen werden können.
FDDI (Fibre Distributed Data Interface/IEEE 802.8) verwendet ein deterministisches Token Passing Zugriffsverfahren und arbeitet mit einer Datenübertragungsrate von 100 MBit/s. Als Übertragungsmedien werden TwistedPair Kabel oder Lichtwellenleiter eingesetzt. Die maximale Kabellänge beträgt 100 km im Ring; wobei bei dem Übertragungsmedium Twisted-Pair der maximale Abstand zwischen Konzentrator und Rechner 100 m und bei dem Übertragungsmedium LWL 2 km betragen darf. Physikalisch gesehen besteht das FDDI-Netz aus einem redundanten Glasfaserring. Im Regelbetrieb wird nur einer der beiden Ringe benutzt, der zweite Ring dient als Reservemedium, das automatisch einspringt, wenn der erste Ring ausfällt. Durch die hohe Bandbreite ist es Tatsache, dass eine Netzlast, die ein Ethernet zu 80 bis 90% beansprucht, ein FDDI Netz mit nur 8 bis 9% belastet.
FDDI über Kupfermedien Auf Kupfermedien stehen drei Typen/Arten zur Auswahl. Green Book und SDDI als Industriestandards auf STP-Ba-
wurde im Mai 1992 von den Firmen AMD, Chipcom, IBM, Madge (Networks), Motorola, NCS, NPI, Sumitomo, SynOptics, SK-SysKonnect und Technitrol verabschiedet. SDDI bietet wie Green Book die Möglichkeit, 100 MBit/s auf Kupfermdien (150 Ohm) zu übertragen. Darüber hinaus sind bei SDDI im Gegensatz zu Green Book »DASVerbindungen« und »Dual Homing« realisierbar. ANSI TP-PMD Standard (MLT-3). Der ANSI-Standard, der den Einsatz von Twisted-Pair als Übertragungsmedium beschreibt. Bei der Spezifikation des Standards konzentrierte sich das Normungsgremium auf 100 Ohm Category 5 Kabel und 150 Ohm Kabel. ANSI entschied sich bei dieser Technik für das MLT-3 (MultiLevelTransition-3) Kodierungsverfahren. Zusätzlich wurden weitere technische Möglichkeiten zur Reduzierung der Schwerpunktfrequenz ausgeschöpft. Das Kodierungsverfahren von TPPMD wurde geändert, um die Datenübertragungsrate von 100 MBit/s mit einer niedrigeren Schwerpunktfrequenz zu übertragen. Die Vorteile der niedrigeren Schwerpunktfrequenz sind in der geringeren Abstrahlung und der verbesserten Dämpfung auf dem Übertragungsmedium zu sehen.
ATM ATM (Asynchronous Transfer Mode) ist eine Technik, die es ermöglicht, Daten, Sprache und Bilder auf verschiedene logische Kanäle zu übertragen. ATM ist als Basistechnologie geplant, die in der Lage ist, mit einem zellorientierten Übertragungsprinzip Netze mit großer Bandbreite und geringen Verzögerungen zu betreiben. Die herstellerspezifischen Interessen beim Zusammenspiel der verschiedenen ATM-Implementierungen werden durch das ATM Forum (mittlerweile 1000 Mitglieder) auf Kompatibilität geprüft. Das ATM Forum definiert derzeit wie in ⊡ Tab. 44.3 aufgelistet. Aufgrund der hohen Komplexität und der Kosten hat sich ATM in lokalen Netzwerken überwiegend in Hochleistungsnetzwerken durchgesetzt. ATM findet man überwiegend im Backbonebereich.
44
728
Kapitel 44 · Grundlagen der Vernetzung
⊡ Tab. 44.3. ATM
V
Protokoll
Übertragungsrate
E3
34,368 MBit/s
S3
44,736 MBit/s
TAXI
100,0 MBit/s
STS3/STM1
155,52 MBit/s
SDH/STM4
622,08 MBit/s
44.5
Aktive Netzwerkkomponenten
Um ein möglichst hohes Maß an Investitionsschutz zu erreichen, werden besonders an aktive Netzwerkkomponenten hohe Anforderungen gestellt. Ebenso wie bei der Verkabelung (Netzwerkstruktur) sind diese Produkte sehr sorgfältig auszuwählen. Die Anforderungen gehen weit über die »der Aktive Hubs im ArcNet Bereich« hinaus. Bei dem enorm großen und für den Laien unüberschaubaren Angebot ist es wichtig, einige allgemeine Kriterien aufzustellen, um aus der Flut von Anbietern einen begrenzten Pool für die weitere Selektion zu bilden. Zum einen sollten die Komponenten von einem international tätigen Unternehmen sein. Dies gewährleistet eine weite Verbreitung und funktionale Sicherheit. Des Weiteren ist es wichtig, dass die Produkte eine breite Installationsbasis aufweisen. Wünschenswert ist die Tätigkeit des Herstellers in internationalen Gremien. Zwei grundsätzliche Bedingungen müssen zum einen der modulare Aufbau der Komponenten und zum anderen eine homogene Produktvielfalt sein, mit der sich die meisten in der Praxis auftretenden Anforderungen realisieren lassen. Dies wird umso bedeutender, wenn man das Wachstum der eingesetzten Informationssysteme betrachtet.
44.5.1 Repeater
Ein Repeater ist ein aktives Kopplungselement, mit dem zwei (Repeater) oder mehrere (Muliportrepeater) Koaxial-Segmente miteinander verbunden werden. Durch die Signalaufbereitung und physikalische Trennung der Segmente werden sie zum Verlängern von Netzwerken eingesetzt. Da sie weder Filter- noch Bridgefunktionen aufweisen, wird jedes ankommende Datenpaket in jedes angeschlossene Segment weitergeleitet. Durch die fehlende Lasttrennung und das ständig anwachsende Datenaufkommen wurden diese Komponenten durch Switche ersetzt (⊡ Abb. 44.9).
⊡ Abb. 44.9. Repeater mit Eingangs- und Ausgangssignal
44.5.2 Sternverteiler
Der Begriff Sternverteiler ist durch die Möglichkeit geprägt worden, Ethernet Koaxialsegmente sternförmig von einem zentralen Punk ausgehend in unterschiedliche Bereiche des Unternehmens zu führen. Da die Arbeitsweise der von Multiportrepeatern gleicht, liegt der Unterschied im modularen Aufbau. So ist bspw. auch die Integration von LWL-Einschubkarten möglich, um größere Entfernungen zu überbrücken oder Sternkoppler zu kaskadieren. Als sich die TP-Verkabelung immer mehr durchsetzte, wurden auch Einschubkarten für diese Verkabelungstechnik angeboten. Sternverteiler finden heute keine Anwendung mehr, da diese Komponenten wie die Repeater durch Switche ersetzt wurden.
44.5.3 Workgroup-Hub
Als Konzentratoren werden i. d. R. fest vorkonfigurierte Standalone-Systeme bezeichnet, die über eine feste Portanzahl verfügen und nur eine Netzwerktechnik unterstützen. Sie sind für kleine bis mittlere Arbeitsgruppen ausgelegt, und verfügen über einen Interconnectport mit dem sie über LWL oder einem Transceiver an das Backbone-Netz angeschlossen werden.
44.5.4 Hub
Hubsysteme sind große modulare Komponenten, die durch Integration von Modulen unterschiedlicher Netzwerktechnik eine hohe Anzahl von Ports bieten. So können unterschiedliche Topologien (Ethernet, Token Ring, ATM) für gemischte Verkabelungs-Infrastrukturen (Koax, TP, LWL) in einem Gerät betrieben werden. Für die Segmentierung bzw. Schaffung von topologieübergreifender Kommunikation werden häufig auch Bridge-Einschübe angeboten. Aufgrund der hohen Anzahl von weit über 100 Endgeräten ist es aus Redundanzgründen ratsam, ein zweites Netzteil zu integrieren.
44.5.5 Konzentrator
Der Begriff Konzentrator entstammt der FDDI-Technologie und beschreibt ein Gerät, welches fest oder modular ausgelegt ist und mehrere Ports für den Anschluss von FDDI-Geräten erlaubt. Durch die Unterstützung der TP-
729 44.5 · Aktive Netzwerkkomponenten
wie auch der LWL-Verbindungstechnik können sie für alle Anschlussvarianten eingesetzt werden. In ihrer Funktion sind sie mit den Workgroup-Hubs vergleichbar.
44.5.6 Bridge
Eine Brigde überträgt Datenpakete zwischen Netzwerken gleicher Topologie, wenn dieses erforderlich ist. Durch einen Lernalgorithmus »weiß« eine Bridge, in welchem Netzwerk sich ein Endgerät befindet. In einem Datenpaket befindet sich die Zieladresse des Empfängers und Ursprungsadresse des Senders. Durch die Auswertung dieser Informationen ist eine Bridge in der Lage zu entscheiden, ob das Datenpaket in ein anderes Netzwerk geleitet werden muss (forwarding). Befinden sich Sender und Empfänger im gleichen Netzwerk, wird das Datenpaket nicht von der Bridge übertragen (filtering). Durch diese Eigenschaft werden Bridges zur Segmentierung bzw. Kopplung von Netzwerken eingesetzt.
44.5.7 Switch ⊡ Abb. 44.10. Netzwerkkomponenten im OSI-Modell
Die Switch-Technologie resultiert aus dem »Missbrauch« der Router, die neben ihrer klassischen InternetworkingAufgaben auf Schicht 3 des ISO-Referenzmodells zur Segmentierung von Netzwerken eingesetzt werden. Switches sind fest konfigurierte Komponenten, die pro Port die volle Ethernet-Bandbreite zur Verfügung stellen. Wie bereits im Abschnitt Repeater erläutert, ersetzen sie Multiportrepeater, die allen angeschlossenen Segmenten nur 10 MBit/s zur Verfügung stellen. Ein weiteres Einsatzgebiet ist die Bildung von »Highspeed Workgroups« für netzintensive Anwendungen. Über einen Hochgeschwindigkeitsport werden die Systeme in den Backbone integriert bzw. mit einem Server verbunden. Die Funktionsweise entspricht der von Bridges mit dem Unterschied, dass gleichzeitig mehrere Datenübertragungen zwischen zwei Segmenten mit voller Bandbreite erfolgen können. Dies wird in der Art realisiert, dass für den Zeitraum der Datenübertragung eine feste virtuelle Verbindung geschaltet wird. Von diesen Verbindungen sind gleichzeitig mehrere möglich.
Für eine Entscheidungsfindung bei der Wegwahl werden jedoch nicht nur die Ziel- und Ursprungsadresse verwendet, sondern darüber hinaus auch die Netzwerkadresse. Ein spezieller Lernalgorithmus legt die so genannte Routingtabelle an, was dazu führt, dass der Router »weiß«, welche Netzwerke er wie erreichen kann. Diese Arbeitsweise findet hier auf der OSI-Schicht 3 statt (Protokollschicht). Empfängt ein Router ein Datenpaket, welches in ein anderes Netzwerk geroutet werden muss, so wird es zwischengespeichert. Besteht das Zielnetzwerk aus einer anderen Netzwerktopologie, so wird das Datenpaket zerlegt, in den Frameaufbau des Zielnetzwerkes umgewandelt und in einem oder mehreren Paketen weitergeleitet. Diese Technik ist erforderlich, da nicht jede Netzwerktopologie mit gleich großen Paketen arbeitet. Befinden sich Sender und Empfänger im gleichen Netzwerk, so wird das Paket gefiltert.
44.5.8 Router
44.5.9 Access Points
Router finden ihren Einsatz dort, wo verschiedene Netzwerktopologien miteinander verbunden werden müssen. Dazu zählen neben den lokalen Netzwerken (LAN) auch Weitverkehrsanbindungen (WAN). Die Entscheidung, ob Datenpakete in andere Netzwerke gesendet werden müssen, wird über einen ähnlichen Mechanismus wie bei den Bridges realisiert.
Verfügt ein Netzwerk neben den kabelgebunden Bestandteilen auch über funkbasierte Netzwerkkomponenten, benötigt man Access Points. Access Points sind im OSIModell auf der Schicht 2 angesiedelt. Die von einem Access Point bereitgestellten Funktionalitäten kann man mit denen eines Switches und denen einer Bridge vergleichen. Neben diesen Funktionalitäten verfügen viele
44
730
V
Kapitel 44 · Grundlagen der Vernetzung
Access Points über weitere Dienste, die in höhere OSISchichten abgebildet werden. Beispiele hierfür sind die Bereitstellung von DHCP Diensten und/oder Routing Funktionalitäten. Die Hauptaufgabe der Access Points liegt in der Bereitstellung der WLAN Technik, die den WLAN Clients die Kommunikation auf der gemeinsam genutzten Funkfrequenz ermöglicht. Hier wird das CSMA/CD Protokoll eingesetzt. Der Access Point vergibt Zeitfenster, zu denen ein Client mit dem Access Point Daten austauscht, und anschließend gibt der Access Point in einem weiteren Zeitfenster die Daten an den Empfänger weiter. Diese Funktionalität entspricht der eines Switches. Eine zweite Hauptaufgabe des Access Points besteht darin, die Signale zwischen den beiden physikalischen Medien, dem funkbasierten Interface und dem kabelgebundenen Interface, zu überbrücken. Zu diesem Zweck verfügen die Access Points neben dem WLAN Anschluss über ein zweites kabelgebundenes Interface, über das sie an das Netzwerk angeschlossen werden. Diese Funktionalität entspricht der einer Bridge.
44.5.10
Firewall
Bei einer Firewall handelt es sich um ein System, das aus Software- und Hardwarekomponenten besteht und das den Zugriff zwischen den angeschlossenen Netzwerken kontrolliert. Zum Schutz von lokalen Netzwerken sollten zentrale Firewalls (Netzwerkfirewalls) eingesetzt werden. Das heißt, es sollten Produkte Verwendung finden, die explizit für diesen Zweck konzipiert wurden. Eine Firewall verfügt im Regelfall über drei Netzwerkschnittstellen, an denen die zu trennenden Netze angeschlossen sind. Diese drei Netzwerkschnittstellen dienen der Sicherheit. Nur durch diese Trennung kann gewährleistet werden, dass ausschließlich die Netzwerkpakete von einem Netzwerk in das andere gelangen, die von der Software als gültig anerkannt werden. Generell werden hierbei drei Netzwerkzonen unterschieden: ▬ das LAN (das interne Netz), welches als vertrauenswürdig gilt, ▬ die so genannte demilitarisierte Zone (DMZ), in der vom externen Netz aus erreichbare Server, z. B. der Internet Server, beherbergt sind und ▬ das externe Netz (WAN), welches als unvertrauenswürdig eingestuft wird – heute i. d. R. das Internet. Eine Firewall besteht aus spezieller Hardware, die durch eine darauf abgestimmte Software ergänzt wird. Die Software der Firewall arbeitet auf den Schichten 2–7 des OSIReferenzmodells, und demzufolge kann sich die Konfiguration einer Firewall als sehr komplex herausstellen. Als Beispiele seien hier die Begriffe Paketfilterung und die
Einschränkung der Netzwerkdienste über Proxy-Funktionalitäten aufgeführt. Für den Schutz eines einzelnen Rechners werden heute i. d. R. Desktop Firewalls oder auch Personal Firewalls eingesetzt. Es handelt sich hierbei um Programme, die lokal auf einem einzelnen Rechner installiert und über die bestimmte Dienste zugelassen oder ausgeschlossen werden. Der Schwerpunkt dieser Produkte liegt in der Einfachheit, der Bedienbarkeit und Konfigurierbarkeit.
44.6
Kryptosysteme
Unter dem Begriff Kryptosysteme versteht man Verfahren, bei dem eine Eingabe durch Parameter gesteuert in eine Ausgabe (Verschlüsselung) gewandelt wird. Umgekehrt wird die durch das Kryptosystem erzeugte Ausgabe wieder in die Eingabe (Entschlüsselung) zurückgewandelt. Somit werden Informationen vor unbefugtem Zugriff geschützt. Man unterscheidet asymmetrische, symmetrische und hybride Verfahren.
44.6.1 Asymmetrisches Kryptosystem
Bei dem asymmetrischen Kryptosystem (auch PublicKey-Verfahren genannt) werden unterschiedliche Schlüssel zur Ver- und Entschlüsselung verwendet. Die Basis dieser Verfahren sind immer zwei Schlüssel, d. h. jeder Anwender dieses Verfahrens besitzt zwei Schlüssel, einen privaten Schlüssel (private key) und einen öffentlichen Schlüssel (public key). Der Erzeuger eines Schlüsselpaares stellt den öffentlichen Schlüssel, der zur Chiffrierung benötigt wird, allen an dem Verfahren beteiligten Personen zur Verfügung. Den Dechiffrierschlüssel, den private key, behält er für sich. Dieser Schlüssel wird von dem Erzeuger des Schlüsselpaares zur Dechiffrierung der an ihn gehenden Nachrichten verwandt. Damit ist jeder Beteiligte in der Lage, unter Verwendung des öffentlichen Schlüssels eine Nachricht zu chiffrieren, die dann nur von dem Besitzer des geheimen Schlüssels dechiffriert werden kann. Durch die Verbreitung des öffentlichen Schlüssels ermöglicht der Erzeuger des Schlüsselpaares allen Interessierten, ihm ohne vorherigen Austausch geheimer Schlüssel vertrauliche Nachrichten verschlüsselt zukommen zu lassen. Die verwendeten Algorithmen sollten so gewählt werden, dass zwischen dem public key und dem private key kein »einfacher« Zusammenhang besteht; so ist es nicht möglich, ohne zusätzliches Wissen vom public key auf den private key zu schließen. Je komplexer der verwendete Algorithmus, desto höher ist der Aufwand zur Ermittlung des private key. Es wird also nicht mit einem einzelnen Schlüssel, sondern immer mit einem geeignet gewählten Schlüsselpaar gearbeitet.
731 Literatur
Der Durchbruch bei den asymmetrischen Kryptosystemen gelang Ronald L. Rivest, Adi Shamir und Leonard M. Adleman, die 1977 das RSA-Verfahren entwickelten. Es gilt bis heute als sicheres Verfahren und hat außerdem den großen Vorteil, in beiden Richtungen eingesetzt werden zu können.
44.6.2 Symmetrisches Kryptosystem
Hier wird im Gegensatz zu einem asymmetrischen Kryptosystem derselbe oder ein sehr ähnlicher Schlüssel zur Dechiffrierung und Chiffrierung einer Nachricht verwendet. Der große Nachteil der symmetrischen Verfahren liegt somit in der Nutzung eines Schlüssels zur Ver- und Entschlüsselung. Es ist unabdingbar, dass dieser Schlüssel geheim bleiben muss, was voraussetzt, dass für jede Kommunikationsbeziehung ein eigenes Schlüsselpaar existieren muss. Ein weiteres typisches Problem beim Einsatz von symmetrischen Verfahren ist, wie der Schlüssel erstmals über unsichere Kanäle übertragen werden kann. Üblicherweise kommen hierbei dann asymmetrische Kryptosysteme zum Einsatz. Zu den symmetrischen Verfahren gehören das DES (Data Encryption Standard) oder Lucifer. Lucifer wurde 1974 von IBM entwickelt. Die Version für Privatanwender heißt Data Encryption Algorithm (DEA). Triple-DES, eine Weiterentwicklung des DES-Verfahrens, ist zwar dreimal langsamer, aber um Größenordnungen sicherer. Der Nachfolger des DES ist das AES (Advanced Encryption Standard) oder Rijndahl (US-amerikanischer Verschlüsselungsstandard), das von Joan Daemen und Vincent Rijmen entwickelte Blockverschlüsselungsverfahren.
44.6.3 Hybride Kyryptosysteme
Asymmetrische Kryptosysteme haben große Vorteile bei der Schlüsselverwaltung, jeder Benutzer muss bei diesen Verfahren nur seinen eigenen privaten Schlüssel geheim halten. Bei den symmetrischen Kryptosystemen muss jeder Benutzer alle Schlüssel geheim halten, daraus kann man ableiten: »Je mehr Beteiligte, desto größer ist der Aufwand bei der Schlüsselverwaltung«. Der zweite große Vorteil der asymmetrischen Kryptosysteme ist in dem niedrigeren Aufwand der Schlüsselverteilung zu sehen. Bei den symmetrischen Kryptosystemen müssen die Schlüssel auf einem sicheren Weg übermittelt werden, bei vielen Beteiligten resultiert hieraus ein sehr hoher Aufwand. Mit dem öffentlichen Schlüssel bei den asymmetrischen Verfahren kann dieses Problem ignoriert werden, der öffentliche Schlüssel trägt bei diesem Verfahren kein Geheimnis.
Der große Nachteil der asymmetrischen Kryptosysteme liegt in den verwendeten komplexen Algorithmen, die diese Verfahren bei großen Datenmengen langsam machen. Eine Antwort auf diese Problematiken sind die hybriden Kryptosystemen. Bei diesen Verfahren wird eine Kombination aus den symmetrischen und asymmetrischen Verfahren eingesetzt. Hierbei wird der Sitzungsschlüssel über ein asymmetrisches Verfahren generiert, und zur Verschlüsselung der Nachricht wird ein symmetrisches Verfahren verwendet. Man nutzt die Vorteile der asymmetrischen Verfahren bei der Schlüsselverteilung und die performanteren Algorithmen der symmetrischen Verfahren bei der Verschlüsselung der Nachrichten.
Literatur Boissonnat JD (1985) Shape reconstruction from planar cross-sections. In: Proceedings of: IEEE Conf Computer Vision and Pattern Recognition, pp 393–397 Gerold Gärtner (1993) PC-Vernetzung. SYBEX-Verlag, Düsseldorf Hansen HR (1987) Wirtschaftsinformatik I; Gustav Fischer Verlag, Stuttgart Koy H, Schneider J (2001) ct magazin für computer technik. Heft 14/ 2001 Tannenbaum AS (1990) Computer Netzwerke. Wolframs Fachverlag, München Die Vorteile von Configuration Switching auf Port-Ebene (1994). Bay Networks, Inc., Wiesbaden Moving to Fast Ethernet (1995) Bay Networks. Santa Clara, California, USA, Mai The ATM Forum (1995) Newsletter. 303 Vintage Park Drive, January White Paper über Strukturierte Verkabelung (1995). Schneider & Koch, Ettlingen, Mai
44
45 Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl P. Haas, K. Kuhn 45.1 Einleitung
– 733
45.2 Notwendigkeit, Ziele und Nutzen umfassender Krankenhausinformationssysteme – 734 45.2.1 Notwendigkeit – 734 45.2.2 Ziele des Informationstechnologie-einsatzes im Krankenhaus – 734 45.2.3 Nutzenpotenziale – 735
45.3 Unterstützung des Krankenhausbetriebes durch ein KIS – 736 45.4 Unterstützung am Fallbeispiel – 736
45.5 Architektur und Komponenten eines Krankenhausinformationssystems – 742 45.5.1 Logisches Architekturmodell – 742 45.5.2 Implementierungsalternativen: holistisch vs. heterogen – 744 45.5.3 Integrationsaspekte heterogener Krankenhausinformationssysteme – 745
45.6 Auswahl und Einführung von Krankenhausinformationssystemen – 747 45.6.1 Vorbemerkungen – 747 45.6.2 Projektphasen und kritische Faktoren
45.7 Zusammenfassung Literatur
45.1
Einleitung
Das Gesundheitswesen in vielen Industrienationen steht vor großen Herausforderungen. Steigendes Durchschnittsalter mit einhergehender Zunahme chronischer Erkrankungen und damit steigende Ausgaben, arbeitsmarktbedingte Beitragsausfälle und der durchgängige Anspruch aller Bürger, ungeachtet ihrer Finanzkraft, nach hochwertiger zeitgemäßer medizinischer Versorgung führen zu wesentlichen Fragestellungen: ▬ Wie kann die Balancierung von beschränkten Geldmitteln und der Anspruch auf Versorgungsleistungen erreicht werden? ▬ Wie können der medizinischen Fortschritt und die damit verbundenen neuesten Erkenntnisse schnell und effizient flächendeckend umgesetzt werden? ▬ Wie kann die Versorgung effektiv und koordiniert gestaltet werden? ▬ Welche Instrumente der Gesundheitsberichtserstattung braucht die Politik, um schnell und adäquat handeln zu können? Stichworte von Lösungsansätzen sind hier »managed care«, »evidence-based medicine« und bessere Verzahnung der Versorgungssektoren. Von diesen Lösungsansätzen sind die Krankenhäuser in besonderem Maße betroffen bzw. werden zur Umsetzung wesentlich beitragen müssen. »Keine Netze ohne Kliniken« (Henke 1999) – dieser These ist voll zuzustimmen. Ein Großteil der medizini-
– 748
– 754
– 755
schen Information zu einer Person wird in Krankenhäusern erhoben und dokumentiert. Dies umso mehr für die eingangs erwähnten Gruppen der chronisch Kranken und der Menschen im fortgeschrittenen Lebensalter. Wesentliche medizinische Maßnahmen sowohl diagnostischer als auch therapeutischer Art – welche bedeutsam auch im weiteren Lebensverlauf sind – finden im Krankenhaus statt. Was davon in den ambulanten Sektor diffundiert, ist i. d. R. eine sehr knapp gefasste und oftmals zu spät kommende Epikrise, die sicher hilft, schnell einen Überblick zu verschaffen, aber Detailfragen nicht transparent beantworten kann. Politik, Selbstverwaltungsorgane, Fachgesellschaften und auch die Bürger sind sich zunehmend bewusst, dass diese Herausforderungen nur mittels einer informationstechnologischen Vernetzung zum Zweck der Verzahnung aller Versorgungssektoren des Gesundheitswesens – v. a. aber der ambulanten, stationären und rehabilitativen – bewältigt werden können. Schlagwort für einen solchen Lösungsansatz ist die »Gesundheitstelematik«. Eine funktionierende und leistungsfähige Vernetzung macht jedoch nur Sinn, wenn die Knoten dieses Netzes (= die beteiligten betrieblichen Informationssysteme) vorhanden und geeignet sind, dieses Netz tatsächlich zu knüpfen und mit Leben zu füllen. Damit wird deutlich, dass die Ausstattung von Gesundheitsversorgungsinstitutionen mit geeigneten einrichtungsbezogenen Informationssystemen (sog. betriebliche Informationssysteme wie Krankenhausinformationssysteme, Arztpraxissyste-
734
V
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
me, Informationssysteme im Rettungswesen etc.) sowie der adäquaten personellen Kompetenz ein kritischer Erfolgsfaktor für die weitere Entwicklung des deutschen Gesundheitswesens ist. Die Konsequenz dieser Überlegung ist, dass Gesundheitstelematik ohne eingebundene Krankenhausinformationssysteme undenkbar ist, es kann gar argumentiert werden, dass Krankenhausinformationssysteme das Rückgrat der Gesundheitstelematik sind. Dies auch, da viele Problemstellungen und Lösungsansätze sowie semantische Bezugssysteme aus dem »Mikrokosmos« Krankenhaus sehr wohl ihre Entsprechungen im »Makrokosmos« der gesundheitstelematischen Netze haben. Die Chance, hier einschlägige positive wie negative Erfahrungen mit dem IT-Einsatz im Krankenhaus zu nutzen, ist groß. Darüber hinaus können Krankenhäuser mit ihren IT-Abteilungen den Betrieb aktiver Netzknoten für ganze Subregionen übernehmen. Dazu bedarf es in Krankenhäusern umfassender Informationssysteme und einer mittel- und langfristigen strategischen Informationssystemplanung.
45.2
Notwendigkeit, Ziele und Nutzen umfassender Krankenhausinformationssysteme
45.2.1 Notwendigkeit
Die Notwendigkeit des Einsatzes umfassender Krankenhausinformationssysteme (KIS) ergibt sich aus vier wesentlichen Aspekten: 1. Die Krankenhäuser sind einem hohen Druck hinsichtlich ihrer Effektivität und Effizienz ausgesetzt. Weitreichende Nachweis- und Datenübermittlungspflichten sind u. a. Ausdruck dieser Situation, aber auch das neue Vergütungssystem mittels »Diagnosis-Related Groups« (DRG). Ein betriebliches Management ist nur noch auf Basis einer medizinökonomisch ausgerichteten Deckungsbeitragsrechnung mit allen notwendigen vor- und nachgelagerten Komponenten möglich. Hierzu werden detaillierte Angaben zu individuellen Behandlungen benötigt, die nur über ein flächendeckend eingesetztes Krankenhausinformationssystem (KIS) gewonnen werden können. 2. Die rasche Umsetzung neuester medizinischer Erkenntnisse – welche schneller als bisher bekannt mittels elektronischer Medien und Internet verfügbar sind – in den klinischen Arbeitsalltag ist ohne entsprechende Unterstützung mittels der Informationstechnologie kaum zu leisten. Hier werden, u. a. bezogen auf die individuelle Behandlungssituation, kontextsensitive Rechercheinstrumente benötigt, die dem Arzt entsprechende im KIS oder in entsprechen-
den medizinischen Daten- und Wissensbasen vorhandene und zugreifbare Informationen direkt und unaufwändig zur Verfügung stellen. 3. Die Umsetzung von Leitlinien sowie die organisatorische Koordination und Straffung ist ohne entsprechende unterstützende IT-Funktionen nicht wirtschaftlich leistbar. 4. Aus dem eingangs Gesagten wird deutlich, dass Krankenhausinformationssysteme eine ganz wesentliche Rolle beim Aufbau einer Gesundheitstelematik spielen. Kein effizientes und vernetztes Gesundheitswesen kommt ohne leistungsfähige Krankenhausinformationssysteme aus. Vor diesem Hintergrund ist die Frage, wie die Krankenhäuser – die letztendlich immaterielle Güter wie »Gesundheit«, »Besserung« oder »Linderung« produzieren bzw. produzieren sollen – mit der für die Produktion dieser Güter wichtigsten Produktionsressource »Information« umgehen, von höchster strategischer Bedeutung. Dies v. a. auch, weil kritischer Erfolgsfaktor für effizientes ärztliches Handeln – und damit ein hohes Maß an Effizienz und Wirtschaftlichkeit – die schnelle und umfassende Verfügbarkeit aktueller Informationen über Untersuchungen, deren Befunde, spezifische Ereignisse und mögliche Handlungsalternativen bezogen auf eine spezielle Patientenbehandlung ist. Insofern ist die Verfügbarkeit eines leistungsfähigen Krankenhausinformationssystems und eines entsprechenden strategischen Informationsmanagements (Pietsch et al. 2004; Heinrich u. Lehner 2005) für jedes Krankenhaus ein entscheidender Faktor für den Unternehmenserfolg.
45.2.2 Ziele des Informationstechnologie-
einsatzes im Krankenhaus Die Ziele des Einsatzes von IT im Krankenhaus müssen – wie in allen Einsatzbereichen (Bullinger 1991) – sich prinzipiell den Unternehmenszielen unterordnen bzw. von diesen abgeleitet sein. Insofern hat jedes Krankenhaus im Speziellen diese Ziele festzulegen, ein Beispiel einer solchen zielorientierten Strategie findet sich in Kuhn u. Haas (1997). Allgemeingültig können jedoch folgende strategische Ziele angegeben werden: Der IT-Einsatz im Krankenhaus muss ▬ das Handeln des Managements umfassend unterstützen, ▬ die Optimierung der Erlössituation ermöglichen, ▬ Kosten- und Leistungstransparenz schaffen, ▬ die Rationalisierung von administrativen Vorgängen ermöglichen, ▬ zur Effektivierung medizinischer Organisations- und Entscheidungsprozesse beitragen,
735 45.2 · Notwendigkeit, Ziele und Nutzen umfassender Krankenhausinformationssysteme
▬ die Durchlaufzeiten (Untersuchungsaufträge, Operationen, stationäre Aufenthaltsdauer etc.) verkürzen, ▬ die Transparenz medizinischer Organisations- und Entscheidungsprozesse herstellen, ▬ ein kontinuierliches Qualitätsmonitoring sicherstellen, ▬ die diagnosegruppenbezogene Standardisierung medizinischer Kernbehandlungsprozesse unterstützen, ▬ ein Informationsangebot für Patienten, Personal und Bürger ermöglichen, ▬ die Koordination/Kooperation mit externen Partnern verbessern, ▬ eine vollständige elektronische Krankenakte zur Verfügung stellen. Wesentliche – diesen strategischen Zielen folgende – operative Ziele sind dabei: ▬ Sicherstellung der aktuellen Abrechnungsformen und Nachweispflichten, Liquidität verbessern: → Einnahmentransparenz, ▬ Einführung einer (erweiterten) Basisdokumentation, einheitliche Verschlüsselungssoftware: → Transparenz des Krankengutes, ▬ operative Systeme in Materialwirtschaft, Personalwirtschaft, Technik, Küche etc.: → Kostentransparenz, ▬ flächendeckende »optimale« Leistungserfassung: → Leistungstransparenz, Handlungstransparenz, ▬ Deckungsbeitragsrechnung/Prozesskostenrechnung ermöglichen: → Transparenz der Ressourcenverwendung (Personal, Sachmittel etc. für Fallgruppen), ▬ medizinische Organisations- und Dokumentationssysteme für die Fachabteilungen: → Organisationstransparenz, Dokumentationstransparenz, ▬ Informationsmedium Intra-/Internet für die verschiedenen Zielgruppen: → Transparenz des Krankenhauses (z. B. für Mitarbeiter, Patienten und Bürger).
45.2.3 Nutzenpotenziale
Das Nutzenpotenzial der Informationsverarbeitung im Krankenhaus ist breit gefächert und ergibt sich z. T. aus den bereits genannten Zielen. Zieht man einmal die Analogie, dass ein Krankenhausinformationssystem Gehirn (in diesem Sinne das Gedächtnis) und Nervensystem (Informationsübermittlung, Steuerung, Überwachung, Statusinformationen) des Krankenhauses darstellt, wird die enorme Bedeutung und das Nutzenpotenzial eines KIS deutlich. Die Vorteile eines KIS sind in der Übersicht zusammengefasst.
Nutzenpotenzial eines KIS Ein Krankenhausinformationssystem ▬ ermöglicht eine gesamtheitliche Sicht auf die Patientenbehandlung, ▬ trägt zur Integration der verschiedenen Berufsgruppen bei, ▬ entlastet das medizinische Personal von Doppelarbeiten und administrativem Overhead, ▬ ermöglicht den schnellen Zugriff auf frühere Behandlungsfälle/-dokumentationen, ▬ ermöglicht den schnellen Zugriff auf aktuelles medizinisches Wissen, ▬ ermöglicht eine bessere Koordination und Abstimmung z. B. durch ein Terminplanungsmodul und somit eine zeitnahe Steuerung und Regelung der betrieblichen Prozesse, ▬ ermöglicht ein kontinuierliches Qualitätsmonitoring, ▬ trägt selbst zur erhöhten Behandlungsqualität bei, ▬ hilft, unnötige Untersuchungen zu vermeiden, ▬ gibt Auskunft über die entstandenen Kosten und wofür diese angefallen sind, ▬ schafft betriebliche Transparenz, ▬ hilft, Kosten zu sparen, ▬ trägt zur Patientenzufriedenheit bei, ▬ steigert die Attraktivität des Krankenhauses für zuweisende Ärzte, für Patienten und für Bürger, ▬ schafft Wettbewerbsvorteile durch adäquates Leistungsangebot sowie schnellere Reaktion auf Marktveränderungen, ▬ schafft eine Informationsbasis für die Forschung im Bereich der klinischen Epidemiologie, aber auch für die Gesundheitsökonomie.
Das Potenzial für bessere Behandlungsqualität, weniger Behandlungsfehler und Liegezeitverkürzungen als Folgeeffekte des Einsatzes von KIS wurde belegt (Bates et al. 1994; Clayton et al. 1992; Kohn et al. 2000; Leape 1997). Auch der positive Effekt von IT-generierten Erinnerungs- und Warnhinweisen ist zu erwähnen (McDonald et al. 1999). Es gibt aber auch kritische Stimmen (Bates 2005). Die Informationsverarbeitung mit ihrem Charakter einer Querschnittstechnologie eröffnet jedoch diesen Nutzen nur bei einer ausgewogenen und abgestimmten Durchdringung aller betrieblichen Bereiche – was also eine gesamtbetriebliche IT-Strategie voraussetzt. Gerade in einer Situation beschränkter Finanzmittel kommt daher einem strategisch gesteuerten und koordinierten stufenweisen Ausbau des KIS in einem Krankenhaus besondere Bedeutung zu.
45
736
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
45.3
Unterstützung des Krankenhausbetriebes durch ein KIS
Die zuvor dargestellten Ziele und Nutzenpotenziale können insgesamt nur erreicht werden, wenn innerhalb eines Krankenhausinformationssystems – unabhängig vom Grad der Verteilung bzw. der integrierten Komponentensysteme – alle Aspekte der IT-Unterstützung im Krankenhaus berücksichtigt sind. Wesentliche Unterstützungsdimensionen von IT-Systemen im Krankenhaus werden im Folgenden erläutert (Bates u. Gawande 2003; Haas 2005).
V
Verarbeitungsunterstützung. Die Unterstützung bei der Verarbeitung von Daten im Sinne der Durchführung von komplexen Berechnungen, Transformationen und Datenkonvertierungen. Beispiel: Ermittlung der abrechenbaren DRG (Diagnosis Related Group) aus dokumentierten vorliegenden klinischen Sachverhalten. Ein stärker klinisch orientiertes Beispiel ist die Dosisberechnung, etwa von Infusionsraten. Auch Monitoringsysteme fallen in diese Kategorie. Dokumentationsunterstützung. Die Unterstützung bei der Dokumentation durch Zurverfügungstellung entsprechender elektronischer Formulare und Textsysteme zur Erstellung von Dokumenten sowie deren Archivierung in elektronischen Akten. Im Bereich der abrechnungsrelevanten Dokumentation von Diagnosen und Maßnahmen werden auch komplexere IT-Module mit Thesaurusfunktionalität und Überprüfungen eingesetzt. Das derzeit wichtigste Problem ist hier, dass in Deutschland zwar vergröbernde Klassifikationen, aber noch keine auch Detailbeschreibungen ermöglichenden Terminologien eingesetzt werden. Dies schränkt auch die Möglichkeit der Entscheidungsunterstützung, etwa durch Generierung von Hinweisen aufgrund einer Überprüfung gesammelter Daten, ein. Ebenso wird die semantische Interoperabilität zwischen Informationssystemen erschwert. Organisationsunterstützung. Die Unterstützung der Organisation, speziell im Krankenhaus die Unterstützung der Ressourcenbelegungsplanung (Terminpläne in den Leistungsstellen, Bettenbelegungsplanung auf Station), der Prozessabwicklung durch ein Workflowmanagementsystem und der Behandlungsunterstützung durch den Einsatz klinischer Pfade. Kommunikationsunterstützung. Die Unterstützung der innerbetrieblichen Kommunikation in Form der Befundkommunikation sowie eine Unterstützung bei Übergabe/ Schichtwechsel, zunehmend auch die Kommunikation mit externen Partnern. Eine Kommunikationsunterstützung ist eng an eine funktionierende Dokumentationsun-
terstützung sowie an einen verbesserten Zugang zu Information gekoppelt. So kann die Integration von Befunden und Diagnosen in Arztbriefe die Brieferstellung beschleunigen und die wichtige Kommunikation zwischen stationärem und ambulantem Sektor verbessern. Die Auftragskommunikation gewinnt zunehmend an Bedeutung im Krankenhaus. Bei der Erstellung von Aufträgen können durch Überprüfung der Daten Erinnerungs- und Warnhinweise generiert werden. Entscheidungsunterstützung. Die Unterstützung von Entscheidungsvorgängen durch ein betriebliches Wissensmanagement zur kontextsensitiven Zurverfügungstellung von aktuellem Wissen (Beispiel Zugriff auf Medline, Leitlinien etc.) und zur automatisierten Bewertung gegebener Faktenlagen (z. B. Interpretation von Laborergebnissen, EKG-Kurven, Symptomatologie usw.). Die o. g. Erinnerungs- und Warnhinweise sind wohl die wichtigste Form der Entscheidungsunterstützung; ihr Nutzen ist nachgewiesen, ihre Verbreitung ist derzeit v. a. durch das Fehlen einer Standardterminologie eingeschränkt. Die wesentlichsten Funktionen eines KIS bezüglich dieser Unterstützungsdimensionen im Krankenhaus zeigt die nachfolgende ⊡ Tab. 45.1.
45.4
Unterstützung am Fallbeispiel
Anhand eines beispielhaften kurzen fiktiven Behandlungsverlaufes der ersten beiden Tage eines Krankenhausaufenthaltes einer Patientin – also eines stationären Falles – sollen hier die wesentlichen Aspekte der Unterstützung des Krankenhausbetriebes durch ein KIS deutlich gemacht werden. Frau Maier – eine ältere Dame – soll eine künstliche Hüfte erhalten. Hierzu wurde ein Termin für die Krankenhausaufnahme am 16. Januar 2006 mit ihr bzw. ihrem Hausarzt vereinbart. Die IT-Unterstützung der Organisation greift bereits vor dem aktuellen Krankenhausaufenthalt durch eine vorausschauende Betten- und Ressourcenbelegungsplanung – im Beispielfall ist also für Frau Maier bereits ein Bett für die voraussichtliche Dauer des Aufenthaltes gebucht. Erscheint die Patientin dann am geplanten Aufnahmetag, kann sie nach kurzer Ergänzung der bereits vorhandenen Informationen in der zentralen Aufnahme – wo die für die Abrechnung notwendigen Falldaten erfasst werden – direkt auf die Station gehen, wo ihr real aber auch innerhalb des Krankenhausinformationssystems ein Bett zugewiesen wird (⊡ Abb. 45.1). Entsprechende Funktionen mit einer grafischen Bettenbelegungsübersicht sind heute praktisch in allen KIS realisiert. Des Weiteren werden nun auf Station weitere Daten ergänzt: Die Bezugspersonen der Patientin und aktuelle Mitbehandler sowie bereits bekannte Risikofaktoren (⊡ Abb. 45.2).
737 45.4 · Unterstützung am Fallbeispiel
⊡ Tab. 45.1. IT-Unterstützungsdimensionen und beispielhafte KIS-Funktionalitäten Dimension
Beispiel
Verarbeitungsunterstützung
Ermittlung der abrechenbaren DRG Ermittlung fallbezogener Prozesskosten Kalkulation von Deckungsbeiträgen (Fortwährende) Berechnung wesentlicher statistischer Maßzahlen wie mittlere Verweildauer, Auslastung usw. Erstellung von (gesetzlich vorgeschriebenen) Statistiken und Nachweisen. Dosisberechnungen z. B. für Bestrahlungen, Medikationen, Chemotherapien
Dokumentationsunterstützung
abrechnungsorientierte Diagnosen- und Prozedurdokumentation klinische Diagnosendokumentation Dokumentation durchgeführter Maßnahmen mit zugehörigen Befunden so z. B. auch die Operationsdokumentation, Anästhesiedokumentation, Laborwertdokumentation u.v.a.m. Symptomdokumentation Dokumentation wesentlicher Vorfälle und Vorkommnisse Medikationsdokumentation Arztbriefschreibung, Epikrisendokumentation, integriert in einer elektronischen Krankenakte
Organisationsunterstützung
Terminpläne/Ressourcenbelegungsplanung in Ambulanzen und Funktionsbereichen Bettenbelegungsplanung auf Station Workflowmanagement zur Unterstützung der Abwicklung von Untersuchungsaufträgen und der Dokumenten-/ Befunderstellung Anwendung von klinischen Pfaden und Behandlungsstandards Überwachung der Vollständigkeit und Zeitnähe der Abrechnungsdokumentation
Kommunikationsunterstützung
gebundene betriebliche Kommunikation in Form der Leistungsanforderung und Ergebnisrückmeldung (Leistungskommunikation, »order entry/result reporting«) Übermittlung von Falldaten an Krankenkassen gemäß §301 SGB Übermittlung von Entlassbriefen an die einweisenden Ärzte interne betriebliche E-Mail-Kommunikation
Entscheidungsunterstützung
kontextsensitiver Zugriff auf Fakten- und Wissensbasen klinische Erinnerungsfunktionen (»Reminder«) und Warnhinweise kontextsensitive Laborwertwertüberwachung Kontraindikations- und Wechselwirkungsprüfung
Für die weitere Unterstützung des Behandlungsablaufes arbeiten viele Krankenhäuser an der Einführung sogenannter Klinischer Pfade, die diagnosen- bzw. behandlungsspezifisch festlegen, welche Maßnahmen im Ablauf durchzuführen sind. In unserem Beispielfall wird also der entsprechende Pfad zur Hüft-TEP (⊡ Abb. 45.3) angewandt. In der Elektronischen Krankenakte der Patientin sind nach Zuweisung des Bettes dann bereits alle notwendigen durchzuführenden Maßnahmen automatisch im Zeitverlauf eingetragen (⊡ Abb. 45.4, auch 4-Farbteil am Buchende). Dass diese noch »offen« also zu erledigen sind, ist am Statuskürzel (»a« für »angefordert« oder »gepl« für geplant) zu erkennen. Ebenso ist die stationäre Aufnahme bereits dokumentiert, über die Dokument-Icons ist für autorisierte Benutzer der direkte Zugriff auf die Aufnahmedaten und den Einweisungsschein möglich.
Im nächsten Schritt führt nun der diensthabende Arzt die Anamnese und die klinische Untersuchung (⊡ Abb. 45.5) durch und dokumentiert die Ergebnisse elektronisch. Während oder nach der Durchführung dieser Maßnahmen ergänzt er die Diagnosendokumentation (⊡ Abb. 45.6), die auch wichtig ist für die spätere DRG-Abrechnung und die elektronische Übermittlung der Abrechnungsdaten an die Krankenkasse. Da Frau Maier auch über Atembeschwerden klagt, ordnet der Arzt mittels der elektronischen Auftragsfunktion (⊡ Abb. 45.7) abweichend vom Standardbehandlungspfad noch eine zusätzliche Thorax-Röntgenaufnahme an. Am gleichen Nachmittag wird daher neben den anderen geplanten Maßnahmen im Labor und in der Röntgenabteilung auch noch eine entsprechende Thorax-Aufnahme durchgeführt. Die Abarbeitung in der Röntgenabteilung erfolgt an-
45
738
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
V
⊡ Abb. 45.1. Beispielmaske Stationsübersicht
⊡ Abb. 45.2. Beispielmaske Patientenstammdaten
739 45.4 · Unterstützung am Fallbeispiel
⊡ Abb. 45.3. Klinischer Pfad Hüft-TEP
⊡ Abb. 45.4. Aktenübersicht mit Hüft-TEP-Pfad
hand sogenannter elektronischer Arbeitslisten, in denen je Röntgenarbeitsplatz die geplanten Untersuchungen angezeigt werden und von denen aus dann die Leistungserfassung erfolgt. So stehen direkt nach der Untersuchung Leistungsdaten, Bilder und kurze Zeit später auch der Befund zeitnah auf Station zur Verfügung. Am nächsten Morgen stellt sich nun die elektronische Krankenakte wie in ⊡ Abb. 45.8 ( auch 4-Farbteil am Buchende) gezeigt dar: Alle geplanten Maßnahmen des Vortages sind durchgeführt (Status »le« = Leistung erfasst oder »bg« = Befund geschrieben), die Befunde und Formulare können nun über die grünen Icons direkt eingesehen
werden und für die Patientin hat am Vorabend auch der OP-Organisator die Operation für 11 Uhr angesetzt (»t« = Termin vergeben). Ebenfalls ersichtlich wird, dass am Vortag um 12:38 Uhr eine Pflegeanamnese durchgeführt wurde. Auf eine weitere Schilderung des Fallverlaufes und dessen Steuerung und Dokumentation durch das KIS soll an dieser Stelle verzichtet werden. Insgesamt ist deutlich geworden, dass mittels eines modernen KIS behandlungsbegleitend eine zeitnahe Prozessdokumentation entsteht, die sowohl eine hohe organisatorische wie auch dokumentatorische Transparenz schafft – jeder am
45
740
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
Behandlungsprozess Beteiligte hat Zugriff auf die für seine Aufgabenerfüllung wichtigen Informationen und ist zeitnah über den Stand des Behandlungsablaufes informiert. Wichtig ist auch, dass am Ende der stationären Behandlung alle Informationen in die Epikrise, die zusammenfassende Bewertung, einmünden und die Angaben hierzu (teil)automatisch aus der Elektronischen
V
⊡ Abb. 45.5. Beispielmaske für Dokumentation
⊡ Abb. 45.6. Beispielmaske Diagnosendokumentation
Krankenakte übernommen werden können. Damit ist sowohl ein zeitnaher Versand des Arztbriefes – eventuell auch in elektronischer Form an den einweisenden Arzt – als auch eine zeitnahe elektronische Übermittlung der Abrechnungsdaten an die Krankenkasse gegeben. Für interne Zwecke kann auf Basis des im KIS gespeicherten Behandlungsverlaufes auch eine Prozesskostenrechnung
741 45.4 · Unterstützung am Fallbeispiel
erfolgen, mittels der der Kostendeckungsbeitrag einzelner Patienten bzw. diagnosebezogener Patientenkollektive ermittelt werden kann. Insgesamt zeigt das Beispiel, wie ein KIS durch die Unterstützung von Verarbeitung, Dokumentation, Organisation und Kommunikation die Behandlung im Krankenhaus effektiver macht und die klinische und adminis-
trative Transparenz für alle Beteiligten ganz wesentlich erhöht. Aufwändige Telefonanrufe wie »Ist Frau Maier schon geröntgt? Wo ist der OP-Bericht, ist der schon geschrieben? Welche Leistungen können abgerechnet werden?« gehören damit genauso der Vergangenheit an, wie die ökonomische Intransparenz des Krankenhausgeschehens.
⊡ Abb. 45.7. Beispielmaske Auftragsvergabe
⊡ Abb. 45.8. Aktenübersicht nach erstem Behandlungstag
45
742
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
45.5
Architektur und Komponenten eines Krankenhausinformationssystems
45.5.1 Logisches Architekturmodell
V
Architekturmodelle dienen als Bezugssystem und schaffen somit eine gemeinsame Diskussions- und Verständnisbasis für alle an einem Gestaltungs- und Diskussionsprozess Beteiligten. Im Wesentlichen müssen Modelle aus Sicht des Benutzers (»owner‘s representation«) und aus Sicht des Informatikers (»designer’s representation«, Seibt 1991) unterschieden werden. Eine Reihe von technisch orientierten Modellen für Krankenhausinformationssysteme sind in Boese u. Karasch (1994) zu finden. Ein logisches Architekturmodell eines KIS – also nicht orientiert an technischen Netzwerken, Protokollen und Rechnerebenen, sondern orientiert an Organisationseinheiten und spezifischen Anwendungslösungen und somit an der Sicht der Nutzer (»owner’s representation«) – zeigt ⊡ Abb. 45.9. Dabei sind die folgenden »Teilinformationssysteme« mit ihren jeweiligen Systemen zu unterscheiden.
⊡ Abb. 45.9. Logisches Architekturmodell eines KIS
Administratives Informationssystem Hierunter subsummieren sich alle Anwendungen der Verwaltung und der Logistik. Zählte bisher hierzu auch immer das Patientendatenverwaltungssystem, so wird gerade vor dem Hintergrund des neuen Abrechnungsrechts immer deutlicher, dass dieses als eigenständige Komponente zu betrachten ist, da es Funktionalitäten enthält, die für alle anderen – also auch die medizinischen – Informationssysteme unabdingbar sind.
Patientendatenverwaltungssystem Hierunter fallen alle Funktionen für die Verwaltung der Patientendaten, die zur Abrechnung und zur Erfüllung der gesetzlichen Nachweispflichten notwendig sind. Hierzu gehören z. B. die Funktionen für die Aufnahme, Verlegung und Entlassung von Patienten. Durch die aktuelle Entwicklung im gesetzlichen Umfeld und die damit verbundenen Nachweispflichten ist der ehemals reine administrative Datenumfang stark um medizinische Angaben (Diagnosen, Begründungen, Pflegekategorien, diagnos-
743 45.5 · Architektur und Komponenten eines Krankenhausinformationssystems
tisch-therapeutische Maßnahmen) erweitert worden. In dieser »Zwitterfunktion« – d. h. administrative und rudimentäre, aber auch wichtige medizinische Daten umfassend – kommt dem Patientendatenverwaltungssystem besondere Bedeutung zu. Auch ein Bettenbelegungsplanungsmodul kann hierunter subsummiert werden.
spezieller medizintechnischer Komponenten an, wie z. B. die Online-Anbindung von Laboranalysegeräten an das Laborinformationssystem oder der bildgebendenden Modalitäten an das Radiologieinformationssystem etc. Wie bei den Ambulanzen benötigen Leistungsstellen, in denen direkt Patienten untersucht werden, auch ein effektives Terminmanagement.
Medizinisches Informationssystem
Leistungskommunikationssystem. Dieses System dient der Leistungsanforderung und Befundrückmeldung (auch als Auftrags- und Leistungskommunikation oder »order-entry-result reporting« bezeichnet) zwischen den stationären oder ambulanten Einheiten und den Leistungsstellen/Funktionsbereichen. Dabei wird mit diesem System der klassische Anforderungsbeleg durch OnlineAnforderungen am Bildschirm ersetzt und eine direkte Einbuchung von Aufträgen im Leistungsstellensystem ermöglicht. Der Anforderer hat jederzeit die Möglichkeit, den Status seines Auftrags abzurufen, und erhält das Untersuchungsergebnis rasch in elektronischer Form zum frühestmöglichsten Zeitpunkt.
Zum medizinischen Informationssystem gehören alle Anwendungen/Informationssysteme zur Unterstützung der Dokumentation und Organisation der medizinischen Organisationseinheiten. Das medizinische Informationssystem selbst kann aufgrund der verschiedenen Ausrichtungen und der notwendigen spezifischen Funktionalitäten der Einzelmodule je Anwendungsbereich in die nachfolgend aufgeführten Systeme unterteilt werden. Fachabteilungssysteme. Hierzu zählen z. B. Chirurgieinformationssystem, Anästhesieinformationssystem, gynäkologisches Informationssystem etc. Sie unterstützen die fachärztliche Dokumentation sowie die dieser nachgeordneten Verwendungszwecke wie Qualitätsmanagement, Nachweispflichten, Abrechnung usw. innerhalb der Fachabteilung in spezialisierter Weise. Neben der Dokumentation unterstützen sie den ärztlichen Entscheidungsprozess nicht nur durch die schnelle Verfügbarmachung neuester Befunde mittels des Leistungskommunikationssystems, sondern erlauben auch den Zugriff auf an das KIS angekoppelte Wissensbasen und elektronische Lehrbücher. Mittels eines Behandlungsplanungsmoduls erlauben sie fachabteilungsspezifisch, problem- oder diagnosebezogene Behandlungsstandards zu hinterlegen und bei konkreten Behandlungen als Planungsgrundlage zu nutzen. System zur Unterstützung der Ambulanzen. Spezifisch zu unterstützende Aufgaben in den Ambulanzen sind v. a. in der effektiven Unterstützung des Einbestellwesens und des Terminmanagements zu sehen, die effektive Unterstützung des ambulanten Behandlungsprozesses im Sinne eines berufsgruppenübergreifenden Work-Flows sowie in der spezifischen Leistungsdokumentation und ambulanten Abrechung, welche in der Bundesrepublik besonders differenziert und komplex ist. Leistungsstelleninformationssysteme. Hierzu zählen bspw. Laborinformationssystem, Radiologieinformationssystem, Pathologiesystem, Operationsdokumentationssystem etc. Sie unterstützen in spezialisierter Weise integriert die Organisation, Dokumentation und Kommunikation für spezielle Leistungsstellen (Funktionsabteilungen). Neben der sehr speziellen Dokumentation und speziellen Work-Flows, deren effektive Abarbeitung den Durchsatz erhöht, fällt hier auch die Einbindung
Pflegeinformationssystem. Es wird verwendet zur Unterstützung der Pflegeplanung, Pflegedokumentation inkl. der Kurvenführung sowie des pflegerischen Qualitätsmanagements. Im Idealfall wird durch das Zusammenspiel dieser verschiedenen medizinischen Informationssysteme und deren Komponenten eine vollständige elektronische Krankenakte – also eine papierlose digitale Sammlung aller Behandlungsdokumente – möglich (⊡ Abb. 45.10).
Kommunikationssystem Aus Anwendersicht wird hierunter das oben angeführte Leistungskommunikationssystem verstanden, auf technischer Ebene und bezogen auf das Topologiemodell in ⊡ Abb. 45.10 ist darunter jedoch ein Informationsvermittlungssystem zur software-technologischen Kopplung unterschiedlichster Anwendungssysteme zur Ermöglichung einer Datenkommunikation zwischen diesen (z. B. Fachabteilungssysteme mit Labor- und Radiologiesystem etc.) zu verstehen. Dieses Vermittlungssystem wird i. Allg. als Kommunikationsserver bezeichnet.
Querschnittsanwendungen (Nicht in Abb. 45.10 repräsentiert.) Hierunter fallen Anwendungen, die für viele Abteilungen/ Nutzer von Interesse sind, wie z. B. Befundschreibung und -verwaltung, Diagnoseverschlüsselung, Wissensserver mit diversen Datenbanken wie Rote Liste, MEDLINE etc., Bürokommunikation, Tabellenkalkulation etc.; im weitesten Sinne hat auch ein Pflegedokumentationssystem sowie ein Terminplanungsmodul Querschnittscharakter.
45
744
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
V
⊡ Abb. 45.10. Aktenübersicht einer elektronischen Krankenakte und zugeordnete Informationsquellen
45.5.2 Implementierungsalternativen:
holistisch vs. heterogen Ein weiteres wichtiges Merkmal von gesamtbetrieblichen Informationssystemen ist neben der logischen Architektur die Software- und Hardware-technologische Implementierung und die ggf. damit auch determinierte Verteilbarkeit der Lösung auf verschiedene Hardware-Infrastrukturkomponenten. Grundsätzliche Alternativen im Hinblick auf die Anwendungs-Software sind:
Holistisches Informationssystem Die Software für alle im logischen Architekturmodell vorkommenden Systemkomponenten stammt von einem Hersteller und basiert auf einem gesamtkonzeptuellen Datenmodell, das gesamte KIS ist also aus »einem Guss«, dabei kann die Software auch zur besseren Wartungs- und Verteilbarkeit modularisiert in einzeln betreibbare Komponenten zerlegt sein (⊡ Abb. 45.11).
⊡ Abb. 45.11. Beispiel für ein holistisches KIS
Heterogenes Informationssystem Die Software für die im logischen Architekturmodell aufgeführten Komponenten stammt von verschiedenen Herstellern, die alle mit eigenen Datenmodellen und Datenhaltungen arbeiten. Durch entsprechende Kopplungssoftware – z. B. einen Kommunikationsserver – erfolgt die Kommunikation und der Datenabgleich zwischen diesen Systemen (⊡ Abb. 45.12). Die Wahl der technischen Ausprägung des KIS determiniert v. a. den notwendigen Betreuungsaufwand, je
⊡ Abb. 45.12. Beispiel für ein heterogenes KIS
745 45.5 · Architektur und Komponenten eines Krankenhausinformationssystems
⊡ Tab. 45.2. Vor- und Nachteile der beiden Lösungsansätze holistisches und heterogenes Informationssystem Holistisch = Alle Anwendungen eines Herstellers
Heterogen = Anwendungen verschiedener Hersteller
+ Ggf. ein konzeptionelles Modell + Alles aus einer Hand, ein Vertragspartner * Weniger Betreuungsaufwand + Konsistente Oberfläche + Keine doppelte Datenhaltung – Geringe medizinische Einzelfunktionalität – Abhängig von einem Hersteller
– Verschiedene konzeptionelle Modelle – Schnittstellenprobleme – Verschiedene Oberflächen – Verschiedene Datenhaltungssysteme – Hoher Betreuungsaufwand + Hohes Maß der Anpassung der Einzelsysteme an Terminologie, Semantik und Workflow des Einsatzbereichs
inhomogener ein betriebliches System, desto betreuungsaufwändiger wird es. Sowohl der holistische als auch der heterogene Lösungsansatz haben Vor- und Nachteile, die jeweils invers zueinander sind. ⊡ Tab. 45.2 zeigt eine Gegenüberstellung. Entsprechend der Komplexität und Differenziertheit von Krankenhausinformationssystemen haben sich verschiedene Typen von Anbietern entwickelt, die im Wesentlichen in die folgenden 3 Klassen eingeteilt werden können: ▬ Gesamtanbieter, die alle Problemlösungen (also auch z. B. OP-System, RIS, PACS, Pflegeinformationssystem etc.) in einer integrierten Lösung anbieten. Das macht den Einsatz weiterer Systeme anderer Hersteller unnötig. Diese Lösungen sind i. d. R. sehr breit angelegt, gehen aber nur wenig in die spezifische funktionale Tiefe. Kundenspezifische Individualisierung der medizinischen Inhalte ist kaum erreichbar bzw. wird zunehmend über »Formulargeneratoren« zur Implementierung medizinischer Formulare durch den Kunden selbst versucht zu implementieren. Das wesentliche Vertriebsargument ist hier die integrierte Lösung – im Folgenden als holistisches KIS bezeichnet (⊡ Abb. 45.11). Schaut man hinter die Kulissen, wird jedoch oftmals deutlich, dass manch eine Gesamtlösung keinesfalls aus einer Software mit einem einheitlichen darunterliegenden Unternehmensdatenmodell besteht, sondern auch aus zusammengekauften Systemen assembliert ist, welche über mehr oder weniger triviale Kopplungsmechanismen miteinander kommunizieren. Dies entspricht dann in etwa dem Lösungsangebot der 2. Klasse von Anbietern. ▬ Gesamtanbieter, die z. B. über eine administrative Gesamtsoftware verfügen, ggf. noch über ein zentrales Order-/Entry-System, und daran mehr oder weniger aufwändig beliebige medizinische Subsysteme anbinden (im Folgenden als heterogenes KIS – ⊡ Abb. 45.12 – bezeichnet). Aufgrund des monolithischen Charakters dieser einzelnen Subsysteme und des Zentralsystems müssen die gemeinsamen Inhalte wie Patientendaten, Untersuchungsergebnisse etc. mehrfach gehalten und über den Austausch von Datensätzen (sog. Kommu-
nikationssätzen) zwischen den beteiligten Systemen abgeglichen werden, was zunehmend durch einen Kommunikationsserver geschieht. ▬ Spezialanbieter, die – zumeist – hochkompetente und in sich abgeschlossene Lösungen für Teilbereiche anbieten (Labor, Radiologie, Hygiene etc.) und sich über Datenkommunikation in heterogene KIS integrieren lassen. In der Praxis hat sich gezeigt, dass, je größer ein Krankenhaus ist, desto weniger bedarfsgerecht der Einsatz eines einzigen Informationssystems ist. An einem Beispiel sei dies verdeutlicht: Während in einem 200-Betten-Krankenhaus die Radiologieabteilung 2 Röntgengeräte besitzt und die Unterstützung dieser Leistungsstelle mit dem Querschnittsmodul »Leistungskommunikation« des holistischen KIS abgedeckt werden kann, hat eine radiologische Abteilung in einem 1200-Betten-Haus 16 und mehr Untersuchungsgeräte und eine komplexe Organisation. Hier erfolgt die IT-Unterstützung zweckmäßigerweise mit einem speziellen Radiologieinformationssystem mit angebundenem »picture archiving system« (PACS) und Online-Einbindung der einzelnen bildgebenden Modalitäten.
45.5.3 Integrationsaspekte heterogener
Krankenhausinformationssysteme Die Integration verschiedener Informationssysteme zu einem konstruktiven Ganzen ist komplex und wird als »Enterprise Application Integration« (EAI) bezeichnet (Conrad et al. 2006). Beim heterogen Lösungsansatz erfolgt die Kommunikation zwischen den einzelnen Systemen generell nur durch den Austausch von Datensätzen (sog. Nachrichten). Daher müssen die einzelnen in das KIS integrierten Systeme über folgende Funktionalitäten verfügen: ▬ Importmodul zum Empfangen von Datensätzen, ▬ Exportmodul zum Senden von Datensätzen, ▬ geeignete interne Datenbankstrukturen zum Speichern der empfangenen Daten, ▬ eigene Funktionen (Programme) zum Anzeigen/Weiterverarbeiten der empfangenen Daten aus anderen Systemen.
45
746
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
V
⊡ Abb. 45.13. Situation bei datensatzorientierter Kommunikation
Die resultierende komplexe Situation je Anwendungssystem zeigt ⊡ Abb. 45.13. Damit wird deutlich, dass es zu erheblichen Mehraufwendungen – sowohl entwicklungs- als auch betreuungstechnisch – kommt, wenn Gesamtsysteme mittels Kopplung verschiedener Systeme entstehen. Es wird daher oftmals ein Kommunikationsserver eingesetzt, der die Koordination und Abwicklung der Kommunikation zwischen den verschiedenen Systemen übernimmt und auch die Funktionalität besitzt, Nachrichten eines sendenden Systems in ein für das empfangende System verarbeitbares Format zu konvertieren. Aufgrund der Komplexität des Vorgangs der Kopplung heterogener Systeme in der Medizin sowie der Notwendigkeit eines solchen Lösungsansatzes in fast allen Gesundheitsversorgungssystemen wurde, beginnend in den 1980er Jahren, der Kommunikationsstandard HL7 (»health level seven«) entwickelt, der eine Standardisierung von Nachrichtentypen – also eine Festlegung von Syntax und Semantik der zu übermittelnden Datensätze – darstellt und mittlerweile in der Version 3 (HL7 standards 2000) vorliegt. Unterstützen medizinische Systeme diesen Standard (sowohl importierend als auch exportierend), können diese ohne wesentlichen zusätzlichen Programmieraufwand und somit ohne zusätzliche Kosten miteinander gekoppelt werden. ⊡ Abb. 45.14 zeigt beispielhaft die Zusammensetzung eines solchen Nachrichtentyps.
⊡ Abb. 45.14. Beispiel für HL-7-Nachrichtentyp, ADT-Message (Admission-Transfer-Discharge)
747 45.6 · Auswahl und Einführung von Krankenhausinformationssystemen
Die Umstellung dieses HL7-Standards zur Nutzung von XML ist in Arbeit, darüber hinaus wird an einer »HL7-patient-record-architecture« gearbeitet (Dolin et al. 1999), welche zum Ziel hat, ein allgemeingültiges Datenstrukturschema für den Austausch von Patientendokumenten aus elektronischen Patientenakten auf Basis von XML zu ermöglichen. Als eine weitere internationale Standardisierungsbemühung ist die CORBAmed-Initiative zu nennen, deren Ziel die Standardisierung von Domain-spezifischen Services auf Basis der Komponententechnologie ist. Aufgrund dieser Bemühungen ist absehbar, dass vor dem Hintergrund internationaler Standards die Integration von medizinischen Anwendungssystemen verschiedener Hersteller zunehmend einfacher werden wird, wenngleich dies nicht ersetzen kann, dass eine zentrale Instanz innerhalb des KIS zur Führung und v. a. auch zur Langzeitarchivierung der elektronischen Krankenakten notwendig ist.
45.6
Auswahl und Einführung von Krankenhausinformationssystemen
45.6.1 Vorbemerkungen
Die Einführung von Informationssystemen in den klinischen Bereichen eines Krankenhauses führt zu hochkomplexen und sensiblen betrieblichen soziotechnischen Systemen, deren Funktionsfähigkeit nur dann die gewünschten operativen und strategischen Ergebnisse bringt, wenn alle Beteiligten sich nach Einführung in einer zumindest gleichbleibenden, eher jedoch verbesserten Arbeitssituation wiederfinden. Es ist daher von hoher Bedeutung, dass bei Vorbereitung, Auswahl und Einführung von klinischen Informationssystemen die vielfältigen Gestaltungsdimensionen betrieblicher Informationssysteme wie Aufbau- und Ablauforganisation, Dokumentation, technische Infrastruktur, Benutzerakzeptanz etc. frühzeitig Berücksichtigung finden (Ammenwerth u. Haux 2005).
⊡ Abb. 45.15. Phasenmodell für die Systemauswahl
Je stärker ein Informationssystem in menschliche Handlungsfelder hinein implementiert wird, desto mehr müssen alle diese Gestaltungsdimensionen beachtet werden. Ohne genaue Kenntnisse der gegebenen makro- und mikroskopischen Organisation, ohne Reflexion der Ziele eines Informationssystems an den Zielen und Aufgaben einer Organisation, ohne Kenntnisse und Berücksichtigung der Bedürfnisse von Benutzern und Betroffenen sollten daher keine Beschaffungsprozesse und Implementierungen von Informationssystemen vorgenommen werden. Die Auswahl eines Krankenhausinformationssystems muss als eigenständiges Projekt begriffen werden (Winter et al. 1998). Nur so wird sichergestellt, dass eine solide und abgesicherte Entscheidung getroffen wird. Dafür müssen bis zu 10% des Gesamtinvestitionsvolumens zur Finanzierung des Auswahlprozesses eingesetzt werden. Um eine Kauf- oder Entwicklungsentscheidung solide und basierend auf den eigenen Belangen und dem Stand der Technik methodisch herbeiführen zu können, sind folgende Phasen zu durchlaufen (s. auch ⊡ Abb. 45.15): ▬ Vorbereitungsphase (allgemeine und projektspezifische Vorarbeiten), ▬ Projektierung, ▬ Systemanalyse, ▬ Erstellung Ausschreibung, ▬ Auswahl, ▬ Vertragsgestaltung, ▬ Abnahme und Einführung, ▬ frühe Betriebsphase. Diese Phasen gelten sowohl für größere Projekte zur Einführung ganzer Krankenhausinformationssysteme als auch bei kleineren Projekten, z. B. der Einführung von Abteilungsinformationssystemen wie Radiologie- oder Laborinformationssystemen. Wichtige Meilensteine sind im engeren Sinne die Fertigstellung der Systemanalyse, die Aussendung der Ausschreibung, der Vertragsabschluss und die Inbetriebnahme.
45
748
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
In der Folge werden in Form von Checklisten jene Aktivitäten und Sachverhalte aufgeführt, deren Durchführung als kritische Erfolgsfaktoren des gesamten Prozesses verstanden werden und deren Nichtberücksichtigung den Erfolg von IT-Projekten gefährdet oder aber zu suboptimalen Lösungen führt.
45.6.2 Projektphasen und kritische Faktoren
Vorbereitungsphase
V
Am Beginn eines IT-Projekts steht i. d. R. der Anstoß zu diesem Projekt: Erkannte Schwachstellen sollen beseitigt werden, gesetzliche Änderungen erfordern den IT-Einsatz, Effektivierungsressourcen sollen genutzt werden, ein veraltetes System kann nicht mehr weiter betrieben werden usw. Dabei wird oftmals zu kurz gezielt, wenn sich Systemauswahl und -einsatz nur an diesem Initialgrund orientieren, und es wird die Chance der Neugestaltung einer informationstechnologieadäquaten betrieblichen Organisation vertan! Im Gegensatz dazu sollte sich der Einsatz der Informationstechnologie ausrichten an den betrieblichen Zielen – sowohl auf Unternehmens- als auch auf Abteilungsebene. Ein Beispiel für ein solches Vorgehen wird in (Kuhn u. Haas 1997) gegeben. Im Allgemeinen wird vorausgesetzt, dass innerhalb des Krankenhauses bereits Richtlinien für den Einsatz und die Beschaffung von IT-Verfahren existieren. Ist dies nicht der Fall, sollten diese umgehend definiert werden. Sie können neben technischen Standards und Vereinbarungen auch Festlegungen in Bezug auf Bedienung und Ergonomie beinhalten. Wichtige Aktivitäten in dieser Phase sind demnach: ▬ ggf. Unternehmensziele definieren/ergänzen, ▬ Zielformulierung für IT-Einsatz (abgeleitet aus den Unternehmenszielen), ▬ ggf. Richtlinien der IT definieren/ergänzen, ▬ ggf. generelle Standards und Vereinbarungen aus den Richtlinien der IT ableiten, ▬ Projektidee bzw. Projektziel grob definieren. Während es sich bis auf die letzte Aktivität um allgemeine Vorgaben und Standards handelt, die im Idealfall schon definiert sind, muss als letztes zumindest das konkret geplante Projekt und seine Initialgründe beschrieben werden.
⊡ Abb. 45.16. Beispiele für Projektlenkungsausschuss und Projektarbeitsgruppe
Projektierung Im Rahmen der Projektierung werden alle notwendigen Voraussetzungen geschaffen, um die operative Projektarbeit aufzunehmen. Orientiert an den durch die allgemeinen Vorarbeiten gesetzten Rahmenbedingungen müssen am Ende dieser Phase klare Entscheidungs-, Berichts- und Dokumentationsstrukturen sowie die Projektverantwortlichkeiten und Kompetenzen definiert sein. Unabhängig von der Größe des Projekts sollte eine Trennung zwischen strategisch/taktischer Planung/Überwachung (durch einen Projektlenkungsausschuss) und der operativen Durchführung (durch eine Projektarbeitsgruppe) vorgenommen werden. Dadurch kann die Einbeziehung von Entscheidungsträgern, Vertretern der verschiedenen Betroffenen und der einzelnen Benutzergruppen in angemessener Weise realisiert werden (⊡ Abb. 45.16). Die Besetzung der Projektarbeitgruppe sollte aus ausgewählten Vertretern der einzelnen Berufsgruppen bestehen, ihre zeitliche anteilige Mitarbeit sollte geklärt sein. An Aktivitäten sind bei der Projektierung zu berücksichtigen: ▬ Bilden und Einsetzen des Projektlenkungsausschusses unter – Einbindung des Managements, – Einbindung von Leitungsfunktionen der betroffenen Organisationseinheiten, – Beteiligung der Personalvertretung; ▬ Bilden und Einsetzen der Projektarbeitsgruppe unter – Beteiligung ausgewählter Vertreter des Projektlenkungsausschusses, – Beteiligung von Vertretern aller späteren Anwendergruppen, – Beteiligung der IT- und Organisationsabteilung, – Beteiligung des betrieblichen Datenschutzbeauftragten; ▬ Definition der Projektziele: – strategische Ziele durch den Projektlenkungsausschuss, – operative Ziele durch die Projektarbeitsgruppe. Nachdem die beiden wesentlichen Zirkel installiert sind und auch die Ziele des Projekts feststehen, müssen die projektbezogenen Kompetenzen und Verantwortlichkeiten definiert und allen Beteiligten und Betroffenen zur Kenntnis gebracht werden. Es sind also zu berücksichtigen:
749 45.6 · Auswahl und Einführung von Krankenhausinformationssystemen
▬ Definition der projektbezogenen Kompetenzen und Verantwortlichkeiten, ▬ Rahmenbedingungen abklären (Personal, Räume, Ausstattung etc.), ▬ Finanzierungsrahmen abklären, ▬ interne Ressourcen klären, ▬ externe Ressourcen klären/Angebote einholen, ▬ Projektdokumentation initialisieren und einrichten, ▬ Projektgrobzeitplanung, ▬ erste Information der Betroffenen und Kommunikation der projektbezogenen Kompetenzen und Verantwortlichkeiten, ▬ Erstellen/Fortschreiben des betrieblichen IT-Rahmenkonzepts. Nach Abschluss dieser Phase sollten alle für die Projektdurchführung notwendigen Festlegungen getroffen sein. Dabei kommt v. a. der initialen und danach kontinuierlichen Information aller Beteiligten eine besondere Bedeutung zu. Wenn möglich, sollten hierfür die neuen Medien selbst (E-Mail mit Verteilern, Intranet mit entsprechenden Projektseiten etc.) genutzt werden.
Systemanalyse Auswahl und Einführung von Informationssystemen erfordern ein hohes Maß an betrieblicher Transparenz. Letztendlich handelt es sich bei allen Projekten zur Einführung klinischer IT-Systeme um hochgradige Migrationsprojekte, in deren Mittelpunkt eine komplexe und differenzierte medizinische Dokumentation steht. Eine der wesentlichsten kritischen Erfolgsfaktoren von IT-Projekten gerade in der Medizin ist daher die Durchführung einer hinsichtlich des Ziel- und Erkenntnisinteresses ausreichend detaillierten Systemanalyse. Erst deren Ergebnis schafft i. d. R. die Basis für eine Anforderungsdefinition und entsprechende organisatorische Betrachtungen. Die verschiedenen Verwendungszwecke der Ergebnisse der Systemanalyse zeigt ⊡ Abb. 45.17.
⊡ Abb. 45.17. Verwendungszwecke der Ergebnisse der Systemanalyse
In der Vergangenheit hat es sich jedoch gezeigt, dass viele Krankenhäuser in dieser Phase – im Grunde also beim Fundament eines Projektes – die Kosten am meisten scheuen, ja oftmals sogar eine Systemanalyse und eine auf die eigenen Bedürfnisse bezogene Anforderungsdefinition ganz auslassen! Bei der Durchführung der Systemanalyse können je nach Erkenntnisinteresse und Projektziel verschiedene Vorgehensansätze angewandt werden: ▬ Horizontales Vorgehen: Bezüglich eines bestimmten Aspektes (z. B. Formularwesen) werden alle betroffenen betrieblichen Einheiten untersucht. ▬ Vertikales Vorgehen: Einige interessierende/alle betroffenen betrieblichen Einheiten werden gesamtheitlich detailliert untersucht. ▬ Prozessorientiertes Vorgehen: Alle Aspekte werden entlang definierter betrieblicher (Haupt-)prozesse – auch organisationseinheitsübergreifend – erhoben. An Aktivitäten sind hier in Anlehnung an Haas (1989) durchzuführen: ▬ Einflussgrößenanalyse, ▬ Ausstattungsanalyse (Personal, eingesetzte IT-Systeme und Datenhaltungssysteme, Hardware und Betriebssysteme, sonstige Geräte), ▬ Strukturanalyse (Räume, Netzinfrastruktur etc.), ▬ Mengengerüste (Fallzahlen, Leistungszahlen etc.), ▬ Kommunikationsanalyse, ▬ Dokumentationsanalyse, ▬ Organisationsanalyse, ▬ Abrechnungsanalyse, ▬ Schwachstellenanalyse. Dabei liegen die Schwerpunkte bzw. der Hauptaufwand aufgrund der differenzierten und komplexen medizinischen Dokumentation und der stark arbeitsteiligen Organisation meist auf: ▬ der Dokumentationsanalyse – medizinisch/abrechnungs- und controllingbezogen/ gesetzlich; ▬ der Organisationsanalyse, u. a. der Analyse von Hauptprozessen – Aufnahme, Entlassung, Verlegung, Notaufnahme, – Auftragskommunikation (Organisationsmittel?, Koordination?), – Befundkommunikation, – Befundschreibung, – interne übergreifende Abläufe (medizinisch – admininistrativ). Die aufgeführten Analysen sind mit Ausnahme von abteilungsübergreifenden Prozessanalysen i. d. R. fachabtei-
45
750
V
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
lungsbezogen durchzuführen bzw. bezogen auf isoliert betrachtbare Leistungsstellen. Oftmals wird aus Zeit- oder Finanzgründen oder aus politischen Gründen auf eine Schwachstellenanalyse verzichtet. Gerade aus der Schwachstellenanalyse können die möglichen Effektivierungs- und Verbesserungspotentiale durch eine IT-Lösung sowie die Anforderungen an ein zu beschaffendes System besonders gut abgeleitet werden. Schwachstellenanalyse bedeutet aber, offen und ehrlich diese zu erarbeiten, zu benennen und zu kommunizieren – was im Grunde die Schaffung eines »Organisationsqualitätszirkels« bedeutet und daher gern umgangen wird. Am Ende der Systemanalyse steht eine entsprechend strukturierte Analysedokumentation, die als Basis für alle nachfolgenden Phasen dient.
Pflichtenhefterstellung Diese Phase kann in die Teilphasen eingeteilt werden: ▬ Erstellung der Sollkonzeption, ▬ Erstellung der fachlichen Anforderungsdefinition und ▬ Erstellung des Pflichtenhefts. Die Sollkonzeption (⊡ Abb. 45.18) dient dazu, auf Basis der Ergebnisse der Systemanalyse das organisatorische, technische und IT-verfahrenstechnische Soll zu erarbeiten und zu definieren. Dies sollte möglichst unter Berücksichtigung der Gestaltungsdimensionen betrieblicher Informationssysteme geschehen. Dabei muss es v. a. darum gehen, orientiert an den betrieblichen Zielen und an den gefundenen Schwachstellen eine klare Projektion des Projektendzustands (also welche betrieblichen Tätigkeiten bzw. Prozessketten sollen unterstützt werden, welche Informationsobjekte sind zu verwalten etc.) zu entwickeln. Darüber hinaus ist es zu diesem Zeitpunkt möglich, unter Berücksichtigung der verschiedenen zur Verfügung stehenden Informationsquellen sowohl eine Überprüfung der strategischen Ziele als auch eine differenzierte Ableitung der operativen Ziele des Einsatzes des IT-Systems vorzunehmen. Die Erarbeitung einer Sollkonzeption unter Berücksichtigung der oben angeführten Faktoren lässt sich in idealer Weise durch moderierte Workshops durchführen. Diese können einerseits auf Leitungsebene als auch auf operativer Ebene durchgeführt werden, der Moderator hat dabei die Ergebnisse der Systemanalyse als Hintergrund und kann so die interaktive Erarbeitung steuern. Am Ende steht ein von allen Beteiligten mit erarbeitetes und akzeptiertes Sollkonzept, was erheblich zur Akzeptanz des weiteren Projektverlaufs beiträgt. Dieses Sollkonzept wird danach weiter zu einer Anforderungsdefinition ausgebaut, die alle funktionalen, bedienungs- und organisationsbezogenen Anforderungen an das System enthält und zentraler Bestandteil des
⊡ Abb. 45.18. Einflussfaktoren auf und Quellen für die IT-Sollkonzeption
Pflichtenhefts ist. Die Formalisierung und Operationalisierung der Anforderungen sowie Ergänzung um allgemeine Prinzipien für Informationssysteme steht dabei im Mittelpunkt. Dabei sollten alle für die Entscheidung und den Kaufvertrag wichtigen Anforderungen in strukturierter und eindeutig beantwortbarer Form enthalten sein. Zur Beantwortung notwendige Zusatzinformationen sind entsprechend beizufügen. Die Ausschreibung sowie die darauf basierenden Angebote sollten sich in die in ⊡ Abb. 45.19 gezeigten Teile gliedern. Für den allgemeinen Teil der Ausschreibung (Einleitung, Bedingungen, Rahmenbedingungen) gelten: ▬ klare Vorgaben zum Ausfüllen bzw. Beantworten der Anforderungen, ▬ eindeutige Teilnahmebedingungen (z. B. Mindestanforderungen), ▬ Abgabetermin festlegen, ▬ Ansprechpartner benennen für Rückfragen, ▬ zeitlich beschränktes Gespräch anbieten (Alternative: Anhörung), ▬ zeitliche Vorstellungen zum Gesamtverlauf, ▬ wichtige Rahmenbedingungen darstellen: – qualitativ z. B. IT-Umfeld, Schnittstellen, bauliche Struktur, vorhandene Verkabelung etc., – quantitativ: Mengengerüste für Fallzahlen, Untersuchungshäufigkeiten, Anzahl Benutzer etc. Wichtige einzelne Aktivitäten sind in dieser Phase: ▬ Zieldefinition erweitern unter Einbeziehung der Unternehmensziele und IT-Richtlinien. ▬ Erarbeiten einer Sollkonzeption z. B. unter Zugrundelegung von Fragen wie – Welche erkannten Schwachstellen sollen beseitigt werden? – Wo liegen Effektivierungspotenziale? – Wo und wie kann die Qualität des ärztlichen/ medizinischen Handelns unterstützend verbessert werden? – usw. ▬ Stufenplan zur Zielerreichung definieren. ▬ Entscheidende Rahmen-/Randbedingung festlegen. ▬ Machbarkeits- und Finanzierbarkeitsanalyse. ▬ Bildung einer repräsentativen Definitions- und Auswahlgruppe.
751 45.6 · Auswahl und Einführung von Krankenhausinformationssystemen
▬ Markterkundung. ▬ Funktionale Anforderungsdefinition erstellen unter – breiter Einbeziehung der Anwender, – Berücksichtigung von Standards hinsichtlich Gliederung, IT-Standards etc. (Goldschmidt 1999; Haas u. Pietrzyk 1996; Teich et al. 1999), – Berücksichtigung des Mach- und Finanzierbaren, – notwendiger sich aus Sollkonzeption und Anforderungsdefinition ergebender Variabilität der Lösung, – Definition der möglichen Stufen und Zeitpläne. ▬ Fortschreibung der Anforderungsdefinition zum Pflichtenheft.
▬ Erstellung der Ausschreibung auf Basis des Pflichtenheftes. ▬ Durchführung der formalen Ausschreibung. Wichtig ist, hier darauf zu achten, dass das Pflichtenheft nicht zu grob und andererseits auch nicht zu fein gegliedert ist. Die Forderung bestimmter Feldlängen erscheint z. B. als wenig hilfreich, wenn nicht sogar kontraproduktiv. Der Teil »Anforderungskatalog« ist weiter untergliedert nach verschiedenen funktionalen, technischen und strategischen Gesichtspunkten. Eine beispielhafte Aufgliederung, von der aus weiter detailliert werden kann, zeigt ⊡ Abb. 45.20.
⊡ Abb. 45.19. Gliederung von Ausschreibung und Angeboten
⊡ Abb. 45.20. Beispielhafte Aufgliederung des Anforderungskataloges mit einigen beispielhaften Gewichtungen
45
752
V
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
Den größten Schwachpunkt stellt oftmals der Anforderungskatalog mit nicht genügend präzise formulierten Fragen/Anforderungen oder im Gegensatz dazu zu vielen Antwortmöglichkeiten dar. Im Wesentlichen sind folgende Beantwortungsmöglichkeiten denkbar: ▬ Freitext: Auf Fragen kann mit umfangreichen Erläuterungen geantwortet werden (Beispiel: »Stellen Sie dar, wie die Aufnahme von Patienten erfolgt.«). Von solchen Fragentypen ist strikt abzuraten! Ein Vergleich der Angebote bzw. der Antworten ist – wenn überhaupt – nur mit sehr viel Aufwand möglich und immer interpretationsabhängig. ▬ Kategorien und Erläuterungen Sie erzwingen zwar eine definitive Antwort (z. B. »Ist die KV-Abrechnung vorhanden?« »Ja« – »nein« – »Erläuterungen: ...«), aber oftmals kann die kategorisierte Antwort versteckt in den Erläuterungen relativiert werden. Spätestens bei Streitigkeiten im Rahmen der Vertragserfüllung werden diese Fragentypen zu kritischen Punkten. ▬ Kategorien: Eine Antwort ist nur auf Basis definierter Kategorien (»vorhanden« – »teilweise vorhanden« – »nicht vorhanden« oder »ja«/«nein« etc.) möglich. Dadurch werden die Bewertung der Angebote und deren Vergleich zum formalen Akt immer nachvollziehbar (keine Interpretationsunschärfen). Darüber hinaus ist es manchmal sinnvoll und auch zulässig, als Antwort eine Maßzahl zuzulassen (z. B. Anzahl maximal anschließbarer Geräte, Mindestspeicherplatz, Häufigkeit des Maskenwechsels für gewisse Arbeiten etc.).
Auswahl Nach Eingang der Angebote sind diese auszuwerten. Die Angebotsauswertung betrifft einerseits den formalen Angebotsteil, andererseits die außerhalb von diesem gegebenen Rahmenbedingungen. Der formale Anforderungsteil sollte vor Eingang der Angebote gewichtet werden. Dabei werden pro Ebene in der Anforderungshierarchie z. B. je 100 Punkte vergeben (⊡ Tab. 45.1). Anhand der Antworten der Anbieter kann dann für den gesamten Anforderungsteil eine Gesamtpunktzahl errechnet werden, die ein Maß für die Anforderungserfüllung ist. Es wird auf das gängige Verfahren der Nutzwertanalyse verwiesen. Ein wichtiger Schritt ist nach Eingang der Angebote als erstes eine Filterung dieser, sodass die unvollständigen oder die die Ausschlusskriterien nicht erfüllenden Angebote nicht in den weiteren – arbeitsaufwändigeren – Auswahlprozess einbezogen werden.
Des Weiteren sind folgende Hauptschritte zu durchlaufen: ▬ Bewertung entsprechend der festgelegten Gewichtungen, ▬ Ermittlung der Gesamtkosten (Einmalkosten/laufende Kosten), ▬ Ermittlung der Kosten je Punkt, ▬ Ermittlung der Rangfolgen (nach absoluter Punktzahl/nach Kosten pro Punkt). Die beiden Rangfolgen können recht aufschlussreich sein. Während erstere angibt, wer funktional »am meisten« bietet, gibt die zweite Rangfolge an, wer »das günstigste« Produkt liefert – jedoch unabhängig vom Zielerreichungsgrad. Je nach dem, ob beide Folgen übereinstimmen oder stark voneinander abweichen, muss eine strategische Bewertung hinsichtlich verfügbarer Funktionalität und verfügbarer Mittel vorgenommen werden. Am Ende des Auswahlprozesses sollten 2 bis maximal 3 Anbieter verbleiben, für deren Lösung dann Vor-OrtBesichtigungen (d. h. Einsatz im Echtbetrieb) erfolgen bzw. vorgeschaltete Inhouse-Präsentationen unter Beteiligung aller Mitglieder der Projektgruppe. Hilfreich ist es auch, für Präsentationen im Hause des Anbieters (also nicht bei Vor-Ort-Besichtigungen) eigene Fallstudien oder Fälle vorzugeben und diese im Rahmen der Präsentation abarbeiten zu lassen. Wichtige einzelne Aktivitäten sind in dieser Phase sind: ▬ Fortsetzung und Intensivierung der informellen Markterkundung; ▬ Definition von typischen betrieblichen Geschäftsvorfällen, sprich medizinischen Handlungsketten als Fallstudien für die Lösungsbegutachtung; ▬ Angebotsauswertung ggf. unter – Nachfragen, Präzisieren, – Formalbewertung und Priorisierung, – Lösungsbegutachtung, – Referenzkundenbesuche, ▬ informelle Nacherkundung/Validierung; ▬ Entscheidungsfindung und Entscheidung; ▬ Fixierung notwendiger produktbezogener Ergänzungen/Änderungen: – Abklären von Unklarheiten bei existierenden Modulen, – Definition der gemäß Pflichtenheft notwendigen Anpassungen/Erweiterungen.
Vertragsgestaltung Die Vertragsgestaltung auf Basis der Ausschreibung sollte fachmännisch begleitet werden. In der Vergangenheit allzu oft strapaziertes »Glauben« von Zusicherungen sollte vertraglich in geschuldete Leistungen umgemünzt
753 45.6 · Auswahl und Einführung von Krankenhausinformationssystemen
werden. Die Hinzuziehung von Rechtsexperten des Software-Rechts kann hier frühzeitige Klärungen bringen und Enttäuschungen vorbeugen. Die Vertragsgestaltung umfasst nicht nur den Erwerb von Nutzungsrechten, sondern auch die Vereinbarung notwendiger Dienstleistungen, um das Informationssystem zu installieren und einzuführen. Damit kommt auch einer klaren Definition der Aufgabenteilung und Verantwortlichkeiten besondere Bedeutung zu. Wichtige einzelne Aktivitäten sind in dieser Phase: ▬ Spezifikation/Fixierung von Änderungen/Ergänzungen, ▬ Definition des externen Dienstleistungsangebots, ▬ Definition der vertraglichen Leistung: Nutzungsrechte und Pflege und Dienstleistungen, ▬ Definition des Einführungsprojekts, ▬ Definition der Aufgabentrennung Lieferant/Kunde, ▬ Definition der Verantwortlichkeiten. Hinsichtlich der kritischen Faktoren bei der Vertragsgestaltung wird auf Zahrnt (1999) verwiesen.
Abnahme und Einführung Nach Balzert (1998) erfolgt im Rahmen der Abnahmephase die Übergabe des Gesamtprodukts an den Auftraggeber, der dann mittels geeigneter funktionaler und mengenorientierter Abnahmetests das Produkt auf die Erfüllung der vertraglich zugesicherten Leistungen überprüft. Im Krankenhaus sind dazu eine ganze Reihe von Vorarbeiten notwendig, die der Systembereitstellung für den produktiven Betrieb gleichkommen. Insofern sind die für die Einführung notwendigen Arbeiten schon vor der Abnahmephase notwendig, oftmals kann die Abnahme aufgrund der Unmöglichkeit, die reale Betriebssituation zu testen, erst nach einer Testphase im Echtbetrieb erfolgen. Die Einführung selbst kann eingeteilt werden in Vorbereitung, Systembereitstellung, Systemadaption und einrichtung, Schulung, Vorbereitung der Inbetriebnahme und Inbetriebnahme. Wichtige einzelne Aktivitäten sind: ▬ Rechtzeitige Schaffung der technischen Voraussetzungen. – Lokalisation und räumliche Gegebenheiten für Endgeräte geklärt? – Verkabelung technisch und zeitlich geklärt? – Aufstellungsort für Server geklärt? ▬ Hardware-Beschaffung, falls nicht integraler Teil der geschuldeten Leistung. ▬ Installation einer Projektierungs- (Test-) und Schulungsumgebung. ▬ Schulungs- und Betreuungskonzept (z. B. Multiplikatorenprinzip) festlegen.
▬ Stammdatenerhebung, Sammlung notwendiger Unterlagen. ▬ Schulung Systembetrieb und Projektierungsgruppe für: – Betriebssystem, – Datenbanksystem, – Anwendungsfunktionen. ▬ Stammdatenerfassung (Leistungskataloge, Organisation, Mitarbeiter etc.). ▬ Eventuell Datenübernahme aus Altsystem in Testumgebung, Bereinigung und Restrukturierung. ▬ Parameterisierung von funktionalen Aspekten (WorkFlow, dynamische Masken etc.). ▬ Schnittstellenimplementierung/-test. ▬ Schulungsplan für zeitgerechte Schulung aller Mitarbeiter. ▬ Information aller betroffenen Mitarbeiter. ▬ Organisation Systembetrieb. ▬ Organisation First-/Second-Level-Support, Störungsdienst, Rufbereitschaft. ▬ Installation des gesamten Anwendungssystems (Poduktivumgebung). ▬ Mengen- und Belastungstests. ▬ Schnittstellenimplementierung/Integrationstest. ▬ Einrichten der Produktionsumgebung. ▬ Altdatenübernahme in die Produktionsumgebung. ▬ Überprüfung aller Voraussetzungen: – Sind alle notwendigen Schnittstellen implementiert? – Sind alle Schnittstellen funktionsfähig? – Sind alle Stammdaten erfasst/Altdaten eingespielt etc.? ▬ Anwenderdokumentationen verteilen.
Frühe Betriebsphase In der frühen Betriebsphase kommt es v. a. darauf an, den Anwender nicht allein und den Betrieb »laufen« zu lassen. Orientiert am Sollkonzept müssen nun die angestrebten Effekte überprüft und ggf. weitere betriebliche oder systemtechnische Optimierungen vorgenommen werden. Darüber hinaus sollte auch die Benutzerakzeptanz in den ersten Wochen kontinuierlich überprüft werden, um hieraus Rückschlüsse auf notwendige organisatorische Änderungen oder die Notwendigkeit für Nachschulungen zu ziehen. ▬ Organisation überprüfen/optimieren ▬ Performance-Evaluation und systemtechnische Optimierung ▬ Überprüfung der korrekten Nutzung ▬ Evaluation der Benutzerakzeptanz ▬ Gegebenenfalls Nachschulungen durchführen ▬ Überprüfung der Systemfunktionalität (Pflichtenheft vs. Istzustand), ggf. Nachspezifikation bzw. Nachforderungen auf Nachbesserungen
45
754
Kapitel 45 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
Weitere nicht phasenbezogene Einflussfaktoren
V
▬ Kontinuierliche Information und Identifikation des Managements ▬ Kontinuierliche Einbeziehung und Information der Mitarbeiter ▬ Lösungsanbieter/Hersteller ▬ Anwendungssystem – Benutzeroberfläche/Aufgabenangemessenheit – Betreuungsaufwand – Flexibilität/Adaptibilität – Anwenderdokumentation – Systemdokumentation – Auslegung der Hardware ▬ Konzepte des Herstellers
45.7
Zusammenfassung
Krankenhausinformationssysteme sind ein entscheidender Faktor für ein erfolgreiches Management von Krankenhäusern. Das Nutzenpotenzial ist hoch, erschließt sich aber nur bei einem flächendeckenden Einsatz in allen Bereichen und an allen Arbeitsplätzen. Hinsichtlich der technischen Architektur besteht die Wahl zwischen dem Einsatz eines holistischen oder aber eines heterogenen, aus mehreren Systemen zusammengesetzten Gesamtsystems. Die Einführung von Informationssystemen in Krankenhäusern bedarf weit mehr eines behutsamen Vorgehens, als dies in vielen anderen Branchen der Fall ist. Zum einen, da die Kernaufgaben – nämlich die direkte Behandlung und Betreuung von kranken Menschen, die Zuwendung zu diesen, das richtige Eingehen auf sie, der persönliche Kontakt und Bezug – nicht durch den IT-Systemeinsatz gestört werden dürfen. Das System als Werkzeug, muss im Hintergrund bleiben. Zum anderen, weil im sensiblen Umfeld Ängste bei Personal und Patienten abzubauen bzw. zu verhindern sind. Dies ist ein gravierender Unterschied zum IT-Einsatz in den meisten anderen Branchen, wo Kernaufgaben (z. B. das Umgehen mit Buchungssätzen, das Verwalten von Materialien, deren Ausgabe etc.) direkt durch den Einsatz von IT-Systemen modifiziert und verändert werden. Damit aber kommt einer adäquaten Beteiligung der betroffenen Anwender am gesamten Prozess der Systemauswahl besondere Bedeutung zu (Buchauer 1999). Kritische Erfolgsfaktoren für die Einführung von Krankenhausinformationssystemen sind vielfältig, und alle aufgeführten Aktivitäten der vorangehend beschriebenen Projektphasen können insofern in sich schon als kritischer Erfolgsfaktor gesehen werden. Welche Fragen jedoch im Kern als besonders kritisch angesehen werden, sind in der Übersicht formuliert.
Fragestellungen bzgl. kritischer Erfolgsfaktoren für die Einführung von Krankenhausinformationssystemen
▬ Ist das Projektziel klar genug definiert (nicht IT um der IT willen)?
▬ Sind die Rahmenbedingungen (finanziell/ organisatorisch/innenpolitisch) geklärt?
▬ Ist eine klare Projektorganisation festgelegt? ▬ Sind alle Verantwortlichkeiten und Konsequenzen ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
ausreichend festgelegt, damit das Ziel auch erreicht werden kann? Steht das Management hinter dem Projekt? Ist das Projekt personell adäquat ausgestattet? Gibt es einen klaren Projektzeitplan? Sind die Mitarbeiter frühzeitig und ausreichend informiert? Ist eine Systemanalyse Basis für ein Sollkonzept, welches selbst wieder als Basis für die Anforderungsdefinition dient? Ist eine ausreichende Mitarbeiterbeteiligung bei der Anforderungsdefinition und dem Auswahlprozess sichergestellt? Ist das Pflichtenheft adäquat differenziert und realistisch angelegt? Ist der Auswahlprozess transparent? Ist das Vertragswerk ausreichend ausgearbeitet, und gibt es Regelungen bei (teilweiser) Nichterfüllung zugesicherter Leistungen? Gibt es einen klaren realistischen Einführungsplan? Wird ausreichend Schulung angeboten? Ist die Implantation des Systems in den betrieblichen Alltag hinein ausreichend durchdacht? Sind alle betriebsnotwendigen Schnittstellen ausreichend getestet? Gibt es eine geeignete Strategie und Werkzeuge für die Anwenderbetreuung? Erfolgt eine kontinuierliche Überprüfung der richtigen Nutzung nach der Einführung? Genügt die Lösung den Standards hinsichtlich der Ergonomiekriterien?
Werden die dort aufgeführten Aspekte ausreichend berücksichtigt, kann das so erfolgreich eingeführte Krankenhausinformationssystem einen wesentlichen Beitrag zum Unternehmenserfolg des Krankenhauses leisten.
755 Literatur
Literatur Ammenwerth E, Haux R (2005) IT-Projektmanagement in Krankenhaus und Gesundheitswesen. Schattauer, Stuttgart Balzert H (1998) Lehrbuch der Software-Technik: Software-Management. Spektrum, Heidelberg Bates DW (2005) Computerized physician order entry and medication errors: finding a balance. In: J Biomed Inform. 2005 Aug; 38(4): 259–61 Bates DW, O’Neil AC, Boyle D et al. (1994) Potential identifiability and preventability of adverse events using information systems. J Am Med Inform Assoc 1/5: 404–411 Bates DW, Gawande AA (2003) Improving safety with information technology. In: Engl J Med 2003, 348: 2526–34 Boese J, Karasch W (1994) Krankenhausinformatik, Schriften der Gesundheitsökonomie. Blackwell (Wissenschafts-Verlag), Berlin Buchauer R (1999) Einführung von Pflegeinformationssystemen – Erfahrungen und Konsequenzen. In: Forum der Medizin_Dokumentation und Medizin_Informatik 1: 12 ff Bullinger H-J (1991) Unternehmensstrategie, Organisation und Informationstechnik im Büro. In: Müller-Böling et al. (Hrsg) Innovations- und Technologiemanagement. Poeschl, S 323–344 Clayton PD et al. (1992) Costs and cost justification for integrated information systems in medicine. In: Bakker et al. (eds) Hospital information systems – scope – design – architecture. North Holland, Amsterdam, p 133–140 Conrad, S., Hasselbring W., Koschel A., Tritsch R. (2006): Enterprise Application Integration. Grundlagen – Konzepte – Entwurfsmuster – Praxisbeispiele. Elsevier, München. Dolin RH et al. (1999) HL7 document patient record architecture: an XML document architecture based on a shared information model. In: Lorenzi NM (ed) Proceedings AMIA Symposium: 52–56 Goldschmidt AW (1999) Pflichtenheft – Einführung und Überblick. In: Ohmann et al. Herausforderungen in der Informationsverarbeitung an den Universitätskliniken des Landes NRW. Shaker: 147ff. Haas P (1989) Standardsystemanalyse im Krankenhaus. Praktischer Leitfaden. Universität Heidelberg, Abt. Med.-Informatik Haas P, Pietrzyk P (1996) Generelle Projektphasen und Vorgehensweisen bei der Systemauswahl. In: Haas et al. (Hrsg) Praxis der Informationsverarbeitung im Krankenhaus. Ecomed, Erlangen, S 113 ff Haas, P (2005) Medizinische Informationssysteme und Elektronische Krankenakten. Springer, Berlin, Heidelberg, New York Heinrich LJ, Lehner F (2005) Informationsmanagement – Planung, Überwachnung und Steuerung der Informationsinfrastruktur. Oldenbourg, München Wien Henke R (1999) Keine Netze ohne Kliniken. In: Führen und Wirtschaften 2: 98 ff. HL7 standards: HL7 version 3. Health Level Seven Inc., Ann Arbor/MI, http:/www.hl7.org/library/standards.cfm, letzer Zugriff 18. Oktober 2000 Kuhn K, Haas P (1997) Informationsverarbeitung im Krankenhaus. In: Das Krankenhaus 2: 65 ff Kohn LT, Corrigan JM, Donaldson MS (eds) (2000) To err is human: Building a safer health system. Institute of Medicine, Committee on Quality of Health Care in America. National Academy Press, Washington Leape LL (1997) A systems analysis approach to medical error. J Eval Clin Pract 3/3: 213–322 McDonald CJ, Overhage JM, Tierney WM et al. (1999) The Regenstrief Medical Record System: a quarter century experience. Int J Med Inf 54/3: 225–253 Pietsch Th, Martiny L, Klotz M(2004) Strategisches Informationsmanagement, 4. Aufl. Erich Schmidt, Berlin Seibt D (1991) Informationssystem-Architekturen – Überlegungen zur Gestaltung von technikgestützten Informationssystemen für Un-
ternehmungen. In: Müller-Böling et al. (Hrsg) Innovations- und Technologiemanagement. Poeschl: 251–280 Teich JM, Glaser JP, Beckley RF et al. (1999) The Brigham integrated computing system (BICS): advanced clinical systems in an academic hospital environment. Int J Med Inf 54/3:197–208 Winter A et al. (1998) Systematische Auswahl von Anwendungssoftware. In: Herrmann et al. (Hrsg) Praxis der Informationsverarbeitung im Krankenhaus. Ecomed, Erlangen: 61 ff. Zahrnt C (1999) Empfehlungen zum Erwerb und zur Wartung/Pflege von DV-Systemen. Tagungsdokumentation der 4. Fachtagung »Praxis der Informationsverarbeitung im Krankenhaus«, 07.– 08.05.99 Mai in Dortmund
45
46 Telemedizin am Beispiel aktiver Implantate K. P. Koch
46.1 Einleitung
– 757
46.2 Telemedizin im Operationssaal – 757 46.3 Telemedizin im Homecare-Bereich – 758 46.4 Implantattelemetrie
– 758
46.4.1 Energieversorgung für Implantate – 759 46.4.2 Kopplungsarten zur Datenübertragung zu Implantaten und von Implantaten weg – 762 46.4.3 Leitungscodes – 762
Literatur
46.1
– 764
Einleitung
Die Umsetzung neuer innovativer Therapie- und und Diagnosemethoden erfordert die Entwicklung neuer medizinischer Produkte. Die Telemedizin ist ein Bereich der Telematik, mit der es möglich ist, diagnostische oder therapeutische Daten zwischen zwei Orten (räumliche Distanz) oder zeitlich versetzt (zeitliche Distanz) zu übertragen. Dies beinhaltet sowohl die bidirektionale Übertragungsstrecke zwischen Patient und Arzt als auch die Übertragungsstrecke zwischen zwei Ärzten. Hierzu werden die Informationen telemetrisch ohne materiellen Transport übertragen. In der technischen Umsetzung werden sowohl drahtgebundene als auch drahtlose Kommunikationskanäle genutzt. Diese Möglichkeiten, medizinische Daten zu versenden, eröffnet weitere Anwendungsfelder. Beispiele hierfür sind das Hinzuziehen von externen Experten während chirurgischer Eingriffe, die Übertragung von medizinischen Daten, die vom Patient im häuslichen Umfeld gewonnen werden, als auch die Verteilung der Daten innerhalb eines Krankenhauses. In entgegengesetzter Richtung sollen auch Daten zu Therapiegeräten versendet werden können, um die Behandlung anzupassen. Die Anwendungsfelder reichen hierbei von der Übertragung von Röntgenaufnahmen bis zur Weiterleitung von Temperaturen. Auch für den Datentransfer zu aktiven Implantaten sind Telemetriestrecken erforderlich. Insbesondere in dem zuletzt genannten Bereich spielt auch die Energieversorgung der einzelnen Komponenten eine wichtige Rolle. Diese kann teilweise mit der gewünschten Datenübertragung kombiniert wer-
den. In folgenden Abschnitten werden ausgehend von einem kurzen Überblick über den Einsatz der Telemedizin bei Operationen und Homecare-Anwendungen die Möglichkeiten der Telemedizin zur Ansteuerung aktiver Implantate betrachtet.
46.2
Telemedizin im Operationssaal
Das Hinzuziehen weiterer Experten während einer Operation ist oft nur in großen Kliniken möglich. Bei hoher Spezialisierung gestaltet sich dies immer schwieriger, da die Experten an unterschiedlichen Zentren tätig sind. Der Einsatz der Datenfernübertragung bietet eine Möglichkeit, kurzfristig weitere Experten zu konsultieren. Auch für die Lehre und den wissenschaftlichen Austausch wie Telekonferenzen und Liveschaltungen zu Konferenzen sind solche Systeme sinnvoll. In modernen OP-Systemen werden unterschiedliche Bildgebende Instrumente wie bspw. Endoskope und Ultraschall eingesetzt (Skupin 2005). Zusätzlich zu diesen direkten diagnostischen Geräten sind Kameras zur Erfassung des Operationsfeldes und des Operationsraums für eine Darstellung des Operationsablaufs sinnvoll. Zur Steuerung der bildgebenden Systeme und zur Organisation des Kommunikationsnetzwerkes sind Bedienelemente für den behandelnden Arzt im Sterilbereich erforderlich. Dies betrifft insbesondere die Kamerasteuerung, um den Blickwinkel der Kamera an die aktuelle Operationssituation anpassen zu können. Ferner sind der interoperative Wechsel zwischen den Kameras und die Herstellung des Kommunikationsnetz-
758
Kapitel 46 · Telemedizin am Beispiel aktiver Implantate
werkes vom Operationssaal aus zu bedienen. Mit dieser Technologie lassen sich bei komplexen Operationen weitere Experten konsultieren, ohne den Patienten zu verlegen (⊡ Abb. 46.1).
46.3
V
Telemedizin im Homecare-Bereich
Für die Erfassung medizinischer Daten in häuslicher Umgebung gibt es ein breites Spektrum an Geräten. Dies reicht von Geräten zur Temperatur- und Gewichtsmessung bis zu Geräten zur Erfassung des EKGs oder des Blutdrucks. Viele dieser Geräte besitzen auch Schnittstellen zum Auslesen der Daten. Koppelt man diese an eine Hausbasisstation an, können die Daten von dort bei Bedarf an einen medizinischen Dienst übermittelt werden. Die direkte Punkt zu Punkt-Verbindung zwischen Arzt und Patient ist eine Möglichkeit, die jedoch rückläufig ist. Servergestützte Systeme bieten den Vorteil einer höheren Verfügbarkeit (Bolz 2005). Auch kann die erste Entgegennahme der Daten von medizinisch geschultem Personal erfolgen. Hierdurch kann der Arzt entlastet werden, und die Kosten werden reduziert. Als Schnittstellen zwischen den Messgeräten und der Hausbasisstation werden sowohl drahtgebundene Schnittstellen wie RS-232 oder USB als auch drahtlose Schnittstellen wie Bluetooth eingesetzt. Die Basisstation selbst kann durch Mobiltelefone oder PDA realisiert werden. Für viele Patientengruppen empfiehlt sich jedoch eine einfachere Bedienung, die durch
eine speziell entwickelte Basisstation realisiert werden kann (Kiefer 2004). Diese kommt z. T. nur mit einem Bedienelement, welches die Übertragung der Daten einleitet, aus. Weiterhin ist der Anschluss von kabelgebunden Messgeräten bei Mobiltelefonen oder PDAs nur über einen Adapter möglich. Für die Schnittstelle zwischen der Hausbasisstation und dem Server bzw. dem medizinischen Empfänger unterscheiden sich die Möglichkeiten im Wesentlichen durch die im jeweiligen häuslichen Umfeld zur Verfügung stehenden Schnittstellen. Dies reicht von analogen Telefonanschlüssen, ISDN-Leistungen, Verbindungen über TCP/IP bis zu drahtlosen GSM-Verbindungen. Neben den technischen Problemen der Bereitstellung einer Vielzahl von Schnittstellen und der Nutuzung von Übertragungsprotokollen mit ausreichender Datensicherheit sind auch rechtliche Randbedingungen bezüglich des Datenschutzes mit zu berücksichtigen. Neben dem Aspekt der Kostenreduzierung ist die Unterbringung des Patienten in häuslicher Umgebung in vielen Fällen angenehmer. Diese Technologie kann auch zur Überwachung von Implantaten eingesetzt werden (⊡ Abb. 46.2).
46.4
Implantattelemetrie
Eigenschaften wie Handhabung, Zuverlässigkeit, Lebensdauer und kosmetisches Bild des Produktes sind wesentliche Entwicklungskriterien. So stellt die sichtbare Verdrahtung von Komponenten am Patienten z. B. eine Ver-
⊡ Abb. 46.1. Systemübersicht eines telemedizinisch genutzten Operationssaals
759 46.4 · Implantattelemetrie
Analog ISDN TCP/IP GSM
Bluetooth RS-232 USB
Patient
Messsystem
Basisstation
Server
Arzt oder Patientenbetreuung
⊡ Abb. 46.2. Kommunikationsstruktur von Homecaresystemen
schlechterung der Kosmetik dar. Schwerwiegender sind jedoch mögliche Ausfallrisiken des Produktes aufgrund fehlerhafter Herstellung oder – durch Bewegungen des Patienten bzw. des Pflegepersonals verursachter – beschädigter Verdrahtung. Diese Einschränkungen der Handhabung, Zuverlässigkeit oder Lebensdauer verlangen nach alternativen Konzepten. Der Einsatz kabelloser Übertragungssysteme stellt für verschiedene medizinische Anwendungen eine sinnvolle Lösung dar. In diesem Kapitel wird am Beispiel implantierbarer Systeme der Einsatz unterschiedlicher telemetrischer Ansätze beschrieben. Dies reicht von der Problematik der Energieversorgung der einzelnen Komponenten über die verschiedenen Möglichkeiten der Datenübertragung.
⊡ Abb. 46.3. Transkutane Kabelverbindung zur Stimulation des visuellen Kortex (Dobelle, 2000)
46.4.1 Energieversorgung für Implantate
Die wesentlichen Kriterien zur Auswahl der Energieversorgung von Implantaten sind der Energieverbrauch des Implantates, das zur Verfügung stehende Volumen für das Implantat und die Möglichkeit, die Komponente des Implantats, welche die Energiequelle enthält, zu ersetzen. Bei Herzschrittmachern ist die klassische Form der Energieversorgung der Einsatz von Batterien. Insbesondere seit dem Einsatz von Lithium-Jodid-Batterien ist es gelungen, bei einem kleinen Volumen des Implantats eine Laufzeit von 5–10 Jahren zur gewährleisten. Da bei dieser Art von Implantaten das aktive Implantat mit integrierter Batterie in einer subkutanen Tasche im Brustbereich implantiert ist und eine Schraubverbindung zur Elektrode einen reinen Austausch der aktiven Komponente ermöglicht, stellt ein Austausch nur eine geringe Belastung für den Patienten dar. Wesentliche Vorraussetzung ist der geringe Energieverbrauch von Herzschrittmachern, der durch die niedrige Stimulationsrate, die geringe Anzahl an Elektroden und die gute Ankopplung zum Gewebe bedingt ist. Eine weitere wesentliche Eigenschaft von Herzschrittmachern oder Tiefenhirnstimulatoren, deren Energieversorgung mit Batterien sichergestellt wird, ist ihr autonomer Betrieb. Beide Systeme arbeiten im Normalfall ohne externe Ansteuerung. Nur zur Aktivierung
oder Deaktivierung und zur Therapieanpassung sind temporäre Datenübertragungen erforderlich. Die Versorgung mit Batterien ist jedoch bei Systemen mit hoher Elektrodenanzahl und hoher Stimulationsrate nicht möglich. Beispiele sind Implantate zur Stimulation der oberen Extremitäten zur Steuerung von Greifbewegungen bei Querschnittsgelähmten. Die einfachste Form der Kontaktierung besteht darin, implantierte Elektroden direkt mit transkutanen Kabeln nach außen zu führen. Dies führt jedoch für den Patienten zu erheblichem Pflegeaufwand, da an den Durchtrittstellen für die Kabel Infektionen auftreten können (Hatakeyama 2000). Bei speziellen Anwendungen ist dieser Ansatz trotzdem von Vorteil, da es keinerlei Beschränkungen der Pulsformen durch ein Implantat gibt. Hierdurch können Weiterentwicklungen eingesetzt werden, ohne den Patienten einem erneuten chirurgischen Eingriff auszusetzen. Zur Stimulation des visuellen Kortex wurden bspw. 68 Elektroden implantiert, die mit einer Kamera und einer Elektronik zur Stimulation einer einfachen visuellen Wahrnehmung eingesetzt werden (Dobelle 2000, Normann, 1990) (⊡ Abb. 46.3). Auch temporär implantierte Systeme können effizient mit solchen Verbindungen betrieben werden. Meist befindet sich der Patient
46
während der Anwendungszeit in klinischer Betreuung, wodurch die fachgerechte Versorgung der transkutanen Kabeldurchführung gewährleistet ist. Um sowohl die Energieversorgung des Implantats zu gewährleisten als auch eine bidirektionale Schnittstelle zum Datentransfer zur Verfügung zu stellen, werden induktive Schnittstellen eingesetzt. Hierbei wird das Feld einer externen Senderspule in die Empfangsspule des Implantates eingekoppelt, wodurch nach dem Transformatorprinzip Energie zum Implantat übertragen wird. Um zusätzlich Daten zum Implantat zu senden, wird die Trägerwelle des Senders moduliert. Zur Kommunikation vom Implantat nach außen moduliert man die Last des Implantats, wodurch sich die übertragene Impedanz in der externen Spule und somit der Sendestrom ändert. Bei Cochlea-Implantaten wird diese Technik eingesetzt, da – neben der hohen Datenrate von 400 kBit/s – das Implantat mit 30 mW Leistung zu versorgen ist (Zierhofer 1994 und 1995). Hierbei wird ebenso wie zur Stimulation der Armmuskulatur beim Freehand-System eine Trägerwelle von 10 MHz eingesetzt, wobei im Freehand-System sogar 90 mW übertragen werden (Smith 1987). Bei einem System zur Hirndruckessung wurde die Spule des Implantats direkt auf einem Kommunikationschip integriert. Wegen der geringen Abmessungen der Empfangsspule werden hier jedoch nur Abstände zwischen 1 mm und 5 mm erreicht (Flick 2000). Beispielhaft für die kombinierte Daten- und Energieübertragung mit der Hilfe einer induktiven Schnittstelle wird im Folgenden ein System, welches bei einer Trägerfrequenz von 4 MHz arbeitet, beschrieben (Scholz 1997). Die Kommunikation von der externen Einheit zum Implantat wird mit Hilfe der Modulation der Amplitude dieses Trägers durchgeführt. Zur Datenübermittlung vom Implantat zur extrakorporalen Steuereinheit wird die Last des Implantats moduliert. Hierbei ist der Sendeschwingkreis als Serienschaltung (C1, L1) und der Empfangsschwingkreis als Parallelschaltung (L2, C2) realisiert. Der vereinfachten Beschreibung der induktiven Übertragungsstrecke liegt ein einfaches Modell eines Überträgers zugrunde, bei dem die Kopplung der Spulen durch einen reellen Kopplungsfaktor k bestimmt ist (⊡ Abb. 46.4). Als Modell des Senders dient eine lineare Spannungsquelle mit Leerlaufspannung U0 und Innenwiderstand R1.
k=
I
M L1 L2 U2
U0 R1
C1
L1 L2
C2
⊡ Abb. 46.4. Modell der induktiven Übertragungsstrecke
R2
Die Belastung des Empfangskreises durch die Implantatelektronik wird durch einen Ohm’schen Widerstand R2 simuliert. Je nach Lastmodulation werden diesem Widerstand unterschiedliche Werte zugeordnet. Als wichtiger Index für die Übertragung in Richtung Implantat gilt die Spannungsverstärkung Af von der externen Spannungsquelle zum Lastwiderstand im Implantat (Hochmair 1984, Scholz 2000). Diese beschreibt die zu erwartende Versorgungsspannung des Implantats U2 als auch die Übertragung der Amplitudenmodulation des Trägersignals zum Implantat. Im verwendeten linearen Modell ergibt sich diese in Abhängigkeit der Kreisfrequenz ω des Trägers (⊡ Gl. 1). R2 jω k L1 L2 U2 1 + jω C 2 R 2 = Af = U0 § R2 1 ·§ ¨¨ R1 + jω L1 + ¸¨ jω L2 + jω C1 ¸¹¨© 1 + jω C 2 R 2 ©
( )
· 2 ¸¸ − ω k L1 L2 ¹
(1) Da die externe Einheit transportabel sein soll, wird sie mit Batterien betrieben und hat dementsprechend nur eine begrenzte Energiereserve. Aus diesem Grund ist auch der Wirkungsgrad η bei einer Konstruktion des Systems zu berücksichtigen, der durch den Quotienten aus der sekundärseitig aufgenommenen Wirkleistung P2 zu der von der Spannungsquelle abgegebenen Wirkleistung Pges definiert ist. Besonders ist hierbei, dass die Kapazität im Sendekreis auf den Wirkungsgrad keine Auswirkungen hat (⊡ Gl. 2). L 3 - 1 (2) ʈ 1HFT ¥ ¥ - 3 3 ¦ 3 ¦ ¢ ʙ $ L §ʙ § - ¥ ¦ §
V
Kapitel 46 · Telemedizin am Beispiel aktiver Implantate
¥ ¦ §
760
Als letzte Größe wird die Änderung des Primärstromes ∆I durch die Modulation der Last untersucht. Dieser Primärstrom ergibt sich wiederum aus dem Quotienten aus Leerlaufspannung U0 und dem Betrag des Gesamtwiderstands Zges(⊡ Gl. 3).
Ȅ*
6 ;HFT NJU -BTU
¢
6 ;HFT PIOF -BTU
Lʙ -- 3 Kʙ $ Kʙ - Kʙ $ 3
mit
;HFT 3 Kʙ -
(3)
Diese Stromänderung ist von besonderem Interesse, denn bei ungünstiger Dimensionierung (C1=90 pF, L1=19 µH, R1=10 Ω, C2=700 pF, L2=2,4 µH, R2Last=1 kΩ, R2Freilauf=100 kΩ) der Schwingkreise ergibt sich ein Vorzeichenwechsel dieser Größe in Abhängigkeit von der Kopplung bei einer Frequenz von 4 kHz. Dies hat zwei gravierende Nachteile. Zum einen tritt durch den Vorzeichenwechsel eine Invertierung der Modulation auf. Zum anderen ergibt sich um den Nulldurchgang ein Bereich, in
761 46.4 · Implantattelemetrie
dem die Änderung des primären Stroms ∆I(k) für einen sicheren Empfang zu gering wird (⊡ Abb. 46.5). Zur Gewährleistung eines sicheren Betriebs der Übertragungsstrecke sowohl zur Energieübertragung als auch zur bidirektionalen Datenübertragung ist eine Optimierung der Übertragungsstrecke erforderlich. Hierbei ist die Problematik der Optimierung mehrerer Systemeigenschaften und der damit verbundenen Definition der zulässigen Extrema der Eigenschaften und Wertigkeiten untereinander zu beachten. Eine weitere Schwierigkeit bei Optimierung liegt in der Schwankungsbreite der Komponenten der Übertragungsstrecke. So schwankt die Kopplung der Spulen in Abhängigkeit der Positionierung. Durch intelligente Positionierungssysteme, die dem Patienten die Güte der Übertragung anzeigen, lässt sich diese Problematik entschärfen. Eine weitere Vereinfachung der Positionierung kann durch Permanentmagnete erzielt werden, die in die primäre und sekundäre Spule integriert sind. Hierdurch ergeben sich Vorteile durch die automatische Positionierung aufgrund der magnetischen Kräfte und der eigenständigen Fixierung der externen Spule. Bei allen Systemen bleiben immer Toleranzen, welche durch Bewegungsartefakte und sich verändernde Gewebeschichten (Fettanlagerung) verstärkt werden können. Zusätzlich unterliegen die Bauteile selbst Herstellungstoleranzen und Alterungen. Insbesondere die Alterung und die Veränderung parasitärer Komponenten sind bei implantierten Komponenten durch den Kontakt des Systems mit Körperflüssigkeiten besonders kritisch zu betrachten. Hieraus ergibt sich für die Optimierung einer induktiven Übertragungsstrecke die Herausforderung, mehrere Systemeigenschaften unter der Berücksichtigung des Toleranzbereiches der Komponenten zu optimieren. Um die Problematik der Energieversorgung ohne künstliches Zuführen von Energie zu ermöglichen, gibt es Forschungsansätze, Energie aus der natürlichen Umgebung zu nutzen und damit ein energieautarkes System zu realisierten. Diese Ansätze lassen sich nach der Art der primären Energiequelle und dem Wandlerprinzip unterscheiden. Zu den Wandlern, die mechanische Energie des Körpers in
⊡ Abb. 46.5. Grafik Modulationshub der Lastmodulation mit Vorzeichenwechsel in Abhängigkeit von der Kopplung bei ungünstiger Dimensionierung der Schwingkreise
elektrische Energie umwandeln, gehören piezoelektrische, kapazitive und elektromagnetische Generatoren. Aufgrund der vielseitigen Einsatzorte im Körper ergeben sich unterschiedliche Ankopplungsmöglichkeiten. An Sehnen oder Muskeln treten longitudinale Kräfte auf. Über Gelenke kann man Biegeverformungen des Generators nutzen und an Druckstellen, die unterhalb des Fußes oder im Muskel liegen, treten Duckschwankungen auf, die genutzt werden können. Die wesentliche Herausforderung bei mechanischen Wandlern besteht in der flexiblen Kapselung der elektrischen Komponenten wie bspw. einer Piezokeramik. Weiterhin sind die durch die mechanische Belastung hervorgerufenen Gewebereaktionen sorgfältig zu analysieren. Bei den thermoelektrischen Wandlern erwartet man durch die kontinuierliche Produktion thermischer Energie des Körpers gute Potentiale. Betrachtet man jedoch die Temperaturgradienten an den möglichen Implantationsorten und die Beeinflussung der Temperaturgradienten durch Umgebungstemperatur und Kleidung, so sind nur geringe Temperaturgradienten erreichbar. Neue Forschungsansätze der Firma Biophan versuchen thermoelektrische Wandler auf Temperaturdifferenzen von 1–5°C zu optimieren, um hierdurch Leistungen von bis zu 100 µW bei 4 V Generatorspannung zu erzielen. Hierzu ist eine Wandlerfläche von 2,5 cm2 geplant. Photovoltaische Wandler haben ihre Einschränkung im Wesentlichen durch die wenigen Körperstellen, die nicht durch Bekleidung beschattet werden. Die Implantation von photovoltaischen Wandlern dicht unterhalb der Haut gestaltet sich beim Menschen schon aus kosmetischer Sicht als schwierig. Der Einsatz von Brennstoffzellen zur Umwandlung von Stoffwechselprodukten in elektrische Energie ist eine weitere Möglichkeit, körpereigene Energien zur Energieversorgung von Implantaten zu nutzen. Die wesentlichen Herausforderungen bei diesen Entwicklungen sind der Schutz der Brennstoffzelle vor Katalysatorgiften und die Gewährleistung der kontinuierlichen Versorgung mit Brennstoffen sowie der Abtransport von der Reaktionsprodukten. Zum Teil kann diese Aufgabe durch die Entwicklung geeigneter Membranen gelöst werden. Hierdurch konnten Systeme entwickelt werden, die erfolgreich Energie umwandeln können. Jedoch lagert sich nach und nach Bindegewebe an den Membranen an, und der Transport der erforderlichen Substanzen wird gebremst. Hierdurch reduziert sich jedoch auch die Leistung des Wandlers. Aufgrund der geringen Leistung der Wandler ist in jedem Fall ein Energiespeicher erforderlich, der Verbrauchsspitzen des Implantats – z. B. zur Übertragung von Daten – oder Lücken in der Energieversorgung – z. B. durch fehlende Bewegung – ausgleichen kann. Auch ist eine spezielle Schaltung zum Energiemanagement erforderlich, welche die Spannungspegel des Wandlers und die Elektronik aufeinander anpasst.
46
762
Kapitel 46 · Telemedizin am Beispiel aktiver Implantate
46.4.2 Kopplungsarten zur Daten-
übertragung zu Implantaten und von Implantaten weg
V
Wie im vorangegangenen Abschnitt beschrieben, kann die induktive Kopplung von Implantaten und extrakorporaler Einheit außer zur Energieübertragung auch zur Datenübertragung eingesetzt werden. Die induktive Kopplung zur Datenübertragung wird jedoch auch unabhängig von der Energieversorgung eingesetzt. Insbesondere bei Implantaten mit Metallgehäusen aus Titan werden niederfrequente induktive Kopplungen zur Datenübertragung eingesetzt. Dies bietet sich v. a. an, wenn wie bei Herzschrittmachern nur eine geringe Datenrate erforderlich ist. Als weitere Möglichkeit ergibt sich die Datenübertragung mit Hilfe von elektromagnetischen Wellen. Für den Datentransfer zum Implantat oder vom Implantat nach außen wird in vielen Fällen die Übertragung mit Hilfe eines hochfrequenten Trägers eingesetzt. Vorteil dieses Verfahrens ist, dass die Reichweite solcher Signale im Bereich von einigen Metern liegt. Für Cochlea-Implantate wurde im Tierversuch eine 140 MHz-Trägerwelle frequenzmoduliert und so eine analoge Bandbreite von 550 Hz bis 6,5 kHz realisiert (Winter 1998). Um bei Stimulationen eine direkte Diagnose der Muskelreaktionen zu ermöglichen, wurde bei Herzschrittmachern im Tierversuch ein 90 MHz-Signal ebenfalls frequenzmoduliert. Bei einer subkutanen Antenne mit einer Länge zwischen 10 cm und 20 cm, wurde eine Übertragungsbandbreite von 3 kHz und eine Reichweite von 2,5 m erzielt (Soykan 2002). Auch für andere diagnostische Anwendungen werden Sender eingesetzt, so z. B. für die pH-Wert-Messung Trägerfrequenzen von 1,98 MHz (Mojaverian 1989) und 450 kHz (Colson 1981), sowie zur Messung von Druckdaten mechanischer Prothesen 312,5 MHz (Townsend 2002). Nachteilig bei diesen Systemen ist jedoch, dass die Energieversorgung getrennt von der Datenübertragung mit einer eigenen Energiequelle realisiert werden muss. Bei batteriebetriebenen Implantaten ergeben sich hierbei Lebenszeiten von nur ein paar Stunden bis zu ein paar Monaten. Als weiterer Übertragungsweg steht die Übermittlung optischer Signale zur Verfügung. Anhand der Eigenschaften von Ziegenhaut wurde überprüft, inwieweit eine optische Übertragung durch die Haut möglich ist. Untersucht wurde eine Laserdiode (TL015MD, Sharp) und eine Licht emittierende Diode (LED, TLN205, Toshiba) in Kombination mit einer Photodiode (HP-2ML, Kodensi). Hier zeigte die Laserdiode bessere Ergebnisse. Zum einen liegt der Wirkungsgrad der Laserdiode mit 22% erheblich höher als der Wirkungsgrad der LED mit 9,8%. Zum anderen ist die Transmission der Laserdiode durch die Haut zur Photodiode mit 0,028 größer als die Transmission der LED mit 0,015. Als letzter Punkt wurde die Streuung betrachtet, wobei die Laserdiode ohne Haut eine höhere Empfindlichkeit gegenüber seitlichem
Verschieben zum Empfänger aufwies. Dies wird jedoch durch die Streuung in der Haut kompensiert, und man kann eine mögliche Empfangsfläche durch Achsenverschiebung zwischen Empfänger und Sender messen, die bei der Laserdiode um den Faktor 1,64 größer ist als bei der LED (Inoue 1997). Eine weitere Gruppe setzte zur Übertragung von Daten zum Implantat Infrarot-Signale ein, wobei der Empfänger durch eine 16–50 mm große Solarzelle realisiert wurde. Um störende Lichtsignale auszufiltern, wurde ein optischer Filter von Kodak (Gel-Filter Nr.87C) eingesetzt. Mit diesem System wurde bei einer Gewebsdicke von 1 cm eine Reichweite von 2,5 m erreicht (Soykan 2002). Hierbei wurden bei Hunden Herzschrittmacherdaten übertragen. Dieses Verfahren eignet sich jedoch nicht für den Menschen, da die entsprechenden Körperregionen durch Kleidung verdeckt sind. Vorstellbar sind jedoch Retina-Implantate, die durch die Augenlinse angesteuert werden (Buss 2000). Ein besonders vielversprechender Ansatz zur Übertragung von Daten mittels Infrarot-Signalen ist die Ansteuerung von intelligenten Zahnkronen mit konventionellen Infrarot-Fernbedienungen, wie sie bspw. zur Bedienung von Fernsehgeräten eingesetzt werden. Im speziellen Anwendungsfall wird die Zahnkrone zur elektrischen Stimulation des Nervensystems zur Steigerung des Speichelflusses eingesetzt. Da das Implantat mit Hilfe eines Feuchtesensors die Stimulation regelt, ist nur eine Anpassung der Regelparameter erforderlich. Durch die Fertigung der intelligenten Zahnkrone aus für Infrarot-Strahlung ausreichend transparentem Epoxidharz können nach Öffnen des Mundes und Ausrichten der Fernbedienung in die Mundhöhle die Daten übertragen werden. Eine Quittierung der Übertragung wird durch ein zeitversetztes Blinksignal des Zahnes im sichtbaren Bereich erzielt.
46.4.3 Leitungscodes
Um einen seriellen Datenstrom über eine Leitung oder eine Funkstrecke zu übertragen, werden verschiedene Codierungsmethoden eingesetzt. Diese unterscheiden sich in ihrem Übertragungsverhalten bspw. durch Gleichspannungsfreiheit oder durch die Integration des Taktsignals. Gleichspannungsfreiheit ist dann erforderlich, wenn die Signale z. B. über eine induktive gekoppelte Schnittstelle zur galvanischen Entkopplung übertragen werden sollen. Eine Rückgewinnung des Taktes ist insbesondere dann sinnvoll, wenn beide Systeme nicht synchron arbeiten, da kein gemeinsames Taktsignal zur Verfügung steht. Im Folgenden werden exemplarisch einige der Codes aufgeführt. Beim NRZ-Code (No Return to Zero) (⊡ Abb. 46.6) werden die logische »1« und »0« durch unterschiedliche
763 46.4 · Implantattelemetrie
einer Folge von Nullen kann kein Taktsignal extrahiert werden. Jedoch ist die Gleichspannungsfreiheit gewährleistet. Beim Manchester-Code (⊡ Abb. 46.8) werden die digitalen Zustände Eins und Null durch Polaritätswechsel zur Taktmitte gekennzeichnet. Fallende Flanken symbolisieren eine Eins und steigende Flanken symbolisieren eine Null. In diesem Fall kann man den Takt aus dem Signal ermitteln und das Signal enthält keinen Gleichspannungsanteil. Nachteil diese Codes ist die erhöhte Bandbreite, da die Taktfrequenz doppelt so hoch ist wie die der Datenübertragung.
im Spannungspegel dargestellt. Bei einer Folge von Einsen oder Nullen tritt jedoch ein Gleichspannungsanteil auf. Weiterhin besteht nicht die Möglichkeit aus diesem Signal den Takt auf der Empfängerseite zurück zu gewinnen. Der AMI-Code (Alternate Mark Inversion) (⊡ Abb. 46.7) zeichnet sich durch drei unterschiedliche Spannungspegel aus. Die logische Null wird durch 0 V gekennzeichnet und bei einer logischen Eins wird der Signalspannungspegel angelegt. Die Polarität der Signalspannung alterniert von einer Eins zur nächsten. Aus diesem Signal lässt sich nur bei einer Abfolge von Einsen ein Taktsignal auf der Empfängerseite extrahieren; bei
NRZ-Code Takt Daten
1
0
1
0
1
1
0
0
1
1
1
0
0
0
Signal UH 0V UL
t
⊡ Abb. 46.6. Beispiel NRZ-Code (No Return to Zero)
t
⊡ Abb. 46.7. Beispiel AMI-Code (Alternate Mark Inversion)
AMI-Code Takt Daten
1
0
1
0
1
1
0
0
1
1
1
0
0
0
Signal US 0V -US
Manchester-Code Takt Daten
1
0
1
0
1
1
0
0
1
1
1
0
0
0
Signal US 0V -US
t ⊡ Abb. 46.8. Beispiel Manchester-Code
46
764
Kapitel 46 · Telemedizin am Beispiel aktiver Implantate
Literatur
V
Bolz, A (2005) Schlüsselkomponenten für die Integration existierender TeleHomeCare-Komponenten. Kongressband 6. Würzburger Medizintechnik Kongress: 262–269 Buss, R, Prämassing, F, Püttjer, D, Jäger, D (2000) Optical Signal and Energy Transmission for Implantable Intraocular Microsystems. Proceedings of VDE Microtechnologies Congress, Micro. tec 2: 461–465 Colson, R H, Watson, B W, Fairclough, P D, Walker-Smith, J A, Campbell, C A, Bellamy, D, Hinsull, S M (1981) An Accurate, Long-Term, PHSensitive Radio Pill for Ingestion and Implantation. Biotelemetry Patient Monitoring 8: 213–227 Dobelle, W H (2000) Artifical Vision for the Blind by Connecting a Television Camera to the Visual Cortex. Journal of the American Society for Artificial Internal Organs 46: 3–9 Flick, B, Orglmeister, R (2000) A Portable Microsystem-Based Telemetric Pressure and Temperature Measurement Unit. IEEE Transactions on Biomedical Engineering 47: 12–16 Hatakeyama, K, Shimada, Y, Sato, K, Matsunaga, T, Sato, M, Misawa, A, Ando, S, Takashi, M, Chida, S, Iizuka, K (2000) Clinical Appication of the Hybrid FES in a T4 Completely Parapletic Patient. Proceedings of the 5th Annual Conference of the International Functional Electrical Stimulation Society: 77–79 Hochmair, E S (1984) System Optimization for Improved Accuracy in Transcutaneous Signal and Power Transmission. IEEE Transactions on Biomedical Engineering 31: 177–186 Inoue, K, Shiba, K, Shu, E, Koshiji, K, Tsukahara, K, Ohu-mi, T, Masuzawa, T, Tatsumi, E, Taenaka, Y, Takano, H (1997) Transcutaneous Optical Telemetry System- Investigation on Deviation Characteristics. Proceedings of the 19th Annual International Conference of the IEEE Engineering in Medicine and Biology Society: 2235–2237 Kiefer, S, Schäfer, M, Schera F, Kruse, K (2004) TOPCARE- A Telematic Homecare Platform for Cooperative Healthcare Provider Networks«. Biomedizinische Technik, Bd. 49, Ergänzungsband 2: 246–247 Mojaverian, P, Chan, K, Desai, A, John, V (1989) Gastrointestinal Transit of a Solid Indigestible Capsule as Measured by Radiotelemetry and Dual Gamma Scintigraphy. Pharmaceutical Research 6: 719–724 Normann, R A (1990) Towards an Artificial Eye. Medical Device Technology 8: 14–20 Scholz, O (2000) Konzeption und Entwicklung eines Datenübertragungssystems für den Einsatz in der Neuroprothetik. Dissertation an der Universität des Saarlandes, Saarbrücken Scholz, O, Parramon, J, Meyer, J-U, Valderrama, E (1997) The Design of an Implantable Telemetric Device for the Use in Neural Prostheses. Proceedings of the 14th International Symposium on Biotelemetry: 265–269 Skupin, H (2005) Telemedizin in der täglichen Routine. Kongressband 6. Würzburger Medizintechnik Kongress: 262-269 Smith, B, Peckham, P H, Keith, M W, Roscoe, D D (1987) An Externally Powered, Multichannel, Implantable Stimulator for Versatile Control of Paralyzed Muscle«. IEEE Transactions on Biomedical Engineering 34: 499–508 Soykan, O, McDonald, R, Grant, M (2002) Long Range Close Loop Telemetry for Research. Produktbeschreibung, Medtronic, Inc., Fridley Townsend, C P, Arms, S W (2002) Multichannel, Programmable, Microprocessor Based Strain Gauge Telemetry System. Produktbeschreibung, MicroStrain Inc., Burlington Winter, K F, Hartmann, R, Klinke, R (1998) A Stimulator with Wireless Power and Signal Transmission for Implantation in Animal Experiments and other Applications. Journal of Neuroscience Methods 79: 79–85
Zierhofer, C M, Hochmair-Desoyer, I J, Hochmair, E S (1995) Electronic Design of a Cochlear Implant for Multichannel High Rate Pulsatile Stimulation Strategies. IEEE Transactions on Rehabilitation Engineering 3: 112–116 Zierhofer, C M, Hochmair, E S (1994) Implementation of a Telemetric Monitoring System in a Cochlear Implant. Proceedings of the 16th Annual International Conference of the IEEE Engineering in Medicine and Biology Society: 910–911
47 Medizinische Bildverarbeitung T.M. Lehmann
47.1 Einleitung
47.8 Interpretation
– 765
47.2 Vorbemerkungen zur Terminologie 47.3 Bildbearbeitung
– 767
47.4 Merkmalsextraktion 47.5 Segmentierung 47.5.1 47.5.2 47.5.3 47.5.4
– 772
– 773
Pixelorientierte Segmentierung – 773 Kantenorientierte Segmentierung – 774 Regionenorientierte Segmentierung – 776 Hybride Segmentierungsverfahren – 776
47.6 Klassifikation 47.7 Vermessung
47.1
– 766
– 779 – 781
Einleitung
Durch die zunehmende Digitalisierung bildgebender Systeme für die medizinische Diagnostik gewinnt die digitale Bildverarbeitung eine immer stärkere Bedeutung für die Medizin. Neben den ohnehin digitalen Verfahren wie der Computertomographie (CT) oder Magnetresonanztomographie (MR) werden heute auch bislang analoge Verfahren wie die Endoskopie oder das Filmröntgen durch digitale Sensoraufnahmen ersetzt. Digitale Bilder bestehen aus einzelnen Bildpunkten (Picture Element, Pixel), denen diskrete Helligkeits- oder Farbwerte zugeordnet sind. Sie können effizient aufbereitet, objektiv ausgewertet und über Kommunikationsnetze (Picture Archieving and Communication Systems, PACS) an vielen Orten gleichzeitig verfügbar gemacht werden. Damit eröffnet sich das gesamte Methodenspektrum der digitalen Bildverarbeitung für die Medizin. Der geläufige Terminus »Medizinische Bildverarbeitung« bedeutet also die Verfügbarmachung der digitalen Bildverarbeitung für die Medizin. Auch die Medizinische Bildverarbeitung umfasst somit vier große Bereiche (⊡ Abb. 47.1). Die Bilderzeugung enthält alle Schritte von der Aufnahme bis hin zur digitalen Bildmatrix. Mit Bilddarstellung werden alle Manipulationen an dieser Matrix bezeichnet, die der optimierten Ausgabe des Bildes dienen. Unter Bildspeicherung können alle Techniken summiert werden, die der effizienten Übertragung (Kommunikation), Archivierung und dem Zugriff (Retrieval) der Daten dienen. Bereits eine einzelne Röntgenaufnahme kann in ihrem Ursprungszustand mehrere Megabyte Speicher-
– 781
47.9 Bilddarstellung 47.10 Bildspeicherung
– 782 – 784
47.11 Resümee und Ausblick Literatur
– 787
– 787
Allgemeine Literatur zur digitalen Bildverarbeitung – 788 Grundlegende Literatur zur medizinischen Bildverarbeitung – 788 Spezielle Literatur – 788
kapazität erforderlich machen ( Abschn. 47.10). In den Bereich der Bildspeicherung gehören auch die Methoden der Telemedizin. Die Bildauswertung (Mustererkennung, Bildanalyse) umfasst schließlich alle Schritte, die sowohl zur quantitativen Vermessung als auch zur abstrakten Interpretation medizinischer Bilder eingesetzt werden. Hierzu muss umfangreiches A-priori-Wissen über Art und Inhalt des Bildes auf einem abstrakten Niveau in den Algorithmus integriert werden ( Abschn. 47.2). Damit werden die Verfahren der Bildauswertung sehr spezifisch und können nur selten direkt auf andere Fragestellungen übertragen werden. Im Gegensatz zur Bildauswertung, die oft auch selbst als Bildverarbeitung bezeichnet wird, umfasst die Bildbearbeitung solche manuellen oder automatischen Techniken, die ohne A-priori-Wissen über den konkreten Inhalt der einzelnen Bilder realisiert werden. Hierunter fallen also alle Algorithmen, die auf jedem Bild einen ähnlichen Effekt bewirken. Bspw. führt eine Spreizung des Histogramms in einer Röntgenaufnahme wie in jedem beliebigen Urlaubsfoto gleichermaßen zu einer Kontrastverbesserung ( Abschn. 47.3). Daher stehen Methoden zur Bildbearbeitung schon in einfachen Programmen zur Bilddarstellung zur Verfügung. Vor diesem Hintergrund gibt das vorliegende Kapitel eine Einführung in die Methoden der Medizinischen Bildverarbeitung. Nach grundlegenden Vorbemerkungen zur Terminologie behandelt Abschn. 47.3 die Bildbearbeitung insoweit dies zum Verständnis dieses Kapitels nötig ist. Anschließend werden die Kernschritte der Bildauswertung: Merkmalsextraktion, Segmentierung, Klassi-
766
V
Kapitel 47 · Medizinische Bildverarbeitung
⊡ Abb. 47.1. Stufen der Medizinischen Bildverarbeitung. Die Medizinische Bildverarbeitung umfasst vier Hauptbereiche: die Bilderzeugung, -auswertung, -darstellung und -speicherung; die Module der Bildbearbeitung können als Vor- bzw. Nachbearbeitung allen Bereichen zugeordnet werden (Lehmann et al. 2005)
fikation, Vermessung und Interpretation (⊡ Abb. 47.1) in eigenen Abschnitten vorgestellt. Der Schwerpunkt liegt dabei auf der Segmentierung medizinischer Bilder, denn diese ist von hoher Relevanz und hat daher spezielle Methoden und Techniken hervorgebracht. In Abschn. 47.9 skizzieren wir ergänzend die wichtigsten Aspekte medizinischer Datenvisualisierung. Auch hier haben sich spezifische Methoden entwickelt, die hauptsächlich in der Medizin Anwendung finden. Abschn. 47.10 gibt einen kurzen Abriss der Bildspeicherung, denn die elektronische Kommunikation medizinischer Bilder wird künftig innerhalb einer multimedialen, elektronischen Patientenakte eine immer stärkere Bedeutung bekommen. Abschn. 47.11 rundet das Kapitel mit einer Übersicht vergangener, gegenwärtiger und künftiger Herausforderungen an die Medizinische Bildverarbeitung ab.
47.2
Vorbemerkungen zur Terminologie
Für die Unterscheidung zwischen Bildbe- und verarbeitung spielt die Komplexität oder implementatorische Schwierigkeit des Verfahrens sowie dessen Rechenzeit nur eine untergeordnete Rolle. Vielmehr ist der Abstraktionsgrad des A-priori-Wissens von entscheidender Bedeutung (⊡ Abb. 47.2). Die im Folgenden gegebenen Definitionen sind in der Literatur leider nicht einheitlich. Sie werden jedoch in diesem Kapitel konsistent verwendet: ▬ Die Rohdatenebene erfasst ein Bild als Ganzes, also in der datenbasierten Gesamtheit aller Pixel. ▬ Die Pixelebene hingegen betrachtet das Bild als Ansammlung einzelner diskreter Pixel. ▬ Die Kantenebene repräsentiert eindimensionale Strukturen.
⊡ Abb. 47.2. Abstraktionsgrade der Bildverarbeitung. Die linke Seite der Pyramide benennt die einzelnen Abstraktionsgrade der Bildverarbeitung. Rechts werden diese exemplarisch auf eine Panoramaschichtaufnahme des Kiefers (Orthopantomogramm, OPG) übertragen. Der Zahnstatus, der nur noch standardisierte Information zu den Zahnpositionen (Vorhandensein und Zustand) enthält, entspricht damit einer abstrakten Szenenanalyse (Lehmann 2000b)
▬ Die Texturebene repräsentiert zweidimensionale Strukturen, ohne dass eine Umrandung der Struktur bekannt sein muss. ▬ Die Regionenebene beschreibt zweidimensionale Strukturen mit definierter Umrandung. ▬ Die Objektebene benennt die dargestellten Objekte im Bild explizit mit einem Namen, d. h. hier wird eine Bedeutung (Semantik) für einzelne Bildregionen ermittelt. ▬ Die Szenenebene betrachtet das Ensemble von Bildobjekten im räumlichen und/oder zeitlichen Bezug.
767 47.3 · Bildbearbeitung
Auf dem Weg von der ikonischen (konkreten) zur symbolischen (abstrakten) Bildbeschreibung wird schrittweise Information verdichtet. Methoden der Bildbearbeitung operieren auf den Rohdaten sowie der Pixel- oder Kantenebene und damit auf niedrigem Abstraktionsniveau. Methoden der Bildverarbeitung schließen auch die Regionen-, Objekt- und Szenenebene mit ein. Die hierfür notwendige Abstraktion kann durch zunehmende Modellierung von A-priori-Wissen erreicht werden. Aus diesen Definitionen wird die besondere Problematik bei der Verarbeitung medizinischer Bilder direkt ersichtlich. Sie liegt in der Schwierigkeit, das medizinische A-priori-Wissen so zu formulieren, dass es in einen automatischen Bildverarbeitungsalgorithmus integriert werden kann. In der Literatur spricht man von der Semantic Gap, also der Diskrepanz zwischen der kognitiven Interpretation eines Bildes durch den menschlichen Betrachter (high level) und den pixelbasierten Merkmalen, mit denen Computerprogramme ein Bild repräsentieren (low level). Beim Schließen dieser Gap ergeben sich in der Medizin drei Hauptprobleme: 1. Heterogenität des Bildmaterials Medizinische Bilder stellen Organe oder Körperteile dar, die nicht nur von Patient zu Patient, sondern auch bei verschiedenen Ansichten eines Patienten und bei gleichartigen Ansichten desselben Patienten zu verschiedenen Zeitpunkten stark variieren. Beinahe alle dargestellten morphologischen Strukturen unterliegen sowohl einer inter- als auch intraindividuellen Variabilität des Erscheinungsbildes. Damit wird die allgemeingültige Formulierung des A-priori-Wissens erschwert. 2. Unscharfe Gewebegrenzen Oft kann in medizinischen Bildern keine Trennung zwischen Objekt und Hintergrund vorgenommen werden, denn das diagnostisch oder therapeutisch relevante Objekt wird durch das gesamte Bild repräsentiert. Doch auch wenn in den betrachteten Bildern definierbare Objekte enthalten sind, ist deren Segmentierung problematisch, da sich die Gewebegrenzen biologischer Objekte oft nur undeutlich oder stellenweise darstellen. Medizinisch relevante Objekte müssen also aus der Texturebene abstrahiert werden. 3. Robustheit der Algorithmen Neben diesen die Bildverarbeitung erschwerenden Eigenschaften des Bildmaterials gelten im medizinischen Umfeld besondere Anforderungen an die Zuverlässigkeit und Robustheit der eingesetzten Verfahren und Algorithmen. Automatische Bildanalyse in der Medizin darf i. d. R. keine falschen Messwerte liefern. Das heißt, dass nicht auswertbare Bilder als solche klassifiziert und zurückgewiesen werden müssen. Alle akzeptierten Bilder müssen dann auch richtig ausgewertet werden.
47.3
Bildbearbeitung
Methoden der Bildbearbeitung, d. h. Verfahren und Algorithmen, die ohne spezielles Vorwissen über den Inhalt eines Bildes eingesetzt werden können, werden in der Medizinischen Bildverarbeitung meist zur Vor- bzw. Nachbearbeitung eingesetzt (⊡ Abb. 47.1). Auf die grundlegenden Algorithmen zur Grauwertmodifikation, Faltung und (morphologischen) Filterung wird daher nur insoweit eingegangen, wie dies zum Verständnis des weiteren Textes notwendig ist. Als spezielle Vorverarbeitungsschritte der Medizinischen Bildverarbeitung werden wir darüber hinaus Techniken zur Kalibrierung und Registrierung vorstellen. Grauwertmodifikationen. Grauwertmodifikationen (Pixel-Transformationen) basieren auf dem Histogramm des Bildes. Das Histogramm gibt die Häufigkeitsverteilung der Pixelwerte wieder, wobei in dieser Statistik die örtliche Pixelposition unberücksichtigt bleibt. Mit Hilfe des Histogramms können einfache Pixel-Transformationen definiert werden. Zum Beispiel wird durch die Spreizung der Grauwerte eine Verbesserung des Kontrastes erreicht, wenn das Histogramm des initialen Bildes nicht alle Grauwerte enthält, d. h. nur schmal besetzt ist (⊡ Abb. 47.3, auch 4-Farbteil am Buchende). Zur Spreizung wird die obere und untere Schranke der Grauwerte aus dem Histogramm abgelesen und auf 0 bzw. den maximal verfügbaren Wert abgebildet. Alle Zwischenwerte werden linear verschoben. Technisch werden solche Grauwertmodifikationen durch Look-Up-Tabellen realisiert. Für alle Pixelwerte enthält die Look-Up-Tabelle einen neuen Wert, der auch aus einem anderen Wertebereich stammen kann. Das Beispiel in ⊡ Tab. 47.1 ordnet jedem Grauwert ein Farbtripel für Rot, Grün und Blau (RGB) zu. Durch diese Look-Up-Tabelle wird das Eingabe-Grauwertbild als pseudocoloriertes Farbbild dargestellt. Für die Pseudocolorierung im medizinischen Kontext wurden spezielle Algorithmen vorgeschlagen (Lehmann et al. 1997b). Bei Modifikationen des Grauwertes werden alle Pixel unabhängig von ihrer Position im Bild und unabhängig von den Pixelwerten in ihrer direkten Umgebung transformiert. Grauwertmodifikationen werden deshalb auch als Punktoperationen bezeichnet. Faltung. Im Gegensatz zu den Punktoperationen wird bei der diskreten Faltung das betrachtete Pixel zusammen mit den Werten seiner direkten Umgebung zu einem neuen Wert verknüpft. Die zugrunde liegende mathematische Operation, die Faltung, kann mit Hilfe sog. Templates charakterisiert werden. Ein Template ist eine meist kleine, quadratische Maske mit ungerader Seitenlänge (⊡ Abb. 47.4). Dieses Template wird entlang beider Achsen gespiegelt (daher der Name »Faltung«) und in einer Ecke des Eingabebildes positioniert. Die Bildpixel unter der Maske werden dann Kernel genannt. Alle überein-
47
768
Kapitel 47 · Medizinische Bildverarbeitung
ander liegenden Pixel von Kernel und Template werden jeweils multipliziert und anschließend addiert. Das Ergebnis wird an der Position des mittleren Maskenpixels in das Ausgabebild eingetragen. Das Template wird anschließend zeilen- oder spaltenweise auf dem Eingabebild verschoben, bis alle Positionen einmal erreicht wurden und das Ausgabebild somit vollständig berechnet ist.
Die Pixelwerte des Templates bestimmen dabei die Wirkung der Filterung. Werden nur positive Werte im Template verwendet, so wird im Wesentlichen eine (gewichtete) Mittelung in der lokalen Umgebung jedes Pixels berechnet (⊡ Abb. 47.4a,b). Das Ergebnisbild ist geglättet und erscheint mit reduziertem Rauschen. Allerdings wird auch die Kantenschärfe reduziert. Werden positive und
⊡ Abb. 47.3a–c. Grauwertspreizung. a Der Ausschnitt einer Röntgenaufnahme zeigt die spongiöse Knochenstruktur aus dem Bereich des Kiefergelenkes nur mangelhaft, da die Röntgenaufnahme stark unterbelichtet wurde, b das zugehörige rot dargestellte Histogramm ist nur
schmal besetzt. Durch Histogrammspreizung werden die Säulen im blauen Histogramm linear auseinandergezogen und das zugehörige Röntgenbild in c erscheint kontrastverstärkt
V
⊡ Tab. 47.1. Look-Up-Tabelle zur Pseudocolorierung. Eine Look-Up-Tabelle enthält für jeden Wert aus dem Wertebereich des Eingabebildes einen Wert aus dem Wertebereich des Ausgabebildes. Die hier dargestellte Farbpalette dient der helligkeitserhaltenden Pseudocolorierung des Eingabebildes. Die Pseudocolorierung ermöglicht die Darstellung von Daten, deren Wertebereich die Kantenlänge des RGB-Würfels überschreitet, ohne eine informationsreduzierende Fensterung (Lehmann et al. 1997b) alt
Pixelwert neu
alt
Pixelwert neu
Grau
Rot
Grün
Blau
Grau
Rot
Grün
Blau
0
0
0
0
–
–
–
–
1
1
0
2
246
254
244
239
2
2
0
3
247
255
245
243
3
3
0
5
248
255
245
244
4
4
1
7
249
255
246
246
5
5
1
9
250
255
247
248
6
5
2
12
251
255
249
250
7
5
2
14
252
255
251
252
8
5
3
16
253
255
251
253
9
5
4
18
254
255
253
254
–
–
–
–
255
255
255
255
769 47.3 · Bildbearbeitung
negative Koeffizienten gleichzeitig verwendet, so können auch Kontraste im Bild verstärkt und Kanten hervorgehoben werden (⊡ Abb. 47.4c-f ). Anisotrope (nicht rotationssymmetrische) Templates haben darüber hinaus eine Vorzugsrichtung (⊡ Abb. 47.4e,f ). Hiermit können Kontraste richtungsselektiv verstärkt werden. Morphologische Filterung. Ein weiteres Konzept zur Filterung wurde aus der mathematischen Morphologie adaptiert. Obwohl morphologische Operatoren auch auf Grauwertbilder definiert werden können, steht bei der morphologischen Filterung die Anwendung auf binäre (zweiwertige) Eingangsbilder, die zu binären Templates (Strukturelementen) mit logischen Operationen verknüpft werden, im Vordergrund. Nach einer allgemeinen Konvention bezeichnen weiße Pixel im Binärbild das Objekt und schwarze den Hintergrund. Für die morphologischen Operationen können mathematisch eindeutige Formulierungen und Gesetze notiert werden (Soille 1998). Die wichtigsten Operationen ▬ Erosion (basiert auf logischem AND von Template und Binärbild), ▬ Dilatation (basiert auf logischem OR von Template und Binärbild), ▬ Opening (Erosion gefolgt von Dilatation), ▬ Closing (Dilatation gefolgt von Erosion) und ▬ Skelettierung (z. B. durch Erosion mit verschiedenen Strukturelementen) sollen hier jedoch nur qualitativ beschrieben werden.
⊡ Abb. 47.4a–f. Einfache Templates zur diskreten Faltung. a Die gleitende Mittelwertbildung sowie b das Binomial-Tiefpassfilter bewirken eine Glättung des Bildes, c das Binomial-Hochpassfilter hingegen verstärkt Kontraste und Kanten, aber auch das Rauschen im Bild. Die Templates a–c müssen geeignet normiert werden, damit der Wertebereich nicht verlassen wird, d das Kontrastfilter basiert auf ganzzahligen Pixelwerten, die Faltung mit d ist daher besonders einfach zu berechnen. Die anisotropen Templates e und f gehören zur Familie der Sobel-Operatoren. Durch Drehung und Spiegelung können insgesamt acht Sobel-Masken zur richtungsselektiven Kantenfilterung erzeugt werden (⊡ Abb. 47.8)
Die Erosion führt zu einer Verkleinerung des Objektes und die Dilatation zu dessen Vergrößerung. Das Opening entfernt kleine Details am Objektrand oder aus dem Hintergrund, ohne das Objekt insgesamt nennenswert zu verkleinern. Das Closing vermag Löcher in Inneren eines Objektes zu schließen und dessen Kontur zu glätten, wobei auch hier die Größe des Objektes in etwa erhalten bleibt. Bei der Skelettierung wird ein in der Mitte des Objektes liegender Pfad der Dicke Eins bestimmt (»Skelett«). Kalibrierung. Sollen Messungen in digitalen Bildern vorgenommen werden, so muss das Aufnahmesystem kalibriert werden. Die Kalibrierung von Geometrie (Pixelposition) und Wertebereich (Helligkeits- oder Farbintensitäten) hängt in erster Linie von der Aufnahmemodalität ab. Sie ist gerätespezifisch, aber unabhängig vom Inhalt der Aufnahme und somit Bestandteil der Bildbearbeitung. Während bei der manuellen Befundung einer Untersuchungsaufnahme die Kalibrierung vom Arzt oder Radiologen unbewusst vorgenommen wird, muss sie bei der rechnergestützten Bildauswertung explizit implementiert werden. Geometrische Abbildungsfelder. Geometrische Abbildungsfehler (Verzeichnungen) haben zur Folge, dass die medizinisch relevanten Strukturen unterschiedlich groß dargestellt werden, je nachdem an welcher Bildpositionen sie abgebildet werden, bzw. je nachdem wie das Aufnahmegerät positioniert wurde. Beispielsweise entstehen bei lupenendoskopischen Aufnahmen tonnenförmige Verzeichnungen (⊡ Abb. 47.5). Aber auch bei der einfachen planaren Röntgenaufnahme werden Objekte, die weit von der Bildebene entfernt sind, durch die Zentralstrahl-Projektion stärker vergrößert als solche, die nahe an der Bildebene liegen. Dies muss bei geometrischen Messungen im digitalen Röntgenbild unbedingt beachtet werden, damit Punktabstände im Bild unter der Annahme eines festen Maßstabes in Längenmaße umgerechnet werden können. In gleicher Weise ist die absolute Zuordnung der Werte einzelner Pixel zu physikalischen Messgrößen problematisch. Zum Beispiel ist bei der Röntgenuntersuchung die Zuordnung der Helligkeitswerte zu den summierten Schwächungskoeffizienten der Materie (Helligkeitsnormierung) nur dann möglich, wenn Aluminiumkeile oder treppen mit bekannten Schwächungseigenschaften in das Bild eingebracht werden. Bei digitalen Videoaufnahmen muss vorab ein Weißabgleich gemacht werden, damit die aufgenommenen Farbwerte möglichst gut der Realität entsprechen. Dennoch kann es bei der Bildaufnahme zu unterschiedlicher Ausleuchtung der Szene kommen, die dann die Grau- bzw. Farbwerte wiederum verfälscht. Registrierung. Oftmals ist also die absolute Kalibrierung von Untersuchungsaufnahmen nicht oder nur eingeschränkt möglich. Dann kann versucht werden, durch Registrierung einen Angleich zweier oder mehrerer Auf-
47
770
Kapitel 47 · Medizinische Bildverarbeitung
nahmen untereinander zu bewerkstelligen, um zumindest relative Maßangaben bestimmen zu können (Mai 1998). Zum Beispiel ist bei einer akuten Entzündung die absolute Rötung des Gewebes weniger interessant als deren relative Änderung zum Vortagsbefund. Bei der unimodalen Registrierung werden Bilder derselben Modalität einander angeglichen, die i. d. R. vom gleichen Patienten, aber zu unterschiedlichen Zeiten auf-
genommen wurden, um so Aussagen über einen Krankheitsverlauf zu ermöglichen (Lehmann et al. 2000b). Wie bereits bei der Kalibrierung wird zwischen der geometrischen Registrierung (Registrierung im Definitionsbereich des Bildes) und dem Farb- oder Kontrastangleich (Registrierung des Wertebereiches) unterschieden. ⊡ Abb. 47.6 ( auch 4-Farbteil am Buchende) veranschaulicht das diagnostische Potential der Registrierung am Beispiel der
⊡ Abb. 47.5. Geometrische Verzeichnung und Helligkeitsunterschiede bei der Endoskopie. Bei endoskopischen Untersuchungen entstehen oftmals Tonnenverzeichnungen, die vor der digitalen Bildanalyse korrigiert werden müssen. Darüber hinaus werden die Randbereiche im Bild sichtbar dunkler und unschärfer dargestellt. Bild a entstand
mit einem starren Laryngoskop, das zur Untersuchung des Kehlkopfes eingesetzt wird. Bild b wurde mit einem flexiblen Endoskop zur nasalen Laryngoskopie aufgenommen. Beide Endoskope werden in der klinischen Routine eingesetzt. Mikroskopie und andere optische Modalitäten erzeugen ähnliche Artefakte (Lehmann et al. 2005)
V
Referenzbild
Registrierung
Kontrastangleich
Recall- Untersuchung Subtraktion ⊡ Abb. 47.6. Unimodale Registrierung. In der dentalen Implantologie werden Referenzbild und Recall-Untersuchung zu verschiedenen Zeiten aufgenommen. Die geometrische Registrierung mit nachfol-
Segmentierung gendem Kontrastangleich ermöglicht die digitale Subtraktion der Bilder. Die Knochenresorption ist im segmentierten Bild rot dargestellt (Lehmann et al. 2005)
771 47.3 · Bildbearbeitung
dentalen Implantologie. Die Befundung der Recall-Aufnahme hinsichtlich des periimplantären Knochenstatus wird durch das Subtraktionsbild nach der Registrierung erheblich vereinfacht. Bei der multimodalen Registrierung werden Datensätze, die mit verschiedenen Modalitäten vom selben Patienten erzeugt wurden, zueinander in Bezug gesetzt. Zum Beispiel kann die starre Registrierung zweier 3DDatensätze als Verschiebung eines Hutes auf dem Kopf veranschaulicht werden (Hat-and-Head-Verfahren, Pelizzari et al. 1989). Insbesondere in der Neurologie sind diese Methoden von entscheidender Bedeutung. Tumor-
resektionen im Gehirn müssen mit besonderer Vorsicht durchgeführt werden, um den Verlust funktionswichtiger Hirnareale zu vermeiden. Während die morphologische Information in CT- oder MR-Daten ausreichend dargestellt werden kann, können Funktionsbereiche im Gehirn oft nur mit der nuklearmedizinischen Positronen-Emissions-Tomographie (PET) oder der Single-Photon-Emission-Computed-Tomographie (SPECT) lokalisiert werden. Die multimodale Registrierung funktioneller und morphologischer Datensätze bietet somit wertvolle Zusatzinformation für die Diagnostik und Therapie (⊡ Abb. 47.7, auch 4-Farbteil am Buchende).
⊡ Abb. 47.7. Multimodale Registrierung und Fusion. 1. Reihe: T1gewichtete MR-Schnittbilder einer 66-jährigen Patientin mit rechts parietalem Glioblastom. 2. Reihe: korrespondierende PET-Schichten nach multimodaler Registrierung. 3. Reihe: Fusion der registrierten Schichten zur Planung des Operationsweges. 4. Reihe: Fusion der MR-Daten mit einer PET-Darstellung des sensomotorisch aktivierten Kortexareales. Das aktivierte Areal tangiert nur das perifokale Ödem und ist daher bei der geplanten Resektion nicht gefährdet (Klinik für Nuklearmedizin, RWTH Aachen, aus: Wagenkneckt et al. 1999)
47
772
Kapitel 47 · Medizinische Bildverarbeitung
47.4
V
Merkmalsextraktion
In ⊡ Abb. 47.1 wurde die Merkmalsextraktion als erste Stufe intelligenter Bildauswertung definiert. Ihr folgen die Segmentierung und Klassifikation, die oftmals nicht auf dem Bild selbst, also auf Daten- oder Pixelebene, sondern auf höheren abstrakten Ebenen operieren (⊡ Abb. 47.2). Die Aufgabe der Merkmalsextraktion ist es somit, die Bildinformation derjenigen Ebene zu betonen, auf der die nachfolgenden Algorithmen arbeiten. Informationen anderer Ebenen müssen hingegen unterdrückt werden. Insgesamt wird also eine Datenreduktion durchgeführt, die die charakteristischen Eigenschaften erhält. Das Schema in ⊡ Abb. 47.1 ist dabei stark vereinfacht, denn viele Querverbindungen zwischen den Modulen wurden der Übersicht halber weggelassen. So können z. B. Kaskaden von Merkmalsextraktion und Segmentierung auf verschiedenen Abstraktionsebenen sukzessive realisiert werden, bevor die Klassifikation schließlich auf hohem Abstraktionsniveau erfolgt. Ebenso wird vor der Klassifikation oft ein regionenbasierter Merkmalsextraktionsschritt durchgeführt.
Auch die Hough-, Wavelet- oder Karhunen-Loève-Transformation bieten Möglichkeiten der datenbasierten Merkmalsextraktion (Lehmann et al. 1997a). Die Erforschung solcher Methoden ist jedoch keine Hauptaufgabe der Medizinischen Bildverarbeitung. Vielmehr werden solche Verfahren aus vielen Bereichen der Technik in die medizinische Anwendung adaptiert. Pixelbasierte Merkmale. Pixelbasierte Merkmale beruhen auf den Werten der einzelnen Pixel – in der Medizinischen Bildverarbeitung also meist auf Grau- bzw. Farbwerten. Damit können alle in Abschn. 47.4 beschriebenen Punktoperationen als Beispiel der pixelbasierten Merkmalsextraktion angeführt werden. Ein weiteres Beispiel wurde bereits in ⊡ Abb. 47.6 vorgestellt, nämlich die arithmetische Verknüpfung zweier Bilder. Die Subtraktion von Referenz- und Recall-Aufnahme nach deren Registrierung verstärkt als pixelbasiertes Merkmal lokale Änderungen im Bild.
Datenbasierte Merkmale. Datenbasierte Merkmale beruhen auf der gemeinsamen Pixelinformation aller Pixel. Damit können alle Bildtransformationen, die die gesamte Bildmatrix auf einmal manipulieren, als datenbasierte Merkmalsextraktion verstanden werden. Das prominenteste Beispiel eines datenbasierten Merkmales ist die Fourier-Transformierte des Bildes, die als Merkmal Bildfrequenzen nach Amplitude und Phasenlage erzeugt.
Kantenbasierte Merkmale. Kantenbasierte Merkmale werden durch lokalen Kontrast definiert, also einen starken Unterschied der Grauwerte direkt benachbarter Pixel. Damit kann die in Abschn. 47.3 bereits eingeführte diskrete Faltung mit geeigneten Templates zur Kantenextraktion eingesetzt werden. Alle Masken zur Hochpassfilterung verstärken Kanten im Bild. Besonders geeignet sind die Templates des Sobel-Operators (⊡ Abb. 47.4e,f ). ⊡ Abb. 47.8 zeigt das Ergebnis der richtungsselektiven Sobel-Filterung einer Röntgenaufnahme. Die Ränder der metallischen Implantate werden deutlich hervorgehoben.
⊡ Abb. 47.8. Kantenextraktion mit dem Sobel-Operator. Die Röntgenaufnahme wurde mit den acht richtungsselektiven Sobel-Templates gefaltet. Die starken Kontraste an den Rändern der metallischen Implan-
tate werden durch Binarisierung der richtungsselektiven Kantenbilder weiter verstärkt. Ein isotropes Kantenbild ergibt sich, wenn z. B. zu jeder Pixelposition das Maximum aus den acht Teilbildern gewählt wird
773 47.5 · Segmentierung
Ein isotropes Sobel-Kantenbild kann durch Kombination aus den acht Teilbildern erzeugt werden. Texturbasierte Merkmale. Texturbasierte Merkmale sind in der Medizin seit langem bekannt. In Pathologiebüchern liest man von »kopfsteinartigem« Schleimhautrelief, von »zwiebelschalenartiger« Schichtung der Subintima, von einer »Bauernwurst-Milz«, von einem »Sägeblattaspekt« des Darmephitels oder von einer »Honigwaben-Lunge« (Riede u. Schaefer 1993). So intuitiv diese Analogien für den Menschen sind, desto schwieriger gestaltet sich die Texturverarbeitung mit dem Computer, was zu einer Fülle von Verfahren und Ansätzen geführt hat. Die Texturanalyse versucht, die Homogenität einer zwar inhomogenen aber zumindest subjektiv regelmäßigen Struktur (siehe z. B. die Spongiosa in ⊡ Abb. 47.3c) objektiv zu quantifizieren. Man unterscheidet strukturelle Ansätze, bei denen vom Vorhandensein von Texturprimitiven (Textone, Texel) und deren Anordnungsregeln ausgegangen wird, und statistische Ansätze, die die Textur durch einen Satz empirischer Parameter beschreiben. Regionenbasierte Merkmale. Regionenbasierte Merkmale dienen hauptsächlich der Klassifikation. Sie werden i. d. R. nach der Segmentierung für jedes Segment berechnet. Hier sind v. a. beschreibende Maßzahlen wie die Größe, Lage und Formparameter zu nennen. Da auf dem Abstraktionsgrad der Region bereits in hohem Maße A-priori-Wissen in den Algorithmus integriert wurde, können keine allgemeingültigen Beispiele angegeben werden. Vielmehr hängt die Ausgestaltung regionenbasierter Merkmalsextraktion stark von der jeweiligen Applikation ab ( Abschn. 47.6).
47.5
Segmentierung
Segmentierung bedeutet allgemein die Einteilung eines Bildes in örtlich zusammenhängende Bereiche (Lehmann et al. 1997a). Bei dieser Definition wird die Erzeugung von Regionen als Vorstufe der Klassifikation betont. In Handels (2000) wird als Segmentierung die Abgrenzung verschiedener, diagnostisch oder therapeutisch relevanter Bildbereiche bezeichnet und damit die häufigste Anwendung der Medizinischen Bildverarbeitung in den Vordergrund gestellt, nämlich die Diskriminierung gesunder anatomischer Strukturen von pathologischem Gewebe. Das Ergebnis einer Bildsegmentierung ist damit per Definition immer auf der Abstraktionsebene der Region (⊡ Abb. 47.2). Je nach der abstrakten Ebene, auf der ein Segmentierungsverfahren ansetzt, unterscheidet man methodisch die pixel-, kanten- und textur- bzw. regionenorientierte Verfahren. Darüber hinaus existieren hybride Segmentierungsverfahren, die sich aus Kombination einzelner Ansätze ergeben.
47.5.1 Pixelorientierte Segmentierung
Pixelorientierte Verfahren zur Segmentierung berücksichtigen nur den Grauwert des momentanen Pixels, ohne dessen Umgebung zu analysieren. Die meisten pixelorientierten Verfahren basieren auf Schwellwerten im Histogramm des Bildes, die mit mehr oder weniger komplexen Methoden bestimmt werden, oder auf statistischen Verfahren zur Pixelclusterung. Pixelorientierte Verfahren sind keine Segmentierungsverfahren im strengen Sinne unserer Definition. Da jedes Pixel nur isoliert von seiner Umgebung betrachtet wird, kann a-priori nicht gewährleistet werden, dass tatsächlich immer nur zusammenhängende Segmente entstehen. Aus diesem Grunde ist eine Nachbearbeitung erforderlich, z. B. durch morphologische Filterung ( Abschn. 47.3). Statische Schwellwerte. Sie können dann verwendet wer-
den, wenn die Zuordnung der Pixelhelligkeiten zum Gewebetyp konstant und bekannt ist. Ein statischer Schwellwert ist unabhängig von der jeweiligen Aufnahme. Zum Beispiel werden Knochen- oder Weichteilfenster im CT mit statischen Schwellwerten auf den Hounsfield-Einheiten realisiert (⊡ Abb. 47.9, auch 4-Farbteil am Buchende). Dynamische Schwellwerte. Sie werden aus einer Analyse des jeweiligen Bildes und nur für dieses individuell bestimmt. Das bekannte Verfahren von Otsu basiert auf einer einfachen Objekt/Hintergrund-Annahme. Der Schwellwert im Histogramm wird so bestimmt, dass die resultierenden zwei Klassen eine möglichst geringe Intraklassenvarianz der Grauwerte aufweisen, während die Interklassenvarianz maximiert wird (Otsu 1979). Adaptive Schwellwerte. Bei (lokal) adaptiven Schwellwerten wird die Grauwertschwelle nicht nur für jedes Bild neu bestimmt, sondern innerhalb eines Bildes werden an verschiedenen Positionen unterschiedliche Schwellwerte
⊡ Abb. 47.9. Statische Schwellwertsegmentierung eines CT-Schnittbildes. Der CT-Schnitt aus dem Bereich der Wirbelsäule kann statisch segmentiert werden, da durch die Normierung der Hounsfield-Einheiten (HU) auf einen Bereich [–1000, 3000] sog. Knochen- [200, 3000] oder Weichteilfenster für Wasser [–200, 200], Fett und Gewebe [–500, –200] sowie Luft [–1000, –500] fest definiert werden können
47
774
V
Kapitel 47 · Medizinische Bildverarbeitung
ermittelt. Im Extremfall wird für alle Pixelpositionen ein eigener Schwellwert ermittelt. Dies ist insbesondere dann notwendig, wenn aufgrund kontinuierlicher Helligkeitsverläufe die einfache Objekt/Hintergrund-Annahme global nicht mehr gehalten werden kann. Beispielsweise verläuft der Hintergrund in der Mikroskopie von Zellkulturen (⊡ Abb. 47.10a, auch 4-Farbteil am Buchende) aufgrund von Beleuchtungsunregelmäßigkeiten von hellen Grautönen (oben rechts) bis hin zu dunklen Grautönen (unten links), die im Bereich der Grauwerte der Zellen selbst liegen. Die globale Schwellwertsegmentierung mit dem dynamischen Verfahren von Otsu (⊡ Abb. 47.10b) vermag keine Trennung der Zellen vom Hintergrund zu erzeugen, obwohl der globale Schwellwert aufgrund des Histogramms der Mikroskopie individuell bestimmt wurde. Die lokal adaptive Segmentierung (⊡ Abb. 47.10c) führt zu einem deutlich verbesserten Ergebnis, bei dem jedoch vereinzelt Blockartefakte auftreten. Diese Artefakte lassen sich letztlich nur durch pixeladaptive Schwellwerte vollständig vermeiden (⊡ Abb. 47.10d). Pixelclusterung. Eine weitere Methode zur pixelorientierten Segmentierung stellt das statistische Verfahren der Pixelclusterung dar. Es ist immer dann besonders geeignet, wenn mehr als ein Merkmal zur Segmentierung ausgewertet werden soll. Zum Beispiel wird in Farbbildern jedem Pixel nicht nur ein einzelner Grauwert zugeordnet, sondern jeweils drei Farbwerte. ⊡ Abb. 47.11 veranschaulicht den ISO-Data-Algorithmus1 zur Pixelclusterung (K-Means Clusterung) am einfachen zweidimensionalen Beispiel. Alle Pixelwerte wurden als Datenpunkt in ein zweidimensionales Diagramm eingetragen. Die Anzahl der Segmente wird ebenfalls vorgegeben und die initialen Clusterzentren werden willkürlich in das Diagramm eingezeichnet. Danach werden die folgenden zwei Schritte iterativ wiederholt, bis das Verfahren konvergiert: 1. Für jeden Datenpunkt wird das nächstgelegene Clusterzentrum bestimmt, wozu feste Distanzmetriken (z. B. Euklidische (geometrische) Distanz) oder datenangepasste Metriken (z. B. Mahalanobis-Distanz) berechnet werden. 2. Aufgrund der aktuellen Zuordnung werden die Zentren der Datencluster neu berechnet.
⊡ Abb. 47.10a–e. Dynamische Schwellwertsegmentierung einer Mikroskopie. a Die Mikroskopie einer Zellkultur wurde b global, c lokal adaptiv und d pixeladaptiv segmentiert. Nach morphologischer Nach-
Das Ergebnis des Algorithmus ist weitgehend unabhängig von der initialen Position der Clusterzentren, nicht aber von deren a-priori vorgegebener Anzahl. Die pixelorientiert entstandenen Segmente sind i. d. R. nicht zusammenhängend und stark verrauscht (⊡ Abb. 47.9), was eine Nachbearbeitung erfordert. Das Rauschen kann wirkungsvoll mit Methoden der mathematischen Morphologie gemindert werden. Während ein morphologisches Opening kleinste Segmente aus nur wenigen zusammenhängenden Pixeln entfernt, können kleine Löcher in den Segmenten mit morphologischem Closing geschlossen werden ( Abschn. 47.3). Der Connected-Components-Algorithmus versieht schließlich alle räumlich getrennten Segmente mit einer eindeutigen Bezugszahl. In der Segmentierung des Zellbildes (⊡ Abb. 47.10) wurde zunächst nur das Segment »Zellen« vom Segment »Hintergrund« getrennt, obwohl viele einzelne Zellen in der Aufnahme lokal getrennt dargestellt sind (⊡ Abb. 47.10d). Nach morphologischer Aufbereitung und Connected-Components Analyse können Zellen, die sich nicht berühren, gemäß ihrer Segmentnummer unterschiedlich eingefärbt (gelabelt) und als eigenständige Segmente weiter verarbeitet werden (⊡ Abb. 47.10e).
47.5.2 Kantenorientierte Segmentierung
Eine kantenorientierte Segmentierung basiert auf dem im Vergleich zum »Pixel« abstrakteren Merkmal »Kante« und versucht, die Objekte im Bild aufgrund ihrer Umrandung zu erfassen. Kantenorientierte Segmentierungsverfahren sind daher nur für solche Fragestellungen einsetzbar, in denen auch Objekte mit klar definierten Umrandungen dargestellt werden. Wie in Abschn. 47.2 dargestellt, ist dies in der Medizinischen Bildverarbeitung nur in Ausnahmen der Fall. Einen solchen Sonderfall stellen metallische Implantate dar, die in einer Röntgenaufnahme deutlich dargestellt werden. Die allgemeine Vorgehensweise zur Segmentierung basiert dann auf einer kantenorientierten Merkmalsextraktion, wie z. B. ein mit Sobel-Filtern erzeugtes Kan-
1
International Standard Organisation
bearbeitung zur Rauschunterdrückung sowie einer Connected-Components-Analyse ergibt sich e die endgültige Segmentierung (Metzler et al. 1999)
775 47.5 · Segmentierung
⊡ Abb. 47.11. ISO-Data Pixelclusterung. Der iterative ISO-Data-Algorithmus zur Clusterung ist für ein zweidimensionales Merkmal exemplarisch dargestellt. Die Anzahl der Cluster wird vorgegeben. Nach beliebiger Initialisierung werden die Datenpunkte dem nächstgelegenen Clusterzentrum zugeordnet, dann werden die Positionen der Zentren neu berechnet und die Zuordnung wird aktualisiert, bis das Verfahren schließlich konvergiert
tenbild (⊡ Abb. 47.8). Nach entsprechender Aufbereitung durch Binarisierung, morphologische Rauschfilterung und Skelettierung ist die Konturverfolgung und Konturschließung letztlich die Hauptaufgabe einer kantenorientierten Segmentierung. Hierzu werden fast ausschließlich heuristische Verfahren eingesetzt. Zum Beispiel wird entlang von Suchstrahlen nach Anschlussstücken einer Objektkontur gesucht, um lokale Unterbrechungen der Kante zu überspringen. In der Praxis sind kantenbasierte Segmentierungsverfahren nur halbautomatisch realisierbar. Bei der interaktiven Live-Wire-Segmentierung klickt der Benutzer an den Rand des zu segmentierenden Objektes. Basierend auf diesem Stützpunkt berechnet der Computer für jeden Pfad zur aktuellen Cursorposition eine Kostenfunktion aufgrund der Grauwerte bzw. deren Gradienten und zeigt den Pfad mit den geringsten Kosten als dünne Linie (Draht, engl. wire) über dem Bild an. Bei jeder Cursorbewegung ändert sich also die Linie (engl. live). Kontursegmente entlang von Bildkanten erzeugen nur geringe Kosten. Wird der Cursor also in die Nähe der Kontur gebracht, so sorgt die Kostenfunktion dafür, dass die Linie wieder auf die Kontur des Objektes springt (engl. snapping). Der Benutzer muss letztlich also nur wenige Stützstellen von Hand vorgeben und kann während der Segmentierung die Korrektheit direkt prüfen (⊡ Abb. 47.12, auch 4-Farbteil am Buchende). Einsatzgebiete solcher Verfahren finden sich bei der computerunterstützten (halbautomatischen), schichtweisen Segmentierung von CT-Volumendatensätzen zur Modellerzeugung in der chirurgischen Operationsplanung (Handels 2000).
a
b
c
d
e
f
g
h
⊡ Abb. 47.12a–g. Kantenbasierte interaktive Live-Wire-Segmentierung. Zunächst setzt der Benutzer mit dem Cursor (gelb) einen Startpunkt an der Grenze zwischen weißer und grauer Hirnsubstanz a. Sodann wird die jeweilige Verbindung zur aktuellen Cursorposition mit rot angezeigt b–e. Je nach Cursorposition kann die Kontur dabei auch zwischen ganz unterschiedlichen Verläufen im Bild hin und her
springen d,e. So kann der Benutzer eine geeignete zweite Stützstelle auswählen. Das so fixierte Kurvensegment wird blau dargestellt. Mit drei weiteren Stützstellen e–g ist in diesem Beispiel die Segmentierung bereits abgeschlossen, und die Kurve wird durch Positionierung des Cursors in der Nähe des Starkunktes geschlossen (Institute for Computational Medicine, University Mannheim, nach König u. Hesser 2004)
47
776
Kapitel 47 · Medizinische Bildverarbeitung
47.5.3 Regionenorientierte Segmentierung
Regionenorientierte Segmentierungsverfahren resultieren a-priori in zusammenhängenden Segmenten. Man unterscheidet agglomerative (bottom-up), divisive (topdown) und hierarchische Ansätze. Alle Ansätze basieren auf einem Distanz- oder Ähnlichkeitsmaß, nachdem ein Nachbarpixel oder eine Nachbarregion einer bestehenden Region zugeordnet oder von ihr abgetrennt wird. Hier kommen nicht nur einfache Maße wie der mittlere Grauwert einer Region zum Einsatz, sondern oftmals werden komplexe Texturmaße verwendet ( Abschn. 47.4).
V
Agglomerative Verfahren. Bekanntestes Beispiel eines agglomerativen Verfahrens ist das BereichswachstumVerfahren oder Region-Growing bzw. im dreidimensionalen analog auch Volume-Growing. Beginnend an automatisch oder interaktiv plazierten Keimstellen (Saatpixel bzw. -voxel) werden deren Nachbarn betrachtet und den Saatpunkten zugeordnet, wenn die Distanz zwischen beiden unterhalb einer Schwelle liegt. Das Verfahren wird solange iteriert, bis keine Verschmelzung mehr durchgeführt werden kann. Aus dieser qualitativen Beschreibung wird die Vielzahl und Empfindlichkeit der Parameter solcher Verfahren bereits deutlich. Besonderen Einfluss auf das Ergebnis agglomerativer Segmentierung haben ▬ die Anzahl und Position der Keimpunkte, ▬ die Reihenfolge, in der die Pixel bzw. Voxel iterativ abgearbeitet werden, ▬ das Distanzmaß, nach dem mögliche Zuordnungen bewertet werden, sowie ▬ die Schwelle, bis zu der Verschmelzungen durchgeführt werden. Oft ist deshalb ein Algorithmus zur agglomerativen Segmentierung bereits von kleinen Verschiebungen oder Drehungen des Eingabebildes abhängig, was für die Medizinische Bildverarbeitung i. d. R. unerwünscht ist. Divisive Verfahren. Die divisiven Verfahren invertieren gewissermaßen den agglomerativen Ansatz. Die Beim Split werden Regionen so lange unterteilt, bis sie im Sinne des Ähnlichkeitsmaßes hinreichend homogen sind. Damit werden keine Saatpunkte benötigt, denn das erste Splitting wird auf dem gesamten Bild durchgeführt. Nachteilig ist, dass immer mittig entlang horizontaler oder vertikaler Trennlinien gesplitted wird. Deswegen entstehen willkürliche Trennungen einzelner Bildobjekte, die erst durch eine anschließende Verschmelzung (Split & Merge) kompensiert werden können. Weiterer Nachteil divisiver Segmentierungsverfahren sind die algorithmisch bedingt meist stufigen Objektgrenzen. Prinzipielles Problem regionenorientierter Segmentierungsverfahren ist der Dualismus zwischen Über- und Untersegmentierung. In ⊡ Abb. 47.1 wurde die Segmen-
tierung als Vorstufe zur Klassifikation definiert, in der den extrahierten Bildsegmenten semantische Bedeutung zugeordnet werden soll. Dies kann in Form konkreter Benennungen eines Objektes geschehen (z. B. das Organ »Herz« oder das Objekt »TPS-Schraubenimplantat« oder, abstrakter, ein Defekt oder ein Artefakt). In jedem Fall muss das Segment dem Objekt entsprechen, wenn eine automatische Klassifikation möglich sein soll. Von Untersegmentierung spricht man in diesem Zusammenhang, wenn einzelne Segmente aus Teilen mehrerer Objekte zusammengesetzt sind. Analog bezeichnet man mit Übersegmentierung den Fall, dass einzelne Objekte in mehrere Segmente zerfallen sind. Das große Problem der Segmentierung medizinischer Bilder besteht nun darin, dass Über- und Untersegmentierung i. d. R. immer gemeinsam auftreten. Hierarchische Verfahren. Bei hierarchischen Verfahren wird versucht, dem Dualismus zwischen Über- und Untersegmentierung auf verschiedenen Auflösungsstufen zu begegnen (⊡ Abb. 47.13, auch 4-Farbteil am Buchende).
47.5.4 Hybride Segmentierungsverfahren
In der Praxis der Medizinischen Bildverarbeitung kommt hybriden Segmentierungsverfahren die größte Bedeutung zu. Solche Mischverfahren versuchen, die Vorteile einzelner (meist kanten- und regionenorientierter) Algorithmen miteinander zu verbinden, ohne die Nachteile der gewählten Verfahren ebenfalls zu übernehmen. Zwei weit verbreitete Ansätze, die Wasserscheiden-Transformation und die aktiven Konturmodelle werden im Folgenden exemplarisch dargestellt. Wasserscheiden-Transformation. Die WasserscheidenTransformation (Watershed-Transform) erweitert einen agglomerativen, regionenorientierten Segmentierungsprozess mit Aspekten kantenorientierter Segmentierung. Der numerische Grauwert eines Pixels wird als Erhebung interpretiert und das Bild somit als Relief aufgefasst. Auf dieses Höhenprofil fallen Wassertropfen, die sich im Modell in den lokalen Minima des Bildes zu kleinen Stauseen sammeln. Durch sukzessives Fluten der Landschaft verschmelzen kleinere Becken. Das Verschmelzen großer Becken wird hingegen durch Dämme verhindert, die auf den natürlichen Wasserscheiden, den Reliefs, aufgebaut werden. Die Wasserscheiden-Transformation hat bei der Segmentierung medizinischer Bilder v. a. folgende Vorteile: ▬ Aus dem regionenorientierten Ansatz des Flutens folgt, dass immer zusammenhängende Segmente bestimmt werden. ▬ Aus dem kantenorientierten Ansatz der Wasserscheiden resultieren genaue Kantenverläufe, die sich exakt am zu segmentierenden Objekt orientieren.
777 47.5 · Segmentierung
a
b
c
d
e
f
g
⊡ Abb. 47.13a–g. Hierarchische Region-Merging-Segmentierung. Die Röntgenaufnahme der Hand a wurde auf verschiedenen Auflösungsstufen segmentiert b, c und d. Je nach Größe der Objekte können
diese in der passenden Hierarchieebene lokalisiert e, mit Ellipsen approximiert f oder als Knoten in einem Graphen visualisiert g werden
▬ Die problematische Untersegmentierung kann vermieden werden, wenn bereits das Verschmelzen kleinerer Becken durch die Wasserscheiden unterbunden wird.
Snake-Ansatz. Der klassische Snake-Ansatz modelliert eine interne und eine externe Energie als Gütemaß. Die interne Energie ergibt sich aus einer gewählten Elastizität und Steifigkeit der Kontur und ist hoch an Stellen starker Biegung oder an Knicken. Die externe Energie wird aus dem kantengefilterten Bild berechnet und ist dann gering, wenn die Kontur entlang herausgefilterten Bildkanten verläuft. Die Idee hinter diesem Ansatz ist also, eine kantenorientierte Segmentierung mit dem regionenorientierten A-priori-Wissen zu verbinden, dass medizinische oder biologische Objekte nur selten scharfkantige Umrandungen aufweisen. Bei optimaler Gewichtung der Energieterme wird der Konturverlauf immer dann primär durch die Kanteninformation im Bild bestimmt, wenn diese im Bild auch deutlich erkennbar ist. In lokalen Bereichen mit geringer Kantenausprägung sorgen die internen Konturkräfte für eine geeignete Interpolation des Kantenverlaufes. So einfach dieser Ansatz formuliert wurde, so diffizil ist seine Umsetzung. Während der Iteration muss die Anzahl der Knoten der aktuellen Größe der Kontur ständig angepasst werden. Weiterhin müssen Kreuzungen und Verschlaufungen der sich bewegenden Kontur verhindert werden. Der klassische Snake-Ansatz erfordert darüber hinaus eine bereits präzise positionierte Ausgangskontur, die oft interaktiv vorgegeben werden muss. Hieraus ergaben sich die ersten Anwendungen dieser Segmentierungsmethode. Bei der Konturverfolgung bewegter Objekte in Bildsequenzen dient die Segmentierung aus Bild t als Initialkontur der Iteration in Bild t+1. Dieses Verfahren läuft nach einmaliger Initialisierung für das Bild t=0 automatisch.
Die hierdurch bedingte starke Übersegmentierung muss erheblich reduziert werden, bevor eine Objekterkennung im Bild erfolgreich sein kann. Dies kann mit den bereits vorgestellten Methoden des Merging erfolgen. Dennoch stellt die systembedingte Übersegmentierung die prinzipiellen Schwierigkeit bei der Wasserscheiden-Transformation dar. Aktive Konturmodelle. Aktive Konturmodelle basieren auf einr kantenorientierten Segmentierung unter Berücksichtigung von regionenorientierten Aspekten sowie objektorientiertem Modellwissen. Im Bereich der Medizinischen Bildverarbeitung werden oft Snake- und Ballon-Ansätze zur Segmentierung im zwei- und dreidimensionalen sowie zur Konturverfolgung in zwei- und dreidimensionalen Bildsequenzen, d. h. auf 3D- und 4D-Daten, eingesetzt (Mc Inerney u. Terzopoulos 1996). Die meist als geschlossen modellierte Randkontur von Objekten wird durch einzelne Stützstellen (Knoten) repräsentiert, die im einfachsten Fall mit geraden Kanten stückweise zu einem geschlossenen Polygonzug verbunden werden. Für die Knoten wird ein skalares Gütemaß (z. B. eine Energie) berechnet und für die Umgebung des Knotens optimiert, oder es wird eine gerichtete Krafteinwirkung ermittelt, die die Knoten bewegt. Erst wenn iterativ ein Optimum bzw. Kräftegleichgewicht gefunden wurde, ist die Segmentierung abgeschlossen. Die Möglichkeiten dieses Ansatzes liegen also in der Wahl geeigneter Gütemaße bzw. Kräfte.
47
778
Kapitel 47 · Medizinische Bildverarbeitung
V
⊡ Abb. 47.14. Ballon-Segmentierung einer Zellmembran. Die Einzelbilder zeigen den Ballon zu verschiedenen Zeitpunkten während der Iteration. Beim Berühren der Zellmembran verhindern die starken Bildkräfte die Weiterbewegung der Kontur. Die internen Kräfte wur-
den in dieser Applikation so modelliert, dass sie dem Verhalten einer physikalischen Membran entsprechen. Dies ist am »Adhäsionsrand« des Ballons im Bereich des Dendriten (unten links) deutlich erkennbar (Metzler et al. 1998)
⊡ Abb. 47.15. Segmentierung mit einem dreidimensionalen Ballon-Modell. Der CT-Volumendatensatz aus dem Bereich der Wirbelsäule (links) wurde mit einem 3D-Ballon-Ansatz segmentiert. Der Bandscheibenvorfall (Prolaps) ist in der oberflächenbasierten 3D-Rekonstruktion nach automatischer Segmentierung deutlich erkennbar (rechts). Die Darstellung erfolgte mit Phong-Shading (vgl. Abschn. 47.9) (Bredno 2001a)
Ballon-Ansatz. Beim Ballon-Ansatz wird neben den internen und externen Kräften auch ein innerer Druck oder Sog modelliert, der die Kontur kontinuierlich expandieren oder schrumpfen lässt. ⊡ Abb. 47.14 ( auch 4-Farbteil am Buchende) zeigt die expansive Bewegung eines Ballons zur Segmentierung der Zellmembran in einer Mikroskopie eines Motoneurons. Obwohl auf eine präzise Initialkontur verzichten wurde, schmiegt sich der Ballon im laufe der Iteration immer besser an die Zellkontur an. Ein weiterer Vorteil der Ballon-Modelle ist, dass dieses Konzept direkt in höhere Dimensionen übertragbar ist (⊡ Abb. 47.15, auch 4-Farbteil am Buchende).
Aktuelle Erweiterungen. In aktuellen Erweiterungen aktiver Konturmodelle wird versucht, weiteres A-priori-Wissen in Form von Modellwissen in das Verfahren zu integrieren. Prototypen der erwarteten Objektformen werden in den Algorithmus integriert, indem bei jeder Iteration der Abstand der aktuellen Objektform zu einem passend gewählten Prototyp als zusätzliche Kraft auf die Knoten modelliert wird (Bredno 2001b). Mit solchen Zusätzen kann ein »Ausbrechen« der aktiven Kontur auch an langen Konturbereichen, die im aktuellen Bild ohne ausreichende Kanteninformation dargestellt werden, verhindert werden. Die komplexe und zeitaufwendige Paramet-
779 47.6 · Klassifikation
rierung eines aktiven Konturmodells für eine spezifische Applikation kann auf Basis einer manuellen Referenzsegmentierung auch automatisch erfolgen. Hierzu werden unterschiedliche Parameterkombinationen ermittelt und es wird jeweils eine Segmentierung durchgeführt. Alle segmentierten Konturen werden mit der Referenzkontur verglichen. Dann wird derjenige Parametersatz ausgewählt, mit dem die beste Approximation der Referenzkontur segmentiert wurde (Bredno 2000).
47.6
neueren Ansätze der Computational Intelligence zurück, denn für den Klassifikator ist es letztlich unerheblich, welche Art von Daten den Mustern zugrunde gelegen hat. Die einzelnen Merkmale, die mit unterschiedlichen Verfahren bestimmt worden sein können, werden entweder zu numerischen Merkmalsvektoren oder zu abstrakten Symbolketten zusammengefasst. Zum Beispiel kann eine geschlossene Objektkontur durch seine Fourier-Deskriptoren als Merkmalsvektor oder durch Linienelemente wie »gerade«, »konvex« und »konkav« als Symbolkette beschrieben werden.
Klassifikation
Gemäß unserer Definition (⊡ Abb. 47.1) ist es Aufgabe der Klassifikation, die mittels Segmentierung bestimmten Regionen eines Bildes in Klassen einzuteilen bzw. vorgegebenen Klassen (Objekttypen) zuzuordnen (Niemann 1983). Diesem Prozess liegen meist regionenbasierte Merkmale zugrunde, die die Bildsegmente hinreichend abstrakt beschreiben. In diesem Fall liegt zwischen Segmentierung und Klassifikation ein weiterer Merkmalsextraktionsschritt, dem dahingehend eine besondere Bedeutung zukommt, dass die Eignung und Diskriminierbarkeit der Merkmale die Güte der Klassifikation maßgeblich beeinflusst. Für alle Arten von Klassifikatoren ist die Einteilung in überwachte (trainierte) und unüberwachte (untrainierte) sowie lernende Klassifikation üblich. Zum Beispiel entspricht die Clusterung, die wir in Abschn. 47.4.1 zur pixelorientierten Segmentierung bereits kennengelernt haben, einer unüberwachten Klassifikation. Ziel hierbei ist es, die einzelnen Objekte in ähnliche Gruppen einzuteilen (⊡ Abb. 47.11). Wird die Klassifikation hingegen zur Identifizierung von Objekten eingesetzt, so müssen allgemeine Gesetzmäßigkeiten oder exemplarische Referenzobjekte verfügbar sein, aus denen Stichproben für die Klassifikation erzeugt werden können. Die Merkmale aus diesen Stichproben werden dann zur Parametrierung und Optimierung des Klassifikators verwendet. Durch dieses Training kann die Güte einer Klassifikation entscheidend verbessert werden. Problematisch ist die überwachte Objektklassifikation immer dann, wenn später Muster klassifiziert werden müssen, die sich von den trainierten Mustern stark unterscheiden, d. h. in der Stichprobe nicht ausreichend repräsentiert worden sind. Ein lernender Klassifikator hat hier Vorteile, denn dieser ändert seine Parametrierung mit jeder durchgeführten Klassifikation auch noch nach der Trainingsphase. Im folgenden wollen wir uns auf den in der Medizinischen Bildverarbeitung wichtigeren Fall der Objektklassifikation beschränken und können somit eine charakteristische Stichprobe als gegeben voraussetzen. Die Klassifikation selbst greift meist auf bekannte numerische (statistische Klassifikation) und nichtnumerische (syntaktische Klassifikation) Verfahren sowie die
Statistische Klassifikation. Bei der statistischen Klassifikation wird die Objektidentifizierung als Problem der statistischen Entscheidungstheorie aufgefasst. Parametrische Verfahren zur Klassifikation basieren auf der Annahme von Verteilungsfunktionen für die Merkmalsausprägungen der Objekte, wobei die Parameter der Verteilungsfunktionen aus der Stichprobe bestimmt werden. Nichtparametrische Verfahren hingegen verzichten auf solche Modellannahmen, die in der Medizinischen Bildverarbeitung auch nicht immer möglich sind. Klassisches Beispiel eines nichtparametrischen statistischen Objektklassifikators ist der Nächste-Nachbar- oder Nearest-NeighborKlassifikator. Hierbei definieren die Stichproben die Klassen im Merkmalsraum. Der zu klassifizierende Merkmalsvektor wird derjenigen Klasse zugeordnet, zu der auch der nächste Nachbar im Merkmalsraum gehört bzw. die Mehrzahl der k nächsten Nachbarn gehören. Oft wird hierzu die Euklidische Distanz berechnet (⊡ Abb. 47.16, auch 4-Farbteil am Buchende). Im Gegensatz zu den Merkmalsvektoren ist es bei Symbolketten weder sinnvoll noch möglich, Abstandsmaße oder Metriken zu definieren, um die Ähnlichkeit zweier Symbolketten zu bewerten2. Syntaktische Klassifikation. Die syntaktische Klassifikation basiert daher auf Grammatiken, die möglicherweise unendliche Mengen von Symbolketten mit endlichen Formalismen erzeugen können. Ein syntaktischer Klassifikator kann als wissensbasiertes Klassifikationssystem (Expertensystem) verstanden werden, denn die Klassifikation basiert auf einer formalen symbolischen Repräsentation des heuristischen Expertenwissens, das als Fakten- und Regelwissen auf das Bildverarbeitungssystem übertragen wird. Ist das Expertensystem in der Lage, neue Regeln zu kreieren, so ist auch ein lernender Objektklassifikator als wissensbasiertes System realisierbar. Zu beachten ist, dass weder für die Komplexität noch für die Abstraktion oder den Umfang des eingebrachten Expertenwissens allge2
Eine Ausnahme bildet der Levenshtein-Abstand, der die kleinste Anzahl von Vertauschungen, Einfügungen und Auslassungen von Symbolen angibt, die erforderlich ist, um zwei Symbolketten ineinander zu überführen.
47
780
Kapitel 47 · Medizinische Bildverarbeitung
V
⊡ Abb. 47.16a–j. IDEFIX – Identifizierung dentaler Fixturen. a In der Röntgenaufnahme des seitlichen Unterkiefers stellt sich ein dentales Implatant dar. b Zur Merkmalsextraktion wird das Bild mit einem lokal adaptiven Schwellwert binarisiert. c Die morphologische Filterung trennt einzelne Bereiche und eliminiert Störungen. d In diesem Beispiel wurden drei Regionen segmentiert. Die weitere Verarbeitung ist für das blaue Segment dargestellt. Nach dessen Ausblendung wird die morphologische Erosion c durch eine nachfolgende Dilatation kompensiert e und vom Zwischenbild b subtrahiert. Über eine beliebige Koordinate des blauen Segmentes aus d kann nun das korrespondie-
rende Objekt extrahiert g und durch Karhunen-Loève-Transformation in eine Normallage gebracht werden h. Geometrische Dimensionen können nun als regionenbasierte Merkmale bestimmt und zu einem Merkmalsvektor zusammengefasst werden. Die Klassifikation im Merkmalsraum erfolgt mit dem statistischen k-Nearest-Neighbor-Klassifikator i, der das blaue Segment zuverlässig als Branemark Schraubenimplantat identifiziert j. Im Rahmen des Trainings wurden zuvor die (hier: geometrischen) Merkmale verschiedener Implantattypen ermittelt und in den Merkmalsraum i als Referenz eingetragen (Lehmann et al. 1996)
meingültige Mindestanforderungen definiert sind. In der Literatur werden daher bereits »primitive« Bildverarbeitungssysteme, die einfache Heuristiken als fest implementierte Fallunterscheidung zur Klassifikation oder Objektidentifikation nutzen, als »wissensbasiert« bezeichnet.
nach. Sie bestehen aus vielen jeweils einfach aufgebauten Grundelementen (Neuronen), die in mehreren Schichten angeordnet und verknüpft werden. Jedes Neuron berechnet die gewichtete Summe seiner Eingangserregungen, welche über eine nichtlineare Funktion (Kennlinie) an den Ausgang abgebildet wird. Die Anzahl der Schichten, Anzahl der Neuronen pro Schicht, die Verknüpfungstopologie und die Kennlinie der Neuronen werden im Rahmen einer Netzdimensionierung vorab aufgrund von Heuristiken festgelegt, wofür umfangreiche Erfahrung aus der Praxis erforderlich ist. Die einzelnen Gewichte der Eingangserregungen hingegen werden während des Trainings des Netzes numerisch ermittelt. Danach bleibt das Netz unverändert und kann als Klassifikator eingesetzt werden.
Computational Intelligence. Als Teilgebiet der künstlichen Intelligenz umfassen die Methoden der Computational Intelligence die Neuronalen Netze, die Evolutionären Algorithmen und die Fuzzy-Logik. Diese Methoden haben ihre Vorbilder in der biologischen Informationsverarbeitung, die insbesondere für Aufgabenstellungen im Bereich der Objekterkennung wesentlich leistungsfähiger ist, als es heutige Computer sind. Deshalb werden sie in der Medizinischen Bildverarbeitung häufig zur Klassifikation und Objektidentifizierung herangezogen. Dabei haben alle Verfahren einen mathematisch fundierten, komplexen Hintergrund. Neuronale Netze. Künstliche neuronale Netze bilden die Informationsverarbeitung im menschlichen Gehirn
Evolutionäre Algorithmen. Evolutionäre Algorithmen basieren auf der ständigen Wiederholung eines Zyklus von Mutation (zufällige Veränderung) und Selektion (Auswahl) nach dem Darwin’schen Prinzip (Survival of the Fittest). Genetische Algorithmen arbeiten auf einer
781 47.8 · Interpretation
Menge von Individuen (der Population). Durch Kreuzung von zwei zufällig ausgewählten Individuen und anschließender Mutation verändert sich die Population. Eine Fitness-Funktion bewertet die Population im Hinblick auf ihre Güte zur Problemlösung. Die wiederum mit einer Zufallskomponente behaftete Selektion erfolgt so, dass fitte Individuen häufiger zur Reproduktion ausgewählt werden. Evolutionäre Algorithmen können komplexe Optimierungsprobleme erstaunlich gut lösen, werden aber zur Objektklassifikation nur selten erfolgreicher als andere Verfahren eingesetzt. Fuzzy-Logik. Bei der Fuzzy-Logik wird die in der realen Welt vorhandene Unsicherheit (Unschärfe) auch im Computer dargestellt. Viele unserer Sinneseindrücke sind qualitativ und unpräzise und daher für exakte Messungen ungeeignet. Zum Beispiel wird ein Bildpunkt als »dunkel«, »hell«, oder auch »sehr hell« wahrgenommen, nicht aber als Pixel mit dem Grauwert »231«. Mathematische Grundlage ist die Fuzzy-Set-Theorie unscharfer Mengen, in der die Zugehörigkeit eines Elementes zu einer Menge nicht nur die zwei Zustände »wahr« (1) und »nicht wahr« (0) haben kann, sondern kontinuierlich im Intervall [0,1] liegt. Anwendungen in der Bildverarbeitung finden sich neben der Klassifikation (vgl. Bsp. in Abschn. 47.7) auch zur Vorverarbeitung (Kontrastverbesserung), Merkmalsextraktion (Kantenextraktion und Skelettierung) und Segmentierung (Tizhoosh 1998).
47.7
Vermessung
Während die visuelle Befundung qualitativ ist und z. T. starken inter- wie intraindividuellen Schwankungen unterliegt, kann eine geeignete computerunterstützte Auswertung medizinischer Bilder (Vermessung) prinzipiell objektive und reproduzierbare Messergebnisse liefern. Voraussetzung hierfür ist zum einen die genaue Kalibrierung des Aufnahmesystems ( Abschn. 47.3). Darüber hinaus müssen Partial-Effekte des bildgebenden Systems und Besonderheiten der diskreten Pixeltopologie berücksichtigt werden. Die Diskretisierung des Ortsbereiches in Pixel oder Voxel führt immer zu einer Mittelung der Messwerte im entsprechenden Bereich. Zum Beispiel wird einem Voxel im CT, welches verschiedene Gewebearten anteilig enthält, als Hounsfield-Wert der Mittelwert der Gewebeanteile zugeordnet. So kann ein Voxel, das nur Knochen und Luft enthält, den Hounsfield-Wert von Weichteilgewebe erhalten und so quantitative Messungen verfälschen. Diese Partial(volumen)-Effekte treten prinzipiell bei allen Modalitäten auf und müssen bei der automatischen Vermessung entsprechend berücksichtigt werden. Für die diskrete Pixelebene gelten i. Allg. nicht die üblichen Sätze der Euklidischen Geometrie. So haben sich
kreuzende diskrete Strecken nicht immer einen gemeinsamen Schnittpunkt, der wiederum exakt in das diskrete Pixelraster fällt und somit ebenfalls als Pixel dargestellt werden kann. Weiterhin haben die verschiedenen Nachbarschaftskonzepte der diskreten Pixeltopologie Einfluss auf das Ergebnis automatischer Bildvermessung. So werden die ermittelten Bereiche bei der Segmentierung u. U. erheblich größer, wenn bei der Prüfung der Zusammenhängigkeit eines Bereiches die 8ter-Nachbarschaft verwendet wird, d. h. wenn es ausreichend ist, dass sich zwei Teilbereiche an einer Stelle lediglich über Eck berühren. Die in ⊡ Abb. 47.16 zur Identifizierung der Implantate extrahierten geometrischen Maße entsprechen bereits einer Vermessung. Dort wurden allgemeine Maße auf der Abstraktionsstufe »Region« (⊡ Abb. 47.2) ermittelt und zur Identifizierung der Objekte genutzt. Oft werden nach der Identifizierung auch spezielle Maße auf der Abstraktionsstufe »Objekt« ermittelt, die dann von dem A-priori-Wissen Gebrauch machen, um welches Objekt es sich bei der Vermessung handelt. Zum Beispiel kann das in ⊡ Abb. 47.16i verfügbare Wissen, dass das blaue Segment ein Branemark-Implantat darstellt, genutzt werden, um die Anzahl der Gewindegänge mit einem an die Geometrie der Branemark-Implantate angepassten morphologischem Filter zu ermitteln. Ein weiteres Beispiel für die objektbasierte Vermessung ist in ⊡ Abb. 47.17 ( auch 4-Farbteil am Buchende) dargestellt. Das Ergebnis der Ballon-Segmentierung einer Zellmembran (⊡ Abb. 47.14) wurde zunächst anhand von Modellannahmen automatisch mit lokalen Konfidenzwerten belegt (⊡ Abb. 47.17a). Diese Werte geben die Zugehörigkeit eines Kontursegmentes zur Zellmembran an und entsprechen somit einer Klassifikation mittels FuzzyLogik. Die Konfidenzwerte werden bei der Mittelung quantitativer Maße entlang der Kontur berücksichtigt (Lehmann et al. 2001b). Diese wird anhand der Segmentierung extrahiert, linearisiert, normaliziert und morphologisch analysiert (⊡ Abb. 47.17b), sodass sich schließlich die konfidierte Besetzung der Zellmembran mit synaptischen Boutons als Verteilung über die Boutongröße ergibt (⊡ Abb. 47.17c).
47.8
Interpretation
Wird die Bildinterpretation im Sinne einer abstrakten Szenenanalyse verstanden, so entspricht sie dem ehrgeizigen Ziel der Entwicklung eines »Gesichtssinns für Maschinen«, der ähnlich universell und leistungsfähig wie der des Menschen ist. Während es bei den bisherigen Schritten um die automatische Detektion von Objekten und ihrer Eigenschaften ging, wird nun die Anordnung einzelner Objekte zueinander in Raum und/oder Zeit zum Gegenstand der Untersuchung. Grundlegender Schritt der Bildinterpretation ist somit die Generie-
47
782
Kapitel 47 · Medizinische Bildverarbeitung
V ⊡ Abb. 47.17a–c. Quantifizierung synaptischer Boutons auf einer Zellmembran. Die Zellmembran wurde in der Mikroskopie (⊡ Abb. 47.12) mit einem Ballon-Modell segmentiert. Hierbei können lokale Konfidenzwerte ermittelt werden, die die Zugehörigkeit einzelner Konturabschnitte zur tatsächlichen Zellmembran unscharf klassifizieren a.
Die Zellkontur wird extrahiert, linearisiert, normalisiert und binarisiert, bevor die Besetzung der Zellmembran mit synaptischen Boutons unterschiedlicher Größe durch morphologische Filterung analysiert wird b. Die Konfidenzwerte aus a werden bei der Mittelung der Besetzung entlang der Zellmembran berücksichtigt c (Lehmann et al. 2001b)
rung einer geometrisch-temporalen Szenenbeschreibung auf abstraktem Niveau (symbolische Bildbeschreibung, ⊡ Abb. 47.2). Eine geeignete Repräsentationsform hierfür ist der relationale attributierte Graph (semantisches Netz), der in verschiedenen Hierarchiestufen analysiert werden kann. Die bislang betrachtete Rastermatrix von Bildpunkten (ikonische Bildbeschreibung, ⊡ Abb. 47.2) ist für die Bildinterpretation also ungeeignet. Die Primitive des Graphen (Knoten) und deren Relationen (Äste) müssen aus den segmentierten und identifizierten Objekten oder Objektteilen im Bild abstrahiert werden. Bislang vermögen nur wenige Algorithmen diese Abstraktion zu leisten. Beispiele für die Abstraktion von Primitiven geben die zahlreichen Ansätze der Formrekonstruktion: Shape-from-shading, -texture, -contour, -stereo, usw. Beispiele für die Abstraktion von Relationen findet man bei der Tiefenrekonstruktion durch trigonometrische Analyse der Aufnahmeperspektive (Liedtke u. Ender 1989, Pinz 1994). In den Bereichen der industriellen Bildverarbeitung und Robotik sind in den letzen Jahren erhebliche Fortschritte bei der symbolischen Bildverarbeitung erzielt worden. Die Übertragung in die Medizin ist aufgrund der in Abschn. 47.2 dargestellten Besonderheiten des medizinischen Bildmaterials bislang jedoch nur spärlich geglückt. ⊡ Abb. 47.18 ( auch 4-Farbteil am Buchende) verdeutlicht am Beispiel der Erhebung eines Zahnstatus auf Basis der Panoramaschichtaufnahme (Orthopantomogramm, OPG) die immensen Schwierigkeiten, die bei der automatischen Interpretation medizinischer Bilder zu bewältigen sind. Zunächst muss die Segmentierung und Identifikation aller relevanten Bildobjekte und Objektteile gelingen, damit das semantische Netz aufgebaut werden
kann. Dieses enthält die Instanzen (Zahn 1, Zahn 2, ...) der zuvor identifizierten Objekte (Zahn, Krone, Füllung, ...). In einem zweiten nicht minder schwierigen Schritt muss die Interpretation der Szene auf Basis des Netzes erfolgen. Hierzu müssen alle Zähne entsprechend ihrer Position und Form benannt werden. Erst dann können Kronen, Brücken, Füllungen sowie kariöse Prozesse in den Zahnstatus eingetragen werden. Die Automatisierung dieses Prozesses, der vom Zahnarzt in wenigen Minuten durchgeführt wird, ist bislang noch nicht mit ausreichender Robustheit möglich.
47.9
Bilddarstellung
Unter dem Begriff der Bilddarstellung hatten wir einleitend alle Transformationen zusammengefasst, die der optimierten Ausgabe des Bildes dienen. In der Medizin umfasst dies insbesondere die realistische Visualisierung dreidimensionaler Daten. Derartige Verfahren haben breite Anwendungsbereiche in der medizinischen Forschung, Diagnostik, Therapieplanung und Therapiekontrolle gefunden. Im Gegensatz zu Problemstellungen aus dem Bereich der allgemeinen Computergraphik sind die darzustellenden Objekte in medizinischen Anwendungen nicht durch formale, mathematische Beschreibungen gegeben, sondern als explizite Voxelmengen eines Volumendatensatzes. Deshalb haben sich für medizinische Visualisierungsaufgaben spezielle Methoden etabliert. Diese Methoden basieren entweder auf einer Oberflächenrekonstruktion oder auf einer direkten Volumenvisualisierung, sowie auf Annahmen zur Beleuchtung und Schattierung (⊡ Tab. 47.2).
783 47.9 · Bilddarstellung
⊡ Abb. 47.18. Schritte der Bildinterpretation zur automatischen Erhebung des Zahnstatus. Das OPG enthält alle für den Zahnstatus relevanten Informationen. Die symbolische Beschreibung der Szene erfolgt zunächst durch ein semantisches Netz. Der dargestellte Teil des Netzes repräsentiert trotz seiner bereits beträchtlichen Komplexität nur den oval markierten Ausschnitt aus dem linken Seitenzahnbereich. Im Zahnstatus wird dieselbe Information anders aufbereitet. Die Zähne werden hierzu nach dem Schlüssel der Fédération Dentaire Internatio-
nale (FDI) benannt: die führende Ziffer kennzeichnet den Quadranten im Uhrzeigersinn, die nachfolgende Ziffer die von innen nach außen fortlaufende Platznummer des Zahnes. Vorhandene Zähne werden durch Schablonen repräsentiert, in denen Füllungen im Zahnkörper oder in der -wurzel blau markiert werden. Kronen und Brücken werden neben den Zähnen rot gekennzeichnet. Der grüne Kreis an 37 weist auf einen kariösen Prozess hin
⊡ Tab. 47.2. Taxonomie der 3D-Visualisierungsverfahren. Die Triangulierung zur schnittbildorientierten Oberflächenrekonstruktion kann in Lehrbüchern der Computergraphik nachgelesen werden. Das Marching-Cube-Verfahren ist im Text beschrieben. Als einfachstes Beispiel einer oberflächenorientierten direkten Volumenvisualisierung wird bei der Tiefenschattierung die Eindringtiefe des Strahls in das Volumen bis zum Erreichen der Oberfläche als Grauwert dargestellt. Die Integralschattierung hingegen integriert die abgetasteten Werte entlang des gesamten Projektionsstrahls (Ehricke 1997) Verfahren der dreidimensionalen Visualisierung Oberflächenrekonstruktion und -darstellung
Direkte Volumenvisualisierung
Schnittbildorientierte Rekonstruktion
Volumenorientierte Rekonstruktion
Oberflächenorientierte Methoden
Volumenorientierte Methoden
Beispiel: Triangulierung
Beispiele: Cuberille Verfahren, Marching Cube
Beispiele: Tiefenschattierung, Tiefengradientenschattierung, Grauwertgradientenschattierung
Beispiele: Integralschattierung, transparente Schattierung, Maximumsprojektion
47
784
V
Kapitel 47 · Medizinische Bildverarbeitung
Oberflächenrekonstruktion. Der Marching-Cube-Algorithmus wurde speziell für die Oberflächenrekonstruktion aus medizinischen Voxelmengen entwickelt (Lorensen u. Cline 1987). Ein Voxel wird hierbei nicht mehr als Quader endlicher Kantenlänge, sondern als Punkt interpretiert. Das zu visualisierende Volumen entspricht also einem Punktgitter. In diesem wird ein Quader (Cube) mit je 4 Eckpunkten in zwei benachbarten Schichten betrachtet. Für ein segmentiertes Volumen lässt sich für diesen Quader das komplexe Problem der Oberflächenerzeugung durch Ausnutzung von Symetrieeigenschaften auf lediglich 15 verschiedene Topologien reduzieren und somit effizient berechnen, denn die zu diesen Grundtopologien gehörenden Polygonbeschreibungen können in einer Look-Up-Tabelle abgelegt werden. Ähnlich wie bei der Faltung wird der betrachtete Quader sukzessive an allen Stellen im Volumendatensatz positioniert (Marching). Nach Berechnung des Marching-Cube-Algorithmus liegt das segmentierte Volumen als triangulierte Oberfläche vor, die aus einer zunächst noch sehr großen Zahl an Dreiecken besteht. Durch heuristische Verfahren kann diese Zahl jedoch erheblich reduziert werden, ohne dass wahrnehmbare Qualitätseinbußen entstehen. Erst hierdurch werden Echtzeitdarstellungen des Volumens möglich. Beleuchtung und Schattierung. Zur Erzeugung von photorealistischen Darstellungen der Volumenoberfläche wird die Beleuchtung analog zu natürlichen Szenen simuliert. Nach dem Phong‘schen Beleuchtungsmodell entsteht ambientes Licht durch sich überlagernde Vielfachreflexion, diffuses Streulicht an matten Oberflächen und spiegelnde Reflexionen an glänzenden Oberflächen (Phong 1975). Während die Intensität des ambienten Lichtes in der Szene für alle Oberflächensegmente konstant ist, hängen die Intensitäten diffuser und spiegelnder Reflexionen von der Orientierung und den Eigenschaften der Oberfläche sowie deren Abstand zur Lichtquelle ab. In Abhängigkeit der Raumposition des Beobachters wird dann ermittelt, welche Oberflächenelemente sichtbar sind. Ohne Schattierung (Shading) sind in der Visualisierung der Szene noch die einzelnen Dreiecke erkennbar, was als störend empfunden wird. Durch verschiedene Strategien zum Shading kann der visuelle Eindruck erheblich verbessert werden. Das Gouraud-Shading ergibt glatte stumpfe Oberflächen (Gouraud 1971), das PhongShading ermöglicht zusätzlich Spiegelungen (Phong 1975). In neueren Applikationen werden darüber hinaus auch Transparenzen modelliert, um auf gekapselte Objekte blicken zu können. Weiterhin können Texturen oder andere Bitmaps auf die Oberflächen projiziert werden, um einen noch realistischeren Eindruck zu erreichen. Direkte Volumenvisualisierung. Bei der direkten Volumenvisualisierung wird auf die Vorabberechnung von Objektoberflächen verzichtet. Die Visualisierung basiert
statt dessen direkt auf dem Volumendatensatz. Damit wird eine Visualisierung der Voxel auch dann möglich, wenn noch keine Segmentierung vorliegt, z. B. wenn die Visualisierung des Datensatzes vom Radiologen zur interaktiven Eingrenzung pathologischer Bereiche genutzt werden soll. Das Volumen wird entweder entlang der Datenschichten (Back-To-Front oder Front-To-Back) oder entlang eines gedachten Lichtstrahls durchlaufen. Ausgehend vom Beobachter werden beim Ray-Tracing Strahlen in das Volumen verfolgt. Hierdurch ist auch die rekursive Weiterverfolgung von Sekundärstrahlen möglich, die durch Reflexion oder Brechung erzeugt wurden, was eine sehr realistische Darstellung ergibt. Beim einfacheren Ray-Casting wird hingegen auf diese Weiterverfolgung der Sekundärstrahlen verzichtet, wodurch das Verfahren wesentlich effizienter wird. Die bei der Strahlenverfolgung auftretenden Probleme der diskreten Pixeltopologie ( Abschn. 47.7) haben zu einer Vielzahl von algorithmischen Varianten geführt. Beleuchtung und Schattierung. Aus dem Intensitätsprofil der durchlaufenen Voxel werden Parameter extrahiert und zur Darstellung als Grau- oder Farbwert an der korrespondierenden Stelle in der Betrachtungsebene eingesetzt. Diese Verfahren werden wiederum mit Schattierung bezeichnet. Bei den oberflächenorientierten Schattierungsmethoden sind Beleuchtung und Bildebene auf gleicher Seite zum Objekt, während in Anlehnung an die Radiographie volumenorientierte Verfahren das gesamte Objekt durchstrahlen, d. h. das Objekt zwischen Beleuchtung und Beobachtungsebene platzieren (⊡ Tab. 47.2). Kombiniert man die direkte Volumenvisualisierung mit 2D- oder 3D-Segmentierungen, so können erstaunlich realistische Darstellungen erzeugt werden (⊡ Abb. 47.19, auch 4-Farbteil am Buchende).
47.10
Bildspeicherung
Unter Bildspeicherung hatten wir einleitend alle Bildmanipulationstechniken zusammengefasst, die der effizienten Archivierung (Kurz- und Langzeit), Übertragung (Kommunikation) und dem Zugriff (Retrieval) der Daten dienen (⊡ Abb. 47.1). Für alle drei Punkte haben die Besonderheiten des medizinischen Umfeldes zu spezifischen Lösungen geführt, auf die wir uns in der folgenden Darstellung beschränken werden. Archivierung (Kurz- und Langzeit). Die Einführung des CT in die klinische Routine hat bereits in den 70er Jahren zur Installation erster PACS-Systeme geführt, deren Hauptaufgabe die Archivierung der Daten war. Das Kernproblem bei der Archivierung medizinischer Bilddaten ist ihr immens großes Volumen. Eine einfache Röntgenaufnahme mit 40×40 cm (z. B. Thorax) hat bei einer Auflösung von fünf Linienpaaren pro Millimeter und 1024 Graustufen
47
785 47.10 · Bildspeicherung
pro Pixel bereits ein Speichervolumen von mehr als 10 MB. Alleine durch Röntgendiagnostik, CT- und MR-Untersuchungen fallen in einer Universitätsklinik jährlich knapp 2 Terabyte Bilddaten an (⊡ Tab. 47.3). Diese Abschätzung lässt sich leicht verzehnfachen, wenn die Auflösung der Daten erhöht wird. Einerseits müssen diese Daten nach den gesetzlichen Vorgaben mindestens 30 Jahre lang aufbewahrt werden, andererseits kann durch verlustfreie Kompression nicht mehr als die Halbierung oder Drittelung des Datenvolumens erreicht werden. Erst in den letzten Jahren sind hierfür brauchbare hybride Speicherkonzepte realisierbar und verfügbar geworden, sodass das Archivierungsproblem zunehmend in den Hintergrund tritt.
⊡ Abb. 47.19. 3D-Visualisierungen. Durch das dreidimensionale Modell der inneren Organe auf Basis des Visible Human (Spitzer et al. 1996) bietet der Voxel-Man 3D-Navigator eine bisher unerreichte Detaillierung und zahlreiche Interaktionsmöglichkeiten. In der direkten Volumenvisualisierung sind neben räumlichen Ansichten auch andere Darstellungen wie simulierte Röntgenbilder möglich. (Institut für Mathematik und Datenverarbeitung in der Medizin, Universität Hamburg; aus Pommert et al. 2001)
Kommunikation (Übertragung). Der Leitspruch für medizinische Informationssysteme, »die richtige Information zur richtigen Zeit am richtigen Ort« verfügbar zu machen, wird mit zunehmender Digitalisierung der bildgebenden Diagnostik auch auf die Medizinische Bildverarbeitung übertragen. Damit wird die Kommunikation zum Kern heutiger PACS-Systeme. Bilddaten werden nicht nur innerhalb eines Hauses, sondern auch zwischen weit auseinander liegenden Institutionen elektronisch transferiert. Für diese Aufgabe sind einfache Bitmap-Formate wie TIFF (Tagged Image File Format) oder GIF (Graphics Interchange Format) unzureichend, denn neben den Bildmatrizen in z. T. unterschiedlichen Dimensionen müssen auch medizinische
⊡ Tab. 47.3. Datenaufkommen 1999 am Universitätsklinikum Aachen mit ca. 1500 Betten. Die Leistungsdaten wurden dem Informationsund Geschäftsbericht 1999 des Universitätsklinikums der RWTH Aachen entnommen. Sie basieren ausschließlich auf den Leistungen der Kliniken für Radiologische Diagnostik, Neuroradiologie, Nuklearmedizin sowie Zahn- Mund- Kieferheilkunde und plastische Gesichtschirurgie bei insgesamt 47.199 stationären und 116.181 ambulanten Neuaufnahmen. Leistungen (z. B. sonographische, endoskopische oder photographische), die an anderen Kliniken erbracht wurden, blieben unberücksichtigt. Bei den nuklearmedizinischen Untersuchungen wurden 20 Schichten pro Untersuchung kalkuliert. Zum Vergleich wurde die Gesamtzahl aller Analysen des Zentrallabors des Institutes für Klinische Chemie und Pathobiochemie mit durchschnittlich 10 Messwerten pro Analyse abgeschätzt. Das jährliche Datenvolumen ist also ca. 10.000 Mal so groß (Lehmann et al. 2001a) Modalität
Ortsauflösung (Bildmatrix)
Wertebereich (Bit/Pixel)
MB/Bild
Leistungen 1999
GB/Jahr
Thoraxröntgenaufnahme
4000×4000
10
10,73
74.056
775,91
Skelettradiographie
2000×2000
10
4,77
82.911
386,09
CT
512×512
12
0,38
816.706
299,09
MR
512×512
12
0,38
540.066
197,78
Sonstige Röntgenaufnahmen
1000×1000
10
1,19
69.011
80,34
OPG/Schädel
2000×1000
10
2,38
7.599
17,69
Sonographien
256×256
6
0,05
229.528
10,11
Zahnfilme
600×400
8
0,23
7542
1,69
PET
128×128
12
0,02
65.640
1,50
SPECT
128×128
12
0,02
34.720
0,79
Zum Vergleich Laboranalysen
10
64
0,00
4.898.387
0,36
786
Kapitel 47 · Medizinische Bildverarbeitung
Informationen zum Patienten (Identifikationsnummer, Stammdaten, ...), zur Modalität (Gerätetyp, Aufnahmeparameter, ...) und zur Organisation (Untersuchung, Studie, ...) standardisiert übertragen werden. Seit 1995 basiert diese Kommunikation auf dem DICOM-Standard (Digital Imaging and Communications in Medicine) (NEMA 1999). In der aktuellen Version beinhaltet DICOM ▬ Strukturinformation über den Inhalt der Daten (»object classes«), ▬ Kommandos, was mit den Daten passieren soll (»service classes«) und ▬ Protokolle für die Datenübertragung.
V
DICOM basiert auf dem Client/Server-Prinzip und ermöglicht die Kopplung von PACS-Systemen an Radiologie- oder Krankenhausinformationssyteme. Dabei berücksichtigt DICOM bestehende Standards zur Kommunikation, z. B. das ISO/OSI-Modell (International Standard Organization/Open Systems Interconnection), das Internet-Protokoll TCP/IP und den HL7-Standard (Health Level 7). Vollständige DICOM-Konformität ist für Geräte und Applikationen auch dann möglich, wenn diese nur wenige ausgewählte Objekte oder Services unterstützen. Die Synchronisation zwischen Client und Server wird durch Konformitätsdeklarationen (Conformance
⊡ Abb. 47.20. Systemstruktur zum Image Retrival in Medical Applications (IRMA). Die schrittweise Bildverarbeitung in IRMA ist in der mittleren Spalte dargestellt. Die Kategorisierung basiert auf globalen Merkmalen und klassifiziert die Bilder hinsichtlich der Aufnahmemodalität und Körperregion. Danach erfolgt die geometrische oder zeitliche Ausrichtung sowie der Kontrastabgleich innerhalb der Kategorie. Die Abstraktion erfolgt auf Basis lokaler Merkmale, die kontext- und anfragespezifisch selektiert werden. Das Retrieval selbst wird auf ab-
Claims) geregelt, die ebenfalls im DICOM-Standard spezifiziert sind. Nicht festgeschrieben wurde jedoch die Art der Implementierung einzelner Services, sodass sich in der Praxis DICOM-Dialekte ausgeprägt haben, die zu Inkompatibilitäten führen können. Retrieval (Zugriff). Auch in modernen DICOM-Archiven können Aufnahmen nur dann gezielt aufgefunden werden, wenn der Patientenname mit Geburtsdatum oder eine systeminterne Identifizierungnummer bekannt ist. Das Retrieval erfolgt also ausschließlich über textuelle Attribute. Andererseits ergibt sich in der klinischen Routine eine beträchtliche Qualitätsverbesserung, wenn inhaltsähnliche Bilder mit gesicherter Diagnose aus dem Archiv direkt verfügbar sind. Damit wird der inhaltsbasierte Bildzugriff auf große Röntgenarchive (Contend-based Image Retrieval, CBIR) eine Hauptaufgabe zukünftiger Systeme (Tagare et al. 1997). Auch hier müssen für die Medizin konzeptionell andere Wege beschritten werden als es für kommerzielle CBIR-Systeme notwendig ist, denn die diagnostische Information in medizinischen Bildern ist weitaus vielschichtiger und komplexer strukturiert als in anderen Applikationen. ⊡ Abb. 47.20 zeigt die Systemarchitektur zum Image Retrieval in Medical Applications (IRMA). In dieser Archi-
strakter und damit informationsreduzierter Ebene effizient durchgeführt. Damit folgt die Architektur dem Paradigma der Bildauswertung (⊡ Abb. 47.1). Links sind die Zwischenrepräsentationen dargestellt, die zunehmend abstrakter das Bild beschreiben. Die Abtraktionschichten sind auf der rechten Seite benannt (⊡ Abb. 47.2). Die Anfrage kann somit kontextspezifisch auf verschiedenen Abstraktionsniveaus für das Retrieval modelliert werden (Lehmann et al. 2000a)
787 Literatur
tektur spiegeln sich die in Abschn. 47.4 bis Abschn. 47.8 diskutierten Verarbeitungsschritte der Merkmalsextraktion, Segmentierung und Klassifikation von Bildobjekten bis hin zur Interpretation und Szenenanalyse als einzelne Module wider (⊡ Abb. 47.1). Durch die Bildanalyse des IRMA-Systems wird die für das Retrieval relevante Information schrittweise verdichtet und abstrahiert. Jedes Bild wird symbolisch durch ein semantisches Netz (hierarchische Baumstruktur) repräsentiert, dessen Knoten charakteristische Informationen zum repräsentierten Bildbereich enthalten und dessen Topologie die räumliche und/oder zeitliche Lage der Bildobjekte zueinander beschreibt. Mit dieser Technologie können Radiologen und Ärzte in der Patientenversorgung, Forschung und Lehre gleichermaßen unterstützt werden (Lehmann et al. 2004a).
47.11
Resümee und Ausblick
Die vergangenen, aktuellen und künftigen Paradigmen in der Medizinischen Bildverarbeitung sind in Abb. 47.21 zusammengestellt. Anfänglich (bis ca. 1985) standen pragmatische Probleme der Bildgenerierung, Bearbeitung, Darstellung und Archivierung im Vordergrund, denn die damalig verfügbaren Computer hatten bei weitem nicht die erforderlichen Kapazitäten, um große Bildmatrizen im Speicher zu halten und zu modifizieren. Die Geschwindigkeit, mit der Bildverarbeitung möglich war, erlaubte nur Offline-Berechnungen. Bis vor kurzem stand die maschinelle Interpretation der Bilder im Vordergrund. Die Segmentierung, Klassifikation und Vermessung medizinische Bilder wird kontinuierlich verbessert, immer genau-
er und in Studien auch an großen Datenmengen validiert. Daher wurde auch der Schwerpunkt dieses Kapitels auf den Bereich der Bildauswertung gelegt. Die zukünftige Entwicklung wird die Integration der Verfahren in die ärztliche Routine zunehmend in den Vordergrund stellen. Verfahren zur Unterstützung von Diagnostik, Therapieplanung und Behandlung müssen für Ärzte benutzbar gestaltet und stärker standardisiert werden, um auch die für einen Routineeinsatz erforderliche Interoperabilität gewährleisten zu können (Lehmann 2005).
Literatur Algorithmen zur digitalen Bildverarbeitung können den Standardwerken von Abmayr, Haberäcker, Jähne, Steinbrecher oder Zamperoni entnommen werden ( Abschn. 47.11.1). Vertiefende Literatur speziell zur Medizinischen Bildverarbeitung ist im deutschprachigen Raum recht spärlich ( Abschn. 47.11.2). Nach einigen Buchbeiträgen verschiedener Autoren wurde von Ehricke erstmals ein in sich geschlossenes Werk zur Medizinischen Bildverarbeitung publiziert. Dieses praxisorientierte Lehrbuch umfasst die Bereiche Bildverarbeitung und Mustererkennung, dreidimensionale Visualisierung, Bildarchivierungs- und -kommunikationssytseme Bildarbeitsplätze und den klinischen Einsatz der Medizinischen Bildverarbeitung. Das vom Autor dieses Kapitels mit verfasste theoretisch orientierte Lehrbuch behandelt die Grundlagen der Medizinischen Bildverarbeitung (Medizinische Fragestellungen, Technik der Bilderzeugung, Bildwahrnehmung),
Past (generation)
Present (interpretation)
Future (integration)
image formation (digital)
image formation (functional)
image formation (multidimensional)
pixel data manipulation
registration (multimodal)
diagnosis (CAD)
visualization (print & display)
segmentation
intervention planning
storage & transfer
classification & measurement
treatment (CAS)
acceleration (rapidity)
evaluation (accuracy)
standardization (usability)
⊡ Abb. 47.21. Paradigmen der Medizinischen Bildverarbeitung. Während die Generierung, das Management sowie die Manipulation und Auswertung digitaler Bilder bislang im Fokus der Medizinischen Bildverarbeitung stand, ist die zentrale Herausforderung nunmehr die Integration, Standardisierung und Validierung der Verfahren für Routineanwendungen in Diagnostik, Therapieplanung und Therapie (Lehmann 2004b)
47
788
V
Kapitel 47 · Medizinische Bildverarbeitung
Modelle (diskrete, signaltheoretische und statistische Ansätze), Methoden der Bildtransformation und -verarbeitung sowie medizinische Anwendungen. Das mittlerweile vergriffene Buch ist elektronisch im Internet frei verfügbar (http://irma-project.org/lehmann/ps-pdf/BVM97onlinebook.pdf). Das Grundlagenwerk von Handels umfasst ebenfalls Kernbereiche wie die Transformation, Segmentierung, Analyse und Klassifikation. Der Fokus wird dabei auf die dreidimensionalen Modalitäten, deren Visualisierung und auf Anwendungen zur computerunterstützten Diagnostik und Operationsplanung gelegt. Neben diesen Lehrbüchern geben die mittlerweile jährlich erscheinenden WorkshopProceedings »Bildverarbeitung für die Medizin«3 einen umfassenden Überblick über Neuerungen und Trends der Medizinischen Bildverarbeitung in Deutschland.
Allgemeine Literatur zur digitalen Bildverarbeitung Abmayr W (1994) Einführung in die digitale Bildverarbeitung. Teubner, Stuttgart, ISBN 3-519-06138-4 Burger W, Burge MJ (2005) Digitale Bildverarbeitung. Springer-Verlag, Berlin, ISBN 3-540-21465-8 Haberäcker P (1985) Digitale Bildverarbeitung. Grundlagen und Anwendungen. Hanser, München, ISBN 3-446-14442-0 Haberäcker P: Praxis der digitalen Bildverarbeitung und Mustererkennung. Hanser, München, 1995, ISBN 3-446-15517-1 Jähne B: Digitale Bildverarbeitung. Springer, Berlin, 4. Auflage 1997, ISBN 3-540-61379-X Liedtke CE, Ender M (1989) Wissensbasierte Bildverarbeitung, Bd 19 der Buchreihe Nachrichtentechnik, Springer, Berlin, 1989, ISBN 3-540-50641-1 Niemann H (1983) Klassifikation von Mustern. Springer, Berlin, ISBN 3-540-12642-2 Pinz A (1994) Bildverstehen. Springer, Wien, ISBN 3-211-82571-1 Soille P (1998) Morphologische Bildverarbeitung - Grundlagen, Methoden, Anwendungen. Springer, Berlin, ISBN 3-540-64323-0 Steinbrecher R (1993) Bildverarbeitung in der Praxis. Oldenbourg, München, ISBN 3-489-22372-0 Tizhoosh HR (1998) Fuzzy-Bildverarbeitung - Einführung in Theorie und Praxis. Springer, Berlin, ISBN 3-540-63137-2 Zamperoni P (1989) Methoden der digitalen Bildverarbeitung. Vieweg, Braunschweig, ISBN 3-528-03365-7
Grundlegende Literatur zur medizinischen Bildverarbeitung Ehricke HH (1997) Medical Imaging: Digitale Bildanalyse und -kommunikation in der Medizin. Vieweg, Braunschweig, ISBN 3-52805572-3 Handels H (2000) Medizinische Bildverarbeitung. Teubner, Leipzig, ISBN 3-519-02947-2
3 Weitere
Informationen zu den Workshops sind unter der URL http:// bvm-workshop.org zu finden.
Handels H, Horsch A, Lehmann TM, Meinzer HP (Hrsg) (2001) Bildverarbeitung für die Medizin 2001 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 4. - 6. März 2001 in Lübeck. Springer, Berlin, ISBN 3-540-41690-0 Höhne KH (1990) Bildverarbeitung. In: Hutten H (Hrsg) Biomedizinische Technik 3, Signal- und Datenverarbeitung – Medizinische Sondergebiete. Springer, Berlin, ISBN 3-540-51638-7 Horsch A, Lehmann TM (Hrsg) (2000) Bildverarbeitung für die Medizin 2000 - Algorithmen, Systeme, An-wendungen. Proceedings des Workshops vom 12. bis 14. März 2000 in München. Springer, Berlin, ISBN 3-540-67123-4 Lehmann TM (2005) Digitale Bildverarbeitung für Routineanwendungen – Evaluierung und Integration am Beispiel der Medizin. Deutscher Universitäts-Verlag, Wiesbaden, ISBN 3-8244-2191-7 Lehmann TM, Hiltner J, Handels H (2005) Medizinische Bildverarbeitung. In: Lehmann TM (Hrsg) Handbuch der Medizinischen Informatik, 2. Aufl. Hanser, München Lehmann TM, Oberschelp W, Pelikan E, Repges R (1997a) Bildverarbeitung für die Medizin - Grundlagen, Modelle, Methoden, Anwendungen. Springer, Berlin, ISBN 3-540-61458-3, im Internet unter http://irma-project.org/lehmann/ps-pdf/BVM97-onlinebook.pdf. Meiler M, Saupe D, Kruggel F, Handels H, Lehmann TM (Hrsg) (2002) Bildverarbeitung für die Medizin 2002 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 10. bis 12. März 2002 in Leipzig. Springer, Berlin, ISBN 3-540-43225-6. Meinzer HP, Handels H, Horsch A, Tolxdorff T (Hrsg) (2005) Bildverarbeitung für die Medizin 2005 - Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 13. bis 15. März 2005 in Heidelberg. Springer, Berlin, ISBN 3-540-25052-2. Pelikan E, Tolxdorff T (1997) Medizinische Bildverarbeitung. In: Seelos HJ (Hrsg) Medizinische Informatik, Biometrie und Epidemiologie. de Gruyter, Berlin, ISBN 3-11-014317-8. Tolxdorff T, Braun J, Handels H, Horsch A, Meinzer HP (Hrsg) (2004) Bildverarbeitung für die Medizin 2004 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 29. bis 30. März 2004 in Berlin. Springer, Berlin, ISBN 3-540-21059-8. Wittenberg T, Hastreiter P, Hoppe U, Handels H, Horsch A, Meinzer HP (Hrsg) (2003) Bildverarbeitung für die Medizin 2003 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 9. bis 11. März 2003 in Erlangen. Springer, Berlin, ISBN 3-540-00619-2.
Spezielle Literatur Bredno J, Lehmann TM, Spitzer K (2000) Automatic parameter setting for balloon models. Proceedings SPIE 3979,2:1185–1194 Bredno J (2001) Höherdimensionale Modelle zur Quantifizierung biologischer Strukturen. Dissertation, RWTH Aachen, 2001 Bredno J, Schwippert R, Lehmann TM, Oberschelp W (2001) FiniteElemente-Segmentierung mit Formwissen: Hybridisierung aus aktiver Kontur und Point-Distribution-Modell. In: Handels, Horsch, Lehmann, Meinzer (Hrsg) Bildverarbeitung für die Medizin 2001 – Algorithmen, Systeme, Anwendungen, S 217–221 Gouraud H (1971) Illumination for computer-generated pictures. Communications ACM 18(60): 311–317 König S, Hesser J (2004) Live-wires using path-graphs. Methods of Information in Medicine 43(4): 371–375 Lehmann TM, Schmitt W, Horn H, Hillen W (1996) IDEFIX - Identification of dental fixtures in intraoral X-rays. Proceedings SPIE 2710: 584–595 Lehmann TM, Kaser A, Repges R (1997b) A simple parametric equation for pseudocoloring grey scale images keeping their original brightness progression. Image and Vision Computing 15(3): 251–257 Lehmann TM, Wein B, Dahmen J et al. (2000a) Content-based image retrieval in medical applications: A novel multi-step approach. Proceedings SPIE 3972(32): 312–320
789 Spezielle Literatur
Lehmann TM, Gröndahl HG, Benn D: Review (2000b) Computer-based registration for digital subtraction in dental radiology. Dentomaxillofacial Radiology 29(6): 323–346 Lehmann TM, Bredno J, Metzler V et al. (2001) Computer-assisted quantification of axo-somatic boutons at the cell membrane of motoneurons. IEEE Transactions on Biomedical Engineering, 48(6): 706–717 Lehmann TM, Güld MO, Thies C et al. (2004a) Content-based image retrieval in medical applications. Methods of Information in Medicine 43(4): 354–361 Lehmann TM, Meinzer HP, Tolxdorff T (2004b) Advances in biomedical image analysis – Past, present and future challenges. Methods of Information in Medicine 43(4): 308–314 Lorensen WE, Cline HE (1997) Marching Cubes: A high resolution 3D surface construction algorithm. Computer Graphics 21(4): 163– 169 Maintz JBA, Viergever MA (1998) A survey of medical image registration. Medical Image Analysis 2: 1-36 McInerney T, Terzopoulos D (1996) Deformable models in medical image analysis - A survey. Medical Image Analysis 1(2): 91–109 Metzler V, Bredno J, Lehmann TM, Spitzer K (1098) A deformable membrane for the segmentation of cytological samples. Proceedings SPIE 3338: 1246–1257 Metzler V, Bienert H, Lehmann TM et al. (1999) A novel method for geometrical shape analysis applied to biocompatibility evaluation. ASAIO International Journal for Artificial Organs 45(4): 264–271 NEMA (1999) Digital imaging and communications in medicine (DICOM). Final Draft PS 3.1-1999. National Electrical Manufacturers Association (NEMA), Rosslyn, VA, USA Otsu N (1979) A threshold selection method from gray-level histograms. IEEE Transactions on Systems, Man, and Cybernetics, 9(1): 62–66 Pelizzari CA, Chen GTY, Spelbring DR et al. (1989) Accurate three-dimensional registration of CT, PET, and/or MR images of the brain. Journal of Computer Assisted Tomography 13: 20–26 Phong BT (1975) Illumination for computer generated pictures. Communications ACM 18: 311–317 Pommert A, Höhne KH, Pflesser B et al. (2001) Ein realistisches dreidimensionales Modell der inneren Organe auf der Basis des Visible Human. In: Handels, Horsch, Lehmann, Meinzer (Hrsg) Bildverarbeitung für die Medizin 2001 - Algorithmen, Systeme, Anwendungen, S 72–76 Riede UN, Schaefer HE (1993) Allgemeine und spezielle Pathologie. Thieme, Stuttgart Spitzer VM, Ackermann MJ, Scherzinger AL, Whitlock DG (1996) The visible human male: A technical report. Journal of the American Medical Informatics Association 3: 118–130 Tagare HD, Jaffe CC, Duncan J (1997) Medical image databases – a content-based retrieval approach. Journal of the American Medical Informatics Association 4: 184–198 Wagenknecht G, Kaiser HJ, Büll U (1999) Multimodale Integration, Korrelation und Fusion von Morphologie und Funktion: Methodik und erste klinische Anwendungen. RöFo - Fortschritte auf dem Gebiet der Röntgenstrahlen und der bildgebenden Verfahren 170(1): 417–426
47
48 Virtuelle Realität in der Medizin W. Müller-Wittig 48.1 Einleitung
– 791
48.2 Medizinische Anwendungsfelder 48.2.1 48.2.2 48.2.3 48.2.4 48.2.5
– 791
Anatomische Ausbildung – 792 Funktionale Diagnostik – 792 Virtuelle Endoskopie – 793 Chirurgisches Training – 793 Präoperative Planung – 794
48.3 VR-basierte medizinische Simulation – 794 48.4 Modellbildung – virtuelle Anatomie – 795
48.4.3 Segmentierung – 796 48.4.4 Gittergenerierung – 796 48.4.5 Reduktion – 797
48.5 Manipulationen – chirurgische Eingriffe – 797 48.5.1 Modellierung von Instrumenten – 797 48.5.2 Registrierung von Instrumentenbewegungen – 797 48.5.3 Integration des visuellen und haptischen Feedbacks – 799
48.6 Ausblick
– 800
Literatur
– 802
48.4.1 Datenakquisition – 796 48.4.2 Preprocessing – 796
48.1
Einleitung
Zwei wesentliche Entwicklungen, die sich auf unterschiedlichen Gebieten – der Computergraphik und der Chirurgie – vollzogen haben, haben dieses Kapitel geprägt (⊡ Abb. 48.1). In der Computergraphik bilden Techniken der virtuellen Realität (VR) eine neue Dimension in der MenschMaschine-Interaktion. VR ermöglicht eine intuitive Interaktion mit dem Computer und eine immersive, realistische Darstellung von dreidimensionalen computergenerierten Welten unter Verwendung neuartiger Ein- und Ausgabegeräte. Auf diese Weise können Vorgänge so realistisch simuliert werden, dass der Benutzer das Gefühl hat, er interagiert in der realen Welt (Encarnação et al. 1994). In der Chirurgie hat ein Wechsel des Interaktionsparadigmas durch den Übergang von der offenen zur minimalinvasiven Chirurgie (MIC) stattgefunden. Die minimalinvasive Chirurgie hat die Medizin revolutioniert und sich längst zu einem unentbehrlichen diagnostischen und therapeutischen Hilfsmittel entwickelt. Ziel ist es, das gewünschte Operationsergebnis bei minimaler Traumatisierung zu erreichen. Der Einsatz der minimalinvasiven Chirurgie erstreckt sich auf alle operativen Fachgebiete. Bei der minimalinvasiven Chirurgie werden durch auf Millimetergröße geschrumpfte Zugänge einmal das Endoskop mit Optik und Lichtquelle ausgestattet und dann andere miniaturisierte chirurgische Instrumente in das Operationsgebiet eingeführt. Während die traditionelle Chirurgie die Führung der Instrumente durch direkte visuelle Kontrolle erlaubt, schaut der Operateur, während er endosko-
⊡ Abb. 48.1. Paradigmenwechsel
pisch operiert, auf den Videomonitor und kontrolliert die Bewegungen seiner Instrumente. Ein weiteres Merkmal der minimalinvasiven Chirurgie ist, dass der direkte Kontakt zwischen der Hand des Operateurs und dem eigentlichen Operationsgebiet verloren geht. Er berührt nicht mehr direkt die anatomischen Strukturen, sondern manipuliert diese über unterschiedlichste Interaktionswerkzeuge.
48.2
Medizinische Anwendungsfelder
Diese Entwicklungen haben vollkommen neue Einsatzmöglichkeiten der graphischen Datenverarbeitung in der medizinischen Simulation eröffnet (⊡ Abb. 48.2). Satava
792
V
Kapitel 48 · Virtuelle Realität in der Medizin
sah schon zu Beginn der 90er Jahre einen Paradigmenwechsel für die chirurgische Ausbildung aufgrund des Einzugs von VR-basierten medizinischen Simulatoren voraus (Satava 1993, Satava 1995, Satava 1996). Es gehe nicht mehr darum, Chirurgen über eine gewisse Zeitspanne zu trainieren, sondern das Training an definierten Qualitätsgüten zu messen. Diesem Ruf nach Qualitätssicherung in der Medizin wurde umso mehr Aufmerksamkeit geschenkt, als das Institute of Health in einer Studie die Todesfälle pro Jahr in den USA aufgrund von Kunstfehlern auf rund 100.000 bezifferte (Kohn et al. 2000). Und dieses Thema hat bis heute nichts an Aktualität verloren. Die durch medizinische Verfehlungen jährlich verursachten Mehrkosten wurden auf US $ 500 Mrd. geschätzt (Langreth 2005).
nen Medizinstudenten ihr Wissen in Anatomie bspw. durch das Präparieren von Leichen oder aus Anatomieatlanten. Die Interaktion mit computergenerierten dreidimensionalen Modellen der realen Welt durch innovative Mensch-Maschine-Schnittstellen bietet nun die Möglichkeit, auf eine vollkommen neue Art die Anatomie zu erkunden (⊡ Abb. 48.3, auch 4-Farbteil am Buchende). Medizinstudenten sind in der Lage, wichtige physiologische Prinzipien oder Wechselbeziehungen anatomischer Strukturen besser zu verstehen. Eine Vielzahl von 3DAnatomieatlanten stehen heutzutage zur Verfügung und kommen in der Ausbildung zum Einsatz (Höhne 2004). Mit Sicherheit wurde dies erst durch das Visible Human Projekt der National Library of Medicine möglich, welches komplexe und multimodale Bilddaten zur Verfügung stellte.
48.2.1 Anatomische Ausbildung 48.2.2 Funktionale Diagnostik
Diese Technologien können auch bei der Präsentation und Vermittlung räumlichen Wissens in der anatomischen Ausbildung eingesetzt werden. Traditionell gewin-
⊡ Abb. 48.2. Medizinische Simulation
In der Funktionsdiagnostik können Simulationsumgebungen realisiert werden, die eine Untersuchung des patientenspezifischen Istzustands ermöglichen. Darüber hinaus wird das Ziel verfolgt, Erkenntnisse darüber zu gewinnen, inwiefern die funktionalen Konsequenzen eines beabsichtigten operativen Eingriffs vorausgesagt werden können. Dazu ist es notwendig, die Simulation des geplanten patientenspezifischen Sollzustands zu gewährleisten. Das aktuelle Projekt VR-Schleudertrauma hat bspw. zum Ziel, durch den integrierten Einsatz von VR und Messungen der muskulären Aktivität die Diagnose chronischer Schmerzen nach einem Schleudertrauma zu verbessern. Die Problematik bei Halswirbelsäulenschleudertrauma liegt in der diagnostischen Unsicherheit, da die bildgebende Diagnostik nur strukturelle Schäden feststellen kann, die nur für 3 bis 5 Prozent der Fälle zutreffen. Mit diesem neuen VR-basierten Verfahren möchte man nun schließlich für den Großteil der Patienten,
⊡ Abb. 48.3. Links virtueller Anatomieatlas (Müller et al. 1999); rechts virtueller Patient (Müller et al. 1997)
793 48.2 · Medizinische Anwendungsfelder
die keine strukturellen Schäden, jedoch Symptome wie Schmerzen und Bewegungseinschränkung aufweisen, einen individuellen Therapieplan entwickeln (Bockholt et al. 2006). Dieses Gebiet zeigt eindrucksvoll, auf welche Weise rechenintensive Simulationsvorgänge mit interaktiven 3D-Echtzeitumgebungen verknüpft werden können. Die rasanten Entwicklungen der Rechnerarchitekturen und insbesondere der programmierbaren Graphikprozessoren lassen die beiden Bereiche mehr und mehr verschmelzen (Haines 2006).
48.2.4 Chirurgisches Training
Die chirurgische Ausbildung stellt eines der vielversprechendsten Gebiete in der Medizin für den Einsatz von 3D-Computergraphik und VR-Techniken dar. Inspiriert durch Flugsimulatoren im Bereich des Pilotentrainings wurde 1993 erstmals ein computergestütztes Simulationssystem für das arthroskopische Training des Kniegelenks der breiten Öffentlichkeit vorgestellt (⊡ Abb. 48.5; Müller et al. 1995). Zeitgleich arbeiteten andere Forschergruppen an der Entwicklung von VR-basierten Laparoskopietrainern (Kühnapfel et al. 1995; Cotin et al. 1996; Meglan et al. 1996).
48.2.3 Virtuelle Endoskopie
Virtuelle Endoskopie ist eine neue diagnostische Methode, bei der anatomische Innenansichten – ähnlich den realen endoskopischen Betrachtungen – erzeugt werden. Das Ziel dieser nichtinvasiven 3D-Simulation endoskopischer Eingriffe ist es, gleichzeitig Visualisierung der virtuellen anatomischen Strukturen und Echtzeitinteraktion (z. B. realistische Steuerung der Blickrichtung) zuzulassen (⊡ Abb. 48.4, auch 4-Farbteil am Buchende). Ein Vorteil der virtuellen Endoskopie ist darin zu sehen, dass auch anatomische Regionen, die für reale endoskopische Eingriffe unzugänglich sind, betrachtet werden können (Geiger u. Kikinis 1995, Satava u. Robb 1997). Die virtuelle Endoskopie hat sich zu einem wichtigen diagnostischen Werkzeug entwickelt (Kaufman et al. 2005).
⊡ Abb. 48.4. Bronchoskopie-Simulator mit individuellen CT-Daten
⊡ Abb. 48.5. VR-Arthroskopietrainingssimulator
48
794
Kapitel 48 · Virtuelle Realität in der Medizin
V ⊡ Abb. 48.7. Planungssystem für die Knieendoprothetik (nach Müller et al. 2000)
bis bspw. der optimale Zugang zu einem verletzten Gefäß gefunden ist und möglichst wenig gesunde Strukturen beschädigt werden. Neben der Reduktion der Operationszeit wird auch eine Verringerung der Komplikationsrate angenommen. ⊡ Abb. 48.6. VR-Rhinoskopie- und Hysteroskopietrainingssimulator
So sei in diesem Zusammenhang darauf hingewiesen, dass das Konzept des VR-basierten Kniearthroskopietrainingssimulators auch auf andere Bereiche übertragbar ist. Somit können auch andere minimalinvasive Eingriffe – ohne direkten Patientenkontakt – an einem virtuellen Situs geübt werden. Exemplarisch seien an dieser Stelle der Rhinoskopie- und der Hysteroskopietrainingssimulator genannt (⊡ Abb. 48.6; Hilbert u. Müller 1997; Müller-Wittig et al. 2001). Darüber hinaus haben sich mittlerweile einige kommerzielle medizinische Trainingssimulatoren auf dem Markt etabliert (Schijven u. Jakimowicz 2002, Gallagher et al. 2004).
48.2.5 Präoperative Planung
Auch in der präoperativen Planung (⊡ Abb. 48.7) kann der Einsatz von VR-Techniken den Chirurgen unterstützen. Bevor der Eingriff an einem realen Patienten durchgeführt wird, ist der Chirurg in der Lage, die einzelnen operativen Schritte an einem virtuellen Patienten zu simulieren. Auf diese Weise ist es möglich, den sichersten und effektivsten operativen Weg zu wählen. Dabei können immer wieder neue Varianten des geplanten Eingriffs simuliert werden,
48.3
VR-basierte medizinische Simulation
Dieser Abschnitt setzt sich schwerpunktmäßig mit den Herausforderungen in der Realisierung von Echtzeitsimulationen in der Medizin auseinander. Die Qualität in der medizinischen Simulation wird – wie auch bei VRApplikationen i. Allg. – dadurch bestimmt, inwiefern die verschiedenen Wahrnehmungskanäle des Benutzers angesprochen werden, mit dem Ziel, den Realitätseindruck zu erhöhen. Der visuelle und der haptische Wahrnehmungskanal stehen dabei im Vordergrund. Dazu müssen die auf den Anwender einwirkenden Einflüsse seiner Umgebung entsprechend modelliert sein, und er muss in der Lage sein, mit seiner Umgebung zu interagieren und diese darüber hinaus zu modifizieren. Dass Simulatoren in diesem Bereich durch Integration haptischer Displays für ein realitätsnahes haptisches Feedback sorgen können, konnte durch verschiedene Arbeiten auf diesem Gebiet bereits bewiesen werden (Srinivasan u. Basdogan 1997). In diesem Kontext muss jedoch auch berücksichtigt werden, dass in der minimalinvasiven Chirurgie die taktile Wahrnehmungsfähigkeit durch die chirurgischen Instrumente stark eingeschränkt wird und somit der derzeitige junge Entwicklungsstand in der Gerätetechnologie haptischer Displays diesen Anforderungen schon mit Einschränkung genügen kann.
795 48.4 · Modellbildung – virtuelle Anatomie
Die Probleme derzeitiger rechnergestützter Simulatoren sind einerseits die Qualität der graphischen Ausgabe und andererseits bei der Interaktion mit virtuellen Stukturen die Simulation des Objektverhaltens. Eine besondere Herausforderung stellt in diesem Zusammenhang die Simulation und Darstellung von Gewebe unterschiedlicher elastodynamischer Eigenschaften während manipulativer Eingriffe dar, wobei hier der Kopplung des visuellen und haptischen Feedbacks eine besondere Bedeutung zukommt. Ein Simulationssystem muss in der Lage sein, einen ganzen Prozess mit seiner Umgebung realistisch dar-
zustellen. Mit Fokus auf minimalinvasive Chirurgie gilt es, die »reale« Umgebung des Chirurgen eingehend zu betrachten. Dabei berührt der Operateur bei minimalinvasiven Eingriffen nicht mehr direkt die anatomischen Strukturen, sondern manipuliert diese mit dem Instrumentarium, wobei er mit Blick auf den Videomonitor – weg vom Patienten – die Bewegungen seiner Instrumente kontrolliert. Als Schlüsselmerkmale der operativen Situation können das Modell (virtuelle Anatomie), die chirurgischen Eingriffe (Interaktionen) sowie die chirurgischen Instrumente (Interaktionswerkzeuge) identifiziert werden. Die ⊡ Abb. 48.8 ( auch 4-Farbteil am Buchende) zeigt das Modell einer VRbasierten medizinischen Simulation. Auf der Basis dieses Modells zur VR-basierten medizinischen Simulationen werden nun im Folgenden die einzelnen Komponenten eingehender beschrieben.
48.4
⊡ Abb. 48.8. VR-basierte medizinische Simulation
⊡ Abb. 48.9. Generierung der virtuellen Anatomie
⊡ Abb. 48.10. Modellierung einer virtuellen Gebärmutter
Modellbildung – virtuelle Anatomie
So stellt die Generierung der anatomischen Region den ersten Schwerpunkt bei der Betrachtung des VR-basierten medizinischen Simulationssystems dar. Prinzipiell kann die Modellgewinnung durch zwei Ansätze realisiert werden (⊡ Abb. 48.9). Mit Hilfe von Modellierungssystemen, die man bspw. in der Architektur einsetzt, können nun auch virtuelle anatomische Strukturen erstellt werden. Es handelt sich hierbei um Oberflächenmodelle, die aus einer Vielzahl von Dreiecken bestehen und durch das Aufbringen von Texturen ein realistisches Aussehen bekommen (⊡ Abb. 48.10, auch 4-Farbteil am Buchende). Auf die Modellierung soll hier nicht näher eingegangen werden. Vielmehr soll die Ableitung eines integrativen patientenspezifischen 3D-Modells auf Basis medizinischer Bilddaten behandelt werden. Mit der 3D-Rekonstruktion ist es nun möglich, individuelle medizinische Fragestellungen mit Hilfe des Simulationssystems zu behandeln. Als Herausforderungen sind in diesem Kontext zu nennen, dass dieses Anatomiemodell nicht nur die für das
48
796
Kapitel 48 · Virtuelle Realität in der Medizin
48.4.2 Preprocessing
Dieser Schritt der Rekonstruktionspipeline soll dafür sorgen, dass die Bildsignale so aufbereitet werden, dass die relevanten Informationen besser dargestellt werden können. Darüber hinaus sollen Signale, die redundant oder störend sind, unterdrückt werden (z. B. Metallartefakte). Das Ziel ist, die Qualität der nachfolgenden Bearbeitungsschritte zu verbessern.
48.4.3 Segmentierung
V
⊡ Abb. 48.11. Pipeline zur 3D-Rekonstruktion
Aussehen relevanten Attribute beinhalten soll, sondern auch die für die Behandlung des haptischen Feedbacks erforderlichen Gewebecharakteristika berücksichtigt. Des Weiteren soll sich das Konzept zur 3D-Rekonstruktion nicht auf eine spezifische anatomische Region beschränken, sondern vielmehr die Gewinnung dreidimensionaler Repräsentationen unterschiedlichster Anatomien erlauben. Schließlich soll eine synthetische anatomische Umgebung geschaffen werden, die über die Echtzeitvisualisierung eines statischen Modells hinausgeht und die realitätsnahe Simulation eines dynamischen Modells unter Echtzeitbedingungen zulässt. Bei der 3D-Rekonstruktion anatomischer Strukturen basierend auf medizinischen Bilddaten können dabei die folgenden wesentlichen Schritte unterschieden werden (⊡ Abb. 48.11).
48.4.1 Datenakquisition
Bildgebende Verfahren unterstützen die medizinische Diagnostik und Therapieplanung. Dieses im klinischen Alltag anfallende Bildmaterial kann nun auch für die Modellbildung genutzt werden. Im Kontext der Rekonstruktion anatomischer Strukturen bilden Sequenzen von medizinischen Schichtdaten, die typischerweise von Computertomographen oder Kernspintomographen stammen, die Basis.
Allgemein kann Segmentierung als ein Prozess verstanden werden, Objekte innerhalb eines Bildes zu erkennen. Das Ergebnis der Segmentierung ist eine Unterteilung des Bildes in eine Anzahl verschiedener Regionen, die sich hinsichtlich bestimmter Merkmale unterscheiden. Die Segmentierung medizinischer Bilddaten hat die Extraktion von Konturen der anatomischen Strukturen zum Ziel. Einzelne anatomische Strukturen werden identifiziert und können im Folgenden dann selektiert und getrennt behandelt werden. Prinzipiell erweist sich dieser Schritt als problematisch, da oft Objektkonturen nur ungenügend oder unvollständig dargestellt werden. So ist eine korrekte automatische Detektierung der anatomischen Strukturen schwierig. Mitunter erfordert dieser Schritt eine manuelle Intervention während des Rekonstruktionsprozesses.
48.4.4 Gittergenerierung
In diesem Schritt werden die Konturen benachbarter Schichten miteinander verbunden, um eine dreidimensionale Struktur zu erhalten. Dabei müssen geeignete Verbindungen zwischen zwei Konturen gefunden werden. Zu bedenken ist, dass anatomische Objekte höchst komplexe Strukturen aufweisen können und somit erhebliche Konturveränderungen von einer Schicht zur nächsten auftreten können. Enthalten bspw. zwei benachbarte Ebenen dieselbe Anzahl an Konturen, so muss gewährleistet sein, dass die richtigen Konturen miteinander verbunden werden (Korrespondenzproblem) – oder das Verfahren muss evtl. bei mehreren Konturen pro Ebene eine Verzweigung des Objekts zur benachbarten Ebene erkennen und berücksichtigen. Erfolgreich werden diese Probleme durch Verfahren behandelt, die die Gitter auf Basis einer 3D-DelaunayTriangulierung erzeugen. Der interessierte Leser sei auf die Arbeiten von Boissonnat (1985) verwiesen. ⊡ Abb. 48.12 zeigt das Ergebnis einer Gittergenerierung. Deutlich sind die unterschiedlichen Komplexitäten erkennbar, die aufgrund der unterschiedlichen Schichtabstände zustandekommen. Auf diese Weise kann bspw. für
797 48.5 · Manipulationen – chirurgische Eingriffe
mentarium in der virtuellen Anatomie, die wie bereits vorgestellt aus konkreten patientenspezifischen Bilddaten gewonnen wird, bewegen kann. Als Anforderung ist hier vorrangig die Realisierung der 3D-Interaktion in Echtzeit zu nennen – der Einsatz von chirurgischen Originalinstrumenten als »Eingabegeräte« ist anzustreben. Die VR-Technologie ermöglicht nun, vollkommen neue Interaktionsgeräte zu spezifizieren, weitab von dem bekannten Datenhandschuh oder Datenhelm.
48.5.1 Modellierung von Instrumenten
⊡ Abb. 48.12. Gittergenerierung des Beinknochens
die anatomischen Bereiche, die für die VR-basierte Simulation wichtig sind (hier Kniebinnenraum), eine höhere Auflösung erzielt werden.
48.4.5 Reduktion
Aufgrund der hohen Auflösung medizinischer Daten wird eine sehr hohe Anzahl von Dreiecken generiert. Damit schließlich die so abgeleiteten anatomischen Modelle in dem Simulationssystem unter Echtzeitbedingungen weiter verarbeitet werden können, muss u. U. in einem letzten Schritt die Struktur der komplexen polygonalen 3D-Objekte, die durchaus mehrere hundertausende Dreiecke aufweisen können, über eine Reduktion vereinfacht werden. Wie bei der Modellierung kann auch hier durch Projektion von Texturen auf die Oberfläche der Realismus des Modells erhöht werden. Diese Texturen können bspw. aus realen Endoskopiebildern gewonnen werden.
48.5
Manipulationen – chirurgische Eingriffe
Nach der Modellgewinnung stellt die Simulation von chirurgischen Instrumenten einen weiteren Schwerpunkt in der VR-basierten medizinischen Simulation dar. Hierbei ist darauf zu achten, dass einerseits Form und Aussehen, andererseits die funktionellen Eigenschaften der einzelnen Instrumente beibehalten werden. Dies soll nicht nur starre Instrumente (z. B. Endoskop, Tastinstrument), sondern auch Instrumente mit dynamischen Komponenten (z. B. Greif-/Resektionszange) einschließen. Ziel ist es, dass der Chirurg sich wie gewohnt mit dem Instru-
Die Erfahrung zeigt, dass die Hersteller von medizinischem Instrumentarium i. d. R. nicht über dreidimensionale digitale Modelle ihrer Produkte verfügen. Es müssen jedoch virtuelle Instrumente zur Verfügung gestellt werden, die in das medizinische Simulationssystem integriert und dort unter Echtzeitbedingungen weiter verarbeitet werden. Die Gewinnung der dreidimensionalen Struktur der chirurgischen Instrumente kann nun mit Hilfe von Modelliersystemen geleistet werden. Als Basis dienen hierzu technische Dokumentationen und/oder die Instrumente selbst. Bei diesem Modellierungsschritt ist darauf zu achten, dass diese virtuellen Instrumente von ihrem Aufbau her dieselben Funktionalitäten erfüllen können wie die entsprechenden realen. Des Weiteren sollte auch für ein realitätsnahes Aussehen gesorgt werden. Die in der Modellierung von virtuellen Umgebungen eingesetzten Methoden, wie z. B. Texturierung, können auch hier dazu benutzt werden, den visuellen Eindruck solcher Instrumente zu erhöhen.
48.5.2 Registrierung von
Instrumentenbewegungen Nachdem nun rechnerinterne dreidimensionale Repräsentationen des Instrumentariums verfügbar sind, müssen diese Interaktionswerkzeuge in dem medizinischen Simulationssystem auch anwendbar sein, d. h. sie müssen – als virtuelle Pendants der realen Instrumente – sich auch wie diese verhalten. Somit müssen Bewegungen der Instrumente registriert und diese ohne Verzögerung auf die auf dem Monitor dargestellten virtuellen Modelle übertragen werden, um auf diese Weise dem Operateur das visuelle Feedback zu geben. Zur Realisierung der 3D-Interaktion mit chirurgischen Instrumenten wird die sog. Trackingtechnik verwendet, die typischerweise in VR-Applikationen zur Erfassung von Bewegungen – z. B. eines Datenhelms oder Datenhandschuhs – zum Einsatz kommt. Zur Bestimmung von Position und Orientierung existieren mehrere Ansätze, die sich hinsichtlich der ausgenutzten physikalischen Eigenschaften in verschiedene Kategorien einteilen
48
798
V
Kapitel 48 · Virtuelle Realität in der Medizin
lassen (z. B. mechanische, optische, elektromagnetische Trackingverfahren). An dieser Stelle soll kurz auf das elektromagnetische Verfahren eingegangen werden. Beim elektromagnetischen Trackingverfahren wird von einem sog. Transmitter ein elektromagnetisches Feld aufgebaut, das von einem Sensor (Empfänger) gemessen wird. Somit lassen sich innerhalb dieses elektromagnetischen Feldes Position und Orientierung des Sensors bestimmen. Es existieren mittlerweile kleindimensionierte Sensoren, die leicht und unauffällig an die zu registrierenden Objekte fixiert werden können. Ungünstig sind die Verbindungskabel, die die Bewegungsfreiheit beeinträchtigen können. Nachteil dieses Ansatzes ist die Störanfälligkeit der Messgenauigkeit durch metallische und ferromagnetische Gegenstände. Schließlich hat dieser Ansatz im Vergleich zum optischen Verfahren, welches vornehmlich im OP eingesetzt wird, eine schlechtere Genauigkeit bezüglich Position und Orientierung. Bei medizinischen Simulationssystemen, die keine zu hohen Anforderungen an die Genauigkeit haben (z. B. Trainingssimulatoren), können Trackingverfahren auf elektromagnetischer Basis benutzt werden. Dieses Verfahren erlaubt bspw. eine Registrierung von Objekten mit einer Genauigkeit von 0,8 mm für die Positionierung und 0,15 mm für die Orientierung. Dazu werden Sensoren auf Instrumenten befestigt. Auf diese Weise ist es nun möglich, jede kleine Instrumentenbewegung in Echtzeit zu registrieren. Entsprechend dieser Sensorwerte wird permanent die neue Ansicht berechnet und über den Monitor des Graphikrechners ausgegeben. Das Endoskop erfordert aufgrund seiner optischen Eigenschaften eine besondere Behandlung. Endoskope werden neben Geradeaus- oder Nullgradoptik auch mit verschiedenen Winkelungen der Normaloptik angeboten. Diese Winkeloptiken erlauben allein durch Rotation des Endoskops um die eigene Instrumenentenachse eine Erweiterung des Blickfelds. Darüber hinaus lassen manche Endoskope Blickfelder von bis zu 110° zu, die durch Benutzung von Weitwinkeloptiken erreicht werden (⊡ Abb. 48.13). Wie bereits beschrieben, kann über einen Sensor Position und Orientierung eines Instruments, mithin auch
⊡ Abb. 48.13. Typische Winkeloptiken von Endoskopen (0°, 30° und 70°)
eines Endoskops, festgestellt werden. Zur Simulation des optischen Systems muss nun noch aufgrund der ermittelten Sensordaten der Augpunkt des Instruments bestimmt werden. In Abhängigkeit von der gewählten Optik kann dann das aktuelle Blickfeld neu berechnet und visualisiert werden. Dabei enthält eine graphische Benutzungsoberfläche (Graphical User Interface) einen Ausgabebereich für das Endoskopbild. Ein Vorteil des VR-basierten medizinischen Simulationssystems ist, dass beliebige Winkeloptiken für das Endoskop eingestellt werden können. Der Pfeil gibt in diesem Zusammenhang die Blickrichtung an (⊡ Abb. 48.14, auch 4-Farbteil am Buchende). Darüber hinaus dient ein zweites Ausgabefenster dazu, eine Totalperspektive zu liefern, die eine zusätzliche Orientierungshilfe speziell für Anfänger darstellt. Hier ist auch deutlich zu erkennen, wie die Lichtquelle auf der Spitze des Endoskops mit Hilfe einer Punktlichtquelle simuliert wird, wobei nur der entsprechende Ausschnitt der virtuellen Anatomie ausgeleuchtet wird (⊡ Abb. 48.14, oben rechts). Darüber hinaus kann über eine graphische Benutzungsoberfläche die Simulationsumgebung konfiguriert werden, wobei zwischen verschiedenen anatomischen Regionen und zwischen unterschiedlichen chirurgischen Instrumenten gewählt werden kann. Zusätzlich werden während der Simulation Statistiken geführt, die zur Evaluierung des Trainingslevels herangezogen werden können. Das Anbieten von Standardtrainingssituationen und die Möglichkeit der objektiven Bewertung sind mit Sicherheit die großen Vorteile gegenüber konventionellen Trainingsmethoden in der Endoskopie (z. B. »learning by doing« am Patienten). Die VR-Technologie ermöglicht also die Einführung neuartiger Interaktionsgeräte. Eine Echtzeit-3D-Interaktion und somit ein intuitives Handling verschiedener chirurgischer Instrumente in dem VR-basierten medizinischen Simulationssystem ist gewährleistet. Dabei kann ein reichhaltiges »virtuelles« Instrumentenbesteck aus Endoskopen mit verschiedenen Optiken sowie aus Tastinstrumenten und Greif-/Resektionszangen zur Verfügung gestellt werden, die unter Beibehaltung von Form und funktionellen Eigenschaften realitätsnah simuliert werden. Die ⊡ Abb. 48.15 ( auch 4-Farbteil am Buchende) zeigt die Simulation von Arthroskop und Tasthaken im Kniegelenk. Neben der Registrierung der Instrumentenbewegungen ist eine schnelle Kollisionserkennung der verschiedenen Instrumente mit den virtuellen anatomischen Strukturen erforderlich, die als Basis für die Simulation der verschiedenen Manipulationen (z. B. Deformieren oder Schneiden) auf anatomischen Strukturen dient. Als manipulativer Eingriff soll an dieser Stelle kurz das Verformen vorgestellt werden. Zwei Methoden zur Simulation von Verformungen sollen dabei erwähnt werden. Die durch chirurgische Instrumente herbeigeführten
799 48.5 · Manipulationen – chirurgische Eingriffe
lationsverhalten zu erreichen. Der interessierte Leser sei auf Kühnapfel 1995 sowie Çakmak u. Kühnapfel 2000 verwiesen.
48.5.3 Integration des visuellen
und haptischen Feedbacks
⊡ Abb. 48.14. Graphical User Interface
⊡ Abb. 48.15. Simulation von Arthroskop und Tasthaken
Deformationen der anatomischen Strukturen können auf Basis sog. »bump weighting functions« sowie mit Hilfe von Feder-Masse-Modellen realisiert und in das medizinische Simulationssystem integriert werden. Der erste Ansatz ermöglicht eine schnelle Simulation lokaler Deformationen, die auch auf Low-cost-Rechnern echtzeitfähig ist. Hierbei kann durch Spezifikation einer Wichtungsfunktion, die die Verformung um das Interaktionswerkzeug in Abhängigkeit von der Eindringtiefe kontrolliert, jedem Gewebe individuell ein lokales Deformierungsverhalten zugeordnet werden. Es handelt sich hierbei um einen geometrischen Ansatz, der über Transformationen realisiert wird. Der zweite Ansatz stellt ein Verfahren zur physikalisch basierten Simulation dar und berücksichtigt auch globale Deformationsvorgänge. Der Feder-Masse-Ansatz lässt durch geeignete Integrationsverfahren in Verbindung mit einer Schrittweitensteuerung Berechnungen in Echtzeit zu. Problematisch ist hierbei, ein stabiles Simu-
Um den unterschiedlichen wahrnehmungsphysiologischen Reizchakteristika des Menschen zu genügen, müssen die Komponenten eines Simulationssystems mit verschiedenen Aktualisierungsraten ausgeführt werden. Für die haptische Ausgabe bedeutet dies, dass hohe Frequenzen von bis zu 1000 Hz erzeugt werden müssen, während für die graphische Ausgabe 20–40 Hz für die Echtzeitvisualisierung notwendig sind. In diesem Zusammenhang gilt es, das visuelle und haptische Feedback zu synchronisieren. Die Arbeiten zur Integration von haptischem Feedback in VR-basierte medizinische Simulationssysteme werden von zwei wesentlichen Faktoren beeinflusst. Zum einen von der Hardware – der Gerätetechnologie – und zum anderen von der Software – der Ansteuerung dieser haptischen Displays zur Erzeugung der künstlichen Widerstände. Bei der minimalinvasiven Chirurgie reduzieren sich die Freiheitsgrade aufgrund der durch den minimalen Zugang bedingten Fixierung des endoskopischen Instruments. Zusammenfassend lässt sich feststellen, dass die haptische Schnittstelle weder große Kraftkapazitäten noch einen großen Arbeitsbereich aufweisen muss. Jedoch muss auch der maximale Widerstand bei Berührung der chirurgischen Instrumente mit Knochengewebe berücksichtigt werden und die entsprechende Steifigkeit als haptisches Feedback geliefert werden. Während die Bewegungen in ihren 6 Freiheitsgraden durch Trackingsysteme der heutigen Zeit vollständig registriert werden können, lassen aktuelle haptische Displays, die für den Einsatz in der medizinischen Simulation in Frage kommen, lediglich beschränkte Freiheitsgrade für die Generierung künstlicher Widerstände zu. Aber auch auf dem Gebiet der Gerätetechnologie gibt es vielversprechende Weiterentwicklungen, die speziell für die medizinische Simulation verfügbar sein werden. Die Software realisiert das haptische Rendering, d. h. die Umwandlung einer beliebigen Repräsentation eines virtuellen Objekts in eine Darstellung zur Ausgabe über ein haptisches Display (analog zum graphischen Rendering). Zur haptischen Simulation minimalinvasiver chirurgischer Eingriffe müssen auch die gewebespezifischen Eigenschaften anatomischer Strukturen berücksichtigt werden (z. B. hartes Knochengewebe, derb-elastischer Meniskus). Dabei kann über eine Klassifikation der wichtigsten Gewebetypen mit deren haptischen Eigenschaften
48
800
V
Kapitel 48 · Virtuelle Realität in der Medizin
die Integration in das VR-basierte Simulationssystem geschehen. Die Erzeugung dieser objektspezifischen haptischen Stimuli wird durch eine Kombination verschiedener Berechnungsmodelle unter Berücksichtigung der Instrumenteindringtiefe erreicht. Damit es nicht zu Verzögerungen bei der haptischen Ausgabe und somit nicht zu Verzerrungen bei der haptischen Wahrnehmung kommt, werden, wie schon erwähnt, Mindestaktualisierungsraten für die Ansteuerung von haptischen Displays von 1000 Hz empfohlen. In diesem Kontext kommt der Kollisionserkennung eine Schlüsselrolle zu. Eine Lösung ist die Unterteilung der virtuellen Szene in einen globalen und einen lokalen Teil. Der globale Part beschreibt wie bisher die vollständige virtuelle Umgebung, wobei Kollisionen mit einer Aktualisierungsrate von weniger als 1000 Hz entdeckt werden. Der lokale Bereich der Szene repräsentiert die Region, in der die aktuellen Interaktionen zwischen Instrument und anatomischen Objekten stattfinden. Dieser Unterbereich ist für die haptische Interaktion relevant. Aufgrund der Ergebnisse bei der Kollisionerkennung kann ein lokaler Bereich der virtuellen Szene selektiert werden und gesondert während der Simulation betrachtet werden. In dieser kleinen Szene werden nun die erforderlichen Berechnungen für das haptische Rendering durchgeführt und somit die hohen Aktualisierungsraten für das haptische Feedback ermöglicht. Die Simulation des haptischen Feedbacks ist weltweit Forschungsgegenstand. Auf eine ausführliche Diskussion der verschiedenen Lösungsansätze muss an dieser Stelle verzichtet werden. Aktuelle Entwicklungen sind bspw. in Basdogan et al. (2004) zu finden.
48.6
Ausblick
Zukünftige Arbeiten im Bereich der medizinischen Simulation werden auch weiterhin von den dynamischen Entwicklungstendenzen auf den Gebieten der graphischen Datenverarbeitung und der Chirurgie geprägt sein. In der graphischen Datenverarbeitung wird die Verfügbarkeit immer leistungsfähigerer Rechenanlagen neue Möglicheiten in der Echtzeitsimulation unter Einbindung immer präziserer physikalisch basierter Verfahren eröffnen und den Trend zu einem immer größeren Interaktionsgrad fortsetzen. Hier eröffnen sich neue Möglichkeiten, die sich rasant entwickelnden Graphikprozessoren für die Lösung rechenintensiver, nichtgraphischer Probleme zu nutzen. Auch die Gerätetechnologie haptischer Displays wird sich weiterentwickeln, jedoch nicht in dieser Geschwindigkeit. Das anatomische Modell wird weiter verfeinert werden, wobei auch Mikrostrukturen Berücksichtigung finden werden. Bisher mangelt es an Messdaten, die zur Beschreibung der Elastodynamik von organischen Struk-
turen herangezogen werden können. Durch die Gewinnung relevanter gewebespezifischer Messwerte ist eine Qualitätssteigerung der Simulation elastodynamischer Eigenschaften von anatomischen Strukturen zu erwarten. Es existieren zahlreiche Arbeiten, die sich mit der Erhebung empirischer Daten zur Elastodynamik von Abdominalorganen befassen (Greenish et al. 2002, Ottensmeyer 2002). Ein zukünftiger Schwerpunkt wird weiterhin in der Realisierung anderer minimalinvasiver Eingriffe liegen. Die Simulation der Koagulation, also der Blutstillung durch Hitze, sei in diesem Kontext genannt. In enger Wechselbeziehung steht hierzu die Berücksichtigung der physiologischen Vorgänge, wobei neben dem Blutfluss auch Atmung sowie Herzschlag die nächsten Herausforderungen darstellen (Müller et al. 2004). Auch im Bereich der minimalinvasiven Methoden ist der Endpunkt der Entwicklungsmöglichkeiten noch nicht erreicht. Die rasante Entwicklung endoskopischer Operationstechniken wird sich weiter fortsetzen, wobei ganze klassische Operationsfelder wegfallen werden. Dies wird einhergehen mit der weiteren Verfeinerung des Instrumentariums. Des Weiteren ist in der Chirurgie ein Trend zu Operationen über natürliche Körperöffnungen zu erkennen. Die Traumatisierung des Patienten wird weiter minimiert. Andere Arbeiten konzentrieren sich darauf, dem Chirurgen das »verlorengegangene Gefühl« durch Integration einer Sensorik zurückzugeben, damit wieder subtile und unscheinbare Läsionen über Instrumente detektiert werden können. Dieses schließt die realitätsnahe Einbindung spezieller chirurgischer Instrumente in die haptische Simulation ein (Hu et al. 2004). Hierbei ist ein grundlegendes Verständnis der haptischen Wahrnehmung Voraussetzung, um erfolgreich haptisches Feedback in die Simulatoren zu integrieren. Insgesamt kann also die Perspektive der minimalinvasiven Chirurgie als günstig beurteilt werden. Jedoch wird mancherorts die unstrukturierte Entwicklung der neuen Operationstechniken kritisiert. Die Einführung der minimalinvasiven Technik in den klinischen Alltag nach dem Prinzip von »Versuch und Irrtum« muss durch eine phasenweise, strukturierte Entwicklung und Erprobung abgelöst werden. Hier kann die virtuelle Simulation dieser neuen Operationstechniken einen wertvollen Beitrag leisten und die Rahmenbedingungen mitgestalten, damit die minimalinvasive Chirurgie ihre derzeitige Bedeutung auch im 21. Jahrhundert behält oder sogar erweitern kann. Flugsimulatoren sind längst nicht mehr aus dem Ausbildungsprogramm für Piloten wegzudenken. Medizinische Simulatoren, die VR-Technologie und Computergraphik einsetzen, können eine ähnliche Bedeutung für das chirurgische Training bekommen. Bedingt durch die Problematiken, die konventionelle Trainingsmethoden wie »learning by doing«, das Üben an Phantomen und Präparaten, beinhalten, führte die Suche nach alternativen
801 48.6 · Ausblick
⊡ Abb. 48.16. MEDARPA – Augmented Reality im Operationssaal
Trainingsformen zu VR-basierten Simulatoren, die nun immer mehr Berücksichtigung in der minimalinvasiven Chirurgie finden. Untersuchungen zeigen, dass sich ein Transfer von Fertigkeiten, die in einer virtuellen Trainingsumgebung gelernt wurden, auf die real durchzuführenden Aufgaben nachweisen lässt. Dabei kann durch eine hohe Übereinstimmung zwischen Training und realem Kontext der Transfer erhöht werden. Mit Sicherheit kann durch VRbasierte Trainingssysteme eine Verbesserung der Lernkurve erreicht werden – und dies ohne Kontakt zum Patienten. In den letzten Jahren wurden zahlreiche Studien durchgeführt, die diesen erfolgreichen Schritt vom Simulator zum Operationssaal belegen (Seymour et al. 2002, Hyltander et al. 2002, Gallagher et al. 2004 und 2005, Hackethal et al. 2006). Erfreuliche Entwicklungen sind heutzutage schon auszumachen, die den Einsatz VR-basierter Trainingssimulatoren im Curriculum Wirklichkeit werden lassen. So organisiert bspw. das European Surgical Institute rund 80 Trainingskurse mit ca. 1000 Teilnehmern, die an VRbasierten medizinischen Simulatoren üben. Auch in den USA sind Anzeichen zu spüren, dass die allgemeine Verfügbarkeit von medizinischen Simulatoren starken Einfluss darauf haben wird, wie in Zukunft Medizin gelehrt und praktiziert wird. Bedenkt man, dass mehrere Jahrzehnte vergingen, bis realistische Flugsimulatoren heutigen Standards zur Verfügung standen, so lassen die raschen Fortschritte in der Entwicklung computergestützter Trainingssimulatoren der letzten Jahre annehmen, dass mit sukzessiver Erhöhung des Realismus der medizinischen Simulatoren es zu einer weiteren Verbreitung dieser Systeme in der chirurgischen Aus- und Weiterbildung kommen wird. Angesichts der Tatsache, dass zunehmend Qualitätssicherung und Zertifizierung auch im Gesundheitswesen
eine Rolle spielen, wird diese Entwicklung schließlich zu einer grundlegenden Reform der medizinischen Ausbildung führen, in der auch computergestützte Trainingssimulatoren mit ihrem Instrumentarium zur objektiven Bewertung eine Daseinsberechtigung haben werden. An dieser Stelle sei die Frage erlaubt, warum es nicht auch bei den Medizinern einen »Führerschein« geben sollte, ähnlich wie man ihn von den Piloten her kennt. Schließlich ist eine zunehmende Verlagerung der medizinischen Simulation in den OP auf dem Vormarsch, wobei eine intraoperative Unterstützung unter Einsatz von Augmented-reality-Technologien geleistet werden kann (Wesarg et al. 2004, Khan et al. 2005) (⊡ Abb. 48.16). Und der nächste Paradigmenwechsel steht bevor. Der Operateur wird nicht nur auf das historische Bildmaterial angewiesen sein, sondern kann über eine ausgeklügelte Sensorik gewebespezifische Eigenschaften intraoperativ abfragen, die dann Einfluss auf den weiteren Verlauf des operativen Eingriffs nehmen können. So ist es vorstellbar, dass sich bspw. der Operationsroboter den Fräskanal aufgrund des sensorischen Feedbacks selbst sucht und nicht wie bisher allein aufgrund der präoperativen Planung auf Basis des patientenspezifischen Bilddatenguts. Mittlerweile ist der Einsatz von Robotern im Operationssaal ein wenig infrage gestellt worden. Man möge an dieser Stelle berücksichtigen, dass es sich bei der kontrovers diskutierten OP-Robotergeneration um herkömmliche Industrieroboter handelte, die inzwischen durch kleine, kostengünstigere OP-Roboter ersetzt werden können (z. B. Mazor Surgical Technologies). Der Roboter im Operationssaal bietet dem Chirurgen ein weiteres Hilfsmittel, welches selektiv bei bestimmten operativen Schritten eingesetzt werden kann, mit dem Ziel, mit höherer Präzision und Qualität zu arbeiten – resultierend in ein besseres postoperatives Ergebnis. Dieses soll letztendlich dem Wohle des Patienten dienen.
48
802
Kapitel 48 · Virtuelle Realität in der Medizin
Literatur
V
Basdogan, C et al. (2004) Haptics in minimally invasive surgical simulation and training, In: IEEE Computer Graphics and Applications, vol 24, no 2, pp 56–64 Bockholt U et al. (2006) Simulation zur Stimulation von Kopfbewegungen zur VR gestützten Schleudertraumatherapie. In: Proceedings of 17th Simulation and Visualization Conference, Magdeburg Boissonnat JD (1985) Shape reconstruction from planar cross-sections. In: Proceedings of: IEEE Conf Computer Vision and Pattern Recognition, pp 393–397 Çakmak HK, Kühnapfel U (2000) Animation and simulation techniques for VR-training systems in endoscopic surgery. In: Proceedings of Eurographics Workshop Animation and Simulation (EGCAS 2000), pp 173–185 Encarnação JL et al. (1994) Virtual reality technology – enabling new dimensions in computer-supported applications. In: Proceedings 9. Japan-Germany Forum on Information Technology, Oita, Japan, 8.-ll. November Gallagher AG et al. (2004) Discriminative validity of the Minimally Invasive Surgical Trainer in Virtual Reality (MIST-VR) using criteria levels based on expert performance. In: Surgical Endoscopy, vol 18, pp 660–665 Gallagher AG et al. (2005). Virtual reality simulation for the operating room: Proficiency-based training as a paradigm shift in surgical skills training. In: Annals of Surgery, vol 241, no 2, pp 364–372 Geiger B, Kikinis R (1995) Simulation of Endoscopy. In: Nicholas Ayache (ed) Proceedings of Computer Vision, Virtual Reality and Robotics in Medicine, Lecture Notes in Computer Science. Springer-Verlag, pp 277–281 Greenish S et al. (2002) Measurement, analysis and display of haptic signals during surgical cutting. In: Presence, vol. 11, no. 6, pp 626–651 Hackethal A et al. (2006) Evaluation of target scores and benchmarks for the traversal task scenario of the minimally invasive surgical trainer-virtual reality (MIST-VR) laparoscopy simulator. In: Surgical Endoscopy DOI: 10.1007/s00464-005-0190-x, Issue: Online First Haines E (2006) An introductory tour of interactive rendering. In: IEEE Computer Graphics and Applications, vol 26, no 1, pp 77–87 Hilbert M, Müller W (1997) Virtual reality in endonasal surgery. In: Proceedings of »Medicine Meets Virtual Reality V« – Global Healthcare Grid: Transformation of Medicine through Communication, Jan 22-25, San Diego/CA, pp 237–245 Hu T et al. (2004) Evaluation of a laparoscopic grasper with force feedback. In: Surgical Endoscopy, DOI: 10.1007/s00464-003-8132-y, Issue: Online First Höhne KH (2004) Computer-based anatomy: A prerequisite for computer-assisted radiology and surgery. In: Lemke HU et al. (eds): Computer Assisted Radiology and Surgery, Proc. CARS 2004, International Congress Series 1268, Elsevier, Amsterdam, 2004, pp xv-xviii Hyltander A et al. (2002) The transfer of basic skills learned in a laparoscopic simulator to the operating room. In: Surgical Endoscopy, vol 16, no 9, pp 1324-1328 Kaufman A et al. (2005) Virtual Colonoscopy, In: Communications of the ACM, vol 48, no 2, pp 37–41 Khan M et al (2005) Accuracy of biopsy needle navigation using the Medarpa system-computed tomography reality superimposed on the site of intervention. In: European Radiology, vol 15, no 11, pp 2366–2374 Kühnapfel U et al. (1995) Endosurgery simulations with KISMET. Virtual Reality World ‘95, Stuttgart Kohn LT et al (2000) To Err Is Human: Building a Safer Health System. Committee on Quality of Health Care in America, Institute of Medicine, The National Academies Press, Washington
Langreth R (2005) Fixing Hospitals. In: Forbes Magazine, vol 175, no 13, pp 68–76 Meglan AM et al. (1996) The teleos virtual environment toolkit for simulation-based surgical education. In: Sieburg H (eds) Health care in the information age, proceedings of medicine meets virtual reality iv, San Diego, Studies in Health Technology and Informatics, IOS Press, Amsterdam, vol 29, pp 346–351 Müller M et al. (2004) Interactive blood simulation for virtual surgery based on smoothed particle hydrodynamics, In: Journal of Technology and Health Care, vol 12, no 1, pp 25–31 Müller W (1995) Virtual reality in surgical arthroscopic training. In: Journal of Image Guided Surgery, Wiley-Liss, New York, vol l, no 5, pp 288–294 Müller W et al. (1997) Virtual reality in the operating room of the future. In: Proceedings of »Medicine Meets Virtual Reality V« – Global Healthcare Grid: Transformation of Medicine through Communication, Jan 22–25, San Diego/CA, pp 224–231 Müller W et al. (2000) Computer assisted preoperative planning system for total knee replacement. In: Proceedings of Fourth Annual North American Program on Computer Assisted Orthopaedic Surgery (CAOS USA 2000), Pittsburgh, Pennsylvania, USA, pp 105–107 Müller-Wittig W et al. (2001) Enhanced training environment for minimally invasive surgery. In: Proceedings of the 10th IEEE International Workshops on Enabling Technologies: Infrastructure for Collaborative Enterprises – WET ICE 2001, MIT Cambridge, Massachusetts, USA, IEEE Computer Society, Los Alamitos, California, pp 269–272 Müller-Wittig W et al. (2002) A new approach to combine visualization and simulation for preoperative planning of pedicle screw insertion. In: Proceedings Computer Assisted Orthopaedic Surgery – CAOS International, Santa Fe, New Mexico, USA, pp 53–55 Ottensmeyer MP (2002) In vivo measurement of solid organ viscoelastic properties. In: Westwood, JD (eds) Proceedings of »Medicine Meets Virtual Reality 02/10« – Digital upgrades: Applying Moore’s law to health, Newport Beach/CA. IOS Press, Amsterdam, pp 328–333 Satava RM (1993) Virtual reality surgical simulator. The first steps. In: Surgical Endoscopy, vol 7, no 3, pp 203–205 Satava RM (1995) Virtual reality, telesurgery, and the new world order of medicine. In: Journal of Image Guided Surgery, vol 1, pp 12–16 Satava RM (1996) Medical virtual reality. The current status of the future. In: Stud Health Technol Inform, vol 29, pp 100–106 Satava, RM, Robb RA (1997) Virtual endoscopy: application of 3D visualization to medical diagnosis. In: Presence – Teleoperators and Virtual Environments, Massachusetts, vol 6, no 2, pp 179–197 Schijven M, Jakimowicz J (2002) Face-, expert, and referent validity of the Xitact LS500 laparoscopy simulator In: Surgical Endoscopy, vol 16, no 12, pp 1764–70 Seymour NE et al. (2002) Virtual reality training improves operating room performance: Results of a randomized, double-blinded study. In: Annals of Surgery, vol 236, no 4, pp 458–464 Srinivasan MA, Basdogan C (1997) Haptics in virtual environments: Taxonomy, research Status, and challenges. In: Computer and graphics, special issue on »Haptic Displays in Virtual Environments«. Eisevier Science, Amsterdam New York, vol 21, no 4, pp 393–404 Tay BK et al. (2002) Measurement of in vivo force response of intra-abdominal soft tissues for surgical simulation. In: Westwood, JD (eds) Proceedings of »Medicine Meets Virtual Reality 02/10« – Digital upgrades: Applying Moore’s law to health, Newport Beach/CA. IOS Press, Amsterdam, pp 514–519 Wesarg S (2004) Accuracy of needle implantation in brachytherapy using a medical AR system: a phantom study. In: Proceedings of Medical Imaging 2004, SPIE Medical Imaging Symposium 2004, San Diego, CA, USA, pp 341–352
49 Computerunterstützte Lehr- und Lernsysteme in der Medizin M. Haag, F. J. Leven 49.1
Einleitung – 803
49.2
Historische Entwicklung – 803
49.3
Reformansätze im Medizinstudium – 804
49.4
Arten von Lehr- und Lernsystemen – 805
49.4.1 Interaktionsformen – 805 49.4.2 Architekturen von Lehr-/Lernsystemen – 807 49.4.3 Komponenten von Lehr-/Lernsystemen in der Medizin – 807
49.5
Lernumgebungen – 808
49.5.1 Funktionalität von Lernumgebungen – 808 49.5.2 Interoperabilität, Standards – 809
49.1
Einleitung
Im Szenario »Die Universität im Jahre 2005«1 wurde 1999 prognostiziert, dass 2005 bereits 50% der Studierenden in »Virtuellen Universitäten« eingeschrieben sein würden, während die klassische Universität auf eine Restgröße schrumpfen würde. Obwohl einerseits diese Prognose offenbar nicht eingetroffen ist, kann man andererseits von einem regelrechten Boom im Bereich der Entwicklung von computerbasierten Lehr- und Lernsystemen, auch im Rahmen von virtuellen Hochschulkonzepten, sprechen, der insbesondere durch entsprechende Förderinitiativen auf Landes- und Bundesebene während der letzten acht Jahre zustande kam. Während man im deutschsprachigen Raum häufig den Begriff »Computer-Based Training« (CBT) für die computerunterstützte Ausbildung verwendet, gibt es international noch eine Vielzahl weiterer oft verwendeter Bezeichnungen wie »Computer-Assisted Instruction« (CAI), »Computer-Assisted Learning« (CAL) und »Computer-Based Instruction« (CBI), die ebenfalls dem Englischen entstammen. Von »Web-Based Training« (WBT) (Haag, Maylein et. al 1999) wird gesprochen, wenn die Anwendungen auf Internet-Technologien basieren und über das Internet genutzt werden können. Etwas weiter gefasst ist der Begriff »E-Learning«2 (Electronic-Learning), der neben CBT und WBT u. a. auch andere Formen
1 2
http://berlinews.de/archiv/467.shtml http://de.wikipedia.org/wiki/E-Learning
49.6
Anwendungsszenarien von Lehr-/Lernsystemen – 810
49.7
Status von E-Learning in der Medizin – 810
49.7.1 Informationssysteme zu CBT/WBT in der Medizin – 810 49.7.2 Projekte im Rahmen der Förderinitiative »Neue Medien in der Bildung« – 811 49.7.3 Nutzung von CBT/WBT-Systemen in der Medizin – 812
49.8
Problem der curricularen Integration – 812 Literatur – 813
des elektronischen Lernens wie computerunterstütztes kooperatives Lernen (»Computer Supported Cooperative/Collaborative Learning« – CSCL) umfasst. Im Folgenden soll vor dem Hintergrund der historischen Entwicklung und von Reformansätzen im Medizinstudium ein Überblick über Architektur und Funktionalität von CBT/WBT-Systemen in der Medizin gegeben werden und insbesondere die Frage nach der curricularen Integration und Nachhaltigkeit der Ansätze diskutiert werden.
49.2
Historische Entwicklung
Ende 1950, Anfang 1960, wurden die ersten Lernprogramme auf Großrechnern der zweiten Generation erstellt. Man sprach damals von »Programmiertem Unterricht« (PU). Psychologen und Pädagogen setzten sich intensiv mit den Möglichkeiten der neuen Technik auseinander (Schaller, Wodraschke 1969). Das damals vorherrschende Lernparadigma war der Behaviorismus – dieser prägte die erstellten Lernprogramme sehr stark. Die Anhänger des Behaviorismus gehen davon aus, dass man das menschliche Gehirn lediglich auf geeignete Art und Weise reizen muss, um die gewünschte Reaktion, die richtige Antwort, auszulösen. Entscheidend beim Behaviorismus ist es, dem Lernenden ein geeignetes Feedback zu geben, um richtige Reaktionen (Antworten) auf Reize zu verstärken. Das Prinzip des Behaviorismus basiert also letztlich darauf, den Lernenden zu belohnen, wenn er Fragen richtig beantwortet und sich so dem Lernziel nähert, bzw. zu
804
V
Kapitel 49 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
bestrafen, wenn er Fragen falsch beantwortet, da er sich vom Lernziel entfernt. Das zu vermittelnde Wissen wird dabei in kleinste Lerneinheiten zerlegt, an die sich jeweils unmittelbar eine Frage anschließt, die richtig beantwortet werden muss. Falls dies nicht gelingt, wird die Lerneinheit nochmals wiederholt bzw. eine zusätzliche Hilfe angeboten. Der Erfolg des Programmierten Unterrichtes blieb weitgehend aus. Nach der anfänglichen Euphorie für die computerunterstützte Ausbildung setzte bald Ernüchterung ein. Dies hatte verschiedene Gründe (vgl. Moehr 1990, S. 39; Bodendorf 1990, S. 17). Es gab damals z. B. noch keine graphischen Oberflächen bzw. attraktive Benutzerschnittstellen für eine intuitive Bedienung durch EDV-Laien. Auch waren noch keine Autorensysteme verfügbar, mit denen die Erstellung von Lehr-/Lernsystemen ohne detaillierte Informatikkenntnisse möglich gewesen wäre. Außerdem waren die Hardwarekosten für die damals vorhandenen Großrechner sehr hoch. Mitte bis Ende der 1970er Jahre kamen dann die ersten Arbeitsplatzrechner, die im Vergleich mit Großrechnern einfacher, d. h. auch durch EDV-Laien zu bedienen waren. Außerdem verbesserten sich die Hardwareausstattung und das Preis-/Leistungsverhältnis ständig. So waren bald hochauflösende Monochrom- und Farbmonitore verfügbar sowie die Maus als Eingabegerät. Für derartige Arbeitsplatzrechner wurden tutorielle Systeme und Virtuelle Labors ( Abschn. 49.4.1 »Interaktionsformen«) erstellt, denen aber meist kein allzu großer Erfolg beschieden war. Ein »Comeback« der computerunterstützten Ausbildung erfolgte in Form von »Hypermedia-Systemen«. Unter Hypermedia versteht man die Vereinigung von Hypertext mit Multimedia. Bei Hypertexten sind die einzelnen Textteile, im Gegensatz z. B. zu Texten in Büchern, nichtlinear angeordnet. Die Verbindungen zwischen den einzelnen Textteilen werden durch Verweise hergestellt. Durch die nichtlineare Anordnung eines Textes können die Leser selbst entscheiden, ob sie zu einem bestimmten Aspekt noch weitere Informationen wünschen, und können dann einen Verweis auf Zusatzinformationen anwählen. Dies ist ein wichtiger Vorteil gegenüber linear angeordneten Texten, bei denen der Autor die Reihenfolge festlegt, in der die einzelnen Textkomponenten gelesen werden sollten. Außerdem legt dieser bei herkömmlichen Texten fest, in welcher Tiefe der Stoff in verschiedenen Textabschnitten dargestellt ist, ohne dass der Leser die dargestellte Stofftiefe selbst bestimmen kann. Die Verfügbarkeit von Autorensystemen für den Apple Macintosh bzw. für Windows PCs ermöglichte es dann auch Nicht-Fachleuten, auf relativ einfache Weise Hypertexte zu erzeugen. Die einzelnen Textteile durften hierbei gleichzeitig verschiedene Medien enthalten, also multimedial sein, d. h. auch Audiosequenzen, Videosequenzen, Animationen und Graphiken enthalten. Ohne extrem teure Hardware und tief greifende Programmierkenntnisse konnten jetzt in vergleichsweise kurzer Zeit
optisch sehr ansprechende Lernprogramme erstellt werden. Mit Bildplatten und CD-ROMs standen mittlerweile auch Speichermedien zur Verfügung, auf denen große Datenmengen (Bilder in guter Auflösung und digitales Video) gespeichert werden konnten. Neben den großen Fortschritten im Hardwarebereich, welche die Erstellung und Nutzung von Lehr- /Lernsystemen ungemein beschleunigt hat, wurden auch im Bereich der Lernpsychologie Fortschritte gemacht. Nachdem sich der Behaviorismus als wenig geeignetes Paradigma für die Erstellung von Lehr-/Lernsystemen gezeigt hatte, wurde nun häufig das »Konstruktivistische Paradigma« umgesetzt. Die Lernenden werden hierbei mit komplexen authentischen Szenarien (z. B. in virtuellen Labors oder Fallbeschreibungen) konfrontiert, in denen sie die Probleme, Zusammenhänge und Lösungen erkennen lernen müssen. Ein weiterer Lehransatz des Konstruktivismus ist das kooperative Lernen. Die Problemlösung soll dabei nicht alleine, sondern in Zusammenarbeit mit anderen erfolgen.
49.3
Reformansätze im Medizinstudium
Die Entwicklung von Lehr-/Lernsystemen in der Medizin wurde insbesondere in den letzten Jahren wesentlich durch Reformansätze in der Medizinerausbildung geprägt. Diese Ansätze umfassen u. a. fächerübergreifenden Unterricht, in dem nicht mehr zwischen der vorklinischen Phase und der folgenden klinischen Ausbildungsperiode unterschieden wird. Sie versuchen, dem in der traditionellen Ausbildung beklagten Defizit an praktischen Erfahrungen durch »Problemorientiertes Lernen« (POL)3 und fallbasiertes Training zu begegnen und betonen das selbstbestimmte, eigenständige Lernen. POL soll die Studierenden befähigen, klinische Probleme selbständig zu lösen und ihre Fähigkeit zum selbständigen, lebenslangen Wissenserwerb und Wissensmanagement ausbilden. Im POL-Unterricht legt ein Tutor einer Kleingruppe von Studierenden einen klinischen Fall vor, bei dem meist nur einige Patientendaten und Eckpunkte der Anamnese gegeben sind. Anhand des folgenden typischen Ablaufs wird der Fall bearbeitet: 1. Klärung grundsätzlicher Verständnisfragen 2. Definition des Problems – die Gruppe einigt sich darauf, welche Fragen sie anhand des Falls bearbeiten will 3. Sammlung von Ideen und Lösungsansätzen 4. Systematische Ordnung der Ideen und Lösungsansätze 5. Formulierung der Lernziele 6. Recherche zu Hause 7. Synthese und Diskussion der zusammengetragenen Lerninhalte
3
http://www.charite.de/rv/reform/Problemorientiertes_Lernen_.html
805 49.4 · Arten von Lehr- und Lernsystemen
POL ist eines der Grundprinzipien des New Pathway4 der Harvard Medical School, der außerdem darauf abzielt, nicht nur Wissen, sondern auch Fertigkeiten, Techniken und Verhalten zu vermitteln, und der die Relevanz von lebenslangem Lernen (»Life Long Learning« bzw. »Continuous Medical Education«) und der Kompetenz im Bereich des Wissensmanagements betont. Beispiele für Reformansätze in Deutschland sind der erste deutsche Reformstudiengang Medizin an der Charité in Berlin und das am Harvard New Pathway-Ansatz orientierte »Heidelberger Curriculum Medicinale« (HeiCuMed)5, das eine Reformierung der klinischen Ausbildung beinhaltet. In HeiCuMed werden mehrwöchige Blockpraktika und – wie im Berliner Reformstudiengang – praktische Übungen in einem »Skills Lab« durchgeführt. Zum Training der kommunikativen Fähigkeiten werden »Standardisierte Patienten« durch Schauspieler dargestellt, die einen Kranken simulieren. In verschiedenen Anwendungsszenarien werden computerbasierte, fallbasierte Systeme eingesetzt. Ansätze zur Reformierung des Medizinstudiums in Deutschland sind auch in der seit dem 01.10.2003 geltenden neuen Ärztlichen Approbationsordnung zu finden, die neue Lehr-/Lernformen verlangt und stärker als bisher auf eigenständiges Lernen und auf den Erwerb von Fertigkeiten und Fähigkeiten gerichtet ist. Bemerkenswert sind auch die Änderungen bei Prüfungen: So werden z. B. in 22 Hauptfächern und 12 Querschnittsfächern fakul-
4 5
http://hms.harvard.edu/admissions/default.asp?page=pathway www.heicumed.uni-hd.de/
tätsinterne benotete Leistungsnachweise gefordert, wobei Alternativen zu konventionellen Multiple Choice Prüfungen praktiziert werden sollen. Derartige Alternativen sind z. B. Objective Structured Clinical Examinations (OSCE), Modified Essay Questions (MEQ) oder Key Feature Problems (Ruderich 2003).
49.4
Arten von Lehr- und Lernsystemen
Für computerbasierte Lehr-/Lernsysteme gibt es verschiedene Referenzmodelle und Szenarien (Bloh 2005; Oppermann u. Novak 2005). Im Folgenden werden CBT/WBTSysteme nach Interaktionsformen und Architekturvarianten differenziert (⊡ Abb. 49.1).
49.4.1 Interaktionsformen
Abhängig vom Grad der Interaktivität und der zu vermittelnden Inhalte kann man verschiedene Arten von Lehr-/Lernsystemen unterscheiden. Konkrete Systeme können dabei u. U. auch in mehrere Gruppen eingeordnet werden. Präsentations- und Browsingsysteme. Sie eignen sich besonders für die Vermittlung von systematischem Wissen. Präsentationssysteme sind dabei vergleichsweise einfach und schnell zu erstellen, da sie bestimmte Sachverhalte in linearer Reihenfolge präsentieren. Im Grunde handelt es sich um die elektronische Form einer Tonbildschau. Die »Interaktion« zwischen Lernendem und Com-
⊡ Abb. 49.1. Arten von CBT/WBT-Systemen
49
806
V
Kapitel 49 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
puter beschränkt sich darauf, die Präsentation zu starten und zwischendurch möglicherweise die Pause-Taste zu drücken bzw. die Präsentation ein Stück zurückzuspielen. Aufgrund der mangelnden Interaktivität findet man reine Präsentationssysteme heute kaum mehr. Browsingsysteme zeichnen sich gegenüber Präsentationssystemen dadurch aus, dass über ein Inhaltsverzeichnis oder eine Stichwortliste gezielt zu einzelnen Kapiteln bzw. »Seiten« des Systems gesprungen werden kann. An jeder Stelle des Programms und zu einem beliebigen Zeitpunkt ist es möglich, wieder dorthin zurückzukehren. In der Regel besitzen Browsingsysteme vielfältige Verknüpfungen zwischen verschiedenen »Seiten« (Knoten). Markierungen im Text können so vom Anwender mit der Maus angeklickt werden, worauf das System eine Graphik, eine neue Seite, usw., einblendet. Durch diese vom Programm zur Verfügung gestellten Hypertext- bzw. HypermediaFunktionen wird selbstgesteuertes Lernen ermöglicht. Auch bei Browsingsystemen nimmt der Computer eine passive Rolle ein. Es ist den Lernenden selbst überlassen, ob sie das System lediglich als »Nachschlagewerk« oder als Lernprogramm verwenden. Bei Verwendung als Lernprogramm können sie selbst bestimmen, in welcher Reihenfolge und wie intensiv sie die einzelnen Kapitel durcharbeiten. Dies führt allerdings häufig zur Unsicherheit darüber, ob auch tatsächlich alle relevanten Inhalte gefunden wurden. Deshalb besitzen manche dieser Programme auch eine Fragenkomponente, die es dem Nutzer ermöglicht, Wissensdefizite aufzuspüren. Ein bekanntes und intensiv genutztes Beispiel für Browsingsysteme ist der »Atlas of Dermatology«6. Die Mehrzahl der derzeit am Markt befindlichen Lehr-/Lernsysteme kann in die Gruppe der Browsingsysteme eingeordnet werden. Teilweise enthalten auch fallbasierte Systeme oder virtuelle Labors (s. unten) eine Browsingkomponente, in der bei Bedarf nachgelesen werden kann. Virtuelles Labor. Ein virtuelles Labor ist dadurch gekennzeichnet, dass ein mathematisches Modell für einen Vorgang oder Prozess in der Realität Grundlage einer entsprechenden Computersimulation ist. Ein Beispiel ist das Simulationssystem SimNerv (Hirsch et. al 1995), das den klassischen Froschversuch im physiologischen Praktikum simuliert. SimNerv leistet damit auch einen Beitrag zur Reduktion von Tierversuchen für die Ausbildung. Bei Simulationssystemen ist eine Einführung der Anwender in das System sehr wichtig, um das Modell und die Möglichkeiten zu verstehen, wie eigene Aktionen durchgeführt werden können. Fallbasierte Systeme. Bei fallbasierten Systemen wird ein virtueller Patient mit einem bestimmten Krankheitsbild vorgestellt. Orientiert an den Abschnitten »Anamnese«, »körperliche Untersuchung«, »technische Untersuchung«, »Laboruntersuchung«, »Diagnose« und »Therapie« führen
die Studierenden dann am Computer die »Behandlung« des Patienten durch. Systeme wie »CASUS«7 arbeiten kartenbasiert. Zu einem Fall gehört ein Stapel von Karten, die Falldaten und systematisches Wissen hypermedial darstellen und auf denen Wissensfragen und Feedback des Systems angezeigt werden. Simulative, fallbasierte Systeme. Ein simulatives, fallbasiertes System arbeitet gegenüber kartenbasierten Systemen stärker an der realen Behandlung orientiert und stellt dem Studierenden nur die Information zur Verfügung, die er explizit anfordert (»Knowledge on demand«). Bei einem derartigen System wie z. B. CAMPUS8 und Docs ‚n Drugs9 nehmen die Lernenden die Rolle eines Arztes ein, der einen Patienten untersuchen, diagnostizieren und danach eine Therapie anordnen muss (⊡ Abb. 49.2). Nach der Anamnese und der initialen körperlichen Untersuchung wird eine »Diagnose-/Therapieschleife« u. U. mehrfach durchlaufen, bis der Fall abgeschlossen werden kann (⊡ Abb. 49.3). Die »Behandlung« des Patienten erfolgt somit so realitätsnah wie möglich. Mit simulativen, fallbasierten Systemen können Studierende ihr in Vorlesungen oder aus Büchern gelerntes theoretisches Wissen anwenden, ohne dabei reale Patienten zu gefährden. Da die Lernenden bei derartigen Systemen eine sehr aktive Rolle einnehmen, eignen sie sich normalerweise nur für Studierende, die sich bereits auf einer höheren Lernstufe befinden. Dies liegt daran, dass es ohne Grundkenntnisse sehr schwierig ist, Zusammenhänge zu erkennen und sinnvolle Aktionen zu starten. Ein weiteres Beispiel, bei dem Methoden der Künstlichen Intelligenz (KI) eingesetzt werden, ist d3webTrain10. d3webTrain ist aus einer Expertensystem-Shell hervorgegangen und arbeitet jeweils mit einer spezifischen, strukturierten Wissensbasis. Der Aufwand für die Aufbereitung von medizinischen Kasuistiken ist i. d. R. hoch, insbesondere wenn noch entsprechende Vokabulare angelegt bzw. gepflegt werden müssen. Er kann allerdings durch die Nutzung von leistungsfähigen Autorensystemen wesentlich gesenkt werden. Tutorielle Systeme. Bei tutoriellen Systemen werden die Lernenden vom Programm durch den Stoff »begleitet«. Das System präsentiert die Inhalte und stellt dann gelegentlich Fragen, die unter anderem die Lösungsfindung erleichtern sollen. Wenn die Tutanden die Fragen nicht beantworten können, bekommen sie Feedback, indem bspw. Lösungshinweise gegeben werden oder aber auch
6
http://dermis.multimedica.de/doia
7 http://mki.medinn.med.uni-muenchen.de/instruct/de/casus/index.html 8
http://www.medicase.de http://www.docs-n-drugs.de 10 http://www.d3webtrain.de/ 9
807 49.4 · Arten von Lehr- und Lernsystemen
grammablauf. Im Unterschied zu »normalen« tutoriellen Systemen ist dabei der Programmablauf aber nicht mehr im Programm fest programmiert. Das Programm übernimmt meist eine beratende Funktion und greift nur bei Bedarf ein. Eine der Schwierigkeiten besteht dabei in der Wissensmodellierung. Das zu vermittelnde Wissen muss so strukturiert und verknüpft werden, dass anhand des Modells bspw. Fragen des Anwenders beantwortet werden können. Die »Intelligenz« eines Systems liegt darin, das Wissen in der Wissensbasis sinnvoll anzuwenden.
49.4.2 Architekturen von Lehr-/Lernsystemen
⊡ Abb. 49.2. Fallsimulation im System CAMPUS
⊡ Abb. 49.3. Diagnose-/Therapieschleife in CAMPUS
bestimmte Informationen nochmals präsentiert werden, die für die richtige Beantwortung der Frage notwendig sind. Der gesamte Programmablauf wird bei tutoriellen Systemen vom Computer gesteuert. Ausgeprägte tutorielle Systeme findet man selten auf dem Markt. Verbreiteter sind Browsingsysteme, bei denen am Ende einzelner Stoffeinheiten Fragen hinterlegt sind, die der Lernende dann beantworten muss, um festzustellen, ob er den Stoff verstanden hat. Intelligente tutorielle Systeme. Als Spezialfall der tutoriellen Systeme nutzen sie Verfahren der Künstlichen Intelligenz (KI), um das Benutzerverhalten zu modellieren. Dazu analysieren sie dessen Lernverhalten, Vorkenntnisse, Vorlieben usw. und bestimmen daraus den weiteren Pro-
Es gibt zwei grundsätzlich verschiedene Programmtypen bei Lehr-/und Lernsystemen: 1. »Konventionelle« CBT-Systeme: Sie werden auf Datenträgern wie DVDs ausgeliefert und müssen auf dem Computer des Anwenders installiert werden. Für die Funktionsfähigkeit der Anwendung ist kein Netz- bzw. Internet-Zugang erforderlich. 2. WBT-Systeme: Sie basieren – im Unterschied zu den »konventionellen« CBT-Systemen – auf Internet-Basistechnologien wie HTML, JavaScript usw. und besitzen i. d. R. eine Client-Server-Architektur. Während ein Teil der Anwendung auf dem Rechner des Nutzers (dem Client) läuft, läuft ein anderer Teil auf einem zentralen Server. Daraus ergeben sich verschiedene Architekturtypen (Haag et al. 1999). Bei der Konzeption müssen die jeweiligen Vor- und Nachteile dieser Architekturen berücksichtigt werden. WBT-Systeme sind deshalb oft aufwändiger in der Erstellung als konventionelle CBT-Systeme, bieten aber gegenüber diesen viele Vorteile. So müssen sie bspw. nicht installiert werden und sind i. d. R. plattformunabhängig, d. h., sie laufen nicht nur z. B. auf Windows-PCs. Sie können somit plattform-, orts- und zeitunabhängig genutzt werden und fördern damit flexibles und selbstbestimmtes Lernen. Aufgrund der klaren Vorteile überwiegen heute bei Neuentwicklungen die WBT-Systeme.
49.4.3 Komponenten von Lehr-/Lernsystemen
in der Medizin Die Komponenten eines Lehr-/Lernsystems in der Medizin lassen sich am Beispiel des CAMPUS-Systems erläutern, in dem fallorientiertes und systematisches Wissen vermittelt wird (⊡ Abb. 49.4). Eine Autorenkomponente dient zur Wissens- und Fallaufbereitung, eine PlayerKomponente zur interaktiven Präsentation bzw. Bearbeitung von Fällen. Patienten-Falldaten werden über eine Fakten-Datenbank bereitgestellt, während systematisches
49
808
V
Kapitel 49 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
Wissen über eine Wissensbasis verfügbar ist bzw. über das Internet in weltweit verfügbaren Digital Libraries wie »Medline«, »Leitlinien« oder »Cochrane Library« zugreifbar ist. Vokabulare bzw. Ontologien werden für das Wissensmanagement verwendet, wobei nationale bzw. internationale Standardisierungsansätze berücksichtigt werden. Wiederverwendbare, mit entsprechenden Metadaten indexierte multimediale Komponenten wie Bilder, Audiosequenzen, Videosequenzen etc. werden in einem Medienrepository bereitgestellt. Zu den bekannten kommerziell verfügbaren Autorensystemen zählt das System Toolbook. Dieses verwendet eine Buchmetapher, um die Erstellung und Nutzung der Lehr/Lernsysteme (meist Präsentations- und Browsingsysteme) zu erleichtern. Andere verbreitete Autorensysteme wie Macromedia Director setzen auf eine Film-Metapher. Hier übernimmt der Autor die Rolle des Regisseurs, der
seine handelnden Objekte auf einer Bühne erscheinen und wieder verschwinden lassen kann. Solche Autorensysteme eignen sich besonders gut für die Erstellung von Animationen. Auch für die Erstellung von Fallsimulationen werden Autorensysteme eingesetzt, die allerdings häufig wegen der Komplexität der Anforderungen Eigenentwicklungen sind. Die Erstellung von Fallsimulationen wird durch eine leistungsfähige Autorenkomponente wesentlich erleichtert und ist auch für Mediziner ohne fundierte EDV-Kenntnisse ohne Schwierigkeiten machbar. Allerdings hat sich gezeigt, dass es trotz einfach zu bedienender Autorensysteme oft schwierig ist, Fallautoren zu finden. Ein Ausweg besteht darin, dass z. B. ein Oberarzt als Fallautor fungiert, die Fallaufbereitung aber einem »Case Engineer« (⊡ Abb. 49.5) überträgt und schließlich den aufbereiteten Fall abnimmt. Case Engineers sind typischerweise Medizinstudierende bzw. Ärzte in der Ausbildung.
49.5
Lernumgebungen
49.5.1 Funktionalität von Lernumgebungen
⊡ Abb. 49.4. Komponenten von CBT/WBT-Systemen
⊡ Abb. 49.5. Rollen bei CBT/WBT-Systemen
Immer häufiger werden fakultäts- bzw. hochschulweit Lernumgebungen bzw. Lernplattformen (»Learning Management Systeme«, LMS) eingesetzt. Im Unterschied zu bloßen Kollektionen von Lehrskripten oder Hypertext-Sammlungen auf Web-Servern verfügt ein LMS i. Allg. über die auch in ⊡ Abb. 49.6 dargestellten folgenden Funktionen (nach Schulmeister 2003): ▬ eine Benutzerverwaltung (Anmeldung mit Verschlüsselung), ▬ ein Kursmanagement, über das Studierende Kurse buchen und belegen können,
809 49.5 · Lernumgebungen
▬ eine Lernplattform für die Bereitstellung von Lernobjekten (Texte, Slide-Shows, CBT- bzw. WBT-Einheiten) und Werkzeugen für das Lernen (Notizbuch, Kalender, etc.), ▬ Autorenwerkzeuge, mit denen Dozenten Inhaltsunterlagen für das Netz entwickeln können, ohne viel Wissen über HTML und Internet zu besitzen, ▬ Komponenten für kooperatives Arbeiten im Netz (Computer Supported Cooperative Work, CSCW), ▬ gemeinsame Datenbanken und Repositories, ▬ eine Rollen- und Rechtevergabe mit differenzierten Rechten und ▬ Funktionen zur Online-Evaluation und Durchführung von Online-Prüfungen. Es gibt eine große Zahl von verfügbaren LMS-Systemen und entsprechende Kriterienkataloge, Marktübersichten und Systemevaluationen11. Neben kommerziellen LMSSystemen sind auch open source-Systeme verfügbar, die insbesondere aus Kostengründen attraktiv sind. Die Auswahl eines LMS ist für eine Hochschule von großer Tragweite und keine triviale Aufgabe. So muss darauf geachtet werden, dass das gewählte LMS die benötigte Funktionalität und erforderliche Performanz aufweist und gleichzeitig die Lizenz- und Betriebskosten sowie der Aufwand für die Einarbeitung von Dozenten und Studierenden in die Handhabung des LMS möglichst gering sind. Bei der Integration eines verfügbaren CBT/WBT-Systems in ein LMS ist als unverzichtbare Anforderung die Funktion zu realisieren, dass der Anwender nach dem Einloggen in das LMS auch das CBT/WBT-System nutzen kann, ohne sich erneut authentifizieren zu müssen (sog. »Single-Sign On«). Weiterhin sollte der Bearbeitungsstand zu einer Lerneinheit durch das LMS registriert werden können, damit z. B. die Lerneinheit später fortgesetzt werden kann.
49.5.2 Interoperabilität, Standards
Die Integration eines CBT/WBT-Systems in ein LMS wird wesentlich vereinfacht, wenn das LMS über standardisierte Schnittstellen verfügt, welche die Interoperabilität zwischen verschiedenen Systemen und die Wiederverwendbarkeit von Lernobjekten unterstützen. Aus zahlreichen internationalen Standardisierungsansätzen wie z. B. des IEEE Learning Technology Standards Committee (mit den Ansätzen LTSA (Learning Technology Systems Architecture) und LOM (Learning Objects Metadata), des Aviation Industry CBT Committee (AICC), der Alliance of Remote Instructional Authoring and Distribution Networks of Europe (ARIADNE) und des Advanced Learning Infrastructure Consortiums (ALIC) hat sich der SCORM-Standard (Sharable Courseware Object Reference Model)12 der Advanced Distributed Learning Initiative (ADL) des DoD (Department of Defense) etabliert. SCORM ist ein Referenzmodell für Web-basierte, austauschbare Lerninhalte mit der Zielsetzung wiederverwendbarer, identifizierbarer, interoperabler und persistent gespeicherter Lernobjekte und Kurse. Diese Zielsetzung soll u. a. durch die Spezifikation von Metadaten erreicht werden, mit denen aus Lernobjekten bestehende Lerneinheiten ausgezeichnet werden, die dann als SCORM-Pakete abgespeichert werden und über die Metadaten wieder identifiziert werden können. Es sei erwähnt, dass Standards wie SCORM im Hinblick auf die potenzielle Gefahr der Bürokratie bisweilen auch kritisch betrachtet werden: Die Dokumentation zu SCORM umfasst mehr als 800 Seiten und ist entsprechend schwer zu überblicken.
11 12
http://www.evaluieren.de/infos/links/plattfor.htm http://www.rhassociates.com/scorm.htm
⊡ Abb. 49.6. Funktionalität von LMS (Schulmeister 2003, S. 11)
49
810
Kapitel 49 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
Im Kontext der Bestrebungen in Richtung Interoperabilität sind auch die Ansätze MedicML13 bzw. MedicCaseML zu erwähnen, in denen XML-basierte Formate zum Austausch medizinischer Dokumente und Kasuistiken spezifiziert sind.
49.6
V
Anwendungsszenarien von Lehr-/Lernsystemen
Lehr- und Lernsysteme können in vielfältiger Weise eingesetzt werden (⊡ Abb. 49.5). In den meisten Hochschulen steht eine Auswahl von Programmen in den Computerpools bzw. Medienzentren für das Selbststudium zur Verfügung. Web-basierte Systeme können von den Studierenden häufig darüber hinaus über das Internet am heimischen Computer genutzt werden.
Fort- und Weiterbildung. Lehr-und Lernsysteme werden schließlich im Bereich der ärztlichen Fort- und Weiterbildung eingesetzt, da hier eine längere Präsenzzeit in Schulungseinrichtungen häufig nicht gewünscht oder nicht machbar ist. Unterstützend wirkt in Deutschland die Einführung einer Fortbildungspflicht im Rahmen des Gesundheitsmodernisierungsgesetzes (GMG). Allerdings gibt es eine Vielzahl von Fortbildungsangeboten, die teilweise aufgrund der Unterstützung durch medizinische Fachverlage, medizinische Fachgesellschaften oder der Pharmaindustrie kostenlos verfügbar sind14. Dies steht wiederum der Verbreitung von Lehr-/Lernsystemen entgegen, sofern diese kostenpflichtig angeboten werden.
49.7
Status von E-Learning in der Medizin
49.7.1 Informationssysteme zu CBT/WBT
Blended Learning. In letzter Zeit hat sich der Trend zu Blended Learning-Konzepten verstärkt. Hier werden Lehr-/Lernsysteme verpflichtend in die Lehrveranstaltungen integriert. Unter Blended Learning versteht man nicht nur die Verknüpfung von Büchern, Handouts, Seminaren, Workshops, Einzelcoaching usw. mit Webbasierten Inhalten, sondern auch die Nutzung von virtuellen Klassenzimmern, um bspw. Seminare vor- und/ oder nachzubereiten. Eine Möglichkeit besteht darin, Programme zur systematischen Wissensvermittlung zu verwenden und in Präsenzphasen dann die gelernten Inhalte zu diskutieren und zu vertiefen. Häufig findet man auch den Ansatz, in Vorlesungen die theoretischen Grundlagen zu vermitteln und diese dann durch fallbasiertes Training zu ergänzen und den Studierenden die Möglichkeit zu geben, ohne Gefährdung realer Patienten das Gelernte anzuwenden. Computerbasierte Prüfungen. Ein weiteres Anwendungsszenario stellen computerbasierte Prüfungen dar. Dieses Szenario ist insbesondere im Hinblick auf die Belastung der Fakultäten durch die oben erwähnten 34 benoteten Leistungsnachweise von großem Interesse. Computerbasierte Prüfungen, z. B. mit dem Key-feature-Ansatz, können dazu beitragen, valide und reliable Prüfungen mit vertretbarem Ressourceneinsatz durchzuführen. Auf besonderes Interesse stoßen bei den Medizinern auch Überlegungen, neben summativen auch formative Prüfungen mit Hilfe von fallbasiertem Training durchführen zu können. Generell sei im Zusammenhang mit computerbasierten Prüfungen allerdings auch auf die technischen und rechtlichen Risiken hingewiesen, die z. B. browserbasierte und client/server-basierte Prüfungsplayer mit sich bringen. Nach Heid et al. (2004) vermeidet nur ein Prüfungssystem, welches Prüfungsergebnisse lokal sichern kann und nicht browserbasiert arbeitet, die genannten Risiken.
in der Medizin Das Angebot von CBT/WBT-Systemen in der Medizin ist sehr umfangreich, wie eine Recherche über spezielle Informationssysteme zeigt: ▬ KELDAmed15 an der Universität Mannheim weist u. a. über 1.200 Lernobjekte nach. ▬ Das Informationssystem der Gesellschaft für Medizinische Ausbildung (GMA)16 enthält auch eine Bewertung von Systemen, allerdings nur in der pauschalen Form wie »empfehlenswert«, »ausgezeichnet« etc., jeweils ohne detaillierte Begründung. Immerhin werden ca. 20% der Systeme als nicht bzw. bedingt empfehlenswert bewertet. ▬ Der Learning Resource Server Medizin der Universität Essen17 ermöglicht die Recherche nach derzeit ca. 1.100 kostenfreien, Web-basierten Lernobjekten. ▬ Das Informationssystem CAL reviews18 der University of Cambridge, UK, beinhaltet auch eine Rating- bzw. Review-Komponente. Ein Problem derartiger Informationssysteme stellt die Aktualität der zugrunde liegenden Datenbank dar. Schwierigkeiten kann auch die objektive Bewertung der angebotenen Systeme machen. Um die Bewertung von Systemen zu erleichtern, hat die Arbeitsgruppe »Computerunterstützte Lehrund Lernsysteme in der Medizin« der »Gesellschaft für
13
http://www.medicml.de/ http://www.cme-test.de/ 15 http://www.ma.uni-heidelberg.de/apps/bibl/KELDAmed/ 16 http://www.med.uni-giessen.de/agma/ 17 http://mmedia.medizin.uni-essen.de/portal/ 18 http://axis.cbcu.cam.ac.uk/calreviews/default.asp 14
811 49.7 · Status von E-Learning in der Medizin
Medizinische Informatik, Biometrie und Epidemiologie« (GMDS)19 sog. »Qualitätskriterien für Elektronische Publikationen in der Medizin« (Schulz et al. 1999) publiziert. Diese sind mittlerweile in mehrere Sprachen übersetzt worden. Die bereits seit 15 Jahren existierende Arbeitsgruppe hat sich zum Ziel gesetzt, Entwicklungsvorhaben im medizinischen Bereich überregional zu koordinieren und die Qualität von CBT/WBT-Systemen zu verbessern.
19
http://www.gmds.de
49.7.2 Projekte im Rahmen der Förderinitiative
»Neue Medien in der Bildung« Der Status von E-Learning in der Medizin in Deutschland wird wesentlich geprägt durch 16 Projekte, die von 2000 bis 2004 im Rahmen der Initiative »Neue Medien in der Bildung« vom Bundesministerium für Bildung und Forschung (BMBF) mit einem Volumen von ca. 35 Mio. Euro gefördert wurden (⊡ Abb. 49.7) (DLR-Projektträger 2004). Das Spektrum dieser Projekte umfasst Systeme für die systematische Ausbildung, für fallbasiertes Training,
⊡ Abb. 49.7. Projekte im Rahmen der Initiative »Neue Medien in der Bildung« des BMBF; in Klammern Angabe der jeweils projektführenden Hochschule
49
812
V
Kapitel 49 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
für problemorientiertes Lernen sowie Hybridsysteme, die fallbasierte und systematische Ansätze kombinieren. Außerdem wurde ein Portal (CASEPORT)20 für fallbasiertes Training in der Medizin entwickelt. Dieses Portal beinhaltet eine ca. 450 Kasuistiken umfassende Fallsammlung, an deren Entwicklung 15 Universitäten beteiligt waren, wobei eine übergreifende Qualitätskontrolle und Evaluation der Inhalte erfolgte. Die Portalfunktionen umfassen neben der Benutzer- und Kursverwaltung die Fallsuche, die Online-Evaluation von Kursen und Funktionen für kooperatives Lernen. Zur Realisierung der Portalfunktionalität wurde die open-source Lernumgebung ILIAS verwendet. Ein zentrales Problem bei den genannten Projekten stellt deren Nachhaltigkeit nach Auslaufen der Förderung dar, zumal eine neue Förderinitiative zur »Entwicklung und Erprobung von Maßnahmen der Strukturentwicklung zur Etablierung von e-Learning in der Hochschullehre« den Bereich Medizin nur in geringem Umfang berücksichtigt.
49.7.3 Nutzung von CBT/WBT-Systemen
in der Medizin Verfügbare CBT/WBT-Systeme werden nach Erfahrungen an verschiedenen Hochschulen nur von ca. 5% der Medizinstudierenden tatsächlich genutzt. Die Frage ist in diesem Zusammenhang, wieweit die Ergebnisse einer Studie von P. Frey in Bern aus dem Jahr 2000 (Frey 2000) heute noch gelten: Über 75% der Befragten ziehen es danach vor, ohne Computer zu lernen; 90% der Studierenden lernen vorwiegend mit Printmedien. Eine Studie der LMU München zeigt, dass fast alle Studierenden die angebotenen CASUS-Lernfälle vollständig bearbeitet haben, soweit die Bearbeitung mit der Vergabe von Credit Points honoriert wurde und für die Studierenden somit prüfungsrelevant war. Wurden keine Credit Points vergeben, nutzten nur etwa 10% der Studierenden die Lernfälle. Für den Erfolg von CBT/WBT-Systemen ist also die curriculare Integration von großer Bedeutung. Diese und die Akzeptanzerhöhung sowohl bei den Studierenden als auch bei den Lehrenden wird auch in Zukunft eine zentrale Aufgabe darstellen (Riedel 2003). Ein Grund für die mangelnde Akzeptanz der Systeme liegt häufig darin begründet, dass die mit der Entwicklung und Anwendung von CBT/WBT-Systemen verbundenen Risiken nicht hinreichend berücksichtigt werden. Neben den technischen Risiken bei einer Systementwicklung (Frage: »Are we building the product right?«) ist insbesondere das Applikationsrisiko (Frage: »Are we building the right product?«) zu beachten. Das Applikationsrisiko besteht darin, dass u. U. Systeme entwickelt werden, für die seitens der Anwender kein echter Bedarf besteht.
49.8
Problem der curricularen Integration
Ein zentraler Aspekt bzgl. Nachhaltigkeit ist, wie schon erwähnt, das Problem der fehlenden bzw. unbefriedigenden curricularen Integration (⊡ Abb. 49.8). CBT/WBT-Systeme sind oft nicht verbindlich, sondern freiwillige »Add-ons« zu konventionellen Lehrveranstaltungen. Auch heute noch ist gelegentlich eine Negativeinstellung gegenüber Computern sowohl bei Studierenden als auch bei Dozenten festzustellen. Fehlende Souveränität der Dozenten im Umgang mit den Systemen und fehlende Identifikation mit den Systemen verhindern aber eine Motivation der Studierenden und die Akzeptanz der Systeme auf studentischer Seite. Zu berücksichtigen ist dabei, dass die Arbeitsbelastung der Kliniker außerordentlich hoch ist. Eine zentrale Frage lautet deshalb: Wie kann man das Engagement von Ärzten für innovative Lehre fördern bzw. honorieren? In diesem Zusammenhang sind etablierte Dozentenschulungen zu nennen, wie sie z. B. seit Jahren an der Universität Heidelberg durchgeführt werden. Auch die Weiterbildung zum »Master of Medical Education«21 gewinnt zunehmend an Bedeutung. Nach derartigen Qualifikationsmaßnahmen verfügen Dozenten dann auch über die erforderlichen methodischen Voraussetzungen für die Integration von CBT/WBT-Systemen in das Curriculum. Curriculare Integration gelingt nur, wenn die Systeme für die Studierenden einen Lernanreiz besitzen, z. B. indem die Vorbereitung auf die Prüfungen im Rahmen der fakultätsinternen Leistungsnachweise mit Hilfe der CBT/WBT-Systeme erfolgen kann (Ruderich 2003). Voraussetzung ist schließlich eine entsprechende Infrastruktur (PC-Pools, Assistenz, etc.), die mangels fehlender Nachhaltigkeit bisweilen durchaus problematisch ist.
20 21
http://www.caseport.de http://www.iawf.unibe.ch/mme/default.htm
⊡ Abb. 49.8. Abhängigkeiten beim Einsatz von E-Learning
813 Literatur
Eine Möglichkeit, die Nachhaltigkeit zu verbessern, besteht darin, die positiven Erfahrungen aus den bisherigen überregionalen Kooperationen fortzusetzen. Dazu zählt auch die Einrichtung von Kompetenzzentren wie z. B. dem »Kompetenzzentrum für Prüfungen in der Medizin« in Heidelberg, das über den Bereich BadenWürttembergs hinaus wirkt. Wichtig ist auch, dass Fördermaßnahmen auf Landesebene mit solchen auf Bundesebene besser koordiniert werden. Nur wenn die Probleme der curricularen Integration gelöst sind, ist die Vision der Flexibilisierung und der Verkürzung des Studiums, der Kostenreduktion und der Verbesserung der Qualität durch den Einsatz von CBT/ WBT in der Medizinerausbildung realistisch.
Literatur Bloh E (2005) Referenzmodelle und Szenarien technologie-basierten distributierten Lehrens und Lernens (TBDL). In: Lehmann B, Bloh E (Hrsg) Online-Pädagogik, Bd 3. Schneider Verlag, Hohengehren, 7–76 Bodendorf F (1990) Computer in der fachlichen und universitären Ausbildung. Oldenbourg, München Wien DLR-Projektträger (2004) Kursbuch eLearning 2004. Bundesministerium für Bildung und Forschung Frey P, Hofer D The use of print and non-print learning resources among medical students: a survey. www.aum.iawf.unibe.ch/did/ for/AMEE1.pdf Haag M, Maylein L, Leven FJ et al. (1999) Web-based training: a new paradigm in computer-assisted instruction in medicine. Int J Med Inf 1999; 53: 79–90 Heid J, Bauch M, Haag M et al. (2004) Computerunterstützte Prüfungen in der medizinischen Ausbildung. In: Pöppl J, Bernauer M, Fischer M et al. (Hrsg) Rechnergestützte Lehr- und Lernsysteme in der Medizin. Shaker-Verlag, Aachen, 213–18 Hirsch MC, Braun HA, Rieder R, Koch C (1995) SimNerv. CD-ROM mit Begleitheft. Thieme, Stuttgart, ASIN: 3137996015 Moehr J (1990) Computerunterstützter Unterricht in Kanada und den USA. In: Baur MP, Michaelis J (Hrsg) (1990): Computer in der Ärzteausbildung. Oldenbourg, München Wien, S 31–50 Oppermann R, Novak DC (2005) Medizinische Lehr- und Lernsysteme. In: Lehmann TM (Hrsg) Handbuch der Medizinischen Informatik, 2. Aufl. Hanser Verlag, München, 733–771 Riedel J (2003) Integration studentenzentrierter fallbasierter Lehr- und Lernsysteme in reformierten Medizinstudiengängen. Dissertation, Universität Heidelberg, 2003. (s. auch: www.medicase.de/ > Publikationen) Ruderich F (2003) Computerunterstützte Prüfungen in der medizinischen Ausbildung nach der neuen Approbationsordnung. Diplomarbeit im Studiengang Medizinische Informatik Universität Heidelberg/Fachhochschule Heilbronn (s. auch: www.medicase. de/ > Publikationen) Schaller K, Wodraschke G (Hrsg) (1969) Information und Kommunikation. Ein Repetitorium zur Unterrichtslehre und Lerntheorie. Leibnitz-Verlag, Hamburg Schulmeister R (2003) Lernplattformen für das virtuelle Lernen. R. Oldenbourg Verlag, München Schulz S, et al. Qualitätskriterien für Elektronische Publikationen in der Medizin. Informatik, Biometrie und Epidemiologie in Medizin und Biologie 31(4): 153–66. (s. auch: www.imbi.uni-freiburg. de/medinf/gmdsqc/)
49
50 PACS/RIS K. Eichhorn, D. Sunderbrink
50.1 Einleitung
– 815
50.2 Radiologischer Workflow 50.2.1 50.2.2 50.2.3 50.2.4 50.2.5 50.2.6 50.2.7
50.4 IT-Infrastruktur – 816
Anforderung – 816 Anmeldung – 816 Untersuchung – 816 Bildbearbeitung – 817 Befundung – 817 Klinische Demonstration – 819 Befundverteilung – 819
– 820
50.5 Erfolgreiche Projektdurchführung durch professionelles Projektmanagement – 821 50.6 Zusammenfassung
– 822
50.3 Integration eines PACS/RIS in eine Krankenhausumgebung – 819
50.1
Einleitung
Die Digitalisierung der bildgebenden Verfahren in der Radiologie ist durchgängig für alle radiologischen Diagnoseverfahren erfolgt und die Befundung am Monitor akzeptiert. Durch die gleichzeitige Etablierung einheitlicher und robuster Kommunikationsstandards wie DICOM (Digital Imaging and Communication in Medicine) sind die Voraussetzungen für die Einführung von PACS/RISSystemen auf breiter Basis erfüllt. Es stellt sich längst nicht mehr die Frage, ob ein PACS/RIS eingeführt werden soll, sondern auf welche Art und Weise. Konzipiert wurde PACS vor mehr als 20 Jahren als Picture Archiving and Communication System und ermöglichte die Bildkommunikation zwischen einzelnen Komponenten wie Archivsystem, Befundungsworkstation, Nachverarbeitungsworkstation und den Arbeitsplätzen der Bildverteilung. Eine typische PACS/RIS-Konfiguration zeigt ⊡ Abb. 50.1. Heute integrieren die meisten PACS-Lösungen das Radiologische Informationssystem (RIS) als Workflowkomponente in ihr PACS-System oder ermöglichen eine effiziente Integration des RIS durch Kommunikationsserver. Zukünftig ist durch die rasante Entwicklung der Datenmengen bildgebender Systeme eine Integration von 3D-Nachverarbeitungsprogrammen bis hin zur Computer Aided Diagnosis (CAD) in den radiologischen Arbeitsplatz für eine optimale und effiziente Befundung erforderlich. Die nächste technische Herausforderung ist die optimale Unterstützung des klinischen Workflows über die Grenzen der Radiologie hinaus. Um diesen Anspruch zu
erfüllen, muss eine Integration des PACS in andere medizinische Informationssysteme erfolgen. Hierzu gibt es Kommunikationsstandards wie HL-7 (health level seven), der die Übertragung der Patienteninformationen zwischen Informationssystemen vereinheitlicht. Die Etablierung von Kommunikationsstandards ist für eine Optimierung des klinischen Workflows noch nicht ausreichend. Die Radiological Society of North America ( RSNA) hat die Initiative IHE (Integrating the Health Enterprise) ins Leben gerufen, die das Ziel hat, Profile (standardisierte Workflow-Szenarien) zu definieren und in der Kombination mit Komponenten unterschiedlicher Hersteller zu validieren. PACS hat längst die Grenzen der Radiologie überschritten und wächst zu einer Anwendung für das gesamte Krankenhaus. Andere klinische Abteilungen wie Kardiologie und Pathologie, wollen die Vorteile eines digitalen Bilddatenmanagements nutzen und ihre Bilddaten im PACS Archiv speichern und ähnliche Workflows realisieren. Zur Optimierung des Heilungsprozesses des Patienten besteht ein großes Potential durch die Routineanwendung computerunterstützter Verfahren für die Therapieplanung z. B. der Onkologie oder der computerunterstützten Chirurgie (CAS, Computer Aided Surgery), die digitale Bilddaten aus dem PACS als Planungsgrundlage benötigen. Innovationen der bildgebenden Verfahren und die explosionsartige Entwicklung der Bilddaten erfordern die geeignete Unterstützung der radiologischen Diagnostik durch Informationstechnologie-Systeme wie PACS und RIS. Vor diesem Hintergrund soll dem Leser bezogen auf die einzelnen Workflowschritte eine Orientierung für die film- und papierlose Radiologie gegeben werden.
816
Kapitel 50 · PACS/RIS
V
⊡ Abb. 50.1. Typische PACS/RIS-Konfiguration
50.2
Radiologischer Workflow
Ziel der Einführung von IT-Systemen ist die Optimierung des Arbeitsablaufes. Das kann nur durch das perfekte Zusammenspiel der einzelnen Komponenten erreicht werden. Anhand eines typischen Arbeitsablaufes (⊡ Abb. 50.2) sollen die Funktionsweisen der einzelnen Arbeitsplätze erklärt werden.
50.2.1 Anforderung
Der überweisende Arzt entscheidet, ob für die weitere Behandlung eine radiologische Untersuchung durchgeführt werden soll und fordert diese in der Radiologie an. Damit der Radiologe diese Anforderung bedienen kann, benötigt er Informationen über die klinische Fragestellung sowie weitere Informationen über z. B. Kontrastmittelallergien, Laborwerte, etc. Idealerweise übernimmt der behandelnde Arzt die Patienten-Stammdaten aus einem Krankenhaus-Informationssystem, ergänzt die Daten mit seiner Fragestellung und sendet diese Anforderung elektronisch an die Radiologie. Abhängig von den Zugriffsrechten des RIS kann direkt vom Arbeitsplatz des überweisenden Arztes eine Terminvereinbarung getroffen werden, wenn das RIS diesen direkten Zugriff auf den Terminplaner erlaubt. Nachdem im RIS die Patientendaten übernommen und der Termin in eine Arbeitsliste eingetragen wurde, erhält der überweisende Arzt eine Bestätigung.
Je nach Integrationstiefe kann der Arzt den aktuellen Status des Patienten in der Radiologie an seinem Arbeitsplatz verfolgen. Er kann erkennen, ob der Patient in der Radiologie angekommen ist, die Untersuchung begonnen hat oder Bild und/oder Befund schon verfügbar sind.
50.2.2 Anmeldung
In der Radiologie wird die Anforderung vom überweisenden Arzt in das eigentliche RIS übernommen. Die Anforderungen werden den einzelnen Untersuchungsplätzen zugeordnet und die Untersuchung in den Terminplan des bildgebenden Systems eingetragen. Hierzu erzeugt das RIS eine DICOM-Worklist, die von der Modalität beim RIS abgerufen wird. RIS-Systeme können so konfiguriert werden, dass automatisch vorhandene Voraufnahmen dieses Patienten aus dem Langzeitarchiv dearchiviert werden, sodass sie für die Befundung im schnellen Zugriffsspeicher verfügbar sind.
50.2.3 Untersuchung
An der Modalität wird die DICOM-Worklist vom RIS abgerufen und in die lokale Arbeitsliste des bildgebenden Systems übertragen. Hier wird der Patient ausgewählt und die Untersuchung gestartet. Durch die elektronische Übertragung ist die Konsistenz der Patientendaten gewährleistet.
817 50.2 · Radiologischer Workflow
Anforderung
Anmeldung Anmeldung Terminplanung Terminplanung
Untersuchung Untersuchung
Bearbeitung
Befundung Befundung
Demonstration
BefundBefundverteilung verteilung
⊡ Abb. 50.2. Generischer Workflow in der Radiologie
Die Informationen der Untersuchung wie Art, Startzeit, Dauer und weitere Informationen werden von der Modalität registriert und im DICOM-Format MPPS (Modality Performed Precedure Step) an das RIS zurückgesendet. Die MPPS-Informationen werden an das PACS übertragen, und die Modalität sendet die aufgenommenen Bildserien zur Archivierung an das PACS. Das Senden der Bilder zum PACS erfolgt vorwiegend im standardisierten DICOM-Format, das für den Datenaustausch von Modalitäten und radiologischen Informationssystemen konzipiert wurde. DICOM enthält Patienteninformationen und beschreibt in der aktuellen Version 3.0. nicht nur die Bildformate, sondern auch Übertragungsprotokolle und regelt Sicherheitsbelange. Folgende Services werden unterstützt: ▬ Archivierung und Übertragung von Bildern über Netzwerke (DICOM Standard Teil 7 und 8), ▬ Archivierung und Austausch von Bildern über Wechseldatenträger (DICOM Standard Teil 10), ▬ Suchfunktionen (DICOM Query), ▬ Druckfunktionen (DICOM Print), ▬ Workflowfunktionen (DICOM Modality Worklist, Modality performed procedure step), ▬ Komprimierung von Bilddaten (DICOM Standard Teil 5, z. B. JPEG, JPEG2000, RLE). Für die meisten medizinischen Geräte existieren DICOM Conformance Statements. Diese Dokumente beschreiben die unterstützten DICOM-Services. Theoretisch könnte man damit feststellen, ob die Geräte miteinander kommunizieren können, in der Praxis sind meist Anpassungen notwendig. Am Ende der Untersuchung gibt die MTRA am RISArbeitsplatz zusätzlich ein, welche radiologischen Leistungen durchgeführt wurden, die RöV-Werte und ggf. welche Kontrastmittel und Katheder verbraucht wurden. Diese Informationen sind insbesondere für die medizinische Dokumentation und die Abrechnung relevant.
50.2.4 Bildbearbeitung
Die von den Modalitäten gesendeten Datensätze können zur optimalen Darstellung an einer Workstation nachbearbeitet werden.
⊡ Tab. 50.1. Methoden der Bildbearbeitung Methode
Bildeindruck
Modifikation der Grauwerte
Bildkontrast Bildhelligkeit
Geometrische Transformation
Verschiebung (Translation) Bilddrehung (Rotation) Bildvergrößerung (Skalierung)
Faltung und Filterung
Kantenanhebung Glättung (Smoothing)
Um den Bildeindruck zu optimieren, werden verschiedene Methoden und Algorithmen auf die Bildpunkte angewendet (⊡ Tab. 50.1). Die oben beschriebenen Methoden werden vorwiegend für 2D-schwarz-weiß-Bilder angewendet. Für große Datensätze von MR- und CT-Systemen ist eine 3D-Bildbearbeitung notwendig und es werden ggf. zusätzliche 3D-Objekte generiert.
50.2.5 Befundung
Am Arbeitsplatz des Radiologen werden im RIS- oder PACS-System Arbeitslisten für bestimmte Aufgaben erstellt. Aus der Befundungsarbeitsliste wählt der Radiologe den Patienten aus. Dadurch werden aus dem PACS automatisch die aktuellen Bildserien und ggf. Voraufnahmen vom zentralen Archivserver auf den Arbeitsplatzrechner geladen und auf den Befundungsmonitoren frei konfigurierbar dargestellt.
Bilddarstellung Röntgen und Schichtaufnahmen Zur optimalen Darstellung von insbesondere schwarzweißen 2D-Schichtaufnahmen auf den Befundungsmonitoren wird die Fenstertechnik angewendet. Der Informationsgehalt von 4096 Graustufen wird auf die am Monitor darstellbaren Graustufen, z. B. 256 Graustufen, reduziert. Die Fenstertechnik definiert das abzubildende Signalintervall des Originalbildes und ermöglicht dadurch die zur Diagnose bestmögliche Bildqualität für die radiologische Fragestellung.
50
818
Kapitel 50 · PACS/RIS
Bilddarstellung von großen Serien
V
Die ersten PACS-Arbeitsplätze waren primär für die Arbeit mit konventionellen Röntgenbildern entwickelt worden. Die Weiterentwicklung der Bildverarbeitungssoftware, der Einsatz von Standard-HW mit hoher Performance und von verschiedenen Monitortypen (S/W, Farbe, hohe und mittlere Auflösung) erlauben nun sehr flexible Arbeitsplätze mit spezifischen Features für andere Modalitäten wie CT, MR, Ultraschall, Nuklearmedizin. Durch den enormen Zuwachs an Bildern, besonders im Schnittbildbereich, mussten neue Bildbetrachtungstools und Layouts entwickelt werden. Das Blättern durch Schichten und der »Cine Mode« reichten nicht mehr aus. Schichten können heute durch verschiedene Operationen mit ihren nachfolgenden Schichten kombiniert werden (»slice thickening«) und interaktive MPR-Tools (multiplanar reformat) erlauben die direkte Darstellung anderer Schichtebenen aus einem 3D-Datensatz. Für sehr große Datensätze z. B von Mehrzeilen CTSystemen ist die Befundung allein anhand von Schichten zeitlich nicht mehr möglich. Aus dieser Problemantik heraus hat die Society for Computer Applications in Radiology (SCAR) eine Initiative in Leben gerufen, die neue Methoden zur Befundung von großen Datensätzen erarbeiten soll. Die Initiative wird TRIP (Transforming the Radiological Interpretation Process) genannt und bearbeitet folgende Fragestellungen: 1. Verbesserung der Effizienz der Interpretation von großen Datensätzen, 2. Verbesserung der Kommunikation hinsichtlich Zeit und Effizienz, 3. Reduzierung von medizinischen Fehlern. Die computergestützte Interpretation großer Datensätze und die Art, wie den Radiologen in Zukunft diese Informationen am Bildschirm dargestellt werden, revolutioniert die Radiologie ähnlich wie 1895 der Blick Röntgens in den Körper des Menschen. Werden aus 2D-Bildstapel Volumen- oder 3D-Datensätze berechnet, so werden Zugriffe auf den dreidimensionalen Inhalt der Datensätze möglich. Techniken wie MIP (maximum intensity projection), Oberflächen- und Volumen-Rekonstruktionen stehen dann zur Verfügung. Neben der besseren optischen Orientierung stehen die Bezugslinien zu den Originalschichten zur Verfügung und erleichtern dadurch die Diagnose. An jedem radiologischen Arbeitsplatz muss daher die Nachverarbeitung von großen Bildserien mit 3D-Nachverarbeitungsmethoden zur optimalen Bilddarstellung möglich sein (⊡ Tab. 50.2).
Bildauswertung Um aus den Bilddaten objektive und reproduzierbare Messungen zur quantitativen Analyse von Gewebestruk-
⊡ Tab. 50.2. 3D-Nachbearbeitungsmethoden Methode
Anwendungen
MIP (Maximum Intensity Projection)
Gefäßdarstellung
MPR (Multiplanare Rekonstruktion)
Darstellung beliebiger Schichtebenen aus einem Volumendatensatz
VTR (Volume Rendering Technique)
Darstellung von Oberflächenstrukturen aus 3D-Datensätzen
turen durchzuführen, müssen Funktionen zur Distanz-, Winkel- und Volumenmessung implementiert sein. Für die Interpretation von großen Volumendatensätzen ist zukünftig die automatische Interpretation von Bildern denkbar. Erste kommerzielle CAD (Computer Aided Diagnosis)-Programme für spezielle Screeningverfahren wie die Mammographie und Lungendiagnostik sind schon verfügbar. Gerade diese Verfahren machen deutlich, dass das Potenzial von PACS weit über die Bildkommunikation und die Darstellung von DICOM-Bildern hinausgeht. Hier wird sich zukünftig die Spreu vom Weizen der Anbieter trennen, denn die Erforschung dieser Verfahren erfordert neben IT-Kenntnissen auch detaillierte Kenntnisse der Aufnahmeverfahren und der medizinischen Interpretation der gewonnenen Informationen.
Medizinische Monitoren Die auf dem Monitor dargestellten Bilder sind die Basis für die radiologische Befundung und die Informationsquelle für alle nachfolgenden therapeutischen Maßnahmen. Der medizinische Monitor ist daher die wohl wichtigste Schnittstelle zwischen der digitalen Information und dem befundenden Arzt. Es wurden daher in einer Konsensus-Konferenz (Halle 2001) Mindestanforderungen für medizinische Monitoren festgelegt, die dann in der DIN 6868 Teil 57 sowie in der Richtlinie zur Qualitätssicherung näher spezifiziert wurden. Die Röntgenverordnung § 16 schreibt dem Betreiber Abnahmeprüfungen bei Inbetriebnahme sowie regelmäßige Konstanzprüfungen in definierten Abständen vor. Die Empfehlungen für medizinische Monitoren für unterschiedliche Anwendungsfälle sind ausschnittsweise in ⊡ Tab. 50.3 dargestellt:
Befunderstellung Nachdem der Radiologe die Bildserien in geeigneter Form bearbeitet und gesichtet hat, kann aus dem Arbeitsplatz gesteuert direkt ein Befund erstellt werden. Es gibt verschiedene Methoden, den Befund in das RIS als Textbefund zur übertragen:
819 50.3 · Integration eines PACS/RIS in eine Krankenhausumgebung
⊡ Tab. 50.3. Anforderungen an Monitoren Anwendung
Kontrast
Matrix
Leuchtdichte (cd/m2)
Diagonale (Zoll)
Digitales Röntgen Thorax Mammographie Feinstrukturen
1:100
2000×2000
200
21
Digitales Röntgen Wirbelsäule Becken Abdomen Harntrakt
1:100
1000×1000
200
19
Computertomographie Kernspintomographie
1:40
1000×1000
120
15
▬ Der Radiologe gibt den Befund als Freitext in das Programm ein. ▬ Der Radiologe verwendet Textbausteine für die effiziente Erstellung von Normalbefunden und ergänzt den Befund durch einen frei eingetragenen Text. ▬ Der Radiologe nimmt seinen Befund als Text auf, der später vom Sekretariat oder durch ein Spracherkennungssystem in einen Text umgesetzt wird. Ist der Befund geschrieben, muss er kontrolliert und durch den befundenden Arzt direkt oder den Oberarzt/ Chefarzt freigegeben werden. Erst dann ist der Befund als Dokument zu archivieren und zu verteilen.
50.2.6 Klinische Demonstration
Während der Befundung kann der Radiologe signifikante Bilder markieren, Befunde durch Pfeile, Kreise etc. kennzeichnen und die Fälle den unterschiedlichen klinischen Falldemonstrationen zuordnen. Gemäß dieser Demonstrations-Worklist werden die Untersuchungen ganz, oder nur die signifikanten Bilder, auf einer Workstation geöffnet und in den meisten Fällen durch lichtstarke Projektoren auf einer Leinwand dargestellt. Während der klinischen Demonstration kann auf Vorbefunde und Voraufnahmen im Archiv schnell zugegriffen werden. Die elektronische Vorbereitung der klinischen Falldemonstrationen ist effizient, spart Zeit, und die Ergebnisse können besser dargestellt (3D-Nachverarbeitungen) und präsentiert (Kinodarstellungen) werden.
50.2.7 Befundverteilung
Als letzter Prozessschritt des radiologischen Workflows ist die schnelle Verteilung der Ergebnisse an den überweisenden Arzt ein wesentlicher Bestandteil, der die Ge-
samteffizienz eines klinischen Workflows entscheidend beeinflusst. Der überweisende Arzt muss zeitnah Zugriff auf die Resultate erhalten. Um das zu erreichen, sollte über ein Portal die Bildinformation und der Befund aus dem klinischen Arbeitsplatz aufrufbar sein. Technologisch wird dem überweisenden Arzt ein webbasierter Zugriff auf die Datenbasis der Radiologie für den Patienten bzw. für den Untersuchungsfall ermöglicht. Mit einem Browser kann der überweisende Arzt die radiologischen Bilder aufrufen und den korrespondierenden Befund einsehen. Ob der Arzt alle Bilder ansieht oder nur die signifikanten, kann ebenso eingestellt werden wie die Qualität der Bilder. Um die Netzwerkbelastung zu verringern sowie die Zugriffszeiten zu minimieren, werden häufig komprimierte Bilder dargestellt. Wichtig ist, dass der Arzt aus dem Kontext seines klinischen Arbeitsplatzes die richtigen Bilder aufrufen kann. Dazu ist eine Integration der Radiologie in das übergeordnete IT-System des Krankenhauses eine zwingende Forderung. Um die Informationen an dem Arbeitsplatz darzustellen, an dem sie zu einem definierten Behandlungsschritt benötigt werden, sind z. B. im OP besondere PCSysteme und Eingabegeräte (sterilisierbar, OP-tauglich) notwendig. Nur durch eine gute Integration des radiologischen Workflows in den Gesamtworkflow der Klinik sind Einsparungspotenziale erzielbar.
50.3
Integration eines PACS/RIS in eine Krankenhausumgebung
Die Einführung eines PACS ist keine Routineaufgabe und nicht allein auf die radiologische Abteilung beschränkt. Die Herausforderungen liegen in der Integration in die IT-Infrastruktur und in die Arbeitsabläufe der gesamten Klinik. Dies ist der Schlüssel zum Erfolg.
50
820
Kapitel 50 · PACS/RIS
Horizontale Integration. Alle Bilder und bildbezogene Informationen werden in einem integrierten Informationssystem zusammengebracht. Dadurch können bisher getrennte Archive für Radiologie, Kardiologie, Ultraschall, Pathologie etc. vereint werden. Der DICOM Standard wird hier ständig um neue Bildformate erweitert sowie um neue Objekte wie »Structured Reporting« ergänzt.
V
Vertikale Integration. Datenaustausch und WorkflowIntegration mit verschiedenen Informationssystemen (KIS, RIS, PACS). Hier spielen die IHE-Profile die entscheidende Rolle. Die Desktopintegration erlaubt die Nutzung dieser Informationssysteme aus einer Anwendungsumgebung heraus, ohne dass der Arbeitsplatz gewechselt oder ein anderes Softwaresystem aufgerufen werden muss. Portabilität von Applikationen. Klinische Applikationen (z. B. 3D-Rekonstruktionen) sind nicht an einen bestimmten Arbeitsplatz gebunden. Sie können an allen Arbeitsplätzen genutzt werden, an denen sie gebraucht werden. Roaming Desktop. Funktionalität, die einer bestimmten Rolle zugeordnet wurde und nicht mehr von einem bestimmten Arbeitsplatz abhängt. Sie ist über die Zugriffsrechte dieser Rolle definiert und kann an allen Arbeitsplätzen ausgeführt werden. Sicherheit und Datenschutz. Maßnahmen, um unerlaubten Zugriff auf medizinische Informationen zu verhindern. Sicherstellung der Datenintegrität. Elektronische Patientenakte. Die Nutzung von allen relevanten patientenbezogenen Informationen an einer Stelle, i. A. am Arbeitsplatz des behandelnden Arztes. Das PACS stellt hierzu die radiologischen Bilder meist durch eine web-basierende Integration zur Verfügung. Ebenso wird der Bild-Viewer zur Verfügung gestellt, der an die Anforderungen außerhalb der Radiologie angepasst ist.
50.4
IT-Infrastruktur
Bei der Konzeption der IT-Infrastruktur für eine PACSLösung wird besonderen Wert auf folgende Punkte gelegt: ▬ hohes Leistungsvermögen schon in der ersten Ausbaustufe, ▬ Berücksichtigung von Anforderungen für den weiteren Ausbau der IT-Infrastruktur in allen Ausbaustufen, ▬ hohe Skalierbarkeit der Gesamtlösung über die derzeit bekannten Anforderungen hinaus,
▬ einfache Migration von Systemkomponenten auf Nachfolgesysteme ohne wesentliche Ausfallzeiten (Austausch von Hardware im laufenden Betrieb), ▬ intuitives Management der IT-Infrastruktur. Die Gesamtlösung soll geeignet sein, auf abteilungsübergreifende Lösungen, z. B. zentrale Archivierungslösungen, bzw. auf klinikübergreifende Lösungen (KlinikumsVerbünde) erweitert zu werden. Alle Komponenten der IT-Infrastruktur (Server, SANKomponenten, Storage) sollen so abgestimmt sein, dass der Hersteller-Support durchgehend gesichert ist.
Server Die PACS-Server sind das zentrale Bindeglied der gesamten Lösung. Sie bestimmen wesentlich die Systemleistung und die Systemverfügbarkeit. Bei der Bildverarbeitung hängt die Systemleistung vom Gesamtdatendurchsatz ab und weniger von der Taktfrequenz des Prozessors. Die Server sind in sich hochredundant ausgelegt (Lüfter, Netzteile, optional Speicher). Um Hochverfügbarkeitslösungen zu realisieren, können sie in ein Cluster geschaltet werden. Mit einem solchen Cluster wird durch Redundanz eine fehlertolerante Verfügbarkeit von Anwendungssoftware und Daten erreicht. Dazu werden mehrere Server in einer Gruppe (Cluster) zusammengefasst. Diese Server greifen auf dieselben Daten zu, sie überwachen sich gegenseitig und übernehmen die Aufgaben des Partners bei dessen Ausfall. ⊡ Abb. 50.3 zeigt ein einfaches HA-Cluster, bestehend aus zwei vernetzten Servern und einem RAIDSystem zum Speichern der Daten. Um die Verfügbarkeit weiter zu erhöhen können solche Cluster auch über mehr als einen Raum installiert werden. Dadurch ist der Betrieb auch sichergestellt, wenn ein Raum komplett ausfällt.
Kurzzeitspeicher Der Kurzzeitspeicher ist so ausgelegt, dass üblicherweise die Untersuchungen der letzten 6–12 Monate gespeichert werden. Alle Bilder sind im direkten und schnellen Zugriff. Deshalb werden hier ausfallsichere Festplattensysteme (RAID Technologie, SCSI oder Fibre Channel) eingesetzt, um hohe Verfügbarkeit und Performance sicherzustellen.
Langzeitspeicher und Backup Der Langzeitspeicher beinhaltet das eigentliche PACS-Archiv. Die Daten müssen bis zu 30 Jahren archiviert und in angemessener Zeit wieder dearchiviert werden. Um dies sicherzustellen, ist ein sicheres Backup der Daten nötig, um im Verlustfall die Originaldaten wieder herstellen zu können.
821 50.5 · Erfolgreiche Projektdurchführung durch professionelles Projektmanagement
⊡ Abb. 50.3. PACS-Lösung Windows Cluster-System bis ca. 150.000 Untersuchungen pro Jahr
Bei einer Hardwarelebensdauer von ca. 5 Jahren ist auch ein entsprechender Hardwareaustausch und Einsatz von neuen Technologien mit Datenmigration einzuplanen. Magnetband-Technologie
▬ ▬ ▬ ▬ ▬ ▬
Sehr langsamer Zugriff auf die Informationen Begrenzte Kapazität Revisionssicherheit über Software Geringe Datensicherheit, Backup unbedingt notwendig Hohe Betriebskosten (Wartung, Bandkopien, Robotik) Extrem hoher Migrationsaufwand auf Nachfolgesysteme
Magneto-optische Technologie
▬ ▬ ▬ ▬ ▬ ▬
Sehr langsamer Zugriff auf die Informationen Sehr begrenzte Kapazität (Auslagern von Daten) Revisionssicherheit der Medien (WORM) Geringe Datensicherheit, Backup unbedingt notwendig Hohe Betriebskosten (Medien, Robotik) Extrem hoher Migrationsaufwand auf Nachfolgesysteme
Festplatten-Technologie
▬ ▬ ▬ ▬
Schneller Zugriff auf den gesamten Datenbestand Verkleinern des (teuren) Kurzzeitspeichers möglich Einfache Erweiterung Sehr hohe Datensicherheit, Backup nur für Desaster Recovery notwendig ▬ Geringer Migrationsaufwand ▬ Revisionssicherheit über Software
Storage Management Systeme (HSM) als zentrale Langzeitspeicher-Lösungen können die Speichertechnologien hinsichtlich einer für den Kunden optimalen Kapazität und Zugriffsgeschwindigkeit kombinieren. Kommerziell verfügbare Systeme lösen auch das Problem der Migration der Bilddaten auf neuere Speichermedien und sind beliebig skalierbar.
50.5
Erfolgreiche Projektdurchführung durch professionelles Projektmanagement
Mit einem PACS-Projekt soll innerhalb einer definierten Zeitspanne ein definiertes Ziel erreicht werden. Diese PACS-Einführung beeinflusst die gesamte Abteilung und Klinik: ▬ Interne Ablaufsteuerung der gesamten Radiologie ▬ Externe Ablaufsteuerung mit Klinikern, Zuweisern, Patienten ▬ Umstellung auf softwarebasierte Arbeitsweise ▬ Integration der IT-Infrastruktur ▬ Schnittstellen zu Informationssystemen Die Komplexität der Aufgaben erfordert ein professionelles, erfahrenes Projektmanagement, das alle Verfahren und Techniken beherrscht, die mit der erfolgreichen Abwicklung eines Projektes verbunden sind (⊡ Abb. 50.4). Der Projektablauf lässt sich in Phasen einteilen: ▬ Auftragsakquisition mit Projektqualifikation, Lösungsentwicklung und Angebotserstellung
50
822
Kapitel 50 · PACS/RIS
▬ Projektplanung mit Festlegung der Projektorganisation, der Arbeitsabläufe, Aufstellung des Projektplans und Vorbereitung des Standorts ▬ Projektimplementierung mit Installation, Lösungsintegration und Systemkonfiguration, Lösungserprobung und Anwenderschulung ▬ Projektabschluss mit Projektabnahme und Übergabe an Kunden und Projektbewertung
V
Der Projekterfolg basiert nur zum Teil auf technischen Faktoren. Als Gradmesser des Erfolgs einer PACS-Installation gelten die Optimierung der Arbeitsabläufe, die Zufriedenheit der Mitarbeiter, die Realisierung finanzieller Einsparungen und die Verbesserung der medizinischen Versorgungsqualität (⊡ Abb. 50.5).
50.6
Zusammenfassung
PACS ist heute ein akzeptiertes und etabliertes System zur Optimierung des radiologischen Workflows sowie des gesamten klinischen Ablaufs. Es unterstützt eine qualifizierte Befundung, eine sichere Archivierung von Bildern und eine effiziente Verteilung der Resultate an den Behandlungsplatz des Patienten. PACS ist nur ein Mosaikstein in der gesamten klinischen IT-Infrastruktur und führt nur dann zu optimalen Ergebnissen, wenn die Integration zur IT-Umgebung der Organisation gewährleistet ist und die Projekte professionell durchgeführt werden. Ein PACS muss zukunftssicher sein und sich den zukünftigen Anforderungen der Radiologie und der klinischen Fachabteilungen anpassen können. Neue Herausforderungen liegen in der Verbesserung der Befundung großer Bildserien durch die Integration geeigneter Nachverarbeitungsmöglichkeiten.
⊡ Abb. 50.4. Projektmanagement über alle Phasen der Projektlaufzeit
Lenkungsausschuss (Auftraggeber / Auftragnehmer) Auftraggeber
Auftragnehmer
Klinische Partner
Fremdfirmen (Netzwerk, KIS, ...)
Projektleiter Klinik Team Klinik: Arzt, MRTA, Medizin-Medizintechnik, IT-Abteilung, Verwaltung ...
⊡ Abb. 50.5. Projektorganisation
Radiologie IT Medizintechnik Bau & Logistik Verwaltung
Projektleiter AN Team AN: Technical Consultant, Application Consultant, Backoffice ...
Kunden- Subunter- Lieferanten dienst nehmer HW und SW
51 3D-Postprocessing für die virtuelle Endoskopie G.-F. Rust, S. Marketsmüller, N. Lindlbauer
51.1 Was ist virtuelle Realität? – 823 51.2 Wozu virtuelle Realität? – 823 51.3 Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder relevant? – 824 51.3.1 Partialvolumen – 824 51.3.2 2D- oder 3D-Bilder – 824 51.3.3 Gefahren bei der 3D – Rekonstruktion
51.4 Zusammenfassung
– 825
– 826
Die in den letzten Jahren stets besser werdende Ortsauflösung der Schnittbildverfahren erlaubt eine immer detailgetreuere Darstellung der Organe des Körperinneren. Besonders die Mehrzeilen-Computertomographie ( Kap. 15) eröffnet im Hinblick auf die deutlich erhöhte Ortsauflösung und die erheblich verkürzten Untersuchungszeiten neue Möglichkeiten in der Diagnostik. Die verbesserte Visualisierung führt zu einer wesentlich höheren Authentizität aller untersuchten Körperteile. Die mit der Mehrzeilen-Computertomographie oder auch Mehrdetektor–Computertomographie (MDCT) verbundene hohe Ortsauflösung ist mit einem beachtlichen Zuwachs der zu beurteilenden Datenmenge verbunden. Das bisherige Verfahren der Befundung anhand axialer Schnittbilder stößt an Grenzen der menschlichen Machbarkeit. Axiale Schichtzahlen von weit über 1200 Schichten sind mit den aktuellen CT–Geräten (2×64 Detektorzeilen, Stand 2005/2006) keine Seltenheit mehr. Die Forderung nach alternativen dreidimensionalen Visualisierungsverfahren steigt mit zunehmender Zahl der zu befundenden zweidimensionalen axialen Bilder. Für bestimmte Organgruppen, wie z. B. den Darm, wird die 3D-Visualisierung mehr und mehr zum Standardverfahren für die diagnostische Beurteilung. Dies gilt insbesondere für Organhohlkörper, deren Begrenzungen zum Hohlraum sich durch einen deutlichen Sprung in der physikalischen Dichte auszeichnen, wie z. B. in der Bronchoskopie und Koloskopie. Das Problem, das aus der 3D-Visualisierung häufig erwächst, ist, dass die Beurteilung des Wahrheitsgehaltes von 3D-Oberflächen für den Betrachter kaum beurteilbar ist. Die Realität wird nur bedingt reproduziert. Hierin liegt die größte Gefahr von 3D-Flächen, die ALLES oder besser VIELES und in anderen Fällen NICHTS oder besser
WENIGES reproduzieren können. Bei einer rekonstruierten 3D-Oberfläche wurde bereits eine Entscheidung getroffen, welcher (An)Teil des Datensatzes zur Visualisierung Berücksichtigung findet. Eine Korrektur ist anhand der ausschließlich zugrunde gelegten 3D-Oberfläche nicht möglich.
51.1
Was ist virtuelle Realität?
Das Abbild der Realität wird durch einen die Realität verkörpernden physikalischen Messwert, wie z. B. der physikalischen Dichte, repräsentiert. Der eigentliche reale Gegenstand wird nicht durch seine Vielfalt und unterschiedlichsten Erscheinungsformen, sondern nur durch eine physikalische Messgröße repräsentiert. Im Falle der Computertomographie (CT) erfolgt dies durch die räumliche (digitalisierte) Verteilung der physikalischen Dichtewerte. Anhand dieser digitalisierten Dichteverteilung kann die Realität des untersuchten Körpers teilweise verblüffend realistisch und in dreidimensionaler Weise nachempfunden werden. Dies nennt man die »Virtuelle Realität« ( Kap. 48 »Virtuelle Realität in der Medizin«).
51.2
Wozu virtuelle Realität?
Die Chancen der virtuellen Realität sind bereits in der Einleitung angeklungen. Statt, wie im Falle der CT, eine sehr hohe Zahl von axialen Einzelbildern betrachten zu müssen, kann eine mehr intuitive Beurteilung von dreidimensionalen Oberflächen/Objekten, die aus den axialen Schichten berechnet wurden, erfolgen.
824
V
Kapitel 51 · 3D-Postprocessing für die virtuelle Endoskopie
Auch die Risiken der virtuellen Realität wurden bereits kurz angedeutet: Eine 3D-Oberfläche stellt immer nur einen Teil des Datensatzes dar – hoffentlich den »richtigen« oder besser gesagt, den für die aktuelle Fragestellung relevantesten Teil des Datensatzes! Auf der anderen Seite liegt hierin auch eine Chance, nämlich die Möglichkeit, aus den gesamten Daten nur den relevanten Anteil zu visualisieren – wenn auch an dieser Stelle offen bleiben muss, wie der Begriff der »Relevanz« mit Hilfe von Algorithmen implementiert werden kann. Aus dieser kurzen Darstellung wird deutlich, dass die Methoden der virtuellen Realität sowohl Chancen als auch Risiken enthalten können. Dies macht auch eine grundsätzliche allgemeine Empfehlung schwierig.
51.3
Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder relevant?
Im Folgenden werden die wesentlichen Vorteile von virtuell endoskopischen Verfahren dargelegt: ▬ Deutlich verbesserte räumliche Darstellung und Verständnis des betrachteten Organs. ▬ Systematische Untersuchung des betrachteten Hohlorgans, wie z. B. des Darms. ▬ Deutlich längere visuelle Kontaktzeit des Beobachters mit dem Gegenstand des Objektes, z. B. mit der Schleimhaut des betreffenden Hohlorgans. Ein Detail der Darmschleimhaut ist z. B. in ein oder zwei einzelnen axialen Schichten zu erkennen. Mit Hilfe dreidimensionaler Verfahren wird die Beobachtungszeit für dieses Detail im Vergleich zu den zweidimensionalen axialen Schichten wesentlich verlängert. Beispiel: Bewegt man sich durch den Darm, so bewegen sich alle Strukturen des in ⊡ Abb. 51.1 gezeigten intraluminalen virtuellen Blicks mehrere Sekunden auf den Beobachter zu
⊡ Abb. 51.1. Intraluminale virtuelle Darstellung des Darms. Bei einem Fly-Through bewegt sich jedes Detail in der Größe von einem Voxel mehrere Sekunden auf den Betrachter zu – d. h. wesentlich länger als bei ausschließlicher 2D-Betrachtung
– d. h. wesentlich länger, als wenn man nur die betreffenden 2D-Schichten separat betrachten würde. Somit nimmt für den Arzt die Betrachtungszeit pro Flächeneinheit der Schleimhaut mit Hilfe von 3D-Oberflächen in der virtuellen Endoskopie beträchtlich zu. Erkennungsraten von pathologischen Befunden in radiologischen Bildern hängen signifikant von der Beobachtungszeit ab.
51.3.1 Partialvolumen
Einer der Hauptvorteile von 3D-Oberflächen im Vergleich zu 2D-Oberflächen liegt in der Option, diese nahezu partialvolumenfrei darzustellen. Im Abschn. 51.3.2 wird hierauf näher eingegangen. Der Begriff »Partialvolumen« bedeutet, dass sich ein abgebildetes Organ innerhalb einer endlich dicken 2D-(CT-) Schicht nur zu einem Teil in dieser Schichtdicke befindet. Der dargestellte, aktuell vorhandene Dichtewert berechnet sich also nicht nur aus dem Dichtewert des betreffenden Organs, sondern aus weiteren Dichtewerten anderer Organe, die ebenfalls in die betrachtete Schicht fallen: Ein bestimmtes Organ befindet sich – zusammen mit anderen Organen – also nur partiell in dem betrachteten Schichtvolumen. Der Dichtewert eines Voxels (dreidimensionaler Pixel) in einer CT-Schicht (Grauwert) ergibt sich deshalb als Mittelwert der Dichtewerte entlang des betrachteten Voxels. Deshalb ist ein anderes Wort für Partialvolumen »Kontrast-Minderung«. Eine partialvolumenfreie Darstellung ist eine Darstellung mit erhöhtem Kontrast.
51.3.2 2D- oder 3D-Bilder
Je dicker eine Schicht ist, desto höher ist der Partialvolumenanteil dieser Schicht, und desto geringer ist auch der Kontrast der betreffenden 2D-Schicht. 2D-Bilder sind jedoch immer inhärent partialvolumenbehaftet. 3D-
825 51.3 · Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder Relevant?
Oberflächen können grundsätzlich mit einem geringeren Partialvolumen dargestellt werden als die entsprechenden 2D-Bilder (⊡ Abb. 51.2a). Der damit verbundene höhere Kontrast liefert eine entsprechend höhere Nachweisempfindlichkeit kleiner Strukturen, z. B. flacher Adenome. Auch die in ⊡ Abb. 51.2 im intraluminalen Bild dargestellte »rauhe Darmschleimhaut« ist ein Ausdruck des sehr hohen Kontrastes im Verbund mit einer hohen Ortsauflösung – dies entspricht dem Rauschen im CT-Datensatz. Die Vorteile von 3D-Oberflächen (nahezu partialvolumenfreie Darstellung) werden sehr häufig dadurch zunichte gemacht, dass versucht wird zu suggerieren, es handele sich bei dem betreffenden visualisierten Organ um den (realen) endoskopischen Blick auf die Schleimhaut. Dies ist i. d. R. nur dadurch möglich, dass entweder die 3D-Organoberflächen geglättet werden oder aber die zugrunde liegende Visualisierungsmethode eine glättende Wirkung hat (schlecht angewandtes Volume Rendering) oder beides der Fall ist. Im Falle der Computertomographie handelt es sich z. B. bei der Visualisierung der Darmschleimhaut nicht um den Darm, sondern um das CT des Darms! Das bedeutet – und dies ist zugleich ein einfaches Mittel, die Qualität der Oberflächenrekonstruktion zu prüfen – dass alle Artefakte, die das CT erstellt, auch auf der Darmschleimhaut visualisiert werden müssen: Rauschen, Aufhärtungsartefakte, Pitch-Artefakte und Kantenphänomene. Sind derartige Artefakte (⊡ Abb. 51.2) nicht zu erkennen, sollte man die betreffende virtuelle Schleimhautoberfläche sehr kritisch und mit Vorsicht betrachten. Auf diese Weise ist es z. B. möglich, dass auf der 3DDarmschleimhaut die Instabilitäten einer defekten Röntgenröhre, die Pitch-Artefakte bei zu hohem Pitch oder bei Memory-Defekten in der Gantry nicht sichtbar werden, obwohl diese im Originaldatensatz enthalten sind. Alle Artefakte können durchaus in der Größenordnung von pathologischen Veränderungen liegen. Der Versuch, durch Glättungsalgorithmen wie z. B. durch Glättung über nächste (Voxel-) Nachbarn oder durch eine falsch angewandte Form des Volume Rendering, derart »schöne« Bilder zu erzeugen, dass suggeriert wird, es handele sich bei den intraluminalen Bildern um das real endoskopische Bild des Darms, ist ein falscher Ansatz, denn: Die virtuelle Realität darf nicht durch Manipulationen geschönt werden, da sie in diesem Falle mit der »Realität« nichts mehr zu tun hat. Für diesen Fall reduziert sich die 3D-Visualisierung fast auf ein Computerspiel!
51.3.3 Gefahren bei der 3D – Rekonstruktion
In der ⊡ Abb. 51.3 wird ein Fall dargestellt, wie sich Strukturen verändern können, wenn man nur geringfügig ein einfaches Glättungsverfahren anwendet (Glättung über nächste Nachbarn). Die Oberflächen erscheinen zwar
a
b ⊡ Abb. 51.2a,b. a 3D-Bild mit kleinem Bildartefakt intraluminal (zentral der roten Markierung im unteren rechten Bild). Die entsprechende Koordinate in den partialvolumenbehafteten 2D-Bildern (zentral der roten Markierung in der oberen Bildreihe). (Im Bild links unten wird der Darm intraluminal halb aufgeschnitten dargestellt – »splitted Colon«), b Dieselbe Position wie in a, jedoch mit deutlicher Erhöhung des Kontrastes in den 2D-Bildern. Der ein Voxel große Bildartefakt in der intraluminalen Darstellung (unten rechts) ist jetzt als kleiner Artefakt in den 2D-Bildern zu erkennen
physiologischer, jedoch für den Preis des Verlustes von Details. Die Aufgabe der Visualisierung darf nicht sein, die Daten des Darms so zu verändern bzw. zu manipulieren, dass die erzeugten Bilder einem »realen« Darm zum Verwechseln ähnlich sehen, sondern die Daten so zu visualisieren, wie diese akquiriert wurden, also so, wie die Daten vorliegen. Nur so können Artefakte von NichtArtefakten unterschieden werden und nur so kann man sicher sein, dass nicht auf Kosten einer falschen Ästhetik die Diagnose verfälscht wird.
51
826
Kapitel 51 · 3D-Postprocessing für die virtuelle Endoskopie
⊡ Abb. 51.3. Glättung über nächste Nachbarn im Falle der virtuellen Koloskopie
⊡ Abb. 51.6. Lichtabsorption (links), um den Blick des Betrachters auf die kameranahen Schleimhautanteile zu fokussieren
es möglich, sehr weit in den Darm zu sehen. Meistens wird versucht, einen möglichst ungestörten Weitblick zu erhalten, sodass man dazu neigt, sich auf eine Region der Schleimhaut zu konzentrieren, die für die aktuelle Befundung von geringerer Bedeutung ist. Gegenstand der Befundung sind die Schleimhautanteile, die der (virtuellen) Kamera am nächsten sind. Das »Abschweifen« des Blickes in die Ferne kann man sehr einfach durch die Berechnung einer Lichtabsorption verhindern (⊡ Abb. 52.6 links).
V
⊡ Abb. 51.4. Durch nicht optimale Wahl der Transfer-Funktion beim Volume Rendering (Ray-Casting) nimmt das Rauschen auf Kosten der Detailinformation ab: Divertikel verschwinden im rechten Rechteck, und die Austarierung erscheint auf der rechten Seite weniger ausgeprägt
⊡ Abb. 51.5. Eine nicht optimale Anwendung des »Diffuse Lighting« kann einen erheblichen Einfluss auf die Kontrastauflösung der betreffenden 3D-Oberfläche nehmen
⊡ Abb. 51.4 zeigt ein weiteres Beispiel, wie Entrauschung Einfluss auf die Visualisierung nehmen kann – in diesem Falle nicht durch Glätten über nächste Nachbarn, sondern durch einen zu flachen Verlauf der TransferFunktion. In der ⊡ Abb. 51.5 ist ein Beispiel gegeben, welchen Einfluss ein falsches Diffuse Lighting nach sich ziehen kann. Dies geht mit dem Verlust von Kontrast und damit dem Verlust von Details einher. ⊡ Abb. 51.6 zeigt, welche Optionen und Vorteile virtuelle Realität auch haben kann. Auf der rechten Seite ist
51.4
Zusammenfassung
Die virtuelle Endoskopie kann mit Hilfe neuester Mehrdetektoren-Computertomographen und leistungsfähiger Software Hohlkörper sehr schnell und mit höherer Genauigkeit untersuchen als die herkömmlichen partialvolumenbehafteten 2D-Bilder. Die Manipulation von 3D-Oberflächen zur »schöneren« Darstellung der Darmschleimhaut wird dem Begriff der virtuellen Realität nicht gerecht. Wenn überhaupt, dann handelt es sich um eine virtuelle (manipulierte) Realität, die eigentlich nicht in die radiologische Routine gehört. Den bei der Visualisierung zugrunde liegenden Algorithmen kommt eine besondere Bedeutung zu, insbesondere im Hinblick auf die Nachweisbarkeit kleiner Läsionen. Zum weiterführenden und vertiefenden Studium empfehlen wir die Literatur von K.-H. Höhne, und zur praktischen Erfahrungsgewinnung das Visualization Took Kit, zu finden unter http://public.kitware.com/VTK.
52 Operationstischsysteme B. Kulik 52.1 Kurzer Abriss der technologischen Entwicklung der OP-Tischsysteme – 830
52.3.3 Patientenlagerung bei der Anwendung von monopolaren HF-Chirurgiegeräten – 836
52.2 Technik der Operationstischsysteme – 831
52.4 Wichtige sicherheitstechnische Vorschriften für OP-Tischsysteme – 837
52.2.1 52.2.2 52.2.3 52.2.4
52.5 Aufbereitung: Pflege, Wartung und Hygiene – 837
Aufbau eines OP-Tischsystems Systematik – 832 Ausbaustufen – 832 Mobilität und Flexibilität von OP-Tischsystemen – 832
– 831
52.3 Patientenlagerung und Vermeidung von Lagerungsschäden – 834 52.3.1 Dekubitusschaden – 834 52.3.2 Weitergehende Lagerungsschäden und rechtliche Verantwortung – 836
Das zentrale Element eines jeden Operationssaals bildet unbestreitbar der OP-Tisch. Überall dort, wo operative Eingriffe vorgenommen werden, sind OP-Tische unentbehrlich. Dementsprechend breit ist deren Palette, die vom einfachen mobilen OP-Tisch bis hin zu OPTischsystemen mit diversen Spezial-OP-Lagerflächen reicht. Einfache Ausführungen des OP-Tischs werden meist in Krankenhäusern mit kleineren Operationsabteilungen eingesetzt sowie in größeren Kliniken mit ausgegliederten Operationsräumen wie bspw. Ambulanz-OP-Eingriffsräumen. Des Weiteren werden sie häufig in der ambulanten Chirurgie (sog. Tageskliniken bzw. ambulanten Operationszentren) eingesetzt. Im Verhältnis zum kompletten OP-Tischsystem ist die Funktionalität auf die speziel-
52.5.1 Manuelle Reinigung und Desinfektion – 837 52.5.2 Automatische OP-Tischsystemreinigung und -hygiene – 837 52.5.3 Wartung – 838
52.6 Planerische Hinweise
– 838
Weiterführende Literatur – 838
len Anforderungen abgestimmt, wie bspw. in der HNO, Dermatologie, Gynäkologie oder Ophtalmologie. Diese OP-Tische sind durch verschiedene Zusatzteile auf- und umrüstbar und je nach Ausführung manuell oder elektromotorisch verstellbar. Die modernen OP-Tischsysteme zeichnen sich dadurch aus, dass sie durch ihre eingriffsbezogenen Lagerflächen zum einen den speziellen Anforderungen der einzelnen chirurgischen Disziplinen in Bezug auf optimale Lagerung des Patienten und bestmöglichen Zugang zum Operationsfeld gerecht werden und insofern durchaus mitentscheidend für den Erfolg des chirurgischen Eingriffs sind, zum anderen aber auch den technischen Anforderungen an Röntgentauglichkeit, Stabilität und Hygiene entsprechen (⊡ Abb. 52.1).
⊡ Abb. 52.1. OP-Tischsystem als zentrales Element des OP-Saals
830
Kapitel 52 · Operationstischsysteme
52.1
VI
Kurzer Abriss der technologischen Entwicklung der OP-Tischsysteme
Noch vor 150 Jahren, als Asepsis noch keinen Diskussionspunkt darstellte, wurden Operationen üblicherweise im Bett des Patienten vorgenommen. Aufgrund der niedrigen Betthöhe ging der Chirurg dazu über, den zu operierenden Patienten auf einen höheren Tisch zu lagern, um zum einen besseren Zugang zum Operationsfeld zu erhalten und zum anderen sich selbst eine ergonomischere Arbeitshaltung zu ermöglichen. Die Entwicklung von OP-Tischen erfolgte im Gleichschritt mit der Entwicklung der Chirurgie. Sie erfolgte quasiparallel zum ständig erweiterten Wissen und Können der Chirurgen und wurde im Laufe der Zeit maßgeblich von der Spezialisierung der einzelnen chirurgischen Disziplinen geprägt. Die medizinische Weiterentwicklung stellte Anforderungen an einen verbesserten Zugang zum Operationsfeld und damit an eine verbesserte Lagerung des Patienten. So entstanden »OP-Möbel«, deren Lagerfläche unterteilt war in Kopf-, Rücken-, Sitzteil und Beinplatte. Die Verfeinerung der Operationstechniken machte es erforderlich, bestimmte Körperstellen aufzuwölben (Wundschnitte), zwecks besserem Zugang ins Körperinnere, um sie dann zum Wundverschluss wieder in Flachlage zu bringen. Aus der allgemeinen Chirurgie haben sich in den vergangenen 60 Jahren die einzelnen chirurgischen Disziplinen entwickelt. Die Folge der Spezialisierung der Chirurgie wiederum war die Entwicklung von Spezial-OP-Tischen, die sich in Bezug auf Lagerflächenunterteilung und Anordnung von Bedienelementen unterschieden. Bei Kopfoperationen bspw. durften in diesem Bereich des OP-Tischs keine Bedienelemente angebracht sein, da sie vom unsterilen Personal während der Operation nicht betätigt werden durften- dies hätte die Verletzung der Sterilität bedeutet. In der Folge wurden spezielle OP-Tische für Kopfoperationen entwickelt. Die Entwicklung von OP-Tischen mit immer komplexeren Verstellmöglichkeiten der OP-Lagerflächen für andere Spezialdisziplinen der Chirurgie erfolgte analog (⊡ Abb. 52.2). Ein weiterer wesentlicher Einflussfaktor auf die OP-Tischentwicklung waren die technischen Errungenschaften bei der intraoperativen Bildgebung. Der mobile Röntgenbildverstärker ist aus dem OP nicht mehr wegzudenken. Weitere Bildgebungsverfahren wie CT und MR sollten in ihrer Anwendung mit OP-Tischen kombiniert werden, was dazu führte, dass außer Stahl nunmehr auch andere Werkstoffe wie z. B. Kohlefaser-verstärkter Kunststoff, der artefaktarm durchleuchtbar ist, eingesetzt wurde. Da von Operateuren also immer speziellere, auf die jeweilige Operation zugeschnittenen OP-Tische benötigt wurden, erstreckte sich die Weiterentwicklung der mo-
a
b ⊡ Abb. 52.2. Vom Operations- und Untersuchungstisch zum modernen OP-Tischsystem. a Operations- und Untersuchungstisch um 1840, b modernes OP-Tischsystem
bilen OP-Tische nicht nur auf die Unterteilung der OPLagerungsfläche, sondern auch auf die Tischsäule bzw. deren Trennung von der OP-Lagerfläche, was weitere Vorteile und Erleichterungen mit sich brachte. Die Vorgängermodelle der heutigen modernen OPTischsysteme hatten zwar eine auf Rollen fahrbare Tischsäule, sodass der OP-Tisch mobil und nicht ortsgebunden war, die Lagerfläche war aber fest mit der Säule verbunden. Dies hatte den Nachteil, dass das kompakte Gerät von einer Person nur sehr schwer zu bewegen war, was wiederum die Mobilität einschränkte. In der Folge wurden Säule und Lagerfläche getrennt. Moderne OP-Tischsysteme gibt es in stationärer, d. h. ortsgebundener und mobiler Ausführung. Bei der stationären Ausführung ist die Tischsäule fest im Fußboden verankert, die Elektroinstallation verläuft unsichtbar im Boden. Die OP-Lagerfläche ist abnehmbar und wird durch einen Transporter (synonym: Lafette) über die Tischsäule geschoben, von dieser übernommen, sodass der Transporter wieder entfernt werden kann. Da die
831 52.2 · Technik der Operationstischsysteme
Tischsäule mit dem Boden fest verschraubt ist, kann hier auf die ausladende Geometrie eines mobilen OP-Tischfußes verzichtet werden. Den Operateuren wird somit mehr Beinfreiheit ermöglicht. Ein weiterer Vorteil ist, dass zusätzlich notwendige medizintechnische Geräte wie bspw. ein fahrbarer Bildverstärker bzw. C-Bogen problemlos an das Operationsfeld herangeführt und positioniert werden kann. Bei einem mobilen OP-Tischsystem hingegen liegt der wesentliche Vorteil darin, dass dieses System mit einem Transporter frei im Operationssaal bzw. der OP-Abteilung bewegt werden kann. Hier entfällt die Installation, da wiederaufladbare Akkus die notwendige elektrische Energie liefern, deren Kapazität ausreicht, um im normalen OP-Betrieb etwa 100 Operationen mit diesem Operationstischsystem durchzuführen. Die OP-Tische bzw. Tischsysteme werden mit einem Handbediengerät entweder kabellos über Infrarotsignale oder kabelgebunden angesteuert. Die motorisch verstellbaren Funktionen können somit aus der Distanz aktiviert werden, ohne dabei das sterile OP-Umfeld zu beeinträchtigen. Einzelne Segmente der Lagerfläche, wie bspw. Beinplatten oder Kopfplatten, lassen sich abnehmen. Die Polstersegmente sind integralgeschäumt und bilden mit der eigentlichen Tragplatte eine Einheit. Sie sind leicht abnehmbar, röntgenstrahlendurchlässig und elektrisch leitfähig. Der technologische Fortschritt im Bereich der Medizintechnik hat letztendlich dazu geführt, dass hochwertige OP-Tischsysteme mit multifunktionalen Systemeigenschaften entwickelt wurden, die den heutigen hohen medizinischen, hygienischen und technischen Anforderungen gerecht werden.
52.2
Technik der Operationstischsysteme
52.2.1 Aufbau eines OP-Tischsystems
Im Einzelnen lässt sich der Aufbau eines Operationstischsystems wie folgt beschreiben (⊡ Abb. 52.3): ▬ Tischsäule. Ein OP-Tischsystem ist erhältlich mit einer stationären, d. h. mit dem Fußboden fest verbundenen und damit ortsgebundenen Säule oder mit einer mobilen und damit ortsungebundenen Säule. Beide Arten bieten gleichermaßen große Vorteile. ▬ OP-Lagerfläche. Die OP-Tischsäule kann mit vielfältigen, auswechselbaren Lagerflächen ausgestattet werden, die speziell auf die einzelnen chirurgischen Disziplinen abgestimmt sind und deren Segmente unabhängig voneinander in die gewünschte Lage zu verstellen sind. Das heißt, die OP-Lagerfläche ist mehrfach unterteilt (z. B. 4-, 5-, 6. oder 8-fach) in – Kopfteil/ Fußteil, das auf- und abschwenkbar ist und sich bei Bedarf auch abnehmen lässt, – Mittelteil bzw. Rückenteil, das meist mehrfach unterteilt und in spezielle Neigungswinkel verstellbar ist, – Beinteil, das aus einem quer- und/oder längsgeteilten Beinplattenpaar bestehen kann, das automatisch verstellbar ist mit den Möglichkeiten, beide Teile gleichzeitig, einzeln bzw. unabhängig voneinander in bestimmte Richtungen zu bewegen bzw. zu spreizen. Die OP-Lagerfläche ist so ausgestattet, dass sie bei Bedarf durch Hinzufügen oder Abnehmen von einzelnen Segmenten verlängert oder verkürzt werden kann. Ferner sollte sie längsverschiebbar sein, um die Ganzkörpererfassung mit dem C-Bogen zu ermöglichen,
⊡ Abb. 52.3. Aufbau und Elemente eines modernen Operationstischsystems
52
832
VI
Kapitel 52 · Operationstischsysteme
Polsterung: kommt kein großflächiges Polster zum Einsatz, sind die Polsterplatten integralgeschäumt, wobei die »Kanten« mit großen weichen Radien ausgeführt sind, um Druckstellen zu vermeiden. Die Polsterung ist strahlendurchlässig, sodass sie sich auch zum Röntgen oder zum intraoperativen Durchleuchten eignet. Entsprechend der ISO 2882 sowie DIN EN 60601-1 (VDE 0750, Teil 1) ist sie elektrisch leitfähig. ▬ Ansteuerung. Die Ansteuerung von Tischsäule und den jeweiligen Lagerflächen erfolgt drahtlos über eine Infrarotsteuerung. Alternativ kann sie auch mit einem sog. Kabelbediengerät durchgeführt werden. In speziellen Anwendungsbereichen kann die Ansteuerung zusätzlich über einen Fußschalter erfolgen, der vom Operateur bedient wird. Weitere Ansteuerungsmöglichkeiten wären das wandgebundene Bedientableau oder ein integriertes OP-Steuerungssystem, das die wesentlichen OP-Funktionen wie z. B. Leuchten, OPTisch, Endoskopiegeräte etc. über Touchscreenmonitor oder sprachgesteuert regelt. ▬ Transporter. Mit dem leicht fahr- und manövrierbaren Transporter (Lafette) wird die OP-Lagerfläche zur (mobilen oder stationären) Tischsäulen transportiert, die die Lagerfläche für die Dauer des Eingriffs übernimmt. Des Weiteren wird über Lafetten der Transport über längere Wege sowie der Wechsel der Lagerflächen im Kreisverkehr zwischen Umbettraum, Einleitung, Operationssaal, Ausleitung und Umbettraum bewältigt. ▬ Zubehör. Zum Standartzubehör gehören u. a. Armlagerungsvorrichtungen, Seitenhalter, Infusionshalter, Beinhalter, Kopfring, Rücken- und Gesäßstützen, Seitenstütze, Hand- und Körpergurte.
52.2.2 Systematik
Aufgrund der Vielzahl und Vielfalt von OP-Tischsystemen, die für allgemeine oder spezielle Eingriffe eingesetzt werden, lassen sich diese Systeme nach ihrer Systemeigenschaft sowie nach ihrer Betriebsart einteilen (⊡ Abb. 52.4).
⊡ Abb. 52.4. Übersicht und Einteilung von OP-Tischsystemen
52.2.3 Ausbaustufen
Da alle OP-Lagerflächen so konzipiert sind, dass sie zur sog. Standardtischsäule passen, wurde hiermit sozusagen ein Grundelement geschaffen, das problemlos um- und aufgerüstet werden kann und damit – entsprechend dem Baukastenprinzip – speziellen Anforderungen gerecht wird.
52.2.4 Mobilität und Flexibilität
von OP-Tischsystemen Moderne OP-Tischsysteme zeichnen sich durch Mobilität, Flexibilität und Kompatibilität aus. Nicht nur, dass bei einer mobilen OP-Tischsäule der Standort im OP-Saal nach Bedarf gewählt werden kann, sondern auch dadurch, dass die Kompatibilität zwischen verschiedenen, preislich unterschiedlichen OP-Tischsystemen, mobil oder stationär, gegeben ist. Um Flexibilität zu gewährleisten, sind die heutigen OP-Tischsysteme so konzipiert bzw. umrüstbar, dass sie unterschiedlichen chirurgische Disziplinen lagerungstechnisch gerecht werden. Sollten sich in der Zukunft Operations- und Lagerungstechniken ändern, ist es bei einem OP-Tischsystem nur noch erforderlich, eine entsprechend modifizierte Lagerfläche zu beschaffen, die kompatibel zum Grundelement OP-Tischsäule ist. In einer OP-Abteilung, die mit mobilen Operationstischen ausgerüstet ist, wäre in einem solchen Fall ein kompletter neuer OP-Tisch anzuschaffen, was einen nicht unerheblichen Kostenfaktor darstellt. Zeiteinspaarung ist heute mehr denn je ein wesentliches Kriterium zur effizienten Nutzung eines Operationssaals. Der Einsatz eines OP-Tischsystems, d. h. einer OP-Tischsäule, zweier Transporter sowie zweier OP-Lagerungsflächen erlaubt einen sog. »Kreisverkehr«: Während im OP-Saal ein chirurgischer Eingriff beendet wird, ist es möglich, den nächsten Patienten auf der zweiten Lagerfläche aus dem Umbettraum in den Vorbereitungsraum zu bringen, um die Anästhesie einzu-
833 52.2 · Technik der Operationstischsysteme
leiten. Nach Ausleitung des letztoperierten Patienten kann nach einer Zwischenreinigung des Operationsraums der bereits narkotisierte Patient in den OP-Saal gefahren werden, wo er, auf der OP-Lagerfläche liegend und eventuell bereits vorgelagert, von der OP-Tischsäule
übernommen wird. Dieser »Kreisverkehr« bietet den Vorteil, dass der Operationsbetrieb ohne große zeitliche Verzögerung ablaufen kann, auch speziell unter den zu berücksichtigenden Einwirkzeiten bei Lokalanästhesien (⊡ Abb. 52.5).
⊡ Abb. 52.5. Mobilität und Flexibilität von OP-Tischsystemen
52
834
Kapitel 52 · Operationstischsysteme
52.3
VI
Patientenlagerung und Vermeidung von Lagerungsschäden
Mit Operationslagerungen wird die Körperlage bezeichnet, in die der Körper des Patienten gebracht wird, um dem Operateur den bestmöglichen Zugang zum Operationsgebiet zu gewährleisten. Darüber hinaus wird angestrebt, die anatomischen Strukturen des Operationsfeldes optimal darzustellen. Folgende »Standardlagerungen« (⊡ Abb. 52.6) haben sich bewährt: ▬ Rückenlage/spezielle Rückenlage, ▬ Bauchlage/Bauchfreilage, ▬ Seitenlage, ▬ Steinschnittlage, ▬ Knie- Ellenbogen- Lage, ▬ sitzende/halbsitzende Lage. Für die Narkoseeinleitung und die Operation sollte der Patient in Zusammenarbeit von Anästhesist und Chirurg sowie den OP-Pflegekräften gelagert bzw. in die optimale Operationslage gebracht werden. Zuvor ist erforderlich, dass die verantwortlichen Fachärzte aufgrund des Allgemeinzustandes des Patienten entscheiden, welchen Belastungen – bedingt durch die Lagerung auf dem OPTisch – er ausgesetzt werden kann. Zu berücksichtigen sind hierbei Alter des Patienten, Gewicht, Konstitution, der augenblickliche Gesundheitszustand im Hinblick auf Herz, Lunge, Kreislauf, Stoffwechsel, Nervensystem, Muskulatur, Hautgewebevorbelastungen, die u. a. herrühren von Stoffwechselstörungen, Fettleibigkeit, rheumatischer Arthritis, Herz- und Gefäßschwächen oder Durchblutungsstörungen. Die genannten Faktoren beeinflussen in erheblichem Maße die Belastbarkeit des Patienten und müssen bei der Lagerung unbedingt berücksichtigt werden, da jede Form der Lagerung für den Patienten eine zusätzliche Belastung darstellt. Hinzu kommt, dass Narkosemittel und Muskelrelaxanzien die Belastung insofern noch verstärken, als sie insbesondere auf Atmung, Blutzufuhr und Nerven Einfluss nehmen. Während der Narkose ist das Schmerzempfinden ausgeschaltet, sodass der Patient weder Schmerzen durch Druck oder Zerrung empfindet noch aufgrund von unterbrochenen Schutzreflexen und abgebautem Muskeltonus reagieren kann. Das bedeutet: Der Patient kann schon zu Schaden kommen, bevor der eigentliche chirurgische Eingriff vorgenommen wird. Es ist bereits bei einfachen Lageveränderungen während der Operation erhöhte Vorsicht geboten. Die Intubationsnarkose wird beim Patienten in normaler Rückenlage eingeleitet. Erst nachdem das tiefe Narkosestadium mit entspannter Muskulatur erreicht ist, erfolgt die eigentliche Operationslagerung unter Berücksichtung patientenspezifischer Merkmale (s. oben).
Zu beachten ist, dass der für die Narkose und Infusion vorgesehene Arm des Patienten in seiner gesamten Länge und eben auf der gut gepolsterten Armlagerungsvorrichtung aufliegt; notfalls muss die Armlagerungsvorrichtung mit einer gepolsterten Cramer-Schiene verlängert werden. Bei falscher Lagerung kann es trotz weichem OPTischpolster bspw. zu Irritationen bzw. Lähmungen durch Schädigung oder Beeinträchtigung des N. radialis oder N. ulnaris kommen. Eine Überdehnung des Arms über den Winkel von 90° hinaus (Abduktion sowie Supination) kann eine Plexuslähmung zur Folge haben. Bei der Beinlagerung lassen sich die in sich abknickbaren Beinplatten von modernen OP-Tischen gut an die Beine anpassen, sodass der Auflagendruck auf eine ausreichend große Fläche verteilt wird und zudem eine möglichst optimale Operationslagerung erreicht wird. Die Verwendung von Beinhaltern dagegen (z. B. bei gynäkologischen oder urologischen Eingriffen) bergen bei unsachgemäßer Lagerung bzw. Anwendungen in erhöhtem Maß die Gefahr, Druckschäden und Zerrungen zu verursachen, u. a. durch Überstreckung der in der Narkose entspannten Beine, durch Druck falsch eingestellter (angelegter) Beinschalen sowie Anliegen der unteren Extremitäten an den Beinhalterstangen. Bei der Lagerung des Rumpfes muss mit derselben Sorgfalt vorgegangen werden. Die unveränderte Lagerung des Patienten über eine längere Zeitdauer hinweg kann zu einem weiteren Problem führen: dem Dekubitus (Wundliegen bzw. Sichdurchliegen).
52.3.1 Dekubitusschaden
Da Narkosemittel und Muskelrelaxanzien das Gewebe so entspannen können, dass der arterielle Druck schwächer ist als der äußere - vom Körpergewicht beeinflusste – Druck, kann die Blutzufuhr gestört und infolgedessen das Gewebe nur mangelhaft ernährt werden, sodass für den Patienten bei längerer Liegedauer in o. g. unveränderter Lage die Gefahr von Haut- und Gewebeschäden besteht. Ein so entstandener Dekubitus kann sich insbesondere an Körperstellen, die nur ein dünnes Hautgewebe über dem Knochen aufweisen, zur Nekrose (örtlicher Gewebstod) weiterentwickeln. Zu diesen besonders gefährdeten Körperstellen gehören: ▬ in Rückenlage: Fersen, Kreuzbein, Ellenbogen, Schulterblätter, Hinterkopf, ▬ in Bauchlage: Becken, Hüfte, Knie, Zehenspitzen, ▬ in Sitzposition: Fersen, Kreuzband, Ellenbogen, Kopf, ▬ in Seitenlage: Hüfte, Zehen, Knie. Gleichzeitig ist darauf zu achten, dass keine Hautquetschungen entstehen, die infolge von Durchblutungsmangel auch zu Nekrosen führen können. Diese Gefahr besteht insbesondere während länger dauernder Operationen.
So wurden nach Herzoperationen, in deren Verlauf der Patient hypothermiert wurde und monopolare Hochfrequenzgeräte zum Einsatz kamen, großflächige Gewebenekrosen festgestellt, die primär als Verbrennungen diagnostiziert wurden. Eingehende Prüfung der Ursache dieser als Verbrennung deklarierten Nekrose durch das Operationsteam, das technische Personal des Krankenhauses, den Technischen Überwachungsverein und den Herstellern des HF-Chirurgiegeräts ergaben keine phy-
⊡ Abb. 52.6. Schematische Darstellungen der unterschiedlichen Patientenlagerungen in Abhängigkeit vom operativen Eingriff. Aufführung der Lagerungen von links nach rechts: 1. Reihe: Universallagerfläche für Gallen-OP mit Bildverstärker, Nieren-/ Thoraxeingriff, gynäkologische Eingriffe, Struma-OP, neurochirurgische Eingriffe 2. Reihe: alternative Universallagerfläche für Gallen-OP mit integrierter Körperbrücke, Bildverstärkereinsatz für Abdomen, Becken und untere Extremitäten, für gynäkologische/urologische Eingriffe mit Beinhalterkombination 3. Reihe: Extensionslagerfläche für Schenkelhals-OP mit Bildverstärkereinsatz, Oberschenkeleingriffe in Seitenlage, Unterschenkeleingriffe mit Bildverstärkereinsatz 4. Reihe: Einfache, längsverschiebbare OP-Lagerfläche. Spezielle Lagerungen für Orthopädie, Traumatologie und Gefäßchirurgie: Lagerfläche fußwärts längsverschiebbar für Bildverstärkereinsatz im Thoraxbereich, Lagerfläche z. B. für HWS-Eingriffe 5. Reihe: Urologielagerfläche. Lagerfläche fußwärts verschiebbar für Bildverstärkerkontrolle vom Becken bis zur Niere, Lagerfläche eingerichtet für TUR-Eingriffe 6. Reihe: Kopfchirurgische OP-Lagerfläche für sitzende Position bei neurochirurgischen Eingriffen, für HNO-Eingriffe 7. Reihe: CFK-Lagerfläche. Artefaktarme Durchleuchtbarkeit 360° auf einer Länge von 1530 mm 8. Reihe: Kinderchirurgielagerfläche. Angesteckte Beinplatten für Eingriffe bei großen Kindern, abgenommene Beinplatten für Kleinkinder
52.3 · Patientenlagerung und Vermeidung von Lagerungsschäden 835
sikalisch begründete Erklärung. Erst eine differentialdiagnostische Untersuchung des Verdachts auf Drucknekrosen konnte exogene Verbrennungsursachen eindeutig ausschließen. Einen ersten Hinweis auf eine Druckschädigung gibt eine Rötung der Haut, die nicht unmittelbar nach einem Lagerungswechsel zurückgeht. Grundsätzlich ist die Dekubitusgefährdung bei einer übergewichtigen Person nicht größer als bei einer
52
836
Kapitel 52 · Operationstischsysteme
untergewichtigen. Der Unterschied besteht darin, dass bei Übergewichtigen die geschädigten Hautregionen zwar größer, die Hautschäden aber meist weniger ausgeprägt sind; während bei Untergewichtigen die geschädigten Hautregionen kleiner, die Hautschäden meist aber ausgeprägter sind.
Mögliche Ursachen für die Entstehung von Dekubitus aufgrund der OP-Lagerung
VI
Als mögliche Ursachen für das Entstehen eines Dekubitus aufgrund der OP-Lagerungen sind zu nennen: ▬ Harte und/oder durchgelegene Operationstischpolsterung. ▬ Längere Operationsdauer bei zunehmend älteren Menschen. ▬ Hohe Eigenlast besonders bei Adipositas. Andererseits aber auch bei kachektischen Patienten, bei denen Knochen der Haut aufgrund des fehlenden oder reduzierten Fettunterhautgewebes unmittelbar anliegen. Bevorzugte Körperstellen sind hier u. a. das Kreuzbein und die Fersen. ▬ Medikamentöse Beeinflussung (Anästhetika), die den Muskel- und Gefäßtonus herabsetzen. ▬ Punktuelle Belastungen, die durch notwendige Lagerungen während der Operation entstehen.
Dekubitusprophylaxe Dekubiti können durch folgende Maßnahmen vermieden werden: ▬ Kurze Operationsdauer anstreben, da erfahrungsgemäß nach spätestens 2 h mit Hautgewebeschäden zu rechnen ist. ▬ Rechtzeitiges Auswechseln von älteren und durchgelegenen OP-Tischpolstern gegen ausreichend dicke und weiche. ▬ Sorgfältige Anpassung der einzelnen Segmente der OP-Lageflächen an den Körper des Patienten. ▬ Druckentlastung durch Abpolsterungen an den prädisponierten Stellen. ▬ Vermeiden von Hautquetschungen und Faltenbildung beim Patienten, aber auch dem OP-Tischpolster beim Lagern und intraoperativen Umlagern des Patienten.
52.3.2 Weitergehende Lagerungsschäden
und rechtliche Verantwortung Eine optimierte Patientenlagerung ist die beste Dekubitusprophylaxe! Wie Analysen der Schadensfälle seitens
der Sachverständigen ergeben haben, kommen bei vielen angemeldeten Schadensfällen Operationslagerungsschäden dennoch regelmäßig vor, die für die Patienten und für die Nachsorge (Folgekosten) ein ernstes Problem darstellen.
Durch eine unsachgemäße und inkorrekte Lagerung des Patienten auf dem Operationstisch kann es von temporären Beeinträchtigungen bis zu irreversiblen schwerwiegenden Schäden kommen. Betroffen sind in erster Linie ▬ Nerven, die traumatisiert werden ( hier insbesondere der Plexus brachialis), ▬ Augen, ▬ Haut, ▬ Muskulatur, ▬ Sehnen und Bänder. Zur Klärung der Frage der rechtlichen Verantwortung für entstandene Lagerungsschäden haben der Berufsverband Deutscher Anästhesisten und der Berufsverband der Deutschen Chirurgen zwei richtungsweisende Regelungen erstellt: Die »Vereinbarung über die Zusammenarbeit bei der operativen Patientenversorgung« sowie die Vereinbarung »Verantwortung für die prä-, intra-, und postoperative Lagerung des Patienten«. Sie besagen, dass die Lagerung des Patienten auf dem OP-Tisch zwar vor der Operation Aufgabe des Anästhesisten ist und während der Operation die des Operateurs (wohlgemerkt unter Berücksichtigung des anästhesiologischen Risikos). Doch grundsätzlich bildet sie die gemeinsame Aufgabe des Chirurgen und Anästhesisten. Für den Chirurgen bedeutet dies, dass er die ärztliche und rechtliche Verantwortung dafür trägt, dass eine eventuelle Risikoerhöhung im anästhesiologischen Bereich, die aus einer veränderten (gewünschten) Lagerung resultiert, sachlich gerechtfertig ist. Dem Anästhesisten obliegt die rechtliche Verantwortung dafür, im Rahmen seines intraoperativen Aufgabenbereichs den spezifischen Risiken Rechnung zu tragen bzw. durch besondere Vorsichtsmaßnahmen entgegenzuwirken, die aus der Lagerung entstehen. Im Zusammenhang mit der Lagerung des Patienten bei Operationen, bei denen monopolare Hochfrequenzchirurgiegeräte zum Einsatz kommen, ist auf den wichtigen Punkt der Verbrennungsgefahr hinzuweisen.
52.3.3 Patientenlagerung bei der Anwendung
von monopolaren HF-Chirurgiegeräten Das HF-Chirurgiegerät ( Kap. 28) wird eingesetzt, um gezielt Gewebe durch thermische Energie zu trennen und gleichzeitig zu koagulieren. Hierzu sind monopolare HF-Chirurgiegeräte mit einer aktiven und einer passiven Elektrode versehen. An der aktiven Elektrode, der sog. Schneide- oder Koagulationselektrode, tritt aufgrund ihrer Anwendungsformgebung eine hohe Stromdichte auf, im Gegensatz zur großflächigen, passiven Elektrode (Neutralelektrode), die den Strom ableiten soll und daher eine niedrige Stromdichte aufweist. Ursächlich für Komplikationen bei der Anwendung der monopolaren HF- Chirurgie ist zum einen die nicht
837 52.5 · Aufbereitung: Pflege, Wartung und Hygiene
sachgerechte, erdschlussfreie Lagerung des Patienten und zum anderen die fehlerhafte Applikation der Neutralelektrode. Um lokale Verbrennungen, verursacht durch HF-Chirurgiegeräte, zu vermeiden, muss der Patient vollkommen isoliert vom OP-Tisch und seinen Zubehörteilen gelagert werden sowie durch die sachgerechte Anbringung der Neutralelektrode gesichert sein. Das heißt: ▬ Der Patient ist so zu lagern, dass er mit keinen elektrisch leitfähigen Teilen wie Metallteile des OP-Tisches, Halterung, feuchte Tücher ect. in Berührung kommt (auf Extremitäten ist besonders zu achten). Zwischen Patient, OP-Tisch und Halterung muss eine elektrisch isolierende, trockene, dicke Unterlage gelegt werden, die während der Anwendung der HF-Chirurgie nicht nass werden darf (u. a. durch Blut, Spülflüssigkeiten). Da zwischen Patient und Tischpolster trockene und nichtleitfähige Tücher gelegt werden müssen, ist zur Vermeidung elektrostatischer Aufladung für die Polster eine Mindestleitfähigkeit vorgeschrieben. Wäre diese nicht gegeben, könnten Entladungsfunken (aufgrund der Reibungselektrizität) mit einer gefährlichen Zündenergie für brennbare Narkosegase oder Alkoholdämpfe entstehen. ▬ Die neutrale Elektrode ist ganzflächig gut am Körper des Patienten zu applizieren (bevorzugte Applikationspunkte sind die oberen und unteren Extremitäten), sodass sie sich auch dann nicht lösen kann, wenn sich der Patient bewegt oder bewegt wird. Hierdurch wird ein zu hoher Übergangswiderstand vermieden, der den Stromrückfluss über die Neutralelektrode stört.
52.4
Wichtige sicherheitstechnische Vorschriften für OP-Tischsysteme
Nach DIN EN 60601-1 (VDE 0750, Teil 1) ist es aus Gründen des Explosionsschutzes notwendig, dass ▬ das Operationstischsystem an den Potentialausgleichsleiter angeschlossen ist (Ausnahme: Stationäre OP-Tischsysteme, die der Schutzklasse 1 entsprechen, brauchen nicht separat an den Potentialausgleich angeschlossen werden, da deren Schutzleiter (PE) diese Funktion übernimmt) und ▬ die Operationstischauflage elektrisch leitfähig ist, damit Reibungselektrizität ohne Funkenbildung über das geerdete Operationstischsystem abfließen kann. Ohne eine leitfähige Operationstischunterlage kann es zu sog. Büschelentladungen kommen. Diese können ein eventuell vorhandenes Luft-Gas-Gemisch zünden. Es dürfen nur Materialien aus Gummi oder Kunststoffe mit einem Oberflächenwiderstand zwischen 5×104 und 106 Ohm als Abdeckung der Operationstischlagerfläche verwendet werden. Auf das geerdete Operationstischsystem kommt zunächst die ableitfähige Operationstischauf-
lage. Darauf wird eine isolierende, starke und reißfeste Unterlage angebracht. Auf diese Tischpolsterung kommt weiterhin eine saugfähige Patientenunterlage. Nach VDE 0100-710 können Operationstischsysteme über eine FI-Schutzschaltung betrieben werden anstatt über ein IT-Netz (alter Begriff für Schutzleitersystem). OP-Tischsysteme sind der Klasse 1 gemäß Medizinproduktegesetzt (MPG) zugeordnet.
52.5
Aufbereitung: Pflege, Wartung und Hygiene
52.5.1 Manuelle Reinigung und Desinfektion
Nach jeder Operation müssen speziell die OP-Lagerflächen sowie die benutzten Transporter des OP-Tischsystems neu aufbereitet, d. h. sorgfältig gereinigt und desinfiziert werden. Die Reinigung und Desinfektion wird insbesondere in kleineren Krankenhäusern vielfach vom Hilfspersonal im Operationsbereich, gegebenenfalls auch vom Pflegepersonal, manuell durchgeführt. In Anbetracht der vielfältigen Unterteilung des gesamten OP-Tischsystem und des hohen hygienische Anspruchs stellt sich eine manuelle Reinigung als nicht immer zuverlässig dar. Sie ist überdies zeit- und personalaufwändig. Den hygienischen Aspekten, Wartungsarbeiten und eventuellen Reparaturen wird bereits bei der Konstruktion insofern Rechnung getragen, als z. B. das Oberteil des OP-Tisches ebenso wie die Verkleidung von Säule und Fuß überwiegend aus glattflächigen einzelnen Bauteilen aus Chromnickelstahl, die sich problemlos entfernen lassen, bestehen, bzw. insofern, als die elektrisch leitfähigen Kugellagerrollen, durch die der mobile OP-Tisch in alle Richtungen bewegt werden kann, für Inspektion und Reinigung von oben leicht zugänglich sind. Speziell hier zeigen sich deutliche Vorteile beim OP-Tischsystem, da sich Lagerflächen und Transporter leicht und problemlos in die entsprechenden Reinigungsräume fahren lassen; eventuell anstehende Reparaturen können, ohne dass der OP-Ablauf gestört wird, ebenfalls außerhalb des OP-Traktes durchgeführt werden.
52.5.2 Automatische OP-Tischsystemreinigung
und -hygiene Eine zweite Möglichkeit bieten sog. Dekontaminationsmaschinen, die die Reinigung, Desinfektion und Trocknung von geeigneten OP-Lagerflächen, Lafetten sowie OP-Zubehör automatisiert ausführen. Diese Alternative findet bisher hauptsächlich in größeren Operationszentren Anwendung, da sie im Gegensatz zur manuellen Reinigung und Desinfektion weder personal- noch zeitintensiv ist. Ein weiterer, nicht unerheblicher Vorteil ist darin
52
838
VI
Kapitel 52 · Operationstischsysteme
zu sehen, dass ein automatisierter Ablauf mittels Maschine – Einhaltung der Bedienungsanweisung vorausgesetzt – ein Maximum an Hygiene bietet. Bei der manuellen Reinigung dagegen ist das Ergebnis von der Sorgfalt des Personals, aber auch vom Zeitaufwand abhängig. In der Dekontaminationsmaschine beträgt die Zykluszeit, darunter sind die einzelnen Vorgänge wie Reinigung, Desinfektion, Zwischentrocknung, Klarspülvorgang und Endtrocknung zu verstehen, im Mittel 10 min. Hierbei muss angefügt werden, dass die Zykluszeit abhängig ist vom Grad der Verschmutzung und somit variiert. Alle während dieses Prozesses anfallenden Daten werden in einer Chargendokumentation festgehalten, um nachvollzogen werden zu können. Aus der Sicht des Pflegepersonals stellt dies nicht nur eine Erleichterung und damit eine erhebliche Verbesserung der Arbeitsbedingungen dar, sondern trägt darüber hinaus zur Optimierung sicherer Arbeitsabläufe im Operationsbereich bei.
52.5.3 Wartung
Neben der laufenden Reinigung und Desinfektion des OP-Tisches als Voraussetzung für aseptisches Arbeiten ist es aufgrund der vielfältigen elektromotorischen bzw. hydraulischen oder elektrohydraulischen Ansteuerung unerlässlich, das OP-Tischsystem regelmäßig zu warten, um Ausfallzeiten zu vermeiden und die Betriebssicherheit für Patient und OP-Personal sicherzustellen.
52.6
Planerische Hinweise
Die Planung der Einrichtung eines Operationssaals wird wesentlich von der chirurgischen Disziplin beeinflusst, die je nach Größe des OP-Raumes auch die Wahl des Fixpunktes einer fest montierten OP-Tischsäule bestimmt. An diesem Fixpunkt unter Einschluss der einzusetzenden OP-Lagerflächen orientieren sich wiederum OP-Leuchten, Deckenstativ für die Anästhesie und Chirurgie, deckengebundene C-Bogen oder Operationsmikroskope sowie Klimadecken, Klimafelder u. a. Die Abstimmung des Umfelds um ein fest installiertes OP- Tischsystem stellt eine sinnvolle Unterstützung der wirtschaftlich effektiven und ergonomischen Nutzung des OP-Raumes dar. Dieser ökonomische Aspekt wird auch in Zukunft weiterhin an Bedeutung gewinnen.
Weiterführende Literatur Krettek-Aschemann (2005) Lagerungstechniken im Operationsbereich. Springer Medizin Verlag, Heidelberg Lauven PM et al. (1992) Lagerungsschäden – ein noch immer ungelöstes Problem? Anästhesiol Intensivmed Notfallmed Schmerzther 27: 391–392
von der Mosel H (1992) Medizintechnik für Pflegekräfte. Bibliomed, Melsungen Oehmig H (1994) OP-Tisch-Technik heute. Trennung von Säule und Platte. KrankenhausTechnik 7: 18–21 Roos E (1992) Sinn und Zweck der erdschlussfreien Patientenlagerung auf OP-Tischen. MTD 11: 38–40 Schindler H (1985) Arbeitsgebiet Operationssaal. Lagerungen, Hygiene, Verfahren. Enke, Stuttgart Witzer K (1991) FMT-Fachwissen Medizin-Technik, Foge 7. MTD, Amtzell DIN 57 753, Teil 1/VDE 0753, Teil I/2.83, IV: Operationstischsysteme
53 Biomaterialien L. Kiontke 53.1 Klassifikation von Biomaterialien – 839 53.2 Entwicklungsgeschichte Endoprothetik – 839 53.3 Physiologische und pathologische Grundlagen – 841 53.4 Mechanik und Biochemie – 842 53.5 Faktoren für die Integration von Knochenimplantaten – 842 53.5.1 Bedingungen für die Osseointegration
53.7 Herausforderung »Verschleiß« 53.7.1 53.7.2 53.7.3 53.7.4 53.7.5 53.7.6 53.7.7
53.8 Ausblick
– 851
Literatur
– 852
– 842
– 848
Tribologie – 848 Ermüdungsabrieb – 848 Adhäsiver Abrieb – 848 Abrassiver Abrieb – 849 Metallgleitpaarungen – 849 Keramikgleitpaarungen – 850 Polyethylengleitpaarungen – 850
53.6 Mechanische Eigenschaften von Implantaten in der Endoprothetik – 845 53.6.1 Metalle als Knochenimplantat – 845 53.6.2 Keramiken in der Endoprothetik – 846 53.6.3 Polymere in der Endoprothetik – 846
Der Funktionsersatz menschlicher Organe und Gewebe durch körperfremde Materialien gewinnt in den nächsten Jahren zunehmend an Bedeutung. Förderlich sind hier das dramatisch wachsende Wissen über die pathophysiologischen Grundlagen der Organe und die biologischen Voraussetzungen für die Integration körperfremder Werkstoffe. Im Gegensatz zu Transplantaten bzw. zur zukünftigen Gewebereproduktion sind künstliche Implantate kostengünstig sowie unbegrenzt herzustellen und erlauben reproduzierbare Operationstechniken. Neben dem Knochen-, Knorpel- und Gelenkersatz am menschlichen Stützapparat werden körperfremde Werkstoffe heute standardisiert beim Gefäßersatz oder zur Gefäßaufweitung, beim Herzklappenersatz, als Hautimplantat, zum Ersatz der Linse des Auges, zur elektrophysiologischen Stimulation oder als Speicher für bioaktive Präparate verwendet. Eine vollumfängliche Betrachtung würde den Rahmen dieses Artikels sprengen.
53.1
Klassifikation von Biomaterialien
Neben den nicht-organischen Werkstoffen gibt es eine Vielzahl an organischen Biomaterialien zum Ersatz oder Teilersatz von Organen, deren Einsatz in der klinischen Praxis zumindest heute noch limitiert ist. Eine der wenigen Ausnahmen stellt der Herzklappenersatz mit modifizierten Xenografts vom Schwein oder Rind dar. Zudem gibt es eine Vielzahl an neuen Verfahren im Bereich des sog. Tissue Engineering, bei dem weitestgehend autologe Gewebeentnahmen auf einer Trägerstruktur vermehrt
und wieder reimplantiert werden. Mitfristresultate stehen in diesem Bereich aber noch aus. Darum wird sich dieser Artikel auf das häufigste Einsatzgebiet von Biomaterialien konzentrieren: die Endoprothetik. Zur Veranschaulichung der heute vielfältigen Einsatzgebiete von nicht-organischen Biomaterialien soll jedoch zunächst der Versuch einer Klassifikation unternommen werden (⊡ Tab. 53.1). Nähere Erläuterungen der dort verwendeten Begriffe gibt ⊡ Tab. 53.2.
53.2
Entwicklungsgeschichte Endoprothetik
Bereits 1840 pflanzte Carnochan in New York ein Stück Holz in ein menschliches Kiefergelenk. Seit 1906 verwendete man körperfremde Interponate wie Silber, Magnesium, Zink, Elfenbein, Gold, Zelluloid als Ersatzmaterial für kleinere Knochendefekte. Die eigentliche erste Ersatzarthroplastik wurde 1890 von dem Deutschen T. Gluck eingeführt: eine Kniegelenktotalprothese aus Elfenbein, verankert mit gipsbasiertem Zement. 1922 ersetzte Groves-Hey den Hüftkopf durch ein Elfenbeinimplantat. Die erste Abhandlung über eine Endoprothese und ihre klinischen Ergebnisse erschien 1939 im Journal of Bone and Joint Surgery unter dem Titel »Arthroplasty of the Hip«. Die Autoren Smith und Petersen berichteten über eine Femurkopf-Kappen-Prothese aus Glas, später dann aus Vitallium, einer Chrom-Kobalt-Legierung. Typisch für den beschriebenen Prothesentyp waren Nekrosen und somit der Verlust von Knochen unter dem Implantat.
840
Kapitel 53 · Biomaterialien
⊡ Tab. 53.1. Biomaterialien für Implantate Biomaterial
Biodynamik
Einsatzbereich
Aluminiumoxid-/Zirkonoxidkeramik
Bioinert
Artikulationsflächen in der Endoprothetik Dentalimplantate Mittelohrimplantate
Resorbierbare Keramiken (Hydroxylapatit)
Bioaktiv
Beschichtung von Endoprothesen Füllmaterial bei größeren Knochendefekten Dentalimplantate
Glasbasis/ Glaskeramiken
Bioaktiv
Beschichtung von Endoprothesen Füllmaterial bei größeren Knochendefekten Dentalimplantate Mittelohrimplantate
FeCrNi-Stahllegierungen
Biotoleriert
Implantate für zementfreie und zementierte Fixation in der Endoprothetik Knochenplatten- und Schrauben Drähte/Cerclagematerial
CoCr-Legierungen
Biotoleriert
Implantate für zementfreie und zementierte Fixation in der Endoprothetik Knochenplatten- und Schrauben Artikulationsflächen Herzklappenersatz Drähte/Cerclagematerial
Titanbasislegierung
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Rein-Titan Rein-Tantal
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Polyethylen (PE)
Bioinert
Artikulationsflächen in der Endoprothetik
Polypropylen (PP)
Bioinert
Nahtmaterial Herzklappenersatz
Polyethylenterephtalat (PET)
Bioinert
Künstliche Blutgefäße Nahtmaterial
Polyamid (PA)
Bioinert
Herzklappenersatz
A) Keramische Werkstoffe
B) Metallische Werkstoffe
VI
C) Polymere
Polytetrafluorethylen (PTFE)
Bioinert
Künstliche Blutgefäße
Polymethylmethacrylat (PMMA)
Bioinert
Knochenzement Intraokulare Linsen Zahnersatz
Polyurethan (PU)
Bioinert
Künstliche Blutgefäße Hautimplantate Herzklappenersatz
Polysiloxan
Bioinert
Hautimplantate Brustimplantate Herzklappenersatz Künstliches Herz
Polyetheretherketon (PEEK) Polysulfon (PSU) im Kohlenstofffaserverbund
Bioinert
Osteosynthese Hochbeanspruchte Knochenimplantate
Polyhydroxylmethacrylat (PHEMA)
Bioinert
Intraokulare Linsen
⊡ Tab. 53.2. Begriffsbestimmung (zu Tab. 53.1 und Tab. 53.3) Begriff
Definition
Bioinert
Keine Freisetzung von toxischen Substanzen, keine positive Interaktion mit dem Gewebe; Reaktion: Bindegewebskapsel um das Implantat
Biokonduktiv
Knöchernes Gewebe wird an die Implantatoberfläche geführt und in Strukturen und Poren fest integriert
Bioaktiv
Positive Interaktion mit Gewebedifferenzierung; Reaktion: Bindung von Knochen
841 53.3 · Physiologische und pathologische Grundlagen
Der erste zementfreie Hüftgelenkersatz wurde 1938 von P. Wiles erläutert: eine durch zwei Schrauben fixierte stählerne Hüftpfanne sowie ein durch den Schenkelhals verlaufender Schaft mit Stahlkopf. Moore und Bohlmann entwickelten 1940 die erste im Markraum des Oberschenkelknochens verankernde Vitalliumprothese. Die erste Endoprothese aus dem ältesten, heute noch als Knochenzement verwendeten Material in der Endoprothetik, Polymethylmethacrylat (PMMA) wurde 1950 von Judet eingeführt. Eine lange Spezialendoprothese mit Verankerung im Markraum des Oberschenkelknochens wurde 1954 erstmals von dem Franzosen Merle d‘Aubigné implantiert und fand bis in die 1960er Jahre Verwendung. Die bis dahin eher bescheidene Überlebensdauer der Prothesentypen wurde 1960 durch den Engländer J. Charnley revolutioniert. Seine erste Entwicklung bestand aus einer Hüftendoprothese mit PTFE-Pfanne und Kopfersatz aus 316L-rostfreiem Stahl (⊡ Abb. 53.1). Das theoretische Prinzip war hier ein im Markraum konisch verblockender Schaft, der sich bei möglichen Mikrobewegungen jederzeit wieder selbst verkeilen konnte. Außerdem erreichte man hierdurch eine sofortige Primärstabilität des Implantates. Der Schaft wurde durch den Zement PMMA fixiert. Eine weitere Besonderheit war ein großer Kopf mit 42 mm Durchmesser, der den Reibungswiderstand reduzieren sollte. Der große Nachteil dieser ersten Innovation von Charnley war der immense Kaltfluss des PTFEs (näher bekannt als Teflon) als Pfannenmaterial. Es kam zu frühen und schwerwiegenden Pfannenlockerungen. Darauf begründete er seine zweite, große Innovation, die bis heute in modifizierter Form beim Hüftgelenkersatz verwendet wird: eine zementierte Polyethylenpfanne mit relativ kleinem Metallkopf als Artikulationspartner. Parallel zu Charnley verfolgte McKee die Philosophie der Metall-Metall-Gleitpaarung am Hüftgelenk gemäß Wiles. McKee versorgte 1951 erstmals 3 Patienten mit einer metallenen Schraubpfanne, die nach Lockerungsproblemen 1970 durch eine zementierte Pfanne aus KobaltChrom ersetzt wurde (⊡ Abb. 53.2). Beide Grundkonzepte von McKee und Charnley beherrschten die Endoprothetik des Hüftgelenks über Jahrzehnte. Warum das so war, soll unten erläutert werden.
53.3
Physiologische und pathologische Grundlagen
Am Beispiel der Frakturheilung kann die Einheilung von Implantaten gut beschrieben werden. Wolff und Pauwels stellten fest, dass die Knochenmorphologie geänderten Belastungen folgt. Dies geschieht während der Wachstumsphase beim Kind genauso wie nach pathologischen Veränderungen von Gelenken und Stützapparat. Diesen
⊡ Abb. 53.1. Hüftgelenkprothese nach Charnley
⊡ Abb. 53.2. Hüftgelenkprothese nach McKee
Prozess der Anpassung nennt man auch Modelling oder Remodelling des Knochens. Bei einer Fraktur bildet sich zunächst ungerichteter, filzartiger Faserknochen. Faserknochen ist überall dort zu finden, wo eine beschleunigte Knochenneubildung von Bedeutung ist. Die Knochenbildung geht hierbei grundsätzlich von den Blutgefäßen aus, die im Frakturzwischenraum bindegewebig einsprießen und sich diffus verteilen. Im Anschluss daran bildet sich über Wochen neuer, lamellärer Knochen. Hierbei bestimmt die Lastverteilung das Zusammenwachsen und die Neuausrichtung der trabekulären Knochenstruktur. Die Knochentrabekel des lamellären Knochens stehen wie Säulen in
53
842
Kapitel 53 · Biomaterialien
Richtung der einwirkenden Kraft, um eine maximale Stabilität zu gewährleisten. Während dieses wochenlangen Remodellings kommt es zu einem ständigen Knochenabbau durch sog. Osteoklasten und Wiederaufbau durch Osteoblasten. Bei einer Fraktur erfolgt die Bildung faserigen Knochengewebes von beiden Seiten des Frakturspalts. Bei einem Implantat erfolgt dies nur von einer Seite des Zwischenraums. Das neue Gewebe wächst auf die Prothese zu. Hierbei ist nun die Größe der zu überbrückenden Distanz wichtig. Bei Distanzen über 1 mm benötigt die Einheilung eines Implantats mehrere Monate.
53.4
VI
Mechanik und Biochemie
Ein entscheidender Faktor für die Integration und Akzeptanz von Biomaterialien im menschlichen Körper ist die Art des angrenzenden, organtypischen Gewebes. Beispiele solcher Organe sind Blut, Gefäße, Herzmuskel, Fettgewebe, Haut und Knochen. Haben sich bei Gefäßund Herzimplantaten, wie bspw. beim Herzklappenersatz, bei Stents oder Gefäßersatzprothesen eher glatte und elastische Materialien fest etabliert, so finden wir bei Knochenimplantaten vorwiegend mechanisch rigide, oft angerauhte Implantate. Aber auch Ausnahmen von dieser Regel sind hier zu erwähnen. Beispielsweise forciert man in jüngster Zeit wieder mit rauhen Oberflächen beschichtete Implantate im Blutstrom, um das Einwachsen des Implantats biochemisch zu begünstigen. Dies steht zunächst im Widerspruch zu dem Ziel, durch glatte Oberflächen ein Anhaften von Plättchen sowie Leukozyten und damit die Auslösung einer entzündlichen und immunologischen Reaktion möglichst zu verhindern. Jedoch stellt man fest, dass bestimmte Werkstoffe in Verbindung mit einer mikroporösen Oberfläche eine Beschleunigung der Ummantelung des Implantats mit einem funktionsfähigen Endothel ermöglichen. Bei Versuchen mit beschichteten Koronarstents an Tieren ließen sich deutlich geringere Restenoseraten ermitteln. Verständlich wird dies dann, wenn man die reduzierenden Eigenschaften des Iridiumoxids berücksichtigt. Diese gewährleisten eine Unterdrückung der bei der Fremdkörperantwort freiwerdenden Radikale. Die freien Radikale nämlich in ihrer Eigenschaft als aggressive, fremdkörperlösende Substanz behindern auch die Bildung körpereigenen Gefäßendothels (Alt et al. 1999). Die theoretischen Betrachtungen über die Vor- und Nachteile eines Biomaterials sowie deren In-vitro-Einsatz kann oft nicht auf die Wirkung im menschlichen Organismus projiziert werden. Neue Erkenntnisse über Fremdkörperreaktion und biomechanische Antwort motivieren also immer wieder zur klinischen Untersuchung neuer Werkstoffe.
53.5
Faktoren für die Integration von Knochenimplantaten
Eine Endoprothese – bspw. zum Gelenkersatz – soll den natürlichen Belastungen des Körpers standhalten können. Druck- und Zugkräfte könnnen hierbei Spitzenwerte von bis zum 4,5-fachen des Körpergewichts erreichen. Welche Faktoren sind entscheidend für die Akzeptanz knöcherner Implantate? Man geht heute davon aus, dass ein möglichst homogener Ersatz des natürlichen Knochens bezüglich Mechanik und Knochenumbauvorgängen gewährleistet sein muss. Die Voraussetzungen für den knöchernen Einbau eines Implantats, die sog. Osseointegration (Braunemark et al. 1973), sind heute weitgehend geklärt. Ein geeigneter Werkstoff ist hierbei nur eine von vielen Bedingungen für eine gute Osseointegration.
53.5.1 Bedingungen für die Osseointegration
Primärstabilität des Implantats Nur wenn das Implantatdesign Relativbewegungen zum Knochen vermeidet, gelingt ein Anwachsen von Knochensubstanz ohne Bildung von störendem Bindegewebe. Die Primärstabilität wird in erster Linie durch die Art der mechanischen Verbindung (Fügen) zwischen Knochen und Implantat gewährleistet. Die ⊡ Abb. 53.3 zeigt als Beispiel eines heute üblichen Verbindungsverfahrens in der Endoprothetik die Keilverbindung durch Konusform. Ein weiterer Faktor für die Primärstabilität des Implantatmaterials ist eine möglichst hohe Beanspruchbarkeit bezüglich Druck, Zug und Biegung bei gleichzeitig dem Knochen angepasster Elastizität.
Biodynamisches Implantatmaterial Grundsätzlich eignen sich bioinerte, mit dem Organismus möglichst keine biochemischen Reaktionen eingehende Werkstoffe für endoprothetische Versorgungen. In der klinischen Praxis zeigen sich insbesondere biokonduktive Werkstoffe wie das Titan und seine Legierungen als überlegen bezüglich Geschwindigkeit und Umfang der Osseointegration. Ein ausschließlich inertes Material wie die Aluminiumoxidkeramik ist sogar für den direkten Knochenkontakt wegen Knochenverlustes auszuschließen. ⊡ Tab. 53.3 zeigt, dass es für jeden Einsatzbereich und jede Beanspruchungsform eines Implantats bevorzugte Werkstoffe geben muss. Die Titanbasislegierungen sowie bioaktive Keramiken wie Hydroxyapatit als Oberflächenmaterial erlauben eine ausreichende Osseointegration für eine stabile Langzeitfixierung von Implantaten. (Zur Erläuterung der in der Tabelle verwendeten Begriffe siehe ⊡ Tab. 53.2).
843 53.5 · Faktoren für die Integration von Knochenimplantaten
⊡ Tab. 53.3. Materialien in der Endoprothetik Biomaterial
Biodynamik
Verwendung
Aluminiumoxid-/Zirkonoxidkeramik ISO 6474
Bioinert
Artikulationsflächen
CoCr-Legierungen und medizinischer Stahl ISO 5832
Biotoleriert
Implantate für zementfreie und zementierte Fixation Artikulationsflächen
Polyethylen ISO 5834-1/-2
Biotoleriert
Artikulationsflächen Hüftpfannenkomponenten ohne Knochenkontakt!
Knochenzement (Polymethylmetacrylat)
Biotoleriert
Verbindung von Implantat (CoCr- oder Stahllegierungen) mit vitalem Knochen Temporäre Fixierung von Knochen
Titanbasislegierung ISO 5832-11
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Resorbierbare Keramiken/Gläser (Hydroxyapatit)
Bioaktiv
Beschichtung von Implantaten Füllmaterial bei größeren Knochendefekten
⊡ Abb. 53.3. Primärstabilität: Keilverbindung durch Konusform
Osteophile Implantatoberfläche Was macht einen Werkstoff mehr oder weniger geeignet für die Osseointegration? Maßgeblich ist hierbei seine Oberfläche und das Vermögen, das Anwachsen von Knochen zu unterstützen. Die Oberfläche von Titanimplantaten passiviert sich in der Umgebung von Luft oder oxidierenden Flüssigkeiten durch Bildung einer selbstheilenden Titanoxidschicht. Hydroxylionen binden sich leicht an der Titanoxidoberfläche und bieten eine Angriffsfläche für die Bindung von Aminosäuren. Dieser konduktiven Eigenschaft verdanken Titanimplantate eine beschleunigte Bildung von initialem Faserknochen nach instrumenteller Vorbereitung des Knochenbetts. Durch Koruntstrahlung von Titanimplantaten erreicht man zusätzlich eine Nachbildung der Knochenmakrostruktur, was eine Verankerung der Knochentrabekel am Implantat und in der »Kraterlandschaft« der Oberfläche zusätzlich begünstigt (⊡ Abb. 53.4, auch 4-Farbteil am Buchende).
Besonders vorteilhaft für das schnelle An- und Einwachsen des Knochens scheint eine neuartige Oberflächenstruktur zu sein: das sog. Trabecular Metal. Dieses besteht aus einer dem spongiösen Knochen ähnlichen amorphen Kohlenstoffträgerstruktur, welche im Vakkuum erhitzt und mit Tantal beschichtet wird. Es entsteht eine Struktur mit etwa 80% Porosität und 550 µm Porengrösse. Nach etwa 2–3 Monaten kann eine 2–3 mm dicke Struktur komplett von Knochen durchbaut werden. Trabecular Metal hat unter allen metallischen Implantaten die höchste Übereinstimmung mit der Komprimierbarkeit von spongiösem und der Elastizität von kortikalem Knochen. Die ⊡ Abb. 53.4c zeigt die mikroskopische Ähnlichkeit mit spongiösem Knochen (⊡ Abb. 53.4d). Das Material wird weitestgehend als Oberfläche für Hüftpfannen und zementfreie Kniesysteme, zur Wirbelkörperfusion oder für den Knochenersatz bei größeren Knochendefekten verwendet.
Hydroxyapatitbeschichtung (HA-Beschichtung) Die Kalziumphosphatbeschichtung von zementfrei fixierten Implantaten hat in den letzten Jahren zunehmendes Interesse gefunden. Das dafür erforderliche Hydroxyapatit (HA) entspricht dem anorganischen Grundmaterial Kalziumphosphat des Knochens. Die keramischen Eigenschaften dieses Materials erlauben ein rigides Anhaften an Implantatoberflächen, auch bei kraftvollem und reibungsintensivem Einbringen von Endoprothesenschäften oder Pfannen. Da der Knochen in den ersten Wochen eine chemische Bindung mit Hydroxyapatit eingeht, ist eine sehr feste Verbindung mit lebendem Knochengewebe zu erreichen, die fester ist als jede Art von Verbindung mit einer Metalloberfläche. An dieser Art Beschichtung lässt sich auch leicht nachvollziehen, wie wichtig die Berücksichtigung verschiedener Implantateigenschaften sein kann.
53
844
Kapitel 53 · Biomaterialien
Denn Hydroxyapatitbeschichtungen sind zwar rauh, aber nicht porös aufgebracht. Druck- und Zugkräfte, aber auch Scherkräfte werden sehr gut übertragen. Allerdings bestehen zwischen dem metallenen Implantat und der HA-Beschichtung große Unterschiede beim E-Modul, was eine sehr sorgfältige Fertigung und Implantationstechnik erfordert. Beim grobgestrahlten Titan findet sich nach knöcherner Integration ein festes Interface zwischen Knochen und Implantat. An HA-beschichteten Explantaten kann man jedoch sehr gut beobachten, dass das Hydroxyapatit im Rahmen des knöchernen Umbaus integriert wird und der Knochen dann wiederum einen direkten Kontakt mit der Implantatoberfläche besitzt. Der Vorteil der HA-Beschichtung liegt also in einer beschleunigten knöchernen Integration, was je nach Indikation gewünscht sein kann.
VI Vitale Knochenumgebung
c
d ⊡ Abb. 53.4a–d. a Titanexplantate mit deutlicher knöcherner Integration, b Anwachsen auf grobgestrahlter Oberfläche, c Trabecular Metal und d spongiöser Knochen
Wie vorausgehend beschrieben, ist die Langzeitstabilität einer Endoprothese maßgeblich von der knöchernen Integration abhängig. Fast ebenso wichtig wie das Implantat selbst und seine Eigenschaften ist also die Art des dieses umschließenden Gewebes. Vor Implantation einer Endoprothese findet man ein beschädigtes und krankhaft verändertes Gelenk. Diese Veränderungen betreffen in aller Regel den Gelenkspalt selbst, der durch Synovia (Gelenkflüssigkeit) und Knorpel die Kraft der sich gegeneinander bewegenden Skelettkomponenten überträgt. Durch Knorpelschädigung oder belastungsinduzierte Veränderung der Gelenkmorphologie entstehen neue Belastungszentren und »entlastete« Regionen, mit teilweise abbrassiver oder adhäsiver Gewebsschädigung, sowie Riss- und Lückenbildung. Der Körper reagiert darauf durch Bindegewebsbildung zur Schließung dieser Lücken oder entlasteten Bereiche. An den anschließend – krankhaft bedingt – neu belasteten Bereichen findet man oft eine reaktive Knochenneubildung in Form von Spangen, Höckern, Randzacken oder flächenhaften Auflagerungen. Diese werden Osteophyten genannt. Die Knochenneubildung und das Anwachsen an das Implantat ist nun entscheidend für die Integration des Implantats. Nur wenn ausreichend spongiöser, lamellenartiger, vitaler Knochen Kontakt mit dem Implantat hat, ist eine schnelle Einheilung des Implantats gewährleistet. Voraussetzung für die Herstellung des Primärinterface zum Implantat ist also die Entfernung aller störenden Zwischenschichten wie Bindegewebe, Osteophyten, Granulome, aber auch Knorpel und faseriger Knochen. Den zugehörigen Operationsschritt nennt man Anfrischen des Knochens. Osteophyten werden entfernt und z. B. die Hüftgelenkspfanne ausgefräst zur Erreichung des lamellären Knochens als Grundstock für die einzusetzende Titanpfanne.
845 53.6 · Mechanische Eigenschaften von Implantaten in der Endoprothetik
Belastung des Implantats Nehmen wir das Hüftgelenk als Beispiel für diesen Abschnitt. In der Einleitung wurde erläutert, wie wichtig die Kraftübertragung als Reiz für die Knochenbildung oder den Umbau ist. Dies trifft auch auf das Anwachsen von Knochen an Implantate zu. Lamellärer Knochen wird zunächst regional beschränkt abgebaut, und faseriger Knochen »überspringt« anschließend unter Einbindung versorgender Blutgefäße den Zwischenraum zum Implantat. Dieser darf 1–2 mm nicht überschreiten, um die langfristige Bildung von – zur Kraftübertragung ungeeignetem – Bindegewebe zu unterbinden. Kontinuierliche Druckkräfte zwischen angefrischtem Knochen und Implantat sind entscheidend für den beschriebenen Knochenumbau. Zunächst kann man durch die Form des Implantats (konische Verblockung, PressFit-Prinzip) eine kontinuierliche Vorlast auf den Knochen einwirken lassen. Ergänzend hat sich heute die postoperative, frühzeitige Teilbelastung des Gelenks als wirkungsvolle Maßnahme zur schnellen, effizienten Osseointegration etabliert.
Abrieb und Dauerfestigkeit Schon recht früh, beim Einsatz z. B. von PTFE (Teflon) als Pfannenkomponente, hat sich gezeigt, dass der Erfolg für die Langzeitstabilität von der Abriebfestigkeit bedeutend beeinflusst wird. Aber nicht nur im Pfannenbereich, sondern auch am Übergang von Schaftkomponenten zum Knochen entstehen Mikrobewegungen, die bei ungeeigneten Materialkombinationen zu metallischem Abrieb und in der Konsequenz zur Fremdkörperreaktion führen. Die allmähliche Resorption des vitalen Knochens und eine Schwächung des umgebenden Weichteilgewebes sind unausweichlich. Gemäß wissenschaftlicher Definition und den in der Praxis vorwiegend angewendeten Materialien und Methoden zur sicheren Primärstabilität und Osseointegration ist der Abrieb der heute bedeutendste Faktor für die Langzeitstabilität eines Knochenimplantats. Er soll in Abschn. 53.7 »Herausforderung Verschleiß« darum besonders beleuchtet werden.
53.6
Mechanische Eigenschaften von Implantaten in der Endoprothetik
Bis Ende der 1980er Jahre wurde mehrfach über Brüche von Endoprothesenschäften aus Stahl oder CoCr-Legierungen berichtet. Durch die Entwicklung neuer Designs und Prüfmethoden, wie die Finite-Elemente-Computermodell-Analyse und gelenkäquivalente Belastungssimulation, können diese Ermüdungsbrüche heute in aller Regel ausgeschlossen werden. Die Grundlagen der me-
chanischen Eigenschaften von Knochenimplantaten sind dennoch sehr wichtig für das Verständnis der Einsatzgebiete und zur Vermeidung von Fehlindikationen bei deren Einsatz.
53.6.1 Metalle als Knochenimplantat
Das Metallgefüge besteht aus kristallinen Körnern, den Kristalliten, deren chemische Zusammensetzung, Form, Größe und Anordnung die mechanischen Eigenschaften des Materials definieren. Die besondere plastische Verformbarkeit der metallischen Werkstoffe beruht auf frei beweglichen Elektronen innerhalb des Ionengitters, die das Gitter auch bei modifizierter Morphologie gut zusammen halten. Dabei kann ein Ion oft durch ein andersartiges ersetzt werden, was durch die gute Legierungsfähigkeit deutlich wird. Einige Metalle, wie Eisen, bestehen in der höchsten Reinheitsstufe aus einem eher heterogenen Kristallgemisch, welches gern oxidiert und damit eher spröde Eigenschaften hat. Die Ursache ist eine recht kurze Erstarrungsphase vom flüssigen in den kristallinen, festen Zustand. Durch Hinzufügen von bspw. Nickel oder Chrom verändert man das Erstarrungsverhalten. Das Wachstum von Kristallen wird nun über einen längeren Temperaturbereich gestreckt und damit zeitlich und von der Intensität her verlängert. Es entsteht entweder ein feineres Kristallgemisch, bei dem jedes Metall eigene Kristalle bildet, oder ein Mischkristall, bei dem die Bestandteile der Legierung ein gemeinsames Gitter innerhalb eines Kristalliten bilden. Die höhere Härte und Festigkeit von Legierungen gegenüber einem Einstoffmetall erklären sich aus den Unregelmäßigkeiten im Gitteraufbau. Haben die eingelagerten Atome der Legierungsbestandteile einen größeren Durchmesser als die Atome des Grundstoffs, bewirken sie eine Verspannung des Grundgitters. Bei äußerer Krafteinwirkung wird diese Verspannung und der zusätzliche Reibungswiderstand infolge der unterschiedlichen Atomgrößen und das Wandern des Gitters erschwert. Der Einfluss von Legierungsbestandteilen in medizinischen Metallimplantaten auf die mechanischen Eigenschaften soll durch ⊡ Tab. 53.4 kurz verdeutlicht werden. Die Homogenität und Ausrichtung des Metallgitters kann zusätzlich durch die Art der Verformung beeinflusst werden. Während bei Gusslegierungen das Kristallgefüge weitestgehend durch thermische Behandlung bestimmt wird, kann man durch Walzen, Schmieden, Ziehen oder Pressen die Kristallitform und den Faserverlauf zusätzlich günstig beeinflussen. Doch auch hier spielt der Legierungsanteil eine bedeutende Rolle. So nimmt die Schmiedbarkeit eines Stahls mit steigendem Kohlenstoffanteil ab. Beim Schmieden
53
846
Kapitel 53 · Biomaterialien
⊡ Tab. 53.4. Eigenschaften metallischer Legierungsbestandteile Legierungsbestandteil
VI
Einfluss auf das Metallgefüge
Kohlenstoff
(C)
Eisenbegleiter wie (Phosphor, Schwefel) bei Roheisen reduzierend: Veredelung des Stahls
Chrom
(Cr)
Steigert Festigkeit und Härte, erhöht die Korrosionsbeständigkeit, Warmfestigkeit und Schneidhaltigkeit
Nickel
(Ni)
Kornverfeinerung und Homogenisierung des Metallgefüges und dadurch Erhöhung von Zähigkeit, Festigkeit sowie Korrosionsbeständigkeit
Cobalt
(Co)
Erhöht Härte und Schneidhaltigkeit
Mangan
(Mn)
Verschleißfestigkeit, Nickelersatz (Kornverfeinerung)
Vanadium und Molybdän
(V) und (Mo)
Erhöhung von Härte, Korrosionsbeständigkeit, Zähigkeit und Warmfestigkeit
muss die Elastizitätsgrenze des Werkstoffs überschritten werden. Die Körner werden nicht nur verformt, sondern auch verlagert, wobei sie an den Korngrenzen gleiten und versetzt werden. Wichtig ist hier, dass die Kornverformung von der Lage im zu schmiedenden Werkstück abhängt. Das heißt, durch gezielte Schmiedetechnik werden die mechanischen Eigenschaften des Werkstücks dreidimensional optimiert. Für den Bereich der Knochenimplantate werden die heute üblichen Metalllegierungen in ⊡ Tab. 53.5 zusammengefasst.
53.6.2 Keramiken in der Endoprothetik
Im Bereich der Implantate werden Keramiken ausschließlich für auf Druck belastete und verschleißrelevante Implantate eingesetzt. Direkter Kontakt zwischen glatter Keramik und Knochen führte nie zur Integration des Implantats. Eine Ausnahme sind die Hydroxyapatitbeschichtungen. HA besteht aus dem bioaktiven Ca5(PO4)OH und fördert durch seine biochemische Tarnung die Osseointegration. Aluminiumoxidkeramiken (Alumina) hingegen wurden bereits vor ca. 30 Jahren als Gleitflächenmaterial eingeführt. Vor etwa 10 Jahren wurden Zirkoniumoxidkeramiken (Zirconia) erstmals in den USA für den Hüftgelenkersatz verwendet. Sie wurden bald gegen die zäheren Y-TZP-Zirkoniumkeramiken ersetzt. Aufgrund der kristallinen Struktur entspricht die Festigkeit einer Keramik dem Widerstand gegenüber Rissbrüchen. Im Gegensatz dazu entspricht die Festigkeit von Metallen dem Widerstand gegenüber plastischer Verformung. Um die Festigkeit einer Keramik zu verbessern, müssen Zähigkeit und Korngröße gleichermaßen berücksichtigt werden. Denn umso kleiner die Körner, desto höher die Festigkeit des Materials. Die Korngröße selbst wird maßgeblich durch das Erstarrungs- und Kristallisationsverfahren bestimmt.
Darüber hinaus kann man eine Erhöhung der Zähigkeit durch das Einbringen faserartiger, anisotroper Kristalle erreichen. Anders als in Kunststoffen, bei denen die künstlich eingebrachten Kermikfasern deutlich unterschiedliche Elastizitätsmoduli besitzen, besitzt das E-Modul von Fasern und Matrix der Keramik ähnliche Werte. Kommt es in der Keramik zu einem Riss, so läuft die Energie entlang der Kristallgrenzen in das Innere des Materials, bis sie an einem Partikel »verstreut« wird. Die Rissbildung stoppt an dieser Stelle. Fügt man nun faserartige Kristalle ein, wird die Energie unmittelbar und oberflächennah entlang der Faserkristalle umgeleitet und verteilt, wodurch der Riss frühzeitig zum Stillstand kommt.
53.6.3 Polymere in der Endoprothetik
Anders als die gitterförmigen Metallzusammensetzungen bestehen Polymere aus meist einfachen, gesättigten Kohlenwasserstoffketten, deren Moleküle aus einer großen Anzahl Struktureinheiten (Monomere) aufgebaut sind. Polymere finden sich durchaus auch in der Natur. Typische Biopolymere sind Zellulose, Stärke und Nukleinsäuren. Synthetische Polymere werden durch Polyreaktionen (Polymerisation, Polykondensation, Polyaddition) hergestellt. Bei der Herstellung durch Polymerisation werden meist ungesättigte Monomere (Alkene) an aktive Atomgruppen abgelagert. Man startet den Prozess durch Beifügen von Radikalen oder Ionen. Es ist zusätzlich möglich, durch sog. Komonomere der Polymerkette zusätzliche Verzweigungen aufzudrängen. Im Gegensatz zur Gefäßchirurgie, in der elastische Komponenten wie Polyester bzw. PTFE und Polyurethan Anwendung finden, kommen am Stützapparat eher rigide, abriebresistente Polymere zum Einsatz. Hierzu zählen ultrahochmolekulares Polyethylen (PE) als Gelenkflächenersatz und Polymethylmethacrylat als Füll- und Fixationskomponente.
53
847 53.6 · Mechanische Eigenschaften von Implantaten in der Endoprothetik
⊡ Tab. 53.5. Zusammensetzung und Kennwerte endoprothetischer Metallimplantate (Kennwerte nach ISO 5832 sind Rp (MPa): Streckgrenze, Rm (MPa): Bruchfestigkeit, A (%): Bruchdehnung; Zusammensetzung: Gew.-%) Legierung
Mechanische Kennwerte
Einsatzbereich
FeCrNiMnMoNbN Schmiedestahl (ISO 5832-9)
Rp 430 min RM 740 min A 30 min
Auf Biegung und Torsion beanspruchte Endoprothesenkomponenten, auch Knochenplatten und Schrauben
Zusammensetzung
C
Si
Mn
Cr
Mo
Nb
N
Fe
0,08
0,75
2,0–4,25
19,5–22
2,0–3,0
0,25–0,8
0,25–0,5
Basis
Zusammensetzung
C
Cr
Fe
Mn
Mo
Ni
Si
Co
0,35
26,5–30
1,0
1,0
4,5–7,0
1,0
1,0
Basis
C
Cr
Fe
Mn
Mo
Ni
Si
Co
0,35
26,5–30
1,0
1,0
4,5–7,0
1,0
1,0
Basis
Cr
Mo
Ni
Fe
C
Mn
Si
Co
26,0–30,0
5,0–7,0
1,0
0,75
0,35
1,0
1,0
Basis
Reintitan (ISO 5832-2)
Zusammensetzung
Gleichmäßig, großflächig belastete Implantate wie Hüftgelenkspfannen und Geflechte, die ein Anwachsen des Knochens begünstigen sollen
Rp 440 min Rm 550 min A 15 min
C
H
N
O
Fe
Ti
0,1
0,015
0,05
0,45
0,3
Basis Auf Biegung und Torsion beanspruchte Implantate, die Knochenanwachsen begünstigen sollen, Bsp. Endoprothesenschäfte und Pfannen
Rp 800 min Rm 900 min A 10 min
TiAlNb Schmiedelegierung (ISO 5832-11)
Zusammensetzung
Auf Druck und Verschleiß beanspruchte Hüftgelenkskugeln, sehr feines Gefüge und somit auch geeignet für MetallMetall-Gleitpaarungen
Rp 700 min Rm 1000 min A 12 min
CoCrMo Schmiedelegierung (ISO 5832-12)
Zusammensetzung
Auf Biegung und Torsion beanspruchte Teile wie Endoprothesenschäfte, auch in Verbindung mit PMMA
Rp 650 min Rm 1000 min A 20 min
CoNiCrMo Schmiedelegierung (ISO 5832-6) Zusammensetzung
Auf Druck und Verschleiß beanspruchte Hüftgelenkskugeln in Paarung mit Pfannen aus Polyethylen
Rp 450 min Rm 665 min A 8 min
CoCrMo Gusslegierung (ISO 5832-4)
C
H
N
Ta
Fe
Al
Nb
Ti
0,08
0,009
0,05
0,5
0,25
5,5–6,5
6,5–7,5
Basis
Polymethylmethacrylat (PMMA) PMMA, als Verglasungsmaterial auch Acryl- oder Plexiglas, in seiner Konsistenz für den medizinischen Einsatz Knochenzement genannt, ist ein thermoplastischer Kunststoff, der durch radikalunterstützte Polymerisation von Methacrylsäureestern hergestellt wird. Im Zweikomponentenverfahren wird er während des operativen Eingriffs angemischt und ist dann für etwa 5–8 min verarbeitbar. Dieses Verhalten sowie seine exzellente mechanische Festigkeit und Biotoleranz verleiht ihm ideale Eigenschaften
zur Verwendung als Füll- und Verbindungsmaterial. Der größte Einsatzbereich ist die Zementierung von metallenen Schäften, Sockeln oder Polyethylenpfannen beim künstlichen Gelenk- oder Zahnersatz.
Polyethylen Trotz seiner Belastbarkeit auf Druck und Torsion hat sich Polytetrafluorethylen im Gegensatz zum Polyethylen nach den ersten endoprothetischen Verwendungen durch Charn-
848
VI
Kapitel 53 · Biomaterialien
ley wegen des unverhältnismäßig hohen Abriebs nicht bewährt. Sogenanntes High-density-Polyethylen (UHMWPE) besteht weitestgehend aus unverzweigten Molekülketten und hat im Vergleich zu anderen Kunststoffen niedrige Festigkeit und Härte, aber hohe Zähigkeit. Der Grundstoff UHMWPE (ISO 5834-1/-2) wird nach Polymerisation in Platten vorbereitet, aus denen die endoprothetisch einzusetzenden Vorformen durch schneidende und spannende Prozesse erstellt werden. Um es endoprothetisch tauglich zu machen, wird es zusätzlich unterschiedlichen Prozessen zur Quervernetzung der Kohlenwasserstoffmolekülketten unterzogen. Härte, Druckbeständigkeit und Abriebresistenz erhöhen sich dadurch deutlich. Diese Prozesse unterscheiden sich leicht von Hersteller zu Hersteller. Wie unten noch beschrieben wird, kann einem der heute bedeutensten Probleme der Endoprothetik, nämlich dem Abrieb bei Artikulationen, nur mit ausgereiften und aufwändigen Fertigungsverfahren begegnet werden. Hierbei möchte man 2 wesentliche Ziele erreichen: ▬ eine Erhöhung des Vernetzungsgrads und damit erhöhte Abriebbeständigkeit, ▬ eine Reduktion der ungesättigten Kohlenstoffmoleküle (Radikale) innerhalb der Kette zur Vermeidung einer alterungsbedingten Versprödung des Materials.
53.7
Herausforderung »Verschleiß«
53.7.1 Tribologie
Durch die Einführung zementfrei verankernder Titankomponenten sowie standardisierter Operationstechniken erreichen moderne Endoprothesen heute ausgesprochen überzeugende Überlebensraten. Je nach Wahl des Materials der Gleitpaarung sowie der Belastungssituation kommt es allerdings zu mehr oder weniger drastischen, verschleißbedingten Komplikationen, die heute weitgehend die Überlebensdauer einer Endoprothese begrenzen. Da sich auch bei jüngeren Patienten immer öfter die Indikation zum Gelenkersatz stellt, ist dieses Thema in den letzten 10 Jahren erneut in den Vordergrund von Forschung und Weiterentwicklung gerückt. Die Lehre vom Reibungsverhalten und Abrieb gegeneinander artikulierender Komponenten nennen wir in diesem Zusammenhang Tribologie. Heute haben sich folgende Materialpaarungen als tribologische Komponenten im Gelenkersatz fest etabliert: ▬ Metall-Metall, ▬ Metall-PE, ▬ Keramik-PE, ▬ Keramik-Keramik. Die Variabilität der tribologischen Möglichkeiten beruht auf den unterschiedlichen Vor- und Nachteilen sowie
Indikationsbereichen. Bevor wir auf die technischen Möglichkeiten und Grenzen näher eingehen, soll auf die elementare Arbeit von Willert et al. (1978) hingewiesen werden. Schon seit Charnley wird eine Korrelation von Polyethylenabrieb und Osteolyse beobachtet, die zu Prothesenlockerung und frühzeitiger Revision des Implantats führt. Der teilweise massive Knochenverlust spornte Willert an, die Ursachen seiner Entstehung genauer zu untersuchen. Die abriebinduzierte Fremdkörperreaktion ist ausschlaggebend für die Resorption gesunden Knochens, wie sich früh feststellen ließ. Ständig sich neu bildende Phagozyten speichern die Abriebpartikel vorwiegend in der Gelenkkapsel. Es entwickelt sich im Ungleichgewicht ein Fremdkörpergranulom. Kleinere Partikel können durch Histiozyten phagozytiert werden. Hierbei spielen freie Radikale eine bedeutende Rolle. Je umfangreicher die Abriebreaktion, desto größer die Granulome. Große Granulome neigen im Zentrum dann zur Nekrose. Darüber hinaus entwickelt sich fibröses Narbengewebe, welches gesunde Zellen in der Konsequenz absterben lässt. In fortgeschrittenem Stadium dekompensiert die Gelenkkapsel, und die Reaktion weitet sich auf das umliegende Gewebe aus. Speziell übernehmen hier Teile des Knochenmarks und des Bindegewebes an der ZementKnochen-Grenze die Funktion von Phagozytose und Abtransport der Verschleißpartikel. In letzter Konsequenz wird auch der vitale Knochen durch das angrenzende Granulationsgewebe angegriffen und resorbiert. Heute ist davon auszugehen, dass ein Großteil aller aseptischen Prothesenlockerungen auf die Abriebreaktion zurückzuführen ist. Diese Erkenntnis führte zu neuen Anstrengungen und zur Verbesserung der tribologischen Eigenschaften von Materialien für Gleitpartner in der Endoprothetik. Grundlage ist hier zunächst das Verständnis der Mechanismen des Abriebs in der Endoprothetik.
53.7.2 Ermüdungsabrieb
Der Ermüdungsabrieb entsteht durch das Aufbrechen des oberflächennahen Materialgefüges an den artikulierenden Flächen. Tangentiale Scherkräfte und punktuelle Druckkraftspitzen sind die Ursache für Rissbildung in Bewegungsrichtung und anschließendes Lösen von größeren Partikeln aus der Oberfläche. Typischerweise erkennt man den Ermüdungsabrieb an gebogenen Scherrissen der Oberfläche, an deren Rand zunehmend Material abgetragen wird.
53.7.3 Adhäsiver Abrieb
Auch bei hochgenauer Fertigung kommt es – bspw. bei Metallgleitpartnern – zu feinsten Erhebungen an der
849 53.7 · Herausforderung »Verschleiß«
Oberfläche. Diese haben auch bei ausreichender Schmierung ständigen Kontakt zur gegenüberliegenden Seite, und es kommt zur adhäsiven, festen Verbindung von kleinsten Partikeln. Diese Partikel werden aus der Oberfläche herausgerissen und ergeben kraterförmige Oberflächenbilder (⊡ Abb. 53.5).
53.7.4 Abrassiver Abrieb
Befinden sich z. B. durch Ermüdung oder Adhäsion herausgelöste, härtere Partikel zwischen den gleitenden Oberflächen, so kommt es zum abrassiven Abrieb. Dieser ist besonders eindrucksvoll bei metallenen Gleitpartnern in Form von Rillenbildung in Laufrichtung zu erkennen. Bestehen diese Partikel aus einem deutlich härteren Material, wie etwa Keramik, so kommt es zur kurzfristigen, starken Abnutzung des Metalls oder Polyethylens.
53.7.5 Metallgleitpaarungen
⊡ Abb. 53.5a–c. a Adhäsiver Abrieb, b ermüdungsbedingter Abrieb, c abrassiver Abrieb
Die erste Metall-auf-Metall-Gleitpaarung wurde 1950 in den USA von Thompson und McKee für den Hüftgelenkersatz eingeführt. Sie bestand aus der klassischen CoCrMo-Legierung nach ISO 5832-4, die auch heute noch dafür verwendet wird. Das Material wurde erstmalig von Krupp in Deutschland für Zahnimplantate eingesetzt; es ist sehr abriebresistent und korrosionsbeständig. Nachfolgende Prothesendesigns von McKee hatten einen Spielraum zwischen Kopf und Pfanne von 0,15 mm. Dies ermöglichte das Eindringen von Synovialflüssigkeit zur Schmierung der Gleitflächen. 1960 kamen Prothesen anderer Hersteller auf den Markt, die keinen entsprechenden Spielraum aufwiesen. In Extremfällen kam es sogar zur gleichzeitigen Implantation von Köpfen und Pfannen unterschiedlicher Hersteller mit Kopfübermaß. Die Versagerquote durch mechanisches Verklemmen bzw. abrassiven und adhäsiven Abrieb war entsprechend groß, und man nahm nach der Einführung der Charnley-Prothesen schnell Abstand von dieser Kombination. 1965 verwirklichten Huggler und anschließend Müller (Schweiz) die Idee von McKee mit einer eigenen Prothese und kamen schnell zu dem Schluss, dass eine 0,2 mm-Distanz zwischen Kopf und Pfanne die besten Ergebnisse lieferte. Kombinationen von Materialien unterschiedlicher Hersteller wurden unterbunden. Die Bedenken blieben allerdings bestehen. 1977 wurde dann ein neuer Schmiedeprozess für diese CoCr-Legierung eingeführt, der die Karbidgröße um den Faktor 10 reduzierte. Später untersuchte man den Einfluss des Karbonanteils auf die Abriebbeständigkeit. Auch hier gab es deutliche Unterschiede zwischen den verwendeten CoCrLegierungen. Von Low-carbon (lc)-CoCr spricht man bei etwa 0,05% Karbonanteil. High-carbon (hc, ISO 5832-12)CoCr besitzt 0,2% Karbonanteil. Wang und Firkins stellten in ihren Arbeiten 1999 fest, dass der volumetrische Abrieb von 0,53 mm3 pro Millionen Zyklen bei lc-CoCr auf 0,25 mm3 pro Millionen Zyklen bei hc-CoCr sinkt. Der nach heutigem Wissensstand optimierte Werkstoff weist viele Vorteile bezüglich Abrieb und Prothesendesign auf. Untersuchungen haben gezeigt, dass diese Legierungen als Gleitpaarung in der Einlaufphase selbst-
53
850
VI
Kapitel 53 · Biomaterialien
polierende Eigenschaften haben und damit eine glatte, partikelfreie Oberfläche und optimales Spiel zwischen den Komponenten selbst erreichen. Darüber hinaus wird die vom Polyethylenabrieb bekannte Fremdkörperreaktion durch die immensen Unterschiede bei Partikelgröße und Anzahl unterbunden. Selbst bei Auslösung größerer Partikel aus der Oberfläche passivieren diese sich schnell in oxidierender Umgebung. Merrit und Visuri haben gezeigt, dass die Nickelund Kobaltexposition des Körpers durch Abrieb bei Metall-Metall-Gleitpaarungen deutlich geringer ist als die täglich aus der Umwelt aufgenommene Menge. Nickel, Kobalt und Molybdän werden an Albumin gebunden und über den Urin ausgeschieden. Allein Chrom verbleibt im menschlichen Körper. Da Kobalt und Chrom in höheren Konzentrationen kanzerogene Wirkung haben, wurden auch hier mehrere Untersuchungen an großen Patientenkollektiven durchgeführt, die keine Korrelation zu etwaigen Tumoren aufzeigten. So ist von Allen (1997) bei der hc-CoCr-Legierung als Artikulationskomponente eine Exposition von 1,8 μg/l Kobald im menschlichen Serum gemessen worden, wobei 100.000 μg/l zytotoxisch wären. Die klinischen Resultate der sog. Müller-Prothesen mit über 30 Jahren Standzeit ohne Beeinträchtigung der Artikulationskomponente untermauern die Vorteile dieser Philosophie und motivieren auch heute einen Großteil der klinischen Anwender zum Einsatz dieser Technologie.
Die bessere Benetzbarkeit mit wässrigen Flüssigkeiten ermöglichte zudem einen gegenüber Stahl- oder CoCrKöpfen um die Hälfte reduzierten Polyethylenabrieb. Einen weiteren günstigen Nebeneffekt sahen die Anwender im deutlichen Ausschluss etwaiger immunologischer Überreaktionen auf metallische Komponenten wie Nickel oder Chrom, da Keramiken absolut bioinert sind. Nicht zuletzt konnten durch die überragende Härte der keramischen Implantate Oberflächenbeschädigungen durch Zementpartikel oder chirurgische Instrumente vermieden werden. Um die Bruchfestigkeit und Zähigkeit des Materials zu erhöhen, wurde 1980 Zirkoniumoxid als keramisches Basismaterial für Hüftköpfe und Pfannen eingeführt. Man konnte durch eine Reduzierung der Mindestwandstärken des Materials mit Zirkoniumoxid auch erstmals kleinere Hüftköpfe und damit auch kleinere Pfannen einsetzen. Bedenken wegen eines höheren Abriebs bei der Paarung von Zirkoniumoxid mit Polyethylenpfannen wurden in den letzten Jahren geäußert, konnten aber bisher nicht nachgewiesen werden. Im klinischen Alltag haben sich Aluminiumoxidkeramik-Polyethylen-Gleitpaarungen heute fest etabliert. Die Bewusstseinsbildung hat operative Techniken beeinflusst, und die Bruchraten sind in den letzten Jahren kontinuierlich zurückgegangen.
53.7.7 Polyethylengleitpaarungen 53.7.6 Keramikgleitpaarungen
Die Fremdkörperreaktionen auf den Abrieb herkömmlichen Polyethylens sowie die Misserfolge der Metall-Metall-Gleitpaarungen der ersten Generation mit den Konsequenzen einer frühzeitigen Prothesenlockerung veranlassten zur Suche nach besseren Materialien mit geringen Abriebraten. 1970 begann Boutin in Frankreich mit der Entwicklung eines Kopfs und einer Pfanne aus Aluminiumoxidkeramik. Doch auch hier traten in den ersten 10 Jahren Probleme mit der Befestigung des Kopfs auf dem metallischen Schaft sowie Materialinhomogenitäten auf. Es kam gehäuft zu Brüchen der Keramik mit nachfolgender schwieriger Revision aufgrund diffuser Verteilung der Bruchpartikel. Nachdem man die Homogenität des Kristallgefüges in der Biokeramik verbessert hatte, erfreute man sich langjähriger Erfolge mit Abriebraten unter 10 μm pro Jahr. Das bleibende Problem keramischer Gleitpaarungen sind zu steil implantierte Pfannen. Hier wird häufig von kritischen Belastungen am Pfannenrand mit wiederkehrenden Subluxationen des Kopfs und resultierendem deutlichen Keramikabrieb berichtet; auch zu Keramikbrüchen kommt es in diesem Zusammenhang. Um diese ungewünschten Brüche zu umgehen, wurde die Paarung des Keramikkopfs mit Polyethylenpfannen eingeführt.
Nachdem das Debakel mit PTFE abzusehen war, setzte Charnley Polyethylen erstmalig 1962 in den von ihm entworfenen künstlichen Hüftgelenken ein. Als Hüftpfannenkomponente zeigte es bei der Artikulation gegen einen CoCr-Metallhüftkopf erstaunliche Primärerfolge und geringen Abrieb. Heute finden wir eine Reihe orthopädischer Implantate, die auf diese Kombination vertrauen. Dennoch stellt der Abrieb des UHMWPE (»ultra high molecular weight polyethylene«) den Hauptgrund für Prothesenrevisionen dar. Man geht heute davon aus, dass der lineare Abrieb des Polyethylens bei dieser Materialkombination etwa 100–300 μm pro Jahr beträgt. Durch die Einführung von Aluminiumoxidkeramikköpfen gegen 1970 konnte der Abrieb auf 50–150 μm halbiert und die Lebensdauer der Prothese damit deutlich verlängert werden. Es werden jedoch immer wieder Keramikkopfbrüche beobachtet, die zu einer schnellen Revision der Prothese zwingen. Aus diesem Grund untersuchte man die Möglichkeit der Oberflächenhärtung von Titanbasislegierungen nach ISO 5832-11. Die Idee war, sowohl das Allergierisiko als auch die Bruchgefahr eines Hüftkopfs zu reduzieren sowie die Vorteile des geringeren Abriebs der Keramiken nachzuahmen. Hierzu bediente man sich der Oberflächenhärtung durch Titannitridschichten, die ähnliche Härten wie Keramiken erreichen.
851 53.8 · Ausblick
Ein bedeutender Nachteil der Titannitridschicht ist jedoch die Dicke von nur 3–5 μm, was bei einer Beschädigung schnell zu höheren Abriebraten führen kann. Ende der 1980er Jahre wurde darum von Sulzer Medica eine Methode zur Oberflächenhärtung mittels Sauerstoffdiffusion (»oxygen diffusion hardening«, ODH) entwickelt. Es werden Härtungstiefen von 40 μm erreicht, während die Oberfläche der Köpfe gleichzeitig kratzfest gegen Zirkoniumoxidpartikel ist, die oft dem Acrylatzement als Röntgenkontrastmittel beigemischt werden. Auf Seiten des Polyethylens beschäftigt man sich seit 1998 mit einer weiteren neuen und vielversprechenden Methode, um die Vorteile des UHMWPE mit einem metallischen Kopf weiterhin zu nutzen, gleichzeitig aber den Abrieb noch deutlicher zu reduzieren. Schon seit 1986 beaufschlagt man Polyethylen mit γ -Bestrahlung. UHMWPE wird während des Fertigungsprozesses aus zwei Gründen mit ionisierender Strahlung behandelt: entweder zur Sterilisation fertiger Komponenten oder um eine höhere Quervernetzungsdichte und damit verbesserte Abriebeigenschaften zu erzielen. Man konnte durch diese Methode den Abrieb gegenüber unbestrahlten Gelenkkomponenten halbieren. Grundsätzlich ist die Quervernetzung umso besser, je höher die Bestrahlungsdosis gewählt wird. Allerdings entstehen bei der Bestrahlung auch Lücken, freie Radikale, in den Polymerketten, die mit zunehmendem Alter eine Versprödung des Materials und damit wiederum geringere Abriebresistenz zur Folge haben. William Harris (Boston) führte darum 1998 die Elektronenbestrahlung des erwärmten UHMWPE ein. Der Quervernetzungsgrad wird dadurch nochmals deutlich erhöht. In einer abschließenden erneuten Erwärmung über den Kristallitschmelzpunkt werden die verbliebenen freien Radikale abgesättigt. Die oxidationsbedingte, natürliche Alterung des Materials wird durch diesen Prozess vorgezogen, und das Polymer behält seine Abriebresistenz über einen sehr langen Zeitraum. Man konnte diese Vorteile im Vergleich zu anderen orthopädischen Polyethylenen bereits im Simulator nachweisen. Die Ergebnisse nach über 20 Mio. Zyklen – entsprechend einer Lebensdauer der Prothese
von 20 Jahren – waren erstaunlich. Der Abrieb war so gering, dass er selbst nach diesem Zeitraum nicht messbar war, der Kaltfluss des Materials blieb ebenso gering. Darüber hinaus scheint dieses Material auch bei abrassivem Abrieb selbstheilende Eigenschaften zu besitzen. ⊡ Tab. 53.6 verdeutlicht nochmals die technischen Möglichkeiten in Abhängigkeit von den Anforderungen.
53.8
Ausblick
Optimiertes Design unter Berücksichtigung der biomechanischen Anforderungen, geringer Knochenverlust, einfache Implantationstechnik und konsequente Minimierung des Abriebs: Das waren die technologischen Herausforderungen bei der Optimierung von Endoprothesen der letzten 2 Jahrzehnte. ▬ Das Ergebnis: Schnellere Belastbarkeit und eine deutlich verbesserte Überlebensdauer der Implantate. ▬ Die Konsequenz: Die Indikationserweiterung hin zu einem jünger werdenden Patientenkollektiv. Der aktive, im Berufsleben stehende Patient wünscht sich eine möglichst nahe Wiederherstellung seiner Lebensqualität. Es stellen sich neue Herausforderungen bei der Weiterentwicklung von Prothesen (⊡ Abb. 53.6). Ein Beispiel ist hier die möglichst anatomische Rekonstruktion der Hüfte und damit eine optimale Bewegungsfreiheit ohne Kompromisse. Grundvoraussetzung ist der Einsatz größerer Artikulationsdurchmesser, ähnlich der ersten Prothesen von Thompson und McKee. Man erreicht dadurch einen vergrößerten Bewegungsumfang des Hüftgelenks bei gleichzeitiger Verringerung des Luxationsrisikos. Die spezifische Anatomie eines jeden Patienten bestimmt jedoch die Pfannengröße, und die Kopfgröße war bis vor wenigen Jahren durch die Pfannengröße und die Mindeststärke des Polyethylens vorgegeben. Metall-Metall-Gleitpaarungen neuester Generation sowie das neuartige, elektronenbestrahlte UHMW-Polyethylen bieten hier die Möglichkeit, durch dünnere Mindestwandstärken die Kopfdurchmesser zukünftig zu vergrößern.
⊡ Tab. 53.6. Materialpaarungen für Patienten unterschiedlicher Aktivität und Lebenserwartung Patient
Materialpaarung
Lebenserwartung
Aktivität
Kopf
Pfanne
Linearer Abrieb (lm/Jahr)
bis mittel
moderat
Stahl CoCrMo CoCrMoC
UHMWPE
100–300
mittel bis hoch
normal
Aluminiumoxid Zirkoniumoxid TiAlNb-ODH
UHMWPE
50–150
hoch
hoch
CoCrMoC
CoCrMoC
2–20
Al2O3
Al2O3
2–20
CoCrMo TiAlNb-ODH
Elektronenbestr. UHMWPE (DurasulTM)
nicht messbar im Simulatorversuch nach 20 Mio. Zyklen
53
852
VI
Kapitel 53 · Biomaterialien
⊡ Abb. 53.6a,b. Moderne Hüftendoprothesensysteme. a AlloclassicSystem, b CLS-System
Insbesondere beim Einsatz im künstlichen Kniegelenk verspricht man sich vom elektronenbestrahlten UHMWPE deutlich längere Prothesenstandzeiten. Im Gegensatz zum Kugelgelenk einer Hüfte finden sich beim Knie großflächige, scharnierartige Bewegungen, die das Material mit Druck- und Scherkräften großflächig belasten. Aufgrund der ungleichmäßigen Flächenpressung sind Keramik-Keramik- bzw. Metall-Metall-Artikulationen an dieser Stelle nicht geeignet, und ein möglichst abriebarmes Polymer ist hier die einzige technische Möglichkeit zur Verschleißminimierung.
Literatur Garbe S (1998) Zwischen Biomechanik und Pathomechanik des Femurs. Huber, Bern Kienapfel H (1994) Grundlagen der zementfreien Endoprothetik. Demeter, Gräfelfing Morscher EW (1995) Endoprothetik. Springer, Berlin Heidelberg New York Tokio Muratoglu OK, Bragdon CR, O‘Connor DO, Jasty M, Harris W (1999) A novel method fpr crosslinking UHMWPE to improve wear with little or no sacrifice on mechanical properties. 45th Annual Meeting, Orthopedic Research Society, Anaheim/CA Rieker C, Windler M, Wyss U (1999) Metasul. Huber, Bern Willmann G, Zweymüller K (2000) Bioceramics in hip joint replacement. Thieme, Stuttgart Semlitsch M, Willert HG (1997) Clinical wear behaviour of ultra-high molecular weight polyethylene cups paired with metal and ceramic ball heads in comparison to metal-on metal pairings of hip joint replacements. Proc Instn Mech Engrs: vol 211, part H Willert HG, Semlitsch M, Buchhorn G, Kriete U (1978) Materialverschleiß und Gewebreaktion bei künstlichen Gelenken. Springer, Berlin Heidelber New York (Orthopädie 7, S 62–83) Wintermantel E, Suk-Woo Ha (2002) Medizintechnik mit biokompatiblen Werkstoffen und Verfahren, 3. Aufl. Springer, Berlin Heidelberg New York Tokio
54 Medizinische Robotersysteme H. Fischer, U. Voges
54.1 Einleitung
– 853
54.5 Medizinische Anwendungsfelder
54.2 Grundlagen
– 853
54.6 Technische Aspekte
54.3 Entwicklung
– 855
54.7 Perspektiven
54.4 Übersicht
– 855
54.4.1 54.4.2 54.4.3 54.4.4 54.4.5
Assistenzsysteme – 855 Aktive Haltesysteme – 855 Master-Slave-Manipulatoren – 856 Biopsieroboter – 857 Kommerzielle aktive Halte- und Führungssysteme – 857 54.4.6 Kommerzielle Telemanipulatoren – 857 54.4.7 Kommerzielle Chirurgie-/Biopsieroboter – 858
54.1
Einleitung
Robotersysteme für die Medizin stellten 1990 noch ein reines Forschungsthema dar. Inzwischen konnten die ersten Forschungsergebnisse in die Praxis umgesetzt werden, und im Jahre 2000 befanden sich schon mehrere Arten von Robotersystemen für unterschiedliche chirurgische Disziplinen im klinischen Einsatz, weitere sind inzwischen in Vorbereitung. Während man bei einigen Systemen schon fast von Routineeinsatz sprechen kann, sind andere noch in der Erprobungsphase. In der Forschungslandschaft widmet man sich einer ganzen Reihe von offenen Fragen und Weiterentwicklungen, z. B. in der Kombination von Robotern mit bildgebenden Verfahren bzw. ihrem Einsatz in besonderen Umgebungen wie z. B. im CT (Computertomograph) oder MRT (Magnetresonanztomograph). Ein solches MRT-kompatibles Assistenzsystem ist mittlerweile kommerziell erhältlich. Nach einer kurzen Einführung in die Grundlagen der Medizinrobotik und die Entwicklungen auf diesem Gebiet wird eine Übersicht über bereits existierende Systeme und ihre medizinischen Anwendungsfelder gegeben. Einige technische Aspekte der Nutzung derartiger Systeme werden erläutert, und ein Ausblick in die Zukunft schließt dieses Kapitel ab.
54.2
Grundlagen
Unter dem Begriff Roboter werden im allgemeinen Sprachgebrauch meist nicht nur die eigentlichen Robo-
Literatur
– 859
– 860
– 861
– 862
Weitergehende Internetinformationen zu den genannten Firmen bzw. Gerätenamen – 862
tersysteme im engeren Sinne verstanden, sondern auch die Telemanipulationssysteme. Streng genommen sind Roboter aber nur die autonom arbeitenden Systeme, wie wir sie in der Industrie, z. B. aus der Automobilfertigung, kennen: Der Roboter führt eine vorher definierte Aufgabe immer wieder gleichförmig durch; diese Tätigkeit arbeitet er ohne weiteren menschlichen Eingriff ab. Der Mensch kann nur einen Abbruch (Notaus) auslösen, aber keine interaktive Änderung. Eine Änderung ist nur durch Neudefinition der Aufgabe oder neues Einlernen (»Teachen«) des Roboters möglich. Ist hingegen der Mensch der Handelnde, der das System führt, so sprechen wir von einem Telemanipulationssystem oder auch einem Fernhantierungssystem. Nur die vom Bediener direkt vorgegebene Bewegung wird – möglichst zeitgleich – vom Arbeitssystem nachvollzogen. Das Eingabegerät (Bedieneinheit), das der Bediener führt, wird Master genannt, der Manipulator, der die Aktion ausführt, heißt Slave (Arbeitseinheit). Daher werden derartige Systeme auch Master-Slave-Manipulatorsysteme genannt. Eine Art Mischform zwischen den Telemanipulationssystemen und den Robotersystemen gibt es in Gestalt der interaktiv bedienbaren Systeme. Hier wird oft ohne Aufteilung in Master und Slave das Instrument selber direkt vom Bediener geführt. Eine Sollbahn, ein Arbeitsbereich oder auch zulässige Kräfte werden vorher definiert; will der Bediener z. B. diese Sollbahn verlassen, wird er daran durch entsprechende Kräfte gehindert und das bedienergeführte Instrument kann den zulässigen Arbeitsbereich nur nach Bestätigung einer Warnmeldung verlassen. Kri-
854
Kapitel 54 · Medizinische Robotersysteme
VI
⊡ Abb. 54.1. Prinzip eines Telemanipulatorsystems bei minimal invasiven Eingriffen (Bild: Intuitive Surgical)
tische Bereiche können so vermieden werden und eine z.B. anhand von Röntgenaufnahmen vorgeplante Operation kann exakt durchgeführt werden. ⊡ Abb. 54.1 zeigt das Prinzip eines Master-Slave-Manipulators anhand eines Operationstelemanipulators für die Herzchirurgie. Der Chirurg sitzt an der Konsole, die die Eingabesysteme (Mastermanipulatoren für jeweils eine Hand) sowie ein Sichtsystem beinhaltet. Die Masterbewegung wird in eine korrespondierende Bewegung der Instrumente übertragen, und der Telemanipulator führt die entsprechenden Aktionen aus. Der Assistent steht bereit für erforderliche Instrumentenwechsel, die noch per Hand erfolgen müssen. Der Abstand zwischen dem Master und dem Slave kann unterschiedlich überbrückt werden. Bei einer direkten, rein mechanischen Kopplung der beiden Geräte wird der Abstand relativ klein sein (maximal einige Meter). Diese Lösung ist jedoch aufgrund der hohen mechanischen Kopplung, verbunden mit Gestänge, Zugseilen etc., in der medizinischen Robotik kaum sinnvoll einsetzbar. ⊡ Abb. 54.2 zeigt eine derart direkte mechanische Kopplung zwischen Master und Slaveeinheit. Statt der direkten mechanischen Kopplung zwischen Master und Slave werden meist Rechnersysteme eingesetzt, die in Form einer Steuerung die Kopplung von Master und Slave übernehmen. Wird nur ein Rechner eingesetzt, der die Eingabeinformationen der Mastereinheit in die entsprechenden Steuerungsinformationen für die Slaveeinheit umsetzt, so ist über eine Kabelverbindung
⊡ Abb. 54.2. Rein mechanische Kopplung zwischen Master und Slaveeinheit
eine Entfernung von einigen Metern möglich. Haben hingegen sowohl der Master als auch der Slave jeweils einen eigenen Rechner, die z. B. über LAN miteinander verbunden sind, so kann die Entfernung zwischen den Systemen beliebig groß sein. Sogar über Kontinente hinweg können so Verbindungen zwischen Master und Slave aufgebaut und Telechirurgie praktiziert werden. Bei größerer Entfernung kann es aber je nach verwendetem Übertragungsverfahren zu Verzögerungen zwischen Aktion auf Masterseite und Reaktion auf Slaveseite sowie Erkennung auf dem zurückgeschickten Videosignal kommen, sodass langsamer und vorsichtiger gearbeitet werden muss.
855 54.4 · Übersicht
54.3
Entwicklung
Im Folgenden wird die Entwicklung der medizinischen Robotik kurz dargestellt. Die entsprechenden Systeme werden im Abschn. 54.4 »Übersicht« näher beschrieben. Der Einsatz von Robotik oder auch von rechnergeführten Systemen in der Medizin erfolgte in verschiedenen Stufen. So wurden zunächst Endoskop-FührungsSysteme (EFS) entwickelt (z. B. Robox (Oberle 1993), Fips (Gumb 1996), Felix (Selig 1999), Aesop (Uecker 1994, EndoAssist), die einerseits weniger sicherheitsrelevant sind, andererseits für den Chirurgen eine Arbeitserleichterung darstellen. Mit Hilfe der EFS ist es möglich, das Endoskop ohne menschlichen Assistenten zu halten und zu führen. Die Bedienung kann dabei über Joystick, Tastenfeld, Sprache, Kopfbewegung o. Ä. erfolgen. Anstelle einer expliziten Bedienung ist auch die automatische Instrumentenverfolgung (Tracking) möglich. Die wesentlichen Vorteile eines Endoskop-Führungs-Systems liegen darin, dass auf einen zusätzlichen Assistenten als Kameramann verzichtet werden kann und ein ruhiges Bild zur Verfügung steht. Die eingesetzten Endoskope sind dabei i. d. R. die auch standardmäßig verwendeten Systeme. Als Weiterführung der Endoskop-Führungs-Systeme sind Instrumenten-Führungs-Systeme (IFS) entstanden, die aber i. d. R. nicht für das Halten und Führen herkömmlicher Instrumente geeignet sind, sondern für speziell entwickelte – oft nicht nur starre, sondern auch flexible – Instrumente. Die Bedienung dieser Instrumente erfolgt über eine Mastereinheit, falls es sich um ein Telemanipulationssystem handelt [Tiska (Neisius 1997)]. Im Fall von Robotern [Robodoc (Bauer 1997), Caspar (Petermann 2000)] hingegen führen die IFS vordefinierte Aufgaben durch und haben ein sehr eingeschränktes interaktives Eingabesystem. Dieses dient dann meist zur Korrektur einer bereits vorgegebenen abzufahrenden Bahnkurve. Da der Einsatz eines einzelnen IFS nur im Fall eines Robotersystems sinnvoll ist, sonst aber wie bei einer normalen Operation beidhändiges Arbeiten auch bei Verwendung eines Telemanipulators möglich sein sollte, war der Schritt vom IFS zu einem System, das aus zwei IFS und einem EFS besteht, nicht weit [ARTEMIS (Voges 1995), daVinci (Shennib 1998), ZEUS (Stephenson 1998). Hier hat der Chirurg die Möglichkeit, alle Operationen, die keinen weiteren Assistenten erforderlich machen, als Solochirurgie durchzuführen.
54.4
54.4.1 Assistenzsysteme
Bei den Assistenzsystemen kann man zwischen den industriell oder kommerziell erhältlichen Systemen und Systemen aus dem Forschungs- bzw. dem universitären Umfeld unterscheiden. Grundsätzlich jedoch dienen diese Systeme zum Halten von Instrumenten und Kameras. Man unterscheidet zwischen passiven Haltesystemen, die von Hand positioniert werden und keine Aktoren (Motoren) beinhalten, und aktiven Systemen, die angetrieben die gewünschte Position anfahren. Im Sinne der Robotik werden hier nur aktive Systeme vorgestellt.
54.4.2 Aktive Haltesysteme
Im Forschungszentrum Karlsruhe wurden verschiedene aktive Halte- und Führungssysteme entwickelt. Ein solches System ist beispielhaft in ⊡ Abb. 54.3 dargestellt. Es dient zum Führen einer endoskopischen Kamera. Da das System für die minimal invasive Chirurgie (insbesondere Bauchraumchirurgie) vorgesehen war, besitzt es kinematisch eine mechanische Zwangsführung um den invarianten Einstichpunkt und kann elektrisch um diesen Punkt verfahren werden. Der invariante Einstichpunkt ist hierbei der Durchstichpunkt in der Bauchdecke. Eine
Übersicht
Im Folgenden wird eine Übersicht der Assistenzsysteme, der Telemanipulatoren sowie der Robotersysteme gegeben.
⊡ Abb. 54.3. FIPS, Endoskopführungssystem, Forschungszentrum Karlsruhe
54
856
VI
Kapitel 54 · Medizinische Robotersysteme
mechanische Beanspruchung bzw. Belastung dieser Einstichstelle (invarianter Punkt) wird durch die Art der mechanischen Konstruktion des Geräts verhindert. Die Eingabe erfolgt wahlweise durch eine Art Joystick oder aber mittels Sprachsteuerung. Für Forschungszwecke steht auch ein Kameratrackingsystem zur Verfügung. Der Chirurg kann somit intuitiv die Kamera in die gewünschte Position bringen. Sein Assistenzarzt ist nun nicht mehr länger mit der Führung und Positionierung der endoskopischen Kamera beauftragt und kann andere Aufgaben übernehmen. Ein großer Vorteil eines solchen einfachen Kameraführungssystems ist bspw. die Zitterfreiheit, d. h. der elektronische Assistent hält die Kamera auch über einen langen Zeitraum zitterfrei, was das Operieren für den Chirurgen erleichtert, da das Operationsfeld auf dem Bildschirm nicht verwackelt ist.
54.4.3 Master-Slave-Manipulatoren
Der erste wissenschaftlich eingesetzte Telemanipulator wurde als Demonstrator 1995 im Forschungszentrum Karlsruhe fertiggestellt und erprobt (⊡ Abb. 54.4). Es konnten damit komplizierte Szenarien erfolgreich und präzise durchgeführt werden. Durch die flexiblen distalen Gelenke an den Instrumenten war es zudem erstmals möglich, Strukturen im Inneren des menschlichen Körpers zu umfahren, und dadurch konnten auch komplizierte Eingriffe (z. B. Durchführen von chirurgischen Nähten um Organe herum) erstmals endoskopisch durchgeführt werden.
⊡ Abb. 54.4. ARTEMIS, Telemanipulatorsystem, Forschungszentrum Karlsruhe
Durch Integration von Kraft- und Momentensensoren war erstmals eine Kraftrückkopplung möglich. Dies zeigte jedoch auch, dass solche Systeme sehr viel komplizierter sind als man zunächst annahm. Vor allem auf der Instrumentenseite ist eine Integration von Sensoren bedingt durch die Größeneinschränkungen sehr schwierig, und der Wunsch des Operateurs, kostengünstige Einmalwerkzeuge zu verwenden, ist somit obsolet. Im Master-Slave-Manipulator der Universität Berkeley, USA, befinden sich in der Slaveeinheit, also in der Instrumentenspitze, ebenfalls Kraft- und Beschleunigungssensoren. Diese dienen zur Rückkopplung der in der Slaveeinheit auftretenden Kräfte in die Mastereinheit. Es können damit tatsächlich ausgeübte Kräfte auf die Finger des Chirurgen zurückvermittelt werden. Derartige Kraftrückkopplungen sind v. a. dann notwendig, wenn sich Operateur (Mastereinheit) und Manipulator (Slaveeinheit) nicht mehr unmittelbar im gleichen Operationssaal befinden, sondern örtlich entkoppelt sind. Sind zudem die Endeffektoren elektrisch angetrieben, besteht keine Rückmeldung über die Stärke der ausgeübten Kräfte z. B. zwischen den Branchen einer endoskopischen Fasszange. Durch zu starkes Greifen an der Mastereinheit können dann zu große Kräfte auf der Slaveseite ausgeübt werden, und dadurch kann Gewebe geschädigt werden. Bei einer solchen räumlichen und damit mechanischen Entkopplung ist eine Kraftrückkopplung von Vorteil, da eine Art taktiles Feedback wiedererlangt werden kann. Der Chirurg erhält dadurch wieder eine Information über seine Interaktion mit den unterschiedlichen Gewebetypen. Der möglichen mechanischen Zerstörung durch z. B. zu hohe Greifkräfte soll damit entgegengewirkt werden.
857 54.4 · Übersicht
Bei endoskopischen Standardoperationen erfolgt diese Rückkopplung optisch, unterstützt durch die direkte mechanische Kopplung der endoskopischen Instrumente, d. h. der Griff hat eine direkte Verbindung (evtl. über verschiedene Gelenke) zum distalen Endstück und damit auch zu den Fingern des Operateurs.
54.4.4 Biopsieroboter
In den letzten Jahren haben sich die diagnostischen Bildgebungsverfahren und v.a. die Auswerteverfahren enorm verbessert. Mit zunehmender Rechnergeschwindigkeit wurde es erstmals möglich, bewegte Szenarien in Echtzeit mittels dieser neuen Tomographen darzustellen. Dies ermöglicht nun sog. Chirurgieroboter für einfache Aufgaben, z. B. für die Biopsie bei Mammakarzinomen direkt im Magnetresonanztomographen einzusetzen. Aufgrund der Umgebungsbedingungen in solchen Tomographen ist dies jedoch nicht so einfach möglich, und so wurde seit 1998 im Forschungszentrum Karlsruhe ein Roboter für die Entnahme einer Gewebeprobe (Biopsie) unmittelbar im Magnetfeld eines Tomographen und unter Bildsteuerung entwickelt. Seit November 1999 kann dieser Manipulator erstmals auch für die klinische Evaluierung eingesetzt werden (Fischer 2000).
54.4.5 Kommerzielle aktive Halte- und
Führungssysteme Bei kommerziell erhältlichen aktiven Halte- und Führungssystemen befinden sich derzeit noch zwei zugelassene Systeme auf dem Markt. Die Firma Armstrong Healthcare, UK (Produktname EndoAssist) sowie die Firma MedSys s.a., Belgium (Produktname LapMan). Die Steuerung der Kamera im Falle EndoAssist erfolgt durch eine Kopfsteuerung, d. h. nach Aktivieren dieser Kopfsteuerung durch einen Fußschalter folgt die Kamera den Bewegungen des Kopfes. Im Falle von LapMan erfolgt die Steuerung über eine Eingabegerät am Instrument des Chirurgen. Beide Systeme haben keine mechanische Zwangsführung, d. h. sie können beliebig im Raum positioniert werden. Die Einhaltung des invarianten Punktes um den Einstichpunkt in der Bauchdecke wird bei diesen Systemen von der Softwaresteuerung übernommen. Prinzipiell sind beide Varianten – kinematisch festgelegter mechanischer invarianter Punkt und softwaregehaltener invarianter Punkt – gleichwertig. ⊡ Abb. 54.5 zeigt ein mittlerweile nicht mehr am Markt erhältliches, weiteres zugelassenes Endoskopführungssystem (Aesop) der Firma Computer Motion, USA. Aesop wurde 1994 erstmals auf den Markt gebracht, und bisher wurden damit weltweit mehr als 90.000 Operationen durchgeführt. Auch hier wird der invariante Punkt
⊡ Abb. 54.5. AESOP, Kameraführungssystem, Computer Motion, USA
durch die Softwaresteuerung eingestellt und beibehalten. Die Steuerung dieses Systems erfolgt zu Beginn manuell durch eine entsprechende Schalterkonsole und anschließend mittels Sprachsteuerung. Diese ist sprecherabhängig, weswegen der Chirurg zunächst ein Sprachtraining durchführen muss. Die Daten werden auf eine Chipkarte gespeichert, und mittels dieser Chipkarte kann er mit jedem Aesop kommunizieren. Dieses Sprachtraining erfolgt einmalig. Computer Motion wurde 2003 von der Firma Intuitive Surgical übernommen, und die Produktion von Aesop wurde eingestellt. Der Präzisionsroboter der Firma Universal Robot Systems, D, dient zum tremorfreien und exakten Führen einer endoskopischen Kamera bei neurochirurgischen Eingriffen. Er erreicht eine Positioniergenauigkeit von bis zu 0,01 mm. In situ können die Navigationsdaten besser umgesetzt und die anatomischen Landmarken vereinfacht wieder aufgefunden werden. Die wiederholgenaue, robotergestützte Operation verbessert die Dokumentationsmöglichkeit und damit auch die Qualitätssicherung (Urban 1999). Dieses System ist ebenfalls heute nicht mehr kommerziell erhältlich.
54.4.6 Kommerzielle Telemanipulatoren
Im Folgenden werden die Telemanipulatoren der Firmen Computer Motion und Intuitive Surgical (beide USA) kurz vorgestellt. ⊡ Abb. 54.6 zeigt ZEUS, einen Telemanipulator der damaligen Firma Computer Motion. Dieses System besteht aus mehreren Komponenten, die z. T. auch
54
858
Kapitel 54 · Medizinische Robotersysteme
räte zwei flexible Instrumente bedienen. DaVinci ist ein geschlossenes, integriertes System, das nur in seiner Gesamtheit genutzt werden kann.
54.4.7 Kommerzielle Chirurgie-/Biopsieroboter
VI ⊡ Abb. 54.6. ZEUS, Telemanipulatorsystem der Firma Computer Motion, USA
einzeln einsetzbar sind. So setzt es sich im Prinzip aus drei AESOP-Armen zusammen: zwei als Instrumentenführungssysteme für die Manipulation bzw. Interaktion mit dem Gewebe und ein weiterer Arm zum Führen der endoskopischen Kamera. Ein entsprechendes Bedieninterface auf der Eingabeseite ergänzt die Einheit. 1999 waren mehr als sieben derartiger ZEUS-Systeme weltweit in unterschiedlichen Anwendungsbereichen von Gynäkologie bis Herzchirurgie im Einsatz. Durch die Übernahme von Computer Motion durch Intuitive Surgical wurde die Produktion und Weiterentwicklung des ZEUS Systems 2003 eingestellt. Ergänzt wurde ZEUS durch HERMES, ein OP-Bedienkonzept, bei dem alle im OP verfügbaren Geräte und Systeme (u. a. OP-Tisch, Beleuchtung, HF-Koagulation, Insufflator, Videokonferenzsystem etc.) über eine Sprachsteuerung bedient und gesteuert werden konnten. ⊡ Abb. 54.7 zeigt daVinci von Intuitive Surgical. Es ist ein für die Herzchirurgie entwickeltes Telemanipulationssystem, dessen Entwicklung 1995 begann und das seit 1999 in Deutschland klinisch eingesetzt wird. Weltweit sind inzwischen ca. 300 Systeme installiert, in Deutschland neben Leipzig u. a. in Berlin, Dresden, Frankfurt/M., Hamburg und München. Mit diesem System wurden zunächst vor allem Bypassoperationen, aber auch Herzklappenoperationen durchgeführt. Inzwischen wurden Operationen im urologischen Bereich (Prostataresektion), im gynäkologischen Bereich sowie in der Laparoskopie durchgeführt. Der Chirurg sitzt an einer maximal 8 m abgesetzten Konsole, hat über Bildschirme ein 3-D-Bild vom Operationsgebiet und kann über zwei Eingabege-
Unter diesen Systemen versteht man den klassischen Begriff der Roboter, angewandt auf chirurgische Präzisionsarbeiten wie z. B. das Fräsen von Hüftschäften. Diese Roboter bewegen sich auf vor der Operation fest vorgegebenen Bahnkurven und arbeiten ein Programm ähnlich CNC-Maschinen Schritt für Schritt ab. ⊡ Abb. 54.8 zeigt ROBODOC von Integrated Surgical Systems (ISS), USA. Es wurde 1992 erstmalig vorgestellt und dient zum präzisen Platzieren von Hüftprothesen. Dieses System beinhaltet neben dem eigentlichen Roboter auch ein Planungssystem, mit dem die entsprechende Prothese ausgewählt und die optimale Lage der Prothese berechnet wird. Mit ROBODOC sind seit 1994 über 12.000 Operationen erfolgt, die meisten davon in Deutschland. Während in den Anfängen jeweils in einer ersten Operation der Oberschenkelknochen mit Schrauben markiert werden musste, um eine exakte Vorberechnung wie auch eine Online-Überwachung während den eigentlichen Roboterfräsarbeiten zu ermöglichen, wird in dem neuen System auf diese Markierung verzichtet, was zu einer geringeren Belastung für den Patienten führt, da u. a. keine Voroperation erforderlich ist. Ein weiteres Robotersystem ist Pathfinder der Firma Armstrong Healthcare, UK. Es dient zum präzisen Bohren, Fräsen oder kann für andere Arbeiten bei neurochirurgischen oder orthopädischen Eingriffen eingesetzt werden. In Deutschland war seit 1996 CASPAR von ortoMaquet, D, am Werk, das in der Aufgabenstellung und der Funktionalität weitgehend dem ROBODOC-System entspricht. Neben der Hüftgelenkoperation zählte auch die Kniegelenkoperation zum Einsatzbereich für CASPAR. Die Produktion von CASPAR wurde mittlerweile eingestellt. In Deutschland hatte der SurgiScope von Jojumarie sehr starke universitäre Anbindung und diente als Hilfswerkzeug für Präzisionsarbeiten im Hals-Nasen-OhrenBereich. Das System konnte hier bereits klinisch erprobt werden. Im Speziellen wurde es zur Mikroskopführung, zur Führung der Biopsienadel oder des Endoskops sowie als Bohr- und Schraubassistent eingesetzt. Nicht zuletzt wurde gerade eine neuartige Strahlenbehandlung mit Hilfe dieses Systems erprobt. Hierbei diente das System zur präzisen Positionierung von sog. radioaktiven Pellets z. B. bei der Prostataresektion. Ein vorhandener Tumor soll dadurch gezielt mittels radioaktiver Strahlung zerstört werden. Das System wurde mittlerweile vom kommerziellen Markt genommen und dient nun vorwiegend zu Forschungszwecken.
859 54.5 · Medizinische Anwendungsfelder
⊡ Abb. 54.7. daVinci, Telemanipulatorsystem der Firma Intuitive Surgical, USA
⊡ Abb. 54.8. ROBODOC, Operationsroboter der Firma ISS, USA
Melzer und dem industriellen Partner Innomedic GmbH, D. Das System erhielt als erstes MRT-kompatibles System weltweit in 2005 die CE-Zulassung. Eingesetzt wird das System vorwiegend für die perkutane, bildgestützte Schmerztherapie an verschiedensten Organen wie z. B. Leber, Wirbelsäule, etc. Das letztgenannte Präzisionssystem besitzt eine direkte Interaktion mit der Planungssoftware und dem Tomographen, und es wird in diesem Bereich daran gearbeitet, das System direkt online mit dem MRT zu betreiben, d. h. die Bildsequenzen können direkt vom Assistenzsystem ausgewertet und umgesetzt werden. Dadurch ist eine Operation unmittelbar unter direkter Bildnavigation erstmals möglich, und die Präzision des Eingriffs wird dadurch erhöht. Alle eingesetzten Materialien sind MRTkompatibel, und es wurden spezielle optische Sensoren sowie pneumatische Antriebe explizit für dieses System entwickelt. Die pneumatischen Aktoren sind dabei die ersten ihrer Art weltweit und können entlang ihrer Verfahrbahn auf 0,1 mm exakt positioniert werden. Aufgrund der MRT-kompatiblen Materialien ist die Störung des Assistenzsystems während der Bildaquisition deutlich minimiert. In der nun folgenden klinischen Evaluierung werden weitere Einsatzgebiete, wie bspw. Eingriffe in der Neurochirurgie, erprobt und weiter entwickelt.
54.5 ⊡ Abb. 54.9. Innomotion, MRT-kompatibles Assistenzsystem
⊡ Abb. 54.9 zeigt das System Innomotion der Firma Innomedic GmbH aus Deutschland. Dies ist das erste kommerziell erhältliche Assistenzsystem für den Einsatz unmittelbar im Magnet-Resonanz-Tomographen (MRT). Entwickelt wurde das System vom Forschungszentrum Karlsruhe zusammen mit dem klinischen Partner Prof.
Medizinische Anwendungsfelder
Im Bereich der Bauchraumchirurgie (z. B. Cholezystektomie, Prostatektomie) sowie der allgemeinen endoskopischen Chirurgie werden die einfachen Systeme, wie bspw. die Kameraführung, sicherlich am häufigsten verwendet. Ihre unterstützenden Wirkungen sind: ▬ Bereitstellung eines ruhigen, zitterfreien Bildes, ▬ kontrollierte Kameraführung direkt vom Chirurgen – ein zusätzlicher Assistent als Kameramann ist nicht erforderlich.
54
860
VI
Kapitel 54 · Medizinische Robotersysteme
Werden neben dem EFS auch noch Instrumentenhaltesysteme eingesetzt, die einfache Instrumente wie Fasszangen in einer festen Position halten und vom Chirurgen bei Bedarf leicht verstellt werden können, so hat der Chirurg die Möglichkeit, weitgehend allein eine Operation, nur assistiert durch die OP-Schwester, durchzuführen, die sog. Solochirurgie ist nunmehr machbar (Schurr 1998). Der Einsatz von Robotiksystemen erlaubt es, z. B. in der Orthopädie (Hüftprothesen, Knieoperationen), aber auch in der HNO (Kiefer- und Gesichtschirurgie), im Vergleich zur manuellen Chirurgie wesentlich exaktere chirurgische Arbeiten durchzuführen. So kann der Hüftroboter den Oberschenkelknochen exakter ausfräsen als der Chirurg es kann. Dadurch hat die Prothese anschließend eine Passgenauigkeit von über 90% gegenüber dem manuellen Verfahren mit ca. 30% Kontaktfläche. Knochenzement als Verbindungsunterstützung zwischen Implantat und Knochen kann dadurch reduziert werden. In der Neurochirurgie werden diese exakten Maschinen vorwiegend zum präzisen Führen und Halten von sehr filigranen Operationsinstrumenten und Kameras eingesetzt. Hier findet man die zwingende Kombination der sehr hohen Exaktheit der Robotersysteme mit einfachen Aufgaben wie den Haltefunktionen. Der Neurochirurg profitiert von der Schnittstelle des Roboters zur Planungssoftware, sodass eine exakte Positionierung anhand der Bilddaten erfolgen kann. Dies ist gerade im neurochirurgischen Bereich von höchstem Interesse. Innomotion von der Firma Innomedic GmbH, D, soll zu solch einem System modifiziert werden und neben endoskopischen Kameras auch Instrumente präzise halten und führen. Genauigkeiten von unter 1 mm sind hierfür zwingend erforderlich. Die Verwendung von Telemanipulationssystemen schließlich ermöglicht dem Chirurgen, feinere und exaktere Operationsschritte und damit konventionelle endoskopische Eingriffe sehr viel exakter durchzuführen. Hier sind besonders die Bypassoperationen in der Herzchirurgie und die Prostatektomien in der Urologie zu nennen (Selig 2000). Die bisher sehr traumatischen offenen klassischen Operationsmethoden können durch diese präzisen Manipulatoren erstmals endoskopisch durchgeführt werden, was für die Patienten von großem Vorteil ist. Grundsätzlich zeigen die Telemanipulationssysteme folgende Möglichkeiten auf: ▬ Die Bewegungsabläufe lassen sich skalieren: z. B. kann eine Bewegungsvorgabe des Chirurgen von 10 cm in eine Instrumentenbewegung von z. B. 1 cm umgesetzt werden. Dadurch sind exaktere Aktionen möglich. ▬ Ein Bewegungstremor kann herausgefiltert werden, Zittern wird eliminiert, höhere Sicherheit wird erreicht.
▬ Ein Indexing ist möglich: Der Chirurg kann sich eine optimale Arbeitsposition aussuchen und muss nicht in verspannter Körperhaltung entsprechend der Position der Arbeitsinstrumente operieren. Optimale Ergonomie für den Chirurgen kann erreicht werden, ermüdungsfreieres Operieren ist möglich. ▬ Zwischen verschiedenen Koordinatensystemen kann ausgewählt werden. So ist es möglich, z. B. in Weltkoordinaten, Instrumentenkoordinaten oder Bildschirmkoordinaten die Instrumente zu steuern. Damit kann je nach Einsatzgebiet und je nach Präferenz des Chirurgen das günstigste Steuerungsverfahren gewählt werden. ▬ Kräfte können an der Instrumentenspitze erfasst und dem Chirurgen am Bediengerät vermittelt werden. Forschungsarbeiten auf dem Gebiet der Manipulatorentwicklung haben gezeigt, dass durch die Kompliziertheit der Gesamtsysteme immer häufiger einfache endoskopische Instrumente für bisher konventionell durchgeführte Operationen entwickelt werden konnten. Diese sog. Spinoffs ermöglichen es dann auch, einfache endoskopische Eingriffe mit den völlig neuen Techniken der minimal invasiven Chirurgie durchzuführen.
54.6
Technische Aspekte
Der Einsatz von Teletechniken erfordert ein Umdenken und auch ein Einarbeiten in diese Techniken (Voges 2000). Der Arzt muss sich ein entsprechendes technisches Verständnis aneignen, im Operationssaal ist nicht nur medizinisches, sondern auch technisches Personal erforderlich. Dabei ist jedoch eine Akzeptanzschwelle zu überwinden, wenn der Kontakt zwischen Arzt und Patienten nicht mehr direkt, sondern nur über Telekommunikationseinrichtungen erfolgt. Ebenso kann eine psychologische Hemmschwelle auftreten, wenn nicht mehr der Arzt, sondern ein Roboter bzw. ein Telemanipulator am Operationstisch steht und den Eingriff vornehmen soll. Dem Patienten muss einerseits verständlich gemacht werden, welche Vorteile für ihn mit dem Einsatz einer solchen Technik verbunden sind, und andererseits muss er darauf vertrauen können, dass trotz Maschine auch ein Arzt am Operationstisch zugegen ist und die Operation überwacht. Robotik- und Manipulatorsysteme für den Einsatz in der Chirurgie stellen besondere Anforderungen an die Integration in die statischen und dynamischen Strukturen der Operationssäle in den Kliniken. Hierzu wurden bereits zahlreiche Konzepte entwickelt, die den gesamten Bereich von Anforderungen – von der Aufrüstung bereits existierender Einrichtungen bis hin zur speziell an die Möglichkeiten und Bedürfnisse des Robotereinsatzes angepassten Neueinrichtung – abdecken. Auf
861 54.7 · Perspektiven
einige Anforderungen soll im Folgenden eingegangen werden. Bauliche Voraussetzungen sind neben ausreichend Platz für die schnelle und leichte Ankopplung des Manipulatorsystems an den Operationstisch ggf. auch ein erschütterungsfreier Boden und/oder eine Möglichkeit der Deckenaufhängung. Die Aufstellung der Bedieneinheit muss unter dem Gesichtspunkt erfolgen können, dass bei Bedarf eine direkte Sicht auf den Patienten und das Manipulatorsystem wie auch die sonstigen Informationen (Anästhesiedaten etc.) gegeben ist. Das OP-Team muss eine spezielle Einführung in die Handhabung der Geräte und die Behebung der während der Betriebs möglicherweise auftretenden Probleme erhalten. Darüber hinaus ist die Anwesenheit eines Technikers erforderlich, damit ein bestimmungsgemäßer Aufbau und Einsatz des Systems erfolgt und auftretende Probleme rechtzeitig richtig erkannt und behoben werden können. Die Interdisziplinarität im OP-Team wird erhöht, und das Technikverständnis des Chirurgen ist gefordert. Der Chirurg muss sich einem ausgiebigen Training unterziehen, um die sich von der herkömmlichen Operation unterscheidende Bedienung der Mastereinheit bzw. des gesamten Telemanipulationssystems und die zusätzliche Funktionalität zu erlernen. Die Bedieneinheit sollte zwar intuitiv bedienbar sein, aber verschiedene Einstellmöglichkeiten, die sonst nicht gegeben sind (z. B. Selektion des Koordinatensystems, der Skalierung, der Gerätezuordnung), erfordern ein Sichvertrautmachen, um auch in kritischen Situationen korrekt, sicher und schnell handeln zu können. Dies macht den Bedarf für Simulatoren und Trainer ersichtlich: Ähnlich wie bei Flugsimulatoren erscheint es sinnvoll, Trainings- und Simulationssysteme für die Telechirurgie einzusetzen, an denen die Chirurgen fortlaufend geschult werden können.
54.7
Perspektiven
Die Entwicklung des Demonstrators ARTEMIS und seine langjährige Erprobung wie auch die inzwischen eingesetzten kommerziellen chirurgischen Telemanipulatoren und Roboter haben gezeigt, dass durch den Einsatz von Teletechniken im Operationssaal eine Reihe von Vorteilen erzielt werden können. Dazu zählen ▬ die bessere Bildqualität durch den Einsatz von Endoskopführungssystemen, ▬ die bessere Operationsqualität durch die exaktere Instrumentenführung mit Hilfe der Telemanipulationssysteme, ▬ die bessere Operationsqualität durch eine ermüdungsfreiere, ergonomischere Arbeitshaltung, ▬ die bessere Operationsqualität durch die Integration eines 3-D-Sichtsystems.
Aber es bleiben noch weitere wichtige Ziele für die künftigen Entwicklungen: ▬ modularer und flexibler Systemaufbau, ▬ flexible und leichter wechselbare Instrumente bzw. Multifunktionsinstrumente, ▬ bedarfsorientierte Anpassung an die Erfordernisse der Telechirurgie, ▬ vielseitige Einsatzmöglichkeit in allen relevanten chirurgischen Disziplinen, ▬ breitere Einsetzbarkeit in besonderen Umgebungen wie CT, MRT. Die Modularität des Systems wird sich nicht nur auf die Mechanikkomponenten beziehen, sondern auch im Softwareaufbau niederschlagen. So kann unter Einsatz einer verteilten, objektorientierten Realzeitarchitektur diese Modularität im Softwaresystem umgesetzt werden. Multiagentensysteme werden soft- und hardwaremäßig realisiert, ebenso eine offene Systemstruktur, die die Integration von unterschiedlichen Master- und Slave-Systemen zulässt. Neben der eigentlichen Telemanipulation werden auch weitere Teletechniken in das Telepräsenzsystem eingebunden, sodass u. a. auch Teleconsulting und Teleplanung unterstützt werden. Die Anwendbarkeit in unterschiedlichen Disziplinen ist weiterhin eine Voraussetzung für eine wirtschaftliche Akzeptanz eines solchen Systems. Der Einsatz von Teletechniken in der Chirurgie wird immer weitere Kreise ziehen. Nicht in allen Bereichen, in denen der Einsatz erprobt wird, wird er sich auch etablieren. Oft wird es nur eine Operation geben; nach dem Motto der Presseinformationen: »Chirug A hat als erster die Operation B mit Hilfe des Robotiksystems C durchgeführt.« »Nachfolger gibt es nicht, da die Durchführung einer derartigen Operation B mit einem Robotiksystem eher Nachteile als Vorteile bringt...«. Oder es wird noch eine lange Zeit dauern, bis sich derartige Operationen durchsetzen. Einige Kliniken werden in den nächsten Jahren noch die Vorreiter sein müssen und die Möglichkeiten, aber auch die Grenzen der Telechirurgie ergründen. Bis zu einem flächendeckenden Einsatz derartiger Systeme wird es wohl noch 10 Jahre dauern. Nicht nur der Preis (oft über 1 Mio. Euro) ist ein Hinderungsgrund, sondern auch die noch mangelhafte Funktionalität. Die bisherigen Erfolge beim Einsatz von Telemanipulations- und Robotiksystemen in der Chirurgie zeigen, dass derartige Systeme ihren berechtigten Platz in der Medizin haben und sinnvoll eingesetzt werden können. Nichtsdestotrotz besteht auch weiterhin Forschungs- und Entwicklungsbedarf: Die Einsatzgebiete können noch erweitert werden; dafür sind entsprechende Änderungen und Weiterentwicklungen bei den Sytemen erforderlich. Die medizinische Vorgehensweise muss sich ggf. an die Möglichkeiten, die die Robotik bietet, anpassen. Gänzlich
54
862
Kapitel 54 · Medizinische Robotersysteme
neue Operationstechniken, die bei rein manueller Vorgehensweise nicht machbar sind, müssen erprobt werden. Eine enge Kooperation zwischen Technikern und Medizinern ist in diesem Feld erforderlich.
Literatur
VI
Bauer A, Börner M, Lahmer A (1997) Experiences with a computer-assisted robot (RobodocTM) for cementless hip replacement. In: Dillmann R, Holler E, Meinzer HP (eds) 2nd IARP Workshop on Medical Robotics, Nov 1997, Forschungszentrum Karlsruhe, S 133–134 Cakmak, H, Maass, H, Kühnapfel, U (2005) VSOne, a virtual reality simulator for laparoscopic surgery. Minimally Invasive Therapy & Allied Technologies, 14: 134–44 Fischer H et al. (2000) Manipulator für die Therapie von Mammakarzinomen im Magnetresonanztomographen (MRT). »Nachrichten Forschungszentrum Karlsruhe«, 32/1–2/2000, S 33–38 Gumb L, Schäf A, Trapp R et al. (1996) Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie. DE-OS 19609034 (12.9.1996), DE-PS 19609034 (1.7.1997), EP-PS 59600577 (16.9.1998) Gutmann B, Gumb L, Goetz M, Voges U, Fischer H, Melzer A (2002) Principles of MR/CT Compatible Robotics for Image Guided Procedures. Education Exhibit (Certificate of Merit), Radiology Suppl. p 677 Gutmann B, Lukoschek A, Fischer H, Melzer A (2003) Development of an assistant robotic system for interventional radiology inside CT and MR scanners. Curac Melzer A, Gutmann B, Lukoschek A et al. (2003) Experimental Evaluation of an MR compatible Telerobotic System for CT/MR-guided Interventions. Radiology Suppl. p 409 Neisius B (1997) Konzeption und Realisierung eines experimentellen Telemanipulators für die Laparoskopie. Dissertation, Univ Karlsruhe Oberle R, Voges U (1993) A telerobotic approach towards endoscope guidance. In: 1st European Congress of the European Association for Endoscopic Surgery. Köln, 03.–5.6.1993 Petermann J, Schierl M, Heeckt PF, Gotzen L (2000) The CASPAR-system (Computer Assisted Surgery Planning And Robotics) in the reconstruction of the ACL. First follow-up results. 5th International Symposium CAOS, Davos, Schweiz, 17.–19.2.2000 Schurr MO, Buess G, Neisius B, Voges U (1998) Robotics and allied technologies in endoscopic surgerey. In: Szabo Z (Hrsg) Surgical technology international VII – International developments in surgery and surgical research. Universal Medical Press, San Francisco, pp 83–88 Selig M, Fischer H, Gumb L et al. (1999) Voice controlled camera guiding system FELIX for endoscopic cardiac surgery. 11th Annual Scientific Meeting of the Society for Minimally Invasive Therapy (SMIT), sponsored by the Center for Innovative Minimally Invasive Therapy (CIMIT). Boston/MA, Sept 16–18, 1999 Selig M et al. (2000) Minimal invasive Herzchirurgie. »Nachrichten Forschungszentrum Karlsruhe«, 32/1–2/2000, S 55–60 Shennib H, Bastawisy A, Mack MJ, Moll FH (1998) Computer-assisted telemanipulation: An enabling technology for endoscopic coronary artery bypass. Ann Thorac Surg 66: 1060–1063 Stephenson ER, Snakholkar S, Ducko CT, Damiano RJ (1998) Robotically assisted microsurgery for endoscopic coronary artery bypass grafting. Ann Thorac Surg 66: 1064–1067 Uecker DR, Lee C, Wang YF, Wang Y (1994) A speech-directed multimodal man-machine interface for robotically enhanced surgery. Proc 1st Int Symp Medical Robot and Comp Assisted Surgery. Pittsburgh, pp 176–183
Urban V, Wapler M, Weisener T, Schonmayr R (1999) A tactile feedback hexapod operating robot for endoscopic procedures. Neurol Res 21/1: 28–30 Voges U, Dautzenberg P, Kühnapfel U et al. (1995) Experimenteller Telemanipulator für die minimal invasive Chirurgie. 2. Statuskolloquium des Projektes Mikrosystemtechnik, Karlsruhe, 28.–29.11.1995, Wissenschaftliche Berichte, FZKA-5670 (Nov 1995), S 106–111 Voges U, Holler E (2000) Teletechniken und chirurgische Robotik. »Nachrichten Forschungszentrum Karlsruhe«, 32/1–2/2000, S 39–54 Wendt O, Remmele T, Gutmann B et al. (2004) Assistant manipulator system for image guided percutaneous Interventions. Curac 2004
Weitergehende Internetinformationen zu den genannten Firmen bzw. Gerätenamen DaVinci: www.intuitivesurgical.com EndoAssist, LapMan: www.medsys.be/lapman/body.htm EndoAssist, Pathfinder: www.armstrong-healthcare.com/ Innomotion: www.innomedic.de Robodoc: www.robodoc.com Robox, Artemis: www.iai.fzk.de/projekte/medrob/artemis
55 Medizinische Gasversorgungssysteme P. Neu
55.1
Normen – 863
55.1.1 55.1.2 55.1.3 55.1.4 55.1.5 55.1.6 55.1.7 55.1.8 55.1.9
Herstellung – 863 Design – 864 Risikoanalyse – 864 Konstruktion – 864 Materialien – 865 Wartung und Reparatur – 865 Kennzeichnung – 865 Versorgungsquellen – 865 Notversorgung – 867
Gaseanwendungen spielen eine zentrale Rolle im Krankenhaus. Sie müssen daher ständig sicher und zuverlässig zur Verfügung stehen. Es handelt sich dabei um die Gase Sauerstoff, Lachgas, medizinische Atemluft und Kohlendioxid. Die Spezifikationen für diese Arzneimittel und deren Prüfmethoden sind im Europäischen Arzneibuch festgelegt. Auch Narkosegasableitungen und Vakuumsysteme sind im weiteren Sinne Gasversorgungsanlagen. Für sie gelten aber eigene Normen und Spezifikationen, weswegen sie im Folgenden ausgeklammert bleiben. Gase benötigen für ihre Lagerung und den Transport aufgrund ihrer physikalischen Eigenschaften stets sekundäre Materialien wie Tanks oder Druckgasbehälter und Leitungssysteme. Für die Entnahme und ihre Anwendungen werden Ventile, Druckminderer und Leitungssysteme benötigt. Dabei müssen alle Teile sowohl einzeln als auch das ganze Entnahmesystem nicht nur für den Druck ausgelegt sein, sondern sie müssen auch spezifisch gasartgeeignet sein. Bei den Gasversorgungssystemen unterscheidet man aufgrund differenzierter Eigenschaften sogenannte Hochdrucksysteme mit Drücken größer 30 bar und sogenannte Niederdrucksysteme. Bei den medizinischen Gasversorgungssystemen handelt es sich meist um Niederdrucksysteme. Für Hochdrucksysteme gelten andere technische Vorschriften für die Anlagensicherheit. Dies betrifft nicht nur die Druckfestigkeit der Materialien, sondern auch und gerade ihre chemische Stabilität gegen Sauerstoff und Lachgas – v. a. beim Einsatz von nichtmetallischen Werkstoffen. Hierauf wird im Abschn. 55.1.2 »Design«
näher eingegangen.
55.1.10 Analytische Überprüfung der Gasqualität – 867 55.1.11 Mikrobiologische Kontamination – 867 55.1.12 Dokumentation – 868
55.2
Normen und Informationsquellen – 868 Weiterführende Literatur – 868
55.1
Normen
Grundlage waren und sind nationale Normen, die heute in europäische Normen und Richtlinien überführt sind oder überführt werden. Das kann in Einzelfällen dazu führen, dass nationale Normen andere Forderungen haben als international festgelegte. Diese Normen werden zur Zeit international harmonisiert. Damit hier nicht zu große Verwirrung entsteht, sind die neuen internationalen Normen eher Empfehlungen. Ein Hersteller und Betreiber muss allerdings begründen, warum er davon abweicht. Notwendigerweise gelten für die Einführung neuer Normen stets Übergangsfristen, was zu möglichen Verwirrungen führen kann. Die nationalen Behörden sind dann aufgefordert, hier die Risiken zu minimieren. Im Abschnitt Kennzeichnung wird auf ein solches Beispiel näher eingegangen. Gasversorgungssysteme im medizinischen Bereich unterliegen zusätzlich den Anforderungen des Medizinproduktegesetzes.
55.1.1 Herstellung
Die EU Richtlinie 93/42 EWG Medical Device Directive legt generelle Anforderungen an Hersteller von Medizinprodukten fest. Der Hersteller von medizinischen Gasversorgungssystemen muss nach dieser Richtlinie die beiden folgenden Bedingungen erfüllen: ▬ Er muss ein vollständiges, von einer benannten anerkannten Stelle (Notified Body) zertifiziertes Qualitätsmanagementsystem besitzen.
864
Kapitel 55 · Medizinische Gasversorgungssysteme
▬ Die erstellte Anlage muss eine Baumusterpüfung und Abnahmeprüfung nach den Anhängen 3 und 4 dieser Richtlinie von einem Notified Body erhalten.
VI
Unter Notified Body ist hier eine zertifizierte Stelle oder besser ein zertifiziertes Unternehmen gemeint. In vielen Fällen ist es der Hersteller selbst. Mit dem CE Zeichen wird bestätigt, dass die Anlage oder auch Teile davon in Übereinstimmung mit den »Grundlegenden Anforderungen« in Bezug auf Sicherheit von Patienten, Betreibern und Dritten geplant, erstellt und geprüft wurde. Dies scheint auf den ersten Blick problemlos. Doch wie kennzeichnen sie das Versorgungssystem mit dem CE-Zeichen? Das Problem beginnt mit den ersten Veränderungen, Erweiterungen und Reparaturen am System, die vom Betreiber – meist dem Krankenhaus – vorgenommen werden. Streng genommen muss der Hersteller des existierenden Systems hier eine Konformitätserklärung abgeben. Das heißt, er muss den Veränderungen zustimmen, denn anders kann er ja seinen Verpflichtungen, wie der Produkthaftung aus dem Medizinproduktegesetz, nicht nachkommen.
55.1.2 Design
Generell sollten Gasversorgungssysteme so konstruiert werden, dass keine »toten Säcke« entstehen. Diese sind schwer zu reinigen, und Kontaminationen können sich in ihnen besonders bei längerem Stillstand ausbilden. Wenn tote Säcke nicht zu vermeiden sind, sollten diese Abschnitte des Rohrleitungssystems einzeln abgesperrt werden können, und Rückschlagventile sollten eine Rückströmung in das Gasversorgungssystem verhindern, damit im Falle von auftretenden Fehlern das separate Freispülen des Anlagenteiles möglich ist. Damit bei auftretenden Problemen und Fehlern nicht das gesamte System ausfällt, sollte dieses möglichst redundant ausgelegt werden. Eine vollständige Redundanz des gesamten Systems ist kaum möglich, dennoch sollten einzelne Abschnitt durch Ventile abtrennbar sein und über eigene Gaseinspeisungsmöglichkeiten verfügen. Dies gilt vor allem für Ringsysteme. Sie besitzen gegenüber anderen Konstruktionssystemen den Vorteil, keine toten Säcke zu haben. Sie reagieren besonders schnell auf plötzlich ansteigenden Gasbedarf. Druck und Druckverteilung im System bleiben sehr gleichmäßig. Sie haben aber den Nachteil, dass eine Isolierung von fehlerhaften oder kontaminierten Bereichen nur unter Bildung von toten Säcken möglich ist. Häufig werden keine völlig neuen Gasversorgungsanlagen gebaut, sondern alte bestehende Anlagen werden erweitert, ergänzt oder teilerneuert. In solchen Fällen stellen diese neuen Teile Medizinprodukte dar, die ein CEZeichen bekommen. Es ist dabei selbstverständlich, dass
diese Teile während der Bauphase vom arbeitenden System abgetrennt sein müssen. Bei Bau und Inbetriebnahme der neuen Anlagenteile muss Sorge dafür getragen werden, dass die Anlagenteile sich nicht negativ beeinflussen. Sie dürfen erst in Betrieb gehen, wenn sie entsprechend nach Medizinproduktegesetz abgenommen und zertifiziert wurden. Das gilt natürlich besonders für Erweiterungen an Anlagen mit bestehenden CE-Zeichen. Besonders ist zu beachten, dass in der späteren Nutzung Überprüfungen der Dichtigkeit und andere Prüfungen, die eine Unterbrechung der Versorgung erfordern, nur schwer oder gar nicht durchführbar sind. Die Anlagen müssen die physikalischen und chemischen Eigenschaften der im System transportierten Gase berücksichtigten. Dies gilt v. a. für die Verlegung der Anlagen in Gebäuden. Sauerstoff und Lachgas sind als brandfördernd eingestuft. Sie können im Falle von Leckagen aus den Anlagen in die Umgebung austreten und ein Gefahrenpotential bilden. Die Rohrleitungen müssen daher in den Verlegungskanälen getrennt von weiteren Installationen wie z. B. Elektroversorgung verlegt werden oder es müssen Mindestabstände eingehalten werden. Eine Flutung der Kabel- und Rohrschächte mit Stickstoff für Brandfälle sollte diskutiert werden, auch wenn sie in keiner Vorschrift erwähnt wird.
55.1.3 Risikoanalyse
Gasversorgungsanlagen müssen so konstruiert und betrieben werden, dass Patienten, Nutzer und Betreiber nicht mehr als unbedingt nötig gefährdet werden. Hierzu ist es notwendig, Risikoanalysen durchzuführen. Im Folgenden sind die Hauptrisiken eines solchen Systems aufgeführt: 1. Druckfestigkeit der Leitungen und der damit verbundenen Komponenten wie Druckminderer und Entnahmestellen, 2. Leckdichtigkeit von Leitungen, Ventilen und Entnahmestellen, 3. Gasartspezifität muss eingehalten werden, 4. Sicherheit gegen Kontamination durch angeschlossene Geräte und Systeme, 5. Isolation von einzelnen Bereichen vom gesamten System bei möglichen Fehlern, 6. Abtrennung von besonders kritischen Bereichen wie OP und Intensivmedizin und Anschlussmöglichkeit von Notversorgungsquellen.
55.1.4 Konstruktion
Die Konstruktion hat nach den erstellten Material- und Stücklisten und Zeichnungen zu erfolgen.
865 55.1 · Normen
Abweichungen davon sind zu dokumentieren. Während der Bauphase sollten Materialien wie Rohre vor Witterungseinflüssen geschützt gelagert werden. Es ist eine Überlegung wert, ob das System in der Bauphase ständig unter Gas gehalten und gespült wird, um das Eindringen von Kontaminationen zu vermeiden – eine in der Pharma-, Lebensmittel- und Elektronikindustrie gängige Praxis. Alle Materialien und Arbeitsprozesse müssen von vornherein so ausgewählt und durchgeführt werden, dass eine nachträgliche Reinigung nicht notwendig wird. Insbesondere darf das System nicht mit irgendwelchen Flüssigkeiten gereinigt werden. Es kann trotz intensivstem Spülen und Prüfen nicht sichergestellt werden, dass diese Mittel vollständig aus der Anlage entfernt wurden.
55.1.5 Materialien
Die Materialien, aus denen die Systeme und ihre Komponenten bestehen, müssen den physikalischen und chemischen Anforderungen und Belastungen standhalten. Als metallische Werkstoffe kommen meist Kupfer und Messing zur Anwendung. Es ist darauf zu achten, dass diese bereits als fettfrei und Sauerstoff bzw. Lachgas geeignet beschafft werden und nicht nachträglich gereinigt werden müssen. Besonderes Augenmerk ist hierbei auf die Verwendung des richtigen Lötmaterials für Kupferleitungen zu achten. Neben den metallischen Werkstoffen kommen eine Reihe von Kunststoffen zum Einsatz, in den meisten Fällen als Dichtmaterial. Aus rein technischen Gesichtspunkten bieten sich halogenierte Kunststoffe an, da sie die höchste Beständigkeit gegen Sauerstoff besitzen. In Brandfällen – mehr noch aber bei unbemerkten Verpuffungen im System – können diese Materialien hochgiftige Reaktionsprodukte freisetzen. Die aktuellen Normen und europäischen Richtlinien empfehlen die Verwendung von nicht-halogeniertem Material. Das hat aber wesentlichen Einfluss auf das Design, die Risikobewertung und die Konstruktion. Denn diese Stoffe sind gegen Sauerstoff und Lachgas nicht stabil, was sich in ihrem sehr niedrigen Sauerstoffindex zeigt. Hinweise hierzu erhält man von allen Herstellern dieser Materialien. Da diese Materialien nicht stabil gegen Sauerstoff sind, müssen die Anlagen und Komponenten so konstruiert werden, dass sie möglichst minimierten Kontakt zum Gas haben und Druckstöße sowie hohe Strömungsgeschwindigkeiten in diesem Bereich vermieden werden.
55.1.6 Wartung und Reparatur
Wartungen und Reparaturen müssen so ausgeführt werden, dass sie die CE-Zertifizierung des Systems erhalten. Dies bedeutet, dass Reparatur und Teiletausch nur von
zertifizierten Unternehmen ausgeführt werden dürfen. Es wird hierzu streng genommen eine Konformitätsbescheinigung des Herstellers der Gasversorgungsanlage benötigt. Es ist zu diskutieren, ob nicht auch der Eigentümer und Betreiber der Anlage, sofern er einen Sicherheitsbeauftragten nach Medizinproduktegesetz besitzt, aus praktischen Gründen dies tun kann, sofern gewisse Randbedingungen eingehalten werden. 55.1.7 Kennzeichnung
Leitungen und Entnahmestellen von Gasversorgungssystemen müssen eindeutig gekennzeichnet werden. Ab 1.7.2006 dürfen die Hersteller nur noch Equipment mit der Farbgebung nach ISO 32/DIN 739 oder farbneutral in Verkehr bringen (⊡ Tab. 55.1). Dabei kann das Nebeneinander von nationalen und harmonisierten internationalen Normen zu Verwirrungen führen. Um dies zu vermeiden, werden Übergangslösungen notwendig. In Deutschland gibt es nach Vorschlag der obersten Landesbehörden vier Möglichkeiten zur Umstellung und Anpassung an die neue Norm. (Informationen hierzu unter folgender web-Adresse: www.sm.badenwuerttemberg.de/sixcms/media.php/1442/Gaskennfarben-Information.pdf) Dabei ist für die eindeutige Kennzeichnung neben der farblichen Kennzeichnung auch die farbneutrale Kennzeichnung mit dem Namen der Gasart oder der chemischen Kurzformel möglich. Die letztere bietet den Vorteil, auch von nicht in der Farbgebung geschultem Personal erkannt zu werden. 55.1.8 Versorgungsquellen
Die medizinischen Gase können aus unterschiedlichen Vorratsquellen in das System eingespeist oder selbst erzeugt werden. Für Sauerstoff und Distickstoffmonoxid (Lachgas oder Stickoxydul) kommen prinzipiell zwei verschiedene Arten der Versorgungsquellen in Frage. Bei geringeren Mengen wird das Gas aus Hochdruck-Druckgasbehältern eingespeist. Bei größeren Mengen wird aus ökonomischen Gründen aus isolierten cryogenen Flüssigtanks versorgt. Die Einspeisung in die Gasversorgung erfolgt dabei auf unterschiedliche Weise. Da die Gasversorgungssysteme in einem Druckbereich von 5–10 bar arbeiten, können die Druckgasbehälter nur über eine Entspannungsstation, die den Druck der Flaschen auf ca. 200 bar bei Sauerstoff und ca. 50 bar bei Lachgas und Kohlendioxid reduziert. Hierfür sind Druckminderer- und Umschaltstationen notwendig. Sie reduzieren nicht nur den Druck, sondern schalten auch häufig von einem leeren automatisch auf den nächsten vollen Behälter um. In modernen Anlagen können die
55
866
Kapitel 55 · Medizinische Gasversorgungssysteme
⊡ Tab. 55.1. Farbkodierung von medizinischen Gasen und Gasgemischen (ISO 32/ DIN EN 739) Medizinische Gase
Symbol
Farbkodierung
Bemerkungen
Sauerstoff
O2
weiß
nach ISO 32
Lachgas
N2O
blau
nach ISO 32
Helium
He
braun
nach ISO 32
Kohlendioxid
CO2
grau
nach ISO 32
Luft
Air
schwarz-weiß
nach ISO 32, Luft für Beatmung
Luft
Air-800
schwarz-weiß
nach ISO 32, Luft für chir. Werkzeuge
Xenon
Xe
hellbraun
Vakuum
Vac
gelb
Luft-Sauerstoffgemisch
Air/ O2
weiß-schwarz
nach ISO 32
Sauerstoff-Lachgasgemisch 50% O2 (V/V)
O2/N2O
weiß-blau
nach ISO 32
Sauerstoff-Heliumgemisch (He≤80% (V/V)
O2/He
weiß-braun
nach ISO 32
Sauerstoff-Kohlendioxidgemisch (CO2≤7% (V/V)
O2/CO2
weiß-grau
nach ISO 32
Helium-Sauerstoffgemisch (O2<20% (V/V)
He/O2
braun-weiß
nach ISO 32
Kohlendioxid-Sauerstoffgemisch (CO2>7% (V/V)
CO2/O2
grau-weiß
nach ISO 32
Stickstoffmonoxid-Stickstoffgemische (NO≤1000 µl/l)
NO/N2
schwarz-hellgrün
nach EN 1089-3
Medizinische Gasgemische
VI
Drücke in den Druckgasbehältern auch fernüberwacht werden. Beim Umgang mit Druckgasbehältern sind die entsprechenden Vorschriften zu beachten. Sicheres Betreiben von Druckgasbehältern und die Nutzung von medizinischen Gasen ist nur möglich, wenn die spezifischen Eigenschaften der Gase und der Behälter berücksichtigt werden. Hierzu haben der deutsche, aber auch der europäische Industriegaseverband Nutzungshinweise erstellt. Da sich das Gas in den Behältern unter Hochdruck befindet, muss in allen Anwendungsfällen eine mehrstufige Entspannungsstation zur Druckreduzierung eingesetzt werden. Es ist darauf zu achten, dass die Dimensionierung dieser Station auf die maximalen Bedarfsmengen im Versorgungsnetz ausgelegt ist. Die Entspannungsstation sollte dabei von der Mengenauslegung über Reserven verfügen, da die maximale Verbrauchsmenge im Gasnetz nicht ohne Weiteres exakt angegeben werden kann. Theoretisch wird sie natürlich durch die Zahl der Entnahmestellen und deren maximalen Gasdurchfluss bestimmt. Die Versorgung aus cryogenen Flüssigbehältern erfolgt über einen Verdampfer. Gewöhnlich wird tiefkalter flüssiger Sauerstoff bei niedrigen Drücken transportiert und gelagert (kleiner 3 bar). Um auf den für die Einspeisung in das Gasversorgungssystem notwendigen Druck von mindestens 5 bar zu kommen, werden so genannte Verdampferanlagen eingesetzt. Sie bestehen gewöhnlich aus einem einfachen Metallrohr (meist Aluminium oder Stahl). Aus
Gründen der besseren Wärmeübertragung ist das Rohr mit Wärmeleitblechen versehen. Die Wärme der Umgebungsluft wird dazu benutzt, die entsprechenden flüssigen Sauerstoffmengen zu verdampfen, um im Vorratstank und im System einen Druck von 15–17 bar aufzubauen. Dies geschieht allein durch mechanische Steuerung und bedarf keines Kompressors, keiner Pumpe oder sonstigen elektrischen Steuerung. Bei der Eigenerzeugung im Krankenhaus handelt es sich um medizinische Druckluft und Vakuum. Für die Erzeugung der medizinischen Druckluft kommen die unterschiedlichsten Kompressoren zum Einsatz, auf die hier im Detail nicht eingegangen werden kann. Sie lassen sich in Kompressoren mit Ölschmierung und Schmierungsfreiheit einteilen. Letztere besitzen den Vorteil, dass hier keine Ölabscheidung und Absorber installiert werden müssen, um die niedrigen Grenzwerte für Öl und Kohlenwasserstoffe des europäischen Arzneibuches einzuhalten. Generell müssen hinter den Kompressoren Gasreiniger installiert werden, um die Grenzwerte des Arzneibuches einzuhalten. Die neuen gültigen Grenzwerte für die Restverunreinigungen liegen teilweise deutlich niedriger als die der alten Norm. Von daher sind teilweise umfangreiche Nachrüstungen oder eine komplette Neuanschaffung der Kompressoren notwendig. Die Diskussion über den einzuhaltenden Feuchtewert ist eine müßige, denn die Einhaltung der Werte für die übrigen Verunreinigungen
867 55.1 · Normen
erfordert den Einsatz von Gasreinigern, die aber nur dann wirksam sind, wenn der Feuchtewert deutlich unter dem Wert von 800 ppm liegt.
55.1.9 Notversorgung
Da die Gasversorgungssysteme zu den lebenserhaltenden Systemen im Krankenhaus zählen, ist für eine entsprechende Versorgungssicherheit zu sorgen. Die EN 737 sieht hierfür drei unabhängige Quellen vor. Im Falle von Sauerstoff aus cryogenen Verdampferanlagen und Druckgasbehälterversorgung besteht die Notversorgung in fast allen Fällen aus zwei weiteren Behälterbatterien. Die Umschaltung erfolgt automatisch bei Druckabfall in den Druckgasbehältern oder bei einem Mindestfüllstand der Verdampferanlage. Die Umschaltung muss so schnell erfolgen, dass die Patientenversorgung nicht beeinträchtigt wird. Für besonders kritische Krankenhausbereiche ist eine Einspeisemöglichkeit in der Nähe der Bereiche vorzusehen, meist sind dies mobile Druckgasbehälter. Dabei sollten die Druckgasbehältnisse nicht über Kunststoffschläuche, auch wenn sie aus sauerstoffgeeignetem Material bestehen, angeschlossen werden. Siehe die Diskussion über einsetzbare Materialien. Für die Planung der Notversorgung spielen die Verbrauchsmengen des Krankenhauses und die Versorgungssicherheit des Gaselieferanten die Hauptrolle. Im Gegensatz zum europäischen Ausland gibt es in Deutschland keine exakte Vorschrift für die Reichweite der Notversorgung. Hier wird sich auf die schnelle Lieferfähigkeit des Gasversorgers verlassen. Doch der Betreiber des Gasversorgungsnetzes ist dafür verantwortlich. Er sollte sich also vergewissern, dass die Notversorgung an Bedarf und Reaktionsfähigkeit des Gaselieferanten angepasst ist. Die beste Lösung stellt die Aufnahme der Notversorgungsreichweite und Lieferfähigkeit in den Liefervertrag mit den Gaseherstellern dar. Dabei sollte die Notversorgung für mindestens 48 h ausreichend sein.
55.1.10
Analytische Überprüfung der Gasqualität
Bei den von den Gasversorgungssystemen transportierten Gasen handelt es sich um Arzneimittel. Daher dürfen diese die Qualität der von ihnen transportierten Gase nicht negativ beeinflussen. Als Qualitätskriterien dienen heute die Spezifikationen (Monografien) des europäischen Arzneibuches. In den Monografien sind nicht nur die Grenzwerte für die Verunreinigungen, sondern auch die Nachweismethoden festgelegt. Hierbei wird zwischen Herstellung und Qualitätsüberprüfung für den Anwender unterschieden.
Für den Fall, dass das System mit zugelassenen Arzneimitteln versorgt wird, übernimmt der pharmazeutische Hersteller die Qualitätskontrolle. Hier ist nur noch eine einfache Qualitätskontrolle z. B. an den Entnahmestellen notwendig. Wird kein zugelassenes Arzneimittel bei der Tankversorgung mit flüssigem medizinischem Sauerstoff in das System gespeist oder das Gas wie medizinische Luft vor Ort erzeugt, so sind die Kontrollen, wie sie für die Herstellung beschrieben sind, notwendig. Die Überprüfung muss dann auch nach Arzneimittelgesetz erfolgen. Das erfordert Verfahren, die nicht vor Ort, sondern nur unter Laborbedingungen mit Hilfe komplexer Geräte durchgeführt werden können. Die Qualitätsüberprüfung des Gases muss in regelmäßigen Abständen am gesamten System, d. h. u. a. an jeder Entnahmestelle überprüft werden. Also müssen entweder Proben gezogen werden, die dann im Labor untersucht werden können, oder man muss auf einfachere Methoden zurückgreifen. Üblich und im Arzneibuch beschrieben ist dabei die Überprüfung mit Prüfröhrchen. Diese haben jedoch ganz bestimmte Nachteile. Die Stärke der Verunreinigungen liegt häufig an der Nachweisgrenze der Prüfröhrchen. Überhaupt verlangt der Umgang mit den Prüfröhrchen und den Probennahmegeräten einige Übung und Erfahrung. Daher müssen die Herstellervorschriften genauestens eingehalten werden. Hauptfehlerquellen sind in falschem Gasdurchfluss wie bspw. dem Durchleiten falscher Gasmengen oder in einer nicht vorschriftsgemäßen Lagerung der Röhrchen zu finden. Beim Ölnachweis mit den Prüfröhrchen ist zu beachten, dass diese nur bestimmte Öle nachweisen können. Viele hochsynthetische, für Sauerstoff geeignete Öle, ergeben keine Anzeige. Zudem ist die Reaktion des Röhrchens bei den geringen Grenzwertmengen nur schwer zu erkennen. Sämtliche Prüfungen sind zu dokumentieren.
55.1.11
Mikrobiologische Kontamination
In letzter Zeit wird zunehmend nach einer möglichen mikrobiologischen Kontamination der Gase im System gefragt. Zwar gibt es noch keine amtlichen Grenzwerte dafür, doch sollte der Level der Kontamination so gering wie möglich werden. Ursache für eine solche Kontamination kann das Gas, aber auch das System selbst sein. Über den mikrobiologischen Status von medizinischen Gasen gibt es in der Literatur einige Angaben. Die Ergebnisse dieser Arbeiten sind aber nur schwer vergleichbar, da es keine validierte Probennahme speziell für unter Druck stehende Gase gibt. Da Gase nie ohne entsprechendes Equipment gehandelt werden können, muss bei solchen Arbeiten sichergestellt werden, dass Kontaminationen nicht vom Equipment hervorgerufen werden.
55
868
VI
Kapitel 55 · Medizinische Gasversorgungssysteme
Allgemein geht aus den Untersuchungen hervor, dass Gase keine mikrobiologische Kontamination zeigen. Ursache hierfür sind der hohe Druck, die tiefen Temperaturen und als Hauptfaktor der äußerst geringe Feuchtigkeitsgehalt (kleiner 67 ppm). Anders verhält es sich mit dem Gasversorgungssystem. Seine Komponenten werden nicht steril gefertigt oder mikrobiologisch gereinigt. Auch herrschen beim Zusammenbau der Anlage keine kontrollierten Bedingungen. Für alle Teile der Anlage sollte aber gelten, dass sie möglichst frei sind von Kohlenwasserstoffen und Stoffen, die als Nährboden für mikrobiologisches Wachstum dienen können. Die Anlagenteile sollten daher verschlossen oder verpackt transportiert und gelagert werden. Vor allem die Rohrleitungssysteme sollten dabei nach Einbau möglichst schnell mit Gas gespült oder beaufschlagt werden (siehe Konstruktion).
55.1.12
Dokumentation
Im Medizinproduktegesetz sind die Anforderungen und die Aufbewahrungsfristen für die wesentlichen Dokumentationen festgeschrieben. Gasversorgungssysteme haben jedoch eine wesentlich längere Einsatzdauer als die üblichen Medizingeräte. Folglich müssen auch die Dokumentationen wesentlich länger aufbewahrt werden. Bei diesen langen Zeiten muss beachtet werden, dass bei der elektronischen Aufbewahrung sichergestellt wird, dass das Material auch dann noch lesbar ist, wenn sich die Speichertechnologie und Software grundlegend geändert hat.
55.2
Normen und Informationsquellen
In der Übersicht sind die wesentlichen Normen, die bei medizinischen Gasversorgungssystemen erfüllt werden müssen, aufgeführt. Sie erhebt keinen Anspruch auf Vollständigkeit.
Die wesentlichen Normen für Gasversorgungssysteme
▬ ▬ ▬ ▬ ▬
EN 737 Medizinische Gasversorgung Teile 1–6 EN 738 Druckminderer Teil 1–4 EN 739 Niederdruck Schlauchleitungssysteme EN 793 Medizinische Versorgungseinheiten EN 13348 Kupfer- und Kupferlegierungs-Rohre für medizinische Gase ▬ EN 13220 Flowmeter ▬ DIN 13260 Teil 2 Entnahmestellen
Auf den fogenden Webseiten finden Sie u. a wesentliche Informationen zum Thema Medizin Produkte Gasversorgungsanlagen: ▬ www.emea.eu.int ▬ www.europa.eu.int ▬ www.eudra.org ▬ www.zlg.de ▬ www.bfarm.de ▬ www.eiga.org ▬ www.industriegaseverband.de
Weiterführende Literatur Franz F, Franz B (Hrsg) (2006) 1×1 der Gase. Air Liquide, Düsseldorf
56 Inkubatoren G. Braun, R. Hentschel
56.1 Einführung
– 869
56.4 Risiken der Inkubatortherapie
56.2 Aufbau und Funktionsweise eines Inkubators – 870 56.2.1 56.2.2 56.2.3 56.2.4 56.2.5
Temperaturregulation – 870 Regulation der Luftfeuchtigkeit – 870 Regelung des Sauerstoffs – 871 Waage – 871 Röntgenschublade – 871
56.3 Inkubatorbauarten
56.1
– 872
56.4.1 Temperatur – 872 56.4.2 O2-Therapie – 873 56.4.3 Hygiene – 873
Literatur
– 873
– 871
Einführung
Inkubatoren werden zur Stabilisierung und Aufrechterhaltung des thermischen Gleichgewichts bei Früh- und Neugeborenen eingesetzt. Im Jahr 1907 wurde von dem Pädiater Pierre Budin in seinem Buch »The Nurseling« die Abhängigkeit der Mortalität von der Rektaltemperatur beschrieben. Neugeborene, welche auf eine Rektaltemperatur von 36°–37°C erwärmt wurden, erreichten eine Überlebensrate von 77%, Säuglinge mit einer Rektaltemperatur zwischen 32,5°C bis 33,5°C hingegen nur eine von 10%. Es wird angenommen, dass bereits 200 Jahre v. Chr. die Ägypter »Brutkästen« einsetzten. Im Jahre 1947 wurde ein von dem amerikanischen Arzt Chapple maßgeblich konzipierter Inkubator auf den Markt gebracht. Dieser Inkubator war der Vorläufer der heutigen Inkubatoren: transparente Plexiglashaube, Bakterienfilter zur Luftansaugung, integriertes Luftumwälzsystem, Luftbefeuchtung und eine Alarmeinrichtung gegen Übertemperatur wurden erstmals in diesem Modell realisiert (Frankenberger u. Güthe 1991). Frühgeborene sind nicht in der Lage, ihr thermisches Gleichgewicht selbständig aufrechtzuerhalten (Bauer 2005). Das Verhältnis von Körperoberfläche zum Körpervolumen beträgt beim Neugeborenen 2,7-mal soviel wie beim Erwachsenen. Bei Neonaten mit 1000 g Geburtsgewicht ist das Verhältnis sogar 4-mal höher. Der Wärmeverlust erfolgt auf vier Arten durch: 1. Konduktion (Wärmeleitung durch Abgabe von Wärme an die Liegefläche); 2. Konvektion (Abkühlung durch Luftströmung);
3. Evaporation (Verdunstung über die Haut); 4. Radiation (Wärmestrahlung vom Säugling in die Umgebung). Wärmeverluste werden durch Vasokonstriktion verringert. Durch die Erhöhung des Gefäßwiderstandes kühlen zuerst die Extremitäten ab, bevor die Körperkerntemperatur absinkt. Der Vergleich zwischen Körperkerntemperatur und den peripheren Körperteilen ermöglicht somit einen frühzeitigen Hinweis auf ein thermisches Ungleichgewicht (Brück u. Püschner 1996). Nur neugeborene Kinder besitzen braunes Fettgewebe, welches zwischen den Schulterblättern, hinter dem Herzen und an den großen Gefäßen liegt. Diese Energiereserven reichen nur bedingt, die Körpertemperatur im Normbereich zu halten. Neugeborene sind auch nicht in der Lage, durch erhöhte Muskelaktivität (Zittern) Wärme zu erzeugen. Frühgeborene verdunsten aufgrund ihrer dünnen Haut mehr Flüssigkeit als reife Neugeborene. Kältestress ist aus folgenden Gründen unbedingt zu vermeiden: ▬ geringere Sauerstoffaufnahme, z. B. mit negativem Einfluss auf die Lungenreife durch zu geringe Surfactantproduktion. Somit können sich Beatmungsprobleme ergeben, welche durch künstliche Beatmung kompensiert werden müssen; ▬ erhöhte Gefahr von Infektionen; ▬ negativer Einfluss auf das Wachstum; ▬ der Stoffwechsel wird negativ beeinflusst, z. B. Hypoglykämie (Unterzuckerung), metabolische Azidose (zu niedriger pH-Wert). Das Risiko einer pathologischen Gelbsucht (Icterus gravis) wird erhöht.
870
Kapitel 56 · Inkubatoren
Es kommt also sowohl auf die Konstanthaltung der Temperatur als auch auf eine Minimierung des Flüssigkeitsverlustes an.
56.2
VI
Aufbau und Funktionsweise eines Inkubators
Inkubatoren schaffen ein »Mikroklima«, welches sich von der Umgebungsluft deutlich unterscheiden kann. In diesem Mikroklima können Temperatur, Luftfeuchtigkeit und Sauerstoffgehalt innerhalb gewisser Grenzen individuell reguliert werden. Zudem isoliert der Inkubator den Patienten im Sinne eines Schutzes vor Erregern, die auf dem Luftweg übertragen werden. Inkubatoren sind i. d. R. für ein Körpergewicht von bis zu 5 kg konzipiert. Der Anwender kann dabei sowohl die Höhe als auch die Neigung der Liegefläche verändern. Dies ermöglicht eine gute Ergonomie und Zugriffsmöglichkeit zum Patienten für das Pflegepersonal. Zudem kann zum optimalen Mutter-Kind-Kontakt der Inkubator tief abgesenkt werden.
56.2.1 Temperaturregulation
Der Inkubator saugt über einen austauschbaren Luftfilter Raumluft an. Die Raumluft wird über ein Heizelement erwärmt, in dessen Mitte sich ein Lüfter befindet. Die warme Luft wird über Luftleitkanäle an den Längsseiten des Inkubators nach oben zum Patienten geführt. Dadurch entsteht ein Warmluftvorhang. Dieser Vorhang reduziert die Abkühlung des Inkubators bei geöffneten Inkubatortüren. Die Luft wird i. d. R. über die Stirnseiten wieder abgegeben. Gemessen wird die Lufttemperatur dabei über mehrere NTC-Sensoren. Die Herausforderung für die Hersteller besteht darin, ein zugfreies und homogenes Raumklima zu schaffen. Besondere Anforderungen werden an den Lüfter gestellt: Dieser muss möglichst geräuscharm arbeiten, um den Stress und die Gefahr einer Hörschädigung für den Patienten soweit als möglich zu reduzieren. Inkubatoren unterschreiten ein Betriebsgeräusch von 50 dB(A). Es ist jedoch eine Forderung für zukünftige Entwicklungen, die Geräuschentwicklung weiter zu senken. Der Anwender hat zwei Möglichkeiten, die Temperatur im Inkubator zu bestimmen: 1. Lufttemperaturregelung: Der Anwender wählt eine geeignete Lufttemperatur. Durch einen Temperaturfühler im Inkubator wird die Temperatur gemessen und mit dem Sollwert verglichen. Der Inkubator wird die eingestellte Lufttemperatur somit konstant halten. Weicht die Ist-Temperatur vom Sollwert ab, wird der Anwender durch ein Alarmsignal informiert. In der Regel liegt die Alarmgrenze bei ±1,5°C vom Sollwert.
2. Hauttemperaturregelung: Der Anwender platziert einen Hauttemperatursensor am Thorax, ein zweiter kann an den Extremitäten angebracht werden. Die gewünschte Hauttemperatur am Thorax wird vom Anwender eingestellt. Der Inkubator wird die Lufttemperatur in Abhängigkeit von der Hauttemperatur regeln. Weicht die Ist-Temperatur vom Sollwert ab, wird der Anwender durch ein Alarmsignal informiert. In der Regel liegt die Alarmgrenze bei ±0,5°C vom Sollwert. ! Inkubatoren sind nicht in der Lage zu kühlen. Bei hohen Außentemperaturen und bei größeren Säuglingen kann der Sollwert nicht eingehalten werden. Die Temperatur kann abhängig vom Inkubatortyp in einem Bereich von ca. 20°C bis ca. 39°C in 0,1°C-Schritten eingestellt werden.
56.2.2 Regulation der Luftfeuchtigkeit
Es werden zwei Konstruktionsprinzipien zur Feuchte-Erzeugung genutzt: Entweder wird das Wasser über einem Kocher verdampft und danach abgekühlt in den Inkubator eingeleitet, oder es wird über ein beheiztes Wasserbecken in der Inkubatorzelle erzeugt. Gemessen wird die Feuchte über kapazitive Bauelemente. Feuchte wird nicht nur benötigt, um den Thermohaushalt der Säuglinge aufrecht zu erhalten, sondern auch, um den Mund-Nasen-Rachenraum anzufeuchten. Die Luftfeuchte kann zumeist zwischen 30% und 99% relativer Luftfeuchtigkeit eingestellt werden. Der Anwender hat je nach Bauart des Inkubators zwei Möglichkeiten, die Luftfeuchtigkeit zu steuern: 1. Manuelle Feuchteregelung: Der Anwender wählt eine geeignete relative Luftfeuchte. Über einen Feuchtigkeitssensor wird die relative Luftfeuchte gemessen und mit dem Sollwert verglichen. 2. Automatische Feuchteregelung: Im Automodus wird bei einer höheren Lufttemperatur entsprechend auch die relative Luftfeuchte erhöht. Luft kann in Abhängigkeit von der Temperatur unterschiedlich viel Feuchtigkeit binden, sodass bei Unterschreiten einer kritischen Temperatur KondenswasserBildung eintritt, während bei höheren Temperaturen mehr Feuchtigkeit aufgenommen werden kann. Aufgrund der im Verhältnis zur Außentemperatur hohen Innenraumtemperatur besteht die Gefahr der Kondenswasserbildung an den Inkubatorscheiben. Damit ist die Möglichkeit, den Säugling zu beobachten, unter Umständen eingeschränkt. Der Effekt ist verstärkt bei einer gewählten Luftfeuchtigkeit von >70% zu beobachten. Von zahlreichen Herstellern werden zur besseren Isolation optionale Innenraumscheiben angeboten. Diese haben sich
871 56.3 · Inkubatorbauarten
in der Praxis nicht durchgesetzt – insbesondere deshalb, weil dann der Feuchtigkeitsbeschlag zwischen den beiden Scheiben nicht mehr ohne großen Aufwand vom Pflegepersonal abgewischt werden kann. ! Inkubatoren sind nicht in der Lage, die Luft zu trocknen. Wählt man eine Sollfeuchte, welche geringer ist als die Umgebungsluftfeuchtigkeit, wird der Istwert nie die Umgebungsluftfeuchtigkeit unterschreiten.
56.2.3 Regelung des Sauerstoffs
Als Option kann bei allen auf dem Markt verfügbaren Geräten die Luft mit Sauerstoff angereichert werden. Dabei kann die Luft je nach Inkubatorbauart auf bis zu 70 Vol-% angereichert werden. Bei stationären Inkubatoren wird der Sauerstoff über die zentrale Gasversorgung eingespeist. Bei Transportinkubatoren für Krankenwagen- oder Hubschraubertransport ist sowohl der Betrieb über die zentrale Gasversorgung als auch über Gasflaschen möglich. Gemessen wird der Sauerstoff im Inkubator über Brennstoffzellen, welche auch in Langzeitbeatmungsgeräten eingesetzt werden. Das Funktionsprinzip der Brennstoffzelle ist in Kap. 21 über die O2-Messung näher beschrieben. Aufgrund des Gefährdungspotenzials einer O2-Fehldosierung wird die O2-Messtechnik redundant gestaltet. Das Signal von zwei Brennstoffzellen wird miteinander verglichen. Weichen die Werte deutlich voneinander ab, werden automatisch oder manuell durch den Anwender die Brennstoffzellen kalibriert.
56.3
Inkubatorbauarten
Nach ihrem Einsatzzweck werden die Inkubatoren grundsätzlich in drei Bauformen unterteilt: 1. Stationäre Inkubatoren: Werden für die Langzeitversorgung der Früh- und Neugeborenen auf Wach- und Intensivstationen verwendet (⊡ Abb. 56.1). 2. Transportinkubatoren: Werden zum »Inhousetransport« vom Kreissaal auf die Pädiatrische Intensivstation oder zur Verlegung in andere Kliniken mit einem Fahrzeug oder Hubschrauber benutzt (⊡ Abb. 56.2). Diese letztgenannten Inkubatoren besitzen sowohl eine eigene Stromversorgung über Akkumulatoren als auch eine Gasversorgung über Gasflaschen. Im Krankenhaus oder im Fahrzeug können die Geräte über das 220 Volt-Netz und über die zentrale Gasversorgung mit Energie versorgt werden, um die mobile Energieversorgung zu schonen. Die auf einem mit Schwingungsdämpfern ausgerüsteten Chassis gelagerten Inkubatoren werden auf handelsübliche Krankentragegestelle mit einklappbarem Fahrgestell adaptiert. Bedingt durch die beengten Platzverhältnisse während des Transports z. B. in Hubschraubern sowie durch die überschaubaren Transportzeiten wird meist auf die Befeuchtungsoption verzichtet. Intensivtransportinkubatoren sind mit einem Beatmungsgerät, einem Patientenüberwachungsmonitor, Spritzenpumpen und einer Absaugvorrichtung ausgestattet.
56.2.4 Waage
Neben der Körpertemperatur ist auch das Körpergewicht ein wichtiger diagnostischer Parameter in der Neonatologie. Nach dem heutigen Stand der Technik hat sich das Wiegen im Inkubator durchgesetzt. Damit wird Kältestress für das Neugeborene vermieden, wenn dieses anstatt auf einer konventionellen Waage in Raumluft, im Inkubator gewogen wird.
56.2.5 Röntgenschublade
Um das Handling für notwendige Röntgenaufnahmen zu vereinfachen, ist bei Inkubatoren neuerer Bauart unter der Liegefläche eine Schublade eingebaut. In diese Schublade lassen sich gängige Röntgenkassetten einlegen. Dadurch entfällt das Platzieren des Neugeborenen direkt auf eine kalte und harte Röntgenplatte.
⊡ Abb. 56.1. Inkubator für Einsatz auf Station (Abbildung mit freundlicher Genehmigung der Fa. Weyer)
56
872
Kapitel 56 · Inkubatoren
3. Spezielle Inkubatoren: Für Untersuchungen im MRT gibt es einen nichtmagnetischen Transportinkubator, welcher in das MRT eingeschoben werden kann. Auch dieses Gerät besitzt die Möglichkeit der Luftanfeuchtung, der künstlichen Beatmung, und ist zur Überwachung des Patienten mit einem Pulsoximeter ausgestattet. Geeignet ist das Gerät für Thorax- und Gehirnuntersuchungen. Das Problem von »Inhouse-Transporten« kann durch ein neuartiges Transportkonzept erheblich vereinfacht werden. Jeder therapiepflichtige Säugling wurde bisher
VI
⊡ Abb. 56.2. Transportinkubator mit Fahrgestell (Abbildung mit freundlicher Genehmigung der Fa. Dräger)
auf einer Reanimationseinheit versorgt, dann mit einem Transportinkubator vom Kreissaal oder Sectio-Op in die Kinderabteilung verlegt und dort auf seinen Behandlungsplatz umgebettet. Das bedeutete mehrmalige Umlagerung und somit Kältestress für das Neugeborene sowie die Gefahr der unabsichtlichen Manipulation an Infusionen und Beatmungsschläuchen. Üblicherweise werden Neugeborene auf Reanimationseinheiten, d. h. einem Wärmebett mit einer beheizten Gelmatratze und einem integrierten Heizstrahler erstversorgt. Nach der Stabilisierung im Kreissaal werden die Patienten oft in wenigen Minuten auf die Intensivstation verlegt. Erst auf der Intensivstation werden die Säuglinge in den stationären Inkubator umgelagert. Somit werden die Patienten zweimal bei Raumtemperatur umgelagert und erfahren also Kältestress. Sowohl die Reanimationseinheit als auch der Transportinkubator müssen dann wieder zeitaufwändig aufgerüstet werden. Um diese Standardsituation zu verbessern, wird ein stationärer Inkubator mit integriertem Heizstrahler an einen Andockwagen gekoppelt. Dieser Inkubator kann somit zur Erstversorgung als Reanimationseinheit benutzt werden (⊡ Abb. 56.3). Auf dem Andockwagen finden sich alle notwendigen relevanten Geräte für eine Intensiveinheit: Beatmungsgerät, Absaugung, Patientenüberwachungsmonitor, Spritzenpumpen und Handbeatmungsbeutel. Der Andockwagen ist mit O2- und Druckluftflaschen bestückt, um auch während des Transports die Beatmung zu gewährleisten. Der Wagen wird ohne Werkzeug an den Inkubator angekoppelt. Bei Ankunft auf der neonatologischen Intensivstation wird der Wagen dann direkt am Intensivplatz abgekoppelt, um die Therapie mit Stationsgeräten weiterzuführen. Mit diesem Konzept wird Kälte- und Umlagerungsstress verringert, Ressourcen werden geschont, und das Handling für das Personal wird vereinfacht.
56.4
Risiken der Inkubatortherapie
56.4.1 Temperatur
⊡ Abb. 56.3. Inkubator mit Andockwagen für Inhousetransport (Abbildung mit freundlicher Genehmigung der Fa. GE)
Wie in der Einführung beschrieben, ist die Konstanthaltung der Körpertemperatur für Neugeborene von großer Bedeutung. Deshalb ist eine engmaschige Temperaturüberwachung unabdingbar. Bei Neugeborenen wird meistens alle zwei Stunden rektal die Temperatur gemessen. Befindet sich der Säugling im thermostabilen Gleichgewicht, kann der Zyklus auf 4 h ausgedehnt werden. Kühlt das Kind aus, spricht man von Hypothermie. Wird das Kind über 37,0°C durch den Inkubator erwärmt, spricht man von Hyperthermie. Aufgrund des erhöhten Flüssigkeitsverlusts kommt es bei einer Hyperthermie zu Elektrolytstörungen. Weitere Folgen sind Hyperventilation und Tachykardien. Bei thermostabilen Kindern korreliert die Hauttemperatur
873 Literatur
sehr gut mit der Körperkerntemperatur. Somit vereinfacht die Betriebsart »Hauttemperaturregelung« die geeignete Temperaturwahl für den Anwender. Auf keinen Fall darf die Hauttemperaturregelung bei Kindern im Schockzustand angewendet werden, da in dieser Situation eine unbeabsichtigte Überwärmung eintreten kann. Auch bei Säuglingen mit Fieber ist die Hauttemperaturregelung nur mit größter Vorsicht anzuwenden, denn in diesem Fall ist die Hauttemperatur höher als die Körperkerntemperatur.
56.4.2 O2-Therapie
Sauerstoff ist ein Medikament, welches bei Fehldosierungen ein hohes Gefahrenpotenzial darstellt. Deshalb muss bei Gabe von O2 der arteriell gemessene O2-Partialdruck bestimmt werden. Bei der O2-Therapie ist es unabdingbar, den Patienten mit einem Pulsoximeter oder einer transkutanen O2-Sonde kontinuierlich zu überwachen. Kommt es zu einer O2-Unterversorgung (Hypoxämie), besteht die Gefahr einer respiratorischen Insuffizienz mit der Folge von Apnoen. Bei dauerhafter O2-Mangelversorgung kommt es zur Hirnschädigung. Die Überdosierung von O2 (Hyperoxämie) kann bei Frühgeborenen unterhalb der 38. Schwangerschaftswoche zu schweren Augenschäden führen. Es kann sogar zur Netzhautablösung, der Retinopathie schwersten Grades, kommen. Sauerstoff fördert die Explosions- und Brandgefahr. Nach Händedesinfektion sollte sicherheitshalber gewartet werden, bis das Desinfektionsmittel abgetrocknet ist. Aus diesem Grund dürfen auch keine Desinfektionsmittel oder brennbaren Flüssigkeiten wie Alkohol oder Benzin im oder auf dem Inkubator abgestellt werden.
56.4.3 Hygiene
Aufgrund des warmen Klimas und der hohen Luftfeuchtigkeit ist der Inkubator ein idealer Raum zur Ausbreitung von Keimen. Dadurch ist das Neugeborene zusätzlich infektgefährdet. Deshalb sollte nach Beendigung der Behandlung eines Patienten oder spätestens nach sieben Tagen der Inkubator ausgetauscht und der benutzte Inkubator sorgfältig gereinigt und wischdesinfiziert werden.
Literatur Bauer K (2005) Neonatologie. In: Speer C, Gahr M (Hrsg) Pädiatrie, 2. Aufl. Springer, Berlin Heidelberg New York Brück H, Püschner PA (1996) Thermomonitoring. Drägerwerk, Lübeck Frankenberger H, Güthe A (1991) Inkubatoren. Verlag TÜV Rheinland
56
Danksagung
Für die freundliche Unterstützung mit Abbildungen und Schemata möchten wir folgenden Personen, Institutionen und medizintechnischen Unternehmen unseren Dank aussprechen: ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Abiomed Inc., Danvers/MA (USA) Air Liquide Deutschland GmbH, Düsseldorf Arrow International Inc. (USA) BD Deutschland GmbH, Heidelberg B. Braun Melsungen AG, Melsungen Bebig GmbH, Berlin Berlin Heart AG, Berlin Biotronik GmbH, Berlin CardioWest Technologies (USA) Carl Zeiss AG, Feldbach (Schweiz) DeBakey (USA) Dräger Medical Deutschland GmbH, Lübeck Fraunhofer Institut für Biomedizinische Technik, St. Ingbert Fresenius Medical Care Deutschland GmbH, Bad Homburg GE Medical Systems Ultrasound, Solingen Fujinon (Europe) GmbH, Willich Given Imaging GmbH, Hamburg Gulmay Medical Systems Ltd., Camberley/Surrey (UK) Impella Cardiosystems GmbH, Aachen Institut Biomedizinische Technik, Universität Karlsruhe Institut für Angewandte Informatik, Forschungszentrum Karlsruhe Institut für Mathematik und Datenverarbeitung in der Medizin, Universität Hamburg
▬ Institut für Med. Informationsverarbeitung, Biometrie und Epidemiologie, Ludwig-Maximilians-Universität München ▬ Institut für Medizinische Informatik, Universitätsklinikum der RWTH Aachen ▬ Institut für Medizintechnik und Biophysik, Forschungszentrum Karlsruhe ▬ Institut für Radiotherapie, Aarau (Schweiz) ▬ Intuitive Surgical Inc. (USA) ▬ ISS (USA) ▬ Jaeger Tönnies GmbH, Würzburg ▬ Jarvik Heart Inc., New York/NY (USA) ▬ Johnson & Johnson GmbH, Norderstedt ▬ Jojumarie GmbH, Berlin ▬ Karl Storz GmbH & Co KG, Tuttlingen ▬ Karp, J., Prof. Dr., University of Pennsylvania/PA (USA) ▬ Katada, Kazuhiro, Prof. Dr., Fujita Health University, Aichi (Japan) ▬ Klinik für Nuklearmedizin, RWTH Aachen ▬ KLS Martin GmbH & Co KG, Umkirch ▬ KrankenhausTechnik Management, FH Gießen ▬ Laser- und Medizin-Technologie GmbH, Berlin ▬ Laserzentrum Zentrum Hannover e.V. ▬ Lawton GmbH & Co KG, Fridingen ▬ Maquet GmbH & Co KG, Rastatt ▬ Mc Donald, R.J., Dr., Radiology Regional Center Ft. Meyers, FL, USA ▬ MDS Nordion Ltd., Ottawa/ON (Canada) ▬ Medizinische Hochschule Hannover, Abt. Informatik / Biometrie ▬ Medizinische Informatik, FH Dortmund
928
Danksagung
▬ Medizinische Informatik, Universität Heidelberg/FH Heilbronn ▬ Medos Medizintechnik, Stolberg ▬ Medtronics GmbH, Düsseldorf ▬ Muehllehner, G., Prof. Dr., University of Pennsylvania, PA, USA ▬ ndd Medical Technologies, Zürich (Schweiz) ▬ Olympus Optical Co. (Europa) GmbH, Hamburg ▬ Optiscan Imaging Ltd., Melbourne (Australien) ▬ Pentax GmbH, Hamburg ▬ Philips Healthcare Information Technology, Hamburg ▬ Philips Medizin Systeme GmbH, Böblingen ▬ Philips Nuclear Medicine/PET, Idstein ▬ PolyDiagnost GmbH, Pfaffenhofen ▬ Rendoscopy AG, Gauting ▬ RheinAhrCampus, Remagen ▬ Sensor Medics BV, Bilthoven (Niederlande) ▬ Siemens AG, Bereich Medizinische Technik, Erlangen ▬ Siemens Medical Solutions, Erlangen ▬ SMT medical GmbH & Co, Würzburg ▬ Sorin Group Deutschland GmbH, München ▬ Spiegelberg KG, Hamburg ▬ Sulzer Orthopedics GmbH, Freiburg ▬ Teamplan GmbH, Tübingen ▬ Thompson, R., Dr., Cedars Sinai Medical Center, Los Angeles/CA (USA) ▬ Thoratec Corporation, Pleasanton/CA (USA) ▬ Townsend, B., Dr., University of Pennsylvania/PA (USA) ▬ Universitätskinderklinik Freiburg ▬ Varian Medical Systems Inc., Palo Alto (USA) ▬ Viasys Healthcare, Conshohocken/PA (USA) ▬ Viasys – Jaeger-Toennies, Höchberg ▬ Viasys – SensorMedics, Yorba Linda/CA (USA) ▬ Waxmann, A., Dr., Cedars Sinai Medical Center, Los Angeles/ CA (USA) ▬ Weyer GmbH, Kürten-Herweg ▬ World Heart Corporation, Ottawa/ON (Canada) ▬ Zentrum für medizinische Forschung, Experimentelle Chir. Endoskopie, Universität Tübingen ▬ Zoetermeer, Niederlande ▬ Zoll Medical Deutschland GmbH, Köln
Sachverzeichnis
A α-stat-Methode 474 A0-Konzept 22 A0-Wert 22 Abbildungsfehler, geometrischer 769 Ableitelektrode 157 Ableitstrom 55 Ableitsystem 151 Ableitung, driftende 90 Abnahmetechnik 92 Abplatzeffekt 488 Abrieb, adhäsiver 848 Abtasteinheit 261 Abtastrate 175 Abtastsystem 259 Abtastzeit 266 Abtasttheorem nach Shannon 625 Access Point 729 ACE-Strategie 243 Acetatdialyse 453 Activated clotting time (ACT) 475 Active can 406 Adaptation 206 Admittanz 218 Adsorbens 445 Adsorption 445 AEP-Stimulator 162 Afterglow 256
Afterloading – Gerät 546 – Verfahren 549 AFU-Planung 68 Aktionspotential 131, 200 Aktivitätsmonitoring 116 Aktographie 171 Aktor, pneumatischer 859 Alarmglocke 700 Albarranhebel 352 Algorithmus – evolutionärer 780 – graphischer 333 Aliaseffekt 320 Aliasing 625 Alles-oder-Nichts-Gesetz 579 Aluminiumoxidkeramik 846 Alveolarvolumen (VA) 120 AMI-Code 763 Analgesie, patientenkontrollierte 565 Anästhesiegasbande 672 Aneurysma-Clip 167 Anforderungskatalog 751 Angebotsauswertung 752 Anlaufkurve 566 Annihilation 290 Anregung, kodierte 317 Antifaradisationskondensator 522 Anwender 46 Aortic-root-Kanüle 469
Apnoe 171, 385, 709 – ventilation 396 – zeit 663 Applanationssensor 710 Applanationstonometrie 691 Araldit 152 Archivierung 784 – digitale 338 Argonbeam 531 Argonbeamer 518 Argonplasmakoagulation (APC) 353 Array-Technologie 276 Arrhythmieüberwachung 646 Artefakt 140, 181, 188, 259, 294, 627 – biologischer 140, 181 – physiologischer 148, 627 – technischer 140, 148, 627 Artefaktunterdrückung, automatische 161 Artificial liver support 448 ASB-Druck 387, 391 Assistenzsystem 855 Asynchronie, thorakoabdominale 710 Asystoliealarm 646 Atemgasanfeuchter 380 Atemgasvolumen 109 Atemstromgeschwindigkeit 108 Atemstromgleichrichter 105 Atemstromstärke 105 Atemwegswiderstand 116 Atemzugvolumen 377
930
Sachverzeichnis
Atemzug-zu-Atemzug-Analyse 124 ATM 727 Atmungsstörung, schlafbezogene 170 Audiogramm 210 Audiometer 207 Audiometrie 193 – praktische 194 – objektive 217 Auditory Fatigue 206 Aufbaueffekt 542 Aufblähkurve 240 Aufhärtungskorrektur 262 Aufladung, elektrostatische 57, 140 Auflösungsvermögen – axiales 313 – laterales 327 Augmented-reality-Technologie 801 Averager 151, 156 Averaging 150, 160, 635 AV-Hysterese 589 Awareness 686 Axialpumpe 574
B Backpressure 121 Balanced Scorecard 79 Ballonkatheter 654 Ballonpumpe, intraaortale 570, 576 Basismonitoring 645 Batchsystem-Gerät 451, 455 Beatmung, modifizierte volumenkontrollierte 394 Beatmungsgerät, druckluftunabhängiges 379 Beatmungstherapie, nichtinvasive 395 Bedienphilosophie 642 Beinaheunfall 45 Belastungsform, rektangulärtrianguläre 125 Benutzungsoberfläche, graphische 798 BERA 227 Berger– Effekt 143 – Formel 238 Berührungsspannung 53 Beschaffungsmaßnahme, medizintechnische 62 Beschallungsverfahren 612 Beschleunigungsspannung 254 Bestandsbegehung 62 Bestandspotential, korneoretinales 187
Betatron 541 Betreiber 46 Betriebsqualifikation 21 Bewegungsartefakt 259 Bewertungsmatrix 69 Bikarbonatdialyse 453 Bildauswertung 765 Bildbearbeitung 765, 767 Bilddarstellung 765 Bildgebung – diffusionsgewichtete 281 – funktionelle medizinische 367 – molekulare 285 Bildschirmkanal 642 Bildspeicherung 765 Bildverarbeitung, digitale 765 BiLEVEL 173 Bioimpedanz, thorakale elektrische 659 Biokompatibilität 596 Biomedizinische Technik 7 Biopotentialdifferenz, zeitveränderliche 92 Biosensor 618 Biosignal 132, 136, 170, 175, 618 Biosignalanalyse 635 Bioverträglichkeit 596 BIPAP 391 Blanking 584 Blank-Scan 294 Blasenoxygenator 467 Blasenstimulator 599 Blended Learning-Konzept 810 Bluff Body 110 Blutdruckmessung 647 Blutgas 125 Blutgasanalyse 628 Blutgasmessung, transkutane 665, 668 Blutgeschwindigkeit 315 Blutpumpe, arterielle 466 BMTE 61 Bodyplethysmographenkammer 118 Bodyplethysmographie 116, 117 BOLD-Imaging 281 Bolometer 369 Bovie 505 Boyle-Mariotte-Gesetz 117 Brachytherapie 544, 545 Brain-Computer-Interface 599 Brennfleckgeometrie 254 Brennstoffzelle 124, 671, 871 Bridge 729 Brummspannung 88 Brustimpedanz 401 BTPS 108 Bubble 316, 324
Bubble-point-pressure 468 Buchthal-Analyse 154 Büschelentladung 837 Bypass, kardiopulmonaler 463
C Cabrera-Kreis 94 Care Koagulation 529 Case Engineer 808 Cavakatheter 654 CCITT-Rauschen 215 CE-Kennzeichnung 43 Cerebral perfusion pressure (CPP) 687 Chemikalienbeständigkeit 19 Chirurgie, computerunterstützte 815 Chopper 628 Chromoendoskopie 353 Chronaxie 586 CIC-Gerät 232 Cine-Mode 818 CIS-Strategie 243 Clearance 447 Click 110, 221 Closed-loop-System 617 Clusteranalyse 634 CO2 – Analysator 124 – Partialdruck 126, 664 – Rebreathing-Methode 126 Cochlea-Implantat (CI) 203, 214, 232, 241, 574, 598, 760, 762 Cochlea-Implantation 651 Cochleaprothese, elektrische 242 Cochleostomie 245 Cocktailparty-Effekt 217 Cold-Spot 372 Collision broadening effect 673 Compton-Effekt 542 Compton-Ereignis 292 Computational Intelligence 779, 780 Computer Aided Diagnosis (CAD) 815 Computer-Based Training (CBT) 803 Computergraphik 791 Cone-Beam-CT (CBCT) 554 Connected-Components-Analyse 774 Contact Quality Monitor 536 Continuous-Flow-System 382 Coolidge-Röhre 541 CO-Partialdruck 120 CPAP-Gerät 183, 382 Crestfaktor 524 Creutzfeldt-Jakob-Erkrankung 34
931 Sachverzeichnis
Cross circulation 465 Cross-Channel-Verification 695 CROS-Versorgung 236 CT-Scanprotokoll 254 Curietron 550
D 3D-Anatomieatlas 792 Dampfdesinfektionsapparat 24 Dampfströmungsverfahren 23 Datennebel 263 Defibrillation 399 Defibrillationsimpuls 401 – konfiguration 40 Defibrillator, atrialer 404 Dekontaminationsanlage 22 Dekontaminationsmaschine 837 Dekrement 159 Dekubitusschaden 834 Demand-Flow-Gerät 382 Demandschrittmacher 587 Depolarisation 88, 131, 199 Desikkation(s) 529 – strom 530 Desinfektion(s) 16 – mittelkonzentrat 19 – mittelwirkstoff 18 Desorptionszeit 27 Detektor – optischer 455 – pixelierter 302 Detektortotzeit 301 Device-Endokarditis 573 DGHM-Liste 17 Dialysat 446 Dialysator-Re-use 457 Dialyse 444 Dialysedosis 454 Dialysewasser 33 Diathermie 604 DIC-Charakteristik 605 Dichtlippe 112 DICOM-Standard 317, 339, 786, 815 Differenzverstärker 87, 132, 136, 143, 153, 624 Diffuse Lighting 826 Diffusion(s) 120, 444 – selektive 444 – effekt 281 – verstärker 29 Digitally Encoded Ultrasound (DEU) 317
Dipolmodell 146 Diskriminanzanalyse 635 Diskriminationskurve 214, 215 Display, haptisches 794, 799 Dissektion 524 Dissoziationskurve 126 Distorsionsprodukt, otoakustisches 225 Docking Station 640 Dokumentationsunterstützung 736 Doppelballonenteroskopie (DBE) 353 Doppelechoverfahren 281 Doppelnadelverfahren 456 Doppelpumpenverfahren 456 Dopplereffekt 693 Dopplerverschiebung 315 Dose Error Reduction System 562 Dosimetrie 543 Dosis 543 Dosismodulation, zeitliche 266 Dosisreduktion 265 DPOAE-Gehörgangsonde 226 Drehanode 254 Drehpendeltest 190 Dreistufentheorie 50 Driveline 572 Drop-out-rate 638 Druck – hydrostatischer 559 – intrapulmonaler 378 – kritischer (Pcrit) 173 – osmotischer 133, 444 Druckdom 652 Druckgenerator 380 Druckmessung, intrauterine 694 Druckpuls 485 Dual Demand 591 Dual Imaging 505 Dual-Energy-Bildgebung 269 Dual-Source Computertomograph 269 Dünnfilmbeschichtungstechnik 256 Dünnfilmtransistor (TFT) 256 Duplexbetrieb 319 Durchatembarkeit, freie 391 Durchgangszeitdifferenz 110 Durchsichtverfahren 311
E Echoplanar-Imaging (EPI) 274 Eckfrequenz, spektrale 683 ECTS Punkt 8 Effekt, biochemischer 288
A–E
Effizienz, geometrische 298 Einkammerschrittmacher 587 Einmalatemfilter 108 Einmalendoskop 366 Einmalsensor 107 Einstichaktivität 154 Einzelfaserelektrode 155 Eisensulfatdosimetrie 544 EKG – Nomenklatur 88 – Signalerkennungsalgorithmen 405 – Vorverstärker 87 Elektretmikrophon 221, 233 Elektrochirurgie 516 Elektrocorticographie (EcoG) 148 Elektrode – dispersive 522 – elektrotherapeutische 613 – endokardiale 583 – intracochleäre 242 – polarisierte 133 Elektrodenbewegung, thermische 139 Elektrodensauganlage 99 Elektroden(übergangs)impedanz 89 Elektrodenübergangswiderstand 160 Elektrodesikkation 517 Elektroenzephalographie (EEG) 140 Elektrogramm (EG) 95 Elektro-Hydro-Thermosation (EHT) 533 Elektromyograph 150 Elektronenstrahl-Computertomographie (EBCT) 267 Elektronenstrahlepitaxie 370 Elektroneurographie 156 Elektronystagmographie 187 Elektrookulographie 187 Elektropalpation 605 Elektrostimulator, implantierbarer 595 Elektrotomie 517, 520 Emission – otoakustische (OAE) 119, 220 – transitorisch evozierte otoakustische (TEOAE) 221, 224 Empfänger, pyroelektrischer 369 Endomikroskopie 358 Endoprothetik 839 Endoskopführungssystem 857 Endoskopie, virtuelle 793 Energieauflösung 292 Entropie 683 Entscheidungsunterstützung 736 Epoxydharz-Konnektor 581 Erdelektrode 157 Erdungselektrode 228
932
Sachverzeichnis
Ergospirometrie 123, 127 portable 126 Ergospirometriemessplatz 97, 123 Ermüdungsabrieb 848 Erste-Fehler-Philosophie 50 ESW-Generator 501 Etagenverkabelung 721 Ethylenoxid 26 Evidence-based medicine 733 Evidenzkriterium 31 Expertensystem 637 Extended Field of View (EFOV) 334 Extremwert-Betrachtung 70 Exzitation 199
F 9-Felder-Graphik 125 Fachabteilungssystem 743 Fächerstrahlkonzept 253 Fachplaner 64 FAEP-Normwert 162 Fahrradergometer 97, 101 – drehzahlabhängige 98 – drehzahlunabhängige 98 Faltung 767 Fast Fourier Transformation (FFT) 140, 147, 320, 636 Fastl-Rauschen 215 Faszilitierung 166 FDDI 727 Feature extraction 647 Feder-Masse-Modell 799 Fernhantierungssystem 853 Festeinbau 62 Fick’sche Gleichung 126 Fick’sches Prinzip 655 Field-of-View (FOV) 267 Filterkernel 258 Finger-Peristaltikpumpe 559 Firewall 730 Fistula needles 456 Flächenschallquelle 501 Flat-Panel-Detektor 257 Fleischsches Staurohr 108 Flicker 58 Flow Rate 106 Flow-Chart 476 Flowgenerator 380 Flowsystem, kombiniertes 383 Flowtriggersystem 383 Flüssigtank, cryogener 865 Flussklemmen, venöse 470
Flusssensor 106, 117 Fluss-Volumen-Kurve 112, 113 Flying Focus 260 Fokussierung, dynamische 328 Formaldehydgas-Sterilisation 27 Formant 212 Fotostimulation 132, 143, 145 Fotostimulator 143 Fourier-Scheiben-Theorem 257 Fourier-Transformation 274, 280 Fowler-Test 210 Framegrabber 339 Freehand-System 760 Freiburger Sprachverständlichkeitstest 213, 214 Frenzel-Brille 187 Frequenz 195 – Phasen-Diagramm 115 Frequenzgang 139 Frequenzkodierung 274 Fricke-Dosimetrie 544 Fulguration 516 Füllfaktor 256 Funktion, psychometrische 211 Fuzzy Logik 647, 781 FWHM-Angabe 493
G Galvani-Spannung 133 Galvanokaustik 516 Gamma Knife 552 Gantry 253, 261, 547 Gantryverkippung 261 Ganzkörperantenne 276 Ganzkörperplethysmograph 117 Gap junction 579 Gasnasswaschverfahren 27 Gasreiniger 866 Gasströmungsgeschwindigkeit 105 Gasversorgungssystem 863 Gasvolumen, intrathorakales (ITGV) 118 Gate-Control-System 609 Gate-Control-Theorie 606 Gefahr 49 Gefährdung 49 Gehörgangselektrode, extratympanale 245 Geiger-Müller-Zählrohrdetektor 255 Geländeverkabelung 721 Geldosimetrie 544 Geräteableitstrom 140
Geräteumgebung 62 Geräuschaudiometrie 210 Gewährleistungszeitraum, vorgegebener 72 Glasfaserkabel 722 Gleichgewicht, thermisches 869 Gleichtaktunterdrückung 137, 143 Gleitpaarung, keramische 850 Gouraud-Shading 784 Gradient, magnetischer 273 Gradientenechotechnik 274 Gradientensystem 276 Graseby-Kapsel 710 Grauwertdiskretisierung 262 Grauwertmodifikation 767 Green Book Industriestandard 727 Grenzrisiko 50
H Hagen-Poiseuille, Gesetz 108 Halbleitermaterial, infrarotempfindliches 623 Halbwert(s)zeit 289 Half Wave Rectification 199 Hall-Sonde 622 Haltesystem, passives 855 Hämodialyse 446 Hämofilter 446 Hämofiltration 446 Handprothese 600 – bidirektionale 600, 601 Harmonische 314 Hat-and-Head-Verfahren 771 Hauptstromverfahren 671, 674 HBFG 64 Headbox 143 Heat and Moisture Exchanger 380 Hechl’sche Querwindung 201 Helmholtz-Kapazität 133 Helmholtzsche Doppelschicht 133 Herzbildgebung 267 Herzchirurgie, minimalinvasive 465 Herzdraht 580 Herzdreieck, kleines 94 Herzfrequenzvariation 158, 177 Herzschrittmacher 596, 598 – transthorakaler 401 Herzschrittmachertherapie 579 Herzzeitvolumen (HZV) 126, 632, 647, 655 High pressure drop excursion 477 High-Flux Dialyse 453
933 Sachverzeichnis
High-PRF-Doppler 320 Hirndruckmessung, epidurale 688 Hirnstammaudiometrie 228 Hirnstammelektrode 203 Hirnstimulation, tiefe 598 Histogrammspeicher 296 Hittorfsche Röhre 539 HL-7 704, 746, 786, 815 Hochfrequenzsignal 272 Hochfrequenzsystem 276 Hochfrequenztherapie 611 Hochleistungsröntgenröhre 255 Hochpass 139 Hochverfügbarkeitskonzept 703 Hochvolttherapie 545 Hörfeldaudiometrie 211, 239 Hörgerät – konventionelles schallverstärkendes 232 – nichtlineares 237 – volldigitales 235 Hörprothetik 232 Hörschwellenkurve 204 Hörstörung – konduktive 201 – recruitmentpositive 202 – retrocochleäre 203 Hörstrahlung 198 Hörtest, subjektiver 203 Hounsfield-Einheit (HU) 261 Hub 728 HU-Gerät 71 Human-Computer-Interface 599 Hybrid-Endoskop 349 Hydrophon 492 Hygieneplan 30 Hypermedia-System 804 Hyperpolarisation 199 Hyperthermie 679 Hypothermie 679 – induzierte 475 Hysteroskopietrainingssimulator 794
I ICP-Messung, intraventrikuläre 690 ICRU-Referenzpunkt 543 ICSPE 99 Immunadsorption 448 Impedanz, akustische 195, 485 Impedanzaudiometrie 196, 217 Impedanzkardiographie (IKG) 659 Impedanzpneumographie 663, 709
Impfung 17 Implantat, radioaktives 550 Implantatmaterial, biodynamisches 842 Implantattelemetrie 758 Impulsform, biphasische 400 Impulsoszillometrie 115 Inbetriebnahmeplanung 62 Index, mechanischer (MI) 325, 345 Indexersystem 549 Indikatorgasmethode 111 Inertgas 27, 120 Infektionsgefährdung 16 Infektionsschutzgesetz 30 Information, metabolische 287 Informationsmanagement, strategisches 734 Informationssystem – heterogenes 744 – holistisches 744 – medizinisches 743 – radiologisches 815 Infrarotspektrometer 628 Infrarotvideoanlage 183 Infusion, retrograde 469 Infusionsfilter 559 Infusionsspritzenpumpe 561 Infusionssystem, automatisiertes 563 Infusionstherapie 557 Ingenieur Krankenhaustechnik 7 Ingot 300 Inhibition 199 Inhouse-Transport 872 Inion 136 Initialflow 386 Inkubator 708 Inline-Röntgen 506 Inlinesystem 507 Innervationsmuster 154 Insertion 16 Insomnie 170 Installationsqualifikation 21 Instrumentendesinfektionsmittel 18 Instrumentenverfolgung, automatische 855 Integrated Care Therapiekonzept 450 Integration, curriculare 812 Intelligenz, künstliche 127, 637, 806 Interaktionswerkzeug 791 Interferometer, supraleitendes 629 Interpeaklatenz 161 IntraBreath-Methode 122 Intrakardialsauger 470 In-vivo-Korrektur 670 Ionenimplantation 552
E–K
Ionenleitfähigkeit 129 Ionisationsdosimetrie 543 Ionisationskammer 543 Iontophorese 518, 607, 613 IR-Quantenempfänger 369 Isograuwertfläche 264 Isolationsklasse 52 Isophone 204 Isophonenfeld 204 it-Diagnostikkurve 605 IT-System, medizinisches 56
J J-Elektrode 583 Jitter 155 Junction Point 99
K Kalibration 106, 125 Kalorimetrie 544 Kaltkathode 548 Kammereichung 117 Kapnogramm 674 Kapnographie 663, 674 Kapselendoskopie 362 Karbonisation 521 Kardioplegiepumpe 466 Kardiotokographie (CTG) 693 Kardiotomiereservoir 466, 469 Kardioverterdefibrillator, implantierbarer 404 Kaskadenfiltration 448 Katheter, intraarterieller 652 Kauter 515 Kavitation 489 Kegelstrahlrekonstruktion 256 Kegelstrahltomograph 268 Kernel 767 Kernspin 272 Kerntemperatur 367 Kirchhoff ’sches Gesetz 368 Klassifikation, syntaktische 779 Klemmenstrom 529 Knochenleitungshörer 199 Knochenleitungshörgerät 202, 241 Koagulation 520, 528 Kodierung 317 Kohlendioxidpartialdruck, transkutaner 669
934
Sachverzeichnis
Koinzidenzdetektion 291 Koinzidenzschaltkreis 291 Koinzidenzzählrate 289 Kollapswelle 489 Kollimation, elektronische 289 Kombielektrode 713 Kombinationsgerät 285, 298 Kommunikationsunterstützung 736 Konformitätsbescheinigung 865 Konformitätsbewertungsverfahren 43 Kontaktspannung, elektrochemische 88 Konturmodell, aktives 777 Konzentrator 728 Kopfhörer, supraauraler 209 Kopplung, kapazitive 523 Koronarstent, beschichteter 842 Korotkow-Töne 649 Körperkerntemperatur 475, 869 Körperstrom, gefährlicher 53 Kortexstimulation, transkraniell motorische 166 Krankenakte, elektronische 739 Kreislaufunterstützungssystem, mechanisches 570 Kritikalität 73 Kryptosystem 730 – asymmetrisches 730 – hybrides 731 – symmetrisches 731 Kunstherz 570 Künstliche Niere 456 Kurventechnik 400 Kurzschluss, impedanzloser 55 Kurzwellenkondensatorfeldmethode 604
L Labor, virtuelles 806 Laboroxymeter 668 Lafette 830 LAN 719 Langenbeck-Test 210 Langzeitbeatmungsgerät 377 Larynxmikrophon 172 Lasergriffel 612 Laserscanningspektroskopie 358 Late enhancement 282 Latenzdifferenz, cochleo-mesencephale 229 Laufbandergometer 101 Lautheit 204
Lautheitssummation, biaurale 215 Lautheitsvergleich, interauraler 210 Leck, definiertes 119 Leckagekompensation 396 Leckstrom 455 Leistungsverzeichnis, detailliertes 68 Leitfähigkeitsdetektor 543 Leitzeit, zentral motorische 166 Letalalarm 646 Leuchtdiodenarray 143 Lichtkonversionstechnologie 309 Lichtwellenleiter 722 Light Spot Hydrophone 492 Linear-Array 327 Linearität 108 Linearscanner 326 Lithotripter, elektrohydraulischer 502 Lokalisationsdiagnostik 315 Lokalisationsverfahren 273 Longitudinalwelle 194 Look-Up-Tabelle 767 Löschbalkenmodus 642 Low-Flow-Perfusion 475 Luftleitungskurve (LL) 207 Lungenfunktionsgerät, rechnergestütztes 114 Lungenkapazität, totale (TLC) 111 Lüscher-Test 210
M Magnet, supraleitender 275 Magnetfeldtherapie, pulsierende 604 Magnetookulographie (MOG) 188 Magnetenzephalographie (MEG) 148 Maintenance of Wakefulness Test (MWT) 174 MAN 719 Manchester-Code 763 Mapping 146 Marching-Cube-Algorithmus 784 MARS-System 449 Maskierung 216 Mass Flow Meter 109 Massenspektrometer 123 Massenspektrometrie 114 Maßnahme, medikotechnische 15 Master of Medical Education 812 Master-Slave-Manipulatorsystem 853, 856 Matrix-Array 329 Maximum-Intensity-Projection (MIP) 263, 279, 818
Maximum-Likelihood-Algorithmus 296 Medianwert 643 Medical Information Bus 643 Medizin, molekulare 285 Medizinproduktebuch 46 Medizinprodukte-Sicherheitsplanverordnung (MPSV) 38, 45 Mehrfachsteckdose, ortsveränderliche 57 Mehrzeilensystem 256 mel 204 Membranoxygenator 467, 468 Mensch-Maschine-Interaktion 791 Merkmal, pixelbasiertes 772 Merkmalextraktion 772 Messeinrichtung, photoplethysmographische 650 Messfehler 617 Messgröße 617 Messkette, biologische 618 Messmethode – oszillometrische 649 – strahlungsfreie 272 Messtechnik 618 Messung, maternale 695 Messverfahren, phasensensitives 279 Messzelle, paramagnetische 671 Methode – antidrome 158 – orthodrome 158 Mikroaxialpumpe 576 Mikro-CT 268 Mikroklima 708, 870 Mikrophon, omnidirektionales 233 Mikrotron 546 Miniaturendoskop 352 Miniaturvideokamera 188 Mischersystem 381 Misch-Ventilation 384 Mithörschwelle 205 MLC-Technik, dynamische 553 Modality Performed Precedure Step (MPPS) 817 Mode Switching 591 Modelling 841 Mode-Switch-Algorithmus 405 Modiolus 200 Modulationstransferfunktion 255 Modulationsverfahren 205 Molmasse 110 – native 115 Monitoring 132 – metabolisches 116 – therapeutisches 174 Mother-Baby-Endoskop 353
935 Sachverzeichnis
Motivation, instrinsische 74 Motor Unit Potential (MUP) 155 MPBetreibV 46 MPR-Tool 818 MR-Spektroskopie 280 Multidimensional Imaging (MDI) 332 Multi-Lamellen-Kollimator (MLC) 548 Multiplexer 88 Multischichtverfahren 279 Multitransducertechnik 620 Multizeilensystem (MSCT) 268
N N2-Gasanalysator 122 Nachladeverfahren 541 Nadelelektrode – konzentrische 152 – transtympanale 245 Nadelmyographie 154 Nadelstrahlprinzip 252 Nafion-Schlauch 671 NAL-Verfahren 238 Narkosegasableitung 863 Nasenbrille 708 Nasenklemme 112 Nasion 136 NBG-Code 586, 587 nCPAP 173 – Drucksensor 172 – Therapie 169 Nebenkeulen 323 Nebenstromverfahren 671 Nernst’sches Reizschwellengesetz 516 Nervenleitgeschwindigkeit (NLG) 132, 157, 632 Nervenstimulation, transkutane elektrische 604, 609 Netz, neuronales 780 Netzwerk, heterogenes 724 Netzwerkarchitektur 725 Netzwerkkomponent, aktiver 728 Neurographie 152 Neuroprothese 595 Neurotransmitter 197 Neutralelektrode 836 Neutralleiter 52 Newton’sches Bewegungsgesetz 194 Nicht-Labor-Monitor-System 172 Nicht-Rückatemsystem 380 Niederdrucksystem 654 Niederfrequenzbereich, elektrotherapeutischer 607
Niedrigkontrastauflösung 266 Nierenersatztherapie 443 Nierenlithotripter 501 Nonkontaktkoagulation 531 Non-stick-Technologie 533 Normotonie 651 Normoventilation 397 Notfalltherapie, endoskopische 349 Notified Body 864 NRZ-Code 762 Nullliniendrift 139 Nullpunkt, elektrischer 92 Nullpunktdrift 653 Nullpunktstabilität 690 Nur-Photonen-Maschine 547 Nutzenpotential 735 Nutzsignal 88, 181, 205, 215, 317 Nyquist-Frequenz 625 Nyquist-Limit 321 Nystagmographie 185 Nystagmus – optokinetischer (OKN) 186, 190 – perrotatorischer 190
O O2 – Bindungskurve 474, 665, 714 – Gehaltdifferenz, arteriovenöse (avDO2) 126 – Partialdruck 664, 873 – Sättigung 171, 177, 474, 633, 707 Oberflächenelektrode 133, 152, 157, 227 Oberflächennapfelektrode 160 Oberflächenreizelektrode 158 Oberflächenspule 276 Offline-Röntgen 506 Ohm, akustisches 218 Ohm’sches Gesetz der Akustik 195 Ohr-Kuppler-Transferfunktion 238 Ohrsimulator 239 Oldenburger Satztest 214 Operationslagerung 834 Operationsroboter 801 Operationstelemanipulator 854 OP-Lagerfläche 831 Organisation, tonotope 200, 242 Organisationsunterstützung 736 Orthopantographie 251 Orthovoltgerät 545 Ortsauflösung 257 OSI/ISO-Modell 720, 786
K–P
Ösophagusimpulselektrode 403 Ösophagus-Stimulation 579 Osseointegration 842 Ossikel 197 Oszillation, okuläre 186 Otoplastik 233 Outlinesystem 507 Oxygenator 467
P PACS 250 Paddel 401 Pager-System 643 PAL-Norm 351 Panel-PC 641 Panoramaschichtaufnahme 782 Parallelinfusion 565 Parameterextraktion 243 Partialdruck – arterieller (pa) 126 – gemischtvenöser 120 Partialdruckdifferenz 120 Partialdruckmessung, transkutane 713 Partial-Effekt 781 Partialvolumen 824 Partialvolumenartefakt 259 Patientendatenmanagement 701 Patientendatenverwaltungssystem 742 Pay-per-use 67 PCWP-Wert 654 PDCA-Zyklus 76 PD-Cycler 450, 458 Peak 313 Peak-Flowmetrie 110 Pencil-Strahlform 251 Perfusionsdruck, zerebraler 688 Perfusionsdruckbereich 688 Perfusionsmessung 264, 281 Permanentmagnet 275 PFC-Syndrom 712 Phasenkodierung 274 Phon 204 Phonation 212 Phonem 212 Phonetik 212 Phong-Shading 784 Phonskala 204 Phosphorspektroskopie 281 Photoeffekt 542 Photoelektronenvervielfacher 291, 301
936
Sachverzeichnis
Photolithographie 256 Photopeak-Ereignis 292 Phototherapie 612 pH-stat-Methode 474 PiCCO-Technologie 656 Piezoeffekt 313 Pigmentverfahren 625 Pitch 259 Pitch-Artefakt 825 Pitchfaktor 266 Pixel 263, 313, 318 Pixelclusterung 773 Pixeltopologie, diskrete 781 Pixel-Transformation 767 Planck’sches Strahlungsgesetz 367 Planung, präoperative 794 Plasmaseparation 448 Plethysmogramm 711 POGO-Formel 238 Point of Care 641 Pol, indifferenter 582 Polarisationsspannung 90, 133 Polygraphie, ambulante 174 Polysomnographie 172, 175 Portalbildgebung 554 Positionssensor 330 Potential – akustisch evoziertes (AEP) 161, 227 – bioelektrisches 628 – ereignisbezogenes (ERP) 167 – evoziertes 160 – exzitatorisch postsynaptisches (EPSP) 131, 200 – frühes akustisch evoziertes (FAEP) 227 – inhibitorisch postsynaptisches (IPSP) 131, 141 – motorisch evoziertes (MEP) 165 – somatosensorisch evoziertes (SEP) 163 – visuell evoziertes (VEP) 162 Potentialdifferenz, elektrische 132 Potentialmaximum 135 Potentialmuster, reizevoziertes 201 Power-Doppler 322 Priming 472 Prinzip, paramagnetisches 124 Problem, inverses 257 Produktklassifizierung 41 Produktqualität 80 Projektion, synthetische 250 Prothesenlockerung 850 Protonenspektroskopie 281 Provokationsmethode 145 Prozessdokumentation, zeitnahe 739
Prozessierungskapazität 295 Prozessor, biauraler 216 Psychoakustik 203 Public Access Defibrillation 402 Public Private Partnership (PPP) 66 Pulssequenz 274 Pulsverfahren 312 Puls-CO-Oxymeter 667 Pulse Transit Time (PTT) 179 Pulsed-Dose-Rate 545 Pulsoxymeter 667, 873 Pulsoxymetrie 665, 710 – 2-Wellenlängen 666 – fetale 695 Pulsreflexionsverfahren 319 Punkt, präaurikulärer 136 PWC-Verfahren 100
Q QRS-Triggerung 400 Qualität 73 Quanteninterferometer, supraleitendes 188 Quellenableitung 143 QWIP-Detektor 369
R Radionuklid, positronenemittierendes 285, 289 Radionuklidtherapie 545 Radonraum 257 RAID-Technologie 703 Randbeugungswelle 488 Rapid-Strand-Technik 551 Raumbuch, technisches 64 Rauschen 139, 150, 317 RDG 21 Reaktions-Audiometrie, elektrische (ERA) 201, 227 Realität, virtuelle 823 Realtime-Compound-Imaging 334 Realtime-Verfahren 311 Rebreathing-Methode 122 Recall-Aufnahme 771 Recruitment 202 Reduced lead set 645 Referenzpotential 136 Reflex – akustikofazialer 219
– vestibulookulärer (VOR) 186 Reflexionsgesetz 196 Reflexionskoeffizient 196, 217 Reflexionsverfahren 312 Reformatieren, multiplanares (MPR) 263 Reinigungsmittel 20 Reintonaudiogramm 207 Reiz, amplitudenmodulierter 231 Reizantwort, kortikale 165 Reizartefakt 223 Reizparadigma 205 Reizsequenz, nichtlineare 223 Reizstrom, stochastischer 610 Reizstromdiagnostik 605 Reizstromgerät 607 Reizung, monokuläre 163 Rejektionsfaktor 137 Rekonstruktion, sekundäre 263 Rekonstruktionsalgorithmus 297, 304 Release-Phase 392 Remodelling 841 Repeater 728 Repetitionszeit (TR) 274 Repolarisation 88, 131 Reservoirkondensator 584 Residualkapazität, funktionelle (FRC) 111, 122 Residuum 114 Resistanceschleife 118 Resonanzfrequenz 272 Resonator 276 Restrauschen 223, 227 Rheobase 586 Richtfunkverbindung 723 Richtmikrophon 236 Ringartefakt 260 Rinn’scher Stimmgabelversuch 208 Rinne-Test 206 Risikoanalyse 864 Risikomanagement 480 Risikoscore 571 RKI-Liste 23 Roboter, stereotaktischer 549 Rohdatenzeile 277 Röhrenspannung 266 Rollerpumpe 465, 466 Röntgenschublade 871 Röntgenstrahlung, polychromatische 262 Rotationstest 190 Rotationstherapie, intensitätsmodulierte 554 Router 729 RöV-Wert 817
937 Sachverzeichnis
Rückatembeutel 126 Rückprojektion, gefilterte 259 Rückwärts-Telemetrie 243
S Sakkade 186 Sammelelektrode 92 SAR-Monitor 278 SARS 367 Sauerstoffdiffusion 851 Sauerstoffpartialdruck, transkutaner 669 Sauerstoffsättigung, fetale 695 Schallempfindungsschwerhörigkeit 201 Schallgeschwindigkeit 195 Schallimpedanz 487 Schallintensität 493 Schallpegel 195 Schallpuls 195 Schallquelle, sphärische 504 Schallschatten 313 Schallschnelle 195 Schallwelle, elektrohydraulische 502 Schichtdicke 259, 266, 328 Schichtselektion 274 Schlafapnoesyndrom 169 Schlafdiagnostik 170 Schlaflabor 170 Schlaflatenztest, multipler (MSLT) 174 Schlafstadieneinteilung 177 Schleifringtechnologie 253 Schlüssel-Schloss-Prinzip 317 Schmalbandgeräusch 209 Schneiden, argonassistiertes 527 Schnittbild, überlagerungsfreies 249 Schnittbildverfahren 311, 823 Schockraum 250 – virtueller 249 Schrittmacher – dromotroper 592 – frequenzadaptiver 591 – implantierter 16 Schulungsbeauftragte 47 Schutzkleidung 16, 19 Schutzleiter 52, 95 Schutzziele 50 Schwächungskoeffizient 260 Schwarzer Körper 368 Schwarzkörperstrahlung 367 Schwelle, anaerobe 125 Schwellenschwundtest 211
Schwellwert, adaptiver 773 Schwerkraftinfusion 558 SCORM-Standard 809 SDDI Industriestandard 727 Second Harmonic Imaging 323 Seed 550 Segmentierung 773, 796 Segmentierungsverfahren, kantenorientiertes 774 Seitenstromverfahren 674 Seitstromanalyse 123 Sektor, elektronischer 327 Sektor-Phased-Array-Verfahren 330 Sensorapplikation, epidurale 691 Sequenzdokumentation 364 Seufzer-Funktion 393 Shannon’sches Abtasttheorem 260, 321 Shimverfahren 275 Shutter-Methode 115 Signal – biochemisches 628 – biomechanisches 630 – biooptisches 633 – biothermisches 633 – polygraphisches 172 – polysomnographisches 177 Signal-(zu)-Rausch-Verhältnis 267, 276, 297, 371 Signalprocessing 140 Silbenkompressor 234 Simulator, medizinischer 800 Single failure safety 584 Single fibre EMG 155 Single pass system 446 Single-Breath-Methode 120, 121 Single-Photon-Emitter 289 Sinogramm 257, 295 Sinuspumpe 115 SISI-Test 210 Skalpelektrode 694 Slave 385 Slew rate 584 SmartCare 397 Snake-Ansatz 777 Sobel-Operator 772 Softwaretrick 125 Solochirurgie 860 Sonagramm 212 Sonographie, endoskopische 358 Spallationseffekt 498 Speckle Reduction Imaging (SRI) 335 Specklemuster 335 SPECT 285 Spektralanalyse 683 – zeitvariante 146
Spektroskopie, photoakustische 672 Sphygmomanometer 648 Spinecho 273 – experiment 273 – sequenz 274 Spirogramm 105 Spirozeptor 109 Spontanatmung – assistierte 386 – druckunterstützte 386 Spontanfluss 315 Sprachaudiometrie 212 Sprachdiskriminationstest 212 Sprachperzeption 212 Sprachverständlichkeitsindex 213 Spraykoagulation 530 SQUIDS 150 Standard-Gerätekonfiguration 63 Standardkodierung 320 Standardlagerung 834 Stapediusreflex 219 Steady state 100 – Methode 122 – Potential 163 Stefan-Boltzmann-Gesetz 370 Step-and-Shoot-Technik (SS) 553 Step-and-Shoot-Verfahren 309 Stereozilien 198 Sterilisation 24 Sterilisationsparameter, prozessrelevante 26 Sterilität 17 Sternverteiler 728 STIKO 17 Stimmgabel 199 Stimulated acoustic emission (SAE) 325 Stimulation, passagere 579 Stimulationssystem, biatriales 592 Stirling-Kältemaschine 371 Storage Management System (HSM) 821 Störgrößeneinkopplung 591 Störpegelgrenzwert 207 Störphänomen 58 Störstrahlung 371 Störung, patientenbezogene 646 Stoßfrontdicke 487 Stoßwelle 485 Stoßwellen-Emitter, elektromagnischer 503 Strahlaufhärtungsartefakt 260 Strahlcharakteristik 255 Strahlentherapie, interne 287 Strahlentherapieplanungssystem 287
P–S
938
Sachverzeichnis
Streustrahlenkollimator 256 Streustrahlenraster 256 Streuung, inelastische 542 Stroboskop 143 Strom, diadynamischer 609 Stromversorgung, sichere 56 Strom-Zeit-Produkt 266 Submissionstermin 69 Subsekundenscanner 256 Subtraktionsmethode 322 Subtraktionstechnik 324 Sudden Infant Death Syndrome (SIDS) 171, 710 Sudden-onset 405 Supraleitungsmagnet, solenoidartiger 275 Surface Rendering 333 Sweep estimator 330 Switch 729 Synapse, axodendritische 201 Synchrotron 546 System – parakorporales 575 – tutorielles 806 Szintillationsdetektor 256, 543 Szintillator 291
T T4-Gesetz 368 Taktwaschanlage 20 T-Anschluss 115 Target Controlled Infusion (TCI) 564 TECAP-Messung 205 Teilinformationssystem 742 Telechirurgie 861 Telegammagerät 547 Telekonferenz 757 Telemanipulationssystem 853 Telemetrie 626 Teletherapie 544 Temperatur, myokardiale 474 Temperaturgleichgewicht 367 Template 156 – binäres 769 Template matching 647 TENS-Gerät 609 Test, überschwelliger 210 Testton, gepulst 207 Therapie, perkutane 544 Thermal Index (TI) 344 Thermistor 623, 679 Thermodilution 620
Thermographie 367 Thermokammschreiber 143 Thermokammschreibverfahren, digitales 89 Thermokonvektionsstrom 190 Thermolumineszenzdosimetrie 543 Thoraximpedanz 660 Thoraximpedanzkurve 709 Thumbnail 363 Tiefenselektion 693 Tiefpass 139 Tiffeneau-Test 105 Time-of-Flight – Impuls 110 – PET 291 – Technik 279 Tischsäule 831 Tissue Doppler Imaging (TDI) 322 Tissue Engineering 839 Titanimplantat 843 TOCO-Messverfahren 694 TOF-PET-Gerät 307 Tomogramm, rekonstruiertes 259 Tomographie 250 Tomosynthese 251 Tonaudiometrie 206 Tongenerator 162 Tonheit 204 Tonotopie 198 Tonotopieprinzip 243 Total Artificial Heart (TAH) 570, 576 Totale intravenöse Anästhesie (TIVA) 564 Totalreflektion 312, 334 Trabecular Metal 843 Tracer 269 Trackingtechnik 797 Trackingverfahren, elektromagnetisches 798 Transferfaktor 120 Transkapnode 713 Transmissionsschwerhörigkeit 201 Transmissionsverfahren 312 Transmitter 200 Transoxode 714 Transportinkubator 871 Trapping 288 Tretkurbelergometer 102 Triangulierung 264 Tribologie 848 Triggerfenster 390, 392 Triggerschwelle 383 Triggersignal 160 – QRS 88 TRIP 818
Triplexmode 321 Trommelfeldimpedanz 218 Trompetenkurve 566 Tubus 546 Tumorcharakterisierung 325 Turbospinechosequenz 278 Twisted-Pair-Datenkabel 722 Tympanogramm 218 Tympanometrie 217
U Überdruckbeatmung, nasale kontinuierliche 173 Ultrafiltration, blutvolumengesteuerte 454 Ultraschall-Flowmeter 110 Ultraschalldiffusion 345 Ultraschallgel 313 Ultraschallmolmassenspirometrie 123 Ultraschallpneumographie 114 Ultraschallsensor 107 Ultraschallvernebler 345 Umkehrosmoseanlage 453 Unschärfe, physikalische 290 Unterschiedsschwelle 205 Uvulopalatopharyngoplastik 183
V Validierung 25 Ventkatheter 469 Ventsauger 466 Venturi-Rohr 109 Verarbeitungsunterstützung 736 Verdampferanlage, cryogene 867 Verfahren, agglomeratives 776 Vergleichskosten 64 Verschlusseffekt 209 Verstärkermodul, retroaurikulär implantiertes 240 Verstärkungsregelung, automatische 234 Vertäubung 205 Vertäubungspegel 209 Verträglichkeit, elektromagnetische (EMV) 57 Verwischungstomographie 251 Vestibularisprüfung, kalorische 190 Vibrationshörer 207 Videookulographie (VOG) 188
939 Sachverzeichnis
Viewing-Station 263 Vigilance system 480 Vitalkapazität, forcierte (FVC) 105 Volumen-Rendering 263, 825 Volumensignal 106 Volumentransducer, digitaler 109 Volumenverifikation 112 Voxel 263, 296, 824
W Wahrnehmungsschwelle 584 WAN 719 Wanderwellenprinzip 548 Wandler – chemoelektrischer 620 – elektrischer 620 – mechanoelektrischer 621 – photoelektrischer 622 – potentiometrischer 620 – thermoelektrischer 622 Washout-Vorgang 122 Wasserschallsensor 495 Wasserscheiden-Transformation 776 Wasserstoffperoxid-NiedertemperaturPlasmasterilisation 28 Weaning 378, 389, 397 Weber-Test 206 Wedge-Position 654 Wellenzahl 195 Werkstoff, optimierter 849 Wernicke’sches Areal 201 Wheatstone-Brücke 109 Wiederaufbereitungsarbeit 16 Wiedergabekurve, normal akustische 237 Wilhelm-Tell-Effekt 691 Wilson-Stern 93 Wirbelstrombremse, elektromechanische 98 Wirkelektrode 613 Work Flow 79 Work of Breathing (WOB) 394 Workflow, radiologischer 819 Workgroup-Hub 728 Würzburger Hörfeldskalierung 211
X Xenograft 839 Xenongas 255
Z Zählrate, rauschäquivalente (NEC) 305 Zeitauflösungsvermögen 206 Zentrifugalpumpe 467 Zerfallrate 289 Zervikalnystagmus 186 Zirkulation, extrakorporale 463 Zone, tote 108 ZPA-Leitung 54 Zufallsereignis 292 ZVD-Kurve 654 ZVS 56 Zweikammer-Herzschrittmacher 587 Zweisensorsystem 591 Zyklotron 290, 546
S–Z
Farbteil
⊡ Abb. 10.10. Bildschirmdarstellung einer Bodyplethysmographie mit Resistance- und Verschlussdruckschleifen (Werksfoto: Ganshorn Medizin Electronic GmbH, Niederlauer)
942
Farbteil
⊡ Abb. 11.5. Charakterisierung von 128 Ag/AgCl-Elektroden über einen Zeitraum von 10 Tagen. Darstellung der Mittelwerte des Betrages der Impedanz aller Elektroden als Funktion der Signalfrequenz
⊡ Abb. 11.16. Beispiele für eine Signalanalyse
943 Farbteil
⊡ Abb. 11.26. Schema zur Bestimmung der motorischen Nervenleitgeschwindigkeit (NLG) des N. medianus. Gereizt wird in der Ellenbeuge, neben der Sehne des M. biceps brachii, und am Handgelenk
medial der Sehne des M. palmaris longus. Die Ableitung kann mit Oberflächenelektroden über dem M. flexor pollicis brevis erfolgen
944
Farbteil
⊡ Abb. 12.5. Polysomnographische Ableitung eines Patienten im Schlaflabor mit der Darstellung des Videobildes im oberen Fesnter. Folgende Biosignale sind dargestellt: das EEG C3:A1 und C4:A2, das
EOG, das EMG vom Mundgrund, der Flow, die Atemanstrengung, Schnarchgeräusche, die Sauerstoffsättigung, das EKG, die Herzfrequenz, das EMG vom Bein und die Körperlage
⊡ Abb. 12.6. Polysomnographische Darstellung insbesondere der respiratorischen Parameter einschließlich ihrer Bewertung durch die Markierung erkannter Apnoen oder Hypopnoen und Entsättigung
945 Farbteil
⊡ Abb. 12.7. Darstellung von Ergebnissen der Auswertung insbesondere der neurophysiologichen Biosignale. Es sind die Klassifikation der Schlafstadien nach Rechtschaffen und Kales, die Frequenzanalyse des
EEG zweidimensional als Funktion der Zeit und das zeitliche Auftreten von alpha- und delta-Wellen im EEG wiedergegeben
946
Farbteil
a
b
d
c
e
f
⊡ Abb. 15.5a–f. a Moderne Hochleistungsröntgenröhre, b Anschnitt und c Prinzip der Röntgenröhre mit Drehanode (Philips), d Prinzip des Multizeilen-Detektors, e kompletter Detektor eines 64-Zeilen CT-Sys-
tems (Siemens), f Realisierung eines 41 cm × 41 cm großen Flächendetektors mit 2048×2048 Pixeln (General Electric)
947 Farbteil
⊡ Abb. 15.9a–i. Oben: Angiographie mit dem CT (CTA). a Maximum-Intensity-Projection (MIP), b Volumen-Rendering, c Ausschnittsvergrößerung des Knies und Darstellung von der Rückseite, d Knocheneliminierung mit einer Bone-Removal-Technik. e Unten: Koronale Reformatierung, f–i Volumen- und Oberflächen-Rendering: i Virtuelle Endoskopie des Darms zusammen mit der g Darstellung der virtuellen Endoskop-Trajektorie und eines h virtuell aufgeschnittenen Darmstücks in Zylinderkoordinaten
⊡ Abb. 15.10a–d. a Perfusionsmessung bei Schlaganfallpatienten, b Abbildung eines Lungenemphysems, c Bildgebung (CTA) der Kopfgefäße und d Herzbildgebung (CTA): Koronarstent
948
Farbteil
⊡ Abb. 17.1. Projektions-PET-Bilder einer Patientin mit rezidivem Mammakarzinom 3 Jahre nach initialer Mastektomie rechts. Aufgrund steigender CA15-3-Werte wurden sowohl Röntgen-, CT- und Ultraschalluntersuchungen als auch eine Tc-Knochenszintigraphie durchgeführt, jedoch alle ohne Befund. Erst die PET-Untersuchung zeigt das
⊡ Abb. 17.3. Beispiel einer Strahlentherapieplanung eines Lungenkrebspatienten. Die morphologische Bildinformation der CT ist grau dargestellt, die funktionale (metabolische) der PET in gelb. Die roten Areale markieren das geplante Bestrahlungsvolumen vor dem Vorliegen der PET-Information (Bilder mit frdl. Genehmigung von Dr. A. Waxman und Dr. R. Thompson, Cedars Sinai Medical Center, Los Angeles, USA)
Ausmaß des Rezidivs mit Knochenmarkbefall, axillären sowie mediastinalen Lymphknotenmetastasen als auch fokalen Knochenmetastasen (Bilder mit frdl. Genehmigung von Dr. J.F. Gaillard, Hôpital des Instructiones des Armées Val de Grace, Paris, Frankreich)
949 Farbteil
⊡ Abb. 17.13. Prinzip der Datenspeicherung der Projektionen der gemessenen Aktivitätsverteilung (links) in Sinogrammen mit Polarkoordinaten (rechts). (Abb. mit frdl. Genehmigung von W. Böning, Technische Universität München)
a
b
⊡ Abb. 17.20a–d. Verschiedene Szintillationskristalle für die PET. a Ausgangsmaterialien zur Herstellung und gewachsenes Rohmaterial (Ingot), b BGO-Kristalle zum Block verklebt mit Photomultiplier (PMT),
a
c
d
c GSO-Einzelkristalle im Vergleich mit 1 Cent Münze, d LYSO-Kristalle, verklebt zu vorgefertigten Detektoreinheiten
b
⊡ Abb. 17.21a,b. In kommerziellen PET-Systemen eingesetzte Photoelektronenvervielfacher (engl.: Photomultiplier-tubes = PMTs). a PMT mit flacher Kathode, b PMT mit sphärischer Kathode zur Verbes-
serung der Homogenität des Zeitverhaltens. Im linken Graph von b kennzeichnet die hellblaue Fläche Areale mit gleichem Zeitverhalten (Abb. mit freundlicher Genehmigung der Fa. Philips)
950
Farbteil
a ⊡ Abb. 17.31a,b. a Zählratencharakteristik eines modernen PET-Systems, b Erhöhung der NEC-Rate durch Designverbesserungen gegenüber Vorgänger- (rot) und Nachfolgersystem (grün). Die blau unterlegten Areale kennzeichnen die typischen Aktivitätsbereiche für klinische
b
FDG-Untersuchungen (links) und Untersuchungen mit kurzlebigen Tracern (rechts) (Abb. mit freundlicher Genehmigung von F. Benard, Universite de Sherbrooke (a) und Fa. Philips (b))
⊡ Abb. 17.33. Veranschaulichung der Zunahme der relativen Empfindlichkeit als Funktion des Objektdurchmessers (Patientengröße und -gewicht). Die gelben Kurven symbolisieren die durch die TOF-Information zusätzlich gewonnene Ortsinformation über die Annihilation, deren Auflösung gegenwärtig ca. 10 cm beträgt. Damit passen in einen schlanken Patienten ca. 2,5 Perioden dieser Funktion (links), was einem relativen Empfindlichkeitsgewinn von 2,5 entspricht, in einen normalen Patienten von ca. 3 und in einen fülligen Patienten von ca. 4. Damit kompensiert die TOF-Information den Zählratenverlust durch die Abschwächung (Abb. mit freundlicher Genehmigung von J. Karp, University of Pennsylvania, Philadelphia)
⊡ Abb. 17.35. Charakteristische Layouts der Software zur Bedienung von kombinierten PET-CT-Geräten. Links ein Akquisitionsbildschirm, rechts ein Beispiel eines Analysebildschirms mit den transaxialen (linke Spalte), sagittalen (mittlere Spalte) und koronalen (rechte Spalte)
Schnitten der PET- (obere Reihe), CT- (mittlere Reihe) und kombinierten (untere Reihe) Aufnahmen eines Patienten (Abb. mit freundlicher Genehmigung der Fa. Philips)
951 Farbteil
⊡ Abb. 18.10. Das Prinzip von »Digitally Encoded Ultrasound« (DEU) und »Coded Excitation«
⊡ Abb. 18.11. Beispiel Duplexprinzip (A. carotis communis). B-Mode mit »sample volume« (oben), pw-Spektrum (unten)
⊡ Abb. 18.14. Beispiel Farbdopplerbild (Mitralinsuffizienz, bestehend aus drei Jets an einer SJM-Klappenprothese, transösophageale Sonde)
⊡ Abb. 18.28. Konventionelle Technik (links) vs. »active matrix array« (rechts) ⊡ Abb. 18.13. Beispiel Farbdopplerbild mit Aliaseffekt (Abgänge der beiden Nierenarterien von der Aorta)
952
Farbteil
⊡ Abb. 18.36. Fetales Gesicht im Oberflächenmodus
⊡ Abb. 18.33. Rekonstruktion der dritten Ebene (z-Achse) aus einem 3D-Datensatz
⊡ Abb. 18.34. Darstellung des 3D-Kubus mit den drei zugehörigen, jeweils senkrecht aufeinander stehenden 2D-Ebenen (Multiplanarmodus)
953 Farbteil
⊡ Abb. 18.37. Herzinnenwände (linker Vorhof und Aortenbulbus) im Oberflächenmodus
954
Farbteil
a ⊡ Abb. 19.4a. Feinkaliberendoskop, technische Daten siehe Text, Bildbeispiele von oben nach unten: Stent in der Carotis, normaler Gallengang, entzündeter Harnleiter
955 Farbteil
b ⊡ Abb. 19.4b. Feinstkaliberendoskope (Wichtigste technische Daten: links: 3000 Pixel, d=0,55 mm, Blickwinkel 70°, rechts: 6000 Pixel, d=1,1 mm, Blickwinkel 70°). Klinische Beispiele: Tränengangendoskopie
(Mitte) und 4 Einblicke in die Milchgänge der weiblichen Brust (unten). (Abbildungen mit freundlicher Genehmigung der PolyDiagnost GmbH)
956
Farbteil
⊡ Abb. 19.5. Mother-Baby-Endoskop zur Diagnostik und Therapie biliopankreatischer Erkrankungen. Mother: 12 mm ∅, Instrumentierkanal 3,24 mm, Baby: 3 mm ∅, Instrumentierkanal 1,9×1,3 mm mit Dormiakörbchen, Spülkanal 0,55 mm ∅ mit Wasserstrahl
⊡ Abb. 19.6. Doppelballonenteroskopie (DBE) siehe Text. Endoskop mit Overtubus, beide ballonarmiert, Röntgenbild der anterograden und retrograden Anwendung. Endoskopische Bilder: Adenom, hae-
morrhagische Enteritis, Angiodysplasie (von links nach rechts) (Abbildung mit freundlicher Genehmigung der Fujinon GmbH)
957 Farbteil
⊡ Abb. 19.8a,b. Blick durch ein Vergrößerungsendoskop auf die Darmschleimhaut. a ohne und b mit Chromographie (Abbildung mit freundlicher Genehmigung der Fujinon GmbH)
⊡ Abb. 19.9a,b. Effekt der elektronischen Kontrastverstärkung zur Hervorhebung von Detailstrukturen. a Normalbild, b mit digitaler Strukturverstärkung (Abbildung mit freundlicher Genehmigung der Olympus Optical Co. (Europa) GmbH)
958
Farbteil
a
bb
ba ⊡ Abb. 19.10a,b. Elektronische Farbdifferenzierungsverfahren eröffnen ganz neue Möglichkeiten der Diagnostik. a Prinzip FICE-System (Fujinon), b klinische Beispiele ba FICE-Bild einer Barrett-Läsion (Fuji-
non), bb NBI-Bilder: Barrett-Läsion und Colonpolyp (Olympus) (Abbildungen mit freundlicher Genehmigung der Fujinon GmbH und der Olympus Optical Co. (Europa) GmbH)
959 Farbteil
a
b
c
⊡ Abb. 19.11a–c. Endomikroskopie. a Distalende des Spezialendoskops mit integriertem Endomikroskop, b Prinzip der Bildgebung in horizontalen Schnittebenen, c histologisches Bild und endomikros-
kopisches Korrelat. (Mit freundlicher Genehmigung der Fa. Optiscan/ Australien)
960
Farbteil
a
b ⊡ Abb. 19.12a,b. Ultraschallendoskope. a Verschiedene Gerätschaften zur Endosonographie: Linearscanner (links oben), Radialscanner (rechts oben), Minisonden (links unten). Endosmographisches Bild (rechts unten): Zystischer Pankreastumor mit Umgebungskreisläufen (Farbdopp-
ler-Darstellung), b Zwei-Ebenen-Rekonstruktion mit Spezial-Minisonde (links submuköser Magentumor, rechts breitbasiges Adenom im Rektum) (Abbildungen mit freundlicher Genehmigung der Hitachi Medical Systems GmbH und der Olympus Optical Co. (Europa) GmbH)
961 Farbteil
a
⊡ Abb. 19.16. Miniaturisiertes Kombigerät (Lichtquelle und Videoprozessor) für die flexible Endoskopie (Abbildung mit freundlicher Genehmigung der Karl Storz GmbH & Co. KG)
b
c ⊡ Abb. 19.13a–c. Kapselendoskopische Bilder. a Aktive Blutung, b Morbus Crohn, c Tumor (Abbildungen mit freundlicher Genehmigung der Given Imaging GmbH)
962
Farbteil
⊡ Abb. 20.1. Das Spektrum der elektromagnetischen Wellen und seine typischen Bänder
⊡ Abb. 20.5a–c. Anwendungsbeispiele der IR-Bildgebung in der medizinischen Diagnostik. a Abkühlung der Hand als Reaktion der Gefäßverengung beim Rauchen, b Temperaturänderung der Oberschenkel bei sportlicher Belastung auf dem Ergometer (Arcangelo Merla: Functional Infrared Imaging Lab., University »G. d‘Annunzio«, Italien; Merla, Di Donato und Romani 2002) und c Wiedererwärmungssequenz eines Basalzellenkarzinoms nach Abkühlungsprovokation (Schumann et al. 2005)
963 Farbteil
⊡ Abb. 23.1. Medizinische Lasersysteme mit ihren Wellenlängen
⊡ Abb. 23.17. Eindringtiefe von Laserstrahlung in die Haut und mögliche Hautschäden in Abhängigkeit von der Wellenlänge [nm]
⊡ Abb. 23.18. Übersicht über die Laserklassifizierung (für eine Emissionszeiten von 103 s)
964
Farbteil
⊡ Abb. 25.1. Prinzip der Diffusion
⊡ Abb. 25.3. Prinzip der Hämodialysebehandlung
965 Farbteil
⊡ Abb. 25.4. Flussschema der Online Hämodiafiltration
⊡ Abb. 25.5. Prinzip der Peritonealdialysebehandlung
⊡ Abb. 25.6. Hämodialyse-Therapiesystem
966
Farbteil
⊡ Abb. 25.7. Monitor eines Hämodialysesystems
⊡ Abb. 25.8. Extrakorporaler Blutkreislauf und Hydrauliksystem eines Dialysegeräts
967 Farbteil
⊡ Abb. 27.7. Viele räumliche DruckpulsFeld-Parameter werden normgemäß aus den axialen und radialen Druckverteilungen des Überdrucks abgeleitet. Für die Bewertung der Zertrümmerungswirkung ist allerdings die Energie E12mm in der Zone innerhalb eines 12 mm Durchmessers sowie die Energie E5MPa in der Zone, in der der positive Druck 5 MPa übersteigt, von weitaus größerer Bedeutung
⊡ Abb. 27.8. Energien (Kreissymbol) werden durch räumliche Integration der Energieflussdichte (Rautensymbol) bestimmt. Bei kreissymmetrischer Schallquelle kann man die Energie in Abhängigkeit vom Radius der Querschnittsfläche im Fokus angeben. Biologisch wirksame Flächen sind diejenigen, deren Rand von Schwellwerten wie dem für Stressfaserbildung in Zellen (0,1 mJ/mm²) oder Endothelablösung (0,3 mJ/mm²) begrenzt wird. Auch für Konkrementzertrümmerung gibt es solche Grenzwerte. 1. Fokusenergieflussdichte 2. Radius r2 der Fläche, die Energieflussdichten größer als 0,3 mJ/mm² einschließt;
3. Radius r3 der durch die Druckhalbwertsbreite FWHM eingeschlossenen Fläche, Integration ergibt die Fokusenergie; 4. Radius r4 der Fläche, die Energieflussdichten größer als 0,1 mJ/mm² einschließt; 5. Radius r5 (hier 6 mm) der Fläche eines typischen Konkrements oder eines Standard-Modellsteins, Integration ergibt eine für die Steinzertrümmerung relevante effektive Energie; Die Integration bis zum Rand des messbaren Bereiches ergibt die Gesamtenergie im Fokus. Der Wert wird i. Allg. gut angenähert durch Integration bis zur 5 MPa Grenze (nicht im Bild gezeigt)
968
Farbteil
⊡ Abb. 28.8. HF-chirurgische Schnitte mit unterschiedlichen Crestfaktoren. Oben: Mit unmoduliertem Strom resultiert ein »glatter« Schnitt (pure cut), der am Schnittrand nur eine minimale, thermische Wirkung zeigt. Mitte: Modulierter Strom verursacht einen »verschorften« Schnitt (blend cut), durch dessen thermische Wirkung am Schnittrand
ein schmaler Koagulationssaum resultiert. Unten: Stark modulierter Strom verursacht einen »stark verschorften« Schnitt (super blend cut). Aus der kräftigen, thermischen Wirkung resultieren ein breiter Koagulationssaum und eine leichte Karbonisierung am Schnittrand
969 Farbteil
⊡ Abb. 28.15. Kontinuierliche Statusanzeige über die Anlagequalität der geteilten Neutralelektrode
⊡ Abb. 28.12. Moderne HF-Chirurgie-Behandlungseinheit mit HF-Gerät und Argonbeamer. Die Argongasflasche wird im Gerätewagen deponiert
⊡ Abb. 28.13. Gegenüberstellung einer argonunterstützten Koagulation (links) und einer Spraykoagulation (rechts)
970
Farbteil
⊡ Abb. 29.9. Linearbeschleuniger Varian Clinac 21 EX® (links) mit Strahlführung (rechts) (Quelle: Fa. Varian Medical Systems/ Palo Alto, USA)
⊡ Abb. 29.10. Miniaturbeschleuniger Zeiss INTRABEAM® (links) mit Beschleunigersektion (rechts) (Quelle: Fa. Zeiss/ Oberkochen)
971 Farbteil
⊡ Abb. 29.12. Ruthenium-106-Applikator mit Ausschnitt für die Hornhaut
⊡ Abb. 29.14. Einfluss eines Stents auf das Zellwachstum; links ohne und rechts mit radioaktiver Beschichtung (Quelle: aus Vorlesungsskript ETH Zürich, CH)
⊡ Abb. 29.15. Multilamellenkollimator (MLC) (Quelle: Fa. Varian Medical Systems/ Palo Alto, USA)
972
Farbteil
⊡ Abb. 30.1. Ausgedehnte Infusionstherapie bei Intensivpatienten
⊡ Abb. 30.11. Allgemeine und servicerelevante Daten, mit handelsüblichem Browser abrufbar
973 Farbteil
⊡ Abb. 31.1. Das HeartMate VE ist das weltweit am meisten implantierte Assist Device. Die granulierte Titanbeschichtung der inneren Oberfläche ermöglicht das Einwachsen von Bindegewebszellen (A) und die Entwicklung einer stabilen Neointima (B). Dadurch besteht nur ein geringes Risiko thromboembolischer Komplikationen, eine Antikoagulation mit 100 mg Aspirin pro Tag ist ausreichend Vorteile: Geringe Thromboembolierate, kein Cumarin erforderlich, hoher pulsatiler Fluss. Nachteile: Häufige Infektionen der Aggregattasche, Verschleiß der biologischen Klappen, Aggregatversagen bei langer Unterstützungsdauer
⊡ Abb. 31.4. Schematische Darstellung einer biventrikulären Unterstützung MEDOS HIA. Das linksventrikuläre Device pumpt Blut vom linken Vorhof in die Aorta ascendens. Alternativ ist auch eine Kanülierung der linken Ventrikelspitze anstelle des linken Vorhofes möglich. Die rechtsventrikuläre Pumpe transportiert Blut vom rechten Vorhof in die A. pulmonalis. A: Die Pumpkammern und die Klappen sind vollständig aus Polyurethan gearbeitet, was die Erkennung von Thromben erleichtert. (Quelle: Medos Medizintechnik AG, Stolberg)
974
Farbteil
⊡ Abb. 33.5. Schematische Darstellung einer bidirektionalen Handprothese
⊡ Abb. 35.28. Thermographische Registrierung der Oberflächentemperatur des Handrückens einer 20-jährigen Probandin vor und 2 min
⊡ Abb. 35.31. Mapping der kortikal erfassbaren bioelektrischen Potentiale während einer Blickwendung nach rechts. Es ist die Dynamik der Potentialverteilung in 1-msAbschnitten in einem Zeitbereich von 5 ms vor bis 9 ms nach dem Beginn der Sakkade dargestellt
nach dem Rauchen einer Zigarette. Die Verminderung der Temperatur infolge einer Reduzierung der Durchblutung ist gut zu erkennen
975 Farbteil
⊡ Abb. 37.2. Monitorbild mit Arrhythmie-Ereignisfenster
⊡ Abb. 37.7. Unterschiedliche Druckkurven und Minitrends im Monitorbild
⊡ Abb. 37.8. Messorte und typische Druckverlaufskurven in verschiedenen Herz- und Gefäßabschnitten
976
Farbteil
⊡ Abb. 37.9. PA-Katheter in Wedge-Position
⊡ Abb. 41.7. Technische Möglichkeiten zur klinischen Hirndruckmessung
977 Farbteil
⊡ Abb. 42.8. Beispiel von am CTG eingegebenen Notizen
⊡ Abb. 42.10. Beispiel eines intelligenten Alarms
978
Farbteil
⊡ Abb. 42.11. Beispiel für eine Übersichtsdarstellung
⊡ Abb. 42.15. Dokumentationsbeispiel für einen krankenblattbasierenden Patientenbericht (Partogramm)
979 Farbteil
⊡ Abb. 42.18. Identifizierung fernübertragener CTG-Daten per Telefonsymbol
980
Farbteil
⊡ Abb. 45.4. Aktenübersicht mit Hüft-TEP-Pfad
⊡ Abb. 45.8. Aktenübersicht nach erstem Behandlungstag
981 Farbteil
⊡ Abb. 47.3a–c. Grauwertspreizung. a Der Ausschnitt einer Röntgenaufnahme zeigt die spongiöse Knochenstruktur aus dem Bereich des Kiefergelenkes nur mangelhaft, da die Röntgenaufnahme stark unterbelichtet wurde, b das zugehörige rot dargestellte Histogramm ist nur
Referenzbild
Registrierung
schmal besetzt. Durch Histogrammspreizung werden die Säulen im blauen Histogramm linear auseinandergezogen und das zugehörige Röntgenbild in c erscheint kontrastverstärkt
Kontrastangleich
Recall- Untersuchung Subtraktion ⊡ Abb. 47.6. Unimodale Registrierung. In der dentalen Implantologie werden Referenzbild und Recall-Untersuchung zu verschiedenen Zeiten aufgenommen. Die geometrische Registrierung mit nachfol-
Segmentierung gendem Kontrastangleich ermöglicht die digitale Subtraktion der Bilder. Die Knochenresorption ist im segmentierten Bild rot dargestellt (Lehmann et al. 2005)
982
Farbteil
⊡ Abb. 47.7. Multimodale Registrierung und Fusion. 1. Reihe: T1gewichtete MR-Schnittbilder einer 66-jährigen Patientin mit rechts parietalem Glioblastom. 2. Reihe: korrespondierende PET-Schichten nach multimodaler Registrierung. 3. Reihe: Fusion der registrierten Schichten zur Planung des Operationsweges. 4. Reihe: Fusion der
MR-Daten mit einer PET-Darstellung des sensomotorisch aktivierten Kortexareales. Das aktivierte Areal tangiert nur das perifokale Ödem und ist daher bei der geplanten Resektion nicht gefährdet (Klinik für Nuklearmedizin, RWTH Aachen, aus: Wagenkneckt et al. 1999)
983 Farbteil
⊡ Abb. 47.9. Statische Schwellwertsegmentierung eines CTSchnittbildes. Der CT-Schnitt aus dem Bereich der Wirbelsäule kann statisch segmentiert werden, da durch die Normierung der HounsfieldEinheiten (HU) auf einen Bereich [–1000, 3000] sog. Knochen- [200, 3000] oder Weichteilfenster für Wasser [–200, 200], Fett und Gewebe [–500, –200] sowie Luft [–1000, –500] fest definiert werden können
⊡ Abb. 47.10a–e. Dynamische Schwellwertsegmentierung einer Mikroskopie. a Die Mikroskopie einer Zellkultur wurde b global, c lokal adaptiv und d pixeladaptiv segmentiert. Nach morphologischer Nach-
bearbeitung zur Rauschunterdrückung sowie einer Connected-Components-Analyse ergibt sich e die endgültige Segmentierung (Metzler et al. 1999)
a
b
c
d
e
f
g
h
⊡ Abb. 47.12a–g. Kantenbasierte interaktive Live-Wire-Segmentierung. Zunächst setzt der Benutzer mit dem Cursor (gelb) einen Startpunkt an der Grenze zwischen weißer und grauer Hirnsubstanz a. Sodann wird die jeweilige Verbindung zur aktuellen Cursorposition mit rot angezeigt b–e. Je nach Cursorposition kann die Kontur dabei auch zwischen ganz unterschiedlichen Verläufen im Bild hin und her
springen d,e. So kann der Benutzer eine geeignete zweite Stützstelle auswählen. Das so fixierte Kurvensegment wird blau dargestellt. Mit drei weiteren Stützstellen e–g ist in diesem Beispiel die Segmentierung bereits abgeschlossen, und die Kurve wird durch Positionierung des Cursors in der Nähe des Starkunktes geschlossen (Institute for Computational Medicine, University Mannheim, nach König u. Hesser 2004)
984
Farbteil
a
b
c
d
e
f
g
⊡ Abb. 47.13a–g. Hierarchische Region-Merging-Segmentierung. Die Röntgenaufnahme der Hand a wurde auf verschiedenen Auflösungsstufen segmentiert b, c und d. Je nach Größe der Objekte können
diese in der passenden Hierarchieebene lokalisiert e, mit Ellipsen approximiert f oder als Knoten in einem Graphen visualisiert g werden
⊡ Abb. 47.14. Ballon-Segmentierung einer Zellmembran. Die Einzelbilder zeigen den Ballon zu verschiedenen Zeitpunkten während der Iteration. Beim Berühren der Zellmembran verhindern die starken Bildkräfte die Weiterbewegung der Kontur. Die internen Kräfte wur-
den in dieser Applikation so modelliert, dass sie dem Verhalten einer physikalischen Membran entsprechen. Dies ist am »Adhäsionsrand« des Ballons im Bereich des Dendriten (unten links) deutlich erkennbar (Metzler et al. 1998)
985 Farbteil
⊡ Abb. 47.15. Segmentierung mit einem dreidimensionalen Ballon-Modell. Der CT-Volumendatensatz aus dem Bereich der Wirbelsäule (links) wurde mit einem 3D-Ballon-Ansatz segmentiert. Der Bandscheibenvorfall (Prolaps) ist in der oberflächenbasierten 3D-Rekonstruktion nach automatischer Segmentierung deutlich erkennbar (rechts). Die Darstellung erfolgte mit Phong-Shading (vgl. Abschn. 47.9) (Bredno 2001a)
⊡ Abb. 47.16a–j. IDEFIX – Identifizierung dentaler Fixturen. a In der Röntgenaufnahme des seitlichen Unterkiefers stellt sich ein dentales Implatant dar. b Zur Merkmalsextraktion wird das Bild mit einem lokal adaptiven Schwellwert binarisiert. c Die morphologische Filterung trennt einzelne Bereiche und eliminiert Störungen. d In diesem Beispiel wurden drei Regionen segmentiert. Die weitere Verarbeitung ist für das blaue Segment dargestellt. Nach dessen Ausblendung wird die morphologische Erosion c durch eine nachfolgende Dilatation kompensiert e und vom Zwischenbild b subtrahiert. Über eine beliebige Koordinate des blauen Segmentes aus d kann nun das korrespondie-
rende Objekt extrahiert g und durch Karhunen-Loève-Transformation in eine Normallage gebracht werden h. Geometrische Dimensionen können nun als regionenbasierte Merkmale bestimmt und zu einem Merkmalsvektor zusammengefasst werden. Die Klassifikation im Merkmalsraum erfolgt mit dem statistischen k-Nearest-Neighbor-Klassifikator i, der das blaue Segment zuverlässig als Branemark Schraubenimplantat identifiziert j. Im Rahmen des Trainings wurden zuvor die (hier: geometrischen) Merkmale verschiedener Implantattypen ermittelt und in den Merkmalsraum i als Referenz eingetragen (Lehmann et al. 1996)
986
Farbteil
⊡ Abb. 47.17a–c. Quantifizierung synaptischer Boutons auf einer Zellmembran. Die Zellmembran wurde in der Mikroskopie (⊡ Abb. 47.12) mit einem Ballon-Modell segmentiert. Hierbei können lokale Konfidenzwerte ermittelt werden, die die Zugehörigkeit einzelner Konturabschnitte zur tatsächlichen Zellmembran unscharf klassifizieren
a. Die Zellkontur wird extrahiert, linearisiert, normalisiert und binarisiert, bevor die Besetzung der Zellmembran mit synaptischen Boutons unterschiedlicher Größe durch morphologische Filterung analysiert wird b. Die Konfidenzwerte aus a werden bei der Mittelung der Besetzung entlang der Zellmembran berücksichtigt c (Lehmann et al. 2001b)
⊡ Abb. 47.18. Schritte der Bildinterpretation zur automatischen Erhebung des Zahnstatus. Das OPG enthält alle für den Zahnstatus relevanten Informationen. Die symbolische Beschreibung der Szene erfolgt zunächst durch ein semantisches Netz. Der dargestellte Teil des Netzes repräsentiert trotz seiner bereits beträchtlichen Komplexität nur den oval markierten Ausschnitt aus dem linken Seitenzahnbereich. Im Zahnstatus wird dieselbe Information anders aufbereitet. Die Zähne werden hierzu nach dem Schlüssel der Fédération Dentaire Internatio-
nale (FDI) benannt: die führende Ziffer kennzeichnet den Quadranten im Uhrzeigersinn, die nachfolgende Ziffer die von innen nach außen fortlaufende Platznummer des Zahnes. Vorhandene Zähne werden durch Schablonen repräsentiert, in denen Füllungen im Zahnkörper oder in der -wurzel blau markiert werden. Kronen und Brücken werden neben den Zähnen rot gekennzeichnet. Der grüne Kreis an 37 weist auf einen kariösen Prozess hin
987 Farbteil
⊡ Abb. 47.19. 3D-Visualisierungen. Durch das dreidimensionale Modell der inneren Organe auf Basis des Visible Human (Spitzer et al. 1996) bietet der Voxel-Man 3D-Navigator eine bisher unerreichte Detaillierung und zahlreiche Interaktionsmöglichkeiten. In der direkten Volumenvisualisierung sind neben räumlichen Ansichten auch andere Darstellungen wie simulierte Röntgenbilder möglich. (Institut für Mathematik und Datenverarbeitung in der Medizin, Universität Hamburg; aus Pommert et al. 2001)
988
Farbteil
⊡ Abb. 48.3. Links virtueller Anatomieatlas (Müller et al. 1999); rechts virtueller Patient (Müller et al. 1997)
⊡ Abb. 48.4. Bronchoskopie-Simulator mit individuellen CT-Daten
989 Farbteil
⊡ Abb. 48.8. VR-basierte medizinische Simulation
⊡ Abb. 48.10. Modellierung einer virtuellen Gebärmutter
⊡ Abb. 48.14. Graphical User Interface
⊡ Abb. 48.15. Simulation von Arthroskop und Tasthaken
990
Farbteil
c
d ⊡ Abb. 53.4a–d. a Titanexplantate mit deutlicher knöcherner Integration, b Anwachsen auf grobgestrahlter Oberfläche, c Trabecular Metal und d spongiöser Knochen
,Z]KS]VL*QVLMIZJMQ\MV";\ÛZ\b/UJ0?ÛZbJ]ZO